Samstag, Oktober 25, 2025
Start Blog Seite 28

Meldungen zu Corona und Abwasser

0
Meldungen 2022      

Juni 2023
Weitgehendes Aus für Covid-Datenveröffentlichung Ende Juni
Mai 2023
Warum ebbt die versteckte Coronawelle trotz Frühling nicht ab?
Viren im Abwasser – Corona-Welle erfasst die Schweiz
März 2023
Abwassermonitoring in der Pfalz überwacht Coronalage
Hessen: Corona im Abwasser: Projekte in Kläranlagen stocken
Abwassermonitoring wird als Pandemie-„Wachturm“ beibehalten und aufgestockt
Tirol: Wieder mehr Coronaviren in Tirols Abwasser: Aktuell höchster Wert seit März 2022 gemessen
Hamburg /Abwasser: Wichtige Ressource und Informationsquelle für Pandemiebekämpfung
Hallstatts Abwasser wird untersucht
Klärwerk Neu-Ulm: Hoher Anteil von Coronaviren im Abwasser
Februar 2023
Stuttgart: Corona-Abwasseranalysen durch das Zentrallabor der SES
So schafft Kärnten schrittweise die Coronamaßnahmen ab
Januar 2023
Corona im Abwasser: Projekte in Kläranlagen stocken
Ausweitung des Abwasser-Monitorings auf SARS-CoV-2 im Saarland
Corona-Nachverfolgung im Abwasser – Forschungsprojekt INSIDe gestartet

 


Weitgehendes Aus für Covid-Datenveröffentlichung Ende Juni

Nach mehr als drei Jahren will das Gesundheitsministerium die tagesaktuelle Veröffentlichung der Corona-Daten weitgehend einstellen. Derzeit veröffentlicht das Ministerium noch täglich, wie viele Menschen in Österreich an Covid-19 erkrankt oder nach einer Infektion verstorben sind. Mit 1. Juli läuft das aus. Als Ersatz soll es ab August ein neues Dashboard mit Daten zu schweren Atemwegserkrankungen geben.

Begründet wird das Ende der täglichen Corona-Bilanz damit, dass Covid-19 mit Ende Juni aus der Liste der meldepflichtigen Krankheiten gestrichen wurde. Aktuell enthalten die im Internet veröffentlichten Dateien…mehr:

https://www.kleinezeitung.at/service/newsticker/chronik/6297322

(nach oben)


Warum ebbt die versteckte Coronawelle trotz Frühling nicht ab?

Die Viruslast im Abwasser der Schweizer Kläranlagen ist so hoch wie in der Sommerwelle 2022 und sogar höher als im vergangenen Herbst. Der Zürcher Infektiologe Huldrych Günthard erklärt, was die versteckte Coronawelle ….

https://www.aargauerzeitung.ch/leben/covid-19-warum-ebbt-die-versteckte-coronawelle-trotz-fruehling-nicht-ab-ld.2445558?reduced=true

(nach oben)


Viren im Abwasser – Corona-Welle erfasst die Schweiz

In der Schweiz stecken sich momentan offenbar viele Leute mit dem Coronavirus an.
Das zeigen die Viruswerte im Wasser von regionalen Kläranlagen, die das Bundesamt für Gesundheit regelmässig veröffentlicht.
Wie viele Menschen infiziert sind, lässt sich nicht sagen. Denn es wird kaum mehr getestet.
Eine versteckte Coronawelle grassiert in der Schweiz. In den Kläranlagen ist die Viruslast so hoch wie in der Sommerwelle 2022 und höher als im letzten Herbst. Besonders betroffen sind etwa die Regionen Luzern, Winterthur, Bülach und Bremgarten im Aargau.

Sars-CoV-2 (noch) nicht saisonal geworden
Während Sars-CoV-2 noch immer stark im Umlauf ist, sind andere respiratorische Erkrankungen wie Influenza und RSV hierzulande verschwunden. Corona ist also bis anhin (noch) nicht saisonal geworden, wie diverse Experten vorausgesagt hatten.

Die Gründe sind laut Huldrych Günthard, Leitender Arzt an der Klinik für Infektionskrankheiten am Universitätsspital Zürich, noch offen. Wie er gegenüber der «Schweiz am Wochenende» erklärt, sei die Immunität der Bevölkerung vielleicht doch noch nicht so gut, wie man das gerne hätte und die Grundaktivität von SarsCoV-2 deshalb noch zu hoch. «Eine weitere Möglichkeit ist, dass es das Virus wieder einfacher hat, weil nur noch wenig geimpft wird und deshalb der partielle Impfschutz nicht mehr besteht.»

Wer sich angesteckt hat, muss aber offenbar kaum mehr ins Spital. Es gebe kein erhöhtes Aufkommen von Corona-Patienten, heisst es vom Universitätsspital Zürich – wie die «Schweiz am Wochenende» schreibt. Andere Spitäler berichten dasselbe.

Leicht übertragbare Omikron-Variante dominiert
Besonders dominant ist – gemäss Zahlen des Bundes – aktuell die Omikron-Variante XBB. Diese leicht übertragbare Variante führt laut Experten in der Regel zu einer lästigen Erkältung, Fieber oder Schnupfen.

Wie viele Personen genau angesteckt sind, lässt sich nicht beziffern. Dies, weil kaum mehr getestet wird.Mehr:

https://www.srf.ch/news/schweiz/viren-im-abwasser-corona-welle-erfasst-die-schweiz

(nach oben)


Abwassermonitoring in der Pfalz überwacht Coronalage

Im Frühjahr 2022 startete ein bundesweites Pilotprojekt mit dem Ziel, die Verbreitung von Coronaviren im Abwasser zu überwachen. Bundesgesundheitsminister Karl Lauterbach (SPD) sagte kürzlich, die Untersuchungen des Abwassers zeigten, dass sich die Lage der Pandemie stabilisiert habe. Doch wie zuverlässig sind die Analysen? Die Neustadter Kläranlage bei Lachen-Speyerdorf ist eine der 20 Kläranlagen, die bei dem bundesweiten Piloprojekt mitmachen.

https://www.swr.de/swraktuell/rheinland-pfalz/abwassermonitoring-100.html

(nach oben)


Hessen: Corona im Abwasser: Projekte in Kläranlagen stocken

Wiesbaden – Obwohl der Bund das System ausbauen will, stocken in Hessen die Projekte zur Überwachung von Corona im Abwasser.

Zum Jahreswechsel wurde die Probenentnahme an den meisten Standorten eingestellt. Wie es danach weitergeht, steht nach Angaben des hessischen Sozialministeriums noch nicht fest. Die führende Forscherin auf diesem Gebiet ist „mittlerweile doch mehr oder weniger desillusioniert“, wie Prof. Susanne Lackner, Professorin für Wasser …mehr:

https://www.gmx.net/magazine/regio/hessen/corona-abwasser-projekte-klaeranlagen-stocken-37691578

(nach oben)


Abwassermonitoring wird als Pandemie-„Wachturm“ beibehalten und aufgestockt -Österreich

Sämtliche Corona-Krisenmaßnahmen laufen bis Ende Juni aus, doch das Abwassermonitoring soll bleiben. In Innsbruck werden dazu Proben aus 48 Kläranlagen Österreichs ausgewertet…mehr:

https://www.derstandard.at/story/2000143501296/abwassermonitoring-wird-als-pandemie-wachturm-beibehalten-und-aufgestockt?ref=rss

(nach oben)


Tirol: Wieder mehr Coronaviren in Tirols Abwasser: Aktuell höchster Wert seit März 2022 gemessen

Seit 2020 liefert die Überwachung des Abwassers von 43 Tiroler Kläranlagen aussagekräftige Daten hinsichtlich der aktuellen Verbreitung von Coronaviren. Zuletzt gab es wieder steigende Tendenzen, wie…mehr:

https://www.tt.com/artikel/30846361/wieder-mehr-coronaviren-in-tirols-abwasser-aktuell-hoechster-wert-seit-maerz-2022-gemessen

(nach oben)


Hamburg /Abwasser: Wichtige Ressource und Informationsquelle für Pandemiebekämpfung

Bundesumweltministerin Steffi Lemke hat heute zusammen mit der Staatssekretärin im Bundesgesundheitsministerium, Dr. Antje Draheim, die Hamburger Kläranlage besucht. Sie informierten sich dabei über das hier durchgeführte SARS-CoV-2 Abwassermonitoring und den Pandemieradar sowie über aktuelle Entwicklungen auf dem Gebiet der Abwasserwirtschaft.

https://www.hamburgwasser.de/presse

(nach oben)


Hallstatts Abwasser wird untersucht

Das Abwasser der Kläranlage in Hallstatt soll in Zukunft auf Coronaviren untersucht werden. Das kündigte das Gesundheitsministerium am Dienstag an. Hintergrund sind die hohen Infektionszahlen in China. Die Kontrollen treffen auch China-Flüge.

Angesichts der starken CoV-Welle in China soll in Österreich ab kommender Woche das Abwasser von allen Flügen aus China auf neue Virusvarianten untersucht werden. Das hat das Gesundheitsministerium am Dienstag angekündigt. Die Proben würden direkt aus den Abwassertanks der Flugzeuge entnommen, damit könnten neue Virusvarianten besonders gut entdeckt werden, hieß es. Zudem soll die Kläranlage aus Hallstatt ins Abwassermonitoring des Bundes einbezogen werden.

Häufig besuchte Orte
Die Kläranlagen von Wien und Salzburg seien bereits Teil des Monitoringprogramms des Bundes. Damit…

https://ooe.orf.at/stories/3188849/

(nach oben)


Klärwerk Neu-Ulm: Hoher Anteil von Coronaviren im Abwasser

 In der Region Ulm/Neu-Ulm gibt es vermutlich eine sehr hohe Dunkelziffer an Corona-Erkrankten. Das legen aktuelle Abwasserproben aus dem Klärwerk Steinhäule in Neu-Ulm nahe.

Der Berliner Virologe Christian Drosten hat jüngst das Ende der Corona-Pandemie ausgerufen. Doch viele Menschen, auch im Raum Ulm/Neu-Ulm, sind derzeit an Corona erkrankt. Wie viele es tatsächlich sind, lässt sich schwer sagen. Abwasserdaten aus dem Klärwerk Steinhäule in Neu-Ulm legen auf jeden Fall eine tatsächlich viel höhere …

https://www.swr.de/swraktuell/baden-wuerttemberg/ulm/interview-betriebsleiter-klaerwerk-steinhaeule-erwin-schaefer-100.html

(nach oben)


Stuttgart: Corona-Abwasseranalysen durch das Zentrallabor der SES

Seit November 2021 führt das Zentrallabor der Stadtentwässerung Stuttgart eigene Untersuchungen zur Corona-Belastung im Zulauf des Hauptklärwerks Stuttgart-Mühlhausen durch. Dabei greift das Labor auf ein etwas vereinfachtes PCR-Verfahren zurück.

Jeden Tag wird die 24-Stunden-Mischprobe des Hauptklärwerk-Zulaufs analysiert. Neben dem Ct-Wert ergibt die Messung auch einen Konzentrationswert in Genkopien/ml. Dieser wird dann mit der Abwasser-Tagesmenge in eine Tagesfracht hochgerechnet, auf 100.000 Einwohner normiert und über 7 Tage rückwirkend gemittelt.

Der 7-Tages-Inzidenz graphisch gegenübergestellt sind damit frühzeitig Tendenzen erkennbar, unabhängig davon, ob Infizierte mittels PCR getestet wurden (und damit in die amtliche Statistik einfließen) oder nicht. Das Gesundheitsamt der Stadt Stuttgart verwendet diese Abwasseranalytik als zusätzlichen Parameter zur Bewertung der Corona-Lage.

https://www.stuttgart-stadtentwaesserung.de/corona-abwasseranalysen-durch-das-zentrallabor-der-ses/

Weitere Informationen:
Aktuelle Untersuchungsergebnisse auf der Seite Zentrallabor

https://www.stuttgart-stadtentwaesserung.de/unternehmen/ses-zentrallabor-im-hauptklaerwerk-stuttgart-muehlhausen/?doing_wp_cron=1665479159.0818428993225097656250

(nach oben)


So schafft Kärnten schrittweise die Coronamaßnahmen ab

Impfstraßen in Spittal und Wolfsberg werden eingestellt, Impfungen und Tests künftig bei Hausärzten. Vorerst weitergeführt wird das Abwassermonitoring.

Mit 30. Juni soll Österreich wieder in den „Normalbetrieb“ zurückkehren, an diesem Tag enden alle Sonderbestimmungen für Corona. Kärnten fährt etliche…mehr:

https://www.kleinezeitung.at/kaernten/chronik/6247954

(nach oben)


Corona im Abwasser: Projekte in Kläranlagen stocken

Wiesbaden – Obwohl der Bund das System ausbauen will, stocken in Hessen die Projekte zur Überwachung von Corona im Abwasser. Zum Jahreswechsel wurde die Probenentnahme an den meisten Standorten eingestellt. Wie es danach weitergeht…mehr:

https://www.op-online.de/hessen/corona-im-abwasser-projekte-in-klaeranlagen-stocken-zr-92018691.html

(nach oben)


Ausweitung des Abwasser-Monitorings auf SARS-CoV-2 im Saarland

Seit Februar 2022 ist Saarbrücken mit der Kläranlage Burbach einer von bun­desweit 20 Pilotstandorten im Pilotvor­haben „Systematische Überwachung von SARS-CoV-2 im Abwasser“ (ESI-CorA), das von der Europäischen Kommission im Rahmen des Soforthilfeinstruments (Emergency Support Instrument-ESI) ge­fördert wird.Dabei werden auf den Klär­anlagen zweimal wöchentlich Abwasser­proben aus dem Zulauf genommen und auf SARS-CoV-2 analysiert.

Zum Pilotstandort im Saarland gehö­ren der Entsorgungsverband Saar (EVS) als Projektverantwortlicher, das Gesund­heitsamt des Regionalverbandes Saar­brücken und das beauftragte Analysela­bor SGS Institut Fresenius.Unterstützt werden die Projektpartner vom saarlän­dischen Ministerium für Soziales, Ge­sundheit, Frauen und Familie sowie dem Ministerium für Umwelt und Verbrau­cherschutz.

Mittlerweile wurde ein nationales Pandemie-Radar aufgebaut, in das alle Pilotstandorte eingebunden sind, also auch Saarbrücken.Über dieses Pande­mie-Radar können zukünftig die Trends der Wiederfindungsraten von SARS-CoV-2 hochaktuell abgebildet werden.Eine Auswertung der bisher im Projekt ESI-CorA erhobenen Daten liegt jedoch noch nicht vor.

Seit dem 17.Oktober 2022 sind im Saarland drei weitere Kläranlagen des EVS in dieses Pandemie-Radar eingebun­den: die Kläranlagen Saarlouis, Neunkir­chen-Wellesweiler und Illingen-Wustwei­ler.Auch hier werden zweimal wöchent­lich Proben genommen und vom Labor SGS Institut Fresenius analysiert.

Die Überwachung von Viren im Ab­wasser ist ein weiterer wichtiger Indika­tor zur Überwachung des Pandemiege­schehens.Da es sich um ein Pool-Verfah­ren handelt, können – anders als bei in­dividuellen Tests der Schleimhäute – die Ausscheidungen vieler Menschen auf einmal ausgewertet und als Frühwarn­system verwendet oder für die Konzeption lokaler Maßnahmen zugrunde ge­legt werden.

(nach oben)


Corona-Nachverfolgung im Abwasser – Forschungsprojekt INSIDe gestartet

Zur Bewältigung von Krisen wie der Corona-Pandemie müssen frühzeitig gezielte und wirksame Maßnahmen getroffen werden, für welche möglichst genaue Informationen vorliegen müssen. Das Abwasser-Monitoring hat sich dabei als wirkungsvolles Mittel erwiesen, Coronaviren frühzeitig und systematisch nachzuweisen sowie Infektionsausbrüche nachverfolgen zu können. Durch eine Modellierung und Rückverfolgung der Virenlast im Kanalnetz könnten auftretende Infektionsherde lokalisiert werden und zusammen mit epidemiologischen Modellen ein gezieltes Frühwarnsystem für politische Entscheidungsträger bilden.

Im gemeinsamen Forschungsvorhaben INSIDe – Integrative Modellierung der Ausbreitung von schweren Infektionskrankheiten, gefördert durch das Bundesministerium für Bildung und Forschung, arbeitet die Professur für Siedlungswasserwirtschaft und Abfalltechnik der Universität der Bundeswehr München mit der Universität Bonn, dem Deutschen Zentrum für Luft- und Raumfahrt, dem Klinikum der Ludwig-Maximilians-Universität München sowie der Firma tandler.com GmbH an einer Plattform für die integrative daten-basierte Analyse der Ausbreitung von Infektionskrankheiten.

Die Universität der Bundeswehr München sowie die tandler.com GmbH entwickeln dafür detaillierte Kanalnetzmodelle, auf deren Basis die räumliche und zeitliche Verteilung der Coronaviren im Abwasser abgebildet werden können.

https://www.unibw.de/wasserwesen/swa/aktuelle-nachrichten/inside

(nach oben)

Hochschule Coburg testet Kraftstoff aus Klärschlamm

0

Klimawandel und steigende Energiekosten erfordern neue Ideen. Eine wird gerade an der Hochschule Coburg getestet: Bio-Kraftstoff aus Klärschlamm.

Die Europäische Union fördert aktuell das Projekt To-Syn-Fuel, in dem es darum geht, biogene Abfallstoffe umzuwandeln in nachhaltige Kraftstoffe und grünen Wasserstoff. Durchgeführt wird das Forschungsprojekt vom Fraunhofer Institut Umsicht im oberpfälzischen Sulzbach-Rosenberg, wo auch der neue Bio-Kraftstoff entwickelt wurde – und zwar aus Klärschlamm. Jetzt wird er in einem VW mit Dieselmotor auf dem neuen Rollenprüfstand der Hochschule Coburg getestet. „Ziel unserer Untersuchungen ist die Analyse von Verbrauchs- und Emissionswerten im Vergleich zum Standardkraftstoff“, erklärt Prof. Dr. Markus Jakob. Er forscht und lehrt an der Fakultät Maschinenbau und Automobiltechnik insbesondere zur motorischen Verbrennung. Gemeinsam mit Chemikerin Anja Singer leitet Jakob die Fuel Research Group der Hochschule und forscht an der Schnittstelle zwischen Chemie und Maschinenbau an Lösungen, um Energie zu speichern und zu transportieren – auf nachhaltige Weise.

Klimaneutrales Rohöl
Mit dem „thermo-katalytischen Reforming“ (TCR-Verfahren), das Fraunhofer entwickelt hat, wird Biomasse in ihre Bestandteile zerlegt, veredelt und gereinigt. Ergebnis sind drei Produkte: Synthesegas mit einem sehr hohen Wasserstoffgehalt, „Biokohle“ und ein Bio-Rohöl, das den Ausgangsstoff für synthetische Kraftstoffe bildet. Solche nachhaltigen Energieträger wie der neue Bio-Kraftstoff aus Klärschlamm haben Fraunhofer zufolge einen um 85 Prozent geringeren CO2-Fußabdruck als konventionelle fossile Kraftstoffe. „Perspektivisch könnten sie in hunderten dezentralen Kleinanlagen hergestellt werden“, sagt der Coburger Kraftstoff-Forscher Jakob. „Bayern hat das Potential, ab 2030 rund 400 000 Tonnen Klärschlamm in normkonforme Kraftstoffe umsetzen.“

Um die fossilen Energieträger vollständig aus dem Straßenverkehr zu verbannen, würden die absoluten Mengen noch nicht ausreichen. „Da aus dem TCR-Verfahren bereits normkonforme Kraftstoffe hergestellt werden können, ist es aber auf einfache Weise möglich, die verfügbaren Mengen des neuen Kraftstoffs den bekannten Serienkraftstoffen beizumischen.

https://idw-online.de/de/news806506

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg

Allgemeine Klärwerksmeldungen 2023

0

Dezember 2023

Tölzer KlärwerkAbwassergebühren steigen um 15 Cent ab Januar
LindauVierte Reinigungsstufe für Kläranlage Lindau
IrschenbergTeures Klärwerk: Regierung und Rechnungshof sollen Irschenberg helfen
AllershausenKläranlage – Lösung für Geruchsbelästigung ist in Arbeit
AZV Weilertal -MüllheimKosten für Abwasserentsorgung steigen
UelzenWo aus Faulgas Strom erzeugt wird: Neue Blockheizkraftwerke für Kläranlage Uelzen
TrierStadtrat geht ersten Schritt für Klärschlamm-Verbrennungsanlage
NandlstadtBürgerversammlung: Kritik an „Supermarkt-Orgie“, Zweifel an Kläranlagen-Kosten
KölnStEB Köln heben Abwassergebühren leicht an
ErftverbandDie Kläranlage in Glessen gilt als eine der modernsten in Europa – Mit Aktivkohle
DorstenProjekt PuwaSTAR- KI soll Pumpwerk in Dorsten schützen

November 2023

Au/Hamm/WissenDamit gemeinsame Kläranlage zukunftsfit ist – Hamm, Wissen und Windeck ziehen an einem Strang
DresdenNeues Abwasserbeseitigungskonzept für Dresden bis 2038
DresdenFaulturm, Kläranlage, moderne Leitungen: Stadtentwässerung vor Mega-Investition
DudeldorfVerschlammte Bäche in der Eifel: Kläranlage Dudeldorf mitverantwortlich
EbermannstadtDie Kläranlage erhält eine neue Klärschlammentwässerung
Gutenberg und EllerbachtalKläranlage – Verbesserung ist deutlich teurer als gedacht
EmmendingenWieso die Abwassergebühren steigen sollen
EmschergenossenschaftPilotprojekt für die E-Fuels-Produktion auf Kläranlage
HanauInnovative Lösung spart der Stadt bei Kläranlage Millionen
IrschenbergKommentar zum Klärwerk – Bürger haben Recht auf finanzielle Entlastung
IrschenbergExperte macht der Gemeinde ein Angebot – „Nur die Hälfte am Netz ist zu wenig“
Lignano/ItalienSalmonellengefahr bei Muscheln aus der nördlichen Adria
LinzDoch keine Solarkraft für Kläranlage: VG Linz und VG Unkel müssen Projekte für Fördermittel umplanen
MistelbachDie richtige Entscheidung
NandlstadtKläranlagen-Sanierung – Jetzt werden die Nandlstädter Bürger zur Kasse gebeten
NeckarwestheimLeckage im Abwasserbehandlungssystem
Neuburg/DonauWie aus menschlichen Fäkalien und Urin Dünger werden kann
NeuwiedFaltbare Solaranlage in Neuwieder Kläranlage im Probebetrieb
NordhausenAbwassergebühren in Nordhausen und Hohenstein steigen deutlich
OOWVRegionalministerin Osigus übergibt Bescheid über 981.000 Euro
OOWVFür eine stabile Wasserversorgung: OOWV investiert 12,5 Millionen Euro
PaterzellIn Kläranlage werden immer wieder Grenzwerte überschritten: Landratsamt setzt Gnadenfrist
Rheda-WiedenbrückPlastikplättchen aus der Kläranlage in Rheda-Wiedenbrück mittlerweile in der Nordsee
WaviKlare Verhältnisse durch gestresste Bakterien
EchingKrickente durchkreuzt Vorzeigeprojekt
Hausen„Forschungsprojekt an der Kläranlage in Hausen“ – Bevölkerung zur Besichtigung herzlich eingeladen
IrschenbergZu schlechte Wasserqualität im FFH-Gebiet: Planer erklärt, was die vierte Reinigungsstufe bringt
KönigsbrückHightech zum Tag der offenen Tür im Klärwerk
MurnauKommt ein Klärwerkverbund im Raum Murnau? Minister Glauber informiert sich vor Ort
OOWVAnlage zur Gewinnung von Brauchwasser aus kommunalem Abwasser beauftragt

Oktober 2023

WeimarKläranlage in Tiefurt erzeugt künftig bis zu 85 Prozent ihres Energieverbrauchs selber
WehrPhotovoltaik-Anlage auf Kläranlage in Betrieb
StraubingKlärschlammverbrennung/Klärschlammentsorgung
SondershausenDie Kläranlage soll einen Teil ihres enormen Energiebedarfs selbst erzeugen
PenigBest Practice: Tropfkörper auf der Zentralkläranlage Penig
OOWVAnlage zur Gewinnung von Brauchwasser aus kommunalem Abwasser beauftragt
Bad OeynhausenEinzigartiges Projekt testet Einsatz von Künstlicher Intelligenz im Klärwerk
MurnauKommt ein Klärwerkverbund im Raum Murnau? Minister Glauber informiert sich vor Ort
KönigsbrückHightech zum Tag der offenen Tür im Klärwerk
KölnKlimafolgen, Eigenerzeugung, Bisonzucht – Die Chefin der Kölner Stadtentwässerungsbetriebe im neuen ZfK-Podcast
KarlsfeldModernisierung und Erweiterung – Kläranlage rüstet für die Zukunft auf
IrschenbergZu schlechte Wasserqualität im FFH-Gebiet: Planer erklärt, was die vierte Reinigungsstufe bringt
HinterzartenBahnhof und Kläranlage bergen großes Potential für Solarenergie
ForchheimStadtwerke Forchheim – Die Forchheimer Kläranlage mit stetigen Sanierungen zum Energiespar-Vorbild
ErftverbandSo wird das Abwasser in Weilerswist gereinigt
EchingKrickente durchkreuzt Vorzeigeprojekt
DümpelfeldKatrin Eder: „Kläranlage Dümpelfeld wird zum Leuchtturmprojekt im Ahrtal“
DuisburgWir bauen die größte innovative KWK-Anlage an einer Kläranlage in Deutschland
Dresden Dresden braucht Wasser – neues Flusswasserwerk an Elbe geplant
BonndorfIn Bonndorf ist Streit um eine geplante Verbrennungsanlage für Klärschlamm entbrannt
Altenahr/AdenauWas für den Bau der neuen Kläranlage in Dümpelfeld geplant ist
AltenaNeues Abwasserreinigungsverfahren besteht Leistungsfahrt
LeutershausenRichtfest Kläranlage
HohenbostelSanierte Kläranlage eingeweiht
HetlingenNeue Verbandsversammlung des AZV Südholstein erstmalig zusammengetreten
FreisingCorona und Co. rechtzeitig erkennen
DresdenNeuer Industriesammler Nord – Eine Lösung für steigendes Industrieabwasser?
(nach oben)

September 2023

StraubingPilotanlage zur Biomethan-Erzeugung in Straubing eingeweiht
ErlangenKlärwerk Erlangen baut vierte Reinigungsstufe
VörbachDie Kläranlage erhält 4. Reinigungsstufe
RöslauKläranlage eine Anlage gegen alle Unklarheiten
NalbachGemeinde stellt neues Hochwasser- und Starkregenvorsorgekonzept vor
MontabaurUngewöhnlicher Feuerwehreinsatz-Reh springt in Klärbecken und muss gerettet werden
Mörfelden-WalldorfUngesunde Spurenstoffe –  Erste Kläranlage in Hessen filtert sie
MainhardtGemeinde erhält Zuschuss von rund 1,4 Millionen Euro
(nach oben)

August 2023

ZweibrückenVideo erklärt Rückstausicherung
Bad WörishofenWie Kläranlagen unseren zukünftigen Wassermangel lösen könnten
Rheda-WiedenbrückRheda-Wiedenbrück kämpft mit Plastikchips am Emsufer
MistelbachAbwasser Baumaßnahme verzögert sich weiter
HarzwasserwerkeNeue Abwasserleitungen an der Innerstetalsperre
AßlingAktuelle Informationen zur Großbaustelle
AßlingÖl legt Kläranlage lahm: Illegale Einleitung verursacht teuren Einsatz
WupperverbandWupperverband rund 28,5 Millionen Euro für Wiederaufbauplan
WeilheimNeues Rückhaltebecken für Abwasser kommt in den Süden der Stadt
Steinen1,1 Millionen Euro, die in Steinen unbemerkt im Boden verschwinden
Linz/UnkelBetriebskosten entgleisen langsam aber sicher: In der Unkeler Pyreg-Anlage gehen die Lichter aus
HünfeldIn Kläranlage – Mann stürzt in vier Meter tiefes Behältnis
HinterzartenInvestition in Kläranlage
ErbachKläranlage macht aus Abwasser Dünger und Strom
DresdenHZDR und Stadtentwässerung Dresden: Gemeinsam die Herausforderungen der Energiebranche innovativ meistern
WupperverbandNeue Geschäftsbereichsleiterin beim Wupperverband
TübingenKläranlage bekommt neue Technologie zur Beseitigung von Spurenstoffen
LippeverbandInbetriebnahme Pumpwerk Bocksheideweg
IrschenbergKläranlage  – Experte rät zu demokratischer Lösung
KöttingenKläranlage arbeitet provisorisch – hohe Sanierungskosten
FuldaFolgende Klärwerke gehören zum Verbandsgebiet des Abwasserverbandes
Bad SäckingenNotstromaggregat für Kläranlage
MurgBeim Stromsparen will Murg Vorbild sein
Landau3-D-Bilder aus dem Kanalnetz
EbstorfSenking will Ebstorfer Mühlenteich über Pumpleitung auffüllen
DresdenWarum so viele Dresdner die Kläranlage stürmen
SuhlCrystal Meth in Suhl weit verbreitet
SottrumKläranlage – Siedlungsentwicklung lässt Kapazität bis 17 000 Einwohner zu
OOWVHohe Förderung für „Water ReUse“
MurgSanierung der Kläranlage soll Betriebskosten langfristig senken
MünsterMünster investiert in seine Kläranlage
MonsheimWirtschaftsplan 2023 / Jahresabschluss 2021
HohenbostelSanierung der Kläranlage soll im Mai abgeschlossen werden
HeusenstammKläranlage erhält Zertifikat für optimierende Arbeit
HerrischriedNotstromversorgung für Kläranlage gesichert
HamburgKlärwerk mit neuer Windenergieanlage
Fulda340 Meter großformatige Rohre am Stück – Regenüberlaufbecken in Betrieb
EmschergenossenschaftEmscher-Umbau als Blaupause
DresdenDresdner Hofewiese erhält biologische Kläranlage – Saisoneröffnung am Samstag
BarnstorfPolitik stimmt knapp für Übertragung der Kläranlage an den OOWV
SchwerstedtIm Sommer wird das erste Abwasser geklärt
(nach oben)

Juli 2023

AsselbrunnLastmanagement auf der Kläranlage
(nach oben)

Juni 2023

MurgBeim Stromsparen will Murg Vorbild sein
MonsheimWasser – Wir klären das! 125 Jahre Stadtentwässerung
Landau3-D-Bilder aus dem Kanalnetz
EbstorfSenking will Ebstorfer Mühlenteich über Pumpleitung auffüllen
DresdenWarum so viele Dresdner die Kläranlage stürmen
Bad SäckingenNotstromaggregat für Kläranlage
EchingSchwimmende Stromproduzenten in Echings Kläranlage
DuisburgDie Restwärme des Abwassers in Duisburgs größter Kläranlage in Huckingen nutzen künftig die Stadtwerke zur Energieerzeugung
BiblisErweiterung der Kläranlage Biblis – ein 4-Millionen-Projekt
AZV Oberer NeckarEntfernung von Spurenstoffen
(nach oben)

Mai 2023

ZweibrückenEnergie sparen durch effiziente Belüftung im Klärbecken
TalhausenKläranlage im Strohgäu wird modernisiert Kosten für das Abwasser steigen
NürtingenBahnstadt soll Klimaziele einhalten – Nürtingen setzt auf regenerative Energiequellen
IrschenbergIrschenberg plant 1,5-Millionen-Euro-Projekt
Hannover21,9 Prozent mehr: Erneuerung der Schlammbehandlung in Hannover verteuert sich
GeiselbullachSo soll das Abwasser noch sauberer werden
ErlangenErlanger Grüne/Grüne Liste beantragen Sammelbecken für Regenwasser zur Bewässerung städt. Grünflächen
Lahnstein/ BraubachWeniger Energie, mehr Reinigung
Bech/LuxemburgWarum eine neue Kläranlage in Bech immer noch Zukunftsmusik ist
BottropPhosphor-Rückgewinnungsanlage in Bottrop darf gebaut und betrieben werden
PöckingStarnberger See: Abwasserverband vor Schuldenberg
GmundZweckverband am Tegernsee will sich Puffer verschaffen: 10.000 zusätzliche EGW beantragt
(nach oben)

April 2023

LenzkirchGute Bilanz für die Kläranlage
KarlsruheExperten beraten über Abwasser-Monitoring
EmschergenossenschaftEmscher-Umbau als Blaupause
BonndorfLandwirte hegen weiterhin Vorbehalte gegen geplante Bonndorfer Kom-Phos-Anlage
Trier und NeuwiedKläranlagen erzeugen Energie, von wegen dreckiges Geschäft
NandlstadtBeim Kläranlagen-Kredit geht Nandlstadt auf Nummer sicher
Herzogtum LauenburgKiel stellt Geld für bessere Abwasserreinigung bereit
IrschenbergBürgerantrag zur Neubau der Kläranlage ist zulässig
Kassel /GelsenkirchenKläranlage Picksmühlenbach in Hassel
FellachKlärwerk stößt an Kapazitätsgrenze
DudeldorfVerschlammte Bäche in der Eifel: Kläranlage mitverantwortlich
(nach oben)

März 2023

SchöneckAusbau der Kläranlage Schöneck/Niederdorfelden schreitet voran
MeckenheimSpatenstich für die Bauarbeiten in der Swistbachaue ist erfolgt
LangenlonsheimTrotz „Bürokratiebremse“: Freiflächen-Fotovoltaik an der Kläranlage läuft
IrschenbergMillionen-Kosten für neue Kläranlage
BerlinBerliner Wasserbetriebe: Win-win-Situation – Fachkräftesicherung und Berufsorientierung
WernauPhotovoltaik – Strom vom Dach vielleicht schon 2023
Weil am RheinFaulgas macht’s möglich –  Kläranlage in Weil am Rhein ist energieautark
WartenbergKanal-Situation „ein Widerspruch in sich“
SolingenUrsache für Faulbehälter-Havarie ermittelt
Bad SäckingenMillionenschwere Betonsanierung in der Kläranlage
NeussGefahrstoffaustritt in Industriebetrieb | Reinigungsflüssigkeit läuft in Kanalisation
Nandlstadt„Auf die Bürger kommen Zahlungen zu, die nicht unerheblich sind“
MontabaurKapazitätsgrenzen erreicht: Zieht die Montabaurer Kläranlage um?
MarbachMehr Wasser für die Stadt
Bad HomburgDie Bagger rollen für „modernste Kläranlage“
HerrschingSolarstrom aus der Kläranlage
Bad Ems-Nassau2,5 Millionen sollen in Kläranlage fließen
EichsfeldMunitionsfunde im Eichsfeld rufen Spezialisten auf den Plan
EckernfördePFI gewinnt VgV-Verfahren zur Sanierung der Belebungsbecken 1 u. 2 auf der KA Eckernförde
DresdenBetreiberpartnerschaften  – Stadtentwässerung hilft in Sambia
BerlinKeiner hat‘s gemerkt: Fünf Jahre Renovierung im laufenden Betrieb
AllershausenVermessen, verrechnet – geeinigt: Überraschung bei der Kläranlagensanierung
FuldaGasspeicher und Photovoltaik – Abwasserverband will unabhängiger von Stromzukäufen werden
Rhein-Hunsrück-KreisRhein-Hunsrück-Kreis verwertet Klärschlamm selbst
LaupheimVier Kombischächte DN 1000 für Baugebiet in Laupheim
Bad LangensalzaBei Wasser und Abwasser in der Region Bad Langensalza eine ganze Epoche geprägt
NeuriedSchutterner Kläranlage wird saniert und erweitert
Klärwerk Neu-UlmHoher Anteil von Coronaviren im Abwasser
(nach oben)

Februar 2023

PforzheimKläranlage erhält neue biologische Stufe
Wallmenroth MuhlauKläranlage – Förderbescheide über 3 Millionen Euro vom Land überreicht
LiebstedtInbetriebnahme der Liebstedter Kläranlage verzögert sich
KirchenthumbachKläranlage Gewaltiger Kostenbrocken
IrschenbergDas wird richtig teuer: BI Irschenberg legt erste Schätzung vor – Bürger müssen wohl Tausende Euro zahlen
Hann MündenKein Blindgänger bei der Kläranlage entdeckt
WeinheimLand fördert Erweiterung der Kläranlage
(nach oben)

Januar 2023

WeinheimLand fördert Erweiterung der Kläranlage
HorbachBIM Projekt Kläranlage
BorkenGAK-Filter in Betrieb genommen
(nach oben)

Tölzer Klärwerk: Abwassergebühren steigen um 15 Cent ab Januar

Die neue Klärschlammtrocknungsanlage im Tölzer Klärwerk erforderte hohe Investitionen. Deshalb müssen die Abwassergebühren erhöht werden. © Stadt Bad Tölz/Pröhl
Bad Tölz – Alles wird teurer, auch für die Abwasserentsorgung müssen die Haushalte und sonstigen Nutzer der Tölzer Kläranlage vom nächstem Jahr an mehr bezahlen. Vom 1. Januar an erhöht sich die Abgabe um 15 Cent auf dann 1,85 Euro pro Kubikmeter. Mehr:
https://www.merkur.de/lokales/bad-toelz/dasgelbeblatt/toelzer-klaerwerk-abwassergebuehren-steigen-um-15-cent-ab-januar-92672954.html

(nach oben)


Lindau: Vierte Reinigungsstufe für Kläranlage Lindau

Der Freistaat Bayern unterstützt den Bau der vierten Reinigungsstufe für die Kläranlage Lindau mit bis zu 2,3 Millionen Euro. Ein wichtiges Argument für den Ausbau in Lindau, so Bayerns Umweltminister Thorsten Glauber: „Der Bodensee versorgt etwa fünf Millionen Menschen mit Trinkwasser und nimmt das gereinigte Abwasser der Anlieger auf. Das verlangt die bestmögliche Abwasserbehandlung.” Mit einem neuen Förderprogramm unterstützt der Bayern Kommunen beim Ausbau ihrer Abwasserinfrastruktur. Den Betreibern von insgesamt 13 wichtigen Kläranlagen wird damit die Möglichkeit eröffnet, Fördermittel für die freiwillige Nachrüstung mit einer vierten Reinigungsstufe zu beantragen. Das Bayerische Umweltministerium fördert in diesem Programm den Bau der vierten Reinigungsstufe mit einem Zuwendungssatz von 50 Prozent; bei Inbetriebnahme bis Ende 2024 sogar bis zu 70 Prozent. Für die nächsten vier Jahre ist ein Fördervolumen von 16 Millionen Euro vorgesehen.
Weiterführende Links
www.stmuv.bayern.de/themen/wasserwirtschaft/abwasser/spurenstoffe.htm

(nach oben)


Teures Klärwerk: Regierung und Rechnungshof sollen Irschenberg helfen

Beim Neubau der Kläranlage in Irschenberg lässt die Bürgerinitiative nichts unversucht, die Umsetzung des Vorhabens ohne eine vorherige Kostenprüfung zu verhindern. Nun sollen die Regierung von Oberbayern und der Bayerische Oberste Rechnungshof den Fall prüfen, zugunsten einer günstigeren Lösung.
Irschenberg – Die Bürgerinitiative Irschenberg (BI) wird nun eine Etage höher vorstellig. Mit Mails an die Regierung von Oberbayern und den Bayerischen Obersten Rechnungshof will man nun erreichen, dass der geplante Neubau der Kläranlage kostenmäßig unter die Lupe genommen wird. Die Baukosten belaufen sich aktuell auf 8,7 Millionen Euro. Für die angeschlossenen rund 1500 Bürger bedeutet dies neben einem Extrabeitrag je nach Gebäude über mehrere Tausend Euro auch eine Erhöhung der Abwassergebühren auf etwa sechs Euro. Das wäre Deutschlands Rekordwert. Dabei soll die Anlage von derzeit 5000 Einwohnergleichwerten auf 7000 ausgebaut werden, um für die Gastronomiebetriebe an der Autobahnanschlussstelle ausreichend Kapazitäten zu schaffen.
https://www.merkur.de/lokales/region-miesbach/irschenberg-ort28854/teures-klaerwerk-regierung-und-rechnungshof-sollen-irschenberg-helfen-92679157.html

(nach oben)


Allershausen: Kläranlage – Lösung für Geruchsbelästigung ist in Arbeit

Die Kläranlage Allershausen wurde wieder auf Vordermann gebracht, ob sich die Geruchsbelästigung aufgrund des Klärschlamms löst, wird sich erst im Sommer zeigen.
Die Kläranlage Allershausen wurde erst kürzlich saniert. Von 2020 bis 2022 wurde dort fleißig umgebaut, einzelne Teile wurden erneuert. In der jüngsten Gemeinderatssitzung war nun Dominik Sedlmeier von der Firma Sedlmeier Umwelttechnik anwesend, um das Gemeinderatsgremium über den Zustand der Kläranlage auf den neusten Stand zu bringen.
https://www.merkur.de/lokales/freising/allershausen-ort28137/allershauserner-klaeranlage-loesung-fuer-geruchsbelaestigung-ist-in-arbeit-92667307.html

(nach oben)


AZV Weilertal -Müllheim: Kosten für Abwasserentsorgung steigen

Die Kläranlage des Abwasserzweckverbands Weilertal reinigt, wie sie soll. In der Verbandsversammlung wurde der Wirtschaftsplan für 2024 beschlossen.
Der technische Bericht, der Auskunft gibt über die Leistungsfähigkeit der Anlage, wurde zur Kenntnis genommen. Denn: Es läuft viel Abwasser durch die Kanäle der vier Verbandskommunen…mehr:
https://www.badische-zeitung.de/azw-weilertal-kosten-fuer-abwasserentsorgung-steigen

(nach oben)


Uelzen: Wo aus Faulgas Strom erzeugt wird: Neue Blockheizkraftwerke für Kläranlage Uelzen

In der Kläranlage Uelzen am Spottweg sollen im Frühjahr 2024 im laufenden Betrieb die beiden in die Jahre gekommenen Blockheizkraftwerke modernisiert werden. Darin wird das bei der Faulung der kommunalen und industriellen Abwässer anfallende Gas verwertet, um Strom und Wärme…mehr:
https://www.az-online.de/uelzen/stadt-uelzen/wo-aus-faulgas-strom-erzeugt-wird-neue-blockheizkraftwerke-fuer-klaeranlage-uelzen-92653796.html

(nach oben)


Trier: Stadtrat geht ersten Schritt für Klärschlamm-Verbrennungsanlage

22 Kläranlagenbetreiber in der Region wollen in Trier-Nord eine eigene Anlage bauen. Der Stadtrat stimmte am Donnerstagabend mehrheitlich zu, dass der Bebauungsplan angepasst werden soll.
Klärschlamm bleibt übrig, nachdem Abwasser in Kläranlagen gereinigt wurde. Gerne wird er in der Landwirtschaft als Dünger auf Felder ausgebracht. Doch die Vorschriften dafür werden strenger. Das heißt, es fällt künftig mehr Klärschlamm zur Verbrennung an. Deshalb soll in Trier-Nord eine Verbrennungsanlage für die gesamte Region gebaut werden. Voraussetzung: Der Trierer Stadtrat stimmt zu. Über den Bau an sich wurde am Abend noch nicht entschieden, aber erste Schritte wurden vom Rat eingeleitet.
Klärschlamm soll in der Region bleiben
Weil die Gesetzeslage verschärft wurde, fällt mehr Klärschlamm zur Verbrennung an. Bislang wurden aus der Region Trier 7.000 Tonnen zur Verbrennungsanlage in Mainz gebracht. In der Region Trier haben sich 22 Kläranlagenbetreiber zusammengeschlossen zur „Kommunalen Klärschlammverwertung Region Trier AdR“ (KVRT-AdR). Damit soll sichergestellt werden, dass der Klärschlamm, der anfällt, regional gemeinsam nachhaltig verwertet wird.
https://www.swr.de/swraktuell/rheinland-pfalz/trier/verbrennungsanlage-fuer-klaerschlamm-in-trier-geplant-100.html

(nach oben)


Nandlstadt: Bürgerversammlung: Kritik an „Supermarkt-Orgie“, Zweifel an Kläranlagen-Kosten

Zwei Themen treiben die Nandlstädter Bürger um: die Kläranlagen-Sanierung und damit verbunden die zu erwartenden Gebühren sowie das geplante Fachmarktzentrum vor den Toren Nandlstadts.
Nandlstadt – Viele Zahlen hatte Bürgermeister Gerhard Betz in seinen gut einstündigen Rechenschaftsbericht gepackt, den er am Donnerstag im Rahmen der Bürgerversammlung vortrug. So erfuhren die gut 120 Besucher …mehr:
https://www.merkur.de/lokales/freising/nandlstadt-ort377198/kritik-und-zweifel-bei-buergerversammlung-in-nandlstadt-92693658.html

(nach oben)


StEB Köln heben Abwassergebühren leicht an

Ursache sind höhere Kosten für Vorprodukte. Auch die sinkenden Abwassermengen erweisen sich als Treiber der Gebühren.
ie Erhöhung der Abwassergebühren erfolgt „deutlich unter den Inflationsraten der letzten Jahre“, wie StEB Köln-Vorständin Ulrike Franzke ausführt. Im Bild das Pumpwerk an der Schönhauser Str. in Köln.
https://www.zfk.de/wasser-abwasser/steb-koeln-heben-abwassergebuehren-leicht-an

(nach oben)


Erftverband: Die Kläranlage in Glessen gilt als eine der modernsten in Europa – Mit Aktivkohle

In der Kläranlage wird Abwasser aus Glessen und Fliesteden gereinigt, bevor es in den Pulheimer Bach geleitet wird.
Versteckt hinter Bäumen und Büschen liegt eine der modernsten Kläranlagen Europas: In Glessen wird das Abwasser von knapp 8000 Menschen gereinigt. Das Besondere an dieser Anlage ist der große Aufwand, mit dem das schmutzige Wasser auf Badequalität gebracht wird. Der Erftverband setzt hier nicht nur eine Membranbelebungsanlage ein, sondern zusätzlich auch noch Aktivkohle. Mehr:
https://www.rundschau-online.de/region/rhein-erft/bergheim/klaeranlage-in-glessen-gilt-als-eine-der-modernsten-in-europa-689967

(nach oben)


Dorsten: Projekt PuwaSTAR- KI soll Pumpwerk in Dorsten schützen

Das Pumpwerk am Hammbach verrichtet seit Jahren unauffällig seinen Dienst. Zum Glück, denn bei einem Ausfall würden die Dorstener schnell nasse Füße bekommen. Schäden im Millionenbereich wären die Folge. Um das zu verhindern, soll nun Künstliche Intelligenz helfen.
Aufgrund des Kohleabbaus sind in beträchtlichen Gebieten der Einzugsgebiete der Emschergenossenschaft und des Lippeverbandes umfangreiche Absenkungsgebiete entstanden. Diese haben zur Bildung von Polderflächen ohne Abfluss geführt, auf denen etwa 330.000 Menschen leben. Die Entwässerung dieser Polder erfolgt durch eigene Pumpwerke des Verbandes, die den Hochwasserschutz gewährleisten. Wenn eines dieser Pumpwerke aus verschiedenen Gründen vollständig oder teilweise ausfällt, gelangt Wasser in das abflusslose Absenkungsgebiet und verursacht dort Überschwemmungen.
https://dorsten-online.de/projekt-puwastar-ki-soll-pumpwerk-in-dorsten-schuetzen/

(nach oben)


Au/Hamm/Wissen: Damit gemeinsame Kläranlage zukunftsfit ist – Hamm, Wissen und Windeck ziehen an einem Strang

Die Gruppenkläranlage in Au, in der Abwasser aus den Verbandsgemeinden Hamm und Wissen sowie aus Teilen von Windeck gereinigt wird, ist seit Jahrzehnten ein Paradebeispiel für gute interkommunale Zusammenarbeit. Damit das so bleibt, wurden jetzt Investitionen besprochen und eine steuerrechtliche Unklarheit aus der Welt geschafft. Mehr:
https://www.rhein-zeitung.de/region/aus-den-lokalredaktionen/kreis-altenkirchen_artikel,-hamm-wissen-und-windeck-ziehen-an-einem-strang-damit-gemeinsame-klaeranlage-zukunftsfit-ist-_arid,2585207_source,rss.html

(nach oben)


Neues Abwasserbeseitigungskonzept für Dresden bis 2038

Der Eigenbetrieb Stadtentwässerung hat eine neue Konzeption für die Dresdner Abwasserinfrastruktur bis 2038 erarbeitet. Ein Schwerpunkt ist die Ableitung und Behandlung der Abwässer der im Dresdner Norden ansässigen und sich erweiternden Halbleiterindustrie. Die Produktion von Chips erzeugt große Abwassermengen, deren Ableitung und Behandlung auf der Kläranlage in Kaditz nur durch adäquate Ausbaumaßnahmen zu bewältigen ist. Dazu gehört der im Juli 2023 begonnene Bau des Industriesammlers Nord. Das ist ein etwa elf Kilometer langer Kanal, der fast ausschließlich der Ableitung der Abwässer der Halbleiterindustrie dient. Noch größer sind die Herausforderungen auf der zentralen Kläranlage Kaditz. Sie muss erweitert werden. Die Gesamtinvestitionen für deren Erweiterungen und Erhalt der baulichen Substanz werden sich über die nächsten 13 bis 15 Jahre erstrecken und über 630 Millionen Euro kosten. Das Strategieprojekt heißt „Dresden 600”, denn die Bevölkerung der Stadt könnte insbesondere durch die anstehenden Industrieansiedlungen auf bis zu 600 000 Einwohner im Jahr 2035 anwachsen. Die Abwassermenge aus der Chipindustrie entspricht gegenwärtig der von 250 000 Einwohnern. Auf dem Klärwerk Kaditz ordentlich behandelt werden kann, investiert die Stadtentwässerung zwischen 2024 und 2030 in weitere Anlagen. Die Belebungs- und Verteilerbecken fassen insgesamt 144 000 Kubikmeter. Geplant sind zwei weitere Belebungsbecken, die 32 000 Kubikmeter fassen. Die vorhandenen sechs Nachklärbecken sollen durch zwei weitere ergänzt werden. Geplant ist außerdem, in der Schlammbehandlung einen dritten, 35 Meter hohen Faulbehälter zu errichten, der rund 10 500 Kubikmeter Schlamm fasst. Geplant ist zudem, auf der Fläche neben den Nachklärbecken Anlagen einer vierten Reinigungsstufe zu bauen. Geplant ist weiter, zwischen 2032 und 2038 unter anderem neun Regenüberlaufbecken in Dresden zu errichten. Sie sollen ein Speichervolumen von 35 000 bis 40 000 Kubikmeter haben.

https://www.gfa-news.de/webcode.html?wc=20231025_006

(nach oben)


Faulturm, Kläranlage, moderne Leitungen: Stadtentwässerung vor Mega-Investition

Dresden – Wachsende (Chip-)Industrie, Bevölkerung, verschärfte Gesetze: In den nächsten 15 Jahren pumpt die Stadtentwässerung mehr als 600 Millionen Euro in Ausbau und Modernisierung der Leitungen und Kläranlage Kaditz. Dabei soll Dresden auch ein drittes Faulei bekommen.
Schon jetzt leiten die Chipgiganten im Norden (Globalfoundries, Infineon, Bosch, X-Fab) so viel Abwasser ins Kanalnetz wie 250.000 Einwohner.
Mit der Erweiterung der Werke …mehr:
https://www.tag24.de/dresden/dresden-wirtschaft/dresdner-stadtentwaesserung-vor-mega-investition-in-faulturm-klaeranlage-und-moderne-leitungen-2987433

(nach oben)


Dudeldorf: Verschlammte Bäche in der Eifel: Kläranlage Dudeldorf mitverantwortlich

Viele Werte in Proben überschritten
Zwei verschlammte Bäche im Bitburger Land haben Ende vergangenen Jahres für Rätselraten gesorgt. Das Rätsel ist jetzt gelöst. Und offenbar auch das Problem.
Im November hatte SWR Aktuell erstmals über den Langebach und den Auelbach berichtet. Dem dortigen Fischereipächter war die Lust auf Forelle vergangen – die Bäche waren sichtbar verschlammt. Er machte die nahegelegene Kläranlage Dudeldorf verantwortlich, die ihr Klarwasser…mehr:
https://www.swr.de/swraktuell/rheinland-pfalz/trier/klaeranlage-dudeldorf-doch-schuld-an-verschlammten-baechen-in-der-eifel-100.html

(nach oben)


Ebermannstadt: Die Kläranlage erhält eine neue Klärschlammentwässerung

Mit dem Neubau einer Klärschlammentwässerung schafft Ebermannstadt einen weiteren Baustein für eine zukunftsfeste Abwasserentsorgung Zum obligatorischen Spatenstich trafen sich vor kurzem Bürgermeisterin Christiane Meyer, Vertreter der Nachbargemeinden, des Stadtrates, der Verwaltung und der Baufirmen auf der Kläranlage. Das Ende der landwirtschaftlichen Ausbringung von Klärschlamm hatte der Stadtrat bereits im Juni 2021 gefasst. Ebermannstadt gehörte zu einer der letzten Anlagen….mehr:
https://www.wiesentbote.de/2023/10/27/die-klaeranlage-ebermannstadt-erhaelt-eine-neue-klaerschlammentwaesserung/

(nach oben)


Gutenberg und Ellerbachtal: Kläranlage – Verbesserung ist deutlich teurer als gedacht

Der Werkausschuss stimmt trotz hoher Kosten für die Überdachung des Schlammlagerplatzes. Die Kosten sind allerdings explodiert. Mehr:
https://www.rhein-zeitung.de/region/aus-den-lokalredaktionen/oeffentlicher-anzeiger_artikel,-klaeranlage-gutenberg-und-ellerbachtal-verbesserung-ist-deutlich-teurer-als-gedacht-_arid,2582720_source,rss.html

(nach oben)


Emmendingen: Wieso die Abwassergebühren steigen sollen

Abwasser in Emmendingen soll erneut teurer werden. Ab Januar soll die Gebühr von 1,89 auf 2,10 Euro pro Kubikmeter Schmutzwasser steigen. Grund dafür sind auch nötige Investitionen im Eigenbetrieb. Der Gebührensprung ist nicht das Ende der Fahnenstange. Die Kosten für die neue Kläranlage treiben auch die Kosten der Abwasserbeseitigung in die Höhe: 2026 sollen…mehr:
https://www.badische-zeitung.de/wieso-die-abwassergebuehren-in-emmendingen-steigen-sollen

(nach oben)


Emschergenossenschaft: Pilotprojekt für die E-Fuels-Produktion auf Kläranlage

Die Emschergenossenschaft will mit Partnern eine Demonstrationsanlage zur Herstellung von E-Fuels aus CO2 und Wasserstoff errichten. Die Anlage könnte als Vorbild für andere Kläranlagen dienen.
Kläranlagen sind nicht nur Orte, die viel Energie verbrauchen, sondern mittlerweile auch viel regenerative Energie erzeugen. Die Kläranlage Bottrop der Emschergenossenschaft ist Deutschlands erste vollständig energieautarke Großkläranlage. Nun soll dort das Pilotprojekt „E-BO(2)t“ umgesetzt werden.

Kläranlagen haben mehrere Standortvorteile für die Produktion grüner methanolbasierter Kraftstoffe aus Kohlendioxid und Wasserstoff: nämlich zum einen die gute Infrastruktur für den Bau von Elektrolyseuren, zum anderen verfügen sie über eine hochkonzentrierte und damit einfach abzuscheidende grüne Kohlendioxid-Quelle. Denn im Klärgas sind 30 bis 50 Prozent grünes CO2 enthalten. Methanol für verschiedene Einsatzgebiete
Das Kohlendioxid fällt auf der Kläranlage Bottrop im Zuge der Abwasserreinigung und der daraus resultierenden Klärschlammverwertung in den vier weithin sichtbaren Faulbehältern der Emschergenossenschaft an. Zudem verfügen Kläranlagen …mehr:
https://www.zfk.de/wasser-abwasser/abwasser/pilotprojekt-fuer-die-e-fuels-produktion-auf-klaeranlage

(nach oben)


Hanau: Innovative Lösung spart der Stadt bei Kläranlage Millionen

Neue Technik sorgt für noch geringere Phosphorwerte im Abwasser
Die Nachklärbecken des Klärwerks in Hanau werden derzeit auf den neuesten Stand gebracht. Dabei ersetzen höhenvariable Einlaufsysteme die derzeit vorhandenen starren Einlaufhauben. Die neuen Bauteile sorgen dabei für einen gleichmäßigen Wasserzulauf – und damit zu weniger Verwirbelungen innerhalb der Becken. Dadurch ist es möglich, die ohnehin schon sehr niedrigen Phosphorwerte im Wasser weiter zu reduzieren.
Eine Umrüstung erfolgt dabei an den Mittelbauwerken der Nachklärbecken. Die Stadt Hanau investierte in ein System des Herstellers hydrograv. „In Nachklärbecken setzt sich sogenannter Belebtschlamm…mehr:
https://www.presse-service.de/data.aspx/static/1140507.html

(nach oben)


Irschenberg: Kommentar zum Klärwerk – Bürger haben Recht auf finanzielle Entlastung

Das Klärwerk von wird an bisheriger Stelle neu gebaut. Die Kosten liegen bei 8,7 Millionen Euro. Ein neues Betriebsgebäude und eine Schlammentwässerungsanlage haben die Kosten noch mal erhöht.
Für 8,7 Millionen Euro wird in Irschenberg die Kläranlage neu gebaut. Das bedeutet für die angeschlossenen Bürger Extra-Beiträge und Rekordgebühren beim Abwasser. Wie die Kostenbelastung aufgeschlüsselt wird, sollte im Dialog mit den Bürgern passieren. Ein Kommentar von Merkur-Redakteur Dieter Dorby.
Der Gemeinderat von Irschenberg will loslegen und das leidige Thema Klärwerk endlich zum Abschluss bringen. Fachlich ist das 8,7-Millionen-Euro-Projekt wohl nicht anzuzweifeln. Problematisch bleibt aber die Finanzierung, die die Bürger mit Extra-Beiträgen und Abwassergebühren auf deutschem Rekordniveau belasten wird. Mehr:
https://www.merkur.de/lokales/region-miesbach/irschenberg-ort28854/kommentar-beitragsermittlung-beim-klaerwerk-neubau-muss-oeffentlich-sein-92589009.html

(nach oben)


Kläranlage Irschenberg: Experte macht der Gemeinde ein Angebot – „Nur die Hälfte am Netz ist zu wenig“

Umstrittene Kosten: Mit 8,7 Millionen Euro veranschlagt die Gemeinde Irschenberg den Neubau ihres Klärwerks. Dabei sind nur etwa 1500 der 3300 Einwohner an die gemeindliche Abwasserversorgung angeschlossen. © Thomas Plettenberg
Abwasser-Experte F. Wolfgang Günthert spricht im Interview mit der Heimatzeitung über sein Angebot an die Gemeinde Irschenberg und Grundsatzfragen in Sachen Kläranlage.
Irschenberg – Die Meinungen gehen auseinander. Der Gemeinderat will den Neubau der Kläranlage in Irschenberg nun endlich zum Abschluss bringen, viele Bürger kritisieren aber die damit verbundene Kostenbeteiligung der angeschlossenen Haushalte und fordern eine Überarbeitung. Wie berichtet, droht bei einer von Bürgermeister Klaus Meixner (CSU) favorisierten Aufteilung – 50 Prozent über einen Extrabeitrag, 50 Prozent über die Abwassergebühren – der deutsche Rekordpreis von sechs Euro pro Kubikmeter. Im Rahmen der Kostendiskussion hat F. Wolfgang Günthert der Gemeinde angeboten, das geplante Projekt auf sein Verbesserungspotenzial hin zu prüfen. Wir fragten den ehemaligen Professor für Siedlungswasserwirtschaft und Abfalltechnik an der Universität der Bundeswehr München und Vorsitzenden des Deutschen Expertenrats für Umwelttechnologie und Infrastruktur, welche Chancen er dabei sieht.
https://www.merkur.de/lokales/region-miesbach/irschenberg-ort28854/klaeranlage-irschenberg-experte-rathaus-angebot-interview-kosten-92651675.html

(nach oben)


Lignano/Italien: Salmonellengefahr bei Muscheln aus der nördlichen Adria

Friauls Gesundheitsbehörde erteilte für Mollusken in einigen Zonen zwischen Grado und Lignano ein Fang- und Konsumationsverbot. Das Gebiet liegt im Strömungsbereich der Kläranlage von Lignano.
Das schöne Herbstwetter mit strahlendem Sonnenschein lockt derzeit viele zum Ausflug nach Friaul-Julisch Venetien ans Meer. Und viele gönnen…mehr:
https://www.kleinezeitung.at/kaernten/alpeadria/6328543/Italien_Salmonellengefahr-bei-Muscheln-aus-der-noerdlichen-Adria?from=rss

(nach oben)


Linz: Doch keine Solarkraft für Kläranlage: VG Linz und VG Unkel müssen Projekte für Fördermittel umplanen

So schnell können sich Pläne ändern: Eigentlich hatte die VG-Verwaltung in Linz eine gute und bereits ausgearbeitete sowie abgestimmte Idee, wie man die knapp 551.000 Euro Fördermittel aus dem Kommunalen Investitionsprogramm Klimaschutz …mehr:
https://www.rhein-zeitung.de/region/aus-den-lokalredaktionen/kreis-neuwied_artikel,-doch-keine-solarkraft-fuer-klaeranlage-vg-linz-und-vg-unkel-muessen-projekte-fuer-foerdermittel-umplanen-_arid,2582297_source,rss.html

(nach oben)


Mistelbach: Die richtige Entscheidung

Der Anschluss der Mistelbacher Abwasserentsorgung an die Bayreuther Kläranlage war dringend notwendig, meint Redakteur Gunter Becker. Mehr:
https://www.kurier.de/inhalt.kommentar-die-richtige-entscheidung.0b4087df-0779-4244-884c-3fe872bcb926.html

(nach oben)


Nandlstadt: Kläranlagen-Sanierung – Jetzt werden die Nandlstädter Bürger zur Kasse gebeten

Es ist soweit: Die Gebühren für die Sanierung und Erweiterung der Kläranlage werden auf die Nandlstädter Bürger umgelegt. Die Bescheide können ab 1. Januar 2024 verschickt werden.
Nandlstadt – Auf die Nandlstädter Bürger kommen „Zahlungen zu, die nicht unerheblich sind“. So hatte es CSU-Marktrat Franz Mayer bereits im Februar formuliert, als über Möglichkeiten diskutiert wurde, wie man die Kosten von gut fünf Millionen Euro für die Erweiterung und Ertüchtigung der gemeindlichen Kläranlage auf die Bürger umlegen kann – gemäß der gesetzlichen Vorgabe. Die Entscheidung fiel seinerzeit auf die 50:50-Variante. Will heißen: Die Kosten werden zu 50 Prozent durch Verbesserungsbeiträge sowie zu 50 Prozent durch die neu zu kalkulierenden Abwassergebühren finanziert. Was dies nun konkret bedeutet, wurde in der jüngsten Sitzung des Gemeinderats präsentiert. Da das Thema sehr komplex ist, wurde mit Rechtsanwältin Bettina Radlbeck eine Expertin per Videoschaltung hinzugezogen. Sie erklärte die Berechnungen und stellte die neuen Abwassergebühren inklusive der neuen Niederschlagswassergebühr vor.
https://www.merkur.de/lokales/freising/nandlstadt-ort377198/klaeranlagen-sanierung-die-buerger-werden-zur-kasse-gebeten-92641587.html

(nach oben)


Neckarwestheim: Leckage im Abwasserbehandlungssystem

Der Betreiber des stillgelegten Kernkraftwerks Neckarwestheim (Block II) hat im Rahmen einer Routinekontrolle am 26.09. im System zur Behandlung radioaktiver Abwässer zwei Schäden an einer Rohrleitung der Säuredosierleitung festgestellt. Eine Gefahr für Menschen und Umwelt bestand nicht.
Unter einer der beschädigen Stellen befand sich eine kleine Lache, während die andere Stelle trocken war. Eine vorgenommene Messung der Kontamination ergab nur geringe Werte.
Der Genehmigungsinhaber stufte das Ergebnis als sogenannte Meldekategorie N (Normalmeldung) ein; INES 0 (keine oder sehr geringe sicherheitstechnische Bedeutung). Es bestand zu keiner Zeit eine Gefahr für Menschen und Umwelt.
Bis zum Abschluss der Reparaturen hat der Betreiber das System außer Betrieb genommen.
Mit dem System zur Behandlung und Lagerung radioaktiver Abwässer im Restbetrieb des Kernkraftwerks Neckarwestheim werden alle im Kontrollbereich anfallenden Abwässer gesammelt und aufbereitet. Bei der Behandlung können verschiedene Chemikalien zum Einsatz kommen wie zum Beispiel Säure zur Einstellung des pH-Wertes.
Bei dem jetzt gemeldeten Ereignis beschränkte sich der Austritt von säurehaltiger radioaktiver Flüssigkeit auf einen kleinen Bereich in der Anlage. Die verursachte Kontamination war gering. Jedoch sind Leckagen aus als aktivitätsführend eingestuften Systemen grundsätzlich meldepflichtig. Die sicherheitstechnische Bedeutung des Ereignisses ist sehr gering. Es ergaben sich keine Auswirkungen auf Personen und die Umwelt.

Ergänzende Informationen für die Redaktionen
Die für die kerntechnische Sicherheit bedeutsamen Ereignisse sind den atomrechtlichen Aufsichtsbehörden der Länder nach den bundeseinheitlichen Kriterien der Atomrechtlichen Sicherheitsbeauftragten- und Meldeverordnung – AtSMV zu melden. Ziel des Meldeverfahrens ist, den Sicherheitsstand der Kernkraftwerke zu überwachen, dem Auftreten ähnlicher Fehler in anderen Kernkraftwerken vorzubeugen und die gewonnenen Erkenntnisse in sicherheitstechnische Verbesserungen einfließen zu lassen.

Die meldepflichtigen Ereignisse sind unterschiedlichen Kategorien zugeordnet (Erläuterungen zu den Meldekriterien für meldepflichtige Ereignisse):
Kategorie S (Unverzügliche Meldung)
Ereignisse, die der Aufsichtsbehörde unverzüglich gemeldet werden müssen, damit sie gegebenenfalls in kürzester Frist Prüfungen einleiten oder Maßnahmen veranlassen kann. Hierunter fallen auch die Vorkommnisse, die akute sicherheitstechnische Mängel aufzeigen.
Kategorie E (Meldung innerhalb von 24 Stunden)
Ereignisse, die der Aufsichtsbehörde binnen 24 Stunden gemeldet werden müssen, damit sie gegebenenfalls in kurzer Frist Prüfungen einleiten oder Maßnahmen veranlassen kann. Hierunter fallen auch die Ereignisse, deren Ursache aus Sicherheitsgründen in kurzer Frist geklärt und gegebenenfalls in angemessener Zeit behoben werden muss. In der Regel handelt es sich dabei um sicherheitstechnisch potentiell – aber nicht unmittelbar – signifikante Ereignisse.
Kategorie N (Meldung bis zum fünften Werktag)
Ereignisse, die der Aufsichtsbehörde innerhalb von 5 Werktagen gemeldet werden müssen, um eventuelle sicherheitstechnische Schwachstellen frühzeitig erkennen zu können. Dies sind in der Regel Ereignisse von geringer sicherheitstechnischer Bedeutung, die über routinemäßige betriebstechnische Einzelereignisse bei vorschriftsmäßigem Anlagenzustand und -betrieb hinausgehen. Unverfügbarkeiten von Komponenten/Systemen, die durch im Betriebshandbuch spezifizierte Prozeduren temporär beabsichtigt herbeigeführt werden, sind nicht meldepflichtig, wenn dies auch in der Sicherheitsspezifikation des Betriebshandbuches entsprechend berücksichtigt ist.
Internationale Bewertungsskala INES: Aufgrund einer Vereinbarung zwischen den Betreibern der Kernkraftwerke und dem Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit werden meldepflichtige Ereignisse in Kernkraftwerken auch nach der Bewertungsskala INES (International Nuclear and Radiological Event Scale) der Internationalen Atomenergie-Organisation (IAEO) und der Nuklearenergie-Agentur (NEA) der OECD bewertet. Sie hat eine rasche und für die Öffentlichkeit verständliche Bewertung eines Ereignisses zum Ziel.

Die Skala umfasst sieben Stufen:
1 – Störung
2 – Störfall
3 – ernster Störfall
4 – Unfall mit örtlich begrenzten Auswirkungen
5 – Unfall mit weitergehenden Auswirkungen
6 – schwerer Unfall
7 – katastrophaler Unfall

Meldepflichtige Ereignisse, die nach dem INES-Handbuch nicht in die Skala (1 – 7) einzuordnen sind, werden unabhängig von der sicherheitstechnischen Bedeutung nach nationaler Beurteilung der „Stufe 0” zugeordnet.
https://um.baden-wuerttemberg.de/de/presse-service/presse/pressemitteilung/pid/leckage-im-abwasserbehandlungssystem

(nach oben)


Neuburg/Donau: Wie aus menschlichen Fäkalien und Urin Dünger werden kann

Ohne Phosphor ist ein Leben nicht möglich. Doch die Ressourcen des wichtigen Mineralstoffs schwinden. In der Kläranlage in Neuburg an der Donau kommt deshalb eine besondere Technik zum Einsatz, um das Element zurückzugewinnen. Mehr:
https://www.sueddeutsche.de/bayern/bayern-phosphor-faekalien-klaeranlage-neuburg-1.6278583?reduced=true

(nach oben)


Neuwied : Faltbare Solaranlage in Neuwieder Kläranlage im Probebetrieb

Große Solaranlagen brauchen Platz, der oft aber fehlt. In Neuwied wurde deshalb das Becken einer Kläranlage mit einer Solaranlage überbaut, die bewegt werden kann.
Mit nur ein paar Klicks auf einem Display an der Kläranlage in Neuwied-Heddesdorf kann Philipp Deck vom Schweizer Unternehmen „dhp technology AG“ das riesige Solardach in Bewegung setzen. Die Solarmodule lassen sich ein- oder ausfahren. Wie bei einer Ziehharmonika gehen die Module, die an Drahtseilen fünf Meter über dem Klärbecken befestigt sind, auseinander.
Zusammenklappen möglich – bei Wartung oder Unwetter
Das Ein- und Ausfahren funktioniert automatisch. Am Morgen, bei Sonnenaufgang zieht sich das große Solardach über das Klärbecken, sobald …
https://www.swr.de/swraktuell/rheinland-pfalz/koblenz/erstes-faltbares-solardach-in-deutschland-im-probebetrieb-102.html

(nach oben)


Nordhausen: Abwassergebühren in Nordhausen und Hohenstein steigen deutlich

Rund 43.000 Südharzer müssen ab 2024 mehr bezahlen, damit ihr Abwasser in zentralen Kläranlagen gereinigt und entsorgt wird. Für Mieter und für Eigentümer in Nordhausen und Umgebung fällt das Ergebnis in Euro unterschiedlich aus. Mehr:
https://www.thueringer-allgemeine.de/regionen/nordhausen/abwassergebuehren-in-nordhausen-und-hohenstein-steigen-deutlich-id239841103.html

(nach oben)


OOWV: Regionalministerin Osigus übergibt Bescheid über 981.000 Euro

Kohlestrukturmittel fließen in neues Wasser- und Waldzentrum in Schortens
Schortens/Brake. Das Zusammenspiel der lebenswichtigen Ressource Wasser und des Ökosystems Wald ist Thema des Wasser-Wald-Zentrums (WWZ), welches der Oldenburgisch-Ostfriesische Wasserverband (OOWV) ab 2024 am Regionalen Umweltzentrum (RUZ) Schortens bauen will. Das als inklusiver Bildungs- und Vernetzungsort konzipierte Nachhaltigkeitszentrum soll zudem Impulse geben, die Herausforderungen in der Transformation der Region zur „Drehscheibe für grüne Energie“ zu bewältigen
Das WWZ wird mit 981.000 Euro aus Strukturhilfen für die Kohleregion Wilhelmshaven finanziert, der OOWV investiert weitere 109.000 Euro in den Neubau. Einen entsprechenden Bescheid übergab Niedersachsens Regionalministerin Wiebke Osigus in Brake an OOWV-Geschäftsführer Karsten Specht
https://www.oowv.de/der-oowv/presse/pressemitteilungen/news-einzelansicht/archive/2023/oktober/16/artikel/regionalministerin-osigus-uebergibt-bescheid-ueber-981000-euro-an-oowv

(nach oben)


OOWV: Für eine stabile Wasserversorgung: OOWV investiert 12,5 Millionen Euro

Neues Speicherpumpwerk in Kneheim als Maßnahme für eine klimaangepasste Infrastruktur
Kneheim. Beim Baubeginn für das neue Speicherpumpwerk in Kneheim waren sich die Beteiligten des symbolischen Spatenstichs am Donnerstag einig: Mit dieser Maßnahme reagiert der Oldenburgisch-Ostfriesische Wasserverband (OOWV) auf die Auswirkungen des Klimawandels, zu denen unter anderem ein sprunghaft gestiegener Trinkwasserverbrauch insbesondere in den Sommermonaten zählt.
„Wir legen heute den Grundstein, die Versorgungssicherheit im Südoldenburger Bereich zu stärken“, sagte OOWV-Geschäftsführer Karsten Specht. Rund 12,5 Millionen Euro investiert das Unternehmen in das neue Speicherpumpwerk als Teil der künftig klimaangepassten Infrastruktur. Hierzu zählt er auch den aktuellen Bau der großen Transportleitung von Sandelermöns (Landkreis Friesland) nach Diekmannshausen (Landkreis Wesermarsch). Längst registriert der OOWV deutlich höhere Ausgaben durch Projekte dieser Art. „Parallel dazu nehmen wir weiterhin Geld für Erneuerungen oder Sanierungen von Anlagen und Leitungen, die in die Jahre gekommen sind, in die Hand“, berichtete Karsten Specht.
Nach Abschluss der Maßnahme in Kneheim im Frühjahr 2025 stehen in zwei Behältern jeweils 5000 Kubikmeter Wasser zusätzlich für eine stabile Versorgung von Lastrup, Cappeln, Essen, Löningen und Lindern zur Verfügung. Diese Mengen werden besonders dann wichtig, wenn der Wasserbedarf zeitweise so hoch ist, dass dadurch das Wasserwerk Thülsfelde an seine Aufbereitungsgrenzen gerät.
https://www.oowv.de/der-oowv/presse/pressemitteilungen/news-einzelansicht/archive/2023/oktober/6/artikel/fuer-eine-stabile-wasserversorgung-oowv-investiert-125-millionen-euro

(nach oben)


Paterzell: In Kläranlage werden immer wieder Grenzwerte überschritten: Landratsamt setzt Gnadenfrist

Bei der Paterzeller Abwasserreinigung werden immer wieder Grenzwerte überschritten. Das Landratsamt erteilte eine Genehmigung der Kläranlage noch bis maximal 2031.
Wesobrunn – Die Kläranlage in Paterzell ist seit geraumer Zeit ein Sorgenkind, immer wieder werden Grenzwerte überschritten. Das Thema kam immer wieder im Wessobrunner Gemeinderat zur Sprache. Auch bei der jüngsten Ratszusammenkunft …mehr:
https://www.merkur.de/lokales/weilheim/wessobrunn-ort377060/wessobrunn-paterzell-klaeranlage-gnadenfrist-bis-2031-werte-ueberschritten-92581145.html

(nach oben)


Rheda-Wiedenbrück: Plastikplättchen aus der Kläranlage in Rheda-Wiedenbrück mittlerweile in der Nordsee

Bei einem Störfall der Kläranlage Rheda-Wiedenbrück im Juni sind insgesamt 3,3 Tonnen Plastik in die Ems gelangt. Und die sind auch jetzt noch im Wasser.
Inzwischen sind drei Monate vergangen seitdem die Plättchenpanne passiert ist. Von Behördenseite passiert aber aktuell – nichts. Zwei Angler sagen: Totschweigen und die Chips liegen lassen, das geht nicht.
Bei dem Plastik handelte es sich um Filterplättchen aus der Kläranlage – so groß wie Zwei-Euro-Münzen. Laut Gutachten
https://www1.wdr.de/nachrichten/westfalen-lippe/plastik-plaettchen-emsufer-rheda-wiedenbrueck-100.html

(nach oben)


Wavi: Klare Verhältnisse durch gestresste Bakterien

Gestresste Bakterien sorgen in den Kläranlagen des Wavi nicht nur für sauberes Wasser, sondern auch Gase, die zur Energiegewinnung genutzt werden. Zum Tag der offenen Tür konnte man sich die Ilmenauer Kläranlage in einem geführten Rundgang ansehen. Mehr:
https://www.thueringer-allgemeine.de/regionen/arnstadt/klare-verhaeltnisse-durch-gestresste-bakterien-id239881147.html

(nach oben)


Eching: Krickente durchkreuzt Vorzeigeprojekt

Floating-Solar: Baugenehmigung für AWA-Projekt in der Kläranlage in Eching wackelt.

Beantragt ist eine Gesamtfläche der Fotovoltaik-Module auf den Teichen in Eching, die 11 028 Quadratmeter, also etwa 1,5 Fußballfelder groß ist.
Herrsching/Eching – Auf den Schönungsteichen der Kläranlage in Eching am Ammersee sollen Solarmodule schwimmen – es wäre eine Weltpremiere, wenn nicht der Naturschutz, im Besonderen die Krickente die Pläne von AWA-Vorstand Maximilian Bleimaier und Fotovoltaik-Unternehmer Dr. Philipp Sinn aus Gauting durchkreuzen würde. So zumindest scheint es sich darzustellen, der Antwort gemäß, die Bleimaier auf eine Frage von Gerd Mulert (Grüne) im Rahmen der Herrschinger Gemeinderatssitzung am Montag gab. Mulert fragte nach dem Stand der Planung.
https://www.merkur.de/lokales/starnberg/herrsching-ort28808/krickente-durchkreuzt-vorzeigeprojekt-eching-herrsching-92543782.html

(nach oben)


Hausen: „Forschungsprojekt an der Kläranlage in Hausen“ – Bevölkerung zur Besichtigung herzlich eingeladen

An der Kläranlage wird in den nächsten drei Jahren Forschung betrieben, die womöglich bahnbrechend ist, um eine sogenannte 4. Reinigungsstufe möglich zu machen. Am Donnerstag, 28. September 2023 ist die Bevölkerung in den Gemeinde Hausen und Heroldsbach herzlich eingeladen, sich über dieses Forschungsprojekt zu informieren…mehr:
https://www.wiesentbote.de/2023/09/28/forschungsprojekt-an-der-klaeranlage-in-hausen-bevoelkerung-zur-besichtigung-herzlich-eingeladen/

(nach oben)


Irschenberg: Zu schlechte Wasserqualität im FFH-Gebiet: Planer erklärt, was die vierte Reinigungsstufe bringt

Nach vier Jahrzehnten im Dienst ist die Reinigungsleistung der Irschenberger Kläranlage mangelhaft. Laut Planer tragen die beiden Klärteiche dazu bei, dass der Betrieb bis zum Neubau weiterlaufen darf.
Der Neubau der Irschenberger Kläranlage nimmt immer mehr Kontur an. Wie Alexander Schulz-Pflugbeil auf Nachfrage unserer Zeitung mitteilt, stehe das Projekt kurz vor dem Beschluss durch den Gemeinderat und der Genehmigung. Steht das Konzept, sind auch die Kosten gewissermaßen fix.
Irschenberg – Wie berichtet, soll bei sieben Millionen Euro die Obergrenze liegen – „Denkpause“ genannt. Dies hatte der Irschenberger Gemeinderat heuer im April 2023 für den Neubau des Klärwerks festgelegt. Im Prinzip ist diese Schwelle bereits überschritten, wenn man die Zahlen aus der Bürgerversammlung betrachtet. Die Rechnung: 8,7 Millionen Euro Baukosten abzüglich der zugesagten Zuwendung für den Bodenfilter (500.000 Euro) ergeben 8,2 Millionen Euro, von denen 4,1 Millionen Euro von den angeschlossenen Haushalten als Beitrag zu leisten wären. Wobei der fixe Betrag in Höhe von 500.000 Euro, den die Gemeinde im Zuge des Innovationspreises des Freistaats fest einplant, seitens der Bürgerinitiative hinterfragt wird. Hier wird befürchtet, dass nur bis zu 60 Prozent der Kosten für die granulierte Aktivkohle (GAK) erstattet werden. Und das wären bei 327.250 Euro maximal 196.350 Euro.
https://www.merkur.de/lokales/region-miesbach/irschenberg-ort28854/zu-schlechte-wasserqualitaet-im-ffh-gebiet-planer-erklaert-was-irschenberg-die-vierte-reinigungsstufe-bringt-92546748.html

(nach oben)


Königsbrück: Hightech zum Tag der offenen Tür im Klärwerk

Kläranlagen sind inzwischen voller hochmoderner Technologie. Der AZV lädt Besucher ein, die Kläranlage beim Tag der offenen Tür…mehr:
https://www.dnn.de/lokales/umland/tag-der-offenen-tuer-bei-klaeranlage-koenigsbrueck-FYGFQJ2BZJFWNKJRBULL4NXVBY.html

(nach oben)


Murnau: Kommt ein Klärwerkverbund im Raum Murnau? Minister Glauber informiert sich vor Ort

Viele Kommunen denken darüber nach, wie sie mit ihren Kläranlagen weiter verfahren. Im Raum Murnau gibt es derzeit Gedankenspiele, einen Verbund zu schaffen. Das Thema steckt allerdings noch in den Kinderschuhen. Es gibt viele Fragen zu klären, vor allem auch, was die Fördergelder betrifft.
Murnau – Wird es ein Zweckverband? Ein anderes Konstrukt? Wird …mehr:

https://www.merkur.de/lokales/garmisch-partenkirchen/murnau-ort29105/ein-klaerwerk-fuer-viele-gemeinden-92502037.html

(nach oben)


OOWV: Anlage zur Gewinnung von Brauchwasser aus kommunalem Abwasser beauftragt

Der Oldenburgisch-Ostfriesische Wasserverband (OOWV) lässt eine Anlage zur Aufbereitung von kommunalem geklärtem Abwasser zu Brauchwasser errichten. Ein entsprechender Auftrag ging an Firma Envirochemie. Am Standort Nordenham soll die neue Anlage jährlich 1,1 Millionen Kubikmeter Brauchwasser aus dem behandelten Abwasser der kommunalen Kläranlage erzeugen. Die Brauchwasserqualität wird genau auf die Bedürfnisse der Industrie angepasst (Fit for Purpose). Die neue Anlage nutzt kommunales Abwasser als alternative Wasserressource zur Trinkwassernutzung. Die modulare Anlage bereitet das gereinigte Abwasser der Kläranlage nach einem Multi-Barrieren-Konzept über eine Envopur Ultrafiltration und Envopur Umkehrosmose zu Brauchwasser mit einer hohen Qualität auf. Die Anlage besteht aus acht 40-Fuß-Technikmodulen, einer Anlieferungsstelle für Chemikalien sowie Nebengebäuden für Büro- und Sozialräume und Elektrotechnik. Das produzierte Brauchwasser ist partikel- und pathogenfrei, enthärtet und weitgehend entsalzt. Envirochemie liefert die Aufbereitungsanlage schlüsselfertig. Mit dem Brauchwasser werden große industrielle Wasserabnehmer am Industriestandort Nordenham versorgt. Die Bauarbeiten werden ab Sommer 2024 starten, wenn die Genehmigungen für die Anlage vorliegen. Die Inbetriebnahme der Anlage ist für Ende 2025 geplant.

(nach oben)


Weimar: Kläranlage in Tiefurt erzeugt künftig bis zu 85 Prozent ihres Energieverbrauchs selber

Auf dem Gelände ist ein drittes Blockheizkraftwerk in Betrieb gegangen. Die anfallenden Faulgase werden darin weiterverwertet. Wie das funktioniert:

https://www.thueringer-allgemeine.de/regionen/weimar/weimar-klaeranlage-in-tiefurt-erzeugt-kuenftig-bis-zu-85-prozent-ihres-energieverbrauchs-selber-id239268965.html

(nach oben)


Wehr: Photovoltaik-Anlage auf Kläranlage in Betrieb

Die Photovoltaik-Anlage auf dem Dach der Kläranlage ist seit Juli in Betrieb, wie die Stadt Wehr mitteilt. Nun müssten Anpassungen vorgenommen werden, um möglichst viel des produzierten Stroms zu verbrauchen. Wie es weiter heißt, könne an sonnigen Tagen der Stromverbrauch mehrere Stunden vollständig über die PV-Anlage gedeckt werden. Die Blockheizkraftwerke könnten dann gedrosselt…mehr:

https://www.badische-zeitung.de/photovoltaik-anlage-auf-klaeranlage-in-betrieb–281051768.html

(nach oben)


Straubing: Klärschlammverbrennung/Klärschlammentsorgung

Die Projektpartner Bayernwerk Natur GmbH, SüdWasser GmbH und die Straubinger Energie- und Reststoffverwertungs GmbH realisieren am Standort der Kläranlage Straubing eine Monoverbrennungsanlage für die Verwertung kommunaler und kommunalähnlicher Klärschlämme.
Die geplante Anlagenkapazität beläuft sich auf 120.000 t/a Klärschlamm, der sich aus entwässerten und getrockneten Schlämmen verschiedener Herkunft und Charakteristika zusammensetzt. Als Herzstück der Anlage kommt eine sog. stationäre Wirbelschichtfeuerung zum Einsatz; eine für die Klärschlammverbrennung seit Jahrzehnten bewährte Technologie. Die im Klärschlamm enthaltene Organik verbrennt dort und setzt dabei Energie in Form von Wärme frei. Schadstoffe wie Mikroplastik, organische Verbindungen, pathogene Keime und Spurenstoffe werden sicher zerstört.
Schwermetalle und Luftschadstoffe wie Schwefeldioxid und Chlorwasserstoff werden in der nachfolgenden Rauchgasreinigung auf ein für Mensch und Umwelt irrelevantes Minimum reduziert.
Die in der Wirbelschicht freigesetzte Wärme erzeugt im nachgeschalteten Kessel Dampf, der in einer Turbine entspannt wird und Strom über den gekoppelten Generator erzeugt. Neben klimaneutralem Strom erzeugt die Anlage Wärme, welche teilweise zur Trocknung der angelieferten Klärschlämme genutzt wird. Ferner kann Wärme für ein Nahwärmenetz bereitgestellt werden. Die Monoverbrennungsanlage erzeugt somit regenerative Energie in Form von Strom und Wärme. Neben einem energieautarken Betrieb kann dadurch auch eine Versorgung von bis zu 2.500 Haushalten mit Strom oder Wärme dargestellt werden, was einer C02-Einsparung von bis zu 3.500 Tonnen bei Stromnutzung bzw. 11.300 Tonnen bei Wärmenutzung entspricht. Damit leistet die Anlage im Raum Straubing einen wichtigen Beitrag zur Energiewende.
Aus den bei der Verbrennung entstehenden sog. Monoaschen wird wertvoller Phosphor zurückgewonnen, wodurch knappe natürliche Ressourcen geschont und Kreisläufe geschlossen werden. Die Rückstände aus der Rauchgasreinigung werden, soweit möglich, einer stofflichen Verwertung zugeführt. Nicht verwertbare Mengen werden unter Tage sicher deponiert.
Das Verfahren bietet somit nachfolgende Vorteile:
• Nachhaltige regenerative Stromerzeugung (ausreichend für ca. 2.500 Vier-Personen-Haushalte)
• Nachhaltige Bereitstellung von Wärme
• Sichere und umweltschonende Entsorgung von Klärschlämmen
• Rückgewinnung von wertvollem Phosphor

(nach oben)


Sondershausen: Die Kläranlage soll einen Teil ihres enormen Energiebedarfs selbst erzeugen

Der Betonriese macht es möglich.
Aus der Wipperaue bei Berka ist ein Betonriese herausgewachsen. Mit fast 17 Metern Höhe überragt der neue Faulturm alle anderen Gebäude der Kläranlage vom Trink- und Abwasserzweckverband Helbe-Wipper (TAZ) deutlich. Das Bauwerk soll in Zukunft dazu dienen, aus Klärschlamm Gas zu produzieren aus dem dann Strom und Heizenergie gewonnen werden sollen.
Um die Energieeffizienz in der Kläranlage Sondershausen zu erhöhen, habe der TAZ jetzt begonnen, die Faulung auf ein moderneres System …mehr:

https://www.thueringer-allgemeine.de/regionen/sondershausen/betonriese-bei-berka-liefert-faulgas-fuer-strom-id239324421.html

(nach oben)


Penig: Best Practice: Tropfkörper auf der Zentralkläranlage Penig

Bei der Zentralkläranlage Penig handelt es sich um ein Projekt mit anspruchsvollen Abwasserzulaufbedingungen, da neben dem kommunalen Abwasser zwei industrielle Einleiter mit hohen Mengen und Frachten ihre Abwässer zu dieser Kläranlage leiten. Die Firma Brentwood Europe hat gemeinsam mit der wks Technik GmbH und der Firma Hüttner…mehr:

https://www.gfa-news.de/webcode.html?wc=20230822_001

(nach oben)


OOWV: Anlage zur Gewinnung von Brauchwasser aus kommunalem Abwasser beauftragt

Der Oldenburgisch-Ostfriesische Wasserverband (OOWV) lässt eine Anlage zur Aufbereitung von kommunalem geklärtem Abwasser zu Brauchwasser errichten. Ein entsprechender Auftrag ging an Firma Envirochemie. Am Standort Nordenham soll die neue Anlage jährlich 1,1 Millionen Kubikmeter Brauchwasser aus dem behandelten Abwasser der kommunalen Kläranlage erzeugen. Die Brauchwasserqualität wird genau auf die Bedürfnisse der Industrie angepasst (Fit for Purpose). Die neue Anlage nutzt kommunales Abwasser als alternative Wasserressource zur Trinkwassernutzung. Die modulare Anlage bereitet das gereinigte Abwasser der Kläranlage nach einem Multi-Barrieren-Konzept über eine Envopur Ultrafiltration und Envopur Umkehrosmose zu Brauchwasser mit einer hohen Qualität auf. Die Anlage besteht aus acht 40-Fuß-Technikmodulen, einer Anlieferungsstelle für Chemikalien sowie Nebengebäuden für Büro- und Sozialräume und Elektrotechnik. Das produzierte Brauchwasser ist partikel- und pathogenfrei, enthärtet und weitgehend entsalzt. Envirochemie liefert die Aufbereitungsanlage schlüsselfertig. Mit dem Brauchwasser werden große industrielle Wasserabnehmer am Industriestandort Nordenham versorgt. Die Bauarbeiten werden ab Sommer 2024 starten, wenn die Genehmigungen für die Anlage vorliegen. Die Inbetriebnahme der Anlage ist für Ende 2025 geplant.

(nach oben)


Bad Oeynhausen: Einzigartiges Projekt testet Einsatz von Künstlicher Intelligenz im Klärwerk

Die Stadtwerke beginnen in wenigen Wochen mit einem wegweisenden Forschungsprojekt zur Wiederverwendung von Brauchwasser. Mehr:

https://www.nw.de/lokal/kreis_minden_luebbecke/bad_oeynhausen/23635260_Einzigartiges-Projekt-Bad-Oeynhausen-testet-Einsatz-von-Kuenstlicher-Intelligenz-im-Klaerwerk.html

(nach oben)


Murnau: Kommt ein Klärwerkverbund im Raum Murnau? Minister Glauber informiert sich vor Ort

Viele Kommunen denken darüber nach, wie sie mit ihren Kläranlagen weiter verfahren. Im Raum Murnau gibt es derzeit Gedankenspiele, einen Verbund zu schaffen. Das Thema steckt allerdings noch in den Kinderschuhen. Es gibt viele Fragen zu klären, vor allem auch, was die Fördergelder betrifft.
Murnau – Wird es ein Zweckverband? Ein anderes Konstrukt? Wird …mehr:

https://www.merkur.de/lokales/garmisch-partenkirchen/murnau-ort29105/ein-klaerwerk-fuer-viele-gemeinden-92502037.html

(nach oben)


Königsbrück: Hightech zum Tag der offenen Tür im Klärwerk

Kläranlagen sind inzwischen voller hochmoderner Technologie. Der AZV lädt Besucher ein, die Kläranlage beim Tag der offenen Tür…mehr:

https://www.dnn.de/lokales/umland/tag-der-offenen-tuer-bei-klaeranlage-koenigsbrueck-FYGFQJ2BZJFWNKJRBULL4NXVBY.html

(nach oben)


Köln: Klimafolgen, Eigenerzeugung, Bisonzucht – Die Chefin der Kölner Stadtentwässerungsbetriebe im neuen ZfK-Podcast

Die Klimafolgenanpassung in den Städten ist eine der zentralen Herausforderungen von Ulrike Franzke. Wie sie die Bürger in Köln dabei mit einbezieht, erfahren Sie in der neuen Folge des ZfK-Podcasts.
Wochenlang kaum Regen, dann kommt es wieder knüppeldick vom Himmel. Aber: Köln hat sich gut vorbereitet auf Hitze und Starkregen, eigentlich schon nach den großen Hochwassern in den 90ern. Die Ingenieurin Ulrike Franzke wechselte vor zwei Jahren von der Spree an den Rhein, um hier Chefin der Stadtentwässerungsbetriebe zu werden.
Die Wasserwirtschaft als Träger der Klimafolgenanpassung in Städten, das ist eins der wichtigsten Themen für sie. Köln gestaltet diese Aufgabe partizipativ, bezieht Bürgerinnen und Bürger ein – und macht zum Beispiel Plätze in der Stadt zu Rückhaltebecken. Zur besseren Information kommt jetzt ein Regenwasserinstitut dazu. Mehr:

https://www.zfk.de/wasser-abwasser/abwasser/klimafolgen-eigenerzeugung-bisonzucht-die-chefin-der-koelner-stadtentwaesserungsbetriebe-im-neuen-zfk-podcast

(nach oben)


Karlsfeld: Modernisierung und Erweiterung – Kläranlage rüstet für die Zukunft auf

Das Fundament des Gebäudes für die Primärschlamm-eindickung steht.
Die Kläranlage in Karlsfeld erfährt eine umfassende Modernisierung und Erweiterung, um den steigenden Anforderungen gerecht zu werden.
Karlsfeld – Auf dem Gelände der Karlsfelder Kläranlage herrscht zurzeit Baustellenstimmung. Zwei Kräne ragen in den Wolkenhimmel, der so grau ist, wie die beiden Rohbauten, die bis Ende dieses Jahres fertiggestellt werden. Bis voraussichtlich Mitte nächsten Jahres gehen dann ein Rechenhaus mit einem neuen Gefahrenstofflage …

https://www.merkur.de/lokales/dachau/karlsfeld-ort28903/modernisierung-und-erweiterung-klaeranlage-in-karlsfeld-ruestet-fuer-die-zukunft-auf-92490713.html

(nach oben)


Irschenberg: Zu schlechte Wasserqualität im FFH-Gebiet: Planer erklärt, was die vierte Reinigungsstufe bringt

Nach vier Jahrzehnten im Dienst ist die Reinigungsleistung der Irschenberger Kläranlage mangelhaft. Laut Planer tragen die beiden Klärteiche dazu bei, dass der Betrieb bis zum Neubau weiterlaufen darf.
Der Neubau der Irschenberger Kläranlage nimmt immer mehr Kontur an. Wie Alexander Schulz-Pflugbeil auf Nachfrage unserer Zeitung mitteilt, stehe das Projekt kurz vor dem Beschluss durch den Gemeinderat und der Genehmigung. Steht das Konzept, sind auch die Kosten gewissermaßen fix.
Irschenberg – Wie berichtet, soll bei sieben Millionen Euro die Obergrenze liegen – „Denkpause“ genannt. Dies hatte der Irschenberger Gemeinderat heuer im April 2023 für den Neubau des Klärwerks festgelegt. Im Prinzip ist diese Schwelle bereits überschritten, wenn man die Zahlen aus der Bürgerversammlung betrachtet. Die Rechnung: 8,7 Millionen Euro Baukosten abzüglich der zugesagten Zuwendung für den Bodenfilter (500.000 Euro) ergeben 8,2 Millionen Euro, von denen 4,1 Millionen Euro von den angeschlossenen Haushalten als Beitrag zu leisten wären. Wobei der fixe Betrag in Höhe von 500.000 Euro, den die Gemeinde im Zuge des Innovationspreises des Freistaats fest einplant, seitens der Bürgerinitiative hinterfragt wird. Hier wird befürchtet, dass nur bis zu 60 Prozent der Kosten für die granulierte Aktivkohle (GAK) erstattet werden. Und das wären bei 327.250 Euro maximal 196.350 Euro.

https://www.merkur.de/lokales/region-miesbach/irschenberg-ort28854/zu-schlechte-wasserqualitaet-im-ffh-gebiet-planer-erklaert-was-irschenberg-die-vierte-reinigungsstufe-bringt-92546748.html

(nach oben)


Hinterzarten: Bahnhof und Kläranlage bergen großes Potential für Solarenergie

Die Gemeinde Hinterzarten will klimaneutraler werden. Wie das gehen kann, erklärt Marc Vollmer von der PV-Gruppe der „Initiative Zukunft Hinterzarten“. Klar ist: Es wird erst einmal viel Geld kosten. Mehr:

https://www.badische-zeitung.de/bahnhof-und-klaeranlage-bergen-grosses-potential-fuer-solarenergie–278924000.html

(nach oben)


Stadtwerke Forchheim – Die Forchheimer Kläranlage mit stetigen Sanierungen zum Energiespar-Vorbild

Die Forchheimer Kläranlage auf der Schleuseninsel ist von zentraler Bedeutung für die umweltgerechte Wasserwirtschaft der Stadt Forchheim, aber auch für große Teiles des Landkreises. Seit 1971 arbeitet die Kläranlage rund um die Uhr an sieben Tagen die Woche, damit wir unser abgeleitetes Schmutz- und Regenwasser guten Gewissens wieder dem natürlichen Kreislauf zuführen können. Damit dies heute und für die kommenden Generation reibungslos gelingt, mehr:

https://www.wiesentbote.de/2023/08/29/stadtwerke-forchheim-die-forchheimer-klaeranlage-mit-stetigen-sanierungen-zum-energiespar-vorbild/

(nach oben)


Erftverband: So wird das Abwasser in Weilerswist gereinigt

Ein Blick hinter die Kulissen: Der Erftverband öffnet am Samstag die Tore zur Kläranlage Weilerswist.

https://www.rundschau-online.de/region/euskirchen-eifel/weilerswist/klaeranlage-so-wird-das-abwasser-in-weilerswist-gereinigt-634078

(nach oben)


Eching: Krickente durchkreuzt Vorzeigeprojekt

Floating-Solar: Baugenehmigung für AWA-Projekt in der Kläranlage in Eching wackelt.

Beantragt ist eine Gesamtfläche der Fotovoltaik-Module auf den Teichen in Eching, die 11 028 Quadratmeter, also etwa 1,5 Fußballfelder groß ist. © DARSTELLUNG: SINN POWER/AWA
Herrsching/Eching – Auf den Schönungsteichen der Kläranlage in Eching am Ammersee sollen Solarmodule schwimmen – es wäre eine Weltpremiere, wenn nicht der Naturschutz, im Besonderen die Krickente die Pläne von AWA-Vorstand Maximilian Bleimaier und Fotovoltaik-Unternehmer Dr. Philipp Sinn aus Gauting durchkreuzen würde. So zumindest scheint es sich darzustellen, der Antwort gemäß, die Bleimaier auf eine Frage von Gerd Mulert (Grüne) im Rahmen der Herrschinger Gemeinderatssitzung am Montag gab. Mulert fragte nach dem Stand der Planung.

https://www.merkur.de/lokales/starnberg/herrsching-ort28808/krickente-durchkreuzt-vorzeigeprojekt-eching-herrsching-92543782.html

(nach oben)


Dümpelfeld – Katrin Eder : „Kläranlage Dümpelfeld wird zum Leuchtturmprojekt im Ahrtal“

„Nach der verheerenden Flutkatastrophe wird der Wiederaufbau im Ahrtal zur Mammutaufgabe, die ein jahrzehntelanges Engagement erfordern wird. Die Abwasserinfrastruktur wurde zum Teil komplett zerstört. Der Wiederaufbau der Kläranlagen bietet die Chance, moderne Systeme zu errichten, die dem Klimaschutz dienen und die Gewässerqualität weiter verbessern. Dafür ist auch die Kläranlage Dümpelfeld ein treffendes Beispiel. Eine gute Wasserqualität ist ein Garant für eine möglichst hohe Biodiversität in unseren Gewässern“, erklärte Umwelt- und Klimaschutzministerin Katrin Eder bei der Übergabe eines Förderbescheides in Höhe von 13,5 Millionen Euro aus dem Sondervermögen Wiederaufbau. Den Bescheid überreichte die Ministerin an Guido Nisius, Bürgermeister der Verbandsgemeinde Adenau, und an Werksleiter Jürgen Adriany.
„Die 13,5 Millionen Euro sichern die Finanzierung der nächsten anstehenden Aufgaben zur Wiederherstellung des Kanalsystems und des Wiederaufbaus einer erweiterten und modernisierten Kläranlage Dümpelfeld. Die dann von 20.000 auf 30.000 Einwohnerwerte vergrößerte Anlage wird mit der verfahrenstechnischen Umstellung auf eine Faulungsanlage zu einem Leuchtturmprojekt für das Ahrtal. Die Kläranlage wird dann nicht nur weitgehend energieneutral und hochwassersicher sein. Sie entlastet die Ahr auch noch weiter von Schadstoffen“, erläuterte Katrin Eder weiter.

https://mkuem.rlp.de/service/pressemitteilungen/detail/katrin-eder-klaeranlage-duempelfeld-wird-zum-leuchtturmprojekt-im-ahrtal

(nach oben)


Duisburg: Wir bauen die größte innovative KWK-Anlage an einer Kläranlage in Deutschland

Wir haben mit dem Bau einer innovativen Kraft-Wärme-Kopplungsanlage (iKWK) an der Kläranlage der Wirtschaftsbetriebe Duisburg im Stadtteil Huckingen im Duisburger Süden begonnen. Nach ihrer geplanten Fertigstellung im Jahr 2025 wird sie die größte iKWK-Anlage an einer Kläranlage in Deutschland sein.
iKWK bedeutet, dass eine Kraft-Wärme-Kopplungsanlage, also eine Erzeugungseinheit, die sowohl Strom als auch Wärme produziert, um eine innovative Komponente erweitert wird, die mindestens 35 Prozent der Leistung der Gesamtanlage ausmacht. In unserem Fall werden Wärmepumpen die im bereits geklärten Abwasser der Kläranlage enthaltene Restwärme nutzen, um sie dem Fernwärmenetz zuzuführen.

Dafür wird am Ausgang der Kläranlage in Huckingen in einem Teilbereich des Auslaufbeckens eine Wasservorlage angestaut. So kann gewährleistet werden, dass bei nicht kontinuierlichen Wassermengen trotzdem ausreichend Wasser für eine Abwärmegewinnung vorhanden ist. Zudem bauen wir auf dem Gelände der Kläranlage ein Pumpenhaus, in dem die beiden Wärmepumpen mit einer Gesamtleistung von 3,8 Megawatt (MW) stehen werden. Zur Anlage gehören außerdem zwei Blockheizkraftwerke, die jeweils 4,5 MW elektrisch leisten und jeweils 4,7 MW thermisch. Die Blockheizkraftwerke werden in unserem Heizwerk Mitte an der Bungertstraße errichtet. Mit dieser Leistung sind wir in der Lage, den jährlichen Stromverbrauch von 10.000 Haushalten zu decken und zugleich bis zu 4.000 an die Fernwärme angeschlossene Haushalte mit Wärme zu versorgen. Komplettiert wird die Anlage mit einem elektrischen Wärmeerzeuger mit einer Leistung von 30 MW. Dieser soll vor allem dann zum Einsatz kommen, wenn sich überschüssige elektrische Energie im Netz befindet, die nicht von Haushalten oder der Industrie benötigt wird. Der Wärmekessel kann auch dann eingesetzt werden, wenn regenerative Erzeugungsanlagen abgeriegelt werden müssten, weil der von ihnen erzeugte Strom im Netz sonst nicht benötigt wird. So kann dieses grüne Energiepotenzial sinnvoll genutzt werden, um Wärme zu erzeugen, statt es ungenutzt zu lassen. Die Anlage ist zudem eine sinnvolle Ergänzung unseres Erzeugungsparks, weil wir Wärme aus überschüssiger Energie produzieren können, die wir in unserem Fernwärmespeicher am Heizkraftwerk III einspeichern können, bis sie von den Kundinnen und Kunden abgerufen wird. Obwohl die einzelnen Komponenten der iKWK-Anlage nicht an einem Ort aufgestellt werden, gelten sie gemeinsam doch als eine Einheit, da sie alle in das gleiche Fernwärmenetz einspeisen werden.
Neben den Emissionseinsparungen hat die Anlage zudem einen weiteren positiven Nutzen für die Umwelt. Das Abwasser wird durch die iKWK-Anlage um rund fünf Grad abgekühlt. Das bedeutet, dass wir kühleres Wasser als bisher in den Angerbach einleiten, der dann in den Rhein mündet. Vor allem in den Sommermonaten bedeutet das eine Entlastung für die dann oftmals aufgeheizten Fließgewässer. Je nach Jahreszeit hat das Abwasser in der Kläranlage Huckingen eine Temperatur zwischen 8 und 25 Grad. Sobald die Temperatur oberhalb von 10 Grad liegt, kann es für die Wärmegewinnung durch die Wärmepumpen genutzt werden.
Wir hatten das Projekt im Juli 2021 zur iKWK-Ausschreibung bei der Bundesnetzagentur eingereicht und den Zuschlag zur Förderung über 45.000 Betriebsstunden erhalten. Insgesamt investieren wir rund 27 Millionen Euro in das Gesamtprojekt.

https://www.stadtwerke-duisburg.de/privatkunden/information/aktuelles

(nach oben)


Dresden braucht Wasser – neues Flusswasserwerk an Elbe geplant

Dresden entwickelt sich zu einem wichtigen Chip-Standort. Dafür geht die Stadt in Vorleistung.
Dresden will die künftige Wasserversorgung sichern und plant ein neues Wassersystem samt Flusswasserwerk an der Elbe. Die Gesamtinvestition solle bei mehr als 320 Millionen Euro liegen, teilte die Verwaltung am Donnerstag mit.
Damit reagiert die sächische Landeshauptstadt vor allem auf den riesigen Wasserbedarf der Chipindustrie im Norden der Stadt. Nach Bosch, Infineon und anderen …

…mehr: https://www.zfk.de/wasser-abwasser/dresden-braucht-wasser-neues-flusswasserwerk-an-elbe-geplant

(nach oben)


Bonndorf: In Bonndorf ist Streit um eine geplante Verbrennungsanlage für Klärschlamm entbrannt

Eine Verbrennungsanlage für Klärschlamm ruft in Bonndorf eine Bürgerinitiative auf den Plan. Sie befürchtet Auswirkungen auf die Umwelt. Der Investor sieht sein Vorhaben als Teil einer sauberen Abfallwirtschaft.

https://www.badische-zeitung.de/in-bonndorf-ist-streit-um-eine-geplante-verbrennungsanlage-fuer-klaerschlamm-entbrannt–286582771.html

(nach oben)


Altenahr/Adenau: Was für den Bau der neuen Kläranlage in Dümpelfeld geplant ist

Altenahr/Adenau · 13,5 Millionen Euro gibt es für den Bau einer neuen Kläranlage in Dümpelfeld. Dort sollen künftig die Abwässer aus den Verbandsgemeinden Adenau und Altenahr geklärt werden. Das ist geplant. Mehr.

https://ga.de/region/ahr-und-rhein/altenahr/klaeranlage-adenau-altenahr-foerderbescheid-ueber-13-5-millionen-euro_aid-96367479

(nach oben)


Kläranlage Altena: Neues Abwasserreinigungsverfahren besteht Leistungsfahrt

Die nach dem patentierten Nereda®-Verfahren arbeitende Kläranlage des Ruhrverbands im sauerländischen Altena hat im Frühsommer 2023 die sogenannte Leistungsfahrt erfolgreich bestanden. Ziel dieser 60-tägigen Untersuchungsphase war es, die Leistungsfähigkeit des in Deutschland erstmals eingesetzten Verfahrens anhand vertraglich festgelegter Ablaufgrenzwerte nachzuweisen. Ein umfangreiches Mess- und Analyseprogramm sah eine Vielzahl von Untersuchungsparametern aus den arbeitstäglich erfolgten 24-Stunden-Mischproben und „qualifizierten Stichproben” vom Ablauf der Nereda®-Reaktoren und aus den Reaktoren selbst vor. Unterstützung erhielt das Betriebsteam der Kläranlage vom Kooperationslabor von Ruhrverband, Emschergenossenschaft und Lippeverband. Etwas mehr als 110 Proben wurden in über 420 Einzelanalysen auf die Nährstoffparameter Chemischer Sauerstoffbedarf, Ammoniumstickstoff, anorganischer Stickstoff (Summenparameter) und Gesamtphosphor untersucht. Die Einhaltung der Zielvorgaben war dabei so hoch, dass der Ruhrverband den Nachweis der Leistungsfähigkeit mit „sehr gut” bewertete und akzeptierte. Die Leistungsfahrt war der nächste wichtige Schritt nach dem Abschluss des Einfahrbetriebs der Anlage. Das in den Niederlanden entwickelte und patentierte Nereda®-Verfahren findet zwar bereits weltweit auf über 20 kommunalen Kläranlagen Anwendung, wird jedoch in Altena erstmals in Deutschland in die Praxis umgesetzt. Im Rahmen einer Variantenuntersuchung für die Ertüchtigung der sanierungsbedürftigen Kläranlage Altena hatten der geringere Flächenbedarf, der erheblich geringere Energieverbrauch, der verringerte Einsatz von Fällmitteln durch vermehrte biologische Phosphorelimination, die Kosteneffizienz, der verminderte Wartungsaufwand aufgrund geringer mechanischer und elektrischer Ausstattung sowie die sehr guten Ablaufwerte für das Verfahren gesprochen. Nach der Leistungsfahrt ist vor dem Demonstrationsbetrieb: Aufgrund des Pilotcharakters des Projekts erfolgte die behördliche Genehmigung der Anlage im Rahmen eines „großtechnischen Versuchsbetriebs” zur betrieblichen Umstellung der bisherigen Abwasserreinigung der Kläranlage auf das Nereda®-Verfahren zunächst befristet bis Ende 2026. Dieser Versuchsbetrieb wird ebenfalls durch ein umfangreiches, mit den Behörden abgestimmtes Probenahme- und Analyseprogramm begleitet. Erst nach erfolgreichem Abschluss der zweijährigen Monitoringphase und Erhalt der abschließenden Betriebserlaubnis erfolgt der zweite Bauschnitt mit dem Rückbau der dann nicht mehr benötigten abwassertechnischen Bauwerke und der finalen Gestaltung der Wege und Oberflächen Das Vorhaben wurde mit Mitteln mit 1 409 699 Euro aus dem Umweltinnovationsprogramm des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz gefördert.

https://www.gfa-news.de/webcode.html?wc=20230831_004

(nach oben)


Leutershausen: Richtfest Kläranlage

Am 06.07.2023 wurde auf der Kläranlage Leutershausen nach rund neun Monaten Bauzeit das Richtfest des neuen Maschinengebäudes gefeiert. Neben dem traditionellen Zimmermannsspruch wurden begrüßende und lobende Worte des Bauherrn, vertreten durch den ersten Bürgermeister, Herrn Markus Liebich, verloren. Den Worten, die das gute Verhältnis zwischen allen Projektbeteiligen (Bauherr, ausführenden Firmen und Planern) und den reibungslosen und zügigen Baufortschritt galten, kann WEBER-Ingenieure sich nur anschließen.
Neben dem Maschinengebäude, dem am Richtfest die meiste Aufmerksamkeit geschenkt wurde, steht auch das Belebungsbecken mit 1.600 m³ Volumen kurz vor Fertigstellung der Rohbauarbeiten. Der Sand- und Fettfang wurde bereits fertiggestellt und wartet auf die Ergänzung der Maschinentechnik. Ein Großteil der erdverlegten Leitungen ist zudem bereits verlegt.

http://weber-ing.de/news/

(nach oben)


Hohenbostel: Sanierte Kläranlage eingeweiht

Das größte Umweltprojekt der Gemeinde Bienenbüttel ist vollendet: Die Kläranlage in Hohenbostel. Bei dem Festakt zur Einweihung betonte die Verwaltung aber, noch weiteres Einsparpotenzial zu sehen.
Hohenbostel – Knapp zweieinhalb Jahre nach dem ersten Spatenstich hat die Gemeinde …mehr:

https://www.az-online.de/uelzen/bienenbuettel/sanierte-klaeranlage-in-hohenbostel-eingeweiht-92393315.html

(nach oben)


Hetlingen: Neue Verbandsversammlung des AZV Südholstein erstmalig zusammengetreten

Am Montag, den 10. Juli, ist im Hetlinger Klärwerk die neue Verbandsversammlung des AZV Südholstein zu ihrer konstituierenden ersten Sitzung nach der Kommunalwahl im Mai zusammengetreten. Neben den Wahlen der Verbandsgremien war die Vorstellung des Jahresabschlusses für 2022 ein Schwerpunkt der Tagesordnung. Trotz Problemen durch Spätfolgen der Pandemie und des Kriegs in der Ukraine zieht der Verband eine erfolgreiche Bilanz.
In die Verbandsversammlung des AZV Südholstein entsenden die 53 Mitgliedskommunen und -ämter des Verbands sowie Hamburg Wasser ihre Bürgermeisterinnen und weitere Vertreterinnen. Elmshorns Bürgermeister Volker Hatje wurde als Vorsitzender der Verbandsversammlung des AZV Südholstein wiedergewählt, seine Vertretung übernehmen Heike Döpke (Barmstedt) und Jürgen Neumann (Heist). Verbandsvorsteherin ist weiterhin Christine Mesek, die bereits auf der Verbandsversammlung im Dezember vergangenen Jahres einstimmig für eine weitere Amtszeit bis Ende 2029 wiedergewählt wurde. Zu Ihren ehrenamtlichen Stellvertreter*innen in den nächsten Jahren wurden Erika Koll (Kummerfeld) und Rolf Apfeld (Glückstadt) gewählt und vereidigt. Die Verbandsversammlung hat zudem den Haupt- sowie den Finanzausschuss neu gewählt. Diese sind personell identisch besetzt mit Rolf Apfeld, Heike Döpke, Volker Hatje, Erika Koll, Jürgen Neumann, Michael Rahn-Wolff (Hetlingen), Wiebke Uhl (Ellerhoop), Sabine Kählert (Tornesch) und Arnd Wendland (Hamburg Wasser). Vorsitzender der Ausschüsse bleibt Volker Hatje.

Trotz schwieriger Rahmenbedingungen erfolgreiches Jahr 2022
Ein weiterer Schwerpunkt der Versammlung war die Vorstellung des Jahresabschlusses für 2022. Dieser ist u.a. geprägt durch die Integration des Zweckverbandes Stadtentwässerung Glückstadt ab dem 1.1.2022. Der AZV konnte einerseits im Vergleich zum Vorjahr stabile Umsatzerlöse erzielen, andererseits gab es gestiegene Aufwendungen beim Materialaufwand. Der Grund hierfür sind u.a. Preissteigerungen bei Energie, Roh-, Hilfs- und Betriebsstoffen wie Fäll- und Flockungsmittel, die zur Abwasserreinigung benötigt werden und für die aufgrund der Kriegssituation in der Ukraine ein erheblicher Mangel in Gesamtdeutschland herrschte. Dennoch konnten auch 2022 alle Grenzwerte am Ablauf der Kläranlagen eingehalten werden. Trotz einer teilweise schwierigen Beschaffungslage und steigender Inflation wurden Bauprojekte in der Regel ohne nennenswerte Verzögerungen fortgeführt oder begonnen. Schwerpunkte der Investitionsmaßnahmen waren beispielsweise auf der Kläranlage Hetlingen die Fortführung der Optimierung der mechanischen Abwasserreinigung und der Schlammbehandlung sowie die Planung für das neue Prozessleitsystem. Im Netz sind die Planungen zur Rehabilitation der Pumpwerke Elmshorn II und Barmstedt erwähnenswert.
Der Verband, der in diesem Jahr Investitionen von über 27 Millionen Euro für die Kanalnetze im Verband und mehr als 15 Millionen für die Klärwerke einplant, geht von einem anhaltend herausfordernden Umfeld aus: „Eine wichtige Rolle spielen u.a. unverändert die hohen Energiekosten“, sagt Christine Mesek. „Deswegen setzen wir verschiedene Maßnahmen um, die einerseits unsere eigene Energieproduktion steigern und andererseits den Energieverbrauch senken. Das Hetlinger Klärwerk beispielsweise wird dank selbst produziertem Klärgas und Photovoltaik bereits zu rund 90 Prozent mit regenerativer Energie versorgt – hier sollen noch weitere PV-Anlagen dazukommen. Die schrittweise Erneuerung und Modernisierung der Anlagen wird zur Optimierung des Energieverbrauchs beitragen.“

Umweltunternehmen AZV bietet attraktive Arbeits- und Ausbildungsplätze
Neben dem Tagesgeschäft kümmert sich der Verband intensiv um seine kontinuierliche Weiterentwicklung: Überprüfungsaudits für die ISO 9001:2015 (Qualität) und die ISO 14001:2015 (Umwelt) sind erfolgreich absolviert worden, ebenso die Erst-Zertifizierung nach ISO 45001:2018 (Arbeitsschutz). „Große Aufmerksamkeit widmet der Verband zudem dem Ausbau der Digitalisierung und der Stärkung der Attraktivität als Arbeitgeber“, ergänzt Volker Hatje. „Die Aufgaben sind wichtig und wachsen weiter. Das geht nur mit weiteren engagierten Auszubildenden und qualifizierten Fachkräften. Da steht der AZV in einem intensiven Wettbewerb, kann aber als Umweltunternehmen mit sicheren, sinnstiftenden und attraktiven Arbeitsplätzen punkten.“

https://www.azv.sh/aktuelles/pressebereich/neue-verbandsversammlung-des-azv-suedholstein-erstmalig-zusammengetreten

(nach oben)


Freising: Corona und Co. rechtzeitig erkennen

Pandemieradar in der Freisinger Kläranlage

Schon frühzeitig zu Beginn der Corona-Pandemie hat man im Klärwerk Freising angefangen zu prüfen, was im Abwasser herumschwimmt. Jetzt werden in der Anlage Proben für ein bundesweites Programm zur epidemiologische Lagebewertung entnommen.
Die Kläranlage Freising nimmt an einem Pilotprojekt zur Etablierung eines Pandemieradars teil. Dabei wird die Viruslast im Abwasser gemessen.
Freising – Was die Überwachung von Virenlast, speziell von Covid19-Viren, betrifft, ist man in der Freisinger Kläranlage schon erfahren. Und das zahlt sich aus: Denn jetzt ist man in das bundesweite Programm AMELAG aufgenommen worden, das die Viruslast im Abwasser misst, um daraus Erkenntnisse zu gewinnen, wie man eine Infrastruktur für ein virologisches Geschehen aufbauen könnte. Schon frühzeitig zu Beginn der Corona-Pandemie habe man angefangen zu prüfen, „was in unserem Abwasser herumschwimmt“, betont Gabriele Weinberger, die Leiterin des Freisinger Klärwerks. Das habe auch gut geklappt, dieses erste Projekt zusammen mit der TU München sei dann allerdings bald ausgelaufen

https://www.merkur.de/lokales/freising/freising-ort28692/projekt-in-klaeranlage-corona-und-co-rechtzeitig-erkennen-92449208.html

(nach oben)


Dresden: neuer Industriesammler Nord – Eine Lösung für steigendes Industrieabwasser?

Aufgrund der großen Industrieansiedlungen im Norden von Dresden sind die Abwassermengen in den letzten Jahren erheblich gestiegen. Im Jahr 2018 leitete die Industrie noch knapp sieben Millionen Kubikmeter Abwasser ein.
“Im vergangenen Jahr waren es bereits 10,2 Millionen Kubikmeter, was einem Fünftel des Dresdner Abwassers entspricht, das wir in Kaditz behandeln”, erklärt Ralf Strothteicher, Technischer Geschäftsführer der SEDD.

Das vorhandene Kanalnetz wäre überlastet
Die Halbleiterindustrie wächst weiterhin. Die Werke von Globalfoundries, Infineon, Bosch und X-Fab leiten bereits jetzt 93 Prozent des Dresdner Industrieabwassers ein. Zum Vergleich: Die Abwassermenge aus der Chipindustrie entspricht der von 250.000 Einwohnern. Infineon baut seit diesem Jahr seinen Standort an der Königsbrücker Straße in Dresden mit seinen bisher rund 3.200 Mitarbeitern weiter aus. An der Südostecke entsteht bis 2026 ein Neubau für rund 1.000 zusätzliche Arbeitsplätze.
„Damit wäre das vorhandene Kanalnetz überlastet“, erläutert Strothteicher.
Deshalb baut die Stadtentwässerung den rund zehn Kilometer langen Industriesammler Nord. Mit dem rund 70 Millionen Euro teuren Großprojekt sollen das rechtselbische Kanalnetz entlastet und die Möglichkeiten für die weitere industrielle Entwicklung geschaffen werden.

Dritter großer Abfangkanal in Dresden geplant
In Zukunft wird das Abwasser direkt von den Gewerbegebieten zur Kläranlage transportiert. Dadurch entsteht neben dem Altstädter und Neustädter ein dritter großer Abfangkanal in Dresden. Bisher flossen diese Abwässer zum Neustädter Abfangkanal und dann zum Kaditzer Klärwerk. Der neue Kanal beginnt im Gewerbegebiet von Infineon an der Königsbrücker Straße, führt dann über den Heller bis zum A4-Anschluss Wilder Mann. In diesem Bereich ist der Anschluss aus dem Gewerbegebiet Wilschdorf mit Globalfoundries geplant. Der neue Industriesammler verläuft dann weiter entlang der Autobahn bis zum Klärwerk Kaditz.
Der Bau des neuen Industriekanals hat begonnen. Der erste Abschnitt, der zwei Kilometer lang ist, führt vom Klärwerk durch die Flutrinne bis zum Kaditzer Riegelplatz in der Nähe des Autobahnanschlusses Dresden-Neustadt. Der Bau in diesem Bereich wird bis Anfang 2026 dauern. Die Arbeiten in den weiteren Abschnitten zwischen dem Riegelplatz und dem Infineon-Standort an der Königsbrücker Straße beginnen im Frühjahr 2024 und werden weitgehend parallel verlaufen.

Fertigstellung spätestens 2027
Der Industriesammler wird zur Hälfte in offener und zur Hälfte in geschlossener Bauweise hergestellt. Bei der geschlossenen Bauweise werden die bis zu 1,6 Meter dicken und zwei Meter langen Stahlbetonrohre mit Hydraulikpressen durch die Erde gedrückt. Die Bauabschnitte in dieser geschlossenen Bauweise sind zwischen 300 und 700 Meter lang. Nur die bis zu 14 Meter tiefen Start- und Zielgruben für den Rohrvortrieb sind sichtbar. Die tonnenschweren Rohrteile werden per Kran in die Startgruben gehoben, wo dann die Hydraulikpressen zum Einsatz kommen. Mit 2,5 Kilometern ist der Abschnitt in der Dresdner Heide zwischen Radeburger und Königsbrücker Straße die längste Strecke mit unterirdischem Rohrvortrieb. Nur an der Neuländer Straße, am anschließenden Diebweg hinter dem ehemaligen Standort des Druck- und Verlagshauses am Heller und im Bereich von Infineon an der Königsbrücker Straße, wo eine 80 Zentimeter starke Röhre geplant ist, muss der Untergrund beim Kanalbau aufgebaggert werden. Laut Strothteicher wird spätestens 2027 der neue Industriesammler fertiggestellt werden.
Eva Jähnigen, Beigeordnete für Umwelt und Klima, Recht und Ordnung, weist auf einen weiteren Aspekt hin. „Ich freue mich über die positive Entwicklung des Wirtschaftsstandortes Dresden. Der hohe Anteil von industriellem Abwasser an der Gesamtmenge hat den Vorteil, dass die Abwassergebühren für die Allgemeinheit stabil gehalten werden können. Dieser Effekt kommt direkt den Dresdnerinnen und Dresdnern zugute.“

Technische Daten:
• Kosten insgesamt: 70 Mio. Euro
• Bauzeit 2023 bis 2027
• Gesamtlänge: 10,1 km
• davon 5.150 m im Rohrvortrieb
• Dimensionen: DN 600 bis DN 1.600
• 16 Sonderbauwerke und 36 Schächte

https://gwf-wasser.de/branche/dresdens-neuer-industriesammler-nord-eine-loesung-fuer-steigendes-industrieabwasser/

(nach oben)

Große Beteiligung an Umfrage – spannende Herausforderungen in der Abwasserbeseitigung!

0

An der Umfrage zur Projektneugestaltung und Abfrage aktueller Themen für die erste Tagesveranstaltung im Herbst 2022 haben sich 106 Unternehmen beteiligt. Drei Viertel der Unternehmen haben sich bisher nicht am Projekt beteiligt, zwei Drittel der Teilnehmenden entsorgen weniger als 30.000 Einwohnerwerte. Somit können vor allem die Themen der kleinen Unternehmen bei der weiteren Projekt-Konzeption Beachtung finden.

Meist genannte Themenwünsche für den Austausch sind
– 4. Reinigungsstufe – Konzeption, Umsetzung und Betrieb
– Phosphor-Rückgewinnung
– Klärschlamm – Aufbereitung und Entsorgung
– Energieoptimierungen und -kosten

Zudem sprachen sich mehr als die Hälfte der Unternehmen für die Durchführung von Erfahrungsaustauschen mit Expert*innen aus. 44 % befürworten die Erhebung von Kennzahlen für Vergleich und Optimierung.

Die aquabench beginnt nun, zusammen mit der DWA, die Veranstaltungsplanung, sobald Ort und Termin sowie die genaue Tagesordnung feststehen, werden wir Sie informieren.

Wir danken allen Unternehmen für Ihre Teilnahme an der Umfrage!
Haben Sie in der Vergangenheit am Projekt teilgenommen?

https://www.abwasserbenchmarking-bw.de/2022/08/09/grosse-beteiligung-an-umfrage/

Zur rechtlichen Bewertung der situationsbedingten Knappheit von Betriebsmitteln für die Abwasserbehandlung

0

Wasserhaushalts- und abwasserabgabenrechtliche Anforderungen

In der Folge des Angriffskriegs der Russischen Föderation auf die Ukraine zeichnet sich eine massive Verknappung von Betriebsmitteln für die Abwasserbehandlung (insbes. Eisensalze als Fällmittel für die Phosphor-Elimination in Kläranlagen) ab. Infolgedessen kann nicht ausgeschlossen werden, dass insbesondere die in der Abwasserverordnung festgelegten Grenzwerte für Phosphor und die Überwachungswerte nach dem Abwasserabgabengesetz teilweise erheblich überschritten werden. Das Gutachten untersucht, wie dies unter ordnungs- und abgabenrechtlichen Gesichtspunkten einzuschätzen ist und welche Handlungsoptionen die Regelungen den Behörden und den Betreibern eröffnen.

https://www.umweltbundesamt.de/publikationen/zur-rechtlichen-bewertung-der-situationsbedingten

Tägliche Meldungen 2023

0

Dezember 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

November 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

Oktober 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

September 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


IAB-Arbeitsmarktbarometer: Ausblick nach Talfahrt für 2024 wieder verbessert

Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Das IAB-Arbeitsmarktbarometer verzeichnet den ersten Anstieg seit fast einem Jahr Abwärtstrend. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) steigt im Dezember um 0,4 Punkte auf 99,9 Punkte und liegt damit nur knapp unter dem neutralen Wert von 100. Auch das European Labour Market Barometer steigt erstmals seit sieben Rückgängen in Folge wieder und liegt nun bei 99,2 Punkten.

„Die Arbeitsagenturen sehen gerade für die Arbeitslosigkeit kein einfaches Jahr voraus, aber die Talfahrt der Erwartungen setzte sich zum Jahreswechsel nicht fort“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“ am IAB. Beide Komponenten des Barometers steigen gegenüber dem Vormonat. Die Komponente zur Vorhersage der Arbeitslosigkeit liegt im Dezember bei 97,0 Punkten, ein Plus von 0,5 Punkten im Vergleich zum Vormonat. Somit haben sich die Erwartungen für die Arbeitslosigkeit verbessert, bleiben allerdings weiterhin klar im negativen Bereich. Die Beschäftigungskomponente liegt nach einem Anstieg um 0,3 Punkte nun bei 102,7 Punkten, was weiterhin eine moderate Zunahme der Beschäftigung erwarten lässt. Die Entwicklung ist im Vergleich zu früheren Zeiten jedoch gedämpft. „Der Arbeitsmarkt ist nicht mehr der Selbstläufer der vergangenen Jahre, man kann sich aber auch im Wirtschaftsabschwung nach wie vor auf ihn verlassen“, erklärt Weber. Dennoch gibt er zu bedenken: „Für die wirtschaftliche Trendwende brauchen wir nicht nur einen stabilen Arbeitsmarkt, sondern auch Investitionen in die Transformation.“

Das European Labour Market Barometer legt im Dezember zum ersten Mal seit sieben Monaten zu. Nach einem Anstieg um 0,2 Punkte verzeichnet es nun 99,2 Punkte. Fast kein Land liegt aktuell über der neutralen Marke von 100 Punkten. Insofern steht Deutschland im europäischen Vergleich bei den Aussichten noch eher gut da, besonders bei der Beschäftigung. Die Beschäftigungskomponente des europäischen Barometers steigt um 0,2 Punkte auf 100,8 Punkte. Damit halten sich die Aussichten im positiven Bereich. Die Komponente zur Vorhersage der Arbeitslosigkeit klettert um 0,2 Punkte auf 97,6 Punkte. Der Ausblick bleibt somit deutlich negativ. „Die europäischen Arbeitsmarktservices blicken noch immer eher pessimistisch auf die nächsten Monate, aber es zeigt sich die Hoffnung, dass die Talsohle durchschritten ist“, so Weber.

Datengrundlage
Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert.

Das European Labour Market Barometer ist ein monatlicher Frühindikator, der auf einer seit Juni 2018 gemeinsam von den 17 Arbeitsverwaltungen und dem IAB durchgeführten Befragung unter den lokalen oder regionalen Arbeitsagenturen der teilnehmenden Länder basiert. Dazu zählen: Belgien (Deutschsprachige Gemeinschaft, Wallonien), Bulgarien, Dänemark, Deutschland, Island, Liechtenstein, Litauen, Luxemburg, Malta, Österreich, Polen, Portugal, Schweden, die Schweiz, Tschechien und Zypern.

Während Komponente A des IAB-Arbeitsmarktbarometers und des European Labor Market Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert der beiden Barometer. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:

Eine Zeitreihe des European Labour Market Barometer einschließlich seiner Einzelkomponenten für alle 18 beteiligten Arbeitsverwaltungen ist unter https://www.iab.de/Presse/elmb-components (xlsx) abrufbar.

Mehr zum Europäischen Arbeitsmarktbarometer findet sich unter https://iab.de/en/daten/european-labour-market-barometer/.

Weitere Information zum Arbeitskräfteknappheits-Index des IAB finden Sie unter https://iab.de/daten/arbeitskraefteknappheits-index/

(nach oben)


Unsichere Schlüssel im E-Mail-System des Gesundheitswesens gefunden

Forscher des Fraunhofer SIT und der FH Münster haben gravierende Prozessfehler gefunden – Unsicherheit wurde jetzt behoben

Über das Mailsystem der Telematikinfrastruktur verschicken Arztpraxen beispielsweise elektronische Arbeitsunfähigkeitsbescheinigungen oder Heil- und Kostenpläne an Krankenkassen. Jetzt hat das E-Health-Team des Fraunhofer-Instituts für Sichere Informationstechnologie SIT herausgefunden, dass die Verschlüsselung für das Mailsystem bei mehreren Krankenkassen fehlerhaft eingerichtet war – insgesamt acht Krankenkassen benutzten die gleichen Schlüssel und konnten so theoretisch auch die Mails anderer Krankenkassen entschlüsseln.

Die Forscher stellten am 27.12.23, ab 16:00 in Hamburg ihre Erkenntnisse auf dem diesjährigen Chaos Communication Congress (37c3) des Chaos Computer Clubs (CCC) vor. Alle Lücken sind vorab im Coordinated-Vulnerability-Disclosure-Verfahren der Gematik gemeldet worden.

Das E-Mail-System KIM – Kommunikation im Medizinwesen – soll eine sichere Kommunikation zwischen medizinischen und psychotherapeutischen Praxen, Apotheken, Krankenkassen, Kliniken und anderen Teilnehmenden des Gesundheitswesens gewährleisten. Allein in den vergangenen zwei Jahren wurden über KIM mehr als 200 Millionen E-Mails verschickt. Damit ist das System eine der am meisten genutzten Anwendungen in der Infrastruktur des deutschen Gesundheitswesens. KIM verspricht sichere Ende-zu-Ende-Verschlüsselung zwischen allen Einrichtungen des Gesundheitswesens in ganz Deutschland. Um dies zu gewährleisten, werden an alle Beteiligten sichere kryptografische Schlüssel (S/MIME-Zertifikate) ausgegeben, die dafür sorgen, dass eine verschlüsselte E-Mail-Kommunikation möglich ist.

Gleicher Schlüssel für verschiedene Krankenkassen
Forscher des Fraunhofer SIT und der FH Münster haben festgestellt, dass gleich mehrere große Krankenkassen offenbar den gleichen Schlüssel für die Ver- und Entschlüsselung sowie das digitale Signieren ihres KIM-Mailverkehrs nutzten. Damit hätte jede der betroffenen Krankenkassen auch alle Mails mitlesen können, die für eine der anderen betroffenen Kassen bestimmt sind – ein Problem, das bei fehlgeleiteten Mails gerade durch Verschlüsselung verhindert werden soll.

Entstanden war das Problem bei der KIM-Einrichtung: Die betroffenen Krankenkassen hatten externe IT-Dienstleister beauftragt, das KIM-Mailsystem für sie zu betreiben. Diese hatten kryptografische Schlüssel generiert und diese Schlüssel für mehrere Krankenkassen verwendet. Die technische Struktur von KIM war hier also nicht das Sicherheitsproblem – doch in der praktischen Einrichtung des Systems können Fehler passieren. Dies haben die Fraunhofer-Forscher der zuständigen Stelle, der Gematik, gemeldet. Alle betroffenen Schlüssel wurden zwischenzeitlich neu generiert und ausgetauscht. Aufgrund der Meldung hat die Gematik die Spezifikation zur Konfiguration von KIM erweitert und verbessert: Jetzt muss vor der Ausstellung eines Zertifikats geprüft werden, ob der Schlüssel schon einmal verwendet wurde.

37C3 Vortrag von Dr. Christoph Saatjohann und Prof. Dr. Sebastian Schinzel: https://fahrplan.events.ccc.de/congress/2023/fahrplan/events/12030.html

Wissenschaftliche Ansprechpartner:
Dr. Christoph Saatjohann

Weitere Informationen:
https://fahrplan.events.ccc.de/congress/2023/fahrplan/events/12030.html

(nach oben)


Atmosphärische Trockenheit in Europa beispiellos für die letzten 400 Jahre

Ein internationales Team von Forschenden hat Baumringe aus ganz Europa analysiert: Sauerstoffisotopen zeigen eine Rekordtrockenheit in den letzten Jahren und Jahrzehnten, wie es sie seit vierhundert Jahren nicht gegeben hat.

Die Luft in Europa ist in den letzten Jahrzehnten im Vergleich zur vorindustriellen Zeit deutlich trockener geworden. Dies ist auf den vom Menschen verursachten Klimawandel zurückzuführen. Eine trockenere Atmosphäre kann Dürreperioden und die Gefahr von Waldbränden verschärfen, was wiederum Folgen für Wälder und Landwirtschaft hat. Dies ist das Ergebnis einer neuen Studie, die in der Fachzeitschrift „Nature Geoscience“ veröffentlicht wurde. Sie stammt von einem internationalen Forschungsteam unter der Leitung von Kerstin Treydte von der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL).

Mit einem neuartigen Ansatz haben die Forschenden das Dampfdruckdefizit (Vapor Pressure Deficit, VPD) als Maß für die Lufttrockenheit seit dem Jahr 1600 rekonstruiert. Sie untersuchten dazu das Isotopenverhältniss von schwerem und leichtem Sauerstoff (18O/16O) in Baumringen aus einem europäischen Netzwerk von Waldstandorten. Die Analysen zeigen, dass die Luft über weiten Teilen Europas seit Beginn des 21. Jahrhunderts trockener geworden ist als je zuvor – und dieser Trend hält an. „Angesichts der Dürreereignisse in vielen Regionen Europas in den letzten Jahren ist dieser Befund wirklich besorgniserregend“, sagt Kerstin Treydte.

Das Dampfdruckdefizit (VPD) beschreibt den „Durst der Atmosphäre“, d. h. die Differenz zwischen dem tatsächlichen und dem maximal möglichen Wassergehalt der Luft. „Durstige“ Luft mit hohem VPD entzieht Böden und Pflanzen mehr Wasser, verringert das Wachstum der Vegetation und bedroht die Gesundheit der Wälder. „Austrocknende Vegetation und Böden begünstigen die Häufigkeit von Waldbränden, wie wir sie kürzlich in Brandenburg erlebt haben“, sagt Gerhard Helle vom Deutschen GeoForschungsZentrum GFZ und Mitautor der Studie. Es ist bekannt, dass das VPD in einem sich erwärmenden Klima zunimmt, aber es bestehen europaweit große Unsicherheiten hinsichtlich des Ausmaßes der langfristigen Veränderungen bis zurück in die vorindustrielle Zeit, in der es keinen starken menschlichen Einfluss gab. Aussagekräftige Datenreihen, die die regionalen Unterschiede zwischen den verschiedenen europäischen Klimazonen angemessen widerspiegeln, sind eher spärlich.

Variationen von Atomen in Wasser und Baumringen
Um die Unsicherheiten zu verringern, wurden Jahrringdaten von 45 Waldstandorten in ganz Europa zusammengestellt, die bis ins Jahr 1600 zurückreichen. Die Studie basiert auf der Analyse stabiler Sauerstoffisotope, d. h. Varianten des Sauerstoffs mit unterschiedlicher Masse. „Wir haben Baumring-Isotopendaten von Standorten in Deutschland, Spanien, Italien und der Türkei beigesteuert“, sagt Mitautor Ingo Heinrich, früherer Wissenschaftler am GFZ und jetzt am Deutschen Archäologischen Institut in Berlin.

Die Isotopenverhältnisse des Sauerstoffs (18O/16O) im Wasserkreislauf sind Indikatoren für klimarelevante Prozesse. Ihre Variabilität hängt insbesondere mit Veränderungen der atmosphärischen Feuchtigkeit zusammen, die von der Lufttemperatur und den Niederschlägen abhängen. Sauerstoffisotope werden von Bäumen bei der Wasseraufnahme durch die Wurzeln aufgenommen. Ihre 18O/16O -Verhältnisse werden insbesondere während der Transpiration von Wasserdampf durch die Spaltöffnungen der Baumblätter verändert, d. h. durch winzige Poren, die den Kohlendioxid- und Wasser-Gasaustausch zwischen den Blättern und der Atmosphäre regeln. Aufgrund des soliden Verständnisses dieser zugrundeliegenden Prozesse in der Wissenschaft und wegen ihrer weiten Verbreitung sind Bäume wie kein anderes natürliches Klimaarchiv für jährlich aufgelöste Rekonstruktionen der atmosphärischen Feuchtigkeit geeignet.

Die jüngste Trockenheit ist vom Menschen verursacht und in Mitteleuropa am stärksten
Mit Hilfe von Modellsimulationen überprüften die Forschenden unabhängig voneinander die Ergebnisse aus den Isotopendaten der Jahresringe. Die Simulationen zeigen auch, dass das VPD des 21. Jahrhunderts im Vergleich zur vorindustriellen Zeit außergewöhnlich hoch ist. Mehr noch, sie zeigen, dass die heutigen VPD-Werte ohne Treibhausgasemissionen nicht hätten erreicht werden können – der menschliche Einfluss ist offensichtlich.

Die Kombination von Jahrringdaten, Modellsimulationen und direkten Messungen verdeutlicht darüber hinaus auch regionale Unterschiede: In Nordeuropa hat der Wasserdurst der Luft im Vergleich zur vorindustriellen Zeit am wenigsten zugenommen, weil die Luft dort generell kühler ist und weniger Wasser aufnehmen kann. Im mitteleuropäischen Tiefland sowie in den Alpen und Pyrenäen ist der VPD-Anstieg dagegen besonders stark, mit höchsten Werten in den Dürrejahren 2003, 2015 und 2018. „Diese Ergebnisse bestätigen in hohem Maße frühere Ergebnisse einer räumlichen Rekonstruktion der europäischen Sommertrockenheit, die aus einem viel kleineren Netzwerk von Baumstandorten gewonnen wurden, und unterstreichen die Wechselbeziehung zwischen Lufttrockenheit und Bodenfeuchtigkeit“, sagt Gerhard Helle.

Folgen für Wälder und Landwirtschaft
Ein weiterer Anstieg des VPD stellt eine langfristige Bedrohung für viele lebenswichtige Ökosystemfunktionen dar. „Das Dampfdruckdefizit ist für die Landwirtschaft besonders wichtig, denn je höher es ist, desto größer ist der Wasserbedarf der Pflanzen. Es muss mehr bewässert werden und die Ernteerträge sinken. In den Wäldern sind der Holzvorrat und die Kohlenstoffspeicherung gefährdet, was zu Unsicherheiten hinsichtlich der Klimaregulierung und der Kohlenstoffspeicherung dieser Ökosysteme in der Zukunft führt“, sagt Treydte.

Dies sei in den dicht besiedelten Regionen Europas besonders besorgniserregend und mache es um so notwendiger, die Emissionen zu verringern und sich an den Klimawandel anzupassen. „Unsere Ergebnisse werden dazu beitragen, Simulationen künftiger Klimaszenarien zu verfeinern und die Bedrohung zu bewerten, die hohe VPD-Werte für Ökosysteme, Wirtschaft und Gesellschaft darstellen“, sagt Treydte. Gerhard Helle fügt hinzu: „Für ein dichteres Netz sind noch weitere aussagekräftige Datenreihen erforderlich, insbesondere von Standorten im polnischen und deutschen Tiefland, damit die komplexe VPD-Dynamik in den verschiedenen europäischen Regionen gleichermaßen widergespiegelt wird.“

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Kontaktperson GFZ:
Dr. Gerhard Helle
+49 331 6264-1377
gerhard.helle@gfz-potsdam.de

Erstautorin:
Dr. Kerstin Treydte

Research Unit Forest Dynamics
Swiss Federal Research Institute WSL
mailto:kerstin.treydte@wsl.ch

Originalpublikation:
Originalstudie: „Recent human-induced atmospheric drying across Europe unprecedented in the last 400 years“ von K. Treydte et al. in Nature Geoscience, DOI: 10.1038/s41561-023-01335-8 (https://www.nature.com/articles/s41561-023-01335-8)

(nach oben)


Wenn Bakterien Resistenzgene untereinander austauschen

Horizontaler Gentransfer: Warum sich Krankenhaus-Infektionen so schwer bekämpfen lassen – Mobiles genetisches Element verbreitet gefährliche Antibiotikaresistenzen

Bakterien, die gegen Breitband-Antibiotika aus der Gruppe der Carbapeneme resistent sind, stellen die Gesundheitssysteme weltweit zunehmend vor große Probleme. Sie können schwere Infektionen und Ausbruchsituationen verursachen, für die es nur sehr begrenzte oder gar keine Therapieoptionen gibt. Dabei kommt den Bakterien zugute, dass sie genetisches Material – und damit auch Resistenzgene – untereinander austauschen können.
Eine Form dieses horizontalen Gentransfers erfolgt bei Bakterien über sogenannte Plasmide, mobile genetische Elemente. Wissenschaftlerinnen und Wissenschaftler des Instituts für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen (JLU) und des Deutschen Zentrums für Infektionsforschung (DZIF) konnten zusammen mit Institutionen des öffentlichen Gesundheitswesens nun ein besonders stabiles Plasmid nachweisen, das in Deutschland für einen Großteil der bakteriellen Resistenzen gegen Antibiotika verschiedener Gruppen einschließlich der Carbapeneme verantwortlich ist. Dieses Hochrisiko-Plasmid kann nicht nur auf unterschiedliche Bakterien-Spezies übertragen werden, es ist auch noch über Jahre aktiv.

Eine der weltweit wichtigsten und häufigsten Ursachen für die bakterielle Carbapenem-Resistenz ist das Enzym KPC-2-Carbapenemase, das Carbapeneme unschädlich macht. Das Konsortium konnte nachweisen, dass regional rund 85 Prozent aller Erreger, die eine KPC-2-Carbapenemase produzieren können, ein nahezu identisches Plasmid tragen, das der Gruppe der IncN-Plasmide angehört. Dieses erstmals beschriebene Plasmid kodiert verschiedene Antibiotikaresistenzgene und zeigt ein sehr breites bakterielles Wirtsspektrum. Es kann innerhalb eines Patienten oder einer Patientin schnell von einem Bakterium auf das andere übertragen werden, auch auf andere Bakterienarten. Im Falle eines Ausbruchs – zum Beispiel bei den gefürchteten Krankenhaus-Infektionen – findet man also völlig unterschiedliche bakterielle Erreger, die alle das identische Plasmid tragen.

Im Fokus der in der Fachzeitschrift „Micobiology Spectrum“ veröffentlichten Studie standen Carbapenem-resistente Enterobakterien wie Escherichia coli oder Klebsiella pneumoniae. Insgesamt untersuchten die Forscherinnen und Forscher mehr als 600 Carbapenem-resistente gramnegative Bakterienisolate. Dabei wiesen sie das IncN-Plasmid deutschlandweit in elf verschiedenen bakteriellen Spezies nach, in Wasserproben aus Fließgewässern sowie bei insgesamt 77 Patientinnen und Patienten in 28 Krankenhäusern in 20 Städten.

„Unsere Studie zeigt, dass die Möglichkeit des Austauschs von Resistenzen über mobile genetische Elemente ein wesentlicher Faktor ist für die erfolgreiche Verbreitung multiresistenter gramnegativer Erreger“, sagt PD Dr. Can Imirzalioglu, Mitautor der Studie und kommissarischer Leiter des Instituts für Medizinische Mikrobiologie der JLU. „Inwiefern hierbei besonders erfolgreiche Plasmide existieren und inwieweit diese im überregionalen Kontext für die Erregerverbreitung maßgeblich sind, war bislang nur unzureichend untersucht.“

Die von dem Forschungsteam beschriebenen IncN-Plasmide waren bemerkenswert stabil und wurden bei einzelnen Patientinnen und Patienten, die die bakteriellen Erreger trugen, mehr als ein Jahr lang beibehalten. „Die hieraus resultierenden ‚stillen‘ Übertragungsketten sind eine neue Herausforderung für die Überwachung multiresistenter Erreger, die Aufklärung von Ausbrüchen und die Etablierung effektiver Maßnahmen der Hygiene und Infektionsprävention“, so der Erstautor der Studie, Dr. Yancheng Yao vom Institut für Medizinische Mikrobiologie der JLU. „Die Identifizierung solcher Hochrisiko-Plasmide und die Entwicklung neuer Ansätze, um deren Ausbreitung zu reduzieren, sind hochaktuelle Aufgaben der Forschung zum Thema Antibiotikaresistenz.“

„Eine Genom-basierte Überwachung von multiresistenten Erregern erlaubt neben der Aufklärung lokaler Ausbruchsereignisse auch die Detektion von Hochrisiko-Erregern und Resistenzen mit überregionaler und internationaler Bedeutung“, ergänzt Prof. Dr. Trinad Chakraborty, ehemaliger Direktor des Instituts für Medizinische Mikrobiologie der JLU. „Mit konventionellen Methoden lassen sich solche komplexen, auf den ersten Blick nur sehr schwer erkennbaren ‚Plasmidausbrüche’ nicht nachweisen.“

Wissenschaftliche Ansprechpartner:
PD Dr. med. Can Imirzalioglu
Institut für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen
Deutsches Zentrum für Infektionsforschung (DZIF), Standort Gießen-Marburg-Langen
E-Mail: can.imirzalioglu@mikrobio.med.uni-giessen.de

Prof. Dr. Trinad Chakraborty
Institut für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen
Deutsches Zentrum für Infektionsforschung (DZIF), Standort Gießen-Marburg-Langen
E-Mail: trinad.chakraborty@mikrobio.med.uni-giessen.de

Originalpublikation:
Yancheng Yao, Linda Falgenhauer, Yalda Rezazadeh, Jane Falgenhauer, the IncN Study Group, Can Imirzalioglu, Trinad Chakraborty: Predominant transmission of KPC-2 carbapenemase in Germany by a unique IncN plasmid variant harboring a novel non-transposable element (NTEKPC-Y). Micobiology Spectrum, online veröffentlicht am 12. Dezember 2023

https://journals.asm.org/doi/full/10.1128/spectrum.02564-23

(nach oben)


Wie Vulkane Klima und Menschheitsgeschichte beeinflussen

Internationale Forschungsgruppe präsentiert die Ergebnisse ihrer Arbeit
Vulkanausbrüche können das Klima beeinflussen und das Klima wiederum beeinflusst den Lauf der Geschichte. Die Erforschung dieser komplexen Zusammenhänge ist herausfordernd, denn Forscher*innen unterschiedlicher Disziplinen müssen zusammenarbeiten. Wie dies gelingen kann und wie sich interdisziplinäre Kooperationen verbessern lassen, hat die internationale Forschungsgruppe „Volcanoes, Climate and History“ (Vulkane, Klima und Geschichte) seit 2021 am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld untersucht.

Auf ihrer Abschlusstagung vom 8. bis zum 12. Januar diskutiert die Gruppe nicht nur ihre Ergebnisse, sondern kuratiert auch eine Kunstausstellung am ZiF.

Der Sommer des Jahres 536 dürfte der kälteste der letzten 2000 Jahre gewesen sein. Die Ursache war ein Vulkanausbruch, dessen Asche den Himmel verdunkelte. Die Menschen wunderten sich über das fahle Licht, es kam zu Missernten, die Pest brach aus und das Oströmische Reich geriet ins Wanken. Auch das Jahr 1816 ist als „Jahr ohne Sommer“ in die Geschichtsbücher eingegangen, dieses Mal war ein Vulkan in Indonesien schuld.

Um besser zu verstehen, wie Gesellschaften auf die Folgen von Vulkanausbrüchen auf unterschiedlichen Raum- und Zeitskalen reagieren, haben in der Forschungsgruppe Wissenschaftlerinnen aus verschiedenen Disziplinen zusammengearbeitet: aus Archäologie, Geschichtswissenschaft, Geo-, Klima- und Paläowissenschaften. Die Gruppe hat sich im Laufe ihrer Arbeit immer wieder neue Schwerpunkte gesetzt: So haben die Forscherinnen archäologische Spuren untersucht, sie haben die Leistungsfähigkeit von Computersimulationen getestet und sich historische Quellen angeschaut.

Geladene Expertinnen brachten neue Impulse „Außerdem haben wir immer wieder Expertinnen eingeladen, die uns bei speziellen Fragen weiterhelfen konnten“, sagt der Leiter der Forschungsgruppe, Professor Dr. Ulf Büntgen, der an der Universität Cambridge Umwelt-Systemanalyse lehrt. Diese Kooperationen haben der Gruppe nicht nur zu wichtigen Erkenntnissen über direkte und indirekte Auswirkungen von Vulkanausbrüchen verholfen, sondern sie auch mit den Herausforderungen interdisziplinärer Zusammenarbeit konfrontiert. „Die Kolleg*innen arbeiten etwa mit unterschiedlichen Maßeinheiten oder definieren Begriffe anders“, berichtet Büntgen.

Die Forschungsgruppe hat diese Erfahrungen unter anderem dazu genutzt, ein interdisziplinäres Analyse-Instrument zu entwickeln, das „Dahliagramm“. Außerdem hat sich die Gruppe von einem Film-Team begleiten lassen, welches unter der Regie des Vulkanologen und Filmemachers Dr. Clive Oppenheimer, ebenfalls Professor an der Universität Cambridge und Fellow der Gruppe, die Arbeit am ZiF begleitet hat.

Ausstellung verbindet künstlerische und wissenschaftliche Aspekte
Teil der Abschlusstagung ist die gemeinsame Ausstellung „Curiosity Unbound – Volcanoes, Climate and History“ (Entfesselte Neugier – Vulkane, Klima und Geschichte) der Forschungsgruppe und der isländischen Künstlerin Anna Guðjónsdóttir. Auch sie ist Fellow der Gruppe und hat während der Workshops mit den Wissenschaftlerinnen wiederholt künstlerische Experimente durchgeführt. Sie hat sich besonders dafür interessiert, mit welcher Neugierde und Offenheit die Forscherinnen auf das Thema und die unterschiedlichen Sicht- und Herangehensweisen aller Beteiligten zugegangen sind. Dies visualisiert sie unter anderem mit Gegenständen, die für die Arbeit der Forscher*innen wichtig sind. So treffen in der Ausstellung das Eigenständige und Persönliche auf die wissenschaftlichen und künstlerischen Gedanken. „Die Perspektive der Kunst hat uns noch einmal eine neue Dimension des Fragens und Interagierens, aber auch Möglichkeiten der Präsentation von Forschungsergebnissen aufgezeigt“, so Ulf Büntgen. „Wir haben viel darüber gelernt, wie Vulkanausbrüche gesellschaftliche Entwicklungen und zum Beispiel Pandemien beeinflussen können. Genauso wichtig war es uns aber auch, die Grenzen zwischen den akademischen Disziplinen zu überwinden, und eine unserer Erkenntnisse ist, dass die Kunst definitiv dazu beitragen kann.“

Die Vernissage der Ausstellung findet am Donnerstag, 11. Januar, um 19.30 Uhr am ZiF statt. Gesprochen wird hierbei Englisch und Deutsch. Die Anmeldung ist auf der Website zur Ausstellung möglich.

Die Abschlusstagung findet auf Englisch statt. Journalist*innen sind herzlich eingeladen, über die Tagung zu berichten. Professor Büntgen steht für Anfragen gerne zur Verfügung.

Wissenschaftliche Ansprechpartner:
Maren Winkelhage, Universität Bielefeld
Zentrum für interdisziplinäre Forschung
Telefon 0521 106-2793
E-Mail: group-support@uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/einrichtungen/zif/groups/ongoing/volcanoes/index.xm… Website der internationalen Forschungsgruppe
https://www.uni-bielefeld.de/einrichtungen/zif/events/#/event/6485 Website der Ausstellung
https://blogs.uni-bielefeld.de/blog/pressemitteilungen/entry/neues_werkzeug_zur_… Pressemitteilung zur Entwicklung des Dahliagramms

(nach oben)


Im Job, wenn andere feiern: Zwischen 6 und 10 Prozent aller Erwerbstätigen müssen an den Festtagen arbeiten

Neue Studie des WSI
Im Job, wenn andere feiern: Zwischen 6 und 10 Prozent aller Erwerbstätigen müssen an den Festtagen arbeiten

Sie kümmern sich um Menschen in Not, sie machen die Party im Restaurant möglich, sie bringen dringend benötigte Waren von A nach B: Ein Teil der Erwerbstätigen in Deutschland muss arbeiten, während und damit die Mehrheit der Bevölkerung Weihnachten und den Jahreswechsel feiern kann. Wer an den kommenden Festtagen „im Dienst“ ist, hat das Wirtschafts- und Sozialwissenschaftliche Institut (WSI) der Hans-Böckler-Stiftung untersucht.*

Zentrale Befunde der neuen Studie: Obwohl Heiligabend und Silvester in diesem Jahr auf einen Sonntag fallen, müssen knapp 10 Prozent der Erwerbstätigen auch an Heiligabend wenigstens teilweise arbeiten, am Silvestertag sind es in der Spitze 9 Prozent, je nach Tageszeit. Besonders hoch sind die Anteile derjenigen, die an den Festtagen in ihrem Erwerbsjob gefragt sind, im Gastgewerbe, in Verkehr und Logistik sowie im Gesundheits- und Sozialwesen (siehe auch die Tabellen 1 und 2 in der pdf-Version dieser PM; Link unten). Die gute Nachricht: Beschäftigte im Handel, die sonst bis in die letzte Minute Weihnachtseinkäufe ermöglichen und Feuerwerkskörper verkaufen müssen, haben in diesem Jahr auch mal frei. Insgesamt müssen deshalb 2023 an den Festtagen deutlich weniger Menschen zur Arbeit als in anderen Jahren. 2022 waren es etwa am Vormittag des Heiligen Abends 20 Prozent aller Erwerbstätigen in Deutschland.

Über 4200 Erwerbstätige haben in einer Befragung der Hans-Böckler-Stiftung von November darüber Auskunft gegeben, ob und wann sie an Weihnachten oder zum Jahreswechsel arbeiten. Die WSI-Forscher Dr. Eric Seils und Dr. Helge Emmler können auf Basis der Daten ein detailliertes Bild zeichnen.

Am Vormittag des 24. Dezember müssen noch 10 Prozent aller Erwerbstätigen arbeiten, obwohl es sich um einen Sonntag handelt. Im Gastgewerbe sowie im Gesundheits- und Sozialwesen sind sogar 27 bzw. 20 Prozent der Erwerbstätigen noch im Erwerbsjob aktiv. Nach 14 Uhr, wenn normalerweise das Ladenschlussgesetz den Heiligen Abend einläutet, sinkt der Anteil der Menschen, die schaffen müssen, auf noch 6 Prozent, was die Bedeutung dieses Abends illustriert. Im Gesundheits- und Sozialwesen liegt die Quote allerdings bei 19 Prozent – und bleibt über die Feiertage auf hohem Niveau.

An den beiden Weihnachtstagen steigen die allgemeinen Werte der Beschäftigung gegenüber Heiligabend nach 14 Uhr nur geringfügig an auf 8 Prozent. Eine wichtige Ausnahme ist wiederum das Gastgewerbe, wo rund ein Drittel der Erwerbstätigen im Job gefragt ist.

Am Vormittag des Silvestertages müssen in diesem Jahr 9 Prozent aller Erwerbstätigen arbeiten, während es im Vorjahr 19 Prozent waren. Dies ist wiederum darauf zurückzuführen, dass es sich um einen Sonntag handelt. Nach 14 Uhr sinkt der Anteil auf 6 Prozent. Deutlich überdurchschnittlich ist die Quote dann erneut im Gastgewerbe, im Gesundheits- und Sozialwesen sowie in der Logistik. An Neujahr ist es 8 Prozent der Erwerbstätigen nicht vergönnt, auszuschlafen.

Schließlich müssen Männer und Ostdeutsche tendenziell etwas häufiger als Frauen und Westdeutsche an den Festtagen im Erwerbsjob arbeiten.

Wissenschaftliche Ansprechpartner:
Dr. Eric Seils
WSI-Sozialexperte
Tel.: 0211 / 77 78-591
E-Mail: Eric-Seils@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Eric Seils, Helge Emmler & WSI Tarifarchiv: Wer arbeitet an den Festtagen 2023/2024? Analysen zur Tarifpolitik, Nr. 101, Dezember 2023. Download: https://www.wsi.de/de/faust-detail.htm?sync_id=HBS-008770

Die PM mit Tabellen (pdf): https://www.boeckler.de/pdf/pm_wsi_2023_12_22.pdf

(nach oben)


Derzeit starker Salzwassereinstrom in die Ostsee gemessen

Derzeit lässt sich ein größerer Salzwassereinstrom in die südwestliche Ostsee feststellen. Die vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) betriebene autonome Messstation an der Darsser Schwelle misst seit 20.12.2023 einen starken Einstrom von salzreichem Wasser in der gesamten Wassersäule, was vergleichsweise selten vorkommt. Über Weihnachten wird sich zeigen, ob der Einstrom ähnliche Ausmaße annimmt wie der große Salzwassereinbruch 2014. Salzwassereinströme gehen einher mit sauerstoffreichem Wasser, das sauerstoffarme, tiefere Becken der Ostsee belüften könnte, was wiederum die Bildung von giftigem Schwefelwasserstoff verhindert.

Fast auf den Tag genau neun Jahre nach dem letzten großen Salzwassereinbruch im Dezember 2014, fließen derzeit wieder größere Mengen Salzwasser über die Darsser Schwelle in die östliche Ostsee.
„Seit dem 20.12.2023 überströmt salzreiches Wasser die Darsser Schwelle nicht nur am Boden, sondern in der gesamten Wassersäule. Das sei ein guter Indikator für einen großen Salzwassereinbruch“, sagt Dr. Volker Mohrholz, Ozeanograph am Leibniz-Institut für Ostseeforschung Warnemünde (IOW). Von diesem wird gesprochen, wenn an der Darsser Schwelle über fünf Tage lang deutlich erhöhte Salzgehalte im Wasser gemessen werden. An Weihnachten wird sich also zeigen, ob es sich wieder erstmals nach 2014 um einen großen Salzwassereinbruch handelt, einen sogenannten „Major Baltic Inflow“ (MBI). Damals kam es zum drittgrößten Salzwassereinbruch seit Beginn der ozeanographischen Messungen im Jahre 1912.
Auslöser für den Salzwassereinbruch sind vermutlich die Windverhältnisse der letzten Wochen: Andauernde Winde in der ersten Dezemberhälfte aus südöstlicher Richtung führten zu einer Senkung des Ostsee-Meeresspiegels und zum Ausstrom von Wassermassen in Richtung Nordsee. Nach dem Einsetzen starker Westwinde im Zusammenhang mit dem Sturmtief Zoltan, strömt derzeit in umgekehrter Richtung salzreiches Wasser in großer Menge in die Ostsee ein.
Salzwassereinströme werden mit dem Einstrom von gut mit Sauerstoff gesättigtem Nordseewasser in die Ostsee in Verbindung gebracht. Dadurch können sauerstoffarme, tiefere Beckenbereiche wie das Gotlandbecken mit Sauerstoff belüftet werden, was wiederum die Bildung von giftigem Schwefelwasserstoff verhindert. Aus Messungen des IOW Langzeitprogramms für die Ostsee weiß man aber, dass der Effekt nicht allzu lange anhält.
„Unsere im Auftrage des Bundesamtes für Seeschifffahrt und Hydrographie (BSH) ausgebrachten autonomen Messstationen in der südwestlichen Ostsee sind wichtige Echtzeit-Datenlieferer, ohne die solche Kurzzeit-Ereignisse sowie langfristige Veränderungen der Wassermassen nicht mit dieser zeitlichen Auflösung dokumentierbar wären“, sagt Prof. Dr. Oliver Zielinski, Direktor des Leibniz-Instituts für Ostseeforschung (IOW). Diese Datenreihen sind Grundvoraussetzung für wissenschaftsbasierte Übersichtstudien zum Zustand der Ostsee, die durch IOW-Wissenschaftlerinnen und Wissenschaftler im Verbund mit weiteren nationalen und internationalen Forschungseinrichtungen entstehen.

Pressekontakt:
Dr. Matthias Premke-Kraus | +49 381 – 5197 102 | matthias.premke-kraus@io-warnemuende.de

Das Leibniz-Institut für Ostseeforschung Warnemünde (IOW) ist ein außeruniversitäres Meeresforschungsinstitut. Sein Forschungsprogramm ist auf Küsten- und Randmeere mit besonderer Hinwendung zum Ökosystem Ostsee zugeschnitten. Neben seinen Forschungsaktivitäten verfolgt das IOW den Transfer in die Gesellschaft und betreibt Forschungsinfrastrukturen für die wissenschaftliche Gemeinschaft. Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der aktuell 97 eigenständige Forschungs-einrichtungen gehören. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 20.500 Personen, davon sind ca. 11.500 Forschende. Der Gesamtetat der Institute liegt bei 2 Mrd. Euro. www.leibniz-gemeinschaft.de.

Wissenschaftliche Ansprechpartner:
Dr. Volker Mohrholz, Leiter der Arbeitsgruppe „Physikalisch-Biogeochemische Kopplung mariner Systeme“ | volker.mohrholz@io-warnemuende.de
Prof. Dr. Markus Meier, Leiter Sektion Physikalische Ozeanographie und Messtechnik | markus.meier@io-warnemuende.de
Prof. Dr. Oliver Zielinski, Direktor | oliver.zielinski@io-warnemuende.de

(nach oben)


Mit Hochdruck zu sauberem Wasser: Neuartige Technologie zur Wasserreinigung – Projekt HyKaPro startet

Forschende des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) wollen mit ihrem neuen Projekt den Nachweis erbringen, dass sich eine von ihnen entwickelte innovative Methode zur Aufbereitung industrieller Abwässer in den technischen Maßstab überführen lässt. Als Namensgeber stand die sogenannte hydrodynamische Kavitation (HyKaPro) Pate: Das Verfahren, entwickelt im CLEWATEC Innovation Lab des HZDR, setzt auf ein innovatives Oxidationsverfahren zur Wasserbehandlung, das Mikroschadstoffe effektiv abbauen kann.

Kläranlagen sind für die Beseitigung von Schadstoffen im Wasser entscheidend. Allein in Deutschland sind rund 10.000 kommunale und 3.000 Industrie-Kläranlagen in Betrieb. Sie stoßen jedoch häufig an Grenzen, wenn es um die Entfernung von chemisch stabilen Verbindungen geht. Dazu zählen auch Substanzen, die nicht zu den bisher im Abwasser-Monitoring priorisierten Schadstoffen gehören. Diese neuartigen Schadstoffe, deren weite Verbreitung in der aquatischen Umwelt erst durch moderne Analysetechniken sichtbar wurde, entpuppen sich in zunehmendem Maße als Problem. Prominente Beispiele dieser äußerst vielfältigen menschengemachten Chemikalien sind bromierte Flammschutzmittel, Kraftstoffzusätze, Umwelthormone oder die aus der Herstellung von Antihaftbeschichtungen bekannten Perfluortenside.

„Unser neues Verfahren hat sich in den bisherigen Versuchen im Labor- und Technikumsmaßstab als äußerst effizient bei der Beseitigung solcher Mikroschadstoff-Moleküle erwiesen. Die Technologie gibt uns ein Werkzeug in die Hand, um der Verschmutzung von Wasserressourcen auch mit diesen nur schwer abbaubaren Verbindungen entgegenzutreten und so einen bedeutenden Beitrag zum Umwelt- und Gesundheitsschutz von Ökosystemen und der Bevölkerung zu leisten“, erklärt Dr. Sebastian Reinecke vom Institut für Fluiddynamik am HZDR und Leiter des Clean Water Technology Lab (CLEWATEC).

Turbo für traditionelle Oxidationsverfahren
Oxidationsverfahren spielen traditionell eine entscheidende Rolle in der Wasserbehandlung, weil sie Schadstoffe durch die Reaktion mit Oxidationsmitteln wirkungsvoll abbauen. HyKaPro setzt zusätzlich auf Kavitationseffekte, um die Oxidationsreaktionen zu intensivieren. Diese Technologie erzeugt durch den Kollaps von Dampfblasen extreme Bedingungen in unmittelbarer Nähe zu den im Wasser mitgeführten Schadstoffen. „Bei der Implosion der Blasen entstehen Temperaturen von 4.700 Grad Celsius und Drücke von 9.900 Atmosphären, die ihrerseits hochreaktive Prozesse auslösen, die zu einer verbesserten Zersetzung der Mikroschadstoffe führen“, erläutert Reinecke. Denn mit dem Platzen der Blasen entstehen gleichzeitig reaktionsfreudige Hydroxylradikale, die an die Schadstoffe andocken und sie in kleine, inaktive Fragmente verwandeln. Um die gewünschte Zahl an Hydroxylradikalen zu optimieren, fügen die Wissenschaftler*innen dem Prozess zusätzlich Ozon hinzu.

Vom Labor in die Anwendung
CLEWATEC ist bereits als Vorreiter für die Entwicklung umweltfreundlicher Wasserreinigungstechnologien etabliert. Ein neuartiges Sauerstoffeintragssystem für biologische Abwasserreinigungsprozesse zeigte im Technikum die doppelte Effizienz von herkömmlichen Systemen und wird derzeit an Kläranlagen validiert. „Wir bauen dabei auf den reichhaltigen Erfahrungsschatz unseres Instituts für Fluiddynamik am HZDR auf. Die hier seit Jahren gewonnenen Erkenntnisse zur Optimierung komplexer Strömungsmodelle kommen uns bei unseren Arbeiten sehr zupass“, freut sich Reinecke.

Mit HyKaPro will das Team nun die hydrodynamische Kavitation aus dem Labor holen und in eine marktreife Technologie verwandeln. In Zusammenarbeit mit Betreibern von Industrie-Klärwerken wollen die Forschenden die technologische Effizienz des Verfahrens nachweisen. Dabei werden sie gemeinsam mit den Projektpartnern die Wirtschaftlichkeit auf den Prüfstand stellen und an einer Verwertungsstrategie feilen. Dabei unterstützt Business Development Manager Alejandro Parra das Projekt im Bereich Technologietransfer. Das für anderthalb Jahre konzipierte Projekt startet im Januar 2024 und wird durch die Sächsische Aufbaubank über die EFRE-Validierungsförderung mit rund 200.000 Euro unterstützt. Das CLEWATEC-Team am HZDR ist zuversichtlich, dass HyKaPro nicht nur die Effizienz der hydrodynamischen Kavitation unter Beweis stellen, sondern auch einen bedeutenden Schritt in Richtung umweltfreundlicher Wasserreinigung gehen wird: sowohl in der kommunalen und industriellen Abwasseraufbereitung als auch in der Landwirtschaft und der Trinkwasseraufbereitung.

Weitere Informationen:
Dr. Sebastian Reinecke
Institut für Fluiddynamik am HZDR
Tel.: +49 351 260 2320 | E-Mail: s.reinecke@hzdr.de

Medienkontakt:
Simon Schmitt | Leitung und Pressesprecher
Abteilung Kommunikation und Medien am HZDR
Tel.: +49 351 260 3400 | Mobil: +49 175 874 2865 | E-Mail: s.schmitt@hzdr.de

Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:

  • Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
  • Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
  • Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?

Das HZDR entwickelt und betreibt große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Es ist Mitglied der Helmholtz-Gemeinschaft, hat sechs Standorte (Dresden, Freiberg, Görlitz, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt fast 1.500 Mitarbeiterinnen – davon etwa 670 Wissenschaftlerinnen inklusive 220 Doktorand*innen.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Reinecke
Institut für Fluiddynamik am HZDR
Tel.: +49 351 260 2320 | E-Mail: s.reinecke@hzdr.de

Weitere Informationen:
https://www.hzdr.de/presse/hykapro

(nach oben)


Corona & Co.: Bei Rheuma auf umfassenden Impfschutz achten

Die Zahl der Atemwegserkrankungen liegt bereits deutlich höher als für die Jahresuzeit üblich. Auch wenn die Covid-19-Pandemie offiziell beendet ist, spielt der Erreger SARS-CoV-2 in dieser Saison noch eine führende Rolle. Für Menschen mit eingeschränkter Immunfunktion wird daher eine weitere Covid-19-Auffrischimpfung empfohlen. Warum der erneute Booster – möglichst mit einem an die Omikron-Variante angepassten Impfstoff – daher auch für Menschen mit entzündlich-rheumatischen Erkrankungen wichtig ist und worauf diese noch achten sollten, erklären Expertinnen und Experten der Deutschen Gesellschaft für Rheumatologie e. V. (DGRh).

Die laufende Erkältungssaison bietet einen guten Anlass, einen Blick in den Impfpass zu werfen. Denn nicht nur für Covid-19, auch für andere potenziell kritisch verlaufende Atemwegserkrankungen stehen Impfungen zur Verfügung, die das Risiko einer Infektion und vor allem die Schwere der Erkrankung reduzieren können. Besonders wichtig ist dieser Schutz für Menschen, deren körpereigene Immunabwehr geschwächt ist – sei es aufgrund einer chronischen Grunderkrankung oder aufgrund von Medikamenten, die das Immunsystem bremsen. „Bei Menschen mit entzündlich-rheumatischen Erkrankungen trifft oft beides zu“, sagt PD Dr. med. Rebecca Hasseli-Fräbel, stellvertretende Leiterin der Sektion Rheumatologie und Klinische Immunologie am Universitätsklinikum Münster. Zum einen verringere das chronische Entzündungsgeschehen die Fähigkeit des Immun-systems, sich mit Krankheitserregern auseinanderzusetzen. Zum anderen müssten Rheuma-Betroffene oft Medikamente einnehmen, die die Immunfunktion beeinträchtig-ten. Sie sollten sich daher besonders konsequent vor Infektionen schützen.

Nach wie vor kommt dem Schutz vor SARS-CoV-2 dabei eine hohe Bedeutung zu, auch wenn das Virus seine Sonderstellung unter den Krankheitserregern mit dem offiziellen Ende der Pandemie weit-gehend eingebüßt hat. Wie sich aus den Statistiken des Robert-Koch-Instituts (RKI) zu Atemwegserkrankungen ablesen lässt, findet sich SARS-CoV-2 derzeit in jeder fünften eingesandten Probe. Nur der Anteil von Rhinoviren, einfachen Erkältungsviren, ist mit 30 Prozent noch höher. „Anders sieht es bei den schweren Atemwegserkrankungen aus, die zu einer Krankenhauseinweisung führen“, sagt Hasseli-Fräbel. Dort spielten Rhinoviren keine Rolle. In der 48. Kalenderwoche wurde bei 30 Pro-zent der intensivmedizinischen Behandlungen aufgrund von Atemwegserkrankungen COVID-19 diagnostiziert. Bei den gemeldeten SARS-CoV-2-Infektionen in der 48. Kalen-derwoche war bei 27 Prozent eine stationäre Behandlung notwendig (Stand 05.12.2023). Insgesamt wurden seit der 40. Meldewoche 2007 Todesfälle in Zusammen-hang mit einer Coronainfektion gemeldet, davon 97 Prozent bei Personen im Alter von mindestens 60 Jahren. Für diese Altersgruppe gilt entsprechend auch die Empfehlung für eine erneute Booster-Impfung. Von einem Ende der aktuellen Covid-Welle zu sprechen, sei jedoch mit Sicherheit verfrüht, die Empfehlung für Immungeschwächte, sich spätestens zwölf Monate nach dem letzten Antigenkontakt (erneut) impfen zu lassen, sei weiterhin hochaktuell.

Darüber sollte der Schutz vor anderen Infektionskrankheiten nicht vergessen werden. So zählen Rheumapatientinnen und -patienten auch zu den Risikogruppen, die sich jährlich neu gegen Grippe impfen lassen sollten. „Dafür ist jetzt genau der richtige Zeitpunkt“, sagt DGRh-Expertin Hasseli-Fräbel. Es zeigte sich in der 48. Kalenderwoche bereits ein Aufwärtstrend der Infektionszahlen und bei 21 Prozent der gemeldeten Grippekranken war eine stationäre Behandlung notwendig (Stand 05.12.2023). Die neun gemeldeten Verstorbenen in Zusammenhang mit der Grippe waren mindestens 60 Jahre alt (seit der 40. Kalenderwoche). Die Zahl der registrierten Influenza-Infektionen liege derzeit noch auf einem sehr niedrigen Niveau, der Beginn der Grippewelle, der meist um den Jahres-wechsel herum liege, zeichne sich noch nicht ab. Bei einer zeitnahen Impfung bleibt dem Immunsystem damit noch genug Zeit, um einen guten Grippeschutz aufzubauen. Älteren und/oder immungeschwächten Personen empfiehlt die STIKO darüber hinaus, sich gegen Pneumokokken impfen zu lassen, die häufigsten bakteriellen Erreger von Lungenentzündungen. In die diesbezügliche Empfehlung wurde in diesem Herbst auch die Vakzine PCV20 neu aufgenommen, die einen besonders guten und breiten Schutz vor 20 unter-schiedlichen Pneumokokken-Varianten vermittelt. Die Kostenübernahme über den Sprechstundenbedarf steht jedoch noch in einigen Bundesländern aus.

Wichtige Erkenntnisse dazu, wie SARS-CoV-2-Infektionen bei Menschen mit Rheuma verlaufen, stammen aus dem Covid-19-Register der DGRh, das Hasseli-Fräbel bereits früh im Verlauf der Pandemie mit initiiert hat und bis heute betreut. Es umfasst mittler-weile Daten von mehr als 7.100 Patientinnen und Patienten und bestätigt eindrucksvoll die positiven Effekte der Covid-19-Impfung. „Aus den Daten konnten wir außerdem ablesen, wie wichtig eine gute Kontrolle der rheumatologischen Grunderkrankung dafür ist, einen schweren Covid-Verlauf abzuwenden“, sagt die Münsteraner Rheumatologin. Patientinnen und Patienten sollten ihre Rheumamedikamente daher auf keinen Fall eigen-mächtig absetzen oder in ihrer Dosis verringern. Das Risiko einer Infektion und eines schweren Verlaufs kann zusätzlich gesenkt werden, wenn die entzündlich-rheumatische Erkrankung mit Rheumamedikamenten und möglichst wenig Kortison unter Kontrolle gehalten wird. Denn die Einnahme von hochdosiertem Kortison wirkt sich negativ auf den Verlauf von Infektionen aus – auch das geht aus den Registerdaten hervor. „Das Covid-19-Register der DGRh ist eines der umfangreichsten zu diesem Thema weltweit“, sagt DGRh-Präsident Christof Specker, Direktor der Klinik für Rheumatologie und Klinische Immunologie der Kliniken Essen-Mitte. „Rheumatologisch tätige Kolleginnen und Kolle-gen sind weiterhin dazu aufgerufen, hiervon regen Gebrauch zu machen und so die wissenschaftliche Arbeit des Registers zu unterstützen.“

Pressekontakt DGRh für Rückfragen:
Stephanie Priester
Pressestelle
Deutsche Gesellschaft für Rheumatologie e.V. (DGRh)
Postfach 30 11 20
70451 Stuttgart
Tel.: +49 711 8931-605
Fax: +49 711 8931-167
E-Mail: priester@medizinkommunikation.org

Quelle:
PD Dr. med. Rebecca Hasseli-Fräbel, Ein Überblick über das aktuelle Infektionsgeschehen, Vortrag, 7.11.2023

Deutsches COVID-19-Register für Patienten mit entzündlich-rheumatischer Erkrankung
https://www.covid19-rheuma.de/

Implementierung der COVID-19-Impfung in die allgemeinen Empfehlungen der STIKO 2023 (Aktualisierung Epid Bull 4/2023)
https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2023/Ausgaben/21_23.pdf?__b…

Weitere Informationen:
https://dgrh.de/Start/DGRh/Presse/Pressemitteilungen/Pressemitteilungen/2023/Pre…

(nach oben)


Automatische und nachhaltige Entfernung von Ölverschmutzungen in Gewässern durch Textilien

Forschende des ITA, der Uni Bonn und der Heimbach GmbH haben eine neuartige Methode entwickelt, mit der Ölverschmutzungen energiesparend, kostengünstig und ohne Einsatz toxischer Substanzen von Wasseroberflächen entfernt werden können. Ermöglicht wird dies durch ein technisches Textil, das in einen schwimmenden Behälter integriert wird. So können mit einem einzigen kleinen Gerät bis zu 4 L Diesel innerhalb einer Stunde zu entfernen. Dies entspricht etwa 100 m2 Ölfilm auf einer Wasseroberfläche.

Trotz dem stetigen Ausbau erneuerbarer Energien haben die weltweite Ölproduktion, der Ölverbrauch und das Risiko der Ölverschmutzung in den letzten zwei Jahrzehnten stetig zugenommen. Im Jahr 2022 belief sich die weltweite Ölförderung auf 4,4 Milliarden Tonnen! Dabei kommt es bei der Förderung, dem Transport und der Verwendung von Öl häufig zu Unfällen, die zu schweren und manchmal irreversiblen Umweltverschmutzungen und Schäden für den Menschen führen.

Es gibt verschiedene Methoden diese Ölverschmutzungen von Wasseroberflächen zu entfernen. Jedoch weisen alle Methoden verschiedene Defizite auf, die ihren Einsatz erschweren und insbesondere die Entfernung von Öl aus Binnengewässern einschränken.

Für viele technische Anwendungen gibt es unerwartete Lösungen aus dem Bereich der Biologie. Jahrmillionen der Evolution haben dazu geführt, dass die Oberflächen lebender Organismen für ihre Interaktion mit der Umwelt optimiert wurden. Lösungen, die für Materialwissenschaftler oft eher ungewohnt und schwer zu akzeptieren sind. Die langjährige Untersuchung von rund 20.000 verschiedenen Arten an der Uni Bonn zeigte, dass es eine nahezu unendliche Vielfalt an Strukturen und Funktionalitäten gibt. Einige Arten zeichnen sich besonders durch ihre hervorragende Öladsorption aus. Beispielsweise adsorbieren die Blätter des Schwimmfarns Salvinia molesta Öl sehr schnell, separieren es gleichzeitig von Wasseroberflächen und transportieren es auf ihren Oberflächen (Abbildung 1 Sekundenschnelle Adsorption eines Tropfens Altöls durch ein Blatt des Schwimmfarns Salvinia molesta, schauen Sie sich auch das Video des Phänomens an).

Die Beobachtungen inspirierten dazu, den Effekt auf technische Textilien zur Trennung von Öl und Wasser zu übertragen. Es handelt sich um ein superhydrophobes Abstandsgewirk, das industriell hergestellt werden kann und daher leicht skalierbar ist.
Das biologisch inspirierte Textil kann in eine Vorrichtung zur Öl-Wasser-Trennung integriert werden kann. Dieses gesamte Gerät wird Bionischer Öladsorber (BOA) genannt
(s. Abbildung 2: Querschnitt durch das CAD-Modell des bionischen Öladsorbers. Das Schema zeigt einen Ölfilm (rot) auf einer Wasseroberfläche (hellblau). In dem schwimmenden Behälter (grau) ist das Textil (orange) so befestigt, dass es mit dem Ölfilm in Kontakt ist und das Ende in den Behälter hineinragt. Das Öl wird durch das BOA-Textil adsorbiert und transportiert. Wie im Querschnitt dargestellt, gelangt es in den Behälter, wo es wieder freigesetzt wird und sich am Boden des Behälters ansammelt. Bitte sehen Sie sich dazu auch das Video zur Ölabsorption an Textil an).

Ausgehend von der Verunreinigung in Form eines Ölfilms auf der Wasseroberfläche funktioniert der Separations- und Sammelprozess nach den folgenden Schritten:

  • Der BOA wird in den Ölfilm eingebracht.
  • Das Öl wird vom Textil adsorbiert und gleichzeitig vom Wasser getrennt.
  • Das Öl wird durch das Textil in den Auffangbehälter transportiert.
  • Das Öl tropft aus dem Textil in den Auffangbehälter.
  • Das Öl wird bis zur Entleerung des Behälters aufgefangen.

Der Vorteil dieser neuartigen Ölabscheidevorrichtung ist, dass keine zusätzliche Energie für den Betrieb aufgewendet werden muss. Das Öl wird durch die Oberflächeneigenschaften des Textils vom umgebenden Wasser getrennt und allein durch Kapillarkräfte, auch gegen die Schwerkraft, durch das Textil transportiert. Am Ende des Textils im Sammelbehälter angekommen, desorbiert das Öl ohne weitere äußere Einwirkung allein durch die Schwerkraft. Mit dem derzeitigen Maßstab können mit einem Gerät des Bionic Oil Adsorber pro Stunde ca. 4 l Diesel von Wasser getrennt werden.

Es scheint unwahrscheinlich, dass ein funktionalisiertes Abstandsgewirk günstiger ist als ein herkömmliches Vlies, wie es üblicherweise für Ölsorptionsmittel verwendet wird. Da es sich jedoch um ein funktionelles Material handelt, müssen die Kosten im Verhältnis zur Menge des entfernten Öls stehen. Vergleicht man den Verkaufspreis des BOA-Textils mit den Verkaufspreisen verschiedener ölbindender Vliesstoffe, so ist das BOA-Textil mit 10 ct/L ca. 5 bis 13 Mal günstiger.

Insgesamt bietet das BOA-Gerät eine kostengünstige und nachhaltige Methode zur Öl-Wasser-Trennung im Gegensatz zu den gängigen Reinigungsmethoden durch die folgenden Vorteile:

  • Es ist kein zusätzlicher Energiebedarf, wie bei Ölskimmern, notwendig.
  • Es werden keine giftigen Substanzen in das Gewässer eingebracht, wie z.B. bei Öl-Dispersionsmitteln.
  • Die Textilien und Geräte können mehrfach wiederverwendet werden.
  • Es verbleibt kein Abfall im Gewässer.
  • Es ist kostengünstig in Bezug auf die Menge des entfernten Öls.

Das Team der Forschenden vom ITA, der Uni Bonn und der Heimbach GmbH konnte nachweisen, dass die neuartige biomimetische BOA-Technologie für eine selbstgesteuerte Abtrennung und automatische Sammlung von Ölfilmen einschließlich ihrer vollständigen Entfernung aus dem Wasser überraschend effizient und nachhaltig ist. Darüber hinaus kann sie in verschiedenen verwandten Abscheidungsprozessen eingesetzt werden. Derzeit wird das Produkt so weiterentwickelt, dass es in 2-3 Jahren in den Markt eingeführt werden kann.

Wissenschaftliche Ansprechpartner:
Leonie Beek, M. Eng.,
Institut für Textiltechnik der RWTH Aachen,Otto-Blumenthal-Str. 1, Tel.: +49 241 80-23288
Tel.: +49 241 80-23288, leonie.beek@ita.rwth-aachen.de

Originalpublikation:
Beek, L.; Barthlott, W.; Mail, M.; Klopp, K.; Gries, T. Self-Driven Sustainable Oil Separation from Water Surfaces by Biomimetic Adsorbing and Transporting Materials. Separations 2023, 10, 592. https://doi. org/10.3390/separations10120592

Weitere Informationen:
https://www.ita.rwth-aachen.de/cms/ita/das-institut/aktuelle-meldungen/~bfbijr/automatische-und-nachhaltige-entfernung/

(nach oben)


Mit Ton gegen Ewigkeitsgifte: TU Freiberg klärt Grundlagen für innovativen PFAS-Filter aus Ton und organischen Zusätzen

Für Industrie-Abfälle erhältliche PFAS-Filter bestehen meist aus Aktivkohle (PFAS=per- und polyfluorierte Alkylverbindungen). Da diese vergleichsweise teuer ist, sucht die Forschung nach alternativen Filtermaterialien für die sogenannten „Ewigkeitsgifte“, deren gefährliche Rückstände sich in der Umwelt nur sehr langsam abbauen. Ein Team der TU Bergakademie Freiberg schlägt jetzt einen mit organischen Substanzen modifizierten Ton aus Bentonit als möglichen PFAS-Filter vor. Die Ergebnisse erscheinen in der in der aktuellen Ausgabe der Fachzeitschrift „Chemie Ingenieur Technik“.

In Laborversuchen erreichte das Team um Chemie-Professor Martin Bertau mit dem innovativen Material eine Filter-Leistung von bis zu 95 Prozent an Perfluorheptansäure (PFHpA). PFHpA ist ein prominenter Vertreter der PFAS und wird bei Umweltanalysen häufig nachgewiesen. „Die sogenannten Organoclays sind für ihre gute Filterwirkung bekannt. Neu untersucht haben wir die Modifizierung des Materials mit Hilfe von organischen Zusätzen, die darauf spezialisiert sind, die PFAS „einzufangen““, erklärt Prof. Martin Bertau.

Wie in einen Kartenstapel können die Chemikerinnen und Chemiker im Labor organische Zusätze zwischen die aufgespalteten Ton-Schichten einbringen. „Die organischen Bestandteile schauen dabei so aus den Ton-Bestandteilen heraus, dass die Kohlenstoff-Atome mit den PFAS wechselwirken können“, veranschaulicht Paul Scapan, der die Tonfilter für seine Doktorarbeit untersucht. „Diese Kohlenstoff-Atome haben die Fähigkeit, sich die PFAS-Moleküle herauszugreifen und zu binden.“ Der Organoclay mit den gebundenen PFAS kann dann bei mindestens 1.200 Grad verascht werden, wobei die Schadstoffe vollständig zerstört werden.

Umweltfreundlich und recyclingfähig
Doktorand Paul Scapan untersucht nun, welche biologisch gut abbaubaren Moleküle die Greifzangen-Funktion für die verschiedenen PFAS am besten wahrnehmen können. Sind die Zusätze umweltverträglich, kann der veraschte Ton-Filter vollständig wiederverwendet werden. „Das Material eignet sich beispielsweise für eine Weiterverarbeitung zu Geopolymeren als umweltfreundliche Zementalternative“, so Prof. Martin Bertau.

Welche Vorteile die Organoclays noch haben könnten
Mit den verschiedenen Zusätzen kann die Filterwirkung der innovativen Organoclays gezielt auf zahlreiche per- und polyfluorierte Alkylverbindungen zugeschnitten werden. „Im Vergleich zu derzeit auf dem Markt verfügbaren Filtern aus Aktivkohle würde sich bei den Organoclays bezogen auf die PFAS-Eliminierungsleistung rund ein Zehntel der Kosten ergeben, so unser aktueller Wissensstand“, berechnet Paul Scapan.

Hintergrund: Wo PFAS überall eingesetzt werden
PFAS steht für per- und polyfluorierte Alkylsubstanzen. Bei den industriell hergestellten organischen Verbindungen werden Wasserstoff- durch Fluoratome ersetzt. Das macht sie extrem widerstandsfähig. Mehr als 10.000 feste, flüssige und gasförmige Chemikalien gehören zu den PFAS, wobei einige krebserregend und gesundheitsschädlich sind. Eingesetzt werden sie beispielweise in Imprägnierungsspray, Funktionskleidung, Medizinprodukten oder Anti-Haft-Beschichtungen.

Weltweit werden gefährliche Rückstände von PFAS in der Umwelt nachgewiesen, die sich in Wasser, Böden, Pflanzen und Tieren ansammeln. PFAS finden sich selbst in den Polarregionen – und im Blut von Kindern. Auch mit einem geplanten künftigen Verbot von PFAS in der EU sind diese Stoffe heute schon in die Umwelt gelangt und bauen sich dort nur sehr langsam ab. EU-weit wurden in den vergangenen Jahren bereits die ersten Stoffe der Chemikaliengruppe verboten. In der Diskussion steht nun ein Verbot aller PFAS, das derzeit bei der Europäischen Chemikalienagentur ECHA erarbeitet wird.

Wissenschaftliche Ansprechpartner:
Prof. Martin Bertau, martin.bertau@chemie.tu-freiberg.de

Originalpublikation:
https://onlinelibrary.wiley.com/doi/full/10.1002/cite.202300097

(nach oben)


Digitale Lehrmaterialen für Energiewende und Betriebswirtschaft fertiggestellt

Freie Lehr- und Lernmaterialien für die Fächer Betriebswirtschaft und Energieinformatik sowie das Datemanagement in der Energieforschung: Zu diesen drei Themenfeldern haben Mitarbeitende des C3L – Center für lebenslanges Lernen der Universität Oldenburg gemeinsam mit Partnern sogenannte Open Educational Resources erstellt. Die Materialien sind über das niedersächsische Portal Twillo kostenfrei zugänglich.

Energieinformatik, Datenmanagement für die Energieforschung und Betriebswirtschaftslehre – für diese drei Themenfelder haben Lehrende mit Didaktikerinnen und Didaktikern der Universität Oldenburg freie Lehr- und Lernmaterialien erstellt. Dabei wechseln sich Texte, Podcasts und interaktive Elemente ab. Die sogenannten Open Educational Resources (OER) wurden am C3L – Center für lebenslanges Lernen der Universität Oldenburg gemeinsam mit Partnern erstellt und sind über das niedersächsische Portal Twillo zugänglich. Praxisrelevantes Wissen wird so für alle Interessierten kostenfrei verfügbar.

Mit den Materialien zur Energieinformatik vermittelt Prof. Dr. Astrid Nieße vom Department für Informatik Grundlagenwissen zu Energiesystemen, energiewirtschaftlich relevanten Akteuren und zu aktuellen Forschungsthemen wie der Anwendung von Künstlicher Intelligenz. An Hochschulen lassen sich die Materialien in Studiengängen wie Informatik, Energietechnik, Elektrotechnik, Maschinenbau und Wirtschaftsingenieurwesen einsetzen. An den Schnittstellen dieser Fachgebiete zur Energieinformatik wächst der Bedarf an Fachkräften, die zum Beispiel Geschäftsmodelle für Elektromobilität, Software für dezentrale Energieanlagen oder Prognoseverfahren für Energieerzeugung und -verbrauch entwickeln.

Die knapp 200 einzelnen Lehr- und Lernmaterialien für die Wirtschaftswissenschaften und Betriebswirtschaftslehre setzen auf einen vielfältigen didaktischen Mix. Dazu gehören Grafiken und Texte, exemplarische Tabellenkalkulationen und Quizelemente. Sie behandeln das Human Resources Management, Organisation sowie Finanzierung und Investition. Diese Themen sind Bestandteil fast jeden betriebs- oder wirtschaftswissenschaftlichen Studiengangs. Somit kann die Materialsammlung bundesweit eingesetzt werden. Sie eignet sich sowohl für die Lehre als auch für das Selbstlernen. An dem Projekt waren die Jade Hochschule und die Fakultät für Wirtschafts- und Rechtswissenschaften der Universität Oldenburg beteiligt.

Der englischsprachige Kursus zum Forschungsdatenmanagement vermittelt, wie sich Daten über die Grenzen von Forschungsprojekten und wissenschaftlichen Instituten hinweg langfristig nutzen lassen. Sie sollen auffindbar, erreichbar, interoperabel und wiederverwendbar sein. Damit können Datensätze in verschiedenen Kontexten wiederholt genutzt werden und müssen nicht aufwendig neu erstellt werden. Die Materialien richten sich insbesondere an Nachwuchsforschende, die sich zum Beispiel mit vernetzten Energiesystemen, Speichertechnologien oder Solar- und Windenergie beschäftigen.
Das Projekt zum Forschungsdatenmanagement wurde vom Energieforschungszentrum Niedersachsen (EFZN) mit rund 25.000 Euro unterstützt. Das Niedersächsische Wissenschaftsministerium (MWK) hat die beiden Projekte zur Energieinformatik und zur Betriebswirtschaftslehre mit rund 137.000 Euro gefördert.

Wissenschaftliche Ansprechpartner:
Annabelle Jandrich, Tel. 0441 798-4643, E-Mail: annabelle.jandrich@uol.de

Weitere Informationen:
https://uol.de/c3l/forschung

(nach oben)


So sieht die Weihnachtsgans 2033 aus

Ob tierfreundlich und regional oder aus kultiviertem Fleisch – knusprig wird sie in jedem Fall

Lebensmittelbiotechnologin Prof. Dr. Cornelia Rauh von der TU Berlin wirft im vorweihnachtlichen Interview einen Blick in die Zukunft unserer Festtagsbraten und verrät, welche Weihnachtsessen heute schon vegan aufgetischt werden können. Dabei erklärt sie auch, warum das Mitte November in Italien beschlossene Verbot von kultiviertem Fleisch ein wichtiges Signal ist

Wenn die dringend notwendige Ernährungswende gelingt, werden Weihnachtsgänse in zehn Jahren unter wesentlich besseren Bedingungen als heute üblich groß werden und von einem Betrieb in der Nähe stammen. Für die steigende Zahl an Vegetarierinnen und Veganerinnen stehen 2033 aber auch Fleischersatzprodukte zur Verfügung, die einen sehr ähnlichen Genuss möglich machen, ist Rauh überzeugt. Wichtig dafür wären allerdings noch weitere Innovationen bei der Produktion von kultiviertem Fleisch, an denen Cornelia Rauh bereits arbeitet und die sie im Interview erklärt.

Weiterführende Informationen:
Interview mit Prof. Dr. Cornelia Rauh https://www.tu.berlin/go245722/

„Wir müssen bei unserer Forschungsarbeit die Wünsche, Vorlieben und Gefühle der Verbraucherinnen mit einbeziehen“, sagt Rauh. Sonst könne die Forschung in die falsche Richtung laufen. In einem von der Berlin University Alliance, dem Verbund der drei großen Berliner Universitäten und der Charité, geförderten Projekt wird dieser transdisziplinäre Ansatz bereits umgesetzt. So kooperiert Rauh unter anderem mit Innovationsforscherinnen der FU Berlin. In einem sogenannten Innovationsradar wird dabei untersucht, wie technische Entwicklungen sich auf die Gesellschaft und den Zusammenhalt untereinander auswirken können.

Kontakt:
Prof. Dr. Cornelia Rauh
Fachgebiet Lebensmittelbiotechnologie und -prozesstechnik
Technische Universität Berlin
Tel.: +49 (0)30 314-71254
E-Mail: cornelia.rauh@tu-berlin.de

(nach oben)


Wie kann Europa seine Natur wiederherstellen? Das EU-Parlament stimmt Anfang 2024 ab

Anfang 2024 wird das Europäische Parlament endgültig über das „Gesetz zur Wiederherstellung der Natur“ abstimmen. Die international einzigartige und heiß diskutierte Verordnung hat das Ziel, den Verlust der biologischen Vielfalt in Europa aufzuhalten und umzukehren. Ein internationales Team von Wissenschaftler:innen unter Leitung der Universität Duisburg-Essen hat untersucht, wie erfolgsversprechend dieses Gesetz ist. Der Artikel wurde am 14.12.2023 in der Fachzeitschrift Science veröffentlicht.

Das „Gesetz zur Wiederherstellung der Natur“ (Nature Restoration Law, NRL) verpflichtet die EU-Mitgliedstaaten, bis 2030 wirkungsvolle Renaturierungsmaßnahmen zu ergreifen: bis 2030 auf mindestens 20 Prozent der Land- und Meeresflächen und bis 2050 in allen Ökosystemen, die einer Wiederherstellung bedürfen. Zentrale Punkte betreffen die Wiedervernässung entwässerter Moore sowie die Erholung von Bestäuberpopulationen. Das NRL hat im EU-Parlament bereits mehrere Hürden genommen: Zuletzt wurde es vom Umweltausschuss des EU-Parlaments gebilligt, nachdem Delegationen des Parlaments und des Rates den endgültigen Text verhandelt hatten. Für Anfang 2024 ist nun die Abstimmung des Europäischen Parlaments über das NRL geplant.

Aber wird die Verordnung ihre Ziele wirklich erreichen? Die Autor:innen der Studie sind ausgewiesene Expert:innen, die große europäische Projekte zur Renaturierung und zur biologischen Vielfalt leiten. Sie haben die Erfahrungen mit anderen europäischen Umweltrichtlinien und -strategien analysiert und darauf aufbauend die Erfolgsaussichten der NRL bewertet.

„Das NRL verfolgt viele erfolgsversprechende Ansätze und verdeutlicht, dass die EU Kommission von Erfahrungen mit ähnlichen Rechtsvorschriften gelernt hat. Ein zentraler Aspekt dabei: Mit der Konstruktion des NRL umgeht die EU-Kommission mehrere Fallstricke, die die Umsetzung europäischer Politiken und Verordnungen oft behindern“, sagt Prof. Dr. Daniel Hering von der Universität Duisburg-Essen, Erstautor der Studie. „Die Verordnung definiert klare Ziele und Zeitpläne und legt die Umsetzungsschritte fest. Sie muss zudem nicht, wie eine Richtlinie, formal in nationales Recht umgesetzt werden und spart damit Zeit.“ Dennoch wird die konkrete Umsetzung auf der Ebene der Mitgliedsstaaten für den Erfolg des NRL entscheidend sein. „Während die Ziele des EU-Gesetzes genau definiert und verbindlich sind, müssen die Schritte zu ihrer Erreichung im Detail von den europäischen Ländern entschieden und durchgeführt werden, und die meisten von ihnen sind freiwillig“, erläutert Prof. Dr. Josef Settele vom Helmholtz-Zentrum für Umweltforschung (UFZ), einer der Autoren der Studie.

Ein weiterer erfolgsentscheidender Aspekt: Die Zusammenarbeit der Politik mit den Landnutzer:innen, insbesondere mit der Landwirtschaft. „Die intensive Landwirtschaft ist nach wie vor eine der Hauptursachen für den Verlust der biologischen Vielfalt in Europa“, ordnet der Senior-Autor Guy Pe’er ein. „Aber die Ziele der Landwirtschaft und der Renaturierung könnten miteinander verknüpft werden, so dass beide Seiten davon profitieren können. Die Landwirtschaft profitiert direkt von gesunden Böden und sich erholenden Bestäuberpopulationen sowie von einem verbesserten Landschaftswasserhaushalt – das zeigt, wie sich die Ziele des NRL mit einem Nutzen für die Landwirtschaft verbinden lassen.“ Die Autor:innen kommen zu dem Schluss, dass ein Einsatz von Fördermitteln der Gemeinsamen Agrarpolitik der EU auch zur Zielerreichung des NRL entscheidend sein wird: eine in Fachwelt und Anwendung kontrovers diskutierte These.

Insgesamt bewerten die Autor:innen das NRL positiv. Sie machen jedoch deutlich, dass eine ehrgeizige nationale Umsetzung und die Zusammenarbeit mit Wirtschaftssektoren wie der Landwirtschaft letztlich über den Erfolg der Renaturierung in Europa entscheiden werden.

Redkation und Pressekontakt:
Astrid Bergmeister, Pressesprecherin und Leiterin Ressort Presse, Tel. 0203/37 9-2430, astrid.bergmeister@uni-due.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniel Hering, Lehrstuhl für Aquatische Ökologie,
Universität Duisburg-Essen. Telefon: ++49 201 1833084, daniel.hering@uni-due.de

Dr. Guy Pe’er, Helmholtz-Zentrum für Umweltforschung (UFZ) und Deutsches Zentrum für Integrative Biodiversitätsforschung (iDiv), guy.peer@ufz.de

Originalpublikation:
www.science.org/doi/10.1126/science.adk1658

(nach oben)


Mit künstlicher Intelligenz Patientinnen und Patienten mit Herzschwäche besser versorgen

Die Carl-Zeiss-Stiftung fördert ein gemeinsames Projekt der Medizinischen Fakultät Heidelberg und der Universitätsmedizin Mainz mit fünf Millionen Euro. Das interdisziplinäre Team will mittels umfangreicher Datenanalysen durch Künstliche Intelligenz individualisierte Therapien für Betroffene mit Herzschwäche entwickeln.​ Teil des Projektes ist eine Studie zur Robotik-unterstützten Bewegungstherapie. Gemeinsame Pressemitteilung des Universitätsklinikums Heidelberg und der Universitätsmedizin Mainz

Herzschwäche ist nicht gleich Herzschwäche: Zahlreiche mögliche Ursachen und Begleiterkrankungen bestimmen den individuellen Verlauf, lassen die Prognose schwer abschätzen und bedingen teils unbefriedigende Therapieoptionen. Juniorprofessorin Dr. Sandy Engelhardt, Medizinische Fakultät Heidelberg der Universität Heidelberg, und Prof. Dr. Philipp Wild, Universitätsmedizin Mainz der Johannes Gutenberg-Universität Mainz, möchten mit ihrem interdisziplinären Projektteam die Versorgung und Behandlung für die Patientinnen und Patienten mit Herzschwäche verbessern. Die Carl-Zeiss-Stiftung (CZS) fördert das Projekt mit ihrem Programm „CZS Durchbrüche“ ab Juli 2024 für sechs Jahre mit insgesamt fünf Millionen Euro. Ziel des Förderprogramms ist es, etablierte Forschungsschwerpunkte mit hoher Relevanz in Baden-Württemberg, Rheinland-Pfalz und Thüringen weiterzuentwickeln und international auszubauen. Projektpartner sind Arbeitsgruppen der Universitätsklinika sowie der Universitäten Heidelberg und Mainz aus den Fachbereichen Kardiologie, Bioinformatik, Sportmedizin, Epidemiologie, Medizintechnik, Pathologie und Rechtswissenschaften. Die Projektpartner sind zudem über das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) miteinander vernetzt.

Gesundheitsdaten von Tausenden Patienten trainieren die KI
Die Wissenschaftlerinnen und Wissenschaftler wollen eine Künstliche Intelligenz (KI) mit den umfassenden Gesundheitsdaten von mehreren tausend Patientinnen und Patienten mit Herzschwäche trainieren, um bisher verborgene Zusammenhänge zu erkennen und in personalisierte Therapieempfehlungen einfließen zu lassen. Als konkretes Anwendungsbeispiel für eine KI-gestützte Therapieempfehlung soll eine Bewegungstherapie-Studie angeboten werden, bei der die Teilnehmenden in ihrem Training von einem individuell angepassten Exoskelett unterstützt werden.

Die Patientengruppe, um die es im Projekt geht, leidet an einer häufigen Form der chronischen Herzschwäche, bei der die linke Herzkammer zunehmend versteift, aber noch ausreichende Mengen Blut ausstoßen kann (erhaltene Ejektionsfraktion). Unbehandelt kann dies langfristig zu Herzversagen führen. Derzeit gibt es keine einheitlichen medikamentösen oder operativen Therapien, die die Veränderungen des Herzmuskels rückgängig machen und die Prognose der Betroffenen verbessern können.

Viele verschiedene Faktoren beeinflussen den Krankheitsverlauf und das Therapieansprechen. Daher soll nun eine „multi-modale“ KI in der Fülle der Kombinationsmöglichkeiten nach wiederkehrenden Mustern und möglichen Zusammenhängen suchen, um Untergruppen mit möglichst einheitlichem Krankheitsverlauf zu identifizieren. „Multi-modal“ bedeutet, dass Patientendaten aus ganz unterschiedlichen Quellen zusammengeführt und als Trainingsmaterial für die KI verwendet werden. Dabei handelt es sich einerseits um klassische Patientendaten wie Alter, Geschlecht, Vorerkrankungen und Blutwerte, aber auch um digitale Daten aus der Bildgebung, Gewebeanalysen und – falls vorhanden – genetische Informationen. „Die medizintechnischen und bioinformatischen Fortschritte, insbesondere in der maschinellen Erhebung und Analyse genetischer Daten, erlauben es uns, Patientinnen und Patienten auf Mikro- und Makroebene individuell zu charakterisieren“, erläutert Projektsprecherin Professorin Sandy Engelhardt, Arbeitsgruppenleiterin an den Kliniken für Herzchirurgie sowie für Kardiologie, Angiologie und Pneumologie des Universitätsklinikums Heidelberg (UKHD).
Wer profitiert von einer Bewegungstherapie?
„In unserem Projekt geht es dabei konkret um die Frage, welche Betroffenen aufgrund welcher Merkmalskombination voraussichtlich von einer Bewegungstherapie profitieren werden. Wir hoffen, dass unser systemmedizinischer Ansatz mit vielen molekularen Daten es uns ermöglichen wird, den Verlauf der Erkrankung und die Mechanismen für den Erfolg einer Therapie besser zu verstehen“, ergänzt Professor Philipp Wild, Leiter der Präventiven Kardiologie und Präventiven Medizin im Zentrum für Kardiologie der Universitätsmedizin Mainz.

Wer an Herzschwäche leidet, kommt schnell in Atemnot und ist weniger leistungsfähig. Viele Betroffene vermeiden daher Anstrengungen und sind auch sportlich nicht aktiv, was wiederum ihre Herzgesundheit weiter verschlechtert. Die in der Studie angebotene Bewegungstherapie begegnet diesem Problem, indem die Teilnehmenden in ihrer körperlichen Aktivität von einem sogenannten Exosuit unterstützt werden, der von einem Team um Professor Lorenzo Masia, Leiter der Abteilung „Biorobotik und Medizintechnik“ am Institut für Technische Informatik der Universität Heidelberg, konzipiert wurde. Ähnlich einem Außenskelett werden die Roboterelemente während des Trainings beispielsweise an Armen, Beinen und Rumpf angelegt, übernehmen einen – flexibel einstellbaren – Teil des nötigen Kraftaufwands und steigern so die Mobilität. Das Bewegungsprogramm wird von Teams der sportmedizinischen Abteilungen der beiden Universitätsklinika entwickelt und betreut.

Während und nach Abschluss des Trainingsprogramms bewerten die Wissenschaftlerinnen und Wissenschaftler wiederholt Verbesserungen der Lebensqualität ebenso wie Effekte auf molekularer bis zur makroskopischen Ebene, was wiederum in das KI-System einfließt. „Wir erhoffen uns durch die KI-Unterstützung, zukünftig Therapien sehr viel gezielter als bisher auswählen und auf ihren Nutzen hin bewerten zu können“, so Professorin Engelhardt.

Über die Carl-Zeiss-Stiftung
Die Carl-Zeiss-Stiftung hat sich zum Ziel gesetzt, Freiräume für wissenschaftliche Durchbrüche zu schaffen. Als Partner exzellenter Wissenschaft unterstützt sie sowohl Grundlagenforschung als auch anwendungsorientierte Forschung und Lehre in den MINT-Fachbereichen (Mathematik, Informatik, Naturwissenschaften und Technik). 1889 von dem Physiker und Mathematiker Ernst Abbe gegründet, ist die Carl-Zeiss-Stiftung eine der ältesten und größten privaten wissenschaftsfördernden Stiftungen in Deutschland. Sie ist alleinige Eigentümerin der Carl Zeiss AG und SCHOTT AG. Ihre Projekte werden aus den Dividendenausschüttungen der beiden Stiftungsunternehmen finanziert.

Wissenschaftliche Ansprechpartner:
Juniorprofessorin Dr. Sandy Engelhardt, Medizinische Fakultät Heidelberg der Universität Heidelberg
Prof. Dr. Philipp Wild, Universitätsmedizin Mainz der Johannes Gutenberg-Universität Mainz

Weitere Informationen:
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/mu…

(nach oben)


Der Duft der Wälder – ein Risiko fürs Klima?

Leipzig. Pflanzen geben Duftstoffe ab, um zum Beispiel miteinander zu kommunizieren, Fressfeinde abzuwehren oder auf veränderte Umweltbedingungen zu reagieren. Ein interdisziplinäres Forschungsteam der Universität Leipzig, des Leibniz-Instituts für Troposphärenforschung (TROPOS) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) hat in einer Studie untersucht, wie die Artenvielfalt den Ausstoß dieser Stoffe beeinflusst. Erstmals konnte so gezeigt werden, dass artenreiche Wälder weniger von diesen Gasen in die Atmosphäre abgeben als Monokulturen. Bisher wurde angenommen, dass artenreiche Wälder mehr Emissionen abgeben.

Diese Annahme konnte das Leipziger Team jetzt experimentell widerlegen. Ihre Untersuchung ist in der Fachzeitschrift „Communications Earth & Environment“ erschienen.

Pflanzendüfte wirken bis in die Atmosphäre
Pflanzen produzieren eine Vielzahl organischer Verbindungen, um miteinander und mit ihrer Umwelt zu kommunizieren. Dabei handelt es sich um so genannte biogene flüchtige organische Verbindungen (BVOCs), wie zum Beispiel Terpene, die den Pflanzen ihren charakteristischen Duft geben und bei der Abwehr von Schädlingen helfen. Diese Stoffe wirken nicht nur als chemische Signale, sondern spielen auch eine Rolle bei der Regulation des Klimas, der Luftqualität und der Atmosphärenchemie. Denn aus diesen BVOCs, die die Pflanzen ausstoßen, entstehen in der Luft biogene sekundäre organische Aerosole (BSOAs), also Partikel in der Atmosphäre. Diese Aerosole haben wiederum Auswirkungen auf die Luftqualität, die Wolkenbildung und auf das Klima.

MyDiv-Experiment: Messungen in Parzellen mit verschiedenen Baumarten
Doch wie verändern sich Ausstoß und Konzentration von Aerosolen in der Luft, wenn die Artenvielfalt abnimmt oder die Pflanzen durch Trockenheit in Stress geraten? Diesen Fragen ist das interdisziplinäre Team um die Wissenschaftler:innen Dr. Anvar Sanaei und Prof. Dr. Alexandra Weigelt von der Universität Leipzig sowie weitere Forscher:innen des TROPOS und des iDiv nachgegangen. Die passenden Daten haben die Wissenschaftler:innen auf der MyDiv-Versuchsfläche für Baumvielfalt gewonnen. Auf der rund zwei Hektar großen Fläche bei Bad Lauchstädt in Sachsen-Anhalt wachsen auf 80 Parzellen 10 Baumarten in Monokulturen oder unterschiedlich artenreichen Mischungen zusammen. Für die Studie nahm das Team knapp zwei Wochen lang Luftproben aus zehn der 11×11 Meter großen Parzellen, auf denen vier Baumarten (Vogelbeere, Vogelkirsche, Gemeine Esche und Bergahorn) in unterschiedlichen Kombinationen wachsen.

Weniger Pflanzendüfte, weniger Risiken
„Vor Ort haben wir BVOC- und BSOA-Verbindungen in zehn Parzellen mit unterschiedlicher Baumvielfalt gemessen. Unsere Ergebnisse zeigen, dass die Menge der BVOC in den meisten Fällen bei höherer Biodiversität abnimmt“, sagt Dr. Anvar Sanaei, Erstautor der Studie und Postdoktorand am Institut für Biologie der Universität Leipzig. Schätzungen gehen davon aus, dass sich die globalen BVOC-Emissionen aus der Vegetation durch den Klimawandel und höhere Temperaturen um etwa ein Drittel erhöhen werden. „Damit sind große Unsicherheiten verbunden: Aus diesen Vorläufergasen können sich Partikel bilden, die wiederum zu Wolkentropfen werden können. Ob die BVOCs dann am Ende die Atmosphäre eher kühlen oder eher erwärmen, hängt von sehr vielen Faktoren ab und ist schwer vorherzusagen. Mehr Artenvielfalt und weniger BVOCs würden aber die Veränderungen in der Atmosphäre verringern und damit auch die Risiken des Klimawandels – einschließlich veränderten Niederschlägen“, fügt Prof. Dr. Hartmut Herrmann vom TROPOS hinzu. Wie schwer es ist, diese komplexen Prozesse im Freiland zu untersuchen, zeigt der zweite Teil der Studie: Für biogene sekundäre organische Aerosole (BSOA) konnte das Team keine eindeutigen Zusammenhänge feststellen, was unter anderem an den Einflüssen aus der Umgebung liegen könnte, denn die Umwandlung der BVOC-Gase in die BSOA-Partikel dauert eine gewisse Zeit. Mit knapp zwei Wochen war die Messkampagne außerdem vergleichsweise kurz. Das Team will die Untersuchungen daher fortsetzen – auch weil viele Fragen noch offen sind.

Mehr Stress, mehr Pflanzendüfte?
Bisher wurde angenommen, dass artenreiche Wälder und Wiesen mehr gasförmige Stoffe an die Atmosphäre abgeben als artenarme. Als Ursache wurde vermutet, dass artenreiche Systeme mehr Biomasse produzieren, weil sie Ressourcen wie Licht, Wasser und Nährstoffe effizienter nutzen können. Mehr Biomasse bedeutet dann auch mehr Blattoberfläche, von denen die Gase abgegeben werden können. „Unsere neuen Ergebnisse sprechen aber eher dafür, dass es daran liegen könnte, dass die Pflanzen in artenreichen Wäldern und Wiesen weniger Stress haben. Sie leiden unter weniger Fressfeinden, weniger Hitze oder Trockenheit als in Monokulturen. Aber das ist bisher nur eine Hypothese. Um besser zu verstehen, wie die Biodiversität die Atmosphäre beeinflusst, sind viele weitere Untersuchungen nötig, bei denen wir uns das Mikroklima, den ober- und unterirdischen Stress für die Pflanzen und viele andere Faktoren genauer per Langzeitexperiment ansehen müssen“, erklärt Prof. Dr. Nico Eisenhauer vom iDiv.

Biologie + Klimaforschung + Chemie = Team Zukunft
Das Besondere an der Studie ist, dass verschiedene Disziplinen hier zusammengearbeitet haben und atmosphärische und biologische Messungen kombiniert wurden. „Nur mit dem Wissen aus Biologie, Klimaforschung und Atmosphärenchemie können wir entschlüsseln, wie die Emissionen von Pflanzen mit der Biodiversität und der Atmosphäre zusammenhängen. Unsere Studie unterstreicht die Notwendigkeit von Experimenten auf lokaler und regionaler Ebene sowie die Entwicklung von Modellen, um unser Verständnis der Biosphäre-Atmosphäre-Wechselwirkungen zu verbessern“, sagt Studien-Letztautorin Prof. Dr. Alexandra Weigelt vom Institut für Biologie. Zudem sei es ein Paradebeispiel für das Forschungsvorhaben „Breathing Nature“, für das die Universität im Mai eine Skizze im Rahmen der Exzellenzstrategie eingereicht hat. Denn über die Fächer- und Institutionsgrenzen hinweg, könnten Antworten auf drängende Fragen unserer Zeit gefunden werden.
Katarina Werneburg / Tilo Arnhold

Publikation:
Anvar Sanaei, Hartmut Herrmann, Loreen Alshaabi, Jan Beck, Olga Ferlian, Khanneh Wadinga Fomba, Sylvia Haferkorn, Manuela van Pinxteren, Johannes Quaas, Julius Quosh, René Rabe, Christian Wirth, Nico Eisenhauer & Alexandra Weigelt: Changes in biodiversity impact atmospheric chemistry and climate through plant volatiles and particles. Commun Earth Environ 4, 445 (2023). https://doi.org/10.1038/s43247-023-01113-9

Die Studie wurde gefördert durch das Sächsische Staatsministerium für Wissenschaft, Kultur und Tourismus (SMWK; 3-7304/35/6-2021/48880), die Europäische Union (ACTRIS-IMP (871115), ATMO-ACCESS (101008004) und ACTRIS-D (01LK2001A)), dem Europäischen Forschungsrat (ERC) im Rahmen des Forschungs- und Innovationsprogramms Horizon 2020 der Europäischen Union (Grant Agreement No. 677232) und die Deutsche Forschungsgemeinschaft (DFG; via Gottfried Wilhelm Leibniz-Preis (Ei 862/29-1) und Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig (FZT 118, 202548816)).

Links:
Breathing Nature
https://www.uni-leipzig.de/forschung/exzellenz-in-der-forschung/breathing-nature
MyDiv Experiment
https://www.idiv.de/de/research/platforms-and-networks/mydiv.html
TROPOS-Abteilung Chemie der Atmosphäre
https://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere
Biogenes Aerosol
https://www.tropos.de/institut/abteilungen/modellierung-atmosphaerischer-prozess…

Kontakte:
Anvar Sanaei
Wiss. Mitarbeiter, Spezielle Botanik und funktionelle Biodiversität, Universität Leipzig
Telefon: +49-341-97-38587
https://www.lw.uni-leipzig.de/personenprofil/mitarbeiter/ph-d-anvar-sanaei
und
Prof. Dr. Alexandra Weigelt
Professorin, Spezielle Botanik und funktionelle Biodiversität, Universität Leipzig
Telefon: +49-341-97-38594
https://www.lw.uni-leipzig.de/personenprofil/mitarbeiter/prof-dr-alexandra-weige…
und
Prof. Dr. Hartmut Herrmann
Leiter der Abteilung Chemie der Atmosphäre, Leibniz-Institut für Troposphärenforschung (TROPOS)
Telefon: +49-341-2717-7024
https://www.tropos.de/institut/ueber-uns/mitarbeitende/hartmut-herrmann

oder
Medienredaktion, Stabsstelle Universitätskommunikation, Universität Leipzig
Tel.: +49-341-97-35025
https://www.uni-leipzig.de/universitaet/service/medien-und-kommunikation
und
Dr. Volker Hahn / Kati Kietzmann, Medien und Kommunikation, Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Tel.: +49-341-97-33154, -39222
https://www.idiv.de/de/gruppen-und-personen/zentrales-management/medienservice.h…
und
Tilo Arnhold, Öffentlichkeitsarbeit, Leibniz-Institut für Troposphärenforschung (TROPOS),
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 97 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler.
Das Finanzvolumen liegt bei 2 Milliarden Euro. Finanziert werden sie von Bund und Ländern gemeinsam. Die Grundfinanzierung des Leibniz-Instituts für Troposphärenforschung (TROPOS) wird vom Bundesministerium für Bildung und Forschung (BMBF) und dem Sächsischen Staatsministerium für Wissenschaft und Kunst (SMWK) getragen. Das Institut wird mitfinanziert aus Steuermitteln auf Grundlage des vom Sächsischen Landtag beschlossenen Haushaltes.
http://www.leibniz-gemeinschaft.de
https://www.bmbf.de/
https://www.smwk.sachsen.de/

Wissenschaftliche Ansprechpartner:
siehe Haupttext
Originalpublikation:
siehe Haupttext

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/der-duft-der-waelder-…

(nach oben)


Stromampel-App zeigt an: So grün ist Europas Strommix

Viele Besitzerinnen und Besitzer von Elektroautos, Wärmepumpen oder Smart Homes möchten einen möglichst grünen Strommix nutzen. Die »Stromampel«- App des Fraunhofer-Instituts für Solare Energiesysteme ISE, die seit heute für Android-Geräte im App Store verfügbar ist, zeigt für zwölf europäische Länder den aktuellen Anteil Erneuerbarer Energien an der Stromerzeugung sowie für 34 Länder den Day-Ahead-Börsenstrompreis an. So können Nutzerinnen und Nutzer ihre Stromverbräuche entsprechend anpassen.

Der Anteil Erneuerbarer Energien an der öffentlichen Nettostromerzeugung nimmt stetig zu, in Deutschland lag er z.B. im ersten Halbjahr 2023 im Schnitt bereits bei 57,2 Prozent. Der Anteil an der Last lag im ersten Halbjahr bei 55,9 Prozent. »Um angesichts dieses wetterabhängigen grünen Stromangebots den Bedarf an Speichern zu minimieren, ist es sinnvoll, den Stromverbrauch an das Angebot anzupassen«, erklärt Prof. Bruno Burger, Senior Scientist am Fraunhofer ISE. Sein Team hat daher die Stromampel-App entwickelt, die den aktuellen Erneuerbare-Energien-Anteil an der Last anzeigt. Diese ist im Google Play Store für Android (ab Android 8) und als direkter Download auf der Webseite Energy-Charts.info verfügbar. An einer iOS-Version (ab iOS 16.2) arbeitet das Team ebenfalls. Die App ist aktuell in den Sprachen Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar.

Grundlage der Ampel-Anzeige ist die Relation zwischen dem aktuellen Erneuerbaren-Energien-Anteil und dem durchschnittlichen Angebot aus den letzten fünf Jahren für den jeweiligen Monat (z.B. 48,0 Prozent für den Monat Juni). Liegt der aktuelle Anteil zehn Prozent unter diesem Durchschnitt, zeigt die Ampel rot an, liegt er zehn Prozent darüber, wird grün angezeigt. Die Werte dazwischen sind gelb. Die Stromdaten liegen dabei im Viertelstunden-Takt vor. Die Daten werden in der Regel jede Stunde neu geladen, um immer die aktuelle Prognose zu zeigen. Als Vorhersage stehen die Daten in aller Regel ab 19:00 Uhr für den nächsten Tag zur Verfügung.
Wer es genauer wissen möchte, kann sich auch den aktuellen und prognostizierten Beitrag der einzelnen erneuerbaren Quellen an der Last betrachten.
Neben dem Anteil der Erneuerbaren Energien lässt sich auch der Day-Ahead-Börsenstrompreis für 34 europäische Länder als Grundlage für die Stromampel verwenden.

Daten offen für alle Interessenten zugänglich
Das Team des Fraunhofer ISE stellt die Daten auf der Webseite der Energy-Charts, in der App sowie über eine offene Schnittstelle (API) für alle Interessenten zur Verfügung.
So können Nutzerinnen und Nutzer ihre Smart Home-Geräte entsprechend starten, wenn die Ampel auf »grün« wechselt. Auch das Laden eines Elektrofahrzeugs an einer Ladestation oder andere stromfressende Prozesse (z.B. IT-Prozesse mit großen Daten-mengen) lassen sich so steuern. Ein Elektrofahrzeug fährt durchschnittlich 300 Kilometer in der Woche, der Ladevorgang lässt sich oft zeitlich schieben.
»Einen finanziellen Anreiz bietet unsere Stromampel im Gegensatz zu anderen Apps nicht. Sie soll in erster Linie die Nutzung erneuerbaren Stroms maximieren und mehr Transparenz in den Stromverbrauch bringen«, erklärt Leonhard Probst aus dem Team der Energy-Charts. Durch die Nutzung des Stroms in Zeiten mit einem hohen Angebot erneuerbaren Stroms können die Verbraucherinnen und Verbraucher selbst aktiv an der Energiewende teilnehmen.

Europäischer Marktführer BSH nutzt App zur Steuerung
Die BSH Hausgeräte GmbH, zu der Marken wie Bosch, Siemens, Gaggenau und Neff gehören, setzt die Daten der Stromampel bereits ein. Mittels der Home Connect-App des führenden europäischen Hausgeräteherstellers können Nutzer und Nutzerinnen ihre intelligenten Küchen- und Hausgeräte steuern. Sie können entsprechend des Stromangebots Programme automatisch dann starten lassen, wenn gerade besonders viel Erneuerbare Energien in das Stromnetz einspeisen.

Wissenschaftliche Ansprechpartner:
Prof. Bruno Burger: bruno.burger@ise.fraunhofer.de

(nach oben)


Kompetenzzentrum Wasser Hessen geht an den Start

Die Wasserwirtschaft in Hessen steht insbesondere durch den Klimawandel vor großen Herausforderungen, damit sie auch zukünftig die Wasserversorgung von Bevölkerung und Unternehmen nachhaltig sichern kann. Heute eröffnete die hessische Umweltministerin Priska Hinz an der Goethe-Universität Frankfurt das Hessische Kompetenzzentrum Wasser (KWH), in dem Akteure aus Wissenschaft und Bildung, Verwaltung, Politik und Wasserwirtschaft vernetzt sind. Die Ziele: Probleme sollen auf Systemebene angegangen, wissenschaftliche Erkenntnisse schneller in die wasserwirtschaftliche Praxis überführt und das Bildungsangebot erweitert werden.

FRANKFURT. Es sind gleich mehrere tiefgreifende Veränderungen, mit denen sich der Wassersektor in Hessen konfrontiert sieht: Der Klimawandel mit seinen häufigeren Extremwetterereignissen erhöht den Druck auf Wasserressourcen und Wasserökosysteme, was wiederum einen Verlust der Biodiversität nach sich zieht. Die Folgen für Mensch und Natur wurden in den Dürresommern der vergangenen Jahre deutlich sichtbar. Dann wiederum gab es vermehrt Starkregenereignisse mit Schäden an Gebäuden und Infrastruktur. Eine weitere Herausforderung für die Wasserwirtschaft ist der demografische Wandel. Die Zunahme der Bevölkerung in den Ballungsräumen führt zu einem steigenden Wasserbedarf in den kommenden Jahren, die Abnahme der Bevölkerung in Teilen des ländlichen Raums dagegen zu steigenden Kosten bei der Bereitstellung einer ausreichenden Wasser- und Abwasserinfrastruktur. Heute schon führen Einträge von Spurenstoffen zum Beispiel durch Arzneimittel im Abwasser zu Problemen in der Abwasserbehandlung und Trinkwasseraufbereitung.

Angesichts dieser Herausforderungen und damit verbundener Zielkonflikte zwischen Schutz und Nutzung der Ressource Wasser sind innovative und nachhaltige Umsetzungslösungen für die vielen beteiligten Akteure zu suchen und zu finden. Hessen geht diese Herausforderungen jetzt durch eine Stärkung der interdisziplinären Zusammenarbeit von Wissenschaft, Verwaltung, Politik, Praxis und Bildung an und gründet das Hessische Kompetenzzentrum Wasser (KWH), in dem das Hessische Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz (HMUKLV), das Hessische Landesamt für Naturschutz, Umwelt und Geologie (HLNUG), die Regierungspräsidien, alle hessischen Universitäten, viele hessische Hochschulen sowie die Senckenberg Gesellschaft für Naturforschung und das Institut für sozial-ökologische Forschung (ISOE) ihre jeweilige Expertise einbringen und kooperieren werden.

Umweltministerin Priska Hinz erläutert: „Mit dem Klimaplan und dem Zukunftsplan Wasser haben wir die Weichen für einen nachhaltigen Schutz und eine integrierte Bewirtschaftung der Wasserressourcen in Hessen gestellt. Das Hessische Kompetenzzentrum Wasser wird uns nun dabei unterstützen, die notwendigen Anpassungen an den Klimawandel umzusetzen und dabei neueste wissenschaftliche Erkenntnisse und innovative Lösungen zu berücksichtigen.“

Prof. Thomas Schmid, Präsident des HLNUG, ist überzeugt: „Das Hessische Kompetenzzentrum Wasser bietet die Chance, die unterschiedlichen und sehr umfassenden Expertisen im Wassersektor in Hessen zu bündeln, damit die wissenschaftlichen Erkenntnisse auch zu einer praxisnahen Entwicklung konkreter Lösungen mit nachhaltiger Nutzung der Ressource Wasser beitragen können.“

Prof. Enrico Schleiff, Präsident der Goethe-Universität, die die Gründung des KWH wesentlich begleitet hat, erklärt: „Es muss uns gelingen, ‚win-win-Situationen‘ zu schaffen, bei denen einerseits die Wasserressourcen erhalten bleiben und die aquatische Biodiversität geschützt wird, andererseits aber auch der Wasserbedarf der Bevölkerung und der Wirtschaft gesichert bleibt. Mit ihrer Forschung werden die hessischen Universitäten und Hochschulen zum Erreichen dieses Ziels beitragen.“ Auch die Gewinnung von Fachkräften könnten die Universitäten und Hochschulen befördern, so Präsident Schleiff: „Wir arbeiten stetig an der Weiter – und Neuentwicklung von Lehr- und Ausbildungskonzepten, um Expert:innen für Naturschutz und Wasserwirtschaft zu qualifizieren.“ Dabei befürworte er das aktive Mitwirken von Partnerinstitutionen aus Praxis und Behörden in Lehrveranstaltungen relevanter Fachbereiche von Universitäten und Hochschulen sowie beispielsweise die Vergabe externer Abschlussarbeiten: „Damit können wir einen Mehrwert auch aus Sicht der Wissenschaft generieren.“

Enrico Schleiff freut sich über den Auftakt zur Gründung des KWH in seinem Hause: “Die Wasserforschung ist schon seit vielen Jahren fester und wichtiger Bestandteil des Forschungsportfolios der Goethe-Universität. Gemeinsam mit unseren Kolleginnen und Kollegen der anderen hessischen Universitäten, Hochschulen und außeruniversitären Forschungseinrichtungen sehen wir uns in der Verantwortung, die Ziele des KWH voranzutreiben und unseren Beitrag zum Erhalt und zur nachhaltigen Nutzung der Ressource Wasser in Hessen zu leisten.“

Ziel des KWH ist es, praxistaugliche, wissenschaftlich fundierte, evidenzbasierte und innovative Lösungen entsprechend den Herausforderungen im Wassersektor zu entwickeln. Statt einzelner hydrologischer, ökologischer und technisch-ingenieurwissenschaftlicher Fragestellungen können im KWH die dringenden Probleme zu Prozessen und Dynamiken des Wasserressourcenmanagements interdisziplinär und integriert betrachtet werden. Soziale, ökonomische und politische Aspekte, als weitere wichtige Handlungsfelder in der Wasserwirtschaft, können durch diese übergreifende Zusammenarbeit ebenfalls berücksichtigt werden.

Eine solche Bündelung der hessischen Wasserkompetenz eröffnet neue Perspektiven für die Durchführung von angewandten Forschungsprojekten zu in Hessen relevanten Themen für eine nachhaltige Nutzung der Ressource Wasser, einschließlich der Vermittlung von entsprechenden Kompetenzen, sowie für die Politikberatung.

Über das Kompetenzzentrum Wasser Hessen (KWH)
Als hessisches Kompetenzzentrum Wasser ist das KWH ein Bindeglied zwischen Akteuren im Wasserbereich aus Wissenschaft, Verwaltung, Politik, Bildung und wasserwirtschaftlicher Praxis. Das KWH wird auch mit assoziierten Partnern kooperieren. Dies können nicht-behördliche Organisationen, Vereine oder im Wassersektor tätige Unternehmen sein. Ein Kooperationsvertrag regelt die künftige Zusammenarbeit der institutionellen Partner:

Hessisches Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz
Hessisches Landesamt für Naturschutz, Umwelt und Geologie
Regierungspräsidium Darmstadt
Regierungspräsidium Gießen
Regierungspräsidium Kassel
Goethe-Universität Frankfurt am Main
Justus-Liebig-Universität Gießen
Philipps-Universität Marburg
Technische Universität Darmstadt
Universität Kassel
Hochschule Darmstadt
Hochschule Fresenius
Hochschule Geisenheim University
Hochschule RheinMain
Technische Hochschule Mittelhessen
Senckenberg Gesellschaft für Naturforschung
Institut für sozial-ökologische Forschung (ISOE) GmbH

(nach oben)


Schwerer Corona-Verlauf nun vorhersagbar

Forschenden der Technischen Universität München (TUM) ist es gelungen, mithilfe der Anzahl und Struktur von Blutplättchen vorherzusagen, ob es zu einem schweren Corona-Verlauf kommen kann. Damit haben sie einen prognostischen Biomarker für den Schweregrad von COVID-19 identifiziert. So kann die Therapie nun frühzeitig angepasst werden. Methodisch griffen die Forschenden auf eine bildgebende Durchflusszytometrie zurück, die es ermöglicht, schnell und in großer Anzahl Interaktionen zwischen Blutzellen zu analysieren.

Sobald sich der Körper mit Sars-CoV-2 infiziert, laufen eine Reihe von Immunreaktionen ab. Eine dieser Reaktionen besteht darin, dass sich die Blutplättchen, auch Thrombozyten genannt, an den Immunzellen anlagern und dadurch Zellaggregate, also Verklumpungen, im Blutkreislauf entstehen. Eine Studie des Teams um Oliver Hayden, Professor für Biomedizinische Elektronik, hat mithilfe einer bildgebenden Durchflusszytometrie gezeigt, dass bei Intensivpatient:innen mit einem schweren Corona-Verlauf die Konzentration von Blutplättchen-Aggregaten sehr stark ansteigt.

Dem Forschungsteam ist es damit gelungen, einen prognostischen Biomarker für den Schweregrad von COVID-19 zu identifizieren. Möglich wurde dieses Ergebnis durch die optimalen interdisziplinären Bedingungen, die das Zentralinstitut TranslaTUM den Ingenieur:innen der TUM für die Zusammenarbeit mit Mediziner:innen am Klinikum München rechts der Isar bietet.

Patientennahe und unkomplizierte Messung
Für die Analyse wurde den Proband:innen zunächst Blut abgenommen. Wenige Tropfen Blut reichen aus, um mithilfe der bildgebenden Durchflusszytometrie innerhalb von Sekunden tausende Blutzellen abzuzählen und deren Aggregation zu analysieren. Der Leiter der Studie Prof. Hayden sagt: „Darüber hinaus hat diese Methode den großen Vorteil, dass wir die Proben weder aufbereiten noch markieren müssen, sondern sie direkt und standardisierbar untersuchen können, ohne die Aggregate durch Einwirkung hoher Scherkräfte zu verlieren. In Zukunft könnte diese kostengünstige Methode dabei helfen, Wechselwirkungen zwischen Gerinnungssystem und Immunsystem zu quantifizieren.“ Die patientennahe Messung erlaubt eine unmittelbare Untersuchung nach Blutabnahme, um Alterungseffekte der Blutproben, die selbst zu Aggregaten führen, auszuschließen.

Zwei Drittel der Blutplättchen von Erkrankten betroffen
Insgesamt untersuchte das Forschungsteam das Blut von 36 Intensiv-Patient:innen im Alter zwischen 32 und 83 Jahren, die mit einer Corona-Infektion ins Krankenhaus eingeliefert worden waren und einen mäßigen bis schweren Verlauf aufwiesen. Die Ergebnisse der Studie zeigen, dass bei schwer erkrankten Patient:innen die Anzahl an gebundenen Thrombozyten signifikant höher war, als bei mäßig erkrankten Patient:innen und erst recht im Vergleich zu gesunden Blutspender:innen.

In Bezug auf die Zusammensetzung der Zellaggregate konnten die Forschenden zeigen, dass in Abhängigkeit vom Schweregrad der COVID-19 Erkrankung die Anzahl der Zellaggregate und deren Zusammensetzung sich graduell und frühzeitig vor dem Auftreten einer Komplikation verändern. Die Verklumpungen waren typischerweise aus weniger als zehn Thrombozyten zusammengesetzt. In Extremfällen wurde dabei beobachtet, dass bis zu zwei Drittel aller Thrombozyten von Patient:innen aggregiert vorlagen.

Besseres Management von Patient:innen
Die hohe Konzentration an Zellaggregaten konnte bei allen COVID-19 erkrankten Proband:innen mit Einlieferung auf die Intensivstation nachgewiesen werden. Diese einfache Diagnostik von Blutplättchen-Aggregaten hat das Potential, Risikopatient:innen frühzeitig zu identifizieren und damit die Versorgung zu verbessern.

Das interdisziplinäre Team aus Ingenieur:innen und Medizinier:innen will nun die gesammelten Erkenntnisse auf andere Erkrankungen übertragen. Die Forschenden nehmen an, dass die hier beschriebene Methode zum Beispiel auch bei Herz-Kreislauf- oder Krebserkrankungen funktionieren könnte.

Weitere Informationen:
Prof. Oliver Hayden entwickelt im Rahmen seiner Forschung neuartige Verfahren für in-vitro diagnostische und biomedizinische Fragestellungen. Seit 2017 ist er Inhaber des Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik.

Der Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik der TUM School für Computation, Information and Technology entwickelt neue Diagnostikmethoden am Zentralinstitut für Translationale Krebsforschung der Technischen Universität München (TranslaTUM).

Das Projekt CellFACE hat das Ziel, bildgebende Durchflusszytometrie mit Hilfe der Phase des Lichtes als markierungsfreie Plattformtechnologie für die Akutversorgung zu validieren. Hierfür findet ein interdisziplinärer Austausch zwischen Forschenden aus München und Singapur statt.

Wissenschaftliche Ansprechpartner:
Prof. Oliver Hayden
Technische Universität München
Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik
Email: oliver.hayden@tum.de
Tel: +49 (89) 4140 – 9031

Originalpublikation:
Klenk, C., Erber, J., Fresacher, D., Röhrl, S., Lengl, M., Heim, D., Irl, H., Schlegel, M., Haller, B., Lahmer, T., Diepold, K., Rasch, S. and Hayden, O. Platelet aggregates detected using quantitative phase imaging associate with COVID-19 severity. Commun Med 3, 161 (2023). https://doi.org/10.1038/s43856-023-00395-6.

Weitere Informationen:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/schwerer-.

(nach oben)


Hochaufgelöste Niederschlagskarten mittels KI

Starke Niederschläge können Naturkatastrophen wie Hochwasser oder Erdrutsche auslösen. Um die durch den Klimawandel zu erwartenden Änderungen der Häufigkeit dieser Extreme vorherzusagen, sind globale Klimamodelle notwendig. In einer Studie zeigen Forschende des Karlsruher Instituts für Technologie (KIT) erstmals eine Methode auf Basis Künstlicher Intelligenz (KI), mit der sich die Genauigkeit der von globalen Klimamodellen erzeugten groben Niederschlagsfelder erhöhen lässt. Ihnen gelang es, die räumliche Auflösung von Niederschlagsfeldern von 32 auf zwei Kilometer und die zeitliche von einer Stunde auf zehn Minuten zu verbessern. (DOI 10.1029/2023EA002906)

Viele Naturkatastrophen wie Überschwemmungen oder Erdrutsche sind direkte Folgen von extremen Niederschlägen. Forschende erwarten, dass mit steigenden Durchschnittstemperaturen extreme Niederschläge weiter zunehmen werden. Um sich an ein sich änderndes Klima anzupassen und frühzeitig auf Katastrophen vorbereiten zu können, sind genaue lokale und globale Informationen über den aktuellen sowie zukünftigen Wasserkreislauf unerlässlich. „Niederschläge sind sowohl räumlich als auch zeitlich sehr variabel und daher schwer vorherzusagen – insbesondere auf lokaler Ebene“, sagt Dr. Christian Chwala vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT in Garmisch-Partenkirchen. „Deshalb wollen wir die Auflösung von Niederschlagsfeldern, wie sie zum Beispiel von globalen Klimamodellen erzeugt werden, erhöhen und damit vor allem ihre Einordnung bezüglich möglicher Bedrohungen wie Flutkatastrophen verbessern.“

Feinere Auflösung für genauere regionale Klimamodelle
Bisherige globale Klimamodelle verwenden ein Raster, das nicht fein genug ist, um die Variabilität der Niederschläge genau darzustellen. Hochaufgelöste Niederschlagskarten können nur mit extrem rechenintensiven und daher räumlich oder zeitlich begrenzten Modellen erzeugt werden. „Wir haben deshalb ein Generatives Neuronales Netz – GAN genannt – aus dem Bereich der Künstlichen Intelligenz entwickelt und es mit hochauflösenden Radarniederschlagsfeldern trainiert. Das GAN lernt dabei, wie es realistische Niederschlagsfelder und deren zeitliche Abfolge aus grob aufgelösten Daten generiert“, erklärt Luca Glawion vom IMK-IFU. „So ist das Netz in der Lage, aus den sehr grob aufgelösten Karten realistische hochaufgelöste Radarniederschlagsfilme zu erstellen.“ Diese verfeinerten Radarkarten zeigen nicht nur, wie sich Regenzellen entwickeln und bewegen, sondern rekonstruieren auch präzise die lokalen Regenstatistiken mit entsprechender Extremwertverteilung.

„Unsere Methode dient als Grundlage, um grob gerasterte Niederschlagsfelder auf eine Auflösung zu bringen, die der hohen raum-zeitlichen Variabilität von Niederschlag gerecht wird und die Untersuchung regionaler Auswirkungen erst ermöglicht“, sagt Julius Polz vom IMK-IFU. „Unsere Deep-Learning-Methode ist dabei um mehrere Größenordnungen schneller als die Berechnung solch hochaufgelöster Niederschlagsfelder mit numerischen Wettermodellen, die üblicherweise genutzt werden, um Daten von globalen Klimamodellen regional zu verfeinern.“ Die Methode generiere außerdem ein Ensemble verschiedener möglicher Niederschlagsfelder. Dies sei entscheidend, da für jedes grob aufgelöste Niederschlagsfeld eine Vielzahl an physikalisch plausiblen hochaufgelösten Lösungen existiert. Ein Ensemble ermögliche, ähnlich wie bei der Wettervorhersage, die damit einhergehende Unsicherheit genauer zu erfassen.

Höhere Auflösung ermöglicht Zukunftsprognosen in einer sich klimatisch verändernden Welt
Die Ergebnisse zeigen, dass mithilfe des von den Forschenden entwickelten KI-Modells und der geschaffenen methodischen Grundlage in Zukunft neuronale Netze eingesetzt werden können, um die räumliche und zeitliche Auflösung des von Klimamodellen berechneten Niederschlags zu verbessern. Damit könnten die Auswirkungen und Entwicklungen des Niederschlags in einem sich ändernden Klima genauer dargestellt und untersucht werden.

„Im nächsten Schritt werden wir die Methode auf globale Klimasimulationen anwenden, die spezifische Großwetterlagen in eine zukünftige, klimatisch veränderte Welt übertragen – etwa in das Jahr 2100. Durch die höhere Auflösung der mit unserer Methode simulierten Niederschlagsereignisse lässt sich dann besser abschätzen, wie sich beispielsweise die Wetterlage, die 2021 das Hochwasser an der Ahr verursacht hat, in einer zwei Grad wärmeren Welt ausgewirkt hätte“, erklärt Glawion. Solche Informationen seien entscheidend, um Maßnahmen für eine nachhaltige Klimaanpassung entwickeln zu können.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Wissenschaftliche Ansprechpartner:
Sandra Wiebe
Pressereferentin
Tel.: +49 721 608-41172
sandra.wiebe@kit.edu

Originalpublikation:
Luca Glawion, Julius Polz, Harald Kunstmann, Benjamin Fersch, Christian Chwala: spateGAN: Spatio-Temporal Downscaling of Rainfall Fields Using a cGAN Approach. Earth and Space Science, 2023. DOI 10.1029/2023EA002906.
https://doi.org/10.1029/2023EA002906

Weitere Informationen:
https://www.klima-umwelt.kit.edu/
Luca Glawion, Julius Polz, Harald Kunstmann, Benjamin Fersch, Christian Chwala: spateGAN: Spatio-Temporal Downscaling of Rainfall Fields Using a cGAN Approach. Earth and Space Science, 2023. DOI 10.1029/2023EA002906.
https://doi.org/10.1029/2023EA002906

Weitere Informationen:
https://www.klima-umwelt.kit.edu/

(nach oben)


Mit rückenschonender Haltung Schmerzen beim Schneeschippen vermeiden

Susanne Herda, Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e.V. (DGOU) rät zu schonenden Bewegungen beim Schneeräumen zur Vermeidung von Rückenschmerzen. Denn Muskeln und Gelenke werden bei den ungewohnten Bewegungsabläufen stark belastet. Die Folge können Rückenschmerzen sein. Der erste Schneefall im Jahr lässt viele zur Schaufel greifen, um Gehwege und Zufahrten frei zu räumen. Einfache Tipps helfen, Schmerzen zu vermeiden.

„Wir raten dazu, die körperliche Belastung an den eigenen Trainingszustand anzupassen, indem man zum Beispiel das Tempo und das Gewicht der Schaufel anpasst. Mit richtiger Körperhaltung und Krafteinsatz können damit auch untrainierte Menschen dem Schnee erfolgreich zu Leibe rücken“, sagt Prof. Dr. Bernd Kladny, DGOU-Generalsekretär und Chefarzt der Abteilung Orthopädie und Unfallchirurgie der m&i-Fachklinik Herzogenaurach.

Beim Schneeräumen wird der Rücken einer starken Belastung ausgesetzt, viele Menschen unterschätzen das. Sie machen sich beherzt an die Arbeit, häufig morgens mit noch steifen Gliedern und in leichter Bekleidung. Meist ist die Zeit knapp und alles muss schnell gehen. Untrainierte Muskeln können dabei im Kaltstart leicht verletzt werden, falsche Drehungen, ruckartige Bewegungen oder das Heben zu schwerer Schneelasten können zu Zerrungen bis hin zu Blockierungen von Wirbeln oder gar zum Hexenschuss führen. Das Arbeiten in gebückter Haltung führt zudem zu einer besonderen Belastung des Rückens. „Ich empfehle, auch in der kalten Jahreszeit für ausreichend Bewegung zu sorgen und Sport zu treiben. Denn das stärkt die Muskeln und bereitet auf ungewohnte Belastung wie das Schneeschieben vor“, sagt PD Dr. Christopher Spering, Leiter der DGOU-Sektion Prävention und Oberarzt an der Klinik für Unfallchirurgie, Orthopädie und Plastische Chirurgie an der Universitätsmedizin Göttingen (UMG).

Orthopäden und Unfallchirurgen geben 5 Tipps für rückenschonendes Schneeschippen:

  • Passende Schaufel auswählen: Eine leichte Schippe mit ergonomischer Form entlastet Wirbelsäule und Gelenke.
  • Schieben statt heben: Den Rücken möglichst nur gering belasten. Das geht, indem man den Schnee nicht hebt sondern schiebt.
  • Oberkörper gerade halten: Muss eine vollbeladene Schaufel doch einmal angehoben werden, dann sollte man den Oberkörper gerade halten. Dabei leicht in die Knie gehen.
  • Genügend Zeit einplanen: Bewegungsabläufe ruhig und kraftschonend durchführen.
  • Nicht im T-Shirt arbeiten: Die Rückenmuskulatur sollte warm eingepackt werden und vollständig bedeckt sein.

Vorsicht bei bereits rückenbelasteten Patienten:

  • Nach frischen Wirbelsäulen-OPs sollten mindestens 3 Monate rückenbelastende Tätigkeiten vermieden werden, dazu gehört auch Schneeschippen.
  • Chronisch Kranke sollten mit ihrem Arzt darüber sprechen.
  • Ist man wegen einer Rückenerkrankung körperlich nicht zum Schneeschippen in der Lage, sollte man sich Unterstützung in der Nachbarschaft oder Familie holen.

Hintergrund:
Ca. 80 bis 85 Prozent aller Menschen leiden irgendwann in ihrem Leben an Rückenschmerzen. Tritt ein heftiger, intensiver Schmerz im Lendenwirbelbereich ein, so spricht man im Volksmund von einem Hexenschuss. Dahinter verbirgt sich eine akute Lumbalgie. Es handelt sich dabei um eine Muskelverspannung nach einer plötzlichen Bewegung oder falschen Belastung. Typisch sind starke Schmerzen beim Aufrichten aus einer gebeugten Haltung. Zudem kommt es zu Bewegungseinschränkungen im Rückenbereich. Begünstigt wird ein Hexenschuss durch eine schwache Rücken- und Bauchmuskulatur und einen bewegungsarmen Lebensstil.

Ein sogenannter Hexenschuss ist zwar sehr schmerzhaft, aber meist harmlos. Wichtig ist, trotz der Schmerzen nicht in eine Schonhaltung zu verfallen, sondern sich weiter moderat zu bewegen. Körperliche Anstrengungen sind jedoch zu vermeiden. In den ersten zwei bis drei Tagen kann die Einnahme eines rezeptfreien Schmerzmittels für Linderung sorgen. Wärme durch ein heißes Bad oder Rotlichtanwendung ist wohltuend und fördert den Heilungsprozess. In der Regel verschwinden die Schmerzen dann nach wenigen Tagen von selbst.

Klingen die Schmerzen nach einigen Tagen nicht wieder ab, empfiehlt es sich, einen Facharzt aufzusuchen. Denn dann kann auch eine ernsthafte Erkrankung, wie ein Bandscheibenvorfall, hinter einem Hexenschuss stecken. Besonders bei sehr starken Schmerzen und insbesondere Gefühlsstörungen oder Lähmungserscheinungen ist ein Besuch beim Orthopäden und Unfallchirurgen dringend angeraten.

Grundsätzlich ist ein Hexenschuss auch Warnsignal, mehr für die Stärkung des eigenen Rückens zu tun. Die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie rät daher zu ausreichend Bewegung auch in der kalten Jahreszeit. Skilanglauf, Winterspaziergänge oder Nordic Walking stärken den Rücken, wie auch Schwimmen oder Treppen steigen.

Weitere Informationen:
Ein Schaubild der DGOU zeigt, wie man den Körper korrekt beim Schneeräumen einsetzt. Das Schaubild „Schneeräumen ohne Rückenschmerzen“ steht zur kostenfreien Nutzung unter Angabe des Copyrights (© DGOU) zum Download bereit unter: www.dgou.de

Kontakt für Rückfragen:
Susanne Herda, Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -16
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

(nach oben)


Wasseraufbereitung in Zeiten des Klimawandels – mehr Physik beim Umweltschutz

Frischwasser gehört zu den wertvollsten Ressourcen auf unserer Erde. Nur etwa drei Prozent des weltweit verfügbaren Wassers ist Süßwasser. Immer extremer werdende Wetterverhältnisse wie Hitze und Dürren zeigen, dass es ein kostbares Gut ist. Gleichzeitig steigt der Bedarf für Frischwasser seitens der Wirtschaft und der Industrie. Denn für die Herstellung von Lebensmitteln wird enorm viel Wasser benötigt, das dann als Ab- bzw. Prozesswasser aufwändig – meist chemisch und kostspielig – gereinigt werden muss.

Forscherinnen und Forscher im Projekt PHYSICS & ECOLOGY unter der Leitung von Dr. Marcel Schneider vom Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) in Greifswald haben nun sehr gute Ergebnisse erzielt: Physikalische Methoden wie Plasma sind in Bezug auf die Dekontamination von Ab- bzw. Prozesswasser konkurrenzfähig zu etablierten Methoden wie Ozonung, UV-Behandlung oder Aktivkohle. Die Konkurrenzfähigkeit bezieht sich sowohl auf ihre Behandlungseffektivität gegenüber Keimen und Pestiziden, als auch auf ihre Kosteneffizienz. Dr. Marcel Schneider erklärt hierzu: „Die Ergebnisse bestärken uns in unserer Annahme, dass innovative physikalische Verfahren wie zum Beispiel Plasma zur Dekontamination von Wasser eine Alternative zu herkömmlichen Methoden sein können. Wir sind damit dem Ziel, Wasser von Agrarchemikalien zu reinigen, aufzubereiten und wieder zurückzuführen, einen großen Schritt nähergekommen.“

Im Rahmen des durch das Bundesministerium für Bildung und Forschung geförderten Bündnisses PHYSICS FOR FOOD, das die Hochschule Neubrandenburg mit dem INP und Wirtschaftspartnern in insgesamt sieben Leitprojekten auf den Weg gebracht hat, wird an physikalischen Alternativen in der Land- und Ernährungswirtschaft geforscht. Das Ziel: In der Landwirtschaft und bei agrartechnischen Produktionsprozessen soll weniger Chemie gebraucht bzw. die Umwelt dadurch weniger belastet werden. Es geht um mehr Physik beim Klima- und Umweltschutz.

Seit Dezember 2021 ist das Projekt aus dem Labor in die Quasi-Wirklichkeit verlegt worden. Der Projektpartner Harbauer GmbH aus Berlin hat einen Demonstrator konstruiert, in dem sich 1:1 die Prozesse nachbilden lassen, die nötig sind, um durch verschiedene physikalische Verfahren aus Abwasser wieder Frischwasser zu machen.

Im Demonstrator wird mit acht Technologien gearbeitet. Dabei sind Spaltrohr, Kiesfilter, Ultrafiltration, UV-Behandlung, Ozon und Aktivkohlefilter die bereits für eine Wasseraufbereitung etablierten Technologien, während es den Einsatz von Plasma und zusätzlich Ultraschall – als insgesamt zwei vielversprechende Verfahren – noch weiter zu optimieren gilt. Mit diesen Methoden sollen neue Wege beschritten werden. Es gibt aktuell im Übrigen kaum Anlagen in der Größenordnung des Demonstrators, bei denen diese innovativen Technologien mit den etablierten Verfahren verglichen aber auch kombiniert werden können, und die bei einem hohen Durchsatz die Behandlung unter realistischen Bedingungen ermöglichen.

Seit kurzem steht dieser Demonstrator in Stralsund. Die Braumanufaktur Störtebeker GmbH hat hierfür einen Teil ihres Brauereigeländes und ihr Prozesswasser zur Verfügung gestellt. Dort sollen insgesamt ein Kubikmeter Wasser pro Stunde – also so viel wie fünf gefüllte Badewannen – durch den Demonstrator laufen, der in einem 20 Fuß-Schiffscontainer untergebracht ist. Thomas Ott, Betriebsleiter der Störtebeker Braumanufaktur, erklärt hierzu: „Unsere Brauerei zeichnet sich durch innovative Brauspezialitäten mit den besten Rohstoffen aus. Wasser spielt im gesamten Produktionsprozess eine herausragende Rolle. Wir sind sehr daran interessiert, unseren Beitrag für Nachhaltigkeit und Umweltschutz zu leisten und Frischwasser einzusparen, indem es insbesondere durch eine physikalische Aufbereitung wiederverwendet werden kann.“

Die Braumanufaktur in Stralsund ist dabei der zweite Standort des Demonstrators. Die ersten vielversprechenden Ergebnisse konnten auf dem Gelände der rübenverarbeitenden Fabrik in Anklam, der Cosun Beet Company GmbH & Co. KG (CBC Anklam), erzielt werden. Im Demonstrator ist das Prozesswasser behandelt worden, das nach dem Waschen der Zuckerrüben angefallen war. Miriam Woller-Pfeifer, Betriebsingenieurin bei der CBC Anklam, resümiert nach dem Einsatz des Demonstrators: „Unser Ziel ist eine komplette Kreislaufwirtschaft bei der Verarbeitung von Zuckerrüben. Wir wollen sämtliche Bestandteile optimal und nachhaltig nutzen. Die Wasseraufbereitung ist dabei ein zentraler Punkt in unserer Nachhaltigkeitsstrategie. Die erzielten Ergebnisse stimmen uns dahingehend sehr optimistisch.“

Über PHYSICS FOR FOOD
Die Hochschule Neubrandenburg, das Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) und Wirtschaftsunternehmen starteten im Jahr 2018 das Projekt ‚PHYSICS FOR FOOD – EINE REGION DENKT UM!‘. Das Bündnis entwickelt seitdem gemeinsam mit zahlreichen weiteren Partnern neue physikalische Technologien für die Landwirtschaft und Lebensmittelverarbeitung. Dabei kommen Atmosphärendruck-Plasma, gepulste elektrische Felder und UV-Licht zum Einsatz.
Ziel ist es, Agrarrohstoffe zu optimieren und Schadstoffe in der Lebensmittelproduktion zu verringern, chemische Mittel im Saatgut-Schutz zu reduzieren und die Pflanzen gegenüber den Folgen des Klimawandels zu stärken. Es wird vom Bundesministerium für Bildung und Forschung im Rahmen der Initiative ‚WIR! – Wandel durch Innovation in der Region‘ gefördert (Förderkennzeichen 03WIR2810).

Weitere Informationen:
https://physicsforfood.org/

(nach oben)


Erhöht eine Allergie das Risiko für Long-COVID?

Wissenschaftler:innen der Universitätsmedizin Magdeburg untersuchen erstmals systematisch die Rolle von Allergien bei der Entwicklung von Long-COVID.

Welche Faktoren das Long-COVID-Risiko beeinflussen können, ist nach wie vor nicht vollständig geklärt. Wissenschaftler:innen am Institut für Sozialmedizin und Gesundheitssystemforschung der Otto-von-Guericke-Universität Magdeburg haben die Rolle von Allergien genauer untersucht und sind der Frage nachgegangen, ob allergische Erkrankungen das Risiko erhöhen können, Long-COVID nach einer SARS-CoV-2-Infektion zu entwickeln. Die Auswertung von 13 relevanten Studien mit insgesamt 9.967 Teilnehmenden, die zwischen dem 1. Januar 2020 und dem 19. Januar 2023 veröffentlicht wurden, zeigte, dass Menschen mit Asthma oder allergischer Rhinitis (Entzündung der Nasenschleimhaut) eine erhöhte Chance für Long-COVID haben könnten. Es handelt sich um die erste systematische Übersichtsarbeit, die Hinweise für eine Rolle allergischer Erkrankungen im Zusammenhang mit Long-COVID liefert. Die Ergebnisse wurden in dem Fachjournal Clinical & Experimental Allergy veröffentlicht.

Prof. Dr. Christian Apfelbacher (PhD), Institutsdirektor und korrespondierender Autor der Arbeit, betont: „Obwohl die Daten aus den Studien insgesamt darauf hindeuten, dass Personen mit Asthma oder Rhinitis nach einer SARS-CoV-2-Infektion ein erhöhtes Risiko für Long-COVID haben könnten, war die Beweislage für diesen Zusammenhang sehr unsicher.“ Daher sei eine solidere epidemiologische Forschung erforderlich, um die Rolle von Allergien bei der Entwicklung von Long-COVID zu klären. „Wir brauchen eine bessere, harmonisierte Definition dessen, was als Long-COVID für epidemiologische Studien dieser Art gilt. Unabhängig davon, werden wir unsere Analyse aktualisieren, sobald in den nächsten Monaten weitere Studien veröffentlicht werden“, erklärt der Epidemiologe.

In der Arbeit der Forschungsgruppe wurde wissenschaftliche Literatur systematisch nach prospektiven Kohortenstudien mit einer Nachbeobachtungszeit von mindestens 12 Monaten für Long-COVID durchsucht. Es wurden Personen mit einer bestätigten SARS-CoV-2-Infektion und Informationen über vorbestehende allergische Erkrankungen eingeschlossen.

Long-COVID ist ein Krankheitsbild, das weltweit eine große Anzahl von Menschen betrifft und durch eine Vielzahl an Symptomen gekennzeichnet ist. Die Ursachen von Long-COVID sind noch nicht genau geklärt. Derzeit geht man davon aus, dass hauptsächlich eine Störung des Immunsystems die Entwicklung beeinflusst. Häufige und teilweise über ein Jahr anhaltende Symptome von Long-COVID sind Atembeschwerden, Belastungsintoleranz und eine chronische Müdigkeit.

Die systematische Übersichtsarbeit ist als Teil des Projekts „egePan Unimed“ entstanden und wurde im Rahmen des Forschungsnetzwerks der Universitätsmedizin NUM vom Bundesministerium für Bildung und Forschung (BMBF) (Förderkennzeichen: 01KX2021) gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Apfelbacher (PhD), Direktor am Institut für Sozialmedizin und Gesundheitssystemforschung der Otto-von-Guericke-Universität Magdeburg, Telefon: +49-391-67-24316, christian.apfelbacher@med.ovgu.de

Originalpublikation:
Allergic diseases as risk factors for Long-COVID symptoms: Systematic review of prospective cohort studies, Clinical & Experimental Allergy 8.11.2023. https://doi.org/10.1111/cea.14391

(nach oben)


Neue Web-App: Maßgeschneiderte Wasserstands- und Abflussvorhersagen für Schifffahrt und Logistik an Rhein und Elbe

Gute Aussichten für Wasserstraßennutzer/-innen an Rhein und Elbe: Heute ging eine interaktive Web-App zur bestehenden 6-Wochen-Vorhersage vom Testbetrieb in den operationellen Dienst über. Die Anwendung versetzt die Nutzenden in die Lage, die Vorhersagen individuell zu analysieren und darstellen zu lassen.

Die Web-Anwendung ermöglicht es Binnenschifffahrt und Logistik an Rhein und Elbe, zukünftig noch effizienter auf Niedrigwassersituationen reagieren und Transporte einfacher planen zu können. Sie ist ein Zusatzangebot zur bereits seit einiger Zeit bestehenden 6-Wochen-Vorhersage in Form von PDF-Berichten und wird wie diese jeden Dienstag und Freitag aktualisiert.

Zur Web-Anwendung gelangen Sie hier: https://6wochenvorhersage.bafg.de
Neu ist, dass die Vorhersage nun direkt im Browser angezeigt werden kann – ohne vorherigen Download der PDF-Berichte. „Rückmeldungen der Nutzerinnen und Nutzer im Testbetrieb haben gezeigt, dass die interaktive Darstellung und der einfache Zugang sehr geschätzt werden“, sagt Barbara Frielingsdorf, die maßgeblich an der Entwicklung und dem Betrieb des Dienstes beteiligt ist.

Neue Funktionen ermöglichen individuelle Auswertungen der Wasser-stands- und Abflussvorhersage
In der Anwendung können Nutzende insbesondere einen individuell interessierenden Bezugswert des Wasserstandes oder Abflusses für den für sie relevanten Pegel angeben. Die App berechnet daraus anschließend die spezifischen Unterschreitungs-wahrscheinlichkeiten und stellt diese auch grafisch dar. „Schifffahrt und Logistik können mit den neuen Funktionen eine maßgeschneiderte Auswertung der Vorhersage für die eigenen Anforderungen generieren“, erklärt die Hydrologin den Nutzen.

Weitere Neuerungen der App im Überblick
– Rückschau: Die Vorhersagen der vergangenen vier Wochen sind verfügbar.
-Darstellung optimiert: Festgelegte Bezugswerte, wie der Gleichwertige Wasserstand (GlW) oder statistische Kennwerte, wie z. B. der mittlere Niedrigwasserabfluss (MNQ), können in der Darstellung ein- und ausgeblendet werden. Zu Vergleichszwecken lassen sich zudem die Ganglinien der Wasserstände bzw. Abflüsse der Niedrigwasserjahre 2018 und 2022 hinzufügen.
– Szenarien berechnen: In der Darstellung des Bündels individueller Ganglinien, die sich ausgehend vom derzeitigen Zustand infolge der meteorologischen Verhältnisse der Vergangenheit zu diesem Zeitpunkt im Jahr („auf Basis der Klimatologie“) einstellen würden, lassen sich einzelne Jahre hervorheben und identifizieren.

Web-App ergänzt bestehende Angebote an den Bundeswasserstraßen
Neben der 6-Wochen-Vorhersage ist seit Juli 2022 auch die sog. 14-Tage-Wasserstandsvorhersage für ausgewählte Rheinpegel verfügbar. Beide Vorhersagedienste schaffen mehr Planungssicherheit für die Wirtschaft und die Binnenschifffahrt an Rhein und Elbe und erfüllen damit den entsprechenden Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ des Bundesverkehrsministeriums.

Weitere Informationen:
https://6wochenvorhersage.bafg.de Link zur neuen Web-App

(nach oben)


Wie Schmutzwasser trinkbar wird

DBU-Projekt: umweltschonende Krisenhilfe – „Ohne Chlor“

Osnabrück. Bei Naturkatastrophen, Krieg oder Epidemien steht schnelle Hilfe für betroffene Menschen an oberster Stelle. Zentral ist die Bereitstellung von ausreichend sauberem Wasser, um Dehydrierungen, Durchfallerkrankungen und Cholera zu vermeiden. Das Startup Disaster Relief Systems (DRS) unter Professor Utz Dornberger an der Universität Leipzig entwickelt derzeit in einem von der Deutschen Bundesstiftung Umwelt (DBU) geförderten Projekt eine Anlage, die aus Schmutzwasser sauberes Trinkwasser herstellt. Sie funktioniert ohne Chemikalien, kann regenerativ angetrieben werden und ist recycelbar.

Trinkwasseraufbereitung: Chemikalien können Boden und Gewässer belasten
Zur Versorgung von in Not geratenen Menschen mit sauberem Wasser setzen Hilfsorganisationen in der Regel große mobile technische Anlagen zur Rohwasseraufbereitung ein. „Ökologisch und einsatztechnisch problematisch ist dabei oft das Verwenden von Chemikalien zum Beispiel zur Flockung von Schwebstoffen, Desinfektion des Wassers sowie Konservierung von Filtermembranen, bei deren unsachgemäßer Handhabung Gesundheitsgefährdungen und Schäden an der Umwelt entstehen können“, sagt Projektleiter John-Henning Peper. „Aus diesem Grund war eine der Hauptanforderungen, eine leistungsfähige Trinkwasseraufbereitungsanlage zu entwickeln, die auch ohne den Gebrauch von Chemikalien auskommt.“

Umweltschutz schon vor dem Krisenfall berücksichtigen
Nachhaltigkeit sowie Umwelt- und Naturschutz sind allerdings in Katastrophenfällen bislang eher zweitrangig, sodass diese Aspekte bei den großtechnischen Trinkwasseraufbereitungsanlagen der Hilfsorganisationen bisher keine oder eine nur geringe Rolle spielten. Um dieses Manko zu minimieren, hat Franz-Peter Heidenreich einen dringenden Rat. Der Leiter des DBU-Referats Wasser, Boden und Infrastruktur empfiehlt, „den Umweltschutz schon vor einem möglichen Krisenfall zu berücksichtigen“. Auch deshalb, so Heidenreich, weil es eben folgenden Zusammenhang gebe: „Der Klimawandel führt weltweit zu einer wachsenden Anzahl an Katastrophen, insbesondere zu Starkregenereignissen und Hochwassersituationen, auf die dann entsprechend reagiert werden muss.“ Bei der kompakten Trinkwasseraufbereitungsanlage haben die Tüftler Heidenreich zufolge auch den Umweltschutz-Aspekt schon eingebaut.

Ohne Chemie: Anlage kann bis zu 2.500 Liter Wasser pro Stunde aufbereiten
Einen der ersten serienreifen Prototypen der Anlage hat Peper mit seinem Team-Kollegen Sören Lohse nun in Osnabrück, dem Sitz der Deutschen Bundesstiftung Umwelt Referatsleiter Heidenreich vorgestellt. Zusammen platzierten sie das mit Tragegriffen versehene und 135 Kilogramm schwere Gerät namens „SAS-W2500“ auf dem DBU-Gelände. Die Abkürzung steht für „Standardized Aid System“, also: standardisiertes Hilfssystem. „Diese Anlage kann bis zu 2.500 Liter Wasser pro Stunde chemikalienfrei aufbereiten – ohne Chlor“, so Peper. Sie reinigt, indem das Schmutzwasser mit einem Druck von drei bis sieben bar durch Filter mit Mini-Poren im Nanometer-Bereich gepresst wird. Peper: „Druck und Filter halten nicht nur gefährliche Keime wie den Cholera-Erreger, sondern auch winzige bakterielle Giftstoffe und ein hohes Maß an Viren zurück.“ Bei einem Bedarf von drei Litern Trinkwasser pro Person könnten damit rein rechnerisch bis zu 830 Menschen pro Stunde und rund 20.000 Menschen täglich versorgt werden, so Peper.

Katastrophenschutz-Training: erfolgreicher Probe-Einsatz in Frankreich
Öffentlich wirksam präsentiert wurde die Anlage kürzlich in Villejust nahe Paris mit den Hilfsorganisationen @fire aus Deutschland, S.A.R.A.I.D. aus Großbritannien, SARDA aus Nord-Irland und einer kleinen ukrainischen Delegation bei einem viertägigen Katastrophenschutz-Trainingseinsatz, berichtet Peper. „Trotz des sehr stark verschmutzten Wassers haben wir mit einer Anlage ausreichend Wasser für alle fünfzig Einsatzkräfte bereitgestellt“, so Peper – komplett ohne externe Strom- und Wasserversorgung. Mit einem Feldlabor sind nach seinen Worten alle wichtigen chemischen und biologischen Parameter gemessen und die Reinheit sichergestellt worden.

Strom über erneuerbare Energien – Bauteile recyclingfähig
Die Entwickler denken ganzheitlich: „Die benötigte Energie liefert die Anlage mittels eines kleinen eingebauten Generators oder mittels Elektroantrieb, der wiederum mittels einer ausklappbaren Solar-matte gespeist werden kann“, sagt Lohse. Um auch die Einsatzfähigkeit der Solarmatte im Katastrophenfall zu gewährleisten wird derzeit am Standort Leipzig ein zweiter Prototyp mit einer ausklappbaren Photovoltaikanlage getestet. Zudem wird laut Lohse darauf geachtet, dass möglichst alle Bauteile recyclingfähig sind – eine technische Herausforderung.

Nächster Test: Abwurf aus Flugzeugen
Für die Erfinder steht neben Praktikabilität und schneller Hilfe auch der Umweltschutz im Vordergrund. Oft sind Katastrophengebiete nur schwer zugänglich. Deshalb sind für den Einsatz in Krisenregionen nicht nur Mobilität und Autonomie einer Anlage entscheidend. Wichtig ist auch, dass sie notfalls unbeschadet aus einem Flugzeug abgeworfen werden und dann ihre Dienste leisten kann. Entsprechende Tests wollen die Ingenieure als nächstes starten.

Weitere Informationen:
https://www.dbu.de/news/wie-schmutzwasser-trinkbar-wird/
http://Das Team Disaster Relief Systems (DRS) entwickelt in einem von der @umweltstiftung geförderten #DBUprojekt eine umweltfreundliche Trinkwasseraufbereitungsanlage für den Katastrophenfall. Mehr hier: https://www.dbu.de/news/

(nach oben)


Hochwasserereignisse bewältigen: RPTU schult gemeinsam mit Bundeswehr und THW Einsatzkräfte in neuem Planspiel-Format

Fit für den Ernstfall? Die Auswertung der Hochwasserkatastrophe in 2021 hat gezeigt, wie wichtig praktisches Training zur Bewältigung von Hochwasserereignissen ist. Vom 15. bis 18. November 2023 wird es in der Kurmainz-Kaserne in Mainz hierzu ein bis dato einmaliges Übungsformat für Einsatzkräfte geben: Bei einer Stabsrahmenübung simulieren Bundeswehr, Technisches Hilfswerk (THW) und das Fachgebiet Wasserbau und Wasserwirtschaft der RPTU eine komplexe Einsatzlage am Beispiel des katastrophalen Hochwassers in Neuwied. Das Planspiel ist Teil der Forschungsarbeit im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekt KAHR (Klima-Anpassung, Hochwasser, Resilienz).

Im operativen Hochwasserschutz ist es die Aufgabe professioneller Einsatzkräfte, darunter Feuerwehr, THW und Bundeswehr, die Bewältigung großer und katastrophaler Hochwasserereignisse durch konkrete Maßnahmen zu übernehmen. Infolge großflächiger Schadenslagen stehen sie dabei häufig vor komplexen Herausforderungen. Aufbauend auf dem hohen Ausbildungsstand und dem kontinuierlichen Training im Katastrophenschutz gilt es, spezifisches Fachwissen im Umgang mit seltenen oder außergewöhnlichen Hochwasserereignissen zu erwerben und weiterzuentwickeln – und für den Ernstfall zu trainieren. Genau hier setzt die Stabsrahmenübung an: „In den vier Übungstagen werden wir das innovative Planspiel-Format, welches alle Einsatzkräfte im operativen Hochwasserschutz zusammenbringt, mit wissenschaftlicher Begleitung erproben und evaluieren“, sagt Professor Dr. Robert Jüpner, Leiter des Fachgebiets Wasserbau und Wasserwirtschaft an der RPTU. Der Ingenieur war seit dem Hochwasserereignis an der Elbe 2002 regelmäßig selbst Mitglied in Katastrophenstäben. Seine Arbeitsgruppe befasst sich seit Jahren mit verschiedenen Aspekten des operativen Hochwasserschutzes.

Das Gesamtszenario trainieren
Die Teilnehmenden werden drei verschiedene Übungsszenarien bearbeiten, wobei die Komplexität durch das Einspielen zusätzlicher Problemlagen systematisch verschärft wird. Im Blick ist die gesamte Ablaufkette inklusive der notwendigen Interaktionen zwischen den verschiedenen Einsatzkräften: „Wir werden die Fachberater des THW im Katastrophenstab mit realitätsnahen Gefahrenlagen wie etwa dem plötzlichen Versagen einer mobilen Hochwasserschutzanlage konfrontieren“, erklärt Jüpner. „Sie sollen daraufhin fachliche Lösungsansätze erarbeiten, die der zuständige Stabsleiter bewertet und beschließt. Die ermittelten Anforderungen an Ressourcen werden nachfolgend an die Verbindungspersonen der Bundeswehr kommuniziert. Die Bundeswehrkräfte simulieren anschließend sowohl die konkreten Hilfeleistungen zur Umsetzung der Hochwasserbewältigungsmaßnahmen als auch die Funktionsfähigkeit der internen Strukturen. Im Zentrum des Übungsgeschehens steht jedoch die Optimierung der zivil-militärischen Zusammenarbeit. Dieser Ansatz einer gemeinsamen Stabsübung von Bundeswehr und THW und deren wissenschaftliche Begleitung und Evaluierung wurde bisher nicht praktiziert. Aus unserer Sicht das effektivste Training für den Ernstfall.“

Die Erkenntnisse aus der Evaluation werden Professor Jüpner und seine Arbeitsgruppe für ihre fortlaufende wissenschaftliche Arbeit nutzen – konkret für die Weiterentwicklung von Ausbildungsinhalten. Diese Bildungsmodule dienen sowohl dem THW als auch der Bundeswehr zum Trainieren ihrer jeweiligen Fähigkeiten. „Bei positiver Evaluation werden wir das Übungsformat auch auf andere Regionen und Hochwassersituationen sowie weitere Akteure der Katastrophenbewältigung wie etwa Feuerwehren und Deutsches Rotes Kreuz (DRK) übertragen“, so Jüpner.

KAHR spannt den Rahmen
Im Rahmen des Forschungsverbundvorhabens KAHR, das auf die wissenschaftliche Begleitung des Wiederaufbaus nach der Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen abzielt, hatten Jüpner und seine Arbeitsgruppe zunächst ein Aus- bzw. Weiterbildungsmodul für Einsatzkräfte im operativen Hochwasserschutz entwickelt. Ergänzend dazu rückte auch das praktische Erproben in der „hochwasserfreien Zeit“ im Rahmen eines simulierten Einsatzszenarios in den Fokus der Forschenden. Jüpner hierzu: „Durch unsere enge und langjährige Zusammenarbeit mit den Einsatzkräften wurde es möglich, neue Ideen für Übungsformate gemeinsam zu erörtern und gemeinsam in konkrete Angebote zu überführen. Der Besuch einer Bundeswehr-Übung zur zivil-militärischen Zusammenarbeit im April 2023 in Mainz hat dazu einen wesentlichen Impuls geliefert.“ Gemeinsam mit den Expertinnen und Experten des THW, die am THW-Ausbildungszentrum Hoya die „Technischen Berater Hochwasserschutz und Naturgefahren“ ausbilden, hat seine Arbeitsgruppe ein innovatives Format für eine gemeinsame Stabsrahmenübung zur Bewältigung von Hochwasserereignissen entwickelt.

Über KAHR
Das BMBF-geförderte Verbundprojekt KAHR soll mit neuesten wissenschaftlichen Erkenntnissen die Aufbaumaßnahmen in den von der Flutkatastrophe im Juli 2021 zerstörten Regionen in Nordrhein-Westfalen und Rheinland-Pfalz unterstützen. Bis Ende 2024 werden in dem Verbundprojekt mit insgesamt 13 Partnern aus Wissenschaft und Praxis Fragen zur Klimaanpassung, der risikobasierten Raumplanung und zum Hochwasserschutz erarbeitet. Ziel ist es, konkrete Maßnahmen für einen klimaresilienten und zukunftsorientierten Wieder- und Neuaufbau zu schaffen. Weiterführende Informationen unter: https://hochwasser-kahr.de/index.php/de/

Pressekontakt:
Prof. Dr. Robert Jüpner
RPTU Kaiserslautern-Landau, Fachgebiet Wasserbau und Wasserwirtschaft
Tel.: 0631/205-3805
E-Mail: robert.juepner@rptu.de

(nach oben)


Pneumokokken-Impfung: Aktualisierte STIKO-Empfehlung basiert auf Modellierung der Universitätsmedizin Halle

Der 2022 neu für Erwachsene zugelassene Pneumokokken-Impfstoff PCV20 ist den bisher empfohlenen Impfstoffen überlegen. Das zeigen Modellierungen der Universitätsmedizin Halle, die als Datengrundlage für die angepasste Empfehlung der Ständigen Impfkommission (STIKO) genutzt wurden. Der Gemeinsame Bundesausschuss hat nun beschlossen, die Änderungen in seine Schutzimpfungs-Richtlinie zu übernehmen.

Pneumokokken sind Bakterien, die Atemwegsinfektionen verursachen können und über Tröpfchen übertragen werden. Derzeit sind über 90 Varianten des Erregers bekannt, sogenannte Serotypen, die bei der Besiedelung des Nasen-Rachen-Raums untereinander konkurrieren. Wie sicher und wirksam ein Impfstoff gegenüber verschiedener Serotypen ist, wird im Rahmen von klinischen Studien ermittelt. Allerdings lassen sich diese Ergebnisse nur bedingt auf die gesamte Bevölkerung übertragen. Deshalb sind mathematische Modellierungen ein wichtiges Werkzeug in der Analyse neuer Impfstoffe, indem sie Schätzungen zu den Effekten auf der Bevölkerungsebene ermöglichen.

„Die Impfwirksamkeit alleine sagt noch nicht viel darüber aus, welche Krankheitslast sich damit in der Gesellschaft verhindern lässt, z.B. die Anzahl schwerer Infektionen, Sterbefälle oder entstehende Kosten. Dafür müsste man auch die Wirkdauer, Krankheitsinzidenzen und das Risiko für schwere Krankheitsverläufe sowie epidemiologische Trends berücksichtigen. Indirekte Impfeffekte wie die Herdenimmunität spielen dabei eine besondere Rolle und machen eine Analyse sehr komplex“, erklärt Juniorprofessor Dr. Alexander Kuhlmann, Gesundheitsökonom und Versorgungsforscher an der Universitätsmedizin Halle. Modellierungen seien deshalb ein wichtiges Instrument, um Informationen aus Studien und Datenbanken zusammenzuführen. Für die STIKO hat er die unterschiedlichen Impfstrategien zur Prävention von Pneumokokken-Infektionen bei älteren Erwachsenen untersucht.

Die Analyse berücksichtigte weitere Faktoren wie das Kontaktverhalten, die demografische Entwicklung und Eigenschaften der Erreger. Auch die Effizienz und Effektivität der Impfstrategie sowie die Wirtschaftlichkeit waren von Bedeutung. Der neu zugelassene Impfstoff PCV20 ist gegenüber den bisher empfohlenen Impfstoffen PPSV23 und PCV13 demnach effizienter. Im Vergleich zu PPSV23 müssten deutlich weniger Personen eine Impfung mit PCV20 erhalten, um eine Hospitalisierung oder einen Todesfall durch eine Pneumokokken-Erkrankung zu verhindern. Die Arbeit wurde durch das Robert Koch-Institut gefördert.

Wissenschaftliche Ansprechpartner:
Universitätsmedizin Halle
Arbeitsgruppe Gesundheitsökonomie/Versorgungsforschung
Jun.-Prof. Dr. Alexander Kuhlmann
alexander.kuhlmann@uk-halle.de

Originalpublikation:
https://www.rki.de/DE/Content/Infekt/Impfen/Forschungsprojekte/abgeschlossene_Pr… Modellierungsergebnisse

Weitere Informationen:
https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2023/Ausgaben/39_23.pdf?__b… Epidemiologischen Bulletin der STIKO zur angepassten Empfehlung der Pneumokokken-Impfung inkl. wissenschaftlicher Begründung
https://www.g-ba.de/presse/pressemitteilungen-meldungen/1145/ Meldung des Gemeinsamen Bundesausschuss mit Informationen zu den anspruchsberechtigten Personen der Pneumokokken-Impfung

(nach oben)


BLUE PLANET Berlin Water Dialogues 2023: Den Kreislauf schließen – Kreislaufwirtschaft im Wasser weltweit vorantreiben

Die BLUE PLANET Berlin Water Dialogues, eine internationale renommierte Konferenz im Wassersektor, verzeichneten am 8. November 2023 eine Rekordbeteiligung. Mit einer beeindruckenden Zahl von über 800 Anmeldungen aus mehr als 70 Ländern widmete sich die Veranstaltung dem Thema „Closing the Loop – Circular Water Economy“ und demonstrierte damit das konsequente Engagement für Nachhaltigkeit in der globalen Wasserlandschaft.

Nachhaltigkeit als Motor: Visionen und Realität
Die BLUE PLANET Berlin Water Dialogues, eine internationale renommierte Konferenz im Wassersektor, verzeichneten am 8. November 2023 eine Rekordbeteiligung. Mit einer beeindruckenden Zahl von über 800 Anmeldungen aus mehr als 70 Ländern widmete sich die Veranstaltung dem Thema „Closing the Loop – Circular Water Economy“ und demonstrierte damit das konsequente Engagement für Nachhaltigkeit in der globalen Wasserlandschaft. Seit ihrer Gründung im Jahr 2011 ist BLUE PLANET eine bekannte Veranstaltungsreihe, die den dynamischen Austausch von Wissen, Ideen und Erfahrungen fördert, um die globale Wassersituation zu verbessern. Die Konferenz, die als Reaktion auf die Covid-19-Pandemie in den Jahren 2020/2021 auf digitale Formate umgestellt wurde, hat sich zu einer wichtigen digitalen Austauschplattform für Fachleute der Wasserwirtschaft entwickelt und ihre globale Reichweite erweitert. Gefördert durch die Exportinitiative Umweltschutz – GreenTech „Made in Germany“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe (SenWEB) entwickeln sich die BLUE PLANET Berlin Water Dialogues weiter zu einem globalen Knotenpunkt für die Präsentation von Innovationen im Wassersektor.

Die Konferenz wurde mit Grußworten von Boris Greifeneder, Geschäftsführer von German Water Partnership (GWP) und Prof. Dr. Martin Jekel, Geschäftsführer des Kompetenzzentrums Wasser Berlin (KWB), eröffnet. Dr. Severin Fischer, Staatssekretär in der Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe, betonte die zentrale Rolle Berlins bei der Bewältigung der globalen Wasserprobleme und sprach sich für die Beseitigung von Ungleichheiten auf globaler Ebene aus.

Mit inspirierenden Keynotes, Projektpräsentationen, einer dynamischen Podiumsdiskussion und thematischen Break-Out-Sessions befasste sich die Veranstaltung mit wichtigen Themen wie dem Erreichen der Ziele für nachhaltige Entwicklung der Vereinten Nationen (SDGs), Prinzipien der Kreislaufwirtschaft, Wasserstress, Technologiepartnerschaften, Nährstoffrückgewinnung und Wärmerückgewinnung aus Abwasser.

Highlights:
Anna Delgado (World Bank) stellte das Dokument „Water in Circular Economy and Resilience“ (WICER) vor, das die Diversifizierung von Wasserquellen, die Rückgewinnung von Ressourcen und die Optimierung der Ressourcennutzung thematisiert.

Dr. Anne Kleyböcker (KWB) sprach das kritische Thema der Wasserknappheit an und stellte den Water Europe Marketplace als Lösung vor.

Dr. Christian Kabbe (EasyMining Deutschland) erörterte sektorübergreifende Partnerschaften für die Umsetzung einer groß angelegten Wasserkreislaufwirtschaft.

Timo Paul (Vattenfall Wärme Berlin) und Heinrich Gürtler (Berliner Wasserbetriebe) stellten das Potenzial der Wärmerückgewinnung aus Abwasser durch das Projekt InfraLab Berlin vor.

Samuela Guida (International Water Association IWA) stellte die IWA und deren aktuellen Aktivitäten vor.

Die Podiumsdiskussion, moderiert von Dr. Christian Remy (KWB), beleuchtete das Zusammenspiel von Wirtschaftlichkeit und Nachhaltigkeit und betonte die Notwendigkeit klarer Definitionen und Standards, wobei die Rolle des Gesetzgebers als treibender Faktor im Vordergrund stand.

Zusammenfassend unterstrichen die BLUE PLANET Berlin Water Dialogues 2023 die zentrale Rolle der Kreislaufwirtschaft bei der Bewältigung globaler Herausforderungen, wobei der Schwerpunkt auf der dringenden Notwendigkeit eines nachhaltigen Wassermanagements lag. Die vielfältigen Vorträge und Diskussionen der Veranstaltung boten eine umfassende Perspektive auf aktuelle Entwicklungen und zukünftige Herausforderungen in diesem wichtigen Sektor.

Alle Sessions der Veranstaltung sind als Video-on-Demand auf der BLUE PLANET Webseite abrufbar.

Die digitale Veranstaltung wurde auf Englisch und für Teilnehmende kostenfrei angeboten. Weitere Informati-onen zu den BLUE PLANET Berlin Water Dialogues erhalten Sie unter www.blueplanetberlin.de

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen Politik, Wasserwirtschaft, Wissenschaftler:innen und Nicht-Regierungsorganisationen entwickelt und etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche und internationale Kompetenzen und Lösungsansätze vorgestellt und beworben. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern. Damit sollen praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und Künstliche Intelligenz, in der Wasserwirtschaft oder dem Umweltschutz, durch ressourceneffiziente Technologien vorangetrieben werden. BLUE PLANET Berlin Water Dialogues 2023 wird vom KWB Kompetenzzentrum Wasser Berlin gGmbH und German Water Partnership e.V. zusammen mit den Berliner Beratungsunternehmen T-Base Consulting GmbH and eclareon GmbH organisiert.
Anhang
Pressemitteilung_BLUE-PLANET_01-12-23

(nach oben)


Berufsbegleitend studieren: Infoveranstaltungen und Schnuppervorlesungen

5. Dezember 2023: Online-Infoveranstaltung zu allen berufsbegleitenden Studiengängen der Hochschule Heilbronn.
06. und 21. Dezember 2023: Präsenz-Schnuppervorlesungen im berufsbegleitenden Bachelorstudiengang Maschinenbau
09. Januar 2024: Online-Infoveranstaltung zu den berufsbegleitenden MBA Studiengängen Unternehmensführung und International Automotive Management

Berufsbegleitend Studieren – was kommt da auf einen zu? Im Dezember 2023 und Januar 2024 organisiert das Heilbronner Institut für Lebenslanges Lernen (HILL) zusammen mit der Hochschule Heilbronn (HHN) wieder einige Infoveranstaltungen, die genau das beantworten. Studieninteressierte erfahren dabei alles über die berufsbegleitenden Bachelor-, Master- und MBA-Studiengänge der HHN. Bei Schnuppervorlesungen am Campus Sontheim können Interessierte zudem in den berufsbegleitenden Bachelorstudiengang Maschinenbau eintauchen.

Hier die jeweiligen Termine im Überblick:

Info-Event zum gesamten berufsbegleitenden Studienangebot, online
Am Dienstag, 05. Dezember 2023, können sich Studieninteressierte bei der Infoveranstaltung um 18.30 Uhr „KarriereBoost ONLINE“ über die berufsbegleitenden Bachelor-, Master- und MBA-Studiengänge an der Hochschule informieren und ihre Fragen loswerden. Die Veranstaltung findet online statt. Weitere Informationen und Anmeldung unter http://www.hs-heilbronn.de/karriereboost.

Schnuppervorlesungen: Maschinenbau, Campus Sontheim
Wie läuft der berufsbegleitende Bachelorstudiengang Maschinenbau ab? Und wie lässt sich das Vorlesungsmodell mit dem Beruf vereinbaren? Bei den Schnuppervorlesungen können Studieninteressierte hautnah einen ersten Eindruck gewinnen. Am 06. und 21. Dezember finden diese je ab 17.45 Uhr am Campus Sontheim der HHN statt. Die Themen BWL oder Chemie sind frei wählbar. Weitere Informationen unter http://www.hs-heilbronn.de/weiterbildung-infoveranstaltungen.

Info-Event über MBA Studiengänge, online
Am Dienstag, 09. Januar 2024, 18.30 Uhr, informieren die beiden Professoren und Studiengangleiter Roland Alter und Ansgar Meroth über die berufsbegleitenden MBA Studiengänge Unternehmensführung und International Automotive Management. Weitere Informationen und Anmeldung unter https://www.hs-heilbronn.de/de/karriereboost-yia-yuf.


Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit ca. 8.000 Studierenden ist die Hochschule Heilbronn (HHN) eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt in den Bereichen Technik, Wirtschaft und Informatik. An ihren vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die HHN mehr als 60 zukunftsorientierte Bachelor- und Masterstudiengänge an, darunter auch berufsbegleitende Angebote. Die HHN bietet daneben noch weitere Studienmodelle an und pflegt enge Kooperationen mit Unternehmen aus der Region. Sie ist dadurch in Lehre, Forschung und Praxis sehr gut vernetzt. Das hauseigene Gründungszentrum unterstützt Studierende sowie Forschende zudem beim Lebensziel Unternehmertum.
Pressekontakt Hochschule Heilbronn: Vanessa Offermann, Pressesprecherin,
Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/kommunikation

Heilbronner Institut für Lebenslanges Lernen (HILL) – Berufsbegleitend studieren
Das Heilbronner Institut für Lebenslanges Lernen (HILL) gemeinnützige GmbH ist die zentrale Weiterbildungseinrichtung der Hochschule Heilbronn. HILL bündelt als Service- und Dienstleistungsunternehmen alle Qualifizierungs- und Weiterbildungsmaßnahmen der Hochschule im Bereich Technik, Wirtschaft und Informatik, organisiert Tagungen und unterstützt Fachseminare. Der Schwerpunkt des Portfolios liegt in berufsbegleitenden Studienangeboten auf Bachelor- und Masterniveau, die stark praxisorientiert und optimal auf die Bedürfnisse der berufstätigen Studierenden angepasst sind.
Pressekontakt HILL: Nina Kleiber, Marketing berufsbegleitende Studiengänge, Telefon: 07131-504-1232, E-Mail: nina.kleiber@hill-heilbronn.de, Internet: http://www.hs-heilbronn.de/hill

(nach oben)


Eine Impfung gegen kranke Äcker

Ackerböden beherbergen oft viele Krankheitserreger, die Pflanzen befallen und Erträge mindern. Ein Schweizer Forschungsteam hat nun gezeigt, dass eine Impfung des Bodens mit Mykorrhiza-Pilzen helfen kann, den Ertrag ohne zusätzliche Düngung und Pflanzen-schutzmittel zu halten oder gar zu verbessern. In einem gross angelegten Freilandversuch konnte die Ernte um bis zu 40 Prozent gesteigert werden.

Intensiver Einsatz von Dünger und Pflanzenschutzmitteln auf unseren Äckern verringert die Bio-diversität und belastet die Umwelt. Daher besteht ein grosses Interesse an nachhaltigen Möglich-keiten zur Ertragssicherung ohne Einsatz von Agrarchemikalien. Ein Beispiel von alternativen Biologicals sind Mykorrhiza-Pilze, welche als Nützlinge die Pflanzen bei der Nährstoffaufnahme unterstützen.

Eine Ertragsverbesserung um bis zu 40 Prozent
Ein Team von Forschenden der Universitäten Zürich und Basel, von Agroscope sowie dem For-schungsinstitut für biologischen Landbau FiBL hat nun erstmals grossflächig gezeigt, dass das Ausbringen von Mykorrhiza-Pilzen im Feld tatsächlich funktioniert. Auf 800 Versuchsflächen, be-ziehungsweise 54 Maisfeldern in der Nord- und Ostschweiz wurden die Pilze vor der Aussaat in den Boden eingearbeitet. «Die Mykorrhiza-Pilze ermöglichten auf einem Viertel der Äcker einen bis zu 40 Prozent besseren Ertrag. Das ist enorm», sagt der Co-Studienleiter Marcel van der Hei-jden, Bodenökologe an der Universität Zürich und Agroscope. Die Sache hat allerdings einen Haken: Auf einem Drittel der Äcker gab es keine Ertragssteigerung oder sogar einen Ertragsrück-gang. Das konnte sich das Team zunächst nicht erklären.

Krankheitserreger im Boden
Auf der Suche nach der Ursache analysierten die Forschenden eine Vielzahl chemischer, physi-kalischer und biologischer Bodeneigenschaften, darunter auch die Artenvielfalt der Bodenmikro-ben. «Wir haben herausgefunden, dass die Impfung vor allem dann gut funktioniert, wenn viele pilzliche Krankheitserreger im Boden vorhanden sind», sagt Co-Erstautorin Stefanie Lutz von Agroscope, dem Kompetenzzentrum des Bundes für Forschung in der Land- und Ernährungs-wirtschaft. «Die Mykorrhiza-Pilze wirken wie eine Art Schutzschild bei Krankheitserregern im Bo-den, welche die Pflanzen schwächen würden.» In der Folge bleibt der normal hohe Ertrag erhal-ten, während ohne Mykorrhiza-Pilze Ernteverlusten anfallen würden. Auf Äckern, die nicht mit Krankheitskeimen belastet sind, haben Mykorrhiza-Pilze dagegen nur einen geringen Effekt. «Dort sind die Pflanzen ohnehin schon stark und wachsen hervorragend. Das Ausbringen von Mykorrhiza bringt hier keinen zusätzlichen Nutzen», sagt Natacha Bodenhausen vom For-schungsinstitut für biologischen Landbau, ebenfalls Erstautorin.

Impferfolg ist vorhersagbar
Ziel der von der «Gebert Rüf Stiftung» finanzierten Studie war es, vorhersagen zu können, unter welchen Bedingungen eine Mykorrhiza-Impfungen funktioniert. «Mit wenigen Bodenindikatoren – hauptsächlich Bodenpilzen – konnten wir den Erfolg einer Impfung in 9 von 10 Feldern prognos-tizieren – und damit auch bereits vor der Feldsaison den Ernteertrag», sagt der Co-Studienleiter Klaus Schläppi von der Universität Basel. «Diese Vorhersagbarkeit erlaubt es, die Pilze dann gezielt in Äckern einzusetzen, wo diese auch funktionieren. Das wird entscheidend sein, damit sich diese Technologie zu einer zuverlässigen landwirtschaftlichen Methode entwickeln kann», so Schläppi.

Noch sind weitere Forschungen dazu nötig, wie sich die Pilze am einfachsten grossflächig aus-bringen lassen. «Die Ergebnisse dieses Feldversuches sind aber schon jetzt ein grosser Schritt in Richtung einer nachhaltigeren Landwirtschaft», erklärt Marcel van der Heijden.

Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Marcel van der Heijden
Institut für Pflanzen- und Mikrobenbiologie
Universität Zürich
E-Mail: marcel.vanderheijden@botinst.uzh.ch
Tel.: +41 44 63 48286

Prof. Dr. Klaus Schläppi
Universität Basel
E: klaus.schlaeppi@unibas.ch
T: +41 61 207 2310

Originalpublikation:
Literatur:
Stefanie Lutz et al. Soil microbiome indicators can predict crop growth response to large-scale inoculation with arbuscular mycorrhizal fungi. Nature Microbiology, 29. November 2023. DOI: 10.1038/s41564-023-01520-w
Weitere Informationen:
https://www.news.uzh.ch/de/articles/media/2023/Aecker.html

(nach oben)


Ein neues Zeitalter in der Medizin

MHH-Forschende schreiben Lancet-Übersicht zu den Erfolgen der Präzisionsgentherapie
„Für die Medizin hat eine neue Ära begonnen.“ Darüber sind sich Professorin Dr. Hildegard Büning und Professor Dr. Axel Schambach einig. Die Gentherapie-Experten aus dem Institut für Experimentelle Hämatologie der Medizinischen Hochschule Hannover (MHH) haben gemeinsam mit fünf weiteren Experten in einem jetzt erschienenen Übersichtsartikel für die Ärzteschaft in der renommierten Fachzeitschrift „The Lancet“ den aktuellen Stand der Gentherapie zusammengefasst. „Wir können heute extrem präzise, mikrochirurgische Eingriffe am Genom durchführen“, erläutert Professor Schambach. Möglich macht das die Methode des Genome-Editing, auch Genom-Chirurgie genannt.

Mikrochirurgie des Genoms
Bei der klassischen Gentherapie wird versucht, die Funktion eines defekten Gens zu ersetzen, indem zum Beispiel eine korrekte Version des Gens zusätzlich in die Zelle eingebracht wird. „Beim Genome-Editing hingegen können wir mit einer Art Skalpell direkt einzelne defekte Sequenzen aufspüren, herausschneiden und durch intakte ersetzen“, betont Professorin Büning. „Das kommt einer Mikrochirurgie des Genoms gleich und ermöglicht sprichwörtlich eine Genreparatur“, ergänzt Professor Schambach. „Dieselbe Technik kann auch verwendet werden, um Zelltherapeutika wie sie etwa im Bereich der Onkologie verwendet werden, in ihrer Aktivität zu verbessern, oder gezielt Gene auszuschalten, um uns vor dem Angriff bestimmter Viren zu schützen oder Transplantate für das Immunsystem des Empfängers unsichtbar zu machen“, sagt Professorin Büning. „Wir stehen tatsächlich an der Schwelle eines neuen Zeitalters: Dank der nun möglichen zielgerichteten Korrektur innerhalb des Genoms wird uns ein erweitertes Arsenal von Therapeutika zur Verfügung stehen.“

Erste Gentherapie auf Basis von CRISPR-Methode zugelassen
Ein Werkzeug, das den Fortschritt drastisch beschleunigt hat, ist die Genschere CRISPR, für die die frühere MHH-Professorin Emmanuelle Charpentier 2020 mit dem Medizin-Nobelpreis geehrt worden war. „Am 16. November, also vor nicht einmal zwei Wochen, ist in Großbritannien weltweit die erste Gentherapie zugelassen worden, die auf dieser Gentechnik beruht“, berichtet Professorin Büning. Menschen, die an den Bluterkrankungen Sichelzellenanämie und Beta-Thalassämie leiden, können damit therapiert werden. Diesen Meilenstein konnten die Autoren in allerletzter Minute noch in ihrem Übersichtartikel aufnehmen.

Für die beiden MHH-Professoren zeigt dieses Beispiel, wozu das „Feintuning in den Genen“ schon heute taugt. „Und es wird noch mehr können: Eine Idee ist, auch bei Volkskrankheiten wie etwa einem zu hohen Cholesterinspiegel mit Hilfe von genetischen Scheren oder Radiergummis‘ im Genom mögliche Fehlfunktionen aufzudecken und zu korrigieren“, meint Professor Schambach.

Zahl neu zugelassener Gentherapien wird drastisch steigen
Die Autoren haben für ihren Artikel 225 wissenschaftliche Publikationen ausgewertet. „Die Gentherapeutika erreichen zunehmend die Patientinnen und Patienten, wie die vielen klinischen Studien, die wir ausgewertet haben, zeigen“, erläutert Professorin Büning. Das sei aber erst der Anfang: Ab dem Jahr 2025 rechnet man in den USA mit 15 bis 20 neu zugelassenen Gentherapien – pro Jahr. Den Autoren ist ganz besonders wichtig, dass die zugelassenen Gentherapien dann auch für die Patientinnen und Patienten zugänglich sind. „Das ist leider bisher nicht sichergestellt“, betont Professor Schambach.

Erfolge beruhen auf interdisziplinären Teams
In ihrem Artikel betonen die Forschenden, dass eine Gentherapie ein extrem komplexes Arzneimittel ist. „Der Erfolg von Gentherapien beruht auf interdisziplinärer Zusammenarbeit von Ärztinnen, Ärzten, Forschenden, Ethikerinnen, Ethikern, regulatorischen Behörden und Patientenorganisationen“, ist sich Professor Schambach sicher. Dabei sei es auch immer wieder notwendig, eine kritische Bewertung des Benefits und Risikos für die Betroffenen durchzuführen und auch an Monitoring-Strategien zu arbeiten, um zu besseren Vorhersagen bzgl. möglicher Nebenwirkungen zu kommen.

Mit einem Ausblick beschließen die MHH-Autoren ihren Artikel. „Die in der Gentherapie angewendeten Methoden haben enorme Einflüsse auf die Medizin von morgen“, sind sich die beiden sicher, „denn mit derselben Strategie, wie wir Gendefekte suchen, können wir auch neue Diagnostika entwickeln.“

Wissenschaftliche Ansprechpartner:
Professorin Dr. Hildegard Büning, buening.hildegard@mh-hannover.de, Telefon (0511) 532-5106,
Professor Dr. Axel Schambach, schambach.axel@mh-hannover.de, Telefon (0511) 532-6067

Originalpublikation:
https://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(23)01952-9.pdf

(nach oben)


Post-Covid in Auswirkung auf Schlaf und Träume

Viele Dinge, die unser Leben beeinflussen, beeinflussen auch unseren Schlaf. So war es auch mit Corona. Schon im ersten Pandemie-Jahr stellten Schlafforscher auf der damals digitalen Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) erste Untersuchungen zum Einfluss von Covid-19 auf Schlaf und Träume vor. Dieses Jahr treffen sich die Experten in Berlin und auch dort werden die Nachwirkungen des Virus im Programm behandelt. Wir stellen Ihnen drei der Themen vor:

Eingesperrt in einer Kiste: Träume im Lockdown
Traumforscher wollen generell ergründen, wie sich das Wachleben auf die Traumwelt auswirkt. Und die Corona-Pandemie war ein Faktor, der sich sehr deutlich in den Träumen weltweit widerspiegelte. Dies zeigten internationale Studien, an denen der Mannheimer Traumforscher Prof. Michael Schredl beteiligt war, und über deren Ergebnisse er im Dezember auf dem Kongress der DGSM berichten wird. Einheitlich erwies es sich, dass diejenigen, die besonders stark unter den Coronamaßnahmen gelitten haben oder diejenigen, die sehr große Angst vorm Erkranken hatten, auch vermehrt Alpträume hatten. 10 und 15% der Befragten, gaben an, dass mit Beginn der Pandemie die Alpträume zugenommen haben. Die Inhalte der Träume gehen dabei von Sorgen, dass geliebte Menschen schwer erkranken oder dass trotz offenkundiger Gefahr keiner mehr Maske trägt, bis zum Szenario des Eingesperrtseins in einer Kiste als Sinnbild, dass man der Situation nicht entkommen kann. „Es ist typisch für mit Stress assoziierte Träume, dass diese nicht die eigentliche Situation wiedergeben, die den Stress auslöst. Hier wird dann oft metaphorisch geträumt“, erklärt Michael Schredl.
Eine spannende Erkenntnis seiner vielfältigen Alptraumforschungsprojekte ist, dass ein Großteil der Erwachsenen, die über viele Jahre schon Alpträume haben, diese nicht behandeln lassen, obwohl sie als belastend empfunden werden. Gründe hierfür könnten sein, dass man sich dafür schämt oder eine Auseinandersetzung damit vermeiden will. Woran es genau liegt, und wie man diese Menschen erreicht, damit beschäftigt sich aktuell die AG Traum der DGSM. An dieser Stelle gern der Hinweis, dass sich Betroffene jederzeit dorthin wenden können, wenn Sie Hilfe suchen! Auf der Homepage der DGSM (www.dgsm.de) finden sich Informationsmaterial, eine Liste mit Anlaufstellen in Deutschland und Fragebögen zum Thema. Prof. Schredl kann jedem nur raten, Alpträume auch als Chance zu verstehen: „Obwohl sie zunächst belastend sind, können Alpträume den Ausgangspunkt für die konstruktive Bewältigung von Ängsten bieten.“ Und die Therapie (Üben in der Vorstellung, die Alptraumsituation zu bewältigen) sei nicht nur kurz, sondern wirke schnell und gut.

Wirksame Behandlungen bei Post-COVID-Patienten sind da: die richtige Diagnose ist entscheidend
Auf Schlafveränderungen bei Post-COVID-Patienten bezieht sich der Vortrag zu „Schlafphänotypen und Biomarker bei Post-COVID-Syndrom“ von Neurologin und Psychiaterin Dr. Claudia Schilling. Die Leiterin des Schlaflabors am Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim untersuchte Patienten, die viele Monate nach einer SARS-CoV-2-Infektion noch an neuropsychiatrischen Beschwerden wie Fatigue, kognitiven Störungen, Schlafstörungen oder Kopfschmerzen leiden, im Schlaflabor. „Ein sehr großer Anteil der Post-COVID-Betroffenen zeigt Veränderungen des Schlaf-Wach-Verhaltens“, sagt Claudia Schilling, „Dabei fällt auf, dass es ein breites Spektrum an Schlafstörungen gibt, viel Insomnie, aber auch häufige schlafbezogene Atmungsstörungen, und dies auch bei Menschen, die nicht dem typischen Risikoprofil entsprechen. Außerdem sehen wir vermehrt Hypersomnien, also Betroffene, die trotz gesunden Nachtschlafs an messbar erhöhter Tagesschläfrigkeit leiden. Wichtig ist es daher, die Schlafstörungen gezielt zu diagnostizieren, denn es stehen wirksame Behandlungen zur Verfügung, nur ist die Behandlung je nach Diagnose eine andere“. Mit Biomarker-Untersuchungen will die Arbeitsgruppe von Claudia Schilling nun möglichen Ursachen und Einflussfaktoren der Schlafveränderungen auf den Grund gehen.

Starke Erschöpfung bei Post-Covid-Patienten erschwert schlafmedizinische Einschätzung
Zu Beginn der Pandemie war nicht klar, was für Langzeitfolgen sich daraus entwickeln würden. Betroffene von Long-Covid berichteten auch hier recht früh über Schlafstörungen und Tagesschläfrigkeit. Sehr schnell wurde dann klar, dass die Vielzahl der Post-Covid-Betroffenen in der Praxis nur mit Mühe versorgt werden kann. „Etwa zwei Drittel unserer Post-COVID-Patienten leiden unter chronischer Erschöpfung, medizinisch als Fatigue bezeichnet. Um darunter genau diejenigen Patienten zuverlässig filtern zu können, die aufgrund ihrer Tagesschläfrigkeit zur weiteren Diagnostik unbedingt ins Schlaflabor müssen, nutzten wir einen Fragebogen“, erklärt Solveig Menrad, wissenschaftliche Mitarbeiterin des Interdisziplinären Zentrums für Schlaf- und Beatmungsmedizin am Universitätsklinikum Jena. Dieses Vorgehen sollte die Diagnostik von Schlaferkrankungen, wie der Narkolepsie, verbessern, die nach einer SARS-CoV-2- Erkrankung auftreten könnten. Jedoch wurde die eigene Tagesschläfrigkeit im Fragebogen von ca. 50% der Teilnehmer als so hoch eingeschätzt, dass diese für eine Schlaflabordiagnostik in Frage gekommen wären. „Dazu hätten wir keine Kapazitäten gehabt, und so haben wir zum Gegenchecken den Pupillographischen Schläfrigkeitstest hinzugezogen, der eine objektive Erfassung erhöhter Tagesschläfrigkeit ermöglicht. Danach blieben nur noch etwa 2% der Patienten, die objektiv gesehen einer Testung im Schlaflabor bedurften“, so Solveig Menrad. Der hohe Leidensdruck der Patienten, die stark unter ihrer Erschöpfung leiden und viele Ruhephasen am Tag benötigen, könnte diese Abweichung erklären. In einem Vortrag berichtet Solveig Menrad von den praktischen Erfahrungen dieser Screenings, die mit Sicherheit auch anderen Behandlern von Post-Covid-Betroffenen bei der Diagnostik helfen können.
An eine Post-Covid-Ambulanz wird man vom Hausarzt überwiesen. Momentan gibt es aufgrund der hohen Patientenzahlen an vielen Orten lange Wartezeiten.

Das Motto der 31. Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), die vom 07.-09.12. in Berlin stattfindet, lautet „Schlaf in Zeiten des Wandels“. Im Programm wird es Vorträge und Diskussionen zu den Themen Schlaf und Umwelt – Licht, Lärm, Schlafumgebung und Klima(wandel) geben, aber auch zum Schlaf in Krisenzeiten, zu den Herausforderungen des (Arbeits-)Lebens und des sozialen Miteinanders.

Weitere Pressemitteilungen finden Sie online unter https://dgsm-kongress.de/allgemeine-informationen/presse.

Medienvertreter sind herzlich zur Teilnahme am Kongress und der vorab am
4.12. 2023 um 11 Uhr stattfindenden Online-Pressekonferenz
eingeladen!
Zur Akkreditierung senden Sie bitte eine Mail an romy.held@conventus.de!

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm-kongress.de/allgemeine-informationen/presse

(nach oben)


Verstärkung für das Themenfeld Künstliche Intelligenz

Prof. Dr. Michael Klesel ist neuer KI-Professor an der Frankfurt UAS/Finanzierung der Professur durch hochschulübergreifendes Zentrum hessian.AI

Künstliche Intelligenz (KI) ist heute allgegenwärtig und stellt Gesellschaft und Wirtschaft vor neue Herausforderungen. Wie können KI-basierte Lösungen effektiv und nachhaltig in Unternehmen eingeführt werden? Wie gelingt es Unternehmen, ihre Mitarbeitenden bei der Transformation abzuholen und mitzunehmen? Wie können Gründungspotenziale gehoben werden? Um zu erforschen, wie diese Fragestellungen beantwortet werden können, hat die Frankfurt University of Applied Sciences (Frankfurt UAS) zum Wintersemester 2023/2024 Prof. Dr. Michael Klesel berufen. Am Fachbereich Wirtschaft und Recht widmet er sich im Zuge seiner Professur dem Thema „Künstliche Intelligenz und Entrepreneurship“. Als Antwort auf die steigende Bedeutung von KI in Wissenschaft und Wirtschaft hat die Frankfurt UAS beschlossen, hochschulweit insgesamt vier KI-Professuren, die gemeinsam und mit weiteren Professor*innen der Hochschule interdisziplinär zu KI forschen werden. Die Einrichtung der ersten Professur, die nun von Klesel angetreten wurde, wird durch die Finanzierung des hochschulübergreifenden Zentrums hessian.AI ermöglicht.

„Künstliche Intelligenz ist der Schlüssel zur Lösung zahlreicher komplexer Herausforderungen unserer Zeit, und wir sind stolz darauf, diesen Weg mit einer herausragenden Persönlichkeit wie Prof. Dr. Michael Klesel zu beschreiten“, freut sich Prof. Dr. Susanne Rägle, Vizepräsidentin für Forschung, Weiterbildung, Transfer der Frankfurt UAS. „Die enge Partnerschaft zwischen der Frankfurt UAS und hessian.AI wird zudem gewährleisten, dass wir nicht nur unsere Studierenden auf die Herausforderungen und Chancen dieser zukunftsweisenden Technologie vorbereiten, sondern auch einen bedeutenden Beitrag zur Innovation und Wettbewerbsfähigkeit in der Region leisten.“

„Die Zusammenarbeit der 13 hessischen Hochschulen und Universitäten im Netzwerk von hessian.AI bildet eine Synergie aus akademischer Exzellenz und praktischer Anwendung, die für den KI-Standort Hessen von unschätzbarem Wert ist. Mit Prof. Dr. Michael Klesel gewinnen wir einen Experten, der die Brücke zwischen Forschung und realwirtschaftlicher Innovation verstärken und einen wichtigen Beitrag dazu leisten wird, dass die Entwicklung und Implementierung von KI-Lösungen vorangetrieben sowie der Wirtschaftsstandort Hessen gestärkt wird“, sind sich Prof. Dr. Dr. Mira Mezini und Prof. Dr. Kristian Kersting, Co-Direktor*innen von hessian.AI, einig.

Die Professur für Wirtschaftsinformatik, insbesondere Künstliche Intelligenz und Entrepreneurship
Die neu besetzte Professur für Künstliche Intelligenz beschäftigt sich mit aktuellen Fragestellungen aus einer sozio-technischen Perspektive. Im Zentrum der Forschungsaktivitäten stehen Forschungsfragen an der Schnittstelle von Mensch und Technik. Konkrete Herausforderungen, wie beispielsweise die Identifikation von Treibern und Hemmnissen bei der Nutzung von KI-Systemen, werden empirisch erforscht. Die Professur strebt einen starken Transfer zwischen wissenschaftlichem Erkenntnisgewinn und konkreten Anwendungen in Unternehmen an. Aus den Forschungsergebnissen können konkrete Empfehlungen und Maßnahmen für Unternehmen abgeleitet werden. Damit soll neben der wissenschaftlichen Arbeit auch ein spürbarer Nutzen für deutsche Unternehmen geschaffen werden. Möglichkeiten für neue Geschäftsmodelle und Chancen für Ausgründungen werden ausgelotet, um neue Konzepte und Ideen für die Wirtschaft nutzbar zu machen.

„Die aktuellen Entwicklungen im Bereich der KI sind für viele Menschen beeindruckend und herausfordernd zugleich. Mit dem Durchbruch von Large Language Modellen, kurz LLMs, wie beispielswese ChatGPT, wird das Potenzial erstmals auch für eine breite Nutzergruppe zugänglich und kann im Alltag angewandt werden. Mit dieser bemerkenswerten Entwicklung tauchen neue Problemstellungen auf, die erforscht und gelöst werden müssen“ betont Professor Klesel. Hierzu zählen etwa Fragen wie: Wie geht man am besten mit Halluzinationen von KI-Modellen um? Welche Möglichkeiten gibt es, das Vertrauen in KI-Systeme zu stärken? Welche Stellschrauben haben Unternehmen, um KI effektiv und effizient einzusetzen? „Die Herausforderungen lassen sich oft nur in interdisziplinären Teams und in der Zusammenarbeit zwischen Forschungseinrichtungen und Unternehmen bewältigen. Die Frankfurt UAS und hessian.AI sind dabei kompetente Ansprechpartner, um die spannenden und komplexen Fragestellungen im Kontext von KI zu beantworten.“

Zur Person Michael Klesel
Prof. Dr. Michael Klesel ist seit Oktober 2023 Professor für Wirtschaftsinformatik, insbesondere Künstliche Intelligenz und Entrepreneurship an der Frankfurt UAS. Zuvor war er als IT-Projektleiter und Customer Experience Scientist bei der R+V Versicherung in Wiesbaden tätig. Seine Promotion schloss er mit Auszeichnung (summa cum laude) an der Universität Siegen ab. Anschließend leitete er eine Forschungsgruppe zum Thema „Smart Work und Arbeit 4.0“. In dieser Zeit forschte er an renommierten Universitäten wie der Florida State University in Tallahassee und der Twente University in Enschede. Neben einem breiten Spektrum an wissenschaftlichen Methoden verfügt er über ein breites Portfolio an Erfahrungen aus der freiberuflichen Tätigkeit und der Zusammenarbeit mit Unternehmen.

Kontakt
Frankfurt University of Applied Sciences
Fachbereich 3: Wirtschaft und Recht
Prof. Dr. Michael Klesel
Telefon: +49 69 1533-3351
E-Mail: http://michael.klesel@fb3.fra-uas.de

Weitere Informationen zum Fachbereich Wirtschaft und Recht unter www.frankfurt-university.de/fb3. Mehr zu Hessian.AI unter https://hesian.ai.

(nach oben)


Zuckersteuer könnte bis zu 16 Milliarden Euro einsparen

Eine Simulationsstudie der Technischen Universität München (TUM) zeigt: Eine Softdrink-Steuer in Deutschland hätte deutliche positive Auswirkungen. Bei allen simulierten Varianten würde weniger Zucker konsumiert, Erkrankungen wären seltener. So ließen sich volkswirtschaftliche Kosten senken und das Gesundheitssystem entlasten. Dabei macht es einen Unterschied, ob die Abgabe darauf zielt, den Softdrink-Konsum zu senken oder Rezeptur-Änderungen herbeizuführen.

Gezuckerte Getränke erhöhen das Risiko für Übergewicht und Erkrankungen wie Diabetes. Einige Länder haben deswegen Steuern oder Abgaben auf Softdrinks eingeführt. In Deutschland gibt es seit 2018 eine Selbstverpflichtung der Getränkeindustrie, den Zuckergehalt in Softdrinks zu reduzieren. Wie eine Studie unter Mitwirkung von Michael Laxy, Professor für Public Health und Prävention an der TUM, Anfang 2023 gezeigt hat, bleiben die Auswirkungen bislang deutlich hinter den Erwartungen zurück.

Im Fachmagazin „PLOS Medicine“ hat ein Team um Michael Laxy und Chris Kypridemos von der University of Liverpool jetzt berechnet, welche Auswirkungen dagegen die Einführung einer sogenannten Zuckersteuer für Deutschland hätte. „Dabei haben uns kurz- und längerfristige Auswirkungen gleichermaßen interessiert. Wir haben deswegen simuliert, wie sich die gängigsten internationalen Besteuerungs-Ansätze im Zeitraum von 2023 bis 2043 auswirken würden“, sagt Michael Laxy. Die bestehenden Softdrink-Abgaben lassen sich grob in zwei Gruppen aufteilen. So müssen beispielsweise in Großbritannien Unternehmen Abgaben leisten, die sich nach der Zuckermenge in den Softdrink-Rezepturen richten. In Mexiko wird die Steuer dagegen unabhängig vom Zuckergehalt der Softdrinks erhoben. Ergebnisse aus internationalen Studien zeigen, dass letztere Variante vor allem zu einer verringerten Nachfrage nach Softdrinks führt, während erstere Variante zudem mit einer Änderung der Rezeptur hin zu weniger Zucker in den Softdrinks einhergeht.

Pro-Kopf-Konsum von Zucker gesenkt
Der Simulation zufolge würde bei einem pauschalen 20-prozentigen Aufschlag auf die Softdrink-Preise der Zuckerkonsum pro Tag und Person um ein Gramm sinken. Betrachtet man nur Männer zwischen 30 und 49 Jahren wären es sogar knapp drei Gramm. Noch stärker würde sich eine Reduktion des Zuckers in den Rezepturen um 30 Prozent auswirken, wie sie in Großbritannien nach Einführung der gestaffelten Hersteller-Abgabe verzeichnet wurde. Durch weniger Zucker in den Getränken würde der Pro-Kopf-Konsum in Deutschland um täglich 2,3 Gramm reduziert – beziehungsweise um 6,1 Gramm für Männer zwischen 30 und 49.

Das Modell des Teams simuliert die deutsche Gesellschaft für den untersuchten Zeitraum. Es nutzt Daten zur individuellen Ernährung, zu Erkrankungen wie Diabetes, zu gesundheitlichen Risikofaktoren und offizielle Bevölkerungsstatistiken. Menschen unter 30 wurden allerdings nicht berücksichtigt, da die meisten der modellierten Erkrankungen vor allem in der zweiten Lebenshälfte auftreten. „Aus nationalen und internationalen Studien wissen wir aber, dass der Softdrink-Konsum im Teenageralter am höchsten ist“, sagt Erstautor Karl Emmert-Fees. „Dementsprechend wäre die durchschnittliche Reduktion des Zuckerkonsums noch drastischer und der positive gesundheitliche Effekt noch größer, wenn wir jüngere Menschen mitberücksichtigen würden.“

Weniger Erkrankungen
„Eine Reduktion des Zuckerverbrauchs um wenige Gramm pro Person klingt nicht nach viel – rein statistisch liegt der Zuckerkonsum in Deutschland bei täglich etwa 95 Gramm pro Kopf. Die Weltgesundheitsorganisation und die Deutsche Gesellschaft für Ernährung empfehlen jedoch, dass maximal zehn Prozent des Energiebedarfs durch Zucker gedeckt werden soll, was in etwa 50 Gramm pro Kopf und Tag entspricht“, erläutert Michael Laxy. „Dabei muss man aber bedenken, dass es innerhalb der Bevölkerung große Unterschiede beim Konsum von Softdrinks gibt. Manche Menschen trinken sie in größeren Mengen, andere dafür nie. Entsprechend stärker wäre die Verringerung des Zuckerkonsums für die Menschen, die viel Softdrinks konsumieren.“

In Bezug auf die gesundheitlichen Auswirkungen sprechen die Modellierungen eine deutliche Sprache: Bei beiden Besteuerungsmodellen gäbe es deutlich weniger Fälle von Übergewicht, Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen. „Besonders eindrücklich sind die Zahlen für Typ-2-Diabetes“, sagt Karl Emmert-Fees. „Durch eine Besteuerung würden unseren Modellen zufolge innerhalb der nächsten 20 Jahre bis zu 244.100 Menschen später oder gar nicht an Typ-2-Diabetes erkranken.“

Einsparungen von mehreren Milliarden Euro
Die positiven Auswirkungen lassen sich den Forschenden zufolge auch als finanzielle Einsparungen ausdrücken: Mit einer Abgabe auf gezuckerte Getränke wären weniger Behandlungen nötig. Kosten durch Krankheitstage, Arbeitsunfähigkeit und ähnliches würden ebenfalls sinken. Für den simulierten Zeitraum hat das Team bei einer gestaffelten Herstellerabgabe volkswirtschaftliche Einsparungen von rund 16 Milliarden Euro errechnet, davon etwa 4 Milliarden Euro an Gesundheitskosten. Bei einer 20-prozentigen Steuer wären es immerhin insgesamt noch etwa 9,5 Milliarden Euro.

Debattenbeitrag für Politik
Folgt man den Ergebnissen der Simulation, die das Team anhand eines zweiten Modells replizieren konnte, hätte eine gestaffelte Herstellerabgabe stärkere positive Auswirkungen als eine pauschale Steuer. „Ob eine Besteuerung von Softdrinks für Deutschland sinnvoll ist, muss die Politik entscheiden“, sagt Michael Laxy. „Wir wollen mit unserer Studie sachliche Argumente für diese Debatte liefern. Unsere Studie zeigt, dass eine Abgabe beziehungsweise eine Steuer auf gezuckerte Getränke eine relevante Maßnahme zur Prävention von Übergewicht, Diabetes und Herzerkrankungen darstellt. Ansätze wie Informationskampagnen haben ihre Berechtigung, sind aber nicht ausreichend und können nur ein Baustein einer wirksamen Gesamtstrategie sein.“

Publikation:
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004311

Weitere Informationen:
Pressemitteilung zu früherer Studie („Zuckerreduktion kommt nicht voran“): https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/zuckerred…

Professur für Public Health und Prävention:
https://www.sg.tum.de/php/startseite/

Die Forschenden der TUM kooperierten für die Studie mit Prof. Peter Scarborough von der University of Oxford (https://www.oxfordmartin.ox.ac.uk/people/peter-scarborough) und Dr. Chris Kypridemos, Experte für dynamische stochastische Mikrosimulationen an der University of Liverpool (https://www.liverpool.ac.uk/population-health/staff/christodoulos-kypridemos/). Mit solchen Modellen lassen sich Vorhersagen über gesundheitliche und ökonomische Entwicklungen in Gesellschaften treffen. Man spricht von Mikrosimulation, weil die Gesellschaften und die wahrscheinlichste zukünftige Entwicklung anhand einer großen Zahl von Daten auf individueller Ebene nachgebildet werden. Dies bedeutet, dass Individuen mit realistischen Eigenschaften, etwa in Bezug auf Demographie, Ernährung oder Erkrankungen, simuliert werden und keine aggregierten Gruppen. Diese Modelle sind sehr datenhungrig, und basieren auf einer Vielzahl von Parametern, die aus unterschiedlichen Datenquellen berechnet werden.

Weitere wichtige Ergebnisse der Studie
Beide Varianten würden für den Modellierungszeitraum zu einem Gewinn an sogenannten qualitätskorrigierten Lebensjahren (QALYs) führen, eine Kennzahl aus der Gesundheitsökonomie, die Effekte auf die Lebensdauer und die Lebensqualität kombiniert. Bei der 20-prozentigen Steuer lägen diese bei 106.000 zusätzlichen QALYs, bei der gestaffelten Abgabe für Unternehmen bei 192.300.

Durch beide Varianten könnten im Modellierungszeitraum Todesfälle vermieden oder verzögert werden (unabhängig von der Todesursache). Bei der 20-prozentigen Steuer wären es 17.000, bei der gestaffelten Unternehmens-Abgabe 29.300. Für diesen Wert ist allerdings wichtig, dass „verhindert“ und „verzögert“ nicht getrennt modelliert werden.

Beide Varianten würden für den Modellierungszeitraum zu einem Gewinn an vermiedenen oder verzögerten Falljahren von Typ-2-Diabetes führen: 1.109.300 (20-prozentige Steuer) und 1.940.900 (gestaffelte Unternehmens-Abgabe). Auch hier gelten die oben genannten Einschränkungen.

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1727884

Diese Pressemitteilung auf tum.de: https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/zuckerste…

Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Laxy
Technische Universität München
Professur für Public Health und Prävention
Tel: +49 (89) 289 – 24977
michael.laxy@tum.de
Originalpublikation:
Emmert-Fees KMF, Amies-Cull B, Wawro, N, Linseisen J, Staudigel M, Peters A, et al. (2023). „Projected health and economic impacts of sugarsweetened beverage taxation in Germany: A crossvalidation modelling study“. PLoS Med 20(11): e1004311. DOI: 10.1371/journal.pmed.100431

(nach oben)


Startschuss für weltweit erste Pilotanlage zur kosteneffizienten Produktion von grünem Methanol

Inna Eck Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES

Bundesverkehrsminister Dr. Volker Wissing weihte heute die Pilotanlage im Chemiepark in Leuna im Rahmen des Projekts »Leuna100« ein: Der weltweit einzigartige und innovative Ansatz zur Methanolerzeugung mit neuartigem Katalyseverfahren ermöglicht den Markthochlauf von grünem Methanol. Grünes Methanol ist ein Schlüssel für die Energiewende und bietet der Schiff- und Luftfahrt eine klimaneutrale Kraftstoffalternative.

Berlin/Leuna, 20. November 2023 – Die weltweit erste Pilotanlage zur kosteneffizienten Herstellung von grünem Methanol ist heute im Chemiepark in Leuna im Rahmen des Projekts »Leuna100« eingeweiht worden. Dahinter steht ein Forschungskonsortium bestehend aus dem Climate-Tech-Start-up C1 Green Chemicals AG und seinen Partnern, dem Fraunhofer-Institut für Windenergiesysteme IWES, dem Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, der DBI-Gastechnologisches Institut gGmbH Freiberg sowie der Technischen Universität Berlin. Ziel ist es, mit einem fundamental neuen Herstellungsverfahren den kosteneffizienten Markthochlauf von grünem Methanol zu ermöglichen und damit der Containerschifffahrt eine klimaneutrale Kraftstoffalternative zu eröffnen.

Neuartiges Verfahren zur Herstellung von grünem Methanol
Grundlage für die Herstellung von grünem Methanol ist ein Synthesegas aus Kohlenmonoxid und grünem, also durch erneuerbaren Strom erzeugtem Wasserstoff. Die grüne Methanolherstellung im Projekt »Leuna100« besteht aus drei Schritten: der sogenannten Synthesegaserzeugung, der Methanolproduktion und der Aufreinigung des produzierten Rohmethanols. Die innovative Technologie von C1 ermöglicht eine effiziente niedertemperatur- und niederdruckbasierte Methanolproduktion. Möglich wird dieses Verfahren durch den Einsatz eines homogenen, Mangan-basierten Katalysatorsystems, welches C1 zusammen mit dem Leibniz-Institut für Katalyse e.V. entwickelt hat. Die strombasierte und lastflexible Nutzung der Synthesegaserzeugung sowie die homogene Katalyse für die Methanolerzeugung sind zusammen die zentrale Innovation.

In der Pilotanlage werden zwei unterschiedliche Technologien zur CO2-basierten Erzeugung von Synthesegas gekoppelt: Das Fraunhofer UMSICHT liefert eine neue Niedertemperatur-Co-Elektrolyse, DBI – Gastechnologisches Institut gGmbH Freiberg setzt eine Reverse-Water-Gas-Shift-Anlage ein. C1 liefert den neuen Katalysator sowie den eigens entwickelten Reaktor zur homogenen Katalyse von Methanol. Fraunhofer IWES stellt den Standort und die Infrastruktur im Hydrogen Lab Leuna zur Verfügung und evaluiert die Lastflexibilität. Die TU Berlin entwickelt ein effizientes, lastflexibles Betriebskonzept auf Basis eines dynamischen Gesamtprozessmodells.

Industriegeschichte im Chemiepark Leuna
Das Projekt wird vom Bundesministerium für Digitales und Verkehr (BMDV) über die nächsten drei Jahre mit insgesamt 10,4 Millionen Euro gefördert. Bundesverkehrsminister Dr. Volker Wissing sagte bei der Eröffnung vor Ort: »In Leuna wird heute Industriegeschichte geschrieben. Das Projekt bedeutet einen Meilenstein für das post-fossile Zeitalter in der Schiff- und Luftfahrt. Wir sind stolz darauf, dieses Forschungsprojekt ‘made in Germany‘ mit Mitteln im Rahmen des Gesamtkonzepts Erneuerbare Kraftstoffe zu fördern. Mit dem Gesamtkonzept unterstützt das BMDV die Weiterentwicklung und den Markthochlauf von erneuerbaren Kraftstoffen und damit auch das Erreichen der Klimaziele im Verkehrssektor.«

Die BASF erbaute 1923 die weltweit erste Methanolanlage in Leuna. Ministerpräsident des Landes Sachsen-Anhalt, Dr. Reiner Haseloff, betonte mit Blick auf diesen historischen Zusammenhang: »Der Chemiestandort Leuna blickt auf eine über hundertjährige Tradition zurück. Er hat sich in dieser Zeit selbstbewusst Herausforderungen gestellt und immer wieder seine Innovationskraft bewiesen. Nun bietet sich die Chance, abermals zum Schauplatz für den Beginn einer neuen Ära zu werden. Das Projekt ‘Leuna100’ leistet einen wichtigen Beitrag für den Einstieg in die zirkuläre Chemieproduktion nicht nur in Sachsen-Anhalt.«

Tanker, Containerfrachter und Kreuzfahrtschiffe sind derzeit für knapp drei Prozent des weltweiten jährlichen CO2-Ausstoßes verantwortlich. Die im Sommer 2023 verabschiedete neue Klimastrategie der internationalen Schifffahrtsorganisation IMO sieht vor, das Ziel der Klimaneutralität bis etwa 2050 zu erreichen. Bis 2030 sollen die Emissionen um mindestens ein Fünftel gegenüber 2008 verringert werden, bis 2040 sogar um mindestens 70 Prozent. Große Reedereien wie Maersk haben bereits Methanol-fähige Schiffe bestellt, von denen die ersten bereits in Betrieb genommen wurden. Auch für die Luftfahrtindustrie bieten regenerative Kraftstoffe auf Basis von grünem Wasserstoff und CO2 eine Alternative. Mit einem weiteren Verarbeitungsschritt lässt sich über das »Alcohol-to-jet«-Verfahren aus grünem Methanol potenziell Kerosin herstellen.

Christian Vollmann, Vorstand der C1 Green Chemicals AG: »Unser innovatives Verfahren bietet das Potenzial, grünes Methanol kostengünstiger herzustellen. Wir freuen uns über die Chance, unsere Technologie im Rahmen der Pilotanlage auf das nächste Level zu heben und damit der Markteinführung einen entscheidenden Schritt näherzukommen.«

Prof. Dr. Andreas Reuter, Institutsleiter Fraunhofer IWES sagt: »Mit unserer langjährigen wissenschaftlichen Expertise und einer komplexen Forschungsinfrastruktur für erneuerbare Energien, wie das Hydrogen Lab in Leuna, ist das Fraunhofer IWES der ideale Partner, um erfolgreich Projekte zur Erzeugung grüner Kraftstoffe für die Schiff- und Luftfahrt zu realisieren.«

Hintergrund:
Das Projekt »Leuna100« startete im August 2023 im Chemiepark Leuna und ist auf drei Jahre angelegt. Es wird im Rahmen des Gesamtkonzepts Erneuerbare Kraftstoffe mit insgesamt 10,4 Millionen Euro durch das Bundesministerium für Digitales und Verkehr gefördert. Die Förderrichtlinie für die Entwicklung regenerativer Kraftstoffe wird von der NOW GmbH koordiniert und durch die Projektträger VDI/VDE Innovation + Technik GmbH sowie die Fachagentur Nachwachsende Rohstoffe e. V. umgesetzt.

Die Arbeitsgruppe von Prof. Dr. Matthias Beller vom Leibniz-Institut für Katalyse e.V. (LIKAT), Rostock, unterstützt das Projekt »Leuna100« als Forschungspartner.

Pressekontakt C1
PIABO Communications
Ann-Kathrin Marggraf, Communications Director
leuna100@piabo.net
+49 172 575 6287

Pressekontakt DBI-Gastechnologisches Institut gGmbH Freiberg
Dipl.-Hdl. Emily Schemmel
emily.schemmel@dbi-gruppe.de
+49 3731 4195 339

Pressekontakt Fraunhofer UMSICHT
Stefanie Bergel
stefanie.bergel@umsicht.fraunhofer.de
+49 208 8598 1599

Pressekontakt Fraunhofer IWES
Lisa Bösch
lisa.boesch@iwes.fraunhofer.de
+49 471 14290-544

Pressekontakt TU Berlin
Prof. Dr.-Ing. habil. Jens-Uwe Repke
sekr@dbta.tu-berlin.de
+49 (0)30 314-26900

Über C1
C1 entwickelt neuartige chemische Produktionsprozesse, indem diese von der atomaren Ebene bis hin zum Produktionsmaßstab neu gedacht werden. Die chemischen Verfahren werden mit Hilfe quantenchemischer Simulationen konzipiert und zu firmeneigenen Produktionstechnologien umgesetzt. C1 hat eine grundlegend neue, homogene Katalyse zur Herstellung von Methanol entwickelt und patentiert. Das C1 Verfahren ist wesentlich selektiver, produktiver und effizienter als die bisher im Einsatz befindliche heterogene Katalyse, welche auf ein Patent aus dem Jahr 1921 zurückgeht. Das Berliner Unternehmen entwickelt und skaliert dabei ausschließlich auf Grundlage von regenerativen Rohstoffen und erneuerbarer Energie. Von den ersten Schritten der Entwicklung eines Produktionsprozesses an werden alle Prozesse so konzipiert, dass ein geschlossener Kohlenstoffkreislauf möglich ist. Damit unterstützt C1 die Industrie auf ihrem Weg aus der Abhängigkeit von fossilen Rohstoffen wie Öl, Gas und Kohle. Mehr Infos: https://www.carbon.one/

Über DBI-Gastechnologisches Institut gGmbH Freiberg
DBI-Gastechnologisches Institut gGmbH Freiberg ist als gemeinnützige Einrichtung im Bereich anwendungsorientierter Forschung aktiv. Insbesondere im Bereich des Transfers verfahrenstechnischer Prozesse vom Labor- in den Demonstrationsmaßstab ist das DBI-Gastechnologisches Institut gGmbH Freiberg in mehreren Projekten führend. Hierbei kann auf eine Vielzahl erfolgreich abgeschlossener und laufender Forschungsprojekte und ein breites Spektrum an fachlich versierten Mitarbeitern zurückgegriffen werden. Unterstützt wird dies durch Expertise im Bereich der Synthesegaserzeugung, wobei dem DBI-Gastechnologischen Institut gGmbH Freiberg mehrere Testanlagen zur Untersuchung reaktionstechnischer Prozesse sowie entsprechende Analysetechnik zur Verfügung stehen. Mehr Infos: https://www.dbi-gruppe.de/

Über Fraunhofer UMSICHT
Das Fraunhofer UMSICHT ist Wegbereiter in eine nachhaltige Welt. Mit unserer Forschung in den Bereichen klimaneutrale Energiesysteme, ressourceneffiziente Prozesse und zirkuläre Produkte leisten wir konkrete Beiträge zum Erreichen der 17 Sustainable Development Goals (SDGs) der Vereinten Nationen. Wir entwickeln innovative, industriell umsetzbare Technologien, Produkte und Services für die zirkuläre Wirtschaft und bringen diese mit aller Kraft zur Anwendung. Die Balance von wirtschaftlich erfolgreichen, sozial gerechten und umweltverträglichen Entwicklungen steht dabei im Fokus. Mehr Infos: https://www.umsicht.fraunhofer.de/

Über Fraunhofer IWES
Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Wind- und Wasserstofftechnologie. Mehr Infos: https://www.iwes.fraunhofer.de/

Über TU Berlin
Das Fachgebiet Dynamik und Betrieb technischer Anlagen der TUB beschäftigt sich intensiv mit der Modellierung, Simulation und der Optimierung für Design und Betrieb von vielfältigen Prozessen der Verfahrenstechnik. Dabei stehen Wirtschaftlichkeit, Energieeffizienz und Nachhaltigkeit im Fokus der Forschungsarbeiten. Neben der Systemverfahrenstechnik stellt die Grundlagenforschung auf dem Gebiet der Fluiddynamik und Trenneffizienz, wie in thermischen Trennverfahren anzutreffen, eine weitere Kernkompetenz dar. Am Fachgebiet werden vielfältige Anstrengungen im Bereich intensivierter Prozesse unternommen, wobei beispielsweise neuartige Konzepte zur homogenen Katalyse in innovativen schaltbaren Lösemittelsystemen (Mikroemulsionen) sowie neuartige Reaktor- und Betriebskonzepte für die heterogene Katalyse bis zur Prozessreife gebracht werden. Mehr Infos: https://www.tu.berlin/dbta

Über Leibniz-Institut für Katalyse e.V. (LIKAT)
Über 70 Jahre Katalyse-„Know How“ bildet die Basis des Leibniz-Instituts für Katalyse e.V. an der Universität Rostock (LIKAT). Das ursprünglich einzige ausschließlich der Katalyse gewidmete Institut, ist heute eines der größten öffentlich geförderten Forschungsinstitute im Bereich der angewandten Katalyse in Europa. Die Methoden- und Materialkompetenz der mehr als 300 Mitarbeiter konzentriert sich auf die Entwicklung ressourcenschonender Verfahren. Mehr Infos: https://www.catalysis.de/

Wissenschaftliche Ansprechpartner:
Fraunhofer IWES
Michael Seirig, Abteilungsleiter Wasserstofflabore und Feldtests
michael.seirig@iwes.fraunhofer.de
Telefon +49 471 14290-661

Weitere Informationen:
https://www.leuna100.de/ Mehr Informationen zum Projekt Leuna100
https://www.dropbox.com/scl/fo/ezeenjt10aj9dvllz0p7i/h?rlkey=6arqhv137f1bt7a0w4i… Bildmaterial

(nach oben)


Ergebnisse der gemeinsamen E-Scooter-Studie mit mehr als 8.000 Teilnehmenden

Die Studie, die analog im Juni 2023 mit Interviews von 373 Personen begann und im Juli und August 2023 digital mit 8.245 Teilnehmenden fortgesetzt wurde, bietet Einblicke in die öffentliche Meinung und die Herausforderungen im Umgang mit Sharing E-Scootern in Berlin. Durchgeführt wurden die Umfragen durch die Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) in Zusammenarbeit mit dem Bürger*innenbeirat Berlin-Tourismus.

Prof. Dr. Nicole Häusler von der HNEE, die die wissenschaftliche Studie leitete, betont die Bedeutung dieser Zusammenarbeit: „Die Befragungen und die daraus resultierenden Empfehlungen bieten den Studierenden eine praxisnahe Anwendung ihrer wissenschaftlichen Arbeit. Die Unterstützung bürgerschaftlichen Engagements wie des Bürger*innenbeirats Berlin-Tourismus durch Hochschulen ist von entscheidender Bedeutung für ihre wertvolle Arbeit.“

Die Ergebnisse der Studie zeigen deutlich, dass sich über 80 % der Befragten aus beiden Umfragen eine Veränderung im Umgang mit E-Scootern wünschen. Das unkontrollierte Abstellen auf Geh- und Radwegen sowie die Gefährdung anderer Verkehrsteilnehmenden durch E-Scooter-Fahrer*innen wurden als größte Ärgernisse identifiziert. Vorrangig fordern die Befragten die Installation oder Ausweitung fester Abstellflächen.

Ein deutlicher Unterschied zwischen den Umfragen liegt in der Haltung zur flächendeckenden Abschaffung der E-Scooter in Berlin: Während bei der analogen Umfrage lediglich 19 % dafür sind, stimmten bei der digitalen Umfrage 58 % einer Abschaffung zu. Dieser Unterschied lässt sich teilweise auf eine bestimmte Altersgruppe zurückführen, da bei der digitalen Umfrage viele Personen teilnahmen, die das Sharing-Angebot kaum oder gar nicht nutzen und E-Scooter tendenziell kritisch sehen. 40 % der Befragten gaben an, dass sie schon einmal einen Sharing E-Scooter genutzt haben. Davon nutzen 74 % diese gelegentlich bis sehr häufig (mindestens ein bis zweimal pro Monat bis wöchentlich). Überwiegend werden sie für mittlere Distanzen von 1 bis 3 km als Alternative zum Laufen oder als Zubringer zum öffentlichen Nahverkehr verwendet, jedoch nicht als Ersatz für das eigene Auto. Besonders auffällig ist, dass rund 80 % der Altersgruppe der 18-20jährigen die E-Scooter nutzen.

Mehr als 7.000 Teilnehmende nutzten die Möglichkeit, eigene Verbesserungsvorschläge einzubringen. „Die hohe Anzahl an Vorschlägen unterstreicht die Bedeutung dieses Themas für die Berliner Bevölkerung“, betont Prof. Dr. Nicole Häusler. „Besonders bemerkenswert ist, dass viele der Vorschläge bereits umgesetzt oder in Planung sind, was auf eine Informationslücke zu diesem Thema hinweist“, fügt Dr. Häusler hinzu.
„Die Berücksichtigung dieser Thematik im Doppelhaushalt ist entscheidend. Insbesondere die angemessene Finanzierung von Abstellflächen ist von großer Bedeutung. Zudem bedarf es einer genauen Prüfung, wo diese Abstellmöglichkeiten sinnvoll platziert werden können und wo sie nicht zwingend erforderlich sind. Die Debatte rund um dieses Thema ist stark emotionalisiert und offenbart erhebliche Wissensunterschiede in der Bevölkerung bezüglich der Regeln und des aktuellen Standes der E-Scooter-Nutzung. Eine Informationskampagne, koordiniert zwischen sämtlichen E-Scooter-Anbietern, der Senatsverwaltung und dem Bürger*innenbeirat, wird dringend empfohlen. Diese Informationskampagne sollte darauf abzielen, einerseits für eine verantwortungsvolle Nutzung zu werben und andererseits sachliche Informationen in die Diskussion einzubringen.“

Der Bürger*innenbeirat ist für den 01. Dezember 2023 zu einem Austauschtermin mit der Senatsverwaltung für Mobilität, Verkehr, Klimaschutz und Umwelt sowie den E-Scooter-Anbietern eingeladen und wird dort die Umfrageergebnisse vorstellen sowie für die Idee einer Informationskampagne werben.

Bürgerinnen und Bürger haben beim zweiten Bürgerinnenforum am kommenden Donnerstag, den 23. November 2023, die Möglichkeit, sich in das Thema einzubringen. In der Dialogstation „Welche Zukunft haben E-Roller?“ werden die Ergebnisse und Empfehlungen der Studie vorgestellt und mit den Bürgerinnen diskutiert.

Bürger*innenforum: Hier steppt der Bär! Aber wohin? – Chancen des stadtverträglichen Tourismus
Datum: Donnerstag, 23. November 2023
Uhrzeit: Einlass ab 17:30 Uhr, Beginn um 18:00 Uhr bis 21:00 Uhr
Ort: Alte Münze, Molkenmarkt 2, 10179 Berlin (Loft)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nicole Häussler
<​​​​​​​Nicole.Haeusler@hnee.de>

(nach oben)


Spitzenforschung in den Pflanzenwissenschaften

Forschende des Max-Planck-Instituts für Molekulare Pflanzenphysiologie im Potsdam Science Park gehören zu den meist zitierten Wissenschaftlern der Welt!

Die Clarivate Group ermittelt jährlich die am häufigsten zitierten Wissenschaftler in verschiedenen Forschungsgebieten als wesentliches Merkmal für den wissenschaftlichen Einfluss und Erfolg der Forschenden. Dieses Jahr glänzt das Max-Planck-Institut für Molekulare Pflanzenphysiologie (MPI-MP) gleich mit 6 Kolleginnen und Kollegen, die es unter die 0.1% der weltweit am häufigsten zitierten Wissenschaftler geschafft haben.

Dabei stellt das MPI-MP, wie in den letzten Jahren, gleich fünf der 189 Ausgezeichneten im Forschungsfeld Pflanzen und Tierwissenschaften. Alisdair Fernie entschlüsselt, wie zentrale Stoffwechselwege in Pflanzen funktionieren. Ralph Bock, einer der Direktoren des Instituts, forscht an Pflanzenorganellen und verknüpft diese Arbeit mit biotechnologischen und ökophysiologischen Fragestellungen. John Lunn und Mark Stitt befassen sich intensiv mit der Regulation des pflanzlichen Stoffwechsels, der Photosynthese und des Pflanzenwachstums, während die assoziierte Forschungsgruppe des Potsdamer Universitätsprofessors Bernd-Müller Röber an pflanzlichen Signalnetzwerken arbeitet. Ganz besonders freuen wir uns über die Auszeichnung der gerade neu gewonnenen Direktorin des Instituts, Caroline Gutjahr im Bereich „Cross-Field“. Sie erforscht das komplizierte Zusammenleben zwischen Pflanzen und symbiontischen Pilzen im Boden. „Ich freue mich sehr über diese Nachricht und darüber Teil eines Pflanzenforschungsinstituts zu sein, das international solch hohe Anerkennung genießt. Natürlich gratulieren wir allen Kollegen im Haus und auch allen anderen Forschenden der Max-Planck-Gesellschaft, die sich über diese Auszeichnung freuen können,“ so Caroline Gutjahr.

Das Max-Planck-Institut für Molekulare Pflanzenphysiologie in Potsdam gehört zu den weltweit führenden Einrichtungen für Pflanzenforschung. Es betreibt Grundlagenforschung auf den Gebieten der Pflanzenphysiologie, Genetik, Epigenetik und Pflanzen-Mikroben Interaktion mit dem Ziel, das Wachstum und die Entwicklung von Pflanzen und das Zusammenspiel von Pflanze und Umwelt umfassend zu verstehen.

Im Jahr 2023 umfasst die Liste rund 7100 hoch zitierte Forscher aus mehr als 70 Ländern, die in verschiedenen Bereichen von der Agrar- bis zur Weltraumforschung arbeiten. Deutschland liegt mit 336 hochzitierten Forschern auf Platz 4 der Liste, davon sind 59 Mitglieder der Max-Planck-Gesellschaft, die weltweit Rang 10 der Wissenschaftsinstitutionen belegt. Damit stellt das MPI-MP rund 10% der Preisträger und Preisträgerinnen in der Max-Planck-Gesellschaft mit ihren 86 Instituten.

Wissenschaftliche Ansprechpartner:
Kontakt
Tobias Lortzing
Forschungskoordinator
Max-Planck-Institut für Molekulare Pflanzenphysiologie
Tel. 0331/567 8207
pr@mpimp-golm.mpg.de
http://www.mpimp-golm.mpg.de

Weitere Informationen:
http://Clarivate Liste meistzitierter Wissenschaftler:
https://clarivate.com/highly-cited-researchers/
http://Clarivate Analyse:
https://clarivate.com/highly-cited-researchers/analysis/

(nach oben)


Wie Mikroben den Klimawandel bekämpfen können

Prof. Michael Rother von der TU Dresden ist Experte für die Biologie methanbildender Mikroorganismen. Im Frühjahr dieses Jahres traf er sich auf Einladung der American Academy of Microbiology mit weiteren Expert:innen zu einem Kolloquium mit dem Ziel, eine Handlungsempfehlung zur kurzfristigen Reduktion von Methan-Emissionen im Kampf gegen den Klimawandel und die Erderwärmung zu erstellen. Nun ist der Bericht veröffentlicht und soll unter anderem als Entscheidungshilfe für den US-Kongress dienen.

Der globale Klimawandel zählt zu den größten Herausforderungen unserer Zeit. Expert:innen auf der ganzen Welt suchen nach Lösungen und Strategien, um ein ungehindertes Fortschreiten zu stoppen. Ein kürzlich erschienener Bericht der American Academy of Microbiology und der American Geophysical Union verweist nun auf die Nutzung von winzig kleinen Lebewesen, Mikroben, im Kampf gegen die Erderwärmung. Denn Mikroben sind wichtige Produzenten, zeitgleich aber auch Verbraucher, von Treibhausgasen, die als eine der Hauptursachen für den Klimawandel gelten. Ein besseres Verständnis der Mikroben und der mikrobiellen Prozesse, die der Atmosphäre Treibhausgase hinzufügen oder entziehen, kann helfen, die negativen Auswirkungen des Klimawandels abzumildern.

Der Hauptfokus liegt hierbei auf dem Treibhausgas Methan (CH4). Im Vergleich zu Kohlenstoffdioxid (CO2), sind die menschengemachten Methanausstöße zwar deutlich geringer, jedoch hat CH4 eine 80mal höhere Klimawirkung als CO2. In anderen Worten, Methan kann über einen Zeitraum von 20 Jahren 80mal mehr Wärme in der Atmosphäre binden, was erheblich zur Erwärmung des Planeten beiträgt. Methan entsteht überall dort, wo organisches Material unter Luftausschluss abgebaut wird, zum Beispiel in Reisfeldern, Mülldeponien sowie in der Land- und Forstwirtschaft, insbesondere bei der Massentierhaltung.

Michael Rother ist Professor für Mikrobielle Diversität an der TU Dresden. Als Experte für methanbildende Mikroorganismen wurde er als einziger Vertreter aus Deutschland von der American Academy of Microbiology zu einem Kolloquium mit Vertreter:innen zahlreicher renommierter US-amerikanischer Universitäten und Institutionen eingeladen, um gemeinsam konkrete Maßnahmen zur Reduzierung des Methanausstoßes vorzuschlagen. Die erarbeiteten Handlungsempfehlungen sind nun in einem ausführlichen Bericht erschienen und werden Entscheidungsorganen wie dem US-Kongress als Grundlage für die Politikgestaltung dienen. Zu den vorgelegten Empfehlungen zählen unter anderem die Erweiterung der grundlegenden Erkenntnisse über Mikroben, die Methan vermindern, z.B. durch den Ausbau der akademischen Ausbildung in (anaerober) Mikrobiologie, oder durch die Priorisierung der Forschung zur Charakterisierung von Pansenmikrobiomen, die für geringere Methanemissionen von Wiederkäuern sorgen könnten. Außerdem sollen die mikrobiellen Erkenntnisse direkt in methan-reduzierende, klimafreundliche Landwirtschaftspraktiken fließen und verstärkt über die Grenzen von Wissenschaft, Industrie, Kommunen und privaten Sektoren hinaus zusammengearbeitet werden.

Prof. Rother persönlich sieht über die abgegebenen Empfehlungen hinaus dringenden Handlungsbedarf: „Die Klimakrise ist in vollem Gange. Der globale Temperaturanstieg schadet nicht nur der menschlichen Gesundheit und der Nahrungsmittelproduktion. Es ist für die Menschheit sehr wichtig, schnell wirksame Maßnahmen zu ergreifen.“

Kontakt:
Prof. Michael Rother
Fakultät Biologie
TU Dresden
Tel.: +49 351 463-42611
Email: michael.rother@tu-dresden.de

Originalpublikation:
https://asm.org/getmedia/1c9ae3e1-9b40-4ad5-9526-4fed26bc8444/The-Role-of-Microb…

(nach oben)


Forscherin entdeckt Auslöser für Schlafstörungen bei Herzkranken

Dr. Karin Ziegler vom Institut für Pharmakologie und Toxikologie (IPT) an der Technischen Universität München erhält renommierten Forschungspreis der Deutschen Stiftung für Herzforschung – Preisgeld 15.000 Euro

Rund ein Drittel aller Menschen mit einer Herzerkrankung schlafen schlecht. Warum das so ist, wusste man bislang jedoch nicht. Länger bekannt ist, dass etliche am Herzen Erkrankte einen niedrigen Melatoninspiegel haben. Melatonin ist ein Hormon, das in der Zirbeldrüse (Epiphyse), einem Teil des Zwischenhirns, produziert wird. Melatonin steuert den Schlaf-Wach-Rhythmus. Sobald es dunkel wird, bildet die Epiphyse mehr von dem Schlafhormon und sorgt dafür, dass wir abends müde werden. Erstmals hat Dr. Karin Ziegler vom Institut für Pharmakologie und Toxikologie (IPT) an der Technischen Universität München (TUM) mit ihrem Team den Auslöser dafür entdeckt, warum Betroffene mit einer Herzerkrankung zu wenig Melatonin bilden.
Die Medizinerin und angehende Fachärztin für Pharmakologie hat mit ihrer Forschungsarbeit mögliche neue Ansätze zur Behandlung von Schlafstörungen geschaffen. Für ihre Ergebnisse ist sie mit dem renommierten August Wilhelm und Lieselotte Becht-Forschungspreis der Deutschen Stiftung für Herzforschung (DSHF) in Höhe von insgesamt 15.000 Euro ausgezeichnet worden. „Das sind vielversprechende Erkenntnisse, die neue Ausgangspunkte für die Entwicklung von Behandlungsoptionen für Betroffene mit Herzerkrankungen und Schlafstörungen eröffnen“, betont Prof. Dr. med. Armin Welz, Vorsitzender des Wissenschaftlichen Beirats der DSHF, die 1988 von der Deutschen Herzstiftung gegründet wurde. Die Arbeit wurde jüngst im Fachmagazin „Science“ publiziert (1). Über aktuelles zur Förderung der Herz-Kreislauf-Forschung informiert die Herzstiftung unter www.herzstiftung.de/herzstiftung-und-forschung

Entzündungsprozess zerstört Nervenzellen
Wie hängt die Epiphyse – diese winzig kleine Zirbeldrüse, die in ihrer Gestalt einem Pinienzapfen ähnelt – mit dem Herzen zusammen? Die Verbindung liegt in einem sogenannten Nervenknoten (Ganglion), und zwar im oberen Halsganglion. Dort befinden sich gebündelt Nervenzellen des vegetativen Nervensystems, das automatische Abläufe im Körper regelt – unter anderem reguliert es die Epiphyse und den Herz-Kreislauf. „Um herauszufinden, was genau in dem Nervenknoten passiert, haben wir das Feingewebe der Nervenknoten von verstorbenen herzgesunden und herzkranken Menschen untersucht“, erklärt Dr. Karin Ziegler. Das überraschende Ergebnis: Im Vergleich fanden sich in den Nervenknoten der herzkranken Menschen vermehrt bindegewebige Vernarbungen, stattdessen aber kaum noch Nervenzellen, die die Zirbeldrüse stimulieren können. Die Ursache für den Untergang der Nervenzellen liegt vermutlich in Fresszellen, sogenannten Makrophagen, die die Wissenschaftler gehäuft in den oberen Halsganglien der herzkranken Personen fanden. Diese rufen im Gewebe Entzündungen und Vernarbungen hervor. „Wahrscheinlich findet im oberen Halsganglion von Herzerkrankten ein Entzündungsprozess statt, der die Nervenzellen zerstört“, folgert die Forscherin.

Wirkstoff stoppt Fresszellen
Parallele Versuche im Tiermodell zeigten die gleichen Resultate. So sammelten sich im Halsganglion von Mäusen mit Herzschwäche (Herzinsuffizienz) ebenfalls Fresszellen, die zum Untergang von Nervenzellen führten. Infolgedessen wurde die Zirbeldrüse nur noch schwach angeregt, bildete wenig Melatonin, was zu einem gestörten Tag-Nacht-Rhythmus der Tiere führte. „Aber wir haben im Tiermodell herausgefunden, wie man die Nervenzellen schützen kann“, erklärt Dr. Ziegler. „Wenn man im frühen Krankheitsstadium einen Makrophagen-Hemmstoff gezielt in das Halsganglion injiziert, gehen die Fresszellen zurück und die Melatoninproduktion normalisiert sich wieder.“ Die Hoffnung ist, basierend auf diesen Ergebnissen Medikamente zu entwickeln, um die Schlafstörungen, die mit einer Herzerkrankung einhergehen, dauerhaft zu kurieren.

Biomarker für Herzerkrankung?
Doch das ist noch nicht alles. Die insgesamt über rund fünf Jahre laufenden Untersuchungen hielten eine weitere Verblüffung für die Wissenschaftler bereit. „Wir konnten schon mit bloßem Auge sehen, dass die oberen Halsganglien bei den Herzkranken stark angeschwollen waren“, sagt Dr. Ziegler. Kann somit die Größe des oberen Halsganglions ein erster Hinweis auf eine Herzerkrankung sein? Mit einem ganz normalen Ultraschall untersuchte das Team die Nervenknoten von Studienteilnehmern, die sie in ihrem Umfeld rekrutierten. „Das Ergebnis war eindeutig“, betont die Münchener Preisträgerin. „Bei den herzkranken Personen waren die Ganglien deutlich vergrößert.“

Umfassende klinische Studie geplant
Das heißt, Dr. Ziegler und ihre Kollegen haben erstens einen möglichen Biomarker gefunden, der ein Indiz für eine Herzerkrankung und einer damit einhergehenden Schlafstörung sein kann. Zweitens haben sie eine Option entdeckt, die Melatoninproduktion bei Herzkranken anzukurbeln, indem frühzeitig und gezielt ein Wirkstoff in das Halsganglion von Betroffenen gespritzt wird, der die zerstörerischen Fresszellen ausschaltet. Die Nerven erholen sich, die Zirbeldrüse produziert wieder ausreichend Melatonin und der Schlaf normalisiert sich. Ist die Herzerkrankung fortgeschritten, lässt sich die Schlafstörung möglicherweise mit einem Melatonin-Medikament in bestimmter Dosierung beheben. Spannende Ansatzpunkte, die Dr. Ziegler und ihre Forschergruppe in einer umfassenden klinischen Studie eingehend untersuchen wollen. „Doch bis betroffene Patienten von unseren Ergebnissen profitieren können, dauert es noch viele Jahre.“
(weg)

Literatur
(1) Ziegler et al., Immune-mediated denervation of the pineal gland underlies sleep disturbance in cardiac disease, Science 381, 285–290 (2023)

Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114. (Für Foto-Ansicht siehe PDF oder unter https://www.mynewsdesk.com/de/deutsche-herzstiftung-e-v/pressreleases/forscherin…).

Forschung nah am Patienten
Dank der finanziellen Unterstützung durch Stifterinnen und Stifter, Spender und Erblasser kann die Deutsche Herzstiftung gemeinsam mit der von ihr 1988 gegründeten Deutschen Stiftung für Herzforschung (DSHF) Forschungsprojekte in einer für die Herz-Kreislauf-Forschung unverzichtbaren Größenordnung finanzieren. Infos zur Forschung unter www.herzstiftung.de/herzstiftung-und-forschung

August Wilhelm und Lieselotte Becht-Forschungspreis
Jährlich vergibt die Deutsche Stiftung für Herzforschung einen Wissenschaftspreis, der in kardiologischen Kreisen hoch angesehen ist: den „August Wilhelm und Lieselotte Becht-Forschungspreis”. Der Preis ist mit 15.000 Euro dotiert und zählt zu den herausragenden Instrumenten der Nachwuchsförderung. Er wird für hervorragende Forschungsarbeiten auf dem Gebiet der patientennahen Herz-Kreislauf-Forschung verliehen. 1995 stiftete das Ehepaar Becht zum ersten Mal den Forschungspreis. Damit begann für die beiden eine regelmäßige Selbstverpflichtung, die bis heute andauert. Denn auch nach dem Tod ihres Mannes finanziert Lieselotte Becht den Preis weiter, der seit 2005 den Namen seiner Stifter trägt. So bleibt ein lebendiges Andenken an August Wilhelm Becht, der sich zusammen mit seiner Frau als großzügiger Förderer gezeigt hat.

Service-Tipp für Herzpatienten: Podcast „Warum wird unser Herz krank, wenn uns Schlaf fehlt?“ Ein Gespräch mit Prof. Anil-Martin Sinha: https://herzstiftung.de/service-und-aktuelles/podcasts/herz-gesund-durch-schlaf

2023
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert (Ltg:) / Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Ziegler KA, Ahles A, Dueck A, Esfandyari D, Pichler P, Weber K, Kotschi S, Bartelt A, Sinicina I, Graw M, Leonhardt H, Weckbach LT, Massberg S, Schifferer M, Simons M, Hoeher L, Luo J, Ertürk A, Schiattarella GG, Sassi Y, Misgeld T, Engelhardt S. Immune-mediated denervation of the pineal gland underlies sleep disturbance in cardiac disease. Science. 2023 Jul 21;381(6655):285-290. doi: 10.1126/science.abn6366. Epub 2023 Jul 20. PMID: 37471539.

Weitere Informationen:
https://herzstiftung.de/herzstiftung-und-forschung
https://herzstiftung.de/service-und-aktuelles/podcasts/herz-gesund-durch-schlaf

Anhang
PM_DHS_Forschung-Auslöser-für-Schlafstörungen-bei-Herzkranken_2023-11-15_FIN

(nach oben)


Neue Sicherheitslücke in AMD-SEV-Technologie entdeckt

Mit Secure Encrypted Virtualization (SEV) will AMD vor allem Cloud-Dienste sicherer machen. Doch auch auf die aktuellsten Versionen des Sicherheitsfeatures, SEV-ES (Encrypted State) und SEV-SNP (Secure Nested Paging), war bis vor Kurzem noch ein softwarebasierter Fehler-Angriff möglich. Entdeckt hat das CISPA-Forscher Ruiyi Zhang, der im Team von CISPA-Faculty Dr. Michael Schwarz forscht. Die von ihm zusammen mit Kollegen des CISPA und der TU Graz konstruierte Angriffsart nennt sich CacheWarp und ermöglicht Angreifer:innen im schlimmsten Fall umfassende Zugriffsrechte auf Daten und sogar die Möglichkeit, sie zu verändern. AMD hat die Lücke nach eigenen Angaben durch ein Update geschlossen.

Die Nutzung großer Cloud-Plattformen boomt. „Cloud-Dienste erlauben es Unternehmen, flexibel Rechenpower und Speicherplatz einzukaufen, wann immer sie es brauchen“, erklärt Riuyi Zhang. Die Sicherheit der Dienste ist essentiell, wurde in der Vergangenheit aber bereits durch entdeckte Schwachstellen und potentielle Angriffsmöglichkeiten erschüttert. „Die Grundlage von Clouddiensten ist die sogenannte Virtualisierung, mit der sich Hardwarekomponenten und damit verbunden auch Personal einsparen lassen“, sagt Zhang. Bei der Virtualisierung werden laut dem Forscher innerhalb eines physischen Rechners mehrere virtuelle Maschinen erstellt. Virtuelle Maschinen sind quasi softwarebasierte Rechner, die alles haben, was ein normaler Computer auch hat: einen eigenen Arbeitsspeicher, eine CPU, ein eigenes Betriebssystem. Mit Virtualisierung lassen sich also aus einem Rechner mit entsprechender Rechenpower viele machen.

Sicherheitsfeature mit Schwächen
Für die Verteilung der Ressourcen und die entsprechende Trennung von Prozessen ist der sogenannte Hypervisor zuständig. Es handelt sich dabei um eine Software, die die Ressourcen wie Arbeitsspeicher und Rechenleistung verteilt und die Betriebssysteme isoliert. Der Hypervisor fungiert also als eine Art Host für die virtuellen Maschinen. Da dieser nicht zum Angriffspunkt werden darf, hat der Prozessorhersteller AMD die erste Generation von Secure Encrypted Virtualization (SEV) vorgestellt. Die Idee hinter SEV: Für jede laufende virtuelle Maschine wird der Arbeitsspeicher mit einem separaten Schlüssel verschlüsselt, was einen übergreifenden Datenzugriff und den Zugriff durch einen nicht-vertrauenswürdigen oder von Angreifer:innen übernommenen Hypervisor unmöglich machen soll. „Schnell wurden mehrere Sicherheitslücken bekannt. Zudem wurde Verschlüsselung bei SEV-ES und SEV anfänglich ohne Identitätsprüfung verwendet. Dadurch konnten Daten manipuliert werden. Und nicht alle Teile des Speichers waren verschlüsselt“, erklärt Michael Schwarz. Der CISPA-Faculty ist Experte für Sicherheitslücken in CPUs und war an der Entdeckung von mehreren solcher Lücken beteiligt, darunter Spectre, Meltdown und ZombieLoad. AMD reagierte auf die Probleme und entwickelte SEV weiter zu den Feautures SEV-ES (Encrypted State) und zuletzt SEV-SNP (Secure Nested Paging). Laut AMD verspricht SEV-SNP eine starke Speicherintegrität. Hypervisor-Attacken sollten damit unterbunden werden.

Ein paar Zeilen Code
Etwa eine halbe Minute, Zugang zu einem Serverraum und ein paar Zeilen Code bräuchte Zhang, um sich Zugang auf alle virtuellen Maschinen zu verschaffen und dort mit Administratorrechten alles einzusehen und zu verändern, was er möchte. Herauszufinden, wie genau das möglich ist, erforderte monatelange Arbeit. „Cache Warp ist unseres Wissens nach bislang der einzige softwarebasierte Angriff, mit dem SEV-SNP derartig ausgehebelt werden kann“, erklärt Zhang.

Ein Computer geht auf Zeitreise
„Zunächst müssen wir uns in ein System einloggen können. Dabei hilft uns eine Technik, die wir TimeWarp genannt haben“, sagt Schwarz. Sie nutzt laut dem Forscher aus, dass Computer sich in gewissen Situation im Speicher merken, welchen Code sie als nächstes ausführen müssen. „Wir können rückgängig machen, was der Computer sich als nächsten Schritt gespeichert hat. Dadurch führt der Computer Code aus, den er davor schon einmal ausgeführt hat, weil er eine veraltete sogenannte Rücksprungadresse aus dem Speicher liest. Der Computer reist somit in der Zeit zurück. Allerdings wird der alte Code mit neuen Daten ausgeführt, was zu unvorhergesehenen Effekten führt. Wenn man diese Technik clever einsetzt, kann man so die Programmlogik verändern“, erklärt Schwarz. Zhang fügt hinzu: „Mit Hilfe von TimeWarp ändern wir die Programmlogik einer virtuellen Machine also so, dass sie es uns erlaubt uns einzuloggen, ohne das Passwort zu kennen.“

Die 0 steht für Erfolg
Kombiniert mit der zweiten Technik, dem sogenannten „Dropforge“, ist es möglich, auch den Cache zu manipulieren und dort Veränderungen an Daten rückgängig machen. „Auch wenn es nicht intuitiv erscheint, kann man damit auch Administratorrechte bekommen. Dabei nutzt man Details in der Programmlogik aus“, sagt Schwarz. In der Informatik stehe eine „0“ oft dafür, dass etwas erfolgreich war. Andere Zahlen stehen hingegen für etwaige Fehlercodes. „0“ ist laut Schwarz jedoch auch der Standardwert von Daten, wenn nichts anderes gespeichert wird. „Wenn ein System testet, ob der jeweilige Nutzer Administrator ist oder nicht, dann liefert die Abfrage auch „0“ zurück, wenn man Administrator ist. Ist man kein Administrator, wird eine andere Zahl zurückgegeben. Mit „Dropforge“ kann man diese Antwort rückgängig machen. Egal, ob man Administrator ist oder nicht, es steht der initiale Wert „0“ im Speicher. Das System nimmt dann an, dass man Administrator ist“, erklärt Schwarz. „Mit dieser Kombination haben wir uneingeschränkten Zugriff auf die virtuelle Maschine“, ergänzt Zhang.

Vertrauen ist gut
In ihrem Paper „CacheWarp: Software-based Fault Injection Selective State Reset” haben die Forscher nicht nur die Angriffstechniken beschrieben, sondern auch eine compiler-basierte Lösung zur Entschärfung der Angriffsmöglichkeiten vorgeschlagen. Zudem wollen sie ein Testing-Tool für die Schwachstellen open source zur Verfügung stellen. „Wir wollen uns nicht auf die Aussage verlassen, dass etwas sicher ist. Wir wollen es prüfen können“, erklärt Schwarz. Seit Entdeckung von CacheWarp sind die Forschenden auch im Austausch mit AMD: Der Hersteller hat ihnen gegenüber angegeben, die Lücke inzwischen geschlossen zu haben.

Wissenschaftliche Ansprechpartner:
michael.schwarz@cispa.de

Originalpublikation:
“CacheWarp: Software-based Fault Injection using Selective State Reset” von Ruiyi Zhang (CISPA), Lukas Gerlach (CISPA), Daniel Weber (CISPA), Lorenz Hetterich CISPA, Youheng Lü (Independent), Andreas Kogler (Graz University of Technology), Michael Schwarz (CISPA)

Weitere Informationen:
http://cachewarpattack.com Das Forschungsteam unter der Leitung von Michael Schwarz vom CISPA Helmholtz-Zentrum für Informationssicherheit hat für Informationen zu CacheWarp eine eigene Website erstellt.

(nach oben)


Vielfältige Wälder könnten riesige CO2-Speicher sein – aber nur, wenn die Emissionen sinken

Laut einer neuen Studie könnte die Wiederherstellung natürlicher Wälder rund 226 Gigatonnen (Gt) Kohlenstoff binden – allerdings nur dann, wenn die Menschheit auch ihre Treibhausgasemissionen stark reduziert. Zudem braucht es gemeinsame Anstrengungen zum Erhalt und zur Wiederherstellung der biologischen Vielfalt.

Soeben wurde in der Fachzeitschrift „Nature“ eine neue Studie über das Kohlenstoffspeicherpotenzial von Wäldern veröffentlicht. Sie zeigt, dass Wälder weltweit rund 226 Gigatonnen (Gt) Kohlenstoff zusätzlich binden könnten. Die Studie unterstreicht die entscheidende Bedeutung der Erhaltung, Wiederherstellung und nachhaltigen Bewirtschaftung von Wäldern für das Erreichen der internationalen Klima-​ und Biodiversitätsziele. Die Forschenden betonen, dass dieses Potenzial durch Anreize für gemeinschaftliche Anstrengungen zur Förderung der Biodiversität erreicht werden kann. An der Studie waren Hunderte von Wissenschaftlern aus aller Welt beteiligt.

Kontroverses Thema
Das CO₂-Speicherpotenzial von Wäldern ist ein kontrovers diskutiertes Thema. Eine ähnliche Studie, die vor vier Jahren in der Fachzeitschrift Science veröffentlicht wurde, ergab, dass durch Wiederaufforstung über 200 Gt Kohlenstoff gebunden werden könnten – was etwa 30 Prozent des vom Menschen in die Atmosphäre freigesetzten Kohlenstoffs entspricht.

Damit entbrannte nicht nur eine wissenschaftliche Debatte über die Rolle der Natur im Kampf gegen den Klimawandel. Während weitere Studien die Ergebnisse bestätigten, warnten andere davor, dass das Speicherpotenzial um das Vier-​ bis Fünffache überschätzt worden sein könnte. Die Studie weckte zudem Bedenken bezüglich der negativen Auswirkungen von Massenaufforstungen, Kohlenstoffkompensationsprogrammen und Greenwashing.

Um dieses kontroverse Thema anzugehen, hat sich ein internationales Team von hunderten Forschenden unter der Leitung des Crowther Lab der ETH Zürich zusammengeschlossen und das Speicherpotenzial von Wäldern neu bewertet. Dazu verwendeten die Forschenden eine breite Palette von Ansätzen, einschliesslich umfangreicher bodengestützter Datenaufnahmen und Satellitendaten.

Wege zu vollem CO₂-Speicherpotenzial der Wälder
Aufgrund der fortschreitenden Entwaldung liegt das Kohlenstoff-​Speichervermögen der Wälder weltweit um etwa 328 Gt unter seinem natürlichen Potenzial. Einen Grossteil der gerodeten Flächen nutzt der Mensch mittlerweile für Siedlungen und die Landwirtschaft. Ausserhalb dieser Gebiete, in nur dünn besiedelten Regionen, könnte die Renaturierung von Wäldern den Forschenden zufolge noch rund 226 Gt Kohlenstoff binden. Etwa 61 Prozent dieses Potenzials können erreicht werden, indem bestehende Wälder geschützt werden und sich bis zur natürlichen Reife erholen können. Die restlichen 39 Prozent können durch die Wiedervernetzung fragmentierter Waldlandschaften, durch nachhaltiges Management und Wiederherstellung von Ökosystemen erreicht werden.

«Die meisten Wälder der Erde sind stark geschädigt. Die meisten Menschen waren noch nie in einem der wenigen Primärwälder, die es noch gibt», erklärt Lidong Mo, einer der Hauptautoren der Studie. «Um die Biodiversität weltweit wiederherzustellen, muss vor allem die Entwaldung gestoppt werden.»

Die neuen Daten zeigen weiter, dass ungefähr die Hälfte des globalen Speicherpotenzials von Wäldern von der Biodiversität abhängt. Daher betonen die Forschenden, dass Wiederherstellungsmassnahmen auf die natürliche Artenvielfalt abstützen müssen, um das volle Speichervermögen zu erreichen. Zudem liesse sich dieses durch nachhaltige Land-​ und Forstwirtschaft sowie Wiederherstellungsmassnahmen zur Förderung von Biodiversität maximieren.

Wiederherstellung neu definiert
Die Autorinnen und Autoren betonen, dass verantwortungsvolle Wiederherstellung von Ökosystemen eine grundlegend gesellschaftliche Aufgabe ist. Sie beinhaltet zahlreiche Massnahmen wie das Ausscheiden von Schutzgebieten, die natürliche Regenerierung, Renaturierung, Forstwirtschaft, Agroforstwirtschaft und alle anderen von der Gemeinschaft getragenen Bemühungen zur Förderung der Biodiversität. Nötig ist dazu eine gerechte Entwicklung, die durch Richtlinien vorangetrieben wird, welche die Rechte lokaler Gemeinschaften und indigener Völker priorisieren.

«Wir müssen bei vielen Menschen ein neues Verständnis von Wiederherstellung verankern», sagt Thomas Crowther, leitender Autor der Studie und Professor an der ETH Zürich. «Wiederherstellung bedeutet nicht, massenhaft Bäume zu pflanzen, um Kohlenstoffemissionen auszugleichen. Wiederherstellung bedeutet, den Wohlstand zu Millionen von lokalen Gemeinschaften, indigenen Völkern und Bauern umzulenken, die weltweit die biologische Vielfalt fördern. Nur wenn eine gesunde Artenvielfalt zur bevorzugten Wahl für lokale Gemeinschaften wird, erreichen wir langfristig als positiven Nebeneffekt das volle CO₂-Speicherpotenzial.»

Das Wissenschaftsteam kommt weiter zum Schluss, dass umweltgerechte Wiederherstellung nicht andere Ökosysteme, die von Natur aus waldfrei sind, wie Tundren oder Grasländer, umfassen darf. «Bei der globalen Wiederherstellung von Natur geht es nicht nur um Bäume», sagt Constantin Zohner, Senior Scientist an der ETH Zürich. «Wir müssen die natürliche Biodiversität aller Ökosysteme, die für das Leben auf der Erde wichtig sind, schützen – dazu zählen auch Wiesen, Moore oder Feuchtgebiete.»

Die Natur als Verbündete im Kampf gegen den Klimawandel
Die Studie beleuchtet die entscheidende Bedeutung natürlicher, vielfältiger Wälder, die bis zu 30 Prozent des vom Menschen verursachten Kohlenstoffs binden könnten. Wiederherstellungsmassnahmen ersetzen jedoch keine der Massnahmen zur Reduzierung der Emissionen aus fossilen Brennstoffen. Wenn der Treibhausgasausstoss weiter steige, so warnt die Studie, würden Wälder durch anhaltende Dürren, Waldbrände und die Erderwärmung bedroht. Dies würde auch ihr Kohlenstoff-​Speichervermögen massiv schmälern.

«Meine grösste Befürchtung ist, dass Unternehmen die Erkenntnisse unserer Studie missbrauchen, um ihre Treibhausgasemissionen nicht senken zu müssen. Aber je mehr Treibhausgase wir ausstossen, desto grösser ist die Gefahr für Mensch und Natur. Wir können allerdings nicht wählen, ob wir Emissionen senken oder die Natur schützen wollen – beides ist dringend nötig. Wir brauchen die Natur für das Klima und wir brauchen Klimaschutz für die Natur», betont Crowther.
Wissenschaftliche Ansprechpartner:

Crowther Lab, ETH Zürich; press@crowtherlab.com

Originalpublikation:
Mo L, Zohner CM, Reich PB, et al. Integrated global assessment of the natural forest carbon potential. Nature, 13. November 2023, DOI: 10.1038/s41586-​023-06723-z

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/11/vielfaeltige-w…

(nach oben)


Künstliche Intelligenz – Handlungsrahmen und Anwendungsfelder für Kommunen

Künstliche Intelligenz (KI) wird zunehmend in Bereichen der Stadtentwicklung eingesetzt. Die potenziellen Anwendungsfelder sind überaus vielfältig. Erfahrungen werden derzeit vor allem in Modellprojekten gesammelt.

Im Difu-Dialog mit Dr. Martin Memmel vom Deutschen Forschungszentrum für Künstliche Intelligenz und Dr. Jens Libbe vom Difu stehen die Potenziale von KI sowie zu beachtende Rahmenbedingungen für Kommunen im Fokus.
In der Veranstaltung besteht die Gelegenheit, im gemeinsamen Austausch die Wirkungen von KI auf die Stadtentwicklung zu diskutieren und Fragen zu stellen.

Ablauf:
Begrüßung
Prof. Dr. Carsten Kühl, Wissenschaftlicher Direktor und Geschäftsführer des Deutschen Instituts für Urbanistik (Difu)
Impuls und Podiumsdiskussion

  • Dr. Martin Memmel, Deutsches Forschungszentrum für künstliche Intelligenz (DFKI), Kaiserlautern
  • Dr. Jens Libbe, Deutsches Institut für Urbanistik (Difu), Berlin

  • Moderation- Jan Abt, Difu

Dramaturgie/Teilnehmende
Die Vortrags- und Dialogreihe widmet sich aktuellen Themen zur „Zukunft der Städte“. Je nach Schwerpunkt setzt sich der Teilnehmendenkreis aus Politik, Bundes- und Landesverwaltungen, Bezirksämtern, Stadtverwaltungen, Medien sowie anderen öffentlichen und privaten Einrichtungen unterschiedlich zusammen. Nach dem Input der jeweiligen Podiumsgäste ist Zeit für Fragen und Diskussion – auch mit dem Publikum.

Online-Anmeldung und weitere Infos: www.difu.de/18112

Eine Anmeldung ist erforderlich, um Zugangsdaten zu erhalten. Bitte beachten Sie die Informationen zum Datenschutz. Fragen zur Anmeldung: dialoge@difu.de. Presseanfragen: presse@difu.de.Teilnehmende können Fragen und Diskussionsbeiträge während der Veranstaltung in der Videokonferenz oder über die Chat-Funktion einbringen.


Vorschau: Für das „Wintersemester“ 2023/2024 sind folgende weitere Difu-Dialoge in Planung (die Titel sind noch Arbeitstitel – eine Anmeldung ist erst nach dem Versand der Einzelprogramme möglich):

•06. Dezember 2023: Fahrrad versus Auto: Vom Gegeneinander zum Miteinander?
•21. Februar 2024: Umgang mit anhaltender Trockenheit in Kommunen: Betroffenheiten, Partner und Lösungsstrategien
•13. März 2024: Teurer Wohnen
•17. April 2024: Zukunft findet Stadt – mit wem?

Kurzinfo: Deutsches Institut für UrbanistikDas Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Wissenschaftliche Ansprechpartner:
Difu-Pressestelle
Sybille Wenke-Thiem
pressestelle@difu.de
+49 30 39001-208/-209

(nach oben)


Umweltgiften auf der Spur

Nachweis von Per- und Polyfluoralkylsubstanzen (PFAS) durch unterbrochene Energieübertragung
PFAS, eine Gruppe stark fluorierter Substanzen, stellen eine Gefahr für Mensch und Umwelt dar. So scheinen besonders problematische Vertreter, wie Perfluoroktansulfonsäure (PFOS) und Perfluoroktansäure (PFOA), Organschäden und Krebs zu verursachen und das Hormonsystem durcheinander zu bringen. In der Zeitschrift Angewandte Chemie stellen Forscher jetzt einen neuen Ansatz für einen kostengünstigen, einfach zu handhabenden Fluoreszenz-Sensor für eine empfindliche Vor-Ort-Analytik von PFAS in Wasserproben vor.

Die Bezeichnung Per- und Polyfluoralkyl-Substanzen (PFAS) fasst eine Gruppe organischer Verbindungen zusammen, deren am Kohlenstoff gebundene Wasserstoffatome vollständig oder teilweise durch Fluoratome ersetzt sind. Eingesetzt werden sie u.a. für die Herstellung wasser-, fett- und schmutzabweisender Ausrüstungen vielfältiger Produkte, wie beschichteter Pfannen, Outdoortextilien und Verpackungen. Zudem können sie z.B. in Feuerlöschschäumen, Farben und Autopolituren enthalten sein. So nützlich diese Verbindungen sind, so schädlich sind sie, wenn sie in die Umwelt gelangen: Sie lassen sich nicht abbauen und reichern sich in Pflanzen, Tieren und Menschen an.

Für Trinkwasser wurden in der EU Grenzwerte von 100 ng/l für die Summe bestimmter PFAS-Einzelsubstanzen bzw. 500 ng/l für die Gesamtheit aller PFAS beschlossen. In Deutschland müssen Wasserversorger das Trinkwasser ab 2026 auf PFAS untersuchen lassen. Die Grenzwerte der US Environmental Protection Agency sind strenger: Für die verbreitetsten PFAS, PFOS und PFOA gelten jeweils 4 ng/l als Höchstgrenze.

Der übliche Nachweis solcher Spurenmengen durch Chromatographie/Massenspektrometrie ist zeitaufwendig, teuer und benötigt komplexe Geräte sowie erfahrenes Personal. Timothy M. Swager und Alberto Concellón vom Massachusetts Institute of Technology (MIT) in Cambridge, USA, stellen jetzt einen Ansatz für tragbaren, kostengünstigen Test vor, mit dem die selektive Detektion von PFAS in Wasserproben einfach anhand von Fluoreszenzmessungen möglich ist.

Der Test basiert auf einem Polymer in Form dünner Filme oder Nanopartikel mit fluorierten Seitengruppen, in das fluorierte Farbstoffmoleküle (Squarain-Derivate) eingebettet sind. Das spezielle Polymer-Rückgrat (Poly-Phenylen-Ethinylen) absorbiert violettes Licht und überträgt die Lichtenergie über einen Elektronenaustausch auf den Farbstoff (Dexter-Mechanismus), der daraufhin rötlich fluoresziert. Sind PFAS in einer Probe, dringen diese in das Polymer ein und verschieben die Farbstoffmoleküle um den Bruchteil eines Nanometers. Das genügt, um den Elektronenaustausch und damit den Energietransfer zu stoppen. Die rote Fluoreszenz des Farbstoffs wird „abgeschaltet“, dafür wird eine blaue Fluoreszenz des Polymers „angeschaltet“. Die Stärke dieser Änderung ist der Konzentration des PFAS proportional.

Der neue Ansatz, dessen Nachweisgrenze für PFOA und PFOS im µg/l-Bereich liegt, eignet sich für die Vor-Ort-Detektion in stark kontaminierten Regionen. Spuren-Verunreinigungen von Trinkwasserproben können nach einer Vorkonzentrierung durch Festphasenextraktion ausreichend genau erfasst werden.

Angewandte Chemie: Presseinfo 45/2023
Autor/-in: Timothy M. Swager, Massachusetts Institute of Technology, Cambrige (USA), https://swagergroup.mit.edu/

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202309928

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Schutz vor Atemwegserkrankungen: Medizinverbände empfehlen neue RSV-Impfung

Neuer Schutz vor schweren Atemwegserkrankungen: Expertinnen und Experten von elf medizinischen Fachgesellschaften und Institutionen rufen jetzt insbesondere Über-60-Jährige mit Vorerkrankungen auf, sich gegen das Respiratory Syncytial-Virus (RSV) impfen zu lassen. In einem heute gemeinsam veröffentlichten Positionspapier heißt es: „RSV-Infektionen gefährden nicht nur Neugeborene, Säuglinge und Kleinkinder, sondern können auch bei älteren und vorerkrankten Erwachsenen schwere Krankheitsverläufe und Komplikationen von vorbestehenden Erkrankungen auslösen.“

Erstmals überhaupt sind nun zwei Impfstoffe gegen das RS-Virus in der Europäischen Union zugelassen worden. Die konkrete Empfehlung: „Insbesondere Erwachsene mit deutlich eingeschränkter Immunabwehr oder schweren Lungen- sowie Herz-Kreislauf-Vorerkrankungen empfehlen wir eine Impfung“, sagt Co-Autor Professor Wolfram Windisch, Präsident der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin (DGP), unter deren Leitung das Empfehlungspapier entstanden ist.

Vor allem in den Wintermonaten treten RSV-Infektionen gehäuft auf. „In den Kliniken beobachten wir eine vergleichbare Krankheitslast und Sterberate wie bei Lungenentzündungen nach Influenza- oder Pneumokokken-Infektionen. Besonders gefährdet sind auch Menschen mit bösartigen Blutkrebserkrankungen wie Leukämie oder Multiples Myelom“, erklärt Professor Martin Witzenrath, federführender Autor des neuen Positionspapiers und Direktor der Klinik für Pneumologie, Beatmungsmedizin und Intensivmedizin an der Charité – Universitätsmedizin Berlin. Er warnt zudem vor dem Risiko schwerer Folgeerkrankungen, die durch eine RSV-Infektion ausgelöst werden können.

Nach Pandemie: RSV-Erkrankungen wesentlich häufiger – Oftmals unerkannt
Eine aktuelle Studie zeigt auf, dass insbesondere nach den ersten Wellen der COVID-19-Pandemie RSV-Erkrankungen wesentlich häufiger vorkommen. „Diese Erkrankungen sind aber nicht neu und waren schon vor COVID-19 häufig. Allerdings ist der Nachweis durch eine zusätzliche Laboruntersuchung aufwendig“, sagt Witzenrath. Daher werde beim Hausarzt nur selten eine entsprechende Untersuchung in die Wege geleitet, auch einen ausreichend sensitiven Schnelltest für Praxen gäbe es bisher nicht. „Deswegen ist der Anteil von unbekannten Virusinfektionen in der Bevölkerung recht hoch – oftmals kann dem eine RSV-Erkrankung zugrunde liegen, die auch im Krankenhaus in der klinischen Routine meist unerkannt bleibt.“

RSV-Impfung jetzt in der EU zugelassen – Kostenübernahme prüfen lassen
Die European Medicines Agency (EMA) hat in diesem Jahr erstmals zwei Impfstoffe für die EU zugelassen, die bereits in Apotheken erhältlich sind. Da die Ständige Impfkommission (STIKO) noch keine entsprechende Empfehlung für Deutschland ausgesprochen hat, sind die Kosten in der Regel privat zu tragen. Eine Kostenübernahme kann aber auch individuell bei der zuständigen Krankenkasse beantragt werden. Grundsätzlich gelte immer, erst das Beratungsgespräch mit dem eigenen Hausarzt zu suchen.


Weitere Informationen:
https://pneumologie.de/aktuelles-service/presse/pressemitteilungen/schutz-vor-at…

(nach oben)


Wie kann Künstliche Intelligenz den ÖPNV verbessern?

Ein Konsortium um die Leadpartner Fraunhofer-Institut für Materialfluss und Logistik IML sowie die DB Regio Bus forscht derzeit an der Entwicklung einer KI-basierten Lösung zur Planung und Steuerung des künftigen ÖPNV-Angebots. Mit dem Projekt KI4autoBUS soll in erster Linie die Mobilität durch autonome Shuttles verbessert werden. An dem seit Oktober 2021 und noch bis Ende des Jahres laufenden Projekt ist mit einem Teilauftrag auch das Institut für Informationssysteme (iisys) der Hochschule Hof beteiligt. Mit einem Audio-Guide und dessen akustischen Signalen möchte man künftig die barrierefreie Beförderung mobilitätseingeschränkter Personen erleichtern.

Seit Oktober 2017 ist Alexander Kern als wissenschaftlicher Mitarbeiter am Institut für Informationssysteme der Hochschule Hof (iisys) in der Forschungsgruppe „Multimediale Informationssysteme“ tätig. Er kümmert sich im Rahmen des Projektes KI4autoBUS und im direkten Auftrag der DB Regio Bus um den Hofer Teil der Entwicklungsarbeit.

Barrierefreie Mobilität
Er erläutert: „Die Effizienz des öffentlichen Personennahverkehrs (ÖPNV) kann unter Einsatz künstlicher Intelligenz (KI) für Nutzer und Anbieter merklich gesteigert werden. Das Projekt zeigt am Beispiel Bad Birnbach, dass die KI Buchungsanfragen antizipiert (Predictive Demand) und die autonomen Shuttles vorzeitig an geeigneten Haltestellen platziert. Der Hofer Anteil besteht darin, die schon fahrenden Shuttles so zu ergänzen, dass auch die barrierefreie Beförderung von mobilitätseingeschränkten Personen verbessert wird“, so Kern. Geschehen soll dies durch einen Audio-Guide, der durch akustische Signale die Nutzung der Shuttles für die entsprechende Zielgruppe erleichtert:
„Der von uns erstellte Prototyp wird dazu genutzt, in einem Feldtest auch akustische Informationen zu testen. Dabei soll herausgefunden werden, wie die akustischen Signale angenommen werden und zu welchem Grad sie den Probanden helfen. Akzeptanz für die autonom fahrenden Shuttles spielt hier auch eine wichtige Rolle, denn: je mehr nützliche Informationen Passagiere bekommen, desto abgeholter fühlen sie sich, wodurch eventuell ein Grundmisstrauen gegenüber der Technik abnimmt. Ein Shuttle, das kommuniziert und sein Handeln erläutert und Passagiere bestmöglich informiert, ist darum ein wichtiger Schritt für die Akzeptanz.“

Erleichterungen durch akustische Signale
„Durch die Buchungsdaten der Reisenden und die Möglichkeit erweiterte Profilangaben (z.B. Seheinschränkungen) zu machen, kann ein Bedarf für Sprachinformationen entstehen, um im autonomen Shuttle Reise- und Umgebungsinformationen angesagt zu bekommen.“ So werden bspw. Informationen zum barrierefreien Einsteigen abgespielt, wenn eine Person mit Rollstuhl an einer Haltestelle erwartet wird. Ähnlich wie bei Bus- oder Zugfahrten werden natürlich auch die nächsten Haltestellen angesagt. Zusätzlich gibt es in Bad Birnbach die sogenannte „Kennenlernfahrt“, die den Passagieren Informationen zur Region gibt: „Wir sind aktuell dabei, diese Texte einzubauen – wir können sie dann anschließend an der richtigen GPS-Position über den Audio-Guide abspielen“, so Alexander Kern.

Komponenten aus dem „MakerSpace“ der Hochschule Hof
Die für den Audio-Guide benötigten Komponenten wurden eigens im MakerSpace der Hochschule Hof produziert und werden reversibel in den Bussen verbaut – sie können bei Bedarf also auch wieder deinstalliert und ausgetauscht werden. Doch es gibt noch weitere Anforderungen an das Gerät: So müssen Updates der Routen und der Audiodateien leicht durchgeführt werden können. Und auch die Möglichkeit zur Fernwartung ist ganz wesentlich: „Wir können uns im Betrieb auf das Gerät schalten und alle internen Prozesse genau nachverfolgen und notfalls Änderungen direkt einpflegen“, so Kern. Der Audio-Guide bezieht über eine GPS-Antenne selbst die aktuelle Position, über eine LTE-Antenne wird dann eine Verbindung zum Backend erstellt, wodurch jegliche Updates jederzeit während des Betriebes durchgeführt werden können (OTA).
Als besonders anspruchsvoll gestaltete sich beim Prototyp die 3D-Modellierung des Gehäuses, so dass alle Bauteile auf möglichst wenig Raum ihren Platz finden. Zudem ist das Gehäuse mit austauschbaren Seitenteilen konzipiert – somit ist je nach Anforderungen eine Erweiterung mit weiterer Peripherie leicht möglich. Auch ein Mini-Computer, Verstärker, Lüfter, GPS + LTE-Modul mit den jeweiligen Antennen, Lautsprecher sowie Peripherie (Status-LED, Lautstärke-Regler, drei programmierbare Knöpfe) sind im Gerät verbaut.

Daten für den Lernprozess der KI
Im Wesentlichen soll die KI dafür sorgen, dass die Shuttles effizienter eingesetzt werden. Das bedeutet: Alle Fahrtwünsche in Bad Birnbach werden berücksichtigt, Personen mit besonderen Mobilitätsanforderungen (z.B. Rollstuhlfahrer:innen) werden bei mehreren Buchungsanfragen bevorzugt bedient und Leerfahrten sowie lange Wartezeiten werden vermieden. Letzteres bedeutet, dass die KI Buchungsanfragen antizipiert (Predictive Demand) und die Shuttles vorzeitig an geeigneten Haltestellen platziert. Um das zu erreichen, wird im KI4autoBUS Projekt Reinforcement Learning (RL), also bestärkendes Lernen, eingesetzt und auf Funktionsfähigkeit getestet. Bei RL handelt es sich um einen Bereich des maschinellen Lernens, der darauf abzielt, dass ein Agent (beispielsweise ein Shuttle) durch Interaktion mit seiner Umgebung selbstständig lernt, eine bestimmte Aufgabe zu lösen. Vorbereitend auf den Einsatz der KI im realen Betrieb, wird der Agent derzeit in der Simulationsumgebung trainiert, getestet und weiter angepasst. Die Auswertungen zeigen, dass der Agent sich mit fortschreitendem Training immer weiter verbessert. Der Agent lernt, seine Aktionen so zu wählen, dass seine Belohnung maximiert wird, was zu reduzierten Wartezeiten der Passagiere und gleichzeitiger Bedingung aller Fahrtanfragen führt.

Im nächsten Schritt soll der Agent im Realbetrieb eingesetzt werden und im Feldtest unter Beweis stellen, welche Fähigkeiten er im Training in der Simulationsumgebung gelernt hat. Dazu erhält der Agent über eine Schnittstelle aus dem Dispositionssystem Echtzeitdaten zu den Fahrtanfragen und den Positionen der Shuttles und soll damit eine Entscheidung treffen, welches Shuttle zu welcher Haltestelle delegiert werden soll,“ erklärt Nicole Wagner-Hanl, Senior Consultant für Mobilität und Digitalisierung am Fraunhofer IML.

Deutliche Effizienzsteigerungen
Das Gesamtvorhaben hat zum Ziel, die Effizienz des Gesamtsystems des öffentlichen Personennahverkehrs unter Einsatz künstlicher Intelligenz (KI) signifikant zu steigern. Der eigenständige Entscheidungsprozess der KI ermöglicht eine optimale Verkehrsmittel-Planung, zugeschnitten auf die mitunter besonderen Anforderungen jedes einzelnen Nutzers. Zudem verfügt die KI über die Fähigkeit, die individuellen Mobilitätsbedarfe vorherzusehen und den einzelnen Nutzern situativ die besten Mobilitätsangebote aktiv zu kommunizieren. Um die Projekt- und Entwicklungsressourcen optimal zu nutzen, werden die bestehenden autonome Kleinbusse, die seit längerer Zeit in Bad Birnbach im Betrieb sind, für die Erweiterungen und Tests in diesem Vorhaben genutzt. Die modifizierten Kleinbusse sollen in erster Linie für die Bedarfe Mobilitätseingeschränkter eingesetzt werden.

Praxistests starten
Wagner-Hanl weiß: „Insbesondere mobilitätseingeschränkte Personen stehen vor der Herausforderung eigenständig mobil zu sein. Die knappe Ressource an Fahrzeugen, die den Anforderungen bezüglich einer besseren Barrierefreiheit gerecht werden, könnte durch eine automatisierte Einsatzplanung mithilfe einer KI ideal zum Einsatz gebracht werden. Dies ermöglicht die differenzierte Zuordnung von modifizierten und konventionellen Fahrzeugen an verschiedene Nutzergruppen. Zusätzlich entstehen Vorteile für Reisende, indem durch eine Vorhersage der Fahrtanfragen bzw. eine Vorhersage der günstigsten Wartehaltestelle lange Wartezeiten vermieden werden. Gleichzeitig profitieren auch die Mobilitätsanbieter, indem Leerfahrten minimiert werden, die Flottengröße optimiert werden kann und Betriebskosten durch den verbesserten Einsatz der Shuttles gesenkt werden.“
Sofern keine Nachfrage mobilitätseingeschränkter Reisender besteht, wird das modifizierte Shuttle auch für den Normalbetrieb eingesetzt, um eine möglichst hohe Auslastung zu erreichen. Starten soll der Feldtest mit mehreren Probanden Ende Oktober 2023. Wenn die Tests des Audioguides der Hochschule Hof erfolgreich verlaufen, ist eine Integration in den regulären Fahrbetrieb möglich. „Mit dem Vorhaben kann ein effizienter und smarter Beitrag für das Programm »Bayern barrierefrei« geleistet werden, welches die barrierefreie Gestaltung des ÖPNV bis 2023 zum Ziel hat“, so Alexander Kern abschließend.

Die Förderung
Das Projekt wird vom Bayerischen Staatsministerium für Wirtschaft, Landesentwicklung und Energie (StMWi) im Rahmen der Förderlinie Digitalisierung, Förderbereich Informations- und Kommunikationstechnik gefördert.

Das Konsortium
Das Projektkonsortium besteht aus Forschungs-, Entwicklungs- und Anwendungspartnern. Es werden im Verbund die Kompetenzen aus Mobilität & Personenverkehr, Softwareentwicklung und Forschung synergetisch gebündelt.

o Fraunhofer IML, Projektzentrum Verkehr Mobilität und Umwelt in Prien am Chiemsee
o DB Regio Bus Bayern
o FMS Future Mobility Solutions GmbH
o Q_PERIOR AG
o qdive GmbH

Wissenschaftliche Ansprechpartner:
Alexander Kern
Alexander.Kern@iisys.de
Tel: +49 9281 409-6318

(nach oben)


Herzgesundheit: Mit welchem Blutdruck lebt Frau am längsten?

Kardiologen aus Deutschland und Nordamerika haben die Blutdruckdaten von Frauen aus einer Langzeitstudie ausgewertet. Ihr Ziel war es herauszufinden, welche Blutdruckwerte bei Frauen über 65 Jahren mit einem langen Leben assoziiert werden können.

Wie lange ein Mensch lebt, hängt von vielen Begleitumständen ab: Ausreichende Bewegung, gute Ernährung, und ein rundum gesunder Lebensstil, aber auch genetische Veranlagung können dazu beitragen, ein hohes Lebensalter zu erreichen. Jetzt haben die Kardiologen PD Dr. Bernhard Haring aus Homburg an der Saar und Prof. Dr. Michael LaMonte aus Buffalo (USA) den systolischen Blutdruck bei Frauen als Faktor unter die Lupe genommen – mit eindeutigen Ergebnissen.

Was sagen Blutdruckwerte überhaupt aus?
Der Blutdruck eines Menschen ergibt sich aus zwei Werten, die in mmHg (Millimeter/Quecksilbersäule) angegeben werden. Der erste, höhere Wert ist der systolische Blutdruck, um den es in der Studie geht. Er gibt den Maximaldruck an, mit dem das Blut bei der Kontraktion des Herzmuskels durch die Hauptschlagader gepumpt wird. Der zweite, niedrigere Wert ist der diastolische Blutdruck. Er misst den Minimaldruck, mit dem das Blut im Körper noch unterwegs ist, wenn sich das Herz wieder entspannt. Laut den aktuellen europäischen Leitlinien liegt ein optimaler Blutdruck leicht unter 120/80 mmHg (sprich: 120 zu 80), normale Werte liegen im Bereich 120-129/80-84 mmHg. Mit zunehmendem Alter werden die Gefäße unelastischer, was in der Regel zur Folge hat, dass der Blutdruck ansteigt. Bei Seniorinnen und Senioren gelten daher auch leicht höhere Werte als normal. Ein dauerhafter Bluthochdruck kann das Risiko für Herzkreislauf-Erkrankungen erhöhen. Dann können blutdrucksenkende Medikamente helfen, die Werte wieder in den Griff zu bekommen.

Women’s Health Initiative – die amerikanische Langzeitstudie
In den Jahren 1993 bis 2005 wurden im Rahmen der US-amerikanischen Women’s Health Initiative in regelmäßigen Abständen über 16.000 Frauen medizinisch untersucht. Zusätzlich wurden die Teilnehmerinnen in den vergangenen 18 Jahren nachbeobachtet. Die Frauen waren zu Beginn der Studie 65 Jahre alt oder älter und hatten anfangs keine Herz-Kreislauf-Erkrankungen, Diabetes oder Krebs.
Haring und LaMonte sahen sich speziell die Werte für den systolischen Blutdruck der Probandinnen an sowie ihr jeweiliges Alter zum Testzeitpunkt. Anschließend ermittelten die Kardiologen die Überlebenswahrscheinlichkeit aus den Daten mithilfe von logistischer Regression, einem speziellen statistischen Verfahren.

120 mmHG Systole: Der Wunschwert für ein langes Leben
Während der Nachbeobachtungszeit von 2005 bis 2023 erlebten 9.723 (59 %) der 16.570 teilnehmenden Frauen das 90. Lebensjahr. Für alle Frauen, unabhängig vom Alter, war die Überlebenswahrscheinlichkeit bei einem systolischen Wert von 120 mmHg am höchsten – egal, ob der Blutdruck mittels Medikamente reguliert wurde oder nicht. Von denjenigen Frauen, deren systolischer Blutdruck zwischen 110 und 130 mmHg lag, hatten diejenigen mit einem Wert größer als 120 mmHg im direkten Vergleich eine geringere Überlebenswahrscheinlichkeit.

Haring und LaMonte kommen zu dem Ergebnis, dass die Regulierung des Blutdrucks im Alter eine wichtige Säule ist, um ein langes Leben zu ermöglichen. Das Ziel sollte es sein, den systolischen Blutdruckwert zwischen 110 und 130mmHg zu halten, wobei 120 mmHg einen optimalen Wert darstellt. Das bedeutet hingegen nicht, dass man andere Faktoren, wie eine gesunde Ernährung und ausreichende körperliche Betätigung vernachlässigen sollte. Vielmehr handelt es sich um einen einzelnen Baustein im Gefüge eines großen Ganzen – wenn auch einen wichtigen.

Zum Weiterlesen für Ärztinnen und Ärzte sowie Fachpersonal kann das Original-Abstract unter folgender URL gefunden werden:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

Originalpublikation:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

Weitere Informationen:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

(nach oben)


Studie: Tiefgaragen erwärmen das Grundwasser

Automotoren heizen durch ihre Abwärme Tiefgaragen derart auf, dass die Wärme über den Boden ins Grundwasser gelangt. Dabei geht allein in Berlin so viel Energie ins Grundwasser über, dass damit 14.660 Haushalte mit Wärme versorgt werden könnten. Das hat ein Team der Martin-Luther-Universität Halle-Wittenberg (MLU), des Karlsruher Instituts für Technologie und der Universität Basel herausgefunden. Den Forschenden zufolge könnte diese Erwärmung auf Dauer die Qualität des Grundwassers beeinträchtigen. In ihrer Studie im Fachjournal „Science of The Total Environment“ schlagen sie auch eine Lösung vor: Mit Geothermie und Wärmepumpen könnte die Wärme dem Boden entzogen und sogar genutzt werden.

Die Forschenden untersuchten die Temperatur in 31 Tiefgaragen in verschiedenen Städten in Deutschland, Österreich und der Schweiz. In sechs von ihnen konnten sie zudem die Temperatur des Grundwassers in der direkten Umgebung messen. So ließ sich für alle Standorte ein Wärmeprofil erstellen. Die Untersuchungen ergaben, dass Tiefgaragen über das gesamte Jahr betrachtet das Grundwasser erwärmen. Den größten Einfluss hatten dabei das Verkehrsaufkommen in den Tiefgaragen, ihre Nähe zum Grundwasser und die vorherige Grundwassertemperatur. „Da öffentliche Tiefgaragen häufig tiefer sind und mit kürzeren Standzeiten genutzt werden, erwärmen sie das Grundwasser stärker als private Anlagen“, sagt der Geowissenschaftler Maximilian Noethen von der MLU.

Die überschüssige Wärme im Boden könnte dem Team zufolge mithilfe von Geothermie und Wärmepumpen genutzt werden. „Der Vorteil davon wäre, dass dem Grundwasser Energie entzogen wird und es so abkühlt.“, sagt Noethen. Anhand von Modellierungen für 5.040 Tiefgaragen in Berlin berechnete das Team die Grundwassererwärmung durch Tiefgaragen für die Stadt. Da in den zentralen Bezirken der Hauptstadt viele Tiefgaragen im oder nahe am Grundwasser liegen, wird dort besonders viel Wärme an das Grundwasser abgegeben. Rund 0,65 Petajoule Energie kommen den Berechnungen zufolge jährlich in Berlin zusammen. Damit könnten theoretisch etwa 14.660 Haushalte mit Wärme versorgt werden. „Natürlich reicht allein die Wärme aus dem Grundwasser nicht aus, um den Wärmebedarf einer Stadt wie Berlin oder gar eines Landes wie Deutschland zu decken. Auch ist das Temperaturniveau des oberflächennahen Grundwassers nicht hinreichend, um ohne Wärmepumpe zu heizen. Aus früheren Arbeiten wissen wir jedoch, dass das Potenzial für Geothermie deutlich darüber hinaus geht und sie einen wesentlichen Anteil an einer nachhaltigen Wärmeversorgung haben könnte“, sagt Prof. Dr. Peter Bayer vom Institut für Geowissenschaften und Geographie der MLU.

Die Grundwassertemperatur steigt seit Jahrzehnten infolge der globalen Erwärmung an. In Städten wird dies durch dichte Bebauung, Versiegelung, fehlende Vegetation sowie direkte Wärmeeinstrahlung aus Tunneln und Tiefgaragen verstärkt. Da die Organismen im Grundwasser an konstante Temperaturen angepasst sind, könnte sich so auch die Artenzusammensetzung verändern. „Dadurch könnte sich auch die Qualität des Grundwassers verändern, aus dem wir große Teile unseres Trinkwassers beziehen. Diese Entwicklung gilt es durch vielfältige Maßnahmen zu kontrollieren“, so Bayer abschließend.

Die Studie wurde gefördert durch die Deutsche Bundesstiftung Umwelt (DBU) und das Margarete von Wrangell-Programm des Ministeriums für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg.

Originalpublikation:
Studie: Noethen M. et al. Thermal impact of underground car parks on urban groundwater. Science of The Total Environment (2023).
doi: 10.1016/j.scitotenv.2023.166572
https://www.sciencedirect.com/science/article/pii/S0048969723051975

(nach oben)


Biomüllverwertung: BAW-Sammelbeutel aktuell nicht empfehlenswert

Zum Sammeln von organischen Haushaltsabfällen sind seit einigen Jahren Tüten aus biologisch abbaubaren Werkstoffen, sogenannte BAW-Beutel, am Markt verfügbar. Jetzt wurde erstmals in einem groß angelegten Modellversuch wissenschaftlich untersucht, ob diese Beutel sich wie beabsichtigt komplett in bestehenden Bioabfallverwertungsanlagen zersetzen und wie groß das Interesse der Bevölkerung an BAW-Beuteln wirklich ist. Koordiniert wurde das Projekt vom Fraunhofer ICT mit Forschungspartnern der Universitäten Bayreuth und Hohenheim sowie der BEM Umweltservice GmbH. Das Ergebnis: Die Forschenden empfehlen die Nutzung von BAW-Beuteln derzeit aus mehreren Gründen nicht.

Das Ziel des Projekts »BabbA – Biologisch abbaubare Beutel in der Bioabfallverwertung« lag darin, das Abbauverhalten von BAW-Beuteln in bestehenden Bioabfallverwertungsanlagen zu analysieren und mögliche Auswirkungen auf die Umwelt zu beleuchten. Zusätzlich wurde im Modellversuch untersucht, ob Bürgerinnen und Bürger diese BAW-Beutel zum Sammeln organischer Abfälle annehmen und somit das Potenzial besteht, die konventionellen Kunststoffbeutel aus Polyethylen (PE) zu verdrängen. Zudem verfolgten die Forschenden die Frage, ob sich durch den Einsatz von BAW- und Papiersammelbeuteln der Anteil an Gesamtfremdstoffgehalt im Bioabfall verringert. Die Forschungsansätze lassen sich in einer alltagsnahen Fragestellung zusammenfassen: Stellen BAW-Beutel eine gute Alternative zur Sammlung von Bioabfällen im Haushalt dar? Die Arbeiten des Forschungsprojekts wurden mit dem Programm »Lebensgrundlage Umwelt und ihre Sicherung (BWPLUS)« aus Mitteln des Landes Baden-Württemberg finanziert.

Energielieferant Biomüll
In Deutschland werden trotz Mülltrennungsmandat noch immer signifikante Mengen an Kunststoffen mit dem Biomüll in Bioabfallverwertungsanlagen angeliefert – vermutlich, weil die Sammlung in Wohnung oder Haus mit Plastiktüten schlicht bequemer ist und als hygienischer empfunden wird. Diese Tüten – konventionelle Kunststoff- wie auch BAW-Beutel – müssen allerdings vor der Weiterverwertung der Bioabfälle aufwendig aussortiert werden, damit sie nicht im Kompost landen. Dabei geht immer auch wertvolles organisches Material verloren. Papiertüten werden häufig nicht als Alternative wahrgenommen, da sie als weniger feuchtigkeitsbeständig gelten und schon auf dem Weg zur Biotonne reißen können – nur einer der Gründe, warum etwa ein Drittel der deutschen Haushalte Bioabfall einfach im normalen Restmüll entsorgt. Dabei steckt in organischen Abfällen großes Potenzial in Form von wertvoller Energie und wichtigen Pflanzennährstoffen: Aus den Bioabfällen kann Biogas und dann Strom erzeugt werden; Endprodukte wie Kompost lassen sich als organische Dünger einsetzen und reduzieren damit den Einsatz von Kunstdünger. So leistet die Verwertung von Biomüll einen wichtigen Beitrag zu Energiewende und Nachhaltigkeit und vermindert zugleich Abhängigkeiten von internationalen Lieferketten.

Bioabbaubares Plastik: Zersetzung nicht gesichert
Die Verwendung von BAW-Beuteln könnte also eine praktikable Lösung zur Sammlung von Bioabfall sein, die einerseits das Hygienebedürfnis der Bevölkerung befriedigt und andererseits den Anteil der Bioabfallmenge ressourcennutzend steigert. Aber ist ihr Einsatz wirklich unbedenklich? Das Wissen und Bewusstsein darüber, welche potenziellen Risiken Mikro- und Nanoplastik für das Ökosystem darstellen, ist parallel zu den Möglichkeiten der Analyse von Mikroplastik in den vergangenen Jahren stark angestiegen. Mittlerweile steht fest, dass die potenziellen ökologischen Effekte zunehmen, je kleiner die Partikel sind. »In den aktuelle Qualitätskriterien für Komposte sind bei den festgelegten Grenzwerten nur Kunststoff-Fragmente über einem Millimeter Größe berücksichtigt. Kleinere Partikel werden nicht betrachtet. Wenn BAW-Beutel innerhalb der
Bioabfallverwertungsanlagen nicht komplett abgebaut werden, sondern lediglich zu Mikro- und Nanoplastik-Partikeln zerfallen, könnten sie mit dem Kompost in die Umwelt gelangen. Und das ist bei den aktuellen Verweilzeiten von Biomüll in den Verwertungsanlagen ein realistisches Szenario«, fasst BabbA-Projektleiter Jens Forberger vom Fraunhofer ICT zusammen.

Pionierarbeit im Modellversuch
Um eine verlässliche Aussage über die Sinnhaftigkeit der Verwendung von BAW-Beuteln treffen zu können, wurden seit 2019 im Projekt BabbA erstmals alle Aspekte von der Nutzung durch die Bürgerinnen und Bürger bis hin zum Abbau in den Verwertungsanlagen unter realen Bedingungen wissenschaftlich untersucht. In groß angelegten Sommer- und Winterexperimenten verteilten die Projektpartner etwa 400 000 Beutel unterschiedlicher Ausgangsstoffe (Ecovio®, Mater-Bi® sowie wachsbeschichtete Papiertüten) und Informationsmaterial an zehntausende Haushalte. In den ausgewählten Landkreisen organisierte die BEM Umweltservice GmbH mit den Forschenden die Abholung und Untersuchung des Biomülls vor und nach der Informationskampagne. Anschließend untersuchten Wissenschaftlerinnen und Wissenschaftler den entstehenden Kompost auf das Vorkommen von Kunststofffragmenten. Möglich machten diese Pionierarbeit im Rahmen von BabbA die Vorarbeiten des ebenfalls vom Fraunhofer ICT koordinierten Projekts MiKoBo, in dem an der Universität Bayreuth die analytische Grundlage dafür geschaffen wurde, Mikroplastik in Komposten, Gärresten und Böden nachzuweisen.

Innovativer Ansatz unter realen Bedingungen
Der innovative Projektansatz von BabbA wurde vom Fraunhofer ICT als Verbundkoordinator vorangetrieben. Im Aufgabenbereich des Instituts lag gemeinsam mit der BEM Umweltservice GmbH auch die Chargenanalyse – also die Untersuchung der Zusammensetzung der Biomüll-Sammlungen aus den Modellregionen hinsichtlich Fremdstoff- und Grüngutanateil sowie Feuchtigkeit. »Eine sogenannte Nullcharge haben wir genommen, bevor die Haushalte über das Projekt informiert und die BAW-Beutel verteilt wurden. So konnten wir die beiden Versuchschargen, die nach der Informationskampagne einmal im Sommer und einmal im Winter gewonnen wurden, mit dem damaligen Ist-Zustand vergleichen«, erläutert Jens Forberger.

Entscheidend für den Erfolg des Projekts war, dass über den Projektpartner BEM Umweltservice GmbH im Betrieb befindliche Bioabfallverwertungsanlagen für die Forschenden zugänglich waren: So konnten Fragmentierung und Abbau der BAW-Beutel unter realen Bedingungen beobachtet werden. In sogenannten Stoffstromanalysen betrachteten Wissenschaftlerinnen und Wissenschaftler der Universität Bayreuth alle Kunststofffragmente in Proben, die an verschiedenen Stationen der Bioabfallverwertung (also vom angelieferten Bioabfall bis zum Fertigkompost) genommen wurden. Zusätzlich zu den Versuchen in den Anlagen untersuchten Forschende der Universität Hohenheim die im Projekt verwendeten Sammelbeutel auf ihre Abbaubarkeit im Boden.

Keine Empfehlung für BAW-Beutel
Im aktuell erschienenen Abschlussbericht des Projekts BabbA präsentieren die Forschenden nun ihre Ergebnisse: In den Versuchen konnten sie zeigen, dass größere Mengen an Mikroplastik mit Abmessungen unter einem Millimeter in Komposten vorhanden sind und auch über längere Zeiträume im Boden verbleiben können. Auf die Einbringung von BAW-Beuteln in reale großtechnische Bioabfallverwertungsanlagen sollte nach erster Einschätzung der Projektgruppe daher verzichtet werden, solange nicht gewährleistet werden kann, dass sich die Beutel vollständig abbauen. Der Einsatz von BAW- und Papiertüten hatte im Modellversuch zudem keinen positiven Einfluss auf das Sammelverhalten der Bürgerinnen und Bürger: Die gesammelte Menge an Biomüll erhöhte sich mit Einführung der Beutel nicht, auch der Fremdstoffgehalt im untersuchten Bioabfall war laut Chargenanalyse nicht geringer als vor dem Modellversuch. Der Einsatz von BAW-Sammelbeuteln ist laut BabbA-Projektgruppe auch aus diesem Grund nicht empfehlenswert, jedoch bieten Papiertüten eine vielversprechende Alternative, welche noch genauer erforscht werden sollte. Die Forschenden plädieren mit Blick auf die gefundenen hohen Mengen von BAW-Fragmenten unter einem Millimeter Größe zudem für eine kritische Revision der aktuell gültigen DIN-Normen zur Kompostierbarkeit eines »kompostierbaren Materials«. Insgesamt liefert der Bericht damit konkrete Entscheidungshilfen für Politik, Entsorgungsunternehmen sowie für Bürgerinnen und Bürger und leistet einen wertvollen Beitrag dazu, die Ressource Bioabfall zukünftig noch besser zu nutzen.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2023/oktober-2023/baw-sa…

(nach oben)


Neuer BZgA-Grippe-Impfcheck gibt Auskunft, ob eine Grippeschutzimpfung empfohlen ist

Mit ihrer Kampagne „Wir kommen der Grippe zuvor“ rufen die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und das Robert Koch-Institut (RKI) zur jährlichen Grippeschutzimpfung auf. Eine Impfung ab Oktober und bis Mitte Dezember ist wichtig, um rechtzeitig vor der nächsten Grippewelle bestmöglich vor Influenzaviren geschützt zu sein. Ob eine Grippeschutzimpfung empfohlen wird, dazu gibt der neue BZgA-Grippe-Impfcheck Auskunft unter https://www.impfen-info.de/grippeimpfung/grippe-impfcheck. Zudem bietet der Grippe-Impfcheck Informationen rund um die Grippeschutzimpfung.

Mit ihrer Kampagne „Wir kommen der Grippe zuvor“ rufen die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und das Robert Koch-Institut (RKI) zur jährlichen Grippeschutzimpfung auf. Eine Impfung ab Oktober und bis Mitte Dezember ist wichtig, um rechtzeitig vor der nächsten Grippewelle bestmöglich vor Influenzaviren geschützt zu sein.

Die Ständige Impfkommission (STIKO) empfiehlt die Grippeschutzimpfung für Personen ab 60 Jahren, chronisch kranke Menschen aller Altersstufen und Schwangere sowie Bewohnerinnen und Bewohner von Alten- und Pflegeheimen – denn vor allem bei diesen Gruppen kann die Grippe zu ernsthaften Komplikationen wie einer Lungenentzündung führen und schwer oder sogar tödlich verlaufen. Auch Medizin- und Pflegepersonal, das häufig engen Kontakt zu gesundheitlich besonders gefährdeten Gruppen hat, sollte sich impfen lassen. Ob eine Grippeschutzimpfung empfohlen wird, dazu gibt der neue BZgA-Grippe-Impfcheck Auskunft unter https://www.impfen-info.de/grippeimpfung/grippe-impfcheck. Zudem bietet der Grippe-Impfcheck Informationen rund um die Grippeschutzimpfung.

Grippeschutzimpfung und Corona-Auffrischimpfung an einem Termin
Für viele Gruppen mit erhöhtem gesundheitlichem Risiko empfiehlt die STIKO zudem die Corona-Auffrischimpfung mit einem Varianten-angepassten Impfstoff. Dazu gehören Personen ab 60 Jahre, Menschen mit bestimmten Vorerkrankungen ab einem Alter von sechs Monaten, Pflege- und Gesundheitspersonal sowie Angehörige von gesundheitlich besonders gefährdeten Personen. Gut zu wissen: Die Grippeschutzimpfung kann meist am gleichen Termin wie die Auffrischimpfung gegen COVID-19 durchgeführt werden. Laut STIKO sollen in der Regel zwölf Monate seit der letzten COVID-19-Impfung oder Infektion mit dem Coronavirus vergangen sein. Wenn dieser Abstand unterschritten wird, ist nicht mit vermehrten Nebenwirkungen zu rechnen. Der Corona-Impfcheck der BZgA informiert, ob eine Corona-Schutzimpfung empfohlen ist: https://www.infektionsschutz.de/coronavirus/schutzimpfung/der-corona-impfcheck/.

Zu wenige Menschen mit erhöhtem gesundheitlichem Risiko befolgen Impfempfehlung gegen Influenza
Nach ausgewählten Ergebnissen der BZgA-Repräsentativbefragung 2022 zum Infektionsschutz lassen sich nur 58 Prozent der über 60-Jährigen, 50 Prozent der chronisch Kranken und lediglich ein Drittel der im medizinischen Bereich mit Patientenkontakt Tätigen jedes Jahr gegen Grippe impfen. Zwar wissen die meisten Befragten mit erhöhtem Risiko, dass sie sich jedes Jahr gegen Grippe impfen lassen sollten und über 60-Jährige schätzen die Grippeimpfung häufiger als „besonders wichtig“ oder „wichtig“ ein. Doch immer noch denken viele, dass die Grippe keine schwere Krankheit sei. Einige wissen zudem nicht, dass sie zu einer Gruppe mit erhöhtem gesundheitlichem Risiko gehören oder haben Zweifel an der Wirksamkeit der Impfung. Angst vor Nebenwirkungen oder fehlende Hinweise auf die Notwendigkeit der Impfung waren weitere Gründe, die Befragte von einer Impfung abhielten.
Für die BZgA-Repräsentativbefragung „Einstellungen, Wissen und Verhalten hinsichtlich der Impfung gegen saisonale Grippe (Influenza) von Personen mit erhöhtem gesundheitlichen Risiko“ wurden 5.000 Personen im Alter von 16 bis 85 Jahren von Juli bis August 2022 befragt. Ein besonderer Schwerpunkt der Befragung lag auf den Gruppen mit erhöhtem gesundheitlichem Risiko, für die eine Grippeimpfung gemäß STIKO empfohlen ist.

„Wir kommen der Grippe zuvor”
Um bundesweit auf die Bedeutung der Grippeschutzimpfung hinzuweisen, Wissenslücken der Bevölkerung zu schließen und Vorbehalte gegenüber der Impfung abzubauen, starten die BZgA und das RKI im Oktober ihre Kampagne „Wir kommen der Grippe zuvor” mit ihren großflächigen Plakatmotiven für die öffentliche Wahrnehmung. Ergänzend sollen Poster und Broschüren in Arztpraxen sowie Anzeigen in Zeitschriften zur Impfung motivieren. Die Informationsmaterialien zur Grippeschutzimpfung sowie Broschüren und Poster können online abgerufen oder kostenfrei im BZgA-Shop bestellt werden: https://shop.bzga.de/alle-kategorien/impfungen-und-persoenlicher-infektionsschut…

Weitere Informationen zum Thema Grippeschutz:
https://www.impfen-info.de/grippeimpfung/
https://www.infektionsschutz.de/erregersteckbriefe/grippe-influenza/
https://www.impfen-info.de/grippeimpfung/grippe-impfcheck

Information des Paul-Ehrlich-Instituts zu Grippeimpfstoffen:
https://www.pei.de/DE/newsroom/hp-meldungen/2023/230926-influenzasaison-2023-202…

Pressemotive „Wir kommen der Grippe zuvor”:
https://www.bzga.de/presse/pressemotive/impfaufklaerung-und-hygiene/

Weiterführende Informationen zum Thema Corona-Schutzimpfung:
https://www.infektionsschutz.de/coronavirus/schutzimpfung/impfung-gegen-covid-19…
https://www.infektionsschutz.de/coronavirus/schutzimpfung/der-corona-impfcheck/

Infoblatt der BZgA-Repräsentativbefragung 2022 zum Infektionsschutz „Einstellungen, Wissen und Verhalten zur Impfung gegen saisonale Grippe (Influenza) von Personen mit erhöhtem gesundheitlichen Risiko“:
https://www.bzga.de/presse/daten-und-fakten/infektionsschutz/

Bestellung der kostenlosen BZgA-Materialien unter:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: https://shop.bzga.de/
Fax: 0221/8992257
E-Mail: bestellung@bzga.de

(nach oben)


Der Klimawandel und das Wasser: Neuer Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“

Das Wintersemester hat begonnen und mit ihm ein neues Studienangebot in Koblenz. Der Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“ ist das jüngste Angebot der Hochschule Koblenz und richtet sich an Studierende, die sich für Klimaanpassung, Umweltschutz und eine nachhaltige Wasserwirtschaft einsetzen möchten. Mit einem breiten Spektrum an praxisnahen Inhalten aus der Naturwissenschaft und den Ingenieurwissenschaften werden die Studierenden in die Lage versetzt, sich den aktuellen und zukünftigen Herausforderungen im Umgang mit der lebenswichtigen Ressource Wasser zu stellen.

KOBLENZ. Das Wintersemester hat begonnen und mit ihm ein neues Studienangebot in Koblenz. Der Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“ ist das jüngste Angebot der Hochschule Koblenz und richtet sich an Studierende, die sich für Klimaanpassung, Umweltschutz und eine nachhaltige Wasserwirtschaft einsetzen möchten. Mit einem breiten Spektrum an praxisnahen Inhalten aus der Naturwissenschaft und den Ingenieurwissenschaften werden die Studierenden in die Lage versetzt, sich den aktuellen und zukünftigen Herausforderungen im Umgang mit der lebenswichtigen Ressource Wasser zu stellen.

Wasserwirtschaftliche Herausforderungen gibt es viele. Starkregen und daraus resultierende Überschwemmungen traten in den letzten Jahren nicht nur in Deutschland, sondern weltweit vermehrt auf und bedingen eine umfassende und weitblickende Hochwasservorsorge. Auf der anderen Seite sind langanhaltende Hitze und Trockenheit Auslöser für sinkende Grundwasserspiegel und Ernteausfälle und könnten in Zukunft die Trinkwasserversorgung auch in Deutschland gefährden. Der Studiengang Gewässerkunde und Wasserwirtschaft vermittelt praxisbezogen natur- und ingenieurwissenschaftliche Grundlagen zu allen relevanten Gebieten der Hydrologie, Gewässerkunde und Wasserwirtschaft und zielt darauf ab, Expertinnen und Experten für die komplexen Problemstellungen in der Wasserwirtschaft auszubilden.

Der Bachelorstudiengang zeichnet sich durch eine Kooperation der Hochschule Koblenz mit der Universität Koblenz und der Bundesanstalt für Gewässerkunde (BfG) in Koblenz aus und ist damit bundesweit einmalig. Der Abschluss ermöglicht einen direkten Berufseinstieg bei Ingenieurbüros, Versorgern und Verbänden oder in den einschlägigen Behörden im Wassersektor. Darüber hinaus eröffnet er den Zugang zum konsekutiven Masterstudiengang „Gewässerkunde und Wasserwirtschaft“, der von der Universität Koblenz in Kooperation mit der Hochschule Koblenz und der BfG angeboten wird.

In diesem Semester haben 13 Studierende das Bachelorstudium an der Hochschule Koblenz aufgenommen. Die Studierenden werden in Themen wie Gewässerökologie, Wasserqualität, Wasserwirtschaft, Hydrologie und Umweltschutz ausgebildet. Darüber hinaus werden sie Gelegenheiten haben, ihre Kenntnisse durch Praktika und Projektarbeiten in der realen Welt anzuwenden.

Prof. Dr. Karl Stoffel, Präsident der Hochschule Koblenz, zeigt sich begeistert über den gelungenen Start des Studiengangs: „Unser neuer Bachelorstudiengang ist ein wichtiger und notwendiger Schritt, um die großen wasserwirtschaftlichen Herausforderungen, vor der unsere Gesellschaft steht, zu meistern.“ Die Wasserwirtschaft muss das ökologische Gleichgewicht von Gewässern gewährleisten, eine zuverlässige Wasserversorgung von Bevölkerung und Wirtschaft sichern und dabei zugleich das Thema Nachhaltigkeit in den Fokus rücken.

„Wasser ist sowohl ökologisch als auch ökonomisch von fundamentaler Bedeutung und mit Blick auf die Klimakatastrophe gewinnt das Thema Wasserwirtschaft auch für Deutschland rasant an Bedeutung“, betont Studiengangsleiter Prof. Dr. Lothar Kirschbauer, Experte für Siedlungswasserwirtschaft und Wasserwesen an der Hochschule Koblenz und wissenschaftlicher Leiter des Kompetenznetzwerks Wissenschaft für den Wiederaufbau. „Niedrigwasser, Hochwasser, Trinkwasserknappheit, Wasserverschmutzung, Verlust der Biodiversität und dazu eine veraltete Infrastruktur im Bereich der Bundeswasserstraßen – dass ein Umgang mit den Folgen des Klimawandels gefunden werden muss, steht außer Frage“.

Im Bereich der Wasserwirtschaft besitzt die Hochschule Koblenz eine große Expertise. Bereits seit zehn Jahren bildet sie im Studiengang Umwelt-, Wasser- und Infrastrukturmanagement Bauingenieurinnen und Bauingenieure für das Thema aus. Die Hochschule Koblenz ist zudem für das landesweite Kompetenzzentrum „Wissenschaft für den Wiederaufbau“ verantwortlich, das nach der Flutkatastrophe 2021 ins Leben gerufen wurde, und engagiert sich im Projekt des Bundesministeriums für Bildung und Forschung (BMBF) „Impulse für Resilienz und Klimaanpassung – Klima-Anpassung, Hochwasser und Resilienz“ (KAHR). Die Initiativen verfolgen das Ziel, Hochwasserereignisse wissenschaftlich zu untersuchen und bedarfsorientierte Vorsorgemaßnahmen zu entwickeln. Insbesondere sollen neueste wissenschaftliche Erkenntnisse zum Klimawandel und zur Klima-Anpassung für die Prozesse des Wiederaufbaus zur Verfügung gestellt werden, damit die betroffenen Regionen zukunftssichere, resiliente und klimafeste Strukturen gestalten können. Ein weiteres Forschungsvorhaben der Hochschule – „Urban Flood Resilience – Smart Tools“ (FloReST) – beschäftigt sich mit der Bestimmung von Wasser-Fließwegen und der Ausweisung von Notabflusswegen. Darüber hinaus ist die Hochschule Koblenz einer der Projektpartner im Projekt CapTain Rain, das die Wassersammlung und -ableitung sowie die Verbesserung der Methoden zur Sturzflutvorhersage und -vermeidung bei Starkregenereignissen in Jordanien zum Forschungsgegenstand hat. Die wissenschaftliche Expertise der Hochschule fließt nun in den neuen Bachelorstudiengang Gewässerkunde und Wasserwirtschaft ein, der das Studienangebot um einen wichtigen Baustein ergänzt.

Weitere Informationen über den neuen Studiengang, seine Inhalte und den Bewerbungsprozess finden Interessierte auf der Homepage der Hochschule unter www.hs-koblenz.de/gewaesserkunde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lothar Kirschbauer
kirschbauer@hs-koblenz.de
02619528631

(nach oben)


Fast die Hälfte der Stellen für Fachkräfte konnten 2022 nicht besetzt werden

Die Betriebe konnten im ersten Halbjahr 2022 rund 45 Prozent der Stellen für Fachkräfte nicht besetzen. Damit hat sich die Quote in den vergangenen 10 Jahren nahezu verdoppelt. Das geht aus dem IAB-Betriebspanel, einer jährlichen Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Insbesondere Kleinstbetriebe sind von der Entwicklung betroffen. Diese konnten 62 Prozent ihrer Fachkraftstellen nicht besetzen. Bei Großbetrieben lag der Anteil bei 24 Prozent.

Über die Branchen hinweg zeigen sich ebenso deutliche Unterschiede. Im Baugewerbe konnten knapp zwei Drittel der Stellen nicht besetzt werden. Dort ist der Fachkräftebedarf aber auch besonders hoch. 12 Prozent aller Fachkräfte in Deutschland werden im Baugewerbe nachgefragt. IAB-Forscherin Barbara Schwengler erklärt: „Beim Baugewerbe dürfte der Boom der vergangenen Jahre eine Rolle gespielt haben. Da konnte das Angebot an Fachkräften einfach nicht mit der Nachfrage mithalten.“ Eine hohe Nichtbesetzungsquote zeigt sich auch bei den Übrigen personennahe Dienstleistungen sowie der Beherbergung und Gastronomie. Am niedrigsten ist die Nichtbesetzungsquote in der Öffentlichen Verwaltung. Hier bleibt jede zehnte Fachkraftstelle unbesetzt. Auch in den Bereichen Erziehung und Unterricht sowie Bergbau, Energie, Wasser und Abfall lagen die Nichtbesetzungsquoten mit rund einem Drittel unterhalb des Durchschnitts.

Insgesamt zeigte sich der Fachkräftebedarf so hoch wie seit 10 Jahren nicht mehr. 40 Prozent der Betriebe vermeldeten im ersten Halbjahr 2022 einen Bedarf an Fachkräften. Vor 10 Jahren lag die Quote noch bei 28 Prozent. Im Vorjahr war neben dem Baugewerbe der Fachkräftebedarf besonders hoch in den Bereichen Gesundheits- und Sozialwesen sowie Erziehung und Unterricht.

In der Studie wird die Bedeutung der Weiterbildung für Betriebe betont, damit die Fachkräftelücke künftig nicht noch größer wird. IAB-Forscherin Ute Leber unterstreicht: „Die Fachkräfte von heute müssen teils völlig neue Fertigkeiten erlernen, um auch morgen als Fachkräfte eingesetzt zu werden. Die Betriebe sehen angesichts von Digitalisierung und Dekarbonisierung einen erhöhten Weiterbildungsbedarf.“

Die Studie beruht auf den Daten des IAB-Betriebspanels, einer repräsentativen Befragung, an der jährlich gut 15.000 Betriebe teilnehmen.

Die IAB-Studie ist online abrufbar unter: https://doku.iab.de/forschungsbericht/2023/fb1523.pdf. Ein begleitendes Interview zum Forschungsbericht mit Emanuel Bennewitz und den IAB-Forscherinnen Ute Leber und Barbara Schwengler finden Sie hier: https://www.iab-forum.de/interview-betriebspanel.

(nach oben)


Start-up für grundlegend neue Antibiotika

Am Anfang stand Grundlagenforschung: Bei Experimenten im Labor stieß ein Team der Technischen Universität München (TUM) auf einen Wirkstoff gegen multiresistente Bakterien, der sich grundlegend von bisherigen Antibiotika unterscheidet. Mittlerweile haben die Forschenden ein Start-up für die Entwicklung eines neuartigen Medikaments gegründet. Beim internationalen Falling-Walls-Treffen sind die Gründer für den „Science Breakthrough of the Year“ in der Kategorie Science Start-Up nominiert.

Immer mehr Bakterien sind resistent gegen Antibiotika. Hunderttausende Menschen sterben laut Studien jedes Jahr an Infektionen mit Antibiotika-resistenten Erregern. Allein der Krankenhauskeim Methicillin-resistenter Staphylococcus aureus (MRSA) verursacht zehntausende Todesfälle im Jahr.

Ein Forschungsteam der TUM hat einen Wirkstoff entdeckt, gegen den Resistenzen der MRSA-Keime äußerst unwahrscheinlich sind. „Während klassische Antibiotika entweder die Zellwand oder den Stoffwechsel von Bakterien angreifen, zielen wir darauf ab, Proteintransport und Energiehaushalt der Keime nachhaltig zu schädigen, sodass sie keine Möglichkeit mehr haben, sich zu vermehren und Resistenzen auszubilden“, erklärt Stephan Sieber, Professor für Organische Chemie. Zusammen mit seinem ehemaligen Doktoranden Dr. Robert Macsics hat er ein Start-up gegründet, das den neuen Wirkstoff weiterentwickelt.

Bakterien-Zellwand verdaut sich selbst
Der Grundstein wurde in den Laboren der TUM gelegt. „Das war zunächst mal reine Grundlagenforschung“, betont Sieber. „Wir haben in Kulturen mit Staphylococcus aureus hunderte verschiedener Wirkstoffe getestet und sind dabei auf ein Molekül gestoßen, das diese Bakterien sehr effizient abtötet. Bei diesem Molekül, wir nennen es PK150, haben wir dann im nächsten Schritt die Wirkungsweise untersucht.“ Das Ergebnis: Der Wirkmechanismus von PK150 unterscheidet sich grundlegend von dem herkömmlicher Antibiotika. Statt die biochemischen Prozesse zu unterdrücken, stimuliert PK150 die Ausscheidung von Proteinen in der Zellwand. Wichtige Enzyme werden aus der Zelle herausgeschleust, die Wand beginnt sich selbst zu verdauen. Gleichzeitig wird der Stoffwechsel blockiert, die Zelle kann keine Energie mehr speichern und stirbt. Mutationen mit Resistenzen gegen den Wirkstoff sind aufgrund dieser dualen Wirkweise äußerst unwahrscheinlich.

„Als klar war, dass dieses Molekül ein erfolgversprechender Kandidat für die Entwicklung eines neuen Antibiotikums ist, waren wir uns einig, dass wir den Wirkstoff weiterentwickeln wollten“, erinnert sich Sieber. „Er eignet sich für die Bekämpfung von Staphylococcus aureus und anderer multiresistenter Keime, die eine grampositive, also einlagige Zellwand haben.“ Die Struktur des optimierten Moleküls meldete die TUM 2017 erstmalig zum Patent an, während Sieber und Macsics auf Investor:innensuche gingen. Noch während der Corona-Pandemie gewannen die beiden Forscher nach einem virtuellen Pitch den Boehringer Ingelheim Venture Fonds als Investor.

Unterstützung im TUM Venture Lab
Kurz darauf, 2021, gründeten sie smartbax, eines der ersten Start-ups, das in das neue TUM Venture Lab ChemSPACE aufgenommen wurde. Die TUM Venture Labs sind auf je ein bedeutendes Technologiefeld spezialisiert. Den Gründungsteams bieten sie auf diesem Gebiet spezifische technische Infrastruktur, maßgeschneiderte Ausbildungsprogramme, Expertise für den jeweiligen Markt und eine globale Vernetzung mit der Branche. „Die Möglichkeit, Infrastruktur und Laborfläche des Venture Labs zu nutzen, hat uns sehr dabei geholfen, die ersten Schritte als eigenständiges Unternehmen zu machen“, sagt Macsics, der nach Abschluss seiner Promotion CEO des Start-ups wurde. „Hinzu kommt das Netzwerk des Venture Labs, das uns kontinuierlich hilft, Kontakte aufzubauen.“

Mittlerweile hat smartbax drei feste Mitarbeiter, Stephan Sieber fungiert als wissenschaftlicher Berater. Neben der Weiterentwicklung des Wirkstoffes arbeitet das Unternehmen an weiteren Strategien, um resistente Bakterien auszuschalten. In einigen Jahren sollen die ersten Wirkstoffkandidaten bereit sein für klinische Studien.

25 Nominierte aus aller Welt
Als einen der möglicherweise wichtigsten wissenschaftlichen Durchbrüche des Jahres sieht die Jury von Falling Walls die Arbeit des Teams. Zum Jahrestag des Berliner Mauerfalls richtet die gemeinnützige Falling Walls Foundation immer am 9. November in Berlin den gleichnamigen Science Summit aus, um einer breiten Öffentlichkeit zu zeigen, welche Mauern von der Wissenschaft niedergerissen werden. Die Veranstaltung gilt als eines der wichtigsten Austauschformate zwischen Forschung und Gesellschaft sowie innerhalb der Wissenschaft.

In fünf Forschungsfeldern und in der Kategorie Science Start-Ups wählt Falling Walls den “Science Breakthrough of the Year”. Smartbax ist mit 24 anderen Start-ups aus Europa, Amerika, Asien und Australien nominiert.

Weitere Informationen:
Neben smartbax ist eine zweite Ausgründung der TUM beim Falling-Walls-Treffen für den „Science Breakthrough of the Year“ in der Kategorie Science Start-Up nominiert: Reverion hat Mikrokraftwerke entwickelt, die zum einen Biogas effizienter nutzen als herkömmliche Anlagen. Zum anderen können sie bei einem Überschuss an Sonnen- und Windenergie im Netz automatisch auf die Produktion von grünem Wasserstoff oder Methan umschalten. Das Start-up ist aus dem Forschungsprojekt „BioCORE“ eines Teams des Lehrstuhls für Energiesysteme und der Professur für Regenerative Energiesysteme am TUM Campus Straubing für Biotechnologie und Nachhaltigkeit hervorgegangen. Es wurde im TUM Venture Lab ChemSPACE gefördert.

Jedes Jahr werden an der TUM mehr als 70 technologieorientierte Unternehmen gegründet. TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, unterstützen Start-ups mit Programmen, die exakt auf die einzelnen Phasen der Gründung zugeschnitten sind – von der Konzeption eines Geschäftsmodells bis zum Management-Training, vom Markteintritt bis zum möglichen Börsengang. Die TUM Venture Labs bieten Gründungsteams aus je einem bedeutenden Technologiefeld ein ganzes Ökosystem in unmittelbarer Anbindung an die Forschung. Bis zu 30 Teams können den TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit einem eigenen Venture Capital Fonds in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau.

Weitere Informationen:
Jedes Jahr werden an der TUM mehr als 70 technologieorientierte Unternehmen gegründet. TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, unterstützen Start-ups mit Programmen, die exakt auf die einzelnen Phasen der Gründung zugeschnitten sind – von der Konzeption eines Geschäftsmodells bis zum Management-Training, vom Markteintritt bis zum möglichen Börsengang. Die TUM Venture Labs bieten Gründungsteams aus je einem bedeutenden Technologiefeld ein ganzes Ökosystem in unmittelbarer Anbindung an die Forschung. Bis zu 30 Teams können den TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit einem eigenen Venture Capital Fonds in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau.

Weitere Informationen:
https://falling-walls.com/science-summit/winners/ Nominierte für „Science Breakthrough of the Year“
https://www.tum.de/innovation/entrepreneurship Gründungsförderung an der TUM

(nach oben)


Operativer Hochwasserschutz beginnt bei der Qualifizierung von Einsatzkräften: RPTU entwickelt Weiterbildungsprogramm

Wie lassen sich Hochwasser- und Starkregenereignisse bewältigen? Hierzu forscht das Fachgebiet Wasserbau und Wasserwirtschaft an der RPTU – aktuell im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekts KAHR (Klima-Anpassung, Hochwasser, Resilienz) zur wissenschaftlichen Begleitung des Wiederaufbaus nach der Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen. Ein Weiterbildungsprogramm für Einsatzkräfte ist bereits entstanden. Ebenso hat Fachgebietsleiter Professor Dr. Robert Jüpner gemeinsam mit Partnern im Ahrtal wie THW und Feuerwehr das Katastrophenschutz-Netzwerk „H-Kat-Net“ gegründet, um den Wissenstransfer zu fördern.

Das Weiterbildungsprogramm, welches das Fachgebiet Wasserbau und Wasserwirtschaft im Rahmen des KAHR-Forschungsverbundvorhabens bereitgestellt hat, befasst sich mit dem operativen Hochwasserschutz.

Hierzu Professor Jüpner, der seit dem Hochwasserereignis an der Elbe 2002 regelmäßig selbst Mitglied in Katastrophenstäben war: „Operativer Hochwasserschutz vereint alle vorbereitenden und durchführenden Maßnahmen und Planungen an der Schnittstelle zwischen Katastrophenschutz und Wasserwirtschaft mit dem Ziel, Risiken vorzubeugen und Schäden durch Hochwasser und Starkregen – über die rein wasserwirtschaftliche Hochwasservorsorge hinaus – zu reduzieren. So richtet sich unser Bildungsmodul insbesondere an Personen aus THW-Ortsverbänden, Berufsfeuerwehren, freiwilligen Feuerwehren sowie weitere Behörden und Organisationen mit Sicherheitsaufgaben und ebenso an Verantwortliche in Kommunen und Städten. Wir sind überzeugt, dass eine intensive und fachlich fundierte Vorbereitung der Schlüssel für effektives, koordiniertes und zielführendes Handeln im Einsatzfall ist.“

Dabei spielt der Umgang mit Hochwasser- und Starkregengefahrenkarten zur Lagebeurteilung ebenso eine Rolle wie das Vermitteln von Wissen und Erfahrungen aus der Einsatzpraxis.

Erfahrung mit Bildungsprojekten vorhanden
Es handelt sich dabei nicht um das erste Bildungsmodul, welches Professor Jüpner und seine Arbeitsgruppe konzipiert haben. Bereits seit 2021 bieten sie gemeinsam mit dem Fachgebiet Siedlungswasserwirtschaft an der RPTU und dem Landesfeuerwehrverband Rheinland-Pfalz „BiWaWehr“ als festes Weiterbildungsangebot an. Über 500 Einsatzkräfte von Feuerwehr und THW haben das Training bereits absolviert.

Auf Vorschlag des Umweltbundesamts bewarben sich die Forschenden mit ihrem Bildungsprojekt für die Feuerwehr um den Bundespreis „Blauer Kompass“ 2022 und erreichten die Endausscheidung (20 aus 240 Bewerbungen; Beschreibung der Maßnahme einsehbar in der KomPass-Tatenbank des Umweltbundesamtes).

Regionales Wissen aktivieren
Bilateraler Erfahrungsaustausch zwischen Wissenschaft und Praxis ist ein weiterer Aspekt, der für Professor Jüpner mit Blick auf die Katastrophenvorsorge in Risikogebieten entscheidend ist. Mit „H-Kat-Net“ hat er den Anstoß für ein Katastrophenschutz-Netzwerk für das Ahrtal gegeben, welches er gemeinsam mit zwei THW-Ortsverbänden, dem Kreisverbindungskommando Ahrweiler der Bundeswehr sowie der Feuerwehr Sinzig und dem Brand- und Katstrophenschutz des Landkreises Ahrweiler gegründet hat.

„Mit dem Netzwerk schlagen wir die Brücke zwischen Wissenschaft und Praxis. Wir lernen aus dem Wissen der Einsatzkräfte für die Forschung und können andererseits unsere Forschungsergebnisse direkt dorthin bringen, wo sie gebraucht werden“, unterstreicht der Wissenschaftler. Dabei unterstützen ihn die Partner aus dem KAHR-Projekt – wie etwa der Sprecher des Forschungsverbundvorhabens Professor Dr.-Ing. Jörn Birkmann, der bei der Auftaktveranstaltung am 17. Oktober ein Grußwort sprach und über seine Forschung berichtete.

Über KAHR
Das vom BMBF geförderte Projekt KAHR soll mit neuesten wissenschaftlichen Erkenntnissen die Aufbaumaßnahmen in den von der Flutkatastrophe im Juli 2021 zerstörten Regionen in Nordrhein-Westfalen und Rheinland-Pfalz unterstützen. Bis Ende 2024 werden in dem Verbundprojekt mit insgesamt 13 Partnern aus Wissenschaft und Praxis Fragen zur Klimaanpassung, der risikobasierten Raumplanung und zum Hochwasserschutz erarbeitet. Ziel ist es, konkrete Maßnahmen für einen klimaresilienten und zukunftsorientierten Wieder- und Neuaufbau zu schaffen. Weiterführende Informationen unter: https://hochwasser-kahr.de/index.php/de/

Pressekontakt:
Prof. Dr. Robert Jüpner
RPTU Kaiserslautern-Landau, Fachgebiet Wasserbau und Wasserwirtschaft
Tel.: 0631/205-3805
E-Mail: robert.juepner@rptu.de

(nach oben)


Klicken Sie mal vorbei!

„mikroco-wissen.de“ informiert über Vitamine, Mineralstoffe und Co.

Vitamin E, Folsäure oder Eisen – diese und weitere Vitamine und Mineralstoffe sind lebenswichtig für unseren Körper und müssen mit der Nahrung aufgenommen werden. Aber in welchen Lebensmitteln stecken diese Stoffe überhaupt? Welche Folgen hat ein Mangel und welche gesundheitlichen Risiken bringt eine Überversorgung mit sich? Brauche ich vielleicht Nahrungsergänzungsmittel, um mich ausreichend mit allen Mikronährstoffen zu versorgen? Bergen Nahrungsergänzungsmittel vielleicht auch Risiken? Bei Fragen wie diesen hilft mikroco-wissen.de weiter – das neue Informationsangebot des Bundesinstituts für Risikobewertung (BfR). „Bei einer abwechslungsreichen Ernährung erhält der Körper in der Regel alle Nährstoffe, die er braucht“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Die Einnahme von Nahrungsergänzungsmitteln ist nur in bestimmten Fällen angeraten, etwa bei Folsäure in der Schwangerschaft. Grundsätzlich ist wichtig zu verstehen: Eine Mehraufnahme von Vitaminen oder Mineralstoffen über den physiologischen Bedarf hinaus bringt keinen Zusatznutzen, aber teils gesundheitliche Risiken mit sich.“ Vor diesem Hintergrund möchte das Informationsangebot Orientierung geben und neue wissenschaftliche Erkenntnisse mit der Öffentlichkeit teilen.
Das Portal liefert kurz und bündig grundlegende Informationen über die einzelnen Vitamine und Mineralstoffe und ihre Wirkungen im Körper. Es wird erläutert, welche Lebensmittel gute Quellen für einzelne Stoffe sind und wie sie zur Versorgung beitragen. So wird zum Beispiel erklärt, dass Provitamin A – auch Beta-Carotin genannt – nur in pflanzlichen Lebensmitteln vorkommt und was bei zusätzlicher Aufnahme über Nahrungsergänzungsmittel oder angereicherte Lebensmittel zu beachten ist. Oder dass Vitamin C die Eisenaufnahme verbessert, aber eine dauerhaft hohe zusätzliche Eisenaufnahme über Nahrungsergänzungsmittel möglicherweise Risiken birgt. Zusätzlich zu den Mikronährstoffen (Vitaminen und Mineralstoffen) werden weitere Stoffe mit ernährungsspezifischer oder physiologischer Wirkung vorgestellt – eben „Mikro“ und „Co.“ oder kurz: mikroco. Vorliegende Risikobewertungen des BfR zu diesen Stoffen werden aufgeführt. Dazu gehören zum Beispiel Aminosäuren, Fettsäuren oder Pflanzenextrakte.
Viele der portraitierten Substanzen werden auch in isolierter Form als Nahrungsergänzungsmittel angeboten – und beworben: Vitamin C für das Immunsystem, Magnesium für die Muskeln oder Vitamin D für die Knochen, um nur einige Beispiele zu nennen. Ob und wann die Einnahme einer Extra-Portion Vitamine oder Mineralstoffe sinnvoll sein kann und welche Risiken damit gegebenenfalls verbunden sein können, wird ebenfalls erläutert. So etwa, dass ein Vitamin E-Mangel nach aktuellem wissenschaftlichen Kenntnisstand beim Menschen selten ist, eine dauerhafte Einnahme von Dosen oberhalb des physiologischen Bedarfs aber das Risiko für Schlaganfälle (Hirnblutungen) erhöhen könnte. Oder, was vielleicht wenig bekannt ist: dass die Einnahme von Biotinpräparaten die Ergebnisse von wichtigen Labortests verfälschen kann.
Ein weiterer Schwerpunkt des Informationsangebots liegt auf den vom BfR erarbeiteten Höchstmengenempfehlungen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln und angereicherten Lebensmitteln. Sie sollen zu einer europaweit einheitlichen Höchstmengenregelung für diese Produkte beitragen, können aber bis dahin auch Verbraucherinnen und Verbrauchern bei der Produktwahl unterstützen. Die Höchstmengenempfehlung für Vitamin D zum Beispiel liegt bei 20 Mikrogramm pro Tagesdosis eines Nahrungsergänzungsmittels, weil diese Menge ausreicht, um selbst bei Menschen mit einem erhöhten Risiko für eine unzureichende Versorgung einen angemessenen Versorgungsstatus zu erreichen – ohne dass gesundheitliche Beeinträchtigungen zu erwarten sind.
Die Inhalte auf mikroco-wissen.de werden in Übersichtsgrafiken zusammengefasst; Illustrationen zeigen, welche Lebensmittel zur Versorgung mit essentiellen Nährstoffen beitragen. Das Angebot wird laufend erweitert und um neue Erkenntnisse ergänzt.
Klicken Sie mal vorbei auf: https://www.mikroco-wissen.de

Weitere Informationen:
https://www.mikroco-wissen.de

(nach oben)


Wie organische Solarzellen deutlich effizienter werden könnten

ie Sonne schickt enorme Energiemengen auf die Erde. Doch in Solarzellen geht ein Teil davon verloren. Gerade bei organischen Solarzellen, die für innovative Anwendungen in Frage kommen, ist das eine Hürde für ihre Nutzung. Ein Schlüssel, um sie leistungsfähiger zu machen: Ein verbesserter Transport der im Material zwischengespeicherten Sonnenenergie. Dass sich durch bestimmte organische Farbstoffe regelrechte Autobahnen ausbilden können, hat eine Forschungsgruppe der Technischen Universität München (TUM) nun gezeigt.

Diese Energiesammler sind leicht, hauchdünn und schmiegen sich als flexible Beschichtung auf fast jede Oberfläche: Solarzellen, die auf organischen Halbleitern basieren, eröffnen für die Anwendung ganz neue Möglichkeiten. Beispielsweise als rollbare Solarpaneele und -folien oder für die Ausstattung von Smart Devices. Doch ein Handicap für viele Anwendungen ist der vergleichsweise schlechte Transport der gewonnenen Energie innerhalb des Materials. Um diesen zu verbessern, untersuchen Forschende die elementaren Transportprozesse von organischen Solarzellen.

Anregende Sonnenkraft
Einer von ihnen ist Frank Ortmann, Professor für Theoretical Methods in Spectroscopy an der TUM. Für ihn und seine Kolleg:innen aus Dresden steht unter anderem die Wechselwirkung zwischen Licht und Materie im Fokus – und insbesondere das Verhalten der sogenannten Exzitonen. „Exzitonen sind so etwas wie der Kraftstoff der Sonne, den es optimal zu nutzen gilt“, erklärt Ortmann, der auch Mitglied im Exzellenzcluster e-conversion ist. „Trifft Lichtenergie als Photon auf das Material einer Solarzelle, wird es absorbiert und als angeregter Zustand zwischengespeichert. Diesen Zwischenzustand beschreibt man als Exziton.“ Erst wenn die Ladungen an eine speziell designte Grenzfläche gelangen, werden sie als elektrische Energie nutzbar. Ortmann und sein Team konnten nun zeigen, dass sich mit organischen Farbstoffen sogenannte Exzitonen-Autobahnen kreieren lassen.

Farbstoff mit Turboeffekt
Warum es wichtig ist, dass die Exzitonen so schnell wie möglich die Grenzfläche erreichen, lässt sich auf ihre kurze Lebenszeit zurückführen. „Je schneller und gezielter der Transport abläuft, desto besser ist die Energieausbeute – und damit die Effizienz der Solarzelle“, so Ortmann. Die organischen Farbstoff-Moleküle – sogenannte chinoide Merocyanine – ermöglichen dies. Das verdanken sie ihrem chemischen Aufbau und ihrer Fähigkeit, das sichtbare Licht sehr gut zu absorbieren. Deswegen würden sie sich auch als aktive Schicht in einer organischen Solarzelle eignen.

Energiepakete auf der Überholspur
Mithilfe von spektroskopischen Messungen und Modellen konnten die Forschenden den Exzitonen sozusagen bei ihrem Sprint durch die Farbstoffmoleküle zuschauen. „Mit Werten von 1,33 Elektronenvolt übertrifft unser Design die Werte in organischen Halbleitern bei weitem – die organischen Farbstoff-Moleküle bilden sozusagen eine Autobahn“, sagt Ortmann. Diese grundlegend neuen Erkenntnisse könnten den Weg für einen gezielten, effizienteren Exzitontransport in organischen Feststoffen ebnen – und so die Entwicklung leistungsfähigerer organischer Solarzellen oder organischer Leuchtdioden beschleunigen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Frank Ortmann
Technische Universität München
Tel. +49 (89) 289 – 13611
frank.ortmann@tum.de
www.ch.nat.tum.de/tms/startseite/

Originalpublikation:
Directed Exciton Transport Highways in Organic Semiconductors, Kai Müller, Karl S. Schellhammer, Nico Gräßler, Bipasha Debnath, Fupin Liu, Yulia Krupskaya, Karl Leo, Martin Knupfer, Frank Ortmann,
DOI: 10.1038/s41467-023-41044-9
www.nature.com/articles/s41467-023-41044-9

Weitere Informationen:
https://mediatum.ub.tum.de/1721598 Foto zum Download
Prof. Dr. Frank Ortmann
Technische Universität München
Tel. +49 (89) 289 – 13611
frank.ortmann@tum.de
www.ch.nat.tum.de/tms/startseite/

Originalpublikation:
Directed Exciton Transport Highways in Organic Semiconductors, Kai Müller, Karl S. Schellhammer, Nico Gräßler, Bipasha Debnath, Fupin Liu, Yulia Krupskaya, Karl Leo, Martin Knupfer, Frank Ortmann,
DOI: 10.1038/s41467-023-41044-9
www.nature.com/articles/s41467-023-41044-9

Weitere Informationen:
https://mediatum.ub.tum.de/1721598 Foto zum Download

(nach oben)


Wie Spurenelemente die CO2-Speicherung im Ozean verändern

Der richtige Mix von Spurenelementen ist entscheidend für eine gesunde Ernährung. Diese Devise gilt auch für das Phytoplankton. Die winzigen Algen im Südpolarmeer haben als Kohlendioxid-Speicher maßgebliche Effekte auf das Weltklima. So zeigt eine neue Studie des AWI und der Uni Bremen einen interessanten Zusammenhang: Wenn das Phytoplankton gleichzeitig mehr Eisen und Mangan bekommt, verändert sich seine Lebensgemeinschaft. Die Algen können dann mehr CO2 binden und bilden mehr klebrige, kohlenstoffreiche Kolonien, die besser auf den Meeresgrund sinken. Dadurch holen sie den Kohlenstoff effizienter aus der Atmosphäre, berichtet das Forschungsteam im Fachjournal Current Biology.

Da das Südpolarmeer reich an Nährstoffen wie Nitrat und Phosphat ist, sollte man dort eigentlich auch ein üppiges Algenwachstum erwarten. Doch in den meisten Regionen gibt es erstaunlich wenig Phytoplankton. Schon länger ist bekannt, dass hinter dieser Wachstumsschwäche vor allem ein kräftiger Eisen-Mangel steckt, teilweise ist aber auch Mangan knapp. Ob das auch für das südliche Weddellmeer gilt, wusste bisher allerdings niemand. Nun aber haben Forschende des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) sowie der Universität Bremen nicht nur die Mengen beider Elemente in den abgelegenen und schwer erreichbaren Gewässern am 77. Breitengrad untersucht. Zum ersten Mal haben sie während der COSMUS-Expedition im Jahr 2021 auch getestet, welchen Einfluss beide Spurenmetalle auf die dortigen Algengemeinschaften haben.

Dabei hat sich herausgestellt, dass im Vergleich zu ihrer möglichen Photosynthese-Leistung die Algen im gesamten südlichen Weddellmeer erstaunlich schlecht wachsen und somit auch weniger Kohlenstoff zum Meeresgrund transportieren als eigentlich möglich wäre. Dieses Ergebnis passt zu der ebenfalls schlechten Versorgung mit Spurenelementen: „Tatsächlich haben wir überraschend geringe Konzentrationen von Eisen und Mangan gefunden“, berichtet Erst-Autorin Jenna Balaguer, deren Doktorarbeit von Scarlett Trimborn betreut und am AWI und der Universität Bremen durch das Schwerpunktprogramm Antarktisforschung von der Deutschen Forschungsgemeinschaft (DFG) gefördert wurde. „Für manche Phytoplankter scheinen beide Substanzen sehr knapp zu sein, während andere nur Eisen benötigen.“ Und das hat offenbar weitreichende Folgen.

Diese wurden deutlich, als die Gruppe Meerwasser aus der Region in Behälter füllte und dann entweder Eisen oder Mangan oder beides dazugab. „Dabei hat sich gezeigt, dass die Eisenversorgung tatsächlich nicht der einzige entscheidende Faktor ist“, sagt AWI-Forscher und Studienmitautor Florian Koch. „Erst durch die Kombination von Eisen und Mangan konnten wir das Wachstum der Algen so richtig ankurbeln.“ Damit aber nicht genug: Da die einzelnen Arten durchaus unterschiedliche Ansprüche an die Versorgung mit Spurenelementen haben, veränderte sich mit den Zugaben auch die Zusammensetzung der Lebensgemeinschaft.

Das aber ist nicht nur ökologisch interessant, sondern hat auch weitreichende Konsequenzen für das Kohlenstoffbudget der Erde und damit für das Klimagleichgewicht. Denn das Phytoplankton hat einen wichtigen Einfluss auf den Kohlenstoff-Transport im Meer. Sobald die grünen Winzlinge per Photosynthese Energie gewinnen, setzen sie nämlich nicht nur große Mengen Sauerstoff frei. Gleichzeitig nehmen sie auch das Treibhausgas Kohlendioxid auf und bauen den darin enthaltenen Kohlenstoff in ihre Zellen ein. Wenn sie dann absterben und auf den Meeresgrund sinken, nehmen sie diesen Kohlenstoff mit. Statt in der Atmosphäre für weiter steigende Temperaturen zu sorgen, wird er durch diese biologische Pumpe also in die Tiefsee exportiert.

Gerade die Vorgänge im Untersuchungsgebiet der Studie sind in dieser Hinsicht besonders interessant. Immerhin geht etwa ein Viertel des insgesamt von den Organismen des Südpolarmeers aufgenommenen Kohlenstoffs auf das Konto des Phytoplanktons, das südlich des 55. bis 60. Breitengrades im Weddellmeer treibt. „Zum ersten Mal haben wir deshalb auch untersucht, wie der Eisen- und Mangan-Mangel dort den Kohlenstoff-Export beeinflusst“, sagt Jenna Balaguer.

Tatsächlich zeigen die Experimente, dass schon relativ kleine Veränderungen in der Artenzusammensetzung einen unerwartet großen Effekt auf diesen Prozess haben können. Denn je nach Größe, Form und sonstigen Eigenheiten sinken manche Zellen schneller und häufiger auf den Meeresgrund als andere. So führte die Zugabe von Spurenelementen zu einem starken Wachstum der Alge Phaeocystis antarctica. Diese gesellige Art bildete größere und mehr kohlenstoffreiche Kolonien, die dann zusammen mit den örtlichen Kieselalgen auch besonders gut absanken. Reicherte das Forschungsteam das Wasser nur mit Eisen an, verdoppelte sich dadurch das Export-Potential für Kohlenstoff. Eine Kombination von Eisen und Mangan ließ es um das Vierfache ansteigen.

Was aber bedeutet das für die Zukunft des Südpolarmeeres? Momentan lässt sich laut dem Studienteam nicht genau vorhersagen, welche Phytoplankton-Arten vom höheren CO2-Gehalt profitieren werden und wieviel mehr CO2 der Ozean dann aufnehmen kann als heute. Allerdings zeigt die Studie klar, dass ein zusätzlicher Eintrag von Eisen und Mangan durch Eisschmelze und Sedimente das Algenwachstum drastisch ankurbeln und die biologische Kohlenstoffpumpe auf Hochtouren arbeiten lassen könnte. Was der Klimawandel tatsächlich bewirken wird, lässt sich nur mithilfe von Modellen einigermaßen abschätzen. Und die sollten die neuen Erkenntnisse nun unbedingt integrieren, schließen die AWI-Forschenden, denn die Auswirkungen von Mangan auf die Kohlenstoffpumpe hatten die Modelle bisher nicht auf der Rechnung.

Originalveröffentlichung:
Jenna Balaguer et al. 2023. Iron and manganese availability drive primary production and carbon export in the Weddell Sea. Current Biology. DOI: https://dx.doi.org/10.2139/ssrn.4342993

Informationen für Redaktionen:
Druckbare Bilder finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Pressemitteilung unter: https://www.awi.de/ueber-uns/service/presse.html

Ihre Ansprechpartnerinnen am Alfred-Wegener-Institut sind Jenna Balaguer (E-Mail: Jenna.Balaguer@awi.de) und Dr. Scarlett Trimborn (Tel.: 0471 4831-1407; E-Mail: Scarlett.Trimborn@awi.de).

In der AWI-Pressestelle unterstützt Sie Nils Ehrenberg (Tel.: 0471 4831-2008; E-Mail: medien@awi.de).

Folgen Sie dem Alfred-Wegener-Institut auf Twitter (https://twitter.com/AWI_de), Instagram (https://www.instagram.com/awiexpedition/) und Facebook (https://www.facebook.com/AlfredWegenerInstitut).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

(nach oben)


Die mysteriöse Wissenschaft

Forensik und ihre Relevanz für die Digitale Zukunft

„In der diesjährigen Kampagne zum Europäischen Monat der Cybersicherheit tauchen wir tief in die Welt des Social Engineering ein, in der Cyberkriminelle clevere Manipulationstaktiken anwenden, um unsere Sicherheitsvorkehrungen zu durchbrechen.“ So wirbt die Europäische Union im Internet für den diesjährigen Cybersicherheitsmonat. Wenn es um das Wissen und die Werkzeuge geht, die wir benötigen, um uns vor Cyberkriminellen zu schützen, dann spielt die Digitale Forensik bei der Aufklärung von Straftaten im Cyberraum eine wichtige Rolle.

Eine Begriffserklärung von Lars-Martin Knabe, Forschungsreferent Sichere Gesellschaft der Cyberagentur.
Der Cyberraum ist keine rechtsfreie Zone, deshalb ist es wichtig, dass kriminelle Handlungen auch in Verbindung mit der virtuellen Welt aufgeklärt werden können. Dafür gibt es eine junge und spannende Disziplin: die digitale Forensik! Diese junge Wissenschaft hat ihren Ursprung in der realen (analogen) Welt:

England, 19. September 1987, Colin Pitchfork wurde für den Mord an zwei Mädchen verhaftet. Das Besondere an diesem Fall ist, dass Pitchfork die erste Person war, die mit Hilfe eines DNA-Tests überführt wurde. Seine Spur wurde mit Hilfe einer DNA-Reihenuntersuchung gefunden. Die hier zum ersten Mal angewandte Untersuchungsmethode ist heute Standard für den Nachweis einer Personenidentität. Dieser Fortschritt hat dazu beigetragen, das Bewusstsein für die Notwendigkeit und den Wert forensischer Wissenschaften im Bereich der Kriminalermittlung zu schärfen.

Eine beträchtliche Zeit ist seitdem vergangen und die herkömmliche Forensik hat Fortschritte gemacht und gehört zum Standardwerkzeug der kriminalistischen Arbeit. Ein Blick in die jüngere Geschichte aber zeigt, wie sich mit der Digitalisierung auch die Verbrechensbekämpfung wandeln muss. So haben sich ehemals leere Briefkästen zu Online-Marktplätzen entwickelt.

Im April/Mai 2019 wurde beispielsweise die Darknet-Plattform „Wall Street Market“ vom BKA in Kooperation mit dem FBI ausgehoben. Auf dem zweitgrößten kriminellen Online- Marktplatz wurden gestohlene Daten, Drogen, Schadsoftware und gefälschte Dokumente zum Verkauf angeboten. Zugänglich war diese Plattform ausschließlich über das TOR-Netzwerk im sogenannten Darknet. Es war auf illegale und kriminelle Güter ausgerichtet. Die Bezahlung der Ware erfolgte durch BITCOIN. Auf der Online-Plattform wurden 63.000 Verkaufsangebote eingestellt und 1.150.000 Kundenkonten mit über 5.400 Verkäufern angemeldet.

Dies ist lediglich ein Beispiel dafür, wie sich Kriminelle im Internet organisieren und agieren, um Cyberkriminalität zu verschleiern und ihre Kunden zu schützen. Um lokale und globale Cyberkriminalität rechtskonform nachzuweisen, bedarf es der IT-Forensik, um Straftäter für ihre Handlungen verantwortlich zu machen.

Die Forensik umfasst interdisziplinär alle Wissenschaften, die zur kriminalistischen Aufklärung einer Straftat beitragen können. Beispiele dafür sind die Erfassung biometrischer Tatortspuren wie Fingerabdrücke, die Auswertung von Tatortfotos oder das Rekonstruieren von Daten auf beschlagnahmten Festplatten. Ein essenzielles Prinzip der Forensik (Locardsches Austauschprinzip) besagt, dass bei jeder Interaktion zwischen zwei Objekten Spuren ausgetauscht werden. Dafür müssen Forensiker unter anderem auf die Wissenschaften der Medizin, Chemie und Informatik zurückgreifen. Eine Spur muss dabei immer so gesichert werden, dass sie vor Gericht Bestand hat und zweifelsfrei korrekt gewonnen wurde. Aus diesem Grund und dem ständigen technischen Fortschritt ist die Forensik eine spannende Wissenschaft mit vielen offenen Forschungsfragen.

Ein Beispiel für eine neu entstandene Forschungslücke ist der Übergang der klassischen Forensik auf digitale Fragestellungen, z. B. wie können Verbrechen, die mit moderner künstlicher Intelligenz, wie dem bekannten Chatbot „ChatGPT“ oder dem Bildgenerator „DALL-E“ oder autonomen Fahrzeugen begangen werden könnten, auch nachgewiesen werden. Genau hierfür ist die IT-Forensik mit ihren Eigenschaften Objektivität und Rechenschaftspflicht prädestiniert und grenzt sich dadurch als anerkannte Wissenschaft von dem Versuch, KI erklärbar zu machen (XAI) ab.

Um solche Systeme in der digitalen Forensik zu untersuchen, müssen zahlreiche Eigenschaften erfüllt sein. Sollte ein Gericht Zweifel an der Transparenz, Integrität, Glaubwürdigkeit, Wiederholbarkeit oder Akzeptanz forensischer Methoden sowie an der Dokumentation der Beweiskette hegen (Chain of Custody), kann dies dazu führen, dass der Wert eines Beweises herabgesetzt oder für unzulässig erklärt wird.

Welche Rolle spielt die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) in der digitalen Forensik? Die Cyberagentur beschäftigt sich mit Fragestellungen, die in voraussichtlich 10 bis 15 Jahren für die Cybersicherheit eines digital vernetzten Deutschlands relevant sind. Die Abteilung „Sichere Gesellschaft“ setzt in der Cyberagentur den Fokus auf die digitale Souveränität im Rahmen einer sozio-technischen Perspektive. In dem am 08.09.2023 ausgeschriebenen Forschungsprojekt „Forensik intelligenter Systeme“ (FIS) sollen Methoden und Tools gefunden werden, um komplexe Systeme künstlicher Intelligenz gerichtsfest auswerten zu können (https://www.cyberagentur.de/fis/). Da es bisher fast keine Forschungsansätze in diesem Bereich gibt und die Fragestellung der gerichtsfesten Überprüfbarkeit möglicher Verbrechen im Cyberraum für die zukünftige Sicherheit unserer Gesellschaft immens wichtig ist, kann dieses Projekt einen erheblichen Erkenntnisgewinn beisteuern, in dem die technische mit der juristischen Perspektive verbunden wird.

Als Vorgabe soll es dabei um die KI-Systeme gehen, die eine hohe Anzahl an Parametern haben. Sie werden als „tiefe neuronale Netze“ bezeichnet und können in ihren Entscheidungen nicht mehr ohne Weiteres nachvollzogen werden (Blackbox Charakter). Durch die forensische Auswertung soll es zukünftig möglich sein, Angriffe zu erkennen, die gegen diese Systeme ausgeübt wurden. Beispiele für das Ziel solcher Angriffe sind der unautorisierte Zugriff auf die Daten, die zum Trainieren der KI verwendet wurden oder eine Manipulation der KI mit „falschen“ Trainingsdaten (Data Poisoning). Die Folgen können gravierend sein, weil z. B. fehlerhafte Fahrzeuge zu Unfällen führen oder vertrauliche Daten von Chatbots gestohlen werden können. Dieses Projekt könnte die Grundlage für zukünftiges Patchen der dadurch erkennbaren Schwachstellen sein.

Hintergrund des Forschungsprojektes FIS der Cyberagentur ist die Tatsache, dass etwa 87 % der deutschen Unternehmen intelligente Systeme als entscheidenden Faktor für ihren wirtschaftlichen Erfolg betrachten . Unternehmer erhoffen sich durch KI-Anwendungen Zeit- und Kostenersparnisse. Durch das fehlende Fachwissen folgen aber Risiken der Manipulation.

Das Mysterium um die Wissenschaft der digitalen Forensik ist aufgeklärt. Viele Fälle von Cyberkriminalität noch nicht. Zusammenfassend soll jedoch durch das Forschungsprojekt der Cyberagentur der rasanten Verbreitung von KI-Systemen begegnet werden, um einem Missbrauch vorzubeugen und Strafverfolgungsbehörden im Zeitalter der Digitalisierung weitreichendere und rechtssichere kriminalistische Werkzeuge an die Hand zu geben.

Kontakt:
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de

Hintergrund: Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.

Die Cyberagentur ist Bestandteil der Nationalen Sicherheitsstrategie der Bundesrepublik Deutschland.

Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.

Wissenschaftliche Ansprechpartner:
Lars-Martin Knabe

Originalpublikation:
https://www.cyberagentur.de/die-mysterioese-wissenschaft/

Weitere Informationen:
https://www.cyberagentur.de/fis/
https://www.cyberagentur.de/forschungsprojekt-zur-digitalen-forensik-ausgeschrie…

(nach oben)


Wie erkennen Pflanzen, wann Wasser knapp wird?

Der Europäische Forschungsrat (ERC) hat der Biophysikerin Professorin Dr. Christine Ziegler von der Universität Regensburg und den Biologen Professor Dr. Malcolm Bennet von der Universität Nottingham, Professor Dr. Eilon Shani von der Universität Tel Aviv und Professor Dr. Thorsten Hamann von der Norwegischen Universität für Wissenschaft & Technologie für die Erforschung der Wasserstress-Wahrnehmung in Pflanzen eine der höchsten europäischen Auszeichnungen zugesprochen. Für das auf sechs Jahre angelegte Projekt HYDROSENSING stellt der ERC 10 Millionen Euro in einem sogenannten Synergy Grant bereit.

Diese besondere Auszeichnung des Europäischen Forschungsrates ist nur im Team zu gewinnen und fördert etablierte Spitzenforscher*innen mit wissenschaftlich bahnbrechenden Vorhaben, die von einer Arbeitsgruppe allein nicht adressiert werden können.

Universitätspräsident Professor Dr. Udo Hebel gratulierte zum ERC Synergy Grant: „Das Forschungsprojekt HYDROSENSING ist nicht nur inhaltlich und methodisch einzigartig – es unterstützt in direkter Weise die globalen Nachhaltigkeitsziele.“

Pflanzen brauchen genau wie Menschen Wasser zum Überleben und Gedeihen. Die verheerenden Auswirkungen des Klimawandels verstärken die Wasserknappheit auf der Erde mit dramatischen Folgen für die globale Landwirtschaft und Ernährungssicherheit. Um eine notwendige Klima-Resistenz in Pflanzen zu erreichen, ist es wichtig, zu verstehen, wie Pflanzen erkennen, ob genügend Wasser vorhanden ist. Das internationale HYDROSENSING-Team hat es sich zur Aufgabe gemacht, diese grundlegende Fragestellung zu beantworten. Zu verstehen, wie Pflanzen Wasserstress wahrnehmen, ist eine Grundvoraussetzung für die nachhaltige Entwicklung klimaresistenter Nutzpflanzen.

Das HYDROSENSING-Team will untersuchen, wie Pflanzen Wasser – das wichtigste Molekül auf unserem Planeten – auf molekularer Ebene wahrnehmen können. Mit Hilfe einer einzigartigen Methodenkombination aus innovativer CRISPR-Technologie und Multi-Skalen-Mikroskopie will Biophysikerin Ziegler gemeinsam mit ihren Kollegen die Schlüsselproteine in der Wasserstress-Wahrnehmung identifizieren, hochaufgelöste Bilder von den Vorgängen während des Wassertransports im Inneren von Pflanzen generieren und die regulatorische Interaktion der Wasserstress-detektierenden Proteinkomplexe auf molekularer Ebene aufklären. Dabei streben die Wissenschaftler*innen die Aufdeckung grundlegender Mechanismen an, die erklären, wie Pflanzen erkennen, wann Wasser „knapp“ wird.

Dramatische Dürren in Europa
„Europa hat in den Jahren 2022 und 2023 schwere Dürren erlebt,“ erläutert Forscher Malcolm Bennet. „Trotz der dramatischen Auswirkungen auf die Umwelt, die Wirtschaft und die Gesellschaft bleibt es unklar, wie Pflanzen Wasserstress wahrnehmen. Die wissenschaftlichen und technologischen Expertisen, um dies herauszufinden, liegen außerhalb der Grenzen eines einzelnen Forschers und erfordern stattdessen eine Partnerschaft zwischen mehreren weltweit führenden Gruppen.“

„Um herauszufinden, wie Pflanzen Wasserstress wahrnehmen, ist Interdisziplinarität und Methodenentwicklung unabdingbar,“ ergänzt Forscherin Christine Ziegler. „Dies erfordert eine intensive wissenschaftliche Partnerschaft. Wir haben bereits während der Antragsstellung unglaublich synergetisch zusammengearbeitet, um unsere Hypothese auszuarbeiten, dass Wasserstress durch mechanische Stimuli über die Zellwand den Transport des Wasserstress-Hormons Abscisin-Säure (ABA) steuert.“

Die Strukturbiologin Christine Ziegler, Leiterin des Lehrstuhl Biophysik II und Direktorin am neuen Regensburger Zentrum für Ultraschnelle Nanoskopie (RUN), forscht seit langem, wie Transport-Vorgänge über die Zellmembran unter Stress reguliert werden. Dazu nutzt sie u. a. Kryo-Elektronenmikroskopie zur Bestimmung von atomaren Strukturen von Membranproteinen in unterschiedliche Transportzuständen. „Pflanzen sind wahre Überlebenskünstler, wenn es um Stress-Adaptation geht, aber wegen ihrer grossen genetischen Redundanz sind molekulare Mechanismen für Pflanzenproteine schwer zu formulieren,“ führt sie weiter aus. „Erst die bahnbrechenden Arbeiten von Eilon Shani, der mittels CRISPR-Technologien gleichzeitig ganze Gen-Familien gezielt ausschalten kann, erlauben eine eindeutige Zuordnung von Wasserstress-Proteinen zu einem Phänotyp der Pflanze. Die Zusammenarbeit mit meinen Partnern im HYDROSENSING-Team stellt eine einzigartige Chance dar, molekulare Mechanismen im zellulären Kontext zu untersuchen.“

Beitrag zu globaler Ernährungssicherheit
Der Multi-Skalen-Mikroskopie-Ansatz des HYDROSENSING-Teams umfasst neben der Kryo-Elektronenmikroskopie konfokale Brillouin-Mikroskopie, welche es erlaubt, mechanische Stress-Signalleitung über die Pflanzenzellwand im Detail zu untersuchen. Diese Expertise bringt der norwegische Partner Thorsten Hamann ins Team, dessen Arbeiten an der Zellwand-Rezeptor-Kinase THESEUS 1 maßgeblich zur Idee des mechanischen Wasserstress-Signalling beigetragen hat.

Die innovative Stimulated-Raman-Scattering-Technologie zur Abbildung von Wasserbewegungen in der Pflanze wird im Labor des britischen Partners Malcolm Bennet entwickelt, dessen jüngste Untersuchungen zeigten, dass die Wurzeln von Pflanzen eine entscheidende Rolle haben, wenn es darum geht, die Auswirkungen von Wasserstress zu reduzieren. Malcolm Bennett erklärt: „Wir verwenden modernste Bildgebungstechniken, um die Wasserbewegung im Inneren von Pflanzenzellen zu verfolgen. Dies sind die ersten Bilder dieser Art, die jemals erstellt wurden. Diese Bilder ermöglichen es, den Prozess des Wassertransports in Echtzeit zu beobachten.“

Der Koordinator des Teams, Eilon Shani, ergänzt: „Mit unserem Projekt wollen wir universelle Designprinzipien aufdecken, die den Kernmechanismus für die Signalisierung von Wasserstress in Pflanzen erklärt. Dieses neue Wissen ist von entscheidender Bedeutung für die internationalen Bemühungen, klimaresistente Nutzpflanzen zu entwickeln und die globale Ernährungssicherheit zu stärken. Möglich wird das nur dank der Synergie im HYDROSENSING-Team“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christine Ziegler, Lehrstuhl für Biophysik II, Direktorium RUN, Universität Regensburg, Telefon: +49 941 943-3030, -3004, E-Mail: christine.ziegler@ur.de

Weitere Informationen:
https://www.uni-regensburg.de/newsroom/presse/mitteilungen/index.html?tx_news_pi…

(nach oben)


Risiko für plötzlichen Herztod: Wie können Warnzeichen bedrohten Menschen helfen?

So unerwartet der Sekundenherztod eintritt: Das Wissen über die Risikofaktoren und Warnzeichen kann bei der Identifizierung von Gefährdeten helfen. Kardiologen sehen zusätzlich Chance in Laienschulungsprogramm

Jedes Jahr sterben in Deutschland 65.000 Menschen am plötzlichen Herztod. Das müsste aber nicht sein. So unerwartet der vorzeitige plötzliche Herztod über Betroffene hereinbricht, so gehen ihm in den meisten Fällen Herzerkrankungen und andere Risikofaktoren voraus, die auf eine Gefährdung zumindest hindeuten. „Deshalb ist der vorzeitige Herztod in aller Regel kein schicksalhaftes Ereignis, von dem es kein Entkommen gibt. Das medizinische Ziel sollte sein, die entsprechenden Risikopersonen frühzeitig zu identifizieren, bevor ein bedrohliches kardiales Ereignis auftritt“, betont Herzspezialist Prof. Dr. med. Tienush Rassaf, Mitglied des Wissenschaftlichen Beirats der Deutschen Herzstiftung, anlässlich der bundesweiten Herzwochen. „Die Therapie besteht somit im Kern darin, den vorzeitigen Herztod zu verhindern“, so der Direktor der Klinik für Kardiologie und Angiologie am Westdeutschen Herz- und Gefäßzentrum des Universitätsklinikums Essen. Die Herzwochen 2023 stehen unter dem Motto „Herzkrank? Schütze Dich vor dem Herzstillstand!“ mit einem umfangreichen Informationsangebot unter https://herzstiftung.de/herzwochen

Senkung der Sterblichkeit durch plötzlichen Herztod: Suche nach weiteren Hebeln
Zwar wird der plötzliche Herztod überwiegend durch schnelle Rhythmusstörungen aus den Herzkammern (Kammertachykardie) oder Kammerflimmern (schnelle und zusätzlich unkoordinierte Rhythmusstörungen aus den Kammern) ausgelöst, die das Herz von einer Sekunde auf die andere komplett aus dem Takt und so zum Stillstand bringen und den Blutfluss zum Gehirn beenden. Die Ursachen dieser Rhythmusstörungen (als „Trigger“) liegen jedoch meistens in strukturellen Herzerkrankungen, die im Herzmuskel Funktionsstörungen des Herzens verursachen und dadurch Komplikationen wie akuten Herzinfarkt hervorrufen, die zum plötzlichen Herztod führen. „Sobald eine Herzerkrankung mit Hilfe der Herz-Diagnostik wie EKG, Ultraschall (Echokardiografie), Computertomografie, kurz CT, oder mittels Blutuntersuchungen festgestellt wurde, kann eine gezielte Therapie dabei helfen das Risiko für plötzlichen Herztod zu senken“, erklärt Rassaf. Dafür stehen Medikamente zur Verfügung, die das Herz schützen, sowie Therapien zur Behandlung von Herzgefäßverengungen (Stents, Bypassoperation), implantierbare Defibrillatoren gegen bösartige Rhythmusstörungen sowie Klappentherapien (Ersatz, Korrektur, Rekonstruktion). „Zwar konnte mit Hilfe der kardiologischen und herzchirurgischen Therapien in den vergangenen Jahrzehnten die Sterblichkeit durch Herzkrankheiten wie KHK und Herzschwäche erheblich gesenkt werden. Jedoch konnte diese positive Entwicklung den vorzeitigen Herztod noch nicht eliminieren. Wir müssen daher zusätzlich auf weitere Hebel wie Prävention, Sensibilisierung für frühzeitige Warnzeichen und richtiges Verhalten bei Herzinfarkt und beobachtetem Herzstillstand zurückgreifen“, betont der Essener Kardiologe.

US-Laienschulungsprogramm „Early Heart Attack Care“: Tauglich für Deutschland?
Mit dem Ziel, durch öffentliche Aufklärung über Herzinfarkt-Symptome und Risikofaktoren die Infarktsterblichkeit zu senken, könnten zusätzlich zu den etablierten bundesweiten Aufklärungskampagnen flächendeckende Schulungsprogramme effektiv sein. Ein Vorbild dafür könnte das Early Heart Attack Care (EHAC)-Programm aus den USA sein. „EHAC zielt auf das schnelle Reagieren Betroffener und ihres Umfelds bereits frühe Symptome des Herzinfarkts zu erkennen, um Verzögerungen bis zur medizinischen Versorgung des potenziellen Infarktpatienten auf ein Minimum zu reduzieren“, erklärt Prof. Dr. med. Frank Breuckmann, Chefarzt der Abteilung für Kardiologie, Pneumologie, Neurologie und Internistische Intensivmedizin an der Klinik Kitzinger Land in Kitzingen. „Neben Herzpatienten schult EHAC auch gesunde Menschen als potenzielle Ersthelfer darin, die Symptome eines Herzinfarkts erkennen und bewerten zu können und in der Lage zu sein, eine sofortige medizinische Abklärung in die Wege zu leiten“, erklärt der Kardiologe Prof. Breuckmann. Kernbotschaften des EHAC-Programms decken sich auch mit denen der Aufklärungsarbeit der Deutschen Herzstiftung, beispielsweise:

  • Bei Verdacht auf Herzinfarkt sofort den Rettungsdienst mit dem Notruf 112 rufen.
  • Niemals Zögern und warten, bis die Symptome wieder verschwinden.
  • Bei Verdacht auf Herzinfarkt zählt jede Minute („Time is Muscle“), hier kommt es auf die sofortige medizinische Versorgung des Infarktpatienten an.

Für eine flächendeckende Implementierung eines deutschen EHAC-Programms mit einheitlicher Zertifizierungs- und Schulungsstruktur – etwa angedockt an das Netzwerk von Chest Pain Units in Deutschland – sehen Prof. Breuckmann und Prof. Rassaf zunächst medizinische Fachgesellschaften wie die Deutsche Gesellschaft für Kardiologie (DGK) und die Deutsche Herzstiftung als Patientenorganisation gefragt. „Ein Netzwerk speziell geschulter Laien in Symptomatik und Risikofaktoren von KHK und Herzinfarkt sowie die flächendeckende Schulung in Maßnahmen zur Wiederbelebung könnten die Lage maßgeblich verbessern und zahlreiche Leben retten“, betonen die beiden Herzspezialisten.
Eine Chest Pain Unit (CPU, „Brustschmerzambulanz“) ist eine spezialisierte Abteilung in einem Krankenhaus, die sich auf die schnelle Diagnose und Behandlung von Patienten mit akuten Brustschmerzen konzentriert. Die CPU ist Anlaufstelle für alle Patientinnen und Patienten mit akuten Brustkorbbeschwerden, sie ist rund um die Uhr geöffnet und mit allen modernen Geräten für die Notfallversorgung ausgerüstet. „Wesentliche Aufgabe einer CPU ist akute oder drohende Herzinfarkte zu erkennen und zu behandeln“, erklärt Prof. Breuckmann. Insgesamt gibt es rund 360 zertifizierte CPUs in Deutschland. Infos unter https://herzstiftung.de/herznotfallambulanz-suche

Diese Vorboten sollten herzkranke Menschen, Angehörige (und ihre Ärzte) kennen
Herzkrankheiten und ihre Komplikationen können sich Tage bis Wochen vor dem Infarkt oder Herzstillstand durch Warnzeichen bemerkbar machen. „Für diese Warnzeichen müssen wir Betroffene mit einer Herz-Kreislauf-Erkrankung und ihre Angehörigen oder noch weitere Personen im Umfeld wie den Hausarzt frühzeitig noch mehr sensibilisieren“, so der Essener Kardiologe Prof. Rassaf. Häufigste Ursache des plötzlichen Herztods sind Durchblutungsstörungen des Herzmuskels aufgrund von Ablagerungen an den Wänden der Herzkranzgefäße. Diese sogenannte koronare Herzkrankheit (KHK), die bei vollständigem Verschluss eines Herzkranzgefäßes zum Herzinfarkt führt, liegt in ca. 80 Prozent der Fälle eines plötzlichen Herztods vor (weitere Herzkrankheiten, die zu den häufigsten Ursachen eines plötzlichen Herztods zählen, sind Herzinsuffizienz, Herzmuskelerkrankungen (Kardiomyopathien), Rhythmusstörungen, Herzmuskelentzündung (Myokarditis) und Herzklappenerkrankungen.). Beim Herzinfarkt können Tage bis Wochen vor dem Infarktereignis folgende Warnzeichen auftreten:

  • Brustschmerzen,
  • Kurzatmigkeit, Übelkeit und Erbrechen,
  • unregelmäßiger Herzschlag bzw. Herzrasen,
  • Schweißausbrüche oder vorahnende Angst.

Beim akuten Herzinfarkt sind typische Beschwerden:

  • Plötzlich einsetzende starke Schmerzen, die länger als fünf Minuten in Ruhe anhalten und die überwiegend im Brustkorb oder häufig auch ausschließlich hinter dem Brustbein auftreten,
  • in andere Körperteile wie Arme, Oberbauch, Rücken, Hals, Kiefer oder Schulterblätter ausstrahlen können.
  • Ein massives Engegefühl, heftiger Druck oder ein sehr starkes Einschnürungsgefühl im Brustkorb („Elefant auf der Brust“),
  • heftiges Brennen im Brustkorb.

Andere Herzinfarkt-Symptome können sein:

  • Kurzatmigkeit und Atemnot,
  • Schwindel oder Schwäche,
  • Kaltschweißigkeit und Herzklopfen.

Weitere Infos zu den Herzinfarkt-Warnzeichen unter https://herzstiftung.de/herzinfarkt-anzeichen

Unspezifische Herzinfarkt-Symptome bei Frauen, älteren Menschen und Diabetikern
„Nicht alle Herzinfarktpatienten erleben die gleichen Symptome“, betont der Herzstiftungs-Experte Rassaf. Insbesondere bei Frauen, älteren Menschen und Diabetikern könnten die Symptome anders oder unspezifisch sein, „wie etwa Schmerzen im oberen Bauchbereich oder allgemeines Unwohlsein“. Bei Diabetikern führt die lang bestehende Überzuckerung zur Störung des Nervensystems und dazu, dass sie die typischen Brustschmerzen als Folge der Durchblutungsstörung des Herzmuskels nicht spüren. „Dadurch fehlt ihnen das entscheidende Warnzeichen für ihre lebensbedrohliche Situation. Die Folge sind stumme Infarkte, Herzrhythmusstörungen oder plötzlicher Herztod.“ Auch ältere Menschen verfügten nicht selten über ein verringertes Schmerzempfinden für Herzinfarkt-Symptome. Bei Frauen kommen Symptome wie Übelkeit und Erbrechen neben Oberbauchbeschwerden hinzu.

Beide Herzstiftungs-Experten weisen darauf hin, dass diese Symptome einzeln für sich auch auf eine andere Ursache als Herzinfarkt hindeuten können. „Wenn jedoch eine Kombination dieser Symptome auftritt, insbesondere bei Menschen mit bekannten Risikofaktoren für Herzkrankheiten, dann sollte dies Betroffene wie umgebende Personen sofort sensibilisieren, und es sollte rasch ärztliche Hilfe aufgesucht werden.“ Bei solchem Verdacht auf Herzinfarkt ist sofort der Notruf 112 zu wählen!
(wi)

Service-Tipps zu den Herzwochen
Die Deutsche Herzstiftung informiert in den bundesweiten Herzwochen 2023 (1.-30. November) unter dem Motto „HERZKRANK? Schütze Dich vor dem HERZSTILLSTAND!“ darüber, wie Vorbeugung, Erkennung und konsequente Behandlung von Herzerkrankungen helfen, das Risiko auf ein Minimum zu reduzieren, dass das Herz plötzlich stillsteht. Infos zur Kampagne mit kostenfreien Präsenz- und Online-Veranstaltungen, Herzseminaren, Broschüren sowie Podcasts und Video-Clips unter https://herzstiftung.de/herzwochen und über die sozialen Medien instagram, facebook, YouTube, Linkedin und X (Twitter).

Der Ratgeber „Herzkrank? Schütze Dich vor dem Herzstillstand!“ (158 S.) kann kostenfrei per Tel. unter 069 955128-400 (E-Mail: bestellung@herzstiftung.de) angefordert werden. Leicht verständlich informieren Herzexperten über die wichtigsten Ursachen des Herzstillstands und wie Vorbeugung, Diagnose und konsequente Behandlung von Herzerkrankungen helfen, das Risiko eines plötzlichen Herztods auf ein Minimum zu reduzieren. Überlebende eines plötzlichen Herztods berichten eindrücklich in Patientenportraits. Weitere Infos unter https://herzstiftung.de/herzwochen

Experten-Videos und Podcasts zu Themen der Herzwochen bietet die Herzstiftung unter:
https://herzstiftung.de/herzwochen

Service für Medien
Die vollständige Pressemappe zu den Herzwochen 2023 mit Text- und Bildmaterial erhalten Sie direkt im Pressebereich unter https://herzstiftung.de/herzwochen-pressemappe (oder bei der Pressestelle unter presse@herzstiftung.de).

Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle:
Michael Wichert (Ltg.)/ Pierre König
Tel. 069 955128-114 / -140,
E-Mail: presse@herzstiftung.de
https://herzstiftung.de

Weitere Informationen:
https://herzstiftung.de/herzwochen
https://herzstiftung.de

Anhang
Risiko für plötzlichen Herztod: Wie können Warnzeichen bedrohten Menschen helfen?

(nach oben)


Isolierende Metalle

Forschende der FAU nutzen Lichträume, um die elektrische Leitfähigkeit von Materialien zu steuern

Werden Materialien zur Interaktion mit Licht gezwungen, können sich ihre Eigenschaften grundlegend ändern. Forschende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und der Universität Triest haben in einer Studie gezeigt, dass Tantalsulfid, ein metallisches Quantenmaterial, in einem optischen Hohlraum von einem elektrischen Leiter zu einem Isolator werden kann. Da dieser Prozess reversibel ist und kontaktlos gesteuert werden kann, eröffnet er völlig neue Perspektiven für Elektronik, Energiespeicherung und Quantencomputing. Seine Ergebnisse hat das Forschungsteam im renommierten Fachjournal „Nature“ veröffentlicht.*

Es ist der Traum eines jeden Materialforschers: die Eigenschaften eines Stoffes so zu kontrollieren, dass er völlig unterschiedliche Funktionen erfüllt. Und zwar innerhalb geschlossener Systeme – als umkehrbarer, präziser und kontaktlos steuerbarer Prozess. Der Verwirklichung dieses Traums sind deutsche, italienische und slowenische Forschende einen großen Schritt nähergekommen. „Wir konnten Tantalsulfid, ein Quantenmaterial mit metallischen Eigenschaften, so manipulieren, dass es sowohl als elektrischer Leiter als auch als Isolator fungiert“, erklärt Prof. Dr. Daniele Fausti, Inhaber des Lehrstuhls für Festkörperphysik an der FAU und außerordentlicher Professor für Materialphysik an der Universität Triest, Italien.

Das Forschungsteam nutzt dafür einen sogenannten optischen Hohlraum – einen engen Raum zwischen zwei Spiegeln, in dem Atome und Moleküle in eine Wechselwirkung mit Licht gezwungen werden. Optische Hohlräume verändern die elektromagnetische Umgebung eines Materials und erlauben es, seine Eigenschaften präzise und kontaktlos zu steuern. Im Experiment mit Tantalsulfid wurde ein reversibler Übergang zwischen der isolierenden und der metallischen Phase erreicht, indem die Position der Spiegel, die das Material umgeben, mechanisch verändert wurde. „Die Möglichkeit, die Leitfähigkeit eines Materials auf diese Weise zu modulieren, birgt ein ungeahntes Potenzial für die Präzisionssensorik und die Steuerung elektronischer Prozesse“, sagt Fausti.

Vor allem bei der weiteren Entwicklung der Quantentechnologien könnte die Entdeckung eine wichtige Rolle spielen: Quantenchips etwa sind zwar extrem leitungsfähig, aber auch sehr anfällig für Störungen. Sollte es gelingen, die elektromagnetischen Eigenschaften von Bauteilen in Quantencomputern kontaktlos zu verändern, könnten Schaltvorgänge stark vereinfacht und der Einfluss von Störfaktoren wesentlich reduziert werden. Zugleich wäre es möglich, Quantencomputer noch kompakter zu konstruieren. Mit ihrer Entdeckung dringen die Forschenden auch in den Bereich der supraleitenden Materialien vor: Viele Quantentechnologien sind auf Supraleiter angewiesen, die elektrischen Strom ohne Verlust leiten. Dafür müssen sie jedoch fast auf den absoluten Temperaturnullpunkt gekühlt werden – ein ebenso aufwändiger wie energieintensiver Vorgang.

„Das Einbringen in optische Hohlräume könnte ein Weg sein, Quantenmaterialien bei Temperaturen zu Supraleitern zu machen, die immer näher an der Raumtemperatur liegen“, erklärt Daniele Fausti. „Wir sind sehr neugierig darauf, diesen Weg in den kommenden Jahren weiter zu erforschen.“

https://www.nature.com/articles/s41586-023-06596-2

Anprechpartner für Medien:
Prof. Dr. Daniele Fausti
Lehrstuhl für Festkörperphysik
Tel.: 09131/85-28401
daniele.fausti@fau.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniele Fausti
Lehrstuhl für Festkörperphysik
Tel.: 09131/85-28401
daniele.fausti@fau.de

Originalpublikation:
https://www.nature.com/articles/s41586-023-06596-2

(nach oben)


Ein Schritt auf dem Weg zum Feststoff-Akku

Sintern überflüssig: Niedertemperatursynthese von Lithium-Keramik für Akkus
Eine Lithium-Keramik könnte als fester Elektrolyt einer leitungsfähigeren und kostengünstigeren Generation von Lithiumionen-Akkus zum Durchbruch verhelfen. Die Voraussetzung: Eine Herstellmethode, die ohne Sintern bei hohen Temperaturen auskommt. In der Zeitschrift Angewandte Chemie stellt ein Forschungsteam jetzt einen „sinterungsfreien“ alternativen Weg für die effiziente Niedertemperatursynthese der Keramik in ihrer leitfähigen kristallinen Form vor.

Bei der Entwicklung von Akkus für Elektro-Fahrzeuge stehen zwei Faktoren im Vordergrund: Die Leistungsfähigkeit, die die Reichweite der Fahrzeuge bestimmt, und die Kosten, die ausschlaggebend für die Wettbewerbsfähigkeit gegenüber Verbrennerfahrzeugen sind. Das US-Energieministerium will den Übergang von Verbrennern zu E-Fahrzeugen beschleunigen und hat ehrgeizige Ziele für Produktionskosten und Energiedichten von Akkus bis 2030 gesetzt. Mit konventionellen Lithiumionen-Akkus sind diese nicht zu schaffen.

Ein vielversprechender Ansatz für kleinere, leichtere, deutlich leistungsstärkere und sicherere Akkus sind Festkörper-Zellen mit Anoden aus metallischem Lithium – statt aus Graphit. Anders als bei konventionellen Lithiumionen-Akkus, die einen flüssigen organischen Elektrolyten und eine Polymerfolie zur Trennung von Anoden- und Kathodenraum enthalten, sind bei Festkörperzellen alle Bestandteile Feststoffe. Eine dünne keramische Schicht fungiert gleichzeitig als Festelektrolyt und Separator. Sie wirkt sehr effektiv gegen gefährliche Kurzschlüsse durch das Wachstum von Lithium-Dendriten und thermisches Durchgehen. Zudem enthält sie keine leicht entflammbaren Flüssigkeiten.

Als keramischer Elektrolyt/Separator für Zellen mit hoher Energiedichte eignet sich der Lithium-Granat Li7La3Zr2O12−d (LLZO). Das Material muss allerdings gemeinsam mit der Kathode bei mehr als 1050 °C gesintert, werden, um das LLZO in die schnell Lithium-leitende und benötigte kubisch-kristalline Phase zu überführen, ausreichend zu verdichten und fest an die Elektrode zu binden. Temperaturen ab 600 °C destabilisieren jedoch nachhaltige Kobalt-reduzierte und -freie Kathoden-materialien und treiben zudem Produktionskosten sowie Energieverbrauch in die Höhe. Neue kostengünstigere, nachhaltigere Herstellwege sind für eine Kommerzialisierung unabdingbar.

Einen solchen hat das Team um Jennifer L. M. Rupp vom MIT (Cambridge, USA) und der TU München in einem neuen Syntheseverfahren jetzt entwickelt. Der neue Ansatz geht nicht von einer keramischen, sondern von einer flüssigen Vorläuferverbindung aus, die in einer sequenziellen Zersetzungssynthese eine direkte Verdichtung zu LLZO erlaubt. Um die Bedingungen für den Syntheseweg zu optimieren, analysierten Rupp und ihr Team die mehrstufige Phasenumwandlung des LLZO von einer amorphen in die benötigte kristalline Form (cLLZO) mittels mehrerer Methoden (Raman-Spektroskopie, dynamische Differenzkalorimetrie) und stellten ein Zeit-Temperatur-Umwandlungs-Diagramm auf. Auf Basis der gewonnen Einblicke in den Kristallisationsprozess entwickelten sie eine Route, mit der durch zehnstündiges Glühen bei vergleichsweise niedrigen Temperaturen von 500 °C cLLZO als dichter, fester Film erhalten wird – ganz ohne Sintern. Für zukünftige Batteriedesigns erlaubt dies erstmalig die Integration der Feststoff-LLZO Elektrolyte mit nachhaltigen Kathoden, die auf sozio-ökonomisch kristische Elemente wie Kobalt verzichten könnten.

Angewandte Chemie: Presseinfo 43/2023

Autor/-in: Jennifer L. M. Rupp, Technische Universtiät München (Germany), https://www.professoren.tum.de/rupp-jennifer

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202304581

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Warum Tuberkulosebakterien lange Ketten bilden

Ein Forscherteam der Ecole Polytechnique Federal de Lausanne unter der Leitung von Dr. Vivek Thacker, jetzt Gruppenleiter am Zentrum für Infektiologie des Universitätsklinikums Heidelberg, hat untersucht, warum sich Tuberkulosebakterien zu langen Strängen aneinanderlagern und wie dies ihre Infektionsfähigkeit beeinflusst. Ihre Erkenntnisse könnten zu neuen Therapien führen und wurden nun in der Zeitschrift Cell veröffentlicht.

Mycobacterium tuberculosis, der Erreger der Tuberkulose, verursacht weltweit jährlich geschätzte 1,6 Millionen Todesfälle. Der Ausgang einer Infektion reicht von Abwehr ohne jedwede Erkrankung bis hin zu chronischer Infektion mit Auszehrung und Tod. Diese große Variabilität ist wesentlich von der Immunabwehr des infizierten Wirts abhängig. Die Analyse des Erreger-Wirt Wechselspiels ist zentrales Forschungsthema der Abteilung Medizinische Mikrobiologie und Hygiene im Zentrum für Infektiologie im Universitätsklinikum Heidelberg (UKHD) und an der Medizinischen Fakultät Heidelberg (MFHD).

Lange bekannt ist, dass Mycobacterium tuberculosis den Cordfaktor ausbildet, der für die krankmachenden Eigenschaften des Erregers, seine Virulenz, wichtig ist, und der außerdem zu einem besonderen Wachstumsverhalten führt: Mycobacterium tuberculosis kann dichtgepackte Stränge aus vielen Bakterien produzieren, die sich lichtmikroskopisch beobachten lassen. Wie diese Stränge zu den krankmachenden Eigenschaften von Mycobacterium tuberculosis beitragen, war bislang im Wesentlichen unverstanden.

Lebendzellmikroskopie und „lung-on-chip“

Wissenschaftler und Wissenschaftlerinnen um Dr. Vivek Thacker, bis vor kurzem tätig an der EPFL in Lausanne und nun Gruppenleiter im Zentrum für Infektiologie des Universitätsklinikums Heidelberg, haben in der aktuellen Arbeit erstmals einen Zusammenhang zwischen diesem“ mechanischen“ Wachstumsverhalten und der Infektionsbiologie von Mycobacterium tuberculosis hergestellt. In einem interdisziplinären Forschungsansatz nutzten sie Lebendzellmikroskopie und synthetische Organmodelle („lung-on-chip“).
Wissenschaftler und Wissenschaftlerinnen um Dr. Vivek Thacker, bis vor kurzem tätig an der EPFL in Lausanne und nun Gruppenleiter im Zentrum für Infektiologie des Universitätsklinikums Heidelberg, haben in der aktuellen Arbeit erstmals einen Zusammenhang zwischen diesem“ mechanischen“ Wachstumsverhalten und der Infektionsbiologie von Mycobacterium tuberculosis hergestellt. In einem interdisziplinären Forschungsansatz nutzten sie Lebendzellmikroskopie und synthetische Organmodelle („lung-on-chip“).

Bakterienstränge schnüren Zellkern ein
„Wir konnten zeigen, dass die Kompression von Bakterien zur Speicherung von Energie über den Cordfaktor in der Membran des Erregers führt“, berichtet Thacker. „Dadurch können Erreger, die von Fresszellen in der Lunge aufgenommen wurden und eigentlich vernichtet werden sollten, auch innerhalb dieser Abwehrzellen strangförmig wachsen.“ Das Team um Dr. Vivek Thacker beobachtete, dass dieses Wachstum den Zellkern der Wirtszelle einschnürt und stranguliert. Dadurch kann die Zelle weniger Abwehr- und Botenstoffe bilden und deshalb den Erreger nicht eindämmen. Weiterhin führt das strangförmige Wachstumsverhalten außerhalb von Zellen dazu, dass sich der Erreger zwischen den Epithelzellen, welche die Lungenbläschen auskleiden, und in andere Organe des Körpers ausbreiten kann. Schließlich konnte das Forscherteam beobachten, dass Bakterien in solchen Strängen unempfindlich gegen die Wirkung von Antibiotika werden und nach Beendigung einer Antibiotikatherapie erneut wachsen können.

Neues Forschungsfeld „Mechanopathologie“
„Es ist uns gelungen, mechanisches Wachstumsverhalten auf zellulärer Ebene mit biologischen Funktionen zu verknüpfen“, sagt Dr. Vivek Thacker. „Diese Mechanopathologie ist ein neues, vielversprechendes Forschungsfeld.“ Einige Aspekte dieses mechanischen Wachstumsverhaltens erinnern an Biofilme, die andere wichtige Erreger von Infektionskrankheiten, z. B. Staphylokokken und Pseudomonaden, ausbilden und die ebenso zur Unempfindlichkeit gegen Antibiotika und Hemmung der Wirtsabwehr beitragen. Die Verknüpfung von physikalischem Wachstumsverhalten und Infektionsbiologie ist damit ein höchst interessantes Forschungsgebiet, welches neue Erkenntnisse für die Entwicklung von dringend benötigten Therapien schaffen könnte.

„Ich bin froh, dass wir mit Dr. Vivek Thacker einen exzellenten Wissenschaftler für die Arbeit hier in Heidelberg gewinnen konnten“ sagt Professor Dr. Alexander Dalpke, der Ärztliche Direktor der Abteilung Medizinische Mikrobiologie und Hygiene. „Dr. Vivek Thacker ergänzt die Forschungsschwerpunkte des Instituts und des Zentrums für Infektiologie in idealer Weise. Insbesondere schlägt er, ganz im Geiste der Ruperto Carola, Brücken zu benachbarten Forschungsgebieten, z. B. der neuen Fakultät für Ingenieurwissenschaften. Seine anspruchsvollen Arbeiten mit der Lebendzellmikroskopie und synthetischen Organmodellen sind zukunftsweisend und stärken die Infektionsmedizin in Heidelberg.“

Wissenschaftliche Ansprechpartner:
Dr. Vivek Thacker
Professor Dr. Alexander Dalpke

Originalpublikation:
Richa Mishra , Melanie Hannebelle , Vishal P. Patil et al. (2023) Mechanopathology of biofilm-like Mycobacterium tuberculosis cords. Cell DOI: 10.1016/j.cell.2023.09.016

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/zentrum-fuer-i…

(nach oben)


Impulse für die Züchtung von Kulturpflanzen angesichts des Klimawandels

Mithilfe neuer statistischer Verfahren ergründen Forschende das komplexe Wechselspiel zwischen Lebenszyklus, Umweltfaktoren und Erbinformation am Beispiel von Weizen.

Getreidepflanzen wie Weizen reagieren empfindlich auf den Klimawandel.
Viele Studien zeigen, dass ihr Ertrag mit steigenden Temperaturen und zunehmenden Extremwetterereignissen sinkt. Ein Team um den Agrarwissenschaftler Prof. Dr. Tsu-Wei Chen von der Humboldt-Universität zu Berlin hat ein neues statistisches Verfahren entwickelt, mit dem die Forschenden nachweisen konnten, dass es bestimmte Zeitfenster im Lebenszyklus der Pflanzen gibt, in denen Umweltfaktoren wie Temperaturen oder Niederschläge besonders großen Einfluss auf die späteren Erträge haben. Wie hoch die Ertragseinbußen bei ungünstigen Umweltbedingungen sind, ist auch von der genetischen Ausstattung einzelner Sorten abhängig. Daher können die Erkenntnisse wichtige Impulse für die künftige Züchtung von stressresistenten Weizensorten liefern. Ihre Ergebnisse veröffentlichten die Forschenden in der renommierten Fachzeitschrift Nature Plants.

Klimawandel verändert Anbaubedingungen und führt schon heute zu Ernteausfällen
Winterweizen gehört zu den wichtigsten Kulturpflanzen weltweit und ist damit entscheidend für die Ernährungssicherheit. Viele Faktoren, wie etwa die Höhe der Temperaturen und Niederschläge, die Bodenqualität, die Art der Bewirtschaftung oder die verwendete Sorte bestimmen darüber, wie groß die Ernte am Ende ausfällt. Der Klimawandel verändert die Anbaubedingungen und führt bereits heute zu großen Ernteausfällen. Landwirtinnen und Landwirte müssen sich darauf einstellen und brauchen neue Lösungen.

Wichtige Zeitfenster im Lebenszyklus der Pflanze
„Es ist bereits bekannt, dass Winterweizen in der Blütezeit von etwa Ende Mai bis Anfang Juni sehr empfindlich gegenüber hohen Temperaturen ist“, erklärt Tsu-Wei Chen. Steigen die Temperaturen in dieser Zeit auf über 30 Grad Celsius, sinkt die Befruchtungsrate rapide, da der Pollen Schaden nimmt. Die Pflanze bildet dann nur wenige Körner und der Ertrag bleibt gering. Im Lebenszyklus der Weizenpflanze gibt es sehr viele dieser speziellen Zeitfenster, in denen sie empfindlich auf verschiedene Umwelteinflüsse reagiert. Das Zusammenspiel von Umwelt, Erbgut und Entwicklungsphase in diesen Zeitfenstern zu untersuchen ist schwierig.

Komplexe Zusammenhänge werden mit neuer Methode sichtbar
„Es gibt Hunderte Weizensorten allein in Deutschland und alle haben unterschiedliche Eigenschaften“, erklärt Tsu-Wei Chen. „Es ist nahezu unmöglich, alle Sorten in Feldversuchen detailliert zu charakterisieren, um sämtliche Stärken und Schwachstellen und die Wechselwirkungen mit der Umwelt zu ermitteln.“ Um diese Zusammenhänge trotzdem besser zu verstehen, entwickelten die Forschenden ein statistisches Verfahren und wendeten es auf Daten aus Feldversuchen mit 220 unterschiedlichen Winterweizensorten an, die an sechs Versuchsstandorten in ganz Deutschland in drei aufeinanderfolgenden Saisons angebaut wurden. Für jeden Standort, jede Sorte und jedes Versuchsjahr wurden Bodendaten und die entscheidenden Ertragskomponenten, also Kornzahl pro Ähre, Ährenzahl und Tausendkorngewicht, ermittelt. Diese Daten kombinierte das Forschungsteam mit Wachstumsmodellen und ausgewählten Wetterdaten der jeweiligen Region zu insgesamt 81 verschiedenen Zeitfenstern pro Saison.

Durch das neue statistische Verfahren haben die Forschenden nicht nur alle bereits bekannten empfindlichen Entwicklungsphasen identifiziert, sondern auch neue Schlüsselmomente des pflanzlichen Lebenszyklus erkannt. Sie konnten ebenfalls ermitteln, welche Umwelteinflüsse zu diesen Zeitpunkten entscheidend sind und wie stark die einzelnen Sorten darauf reagieren. So entdeckten sie etwa, dass die Nachttemperatur vor der Blüte die Korngröße steuert, dass Niederschläge auch noch nach der Blüte die Anzahl der Ähren erhöhen oder dass während der späten Kornfüllungsphase Ende Juli die Intensität der Sonnenstrahlung das Gewicht der reifen Körner beeinflusst.

Züchtung stressresistenter Sorten
„Wir haben nicht nur neue sensitive Zeitfenster entdeckt, sondern auch Stressresistenzen in bestimmten Sorten“, betont Tsu-Wei Chen. Diese Erkenntnisse sind für die zukünftige Züchtung besonders wichtig, um Sorten und genetische Ressourcen identifizieren zu können, die weniger empfindlich gegenüber Umweltschwankungen sind und daher zuverlässig stabile Erträge liefern können. Außerdem erlauben die neuen Methoden, Getreideerträge unter zukünftigen Klimabedingungen vorherzusagen. „Unsere Ergebnisse eröffnen neue Forschungsfelder für die Zukunft und werfen auch zahlreiche unbeantwortete Fragen auf. Zum Beispiel müssen wir untersuchen, welche physiologischen Prozesse und Mechanismen die Sensitivität regulieren und welche genetischen Regionen und Gene damit verbunden sind“, erklärt der Forscher.

Beteiligte Institutionen
Leibniz Universität Hannover, Christian-Albrechts-Universität Kiel,
Justus-Liebig-Universität Gießen, Julius Kühn-Institute, Universität Bonn

Zur Person
Prof. Dr. Tsu-Wei Chen ist seit 2020 Professor für Intensive Plant Food Systems an der Fakultät für Lebenswissenschaften der Humboldt-Universität zu Berlin. Im Jahr 2020 wurde er in das renommierte Emmy Noether-Programm der Deutschen Forschungsgemeinschaft (DFG) aufgenommen. Er erforscht die physiologischen Funktionen gärtnerischer und landwirtschaftlicher Kulturpflanzen (Getreide und Gemüse) und wie diese Funktionen durch Pflanzenzüchtung verbessert werden können.

Weitere Informationen zur Professur Intensive Plant Food Systems: https://www.agrar.hu-berlin.de/de/institut/departments/dntw/gpfs

Publikation
Khadija Sabir, Till Rose, Benjamin Wittkop, Andreas Stahl, Rod J. Snowdon, Agim Ballvora, Wolfgang Friedt, Henning Kage, Jens Léon, Frank Ordon, Hartmut Stützel, Holger Zetzsche and Tsu-Wei Chen. 2023. Stage-specific genotype-by-environment interactions determine yield components in wheat.

Zum Artikel in Nature Plants: https://doi.org/10.1038/s41477-023-01516-8

Bild zum Download: https://www.hu-berlin.de/de/pr/nachrichten/oktober-2023/natur-plants-weizenkoern…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tsu-Wei Chen

Ein Institut der Humboldt-Universität zu Berlin
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften
Fachgebiet Intensive Plant Food Systems
Lentzeallee 75, 14195 Berlin

Tel.: 030 2093 46295
tsu-wei.chen@hu-berlin.de
ORCID iD: https://orcid.org/0000-0001-6698-563X

(nach oben)


Künstliche Intelligenz sagt die Zukunft der Künstlichen Intelligenz Forschung voraus

Allein die unübersehbare Fülle wissenschaftlicher Veröffentlichung im Forschungsbereich zur künstlichen Intelligenz zu überblicken und mit dem Fortschritt mitzuhalten, ist für die menschlichen Forscherinnen kaum noch möglich. Wissenschaftlerinnen in einem internationalen Team unter Leitung von Mario Krenn vom Max-Planck-Instituts für die Physik des Lichts konnten nun einen KI-Algorithmus entwickeln, der Forscher*innen nicht nur unterstützt, sich systematisch zu orientieren, sondern zielführend voraussagt, in welche Richtung sich das eigene Forschungsgebiet entwickeln wird. Die Arbeit wurde im renommierten Fachjournal Nature Machine Intelligence veröffentlicht.

Auf dem Gebiet der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) wächst die Zahl der wissenschaftlichen Veröffentlichungen exponentiell und verdoppelt sich etwa alle 23 Monate. Für menschliche Forscher*innen ist es schwierig bis kaum möglich, den Fortschritt zu verfolgen und einen gesamten Überblick zu behalten. Mario Krenn, Forschungsgruppenleiter am Max-Planck-Institut für die Physik des Lichts in Erlangen, nähert sich der Lösung dieser Herausforderung auf unkonventionelle Weise und hat mit seinem neuen graphenbasierten „Science4Cast“ ein Werkzeug entwickelt, mit dem sich Fragen zur zukünftigen Entwicklung der KI-Forschung stellen lassen.

Im Vorfeld hatte die internationale Forschungsgruppe den „Science4Cast“-Wettbewerb ausgeschrieben, mit der Zielsetzung, die Entwicklung wissenschaftlicher Konzepte im Bereich KI-Forschung zu erfassen und vorherzusagen, welche Themen Gegenstand künftiger Forschung sein werden. Mehr als 50 Beiträge mit unterschiedlichen Herangehensweisen wurden im Wettbewerb eingereicht. Krenn hat jetzt gemeinsam mit den bestplatzierten Teams die verschiedenen angewendeten Methoden untersucht, welche von rein statistischen bis hin zu reinen Lernmethoden reichten, und kam zu überraschenden Ergebnissen. „Die leistungsstärksten Methoden verwenden einen sorgfältig kuratierten Satz von Netzwerkmerkmalen und nicht einen durchgängigen KI-Ansatz.“, so Mario Krenn. Dies deutet auf ein großes Potenzial hin, das bei reinen ML-Ansätzen ohne menschliches Wissen freigesetzt werden kann.

Science4Cast ist eine graphbasierte Darstellung von Wissen, das über die Zeit komplexer wird, je mehr wissenschaftliche Artikel veröffentlicht werden. Ein Knotenpunkt des Graphen repräsentiert jeweils ein KI-Konzept, und die Verbindungen zwischen den Knoten geben an, ob und wann zwei Konzepte gemeinsam erforscht wurden. Beispielsweise kann die Fragestellung „Was wird passieren“ dadurch in eine mathematische Frage zur weiteren Entwicklung des Graphen beschrieben werden. Science4Cast ist mit realen Daten aus über 100.000 wissenschaftlichen Publikationen gefüttert aus einem Zeitraum von 30 Jahren mit insgesamt 64.000 Knoten.

Die Vorhersage, woran Forscherinnen in der Zukunft arbeiten werden ist aber nur ein erster Schritt. Die Forscherinnen beschreiben in ihrer Arbeit wie eine Weiterentwicklung von Science4Cast bald personalisiert Vorschläge für die jeweiligen Wissenschaftler*innen zu ihren zukünftigen Forschungsprojekten geben könnte. „Unsere Ambition ist, eine Methode zu entwickeln, die für Wissenschaftler als Inspirationsquelle dient – quasi als künstliche Muse. Damit könnte der Fortschritt der Wissenschaft in der Zukunft beschleunigt werden“, erklärt Mario Krenn.

Wissenschaftliche Ansprechpartner:
Dr. Mario Krenn
Leiter der Forschungsgruppe ›Artificial Scientist Lab‹ am Max-Planck-Institut für die Physik des Lichts.
www.mpl.mpg.de / mario.krenn@mpl.mpg.de

Originalpublikation:
Krenn, M., Buffoni, L., Coutinho, B. et al. „Forecasting the future of artificial intelligence with machine learning-based link prediction in an exponentially growing knowledge network“
DOI: 10.1038/s42256-023-00735-0

www.nature.com/articles/s42256-023-00735-0

(nach oben)


Global Upskill – mit Weiterbildung gegen den Fachkräftemangel

Global Upskill – mit Weiterbildung gegen den Fachkräftemangel
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

Welche Kompetenzen benötigen Mitarbeitende in Zukunft und welche innovativen Weiterbildungsformate sind notwendig, um dem weltweiten Fachkräftemangel entgegenzuwirken? Mit diesen Fragestellungen beschäftigt sich die Initiative »Global Upskill« des Fraunhofer IAO. Das Projekt analysiert Trends und Technologien der beruflichen Weiterbildung und bringt neue didaktische Formate in die Praxis.

Nicht nur der allgegenwärtige Fachkräftemangel, sondern auch die digitale Transformation der Organisationen und der Wandel der Märkte hin zu mehr Nachhaltigkeit erfordern heutzutage neue Kompetenzen der Mitarbeitenden. Lebenslanges Lernen durch Coaching und Schulungen wird damit zum Schlüssel für eine erfolgreiche Zukunft von Organisationen. Mit »Global Upskill« bietet das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO ein Projekt, das mit seinen anwendungsorientierten Formaten die berufliche Weiterbildung und deren Zukunft maßgeblich mitgestaltet. Damit trägt die Initiative dazu bei, dem Fachkräftemangel in der neuen, dynamischen Arbeitswelt entgegenzuwirken.

Zukunftskompetenzen identifizieren und neue Lernformate entwickeln
Das von der Dieter Schwarz Stiftung geförderte Projekt arbeitet in vier Handlungsfeldern. Zunächst analysieren die Expertinnen und Experten des Fraunhofer IAO Trends und Technologien, welche die berufliche Weiterbildung beeinflussen, und leiten daraus zukünftige Kompetenzen und Weiterbildungsinhalte ab. Anschließend identifizieren und entwickeln sie neue didaktische Lernformate. Im vierten Schritt kreieren sie daraus konkrete Anwendungen für die Praxis, mit denen Inhalte und Kompetenzen vermittelt werden können.

»Ziel unserer Initiative ist es, eine echte Veränderung in der beruflichen Weiterbildung und in der Lernkultur der Unternehmen zu bewirken. Daher entwickeln und erproben wir auch innovative Lernformate«, erklärt Tim Beichter, der als wissenschaftlicher Mitarbeiter am Fraunhofer IAO gemeinsam mit seinem Kollegen Manuel Kaiser das Projekt leitet. Neben dem Fraunhofer IAO ist auch der LearnTech Hub Heilbronn an der Initiative beteiligt.

»Global Upskill Summit« vernetzt und diskutiert Lösungen
Das Projekt Global Upskill ist ursprünglich aus der Initiative »Forschung zur beruflichen Weiterbildung – Business Education & Innovation« hervorgegangen. Im Rahmen dieser Initiative wurde bereits im Herbst 2022 ein »Leitfaden zur Identifikation und Analyse von technologischen Trends für die berufliche Weiterbildung« veröffentlicht. Im Kontext von Global Upskill entstehen nun weitere Publikationen und Demonstratoren zu verschiedenen Teilprojekten, die die Zukunft der beruflichen Weiterbildung voranbringen. Zur stärkeren Vernetzung von Unternehmen, Start-ups und Forschung wurde zudem ein jährliches Gipfeltreffen zur beruflichen Weiterbildung ins Leben gerufen. »Mit dem ›Global Upskill Summit‹ wollen wir Erfahrungen austauschen und aktuelle Handlungsfelder der beruflichen Weiterbildung aus verschiedenen Blickwinkeln betrachten«, erläutert Manuel Kaiser. Der Summit wird erstmals am 8. November 2023 stattfinden.

Weitere Informationen zum Projekt finden Sie auch in diesem Video: https://www.youtube.com/watch?v=Bbxm5MXC3FA

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
E-Mail: presse@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
M.A. Manuel Kaiser
Business Education u. Innov.
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5137
E-Mail: manuel.kaiser@iao.fraunhofer.de

M.A. Tim Beichter
Business Education u. Innov.
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5136
E-Mail: tim.beichter@iao.fraunhofer.de

Originalpublikation:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/technologische-tren…

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/global-upskill.html

(nach oben)


Funktionsweise des Gedächtnisses dank KI entschlüsseln

Eine Symphonie von elektrischen Signalen und ein dynamisches Geflecht von Verbindungen zwischen Gehirnzellen helfen uns, neue Erinnerungen zu bilden. Mit Hilfe von KI-gestützten Modellen neuronaler Netzwerke arbeiten Forschende des FMI daran, zu entschlüsseln, wie das Gehirn diesen Tanz orchestriert. Ihre jüngste Studie hat einen grossen Fortschritt erzielt bei der genauen Simulation der Veränderungen in den Verbindungen zwischen Neuronen, die die äussere Umgebung wahrnehmen. Somit hat sie die Tür zu einem besseren Verständnis dafür geöffnet, wie unzählige Gehirnzellen Empfindungen in Wahrnehmungen und Gedanken umwandeln. Hier hilft KI, die Funktionsweise echter Gehirne besser zu verstehen.

In den letzten Jahren hat die künstliche Intelligenz – oder KI – begonnen, die Welt, wie wir sie kennen, zu revolutionieren: Einige Menschen bitten nun KI-basierte Chatbots, Aufsätze zu schreiben und Dokumente zusammenzufassen, andere nutzen KI-gestützte virtuelle Assistenten, um Nachrichten zu versenden und Smart-Home-Geräte zu steuern, wieder andere setzen die Technologie für die Entdeckung und Entwicklung von Medikamenten ein. Der Experte für computergestütze Neurowissenschaften Friedemann Zenke nutzt KI, um die Funktionsweise des Gehirns zu erforschen.

In einer Studie, die in Nature Neuroscience veröffentlicht wurde, untersuchten Forschende unter der Leitung von Zenke – einem Forschungsgruppenleiter am FMI – wie bestimmte Gruppen von Neuronen ihre Verbindungen als Reaktion auf äussere Reize anpassen. Die Arbeit könnte Neurowissenschaftlerinnen und –wissenschaftlern helfen zu verstehen, wie sensorische neuronale Netze, die Informationen der Umwelt verarbeiten, die Aussenwelt wahrnehmen.

Zenke und seine Gruppe verwenden mathematische Werkzeuge und Theorien, um zu untersuchen, wie Gruppen von Neuronen im Gehirn beim Lernen und Abspeichern von Erinnerungen zusammenarbeiten. Durch die Entwicklung von Ansätzen, die der Komplexität des menschlichen Gehirns gerecht werden, erstellt Zenkes Team KI-basierte Modelle von neuronalen Netzwerken, die uns nützliche Informationen über das reale Organ liefern können.

«Jeder Mensch hat ein Gehirn, aber wir verstehen nicht wirklich, wie es funktioniert», sagt Zenke. «Unser Ziel ist es, ein gewisses Verständnis dafür zu erlangen, denn bevor wir uns mit Krankheiten befassen können, müssen wir verstehen, wie das gesunde System funktioniert.»

MODELLE DES GEHIRNS
Zenke hatte schon jung eine Vorstellung davon, wie eine wissenschaftliche Laufbahn aussehen würde. Sein Vater, ein Zellbiologe, machte ihn schon früh mit der Umgebung eines biomedizinischen Labors vertraut. An den Wochenenden und in den Schulferien begleitete Zenke seinen Vater bei der Arbeit. «Ich erinnere mich gerne daran, wie ich als Kind meinen Finger in den Vortex steckte», sagt Zenke. «Aber schon damals haben mich die Computer im Labor am meisten fasziniert.»

Zenke entschied sich schliesslich für ein Physikstudium, und Ende 2000 begann er, in dem Zweig der Physik, der sich mit den grundlegenden Bausteinen der Materie beschäftigt, zu arbeiten. Ob-wohl Zenke das Gebiet faszinierend fand, waren die Zeiträume der Experimente zu lang. Er hoffte, dass seine Forschung eine unmittelbarere Wirkung haben würde. Er erkannte, dass das aufblü-hende Gebiet der computergestützte Neurowissenschaft unser Verständnis des Gehirns mit rasan-ter Geschwindigkeit vorantreibt. «Das war es, was mich zum Wechsel bewogen hat», sagt er. Ein weiterer Aspekt, der Zenke zu den Neurowissenschaften geführt hat, ist ihre Komplexität. «Es ist wahrscheinlich eines der kompliziertesten Forschungsthemen, die es derzeit gibt, und es erfordert einen interdisziplinären Ansatz».

Nachdem er seine eigene Gruppe am FMI gegründet hatte, begann Zenke zu untersuchen, wie einzelne Neuronen zur Bildung von Erinnerungen beitragen – ein Prozess, der eine wichtige Rolle beim Lernen, bei der Problemlösung, und bei der persönlichen Identität spielt. Wenn wir zum Beispiel jemanden zum ersten Mal sehen, aktiviert das Gehirn bestimmte Gruppen von Neuronen. Dies führt zu einem einzigartigen Muster neuronaler Aktivität, das hilft, eine Erinnerung zu schaffen. Doch die einzigen Informationen, die ein einzelnes Neuron über die Aussenwelt hat, sind elektrische Impulse, die es von anderen Neuronen empfängt und an diese weiterleitet. «Wie trägt ein einzelnes Neuron zu dieser Berechnung des Gedächtnisses und der Erkennung von zum Beispiel einer Person bei?» fragt sich Zenke.

Die Zenke Gruppe geht dieser Frage mit verschiedenen Ansätzen aus der Mathematik, Informatik und Physik nach. Erinnerungen werden durch Veränderungen in Gruppen von Neuronen und den Verbindungen – oder Synapsen – zwischen ihnen gebildet. Die Forschenden simulieren also diese Gruppen von Neuronen – oder neuronale Netzwerke – am Computer. Dann nutzen sie Ansätze aus der Physik, um ein theoretisches Verständnis der Vorgänge in den Netzwerken zu erhalten. «Die Physik bringt die Kraft der Abstraktion mit – sie versucht, ein Problem auf das absolute Minimum zu reduzieren, auf die einfachsten Teile, die man verstehen kann», sagt Zenke.

Im Gehirn arbeiten jedoch Hunderte oder Tausende von Neuronen zusammen, um Erinnerungen zu bilden und manchmal reichen rein analytische Ansätze nicht aus, um zu verstehen, wie diese Zellen Informationen berechnen. In diesem Fall wenden sich die Forschenden Methoden des maschinellen Lernens zu, um gross angelegte Simulationen zu erstellen. Eine solche Technologie ist das Deep Learning, das bei vielen neueren Fortschritten im Bereich der KI, einschliesslich des autonomen Fahrens, eingesetzt wird.
Deep Learning basiert auf neuronalen Netzwerken, die die Informationsverarbeitung des menschlichen Gehirns nachahmen und so aus grossen Datenmengen «lernen» können. «Ein neuronales Netzwerk an sich macht nichts Sinnvolles. Es fängt erst an, etwas Sinnvolles zu tun, wenn man es mit einem Algorithmus trainiert», sagt Zenke.
Wenn der Algorithmus das neuronale Netzwerk mit Daten «füttert», verändern sich die Verbindungen innerhalb des Netzwerkes, was zu einem komplexeren Modell führt. Mit solchen Computermodellen neuronaler Netzwerke können Neurowissenschaftler Fragen zur Funktionsweise des Gehirns erforschen, ähnlich wie Biologen es mit lebenden Tieren tun.

IN-SILIKO NEURONALE SCHALTKREISE
Wenn es den Forschenden gelingt, Modelle für neuronale Netzwerke zu entwerfen, die ähnlich funktionieren wie das Gehirn, könnte dies eine Erklärung dafür liefern, wie das reale Organ Informationen berechnet und Erinnerungen speichert, sagt Zenke.
In den letzten Jahren hat sein Team mathematische Beschreibungen dafür entwickelt, wie sich Synapsen durch Erfahrung verändern. Die Forschenden trainierten ein pulsgekoppeltes neuronales Netzwerk, das die elektrischen Spikes nachahmt, mit denen Neuronen miteinander kommunizieren. Sie stellten fest, dass dieses Netzwerk einige bemerkenswerte Ähnlichkeiten mit der Funktionsweise echter Gehirne aufweist.

So haben Experimente an Tiermodellen gezeigt, dass das richtige Gleichgewicht zwischen erregenden und hemmenden elektrischen Signalen es den Neuronen ermöglicht, unter bestimmten Umständen aktiv und unter anderen stumm gestalten zu sein. Als Zenkes Team das pulsgekoppelte neuronale Netzwerk darauf trainierte, eine bestimmte Aufgabe auszuführen – zum Beispiel gesprochene Wörter aus einem Satz zu erkennen – entwickelten die künstlichen Neuronen in dem Netzwerk ein Gleichgewicht zwischen erregenden und hemmenden synaptischen Strömen, ohne dass dies explizit vom Modell verlangt wurde. «Hier schliesst sich der Kreis: Das Modell erreicht ein Gleichgewicht, das wir auch in der Biologie finden können», sagt er.

In ihrer jüngsten Studie untersuchten Zenke und sein Team, wie sensorische Netzwerke die Aussenwelt in neuronaler Aktivität darstellen. Sensorische Netzwerke im Gehirn aktualisieren ihre Verbindungen in der Regel als Reaktion auf äussere Reize ohne initiales Verständnis, was diese Reize verkörpern. Bei künstlichen neuronalen Netzwerken ist das anders. Ihre Lernalgorithmen werden mit spezifischen Daten, deren Inhalt oder Bedeutung bekannt ist, gefüttert. Die Forschenden fanden eine einfache Lösung für dieses Problem, indem sie die Lernregeln abänderten, die helfen die Bedeutung zukünftiger Reize zu erraten oder vorherzusagen. Bisherige Lernregeln wurden aus experimentellen Daten abgeleitet, aber ihnen fehlte ein grundlegender Aspekt: die Vorhersage zukünftiger Ereignisse. Also entwickelte Zenkes Team Lernregeln, die versuchen, zukünftige sensorische Eingaben jedes Neurons vorherzusagen. «Das ist die Schlüsselkomponente, die alles zu verändern scheint, was diese Netzwerke tun können», sagt Zenke. Die Erkenntnisse könnten Neurowissenschaftlern helfen, viele experimentelle Ergebnisse aus Tiermodellen zu verstehen.

Für die Zukunft plant Zenke, grössere Netzwerke aus zusammenhängenden neuronalen Schaltkreisen zu schaffen – ein Konstruktionsprinzip, das vom Gehirn verwendet wird –, um zu untersuchen, wie das reale Organ die Aussenwelt modelliert, zum Beispiel um Entscheidungen zu treffen oder die Handlungen anderer Menschen zu bewerten.

Durch die Kombination neuronaler Schaltkreise zu grossen Netzwerken erhalten die künstlichen Modelle eine rudimentäre Form des Verhaltens, die es Zenke ermöglichen, diese mit experimentellen Ergebnissen anderer Forschenden zu vergleichen, einschliesslich der Neurobiologen am FMI, die mit Tiermodellen arbeiten. Die von den KI-gestützten Modellen erstellten Vorhersagen könnten auch an lebenden Tieren getestet werden, was den Neurowissenschaftlern zusätzliche Werkzeuge für die Erforschung der Funktionsweise des Gehirns bieten könnte und Durchbrüche fördern würde, die sonst Jahrzehnte dauern würden.

«Am FMI und in Basel haben wir eine exzellente Gemeinschaft von Neurowissenschaftlerinnen und –wissenschaftlern, die eine lebendige, kollaborative Atmosphäre schaffen», sagt Zenke. «Es ist ein fantastischer Ort, um diese Art von Forschung zu betreiben.»

Wissenschaftliche Ansprechpartner:
Prof. Dr. Friedemann Zenke, friedemann.zenke@fmi.ch

Originalpublikation:
Manu Srinath Halvagal and Friedemann Zenke. The combination of Hebbian and predictive plasticity learns invariant object representations in deep sensory networks Nature Neuroscience (2023)
https://www.nature.com/articles/s41593-023-01460-y

(nach oben)


Brasilianischer Regenwald 2050: Frösche oder Immobilien?

Senckenberg-Forschende haben gemeinsam mit einem brasilianisch-deutschen Team die Auswirkungen des Klimawandels auf die taxonomische und funktionale Diversität von Amphibien in der „Mata Atlântica“ untersucht. Der Regenwald an der Ostküste Südamerikas zählt zu den am stärksten bedrohten tropischen Waldgebieten und beherbergt über 50 Prozent der in Brasilien vorkommenden Amphibienarten. Die Wissenschaftler*innen zeigen in ihrer Studie, dass selbst eine moderate Entwicklung des Klimawandels enorme Auswirkungen auf die zukünftige Amphibienvielfalt hat – zusätzlich geraten Frosch und Co. durch wirtschaftliche Interessen in Bedrängnis.

Die Auswirkungen des Klimawandels machen sich weltweit bemerkbar: Waldbrände, trockenfallende Gewässer oder Extremwetterereignisse sind an der Tagesordnung. „In unserer neuesten Studie haben wir untersucht wie sich der Klimawandel zukünftig auf die Amphibienwelt der ‚Mata Atlântica‘, eines der am stärksten bedrohten tropischen Waldgebiete, auswirkt“, erklärt PD Dr. Raffael Ernst von den Senckenberg Naturhistorischen Sammlungen Dresden und fährt fort: „Amphibien sind in hohem Maß abhängig von bestimmten mikroklimatischen Parametern und besetzen sehr unterschiedliche ökologische Nischen. Sie sind daher ideale Modellorganismen, um die Auswirkungen des anthropogenen Klimawandels auf die biologische Vielfalt zu untersuchen.“

Der Atlantische Regenwald an der Ostküste Brasiliens steht unter massivem Druck, welcher in den letzten Jahrzehnten zu einer beispiellosen Entwaldung und Degradierung geführt hat. Ursprünglich bedeckte die „Mata Atlântica“ eine Fläche von etwa 150 Millionen Hektar und erstreckte sich vom Süden bis zum Nordosten Brasiliens. Neben dichten Wäldern finden sich in dem Gebiet auch offene Bereiche wie Lichtungen, Felder, Sümpfe und Teiche. „Gegenwärtig sind nur noch 12 bis 16 Prozent des ursprünglichen Ökosystems vorhanden, das zudem stark fragmentiert ist. Dennoch beherbergt dieser Lebensraum fast 20 Prozent aller bekannten südamerikanischen und über 50 Prozent der in Brasilien vorkommenden Amphibienarten“, erläutert Dr. Paula Ribeiro Anunciação, Erstautorin der Studie an der brasilianischen Universität Federal de Lavras. Ribeiro Anunciação hat im Rahmen eines zweijährigen, von der Alexander von Humboldt-Stiftung geförderten „Research Fellowships“ gemeinsam mit Ernst und weiteren Forschenden die Zukunft von Amphibien, Vögeln und Dungkäfern – ökologisch bedeutsame Indikatorgruppen – im Untersuchungsgebiet in den Blick genommen. Für Amphibien untersuchte das Team je zwei Szenarien für deren Entwicklung bis zu den Jahren 2050 und 2070: Das Szenario RCP 4.5 des Weltklimarats (IPCC) rechnet mit einem gemäßigten Klimawandel, RCP 8.5 geht dagegen von einer weitgehend ungebremsten Erwärmung aus.

„Für beide Szenarien und Zeiträume sehen wir zukünftig einen signifikanten Rückgang sowohl der taxonomischen als auch der funktionalen Amphibienvielfalt – das heißt wir werden nicht nur einzelne Arten unwiederbringlich verlieren, sondern auch das gesamte Ökosystem wird sich verändern“, so Ernst. Laut den Modellergebnissen sind hiervon sowohl Arten betroffen, die sich in geschlossenen Wäldern wohlfühlen, als auch Tiere, die Offenland bevorzugen.

Einzig in der östlichen Küstenregion und in hochgelegenen Lebensräumen sei davon auszugehen, dass die ursprüngliche Vielfalt bei Frosch und Co. – trotz Klimawandel – in großen Teilen erhalten bleibt. „Genau diese Gebiete stehen aber – aufgrund ihrer Nähe zu den am besten entwickelten städtischen und industriellen Standorten Brasiliens – im Zentrum aktueller Immobilienspekulationen“, warnt der Dresdner Herpetologe und fährt fort: „Es reicht daher nicht, solche Biodiversitätsrefugien zu identifizieren und dann zu hoffen, dass diese zur langfristigen Erhaltung von biologischer Vielfalt in Zeiten des globalen Klimawandels beitragen. Vielmehr ist es wichtig, die Ursachen – also den Klimawandel als solchen – nachhaltig und wirksam zu bekämpfen. Nur so können wir auch das einzigartige Ökosystem und die Amphibienvielfalt der ‚Mata Atlântica‘ bewahren!“

Wissenschaftliche Ansprechpartner:
PD Dr. Raffael Ernst
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351-7958 41-4315
Raffael.ernst@senckenberg.de

Dr. Paula Ribeiro Anunciação
Universidade Federal de Lavras
Senckenberg Naturhistorische Sammlungen Dresden
paula.ribeiro-anunciacao@senckenberg.de

Originalpublikation:
Paula Ribeiro Anunciação, Raffael Ernst, Felipe Martello, Maurício Humberto Vancine, Luis Marcelo Tavares de Carvalho, Milton Cezar Ribeiro (2023): Climate-driven loss of taxonomic and functional richness in Brazilian Atlantic Forest anurans,Perspectives in Ecology and Conservation,

https://doi.org/10.1016/j.pecon.2023.09.001

(nach oben)


2023 – ein wegweisendes Jahr für globale Gesundheit

World Health Summit in Berlin offiziell eröffnet

Am Sonntagabend ist in Berlin der World Health Summit offiziell eröffnet worden. Das vorherrschende Thema der Eröffnungsveranstaltung: “A Defining Year for Global Health Action” (Ein wegweisendes Jahr für globale Gesundheitsmaßnahmen) – das Motto des WHS 2023.

Bei der Eröffnungsveranstaltung sagte Bundesgesundheitsminister Karl Lauterbach: „Es ist dringend notwendig, dass die Weltgemeinschaft zusammenkommt und sich gemeinsam den Herausforderungen der globalen Gesundheit stellt. Globale Gesundheit ist eine gemeinschaftliche Aufgabe, die nur dann wirksam angegangen werden kann, wenn wir unsere Kräfte bündeln und zusammenarbeiten.”

Die EU-Gesundheitskommissarin Stella Kyriakides kommentierte in ihrer Video-Rede: “In echtem Team-Europe-Geist und in enger Zusammenarbeit mit unseren Mitgliedstaaten ist die neue globale Gesundheitsstrategie der EU bereits auf dem Weg zur Umsetzung.” Die EU Kommission sei entschlossen, den Worten Taten folgen zu lassen.

WHO-Generaldirektor Tedros Adhanom Ghebreyesus, der live zugeschaltet wurde, betonte: „Die Menschheit steht heute vor so vielen gesundheitlichen Herausforderungen, vom Krieg bis zur Klimakrise, von zunehmender Armut und wachsendem Hunger, von der raschen Erschöpfung der natürlichen Ressourcen und Naturkatastrophen und natürlich von globalen und regionalen Krankheitsausbrüchen.“

Die Premierministerin von Barbados Mia Mottley gab in ihrer vorab aufgezeichneten Rede zu Bedenken: “Wenn wir bessere Gesundheitsergebnisse für die Armen in der Welt, zu denen nur etwa die Hälfte der Bevölkerung gehört, erreichen wollen, müssen wir wirksamere Finanzierungsmechanismen entwickeln, die dem globalen Süden helfen, seine öffentlichen Gesundheitssysteme aufzubauen und eine robuste und reaktionsfähige nationale Infrastruktur zu schaffen.”

World Health Summit Präsident Axel R. Pries rief zu globaler Kooperation auf: Die weltweite Global Health Community habe eine Verantwortung: “Wir müssen die Idee der internationalen Zusammenarbeit für das Leben und den Humanismus auf der Erde stärken.”

Weitere Sprecher:innen der Eröffnungsveranstaltung:

  • Aurélien Rousseau, Minister for Solidarity and Health, France
  • Keizo Takemi, Minister of Health, Labour and Welfare, Japan
  • Bharati Pravin Pawar, Minister of State of Health & Family Welfare, India
  • Ina Czyborra, Berlin Senator for Higher Education and Research, Health and Long-Term Care, Germany
  • Heyo Kroemer, CEO, Charité – Universitätsmedizin Berlin, Germany
  • Rose Gana Fomban Leke, Director Biotechnology Centre, Cameroon & Virchow Prize for Global Health Laureate
  • Omnia El Omrani, Youth Envoy to the President of the UN 27th Climate Change Conference (COP27), Egypt
  • Sunao Manabe, Executive Chairperson and CEO, Daiichi Sankyo, Japan
  • Bernd Montag, CEO, Siemens Healthineers, Germany
  • Christina Chilimba, Founder and Executive Director, All for Youth, Malawi

Mehr zur Eröffnungsveranstaltung: https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/KEY-01

Im Mittelpunkt des WHS 2023 stehen Themen wie Klimawandel und Gesundheit, Pandemieprävention, digitale Technologien, die Rolle der G7 und G20 in der globalen Gesundheit und 75 Jahre WHO. Erwartet werden weit über 300 Sprecher:innen aus allen Regionen der Welt: Zahlreiche Regierungsverantwortliche, rund 20 internationale Minister:innen, Vertreter:innen aus Wissenschaft, Wirtschaft, Zivilgesellschaft und internationalen Organisationen sowie mehrere tausend Teilnehmer:innen vor Ort und online.

Um Interessierten aus aller Welt, die nicht anreisen können, ebenfalls eine Teilnahme zu ermöglichen, ist das gesamte Programm online verfügbar.

Am zweiten Tag des WHS 2023 sprechen unter anderem (alle Zeiten in CEST):

-Tedros Adhanom Ghebreyesus, Director-General, World Health Organization (WHO) (9:00, 14:00)

  • Karl Lauterbach, Federal Minister of Health, Germany (9:00, 18:00)
  • Christian Drosten, Director, Institute of Virology, Charité – Universitätsmedizin Berlin (11:00)
  • Joy Pumaphi, Co-Chair, Global Preparedness Monitoring Board (GPMB) (11:00, 16:00)
  • Inger Ashing, CEO, Save the Children International (14:00)
  • Christopher Elias, President of the Global Development Division, Bill & Melinda Gates Foundation (11:00, 14:00)
  • Natalia Kanem, Executive Director, United Nations Population Fund (UNFPA) (12:45, 14:00)
  • Wilhelmina S. Jallah, Minister of Health, Liberia (14:00)
  • Catherine Russel, Executive Director, United Nations Children’s Fund (UNICEF) (14:00, 16:00)
  • Svenja Schulze, Federal Minister of Economic Cooperation and Development, Germany (14:00, 16:00)
  • Heyo Kroemer, CEO, Charité – Universitätsmedizin Berlin (9:00)
  • Lariba Zuweira Abudu, Minister for Gender, Children and Social Protection, Ghana (12:45)
  • Ayoade Alakija, World Health Summit Ambassador & WHO Special Envoy for the ACT-Accelerator (14:00)
  • Frederik Kristensen, Deputy CEO, Coalition for Epidemic Preparedness Innovations (CEPI) (16:00)
  • Ilona Kickbusch, Founding Director, Global Health Center, Graduate Institute of International and Development Studies (9:00, 12:45)

Mehr Sprecher:innen: https://www.worldhealthsummit.org/summit/speakers.html
Programm Details: https://www.conference.worldhealthsummit.org/Program/WHS2023

Bitte beachten Sie auch die folgenden Termine am Montag, 16.10.:

12:45 Uhr: Launch of the Equity 2030 Alliance: Vorstellung einer neuen globalen Partnerschaft für gerechte und frauenorientierte Forschung.
Mehr Info:
https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/PD-13a

14:00 Uhr: Global Financing Facility (GFF) Pledging Event: Eine hochrangige Geberveranstaltung um mehr als 250 Millionen Frauen, Kindern und Jugendlichen in den ärmsten Ländern der Welt eine gesündere Zukunft zu sichern.

Mehr Info:
https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/KEY-04

Der gesamte World Health Summit 2023 ist presseöffentlich.
Informationen für Medienvertreter:innen sowie eine Übersicht besonderer presserelevanter Veranstaltungen auf dem WHS 2023 finden Sie im Press Kit:
https://www.worldhealthsummit.org/media/presskit.html

Die Livestream-Links für die online Teilnahme finden Sie in der jeweiligen Session im Programm oder direkt auf https://www.worldhealthsummit.org. Bild und Ton können nach Absprache genutzt werden. Quelle: World Health Summit

Die Aufzeichnungen aller Sessions stehen anschließend hier zur Verfügung:
https://www.youtube.com/worldhealthsummit

Der World Health Summit ist die weltweit führende internationale Konferenz zu globaler Gesundheit. Der WHS 2023 steht erneut unter der Schirmherrschaft von Bundeskanzler Olaf Scholz, Frankreichs Präsident Emmanuel Macron und WHO-Generaldirektor Tedros Adhanom Ghebreyesus. Ziele des WHS sind, innovative Lösungen zur Verbesserung der globalen Gesundheit zu entwickeln, Austausch zu fördern, globale Gesundheit als zentrales politisches Thema zu implementieren, sowie die globale Gesundheitsdebatte im Sinne der UN-Ziele für nachhaltige Entwicklung (SDGs) voranzutreiben. Präsident des World Health Summit ist Prof. Dr. Axel R. Pries, Internationaler Jahrespräsident 2023 ist Prof. Dr. Adnan Hyder, George Washington University, USA.

World Health Summit
15.-17. Oktober, 2023
JW Marriott Hotel Berlin
Stauffenbergstraße 26
10785 Berlin, Germany & Digital
https://www.worldhealthsummit.org

WHS2023

Twitter: @WorldHealthSmt
LinkedIn, Facebook, Instagram: @worldhealthsummit
Pressekontakt
Alida Tiekötter
communications@worldhealthsummit.org

(nach oben)


Volkswirtschaftlich brisant: Wechseljahre am Arbeitsplatz

Die Ergebnisse der ersten deutschlandweiten Befragung von Frauen über Auswirkungen von Wechseljahresbeschwerden am Arbeitsplatz liegen vor. Ein Interview mit Studienleiterin Prof. Dr. Andrea Rumler von der Hochschule für Wirtschaft und Recht Berlin.

Am 18. Oktober ist Welt-Menopausetag. Ziel ist es, das Thema Klimakterium mit seinen medizinischen Implikationen und Auswirkungen auf das Wohlbefinden und die Arbeitsfähigkeit von Frauen stärker in den Fokus von Öffentlichkeit und Politik zu rücken.

Zur Person
Prof. Dr. Andrea Rumler ist Professorin für allgemeine Betriebswirtschaftslehre und Marketing an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin). Ihre Forschungsschwerpunkte liegen aktuell in den Bereichen Frauengesundheit, Nachhaltigkeitskommunikation und gendergerechte Finanzierung von Startups. Die Expertin für Marketing fokussiert in der Lehre außerdem auch auf Corporate Social Responsibility (CSR) und Compliance, der gesellschaftlichen Verantwortung von Unternehmen im Sinne eines nachhaltigen Wirtschaftens.

Prof. Rumler, Gesundheitsmanagement am Arbeitsplatz ist allgegenwärtig. Wechseljahresbeschwerden von Frauen werden dabei kaum bis gar nicht öffentlich thematisiert. Weshalb?

Frauengesundheit fand lange Zeit kaum Beachtung im Forschungskontext und ist auch im Betrieblichen Gesundheitsmanagement erst seit wenigen Jahren wirklich ein Thema. Dabei werden allerdings oft nur die Bedürfnisse junger Frauen adressiert, das Thema Wechseljahre ist weitgehend noch ein Tabuthema im betrieblichen Arbeitskontext. Das bestätigen auch die von uns erhobenen Daten in der ersten deutschlandweiten Befragung von berufstätigen Frauen zum Thema Wechseljahre am Arbeitsplatz.

Wie sind Sie auf das Thema gekommen?

Ich wurde 2021 von der Unternehmerin und Wechseljahresexpertin Peggy Reichelt auf die Thematik aufmerksam gemacht und begann zu recherchieren. Frau Reichelt baute zu der Zeit gerade ein Start-up auf, das sich mit den Bedürfnissen von Frauen in der Menopause beschäftigt und ihre Kundinnen berichteten immer wieder von Schwierigkeiten mit ihren Wechseljahressymptomen im Arbeitskontext.

Bis dato gab es zu dieser Thematik allerdings nur eine große Studie im englischsprachigen Raum, und darauf aufbauend auch Empfehlungen, wie Frauen in der Menopause am Arbeitsplatz unterstützt werden könnten. So etwas wollten wir auch für Deutschland realisieren – die Idee für das Forschungsprojekt MenoSupport war geboren und seit 2022 forsche ich gemeinsam mit meinem Team an der HWR Berlin und den Projektpartnerinnen an der HTW Berlin dazu.

Inwiefern ist dieses Thema für Unternehmen und Verwaltungen, für die Volkswirtschaft insgesamt von Relevanz?

Volkswirtschaftlich gesehen ist das Thema hoch brisant. Schon heute klagen zwei Drittel aller deutschen Unternehmen über Fachkräftemangel. Und obwohl in vielen Unternehmen Frauen in den Wechseljahren einen bedeutenden Teil der Belegschaft ausmachen, gibt es in Deutschland kaum Angebote zur betrieblichen Gesundheitsförderung für Frauen in der Zeit der Menopause. Dabei könnten passgenaue Angebote die berufserfahrenen und oft gut ausgebildeten Frauen dabei unterstützen, länger im Unternehmen zu bleiben und die Zufriedenheit der Mitarbeitenden steigern.

Wir haben in Deutschland dieses Jahr 2119 Frauen zwischen 28 und 67 Jahren befragt und 10 Prozent der Befragten mit Wechseljahresbeschwerden gaben an, auf Grund der Menopause früher in Rente gehen zu wollen oder schon gegangen zu sein. Bei den Befragten, die älter als 55 Jahre alt waren, gab sogar fast jede Fünfte (19,4 Prozent) an, früher in Rente gehen zu wollen.

Darüber hinaus bestätigt fast ein Viertel aller Befragten mit Wechseljahressymptomen, auf Grund der Menopause bereits Arbeitsstunden reduziert zu haben. Fast ein Drittel war auf Grund von Wechseljahressymptomen schon einmal krankgeschrieben oder hat unbezahlten Urlaub genommen. Mehr als jede sechste Befragte hat auf Grund ihrer Wechseljahressymptome schon einmal die Stelle gewechselt. Diese Zahlen machen deutlich, wie relevant das Thema für Unternehmen ist.

Welche Symptome haben die befragten Frauen angeführt, die sie während der Menopause in ihrer Arbeit besonders einschränken?

Viele der Teilnehmerinnen unserer Befragung gaben an, dass sie durch körperliche und geistige Erschöpfung, Schlafstörungen, erhöhte Reizbarkeit, depressive Verstimmung sowie Hitzewallungen negativ am Arbeitsplatz beeinflusst werden. Aber auch Gelenk- und Muskelbeschwerden, Augentrockenheit und Migräne wurden häufig als Beeinträchtigung genannt.

Die Arbeitsfähigkeit der Befragten wurde durch die Wechseljahre in ähnlicher Weise wie in der vom House of Commons (Women and Equalities Committee) 2021 durchgeführten Studie in Großbritannien beeinträchtigt. Die Top 4 der sowohl in Deutschland als auch in UK genannten Beeinträchtigungen sind erhöhter Stress, geringere Konzentrationsfähigkeit, erhöhte Ungeduld und Gereiztheit gegenüber anderen und ein geringeres Selbstbewusstsein bezüglich der eigenen Fähigkeiten.

Wie wirken sich die Wechseljahresbeschwerden auf das Wohlbefinden der Frauen am Arbeitsplatz aus?

Das ist sehr individuell, hier spielen Symptomlage und -stärke sicherlich eine große Rolle, aber auch psychologische Faktoren. Über die Hälfte unserer Befragten gab an, sich mit dem Thema Wechseljahre am Arbeitsplatz alleine gelassen zu fühlen. Die Mehrheit der Befragten wünscht zudem eine offene Kommunikation zum Thema Wechseljahre. Allerdings wird das Thema im Arbeitskontext bisher kaum thematisiert und viele Frauen befürchten, benachteiligt zu werden, wenn andere im Unternehmen wissen, dass sie Wechseljahresbeschwerden haben.

Ist das Thema in Deutschland schon bei der Politik angekommen?

Jain – ich würde sagen, das rollt gerade erst an. Aktuell gibt es eine kleine Anfrage der Fraktion der CDU/CSU zur Politik der Bundesregierung zur Menopause, welche noch unbeantwortet ist. Außerdem lud im März dieses Jahres die Bundestagsabgeordnete Dorothee Bär (CSU) zur Veranstaltung „Oh Meno – Warum die Wechseljahre uns alle etwas angehen“ in den Deutschen Bundestag ein – das war meines Wissens nach das erste Mal, dass das Thema im Bundestag größer diskutiert wurde. Am 18. Oktober („Tag der Menopause“) findet nun ein fraktionsübergreifender parlamentarischer Abend dazu statt und es bleibt zu hoffen, dass das Thema zukünftig mehr Aufmerksamkeit erhält.

Was hoffen Sie mit Ihrer Studie, der Sie den Titel MenoSupport gegeben haben, zu erreichen?

Mit dem Projekt MenoSupport wollen wir zum einen die Relevanz der Thematik für Deutschland herausstellen und zum anderen ganz konkret die betroffenen Frauen unterstützen, indem wir für Unternehmen innovative Maßnahmen zur betrieblichen Gesundheitsförderung für Frauen in den Wechseljahren entwickeln und den Austausch darüber anstoßen.

In Großbritannien verpflichten sich aktuell immer mehr Unternehmen dazu, für ein wechseljahresfreundliches Arbeitsumfeld zu sorgen. Dort hat man bereits erkannt, dass es auch aus wirtschaftlicher Sicht Sinn macht, Frauen in ihrer Lebensmitte mit dem Thema Wechseljahre zu unterstützen. Wir hoffen, dass diese Entwicklung auch nach Deutschland überschwappt.

Frau Prof. Rumler, ich danke Ihnen für das Gespräch.

Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin).

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andrea Rumler
Tel.: +49 173 925 9446
E-Mail: andrea.rumler@hwr-berlin.de

Weitere Informationen:
http://“MenoSupport“ – Ergebnisse der ersten deutschlandweiten Befragung zum Thema
http://Wechseljahre am Arbeitsplatz
https://blog.hwr-berlin.de/menosupport/ergebnisse/

(nach oben)


Was Phytoplankton-Physiologie mit dem Klima zu tun hat: Neue Studie zum Stickstoff-Phosphor-Verhältnis im Ozean

Pflanzliches Plankton spielt eine entscheidende Rolle im globalen Kohlenstoffkreislauf. Eine neue GEOMAR-Studie, die jetzt in der Fachzeitschrift Science Advances veröffentlicht wurde, zeigt, wie Änderungen in den Körperfunktionen des Phytoplanktons, insbesondere bei der Nährstoffaufnahme, die chemische Zusammensetzung des Ozeans und sogar der Atmosphäre beeinflussen können. Dies legt nahe, dass Veränderungen in der Physiologie des marinen Phytoplanktons einen Einfluss auf das globale Klima haben können.

Das Phytoplankton im Ozean ist von zentraler Bedeutung für den globalen Kohlenstoffkreislauf. Während der Photosynthese nimmt es Kohlenstoff (C) auf, der die Basis der marinen Nahrungsnetze bildet und mit sinkenden Partikeln in die Tiefsee gelangt. Dieser Prozess, „biologische Kohlenstoffpumpe“ genannt, fungiert somit als eine Art Kohlenstoffsenke, indem atmosphärisches Kohlendioxid (CO2) in den Ozeanen aufgenommen und dort gespeichert wird. Das Wachstum des Phytoplanktons hängt aber nicht nur von Kohlenstoff ab, sondern auch von den Nährstoff-Elementen Stickstoff (N) und Phosphor (P). Das Mengenverhältnis, in dem die verschiedenen Elemente in den Organismen vorkommen, wird in der Chemie als Stöchiometrie bezeichnet. Die Stöchiometrie des Phytoplanktons stellt ein zentrales Steuerungselement dar für die Wechselwirkungen zwischen der ozeanischen Kohlenstoffpumpe, den Nährstoff-Kreisläufen und klimabezogenen Faktoren wie der atmosphärischen CO2-Konzentration und der Temperatur.

In den 1930er Jahren machte der US-amerikanische Ozeanograph Alfred C. Redfield eine wichtige Entdeckung: Er fand heraus, dass die Elemente Kohlenstoff (C), Stickstoff (N) und Phosphor (P) im marinen Phytoplankton etwa in einem festen Verhältnis von 106:16:1 vorliegen – dem nach ihm benannten Redfield-Verhältnis. Überraschenderweise ergab Redfields Forschung, dass auch in Meerwasserproben die Konzentration von Nitrat (Stickstoffquelle) im Durchschnitt 16 Mal höher war als die von Phosphat. Die Verhältnisse von Stickstoff zu Phosphor (N:P) sind also im Phytoplankton und im Meerwasser bemerkenswert ähnlich, was auf eine enge Verbindung zwischen den partikulären (in Planktonorganismen und unbelebten Partikeln enthaltenen) und den im Meerwasser gelösten Nährstoffen hinweist.

Die Frage, ob das N:P-Verhältnis der gelösten Nährstoffe das Verhältnis im partikulären Material steuert oder umgekehrt, beschäftigt die marine Wissenschaftsgemeinschaft seit langem, vor allem wegen der Bedeutung für die Biogeochemie. „Es ist eine Henne-Ei-Frage“, sagt Dr. Chia-Te Chien, der in der Forschungseinheit Biogeochemische Modellierung am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel die Rolle der variablen Stöchiometrie des Phytoplanktons für die marine Biogeochemie untersucht. Zusammen mit seinen Mitarbeitenden hat er eine Modellstudie durchgeführt, die die Beziehung zwischen den N:P-Verhältnissen in gelösten Nährstoffen im Meerwasser untersucht. Die Studie, die jetzt in der Fachzeitschrift Science Advances veröffentlicht wurde, unterstreicht die Bedeutung variabler C:N:P-Verhältnisse des Phytoplanktons für die Regulierung gelöster mariner Nährstoff-Verhältnisse auf globaler Ebene und hebt den marinen Sauerstoffgehalt als entscheidend hervor.

Um diese Zusammenhänge zu untersuchen, wurde ein Erdsystemmodell mit einem Computermodell namens Optimality-based Plankton-Ecosystem Model (OPEM) gekoppelt. Das OPEM berücksichtigt Faktoren wie Nährstoffverfügbarkeit, Lichtintensität, Temperatur und Konkurrenz zwischen verschiedenen funktionalen Plankton-Gruppen, um die Wechselwirkungen zwischen Plankton und Umweltbedingungen zu simulieren und zu analysieren. „Optimality-based“ deutet dabei darauf hin, dass das Phytoplankton in diesem Modell sein C:N:P-Verhältnis optimal auf unterschiedliche Umgebungsbedingungen anpasst. So konnten die Forschenden im Modell die Eigenschaften des Phytoplanktons verändern und beobachten, wie sich dies auf die Stickstoff- und Phosphorverhältnisse im Wasser auswirkt. Sie führten eine Serie von 400 Simulationen durch, die sich im minimalen Phosphor- und Stickstoff-Gehalt unterschieden, der für das Wachstum des Phytoplanktons erforderlich ist.

Die Gesamtheit der Simulationen offenbart komplexe Rückkopplungsmechanismen, die Änderungen im C:N:P-Verhältnis des Phytoplanktons, die Umwandlung von molekularem Stickstoff (N2) in Nitrat durch stickstofffixierendes Phytoplankton und die Denitrifizierung – die bakterielle Umwandlung von Nitrat und Nitrit zu N2 in sauerstoffarmen Umgebungen – einschließen. Die Modellergebnisse stellen die allgemein angenommene enge Verbindung zwischen Phytoplankton und N:P-Verhältnissen im Meerwasser in Frage. Chia-Te Chien: „Diese Verhältnisse sind nicht von Natur aus ähnlich. Die Ähnlichkeit, wie sie heutzutage beobachtet wird, ist ein spezifischer Zustand, und dieser Zustand kann sich im Laufe der Zeit verändern, zumindest auf Zeitskalen, die über die vielen Jahrzehnte der direkten Ozeanbeobachtung hinausgehen.“

Darüber hinaus unterstreicht die Analyse den potenziell erheblichen Einfluss der Physiologie des Phytoplanktons auf den atmosphärischen CO2-Gehalt auf geologischen Zeitskalen. Bisher wurde davon ausgegangen, dass stöchiometrische Variationen innerhalb des marinen Ökosystems einen relativ geringen Einfluss auf die marine Biogeochemie und folglich auf den atmosphärischen CO2-Gehalt haben. Diese Ansicht könnte nun in Frage gestellt werden, da diese Studie auf die mögliche Bedeutung eines physiologischen Details für das Klima hinweist.

Chia-Te Chien: „Unsere Ergebnisse zeigen, dass die Konzentration des atmosphärischen CO2 sowie die Temperatur des Ozeans und der Luft bemerkenswert empfindlich auf Variationen der Stöchiometrie im Plankton reagieren, die durch Veränderungen in der Physiologie des Phytoplanktons hervorgerufen werden.“ Das Verständnis dieser Zusammenhänge könnte helfen, genauere Vorhersagen darüber zu treffen, wie sich die Ökosysteme und das Klima unseres Planeten in Zukunft entwickeln werden.

Förderung:
Diese Arbeit wurde von der Deutschen Forschungsgemeinschaft (DFG) gefördert.

Originalpublikation:
Chia-Te Chien et al.: „Effects of phytoplankton physiology on global ocean biogeochemistry and climate“ Science Advances 9, eadg1725 (2023).
DOI: 10.1126/sciadv.adg1725

Weitere Informationen:
http://www.geomar.de/n9156
Bildmaterial zum Download

(nach oben)


Umweltfreundliche Antihaftbeschichtung ersetzt per- und polyfluorierte Chemikalien (PFAS) auf Alltagsprodukten

Ob Pfannen, Schneidwaren oder Verpackung – per- und polyfluorierte Chemikalien (PFAS) werden seit Jahren in verschiedensten Alltagsprodukten und Prozessen zur Beschichtung eingesetzt. Aufgrund bekannter Risiken dieser Substanzen für Mensch und Umwelt wird ein zumindest teilweises Verbot für die Herstellung und Verwendung von PFAS in naher Zukunft erwartet. Der Einsatz vergleichbarer Alternativen ist deshalb für zahlreiche Unternehmen essenziell. Das Fraunhofer IFAM ist spezialisiert auf fluorfreie Beschichtungen und hat mit der PLASLON®-Technologie eine PFAS-freie Antihaftbeschichtung entwickelt, die das geforderte Eigenschaftsprofil erfüllt und sofort einsetzbar ist.

Unter PFAS⁠ versteht man eine Gruppe von mehreren tausend einzelnen Chemikalien. Sie kommen in der Natur ursprünglich nicht vor, sind äußerst stabil und reichern sich dadurch stetig in der Umwelt an. Die auch als »Ewigkeitschemikalien« bekannten Fluor-Verbindungen können im Blutserum vom Menschen vorkommen und zu gesundheitlichen Effekten führen [1]. Aus diesem Grund erwägt die Europäische Chemikalienagentur (ECHA) ein Verbot der Herstellung, Verwendung und des Inverkehrbringens von PFAS. Eine Entscheidung der Europäischen Kommission darüber ist laut Umweltbundesamt voraussichtlich 2025 zu erwarten.

Unternehmen, die PFAS verwenden, werden durch ein Verbot vor größere Herausforderungen gestellt. Um Prozesse und Produktion aufrechtzuerhalten, müssen alternative Lösungen gefunden werden. Die Plasmatechnik bietet hierfür ideale Voraussetzungen. Die Plasmaschichten, die am Fraunhofer IFAM entwickelt wurden, sind nicht nur fluorfrei (Zero-F), sondern auch frei von Additiven. Sie lassen sich auf nahezu allen Werkstoffen aufbringen. Einige der Schichten eignen sich aufgrund ihres Eigenschaftsprofils besonders gut als PFAS-freie Antihaftbeschichtung, Gleitbeschichtung und hydrophobe Ausrüstung.

PLASLON® – PFAS-freie Antihaftbeschichtung
Die Forscherinnen und Forscher am Fraunhofer IFAM haben mit der PLASLON®-Beschichtung eine PFAS-freie Alternative entwickelt, die sich durch hervorragende Antihafteigenschaften in Kombination mit hoher mechanischer Beständigkeit auszeichnet. Die mittels Plasmatechnik hergestellte Beschichtung ist als Gradientenschicht ausgeführt, um einerseits eine exzellente Haftung zum Produktkörper zu ermöglichen und andererseits optimale Antihafteigenschaften auszuprägen. Die Schicht zeichnet sich weiterhin durch eine gute Easy-to-clean-Eigenschaft aus und ist schneid- und abriebfest. Sie ist porenfrei und lebensmittelecht. Zudem zeigt sie ein oleophiles Verhalten in Bezug auf Speiseöle und -fette.

Ein Alleinstellungsmerkmal der PLASLON®-Beschichtung liegt darin, dass sie – im Gegensatz zu anderen Antihaftbeschichtungen – aufgrund ihrer guten Haftung und ihrer herausragenden Härte auch für Emaille, Glas, Steinzeug und Porzellan geeignet ist. Gerade Produkte aus diesen Werkstoffen sind zwar sehr kratzfest, weisen aber eine schlechte Antihaftwirkung auf.

Die Wissenschaftlerinnen und Wissenschaftler des Instituts verfügen zudem über das notwendige Know-how entsprechender Fertigungsprozesse, um Produkte in großen Stückzahlen wirtschaftlich veredeln zu können. Dafür bieten sich je nach Kundenbedarf unterschiedliche Konzepte, wie XXL-Anlagen oder insbesondere auch Durchlaufanlagen, an. Verbunden mit einem geringen Energieverbrauch bei der Herstellung, einer ungehemmten Wärmeübertragung beim Gebrauch und einer langen Lebensdauer der Beschichtung ist PLASLON® besonders nachhaltig und somit richtungsweisend.

[1] Quelle Umweltbundesamt

Wissenschaftliche Ansprechpartner:
Dr. Ralph Wilken | Telefon +49 421 2246-448 | ralph.wilken@ifam.fraunhofer.de | Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM | Wiener Str. 12 | 28359 Bremen | www.ifam.fraunhofer.de

Weitere Informationen:
http://www.ifam.fraunhofer.de

(nach oben)


Arbeitsmarkt: Nachrichten beeinflussen, welche Einkommensentwicklung Beschäftigte erwarten

Auch auf dem Arbeitsmarkt spielen Erwartungen eine wichtige Rolle für wirtschaftliche Entscheidungen. Eine neue RWI-Studie zeigt: Beschäftigte in den USA haben ihre Erwartungen über ihre Einkommensentwicklung und Jobsuche angepasst, nachdem sie Nachrichten über den Arbeitsmarkt konsumiert hatten. Positive Nachrichten führten demnach zu einem Anstieg des erwarteten Einkommens. Infolgedessen erhöhten die Beschäftigten zudem ihr Konsumniveau. Um die Auswirkungen der Nachrichten auf die Erwartungen zu ermitteln, wurden Meldungen zu Investitionsplänen bzw. deren späterer Absenkung analysiert. Für die Studie wurden Umfragedaten der Federal Reserve Bank of New York ausgewertet.

Das Wichtigste in Kürze:

  • Arbeitnehmerinnen und Arbeitnehmer passen ihre Erwartungen über ihre Chancen auf dem Arbeitsmarkt und ihre Einkommensentwicklung an, nachdem sie Nachrichten über den Arbeitsmarkt konsumiert haben: Positive Nachrichten führen zu einem Anstieg des erwarteten Einkommens im aktuellen Beschäftigungsverhältnis – ohne erkennbare Unterschiede zwischen Beschäftigten, die optimistisch sind, in Zukunft ein externes Angebot zu erhalten, und solchen, die dies nicht sind. Im untersuchten Szenario führen positive Arbeitsmarktnachrichten zu einem erwarteten Anstieg des eigenen Einkommens um durchschnittlich 3 Prozentpunkte.
  • Änderungen des erwarteten zukünftigen Einkommens erhöhen außerdem das aktuelle Konsumniveau. Die Konsumausgaben der befragten Arbeitnehmerinnen und Arbeitnehmer in den USA erhöhten sich infolge der positiven Arbeitsmarktnachrichten um etwa 2,3 Prozentpunkte.
  • Beschäftigte passen ihre Erwartungen über ihre Chancen auf dem Arbeitsmarkt auch bei negativen Arbeitsmarktnachrichten an. Wenn bestehende Investitionspläne der Unternehmen zurückgenommen oder reduziert werden, korrigieren die Arbeitnehmer ihre Erwartungen in Richtung der Basiswerte.
  • Um die Auswirkungen von Nachrichten auf die individuellen Arbeitsmarkterwartungen zu ermitteln, hat RWI-Wissenschaftler Bernhard Schmidpeter eine unerwartete Ankündigung auf dem amerikanischen Markt analysiert: Foxconn, einer der größten Auftragsfertiger der Welt, hat im Jahr 2017 zunächst angekündigt, eine neue Fabrik in Racine County (Wisconsin) zu bauen. Dadurch sollten bis zu 13.000 Arbeitsplätze mit einem Durchschnittslohn von etwa 54.000 US-Dollar entstehen. Diese Investitionspläne wurden 2021 stark reduziert. Zum Vergleich: Zum Zeitpunkt der Ankündigung im Jahr 2017 lag die Gesamtbeschäftigung vor Ort bei rund 77.000 Personen – mit einem durchschnittlichen Jahreseinkommen von ca. 43.000 US-Dollar. Das erwartete Lohnwachstum um etwa 3 Prozentpunkte entspricht einem Anstieg um ca. 20 Prozent. Dieser Anstieg gleicht der Differenz zwischen dem Durchschnittslohn in Racine County (ca. 43.000 US-Dollar) und dem von Foxconn veröffentlichten Lohn (ca. 54.000 US-Dollar). Das bedeutet: Beschäftigte orientieren sich in ihren Erwartungen an den veröffentlichten Lohninformationen.
  • Für die Studie wurden Daten des New York Fed’s Survey of Consumer Expectations (SCE) ausgewertet. Dabei handelt es sich um landesweit repräsentative, internetgestützte Umfragedaten der Federal Reserve Bank of New York. Sie umfassen etwa 1.300 Haushalte.

„Nachrichten über den Arbeitsmarkt beeinflussen unsere Erwartungen an die Jobsuche und die Einkommensentwicklung“, sagt RWI-Wissenschaftler Bernhard Schmidpeter. „Die Veröffentlichung von Informationen kann dazu beitragen, Einkommen zu erhöhen und Lohnungleichheiten zu verringern. Dabei entscheidet die Qualität der Informationen über deren Wirksamkeit“, so Schmidpeter. „Die Lohntransparenzgesetze sollten so angepasst werden, dass sie eine breitere Öffentlichkeitswirkung entfalten können“, schlägt er vor.
Wissenschaftliche Ansprechpartner:

Bernhard Schmidpeter, bernhard.schmidpeter@rwi-essen.de, Tel.: (0201) 8149-342

Originalpublikation:
https://www.rwi-essen.de/fileadmin/user_upload/RWI/Publikationen/Ruhr_Economic_P…

Weitere Informationen:
https://www.rwi-essen.de/presse/wissenschaftskommunikation/pressemitteilungen/de…

(nach oben)


Die Giftigkeit von Mikro- und Nanoplastik auf Ökosysteme bewerten

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Für die meisten Schadstoffe gibt es Standardprotokolle, um bewerten zu können, welche Risiken sie für natürliche Ökosysteme bergen. Auch von Mikro- und Nanoplastik (MNP) gehen Gefahren aus. Allerdings gibt es für diese Stoffe noch keine harmonisierten Richtlinien für die zuverlässige Prüfung ihrer Ökotoxizität. Forschende mit Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben neue Protokolle entwickelt, mit denen sich die Giftigkeit dieser Substanzen auf Boden- und Gewässerökosysteme standardisiert bewerten lässt.

Studien zur Bestimmung der Ökotoxizität werden in der Regel nach festgelegten Protokollen in Expositionsexperimenten durchgeführt, in denen die Organismen verschiedenen Substanzen unter möglichst realitätsnahen Umweltbedingungen ausgesetzt werden.

Unzulänglichkeit bisheriger Bewertungsmethoden:
Bisherige Ökotoxizitätsstudien zu Mikro- und Nanoplastik (MNP) verwenden handelsübliche kugelförmige Partikel als Modelle für MNPs, doch in der Natur kommen Kunststoffpartikel in unterschiedlichsten Formen, Größen und chemischen Zusammensetzungen vor. „Jede dieser Eigenschaften kann ihr dynamisches Verhalten und ihre Toxikologie beeinflussen und sollte bei der Durchführung ökotoxikologischer Experimente zur Bewertung potentieller Risiken berücksichtigt werden“, sagt Dr. Fazel A. Monikh, Erstautor der Studie und derzeit Wissenschaftler am IGB in Neuglobsow.
Außerdem werden zur Bewertung der Ökotoxizität von MNPs derzeit Protokolle verwendet, die für Chemikalien entwickelt wurden, die sich auflösen oder stabile Mischungen bilden. Kunststoffpartikel hingegen lösen sich nicht auf und zeigen auch keine regelmäßige Durchmischung in der Flüssigkeit in der sie schwimmen.

Das Untersuchungsprotokoll berücksichtigt die spezifischen Eigenschaften von MNPs:
Die Forschenden beschreiben in der Fachzeitschrift Nature Protocols Expositionsprotokolle für Boden- und Gewässerökosysteme, welche die partikelspezifischen Eigenschaften von MNPs und ihr dynamisches Verhalten in Expositionssystemen berücksichtigen. Darüber hinaus wird eine Methode vorgestellt, mit der realistische Mikro- und Nanopartikel für Experimente künstlich hergestellt werden können. Das Protokoll wurde für Toxizitätstests von MNPs unter kontrollierten Bedingungen im Labor, Meso- oder Makrokosmen entwickelt, und ist nicht für das Monitoring unter Feldbedingungen geeignet.

„Das neue Protokoll ist eine wichtige Grundlage für Forschende in der Ökotoxikologie, um die Dosis-Wirkungs-Beziehungen nach der Exposition von Organismen gegenüber MNPs zu verstehen; aber auch für die Industrie, um sicherere Kunststoffe zu entwickeln und Toxizitätstests an Kunststoffen durchzuführen und um regulatorische Anforderungen zu erfüllen“, nennt Fazel A. Monikh die Anwendungszwecke.

Kleiner ist nicht gleich weniger giftig:
Die Protokolle berücksichtigen auch die Unterschiede zwischen Mikro- und Nanoplastik. Nanokunststoffe sind in Größe und Form mit großen Proteinen vergleichbar. Daher verhalten sie sich von Natur aus anders als ihre Pendants aus Mikroplastik und sind möglicherweise in der Lage, in Zellen einzudringen. Außerdem befindet sich ein größerer Anteil der Moleküle in Nanoplastik auf der Oberfläche der Partikel, was die Wechselwirkungen mit Zellbestandteilen erhöhen kann. „Es ist daher wichtig, die Unterschiede zwischen Mikroplastik und Nanoplastik zu berücksichtigen, wenn Toxizitätstests mit diesen Partikeln durchgeführt werden“, sagt Hans Peter Grossart, IGB-Forscher und Mitautor der Studie.

Wissenschaftliche Ansprechpartner:
Prof. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Originalpublikation:
Abdolahpur Monikh, F., Baun, A., Hartmann, N.B. et al. Exposure protocol for ecotoxicity testing of microplastics and nanoplastics. Nat Protoc (2023). https://doi.org/10.1038/s41596-023-00886-9

Weitere Informationen:
https://www.igb-berlin.de/news/die-giftigkeit-von-mikro-und-nanoplastik-auf-oeko…

(nach oben)


Gesundheitsrisiko Klimawandel: Warum wir uns auf eine veränderte Welt einstellen müssen

Nachhaltigkeitskongress 2023: Klima und Gesundheit am 25. Oktober 2023 in Wuppertal mit Dr. Eckart von Hirschhausen

Hitzestress, neue Krankheitserreger, psychische Belastung: Der Klimawandel beeinflusst nicht nur die Umwelt, sondern hat auch Auswirkungen auf unsere Gesundheit. Das ist das Thema des diesjährigen Nachhaltigkeitskongresses, den das Wuppertal Institut gemeinsam mit der Stadtsparkasse Wuppertal und der Neuen Effizienz organisiert. Die Abendveranstaltung findet am 25. Oktober in Wuppertal statt und richtet sich an alle interessierten Bürger*innen.

Wuppertal, 9. Oktober 2023: Programminhalte des Kongresses sind, neben den direkten gesundheitlichen Folgen der Erderwärmung für den Menschen, die Auswirkungen auf die Artenvielfalt, auf den Lebensraum heimischer Tiere sowie Möglichkeiten zur Anpassung an die veränderten Bedingungen. Dabei geht es auch um die Frage, wie sich Klima-Angst in Klima-Mut verwandeln lässt.

„Die Folgen des Klimawandels spüren wir schon heute ganz konkret. An das geänderte Klima müssen wir uns anpassen, das gehört zur Daseinsvorsorge: bei der Stadtplanung, in der Kranken- und Altenpflege oder auch bei der Wasserversorgung. Auf dem Nachhaltigkeitskongress wollen wir Wege zum Wandel aufzeigen“, erklärt Jochen Stiebel, Geschäftsführer der Neue Effizienz gemeinnützige GmbH.

Gesundheitsrisiken: Nicht nur zunehmende Hitze
Belastend für die Gesundheit sind nicht nur die zunehmenden Hitzewellen: Der Klimawandel bringt auch neue Krankheitserreger zu uns, Pollenallergien nehmen messbar zu, ebenso wie psychische Beeinträchtigungen. „Die Weltgesundheitsorganisation WHO hat den Klimawandel als die größte Gesundheitsbedrohung für die Menschheit eingeordnet. Das betrifft auch uns in Deutschland. Auf diese Veränderungen müssen wir uns einstellen“, erklärt Prof. Dr.-Ing. Manfred Fischedick, Präsident und wissenschaftlicher Geschäftsführer des Wuppertal Instituts.

Der Nachhaltigkeitskongress findet in diesem Jahr zum zweiten Mal statt. Nach dem Erfolg der ersten Veranstaltung soll der Nachhaltigkeitskongress, als jährlich fester Termin, Lösungen für den gesellschaftlichen Wandel bei den aktuellen Herausforderungen aufzeigen.

Auch in diesem Jahr gehört die Stadtsparkasse Wuppertal zu den Unterstützern und Mitveranstaltern des Kongresses. „Wir dürfen beim Klimawandel nicht nur auf die Kosten und Probleme schauen. Dann vergessen wir den Nutzen und die Chancen, die eine nachhaltigere Gesellschaft bietet. Als Stadtsparkasse unterstützen wir die Transformation in eine nachhaltigere Gesellschaft. Wir freuen uns, dass wir auch in diesem Jahr wieder Partnerin des Nachhaltigkeitskongresses sind“, erklärt Gunther Wölfges, Vorstandsvorsitzender der Stadtsparkasse Wuppertal.

Die Referierenden auf dem Nachhaltigkeitskongress 2023:
Moderation: Anja Backhaus – Reporterin, Autorin und Sprecherin, bekannt aus TV und Radio
Keynote: Dr. Eckart von Hirschhausen – Arzt, Wissenschaftsjournalist und Gründer der Stiftung „Gesunde Erde – Gesunde Menschen“
Prof. Dr.-Ing. Manfred Fischedick – Präsident und wissenschaftlicher Geschäftsführer des Wuppertal Instituts
Jochen Stiebel – Geschäftsführer Neue Effizienz
Axel Jütz – Vorstand Stadtsparkasse Wuppertal
Dr. Neele Meyer – Referentin für Wissenschaftskommunikation am Klimahaus Bremerhaven
Dr. Arne Lawrenz – Direktor Grüner Zoo Wuppertal
Dipl.-Psychologin Pia Falkenberg und Dipl.-Psychologin Nele Kühn
Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut

Nachhaltigkeitskongress 2023 – Klima und Gesundheit

Wann: Mittwoch, 25. Oktober 2023
17:00 – 21:00 Uhr

Wo: Glashalle Stadtsparkasse Wuppertal
Johannisberg 1
42103 Wuppertal

Programm: https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…

Anmeldung: https://www.wuppertal-live.de/?470792
Wissenschaftliche Ansprechpartner:

Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/5189

Weitere Informationen:
https://wupperinst.org/a/wi/a/s/ad/8309
https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…
https://www.wuppertal-live.de/?470792
Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/5189

Weitere Informationen:
https://wupperinst.org/a/wi/a/s/ad/8309
https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…
https://www.wuppertal-live.de/?470792

(nach oben)


Datenschutzkonforme Datenbereitstellung für SIEM-Systeme – Fraunhofer IDMT präsentiert Software-Prototyp auf it-sa 2023

Auf der it-sa 2023, Europas führender Fachmesse für IT-Sicherheit in Nürnberg, präsentiert das Ilmenauer Fraunhofer-Institut für Digitale Medientechnologie IDMT vom 10. bis 12. Oktober einen Software-Prototypen aus dem öffentlich geförderten Projekt DA3KMU. Die Software ermöglicht es kleinen und mittleren Unternehmen (KMU), ihre gespeicherten Daten so zu anonymisieren, dass sie besser genutzt und für Datenanalysen zur Verfügung gestellt werden können, z. B. im Kontext von SIEM-Systemen (Security Information and Event Management). Ziel ist es hierbei, KMU bei der datenschutzkonformen Weitergabe und langfristigen Speicherung von Logdaten zur Prüfung von Sicherheitsvorfällen zu unterstützen.

+++ Sicherheitsvorfall im KMU: Das Dilemma der Datenauswertung +++

Ein kleines mittelständisches Unternehmen wird von einer Malware-Attacke getroffen. Die entscheidende Frage: Woher kam die Attacke und welche Systeme sind betroffen? Eine effektive Reaktion erfordert eine tiefgehende Analyse der Log-Daten der gesamten IT-Infrastruktur. Dies kann komplex sein, insbesondere wenn im Unternehmen kein IT-Sicherheitsexperte vorhanden ist. Oft werden deshalb externe Dienstleister einbezogen.
Die Herausforderung: Diese Log-Daten können persönliche Informationen über Nutzende sowie Nutzungsverhalten und sensible Geschäftsdaten enthalten. Die Weitergabe und längerfristige Speicherung solcher Daten kann gegen Datenschutzvorgaben verstoßen. Zumal externe Dienstleister die personenbezogenen Informationen oft gar nicht für die Analyse benötigen.

+++ Die DA3KMU-Software: Datenanonymisierung für SIEM-Analyse +++

Hier kommt die DA3KMU-Software ins Spiel. Sie ermöglicht eine datenschutzkonforme Bearbeitung und Weitergabe der Daten. Dafür werden die Daten gezielt identifiziert, klassifiziert und entsprechend anonymisiert, ohne dass sie ihren Analysewert verlieren.

+++ Prototyp-Vorstellung und Beta-Tester gesucht +++

Auf der it-sa in Nürnberg wird der Prototyp der DA3KMU-Software vorgestellt. Die Entwickler suchen KMUs für eine Beta-Testphase. »Unsere Hoffnung ist es, auf der IT-Messe Unternehmen für eine Zusammenarbeit zu gewinnen und gemeinsam die Software weiter zu optimieren«, so Stefan Sachse vom Fraunhofer IDMT, der die Entwicklung des Prototyps leitet.

Nach Abschluss der Testphase im Frühjahr 2024 soll die Software als Open-Source-Lösung frei verfügbar werden. Die Software richtet sich dabei nicht nur an IT-Verantwortliche von KMU, sondern auch an IT-Dienstleister, die spezifische Lösungen für kleine und mittlere Unternehmen anbieten.

+++ Kostenloser Messeeintritt – Kommen Sie vorbei! +++
Sie wollen Beta-Tester im Rahmen des DA3KMU-Projekts werden? Sie möchten sich informieren, wie unsere Open Source Lösung auch Ihrem Unternehmen nützen kann? Dann besuchen Sie uns am Mittelstand-Digital Stand in Halle 6, Standnummer 6-135. Unsere Experten freuen sich auf den Austausch mit Ihnen und stehen bereit, um Ihre Fragen zu beantworten und Möglichkeiten zur Zusammenarbeit zu besprechen.

Mit dem Code 521947itsa23 können Sie unter folgendem Link Ihr Ticket kostenlos beziehen: https://www.messe-ticket.de/Nuernberg/it-sa2023/Register

+++ DA3KMU steht für »Datenschutz durch statistische Analyse und Adaptive Anonymisierung von personenbezogenen Daten für KMU« +++
Das Projekt DA3KMU wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) im Rahmen der Initiative IT-Sicherheit in der Wirtschaft gefördert und durchgeführt.

+++ Digitalisierungsunterstützung für den Mittelstand +++

Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren, der Initiative IT-Sicherheit in der Wirtschaft und Digital Jetzt umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ermöglicht die kostenfreie Nutzung und stellt finanzielle Zuschüsse bereit. Weitere Informationen finden Sie unter www.it-sicherheit-in-der-wirtschaft.de
Wissenschaftliche Ansprechpartner:
Stefan Sachse stefan.sachse@idmt.fraunhofer.de

Weitere Informationen:
https://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2023/Datenanony… – Pressemeldung und Informationen zur Datenschutzkonformen SIEM-Analyse mit DA3KMU

(nach oben)


Nierenkrankheiten: Häufig, teuer und unterschätzt

Nierenkrankheiten sind häufig und gefährlich, bekommen gesamtgesellschaftlich aber kaum die Aufmerksamkeit, die es benötigt, um die Forschung, Versorgung und vor allem die Prävention zu verbessern. Dabei würden davon alle profitieren: Die Betroffenen, denen viel Leid erspart bliebe, den Kostenträgern, da eine kostenintensive Therapie deutlich seltener zum Einsatz kommen müsste, – und die Umwelt, da die Dialyse viel Energie und Wasser erfordert und viel Abfall verursacht. Die Deutsche Gesellschaft für Nephrologie (DGfN) plädiert daher für mehr gesamtgesellschaftlichen Einsatz zur Prävention von Nierenkrankheiten.

Nierenerkrankungen sind sehr häufig, gut 10% der Bevölkerung leidet an einer chronischen Nierenerkrankung – die meisten Betroffenen, ohne es zu wissen. Zwar sind „nur“ gut 90.000 Menschen auf eine regelmäßige Dialysetherapie angewiesen, weil ihre Nieren komplett den Dienst versagt haben, doch schätzungsweise sind insgesamt über 9 Mio. Menschen in Deutschland von einer chronischen Nierenkrankheit betroffen. Dabei handelt es sich um eine langsame, schleichende Erkrankung. Die Organfunktion nimmt über die Jahre ab, bei einigen schneller, bei einigen langsamer. Meistens ist es so, dass dieser Prozess von den Betroffenen über eine lange Zeit gar nicht bemerkt wird. Stellen sich Symptome ein (Unwohlsein/Übelkeit, körperliche Schwäche, Müdigkeit etc.), ist die Erkrankung oft schon sehr weit fortgeschritten, so dass die Notwendigkeit einer Nierenersatztherapie häufig nicht mehr abgewendet werden kann.

Hinzu kommt: Eine chronische Nierenkrankheit (CKD) zieht viele Folgekomplikationen nach sich. Es kommt zu Bluthochdruck und Urämie (was bedeutet, dass harnpflichtige Stoffe nicht ausgeschieden werden, sondern im Blut vorhanden sind). Das schädigt die Gefäße und das Risiko für Herzinfarkte oder Schlaganfälle steigt. Eine CKD gehört daher zu den Hauptrisikofaktoren für kardiovaskuläre Erkrankungen. Hinzu kommen viele andere Begleit- und Folgeerkrankungen (z. B. Anämie, Elektrolytstörungen, Juckreiz, Krämpfe, auch Depression).

Die anteilsmäßig häufigsten Ursachen für eine chronische Nierenkrankheit sind der Diabetes mellitus und Bluthochdruck. Zusammen sind diese Volkskrankheiten für mehr als die Hälfte aller „Dialysefälle“ verantwortlich. Da die Zahlen der Menschen mit Diabetes und Bluthochdruck steigen, ist auch von einer noch weiter zunehmenden Zahl CKD-Betroffener auszugehen. Daraus entstehen enorme Belastungen für den einzelnen und exorbitante sozioökonomische Belastungen für die Gesellschaft. Insgesamt werden schon heute 24 Mrd. Euro für die Versorgung von CKD-Patientinnen und -Patienten ausgegeben, das sind knapp 12 Prozent der Gesundheitsausgaben.

Die Prävention von Nierenkrankheiten hat damit nicht nur eine persönliche Dimension, die einzelnen Betroffenen viel Leid ersparen kann, sondern auch eine gesellschaftliche: Neben den ökonomischen Aspekten spielen auch zunehmend ökologische eine Rolle. Der geschätzte Verbrauch für die Behandlung von weltweit 2 Millionen Dialysepatientinnen und -patienten pro Jahr beläuft sich auf 156 Mrd. Liter Wasser, 1,62 Mrd. kWh Stromverbrauch und führt zu 625.000 Tonnen Plastikmüll.

Was muss aus Sicht der Deutschen Gesellschaft für Nephrologie geschehen? „Wir brauchen ein Deutsches Nieren-Gesundheitszentrum (DNGZ), das Forschung fördert, so dass neue zielgerichtete Therapien entwickelt werden können, um Nierenkrankheiten zu stoppen“, erklärt Prof. Dr. Hermann Pavenstädt, Präsident der Deutschen Gesellschaft für Nephrologie (DGfN). „Außerdem benötigt unser Fach eine bessere Sichtbarkeit in der Bevölkerung und Politik, um wichtige Präventionsmaßnahmen bekannter zu machen und umzusetzen. Wir müssen zudem die optimale Versorgung unserer Patientinnen und Patienten sicherstellen und mehr in die Entwicklung neuer, ‚grünerer‘ Dialysetechnologien investieren.“ Die Fachgesellschaft wünscht sich dafür einen engen Schulterschluss mit Politik und Gesellschaft.

Pressekontakte
Pressestelle der DGfN
Dr. Bettina Albers
presse@dgfn.eu
Tel. 03643/ 776423

Weitere Informationen:
https://www.nephrologie2023.de/

(nach oben)


Neue Analyse zur aktuellen und zukünftigen globalen Wasserqualität

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Weltweit werden noch immer etwa 40% des häuslichen Abwassers ungeklärt abgeleitet. Gleichzeitig fehlen insbesondere in Entwicklungs- und Schwellenländern verlässliche Informationen zur Wasserqualität von Flüssen und Seen. Deshalb setzt sich die World Water Quality Alliance, ein vom UN-Umweltprogramm ins Leben gerufenes Konsortium, dafür ein, der Wasserqualität die notwendige Aufmerksamkeit zu verleihen. Das vom UFZ koordinierte und vom BMBF geförderte Verbundprojekt GlobeWQ konnte auf globaler Skala zeigen, wie durch die Kombination von in-situ-Messdaten, Fernerkundungsdaten und Modellierungen die Wasserqualität und die von ihr ausgehenden Risiken besser bestimmt werden können als bisher.

Wasser ist die Grundlage allen Lebens. Die ausreichende Verfügbarkeit von Wasser guter Qualität für Mensch und Natur ist daher unabdingbar. „Sauberes Wasser und sanitäre Einrichtungen für alle“ – so lautet deshalb das Ziel Nummer 6 von insgesamt 17 Nachhaltigkeitszielen (SDGs) der Vereinten Nationen, die im Rahmen der Agenda 2030 umgesetzt werden sollen. „Das sechste Nachhaltigkeitsziel beinhaltet auch den Schutz wasserabhängiger Ökosysteme sowie die Sicherung der Wasserqualität für Mensch und Umwelt“, sagt Prof. Dietrich Borchardt, Leiter des UFZ-Themenbereichs Wasserressourcen und Umwelt. „Doch dafür fehlt es vielerorts – insbesondere in Entwicklungs- und Schwellenländern – an Informationen, mit denen die Wasserqualität überhaupt eingeschätzt werden kann. Zudem ist ein regelmäßiges Gewässermonitoring mit Probenahmen und Laboranalysen aufwendig und teuer – und daher nicht an allen Orten der Welt durchführbar.“

Das Projekt GlobeWQ füllt diese globalen Daten- und Informationslücken im Bereich der Wasserqualität. „Durch die Kombination von Daten aus Freilandmessungen, Fernerkundung und Wasserqualitätsmodellierung wollten wir ein flächendeckendes und kohärentes Bild über den Zustand von Gewässern gewinnen sowie Erkenntnisse über ihre wichtigsten Einflussfaktoren“, sagt Projektleiter Dietrich Borchardt. Gemeinsam mit Nutzerinnen und Nutzern vor Ort entwickelten und erprobten die Forschenden verschiedene regionale Anwendungsbeispiele für die Analyse- und Service-Plattform GlobeWQ: den Victoriasee in Afrika, den Sewansee in Armenien und die Elbe in Deutschland. Dafür kombinierten die Forschenden jeweils Vor-Ort-Messdaten aus der globalen Datenbank GEMStat mit Aufnahmen der Sentinel-2-Satelliten und Modellrechnungen. „Mithilfe der Fernerkundung sind optische Messungen wie die Erfassung von Trübung, Sichttiefe und des Gehalts an Chlorophyll-a als Anzeiger für das Algenvorkommen im Gewässer möglich“, sagt Hydrogeologe Dr. Christian Schmidt, der das Projekt am UFZ koordiniert. Für den Victoriasee, wo es immer wieder zu schädlichen Algenblüten kommt, die sich negativ auf die Fischerei auswirken, liefert GlobeWQ zeitnahe und flächige Informationen zu Chlorophyll-a-Konzentrationen. Sie ermöglichen, Gefahren durch Algenblüten frühzeitig zu erkennen. Das Risiko schädlicher Algenblüten besteht auch in der Elbe. „Gemeinsam mit der Flussgebietsgemeinschaft Elbe haben wir im Projekt den Prototyp für eine Plattform erstellt, der zuverlässige Informationen zu zeitlichen Abläufen und räumlichen Mustern von Algenblüten innerhalb des Flusssystems liefert“, sagt der UFZ-Forscher.

Bislang wurden Daten aus Vor-Ort-Messungen für die Bewertung der Wasserqualität als Goldstandard angesehen. Doch mit den Anwendungsbeispielen aus dem GlobeWQ-Projekt können die Forschenden zeigen, dass Fernerkundungsdaten und Modellierung diese sinnvoll ergänzen können, um die Datenlücken zu schließen und die Wasserqualität von Gewässern einzuschätzen. „Vom Prinzip her ist es genauso wie bei der Wettervorhersage“, sagt Hydrobiologe Dietrich Borchardt. „Die zusätzlichen und hochaufgelösten Informationen haben einen großen Mehrwert, den wir nutzen sollten – um künftig die Wasserqualität räumlich und zeitlich besser einschätzen und vorhersagen zu können und sie durch zielgenauere Maßnahmen nachhaltig zu verbessern.“ Die Methode wurde auch von am Projekt beteiligten deutschen Firmen aufgegriffen und weiterentwickelt. Erfolgreich angewandt wurde sie beispielsweise bei der Aufklärung der Ursachen für das Fischsterben in der Oder im Sommer 2022.

Neben den regionalen Anwendungsbeispielen wurde im GlobeWQ-Projekt das Wasserqualitätsmodell WorldQual der Ruhr-Universität Bochum ausgebaut. „Mit dem WorldQual-Modell ist es möglich, in monatlicher Auflösung zu simulieren, wie sich bestimmte Parameter, die für die Einschätzung der Wasserqualität wichtig sind, entwickeln“, erklärt Christian Schmidt. Dazu zählen etwa der biologische Sauerstoffbedarf, das Vorkommen von Indikatorkeimen für fäkale Verunreinigungen oder der Phosphorgehalt. „Bislang waren mit WorldQual solche Simulationen ausschließlich für Flüsse in Südamerika, Afrika oder Teilen Asiens möglich. Im Rahmen von GlobeWQ konnten wir das Modell so erweitern, dass es nun weltweit funktioniert.“ Dietrich Borchardt ergänzt: „Damit gibt es für ehemals weiße Flecken auf der Wasserqualitäts-Weltkarte erstmalig Modelldaten, die es ermöglichen, die Wasserqualität von Flüssen flächendeckend einzuschätzen. So ist schneller erkennbar, wo es besonders wichtig ist, Einträge aus der Landwirtschaft zu reduzieren oder Kläranlagen zu bauen.“ Die Wasserqualitätsmodellierung erlaubt darüber hinaus Prognosen zur zukünftigen Entwicklung der globalen Wasserqualität unter den Bedingungen des Bevölkerungswachstums und des Klimawandels. Die Analyse gibt vorsichtigen Anlass zur Hoffnung, dass die Belastung durch coliforme Bakterien (in Folge fäkaler Verunreinigungen) wegen der verbesserten Abwasserbehandlung bis 2040 weltweit sinkt – mit Ausnahme von Afrika. Dort dürfte die Belastung noch bis 2060 steigen, danach aber ebenso kontinuierlich sinken.

Das Forschungsprojekt GlobeWQ wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der BMBF-Fördermaßnahme „Globale Ressource Wasser (GRoW)“ gefördert. Das Projektkonsortium bilden das UFZ, das Umweltprogramm der Vereinten Nationen (UNEP), die Ruhr-Universität Bochum, das International Centre for Water Resources and Global Change (ICWRGC) sowie die Firmen Earth Observation & Environmental Services (EOMAP) und terrestris GmbH & Co. Das Umweltbundesamt (UBA) und die Europäische Umweltagentur (EEA) unterstützen das Projekt beim Anschluss an die Bewirtschaftungspraxis als strategische Partner.

Wissenschaftliche Ansprechpartner:
Dr. Christian Schmidt
UFZ-Department Aquatische Ökosystemanalyse und Management
Christian.schmidt@ufz.de

Prof. Dr. Dietrich Borchardt
Leiter UFZ-Themenbereich Wasserressourcen und Umwelt
Dietrich.borchardt@ufz.de
Originalpublikation:
https://www.globewq.info/assets/globewq_quality_known_300dpi.pdf

Weitere Informationen:
http://www.globewq.info

(nach oben)


Vermögensunterschiede beeinflussen Bildungschancen

Neue Studie zeigt: Betrachtung des Nettovermögens führt zu falschen Vorhersagen

Vermögen spielt eine wichtige Rolle bei der Analyse sozialer Ungleichheit. Dennoch hängt der Einfluss des Faktors Vermögen bei den Ergebnissen davon ab, wie man den Zusammenhang modelliert. Eine neue Studie von Forscher*innen des GESIS – Leibniz-Institut für Sozialwissenschaften und der Universität Strathclyde zeigt, dass die Betrachtung des Nettovermögens zu einer falschen Vorhersage führt, welche Kinder sehr gute und sehr schlechte Bildungsaussichten haben.

Die Autor*innen der Studie, Dr. Jascha Dräger, Dr. Klaus Pforr und Dr. Nora Müller, konstatieren, dass in der Forschung bislang Vermögen häufig als Nettobetrag operationalisiert wird, obwohl es aus mehreren Komponenten mit unterschiedlichen Eigenschaften besteht. Sie schlagen vor, 1) den Nettobetrag in Bruttovermögen und Schulden aufzuspalten und ihre gemeinsame Wirkung zu betrachten und 2) „Generalized Additive Models“ zur Analyse von Vermögenseffekten zu verwenden.

„In einer Simulationsstudie konnten wir zeigen, dass dieser Ansatz systematische Vermögensunterschiede genauer beschreibt und gleichzeitig vermeidet, Muster in den Daten zu finden, die nicht da sind“, erklärt Dr. Nora Müller den innovativen Ansatz ihrer Forschungsarbeit.

Anschließend wenden die Autor*innen den Ansatz an, um Vermögensunterschiede beim Bildungsniveau in den Vereinigten Staaten neu zu analysieren. So kommen sie zu dem Schluss, dass die Betrachtung des Nettovermögens zu einer falschen Vorhersage führt, welche Kinder sehr gute und welche Kinder sehr schlechte Bildungsaussichten haben.

Ihre Analysen zeigen: Nicht Kinder mit hohem Nettovermögen, sondern Kinder mit hohem Bruttovermögen, unabhängig von der Höhe der Verschuldung, haben die besten Bildungsaussichten. Sie haben eine höhere Chance, einen höheren Bildungsabschluss zu erreichen als Kinder mit geringem Bruttovermögen und geringer Verschuldung.

Nicht Kinder mit niedrigem Nettovermögen, sondern Kinder mit geringem Bruttovermögen und geringer Verschuldung haben die schlechtesten Bildungsaussichten. Sie haben ein höheres Risiko, keinen Schulabschluss zu erreichen als Kinder mit hohem Bruttovermögen und hoher Verschuldung.

Die Ergebnisse der Studie sind wichtig für die Analyse sozialer Ungleichheit und für die Entwicklung von Maßnahmen zur Förderung von Bildungschancen für alle Kinder und Jugendlichen.

Wissenschaftliche Ansprechpartner:
Dr. Sophie Zervos
Pressesprecherin
sophie.zervos@gesis.org

Originalpublikation:
Dräger, Jascha, Klaus Pforr, and Nora Müller. 2023. „Why Net Worth Misrepresents Wealth Effects and What to Do About It.“ Sociological Science 10 534-558. doi: https://doi.org/10.15195/v10.a19

(nach oben)


Grüner Wasserstoff aus Solarenergie

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Forschungsteam der Universität Tübingen entwickelt neuartige Solarzelle, die dezentrale Her-stellung von Grünem Wasserstoff mit sehr hohem Wirkungsgrad ermöglicht

Weltweit arbeiten Forschende an effizienteren Methoden zur Wasserstoffproduktion. Wasserstoff könnte entscheidend dazu beitragen, den Verbrauch fossiler Rohstoffe zu reduzieren, vor allem, wenn er mit erneuerbaren Energien hergestellt wird. Bereits existierende Technologien zur Herstellung von klimaneutralem Wasserstoff sind für eine breitere Anwendung noch zu ineffizient oder zu teuer. Ein Forschungsteam der Universität Tübingen präsentiert nun die Entwicklung einer neuartigen Solarzelle mit bemerkenswert hohem Wirkungsgrad. Sie ermöglicht eine dezentrale Herstellung von grünem Wasserstoff und hat das Potenzial für Anwendungen im industriellen Maßstab. Die Ergebnisse wur-den kürzlich im Fachmagazin Cell Reports Physical Science veröffentlicht.

Eine Solarzelle auf Tauchgang
Wird Wasserstoff über die sogenannte Elektrolyse mit erneuerbaren Energien aus Wasser hergestellt, bezeichnet man ihn wegen der klimafreundlichen Herstellung als grünen Wasserstoff. Bei der solaren Wasserspaltung, häufig auch als künstliche Photosynthese bezeichnet, wird Wasserstoff mit Energie aus der Sonne hergestellt. Ein Forschungsteam um Dr. Matthias May vom Institut für Physikalische und Theoretische Chemie der Universität Tübingen hat eine Solarzelle entwickelt, die integraler Be-standteil der photoelektrochemischen Apparatur ist und direkt mit den Katalysatoren für die Wasser-spaltung zusammenarbeitet. Das Besondere der Tübinger Entwicklung: Ein zusätzlicher externer Stromkreis, wie etwa bei einem Photovoltaik-Solarpanel, ist nicht mehr nötig.

Dieser innovative Ansatz macht die Technologie kompakter, flexibler und potenziell kosteneffizienter. Aber mit diesem Aufbau werden auch die Anforderungen an die Solarzelle größer. „Unter Forschen-den auf dem Gebiet ist die Realisierung von stabiler und effizienter photoelektrochemischer oder di-rekter Wasserspaltung so etwas wie der ‚heilige Gral`“, sagt May.
Das Besondere am Aufbau der Solarzelle ist die hohe Kontrolle der Grenzflächen zwischen den ver-schiedenen Materialien. Die Oberflächenstrukturen werden hier auf einer Skala von wenigen Nano-metern, also millionstel Millimetern, hergestellt und überprüft. Besonders schwierig sind kleine Kris-talldefekte, die beispielsweise beim Wachstum der Solarzellenschichten entstehen. Diese verändern auch die elektronische Struktur und können damit einerseits die Effizienz und andererseits die Stabili-tät des Systems senken.

May ergänzt: “Insgesamt bleibt die Korrosion und somit die Langzeitstabilität der sich im Wasser be-findenden Solarzelle aber die größte Herausforderung. Hier haben wir nun große Fortschritte im Ver-gleich zu unseren früheren Arbeiten gemacht.“

Der technische Aufbau der neuen Zelle ist innovativ und besonders wirkungsvoll zugleich. Die Effizi-enz der solaren Wasserspaltung wird in Form des Wirkungsgrades gemessen. Der Wirkungsgrad zeigt dabei an, wieviel Prozent der Energie des Sonnenlichts in nutzbare Energie des Wasserstoffs (Heizwert) umgewandelt werden kann. Mit einem Wirkungsgrad von 18% präsentiert das For-schungsteam den zweithöchsten je gemessenen Wert für die direkte solare Wasserspaltung und so-gar einen Weltrekord, wenn man die Fläche der Solarzelle berücksichtigt. Die ersten etwas höheren Wirkungsgrade für die Solare Wasserspaltung wurden 1998 mit 12% vom NREL in den USA präsen-tiert. Erst 2015 folgte der Sprung auf 14% (May et al.) und 2018 auf 19% (Cheng et al).

Anwendung in großem Maßstab denkbar
Dass die Technologie kommerzialisierbar ist, zeigen inzwischen mehrere Ausgründungen an anderen Universitäten mit deutlich geringeren Effizienzen. Erica Schmitt, Erstautorin der Studie, erklärt: „Was wir hier entwickelt haben, ist eine Technologie der solaren Wasserstofferzeugung, die keine leis-tungsstarke Anbindung an das Elektrizitätsnetz erfordert. Dadurch sind auch dauerhafte kleinere In-sellösungen zur Energieversorgung denkbar.“

Die Tübinger Arbeiten sind eingebettet in das Verbundprojekt H2Demo, an dem unter anderem das Fraunhofer Institut für Solare Energiesystem (ISE) beteiligt ist. Die nächsten Schritte umfassen die Verbesserung der Langzeitstabilität, den Transfer auf ein kostengünstigeres Materialsystem auf Silizi-umbasis und die Skalierung auf größere Flächen. Die Forschungsergebnisse könnten einen bedeu-tenden Beitrag zur Energieversorgung und zur Reduzierung von CO2-Emissionen leisten.

Wissenschaftliche Ansprechpartner:
Dr. Matthias May
Universität Tübingen
FB Chemie, Institut für Physikalische und Theoretische Chemie
Telefon +49 7071 29-76392
matthias.may@uni-tuebingen.de

Originalpublikation:
Schmitt EA, Guidat M, Nusshör M, Renz A-L, Möller K, Flieg M, Lörch D, Kölbach M & May, MM. (2023). Photoelectrochemical Schlenk cell functionalization of multi-junction water-splitting photoelec-trodes. Cell Reports Physical Science 4 (2023), 101606, https://doi.org/10.1016/j.xcrp.2023.101606.

(nach oben)


Unternehmens-Leitbilder: Emotional und gendersensibel, aber schwer verständlich

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim

Studie von Uni Hohenheim und Agentur Communication Lab analysiert Sprache und Inhalt der Leitbilder der 120 umsatzstärksten Unternehmen in Deutschland, Österreich und Schweiz.

Viele Unternehmen im deutschsprachigen Raum verspielten die Chance, durch ihre Leitbilder ein klares Bild von sich selbst zu vermitteln. Zu diesem Ergebnis kommt eine gemeinsame Studie der Universität Hohenheim in Stuttgart und der Ulmer Agentur Communication Lab, die die Leitbilder der 120 umsatzstärksten Unternehmen in Deutschland, Österreich und der Schweiz auswertet.

Demnach seien die meisten Leitbilder zwar sprachlich emotional und gendersensibel geschrieben, dafür jedoch eher schwer verständlich als klar und transparent. Für ihre Auswertung stützten sich die Forscher:innen auf computergestützte Sprachauswertungen. Positive Ausnahme unter den untersuchten Firmen ist der deutsche Großhändler Lekkerland. Die Studie im Detail unter www.uni-hohenheim.de/presse.

„Leitbilder sind wichtig, weil sie Orientierung geben – sowohl den Mitarbeitenden als auch Kund:innen und Partner:innen. Ihren Zweck können Leitbilder aber nur erfüllen, wenn sie konkret sind, echte Substanz haben und ihre Zielgruppen ansprechen“, erklärt Oliver Haug, Geschäftsführer der Agentur Communication Lab in Ulm.

Diesen Anspruch würden Großunternehmen im DACH-Raum jedoch nur teilweise erfüllen, so das Fazit von Dr. Claudia Thoms, wissenschaftliche Mitarbeiterin am Fachgebiet Kommunikationstheorie der Universität Hohenheim

Ihre Einschätzung stützen die Wissenschaftler:innen auf eine Text-Analyse mit Hilfe einer speziellen Software. Diese durchsuchte die Leitbilder unter anderem nach überlangen Sätzen, Fachbegriffen und zusammengesetzten Wörtern. Anhand solcher Merkmale bilden sie den „Hohenheimer Verständlichkeits-Index“ (HIX). Er reicht von 0 (schwer verständlich) bis 20 (leicht verständlich).

Nur elf von 120 Unternehmen erreichten das empfohlene Verständlichkeits-Niveau
Die Leitbilder erreichen durchschnittlich einen HIX-Wert von 8,5 Punkten. Nur elf der 120 untersuchten Leitbilder erreichen den empfohlenen Zielwert von mindestens 16 Punkten.

Das verständlichste Leitbild des deutschen Großhändlers Lekkerland erreicht sogar 18,3 Punkte. Weitere Positiv-Beispiele sind die Unternehmen Porr (18,0 Punkte), Nestlè (17,9), Hilti (17,5), Rewe International (17,0), Hapag-Lloyd (16,8), Boehringer Ingelheim Pharma (16,7), Amprion (16,6), Globus (16,5), BP Europa (16,4), Beiersdorf (16,3).

Die Mehrzahl der Unternehmen ist jedoch eher am unteren Ende der HIX-Skala angesiedelt: 52 % der Unternehmensleitbilder erreicht weniger als acht Punkte. 13 Leitbilder unterschreiten sogar die durchschnittliche Verständlichkeit einer politikwissenschaftlichen Doktorarbeit von 4,3 Punkten.

Das unverständlichste Leitbild des österreichischen Maschinen- und Anlagenbauers Andritz liegt bei 0,6 Punkten. „Die Unternehmen verspielen so eine Chance, ihren Zielgruppen ein klares Bild von sich zu vermitteln“, so das Fazit von Dr. Thoms, wissenschaftliche Mitarbeiterin am Fachgebiet Kommunikationstheorie der Universität Hohenheim.

Die Unterschiede zwischen den Unternehmen aus Deutschland mit durchschnittlich 8,7 Punkten, Österreich (7,5 Punkte) und der Schweiz (8,9 Punkte) sind minimal. Beim Vergleich der Branchen fällt auf: Die Bauindustrie (10,4 Punkte), Konsumgüter und Handel (9,8 Punkte) sowie Transport und Logistik (8,7 Punkte) haben überdurchschnittlich verständliche Leitbilder. Dagegen kommen die unverständlichsten Leitbilder aus der Automobilindustrie – mit durchschnittlich nur 6,3 Punkten.

Gendersensible Sprache: wichtig, aber uneinheitlich in der Umsetzung
Die Mehrheit der Unternehmen (58 %) hat sich in ihren Leitbildern zum Gendern entschieden. Allerdings gendern nur 12 % der Unternehmen konsequent. Die meisten gendern nur vereinzelt und nicht durchgängig.

Am häufigsten kommen die Paarform (z. B. „Kundinnen und Kunden“; 33 % der Leitbilder) und neutrale Begriffe (z. B. Kundschaft; 32 % der Leitbilder) vor. Unterschiedliche Formen werden aber zum Teil auch in ein und demselben Text gemischt. „Die Vielfalt beim Gendern ist weniger überraschend – den einen Standard gibt es eben noch nicht“, erläutert Oliver Haug.

Emotionales Sprachklima macht Unternehmen erlebbar
Die Studie untersuchte auch die Zusammensetzung der Sprache in den Leitbildern. Dafür setzten die Wissenschaftler:innen die 4-Farben-Sprachmethode ein: Danach gestalten bestimmte Wörter „zwischen den Zeilen“ ein bestimmtes Sprachklima. Grundlage für die Sprachklima-Analyse ist die Klassifizierung des Wortschatzes in die vier Grundtypen Konservativ, Rational, Innovativ und Emotional. Die Wissenschaftler:innen analysierten den Anteil der einzelnen Worttypen im Text und leiteten daraus das Sprachklima ab.

Das Ergebnis der Analyse: In den Leitbildern dominieren zwar absolut gesehen rationale und konservative Wörter. Da die in der deutschen Sprache insgesamt verhältnismäßig selten vorkommenden emotionalen und innovativen Wörter allerdings einen relativ starken Einfluss auf das Sprachklima nehmen, lässt sich dennoch sagen: Mit den verwendeten emotionalen Begriffen schaffen es die Unternehmen, ihre Leitbilder zu emotionalisieren.

„Was interessant ist, denn in Deutschland dominiert eher das rationale Sprachklima“, kommentiert Andreas Förster, Spezialist für die 4-Farben-Sprachmethode am Ulmer Communication Lab. Für die Wirksamkeit von Leitbildern als Steuerungsinstrument ist dies von Vorteil: Es macht das Unternehmen, seine Ziele und Werte erlebbar und greifbar.

Zusätzlich zum Sprachklima wurde in der 4-Farben-Sprachanalyse auch die Verwendung von Wertebegriffen untersucht. Die Top-5-Wertbegriffe in den Leitbildern sind: „Nachhaltigkeit“ (in 67 Leitbildern), „Zukunft“ (in 54 Leitbildern), „Verantwortung“ (in 53 Leitbildern), „Menschen“ (in 51 Leitbildern) sowie „Erfolg“ (in 48 Leitbildern).

„Leitbilder brauchen klare Kommunikation, um die Menschen zu erreichen“
„Wenn Unternehmen in Zeiten von Dauerkrisen und ausdifferenzierten Märkten ihre Zielgruppen erreichen wollen, brauchen sie eines mehr denn je: eine klare Kommunikation, die die Menschen erreicht“, meint Haug. Dazu gehöre auch eine wirksame Selbstdarstellung in Form von Leitbildern.

„In Leitbildern kommunizieren Unternehmen schließlich ihr Selbstverständnis und die angestrebte Unternehmenskultur. Aber: Die schönsten Werte nutzen nichts, wenn sie bei den Adressat:innen nicht ankommen“, so Dr. Thoms.

HINTERGRUND: Verständlichkeitsforschung an der Universität Hohenheim
Das Fachgebiet für Kommunikationswissenschaft, insbesondere Kommunikationstheorie, an der Universität Hohenheim untersucht seit 16 Jahren die formale Verständlichkeit zahlreicher Texte: Wahlprogramme, Medienberichterstattung, Kunden-Kommunikation von Unternehmen, Verwaltungs- und Regierungskommunikation, Vorstandsreden von DAX-Unternehmen.

HINTERGRUND: H&H Communication Lab
Die H&H Communication Lab GmbH ist ein Institut für Verständlichkeit mit Sitz in Ulm und langjähriger Kooperationspartner der Universität Hohenheim. H&H Communication Lab und die Universität Hohenheim haben gemeinsam die Verständlichkeitssoftware TextLab entwickelt.

Wissenschaftliche Ansprechpartner:
Dr. Claudia Thoms, Universität Hohenheim, Lehrstuhl für Kommunikationswissenschaft, Tel.: 0711 459-24031, E-Mail: claudia.thoms@uni-hohenheim.de
Oliver Haug, H&H Communication Lab GmbH, Tel. 0731 93284-11, E-Mail: o.haug@comlab-ulm.de

Weitere Informationen:
http://Studie im Detail unter www.uni-hohenheim.de/presse
http://Textanalyse durch TextLab: www.text-lab.de
http://Die 4-Farben-Sprachmethode: https://www.comlab-ulm.de/leistungen/corporate-wording/

(nach oben)


Das Wasser macht den Unterschied

Das Wasser macht den Unterschied
Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Für die Funktion biologischer Zellen ist es wichtig, in unterschiedliche Reaktionsräume unterteilt zu sein. Das geht mittels Membranen, aber auch ohne: Die spontane Entmischung bestimmter Arten von Biomolekülen führt zur Bildung sogenannter Kondensate. Warum und unter welchen Umständen sie sich bilden, ist Gegenstand der Forschung. Durch Computersimulationen konnten Prof. Dr. Lars Schäfer und Dr. Saumyak Mukherjee aus der Theoretischen Chemie der Ruhr-Universität einen oft übersehenen Mitspieler identifizieren: Wasser. Ihre Ergebnisse beschreiben die Forscher in Nature Communications.

Erst neuere Untersuchungen haben die Existenz der Kondensate als Reaktionsräume in Zellen belegt. „Das Innere dieser Kondensate ist unheimlich dicht gepackt, das heißt, es herrscht ein molekulares Gedränge biologischer Makromoleküle wie zum Beispiel Proteine und Nukleinsäuren“, erklärt Lars Schäfer. Da nur bestimmte Makromoleküle miteinander solche Kondensate ausbilden, können diese als spezifische Mikroreaktoren für ganz bestimmte biochemische Reaktionen fungieren, die in der Zelle ablaufen. „Daher überrascht es nicht, dass Störungen dieser Prozesse mit verschiedenen Krankheiten in Verbindung stehen“, sagt Schäfer.

David und Goliath

Warum aber bilden sich diese Kondensate in der Zelle aus, und unter welchen Umständen? „Die zu Grunde liegenden Triebkräfte liegen letzten Endes verborgen in den chemischen Wechselwirkungen zwischen den verschiedenen Molekülen in der Zelle“, sagt Saumyak Mukherjee. „Computersimulationen können da Licht ins Dunkel bringen, sogar in atomarem Detail.“ Dabei stellte sich heraus, dass ein bisher oft übersehener Mitspieler im molekularen Wechselspiel eine wichtige Rolle spielt: Wasser.

Die Wassermoleküle, die sich im dichten Gedränge im Inneren der Kondensate befinden, haben andere Eigenschaften als die Wassermoleküle außerhalb. „Die Beschränkung der Wassermoleküle im Kondensat ist eine ungünstige Triebkraft, die Freiheit der Wassermoleküle außerhalb hingegen günstig. Letztere gewinnen dieses molekulare Tauziehen – wenn auch nur knapp“, erklärt Schäfer. Die Wassermoleküle spielen also eine wichtige Rolle für die Ausbildung von biomolekularen Kondensaten in Zellen, zusätzlich zu den oft beschriebenen Wechselwirkungen zwischen den Makromolekülen wie den Proteinen. „Es ist ein bisschen wie David und Goliath“, schmunzelt Mukherjee. „Hier sind die kleinen Wassermoleküle und dort die großen Proteinmoleküle – jedoch gibt es halt sehr viele Wassermoleküle, und gemeinsam leisten sie einen Beitrag zur Triebkraft, der genauso groß ist wie der der großen Proteine.“

Förderung

Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft im Rahmen des Cluster of Excellence RESOLV (EXC 2033) sowie durch die Europäische Union im Rahmen des EU Horizon 2020 Programm /Marie Skłodowska-Curie Grant 801459 – FP-RESOMUS.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lars Schäfer
Arbeitsgruppe Molekulare Simulation
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21582
E-Mail: lars.schaefer@ruhr-uni-bochum.de

Originalpublikation:
Saumyak Mukherjee, Lars Schäfer: Thermodynamic forces from protein and water govern condensate formation of an intrinsically disordered protein domain, in: Nature Communications, 2023, DOI: 10.1038/s41467-023-41586-y

(nach oben)


Mit Mikro-Ultraschall Prostatakrebs präzise erkennen

Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
An der Universitätsmedizin Magdeburg wird im Rahmen einer internationalen klinischen Studie eine neuartige ultraschallbasierte Bildgebungsmethode zur frühzeitigen Erkennung von Prostatakrebs untersucht.

Prostatakrebs frühzeitiger erkennen – das ist das Ziel einer weltweiten klinischen Studie mit 1.200 Betroffenen, an der auch die Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg beteiligt ist. Die Studie untersucht die Effektivität eines innovativen Mikro-Ultraschallgerätes im Vergleich zur MRT-basierten Standardmethode zur Diagnose von Prostatakarzinomen. Das neuartige ExactVu™-System verspricht in kürzerer Zeit eine genauere Unterscheidung zwischen gut- und bösartigem Gewebe. Besonders Männer ab 50 Jahren, die sich in der Prostatakrebs-Vorsorge befinden, würden von dieser Entwicklung profitieren. Die Studie wird an 13 nationalen und internationale Kliniken durchgeführt.

Prostatakrebs ist in Deutschland die häufigste Krebserkrankung des Mannes. Laut Robert-Koch-Institut erkranken pro Jahr bundesweit fast 70.000 Männer neu an dieser Krebsform. Früh erkannt, kann das die Heilungschancen verbessern und das Risiko für Metastasen senken. Neben einer Tastuntersuchung ab 45 Jahren kommt bei Verdacht auf Prostatakrebs ein Test auf das Prostata-spezifische Antigen (PSA) zum Einsatz. Ein erhöhter PSA-Wert kann einen frühzeitigen Hinweis auf Prostatakrebs geben, aber auch andere Ursachen haben. „Die herkömmliche PSA-Blutwertbestimmung reicht für die Prostatakrebsfrüherkennung nicht mehr aus. Um möglichst genau sagen zu können, ob eine aggressive Prostatakrebserkrankung vorliegt, nutzen wir moderne bildgebende Verfahren, um den Krebs sichtbar zu machen“, erklärt Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg und Studienleiter in Deutschland.

Im Fokus der Studie unter dem Titel „OPTIMUM“ steht eine Bildgebungsmethode der neuesten Generation – das hochauflösende ExactVu™-System, ein innovatives 29 MHz Mikro-Ultraschallgerät, zur Diagnose von Prostatakarzinomen. „Das System arbeitet mit einer dreifachen Auflösung im Vergleich zu herkömmlichen Geräten“, so Schostak. Damit sei man in der Lage, in kürzerer Zeit auch kleinste Veränderungen in der Prostata zu erkennen und eine genauere Diagnose zu stellen. „Dieses innovative Gerät hilft, überflüssige Biopsien zu vermeiden und gleichzeitig eine besonders präzise Diagnose zu ermöglichen. Besonders im Kontext einer sogenannten fokalen Therapie spielt dies eine entscheidende Rolle und verbessert die Patientenversorgung erheblich.“ Im Rahmen der Studie wird die Effektivität dieses Verfahrens im Vergleich zur MRT-basierten Standardmethode evaluiert.

Weitere Informationen sind unter https://urologie.med.uni-magdeburg.de/ zu finden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie der Otto-von-Guericke-Universität Magdeburg, martin.schostak@med.ovgu.de, Telefon: +49-391/67 15036

(nach oben)


Bis zu 40 Prozent produktiver: Beim Güterumschlag auf die Schiene zeigen autonome Lkw großes Potenzial

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
• ANITA-Projektziele erreicht: Entwicklung, digitale Integration und Praxistests eines autonomen Lkw im Containerumschlag von DB IS-Depot und DUSS-Terminal in Ulm erfolgreich
• ANITA-Praxistestfahrten zeigen Potenzial für bis zu 40 Prozent Effizienzgewinn und erhöhte Prozessstabilität
• ANITA liefert übertragbare Erkenntnisse für die künftige Integration autonomer Lkw in die Prozesse von Logistikhubs und fahrerlose Lkw-Verkehre zwischen Logistikknoten

MAN Truck & Bus, Deutsche Bahn, Hochschule Fresenius und Götting KG haben gemeinsam wegweisende Forschungsergebnisse beim Einsatz eines autonomen Lkw in der Container-Logistik erzielt. Im Rahmen des Forschungsprojekts „Autonome Innovation im Terminal Ablauf“ (ANITA) zeigten sie erfolgreich, wie selbstfahrende Lkw mit der passenden Einbindung in die Infrastruktur den kombinierten Güterverkehr auf Straße und Schiene zukünftig leistungsfähiger, planbarer und zugleich flexibler machen können.

Die Projektpartner haben dafür einen autonom fahrenden Lkw auf die Räder gestellt, der Containerverladungen von der Straße auf die Schiene mit Hilfe einer digitalen Missionsplanung selbständig erledigen kann. Das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Forschungsprojekt lief insgesamt drei Jahre, rund sechs Monate davon haben die Experten das Fahrzeug im DB Intermodal Services Container-Depot und DUSS Container-Terminal in Ulm im Praxiseinsatz getestet.

„Bei der Entwicklung autonomer Fahrsysteme stehen konkrete Logistikanwendungen und der Kundennutzen für uns von Anfang an im Fokus. Deshalb haben wir bei ANITA nicht nur an der Entwicklung des automatisierten Fahrens in einem Container-Terminal gearbeitet, sondern gleichzeitig, zusammen mit den Partnern, die digitale Einbindung der Technologie in den Logistikprozess vorangetrieben. Nur so können wir künftig die Vorteile autonomer Lkw sinnvoll nutzen: den Sicherheitsgewinn, die höhere Flexibilität – gerade auch mit Blick auf den zunehmenden Fahrermangel – die gute Kombinierbarkeit mit anderen Verkehrsträgern und natürlich auch die optimale Energieeffizienz im Einsatz, was besonders in Verbindung mit der Elektromobilität wichtig wird. ANITA ist für MAN eine wichtige Grundlage, um autonome Lkw ab 2030 in den Verkehren zwischen Logistikhubs wie Ulm als Serienlösungen auf die Straße zu bringen“, so Dr. Frederik Zohm, Vorstand für Forschung & Entwicklung bei MAN Truck & Bus.

Die intensiven Testfahrten mit Sicherheitsfahrern und Entwicklungsingenieuren lieferten dabei nicht nur umfassende Erkenntnisse für die kontinuierliche Verfeinerung der autonomen Fahrfunktion und deren Zusammenspiel mit der Missionsplanung, sondern auch für die notwendige Vorbereitung der Terminals für die Integration der neuen Technologie.

“Der Kombinierte Verkehr wird in den kommenden Jahren weiter wachsen und eine wichtige Rolle bei der Verlagerung von Verkehren auf die umweltfreundliche Schiene spielen. Dafür müssen die komplexen Abläufe in den Terminals effizienter gestaltet und beschleunigt werden. Das gelingt nur, wenn wir Logistikprozesse weiter automatisieren und digitalisieren. Wie die Zukunft in den Terminals aussehen kann, hat der Projektabschluss von ANITA heute eindrucksvoll gezeigt. Der autonome Lkw funktioniert im realen Terminalbetrieb und kann so einen entscheidenden Beitrag zur Zukunftsfähigkeit des Kombinierten Verkehrs leisten“, so Dr. Martina Niemann, Vorständin der DB Cargo AG für Finanzen, Controlling und Angebotsmanagement.

Damit der autonome Lkw des ANITA-Projektes seine Transportaufgabe im Containerumschlag erfüllen kann, muss er mit der Infrastruktur von DB IS- Depot und DUSS-Terminal kommunizieren können. Dafür haben die Wissenschaftler der Hochschule Fresenius in der ersten Projektphase die bestehenden Prozesse, Abläufe und Verhaltensweisen von Menschen und Maschinen vor Ort analysiert und in ein digitales Regelwerk übertragen.

Als gemeinsame Sprache für die eindeutige und vollständige Kommunikation aller beteiligter Systeme dient die Contract Specification Language (CSL) von Deon Digital. Entstanden ist so eine komplette Missionsplanung, die sowohl das Fahrzeug als auch die IT-Systeme von DB IS-Depot und DUSS-Terminal miteinander verbindet. Wie ein Universal-Dolmetscher spricht die Lösung die Sprachen aller heterogenen Systeme und leitet den automatisierten Lkw durch den Prozess des Containerumschlags, wie Prof. Dr. Christian T. Haas, Direktor des Instituts für komplexe Systemforschung an der Hochschule Fresenius, erklärt: „Wir haben hier ein kommunikationsintensives Multi-Agenten-System d.h. verschiedene Akteure wie Lkw-Fahrer, Kran-Führer, Stapler-Fahrer nutzen unterschiedliche Kommunikationsformen wie Sprache, Gesten etc. und übertragen dabei die von ihnen als relevant eingestuften Informationen. Da sich bei autonomen Umfuhren nicht der Fahrer mit dem Disponenten, sondern der Lkw mit Datenbanken bzw. anderen Maschinen ,unterhält‘, musste ein digitales – also für Maschinen verständliches – Kommunikationssystem entwickelt werden, damit die Mission funktioniert. Dies war ein hoher Entwicklungsaufwand, der jetzt allerdings auch zum Erfolg und den entsprechenden Produktivitätsgewinnen geführt hat.“

Die Götting KG brachte ins Projekt in Ergänzung zu MAN ihre Expertise im Bereich der Objektortung und Umgebungserfassung ein, um die künftige Übertragbarkeit auf andere Logistikhubs und Erweiterungsfähigkeit für zusätzliche Einsatzszenarien zu ermöglichen. „Damit fahrerlose Fahrzeuge noch attraktiver werden, arbeiten wir weiter an sicherer Hinderniserkennung für größere Reichweiten und Geschwindigkeiten“, so Hans-Heinrich Götting, Geschäftsführer der Götting KG, zum Abschluss des ANITA-Projektes.
Die detaillierten Projektergebnisse werden in einem ausführlichen Projektbericht zusammengefasst und nach Projektende veröffentlicht.

Mehr zu ANITA: https://www.anita.digital

Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Idstein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den ältesten, größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine 175-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbildung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfältiges Fächerangebot und bietet in den Fachbereichen Che-mie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studien-gänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovatives Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbe-zug“ vom Wissenschaftsrat gewürdigt.

Weitere Informationen finden Sie auf unserer Website:
www.hs-fresenius.de

Weitere Informationen:
http://www.hs-fresenius.de

(nach oben)


Mainzer Wissenschaftler:innen entdecken bisher unbekannte Ursache für die Entstehung der Lungenfibrose

Natkritta Hüppe Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende des Centrums für Thrombose und Hämostase der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Histonen einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift PNAS veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes.

Neue Erkenntnisse bieten Ansatz für innovative Medikamente
Forschende des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Vernarbung der Lunge und damit die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Proteinen der Histonfamilie einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes beim experimentellen Modell einer Lungenfibrose.

Die Lungenfibrose ist eine bisher nicht heilbare und oft tödlich verlaufende Erkrankung. Bei den Betroffenen kommt es zu einer unkontrollierten Vermehrung von Narbengewebe in der Lunge, die durch chronische Entzündungen ausgelöst wird. Die Lunge ist dadurch weniger elastisch und kann sich beim Atmen nicht hinreichend ausdehnen. Die Patient:innen haben schon bei geringen Anstrengungen Atemnot – im fortgeschrittenen Erkrankungsstadium sogar im Ruhezustand. Die genauen Ursachen für die Entstehung der Erkrankung sind bisher noch unzureichend aufgeklärt.

„Unser Ziel ist es, die molekularen Zusammenhänge der Lungenfibrose genauer zu verstehen, um die Therapiemöglichkeiten verbessern zu können. Wir haben einen bisher unbekannten Mechanismus identifiziert, der darauf hinweist, dass Proteine der Histonfamilie beim Krankheitsprozess eine entscheidende Rolle spielen, wenn sie von Immunzellen freigesetzt werden. Histone bilden deshalb eine potentielle Zielstruktur, um neue Medikamente zur Behandlung der Lungenfibrose entwickeln zu können“, erläutert Prof. Dr. Markus Bosmann, Arbeitsgruppenleiter am Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz.

Histone sind Proteine im Zellkern, die dazu dienen, die DNA zu verpacken. Werden Histone zum Beispiel durch eine fehlgeleitete Abwehrreaktion oder einen Zelltod freigesetzt, können sie in immunologische Prozesse eingreifen. Bei ihren vorklinischen Untersuchungen stellten die Mainzer Forschenden fest, dass in Proben von Betroffenen mit Lungenfibrose eine deutlich höhere Konzentration an Histonen vorlag als bei gesunden Probanden. Sie konnten zeigen, dass die freigesetzten Histone ein Wechselspiel zwischen Botenstoffen aus den Blutplättchen und den Immunzellen auslöste. Die Folge: Ein Sicherheitsmechanismus, der die unkontrollierte Gewebsbildung und Vernarbung in der Lunge verhindern soll, schaltet sich aus.

Die derzeit verfügbaren Medikamente zur Therapie der Lungenfibrose hemmen zwar die Vernarbung, können diesen Prozess aber nicht vollständig aufhalten. Die Mainzer Wissenschaftler:innen haben auf Basis von Antikörpern einen innovativen Wirkstoff getestet, der die freigesetzten Histone blockieren kann. Im experimentellen Modell zeigte dieser eine hohe Wirksamkeit gegen die Fibrosierung der Lunge.

„Es ist denkbar, dass ein Antikörper-basierter Wirkstoff mit den aktuell eingesetzten Medikamenten kombiniert werden kann, um bessere Behandlungsergebnisse zu erzielen. Bevor dieses innovative Wirkprinzip jedoch klinisch eingesetzt werden kann, müssen noch weitere Optimierungen und vorklinische Tests erfolgen. Auch wenn es noch viele Jahre dauern wird, sind wir zuversichtlich auf dem richtigen Weg zu sein“, so Professor Bosmann.

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.

DOI:
https://doi.org/10.1073/pnas.2215421120

Kontakt:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Pressekontakt:
Dr. Natkritta Hüppe, Stabsstelle Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon 06131 17-7771, E-Mail pr@unimedizin-mainz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 345.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Mehr als 3.500 Studierende der Medizin und Zahnmedizin sowie rund 670 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.700 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter https://www.unimedizin-mainz.de.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.
DOI: https://doi.org/10.1073/pnas.2215421120

(nach oben)


Blutprodukte retten Leben

Nora Domschke Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Uniklinikum Dresden benötigt mehr Thrombozytenpräparate und ruft zur Spende auf. Die Transfusionsmedizinerinnen und -mediziner betonen die Wichtigkeit der lebensrettenden Spezialpräparate. Aus den Spenden werden überwiegend lebensrettende Spezialpräparate gewonnen. Die Apherese-Spenden, also Blutprodukte, die an einem Zellseparator gewonnen werden, spielen für die Versorgung schwer kranker Menschen eine entscheidende Rolle und werden am Uniklinikum in großem Umfang benötigt. Peter Escher macht an diesem Donnerstag (28. September) mit einer öffentlichkeitswirksamen Spende auf diese Notwendigkeit aufmerksam.

Thrombozytenpräparate gehören zu den Spezialprodukten der Blutspende. Die in ihnen enthaltenden Blutplättchen sind wichtig für die Blutgerinnung. Daher sind sie bei der Behandlung von Leukämie- und Tumorpatienten sowie bei großen Operationen notwendig, da es ohne eine ausreichende Anzahl von Thrombozyten im Blut der Patientinnen und Patienten zu lebensbedrohlichen Blutungen kommen kann. Journalist und Moderator Peter Escher hat heute am Dresdner Universitätsklinikum öffentlichkeitswirksam Thrombozyten gespendet und ruft auf, es ihm gleich zu tun: „Ich bin seit vielen Jahren Blutspender“, erklärt er. „Mit der heutigen Spende möchte ich Zögerer zum Spenden des überlebenswichtigen Blutes motivieren und kann aus eigener Erfahrung sagen, dass das regelmäßige Spenden sogar zu meinem Wohlbefinden beiträgt.“ Prof. Michael Albrecht, Medizinischer Vorstand des Uniklinikums, betont, wie wichtig die Bereitschaft der Bevölkerung zum Spenden in der Versorgung der Patientinnen und Patienten ist. „Peter Escher ist hierbei ein echtes Vorbild“, so Prof. Albrecht. „Blutprodukte sind rar und wir sind im Sinne der Versorgung auch schwerst kranker Patientinnen und Patienten auf diese speziellen Thrombozytenpräparate angewiesen.“

Bevor gespendet werden kann, ist eine Voruntersuchung erforderlich, bei der die Eignung der Spenderin oder des Spenders ermittelt wird. „Im Rahmen dessen erfolgt ein ärztliches Aufklärungsgespräch“, so Privatdozentin Dr. Kristina Hölig, Leiterin der Transfusionsmedizin am Uniklinikum Dresden. „Darüber hinaus werden die Venen an den Armen beurteilt und eine kleine Blutprobe zu Testzwecken entnommen.“ Dazu gehört ein umfangreiches Blutbild, bei dem die Thrombozytenzahl sowie die Blutgruppe bestimmt wird. Außerdem wird das Blut auf verschiedene Infektionskrankheiten untersucht.

Thrombozyten kann man, ähnlich wie Blut, auch in regelmäßigen Abständen spenden. Blutplättchen spielen in der Blutgerinnung und Blutstillung eine wesentliche Rolle und werden daher besonders bei Patientinnen und Patienten mit bösartigen Erkrankungen unter Chemotherapie und insbesondere nach einer Stammzelltransplantation benötigt. Auch ein hoher Blutverlust, etwa bei einem schweren Unfall oder bei einer großen Operation können ein Grund für die Substitution sein. Bei der Thrombozytenspende werden dem Körper über einen so genannten Thrombozyt-Apherese-Apparat ausschließlich Blutplättchen entnommen, die restlichen Blutbestandteile und das Plasma zurückgeführt. Thrombozyten sind nicht lange haltbar und müssen in Bewegung gelagert werden.

Nach der Entnahme sind die Spenderinnen und Spender vier Tage von anderen Spenden ausgeschlossen. Bis zur nächsten Thrombozyt-Apherese müssen sie gesetzlich vorgeschrieben zwei Wochen warten. Eine Thrombozytenspende dauert zwischen 60 und 90 Minuten. Dabei werden maximal 750 Milliliter Thrombozyten entnommen. Es gelten die Anforderungen wie bei anderen Spende-Arten. Grundsätzlich gibt es keine obere Altersgrenze, aber der Spender darf keine schwerwiegenden Vorerkrankungen haben. Weitere Voraussetzungen sind eine stabile Gesundheit, ein Mindestgewicht von 50 Kilogramm sowie eine ärztliche Zulassung – die Spendentauglichkeit wird von den Ärztinnen und Ärzten der Transfusionsmedizin beurteilt und bescheinigt.

Spendenwillige wenden sich gern an die Transfusionsmedizin des Universitätsklinikums Dresden unter 0351 458-2581 und vereinbaren einen Termin.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik und Poliklinik I
PD Dr. med. Kristina Hölig
Bereichsleiterin Transfusionsmedizin
Tel.: 0351 458 2910
E-Mail: Kristina.Hoelig@ukdd.dex

www.uniklinikum-dresden.de/de/das-klinikum/kliniken-polikliniken-institute/mk1/fachabteilungen/transfusionsmedizin

(nach oben)


Wichtiger zusätzlicher Treiber des Insektensterbens identifiziert

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Treten ungünstige Witterungsbedingungen kombiniert und über Jahre auf, kann das Insektenbiomassen langfristig schrumpfen lassen. Das zeigt ein Team um Professor Jörg Müller im Journal „Nature“.

Insekten reagieren empfindlich, wenn Temperatur und Niederschläge vom langjährigen Mittel abweichen. Bei einem ungewöhnlich trockenen und warmen Winter sind ihre Überlebenswahrscheinlichkeiten verringert, bei einem nasskalten Frühjahr ist der Schlupferfolg reduziert. Ein kühler, feuchter Sommer setzt Hummeln und andere Fluginsekten bei der Fortpflanzung und der Nahrungssuche unter Druck.

Treten mehrere solcher Witterungs-Anomalien in Kombination und über mehrere Jahre auf, kann dies die Insektenbiomasse großräumig und langfristig reduzieren. Das zeigt ein neuer Report im Journal „Nature“.

Demnach können die Witterung und Häufungen ungünstiger Witterungsanomalien im Zuge des Klimawandels wichtige Treiber des weltweiten Insektensterbens sein. Nur individuenreiche Insektenpopulationen, wie man sie in ausreichend großen und hochwertigen Lebensräumen findet, erscheinen unter solch widrigen Bedingungen überlebensfähig.

Wegen dieser neuen Erkenntnisse plädieren die Autorinnen und Autoren des Nature-Reports für mehr hochwertige Lebensräume. Diese zeichnen sich aus durch Pflanzen, die typisch für naturnahe Habitate sind, durch hohen Strukturreichtum oder extensive Nutzung. Der Report stammt vom Forschungsteam Jörg Müller (Universität Würzburg und Nationalpark Bayerischer Wald) in Kooperation mit der TU Dresden (Sebastian Seibold) und dem Nationalpark Berchtesgaden sowie der TU München (Annette Menzel, Ye Yuan) und der Universität Zürich (Torsten Hothorn). Die beteiligten Forschenden suchen gemeinsam nach neuen Erkenntnissen und Gegenstrategien zum Insektensterben.

So sind die neuen Erkenntnisse entstanden
Im Frühjahr 2022 fiel dem Würzburger Ökologieprofessor Jörg Müller auf, dass in Wald und Flur erstaunlich viele Insekten unterwegs waren. Das machte ihn stutzig – schließlich sind in den vergangenen Jahren immer mehr wissenschaftliche Studien erschienen, die ein weltweites Insektensterben belegten.

Die Studie, die für das größte Aufsehen sorgte, stammt von einer Gruppe um den niederländischen Forscher Caspar A. Hallmann aus dem Jahr 2017. Darin wurden Daten des Entomologischen Vereins Krefeld analysiert. Die Studie zeigte auf, dass die Insektenbiomasse in deutschen Naturschutzgebieten in den Jahren von 1989 bis 2016 um mehr als 75 Prozent abgenommen hat.

„Die Daten aus der Studie zeigen, dass es 2005 einen dramatischen Einbruch und in den Jahren danach keine Erholung mehr gab“, sagt Jörg Müller, der Professor für Tierökologie und ökologische Freilandforschung am Biozentrum der Julius-Maximilians-Universität Würzburg (JMU) ist. Konnte die von ihm „gefühlte“ große Insektenmenge des Jahres 2022 also real sein?

2022 ging es vielen Insekten relativ gut
Müller beschloss, der Sache auf den Grund zu gehen. Dafür tat sich sein Team mit Forscherkolleginnen und -kollegen der TU Dresden, der TU München und der Universität Zürich zusammen.

Zuerst galt es zu klären, ob es 2022 tatsächlich viel mehr Insektenbiomasse gab als üblich. Das bestätigte sich: „Wir fanden eine Biomasse, die im Mittel fast so hoch war wie die Maximalwerte aus der Hallmann-Studie. Und unser 2022er Maximalwert war höher als alle Werte, die Hallmann je ermittelt hatte – dieser Wert stammt übrigens aus dem Wald der Universität Würzburg“, sagt der JMU-Professor.

Daten der Hallmann-Studie neu analysiert
Diese Beobachtung veranlasste das Forschungsteam, die Daten aus der Hallmann-Studie neu zu analysieren. Dabei flossen neu aufbereitete Witterungsdaten ein, darunter Informationen über Temperaturen und Niederschläge während der Beprobung. Berücksichtigt wurden auch Witterungsanomalien (Abweichungen vom langjährigen Mittel) während der verschiedenen Phasen eines Insektenlebens – vom Ei über die Larve und die Puppe bis zu den erwachsenen Tieren.

Das Team stellte fest, dass für die Jahre ab 2005 für Insekten überwiegend negative Witterungseinflüsse herrschten. Mal war der Winter zu warm und trocken, mal das Frühjahr oder der Sommer zu kalt und nass. Dagegen war das Wetter 2022 durchgehend günstig für Insekten, und auch der Sommer davor war gut. Folglich erklärt dies die relativ hohe Insektenbiomasse von 2022.

Konsequenzen für die Zukunft
„Wir müssen uns viel stärker bewusstmachen, dass der Klimawandel bereits jetzt ein wichtiger Treiber für den Niedergang von Insektenpopulationen ist. Das muss in Wissenschaft und Naturschutzpraxis viel stärker mitgedacht werden“, sagt Annette Menzel, Professorin für Ökoklimatologie von der Technischen Universität München (TUM).

Um das Aussterberisiko bedrohter Arten unter diesen Rahmenbedingungen abzuschwächen, müssen die Flächen hochwertiger Lebensräume vergrößert werden. Daher sind die aktuellen Bestrebungen zum Insektenschutz noch dringender als bisher gedacht. Diese Gemeinschaftsaufgabe betreffe sowohl die Landwirtschaft als auch Verkehrs- und Siedlungsräume – also alle Gebiete, in denen hochwertige Lebensräume reduziert oder beeinträchtigt werden.

JMU-Professor Jörg Müller schlägt außerdem vor, ein Biomasse-Monitoring für ganz Deutschland zu etablieren. Damit könne man kontinuierlich messen, welchen Auf- und Ab-Trends die Insektenpopulationen unterworfen sind, und diese bei weiteren Analysen miteinbeziehen.

Förderer
Die beschriebenen Arbeiten wurden finanziell gefördert von der Deutschen Forschungsgemeinschaft, dem Bayerischen Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks bayklif, dem Bayerischen Staatsministerium für Umwelt und Verbraucherschutz im Projekt „Die Auswirkungen des Baumsterbens in Bayern 2018-2019 auf die Resilienz der Wälder und die biologische Vielfalt“ und dem Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten im Projekt „Auswirkungen waldbaulicher Eingriffe auf die Biodiversität – Neue Methoden erlauben neue Einblicke (L062)“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Müller, Universität Würzburg und Nationalpark Bayerischer Wald, joerg.mueller@uni-wuerzburg.de

Originalpublikation:
Weather explains the decline and rise of insect biomass over 34 years. Nature, 27. September 2023, DOI: 10.1038/s41586-023-06402-z

(nach oben)


DIW- und TU-Forschende: Das LNG-Terminal vor Rügen ist überflüssig und klimaschädlich

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Experten des Deutschen Instituts für Wirtschaftsforschung (DIW) und der Technischen Universität Berlin kritisieren das geplante Rügener Terminal für Flüssigerdgas (LNG) in einer aktuellen Analyse als überflüssig und klimaschädlich.

Es gebe weder energiewirtschaftliche noch industriepolitische Argumente für die Entwicklung des LNG-Projekts Mukran. Die Landesregierung Mecklenburg-Vorpommern solle sich gegen das Industrieprojekt Mukran aussprechen, welches energiewirtschaftlich nicht notwendig sei, keine alternativen ökonomische Perspektiven im Bereich Wasserstoffwirtschaft biete und gleichzeitig die nachhaltige Wirtschaftsentwicklung auf Rügen gefährde, so das Fazit der wissenschaftlichen Studie, die die Deutsche Umwelthilfe in Auftrag gab. „Die Bundesregierung sollte den Ausbau der LNG-Infrastruktur stoppen und die verfügbaren Finanzmittel stattdessen für energiewende-kompatible Projekte verwenden“, sagt Mitautor Prof. Dr. Christian von Hirschhausen von der TU Berlin und dem DIW Berlin. Er und seine wissenschaftlichen Mitarbeitenden werden am 22. September 2023 auch vor Ort bei einer Infoveranstaltung auf der Insel Rügen sein.

Die Studie „Energiewirtschaftliche und industriepolitische Bewertung des Energie- und Industrieprojekts Mukran mit dem Bau von LNG-Infrastruktur und Pipelineanbindung nach Lubmin“:
https://www.diw.de/de/diw_01.c.881106.de/publikationen/politikberatung_kompakt/2…

Pressemitteilung der Deutschen Umwelthilfe:
https://www.duh.de/presse/pressemitteilungen/pressemitteilung/deutsche-umwelthil…

Weitere Informationen erteilt Ihnen gerne:
Stefanie Terp
Pressesprecherin der TU Berlin
Tel.: 030 314-23922
E-Mail: pressestelle@tu-berlin.de

(nach oben)


Neuer Ansatz für Test auf Long Covid: Blutgefäße im Auge verändert

Paul Hellmich Corporate Communications Center
Technische Universität München
Eine standardisierte Augenuntersuchung könnte in Zukunft verraten, ob Menschen unter dem Long-Covid-Syndrom beziehungsweise Post Covid leiden. Ein Team der Technischen Universität München (TUM) konnte einen deutlichen Zusammenhang zwischen der Erkrankung und bestimmten Veränderungen der Äderchen im Auge zeigen.

Zwischen zehn und 35 Prozent der Betroffenen leiden auch lange nach einer Corona-Erkrankung an Symptomen wie Atemproblemen oder Erschöpfung (Fatigue). Bislang sind keine körperlichen Merkmale, sogenannte Biomarker, bekannt, anhand derer sich eine Long-Covid-Erkrankung sicher diagnostizieren lässt.

Eines der Merkmale von Covid-19 sind Veränderungen der Blutgefäße. Betroffen ist hier insbesondere das Endothel, die Gefäßinnenwand. Durch die Veränderungen werden Organe nicht ausreichend mit Blut versorgt.

Kleine Blutgefäße wenig erforscht
Bislang wurden vor allem große Blutgefäße erforscht. „90 Prozent der Endothelzellen des Körpers befinden sich aber in kleinen und kleinsten Äderchen. Was mit diesen Blutgefäßen bei Long Covid geschieht, ist kaum bekannt“, sagt Studienleiter Prof. Christoph Schmaderer, Geschäftsführender Oberarzt in der Abteilung für Nephrologie des Klinikums rechts der Isar, Universitätsklinikum der TUM.

„Blutgefäße im Auge könnten einen Hinweis auf den Zustand der kleinen Blutgefäße im gesamten Körper bieten“, sagt Schmaderer. Sie seien für Untersuchungen leicht zugänglich, die notwendigen Verfahren und Geräte sind erprobt und erfordern keinen Eingriff in den Körper.

Äderchen sind verengt oder erweitern sich weniger
Im Fachmagazin „Angiogenesis“ schildern Schmaderer, Co-Studienleiter Dr. Timon Kuchler und ihr Team ihre Ergebnisse. Besonders zwei Werte zeigten einen starken Zusammenhang mit Long-Covid-Erkrankungen: Zum einen waren Arteriolen, also kleinste Arterien, im Vergleich zur gesunden Kontrollgruppe deutlich verengt. Zum anderen zeigten Venolen – nicht aber die Arteriolen – eine veränderte Reaktion auf Lichtreize. Leuchtet man mit einem flackernden Licht ins Auge, erweitern sich die Blutgefäße. Bei Patient:innen mit Long Covid war diese Reaktion deutlich verringert.

Je mehr Entzündungsmarker im Blut der Studienteilnehmenden gemessen wurden, desto ausgeprägter waren die Veränderungen. Anhaltende Entzündungsreaktionen sind Studien zufolge vermutlich ein weiterer wichtiger Faktor für Long Covid.

Weitere Studien notwendig
Da die Studie mit 41 teilnehmenden Erkrankten vergleichsweise klein ist und nur in einer einzelnen Klinik durchgeführt wurde, lässt sich aus den Ergebnissen noch kein zuverlässiger Test auf Long Covid ableiten. Aus Sicht der Forschenden sind weitere Studien notwendig um die Ergebnisse zu verifizieren. „Ich bin zuversichtlich, dass auf Grundlage unserer Ergebnisse ein Werkzeug entwickelt werden kann, um Long Covid sicher zu diagnostizieren“, sagt Christoph Schmaderer. „Wir gehen zudem davon aus, dass die Mikrozirkulation nicht nur im Auge, sondern auch in anderen Teilen des Körpers eingeschränkt ist. Dadurch könnte die Methode insbesondere dafür geeignet sein, um die Wirksamkeit zukünftiger Therapien für Long Covid zu beurteilen.“

Weitere Informationen:
Die Studie wurde unter dem Titel „All Eyes on PCS – Analyse der retinalen Mikrogefäßstruktur bei Patienten mit Post-COVID-19-Syndrom“ registriert und durch das Bayerische Staatsministerium für Wissenschaft und Kunst finanziert.

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1721005

Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Schmaderer
Klinikum rechts der Isar der Technischen Universität München
Abteilung für Nephrologie
christoph.schmaderer@mri.tum.de

Originalpublikation:
Kuchler, T., Günthner, R., Ribeiro, A. et al. Persistent endothelial dysfunction in post-COVID-19 syndrome and its associations with symptom severity and chronic inflammation. Angiogenesis (2023). https://doi.org/10.1007/s10456-023-09885-6

(nach oben)


Klimawandel und seine Bedeutung für unsere Flüsse: Infotag am 30. September in Eußerthal

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Der Klimawandel hinterlässt in Fließgewässern spürbare Auswirkungen. Dürren und Starkregen führen zu Wasserknappheit und Überschwemmungen, bedrohen die Biodiversität und beeinträchtigen Wasserressourcen für Mensch und Natur. Wie kann das Management der Fließgewässer aussehen, um sich diesen Veränderungen anzupassen und die Gewässer zu schützen? Einblick in diese Thematik gibt es beim Infotag „Klima. Wasser. Fisch.“ der Rheinland-Pfälzischen Technischen Universität (RPTU) an der Ökosystemforschung Anlage Eußerthal (EERES) am Samstag, den 30. September, von 11 bis 16 Uhr bei Vorträgen und Mitmachangeboten. Das Angebot ist kostenfrei. Bei schlechtem Wetter wird die Veranstaltung verschoben.

In Vorträgen stellen Experten der RPTU sowie der beteiligten Projektpartner aus den Bereichen Klimawandelforschung und Gewässerökologie aktuelle Forschungsthemen vor: Dabei geht es unter anderem um die Gesundheit von Gewässern und um das Vorkommen und den Einfluss von Schadstoffen darin, um die Austrocknung von Flüssen und die schwindende Verfügbarkeit von Wasser sowie um die Zunahme von Klimaextremen. Zudem spricht Sarah Oexle von der Fischereiforschungsstelle Baden-Württemberg (LAZ BW) über „Fische in der Klimakrise“ und darüber, wie unserer Gewässer „fit für die Zukunft“ gemacht werden. Die Veranstaltung richtet sich aber auch an Kinder verschiedener Altersstufen, die die Möglichkeit haben, sich bei einem Gewässer-Lauf mit der Ökologie von Fließgewässern zu befassen und bei einer Rallye heimische Fischarten kennenzulernen.

Die Veranstaltung findet im Rahmen des EU-Interreg-Projekt „RiverDiv“ statt, das sich mit den Auswirkungen des Klimawandels auf Fließgewässer befasst. Ziel ist es, ein nachhaltiges und im Zuge des Klimawandels angepasstes Management für die Wieslauter zu entwickeln, einem deutsch-französischen Grenzfluss, der im Pfälzer Wald entspringt und bei Lauterburg in den Rhein mündet. Eingebunden in das Vorhaben sind Partner aus Wissenschaft, Wasserversorgung und Angelfischerei.

„Mit dem Projekt möchten wir zudem die Öffentlichkeit für dieses wichtige Thema sensibilisieren, um in der Gesellschaft ein Bewusstsein für die bestehenden Herausforderungen des Klimawandels zu schaffen. Dazu werden wir auch künftig ähnliche Veranstaltungen wie den Infotag anbieten“, sagt Dr. Tanja Joschko, Projektleiterin und Geschäftsführerin von der Ökosystemforschung Anlage Eußerthal (EERES). Die Forscherinnen und Forscher von EERES befassen sich mit Gewässern und Biodiversität unter dem Einfluss des globalen Wandelns.

Beim Infotag gibt das Team auch Einblick in das RiverDiv-Projekt. Besucher können sich über die verschiedenen Inhalte des Vorhabens informieren und sich direkt vor Ort mit den Wissenschaftlern austauschen.

Infotag „Klima. Wasser. Fisch.“
Wann?: 11 bis 16 Uhr am Samstag, den 30. September
Wo?: Ökosystemforschung Anlage Eußerthal, Birkenthalstraße 13, 76857 Eußerthal
Weitere Infos unter: https://nuw.rptu.de/projekte/riverdiv/teilprojekte/wissensdialog-vernetzung-umse…

Kontakt
Dr. Hannah Chmiel
RiverDiv – Projektkoordination / RPTU in Landau
Telefon: +49 6341 280 32239
Email: hannah.chmiel@rptu.de

(nach oben)


Wie Kläranlagen zur Energiewende beitragen können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Versorgt man die Mikroorganismen, die in Kläranlagen das Wasser aufbereiten, zusätzlich mit etwas Wasserstoff und Kohlendioxid, stellen sie reines Methan her. Damit kommen Erdgasheizungen und -fahrzeuge klar, ohne dass es technischer Anpassungen bedarf. Die beiden Arbeitsgruppen der Ruhr-Universität Bochum von Dr. Tito Gehring bei Prof. Dr. Marc Wichern und Prof. Dr. Ulf-Peter Apfel haben gemeinsam ein technisches Zusatzmodul entwickelt, dass im Prinzip jede Kläranlage auf umweltfreundliche Weise zu einer CO2-Senke und dezentralen Methan-Erzeugungsanlage machen kann. Sie berichten in der Zeitschrift Cell Reports Physical Science vom 16. August 2023.

Schlechter Ruf, gute Eigenschaften
Methan hat als klimaschädliches Gas einen schlechten Ruf. Es bringt aber einige gute Eigenschaften mit, die es dazu befähigen, ein Baustein der Energiewende zu werden: Es ist leichter zu handhaben und besser zu speichern als Wasserstoff, weil die Moleküle größer sind und es daher weniger leicht flüchtig ist. Seine Energiedichte ist viermal höher als die von Wasserstoff, und es lässt sich ohne Anpassung in die vorhandene Erdgasinfrastruktur einspeisen. „Erdgasfahrzeuge oder -heizungen können ohne Schwierigkeiten mit Methan betrieben werden“, verdeutlicht Tito Gehring vom Lehrstuhl Siedlungswasserwirtschaft und Umwelttechnik. Er führt noch einen weiteren Vorteil des Gases gegenüber Wasserstoff an, der in südlichen, wasserarmen Gegenden hergestellt wird: Exportiert man ihn und nutzt ihn hier, hat man gleichzeitig auch Wasser exportiert. Dieses Problem hat man mit Methan nicht.

Methan kann durch Bakterien sehr effizient hergestellt werden und fällt zum Beispiel in Kläranlagen als Bestandteil von Biogas an. „Manche Kläranlagen gewinnen dadurch ihren eigenen Energiebedarf und sind somit energetisch autark“, erklärt Tito Gehring. Das Biogas enthält allerdings nur 60 Prozent Methan und verschiedene andere Stoffe. Hier kommt das Konzept der Bochumer Arbeitsgruppen ins Spiel: Damit hochkonzentriertes Methan entsteht, brauchen die Mikroorganismen neben CO2 auch Wasserstoff, der dem System zugeführt werden muss. Um ihn herzustellen, entwickelte die Gruppe um Ulf-Peter Apfel von der Arbeitsgruppe Technische Elektrochemie und der Abteilung Elektrosynthese des Fraunhofer UMSICHT eigens einen Elektrolyseur mit einem edelmetallfreien Katalysator, der langlebig und energieeffizient für die Wasserstoffzufuhr sorgt.

Einen Teil des benötigten Erdgases ersetzen
So versorgt produzieren die Bakterien in einem Zusatzmodul, das im Prinzip an jeder beliebigen Kläranlage funktioniert, ein Molekül Methan pro Molekül Kohlendioxid. Dabei verstoffwechseln sie nebenbei auch noch verschiedene Inhaltstoffe des Abwassers und benötigen dabei keine weiteren Nährstoffe. „Viele Kläranlagen sind ans Erdgasnetz angeschlossen und könnten das so erzeugte Methan einfach in die Versorgung einspeisen“, erklärt Tito Gehring.

Er sieht in Grünem Methan aus Kläranlagen einen von mehreren Bausteinen der Energiewende: „Erste Abschätzungen haben ergeben, dass allein durch die CO2-Bindung aus den Abgasen der Schlammbehandlung in Kläranlagen etwa 20 Liter Methan pro Tag und pro Einwohner gewonnen werden könnten.“ Würde man das tun, würde man auch dafür sorgen, dass weniger Methan als schädliches Klimagas in die Atmosphäre gelangt. Denn die Methanfreisetzung bei der Förderung von Erdgas, Öl und Kohle ist eine sehr wichtige Emissionsquelle für dieses Treibhausgas.

Förderung
Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft (Projektkennziffer: 445401355 – Etablierung einer nachhaltigen methanogenen Kohlendioxidreduktion in bioelektrochemischen Systemen und Identifizierung kinetischer und thermodynamischer Restriktionen).

Wissenschaftliche Ansprechpartner:
Dr. Tito Gehring
Siedlungswasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaft
Ruhr-Universität Bochum
Tel.: +49 234 32 22736
E-Mail: tito.gehring@ruhr-uni-bochum.de

Prof. Dr. Ulf-Peter Apfel
Technische Elektrochemie – Aktivierung kleiner Moleküle
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21831
E-Mail: ulf.apfel@ruhr-uni-bochum.de

Originalpublikation:
Ramineh Rad, Tito Gehring, Kevinjeorjios Pellumbi, Daniel Siegmund, Edith Nettmann, Marc Wichern, Ulf-Peter Apfel: A hybrid bioelectrochemical system coupling a zero-gap cell and a methanogenic reactor for carbon dioxide reduction using a wastewater-derived catholyte, in: Cell Reports Physical Science, 2023, DOI: 10.1016/j.xcrp.2023.101526, https://www.sciencedirect.com/science/article/pii/S2666386423003107?via%3Dihub

(nach oben)


Long-COVID: Besserung ist erreichbar, aber nicht bei allen Betroffenen

Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena
In einer Langzeitauswertung des Post-COVID-Zentrums am Universitätsklinikums Jena zeigten über 90% der mehr als 1000 betrachteten Patienten vielfache Langzeitsymptome nach einer COVID-19-Erkrankung. Weit über die Hälfte berichtete von Erschöpfung und Konzentrationsschwäche, die über die Zeit leicht abnahmen. Auch nach über einem Jahr leidet etwa ein Fünftel der Betroffenen an ME/CFS, einer durch Infektionen ausgelösten schweren neuroimmunologischen Erschöpfungserkrankung. Das Autorenteam betont, dass spezifische interdisziplinäre Therapiekonzepte und deren Evaluierung dringend notwendig sind.

Etwa fünf bis zehn Prozent der Menschen, die sich mit Sars-CoV2 infiziert hatten, leiden auch nach Monaten und sogar Jahren noch an Langzeitfolgen. Als eine der ersten Kliniken bundesweit richtete das Universitätsklinikum Jena (UKJ) eine spezielle Ambulanz für diese Patientinnen und Patienten ein. Mit Förderung des Freistaates Thüringen ist daraus ein interdisziplinäres die Post-COVID-Zentrum entstanden. „Mittlerweile haben sich knapp 3000 Erwachsene zu einer umfassenden Eingangsdiagnostik vorgestellt“, so PD Dr. Philipp Reuken, Oberarzt in der Klinik für Innere Medizin IV des UKJ. „Mit vielen vereinbaren wir in Abhängigkeit der Beschwerden und Vorbefunde Folgetermine, im Schnitt nach einem halben Jahr.“

Das Jenaer Post-COVID-Zentrum stellte jetzt eine Langzeitauswertung vor, in die die Daten von 1022 Patientinnen und Patienten aufgenommen werden konnten. Bei knapp der Hälfte davon wurde auch die Entwicklung bis zum Folgetermin betrachtet. Fast alle Betroffenen in der Studie beklagten mehrere Langzeitsymptome als Folge der Sars-CoV-2-Infektion. Am häufigsten gaben die Betroffenen neuropsychologische Symptome an: 80 Prozent litten an Fatigue, einer schweren Erschöpfung, zwei Drittel berichteten von Konzentrationsschwäche und über die Hälfte von Gedächtnisstörungen. Bei den körperlichen Symptomen überwogen Kopf- und Muskelschmerzen, Schlafstörungen, Kurzatmigkeit, Riech- und Schmeckstörungen.

Ein Fünftel der Long-COVID-Betroffenen leidet auch nach über einem Jahr an ME/CFS
Beim Folgetermin bekundeten viele Patientinnen und Patienten eine leichte Verbesserung, die bei Fatigue und der Konzentrationsfähigkeit am deutlichsten war. Die objektiven Screeningergebnisse für Fatigue, Depressionsanzeichen und Gedächtnisvermögen ergaben bei der zweiten Visite jedoch kaum Verbesserungen im Vergleich zum ersten Besuch. Aber 30 Prozent der Betroffenen erfüllten die vollständigen Kriterien für ME/CFS. Das Kürzel steht für das Krankheitsbild einer schweren neuroimmunologischen Erschöpfungserkrankung, die durch Virusinfektionen ausgelöst werden kann, und deren Krankheitsmechanismen kaum verstanden sind. Auch bei der zweiten Visite litt noch jeder fünfte unter ME/CFS, dabei lag die Infektion bereits deutlich über ein Jahr zurück.

Typisch für ME/CFS ist, dass sich der Zustand der Betroffenen nach Anstrengung deutlich verschlechtert. „Deshalb ist es für diese Patienten besonders wichtig, ihre physischen und mentalen Kräfte konsequent einzuteilen. Das als Pacing bezeichnete Konzept spielt eine zentrale Rolle bei der Therapie“, betont Philipp Reuken. „Long-COVID ist eine langwierige Erkrankung, eine Verbesserung ist erreichbar, aber nur langsam.“

Ein großes Problem ist, dass ein relevanter Anteil der Patienten nicht mehr arbeiten gehen kann bzw. in der Versorgungsarbeit in der Familie deutlich eingeschränkt ist. Das macht die soziale Dimension der Erkrankung deutlich. „Wir benötigen spezifische interdisziplinäre Therapiekonzepte und müssen diese in Studien evaluieren, um den Patientinnen und Patienten eine zielgerichtete, aber eben auch wirksame Behandlung anbieten zu können“, sagt Prof. Dr. Andreas Stallmach, der Leiter des Post-COVID-Zentrums am UKJ. Er ist einer der Tagungspräsidenten des 2. Long-COVID-Kongresses in Jena, der sich im November neben neuen Forschungsergebnissen zur Erkrankung vor allem mit der Teilhabe der Betroffenen am sozialen und Arbeitsleben beschäftigt.

Wissenschaftliche Ansprechpartner:
PD Dr. Philipp Reuken, Prof. Dr. Andreas Stallmach
Klinik für Innere Medizin IV, Post-COVID-Zentrum, Universitätsklinikum Jena
Tel.: +49 3641 9234504
E-Mail: Philipp.Reuken@med.uni-jena.de, Andreas.Stallmach@med.uni-jena.de

Originalpublikation:
Reuken, P.A., Besteher, B., Finke, K. et al. Longterm course of neuropsychological symptoms and ME/CFS after SARS-CoV-2-infection: a prospective registry study. Eur Arch Psychiatry Clin Neurosci (2023). https://doi.org/10.1007/s00406-023-01661-3

Weitere Informationen:
https://www.uniklinikum-jena.de/Post_COVID_Zentrum.html Interdisziplinäres Post-COVID-Zentrum am UKJ
https://long-covid-kongress.de 2. Long COVID-Kongress am 24.-25. November in Jena

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Glücklich durch den Job? Wie sich das Wohlbefinden beim Einstieg ins und Austritt aus dem Berufsleben verändert.

Lisa Schimmelpfennig Pressestelle
HMU Health and Medical University GmbH
Junge Erwachsene sind nach dem Berufseinstieg glücklicher, aber auch gestresster, während das Wohlbefinden bei älteren Personen nach dem Renteneintritt zunimmt. Das fanden die Psychologieprofessorinnen Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin in einer aktuellen Studie heraus.

Die Arbeit verleiht unserem Alltag Struktur und Sinn, kann aber auch stressig sein und unser Wohlbefinden belasten. Haben der Einstieg in und der Austritt aus dem Berufsleben also positive oder negative Folgen für unser Wohlbefinden? Das haben Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin untersucht.
Die Psychologinnen analysierten die Daten von über 2.700 jungen Erwachsenen und über 2.000 älteren Personen aus dem Sozio-oekonomischen Panel (SOEP), einer repräsentativen Langzeitstudie aus Deutschland. Ihre Ergebnisse zeigen, wie sich einzelne Facetten des Wohlbefindens in den fünf Jahren vor und fünf Jahren nach dem Einstieg in und Austritt aus dem Berufsleben verändern.
Die Wissenschaftlerinnen fanden heraus, dass Berufseinsteigende in den ersten fünf Jahren im Job glücklicher wurden, sich gleichzeitig aber auch häufiger ärgerten, vermutlich aufgrund von vermehrtem Stress. Bei älteren Erwachsenen nahm das Wohlbefinden in den fünf Jahren vor dem Ruhestand zunächst ab. In den Jahren danach waren sie jedoch zufriedener, glücklicher, weniger ängstlich und weniger oft verärgert als zuvor, was für eine Entlastung nach dem Renteneintritt spricht.
Zusammengefasst untermauern die Befunde, dass das Arbeitsleben tatsächlich ein zweischneidiges Schwert ist, das unser Wohlbefinden sowohl verbessern als auch verschlechtern kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Asselmann
Professur für Differentielle und Persönlichkeitspsychologie
E-Mail: eva.asselmann@health-and-medical-university.de

Originalpublikation:
Asselmann, Eva und Specht, Jule (2023): “Working life as a double-edged sword: Opposing changes in subjective well-being surrounding the transition to work and to retirement”, Emotion, DOI: https://doi.org/10.1037/emo0001290

(nach oben)


Wasser mit intelligentem Rost und Magneten reinigen

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Neue Methode für Schadstoffe wie Rohöl, Glyphosat, Mikroplastik und Hormone

Wird Rost ins Wasser geschüttet, wird es normalerweise schmutziger. Forscher/-innen der FAU haben spezielle Eisenoxid-Nanopartikel entwickelt, die es tatsächlich sauberer machen, sozusagen „intelligenter Rost“. Dieser Rost kann je nach Beschichtung der Partikel viele Stoffe anziehen, darunter Öl, Nano- und Mikroplastik sowie das Herbizid Glyphosat. Und weil die Nanopartikel magnetisch sind, können sie mit einem Magneten ganz einfach zusammen mit den Schadstoffen aus dem Wasser entfernt werden. Jetzt berichtet das Forschungsteam, dass sie die Partikel so verändert haben, dass sie Östrogenhormone einfangen, die potenziell schädlich für Wasserlebewesen sind.

Ihre Ergebnisse haben die Forscher auf der Herbsttagung der American Chemical Society (ACS) vorgestellt, die rund 12.000 Präsentationen zu einem breiten Spektrum wissenschaftlicher Themen bietet.

„Unser intelligenter Rost ist billig, ungiftig und recycelbar“, sagt Prof. Dr. Marcus Halik, Lehrstuhl für Werkstoffwissenschaften (Polymerwerkstoffe). „Und wir haben den Einsatz bei allen Arten von Verunreinigungen nachgewiesen und das Potenzial dieser Technik für eine drastische Verbesserung der Wasseraufbereitung aufgezeigt.“

Nanopartikel fangen Schadstoffe ein
Seit vielen Jahren erforscht Haliks Forschungsteam umweltfreundliche Möglichkeiten, Schadstoffe aus Wasser zu entfernen. Als Grundmaterial dienen Eisenoxid-Nanopartikel in superparamagnetischer Form: Das heißt, sie werden von Magneten angezogen, nicht aber voneinander, so dass die Partikel nicht verklumpen.

Um sie „intelligent“ zu machen, entwickelte das Team eine Technik, um Phosphonsäuremoleküle an die nanometergroßen Kügelchen zu binden. „Nachdem wir eine Schicht der Moleküle auf die Eisenoxidkerne aufgetragen haben, sehen sie aus wie Haare, die aus der Oberfläche dieser Partikel herausragen“, sagt Halik. Indem die Wissenschaftler/-innen dann ändern, was an der anderen Seite der Phosphonsäuren gebunden ist, können sie die Eigenschaften der Nanopartikeloberflächen so anpassen, dass sie verschiedene Arten von Schadstoffen stark adsorbieren.

Frühe Versionen des intelligenten Rosts fingen Rohöl aus Wasser aus dem Mittelmeer und Glyphosat aus Teichwasser ein, das die Forscherinnen und Forscher in der Nähe der Universität sammelten. Darüber hinaus zeigte das Team, dass der smarte Rost Nano- und Mikroplastik entfernen kann, das Labor- und Flusswasserproben zugesetzt wird.

Nach Rohöl, Glyphosat und Mikroplastik nun Hormone
Bisher konzentrierte sich die Gruppe auf Schadstoffe, die meist in großen Mengen vorhanden sind. Lukas Müller, ein Doktorand, der auf der Tagung seine neuen Arbeiten vorstellte, wollte wissen, ob er die Rost-Nanopartikel so modifizieren könnte, dass sie Spurenverunreinigungen wie Hormone anziehen.

Wenn einige unserer körpereigenen Hormone ausgeschieden werden, werden sie ins Abwasser gespült und gelangen schließlich in die Gewässer. Natürliche und synthetische Östrogene sind eine solche Gruppe von Hormonen, und die Hauptquellen dieser Schadstoffe sind Abfälle von Menschen und Nutztieren. Die Mengen an Östrogenen seien in der Umwelt sehr gering, so Müller, daher seien sie nur schwer zu entfernen. Doch selbst diese Konzentrationen beeinflussen nachweislich den Stoffwechsel und die Fortpflanzung einiger Pflanzen und Tiere, obwohl die Auswirkungen niedriger Konzentrationen dieser Verbindungen auf den Menschen über lange Zeiträume noch nicht vollständig erforscht ist.

Östrogene haften an Rostpartikeln an
„Ich habe mit dem häufigsten Östrogen Östradiol begonnen und dann vier weitere Derivate mit ähnlichen Molekülstrukturen untersucht“, sagt Müller. Östrogenmoleküle haben einen sperrigen Steroidkörper und Teile mit leicht negativen Ladungen. Um beide Eigenschaften zu nutzen, beschichtete er Eisenoxid-Nanopartikel mit zwei Gruppen von Verbindungen: einer langen und einer positiv geladenen. Die beiden Moleküle organisierten sich auf der Oberfläche der Nanopartikel, und die Forschungsgruppe geht davon aus, dass sie zusammen viele Milliarden winziger Taschen bilden, die das Östradiol ansaugen und an Ort und Stelle festhalten.

Da diese Taschen für das bloße Auge unsichtbar sind, hat Müller High-Tech-Instrumente verwendet, um die Existenz dieser Östrogen-einschließenden Taschen zu überprüfen. Vorläufige Ergebnisse zeigen eine effiziente Extraktion der Hormone aus Laborproben, aber die Forschenden müssen zusätzliche Experimente abwarten, um die Taschenhypothese zu überprüfen. „Wir versuchen anhand verschiedener Puzzleteile zu verstehen, wie sich die Moleküle tatsächlich auf der Oberfläche der Nanopartikel anordnen“, erklärt Müller.

Ansprechpartner für Medien:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Weitere Informationen:
http://www.fau.de/2023/08/news/wissenschaft/wasser-mit-intelligentem-rost-und-ma… Video zu den Forschungsergebnissen (Simulation von Prof. Dr. Dirk Zahn und Dr. Dustin Vivod vom Computer Chemistry Center der FAU)

(nach oben)


Forschungsprojekt für nachhaltigen Wasserverbrauch sucht Testhaushalte

Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT
Die Nutzung von Wasser überwachen, Sparpotenziale aufzeigen und die Verwendung von Regenwasser erforschen: Mit diesen Zielen leitet Fraunhofer FIT das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Projekt CrowdWater. Zweck des Projekts ist die Entwicklung einer regionalen Wasser-Datenplattform für die private, öffentliche sowie gewerbliche Nutzung. Für die Erarbeitung praxisnaher Lösungen werden aktuell etwa 30 Testhaushalte gesucht.

>>Wasser bewusst nutzen
Noch gibt es in Deutschland ausreichend Trinkwasser. Doch das Land trocknet infolge der globalen Erderwärmung langsam aus. Die Grundwasserbestände sinken. Ein Grund dafür ist nach Einschätzung des Umweltbundesamts die abnehmende Aufnahme- und Speicherfähigkeit des Erdbodens infolge von starken Klimaereignissen. Die genaue Entwicklung und ihre Folgen für bestimmte Gebiete lassen sich aktuell noch schwer abschätzen, da es keine präzise Informationslage über Wassermengen und den Einfluss von Sparmaßnahmen auf ausgewählte Regionen gibt.

Hier setzt das Projekt CrowdWater (Crowdbasiertes Monitoring und Vorhersage für nachhaltige Regen- & Trinkwassernutzung) an, indem es Sensordaten zum Kreislauf der Wassernutzung erfasst und verarbeitet. Ein umfassendes Monitoring in Echtzeit ermöglicht, dass Haushalte ihren Wassereinsatz erfolgreich planen und Wartungsarbeiten in Versorgungsunternehmen nutzengerechter durchgeführt werden können. Mit einem Angebot an Veranstaltungen und Lehrmaterialien wird CrowdWater darüber hinaus ein Grundverständnis von nachhaltiger Wassernutzung vermitteln, welche auch verfügbares Regenwasser mit einbezieht.

Zur Strategie des Projekts gehört die Verknüpfung intelligenter Messgeräte mit digitalen Werkzeugen. Innerhalb eines vielfältigen IoT-Netzwerks (Internet of Things oder Internet der Dinge) sollen zukünftig der genaue Bedarf an Wasser bestimmt und eventuelle Verluste identifiziert werden können. Dies gelingt unter anderem durch die Berücksichtigung aktueller Wetterdaten. Um den Verbrauch der lebenswichtigen Ressource in betrieblichen Prozessen zu ermitteln, sollen mobile Messkoffer zum Einsatz kommen.

>>Interaktiver Lösungsansatz dank Living Lab
Das Erfahrungswissen und die Lebenswirklichkeit von Verbraucherinnen und Verbrauchern spielen eine zentrale Rolle in der Erforschung ihrer Wassernutzung. CrowdWater möchte deshalb rund 30 Testhaushalte und drei bis sechs Unternehmen in einem Living Lab vernetzen. Ein Living Lab ist ein virtuelles Labor zur Forschung unter Realbedingungen. Die ausgewählten Haushalte werden mit entsprechender Sensorik ausgestattet, um Daten über die Umsetzbarkeit der Werkzeuge zu erheben und Anreizmechanismen zum Wassersparen zu testen.

Als Teilnehmende am Living Lab sollten Sie sich idealerweise für die Erforschung nachhaltiger Regen- und Trinkwassernutzung interessieren und zu einer aktiven Mitgestaltung bereit sein. Weiterhin werden vorwiegend Haushalte aus dem Rhein-Sieg-Kreis oder Nordrhein-Westfalen gesucht. Bei Interesse oder auch allgemeinen Fragen zum Projekt können Sie sich an unsere Living Lab Koordinatorin Anika Martin (anika.martin@fit.fraunhofer.de) wenden.

>>Breit gefächerte Beteiligung
Sowohl kommunale als auch wirtschaftliche Projektpartnerschaften bereichern CrowdWater mit Expertise und Ressourcen. Um das wichtige Thema Datenschutz sowie die Organisation der Living Labs kümmert sich das Fraunhofer-Institut für Angewandte Informationstechnik FIT. Die Stadtwerke Troisdorf, die Stadt Hennef und die Verbandsgemeindewerke Kirchen stellen sich für die praktische Umsetzung der Wassersparmaßnahmen zur Verfügung. Daran beteiligt ist auch die Biesenthal Wasserzähler GmbH, die mit den behördlichen Partnern technische Anforderungen herausarbeitet. Sie unterstützt deren Machbarkeitsuntersuchung und kooperiert so mit Fraunhofer FIT und der si-automation GmbH. Ebenfalls im Aufgabenbereich der si-automation GmbH liegt die Entwicklung und Testung vorläufiger Lösungen.

Weitere Informationen zum Projekt und aktuelle Infos finden Sie unter https://crowdwater.info

(nach oben)


Babyboomer arbeiten im Alter länger – aber noch Potenzial ab Alter 63

Dr. Christian Fiedler Pressestelle
Bundesinstitut für Bevölkerungsforschung (BiB)
Ältere Menschen länger im Erwerbsleben zu halten ist eine wesentliche Stellschraube, um dem Arbeitskräftemangel in Deutschland zu begegnen. Eine aktuelle Studie im renommierten Fachjournal Demography aus dem Bundesinstitut für Bevölkerungsforschung (BiB) in Zusammenarbeit mit dem Max-Planck-Institut für demografische Forschung (MPIDR) hat jetzt neue Berechnungen zur tatsächlich geleisteten Arbeitszeit älterer Personen vorgelegt. Das Ergebnis: In der Altersspanne zwischen 55 und 64 Jahren verbringen die Babyboomer deutlich mehr Zeit in bezahlten Jobs als dies in früheren Generationen der Fall war.

Bei einer für diese Altersgruppe rechnerisch maximal möglichen Erwerbsdauer von 10 Jahren in durchgehender Vollzeitbeschäftigung waren 1941 geborene Männer im Durchschnitt 5,3 Jahre erwerbstätig. Beim Geburtsjahrgang 1955, der zu den Babyboomern gehört, lag der entsprechende Wert mit 7,3 Jahren bereits zwei Jahre höher. Bei Frauen gab es fast eine Verdopplung von 2,6 auf 4,8 Jahre. In der ebenfalls betrachteten Altersspanne 65 bis 74 Jahre wurden ausgehend von einem niedrigen Niveau ebenfalls Anstiege verzeichnet. „Ein Großteil der in den letzten Jahrzehnten erfolgten Zuwächse konzentriert sich allerdings in den Altern 55 bis 63 Jahre“, erklärt Sebastian Klüsener, Forschungsdirektor am BiB. „Ab 64 Jahren sind die Anstiege deutlich geringer gewesen.“

Steigende Erwerbslebensdauer in allen betrachteten Gruppen
Wie aus der Studie weiter hervorgeht, ist die Erwerbslebensdauer bei allen untersuchten Gruppen gestiegen: bei Männern und Frauen, über alle Bildungs- und Berufsgruppen hinweg sowie für Erwerbstätige in Ost- und in Westdeutschland. Die geringsten Zuwächse wurden bei niedrigen Bildungs- und Berufsgruppen verzeichnet, die stärksten bei Fachkräften und gehobenen Fachkräften. Vor allem bei Menschen, die nach 1946 geboren wurden, hat sich die Erwerbslebensdauer kräftig verlängert. „Diese Entwicklung wird durch verschiedene Faktoren beeinflusst“, so Klüsener. „Hierzu zählen politische Reformen im Bereich von Arbeitsmarkt und Rente. Ein weiterer Faktor ist, dass die Babyboomer als Profiteure der nach 1970 erfolgten Bildungsexpansion ein höheres Bildungsniveau aufweisen und gesünder altern als vorherige Generationen.“

Bei den Geschlechtern gibt es starke Ost-West-Unterschiede
Bei einem Ost-West-Vergleich fallen deutliche Unterschiede zwischen Männern und Frauen auf: Bei den 1955 geborenen Personen hatten westdeutsche Männer mit 7,4 Jahren die höchste Erwerbslebensdauer im Alter zwischen 55 und 64 Jahren. Dagegen war diese bei westdeutschen Frauen mit 4,6 Jahren am niedrigsten. Zwischen den beiden Extremen lagen ostdeutsche Männer mit 6,8 Jahren und ostdeutsche Frauen mit 5,5 Jahren. „Die Unterschiede zwischen west- und ostdeutschen Männern gehen hauptsächlich auf abweichende Erwerbstätigenquoten zurück“, sagt Elke Loichinger, Forschungsgruppenleiterin am BiB. „Die Differenzen bei den Frauen erklären sich hingegen vorrangig durch Unterschiede bei den geleisteten Arbeitsstunden.“ So haben ältere westdeutsche Frauen zwar ähnlich hohe Erwerbstätigenquoten wie ältere ostdeutsche Frauen, letztgenannte absolvieren aber durchschnittlich deutlich mehr Stunden pro Woche. Hier scheint sich positiv auszuwirken, dass in den betrachteten Generationen ostdeutsche Frauen schon von einer gut ausgebauten Kinderbetreuung profitieren konnten, während viele westdeutsche Frauen mit der Mutterschaft ihre Arbeitszeit erheblich reduzierten.

Weiteres Potenzial für Anstiege vorhanden
Die ermittelten Werte zur durchschnittlichen Erwerbslebensdauer zeigen aber auch, dass weitere Potenziale für die Ausdehnung der Erwerbslebensdauer bestehen. Dies gilt allgemein für Erwerbstätigkeit im Alter von 63 und mehr Jahren und besonders für Frauen, gerade in Westdeutschland. „Ob diese Potenziale erschlossen werden können, hängt davon ab, inwieweit ein Verbleib im Arbeitsmarkt attraktiv und möglich ist“, so Loichinger. „Dabei spielt eine Vielzahl an Faktoren eine Rolle. Hierzu zählen beispielsweise arbeitsmarktpolitische Anreize, die Art der Tätigkeit oder die Flexibilität der Arbeitszeitgestaltung. Auch die Ausübung unbezahlter Sorgearbeiten innerhalb der Familie kann bezahlter Erwerbsarbeit entgegenstehen.“

Zur Methode
Das in Deutschland bisher nur selten verwendete Maß „Erwerbslebensdauer“ basiert auf einer Kombination von Erwerbstätigkeit und geleisteter Arbeitszeit – es gibt die Anzahl der Jahre an, in denen jemand einer bezahlten Tätigkeit nachgegangen ist. Ob Voll- oder Teilzeit gearbeitet wird, macht hier einen wichtigen Unterschied. Das Maß erlaubt, die Dauer des Erwerbslebens für den gesamten Lebensverlauf (in diesem Fall ist auch von „Lebensarbeitszeit“ die Rede) oder nur für bestimmte Altersabschnitte zu berechnen. Dies ermöglicht Einsichten zur Verlängerung des Erwerbslebens, die über die übliche Betrachtung der reinen Erwerbstätigenquoten hinausgehen. Für die Untersuchung wurden Daten des Mikrozensus der Geburtsjahrgänge 1941 bis 1955 analysiert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Klüsener
Sebastian.Kluesener@bib.bund.de

Dr. Elke Loichinger
Elke.Loichinger@bib.bund.de

Originalpublikation:
Dudel, Christian; Loichinger, Elke; Klüsener, Sebastian; Sulak, Harun; Myrskylä, Mikko (2023): The Extension of Late Working Life in Germany: Trends, Inequalities, and the East–West Divide.Demography.
https://doi.org/10.1215/00703370-10850040

(nach oben)


Dieselabgase schädigen Insekten: Bayreuther Tierökolog*innen erforschen erstmals die Auswirkungen auf Hummeln

Christian Wißler Pressestelle
Universität Bayreuth
Der Rückgang der Insekten bedroht weltweit viele Ökosysteme. Während die Auswirkungen von Pestiziden gut erforscht sind, fehlte es bisher an Erkenntnissen über die Folgen anderer anthropogener Schadstoffe. Tierökolog*innen der Universität Bayreuth haben jetzt erstmals die Auswirkungen von Dieselabgaspartikeln auf Hummeln untersucht. In zwei neuen Studien zeigen sie, dass diese Feinstaubpartikel den Organismus der Hummeln erheblich schädigen können, wenn sie dauerhaft über die Nahrung aufgenommen werden. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat die Forschungsarbeiten im Rahmen des Projektverbunds BayÖkotox gefördert.

Abgaspartikel von Diesel-Kraftfahrzeugen können beim Menschen zu Atemwegs- oder Lungenerkrankungen führen. In der freien Natur gelangen sie oftmals in den Nektar von Pflanzenblüten, von dem sich Hummeln und andere Insekten ernähren. Die Wissenschaftler*innen am Lehrstuhl für Tierökologie der Universität Bayreuth haben diese Konstellation im Labor nachgestellt. Als Modellorganismus wählten sie Hummeln der weit verbreiteten Art Bombus terrestris (Dunkle Erdhummel). In Kooperation mit dem Lehrstuhl für Technische Thermodynamik und Transportprozesse der Universität Bayreuth erzeugten sie in einem Vierzylinder-Dieselmotor, wie er häufig in PKWs vorkommt, Abgaspartikel, die durch Verbrennungsprozesse entstehen. Diese Partikel wurden dem Zuckerwasser beigemischt, mit dem die Hummeln im Labor täglich gefüttert wurden. Die Menge entsprach dabei der Menge von Dieselabgaspartikeln, wie sie bereits in Böden in der Nähe vielbefahrener Landstraßen nachgewiesen worden waren. Die Analyse der Partikel in den Bayreuther Laboratorien zeigte jetzt, dass sie teilweise aus elementarem Kohlenstoff bestehen, aber auch Schwermetalle und weitere organische Substanzen, wie polyzyklische aromatische Kohlenwasserstoffe (PAKs), enthalten. PAKs stehen im Verdacht, für den Menschen toxisch zu sein und die Entstehung von Krebs zu fördern.

Veränderungen des Mikrobioms im Darm: Indizien für eine Schwächung des Immunsystems
Nachdem die Hummeln sieben Tage lang bei jeder Mahlzeit auch Abgaspartikel zu sich genommen hatten, stellten die Wissenschaftler*innen eine erheblich veränderte Zusammensetzung des Darmmikrobioms fest: Von den Bakterienarten, welche normalerweise die hauptsächlichen Bestandteile der Darmflora von Hummeln bilden, waren einige viel häufiger, andere dagegen seltener anzutreffen. Insbesondere das Bakterium Snodgrassella, das für die Bildung eines den Darm schützenden Biofilms wichtig ist, war nur noch in sehr geringer Anzahl vorhanden. Derartige Veränderungen im Darmmikrobiom sind in der Forschung dafür bekannt, dass sie bei Insekten die Immunität und die Resistenz gegen Krankheitserreger schwächen können und damit deren Sterblichkeit erhöhen.

Sinkender Fettgehalt des Körpers und erhöhte Sterblichkeit
In einer weiteren Studie stand die Frage im Fokus, wie sich die Partikel auf das Immunsystem der Insekten auswirken. Zehn Tage lang nahmen die Hummeln Abgaspartikel zu sich, die dem Zuckerwasser in unterschiedlich hohen Konzentrationen beigemischt waren. Danach war ihr Fettgehalt im Vergleich mit Hummeln, die normales Futter erhielten, erheblich gesunken. „Der verringerte Fettgehalt ist ein Indiz dafür, dass die Partikel im Körper der Hummeln Entgiftungsprozesse auslösen, die mit einem erhöhten Energieverbrauch verbunden sind. Auch diese Untersuchungen legen die Schlussfolgerung nahe: Die tägliche Aufnahme von Abgaspartikeln über die Nahrung versetzt den Organismus der Hummeln in Stress. Wir haben beobachtet, dass sich ihre Sterblichkeit signifikant erhöht“, sagt der Erstautor Frederic Hüftlein M.Sc., Doktorand am Lehrstuhl für Tierökologie.

Veränderungen der Genexpression: Weiteres Indiz für eine energieintensive Stressreaktion
Ebenso zeigten sich deutliche Veränderungen der Genexpression, der von Genen gesteuerten Herstellung lebenswichtiger Proteine. Die Analyse des Transkriptoms – dies ist die Gesamtheit der zu einem bestimmten Zeitpunkt erzeugten RNA-Moleküle – ergab, dass sich die Expression von 324 Genen verändert hatte. Die Produktion von RNA-Molekülen wurde bei 165 Genen intensiviert, bei 159 Genen hingegen verringert. Die beobachteten Veränderungen können als Indizien dafür gewertet werden, dass die über einen längeren Zeitraum mit der Nahrung aufgenommenen Abgaspartikel Abbauprozesse im Organismus der Hummeln fördern, Prozesse der Biosynthese hingegen verlangsamen.

„Vieles spricht dafür, dass es sich bei der veränderten Genexpression um eine Stressreaktion handelt, welche die Energieressourcen der Insekten angreift und schwächt. An der Universität Bayreuth planen wir in nächster Zeit weitere Untersuchungen, um diese Zusammenhänge noch genauer aufzuklären. Dabei wollen wir nicht nur einzelne Insekten, sondern ganze Kolonien betrachten und zusätzlich zu den Dieselabgasen noch andere anthropogene Stressfaktoren in die Forschungsarbeiten einbeziehen“, sagt Prof. Dr. Heike Feldhaar, Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“ im Bayerischen Projektverbund BayÖkotox.

Schädigende Auswirkungen nur bei chronischer Aufnahme der Partikel über die Nahrung
Die Autor*innen der neuen Studien betonen, dass sich erhebliche Beeinträchtigungen der Hummeln durch Dieselabgase nur dann feststellen ließen, wenn die Partikel über die Nahrung aufgenommen wurden. Experimente, bei denen die Partikel von den Hummeln eingeatmet wurden, ergaben keine Hinweise auf gesundheitliche Schäden. „Wenn die Hummeln einmalig oder nur im Verlauf von 48 Stunden mehrmals mit den Partikeln gefüttert wurden, blieben messbare signifikante Reaktionen aus. Auch der Fettgehalt im Körper der Hummeln änderte sich kaum. Entscheidend für eine Schädigung der Hummeln ist, dass die Aufnahme der Abgaspartikel chronisch ist, sich also innerhalb eines längeren Zeitraums wiederholt. Wenn Pflanzen und Böden belastet sind, ist eine chronische Exposition mit den Schadstoffen denkbar“, berichtet Dr. Matthias Schott vom Lehrstuhl für Tierökologie.

Die Autor*innen weisen zudem darauf hin, dass unter natürlichen Bedingungen auch eine nicht-tödliche Wirkung der Abgaspartikel für Hummeln problematisch sein kann. Denn meistens sind Hummeln in der Umwelt mehreren Stressfaktoren gleichzeitig ausgesetzt, beispielsweise weiteren Umweltschadstoffen wie Pestiziden oder auch hohen Tagestemperaturen im Sommer.

Interdisziplinäre Zusammenarbeit in Bayreuth
„Seit etwa zehn Jahren ist in zahlreichen Regionen der Erde ein rascher Rückgang der Insekten zu beobachten. Diese Entwicklung ist besorgniserregend, weil Insekten viele wichtige Ökosystemfunktionen wie Bestäubung, Zersetzung von organischem Material und Schädlingsbekämpfung erfüllen oder dazu beitragen. Sie bilden zudem ein unentbehrliches Glied in den Nahrungsnetzen. Mittlerweile ist klar, dass die Umweltverschmutzung einer der Hauptgründe für diesen Rückgang ist. An der Universität Bayreuth wollen wir mit unseren Kompetenzen dazu beitragen, die Zusammenhänge von Ursachen und Wirkungen auch auf molekularer und zellbiologischer Ebene aufzuklären“, sagt Prof. Dr. Christian Laforsch vom Lehrstuhl für Tierökologie und verweist auf die enge interdisziplinäre Zusammenarbeit im Projekt BayÖkotox.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Heike Feldhaar
Lehrstuhl für Tierökologie I
Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“
im Projektverbund BayÖkotox
Universität Bayreuth
Telefon: +49 (0)921 / 55-2645
E-Mail: heike.feldhaar@uni-bayreuth.de

Dr. Matthias Schott
Lehrstuhl für Tierökologie I
Universität Bayreuth
Telefon: +49 (0)921 / 55-2654
E-Mail: matthias.schott@uni-bayreuth.de

Originalpublikation:
Dimitri Seidenath et al.: Diesel exhaust particles alter gut microbiome and gene expression in the bumblebee Bombus terrestris. Ecology and Evolution (2023), DOI: https://doi.org/10.1002/ece3.10180

Frederic Hüftlein et al.: Effects of diesel exhaust particles on the health and survival of the buff-tailed bumblebee Bombus terrestris after acute and chronic oral exposure. Journal of Hazardous Materials (2023), DOI: https://doi.org/10.1016/j.jhazmat.2023.131905

(nach oben)


Pflege vor dem Kollaps? – 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege

Dr. Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Pflege vor dem Kollaps? PRO*PFLEGE und die Digitalisierung stehen bei der 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege am 6. und 7. November an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen als Lösungen für die Gesundheit von Pflegefachpersonen zur Diskussion.

Die pflegerische Versorgung ist deutschlandweit gefährdet. Oft gehen Pflegefachpersonen bis an ihre Grenzen, um den verbreiteten Personalmangel aufzufangen. Dabei sind sie hohen gesundheitlichen Belastungen ausgesetzt. Innovative und professionelle Lösungen, die Handlungswege aufzeigen und ihre Gesundheit stärken, sind zwingend erforderlich.

Die 3. Fachtagung Gesundheitsförderung und Prävention stellt erneut Wege für die Pflege vor. Unter dem Motto ‚Wollen wir Treiber oder Getriebene sein?‘ wird am 6. und 7. November 2023 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen (HWG LU) gezeigt, dass Pflegeethik, Gesundheitsförderung und Professionalität im Zusammenspiel mit der Digitalisierung helfen können. Sie ermöglichen Pflegefachpersonen, ihren Heilberuf Pflege selbst zu gestalten. Das Forschungsnetzwerk Gesundheit der HWG LU hat Expert*innen aus Politik, Wissenschaft, Management und IT eingeladen, mit den Pflegefachpersonen in die Diskussion zu gehen.

Die Tagungsreihe ist ein Beitrag zur Fachkräfte- und Qualifizierungsinitiative Pflege 2.1 des Landes Rheinland-Pfalz, angesiedelt im Ministerium für Arbeit, Soziales, Transformation und Digitalisierung. Staatsminister Alexander Schweizer wird sich in seinem Grußwort der Digitalisierung in der Pflege widmen. Staatssekretär Dr. Fedor Ruhose wird zum Abschluss des vom Land geförderten Pilotprojektes PRO*PFLEGE sprechen. „Wir freuen uns sehr, dass die Fachtagung wieder an unserer Hochschule stattfindet und Innovation und Wertschätzung für die Pflege in den Fokus stellt“, betont Prof. Dr. Gunther Piller, Präsident der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen.

Die beiden Tage zeigen zwei eng miteinander verwobene Bausteine zur Förderung der Gesundheit. Am ersten Tag liegt der Fokus auf PRO*PFLEGE. Die Ergebnisse der erfolgreichen Fachtagungen 2019 und 2020 ergaben den dringenden Bedarf eines passgenauen Bildungsformats. PRO*PFLEGE verbindet Pflegeethik, Gesundheitsförderung und Professionalität. Der Zertifikatskurs bietet Pflegefachpersonen mannigfaltige Ressourcen zur Steigerung ihrer Handlungsfähigkeit und der Resilienz im Pflegeunternehmen. Gefördert vom Land Rheinland-Pfalz, der Unfallkasse RLP und der Franziskusstiftung für Pflege entwickelte das Forschungsnetzwerk Gesundheit mit Unterstützung der Graduate School Rhein-Neckar PRO*PFLEGE. Im April 2023 startete der Pilotdurchlauf, hochqualifizierte Expert*innen konnten als Kooperationspartner gewonnen werden. An diesem Tag geben sie Einblicke in Instrumente zum Umgang mit psychischer Belastung und Gewalt in der Pflege und zeigen die Ressourcen, die Pflegeethik, Personal- und Organisationsentwicklung und das Betrieblichen Gesundheitsmanagement bieten. Kursteilnehmende stellen ihre entwickelten Konzepte zum Gesundheitsförderung im Pflegeunternehmen vor.

Der zweite Tag schließt unmittelbar an den Unterstützungsgedanken an: Beleuchtet wird das Megathema Digitalisierung in der Pflege und hinterfragt, ob sie Herausforderung oder Chance für die Gesundheit von Pflegefachpersonen ist. Förderer ist die Unfallkasse Rheinland-Pfalz. Fachleute aus Pflegewissenschaft, Pflegepädagogik und IT in der Pflege werden Projekte, Studien und Tools für die Pflege vorstellen. Zur Diskussion stehen, inwiefern die Digitalisierung Einfluss auf Arbeitszufriedenheit und Berufsverbleib von Pflegefachpersonen hat; ob digitale Technologien die Pflegepraxis beispielsweise bei der Versorgung vom Menschen mit Demenz unterstützen können, ohne die Beziehungsarbeit zu verdrängen; ob digitale Lernformate die Pflegebildung fördern können und ob die Pflegebeziehung durch die Nutzung digitaler Instrumente im Pflegeprozess gestärkt wird. Auf dem Marktplatz der Möglichkeiten können die digitalen Lösungen ausprobiert und mannigfaltige Informationen rund um die Themen Gesundheitsförderung, Prävention und Digitalisierung eingeholt werden.

„Mit dieser dritten Fachtagung geben wir der professionellen und gesunden Pflege die verdiente Bedeutung, greifen die Sorgen der Pflegefachpersonen auf, die Personalmangel, Pandemie und Digitalisierung bringen und zeigen konkrete Beispiele und Methoden für ihre jeweilige Praxis auf“, erläutert Organisatorin Dr. Andrea Kuhn vom Forschungsnetzwerk Gesundheit der Hochschule das Tagungskonzept.

Die Veranstaltung beginnt am 6. November um 11.30 Uhr, am 7. November um 9.00 Uhr und endet um circa 17.30 Uhr. Sie findet in der Aula der Hochschule im A-Gebäude, Ernst-Boehe-Straße 4, 67059 Ludwigshafen, statt. Die Anmeldung erfolgt unter https://www.veranstaltungen.hwg-lu.de/event/3-fachtagung-gesundheitsforderung-un…

Aus organisatorischen Gründen ist diese bis zum 27. Oktober 2023 möglich.

Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsnetzwerk Gesundheit
Dr. Andrea Kuhn – Projektleitung
E-Mail: andrea.kuhn@hwg-lu.de
Tel.: +49 621 5203 244

Weitere Informationen:
https://forschungsnetzwerk-gesundheit.hwg-lu.de/kommunikation/gesundheitsfoerder…

Anhang
Programm Fachtagung Gesundheitsförderung und Prävention in der Pflege

(nach oben)


Künstliche Intelligenz an menschliche Bedürfnisse anpassen

Lena Bender Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Pierre-Alexandre Murena ist neuer Professor an der TU Hamburg.

„Meine Vision im Umgang mit Künstlicher Intelligenz (KI) ist, den Menschen und das KI-System als ein Team zu betrachten, das ein gemeinsames Ziel anstrebt. Sie sollen sich im Umgang miteinander als Partner verstehen, die sich gegenseitig Hinweise geben, sich korrigieren und relevante Informationen austauschen.“ Das sagt Pierre-Alexandre Murena, neuer Juniorprofessor an der TU Hamburg. Seine Arbeit zielt genau auf die Schnittstelle zwischen dem maschinellen Lernen in seiner jetzigen Form und seinen Nutzerinnen und Nutzern ab. Der Mathematiker und Informatiker befasst sich mit menschenzentrierter Künstlicher Intelligenz. Was heute in aller Munde ist, hatte vor zehn Jahren noch einen Exotenstatus. Murena berichtet: „Als ich damals mein Interesse an KI erwähnte, fragten mich die Leute nach Terminator und Science-Fiction-Szenarien. Heute erzählen sie mir von ihren Versuchen, Künstliche Intelligenzen wir ChatGPT oder Midjourney zu nutzen. Das ist eine enorme Entwicklung, und ich denke, es ist wichtig, die Menschen dabei zu begleiten.“ Murenas Ziel ist, die KI stärker auf den Menschen auszurichten, um die Nutzung von KI-Tools für Wissenschaftler und Ingenieure zu erleichtern, die maschinelle Lernmodelle für ihre Forschung benötigen. All dies ist in der Praxis äußerst komplex: weil Interaktionen eher kurz sind und der KI nicht genügend Zeit gegeben wird, etwas zu lernen; und weil kognitive Modelle komplex sind und das Erlernen ihrer Parameter oft schwierig bis unmöglich ist.

„Die KI zu trainieren ist manchmal frustrierend“
In einer Beziehung unterscheidet sich der Mensch von der KI: Menschen interpretieren, was andere sagen, dadurch können Aussagen ungenau oder sogar falsch werden. „Sich anzupassen ist eine Fähigkeit, die wir haben, sie fehlt der KI. Diese Lücke soll eine menschenzentrierte KI einmal schließen. Aber der Weg dahin ist manchmal frustrierend, weil es so einfach zu sein scheint, aber schwierig zu erreichen ist!“, so Murena. „Obwohl die Frage der menschenzentrierten KI meiner Meinung nach in den kommenden Jahren eine große Herausforderung darstellen wird, liegt der Fokus der meisten Universitäten und Forschungszentren nach wie vor auf der Entwicklung starker autonomer maschineller Lernsysteme. Die Tatsache, dass die TU Hamburg eine Stelle zu diesem Thema eingerichtet hat, war für mich ein gutes Zeichen, dass die Universität diesen wichtigen Wandel voraussieht.“

KI für die Kunst
Prof. Murena studierte Angewandte Mathematik und Informatik an der Ecole Polytechnique und der Ecole Normale Supérieure in Cachan (Frankreich) und er promovierte an der Université Paris-Saclay. Danach zog es ihn als Postdoc für drei Jahre nach Finnland, an die Aalto University und die Universität Helsinki. Dort wirkte er an verschiedenen Projekten im Bereich des maschinellen Lernens mit Menschen mit und leitete eine Forschungsgruppe am Finnish Center for Artificial Intelligence (FCAI). „Ich habe mich schon immer für Naturwissenschaften interessiert, vor allem für die Mathematik. Aber ich habe noch eine andere Leidenschaft, nämlich die Kunst.“, so Murena. Beides versucht er zu verbinden und unterstützt Kunst Schaffende, mit KI zu arbeiten. Außerhalb der Universität kann man Murena im Hafengebiet antreffen, wo er alte Industriebeuten fotografiert. Daneben geht er gerne ins Kino, spielt Klavier, kocht oder bereitet mit seiner Eismaschine leckere Sorten zu.

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Start für europaweites Projekt zur Verbesserung der Patientenversorgung in Mitteleuropa

Annechristin Bonß Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden und die Carus Consilium Sachsen GmbH haben sich mit neun internationalen Experten aus sechs europäischen Ländern zusammengeschlossen, um gemeinsam in den nächsten drei Jahren patientenorientierte digitale Lösungen im Gesundheitssektor voranzutreiben.

Mit Unterstützung des Programms Interreg Central Europe werden im Rahmen des Projekts „Health Labs4Value“ fünf nationale Living Labs in Ungarn, Slowenien, der Tschechischen Republik, Deutschland und Polen eingerichtet. Diese Living Labs werden als Kooperationsräume dienen, in denen Gesundheitsorganisationen, Unternehmen, politische Entscheidungsträgerinnen und -träger, Patientinnen und Patienten sowie ihre Familien gemeinsam digitale Lösungen zur Verbesserung der Patientenversorgung entwickeln und testen können. Alle Living Labs werden ein länderübergreifendes Netzwerk bilden, um den Wissens- und Erfahrungsaustausch unter der Leitung des österreichischen Wissenspartners zu erleichtern. „Das Projekt Health Labs4Value ist eine einzigartige Gelegenheit, alle wichtigen Akteure im Gesundheitswesen zusammenzubringen, um gemeinsam an der Verbesserung der Patientenversorgung zu arbeiten“, so der Projektkoordinator István Hegedűs von CTRIA (Central Transdanubian Regional Innovation Agency) aus Ungarn. Die internationale Zusammenarbeit verschiedener Expertenteams aus Mitteleuropa bringt viele Vorteile mit sich. „Die Hochschulmedizin Dresden setzt schon lange auf die Vernetzung mit Akteurinnen und Akteuren der Krankenversorgung. Dies machen wir nicht nur in der Region, sondern auch über die Grenzen Sachsens und Deutschland hinaus. Mit diesen wertvollen Kooperationen kommen wir mit guten Partnern zusammen, nutzen Synergien und schaffen die Voraussetzung für eine moderne Patientenversorgung“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Carl Gustav Carus Dresden.

Vorteile der interdisziplinären Zusammenarbeit
– Entwicklung kosteneffektiver und nachhaltiger Versorgungsstrategien, um sicherzustellen, dass Patientinnen und Patienten sowie ihre Familien Zugang zu angemessener Behandlung erhalten.
– Verbesserung der Patientensicherheit
– Übergang von einem krankheitszentrierten zu einem personenzentrierten Ansatz – mit hohem Nutzen für die Patientinnen und Patienten.
– Verbesserung der Zusammenarbeit entlang der Wertschöpfungskette des Gesundheitssystems.

Nationale Living Labs
Auf nationaler Ebene werden die Living Labs spezifische Herausforderungen identifizieren und lokale Bedürfnisse ansprechen.
– Slowenien: Das Living Lab in Slowenien soll es Patientinnen und Patienten mit konservativ behandelten Verletzungen ermöglichen, die Qualität ihrer Rehabilitation in ihrer häuslichen Umgebung zu verbessern.
– Deutschland: Das Living Lab in Deutschland wird sich mit der Unterstützung älterer Menschen befassen, damit diese so lange wie möglich selbständig und (fast) unabhängig in ihrer häuslichen Umgebung leben können.
– Polen: Das Living Lab in Polen zielt darauf ab, die Arbeit des medizinischen und nicht-medizinischen Personals in der Verwaltung und im Patientenservice durch Digitalisierung und den Einsatz neuer Technologien wie biometrischer Unterschriften zu rationalisieren.
– Ungarn: Das Living Lab in Ungarn zielt darauf ab, die Abläufe in der ambulanten und stationären Versorgung, einschließlich der ärztlichen Untersuchung sowie der prä- und postoperativen Verfahren, durch Automatisierung des Fallmanagements und innovative digitale Systeme zu optimieren.
– Tschechische Republik: Das Living Lab in der Tschechischen Republik wird sich auf neue Technologien konzentrieren, die die Kommunikation über die Langzeitbehandlung, die Aufklärung und die häusliche Pflege chronischer Patientinnen und Patienten mit Technologien unterstützen, die helfen, den Zustand der Patientinnen und Patienten in einer häuslichen Umgebung zu überwachen und bei Bedarf direkten Kontakt mit medizinischem Fachpersonal aufzunehmen.

Über Health Labs4Value
Das Projekt Health Labs4Value hat eine Laufzeit von drei Jahren und verfügt über ein Budget von 2,19 Mio. EUR. Das Ziel des Innovationsprojektes ist die Verbesserung der Patientenversorgung, die Sicherheit und die Effizienz. Die neu eingeführten digitalen Versorgungslösungen werden so auch erhebliche Auswirkungen auf den Gesundheitssektor in Europa und Deutschland haben.

Über das Universitätsklinikum Carl Gustav Carus Dresden
Als Krankenhaus der Maximalversorgung deckt das Universitätsklinikum Dresden das gesamte Spektrum der modernen Medizin ab. 26 Kliniken und Polikliniken, vier Institute und 17 interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten ermöglichen medizinische Versorgung auf höchstem Niveau. Mit 1.410 Betten und 210 Plätzen für die tagesklinische Behandlung von Patienten ist es das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 1.000 Ärztinnen und Ärzte sowie 2.000 Schwestern und Pfleger kümmern sich um das Wohl der Patientinnen und Patienten.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Projektmanagerin: Ulrike Sobczak
Tel.: 0351 458 3729
E-Mail: ulrike.sobczak@ukdd.de
www.uniklinikum-dresden.de

Weitere Informationen:
http://Weitere Informationen zum Projekt Health Labs4Value:
http://www.interreg-central.eu/projects/health-labs4value
http://www.facebook.com/HealthLabs4Value
http://www.linkedin.com/groups/9346332/

(nach oben)


Wie Bäume die Wolkenbildung beeinflussen

Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Im Rahmen des internationalen CLOUD-Projekts am Kernforschungszentrum CERN haben Forschende des PSI sogenannte Sesquiterpene – gasförmige Kohlenwasserstoffe, die von Pflanzen emittiert werden – als wesentlichen Faktor der Wolkenbildung identifiziert. Die Erkenntnis könnte helfen, die Unsicherheiten von Klimamodellen zu reduzieren und präzisere Vorhersagen zu treffen. Die Studie erscheint jetzt im Fachmagazin Science Advances.

1,5 bis 4,4 Grad Celsius globale Klimaerwärmung bis 2100 im Vergleich zur vorindustriellen Zeit – so lautet die aktuelle Prognose des Weltklimarates IPCC. Sie basiert auf verschiedenen Szenarien, wie sich die Treibhausgasemissionen der Menschheit entwickeln. Im besten Fall, wenn wir die Emissionen schnell und radikal eindämmen, erreichen wir also noch das 1,5-Grad-Ziel des Pariser Klimaabkommens. Im schlechtesten Fall liegen wir weit darüber. Wobei auch diese Aussagen jeweils mit Unsicherheiten behaftet sind. So könnte der Temperaturanstieg im ungünstigsten Fall mit weiterhin stark ansteigenden Emissionen anstatt bei 4,4 Grad auch nur bei 3,3 oder aber sogar bei 5,7 Grad Celsius liegen.

Diese Unsicherheiten der Klimavorhersagen, wie sich die Temperatur bei konkreter Entwicklung der Treibhausgase verändern wird, liegen im Wesentlichen daran, dass die Wissenschaft noch nicht alle Vorgänge in der Atmosphäre – das Zusammenspiel der verschiedenen in ihr enthaltenen Gase und Schwebstoffe – im Detail verstanden hat. Dies aufzuklären ist das Ziel des CLOUD-Projekts (Cosmics Leaving Outdoor Droplets), das Atmosphärenforschende in einer internationalen Kooperation am Kernforschungszentrum CERN in Genf durchführen. Das PSI hat die CLOUD-Kammer mit gebaut und gehört zum Lenkungsausschuss des Projekts.

Mysterium Wolkenbildung
Vor allem, wie sich die Bedeckung mit Wolken in Zukunft entwickeln wird, bleibt bislang noch weitgehend nebulös. Sie ist jedoch ein wesentlicher Faktor für das Klima, da mehr Wolken mehr Sonnenstrahlung reflektieren und dadurch einen kühlenden Effekt auf die Erdoberfläche haben.
Um die Wassertröpfchen, aus denen Wolken bestehen, zu bilden, braucht Wasserdampf feste oder flüssige Partikel, an denen er kondensieren kann, sogenannte Kondensationskeime. Das sind komplexe Aerosole, winzig kleine, feste oder flüssige Partikel mit einem Durchmesser zwischen 0,1 und 10 Mikrometern, die sowohl durch Prozesse in der Natur als auch durch uns Menschen verursacht und in die Luft emittiert werden. Diese Partikel können Salz aus dem Meer, Sand aus der Wüste, Schadstoffe aus Industrie und Verkehr oder Russpartikel von Feuern enthalten. Etwa die Hälfte der Kondensationskeime aber entsteht erst in der Luft, indem sich verschiedene gasförmige Moleküle verbinden und dabei in den festen Aggregatzustand übergehen, ein Phänomen, das Fachleute „Nukleation“ oder „New Particle Formation“ (NPF) nennen, also auf Deutsch Partikelneubildung. Solche Partikel sind zu Anfang noch winzig, kaum grösser als ein paar Nanometer, können mit der Zeit aber durch die Kondensation gasförmiger Moleküle wachsen und Kondensationskeime werden.

Klimagase, die man riechen kann
Der Hauptteil der vom Menschen emittierten Gase, die zur Partikelneubildung beitragen, ist Schwefeldioxid in Form von Schwefelsäure, das vor allem aus der Verbrennung von Kohle und Öl stammt. Zu den wichtigsten natürlichen Gasen, die eine Rolle spielen, gehören sogenannte Isoprene, Monoterpene und Sesquiterpene. Das sind Kohlenwasserstoffe, die vor allem von der Vegetation freigesetzt werden. Sie sind wesentliche Bestandteile der ätherischen Öle, die wir riechen, wenn zum Beispiel Gras geschnitten wird oder wir im Wald spazieren gehen. Wenn diese Substanzen in der Luft oxidieren, bilden sie Partikel.
„Zu beachten ist, dass die Konzentration des Schwefeldioxids in der Luft in den letzten Jahren durch strengere Umweltgesetze deutlich geringer geworden ist und auch weiterhin abnehmen wird“, sagt Lubna Dada, Atmosphärenwissenschaftlerin am PSI. „Die Konzentration der Terpene dagegen nimmt zu, weil Pflanzen unter Stress mehr davon freisetzen – beispielsweise wenn Temperaturen und Wetterextreme zunehmen und die Vegetation häufiger Dürren ausgesetzt ist.“ Die grosse Frage für die Verbesserung der Klimaprognosen ist also, welcher Faktor überwiegt, sodass die Wolkenbildung zunehmen oder abnehmen wird. Und dazu müsste man bei jeder dieser Substanzen wissen, welchen Beitrag sie bei der Partikelneubildung leisten. Zu Schwefelsäure weiss man schon viel, und auch die Rolle von Monoterpenen und Isopren ist dank Feldmessungen und Kammerversuchen wie CLOUD, an denen das PSI beteiligt war, inzwischen besser bekannt.

Sesquiterpene sind selten, aber effektiv
Sesquiterpene befanden sich bislang noch nicht im Fokus der Forschung. „Das liegt daran, dass sie recht schwer zu messen sind“, erklärt Dada. „Zum einen, weil sie sehr schnell mit Ozon reagieren, und zum anderen, weil sie viel seltener vorkommen als die anderen.“ Während pro Jahr rund 465 Millionen Tonnen Isopren und 91 Millionen Tonnen Monoterpene ausgestossen werden, kommen Sesquiterpene nur auf 24 Millionen Tonnen. Dennoch – das hat die neue Studie, deren Hauptautorin Dada ist, ergeben – spielen diese Verbindungen bei der Wolkenbildung eine wichtige Rolle. Laut der Messungen bilden sie bei gleicher Konzentration zehnmal mehr Partikel als die anderen beiden organischen Substanzen.

Um das herauszufinden, hat Dada mit ihren Koautoren die einzigartige CLOUD-Kammer am Kernforschungszentrum CERN genutzt. Dabei handelt es sich um einen abgeschotteten Raum zur Simulation verschiedener atmosphärischer Bedingungen. „Mit fast 30 Kubikmetern ist diese Klimakammer im Vergleich zu anderen ähnlichen Einrichtungen weltweit die reinste ihrer Art“, sagt Dada. „So rein, dass sie die Untersuchung von Sesquiterpenen auch dann ermöglicht, wenn die geringe Konzentration in der Atmosphäre nachgestellt wird.“

Genau das war das Ziel der Studie. Sie sollte die biogene Partikelbildung in der Atmosphäre simulieren. Und zwar so, wie sie in vorindustrieller Zeit stattfand, als es noch keine menschlichen Schwefeldioxid-Emissionen gab. Im Vergleich zu heute lässt sich so der menschliche Einfluss klarer herausarbeiten und in die Zukunft projizieren. In der Natur ist das Schwefeldioxid des Menschen jedoch längst überall. Auch deswegen kam nur die CLOUD-Kammer infrage. Zudem lässt sich dort unter kontrollierten Bedingungen eine vorindustrielle Mischung herstellen.

Dauerhafte Partikel führen zu mehr Wolken
Und so zeigte sich bei den Versuchen, dass in reiner Luft die Oxidation einer natürlichen Mixtur von Isopren, Monoterpenen und Sesquiterpenen eine grosse Vielfalt von organischen Verbindungen produziert – sogenannte ULVOC (Ultra-Low-Volatility Organic Compounds). Diese Moleküle sind wenig flüchtig und bilden daher sehr effizient Partikel. Der enorme Effekt der Sesquiterpene offenbarte sich, als die Forschenden ihnen Isopren und Monoterpene hinzumischten: Schon bei nur zwei Prozent Zugabe verdoppelte sich die Rate der Partikelneubildung. „Erklären lässt sich das damit, dass ein Sesquiterpen-Molekül 15 Kohlenstoffatome enthält, während Monoterpene nur zehn und Isopren fünf enthalten“, sagt Dada.

Die Studie offenbart einerseits einen weiteren Faktor, mit dem die Vegetation Wetter und Klima beeinflussen kann. Vor allem aber schlagen die Forschenden aufgrund ihrer Ergebnisse vor, neben Isopren und Monoterpenen künftig auch die Sesquiterpene als eigenen Faktor in die Klimamodelle aufzunehmen, um die Prognosen zu verbessern. Zumal mit der Abnahme der Schwefeldioxid-Konzentration in der Atmosphäre und gleichzeitig steigenden biogenen Emissionen infolge von Klimastress die Rolle letzterer für das Klima der Zukunft immer wichtiger werden dürfte. Allerdings sind für die weitere Verbesserung der Vorhersagen zur Wolkenbildung auch noch andere Studien notwendig. Diese sind am Labor für Atmosphärenchemie bereits in Planung. „Als Nächstes“, sagt Imad El Haddad, Gruppenleiter für Molekulare Prozesse in der Atmosphäre, „wollen wir mit unseren CLOUD-Partnern schauen, was damals im Zuge der Industrialisierung genau geschah, als die natürliche Atmosphäre zunehmend mit anthropogenen Gasen wie Schwefeldioxid, Ammoniak und anderen anthropogenen organischen Verbindungen vermischt wurde.“

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Zukunftstechnologien, Energie und Klima, Health Innovation und Grundlagen der Natur. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2200 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 420 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL. Einblick in die spannende Forschung des PSI mit wechselnden Schwerpunkten erhalten Sie 3-mal jährlich in der Publikation 5232 – Das Magazin des Paul Scherrer Instituts.

Wissenschaftliche Ansprechpartner:
Dr. Lubna Dada
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 53 17, E-Mail: lubna.dada@psi.ch [Englisch]

Dr. Imad El Haddad
Gruppenleiter für Molekulare Prozesse in der Atmosphäre
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 95, E-Mail: imad.el-haddad@psi.ch [Englisch/Französisch]

Originalpublikation:
Role of sesquiterpenes in biogenic new particle formation
Lubna Dada et al.
Science Advances, 08.09.2023
DOI: 10.1126/sciadv.adi5297

Weitere Informationen:
https://www.psi.ch/de/node/59053?access-token=3CsVBZFi88essJqk

(nach oben)


Weltrekord: Reichweitenstärkstes Elektroauto der Welt kommt aus München

Andreas Huber Corporate Communications Center
Technische Universität München
Studierende der Technischen Universität München (TUM) haben das reichweitenstärkste Elektroauto der Welt entwickelt. Das Team fuhr über 2573 Kilometer mit einer Akkuladung. Im Zuge der IAA Mobility kämpfte das Team am Flughafen München um den neuen Weltrekord und konnte den Titel erfolgreich nach München holen. Ganze sechs Tage dauerte der Versuch, für den das Team auf Feldbetten im Flughafenhangar schlief.

Es war ein Marathon und kein Sprint, der dem TUfast Eco Team bevorstand, um einen neuen Weltrekord an die TUM zu holen. Sechs Tage sollte es schließlich dauern, bis feststand: Das reichweitenstärkste Elektroauto der Welt kommt aus München. Für den Guinness-Weltrekord modifizierte die Studierendeninitiative den „muc022“, mit dem das Team bereits an Wettbewerben für effiziente Elektroautos teilnahm. Dabei setzen die Studierenden vor allem auf eine durchdachte Aerodynamik und auf Leichtbau. Damit das Fahrzeug weltrekordtauglich wurde, bauten die jungen Ingenieur:innen einen größeren Akku ein, der 15,5 Kilowattstunden leistet.

Um die Rekordfahrt zu ermöglichen, stellte der Flughafen München einen leeren Flugzeughangar zur Verfügung. Der Hangar garantierte dem Team, auch bei schlechten Wetterbedingungen den Rekord einzufahren. Die Messlatte des bisherigen Rekordhaltenden lag bei 1608,54 Kilometern. Diese Strecke konnten die Münchner bereits nach vier Tagen zurücklegen. Da der Akku des muc022 aber noch nicht leer war, fuhr das Team weiter. Am Ende standen nach 99 Stunden Fahrzeit 2.573,79 Kilometer auf dem Tacho. Übersetzt bedeutet das Resultat auch, dass das TUfast Eco Team einen Verbrauch von 0,6 Kilowattstunden auf 100 Kilometer verzeichnen kann. Zum Vergleich: Extrem sparsame Serienfahrzeuge verbrauchen rund 13 kWh auf 100 Kilometer.

Wissenschaftsminister und TUM-Präsident gratulieren
Wissenschaftsminister Markus Blume gratuliert: „Weltrekord für die TUM! Herzlichen Glückwunsch an das TUfast Eco Team zu diesem grandiosen Erfolg. Wir sind stolz auf die Studentinnen und Studenten. Sie machen den einzigartigen TUM-Spirit aus. Und wir sind stolz auf unsere Spitzenuniversität, die Pioniergeist fordert und fördert. An der TUM gilt: Studieren und Probieren. Das Ergebnis: Internationale Ingenieurskunst made in Bavaria. Mit dem Weltrekord beweisen unsere Studentinnen und Studenten nicht nur sportlichen Ehrgeiz. Dahinter steckt mehr: Sie wollen die Zukunft der Mobilität nachhaltig gestalten.“

TUM-Präsident Thomas F. Hofmann gratuliert zum Weltrekord: „Das reichweitenstärkste Elektroauto der Welt kommt aus München! An der TUM fördern wir studentische Initiativen unterschiedlichster Fachrichtungen und bieten Raum für Kreativität neben dem Studium. Dass unsere Teams dabei immer wieder Spitzenleistungen erbringen, macht mich besonders stolz. Es bestätigt aber auch, dass wir in der Lehre vieles richtig machen. Studentische Gruppen bringen zusätzliches Leben auf den Campus und fördern Talente zum Teil schon während des Bachelorstudiums. Meine Gratulation an das TUfast Eco Team zu diesem Weltrekord!“

TUfast Eco Team erfolgreich in internationalen Wettbewerben
Neben Rekordversuchen nimmt das TUfast Eco Team regelmäßig an internationalen Wettbewerben wie dem Shell Eco Marathon teil. Hier misst sich die Gruppe mit Teams anderer Universitäten in unterschiedlichen Disziplinen. Dabei spielen unter anderem auch die Möglichkeiten des autonomen Fahrens eine Rolle. „Unzählige Stunden Arbeit neben dem Studium sind in die Vorbereitung des Rekords geflossen. Umso mehr freuen wir uns, dass wir den Weltrekord nun halten können. Der muc022 war schon bei einigen Wettbewerben erfolgreich, nun folgte der Ritterschlag. Vielen Dank an alle, die uns unterstützt haben“, freut sich das TUfast Eco Team.
Studentische Forschungsgruppen und Studierendeninitiativen haben an der TUM eine lange Tradition. Teams wie TUfast bieten den Studierenden die Möglichkeit, das im Studium erarbeitete Wissen direkt in die Praxis umzusetzen und selbstständig zu forschen. Dabei können die Gruppen regelmäßig in Wettbewerben überzeugen und standen oft an der Spitze.

Weitere Informationen:
Technische Daten des muc022 für den Weltrekord:
• Antrieb: Ein permanent erregter Synchronmotor (PSM)
• Leistung: 400 Watt
• Widerstandsbeiwert (cW): 0,159
• Gewicht: 170 Kilogramm ohne Fahrer:in

Der volle Titel des Rekords lautet: Greatest distance by electric vehicle, single charge (non-solar)

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1718820

Wissenschaftliche Ansprechpartner:
Linus Simons
Teammitglied bei TUfast Eco
l.simons@tufast.de

(nach oben)


Neues Alzheimer-Medikament Leqembi: Die wichtigsten Fragen und Antworten

Astrid Marxen Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.
Düsseldorf, 7. September 2023 – In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Dann kann der Wirkstoff unter dem Namen Leqembi zur Behandlung der Alzheimer-Krankheit verschrieben werden. In den USA wird Leqembi schon eingesetzt. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des DZNE am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

Wie funktioniert Leqembi?
Leqembi wirkt auf Grundlage einer passiven Immunisierung. Es ist ein Antikörper, der sich gegen Ablagerungen aus dem Protein Beta-Amyloid richtet. Diese Ablagerungen tragen mutmaßlich zum Absterben von Nervenzellen im Gehirn bei. Leqembi entfernt diese Ablagerungen im Gehirn. In der Zulassungsstudie hat der Antikörper nach 18 Monaten den geistigen Abbau von Patientinnen und Patienten um 27 Prozent verlangsamt.

Kann Leqembi Alzheimer heilen?
Leqembi wäre in Deutschland das erste Medikament, das an einer der grundlegenden Krankheitsursachen ansetzt. Trotzdem kann es die Alzheimer-Krankheit weder stoppen noch heilen. Der Krankheitsverlauf kann verzögert werden. Die Wirkung bei Erkrankten wird von vielen Alzheimer-Expertinnen und -Experten aber als eher gering eingestuft. „Mit Leqembi kann man einen Krankheitsaufschub von fünf bis sieben Monate erreichen. Es gibt die Hoffnung, dass sich der Effekt mit längerer Einnahme noch erhöht. Dafür haben wir aber bisher keine Daten. Ob diese Wirkung für Patientinnen und Patienten im Alltag spürbar sein wird, ist daher aktuell noch unklar“, erklärt Teipel.

Welche Nebenwirkungen können auftreten?
In der Zulassungsstudie sind bei 17 Prozent der Probandinnen und Probanden lokale Hirnschwellungen und Mikroblutungen aufgetreten. In den meisten Fällen verliefen diese symptomlos, aber einige Erkrankte hatten einen schwerwiegenden Verlauf. „Die Behandlung mit Leqembi kann gravierende Nebenwirkungen haben. Deshalb ist eine engmaschige
Kontrolle bei einer Behandlung sehr wichtig“, betont Teipel.

Für welche Erkrankten ist Leqembi geeignet, für welche nicht?
Nur Alzheimer-Patientinnen und -Patienten in einem frühen Krankheitsstadium kommen für eine Behandlung mit Leqembi in Frage. Erkrankte mit bereits fortgeschrittenen Symptomen oder einer anderen Form der Demenz werden nicht von einer Behandlung profitieren. Bei bestimmten Gruppen ist die Gefahr von Nebenwirkungen besonders groß. Deshalb müssen Aufwand, Nutzen und Risiken vor Behandlungsbeginn individuell überprüft werden.

„Es muss im Einzelfall immer genau abgewogen werden, wer mit Leqembi behandelt werden kann. Bei Erkrankten, die Blutverdünner nehmen, und solchen, die eine zweifache Kopie des ApoE4-Gens tragen, wäre ich eher zurückhaltend. Die Gefahr von Hirnblutungen ist für diese Patientinnen und Patienten erhöht“, so Teipel. ApoE4 ist ein Gen, dass das Risiko einer Alzheimer-Erkrankung erhöht. Da die Behandlung zeitintensiv und mit aufwändigen Untersuchungen verbunden ist, müssen Patientinnen und Patienten außerdem noch mobil und ausreichend belastbar sein.

„Wie viele Erkrankte für eine Behandlung geeignet sind, ist noch unklar. Das hängt unter anderem davon ab, mit welchen Auflagen eine EMA-Zulassung verbunden sein wird. Aktuell gibt es jährlich rund 200.000 Neuerkrankungen und eine ähnlich hohe Zahl von Menschen, die an einer leichten kognitiven Störung leiden, also an einer Vorstufe der Alzheimer-Krankheit. Von diesen beiden Gruppen wird aber nur ein geringer Prozentsatz für eine Behandlung in Frage kommen.“

Wie wird eine Behandlung mit Leqembi konkret aussehen?
Weil nur bestimmte Erkrankte für eine Behandlung geeignet sind, ist zunächst eine gründliche Diagnostik wichtig. Dazu kommt unter anderem entweder eine Liquor-Untersuchung, also eine Untersuchung des Nervenwassers, oder ein bildgebendes Verfahren namens Positronen-Emissions-Tomographie (PET) zum Einsatz. Damit wird nachgewiesen, ob schädliche Amyloid-Ablagerungen vorliegen. Teipel empfiehlt außerdem einen Test zum Nachweis des Alzheimer-Risikogens ApoE4. „Ein ApoE-Gentest sollte gemacht werden, weil das wichtig ist für die Risikoabschätzung von Nebenwirkungen.“

Wird eine Behandlung von dem oder der Erkrankten gewünscht und vom Facharzt befürwortet, dann wird Leqembi alle zwei Wochen durch eine Infusion verabreicht. Nach Angaben der Hersteller Biogen und Eisai dauert eine Behandlung ca. 1 Stunde. „Wegen der Gefahr von Hirnschwellungen und -blutungen müssen die Patientinnen und Patienten innerhalb der ersten 15 Behandlungsmonate alle drei Monate zur Magnetresonanztomographie kommen. Treten Unregelmäßigkeiten oder Beschwerden auf, dann muss die Kontrolle durch MRTs engmaschiger erfolgen, zum Beispiel wöchentlich oder zweiwöchentlich“, sagt Teipel.

Wo kann eine Behandlung stattfinden? Gibt es genügend Behandlungskapazitäten?
Eine Behandlung kann nur in spezialisierten Praxen oder Einrichtungen stattfinden, die über die nötigen diagnostischen, therapeutischen und personellen Ressourcen verfügen. „Eine Behandlung können hierzulande universitäre und nicht universitäre Gedächtnissprechstunden aber auch Schwerpunktpraxen anbieten. Nicht alle diese Einrichtungen haben aber aktuell die nötigen Kapazitäten, um Nervenwasseruntersuchungen durchzuführen. Außerdem fehlen in der Regel Infusionsplätze. Da müsste bei einer Zulassung von Leqembi nachgerüstet werden“, erklärt Teipel.

Für die Kontrolle der Nebenwirkungen werden Magnetresonanztomographen und vor allem erfahrene Radiologinnen und Radiologen gebraucht. „Hier sehe ich einen möglichen Engpass. Eine lokale Hirnschwellung oder Mikroblutung auf einem MRT-Bild zu erkennen und zu beurteilen, ob diese Veränderungen im Verlauf zugenommen haben, ist sehr anspruchsvoll, zugleich aber wichtig für die Sicherheit der Patienten. Radiologinnen und Radiologen müssten im Falle einer Zulassung entsprechend geschult werden.“

Wie hoch sind die Kosten? Bezahlen die Krankenkassen die Behandlung?
Wie teuer eine Behandlung mit Leqembi sein wird, ist noch nicht bekannt. In den USA betragen die Kosten für das Medikament alleine 26.500 Dollar im Jahr, das sind umgerechnet knapp 25.000 Euro. Das beinhaltet noch nicht die Kosten für die Durchführung der Infusionen und der Sicherheits-MRTs. Fachleute rechnen damit, dass eine Behandlung auch hierzulande ähnlich teuer sein wird. Der Preis für ein neu zugelassenes Medikament wird für das erste Jahr vom Hersteller festgesetzt. Die Kosten werden von den Krankenkassen übernommen.

Über die Alzheimer Forschung Initiative e.V.
Die Alzheimer Forschung Initiative e.V. (AFI) ist ein gemeinnütziger Verein, der das Spendenzertifikat des Deutschen Spendenrats e.V. trägt. Seit 1995 fördert die AFI mit Spendengeldern Forschungsprojekte engagierter Alzheimer-Forscher*innen und stellt kostenloses Informationsmaterial für die Öffentlichkeit bereit. Bis heute konnte die AFI 360 Forschungsaktivitäten mit 14,5 Millionen Euro unterstützen und über 925.000 Ratgeber und Broschüren verteilen. Interessierte und Betroffene können sich auf www.alzheimer-forschung.de fundiert über die Alzheimer-Krankheit informieren und Aufklärungsmaterial anfordern. Ebenso finden sich auf der Webseite Informationen zur Arbeit des Vereins und allen Spendenmöglichkeiten. Botschafterin der AFI ist die Journalistin und Sportmoderatorin Okka Gundel.

Pressekontakt
Alzheimer Forschung Initiative e.V.
Astrid Marxen
Kreuzstr. 34
40210 Düsseldorf
0211 – 86 20 66 28
presse@alzheimer-forschung.de
www.alzheimer-forschung.de/presse

Weitere Informationen:
https://www.alzheimer-forschung.de/presse/pressemitteilungen/meldung/leqembi-die… – Pressemeldung als pdf
http://www.alzheimer-forschung.de/presse/fotos-videos/ – Kostenfreies Fotomaterial
http://www.alzheimer-forschung.de/alzheimer – Weitere Informationen zur Alzheimer-Krankheit

(nach oben)


Energiesparend: Pumpen sollten Herzschlag folgen

Andreas Rothe Communications and Events
Institute of Science and Technology Austria
Das Pumpen von Flüssigkeiten scheint ein gelöstes Problem zu sein, aber die Optimierung dieses Prozesses ist immer noch ein aktives Forschungsgebiet. Jede Anwendung – von Industrie bis Haushalt – würde von Energieeinsparungen profitieren. Forscher des Institute of Science and Technology Austria (ISTA) haben nun gezeigt, wie gepulstes Pumpen die Reibung und den Energieverbrauch beim Pumpen verringern kann. Dabei ließen sie sich von einem Pumpsystem inspirieren, das jeder Mensch kennt: dem Herz.

Laut einer internationalen Studie werden fast zwanzig Prozent des weltweiten Stromverbrauchs für das Pumpen von Flüssigkeiten verwendet – von industriellen Anwendungen, die Öl und Gas transportieren, bis hin zu Heizungsanlagen, die Warmwasser in Privathaushalten pumpen. Ein Forscherteam um Davide Scarselli und Björn Hof vom Institute of Science and Technology Austria (ISTA) suchte nach einer Möglichkeit, diesen Energiebedarf zu reduzieren und ließ sich dabei von der Natur inspirieren. In einer neuen Studie in der Fachzeitschrift Nature zeigten sie, dass das pulsierende Pumpen von Flüssigkeiten durch ein Rohr, ähnlich wie das menschliche Herz Blut pumpt, die Reibung im Rohr reduzieren kann – und damit auch den Energieverbrauch.

Turbulente Reibung
„Im Laufe der Jahre versuchten Forscher:innen und Ingenieur:innen, das Pumpen von Flüssigkeiten effizienter zu machen“, sagt Davide Scarselli, Erstautor der Studie. „Zwar wurden viele Lösungen simuliert oder in Laboren getestet, doch sie sind oft zu komplex und daher zu kostspielig, um in realen industriellen Anwendungen eingesetzt zu werden. Wir suchten nach einem Ansatz, der keine komplizierten strukturellen Änderungen an der Infrastruktur, wie Sensoren und Motoren, erfordert.“

Anstatt die Beschaffenheit der Rohre zu verändern, um die Reibung zwischen der fließenden Flüssigkeit und den Rohrwänden zu verringern, versuchten die Wissenschafter einen anderen Ansatz. „Wie jeder Teil unseres Körpers wurde auch das menschliche Herz durch Millionen von Jahren der Evolution geformt“, erklärt Björn Hof, Professor am ISTA. „Im Gegensatz zu herkömmlichen mechanischen Pumpen, die einen gleichmäßigen Strom von Flüssigkeit erzeugen, pulsiert das Herz. Wir waren neugierig, ob diese besondere Antriebsform einen Vorteil bietet.“

Zu diesem Zweck schufen Scarselli und sein Kollege Atul Varshney mehrere Versuchsaufbauten mit durchsichtigen Rohren unterschiedlicher Länge und Durchmesser, durch die sie Wasser pumpten. „Die Ausgangsbasis für unsere Experimente war ein gleichmäßiger Wasserfluss, in dem sich Wirbel chaotisch bewegten, während sie durch das Rohr gedrückt wurden“, erklärt Scarselli. Diese Wirbel werden als Turbulenzen bezeichnet und verursachen einen Großteil der Reibung zwischen der Flüssigkeit und den Wänden des Rohrs. Die Überwindung eben dieser Reibung kostet Energie.

Die Forscher machten die Turbulenzen sichtbar, indem sie dem Wasser winzige reflektierende Partikel hinzufügten und mit einem Laser durch das durchsichtige Rohr schienen. Scarselli fügt hinzu: „Der Laser schießt Licht in einem horizontalen Bogen durch das Rohr und wird von den Partikeln reflektiert. Wir machten Bilder davon, anhand derer wir erkennen konnten, ob die Strömung turbulent oder laminar war, wobei letzteres bedeutet, dass es keine Wirbel gab.“

Weniger Reibung durch Ruhephase
Als nächstes probierten die Forscher verschiedene Arten des pulsierenden Pumpens aus. Bei einigen Pulsformen wurde das Wasser zunächst langsam beschleunigt und dann schnell gestoppt, bei anderen war es umgekehrt. Hof erklärt die Ergebnisse: „Normalerweise erhöht das pulsierende Pumpen den Widerstand und die benötigte Energie, was nicht das war, was wir suchten. Als wir jedoch eine kurze Ruhephase zwischen den Impulsen einfügten, in der die Pumpe das Wasser nicht antreibt – so wie es das menschliche Herz tut –, erzielten wir viel bessere Ergebnisse.“

Durch diese Ruhephasen zwischen den Pumpphasen wird die Menge der Turbulenzen im Rohr drastisch reduziert. „Während der Ruhephase nehmen die Turbulenzen ab und es lässt die anschließende Beschleunigungsphase die Reibung viel effektiver reduzieren“, so Scarselli weiter.

Für eine optimierte pulsierende Pumpbewegung, die der des menschlichen Herzens ähnelt, fanden die Forscher eine Verringerung der mittleren Reibung von 27 Prozent und eine Reduzierung des Energiebedarfs um 9 Prozent. „Eine Verringerung der Reibung und der turbulenten Fluktuationen ist im biologischen Kontext eindeutig von Vorteil, da sie Schäden an den Zellen in der innerste Schicht unserer Blutgefäße verhindert, die empfindlich auf Scherstress reagieren. Daraus könnten wir möglicherweise lernen und dies in zukünftigen Anwendungen nutzen“, erklärt Hof.

Scarselli fügt hinzu: „Während wir im Labor vielversprechende Ergebnisse gezeigt haben, ist die Anwendung unserer Forschung in der realen Welt weniger einfach. Um diese pulsierenden Bewegungen zu erzeugen, müssten die Pumpen umgerüstet werden. Dies wäre jedoch immer noch viel günstiger als Änderungen an den Rohrwänden oder der Einbau von Motoren. Wir hoffen, dass andere Wissenschafter:innen auf unseren Ergebnissen aufbauen werden, um diese von der Natur inspirierten Lösungen für industrielle Anwendungen zu erforschen.“

Projektförderung
Diese Arbeit wurde unterstützt durch das Grant 662962 der Simons-Stiftung und durch den Österreichischen Wissenschaftsfonds, Grant I4188-N30, im Rahmen der Forschungseinheit FOR 2688 der Deutschen Forschungsgemeinschaft.

Originalpublikation:
D. Scarselli, J. M. Lopez, A. Varshney, and B. Hof. 2023. Turbulence suppression by cardiac cycle inspired pulsatile driving of pipe flow. Nature. DOI: https://doi.org/10.1038/s41586-023-06399-5 / https://www.nature.com/articles/s41586-023-06399-5

Weitere Informationen:
https://ista.ac.at Institute of Science and Technology Austria (ISTA)
https://ista.ac.at/de/forschung/hof-gruppe/ Hof Gruppe am ISTA

Anhang
Laser enthüllt Turbulenzen. Ein Laserstrahl scheint in einer horizontalen Ebene durch das durchsichtige Rohr, wird von winzigen Partikeln im Wasser reflektiert und zeigt so wirbelnde Strömungen.

(nach oben)


Unterschätzte Gefahr und Ressource am Meeresgrund

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Neues Dinoflagellaten-Bestimmungsbuch beleuchtet Bedeutung der marinen Einzeller.
Heute legt die Meeresbiologin Dr. Mona Hoppenrath von Senckenberg am Meer in Wilhelmshaven gemeinsam mit internationalen Kolleg*innen die zweite, erweiterte Auflage des weltweit umfassendsten Bestimmungsbuchs für marine, benthisch lebende Dinoflagellaten vor: „Marine benthic dinoflagellates – their relevance for science and society“. Neben der Beschreibung zahlreicher neuer Arten, erstmals auch anhand molekulargenetischer Daten, ordnet das Buch die weltweiten Gefahren durch die oftmals toxischen Einzeller ein – aber auch ihren Nutzen für die Wissenschaft und als potenzielle Nährstoff- und Energielieferanten.

Die mikroskopisch kleinen Dinoflagellaten sind in der breiten Öffentlichkeit kaum bekannt, dabei ist ihr Einfluss auf Natur und Mensch beträchtlich. Weltweit in Salz- und Süßgewässern verbreitet spielen die winzigen Einzeller eine wichtige Rolle in aquatischen Nahrungsnetzen – die meisten Arten als Teil des Planktons, die benthischen in den Sedimenten am Meeresgrund oder epiphytisch auf Algen, Seegras oder Korallen. „Einige Arten produzieren Toxine, die beim Menschen ernsthafte Vergiftungen hervorrufen können und auch für andere Meeresorganismen schädlich sind“, erläutert Dr. Mona Hoppenrath, Wissenschaftlerin bei Senckenberg am Meer in Wilhelmshaven und Erstautorin des Buchs. „Durch den Verzehr von Fisch und anderen Meeresfrüchten können etwa über die Nahrungskette angereicherte Giftstoffe von Gambierdiscus-Arten die Ciguatera-Krankheit auslösen, eine der häufigsten Fischvergiftungen.“ Eine Algenblüte der Gattung Ostreopsis wiederum brachte in den 1990er-Jahren Hunderte von Urlauber*innen an der ligurischen Küste ins Krankenhaus. „Als Folge des Klimawandels werden solche Fälle wahrscheinlich immer häufiger vorkommen“, ergänzt Hoppenrath.

Der vorliegende Band zeigt eindrucksvoll den Artenreichtum der marinen Einzeller, sein größter Teil ist der Taxonomie benthischer Dinoflagellaten in ihrer erstaunlichen Formenvielfalt gewidmet. 242 Arten in 63 Gattungen werden im Detail vorgestellt, illustriert mit mehr als 240 Farbabbildungen, etwa 250 elektronenmikroskopischen Aufnahmen und mehr als 330 Zeichnungen. Seit dem Vorgänger „Marine benthic dinoflagellates – unveiling their worldwide biodiversity“ sind 64 neue Arten, 20 neue Gattungen und 19 neue Kombinationen – also Umbenennungen – hinzugekommen. „Gleichzeitig zeigen wir sicherlich nur die ‚Spitze des Eisbergs‘“, so Hoppenrath, „Es ist davon auszugehen, dass neben den etwa 2.500 bekannten lebenden Dinoflagellaten-Arten viele weitere existieren, die noch nicht beschrieben sind!“ Parallel zur Neuauflage werden über die Website des „Centre of Excellence for Dinophyte Taxonomy“ (CEDiT) Bestimmungshilfen und Matrixschlüssel zur Gattungs- und Art-Bestimmung abrufbar sein: www.dinophyta.org/identification-keys.

Neu ergänzt ist ein Kapitel zur Relevanz der Dinoflagellaten für Wissenschaft und Gesellschaft, das die Gefahren durch die Einzeller, aber auch ihren möglichen Nutzen beleuchtet. „Dass beispielsweise einige Arten der Gattung Gambierdiscus über den Verzehr bestimmter tropischer und subtropischer Fische und Meeresfrüchte die lebensbedrohliche Ciguatera-Vergiftung auslösen können, wissen wir seit den 1970er-Jahren. Viele Küstenländer haben in der Folge Überwachungsprogramme eingeführt. Weltweit werden jährlich circa 20.000 bis 60.000 Fälle registriert“, berichtet Hoppenrath. „Dabei ist die Dunkelziffer groß: Schätzungsweise gibt es allein in den USA knapp 16.000 Vergiftungen im Jahr – möglicherweise werden weltweit nur 10 Prozent der Fälle den Gesundheitsbehörden gemeldet.“ Der fortschreitende Klimawandel scheint das Problem noch zu verstärken: Korallenbleichen infolge steigender Meerestemperaturen und andere Beeinträchtigungen von Korallen-Ökosystemen führen offenbar zu einem verstärkten Vorkommen von Gambierdiscus, weshalb der Weltklimarat davon ausgeht, dass Ciguatera-Vergiftungen weiter zunehmen werden. Gleichzeitig gibt es Hinweise, dass sich Gambierdiscus inzwischen auch in gemäßigte Regionen ausgebreitet hat.

Neben den gesundheitlichen Gefahren verursachen die toxischen Einzeller auch beträchtliche wirtschaftliche Schäden. In den USA entstehen durch Ciguatera schätzungsweise 17 Millionen US-Dollar Gesundheitskosten im Jahr. Von Einfuhrverboten für Riff-Fische infolge gemeldeter Vergiftungen werden insbesondere kleine tropische und subtropische Inselstaaten empfindlich getroffen, die stark von der Fischerei abhängig sind.

Auf der anderen Seite können Dinoflagellaten aber auch eine für den Menschen nützliche Ressource sein, beispielsweise als Lieferanten von wichtigen ungesättigten Fettsäuren für eine ausgewogene Ernährung. „Die planktische Art Crypthecodinium cohnii wurde bereits in der industriellen Produktion von Omega-3-Fettsäure als Nahrungsergänzungsmittel verwendet“, erzählt Hoppenrath. „Größtenteils sind die Möglichkeiten der industriellen Verwendung benthischer Dinoflagellaten, die Omega-3-Fettsäuren in großen Mengen produzieren, aber noch weitgehend unerforscht – hier gibt es großes Potenzial.“ Auch Biokraftstoffe könnten möglicherweise aus bestimmten Arten gewonnen werden. In der medizinischen Forschung haben sich einige der toxischen Verbindungen wiederum als vielversprechend für die Entwicklung von Therapeutika, beispielsweise in der Krebstherapie, gezeigt.

„Nicht zuletzt und überraschenderweise haben sich benthische Dinoflagellaten in der Naturwissenschaft für die evolutionäre Grundlagenforschung als sehr nützlich und wichtig erwiesen – zum Beispiel bei der Erforschung der Photosynthese und verschiedener Prozesse in Zellkernen. Es sind faszinierende Lebewesen, die wir aus vielen Gründen weiter erforschen müssen!“, schließt Hoppenrath.

Publikation: Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

Presseexemplare können unter pressestelle@senckenberg.de bestellt werden!

Wissenschaftliche Ansprechpartner:
PD Dr. Mona Hoppenrath
Senckenberg am Meer Wilhelmshaven
Tel. 04421 9475 116
mhoppenrath@senckenberg.de

Originalpublikation:
Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

(nach oben)


Invasive Arten bedrohen die globale Vielfalt und Lebensgrundlage

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
In Österreich gibt es mehr als 2.000 nicht-heimische Arten – Neobiota sind für 60 Prozent der ausgestorbenen Arten weltweit mitverantwortlich

Invasive nicht-heimische Arten sind eine der Hauptursachen des weltweiten Artenverlusts und bedrohen die menschliche Lebensgrundlage und Gesundheit. Ein neuer Bericht des Weltbiodiversitätsrats IPBES fasst erstmals den aktuellen Stand der Forschung weltweit zusammen und beschreibt, welche Handlungsoptionen zur Verfügung stehen. Bernd Lenzner und Franz Essl von der Universität Wien waren Teil des internationalen Expert*innenteams, das über die vergangenen Jahre Informationen aus über 13.000 Fachartikeln zusammengetragen hat.

Nicht-heimische Arten (auch Neobiota genannt) sind mittlerweile auf allen Kontinenten zu finden, sogar in der abgeschiedenen Antarktis. Mit Beginn der kolonialen Expansion und der daraus folgenden wirtschaftlichen und politischen Vernetzung über Kontinente hinweg begann der Siegeszug der Neobiota. „Mehr als die Hälfte dieser Neobiota wurde aber erst seit der Mitte des 20. Jahrhunderts verschleppt. Wir haben es also mit einer rasanten Zunahme von Neobiota zu tun“, erläutert Bernd Lenzner, Mitautor des Berichts des Weltbiodiversitätsrates.

37.000 Neobiota wurden weltweit bereits durch den Menschen verschleppt
„Insgesamt kommen mittlerweile weltweit mehr als 37.000 Arten als Neobiota vor – in Österreich alleine sind es mehr als 2.000“, so Lenzner. Auch heute werden immer noch Arten absichtlich (z.B.: als Gartenpflanzen oder Haustiere) oder unabsichtlich (z.B.: als Saatgutverunreinigungen oder blinde Passagiere beim Transport von Waren) weltweit verschleppt. Ein Rückgang dieses Trends ist trotz steigender Importbeschränkungen nicht abzusehen. So wurden beispielsweise in den letzten zwei Jahrzehnten der Asiatische Marienkäfer oder der Erreger des Eschentriebsterbens in Österreich eingeschleppt.

60 Prozent der ausgestorbenen Arten geht teilweise oder ganz auf das Konto von Neobiota
Invasive Arten können erheblichen Schaden anrichten: Sie führen als Schädlinge zu Ertragsausfällen in der Landwirtschaft, wie der Maiswurzelbohrer, oder sie können Krankheiten übertragen, wie etwa die Tigermücke. „Andere Neobiota wiederum verdrängen heimische Arten – mit massiven Folgen für die globale Artenvielfalt“, erläutert Franz Essl, Biodiversitätsforscher an der Uni Wien und ebenfalls Mitautor des Berichts. Und er ergänzt: „Bei 60 Prozent der ausgestorbenen Arten waren Neobiota maßgeblich beteiligt. Besonders auf Inseln oder abgelegenen Kontinenten wie Australien waren vom Menschen neu eingeführte Arten die Hauptursache des Aussterbens.“

Viele Arten wie der Dodo auf Mauritius wurden durch Räuber wie Ratten ausgerottet. In Österreich stehen heute alle heimischen Flusskrebsarten am Rande des Aussterbens als Folge der Krebspest; eine Krankheit, die durch nordamerikanische Flusskrebse übertragen wird. Besorgniserregend sind die wirtschaftlichen Schäden durch Neobiota – der aktuelle Bericht beziffert sie auf $ 423 Milliarden US-Dollar (400 Mrd. €) jährlich, eine Vervierfachung pro Jahrzehnt seit 1970.

Handlungsoptionen für die Zukunft: Prävention und Früherkennung
Einen besonderen Schwerpunkt legt der Bericht auf die Handlungsoptionen, um künftige Schäden durch invasive Neobiota zu vermeiden. Eine Vielzahl an Beispielen illustriert, dass invasive Arten erfolgreich bekämpft und somit ihre negativen Effekte stark reduziert werden können. „Der kosteneffektivste Weg ist jedoch die Prävention, Früherkennung und schnelle Bekämpfung von Neobiota“, betont Bernd Lenzner. Effektives Management ist aber nur durch gut koordinierte nationale und internationale Anstrengungen möglich. Internationale Abkommen wie die kürzlich von der Staatengemeinschaft verabschiedeten Kunming-Montreal-Biodiversitätsziele sind ein wichtiger Schritt in die richtige Richtung. Entscheidend ist aber, dass jedes Land, auch Österreich, rasch Maßnahmen setzt – dazu gehört auch eine bessere Umsetzung der EU-Invasionsverordnung.

Wissenschaftliche Ansprechpartner:
Dr. Bernd Lenzner
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-680-327-8884
bernd.lenzner@univie.ac.at

Assoz.-Prof. Mag. Dr. Franz Essl
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-676-609-1638
franz.essl@univie.ac.at

Originalpublikation:
Bericht zu invasiven gebietsfremden Arten des Weltbiodiversitätsrats IPBES:
IPBES (2023). Summary for Policymakers of the Thematic Assessment Report on Invasive Alien Species and their Control of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services. Roy, H. E., Pauchard, A., Stoett, P., Renard Truong, T., Bacher, S., Galil, B. S., Hulme, P. E., Ikeda, T., Sankaran, K. V., McGeoch, M. A., Meyerson, L. A., Nuñez, M. A., Ordonez, A., Rahlao, S. J., Schwindt, E., Seebens, H., Sheppard, A. W., and Vandvik, V. (eds.). IPBES secretariat, Bonn, Germany.
https://doi.org/10.5281/zenodo.7430692

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Nachhaltig leben: Je geringer der Aufwand, desto mehr Menschen tun es

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Studierenden-Projekt der Universität Hohenheim zeigt: Beim ressourcenschonenden Verhalten deckt sich die Einstellung nicht immer mit der tatsächlichen Umsetzung

Auch Menschen, die einen ressourcenschonenden Lebensstil befürworten, schaffen es nicht immer, ihrem eigenen Anspruch gerecht zu werden. Wie leicht oder wie schwer ihnen dies fällt, hängt vor allem vom Aufwand ab, den sie dafür betreiben müssen. Zu diesem Schluss kommt ein Studierenden-Projekt an der Universität Hohenheim in Stuttgart. Dort spielt forschendes Lernen eine große Rolle. So können Studierende schon im Grundstudium in den Forschungsalltag eintauchen und eigene Projekte realisieren.

Vor allem in den westlich orientierten Ländern treffen Menschen jeden Tag Milliarden von Konsumentscheidungen – mit entsprechenden Auswirkungen für Klima, Umwelt und Natur. Dass es eines Umdenkens im Umgang mit den natürlichen Ressourcen bedarf, dürfte den meisten Menschen klar sein. Doch das eigene Verhalten in Frage zu stellen, fällt vielen schwer: Den Gedanken, den eigenen Lebensstil zu ändern und auf Waren und Dienstleistungen zu verzichten, empfinden viele als Rückschritt und Verzicht.

„Dabei ist der Verzicht beim Kauf von Konsumgütern alles andere als ein Rückschritt oder ein Zeichen von Mangel. Auch mit einem geringen Verbrauch von Ressourcen kann man gut leben “, sagt Jun.-Prof. Dr. Laura Henn vom Fachgebiet Nachhaltiges Handeln und Wirtschaften. Die dahinterstehende Einstellung bezeichnen Fachleute als Suffizienz.

Suffizienz: Ressourcenschonender Lebensstil ohne Einbußen an Lebensqualität
„Suffizienz bedeutet, das eigene Handeln bewusst danach auszurichten, nicht mehr Ressourcen zu verbrauchen als unbedingt nötig – ohne dabei an Lebensqualität einzubüßen“, erklärt die Wissenschaftlerin. „Oder vereinfacht ausgedrückt: Suffizient leben bedeutet eigentlich gut leben – gut für einen selbst und gut für die Umwelt.“

Suffizient lebende Menschen kaufen bewusster, teilen, tauschen oder reparieren, um ihre Bedürfnisse mit weniger Ressourcenverbrauch genauso gut zu befriedigen. Praktisch kann dies heißen, dass sie weniger Flugreisen unternehmen, weniger Energie verbrauchen oder weniger Fleisch essen, aber auch, dass diese Menschen auf den Besitz von Gegenständen verzichten oder zumindest möglichst langlebige Produkte kaufen. So sparen sie Ressourcen und halten ihren eigenen ökologischen Fußabdruck möglichst klein.

Decken sich Anspruch und tatsächliches Verhalten?
Doch wie sieht es im Alltag aus? Folgen Menschen im Alltag ihrer Einstellung und achten jene Personen, die besonders suffizienzorientiert sind, auch verstärkt auf den Ressourcenverbrauch ihres Verhaltens? Dieser Frage sind Studierende im vierten Semester des Studiengangs „Sustainability & Change“ an der Universität Hohenheim in einem Forschungspraktikum nachgegangen.

Unter Anleitung von Jun.-Prof. Dr. Henn beschäftigten sich die Studierenden in sechs Kleingruppen damit, wie die Suffizienzorientierung von Menschen erfasst werden kann. Sie untersuchten anhand von selbstgewählten Beispielen, ob Menschen, die darin besonders hohe Werte aufweisen, auch ein nachhaltigeres Verhalten zeigen.

Aufwand entscheidet über tatsächliches Einkaufsverhalten
Ein Ergebnis der Studierenden: Je weniger aufwändig ressourcenschonendes Verhalten, desto eher und häufiger wird es umgesetzt. So haben Menschen, die in Unverpacktläden einkaufen, um möglichst viel Müll zu vermeiden, nicht nur eine höhere Suffizienzeinstellung. Sie kaufen dort auch umso häufiger ein, je höher diese ist.

Für die Studierenden ein Hinweis darauf, dass vor allem Personen mit einer hohen Motivation bereit sind, einen höheren Aufwand zu betreiben. „Einkaufen in einem Unverpacktladen ist anders als in einem Supermarkt“, erläutert Janne Hoefer. „Die Menschen müssen viel stärker im Voraus planen, was und wie viel sie einkaufen wollen, und entsprechende Gefäße mitbringen.“

„Auffällig war auch, dass die Einkaufshäufigkeit mit steigendem Alter zunahm“, ergänzt Luis Nollenberger. Generell sind nach den Beobachtungen der Studierenden die häufigsten Kunden in Unverpacktläden junge Familien.

Foodsharing benötigt hohe Motivation
Zu einem ähnlichen Ergebnis kam eine andere Gruppe von Studierenden. Sie untersuchten, wie wichtig es Menschen ist, die Verschwendung von Lebensmitteln zu vermeiden. Also beispielsweise ihre Einkäufe bzw. Mahlzeiten zu planen, Lebensmittel nicht wegzuschmeißen, Reste zu verwerten oder sich beim Foodsharing zu engagieren. Auch hier zeigte sich: Je höher die Suffizienzeinstellung einer Person, desto höher ist auch ihr Einsatz beim Lebensmittel-Management.

Besonders auffällig war dies beim Foodsharing. Die Erklärung der Studierenden: Foodsharing ist mit einem hohen Aufwand verbunden. So müssen die Personen aktiv nach Informationen über Foodsharing Angebote suchen, eventuell eine App installieren und die Lebensmittel meist zu bestimmten Zeiten abholen. Dies setzt eine besonders hohe Motivation voraus.

Suffiziente Personen kaufen seltener neue Möbel
Personen, die über viel Suffizienz verfügen, verlängern nach den Ergebnissen der Studierenden auch eher die Lebensdauer ihrer Möbel und kaufen seltener neue Möbel. Dafür bevorzugen sie Reparaturen oder gebrauchte Alternativen. Allerdings gilt hier einschränkend: In der untersuchten Stichprobe waren vor allem jüngere Menschen enthalten, die noch bei Familienangehörigen oder in Wohnheimen bzw. Wohngemeinschaften wohnten.

Bei To-Go-Getränken und auf Partys spielt Suffizienz eine untergeordnete Rolle
Wenig Einfluss der Suffizienz auf das Verhalten fanden die Studierenden hingegen bei der Verwendung von Getränkebechern und auf Partys. So untersuchte eine Gruppe, ob Kund:innen bei To-Go-Getränken die angebotenen Einweg-Becher nutzen, Wert auf wiederverwendbare Becher legen oder sogar selbst solche Behältnisse mitbringen. Zwar wiesen Personen, die Mehrwegbechern positiv gegenüber standen, auch eine höhere Suffizienzeinstellung auf. Statistisch gesehen gab es jedoch keinen Zusammenhang mit der tatsächlichen Wahl des Bechers.

Auch bei Partys konnten die Studierenden keine Verbindung zwischen der Suffizienz und dem tatsächlichen Verhalten feststellen. Dies deckt sich mit ihren eigenen subjektiven Erfahrungen, wonach bei geselligen Veranstaltungen öfter mal die eigene Einstellung zum nachhaltigen Konsum über Bord geworfen wird. „Partys sind kein klassisches Nachhaltigkeitsthema – selbst bei Studierenden, denen dies wichtig ist“, sagt Marie Fankhänel. „Hier stehen die Geselligkeit und der Spaß im Vordergrund.“

Die Studierenden fanden allerdings andere statistische Beziehungen: So kaufen Menschen mit einer höheren Suffizienz seltener neue Kleidung für eine Party – und sie bestellen sich seltener im betrunkenen Zustand Dinge im Internet.

Verzicht auf Flugreisen steht oft im Konflikt mit anderen Zielen
Nur einen geringen Zusammenhang mit der Suffizienzeinstellung konnten die Studierenden auch bei der Frage finden, wie oft Menschen das Flugzeug tatsächlich nutzen, obwohl sie grundsätzlich Flugreisen nicht befürworten.

Laut Jun.-Prof. Dr. Henn könnte eine Ursache darin liegen, dass persönliche Normen und Einstellungen zu Nachhaltigkeit das Fernreiseverhalten nicht vorhersagen können: „Der völlige Verzicht auf Flugreisen erfordert ein starkes Engagement und steht oft im Konflikt mit anderen Lebenszielen, wie beispielsweise dem Sammeln von Reiseerfahrungen.“

Studierenden-Projekt bestätigt wissenschaftliche Studien
„Auch wenn die Ergebnisse der Studierenden nicht repräsentativ sind, so zeigen sie doch ein paar Aspekte auf, die sich auch in wissenschaftlichen Veröffentlichungen finden“, erklärt Jun. Prof. Dr. Henn: „So wird die Wahrscheinlichkeit, dass eine Person einen stärker suffizienzorientierten Lebensstil führt, vor allem durch zwei Faktoren bestimmt: Einerseits dadurch, wie stark sie einen solchen Lebensstil befürwortet, und andererseits durch die Frage, welche Hindernisse sie hat das entsprechende Verhalten auch umzusetzen.“

Dazu kämen laut der Wissenschaftlerin noch Faktoren, die außerhalb des Einflussbereiches der Betreffenden lägen: „Wenn die Infrastruktur und die Politik ein suffizientes Verhalten unterstützen, ist die Wahrscheinlichkeit relativ groß, dass Menschen dies auch tun.“
Text: Stuhlemmer

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Laura Henn, Universität Hohenheim, Fachgebiet Nachhaltiges Handeln und Wirtschaften, +49 (0)711 459-24945, laura.henn@uni-hohenheim.de

Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


Seltene Mutation ist mögliches Angriffsziel für Krebsmedikament

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Mutationen im BRAF-Gen machen Tumoren oft besonders aggressiv. Seit einigen Jahren sind Medikamente zugelassen, die das mutierte BRAF blockieren. Sie richten sich allerdings nur gegen eine bestimmte, häufige Form der BRAF-Mutationen. Ein Forscherteam unter der Federführung von Wissenschaftlern im Deutschen Konsortium für Translationale Krebsforschung (DKTK), Standort Freiburg, und von der Universität Freiburg analysierte nun die Empfindlichkeit seltener Varianten der BRAF-Mutationen auf diese Medikamente. Die Forschenden konnten die molekularen Hintergründe für die Wirksamkeit der BRAF-Hemmstoffe entschlüsseln und damit möglicherweise die Entwicklung präziserer Wirkstoffe anstoßen.

Im DKTK verbindet sich das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg als Kernzentrum langfristig mit onkologisch besonders ausgewiesenen universitären Partnerstandorten in Deutschland.

Bei etwa acht Prozent aller Krebsfälle liegen Mutationen in dem Gen vor, das für das Enzym BRAF kodiert. BRAF-Mutationen fördern die unkontrollierte Teilung und Ausbreitung der Krebszellen. Sie werden häufig u. a. in Melanomen, bestimmten Hirntumoren und Schilddrüsenkarzinomen gefunden. Seltener treten sie auch in verbreiteten Krebsarten wie Dickdarmkrebs, nicht-kleinzelligem Lungenkrebs oder Bauchspeicheldrüsenkrebs auf.

Die Aktivität von Proteinkinasen, zu denen auch BRAF gehört, kann durch Medikamente aus der Gruppe der Kinase-Inhibitoren unterdrückt werden. Diese Wirkstoffe zielen speziell darauf ab, die häufigste krebstreibende BRAF-Mutation, BRAFV600E, abzuschalten.

Nachdem Krebsgewebe zunehmend auf BRAF-Mutationen getestet werden, entdeckten Forschende, dass neben der bekannten bekannten V600-Mutation ein breites Spektrum weiterer Veränderungen des BRAF-Gens in den Tumorzellen vorkommt. „Bislang ist jedoch wenig darüber bekannt, ob die ursprünglich für BRAFV600E entwickelten Kinase-Inhibitoren auch bei Krebsarten mit anderen BRAF-Mutationen wirksam sind,“ sagt Tilman Brummer, DKTK Freiburg und Universität Freiburg, der Seniorautor der aktuellen Arbeit, die in enger Zusammenarbeit mit den DKTK-Standorten Dresden, Heidelberg und Tübingen entstanden ist.

Zu diesem Spektrum an Mutationen zählen auch Verluste einiger Aminosäuren in einem für die Funktion von BRAF kritischen Teil des Enzyms. Solche „Deletions-Mutationen“ finden sich in vielen Krebsarten, besonders bei bestimmten Formen von Bauchspeicheldrüsenkrebs. „In der molekularbiologischen Standard-Diagnostik werden diese Bereiche von BRAF nicht erfasst, wodurch diese Mutationen bei den fünf bis 10 Prozent von Pankreas-Tumoren ohne KRAS-Mutationen vermutlich übersehen werden. Bei den umfangreichen molekularen Analysen von Tumorbiopsien, wie wir sie im DKTK MASTER-Programm* durchführen, um klinische Entscheidungen auf einer umfassenden molekularen Informationsbasis zu treffen, fallen uns diese Deletions-Mutationen jedoch immer häufiger auf“, sagt Stefan Fröhling, geschäftsführender Direktor am NCT Heidelberg und Leiter des DKTK MASTER-Programms.

„Ob BRAF-Deletions-Mutanten durch für BRAFV600E entwickelte Kinase-Inhibitoren wie Dabrafenib blockiert werden können, ist nach wie vor unklar. Strategien gegen diese Mutanten könnten neue zielgerichtete Behandlungsoptionen aufzeigen“, sagt Manuel Lauinger von der Universität Freiburg, Erstautor der aktuellen Arbeit, und ergänzt: „Tatsächlich deuten Fallberichte darauf hin, dass das Medikament Dabrafenib, ein Kinase-Inhibitor, der zur Behandlung von durch BRAFV600E-getriebenen Krebsarten entwickelt wurde, auch gegen Tumoren wirkt, die bestimmte Varianten der Deletions-Mutanten tragen.“

Ausgelöst durch die Entdeckung von zwei neuen Varianten der BRAF-Deletions-Mutante an den DKTK-Standorten Heidelberg und Tübingen, führte Manuel Lauinger einen detaillierten Vergleich der verschiedenen Deletions-Mutanten in Bezug auf ihre biochemischen und pharmakologischen Eigenschaften durch. Er fand heraus, dass sie sich überraschenderweise trotz ihrer sehr ähnlichen genetischen Veränderung in ihrer Empfindlichkeit gegenüber Dabrafenib deutlich unterscheiden. Darüber hinaus konnte Lauinger ein molekulares Detail identifizieren, das bestimmten Deletions-Mutanten Resistenz gegen Dabrafenib verleiht. Diese Erkenntnisse können neue Ansätze für die Entwicklung zukünftiger Arzneimittel für die Präzisionsonkologie liefern.

Während vor einer Behandlung mit Dabrafenib die genauen molekularen Details der jeweiligen BRAF-Deletions-Mutante beachtet werden müssen, gilt dies offenbar nicht für die so genannte dritte Generation an BRAF-Inhibitoren. Diese Wirkstoffe, die derzeit in klinischen Studien geprüft werden, erwiesen sich als wirksam gegen alle Mitglieder der Gruppe der BRAF-Deletions-Mutanten. Diese Untersuchungen wurde in Krebszelllinien sowie auch in Tumor-Organoiden („Mini-Tumoren“), die aus den Krebszellen individueller Patienten gezüchtet worden waren, durchgeführt.

* MASTER = Molecularly Aided Stratification for Tumor Eradication Research: Dieses Programm wurde ursprünglich am NCT Heidelberg und am NCT Dresden etabliert und stellt seit 2016 eine gemeinsame Aktivität aller DKTK-Standorte dar.
Originalveröffentlichung:
Lauinger, M., Christen, D., Klar, R.F.U., Roubaty, C., Heilig, C.E., Stumpe, M., Knox, J, Radulovich, N., Tamblyn, L., Xie, I., Horak, P., Forschner, A., Bitzer, M., Wittel, U.A., Boerries, M., Ball, C.R., Heining, C., Glimm, H., Fröhlich, M., Hübschmann, D., Gallinger, S., Fritsch, R., Fröhling, S., O’Kane, G., Dengjel, J. und T. Brummer (2023). BRAFΔβ3-αC in-frame deletion mutants differ in their dimerization propensity, HSP90 dependence and druggability.
Science Advances 2023, DOI: 10.1126/sciadv.ade7486

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

(nach oben)


Wie Windturbinen auf Turbulenzen reagieren

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Sprunghafte Leistungsänderungen von Windkraftanlagen könnten sich mit Hilfe einer neuen stochastischen Methode abschwächen lassen. Ein deutsch-iranisches Team zeigt in einer neuen Studie, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die in der Zeitschrift PRX Energy veröffentlichten Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren.

Die Leistung von Windkraftanlagen kann innerhalb von Sekunden um die Hälfte schwanken. Solche Fluktuationen im Megawattbereich belasten sowohl die Stromnetze als auch die Anlagen selbst. Einen möglichen Ansatz, um diese sprunghaften Änderungen zu vermeiden, zeigt nun eine neue Studie von Forschern der Universität Oldenburg und der Sharif Universität in Teheran (Iran) auf. Das Team berichtet, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren. Die Studie ist in der Zeitschrift PRX Energy erschienen.

Das Team um Hauptautor Dr. Pyei Phyo Lin von der Universität Oldenburg analysierte Daten mehrerer Anlagen in einem Windpark. „Weil Windkraftanlagen unter turbulenten Windbedingungen arbeiten – ähnlich wie ein Flugzeug, das bei starkem Wind landet – schwanken alle Messdaten sehr stark, es ist kein klares Signal zu erkennen. Wir sprechen von Rauschen“, berichtet Lin. Der Physikingenieur und seine Kollegen untersuchten Zeitreihen der Windgeschwindigkeit, der elektrischen Leistung der Anlagen und der Drehgeschwindigkeit des Generators mit stochastischen Methoden.

Mit ihrem neuen mathematischen Ansatz gelang es den Forschern, das Rauschen in den Daten in zwei verschiedene Anteile aufzuspalten, von denen einer auf den Wind zurückzuführen ist und der andere auf die Reaktion des Kontrollsystems der Anlage. „Meist wird das Rauschen als lästiger Effekt betrachtet, der die Messungen stört“, sagt Lin. „Jetzt liefert uns das Rauschen neue Informationen über das System – das ist eine neue Qualität“, ergänzt Ko-Autor Dr. Matthias Wächter, der an der Universität Oldenburg die Arbeitsgruppe Stochastische Analyse leitet.

Wie das Team berichtet, deuten die Ergebnisse darauf hin, dass die Kontrollsysteme von Windkraftanlagen häufig nicht optimal auf kurzfristige Schwankungen des Windes reagieren: Meist wechseln sie die Kontrollstrategie, was zu den beobachteten starken Schwankungen der elektrischen Leistung führen kann. Durch die neuen Forschungsergebnisse sei es nun jedoch möglich, turbulente Windphänomene und die Reaktion der Kontrollsysteme zu entkoppeln. „Auf diese Weise wird es möglich, die Kontrollsysteme zu verfeinern, damit Windkraftanlagen gleichmäßiger Strom erzeugen“, so der Turbulenzexperte Prof. Dr. Joachim Peinke von der Universität Oldenburg, der an der Studie beteiligt war. Gleichzeitig lasse sich so die Effizienz von Windkraftanlagen verbessern und ihre Lebenszeit verlängern.

Prof. Dr. Mohammad Reza Rahimi Tabar, der zum Forschungsteam der aktuellen Studie gehörte, ist derzeit Fellow am Hanse-Wissenschaftskolleg in Delmenhorst.

Wissenschaftliche Ansprechpartner:
Dr. Pyei Phyo Lin (für Anfragen auf Englisch), Tel.: 0441/798-5052, E-Mail: pyei.phyo.lin@uol.de
Prof. Dr. Joachim Peinke, Tel.: 0441/798-5050, E-Mail: peinke@uol.de

Originalpublikation:
Pyei Phyo Lin, Matthias Wächter, M. Reza Rahimi Tabar und Joachim Peinke: „Discontinuous Jump Behavior of the Energy Conversion in Wind Energy Systems“, PRX Energy 2, 033009, https://doi.org/10.1103/PRXEnergy.2.033009

Weitere Informationen:
https://uol.de/twist

(nach oben)


Zukünftig künstliche Hüften für ein ganzes Leben?

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Interdisziplinäres Forschungsteam der Uni Magdeburg entwickelt haltbare und biokompatible Materialien für dauerhafte Implantate

Ein interdisziplinäres Forschungsteam aus Werkstoffingenieurinnen und -ingenieuren sowie Biologinnen und Medizinstudierenden der Otto-von-Guericke-Universität Magdeburg entwickelt neue Materialien für langlebige Implantate. Biokompatible und antibakterielle Legierungen mit speziellen biomechanischen Eigenschaften sollen künftig schädliche Wechselwirkungen der Implantate mit dem umliegenden menschlichen Gewebe und dadurch entstehende Entzündungsreaktionen beziehungsweise Infektionen verhindern. Dadurch können die Haltbarkeit und Verträglichkeit künstlicher Gelenke verlängert und der Austausch des Implantats, eine sogenannte Implantatrevision, vermieden werden. Speziell Revisionsoperationen stellen eine enorme Belastung für die Patientinnen und Patienten dar und verursachen erhebliche Mehrkosten für das Gesundheitssystem.

„Durch die gestiegene Lebenserwartung und anhaltende Aktivität der Zielgruppe, erhöht sich die Belastung der Gelenke enorm, was wiederum zu einem vermehrten Verschleiß führt“, erklärt die Projektleiterin Prof. Dr. Manja Krüger vom Institut für Werkstoff- und Fügetechnik der Universität Magdeburg. „Die Folge ist eine Zunahme von Implantationen künstlicher Gelenke bei Patientinnen und Patienten und damit verbunden ein steigender Bedarf an besonders haltbaren und verträglichen Werkstoffen für diese Implantate.“ Aktuell eingesetzte Implantatwerkstoffe seien zwar prinzipiell schon von sehr hoher Qualität, aufgrund von Lockerungen, bedingt durch Abrieb und Korrosion, kann es dennoch zu postoperativen Komplikationen kommen, so die Ingenieurin weiter. Um diese Probleme zu beheben, würden für die Patienten und Patientinnen belastende und teure Revisionsoperationen nötig. „Vor allem während der Nutzung im Organismus entstehender Abrieb und resultierende Infektionen führen häufig dazu, dass Endoprothesen, also Implantate, wieder entfernt oder ausgetauscht werden müssen.“

Damit diese Revisionsoperationen in Zukunft nur noch selten nötig werden, forschen die Wissenschaftlerinnen und Wissenschaftler der Universität Magdeburg in zwei Teilbereichen: Zum einen befassen sich Ingenieure und Ingenieurinnen des Lehrstuhls für Hochtemperaturwerkstoffe mit der Materialentwicklung, also dem Design der Legierung sowie mit den mikrostrukturellen und mechanischen Eigenschaften der Materialien und deren Herstellung. Zum anderen arbeiten Biologinnen und Medizin-Studierende aus der Experimentellen Orthopädie des Universitätsklinikums daran, die Verträglichkeit des neuen Werkstoffs für den Organismus zu verstehen und zu optimieren.

„Uns interessieren dabei besonders sogenannte biokompatible Werkstoffe“, erklärt die Materialwissenschaftlerin Manja Krüger, „also im weiteren Sinne für das biologische System verträgliche Materialien.“ Biokompatibel seien, beispielsweise refraktärmetallbasierte Multikomponenten-Werkstoffsysteme, so Krüger. „Diese sogenannten Hoch- und Mediumentropie-Werkstoffe ermöglichen eine große Vielfalt von Kombinationen, was zu völlig neuen Werkstoffen mit außergewöhnlichen Eigenschaften führt. Kürzlich entwickelte Materialien dieser Art zeigen zum Beispiel hervorragende mechanische Eigenschaften, verbesserte Abriebfestigkeit und sowohl korrosive als auch thermische Beständigkeit, die denen von aktuellen Legierungen überlegen sind.“ Diese Legierungen hätten gegenüber den im Moment eingesetzten silberbeschichteten Implantaten den Vorteil, dass bei ihnen noch keine Resistenzen bekannt seien. „Wir wissen, dass Bakterien im Laufe der Jahre einen Resistenzmechanismus gegen Silber entwickeln können, sodass die ursprüngliche antibakterielle Wirkung des Elements abgeschwächt wird. Das wiederum bedeutet, dass auch Silberimplantate irgendwann nicht mehr antibakteriell wirken und periprothetische Infekte, also Infektionen, die sich um eine künstliche Implantation im Körper herum entwickeln, auftreten können“, fügt die Biologin Prof. Jessica Bertrand von der Experimentellen Orthopädie des Universitätsklinikums an.

Langfristiges Ziel der Forscherinnen und Forscher ist es, ein passendes Legierungssystem als neuartigen Implantatwerkstoff zu identifizieren, zu entwickeln und im Labor zu erproben. „Konkret heißt das: Die zugrundeliegenden materialwissenschaftlichen Zusammenhänge sind geklärt, die mechanischen Eigenschaften sind bekannt und übertreffen die branchenüblichen Anforderungen aktuell im Einsatz befindlicher Werkstoffe für Endoprothesen beziehungsweise sind entsprechend patientenspezifisch einstellbar und für die Biokompatibilität beziehungsweise die antibakterielle Wirkung des Systems ist der Nachweis erbracht“, so Prof. Krüger.

Das Forschungsteam besteht aus Prof. Dr. Manja Krüger, Maximilian Regenberg, Dr. Georg Hasemann und Dr. Janett Schmelzer von der Fakultät für Maschinenbau sowie Prof. Dr. Jessica Bertrand, Caroline Grimmer und Munira Kalimov von der Experimentellen Orthopädie. Das Team wurde für seine interdisziplinäre Forschung mit dem zweiten Platz in der Kategorie „Innovativste Vorhaben der Grundlagenforschung“ des Hugo-Junkers-Preises 2023 ausgezeichnet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manja Krüger, Institut für Werkstoff- und Fügetechnik, Fakultät für Maschinenbau, Tel.: +49 391 67-54516, E-Mail: manja.krueger@ovgu.de

(nach oben)


Nord- und Ostsee im Spannungsfeld von Meeresnutzung und Meeresschutz

Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Jahrestagung der DAM-Forschungsmission sustainMare an der Uni Kiel stellt Handlungswissen für Politik und Gesellschaft in den Mittelpunkt

• 280 Wissenschaftlerinnen und Wissenschaftler aus 28 Institutionen und 40 Arbeitsgruppen forschen erstmals gemeinsam in sieben Projekten zu Zukunftsthemen der Nord- und Ostsee
• Transdisziplinäre Forschungsagenda mit Akteurinnen und Akteuren aus Politik, Wirtschaft und Zivilgesellschaft
• Mehr als 170 Forschende zu Gast an der Christian-Albrechts-Universität zu Kiel (CAU) thematisieren multiple ökologische, ökonomische und gesellschaftliche Auswirkungen der Nutzung von Nord- und Ostsee

Die Nordsee und die Ostsee und ihre Küsten beherbergen eine einzigartige Vielfalt an Lebewesen. Der Druck auf diese Lebensräume steigt allerdings. Der Klimawandel und der für die kommenden Jahre geplante Ausbau der Offshore-Energiegewinnung werden die Nord- und Ostsee stark verändern. In dieser Situation benötigen wir neue Maßnahmen zum Schutz der Natur und den Erhalt der biologischen Vielfalt. Ansprüche, beispielsweise aus der Industrie, der Fischerei, dem Tourismus oder der Landwirtschaft müssen mit europäischen Naturschutzabkommen wie der Biodiversitätsstrategie 2030 oder politischen Vorgaben zum Ausbau der Offshore-Windenergie in Einklang gebracht werden. In diesem komplexen Spannungsfeld gilt es, Handlungswissen für Politik und Gesellschaft bereitzustellen, das zu einem nachhaltigen Umgang mit dem Meeresraum und seinen Ökosystemleistungen bei gleichzeitiger Mehrfachnutzung beitragen kann. Erstmals forschen dazu Wissenschaftlerinnen und Wissenschaftler aus 28 Partnerinstitutionen interdisziplinär und transdisziplinär mit Expertinnen und Experten aus der Praxis in der Forschungsmission „Schutz und nachhaltige Nutzung mariner Räume – sustainMare“ der Deutschen Allianz Meeresforschung (DAM). Heute (Mittwoch, 30. August) beginnt an der Christian-Albrechts-Universität zu Kiel (CAU) die zweite Jahrestagung der Mission, an der mehr als 170 Wissenschaftlerinnen und Wissenschaftler sowie Vertreterinnen und Vertreter verschiedener Interessengruppen teilnehmen.

Karin Prien, Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, begrüßte die Teilnehmenden zu Beginn der Konferenz: „Der Schutz der Meere und der Küstenregionen ist nicht nur für Norddeutschland, sondern für die gesamte Welt von hoher Relevanz und der Arbeit der Forscherinnen und Forscher auf diesem Gebiet kann nicht genug Bedeutung beigemessen werden. Ich bin stolz darauf, dass sich das Land Schleswig-Holstein durch die Förderung der DAM inklusive der Forschungsmissionen aktiv beteiligen kann.“

Der Vorsitzende der DAM, Dr. Jochen Harms, betont zusätzlich: „Unsere größte Herausforderung ist, die unterschiedlichen Nutzungsinteressen mit dem Schutz unserer beiden Meere in Einklang zu bringen – um sie auch für künftige Generationen als Lebensgrundlage zu bewahren. Wissenschaftliche Erkenntnisse dafür zu erarbeiten, steht im Fokus der Mission sustainMare.“

Erhöhter Forschungsbedarf durch massive Veränderungen im System Nord- und Ostsee
„Die Nord- und Ostsee werden sich in den nächsten 25 Jahren gravierend verändern. Nicht nur die Folgen des Klimawandels werden die die Regionen weiter belasten. Auch die verstärkte Nutzung durch Industrie, Schifffahrt, Militär und für die Energieerzeugung wird sich massiv auf die Ökosysteme auswirken. Das ist eine Herausforderung für die Fischerei und den Meeresschutz, aber auch für die Forschung. Unser Verständnis der Systeme Nordsee und Ostsee wie wir sie kennen wird durch diese Veränderungen an Bedeutung verlieren und neue Forschungsfragen werden aufgeworfen, die nur im breiten Verbund der wissenschaftlichen Institutionen bearbeitet werden können“, sagt Professorin Corinna Schrum vom Helmholtz-Zentrum Hereon und Sprecherin der DAM-Forschungsmission sustainMare.

Forschende ziehen Bilanz aus den Ergebnissen von insgesamt sieben Projekten
Im Rahmen der dreitägigen Konferenz werden nun die ersten Ergebnisse nach eineinhalb Jahren Forschung von insgesamt fünf Verbundprojekten und zwei Pilotmissionen zusammengetragen und die Weichen für die zukünftige wissenschaftliche Agenda gestellt. Dabei konzentrieren sich die Forscherinnen und Forscher auf drei thematische Schwerpunkte: Biodiversität und die Auswirkungen anthropogener Belastungen und Nutzungen auf marine Ökosysteme, Schadstoffbelastungen mit dem Schwerpunkt auf Munitionsaltlasten aus den Weltkriegen sowie die Entwicklung von Modellierungsinstrumenten zur Erstellung von Zukunftsszenarien, insbesondere unter Berücksichtigung der Klimaveränderungen und des Nutzungsdrucks durch Offshore-Windenergie, Fischerei oder Sedimentmanagement.

Gerade im Hinblick auf die zunehmende Mehrfachnutzung von Nord- und Ostsee ist es wichtig, solche Modelle zu entwickeln, in denen klassische Auswertungsmethoden durch neue molekulare und semi-autonome Methoden ergänzt werden. Ziel ist es, Lücken in der Datenerhebung zu schließen, um wissensbasierte Managementoptionen abzuleiten.

Transdisziplinärer Forschungsansatz mit Akteuren außerhalb der Wissenschaft
Dafür wählt sustainMare einen besonderen Ansatz: Akteure aus Politik und Behörden, aus Fischerei, Tourismus, Umweltverbänden und Wirtschaft werden aktiv in die Forschung eingebunden. Dabei setzen die Wissenschaftlerinnen und Wissenschaftler auf etablierte transdisziplinäre Methoden wie Reallabore und Dialogformate, um Fragestellungen und Ergebnisse mit betroffenen Stakeholdern hin zu tragfähigen Konzepten weiterzuentwickeln. So wurden beispielsweise für die Zukunft der Küstenfischerei in der westlichen Ostsee Reallabore in Schleswig-Holstein und Mecklenburg-Vorpommern aufgebaut. „Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Sie soll möglichst erhalten bleiben. Mit dem Instrument der Reallabore wächst der Austausch zwischen den Akteuren und das gemeinsame Verständnis über die Funktionsweise des Ökosystems, aber auch über die Rolle der Küstenfischerei für die lokalen Gemeinschaften. Gemeinsam können wir hier lokale Lösungsansätze für eine nachhaltige Fischerei entwickeln und ausprobieren“, erklärt CAU-Professorin Marie-Catherine Riekhof, Mitorganisatorin der sustainMare-Tagung.

Auch in der Nordsee werden die Mehrfachnutzungen und die Biodiversität in Meeresschutzgebieten mit einem Reallabor-Ansatz und mit neuartigen Methoden erforscht, die nicht mehr in die Ökosysteme eingreifen. Indikatoren zur Bewertung des ökologischen Zustands von Küstenökosystemen und deren Anwendung in der Naturschutzpraxis werden darüber hinaus in den Nationalparks Schleswig-Holsteins und Niedersachsens entwickelt.

Akutes Umweltproblem: Bergung von Nachkriegsmunition
Ein akutes Umweltproblem, auf das die Mission ihr Augenmerk richtet, sind die erheblichen Munitionsaltlasten, die in der deutschen Nordsee und Ostsee nach dem Zweiten Weltkrieg verklappt wurden. Auch hier wurde im Rahmen der Forschungsmission sustainMare ein transdisziplinärer Ansatz gewählt. „Der Handlungsdruck ist groß. Die Munition liegt dort teilweise seit mehr als 100 Jahren im Salzwasser, so dass sich die Metallhüllen zersetzen. Wir konnten Schadstoffe wie TNT in marinen Lebewesen nachweisen. Es gibt bereits weit fortgeschrittene Konzepte für die Beseitigung der Nachkriegsmunition, die nun in den kommenden Jahren umgesetzt werden sollen. Glücklicherweise existiert ein breiter gesellschaftlicher und politischer Konsens darüber, endlich mit der Problemlösung zu beginnen“, sagt Professor Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Mitorganisator der Jahrestagung.

Erstmalig ganzheitlicher Zustand von Schutzgebieten in Nord- und Ostsee erfasst
Wertvolle Erkenntnisse für die gesamte Mission sustainMare wurden zudem in den beiden Pilotmissionen „Ausschluss mobiler, grundberührender Fischerei in Schutzgebieten der Deutschen ausschließlichen Wirtschaftszone (AWZ) von Nord- und Ostsee“ gewonnen. Hierbei ist die zentrale Frage, wie sich ein Ausschluss der Schleppnetzfischerei auf die Lebensgemeinschaften, die Beschaffenheit des Meeresbodens, die Biogeochemie der Sedimente und auf die Austauschprozesse zwischen Sediment und Wassersäule auswirken wird. Erstmalig wurde dafür ein ganzheitlicher Basiszustand der Schutzgebiete erfasst, um verfolgen zu können, wie sich Ökosysteme ohne Schleppnetzstörung entwickeln. Auf der Grundlage dieser Datenerhebung wird nun mit neuen und traditionellen Methoden ein Monitoring entwickelt, das dazu beiträgt, Zustandsveränderungen rechtzeitig zu erkennen und Gegenmaßnahmen einzuleiten.

Folgen mehrfacher Nutzung der Küstengewässer im Fokus zukünftiger Forschung
Die Energiewende und besonders die Notwendigkeit der Sicherung der Energieerzeugung hat im vergangenen Jahr zu einer erheblichen Beschleunigung des Ausbautempos der Offshore-Energiegewinnung geführt. Das ist eine Entwicklung, der sich die Forschungsmission sustainMare nicht verschließen kann. Schon heute sind Auswirkungen auf die Strömungsverhältnisse und den Meeresboden sowie Veränderungen der Lebensräume für Fische, Meeressäuger oder Seevögel zu beobachten. Die Folgen der intensiven Nutzung unserer Küstengewässer, die Untersuchung von wirksamen Schutzkonzepten und Konzepten zur besseren Ausnutzung des Meeresraumes werden deshalb im weiteren Verlauf der Forschungsmission noch zentraler für die Forschung werden.

Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-baumkurre-nordsee.jpg
Baumkurre im Einsatz in der Nordsee.
© AWI; Hermann Neumann, Thünen-Institut für Seefischerei

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-gruppenfoto-auftakt.jpg
Auftakt zur sustainMare-Jahrestagung an der Uni Kiel zu Zukunftsthemen der Nord- und Ostsee: Karin Prien (4.v.l.), Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, CAU-Präsidentin Prof. Simone Fulda (5.v.r.), Tobias Goldschmidt (4.v.r.), Minister für Energiewende, Klimaschutz, Umwelt und Natur des Landes Schleswig-Holstein (MEKUN), Prof. Corinna Schrum (3.v.r.) vom Helmholtz-Zentrum Hereon, Sprecherin der DAM-Forschungsmission sustainMare und Leiterin des sustainMare-Projektes CoastalFutures, Dr. Joachim Harms (2.v.r.), Vorsitzender des DAM-Vorstands, im Kreis der Projektleitenden und Organisatorinnen und Organisatoren der Konferenz.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-simone-fulda.jpg
Professorin Simone Fulda, Präsidentin der Christian-Albrechts-Universität zu Kiel (CAU), begrüßte die Teilnehmenden der sustainMare-Jahrestagung.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-marie-catherine-riekhof.j…
Prof. Dr. Marie-Catherine Riekhof vom Center for Ocean and Society im CAU-Forschungsschwerpunkt Kiel Marine Science (KMS), leitet sustainMare-Projekt SpaceParti mit Fokus Fischerei, räumliche Nutzung, Biodiversität und Reallabore.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-fischerei-hafen.jpg
Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Mit dem Instrument der Reallabore sollen lokale Lösungsansätze für eine nachhaltige Fischerei entwickelt und ausprobiert werden.
© Heike Schwermer, CeOS/Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-jens-greinert.jpg
Im Projekt CONMAR, das Professor Dr. Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel leitet, wird zum Thema Munition im Meer geforscht.
© Jürgen Haacks, Uni Kiel

Weiteres Bildmaterial ist verfügbar unter:
Zu Projektbildern von sustainMare (abrufbar bis einschließlich 11. September 2023), https://cloud.rz.uni-kiel.de/index.php/s/tFQXysyzggSWykb
Zum Bildarchiv der DAM, https://www.allianz-meeresforschung.de/download

Ein Video steht zur Ansicht bereit:
https://videoportal.rz.uni-kiel.de/Mediasite/Play/8e31813a4cc44590a08ad1601f9e4a… (abrufbar bis einschließlich 11. September 2023)
Videobotschaft von Bettina Stark-Watzinger, Bundesministerium für Bildung und Forschung (BMBF), zum Auftakt der sustainMare-Jahrestagung. Die DAM Forschungsmission sustainMare wird vom BMBF und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
© Bundesministerium für Bildung und Forschung (BMBF)

Über sustainMare
In der Forschungsmission „sustainMare – Schutz und nachhaltige Nutzung mariner Räume“ der DAM untersuchen rund 250 Forschende in zwei Pilot- und fünf Verbundprojekten, wie zukünftig eine nachhaltige Nutzung bei gleichzeitigem Schutz der Meere gewährleistet werden kann. Durch inter- und transdisziplinäre Forschungsansätze sollen das Wissen über multiple Stressoren und die Auswirkungen des Klimawandels auf das Ökosystem Meer erhöht und mithilfe von Zukunftsszenarien konkrete Handlungsempfehlungen für und mit verschiedenen Zielgruppen erarbeitet werden. Übergreifend koordiniert wird sustainMare am Helmholtz-Zentrum Hereon. Seit Dezember 2021 wird sustainMare in seiner ersten dreijährigen Phase vom Bundesministerium für Bildung und Forschung (BMBF) mit 25 Mio. Euro gefördert. Die DAM erarbeitet mit ihren 22 Mitgliedseinrichtungen lösungsorientiertes Wissen und Handlungsoptionen für einen nachhaltigen Umgang mit den Küsten, Meeren und dem Ozean.
Die sustainMare-Forschungsmission ist eine Aktivität im Rahmen der UN Ozeandekade für Ozeanforschung und Teil des Dekadenprogramms „smartNet“. Die sustainMare-Konferenz ist gleichzeitig als Veranstaltung unter dem Dach des „European Maritime Day in my Country“ anerkannt, einer Kampagne der Europäischen Kommission zu Stärkung des Meeresschutzes als auch der wirtschaftlichen Bedeutung der Meere für eine nachhaltige Blaue Wirtschaft in Europa.
https://www.sustainmare.de/

Über die Deutsche Allianz Meeresforschung
Die Deutsche Allianz Meeresforschung (DAM) wurde 2019 vom Bund und den norddeutschen Ländern gegründet, um den nachhaltigen Umgang mit Küsten, Meeren und dem Ozean zu stärken. Mit ihren 24 Mitgliedseinrichtungen und den eigenen Forschungsmissionen CDRmare und sustainMare erarbeitet die DAM lösungsorientiertes Wissen und vermittelt Handlungsoptionen in Politik, Wirtschaft und Zivilgesellschaft. Sie wird vom Bund, vertreten durch das Bundesministerium für Bildung und Forschung (BMBF), und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
https://www.allianz-meeresforschung.de/
https://cdrmare.de/
https://www.sustainmare.de/

Wissenschaftliche Kontakte:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Pressekontakte:
Friederike Balzereit
Wissenschaftskommunikation | Öffentlichkeitsarbeit
Kiel Marine Sciences (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: fbalzereit@uv.uni-kiel.de
Telefon: 0431/880-3032, 0160/9726-2502

Christoph Wöhrle
Helmholtz-Zentrum Hereon
Kommunikation und Medien ℓ Communication and Media
E-Mail: christoph.woehrle@hereon.de
Telefon: 04152/87-1648, 0171/8064-979

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Eva Sittig, Text/Redaktion: Friederike Balzereit Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: https://www.uni-kiel.de Twitter: https://www.twitter.com/kieluni Facebook: https://www.facebook.com/kieluni Instagram: https://www.instagram.com/kieluni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/209-sustainmare-jahrestagung

(nach oben)


Frauen im Fokus

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen
Eine neue Nachwuchsforschungsgruppe an der Uni Siegen untersucht die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts. Ein Ziel des Projektes ist auch, zu einem neuen Verständnis von Wissenschaftsphilosophie und -geschichte beizutragen.

Die Kernspaltung, die DNA-Doppelhelix-Struktur, die Radioaktivität: Viele bahnbrechende wissenschaftliche Entdeckungen gehen maßgeblich auf die Forschungsleistungen von Frauen zurück. Auch zahlreiche Ansätze und Theorien, die heute zum Grundbestand der mathematischen Physik zählen, wurden von Wissenschaftlerinnen (mit)entwickelt. Zu ihren Lebzeiten wurden sie jedoch häufig kaum für ihre Errungenschaften gewürdigt. Bis heute sind ihre Namen vielen Menschen unbekannt – während berühmte Physiker wie Albert Einstein, Max Planck oder Werner Heisenberg in aller Munde sind. Eine Nachwuchsforschungsgruppe am Department Mathematik der Universität Siegen hat es sich zum Ziel gesetzt, die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts zu erforschen – und sogenannte „Gender Biases“ im Schnittfeld von Wissenschafts- und Philosophiegeschichtsschreibung zu analysieren.

„Gender Biases sind systematische Verzerrungseffekte, die durch geschlechtsbezogene Vorurteile geprägt sind und zu Benachteiligungen führen“, erklärt die Leiterin der Siegener Nachwuchsforschungsgruppe, Dr. Andrea Reichenberger: „Gender Biases wirken nicht nur in unserer alltäglichen Kommunikation und Interaktion, sondern eben auch in der Wissenschaft und Forschung – und nicht zuletzt in der Wissenschaftsphilosophie und -geschichte. Uns geht es deshalb zum einen darum, den Anteil von Frauen an der Entstehung wichtiger Erkenntnisse in der mathematischen Physik neu zu bewerten. Zum anderen möchten wir neue Ansätze einer Philosophie und Geschichte der Wissenschaften vorstellen, indem wir innovative Perspektiven auf das Thema Gleichstellung aufzeigen.“

Ein Beispiel für die Unterbewertung der wissenschaftlichen Beiträge von Frauen ist die amerikanische Mathematikerin Christine Ladd-Franklin: Bis kurz vor ihrem Tod im Jahr 1930 wurde ihr von der John Hopkins University trotz erreichter Qualifikation der Doktortitel vorenthalten, weil sie eine Frau war. Dennoch waren ihre Beiträge in Philosophie, Logik, Mathematik und Psychologie sehr einflussreich und führten dazu, dass Ladd-Franklin in zahlreichen Publikationen zitiert wurde. Nach ihrem Tod geriet die Wissenschaftlerin jedoch rasch in Vergessenheit, stattdessen wurde ihr Lehrer, der Mathematiker und Philosoph Charles Sanders Peirce, als herausragender Logiker seiner Zeit gefeiert.

„Zu ihren Lebzeiten waren Christine Ladd-Franklins Arbeiten zur Algebra der Logik einflussreich und wichtig, das lässt sich auch statistisch nachweisen. Ihr Einfluss auf die Geschichte und Philosophie der Logik sollte daher angemessener eingeordnet werden“, sagt Jasmin Özel von der Siegener Forschungsgruppe.

Weitere Wissenschaftlerinnen, mit denen sich Andrea Reichenberger und ihr Team beschäftigen, sind unter anderen die französische Logikerin und Physikerin Paulette Destouches-Février oder auch die deutsch-australische Physikerin und Philosophin Ilse Rosenthal-Schneider. Rosenthal-Schneider promovierte 1920 an der Universität Berlin zum Thema „Das Raum-Zeit-Problem bei Kant und Einstein“, Albert Einstein begleitete die Arbeit in Gesprächen und Diskussionen. Doch trotz Empfehlungsschreiben von Einstein, Max Planck und Max von Laue erhielt die Wissenschaftlerin nach ihrer Emigration nach Australien nie mehr als eine Tutorenstelle. Und dennoch lieferte Rosenthal-Schneider mit ihrer unermüdlichen Lehr- und Publikationstätigkeit wichtige Impulse für das später gegründete Institut für „History and Philosophy of Science“ an der Universität Sydney.

Archivmaterial wie Briefe oder wissenschaftliche Aufsätze sind eine wichtige Quelle für die Siegener Forscher*innen. Neben der qualitativen Analyse solcher Texte erheben sie auch quantitative Daten, beispielsweise zur Anzahl der Zitierungen in wissenschaftlichen Publikationen. „Die Kombination von qualitativen und quantitativen Forschungsmethoden ist sehr gewinnbringend, wenn es darum geht, sich dem tatsächlichen Anteil von Frauen in der Geschichte der Physik und Mathematik anzunähern“, erklärt Reichenberger. Der Blick auf die Historie habe zudem direkte Bezüge zu Gegenwart und Zukunft, betont sie: „Wird die scheinbare Abwesenheit von Frauen im wissenschaftlichen Kanon unhinterfragt fortgeschrieben, dann bleiben tief liegende, stereotype Denkmuster erhalten und werden von Generation zu Generation weitervererbt. Auf diese Machtstrukturen möchten wir aufmerksam machen.“

Hintergrund:
Die Nachwuchsforschungsgruppe „Geschichte und Philosophie neu denken: Frauen im Fokus“ wird von der Universität Siegen im Rahmen des Professorinnen-Programms von Bund und Ländern mit 420.000 Euro gefördert. Neben Dr. Andrea Reichenberger und Jasmin Özel gehören Julia Franke-Redding und Dr. Rudolf Meer zu der Siegener Nachwuchsforschungsgruppe. Meer ist mit einem Marie Curie STAR Fellowship aus Österreich an die Universität Siegen gekommen, um in der Gruppe zu forschen. Alle vier Wissenschaftler*innen sind ausgebildete Philosophie-Historiker*innen mit einem Schwerpunkt auf den Fächern Physik und Mathematik.

Wissenschaftliche Ansprechpartner:
Dr. Andrea Reichenberger (Leiterin der Nachwuchsforschungsgruppe)
E-Mail: andrea.reichenberger@uni-siegen.de
Tel.: 0271 740 5601

(nach oben)


Meereisrückgang lässt Zooplankton künftig länger in der Tiefe bleiben

Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Sonnenlicht kann wegen der zunehmenden Meereisschmelze in der Arktis immer tiefer in den Ozean eindringen. Weil sich das Zooplankton im Meer an den Lichtverhältnissen orientiert, verändert sich dadurch auch sein Verhalten – vor allem dabei der Auf- und Abstieg der winzigen Tiere innerhalb der Wassersäule. Wie ein internationales Forschungsteam unter Leitung des Alfred-Wegener-Instituts nun zeigt, könnte dies in Zukunft zu häufigeren Hungerphasen beim Zooplankton und zu negativen Effekten bis hin zu Robben und Walen führen. Die Studie ist im Fachmagazin Nature Climate Change erschienen.

Ausdehnung und Dicke des Meereises in der Arktis schwinden in Folge des menschengemachten Klimawandels deutlich. So schrumpft die durchschnittliche Fläche des Eises derzeit um etwa 13 Prozent pro Dekade. Schon 2030 – so zeigen es aktuelle Studien und Modellrechnungen – könnte der Nordpol im Sommer erstmals eisfrei sein. Die physikalischen Umweltbedingungen für das Leben im Nordpolarmeer ändern sich dadurch ebenso deutlich. Das Sonnenlicht etwa kann bei schrumpfender und dünnerer Eisdecke viel tiefer in das Wasser des Ozeans eindringen. In der Folge kann etwa die Primärproduktion – also das Wachstum – von Mikroalgen in Wasser und Eis unter bestimmten Bedingungen stark ansteigen. Wie sich die veränderten Lichtbedingungen auf höhere trophische Ebenen der Nahrungskette – wie beispielsweise das sich unter anderem von Mikroalgen ernährende Zooplankton – auswirken, ist bislang noch nicht gut verstanden. Ein internationales Forschungsteam um Dr. Hauke Flores vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) hat nun einen wichtigen wissenschaftlichen Baustein für ein besseres Verständnis geliefert.

„In den Ozeanen findet jeden Tag die gewaltigste synchrone Massenbewegung von Organismen auf dem Planeten statt“, sagt Hauke Flores. „Und das ist die tägliche Wanderung des Zooplanktons, zu dem etwa die winzigen Copepoden, auch bekannt als Ruderfußkrebse, und der Krill zählen. Nachts kommt das Zooplankton nah an die Wasseroberfläche, um zu fressen. Tagsüber wandert es wieder in die Tiefe, um sich vor Fressfeinden zu schützen. Einzelne Organismen des Zooplanktons sind zwar winzig, in der Summe aber ergibt sich so eine enorme tägliche Vertikalbewegung von Biomasse in der Wassersäule. In den Polargebieten sieht diese vertikale Wanderung allerdings anders aus. Sie ist hier saisonal, das heißt, dass das Zooplankton einem jahreszeitlichen Zyklus folgt. In der monatelangen Helligkeit des Polartags im Sommer bleibt das Zooplankton dauerhaft in größeren Tiefen, in der monatelangen Dunkelheit der Polarnacht im Winter kommt ein Teil des Zooplanktons dann dauerhaft in das oberflächennahe Wasser direkt unter dem Eis.“

Ganz wesentlich bestimmt werden sowohl die tägliche Wanderung in niedrigen Breiten als auch die saisonale Wanderung in den Polargebieten vom Sonnenlicht. Die winzigen Tiere mögen es meist dämmrig. Sie bleiben gern unterhalb einer bestimmten Lichtintensität (kritisches Isolumen), die meist sehr niedrig ist und weit im dunklen Dämmerlichtbereich liegt. Wenn sich im Laufe des Tages oder der Jahreszeiten die Sonnenlichtintensität ändert, folgt das Zooplankton dem Isolumen, was letztlich dann zum Auf- und Absteigen in der Wassersäule führt. „Speziell im Bereich der oberen 20 Meter Wassersäule direkt unter dem Meereis fehlten bislang Daten zum Zooplankton“, erläutert Hauke Flores. „Genau dieser schwer für Messungen erreichbare Bereich ist aber der spannendste, weil genau hier im und unter dem Eis die Mikroalgen wachsen, von denen sich das Zooplankton ernährt.“ Um hier zu messen, konstruierte das Team ein autonomes biophysikalisches Messobservatorium, das sie am Ende der MOSAiC-Expedition des AWI-Forschungseisbrechers Polarstern im September 2020 unter dem Eis verankerten. Das Gerät konnte hier – fernab jeder Lichtverschmutzung durch menschliche Aktivitäten – kontinuierlich die Lichtintensität unter dem Eis und die Bewegungen des Zooplanktons messen.

„Im Ergebnis konnten wir ein sehr niedriges kritisches Isolumen für das Zooplankton von 0,00024 Watt/Quadratmeter bestimmen“, sagt der AWI-Forscher. „Diesen Wert haben wir dann in unsere Computermodelle integriert, die das Meereissystem simulieren. So haben wir dann für verschiedene Klimaszenarien berechnet, wie sich die Tiefe dieses Isolumens bis zur Mitte dieses Jahrhunderts verändert, wenn das Meereis in Folge des fortschreitenden Klimawandels immer dünner wird.“ Dabei zeigte sich, dass das kritische Isolumen wegen der immer weiter abnehmenden Eisdicke immer früher im Jahr in größere Tiefen absinkt und immer später im Jahr wieder die Oberflächenschicht erreicht. Da das Zooplankton grundsätzlich unterhalb des kritischen Isolumens bleibt, wird es dieser Bewegung folgen. Deshalb hält es sich in den Zukunftsszenarien immer länger in größeren Tiefen auf und seine Zeit im Winter unter dem Eis wird immer kürzer.

„Künftig wird sich in einem wärmeren Klima das Eis im Herbst später bilden, was zu einer geringeren Eisalgenproduktion führt“, erklärt Hauke Flores. „In Kombination mit dem späteren Aufstieg kann das beim Zooplankton im Winter häufiger zu Nahrungsmangel führen. Im Gegenzug kann ein früherer Abstieg des Zooplanktons im Frühjahr eine Gefährdung für tiefer lebende Jungstadien von ökologisch wichtigen Zooplanktonarten bewirken, die dann vermehrt von den ausgewachsenen Tieren gefressen werden könnten.“

„Insgesamt zeigt unsere Studie einen bisher nicht beachteten Mechanismus auf, über den sich die Überlebenschancen des Zooplanktons in der Arktis in naher Zukunft weiter verschlechtern könnten“, sagt der AWI-Forscher. „Dies hätte fatale Auswirkungen auf das ganze Ökosystem bis hin zu Robben, Walen und Eisbären. Unsere Modellsimulationen zeigen aber auch, dass sich die Vertikalwanderung bei Einhaltung des 1,5 Grad-Ziels wesentlich weniger verschiebt als bei einem ungebremsten Fortschreiten der Treibhausgasemissionen. Deswegen ist für das arktische Ökosystem jedes Zehntel Grad weniger menschengemachte Erwärmung von entscheidender Bedeutung.“

SPERRFRIST: Montag, 28. August 2023 um 17:00 Uhr MESZ (16:00 London Time, 11:00 (US Eastern Time)

Wissenschaftliche Ansprechpartner:
https://www.awi.de/ueber-uns/service/expertendatenbank/hauke-flores.html

Originalpublikation:
H. Flores, G. Veyssiere, G. Castellani, J. Wilkinson, M. Hoppmann, M. Karcher, L. Valcic, A. Cornils, M. Geoffroy, M. Nicolaus, B. Niehoff, P. Priou, K. Schmidt, J. Stroeve: Sea-ice decline makes zooplankton stay deeper for longer; Nature Climate Change (2023). DOI: 10.1038/s41558-023-01779-1

Weitere Informationen:
http://multimedia.awi.de/medien/pincollection.jspx?collectionName=04b0ddd9f0d0c7… weitere Bilder

(nach oben)


Schutzschild gegen Coronaviren

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Gute Neuigkeiten für Patientinnen und Patienten mit einer erworbenen oder angeborenen Immunschwäche: Die Ergebnisse einer klinischen Phase II Studie am Universitätsklinikum Tübingen unter Leitung von Prof. Dr. Juliane Walz und Prof. Dr. Helmut Salih zeigen eine wirksame Aktivierung der T-Zellen gegen das Coronavirus. Nach positiven Ergebnissen der vorangegangen Phase I bei gesunden Probandinnen und Probanden konnte der T-Zell-Aktivator „CoVac-1“ diese Effekte nun erstmalig bei Krebspatientinnen und Krebspatienten reproduzieren. Die Ergebnisse wurden aktuell in der renommierten Fachzeitschrift Nature communications publiziert.

Tübinger T-Zell-Aktivator bietet immungeschwächten Patientinnen und Patienten Schutz
Auch nach Ende der COVID-19-Pandemie sind virale Infektionen wie SARS-CoV-2 für Patientinnen und Patienten mit geschwächtem Immunsystem eine ernst zu nehmende Bedrohung. Zu dieser Gruppe gehören insbesondere an Krebs erkrankte Menschen, die durch die Erkrankung selbst oder aufgrund der Tumortherapie keine ausreichende Immunantwort nach einer natürlichen Infektion oder einer Impfung mit herkömmlichen Impfstoffen bilden können. Bei diesen Personen entwickeln sich häufig keine Antikörper gegen die Viruserkrankung. Für diese immungeschwächten Menschen hat das Tübinger Team einen Impfstoff entwickelt, mit dem Ziel, sie besser vor Infektionserkrankungen zu schützen. Dieser aktiviert gezielt T-Zellen, die ein wichtiger Bestandteil unseres Immunsystems sind und in der Abwehr von Infektionserkrankungen eine entscheidende Rolle einnehmen.

Die Forschenden haben dafür den neuartige T Zell Aktivator CoVac-1 verwendet, der für die Krebsimmuntherapie entwickelt wird. Dies ist der Hauptforschungsschwerpunkt der Tübinger Immunologinnen und Immunologen. CoVac-1 wurde schon 2022 erfolgreich an gesunden Probandinnen und Probanden erprobt und zeigte eine gute Verträglichkeit bei sehr guter Immunstimulation, also einer sehr starken Aktivierung der T-Zellen.

Ergebnisse der Phase-II-Studie
Insgesamt wurden 54 Patienten und Patientinnen im Rahmen der Studie einmalig geimpft. Die meisten Studienteilnehmenden litten an Blutkrebserkrankungen und zeigten aufgrund ihrer Erkrankung selber oder aber der Tumortherapie ein deutlich geschwächtes Immunsystem. Es traten so gut wie keine Nebenwirkungen auf.
Nur vereinzelt wurde über leichte Beschwerden wie Kopfschmerzen und Müdigkeit berichtet.

Bei allen Probandinnen und Probanden entwickelte sich an der Impfstelle eine lokale Verhärtung. „Diese Lokalreaktion wird für unseren T-Zell-Aktivator erwartet und gewünscht. Sie ist Ausdruck der Bildung eines Depots an der Impfstelle, das einen schnellen Abbau der T-Zell-Reaktion verhindert und so eine langanhaltende Immunreaktion ermöglicht“, erklärt Dr. Jonas Heitmann, einer der Erstautoren der Studie.
Besonders hervorzuheben ist die langanhaltende Wirkung. Noch vier Wochen nach Impfung wurde eine breite und starke T-Zell-Immunantwort nachgewiesen. In ersten Folgeuntersuchungen blieben diese Immunantworten in unveränderter Stärke bestehen. Selbst in stark immungeschwächten Patientinnen und Patienten waren die durch CoVac-1 aktivierten T-Zell-Antworten deutlich stärker ausgeprägt als bei Genesenen nach natürlicher Infektion und auch potenter als die T-Zell-Immunität, die durch zugelassene mRNA- oder Vektorimpfstoffe erzeugt wird.

Eigene Impfstoffentwicklung, Herstellung und Erprobung
CoVac-1 wird im Wirkstoffpeptidlabor und der sogenannten GMP-Einheit des Universitätsklinikums und der Medizinischen Fakultät Tübingen hergestellt. Auch hier wird auf die langjährige Erfahrung und Expertise bei der Produktion von Impfstoffen für Krebserkrankte zurückgegriffen. Die klinische Evaluation des T-Zell-Aktivators erfolgt in der KKE Translationale Immunologie, einer deutschlandweit einzigartigen Einrichtung im Department Innere Medizin des Universitätsklinikums. Diese wurde etabliert, um innovative Immuntherapiekonzepte möglichst rasch in ersten klinischen Studien erproben zu können, damit Patienten und Patientinnen schnellstmöglich von neuen Erkenntnissen der Forschung profitieren. Die Studie wurde unter Leitung des Tübinger Universitätsklinikums in Tübingen und an Kliniken in Frankfurt am Main und der Berliner Charité durchgeführt.

Weitere Entwicklung von T-Zell-Aktivatoren
Basierend auf diesen ermutigenden Ergebnissen arbeitet das Team bereits an der Entwicklung von Impfungen unter Verwendung von T-Zell-Aktivatoren gegen zahlreiche weitere Infektionserkrankungen, die eine Bedrohung für immungeschwächte Tumorpatienten und -patientinnen darstellen. Zudem liefert diese Studie einen wichtigen Beitrag für die Entwicklung von therapeutischen Impfungen für Betroffene. Dies wird derzeit in Patientinnen und Patienten mit verschiedenen soliden Tumoren und Blutkrebserkrankungen untersucht.

Originalpublikation:
Phase I/II trial of a peptide-based COVID-19 T-cell activator in patients with B-cell deficiency; doi: https://doi.org/10.1038/s41467-023-40758-0

(nach oben)


Emissionsgutschriften durch vermiedene Entwaldung halten oft nicht, was sie versprechen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Projekte, die die Abholzung von Wäldern reduzieren, verkaufen oft Emissionsgutschriften – zum Beispiel an Verbraucher, die Flugtickets erwerben. Über 90 Prozent dieser Projektgutschriften gleichen jedoch die Treibhausgasemissionen nicht wirklich aus. Zu diesem Schluss kommt eine Studie der Vrije Universiteit Amsterdam (Niederlande), der Universität Bonn, der University of Cambridge (Vereinigtes Königreich) und des European Forest Institutes in Barcelona (Spanien). Sie wurde beispielhaft für 26 Projekte in sechs Ländern durchgeführt. Die Ergebnisse sind nun im renommierten Journal Science erschienen.

Weltweit gibt es ein wachsendes Interesse an Kompensationsmechanismen für den Klimaschutz. Emissionsgutschriften erreichten im Jahr 2022 einen Marktwert von insgesamt 2 Milliarden Dollar. Darüber hinaus wird die Übertragung von Emissionsgutschriften als handelbare finanzielle Einheiten, die Treibhausgasemissionen kompensieren, im Pariser Klima-Abkommen von 2015 gefördert. Das internationale Forschungsteam untersuchte insgesamt 26 Projekte in Peru, Kolumbien, Kongo, Tansania, Sambia und Kambodscha. Die meisten dieser Schutzprojekte haben kaum zum Waldschutz beigetragen. Darüber hinaus waren die Treibhausgas-Reduktionen durch den Waldschutz geringer als angegeben.

West und seine Forscherkollegen bewerteten die Wirkung von freiwilligen REDD+-Projekten: Reducing Emissions from Deforestation and forest Degradation (Minderung von Emissionen aus Entwaldung und Schädigung von Wäldern) in Entwicklungsländern. Dabei handelt es sich um ein freiwilliges Klimaschutzinstrument, das es ermöglicht, Treibhausgasemissionen durch Waldschutz zu kompensieren.

Die Forscher sammelten Daten über freiwillige REDD+-Projekte und Projektregionen, einschließlich der historischen Entwaldung, um kontrafaktische Szenarien für die Projektgebiete zu erstellen: Szenarien darüber, was ohne das REDD+-Programm geschehen wäre. Anschließend verglichen sie diese Referenzszenarien mit den Berechnungen der Projektentwickler.

Für die meisten dieser Projekte fanden die Forscher keine Belege dafür, dass sie die Entwaldung verringern. Sie schätzen, dass 90 Prozent der Gutschriften aus den REDD+-Projekten die Treibhausgasemissionen nicht tatsächlich ausgleichen. Die Projekte, die die Abholzung reduzieren, überschätzen ihre Auswirkungen. Das führt dazu, dass die Projekte mehr Kohlenstoffgutschriften ausstellen, als sie sollten.

Den Forschern zufolge bedeutet dies, dass die von Einzelpersonen und Organisationen zur Reduzierung ihrer eigenen Emissionen gekauften Emissionsgutschriften größtenteils “heiße Luft” sind und in Wirklichkeit nicht ausgleichen. “Wir machen uns selbst etwas vor, wenn wir diese Kompensationen kaufen”, sagt Dr. Thales A. P. West vom Institut für Umweltstudien der Vrije Universiteit Amsterdam. “Einzelpersonen und Organisationen geben Milliarden von Dollar für eine Strategie zur Eindämmung des Klimawandels aus, die nicht funktioniert, anstatt dieses Geld in etwas zu investieren, das tatsächlich etwas bewirken kann, zum Beispiel in saubere Energie.”

An der Studie ist auch Prof. Dr. Jan Börner vom Institut für Lebensmittel- und Ressourcenökonomik (ILR) sowie vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn beteiligt. “Emissionsgutschriften aus dem REDD+-Programm können ein Weg zur Reduzierung des Kohlendioxid-Ausstoßs sein. Die Ergebnisse der Studie sehe ich als einen dringenden Aufruf dafür zu sorgen, dass die Methoden zur Verifizierung und Evaluierung der emittierten Zertifikate verbessert werden”, sagt Börner. Der Professor für Ökonomie der nachhaltigen Landnutzung & Bioökonomie ist auch Sprecher des Transdisziplinären Forschungsbereichs “Sustainable Futures” an der Universität Bonn.

Beteiligte Institutionen und Finanzierung:
Neben der Vrije Universiteit Amsterdam (Niederlande) und der Universität Bonn sind an der Studie die University of Cambridge (Vereinigtes Königreich), das European Forest Institute in Barcelona (Spanien), das Center for International Forestry Research in Lima (Peru), die North Carolina State University in Raleigh (USA) und die University of New South Wales in Sydney (Australien) beteiligt. Die Forschung wurde von der Internationalen Klima- und Waldinitiative Norwegens (NICFI), dem Meridian Institute, der Global Comparative Study on REDD+ des Center for International Forestry Research und dem Bundesministerium für Ernährung und Landwirtschaft sowie der Deutschen Forschungsgemeinschaft gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Börner
Institut für Lebensmittel- und Ressourcenökonomik (ILR)
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel. +49 228 73-3548
E-Mail: jborner@uni-bonn.de

Originalpublikation:
Thales A. P. West, Sven Wunder, Erin O. Sills, Jan Börner, Sami W. Rifai, Alexandra N. Neidermeier, Gabriel Frey, Andreas Kontoleon: Action needed to make carbon offsets from forest conservation work for climate change mitigation, Science, DOI: 10.1126/science.ade3535; https://www.science.org/doi/10.1126/science.ade3535

(nach oben)


Viele Kinder meiden die Schultoiletten

Dr. Inka Väth Kommunikation und Medien
Universitätsklinikum Bonn
Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn leitet wissenschaftliche Auswertung einer umfassenden Studie zu Sanitäranlagen an Berliner Schulen

Zusammen mit dem Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn (UKB) hat die German Toilet Organization (GTO) mit Sitz in Berlin eine wissenschaftliche Studie zu Schultoiletten an 17 weiterführenden Schulen aus 11 Berliner Bezirken durchgeführt. Heute wurde sie im Rahmen einer Pressekonferenz der Öffentlichkeit vorgestellt. Aus den Studienergebnissen geht klar hervor, dass die Mehrheit der Schülerinnen und Schüler die Schultoiletten als einen negativen Ort wahrnimmt und daher die Nutzung von vielen vermieden wird. Funktionelle Schäden, fehlende Privatsphäre, Gestank und eine unzureichende Versorgung mit Füllgütern wie Toilettenpapier und Seife sind weitere Beanstandungen, die sich mit Berichten aus anderen Städten decken. Es wurde aber auch deutlich, dass einfache Maßnahmen signifikante Verbesserungen erzielen können. Dazu gehören die strukturell verankerte Partizipation der Schülerinnen und Schüler in die Gestaltung und Nutzung von Sanitärräumen, ein gut organisiertes und sichtbares Mängelmanagement durch die Schule sowie die Umsetzung von zwei Reinigungszyklen pro Tag, wovon mindestens eine im Tagdienst durchgeführt werden sollte.

Ziel der Berliner Studie [1] war es, valide Daten zur subjektiven Wahrnehmung und dem Nutzungsverhalten aus der Perspektive der Schülerinnen und Schüler bezüglich ihrer Schultoiletten zu erheben und gleichzeitig eine Bestandsaufnahme zur Funktionsfähigkeit und Ausstattung sowie zu wichtigen strukturellen Prozessen wie Reinigung, Wartung und Instandhaltung der Schultoiletten durchzuführen. Darüber hinaus war es den Autorinnen und Autoren der Studie in der Konzeption und Auswertung besonders wichtig, mögliche Zusammenhänge zwischen einzelnen Messgrößen zum Zustand der Toiletten, strukturellen Maßnahmen der Schule und der Wahrnehmung der Schülerinnen und Schüler zu ermitteln. Aus den Ergebnissen konnten Handlungsempfehlungen für Schulen und Politik abgeleitet werden, verbunden mit einer klaren Aufforderung, jetzt zu handeln.

Die Ergebnisse bestätigen die Erfahrungen, die sowohl die GTO als auch das IHPH in vielfältigen Projekten gesammelt haben: Sanitärräume sind dann ein Ort, an dem sich die Schulkinder gerne aufhalten, wenn sie in ihrer Komplexität erfasst und so gestaltet werden, dass sie nicht allein auf das Merkmal „Ausstattung“ oder „Fehlverhalten der Schülerinnen und Schüler“ reduziert werden. Die Vermeidung des Toilettengangs während des Schulaufenthalts aufgrund der negativen Wahrnehmung der Sanitärräume führt zu einer Reihe vielfach belegter gesundheitlicher Risiken, angefangen von Konzentrationsstörungen bis hin zu Blasenentzündungen, Verstopfung mit Bauchschmerzen und sogar Infektionskrankheiten. Aus diesem Grunde drängen das IHPH und auch die GTO schon lange darauf, den Ort endlich aus der Tabuzone herauszuholen und anstelle von Schuldzuweisungen eine konstruktive, gemeinschaftliche Herangehensweise für eine nachhaltige Besserung der Zustände voranzutreiben.

Dr. Andrea Rechenburg, die die Auswertung der Daten am IHPH leitete, betonte, dass das Monitoring des Nachhaltigkeitsziels Nr. 6 „Verfügbarkeit und nachhaltige Bewirtschaftung von Wasser und Sanitärversorgung für alle gewährleisten“ in Deutschlands Schulen lückenhaft ist, auch wenn national die Versorgung als gesichert gilt. Hier entsteht der Eindruck, dass im Grunde kein Handlungsbedarf bestehe, dabei sind aktuell keine Daten für weiterführende Schulen und den städtischen und ländlichen Raum vorhanden, und die tatsächliche Funktionalität von Sanitärräumen wird nicht dokumentiert. Zukünftig müsse mit erweiterten Indikatoren gearbeitet werden, die abbilden, welche Bedarfe es für die Schülerinnen und Schüler heute wirklich gibt und wo diese im Sinne des Nachhaltigkeitsziel 6 für alle und zu jeder Zeit erfüllt werden.

Das Institut für Hygiene und öffentliche Gesundheit (IHPH) beschäftigt sich mit seiner Initiative „Hygiene-Tipps für Kids“ bereits seit 20 Jahren mit Themen der Infektionsprävention und Hygiene im direkten Lebensumfeld von Kindern. Der schlechte Zustand der Schultoiletten ist immer wieder Ausgangspunkt von Anfragen aus der Schulgemeinschaft. Innovative, partizipative Elemente wie die Ausbildung von „Junior-Hygieneinspektoren“ und der Blick auf die strukturellen Prozesse von Reinigung und Wartung sind von Beginn an Teil des Konzepts. Wasser, Sanitärversorgung und Hygiene (WASH) in Schulen ist ein Themenkomplex zu dem das IHPH in seiner Funktion als Kollaborationszentrum der Weltgesundheitsorganisation (WHO) auch international schon seit 2015 arbeitet. Es war u. a. maßgeblich beteiligt an der Erstellung des in 2019 von der WHO herausgegebenen Informationspakets zur Verbesserung von WASH in Schulen für das Schulpersonal [2].

Quellen
[1] German Toilet Organization, Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn. Toiletten machen Schule® – Studie zu Sanitäranlagen an Berliner Schulen, Berlin: 2023. germantoilet.org/de/ [Letzter Zugriff 25.8.2023], www.ukbonn.de/ihph, www.hygiene-tipps-fuer-kids.de.
[2] Improving health and learning through better water, sanitation and hygiene in schools: An information package for school staff. Copenhagen: WHO Regional Office for Europe;2019. www.who.int/europe/publications/i/item/9789289054508 [Letzter Zugriff 18.8.2023]
Weiterführende Informationen auf folgenden Webseiten:
www.ukbonn.de/ihph/

Pressekontakt:
Daria Siverina
Stellv. Pressesprecherin am Universitätsklinikum Bonn
Stabsstelle Kommunikation und Medien am Universitätsklinikum Bonn
Tel. +49 228 287-14416
E-Mail: daria.siverina@ukbonn.de

Dr. Andrea Rechenburg
Geschäftsführerin WHO Kollaborationszentrum
Institut für Hygiene und Öffentliche Gesundheit
WHO Kollaborationszentrum für Wassermanagement und Risikokommunikation zur Förderung der Gesundheit
Universitätsklinikum Bonn
Tel.: +49 228 287-19518
E-Mail: Andrea.Rechenburg@ukbonn.de

Zum Universitätsklinikum Bonn: Im UKB werden pro Jahr etwa 500.000 Patient*innen betreut, es sind ca. 9.000 Mitarbeiter*innen beschäftigt und die Bilanzsumme beträgt 1,6 Mrd. Euro. Neben den über 3.300 Medizin- und Zahnmedizin-Studierenden werden pro Jahr weitere 585 Personen in zahlreichen Gesundheitsberufen ausgebildet. Das UKB steht im Wissenschafts-Ranking sowie in der Focus-Klinikliste auf Platz 1 unter den Universitätsklinika (UK) in NRW und weist den dritthöchsten Case Mix Index (Fallschweregrad) in Deutschland auf. Das F.A.Z.-Institut hat das UKB 2022 und 2023 als Deutschland begehrtesten Arbeitgeber und Ausbildungs-Champion unter den öffentlichen Krankenhäusern bundesweit ausgezeichnet.

(nach oben)


Hitzewellen werden häufiger und tödlicher

Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Hitzewellen mit vermehrten Todesfällen aufgrund von Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps nehmen zu. Die Übersterblichkeit eines heissen „Jahrhundertsommers“ wie 2003 ist heute alle zehn bis zwanzig Jahre zu erwarten, und in einer Zwei-​Grad-Welt alle zwei bis fünf Jahre. Südeuropa ist besonders von zunehmenden Hitzewellen bedroht, ebenso die Golf-​ und Atlantikküsten der USA, die Pazifikküste Lateinamerikas, der Mittlere Osten und Südostasien.

Hitzewellen, wie wir sie aktuell erleben, sind besonders für ältere, kranke und arme Menschen tödlich. Die Hitzewelle von 2003 mit Temperaturen in Europa bis zu 47,5 Grad, gehörte mit geschätzten 45’000 bis 70’000 Todesopfern innert weniger Wochen zu den schlimmsten Naturkatastrophen der vergangenen Jahrzehnte. Wälder standen in Flammen, Felder verdorrten und in den Städten füllten sich die Notfallstationen. Die weltweiten Kosten beliefen sich auf rund 13 Milliarden US-​Dollar. Trotzdem ist die öffentliche Aufmerksamkeit für die Risiken solcher Hitzewellen im Vergleich zu anderen klimabedingten Extremen noch gering. Das ist riskant, wie eine aktuell im Fachmagazin «Nature Communications» erschienene externe SeiteStudiecall_made zeigt. Hitzewellen wie diejenige von 2003 könnten in den kommenden Jahren zur neuen Norm werden.

Epidemiologie und Klimamodellierung kombiniert
Forschende des Instituts für Umweltentscheidungen der ETH Zürich haben für die Studie mit einer internationalen Gruppe von Epidemiologinnen und Epidemiologen zusammengearbeitet. Diese sammelt seit 2013 systematisch Daten zur täglichen hitzebedingten Übersterblichkeit für 748 Städte und Gemeinden in 47 Ländern Europas, Südostasiens, Lateinamerikas, in den USA und Kanada. Mit diesem Datensatz haben die Forschenden die Beziehung zwischen täglicher Durchschnittstemperatur und Mortalität für sämtliche 748 Orte berechnet. Daraus ergibt sich für jeden Ort eine Idealtemperatur, bei der es zur geringsten Übersterblichkeit kommt. In Bangkok zum Beispiel liegt dieser Wert bei 30 Grad, in São Paulo bei 23, in Paris bei 21 und in Zürich bei 18 Grad.

Physikalisch plausible Wetterextreme modelliert
Jedes Zehntelgrad über diesem Idealwert vergrössert die Übersterblichkeit. «Hitze ist nicht gleich Hitze», sagt Samuel Lüthi, Erstautor der Studie und Doktorand an der Professur für Wetter-​ und Klimarisiken von David Bresch. «Dieselbe Temperatur wirkt sich in Athen und Zürich komplett unterschiedlich auf die hitzebedingte Übersterblichkeit in der Bevölkerung aus.» Diese hängt nicht nur von der Temperatur ab, sondern auch von der Physiologie (Gewöhnung), Verhalten (lange Siestas über Mittag), Städteplanung (Grünflächen vs. Beton), der demographischen Bevölkerungsstruktur und dem jeweiligen Gesundheitssystem.

Mit den Idealwerten berechneten die Forschenden, wie sich die Übersterblichkeit bei einer durchschnittlichen globalen Erhitzung von 0.7 Grad (Wert für das Jahr 2000), 1.2 Grad (Wert für das Jahr 2020), 1.5 und 2 Grad entwickelt. Dafür nutzten sie fünf besonders leistungsstarke Klimamodelle, sogenannte SMILEs (Single-​Model Initial-​condition Large Ensembles). «Wir haben dasselbe Modell bis zu 84-​mal mit jeweils leicht veränderten Wetterbedingungen laufen lassen. Das ergibt eine Vielzahl möglicher Wettersysteme, die bei einem bestimmten CO2-​Gehalt in der Atmosphäre wahrscheinlich sind», erklärt Lüthi. Diese Daten koppelten die Forschenden anschliessend mit einem epidemiologischen Model, um die entsprechende Hitzemortalität zu berechnen.

Bisherige Prognosen zu Hitzemortalität basierten meist auf Berechnungen mit einem Klimamodell für einen bestimmten Zeitraum. «Mit unserer Methode können wir Extreme im Klimasystem viel besser quantifizieren und Unsicherheiten aufgrund von Eigenheiten bestimmter Modelle reduzieren.» Mittels Supercomputern hat Lüthi die Hitze-​Mortalitätsauswirkungen von über 7000 Jahren physikalisch möglicher Wetterphänomene berechnet. Der entsprechende Datensatz beläuft sich auf über ein Terrabyte.

Bis zu 15 Prozent hitzebedingte Todesfälle
Die Ergebnisse zeigen, dass das Risiko von Hitzewellen mit grosser Übersterblichkeit bereits in den vergangenen 20 Jahren stark zugenommen hat. «Die Übersterblichkeit eines Hitzesommers wie 2003, der früher als extremes Ereignis galt, das alle 100 Jahre vorkommt, erwarten wir heute alle 10 bis 20 Jahre», sagt Lüthi, «und in einer um zwei Grad wärmeren Welt an vielen Orten sogar alle zwei bis fünf Jahre». Hitzemortalitätswerte, die noch im Jahr 2000 als sehr unwahrscheinlich galten (einmal alle 500 Jahre), werden in einer Zwei-​Grad-Welt 14-​mal alle 100 Jahre auftreten. Unter der Annahme, dass keine Anpassung an die Hitze geschieht, erhöht sich damit die Wahrscheinlichkeit der Mortalität bei solch extremen Hitzewellen um den Faktor 69.

Manche Regionen sind besonders von zunehmenden Hitzewellen bedroht, darunter die Golf-​ und Atlantikküsten in den USA, die Pazifikküste Lateinamerikas, der Mittlere Osten, Südostasien und die Mittelmeerregion. Selbst in moderaten Klimaszenarien kann in diesen Gebieten ein heisser Sommer dazu führen, dass zehn Prozent der gesamten Todesfälle in einem Land durch Hitze bedingt sind. In Paris, das 2003 besonders von der Hitzewelle betroffen war, waren es damals fünf bis sieben Prozent. Das sind rund 2700 Menschen, die allein in der französischen Metropole aufgrund der Klimaerhitzung frühzeitig gestorben sind. An Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps. «In Zukunft könnten laut unseren Berechnungen in Paris bis zu 15 Prozent der Todesfälle hitzebedingt sein», sagt Lüthi. Europa und insbesondere Südeuropa gehörten zu den «Hotspots». Zwei Faktoren kämen dort zusammen: Die Temperaturen steigen doppelt so schnell wie im globalen Mittel, und die Bevölkerung ist überdurchschnittlich alt.

Beängstigender Ausblick
«Die Resultate haben mich erschreckt», sagt der 30-​jährige Klimawissenschaftler. «Ich habe während der Studie immer wieder versucht, hinter den Zahlen die betroffenen Menschenleben zu sehen. Das ist beängstigend.» Dabei seien die den Modellierungen zugrunde liegenden Annahmen eher konservativ. Mit den aktuellen Treibhausgasemissionen ist die Welt nicht auf dem Pfad zu einer maximalen Erhitzung von 1.5 bis 2 Grad Celsius, wie in der Studie angenommen, sondern zu 2.6 Grad. Zudem sind das Bevölkerungswachstum, die Migration in die Städte und die Zunahme von älteren Menschen nicht in den Zukunftsszenarien berücksichtigt – alles Faktoren, welche die hitzebedingte Übersterblichkeit weiter erhöhen dürften. Schliesslich fehlten für die Studie epidemiologische Daten zu Afrika und Indien, beides Regionen, die stark von der Klimakrise und von Armut betroffen sind.

Die Forschenden schreiben, dass die Resultate die Dringlichkeit zum Handeln verdeutlichen. Um zunehmende Hitzewellen zumindest einzudämmen, sei der wichtigste Schritt, so schnell wie möglich aus den fossilen Energien auszusteigen, sagt Lüthi. Die Studie zeige, dass das Risiko bei 1.5 Grad zwar bereits hoch ist, aber immer noch deutlich geringer als bei zwei Grad. Allerdings kann sich die Gesellschaft auch teilweise an höhere Temperaturen anpassen, um die Auswirkungen künftiger Hitzewellen zu vermindern. «Wir sollten uns nun schnellstmöglich auf das Unabwendbare vorbereiten und Situationen, die nicht mehr kontrollierbar sind, um jeden Preis verhindern», rät Lüthi.

Wissenschaftliche Ansprechpartner:
Samuel Lüthi

Originalpublikation:
Lüthi S, Fairless C, Fischer EM et al. Rapid increase in the risk of heat-​related mortality. Nature Communications 14, 4894 (2023). Doi: 10.1038/s41467-​023-40599-x

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/08/hitzewellen-we…

(nach oben)


Meere geben Mikroplastik an die Atmosphäre ab

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Winzige Plastikteilchen sind selbst fernab von Küsten in der Meeresluft zu finden. Deutsche und norwegische Forschende präsentieren erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Luft über dem Nordatlantik ist und woher die Partikel stammen. Demnach werden sie nicht nur vom Wind transportiert, sondern gelangen zum Teil auch aus dem Meerwasser in die Atmosphäre. Die Ergebnisse sind kürzlich im Fachjournal Nature Communications erschienen.

Die Meeresluft enthält selbst in entlegenen Teilen der Welt Mikroplastikteilchen. Die winzigen Kunststoffpartikel stammen nicht nur von Quellen an Land, sondern gelangen auch über das Meerwasser in die Atmosphäre. Das ermittelten deutsche und norwegische Forschende unter Leitung von Dr. Barbara Scholz-Böttcher von der Universität Oldenburg. Für ihre Studie analysierten sie Luftproben, die sie entlang der norwegischen Küste bis in die Arktis genommen hatten. Die Ergebnisse sind jetzt im Fachjournal Nature Communications publiziert.

„Mit unserer Studie präsentieren wir erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Meeresluft ist“, so Isabel Goßmann, Doktorandin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Erstautorin. Das Forschungsteam sammelte die Proben 2021 während einer Exkursion des Forschungsschiffs Heincke. Der nördlichste Punkt der Fahrt war die Bäreninsel, die südlichste Insel des Svalbard-Archipels, die auf halbem Weg zwischen dem Festland und der Hauptinsel Spitzbergen liegt. Das Team verwendete zwei unterschiedliche Vorrichtungen, um Luftproben zu sammeln. Die Geräte saugten aktiv Luft an und waren in zwölf Metern Höhe am Bug des Forschungsschiffs montiert.

Diese Luftproben analysierten die Forschenden mit Hilfe der Pyrolyse-Gaschromatographie-Massenspektrometrie. Dieses Verfahren ermöglicht es, die verschiedenen Kunststoffsorten durch thermische Spaltung und selektive Analyse nachzuweisen und zu quantifizieren. Anschließend führte das Team Modellrechnungen durch und rekonstruierte so Quellen und Verbreitungswege der nur wenige Tausendstel Millimeter großen Teilchen.

Das Ergebnis: In allen Proben tauchten Mikroplastikteilchen aus Polyester auf, außerdem Polyethylenterephthalate (PET), die vermutlich als Textilfasern in die Atmosphäre gelangt waren. Auch weitere Kunststoffe ließen sich nachweisen, unter anderem Polypropylen (PP), Polycarbonat und Polystyrol. Eine weitere wichtige Quelle stellte Reifenabrieb dar, also kleine Gummipartikel, die sich bei der Fahrt und vor allem beim Bremsen von Autoreifen ablösen. Die Forschenden ermittelten Konzentrationen von bis zu 37,5 Nanogramm – also Milliardstel Gramm – Mikroplastik pro Kubikmeter Luft. „Diese Schadstoffe sind omnipräsent. Wir finden sie selbst in abgelegenen polaren Regionen“, sagt Hauptautorin Goßmann.

Bisher war kaum etwas darüber bekannt, wie stark die Meeresluft mit Mikroplastik inklusive Reifenabrieb verschmutzt ist. „Es gibt insgesamt nur wenige Untersuchungen zur Konzentration dieser Schadstoffe in der Luft“, so Studienleiterin Scholz-Böttcher vom ICBM. „Unsere Modellrechnungen deuten darauf hin, dass das Mikroplastik in der Meeresluft sowohl direkt von Quellen an Land als auch aus dem Meer stammt“, berichtet die Forscherin. Das Team geht davon aus, dass Plastikteilchen, die nahe der Meeresoberfläche schwimmen, zum Beispiel bei stürmischem Wetter über die Gischt oder durch platzende Luftbläschen in die Atmosphäre gelangen.

Ins Meerwasser gelangt das Mikroplastik wiederum über Flüsse, aber auch aus der Atmosphäre, aus der die Partikel etwa durch Regen herausgewaschen werden. Eine weitere mögliche Quelle sind Schiffe: In einer früheren Studie hatte ein Team um Scholz-Böttcher nachgewiesen, dass Schiffsanstriche in der offenen Nordsee die größte Quelle für Mikroplastik darstellen. In der aktuellen Studie fanden sich Inhaltsstoffe von Farben wie Polyurethane oder Epoxidharze auch in den Luftproben.

Neben Forschenden des ICBM waren an der Studie auch Forscherinnen und Forscher des Alfred-Wegener-Instituts, Helmholz-Zentrum für Polar und Meeresforschung (AWI) in Bremerhaven, der TU Berlin, des Norwegischen Instituts für Luftuntersuchungen (NILU) und des Norwegischen Instituts für Öffentliche Gesundheit (NIPH) beteiligt.

Wissenschaftliche Ansprechpartner:
Dr. Barbara Scholz-Böttcher, Tel.: 0441/798-5362, E-Mail: barbara.scholz.boettcher@uol.de

Originalpublikation:
Isabell Goßmann et al: “Occurrence and backtracking of microplastic mass loads including tire wear particles in northern Atlantic air”, Nature Communications 14, 3707 (2023). https://doi.org/10.1038/s41467-023-39340-5

Weitere Informationen:
https://uol.de/icbm/ogc

(nach oben)


Niedrigere Entzündungsmarker unter Vitamin D-Supplementierung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Nach derzeitiger Studienlage geht die Vitamin D-Einnahme mit einer verringerten Krebssterblichkeit einher. Könnten entzündungshemmende Effekte des Vitamins die Ursache dafür sein? Eine am Deutschen Krebsforschungszentrum (DKFZ) durchgeführte Metaanalyse ergab nun: Die Vitamin D-Einnahme senkt bei Menschen, die an Krebs oder Krebsvorstufen leiden, die Serumspiegel eines wichtigen Entzündungsmarkers.

Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Ob eine Vitamin D-Supplementierung die Entstehung von Krebs verhindern bzw. die Prognose von Krebskranken verbessern kann, wurde bereits in zahlreichen Studien untersucht. Nach derzeitiger Studienlage senkt eine regelmäßige Vitamin D3-Einnahme die Wahrscheinlichkeit, an einer Krebserkrankung zu versterben, um ca. zwölf Prozent.

Die biologischen Mechanismen, über die Vitamin D den Ausgang einer Krebserkrankung beeinflusst, sind noch weitgehend ungeklärt. Es gibt Hinweise auf einen Einfluss des Vitamins auf entzündungsfördernde Signalwege. „Hohe Spiegel an Entzündungsmarkern sind bei Krebspatienten häufig mit einem ungünstigen Ausgang der Erkrankung verbunden. Dies gilt insbesondere für Darm-, Brust-, Pankreas-, Leber- und Prostatakrebs. Es erscheint daher plausibel, dass eine Vitamin D-Supplementierung den entzündungsfördernden Prozessen entgegenwirkt und damit den Verlauf der Erkrankung günstig beeinflussen kann“, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.

Um diese Vermutung zu prüfen, führten Wissenschaftler um Brenner nun erstmals eine systematische Literaturrecherche durch, bei der sie Studien zur Wirkung einer Vitamin D-Supplementierung auf verschiedene Entzündungsmarker zusammenfassten. Die Forscherinnen und Forscher berücksichtigten dabei acht Studien. Die insgesamt 592 eingeschlossenen Teilnehmer, die an Krebs oder an Krebsvorstufen litten, waren per Zufall dem Vitamin D-Arm oder dem Placebo-Arm zugewiesen worden.

Die DKFZ-Forscher fanden bei Studienteilnehmern unter Vitamin D-Substitution deutlich niedrigere Serumspiegel des entzündungsfördernden Tumor-Nekrosefaktors alpha (TNF alpha). Dieser Botenstoff wird bei so gut wie allen Entzündungen ausgeschüttet und aktiviert eine Vielzahl verschiedener Immunzellen. Für zwei weitere wichtige Botenstoffe, Interleukin 6 und CRP, beobachteten die Forscher ebenfalls niedrigere Spiegel unter Vitamin D-Substitution, jedoch waren die Effekte bei den insgesamt noch sehr begrenzten Patientenzahlen nicht statistisch signifikant.

Eine Einschränkung bisheriger Studien ist, dass alle Patienten die gleiche Dosis erhielten unabhängig von ihrem Ausgangs-Vitamin D-Spiegel. In einer gezielten, dem individuellen Bedarf angepassten Vitamin D-Supplementierung sieht Hermann Brenner ein noch deutlich größeres Potenzial. Hierzu führt sein Team derzeit in Zusammenarbeit mit zahlreichen Kliniken in Deutschland eine große randomisierte Studie durch. Erste Ergebnisse haben bereits gezeigt, dass mit einer solchen personalisierten Vitamin D-Supplementierung der Vitamin D-Mangel sehr zuverlässig ausgeglichen werden kann.

Durch sorgfältige längerfristige Nachbeobachtung einer noch deutlich größeren Zahl von Patienten untersuchen die Forscher nun, wie sich dieser neue Ansatz auf das Entzündungsgeschehen, die Lebensqualität und die Prognose der Patienten auswirkt. Erste Ergebnisse hierzu werden im kommenden Jahr vorliegen.

* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.

Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

(nach oben)


Neue Studie der Goethe-Universität zeigt: Auch gereinigtes Abwasser wirkt sich auf Flüsse aus

Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Kläranlagen sind ohne Zweifel eine große Errungenschaft, haben sie doch erheblich zur Verbesserung der Wasserqualität in natürlichen Gewässern beigetragen. Eine im Fachjournal „Water Research“ veröffentlichte Studie zeigt aber, dass noch immer Substanzen in den Wasserkreislauf gelangen, die sich auf die Zusammensetzung der darin lebenden Organismen auswirken.

Die Einleitungen aus Kläranlagen bewirken einerseits, dass manche Arten verloren gehen, andere wiederum profitieren. Dezimiert werden vor allem bestimmte Insektenordnungen, wie die Larven von Steinfliegen und Köcherfliegen. Bestimmte Würmer und Krebstiere hingegen können in ihrer Anzahl hingegen zunehmen. Dies weist ein Team der Goethe-Universität um Daniel Enns und Dr. Jonas Jourdan in einer im Fachjournal „Water Research“ veröffentlichten großangelegten Studie nach. Sie haben insgesamt 170 Kläranlagen in Hessen auf die Artenzusammensetzung von Wirbellosen untersucht.

Kläranlagen gehören unverzichtbar zur Infrastruktur der modernen Welt; sie haben einen wesentlichen Beitrag zur Verbesserung der Wasserqualität in unseren Oberflächengewässern geleistet. Allerdings sind sie meist nur eingeschränkt in der Lage, sogenannte Spurenstoffe, zu denen auch Wirkstoffe aus Medikamenten und Körperpflegeprodukten, Pestizide und andere synthetische Substanzen gehören, vollständig aus dem Abwasser zu entfernen. So gelangen diese Stoffe in behandeltem Abwasser zurück in die Gewässer und stellen eine zusätzliche Belastung für Flüsse und Bäche dar, die die Wasserfauna und die bereits anfälligen Insektengemeinschaften weiter unter Druck setzt. Bisherige Studien – die sich zumeist auf einzelne Kläranlagen konzentrierten – haben bereits gezeigt, dass die Gemeinschaften der wirbellosen Organismen unterhalb der Einleitungen im Allgemeinen von verschmutzungstoleranten Artgruppen dominiert werden.

Bisher war jedoch unklar, wie allgegenwärtig diese Veränderungen sind. Deshalb hat nun ein Team von Biologinnen und Biologen der Goethe-Universität Frankfurt umfassend untersucht, wie sich die Abwässer aus 170 hessischen Kläranlagen auf die Artenzusammensetzung von Wirbellosen auswirkt. Dabei erfolgte eine Anpassung der herkömmlichen Vorstellung, dass durch den Menschen verursachter Stress die Anzahl der Arten und somit die Vielfalt in Lebensräumen verringert: Die Befunde deuten darauf hin, dass vielmehr ein Artenaustausch beobachtet wird. Manche Arten gehen durch Einleitungen aus Kläranlagen durchaus verloren – das betrifft zum Beispiel die Larven von Steinfliegen und Köcherfliegen, sie verschwinden durch die Abwassereinleitungen vielerorts völlig. Andere Artgruppen, etwa bestimmte Würmer und Krebstiere hingegen profitieren und lassen sich vermehrt nachweisen. Diese Veränderung ist vor allem in Bächen und kleineren Flüssen zu beobachten. Es konnten deutliche Veränderungen in der Zusammensetzung der Artgemeinschaft zwischen den Standorten flussaufwärts und flussabwärts der Kläranlagen festgestellt werden. Insgesamt verändern Kläranlagen die Bedingungen flussabwärts zugunsten von toleranten und zum Nachteil der empfindlichen Artgruppen.

Wie lässt sich die Belastung der Gewässer reduzieren?
Moderne Reinigungstechniken wie Ozonung oder Aktivkohle können die Wasseraufbereitung in Kläranlagen effizienter machen, so dass eine breitere Palette von Schadstoffen, einschließlich zahlreicher Spurenstoffe, aus dem Abwasser entfernt werden kann, bevor es wieder in die Gewässer gelangt. Auch die Zusammenlegung kleinerer Kläranlagen kann zu einer Entlastung der Umwelt beitragen. Bei allen Maßnahmen ist wichtig zu beachten, dass stromaufwärts gelegene Abschnitte nicht bereits beeinträchtigt sind und sich in einem guten chemischen und strukturellen Zustand befinden.

Bilder zum Download: https://www.uni-frankfurt.de/141365425

Wissenschaftliche Ansprechpartner:
Dr. Jonas Jourdan
Wissenschaftlicher Mitarbeiter
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt am Main
Telefon 069 798-42149
E-Mail: jourdan@bio.uni-frankfurt.de
Twitter: @Jourdan_Jonas

Originalpublikation:
Enns D, Cunze S, Baker NJ, Oehlmann J, Jourdan J (2023) Flushing away the future: The effects of wastewater treatment plants on aquatic invertebrates. Water Research, 120388. doi.org/10.1016/j.watres.2023.120388

(nach oben)


Nachhaltiger Umgang mit Regen- und Siedlungsabwasser: Software plant und optimiert Entwässerungssysteme automatisch

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Um Regen- und Abwasser aufzusammeln, gibt es in Deutschland eine gut ausgebaute Infrastruktur mit Kanalnetzen und Kläranlagen. Anders sieht es in Entwicklungsländern aus, in denen dies oft fehlt. Ein Start-up der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) will hier Abhilfe schaffen. Es bietet dazu seine Software „ZIGGURAT“ an, die automatisch Entwässerungssysteme nachhaltig planen und optimieren kann. Die Technik berücksichtigt auch die blau-grüne Infrastruktur, das heißt, mögliche Wasserspeicher und technische Maßnahmen zur Versickerung und Verdunstung von Regenwasser. Die Gründer werden mit einem EXIST-Stipendium vom Bundeswirtschaftsministerium gefördert.

Slums, in denen Wellblechhütten dicht an dicht nebeneinanderstehen; direkt daneben Müllberge und stehende Abwässer – solche Zustände gibt es in vielen Gegenden der Welt. Rund die Hälfte der Weltbevölkerung lebt nach wie vor ohne Kanalisationsanschluss und stetig entstehen neue städtische Flächen ohne geordnete Entwässerung. Dabei haben sich die Vereinten Nationen in ihren Nachhaltigkeitszielen auf die Fahne geschrieben, den Zugang zu sauberem Wasser und sanitäre Anlagen für alle Menschen zu ermöglichen. Um dies zu erreichen, braucht es allerdings eine entsprechende Infrastruktur.

Die Planung solcher Kanalnetze für Schmutz-, Regen- oder Mischwasser ist jedoch aufwendig und bedarf einer großen Expertise. „Dabei spielen verschiedene Parameter wie Layout, der Grad der De- oder Zentralisierung, die Kanaldurchmesser und das Gefälle, die Verlegetiefen, die Pump- und Speicheranlagen eine Rolle“, sagt Timo Dilly vom Gründerteam.

Eine Software, mit der sich städtische Entwässerungssysteme automatisch nachhaltig planen lassen, entwickelt derzeit das Team um Dilly von der RPTU in Kaiserslautern. „Sie basiert unter anderem auf der Verknüpfung einer Vielzahl allgemein gültiger technischer Regeln der Tiefbauplanung und mathematischer Methoden, mit denen sich sinnvolle Lösungsvarianten generieren lassen“, sagt Dilly weiter. „Dafür haben wir eigene Algorithmen entwickelt. All dies beruht auf aktuellen Erkenntnissen aus eigenen Forschungsarbeiten in der Siedlungsentwässerung und Hydroinformatik.“

Auch der Klimawandel spielt bei den Planungen solcher Entwässerungssysteme eine Rolle, wie Dilly erläutert: „Der Umgang mit Regenwasser muss komplett neu gedacht werden, wenn man sich zunehmende Wetterextreme vor Augen führt. Wir brauchen Möglichkeiten zum Speichern von Regenwasser, aber auch naturnahe Elemente wie ausreichend Grünflächen. Dadurch lässt sich in heißen Sommermonaten das Stadtklima verbessern.“ In diesem Zusammenhang spricht man auch von blau-grüner Infrastruktur, die bei der Planung neuer Siedlungsentwässerungssysteme eine immer wichtigere Rolle spielt und auch bei ZIGGURAT eingeplant ist. „Mit diesen Maßnahmen erhöhen Städte die Resilienz gegenüber Extremen, senken Kosten und reduzieren negative Auswirkungen auf die Umwelt“, betont Dilly.

In diesem Punkt eignet sich die Software auch für hiesige Städte und Gemeinden, die ihre Entwässerungssysteme künftig anpassen wollen.

Am jungen Unternehmen beteiligt sind neben Dilly seine Kollegen Dr. Amin E. Bakhshipour, Professor Dr. Ulrich Dittmer und Ralf Habermehl aus dem Lehrgebiet Siedlungswasserwirtschaft an der RPTU in Kaiserslautern. Unterstützt werden sie von Marius Lauer, der betriebswirtschaftliche Kenntnisse miteinbringt.

Ihre Software ZIGGURAT möchten sie in Zukunft in einer Online-Plattform zur Verfügung stellen, auf der sich Interessierte einen kostenpflichtigen Account erstellen können. Das Team aus Kaiserslautern stellt neben der Software auch seine Expertise zur Verfügung und bietet etwa Unterstützung bei der Planung an.

Bei seinem Weg in die Selbstständigkeit wird das Unternehmen mit einem „EXIST-Gründerstipendium“ des Bundesministeriums für Wirtschaft und Klimaschutz und dem Europäischen Sozialfonds zur „Existenzgründung aus der Wissenschaft“ gefördert.

Mehr unter ziggurat.ai

Fragen beantwortet:
Timo Dilly
Ziggurat
E-Mail: timo.dilly@rptu.de
Tel.: 0631-205-4643

(nach oben)


Neuer Infektionsmechanismus beim Coronavirus entdeckt

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Forschende der Medizinischen Fakultät Heidelberg und des Universitätsklinikums Heidelberg erforschen molekulare Zusammenhänge, die Infektion und Ausbreitung des Coronavirus SARS-CoV-2 begünstigen / Ergebnisse bieten Ansatzpunkt für die Entwicklung antiviraler Therapien

Das Virus SARS-CoV-2, das für die COVID-19-Pandemie verantwortlich ist, löst in den infizierten Zellen eine Stressreaktion aus, die das Eindringen des Virus in die Zellen erleichtert. Auf der Suche nach dem zugrundeliegenden molekularen Mechanismus identifizierten Forschende der Medizinischen Fakultät Heidelberg der Universität Heidelberg und des Universitätsklinikums Heidelberg (UKHD) in Zusammenarbeit mit dem Deutschen Krebsforschungszentrum (DKFZ) sowie der Universität Bristol einen zellulären Faktor mit dem Namen NUAK2. Dessen Menge wird durch die SARS-CoV-2 vermittelte Stressreaktion erhöht und er begünstigt den Eintritt und die Ausbreitung des Coronavirus in menschlichen Zellen. Damit könnte NUAK2 neuer Ansatzpunkt für die Entwicklung antiviraler Wirkstoffe sein.

Das Forschungsteam um Professor Dr. Dr. h.c. Ralf Bartenschlager, Leiter der Abteilung Molekulare Virologie am Zentrum für Infektiologie am UKHD und Dr. Vibhu Prasad, Wissenschaftler in der Molekulare Virologie hat nun die molekularen Wege, die beteiligt sind, wenn SARS-CoV-2 die Zelle infiziert, analysiert. Das zelluläre Eiweißmolekül NUAK2 spielt dabei eine zentrale Rolle.

In Experimenten blockierten die Heidelberger Wissenschaftlerinnen und Wissenschaftler das NUAK2 in den Zellen. Dadurch wurde das Eindringen von SARS-CoV-2-Partikeln in die Zelle vermindert, weil NUAK2 die Menge an ACE2, der Rezeptor für das Virus, reguliert. „Darüber hinaus zeigten unsere Untersuchungen, dass eine erhöhte NUAK2-Konzentration in infizierten Zellen die Anzahl an Rezeptoren auch in nicht infizierten Zellen erhöhte. Dadurch wurden auch diese Zellen verstärkt mit dem SARS-CoV-2 infiziert“, berichtet Dr. Vibhu Prasad.

Und nicht nur bei SARS-CoV-2 ließen sich diese Zusammenhänge nachweisen, sondern auch bei anderen Coronavirus-Arten wie beispielsweise dem humanen Coronavirus-229E – dem „Erkältungsvirus“ – und dem sehr gefährlichen MERS-Coronavirus, das von Kamelen auf den Menschen übertragen werden kann.

„Die Forschungsergebnisse liefern wertvolle Einblicke in die komplizierten Mechanismen der SARS-CoV-2-Infektion und -Ausbreitung. Das Verständnis der Rolle von NUAK2 eröffnet neue Wege für therapeutische Maßnahmen. Indem wir den NUAK2-regulierten Viruseintritt unterbrechen, können wir möglicherweise die Ausbreitung des Virus verhindern und dadurch die Auswirkungen von Coronaviren abmildern“, sagt Professor Ralf Bartenschlager.

Wissenschaftliche Ansprechpartner:
Professor Dr. Dr. h.c. Ralf Bartenschlager, Dr. Vibhu Prasad

Originalpublikation:
Prasad V, Cerikan B, Stahl Y, et al. Enhanced SARS-CoV-2 entry via UPR-dependent AMPK-related kinase NUAK2. Mol Cell. 2023;S1097-2765(23)00467-7. doi:10.1016/j.molcel.2023.06.020

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/molecular-viro…

(nach oben)


Unit Dose: Mehr Sicherheit in der Arzneimitteltherapie

Anna Reiss Presse- und Öffentlichkeitsarbeit
Universitätsklinik der Ruhr-Universität Bochum – Herz- und Diabeteszentrum NRW Bad Oeynhausen
HDZ NRW etabliert mit „Unit Dose“ jetzt modernste Technik zur Medikamentenversorgung

Die Unit-Dose-Herstellung der Zentralapotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen, ist der erste große Baustein verschiedener Digitalisierungs-vorhaben, die im Sinne des Krankenhauszukunftsgesetzes am Bad Oeynhausener Spezialklinikum bis Ende 2024 umgesetzt werden. Von dieser neuen automatisierten Medikamentenversorgung profitieren vor allem die Patienten und das Pflegepersonal. Die Innovation wurde über ein Jahr lang sorgfältig vorbereitet.

„Die Maschine verpackt lückenlos, detailliert und zuverlässig für jeden Patienten zu jedem Einnahmezeitpunkt die genau für ihn richtigen Medikamente – insgesamt etwa 4.000 Stück am Tag“, sagt Anke Möller, Leiterin der Apotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen. Bisher einmalig ist diese Form der sogenannten Unit-Dose-Versorgung in Ostwestfalen-Lippe aufgrund eines optischen Kontrollgeräts, mit dem Mensch und Maschine gemeinsam einen zusätzlichen Sicherheitscheck ausführen.

Auf den Pflegestationen im HDZ NRW sehen sich vier Apothekerinnen und Apotheker die ärztliche Verordnung der Medikamente an. Wenn zum Beispiel die Medikamente untereinander Wechselwirkungen aufweisen oder die Arzneimitteltherapie im Abgleich mit den Diagnosen optimiert werden kann, besprechen sie dies unter Berücksichtigung aktueller Laborwerte der Patienten mit den Ärztinnen und Ärzten. Die Daten werden anschließend aus der digitalen Patientenakte für den computergesteuerten Automaten freigegeben. Gibt das System grünes Licht und die Medikamentenzuordnung stimmt, startet die Anlage die einzelnen Packaufträge zur hygienischen Verblisterung der Tabletten. „Das erspart unseren Pflegekräften die früher übliche Sortierung per Hand und im Vier-Augen-Prinzip. Hier ist Unit Dose so enorm schnell und präzise im Einsatz, dass die ohnehin schon sehr hohe Patientensicherheit im HDZ noch weiter gesteigert werden kann.“

Bevor die Tütchen die Apotheke verlassen, scannt ein Kontrollgerät die darin enthaltenen Arzneimittel und gleicht Form, Größe und Farbe mit einer hinterlegten Datenbank ab. Jede Abweichung bei dieser Identitätskontrolle wird durch pharmazeutisches Fachpersonal begutachtet und, wenn notwendig, korrigiert.

In den kleinen Blistertüten, die jeder Patient auf seiner Station erhält, befinden sich seine verordneten Tabletten. Persönliche Angaben wie Name, Geburtsdatum, Krankenhaus, Station, Zimmer und die genaue Bezeichnung der Medikamente können darauf abgelesen werden. Über einen kleinen QR-Code-Aufdruck können Hinweise zum jeweiligen Arzneimittel im Beipackzettel mit dem Smartphone digital abgelesen werden.

Wochentags erhalten die Pflegestationen im HDZ NRW zwei Mal täglich die ihnen zugeordneten Blistertütchen. Samstags erfolgt die Ausgabe für das Wochenende. Das Pflegepersonal auf der Station überprüft dann nochmals jede einzelne Medikamentenzuteilung vorab darauf, ob es sich um den richtigen Patienten, das richtige Arzneimittel, die richtige Dosierung, Verabreichungsform und den richtigen Einnahmezeitpunkt handelt. Anschließend wird die Einnahme überprüft und in der digitalen Patientenakte dokumentiert. Diese sechsmalige Prüfung auf Richtigkeit bezeichnet man als 6-R-Regel. Dank der jetzt vom Automaten vorbereiteten beschrifteten Einzelverpackungen ist auch diese standardmäßige Überprüfung sicherer und einfacher geworden.

„Unsere neue digitale Unterstützung in der Medikamentenversorgung steigert die Arzneimitteltherapiesicherheit, entlastet die Pflegekräfte und macht damit auch den Pflegeberuf attraktiver“, fasst Anke Möller die Vorteile der Unit-Dose-Versorgung im HDZ NRW zusammen, die bis Ende September auf allen Normalstationen des Klinikums etabliert sein wird. Nicht zu vergessen sei auch der ökologische Aspekt des Projekts: Weil der Automat mit Tabletten-Schüttware arbeitet, spart man bereits jetzt im HDZ NRW trotz des zusätzlichen Folienmaterials erhebliche Mengen von Verpackungsmüll ein.

Hintergrundinformation: Zukunftsweisende Technik
Mit „Unit Dose“ wird die sogenannte Verblisterung bezeichnet, indem Tabletten, Kapseln und Dragees durch digitale Anbindung an die Patientenakte automatisch für jeden Patienten individuell in hoher Geschwindigkeit in kleine Folienbeutel verpackt, beschriftet und zugeordnet werden. Als Alternative zur traditionellen Stationsversorgung wird Unit-Dose zunehmend in Konzepte zur Verbesserung der Arzneimitteltherapiesicherheit im klinischen Bereich aufgenommen, insbesondere mit der Einführung elektronischer Verordnung und digitaler Patientenakten. Tatsächlich ist eine zentral über die Klinikapotheke gesteuerte Unit-Dose-Versorgung deutschlandweit jedoch erst in wenigen Krankenhäusern etabliert. Als Gesamtlösung aus elektronischer Verschreibung, Dosier- und Interaktionsprüfungen durch Stationsapothekerinnen und Stationsapotheker, automatisierter patientenbezogener Kommissionierung von Einzeldosen und IT-gestützter Verabreichungsdokumentation bietet sie bei entsprechender Ablauforganisation nachweislich Vorteile hinsichtlich der Arzneimittel- und Patientensicherheit, der Verbesserung von medikamentösen Therapien, Transparenz von Fallkosten und einer möglichen Senkung des Arzneimittelbudgets. Am HDZ NRW zieht man in Erwägung, eine Medikamentenversorgung nach Unit-Dose-Prinzip zukünftig auch auf andere von der Zentralapotheke mitversorgte Kliniken und Einrichtungen auszuweiten.

Bildmaterial finden Sie zum Download bereitgestellt unter
https://cloud.hdz-nrw.de/d/e1cef7cd5285429495f0/

Hinweis zur Verwendung von Bildmaterial: Die Verwendung des Text- und Bildmaterials zur Pressemitteilung ist bei Nennung der Quelle vergütungsfrei gestattet. Das Bildmaterial darf nur in Zusammenhang mit dem Inhalt dieser Pressemitteilung und namentlicher Nennung des Herz- und Diabeteszentrum NRW, Bad Oeynhausen, verwendet werden.

Als Spezialklinik zur Behandlung von Herz-, Kreislauf- und Diabeteserkrankungen zählt das Herz- und Diabeteszentrum Nordrhein-Westfalen (HDZ NRW), Bad Oeynhausen, mit 36.000 Patientinnen und Patienten pro Jahr, davon 14.800 in stationärer Behandlung, zu den größten und modernsten Zentren seiner Art in Europa. Unter einem Dach arbeiten fünf Universitätskliniken und drei Universitäts-Institute seit mehr als 30 Jahren interdisziplinär zusammen. Das HDZ NRW ist seit 1989 Universitätsklinik der Ruhr-Universität Bochum. Die Professorenschaft des HDZ NRW ist zusätzlich seit 2023 Mitglied der Medizinischen Fakultät OWL der Universität Bielefeld. Die Einrichtung ist bekannt als größtes Herztransplantationszentrum in Deutschland.

In der Zentralapotheke des HDZ NRW unter der Leitung von Anke Möller sind aktuell 30 Mitarbeitende, darunter 8 Apotheker/innen und 13 Pharmazeutisch-Technische Assistenten/Assistentinnen (PTA) beschäftigt. Neben den Kliniken des HDZ NRW versorgt die Apotheke 18 weitere Einrichtungen (über 4.500 Betten) in der Region. Zur Ausstattung zählen unter anderem eine halbautomatische Kommissionieranlage für Arzneimittel, Medizinprodukte und apothekenübliches Nebensortiment sowie Laborräume auf über 200 Quadratmetern zur Herstellung von parenteralen Arzneimitteln und Zytostatika.

Weitere Informationen:
Herz- und Diabeteszentrum Nordrhein-Westfalen
Universitätsklinik der Ruhr-Universität Bochum
Presse- und Öffentlichkeitsarbeit
Leitung: Anna Reiss
Georgstr. 11
32545 Bad Oeynhausen
Tel. 05731 97-1955
Fax 05731 97-2028
E-Mail: info@hdz-nrw.de

Weitere Informationen:
http://www.hdz-nrw.de

Anhang
Pressemitteilung HDZ NRW vom 09.08.2023

(nach oben)


Tiefengeothermie: NRW hat günstige Voraussetzungen für den Ausbau der Geothermie

Kosta Schinarakis Pressestelle
Fraunhofer-Einrichtung für Energieinfrastrukturen und Geothermie IEG
Nordrhein-Westfalen will das Potenzial der Geothermie heben und damit einen wichtigen Schritt in Richtung klimaneutrale Industrieregion gehen. Der Landtag NRW bat das Fraunhofer IEG um eine Stellungnahme, zur Rolle von tiefer, mitteltiefer und oberflächennaher Geothermie in der Wärmewende des Landes. Anlässlich der gestrigen Sachverständigenanhörung im zuständigen Ausschuss unterstrich Fraunhofer IEG die günstigen geologischen Bedingungen für die Tiefengeothermie, aber auch die Markt-Hemmnisse, die nur politisches Handeln ausräumen kann.

»Zwei zentrale Faktoren behindern den Ausbau der Tiefen Geothermie«, unterstreicht Rolf Bracke, Leiter des Fraunhofer IEG. »Das Fündigkeitsrisiko bei gleichzeitig erheblichen Investitionskosten für Projektentwickler sowie die unzureichende Datenlage zum tiefen Untergrund jenseits von 1000 Metern.« Ein hohes Potenzial für die Wärmewende in einem der größten europäischen Ballungsräume stelle dagegen die Grubenwassernutzung und Wärmespeicherung im Steinkohlengebirge dar. Zur Beseitigung der Hemmnisse und Nutzung der Potenziale sei nun politisches Handeln angezeigt.

Die Hälfte des Energieumsatzes in Deutschland geht in die Wärmeversorgung von Gebäuden und Industrieprozessen. Doch noch immer ist der Anteil von alternativer Wärme bei unter 20 Prozent. Die nachhaltige Geothermie hat genug Potenzial um den Wärmebedarf NRWs großteils zu decken. Erdwärme steht ganzjährig und verlässlich zur Verfügung, ist wetterunabhängig, CO2-frei und lokal. In Kombination mit Hochtemperaturwärmepumpen könnte Geothermie auch ein Viertel des Wärmebedarfes der Industrie decken, etwa in den Sektoren Nahrungsmittel, Papier, Zement, Gewächshaus oder Chemie. Vor allem in Süd-Deutschland arbeiten derzeit rund 40 geothermische Anlagen mit einer installierten Wärmeleistung von ca. 400 MW. Die Herstellungskosten liegen bei ca. 2-2,5 Mio. Euro pro installierte Leistung von 1 MW und die Erzeugungskosten bei wettbewerbsfähigen 30 Euro/MWh.

Aus Sicht der Fraunhofer IEG sollte ein ambitionierter »Masterplan Geothermie NRW« alle Optionen der geothermischen Nutzung adressieren und ambitionierte, landesbezogene Ausbauziele benennen. Ein Handlungsfeld eines solchen Masterplans ist sicherlich die Bildung einer verlässlichen Datengrundlage. Hier bietet sich eine Kombination aus den Methoden geophysikalische Erkundung und Tiefbohrung an, die den Kern einer landesweiten Explorationsstrategie bilden sollten. Die gewonnenen Rohdaten und Erkenntnisse sollen den Marktteilnehmer – etwa Projektentwicklern und Stadtwerken – unverzüglich digital zu Verfügung stehen.

Da Geothermie im überragenden öffentlichen Interesse liegt, sollten Förder- und Finanzinstrumente des Landes das Fündigkeitsrisiko der oftmals mittelständigen Wärmeversorger senken. Solche Instrumente könnten das Erreichen der strategischen Ziele des Landes innerhalb der Wärmewende massiv beschleunigen.

Darüber hinaus können Vereinfachungen bzw. Bündelungen von Genehmigungsverfahren nach dem Wasser-, Umweltverträglichkeitsprüfungs-, Naturschutz- und im Vergaberecht Projekte wesentlich beschleunigen. Eine Option kann die Ausweisung sog. »Go-to-Gebiete« für Heiz(kraft)werke in der Landesentwicklungs- und Bauleitplanung sein.

Um den ambitionierten geothermischen Zubau gewährleisten zu können, müssen auch Fachkräfte- und Schulungskapazitäten entlang der gesamten Planungs-, Administrations- und Installationskette aufgebaut werden. Dem Anspruch des Industrielandes NRW auf Technologieführerschaft entsprechend sollten vorhandene Branchen und Unternehmen mit Schlüsseltechnologien der Geothermie durch gezielte Wirtschaftsförderungsmaßnahmen für den Transformationsprozess »Geothermische Wärmewende« gestärkt werden.

Weitere Informationen:
http://Tagesordnung: https://www.landtag.nrw.de/home/der-landtag/tagesordnungen/WP18/300/E18-388.html
http://Videostream: https://www.landtag.nrw.de/home/mediathek/video.html?kid=b8084895-03a4-4b92-83ba…
http://Sitzungmappe: https://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/Dokument/esm/MME18-388.pd…

(nach oben)


Wie durcheinander gewürfelte Daten unsere Sicherheit verbessern können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Riesige Datenströme durchlaufen täglich unsere Computer und Smartphones. Um diese zu verarbeiten, bestehen technische Geräte vereinfacht gesagt aus zwei wesentlichen Einheiten: Einem Prozessor, also einer Art Schaltzentrale und dem Arbeitsspeicher (RAM), den man mit einem Gedächtnis vergleichen kann. Da der Speicher um ein Vielfaches langsamer darin ist, Daten bereitzustellen als der Prozessor in der Lage ist, diese Daten zu verarbeiten, arbeiten moderne Prozessoren mit einem Zwischenspeicher, dem so genannten Cache, der eine Art Brücke zwischen den beiden bildet. In diesem Zwischenspeicher befinden sich oftmals private Daten, die für Angreifer ein attraktives Ziel darstellen könnten.

Ein Team aus Bochumer Wissenschaftlern hat nun in Kooperation mit Forschern aus Japan eine innovative Verschlüsselung designt, die nicht nur eine größere Sicherheit bietet als die bisherigen Ansätze, sondern auch effizienter und schneller ist. Die Arbeit dazu stellen sie auf der renommierten Konferenz „Usenix Security Symposium“ in Anaheim, Kalifornien (USA), vor.

Beteiligt daran sind Dr. Federico Canale und Prof. Dr. Gregor Leander vom Lehrstuhl für Symmetrische Kryptographie, Jan Philipp Thoma und Prof. Dr. Tim Güneysu vom Lehrstuhl für Security Engineering, alle von der Ruhr-Universität Bochum, sowie Yosuke Todo von NTT Social Informatics Laboratories und Rei Ueno von der Tohoku University (Japan).

Cache bisher nicht gut gegen Seitenkanal-Angriffe geschützt
Dass der Cache gegen eine bestimmte Art von Angriffen nicht gut geschützt ist, hat CASA-Forscher Prof. Dr. Yuval Yarom, der seit April 2023 an der Ruhr-Universität tätig ist, schon vor Jahren aufgedeckt. Die schweren Sicherheitslücken Spectre und Meltdown hatten damals für Wirbel gesorgt, weil sie alle gängigen Mikroprozessoren sowie Cloud-Dienste betrafen. Ein Cache ist ein eher unscheinbares Element, leistet aber eine wichtige Arbeit: In ihm lagern Daten zwischen, die sehr oft abgerufen werden. Seine Hauptfunktion liegt darin, Zugriffszeiten zu verringern – denn würden die Daten jedes Mal vom Prozessor (CPU) beim langsameren Arbeitsspeicher abgerufen werden, würde dies die Schnelligkeit verringern. Also holt sich die CPU bestimmte Daten aus dem Cache. Bei dieser Kommunikation zwischen CPU und Cache können allerdings Angreifer ansetzen. Ihre Methode: Sie überschreiben die recht ungesicherten Daten im Cache. Das System kann die Daten nicht mehr im Cache finden und fordert sie deshalb aus dem Hauptspeicher an. Dieser Vorgang ist messbar langsamer. „In sogenannten Timing-Seitenkanalangriffen können Angreifer die Zeitunterschiede messen und dazu nutzen Speicherzugriffe von anderen Programmen zu beobachten. Dadurch lassen sich zum Beispiel private Schlüssel für Verschlüsselungsalgorithmen stehlen“, erklärt Jan Philipp Thoma vom Lehrstuhl für Security Engineering.

Innovative Lösung mit mathematischem Hintergrund
Zwar wurden für manche Angriffe Patches entwickelt, die die Lücke schließen sollten, aber eine beweisbare Sicherheit konnten diese nicht bieten. Nun hat das Team aus Bochum und Japan jedoch eine innovative Lösung gefunden: „Unsere Idee besteht darin, dass wir die Daten im Cache mithilfe mathematischer Prozesse durcheinanderwürfeln“, erklärt Gregor Leander, der vor kurzem einen ECR Advanced Grant für seine Forschung erhalten hat. Durch diese Randomisierung in den Caches des CPUs können die Angriffe abgewehrt werden, da sie verhindert, dass Angreifer die Daten aus dem Cache entfernen können.

„Der interdisziplinäre Ansatz aus Überlegungen der Kryptografie und der Hardware-Sicherheit stellt ein Novum innerhalb der Computersicherheit dar. Zwar gab es zuvor schon Ideen zu randomisierten Cache-Architekturen, allerdings waren diese nicht sehr effizient und nicht in der Lage, starke Angreifer vollständig abzuhalten“, sagt Tim Güneysu, der den Lehrstuhl für Security Engineering innehat. Das neue Modell SCARF arbeitet mit einer Blockverschlüsselung, die für diesen Bereich ganz neu von den Wissenschaftlern gedacht wurde. „Normalerweise verschlüsseln wir Daten mit 128 Bit, im Cache arbeiten wir teilweise mit 10 Bit. Das ist ein komplexer Vorgang, weil es viel länger dauert, diese Daten mit einem großen Schlüssel zu mischen“, so Gregor Leander. Der große Schlüssel wird benötigt, weil eine kürzere Verschlüsselung solch kleiner Datenmengen leichter von Angreifern gebrochen werden könnte.

Die oben beschriebene Randomisierung benötigt normalerweise viel Zeit, was die Arbeitsweise des Cache einschränken würde. SCARF hingegen arbeitet dank der Blockchiffrierung schneller als alle bisher designten Lösungen. „SCARF kann als Modulbaustein in Cache Architekturen eingesetzt werden und sorgt automatisch für sichere – das heißt nicht vorhersagbare – Randomisierung bei gleichzeitig niedriger Latenz, also Reaktionszeit“, führt Jan Philipp Thoma aus und fasst zusammen: „Mit SCARF bieten so wir eine effiziente und sichere Lösung für die Randomisierung.“

Doppelter Schutz durch Kombination mit ClepsydraCache
Somit könnte die Arbeit der Forscher einen elementaren Einfluss auf den Schutz von sensiblen Daten innerhalb der digitalen Gesellschaft leisten. Darüber hinaus stellen die Forscher in Zusammenarbeit mit anderen Kollegen eine weitere Arbeit auf dem diesjährigen „Usenix Security Symposium“ vor, die mit SCARF kombiniert werden kann. Das Paper „ClepsydraCache – Preventing Cache Attacks with Time-Based Evictions“ zeigt ebenfalls eine neue Idee für die Sicherheit des Zwischenspeichers auf. Daran beteiligt sind ebenfalls Jan Philipp Thoma, Gregor Leander und Tim Güneysu sowie CASA-Forscher Lucas Davi von der Uni Duisburg-Essen. Es ist außerdem in enger Zusammenarbeit mit Forschern des Lehrstuhls für Integrierte Systeme an der Ruhr-Universität Bochum entstanden. „ClepsydraCache setzt auf sogenanntes Cache Decay in Kombination mit der Randomisierung des Indexes. Cache Decay bedeutet, dass Daten, die längere Zeit nicht verwendet werden, automatisch aus dem Cache entfernt werden“, beschreibt Jan Philipp Thoma den Prozess.

Für die Sicherheit der Daten ist ein solcher Vorgang wichtig, weil er weniger Cache-Konflikte entstehen lässt. Diese Konflikte führen zur Verlangsamung des Prozesses und könnten ebenfalls mithilfe der oben beschriebenen Seitenkanalangriffe zu Rückschlüssen auf Daten führen. Die Wissenschaftler konnten beweisen, dass ihr Vorschlag bekannten Angriffsvektoren standhält und sich problemlos in bestehende Architekturen einbauen lässt.

Interdisziplinäre Arbeit führt zu erfolgreicher Forschung
Durch die Vereinbarkeit der beiden Arbeiten „SCARF“ und „Clepsydracache“ könnten künftige Generationen von Caches sicherer werden als je zuvor – und müssten dabei keinerlei Einbußen in ihrer Schnelligkeit verzeichnen. Das Teamwork zeigt somit, dass der interdisziplinäre Ansatz, den das Exzellenzcluster CASA „Cybersecurity in the Age of Large-Scale Adversaries“ verfolgt, zu richtungsweisenden Forschungsergebnissen führen können.

Redaktion: Christina Scholten
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tim Güneysu
Lehrstuhl für Security Engineering
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 24626
E-Mail: tim.gueneysu@ruhr-uni-bochum.de

Prof. Dr. Gregor Leander
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 28402
E-Mail: gregor.leander@ruhr-uni-bochum.de

Jan Philipp Thoma
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 27891
E-Mail: jan.thoma@ruhr-uni-bochum.de

Originalpublikation:
Federico Canale, Tim Güneysu, Gregor Leander, Jan Philipp Thoma, Yosuke Todo, Rei Ueno: SCARF – A low-latency block cipher for secure cache-randomization, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/usenixsecurity23-canale.pdf

Jan Philipp Thoma, Christian Niesler, Dominic Funke, Gregor Leander, Pierre Mayr, Nils Pohl, Lucas Davi, Tim Güneysu: ClepsydraCache – Preventing cache attacks with time-based evictions, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/sec23summer_48-thoma-prepub.pdf

(nach oben)


Kartografie der Mobilfunk-Sicherheit

Annabelle Theobald Unternehmenskommunikation
CISPA Helmholtz Center for Information Security
„Als Mobilfunkforscher ist man in gewisser Weise Gefangener seiner geografischen Position“, sagt CISPA-Forscher Dr. Adrian Dabrowski. Was er damit meint ist, dass Mobilfunkforschende wegen der großen Zahl von Anbietern und Netzen bislang nur mit großem Aufwand Tests in ausländischen Mobilfunknetzen vornehmen können. Zusammen mit Gabriel Gegenhuber von der University Vienna und weiteren Kollegen hat Dabrowski deshalb MOBILEATLAS entwickelt, eine Infrastruktur, die die Testung quer durch Europa erlaubt – egal von wo aus. Sein Paper „Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research” stellt er auch auf der Top-IT-Sicherheitskonferenz USENIX vor.

2G, 3G, 4G, 5G – Was sich anhört wie die Ziehung beim Bingo bezeichnet die aktuell verwendeten Mobilfunkstandards. Der jüngste Standard der 5. Generation – dafür stehen all die Gs – ist noch im Aufbau. Der älteste, 2G, wurde schon in den 1990er-Jahren Jahren eingeführt und ist noch immer in Verwendung. „2G wird vor allem für Sprachübertragung oder für einfache smarte Geräte verwendet; etwa ein Getränkeautomat, der anzeigt, dass er nachgefüllt werden muss“, erklärt Dabrowski. Das darauffolgende 3G wurde 2021 in Deutschland abgeschaltet und durch 4G, auch LTE genannt, ersetzt. Mit 4G lassen sich unterwegs auch zum Beispiel Streamingdienste nutzen oder Videotelefonie durchführen. Mittlerweile gelten diese Mobilfunkstandards, die nebeneinander existieren, weltweit. Durch das sogenannte Roaming sollen Mobilfunk-Kund:innen auch im Ausland die mit ihrem Mobilfunkanbieter vereinbarten Services nutzen können und den versprochenen Sicherheits- und Privatsphäreschutz genießen. Sollen.

Ist das „Roam-Like-At-Home-Prinzip“ ein leeres Versprechen?
Die Rede ist hier vom sogenannten Roam-Like-At-Home-Prinzip, das EU-Bürger:innen in der 2022 neugefassten EU- Roamingverordnung versprochen wird. Die Bundesnetzagentur schreibt dazu: „Durch die Neufassung der Roaming-Verordnung gilt auf Reisen in der EU nicht nur der gleiche Preis wie zuhause, sondern auch grundsätzlich die gleiche Qualität.“ Dabrowski bezweifelt, dass dieses Versprechen eingehalten werden kann. „Beim Roaming arbeiten das Heimatnetzwerk und das Netzwerk des Landes, in dem ich zu Gast bin, zusammen. Sie wollen einen Service anbieten, der auch hinsichtlich Privatsphäre und Sicherheit so konsistent ist wie der im Heimatnetz. Die technische Umsetzung ist dabei aber komplett verschieden.“ So werde zum Beispiel bei einem Urlaub in der Schweiz die Telefonieverbindung direkt übers Schweizer Netz hergestellt, während die Internetverbindung den Umweg über Deutschland nehme. Im Heimnetzwerk ginge beides den direkten Weg. „Wenn man genau hinschaut gibt es keine Konsistenz zwischen Roaming- und Nicht-Roaming-Verbindungen“, erklärt der Forscher. Die Mobilfunk-Anbieter hätten extrem viel Gestaltungsspielraum und seien bislang kaum zu kontrollieren. Das gilt laut Dabrowski auch hinsichtlich der Sicherheit der Netze.

Grenzüberschreitende Tests bislang kaum möglich
Das Problem: Bislang sind Tests und Messungen über die Grenzen hinweg extrem aufwendig. „Europa ist extrem zersplittert. In jedem Land gibt es viele Mobilfunkanbieter. Deutschland ist mit seinen nur drei Anbietern die Ausnahme. Wenn ich feststelle, dass in einem unserer inländischen Mobilfunknetze eine Sicherheitslücke ist und prüfen will, ob das in anderen Netzen auch der Fall ist, hab‘ ich derzeit zwei Möglichkeiten: Entweder ich reise viel herum und teste jedes Netz in jedem Land in jeder Konstellation, oder ich statte in jedem Land möglichst viele Geräte mit möglichst vielen verschiedenen SIM-Karten von unterschiedlichen Anbietern aus. In kürzester Zeit habe ich so 1000 SIM-Karten, 1000 Verträge und eine Privatinsolvenz.“

„Entkoppelte Messungen“ sind die Lösung
Die Lösung könnte ein von den Forschenden entwickeltes Framework sein, das die geografische Trennung der SIM-Karte vom Mobilfunkmodem erlaubt. Das Modem ist eine Komponente in mobilen Endgeräten wie etwa Smartphones, das die Verbindung zwischen den Geräten und einem Mobilfunknetz herstellt. Seine Aufgabe ist es, die Funkdaten in die richtige Form zu bringen und an die Sendemasten senden und von dort zu empfangen. Die SIM-Karte dient zur Identifikation der Nutzer:innen und ordnet das Smartphone einem bestimmten Netz zu. Dabrowski erklärt, was das alles mit seinem Framework zu tun hat: „Normalerweise sind SIM-Karte und Telefon eine Einheit. Wir trennen diese Einheit auf und entfernen die SIM-Karte aus dem Telefon. Wir simulieren das Kommunikationsprotokoll übers Internet und können so quasi virtuell reisen. Nochmal einfacher an einem Beispiel erklärt: Wir verbinden einmal die SIM-Karte mit unserer Messstation in Deutschland und können so tun, als wären wir in Deutschland. Dann trennen wir sie und verbinden sie zu unserer Messstation in Frankreich und können so tun als seien wir da. Wir brauchen dafür nur noch ein Endgerät in Deutschland oder eben in Frankreich.“

Kostengünstig und Open Source
Die daraus resultierende Mess- und Testplattform, die für die Standards 2G bis 4G funktioniert, bietet laut Dabrowski eine kontrollierte Experimentierumgebung die erweiterbar und kostengünstig ist. „Zudem ist unser Ansatz Open Source, sodass andere Forscher Standorte, SIM-Karten und Messskripte dazu beitragen können.“ Die Forschenden machen die Plattform unter dem Namen MobileAtlas zugänglich und nutzbar. Das Tool dürfte dabei nicht nur für Wissenschaftler:innen interessant sein. „Mobilfunkanbieter:innen könnten damit auch erstmals prüfen, ob ihre Roamingpartner ihre Versprechen halten.“ Der Name Mobile Atlas kommt dabei nicht von Ungefähr. Er wurde laut Dabrowski abgeleitet vom Namen der seit 2010 existierenden Internet-Testplattform RIPEATLAS. „RIPE NCC ist die Europäische Internetverwaltung. Der RIPE Atlas ist ein globales Netz von Messgeräten, die die Konnektivität und Erreichbarkeit des Internets messen.“

Die Grenzen der Grenzenlosigkeit
Mit dem MOBILEATLAS gibt es bislang in zehn Ländern Messstationen und die für die Messungen geeignete Infrastruktur. Dabrowski hofft, dass sich das Messnetzwerk durch die Hilfe anderer Forschender schnell vergrößert. „Allerdings werden wir auch schauen müssen, dass kein Unfug mit den SIM-Karten getrieben wird, damit uns keine Kosten entstehen. Ob wir MOBILEATLAS so umfänglich anbieten können wie RIPE NCC ihre Plattform muss sich noch zeigen. Dass sich mit ihrem Ansatz interessante Informationen zu Tage fördern lassen, haben Dabrowski und seine Kollegen bewiesen: „Wir haben zum Beispiel entdeckt, dass sich in einigen Mobilfunknetzen bestimmte Dienste so tarnen lassen, dass der dafür anfallende Datenverkehr nicht vom im Tarif enthaltenen Datenvolumen abgezogen wird. Für Endnutzer:innen schlimmer sind allerdings die Sicherheitsproblematiken, die wir ebenfalls nachweisen konnten. So haben wir zum Teil problematische Firewall-Konfigurationen gefunden oder versteckte SIM-Kartenkommunikation mit dem Heimnetzwerk aufgedeckt.“ Allzu beunruhigend sind die Befunde dabei nicht. Eine Ausnutzung dieser Probleme würde sehr gezielte Angriffe und versierte Angreifer:innen voraussetzen. „Aber solche Lücken sind nie gut. Und jetzt haben wir die Möglichkeit, die Anbieter darauf hinzuweisen.“

Originalpublikation:
Gegenhuber, Gabriel Karl and Mayer, Wilfried and Weippl, Edgar and Dabrowski, Adrian
(2023) MobileAtlas: Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research. In: USENIX Security Symposium 2023, August 9-11, 2023, Anaheim, California, United State. Conference: USENIX-Security Usenix Security Symposium

Weitere Informationen:
https://www.mobileatlas.eu/

(nach oben)


10 Millionen Euro für die Erzeugung erneuerbarer, flüssiger Energieträger aus Kohlenstoffdioxidemissionen

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis Europa Zentrum
Das Innovationsprojekt CAPTUS zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien. Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern in CAPTUS beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Am 15. und 16. Juni 2023 feierten die Projektpartner, darunter das Steinbeis Europa Zentrum, den Auftakt des EU-Projekts CAPTUS in Zaragoza, Spanien. Das Innovationsprojekt zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien; darunter die Nutzbarmachung und Wertsteigerung von Kohlenstoffemissionen und deren Integration in erneuerbare Energiequellen.

Aufgrund ehrgeiziger klimapolitischer Maßnahmen stehen energieintensive Industrien heute vor einer großen Herausforderung. Sie müssen auf den globalisierten Märkten wettbewerbsfähig bleiben und gleichzeitig Maßnahmen zur drastischen Reduzierung ihrer Kohlenstoffemissionen ergreifen. In diesem Szenario des Übergangs spielt die Kohlenstoffabscheidung, -nutzung und -speicherung eine Schlüsselrolle , und es werden Technologien mit unterschiedlichem Reifegrad und unterschiedlicher Leistung erforscht. Die Umwandlung von Kohlenstoffdioxid in hochwertige erneuerbare Energieträger mit regenerativen Energien ist eine vielversprechende Strategie, um den anthropogenen Kohlenstoffkreislauf zu schließen, um auf diese Weise die Einsparziele bei Treibhausgasen und Energiebedarf zu erfüllen. Es gibt zwar bereits verschiedene Umwandlungsverfahren, aber die meisten sind noch sehr material- und energieaufwändig, kostspielig und ineffizient.

Im EU-Projekt CAPTUS werden hierzu neue innovative Lösungen erarbeitet. CAPTUS wird nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien aufzeigen, indem industrielle Kohlenstoffemissionen aufgewertet und Stromüberschüsse aus erneuerbaren Energien integriert werden. Es werden drei vollständige Wertschöpfungsketten für erneuerbaren Energieträgern an drei verschiedenen Demonstrationsstandorten demonstriert.
1. Aus Abgasen eines Stahlwerks werden durch eine zweistufige Fermentation mikrobiologisch Triglyceride hergestellt.
2. Zur Herstellung von Bio-Ölen in einer Chemieanlage werden Lipid-produzierende Mikroalgen kultiviert und dann gefolgt von hydrothermal verflüssigt.
3. Auf der Basis einer elektrochemischen Reduktion von CO2 aus Zementwerkabgasen wird Ameisensäure erzeugt.

Die vorgeschlagenen Technologien werden vom Labor- bis zum Pilotmaßstab geprüft, und die gewonnenen erneuerbaren Energieträger werden durch Qualitätsbewertungen und Veredelungsstudien für die Herstellung von Hochleistungskraftstoffen validiert. Darüber hinaus wird CAPTUS die Integration der validierten Lösungen für energieintensive Industrien hinsichtlich wirtschaftlicher, ökologischer, gesellschaftlicher, regulatorischer und geopolitischer Kriterien analysieren. Ebenso werden Richtlinien und Strategien für einen Dekarbonisierungsplan entwickelt, das Bewusstsein und die Akzeptanz von Kohlenstoffbindungs und -speicherungstechnologien wird erhöht und die gewonnenen erneuerbaren Energieträger werden verbessert. Schließlich geht es auch darum, geeignete Geschäftsmodelle und Replikationsmöglichkeiten zu schaffen.

Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Das Innovationsprojekt CAPTUS wird von der EU im Rahmen des Forschungs- und Innovationsprogramm Horizon Europe mit 10 Millionen Euro finanziert. Das Konsortium besteht aus 18 Partnern aus 8 Ländern, die multidisziplinäre Kompetenzen und Ressourcen aus Wissenschaft, Forschung, Technik, Industrie und Universitäten vereinen:
1. Fundación circe centro de investigación de recursos y consumos energéticos (Koordinator) – Spanien
2. Sintef AS – Norwegen
3. Universidad de Cantabria – Spanien
4. Agencia estatal consejo superior de investigaciones cinefíficas – Spanien
5. Universita degli studi di Genova – Italien
6. Steinbeis Europa Zentrum/ Steinbeis Innovation gGmbH – Deutschland
7. Ethniko kentro erevnas kai technologikis anaptyxis – Greece
8. Bio base europe pilot plant VZW – Belgien
9. Novis GmbH – Deutschland
10. Apria systems SL – Spanien
11. Draxis environmental SA – Griechenland
12. A4f algafuel SA – Portugal
13. Goodfuel BV – Niederlande
14. Rina consulting SPA – Italien
15. Arcelormittal Belgium NV- Belgien
16. Hychem, química sustentável SA – Portugal
17. Cementos portland valderrivas SA – Spanien
18. Energy efficiency in industrial processes asbl – Belgien

Das Projekt mit einer Dauer von 48 Monaten (Juni 2023- Mai 2027) und einem Gesamtbudget von 10 Millionen Euro, feierte das Auftakttreffen am 15. und 16. Juni 2023 in Zaragoza, Spanien.

Kontakt:
Für zusätzliche Informationen wenden Sie sich bitte an den Projektkoordinator bei der Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

Kontakt am Steinbeis Europa Zentrum
Dr. Frederick von Netzer, eMail: frederick.vonnetzer@steinbeis-europa.de

Wissenschaftliche Ansprechpartner:
Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

(nach oben)


Nach anfänglicher Erholung: Artenvielfalt in europäischen Flüssen stagniert

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Langzeitstudie zeigt, dass der Aufschwung der europäischen Süßwasser-Biodiversität seit den 2010er Jahren ins Stocken geraten ist.
Senckenberg-Forschende haben gemeinsam mit einem großen internationalen Team anhand wirbelloser Tiere den Zustand und die Entwicklung der Biodiversität in europäischen Binnengewässern im renommierten Fachjournal „Nature“ vorgestellt. In ihrer heute erschienenen Studie zeigen sie, dass die biologische Vielfalt in Flusssystemen aus 22 europäischen Ländern über einen Zeitraum von 1968 bis 2020 deutlich angestiegen ist. Das Wissenschaftler*innen-Team warnt jedoch, dass dieser positive Trend seit 2010 stagniert und fordern daher zusätzliche Maßnahmen.

Auch wenn Eintags-, Stein-, und Köcherfliegen zu den Fluginsekten zählen – den Großteil ihres Lebens verbringen sie als Larve im Wasser. „Diese und viele weitere wirbellose Tiere tragen zu wichtigen Ökosystemprozessen in Süßgewässern bei. Sie zersetzen organische Stoffe, filtern Wasser und transportieren Nährstoffe zwischen aquatischen und terrestrischen Bereichen. Darüber hinaus sind solche Invertebraten seit langem ein Eckpfeiler zur Überwachung der Wasserqualität“, erläutert Erstautor der Studie Prof. Dr. Peter Haase vom Senckenberg Forschungsinstitut und Naturmuseum Frankfurt und fährt fort: „Solch eine Kontrolle ist immens wichtig, denn Flüsse und Seen sind großen anthropogenen Belastungen ausgesetzt und gehören zu den am stärksten vom Verlust der biologischen Vielfalt bedrohten Ökosystemen.“

Binnengewässer sind durch die landwirtschaftliche und städtische Flächennutzung verschiedenen anthropogenen Belastungen ausgesetzt. Sie akkumulieren Schadstoffe, organisch belastete Abwässer, Feinsedimente und Pestizide und sind darüber hinaus durch Veränderungen, wie beispielsweise Dämme, Wasserentnahme, invasive Arten und den Klimawandel bedroht. „Als Reaktion auf den schlechten Zustand der Gewässer in den 1950er und 1960er Jahren wurden zur Wiederherstellung von Süßwasserlebensräumen beispielsweise mit dem ‚US Clean Water Act‘ von 1972 und der EU-Wasserrahmenrichtlinie von 2000 wichtige Gegenmaßnahmen ergriffen“, erklärt Senior-Autorin Dr. Ellen A.R. Welti, vormals Senckenberg-Wissenschaftlerin und nun Forschungsökologin in den USA am Smithsonian’s Conservation Ecology Center und spricht weiter: „Diese Maßnahmen führten zu einem deutlichen Rückgang der organischen Verschmutzung und der Versauerung ab etwa 1980. In den letzten 50 Jahren haben diese Schritte zur Eindämmung der Abwasserbelastung und so zu den aufgezeigten Verbesserungen der biologischen Vielfalt im Süßwasser beigetragen. Dennoch nehmen die Anzahl und die Auswirkungen der Stressfaktoren, welche diese Ökosysteme bedrohen, weltweit weiter zu, und die biologische Qualität der Flüsse ist nach wie vor vielerorts unzureichend.“

Gemeinsam mit einem großen internationalen Team haben Haase und Letztautorin Welti einen umfassenden Datensatz von 1.816 Zeitreihen analysiert, die zwischen 1968 und 2020 in Flusssystemen in 22 europäischen Ländern gesammelt wurden und 714.698 Beobachtungen von 2.648 Arten aus 26.668 Proben umfassen. Die Auswertungen zeigen, dass sowohl die Artenvielfalt mit 0,73 Prozent pro Jahr als auch die funktionelle Diversität mit jährlichen 2,4 Prozent und die Häufigkeit der Arten mit 1,17 Prozent im Jahr über den Zeitraum der 53 Jahre deutlich angestiegen ist. „Diese Zuwächse traten jedoch hauptsächlich vor 2010 auf und haben sich seitdem leider auf einem mehr oder weniger gleichbleibenden Niveau eingependelt. Während die Zunahme der biologischen Vielfalt in den 1990er und 2000er Jahren wahrscheinlich die Wirksamkeit von Wasserqualitäts- verbesserungen und Renaturierungsprojekten widerspiegelt, deutet die sich anschließende stagnierende Entwicklung auf eine Erschöpfung der bisherigen Maßnahmen hin“, ergänzt Haase.

Laut den Studienergebnissen erholten sich Süßwassergemeinschaften flussabwärts von Staudämmen, städtischen Gebieten und Ackerland weniger schnell. Die Fauna an Standorten mit schnellerer Erwärmung verzeichneten zudem geringere Zuwächse in der Artenvielfalt, der Häufigkeit der Individuen und der funktionellen Diversität. Welti fügt hinzu: „Basierend auf einem Teildatensatz – 1299 von 1816 – konnten wir zeigen, dass rund 70 Prozent der Flussabschnitte nicht-heimische Arten aufweisen mit einem durchschnittlichen Anteil von 4,9 Prozent der Arten und 8,9 Prozent der Individuen. Es ist außerdem zu beobachten, dass sich die eingewanderten Tiere in städtischen Gebieten und stärker belasteten Lokalitäten besser zurechtfinden als die heimische Fauna. Dies könnte zu einem Verlust seltener und empfindlicher einheimischer Arten führen“.

Erhebliche Investitionen seien erforderlich, um die Abwassernetze auszubauen und die Kläranlagen zu verbessern. Das Überlaufen von Kläranlagen bei Starkregen könnte verhindert und Mikroverunreinigungen, Nährstoffe, Salze sowie andere Schadstoffe wirksamer entfernt werden, so die Autor*innen. Darüber hinaus plädiert das Forschungsteam für weitere Maßnahmen, insbesondere die Reduktion von Einträgen von Dünge- und Pflanzenschutzmitteln aus landwirtschaftlichen Flächen, die Anbindung von Überschwemmungsgebieten zur Reduktion zerstörerischer Überschwemmungen sowie zur Anpassung unserer Flusssysteme an künftige klimatische und hydrologische Bedingungen.

„Künftig sollte zudem die Überwachung der biologischen Vielfalt in Verbindung mit der parallelen Erhebung von Umweltdaten erfolgen. Nur so können wir die zeitlichen Veränderungen innerhalb der Artenvielfalt wirksam beschreiben, umweltbedingte Faktoren und stark gefährdete Gebiete ermitteln und den Schutz der biologischen Vielfalt maximieren!“, schließt Haase.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Haase
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051 61954-3114
peter.haase@senckenberg.de

Originalpublikation:
Haase, P., D.E. Bowler, N.J. Baker, …, E.A.R. Welti (2023) The recovery of European freshwater biodiversity has come to a halt. Nature 620 (Issue 7974)
https://www.nature.com/articles/s41586-023-06400-1
DOI: 10.1038/s41586-023-06400-1

(nach oben)


Wann digitaler Stress auch positiv sein kann

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Stress durch Apps, E-Mails, ständige Benachrichtigungen – die Universitäten Augsburg, Bamberg, Erlangen-Nürnberg, München (LMU) und Würzburg haben in einem gemeinsamen Forschungsverbund vier Jahre lang zum gesunden Umgang mit digitalen Technologien und Medien geforscht. ForDigitHealth präsentiert seine Ergebnisse sowohl in wissenschaftlichen Publikationen wie auch einem verständlichen Online-Wegweiser für die Öffentlichkeit.

Digitale Technologien und Medien sind tief in unseren Alltag integriert. Sie halten uns in Verbindung, sind die Voraussetzung für Arbeitsprozesse, ermöglichen schnelle Abstimmungen, Inspiration, Unterhaltung, Lernen, Unterstützung und vieles mehr. Gleichzeitig entsteht dadurch digitaler Stress, den wir nicht immer gut handhaben können und der zu negativen gesundheitlichen Folgen führen kann.

Bayerns Wissenschaftsminister Markus Blume betont: „Interdisziplinär, hochaktuell und mit Mehrwert für uns alle: Der Ansatz des Forschungsverbunds ForDigitHealth war und ist mustergültig. Digitale Technologien und Medien bestimmen unseren Alltag – die Auswirkungen müssen fundiert untersucht werden, deshalb haben wir den Forschungsverbund mit insgesamt rd. 3,4 Millionen Euro gefördert. Die Ergebnisse geben uns nun wichtige Hinweise, wie wir – jeder einzelne und als Gesellschaft – mit dem Phänomen ‚Digitaler Stress‘ umgehen können. Ganz besonders freut mich, dass die Ergebnisse auch in einem Online-Wegweiser für alle zugänglich gemacht werden.“

Verschiedene Facetten erforscht
Vier Jahre lang hat der Bayerische Forschungsverbund ForDigitHealth zum gesunden Umgang mit digitalen Technologien und Medien geforscht und herausgefunden: Es kommt auf die Einstellung zum Stress an. Wenn er durch ein Individuum als Herausforderung statt als Belastung eingestuft wird, kann sich der Stress auch positiv auf eine bessere Leistung und Wohlbefinden auswirken. Hierfür müssen aber die Bedingungen stimmen: eine ausgebildete Medienkompetenz oder die Unterstützung durch Kolleginnen und Kollegen bzw. eines IT-Helpdesks, das Hilfesuchende zur Problemlösung befähigt und nicht nur das Problem selbst löst. In einer solchen Situation wird der Körper kurzfristig in Alarmbereitschaft versetzt, um die Situation bewältigen zu können. Langfristig kann dieser Stress aber auch mit Erkrankungen wie z. B. Herz-Kreislauf-Erkrankungen und Depression in Verbindung gebracht werden. Grund dafür sind langanhaltende Entzündungsprozesse, die der Körper im Rahmen der Stressreaktion durchläuft, wenn der Mensch über einen langen Zeitraum Stress ausgesetzt ist. So die Aussagen der beteiligten Wissenschaftler Dr. Manfred Schoch und Prof. Dr. Nicolas Rohleder (Co-Sprecher, Friedrich-Alexander-Universität Erlangen-Nürnberg). „Wiederholte Stresssituationen über den Arbeitstag hinweg können langfristig chronischen Stress auslösen, der krank macht. Insbesondere die Menge der digitalen Arbeit ist Treiber von chronischem digitalem Stress am Arbeitsplatz.“

ForDigitHealth hat auch erforscht, wie digitale Technologien mithilfe nutzerzentrierter Designprozesse gestaltet werden müssen, um digitalen Stress zu verringern. Die Informatik ging neue Wege und entwickelte z.B. Technologie für die Arbeit im Gehen, da sich Bewegung zum Stressabbau sehr gut eignet. Auch wurde bearbeitet, wie man mithilfe von Apps digitalen Stress besser bewältigen kann und erste Prototypen vorgestellt.

Prof. Dr. Elisabeth André (Universität Augsburg) als Co-Sprecherin des Verbunds, unterstreicht: „Wir haben Ernst gemacht mit dem Anspruch unseres Geldgebers, wirklich interdisziplinär zu arbeiten, also Methoden, Theorien, Perspektiven aus den fünf vertretenen Fachdisziplinen zu integrieren und neue Erkenntnisse zu erreichen. Neben dem Anspruch an Interdisziplinarität hatten wir den Auftrag, uns in den gesellschaftlichen Diskurs zum Thema digitaler Stress einzubringen.“

Online-Wegweiser gibt Tipps
Der Bayerische Forschungsverbund hat mögliche Lösungsansätze im Umgang mit digitalem Stress aufbereitet. In „Digitaler Stress: Der Wegweiser“ wurden Informationen und Hinweise zu Ursachen, Folgen und Wirkweisen für die Öffentlichkeit auf der Webseite des Verbunds festgehalten. Auch die zugrundeliegenden Publikationen können im Wegweiser leicht nachgelesen werden. Der Verbund ist mit ausgewiesenen Expertinnen und Experten aus den fünf Fachdisziplinen Medizin, Psychologie, Informatik, Wirtschaftsinformatik und Kommunikationswissenschaft besetzt. Im Rahmen von fünf übergeordneten Querschnittsthemen und in insgesamt elf Teilprojekten wurde das Thema digitaler Stress beforscht.

In ForDigitHealth arbeiten Wissenschaftlerinnen und Wissenschaftler von fünf bayerischen Universitäten zusammen (Universität Augsburg, Otto-Friedrich-Universität Bamberg, Friedrich-Alexander-Universität Erlangen-Nürnberg, Ludwig-Maximilians-Universität München und Julius-Maximilians-Universität Würzburg). Der Verbund wird durch das Bayerische Staatsministerium für Wissenschaft und Kunst mit rund 3,4. Mio. Euro über vier Jahre gefördert.

Die Teilprojekte im Überblick
Prof. Dr. Henner Gimpel, Wirtschaftsinformatiker an der Universität Augsburg und der Universität Hohenheim, befasste sich in zwei Teilprojekten einerseits mit der Bewältigung von digitalem Stress am Arbeitsplatz und der Frage, ob der Stress neben bekannten negativen Folgen auch positive Auswirkungen haben kann. Zum anderen wurde untersucht, wie man appgestützt den Umgang mit digitalem Stress unterstützen kann.

Prof. Dr. Jeffrey Wimmer, Kommunikationswissenschaftler an der Universität Augsburg, stellte sich die Frage, in welcher Form Menschen digitalen Stress in der Freizeit wahrnehmen, wie sie damit umgehen und welche Rolle ihr soziales Umfeld dabei spielt.

Prof. Dr. Susanne Kinnebrock, Kommunikationswissenschaftlerin an der Universität Augsburg, hat sich mit der Frage befasst, wie digitaler Stress in den Medien (u.a. in Online-Foren) dargestellt wird und welche Umfelder, Ursachen und Symptome dort thematisiert werden.

Prof. Dr. Nicolas Rohleder, Gesundheitspsychologe an der Friedrich-Alexander-Universität Erlangen-Nürnberg, hat sich mit dem Zusammenhang zwischen psychologischen und biologischen Stressreaktionen befasst.

Prof. Dr. Dennis Nowak und Prof. Dr. Matthias Weigl, Arbeitsmediziner der Ludwig-Maximilians-Universität München und Medizinpsychologe am Universitätsklinikum Bonn, haben sich mit der Frage befasst, wie sich kurz- und mittelfristige Stressreaktionen, die durch digitale Technologien und Medien im Umfeld des Arbeitsplatzes ausgelöst werden, langfristig auswirken.

Prof. Dr. Gerhild Nieding und Dr. Wienke Wannagat, Entwicklungspsychologinnen an der Julius-Maximilians-Universität Würzburg, befassten sich mit digitalem Stress bei Jugendlichen sowie jungen und älteren Erwachsenen und der Frage, wie eine digitale Medienkompetenz aussehen und konkret umgesetzt werden kann.

Prof. Dr. Tim Weitzel und Prof. Dr. Christian Maier, Wirtschaftsinformatiker von der Otto-Friedrich-Universität Bamberg und der Ludwig-Maximilians-Universität München, haben sich gefragt, ob digitaler Stress „ansteckend“ ist und sich auf andere Personen übertragen kann, z.B. in Teams am Arbeitsplatz.

Prof. Dr. Elisabeth André, Informatikerin an der Universität Augsburg, befasste sich mit der Frage, ob künstliche Intelligenz Anzeichen von digitalem Stress erkennen kann und wie Nutzer:innen in den Lern- und Entfaltungsprozess der KI eingebunden werden können.

Prof. Dr. Albrecht Schmidt, Informatiker an der Ludwig-Maximilians-Universität München, hat sich mit der Frage befasst, wie eine menschzentrierte Gestaltung von digitalen Technologien zu einer gesundheitsförderlichen Wirkung führen kann.

Prof. Dr. Matthias Berking, Klinischer Psychologe, Prof. Dr. Björn Eskofier, Informatiker (beide an der Friedrich-Alexander-Universität Erlangen-Nürnberg) sowie Prof. Dr.-Ing. habil. Björn Schuller, Informatiker an der Universität Augsburg haben erforscht, wie Apps so optimiert werden können, dass sie die psychische Gesundheit stärken.

Wissenschaftliche Ansprechpartner:
Sabine Toussant
Geschäftsführerin Forschungsverbund ForDigithHealth
E-Mail: sabine.toussaint@mrm.uni-augsburg.de
Telefon: +49 151 10812081

Prof. Dr. Elisabeth Andé
Co-Sprecherin Forschungsverbund ForDigithHealth
E-Mail: elisabeth.andre@informatik.uni-augsburg.de
Telefon: +49 821-2341 (Sekretariat)

Weitere Informationen:
https://gesund-digital-leben.de/wegweiser Online-Wegweiser: Digitaler Stress
https://gesund-digital-leben.de Webseite des Forschungsverbunds ForDigitHealth

(nach oben)


Wasserreinigung mit Biotechnologie: Forschende finden neuen Ansatz durch Kombination von Pilzen und Bakterien

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des IGB haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Die biologische Stickstoffentfernung, die Denitrifikation, ist ein wichtiger biochemischer Prozess. Dabei wandeln Mikroorganismen zwei der wichtigsten Stickstoffverbindungen, Nitrat und Nitrit, in gasförmigen Stickstoff um. Dies geschieht in Gewässern auf natürliche Weise durch Stoffwechselprozesse der dort lebenden Organismen und wird als Selbstreinigungskraft bezeichnet. Dieses Prinzip macht man sich auch bei der Wasseraufbereitung zunutze. Bisher wurden verschiedene Bakterien und Pilze in Reinkultur identifiziert, die Stickstoff mit und ohne Sauerstoff abbauen können. Für die Wasseraufbereitung ist vor allem der Stickstoffabbau in Gegenwart von Sauerstoff relevant, da er kostengünstiger und zudem großtechnisch umsetzbar ist.

Pilz-Bakterien-Kombinationen bislang vor allem zur Fermentation von Lebensmitteln und Getränken eingesetzt:
Die Isolierung einzelner Bakterien- oder Pilzstämme ist aufwändig und teuer. Kombinationen aus beiden, so genannte mikrobielle Konsortien, gelten als vielversprechende Alternative zu reinen Stämmen, sind aber auf dem Gebiet der Denitrifikation in Gegenwart von Sauerstoff noch wenig erforscht. Die Forschenden nahmen dies zum Anlass, dieses Potenzial zu untersuchen, da mikrobielle Konsortien beispielsweise bei der Fermentation von Lebensmitteln und Getränken schon lange eingesetzt werden. Gerade Pilze haben den Vorteil, dass sie sehr robust gegenüber Umweltstressoren wie saurem pH-Wert und hohen Temperaturen sind.

Nahezu vollständige Nitratentfernung möglich:
Das Forschungsteam identifizierte ein natürliches Bakterien-Pilz-Konsortium aus Marikulturen, das Nitrat sehr effizient und konstant aus dem Wasser entfernt. In Gegenwart von Sauerstoff beträgt die Nitratentfernung bis zu 100 Prozent und die Denitrifikationseffizienz 44 Prozent. Die Denitrifikationseffizienz gibt an, wie gut Mikroorganismen in der Lage sind, den im Nitrat gebundenen Stickstoff in molekularen Stickstoff (N₂) und Stickoxide umzuwandeln.

Mittels Hochdurchsatzsequenzierung wurden die an diesem Prozess beteiligten Bakterien- und Pilzgattungen identifiziert. Eine anschließende Netzwerkanalyse zeigte, welche Arten positiv miteinander interagieren und sich daher besonders für eine Kombination eignen.
„Es ist uns gelungen, denitrifizierende Bakterien-Pilz-Gruppen zu identifizieren, die das Potenzial haben, Nitrat besonders gut aus dem Wasser zu entfernen. Das ist ein wichtiger Schritt, um mikrobielle Konsortien für eine optimale Wasseraufbereitung zusammenzustellen“, erklärt IGB-Forscher Professor Hans-Peter Grossart, Mitautor der Studie.

Da die Suche nach geeigneten Mikroorganismen-Gemeinschaften aus Bakterien und Pilzen noch ein sehr junges Forschungsgebiet ist, gibt es noch keine Anwendungen in der Praxis. Die Autor*innen sind sich aber sicher, dass diese in Zukunft die Biotechnologie in der Abwasseraufbereitung deutlich prägen werden.

Originalpublikation:
Zuo, Xiaotian et al., Aerobic denitrifying bacterial-fungal consortium mediating nitrate removal: Dynamics, network patterns and interactions, iScience, Volume 26, Issue 6, 106824, DOI:https://doi.org/10.1016/j.isci.2023.106824

Weitere Informationen:
https://www.igb-berlin.de/news/wasserreinigung-mit-biotechnologie

(nach oben)


Niedrige Wasserstände lösen Sondermessprogramm an der Elbe aus

Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Seit mehreren Wochen herrscht an der Elbe Niedrigwasser. Gestern startete daher das Messprogramm für hydrologische Extreme der Flussgebietsgemeinschaft (FGG) Elbe. Die BfG koordiniert gemeinsam mit den Behörden der Anrainerländer Sachsen, Sachsen-Anhalt, Niedersachsen und Brandenburg das Sondermessprogramm, das die Auswirkungen des Niedrigwassers auf die Wasserqualität untersucht.

Ergänzend zu den monatlichen Routinemessungen werden an ausgewählten Messstellen entlang der Elbe sowie der unteren Mulde, Saale und Havel im nun kürzeren 14-tägigem Abstand Wasserproben genommen. Das innerhalb der FGG Elbe etablierte Messprogramm startete bereits 2013. Im Labor werden in den Messproben dann wichtige Kenngrößen wie zum Beispiel Nährstoffkonzentrationen, aber auch Schadstoffe und Spurenstoffe bestimmt. „Das heute gestartete Messprogramm ist speziell auf die Niedrigwassersituation abgestimmt. Die kürzere Messperiode ermöglicht uns einen detaillierteren Blick auf die Wasserqualität und wie sich Hitze und Dürre auf diese auswirken“, erklärt Geoökologe Dr. Daniel Schwandt.

Auslöser waren die niedrigen Wasserstände an den Bezugspegeln in Schöna und Barby im Ober- bzw. Mittellauf der Elbe. „Diese liegen seit mehr als zwei Wochen unterhalb eines festgelegten Schwellenwerts. Da außerdem für die nächsten Tage im Elbegebiet kein langanhaltender Niederschlag vorhergesagt war, haben wir unsere Länderkollegen/-innen informiert. Diese lösten dann das Sondermessprogramm aus“, so Schwandt. Laut dem BfG-Wissenschaftler war dies im Sommer 2019 das letzte Mal der Fall.

Steigt der Wasserstand für längere Zeit wieder über den Schwellenwert, wird das Programm beendet und die Auswertung der Daten beginnt. Dies übernimmt die BfG in Abstimmung mit der FGG Elbe. Die Ergebnisse der Laboruntersuchungen aller Messstellen werden zeitnah auf der Informationsplattform Undine (https://undine.bafg.de/elbe/extremereignisse/elbe_mp_extremereignisse.html) veröffentlicht. Dort sind neben Hintergrundinformationen zum Messprogramm auch Messwerte zu vorhergehenden extremen Hoch- und Niedrigwasserereignissen an der Elbe und die dazugehörigen Berichte veröffentlicht.

Bei Undine stehen unter der Überschrift „Extremereignisse“ auch Steckbriefe zu einzelnen herausragenden Hoch- und Niedrigwasserereignissen an der Elbe im Laufe der Historie zum Download bereit. Insbesondere finden sich hier Kurzbeschreibungen der extremen Niedrigwasser der Jahre 1921, 2015 und 2018.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schwandt, +49 261 1306 5479
Dr. Gerd Hübner, +49 261 1306 2010

(nach oben)


Forschungsvorhaben heavyRAIN verbessert Regenmessung für Starkregenvorhersage in Lübeck

Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Wann und wo wird Starkregen auftreten? Wie können Bürger*innen und Einsatzkräfte vor einem nahenden Ereignis gewarnt werden? Das sind die Fragen, die die hydro & meteo GmbH in Kooperation mit den Stadtwerken Lübeck, der Hansestadt Lübeck und der Technischen Hochschule (TH) Lübeck im Rahmen des Projektes „heavyRAIN“ in Lübeck beantworten möchte.

Der Schutz vor Starkregen ist eine der zentralen Herausforderungen der Klimafolgenanpassung. Im Starkregenfall zählt jede Minute, um kurzfristige Maßnahmen zur Verminderung von Schäden zu ergreifen und sich in Sicherheit zu begeben. Eine schnellere und präzisere Vorwarnung hilft den Einsatzkräften proaktiv zu handeln.

Das Forschungsvorhaben „heavyRAIN“ erhält von September 2022 bis August 2025 im Rahmen der Innovationsinitiative mFUND eine Förderung durch das Bundesministerium für Digitales und Verkehr (BMDV). Ziel ist es, ein verbessertes Frühwarnsystem für Starkregen zu entwickeln. In den kommenden drei Jahren werden in vier deutschen Städten (Bochum, Hagen, Lüdenscheid und Lübeck) eigene Niederschlagsmessungen durchgeführt. Hiermit und mit weiteren Wetterdaten wird die Vorhersagemethodik verbessert.

Initiiert und durchgeführt wird das Projekt von der Okeanos Smart Data Solutions GmbH aus Bochum, der hydro & meteo GmbH aus Lübeck, dem Bochumer Institut für Technologie gGmbH und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW. Unterstützt werden sie von den Städten Bochum, Hagen, Lübeck und Lüdenscheid, die gleichzeitig als Orte der Feldstudien fungieren, sowie vom Deutschen Wetterdienst, der Emschergenossenschaft & Lippeverband, den Stadtwerken Bochum Netze, dem Wetternetz Hagen, den Stadtwerken Lüdenscheid & Herscheid, den Stadtwerken Lübeck Digital (bis vor kurzem „Travekom“), den Wirtschaftsbetrieben Hagen sowie der Technischen Hochschule Lübeck.

Das hydrometeorologische Ingenieurbüro hydro & meteo GmbH, ein seit vielen Jahren mit Niederschlagsdaten und -warnsystemen vertrautes Unternehmen, ist der Projektpartner in Lübeck. In Zusammenarbeit mit der Abteilung für Straßenbeleuchtung der Hansestadt Lübeck werden 50 neu entwickelte, kompakte IoT-Niederschlagssensoren an Straßenlaternen im ganzen Stadtgebiet installiert. Die Niederschlagssensoren von der Firma NIVUS arbeiten mit Infrarotlicht und bieten eine Regenmessung in Echtzeit, die über das LoRaWAN-Netz der Stadtwerke Lübeck gesammelt wird. Die Messungen werden später über das Internetportal der „Smart City Region Lübeck“ (geoportal.smart-hl.city) abrufbar sein. Diese Daten werden anschließend von leistungsstarken Vorhersage-Algorithmen analysiert, um eine genaue Einschätzung der Niederschlagslage zu liefern.

Marius Kämmel studiert Umweltingenieurwesen und -management an der TH Lübeck. Im Rahmen der Lehre am Fachbereich Angewandte Naturwissenschaften erfuhr der 24-Jährige vom Projekt HeavyRAIN: „Ich war direkt davon begeistert und arbeite nun als wissenschaftlicher Mitarbeiter im Projekt mit.“ Um ein besseres Verständnis für die Funktionsweise sowie –fähigkeit der Geräte zu bekommen habe Kämmel zunächst einzelne Sensoren im Labor für Umweltverfahrenstechnik getestet. Dafür konzipierte und nutzte er einen eigenen Versuchsaufbau. „Mittlerweile installiere ich die Sensoren gemeinsam mit meinem Kollegen Bruno Castro von der hydro & meteo GmbH in sämtlichen Lübecker Stadtteilen. Diese praktische Arbeit bringt sehr viel Spaß. Es macht mich auch stolz die Sensoren an ihrem finalen Standort zu sehen.“

Das Projekt heavyRAIN wird im Rahmen der Innovationsinitiative mFUND (www.mFUND.de) durch das Bundesministerium für Digitales und Verkehr gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Annika Jahnke-Bornemann
hydro & meteo GmbH
Email: a.jahnke-bornemann@hydrometeo.de

(nach oben)


Unsichtbaren Partikeln auf der Spur

Stefanie Reiffert Corporate Communications Center
Technische Universität München
Wie hoch ist die Konzentration von Mikroplastik in der Umwelt, im Trinkwasser oder in Nahrungsmitteln? Forschende der Technischen Universität München (TUM) haben jetzt eine automatisierte Analysemethode entwickelt, mit der sich die Partikel identifizieren und quantifizieren lassen.

Mikroplastik ist in der Umwelt allgegenwärtig. Die winzigen Teilchen mit einer Größe von unter fünf Millimetern können außerdem Schad- und Giftstoffe aufnehmen und transportieren. „Wir benötigen dringend Analysemethoden, die Auskunft geben über die Größe, Konzentration und Zusammensetzung der Partikel“, erklärt Dr. Natalia Ivleva vom Lehrstuhl für Analytische Chemie und Wasserchemie der TUM. Zusammen mit ihrem Team hat die Wissenschaftlerin ein neues Verfahren entwickelt.

Um das Mikroplastik zu detektieren, mussten die Forschenden mehrere Hürden überwinden: Das erste Problem ist die geringe Konzentration der Partikel. Flusswasser zum Beispiel enthält jede Menge Schwebstoffe und feinen Sand, nicht einmal ein Prozent der Partikel sind aus Kunststoff. Diese Teilchen gilt es zu isolieren, dann muss deren Konzentration bestimmt werden und schließlich die chemische Zusammensetzung. Bisher wurden hierfür Analysemethoden eingesetzt, bei denen die Proben erhitzt und die Zersetzungsprodukte untersucht wurden. Anzahl, Größe und Form der Plastik-Partikel ließen sich auf diese Weise nicht ermitteln.

Kunststoffe lassen sich durch Lichtstreuung identifizieren
„Unser Ansatz ist grundlegend anders“, betont Ivleva: „Wir arbeiten partikelbasiert, das heißt, wir zerstören die Teilchen nicht, sondern untersuchen sie direkt.“ Dabei nutzen die Forschenden die sogenannte Raman-Mikrospektroskopie, bei der mit Hilfe eines Lasers monochromatisches Licht von den Molekülen einer Probe gestreut wird. Durch Vergleich des gestreuten mit dem eingestrahlten Licht lassen sich Rückschlüsse ziehen auf die untersuchte Substanz.

Um Plastik-Partikel mit mehr als einem Mikrometer Durchmesser auf diese Weise zu analysieren, müssen die Kunststoff-Teilchen aus der wässrigen Lösung herausgefiltert, unter dem Mikroskop detektiert und dann mit Laserlicht beleuchtet werden. Weil Kunststoffe wie Polyethylen, Polystyrol oder Polyvinylchlorid die Photonen auf charakteristische Weise streuen, erzeugen sie jeweils spezifische Signale, die sich wie ein Fingerabdruck zuordnen lassen.

Automatisierung statt manueller Messungen
Die Entwicklung des Nachweisverfahren hat Jahre gedauert: „Als wir angefangen haben, waren manuelle Messungen erforderlich“, erinnert sich die Chemikerin. „Da haben wir Monate gebraucht, um ein paar Tausend Partikel zu untersuchen.“ Mittlerweile ist es dem Team gelungen, den Nachweis von Mikroplastik zu automatisieren. Eine Analyse dauert nicht mehr Wochen, sondern nur noch Stunden. Man muss die winzigen Partikel zwar immer noch aus einer wässrigen Probe herausfiltern und den Filter unter das Raman-Mikrospektroskop legen, doch alles Weitere steuert eine eigens entwickelte Software: Die Kunststoffteilchen werden zunächst lichtmikroskopisch lokalisiert, fotografiert und vermessen, wobei Partikel und Fasern unterschieden werden. Das Computerprogramm berechnet aus diesen Daten die Anzahl von Partikeln und Fasern sowie die Auswahl von Bildausschnitten für die anschließende Raman-Spektroskopie, die für ein statistisch signifikantes Ergebnis benötigt werden.

Im nächsten Schritt fällt Laserlicht auf die Probe, die Streuung wird detektiert und ausgewertet. Anzahl, Größe, Form und Zusammensetzung von Mikroplastik lässt sich auf diese Weise schnell und zuverlässig analysieren. Die Software „TUM-Particle Typer 2“ ist Open Source basiert und kann ab sofort von Forschenden auf der ganzen Welt genutzt werden.

Nanoplastik verlangt besondere Nachweisverfahren
Um auch Partikel untersuchen zu können, die Durchmesser von weniger als einem Mikrometer aufweisen, arbeitet Ivleva‘s Gruppe bereits an einem modifizierten Verfahren. „Solche Nanoteilchen sind unter einem Lichtmikroskop nur schwer oder gar nicht zu detektieren. Um die Partikel nachweisen zu können, müssen wir sie zuerst nach Größe fraktionieren und dann identifizieren“, erklärt die Forscherin.

Hierfür wird ein System für Feldflussfraktionierung verwendet. Dieses erzeugt einen Wasserstrom, der die Partikel erfasst und – abhängig von ihrer Größe – schneller oder langsamer transportiert und auf diese Weise trennt. Eine speziell entwickelte Vorrichtung erlaubt in Kombination mit Raman-Mikrospektroskopie die chemische Charakterisierung von unterschiedlichen Arten von Nanoplastik.

„Die neuen Analyseverfahren ermöglichen eine schnelle und genaue Untersuchung der Konzentration, Größe und Zusammensetzung von Mikro- und Nanoplastik“, resümiert Ivleva. „Damit wird es künftig möglich sein, auch den Einfluss dieser Partikel auf die Umwelt und die menschliche Gesundheit zu erforschen.“

Wissenschaftliche Ansprechpartner:
Dr. Natalia P. Ivleva
Technische Universität München (TUM)
Tel: +49 89 289 54 507
natalia.ivleva@tum.de
https://www.ch.nat.tum.de/hydrochemistry

Originalpublikation:
Oliver Jacob, Alejandro Ramírez-Piñero, Martin Elsner, Natalia P. Ivleva, TUM-ParticleTyper 2: Automated Quantitative Analysis of (Microplastic) Particles and Fibers down to 1 μm by Raman Microspectroscopy, Analytical and Bioanalytical Chemistry

Maximilian J. Huber, Natalia P. Ivleva, Andy M. Booth, Irina Beer, Ivana Bianchi, Roland Drexel, Otmar Geiss, Dora Mehn, Florian Meier, Alicja Molska, Jeremie Parot, Lisbet Sørensen, Gabriele Vella, Adriele Prina Mello, Robert Vogel, Fanny Caputo: Physicochemical Characterization and Quantification of Nanoplastics: Applicability, Limitations and Complementarity of Batch and Fractionation Methods, Analytical and Bioanalytical Chemistry

(nach oben)


Umweltfreundlichere Bekämpfung von Ölkatastrophen mit Biotensiden

Lydia Lehmann Stabsstelle Hochschulkommunikation
Universität Stuttgart
Können Biotenside den mikrobiologischen Ölabbau im Nordsee-Meerwasser steigern? Das hat ein internationales Forschungsteam der Universitäten Stuttgart und Tübingen sowie der China West Normal University und der University of Georgia untersucht – und sieht Potenzial für eine effektivere und umweltfreundlichere Bekämpfung von Ölkatastrophen.

Schätzungsweise 1500 Millionen Liter Öl fließen pro Jahr in die Ozeane. Das führt zu einer Umweltverschmutzung von globaler Bedeutung, da Öl gefährliche Verbindungen wie polyzyklische aromatische Kohlenwasserstoffe enthält, die giftig auf Lebewesen wirken oder deren Erbgut verändern können. Besonders verheerend sind Ölkatastrophen, bei denen in relativ kurzer Zeit große Mengen an Öl in die Meere austreten, etwa Unfälle von Tankern oder an Ölbohrplattformen wie 2010 bei Deepwater Horizon.

In solchen Katastrophenfällen werden routinemäßig, je nach Ölmenge, bis zu mehrere Millionen Liter chemische Dispersionsmittel ausgebracht, um Ölklumpen aufzulösen, Ölanschwemmung an Küsten zu verhindern und die Öldispersion im Wasser zu steigern. Dadurch soll der mikrobielle Ölabbau erhöht werden. Spezielle Mikroorganismen, die weitverbreitet in der Natur vorkommen, können sich nämlich von Rohölbestandteilen ernähren und bauen diese zu harmlosen Stoffen ab. Durch diese besondere Fähigkeit der Mikroben werden ölkontaminierte Gebiete natürlich gereinigt.

„In einer im Jahr 2015 veröffentlichten Studie aus den USA haben wir jedoch gezeigt, dass – anders als erhofft – chemische Dispersionsmittel im Tiefseewasser aus dem Golf von Mexiko den mikrobiellen Ölabbau verlangsamen können“, sagt Professorin Sara Kleindienst, bis Juni 2022 an der Universität Tübingen und jetzt an der Universität Stuttgart. „Seitdem wird das Thema kontrovers diskutiert und es gibt bislang keine einfache Antwort darauf, wie Ölkatastrophen am besten zu bekämpfen wären.“

Auf der Suche nach umweltfreundlicheren Methoden zur Bewältigung von Ölkatastrophen könnten Biotenside eine vielversprechende Alternative zu chemischen Dispersionsmitteln sein. Biotenside werden durch Mikroorganismen gebildet und können bewirken, dass Ölkomponenten leichter für den Abbau zugänglich werden. Der mikrobielle Ölabbau, der maßgeblich für die Aufreinigung verantwortlich ist, kann dadurch gesteigert werden.

Experimente mit Meerwasser aus der Nordsee
Ein internationales Forschungsteam um die Umweltmikrobiologin Professorin Sara Kleindienst mit dem Geomikrobiologen Professor Andreas Kappler (Universität Tübingen) und der Biogeochemikerin Professorin Samantha Joye (University of Georgia) testete die Wirkung von Biotensiden und chemischen Dispersionsmitteln im Vergleich. Im Labor an der Universität Tübingen simulierten die Forschenden eine Ölverschmutzung. Für ihre Experimente entnahmen sie mehr als 100 Liter Oberflächenwasser aus der Nordsee, in der Nähe der Insel Helgoland. Das Meerwasser wurde entweder mit einem Biotensid Rhamnolipid oder einem Dispersionsmittel (entweder Corexit 9500 oder Slickgone NS), jeweils in Anwesenheit und Abwesenheit von Öl, behandelt. Um den Abbau des Öls durch die Mikroorganismen im Detail verfolgen zu können, setzte das Forschungsteam radioaktive Markierungen ein. „Unsere Untersuchungen mit radioaktiv markierten Kohlenwasserstoffen oder einer radioaktiv markierten Aminosäure zeigten, dass die höchsten mikrobiellen Raten der Kohlenwasserstoffoxidation und der Proteinbiosynthese in den mit Rhamnolipid behandelten Öl-Mikrokosmen auftraten“, sagt Professorin Lu Lu, ehemals an der Universität Tübingen und jetzt an der China West Normal University.

Auch die Auswirkungen auf die Zusammensetzung der mikrobiellen Gemeinschaften unterschied sich stark zwischen den Ansätzen mit Biotensiden im Vergleich zu jenen mit chemischen Dispersionsmitteln. „Dieses Ergebnis weist darauf hin, dass der Einsatz von Biotensiden gegenüber chemischen Dispersionsmitteln andere mikrobielle Ölabbauer stimulieren kann, sowohl im Wachstum als auch in den Aktivitäten – und dies kann sich wiederrum auf den Reinigungsprozess nach Ölkatastrophen auswirken“, sagt Lu.

„Unsere Erkenntnisse legen nahe, dass Biotenside ein großes Potenzial für den Einsatz bei zukünftigen Ölkatastrophen in der Nordsee oder in ähnlichen nährstoffreichen Habitaten im Ozean haben könnten“, fügt Kleindienst hinzu. „Eine visionäre Weiterführung unserer Arbeit wäre die Entwicklung von Produkten, die auf Biotensiden basieren und die eine effektive und umweltfreundliche Bekämpfung von Ölkatastrophen leisten können.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sara Kleindienst, Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Abteilung Umweltmikrobiologie, Tel.: +49 711 685 69351, E-Mail sara.kleindienst@iswa.uni-stuttgart.de

Originalpublikation:
Lu Lu, Saskia Rughöft, Daniel Straub, Samantha B. Joye, Andreas Kappler, Sara Kleindienst (2023): Rhamnolipid biosurfactants enhance microbial oil biodegradation in surface seawater from the North Sea. In: ACS Environmental Science & Technology Water, 19. Juli 2023. DOI 10.1021/acsestwater.3c00048

(nach oben)


PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.

Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.

Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.

Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.

Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.

Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.

Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «

Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«

Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.

Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.

Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.

Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…

(nach oben)


Was ist das da im Badesee?

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Raus an den See zum Baden. Aber was schwimmt, wächst und krabbelt denn da im Wasser? Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) liefern ein wenig Fachwissen für den Freizeitspaß am Gewässer.

Das Wasser ist nicht klar, sondern durchzogen von winzigen grünen Punkten oder Schlieren, die auch bläulich schimmern können:
Das sind vermutlich Cyanobakterien, gemeinhin auch Blaualgen genannt. Früher ordnete man sie den Algen zu, weil sie Photosynthese betreiben können. Im Gegensatz zu echten Algen haben sie aber keinen Zellkern – und werden deshalb nun zu den Bakterien gezählt. Das Problem mit den Cyanobakterien ist, dass sie Giftstoffe bilden können, die für Tiere und Menschen gesundheitsschädlich sind. Allerdings nur, wenn sie in großen Mengen aufgenommen werden. Um die Gesundheit nicht zu gefährden, werden Badestellen von den zuständigen Behörden regelmäßig auf Cyanobakterien und deren Toxine untersucht. Im Ernstfall werden Badestellen gesperrt. Als Faustregel gilt: Wenn man bis zu den Knien ins Wasser geht, sollte man seine Füße noch sehen können. Ist das Wasser zu grün, lieber woanders baden. Da Cyanobakterien die Haut reizen können, sollte man nach dem Baden in solchen Gewässern gleich duschen und die Badekleidung wechseln.

Wolkige Algenfäden am Ufer und im Wasser:
Das sind wahrscheinlich Fadenalgen. Fadenalgen sind keine einzelne Art, viele verschiedene Arten werden aufgrund ihres Aussehens unter diesem Begriff zusammengefasst. Massenansammlungen von Fadenalgen können Lebensgemeinschaften anderer Lebewesen am Seegrund gefährden und Nahrungsnetze verändern; viele der möglichen Auswirkungen sind aber noch nicht bekannt. Für Badende sind die grünen Algenteppiche nicht nur unansehnlich, in ihnen können sich auch Giftstoffe von Cyanobakterien anreichern. Hunde scheinen vom fischigen Geruch der Algen angezogen zu werden und laufen dann Gefahr, die Giftstoffe aufzunehmen. Also: Kein Grund zur Panik bei kleinen Algenwolken, aber Hunde nicht am Ufer im Algenteppich schnüffeln lassen und auch Kinder, die beim Baden noch viel Wasser schlucken, sollten sich lieber fernhalten.

Kann man sich an Wasserpflanzen verfangen?
Wasserpflanzen, in der Wissenschaft auch Makrophyten genannt, können entweder im Wasser schwimmen oder am Gewässergrund wurzeln. Auch wenn sie in der Tiefe wachsen, streben die meisten zur Wasseroberfläche – zum Sonnenlicht, denn auch sie brauchen es für ihre Photosynthese. Wasserpflanzen können beim Baden stören oder auf manche unheimlich wirken. Die meisten Wasserpflanzen, wie z.B. Armleuchteralgen, lassen sich aber leicht abstreifen oder abreißen. Große Seerosenflächen sollten von Schwimmern grundsätzlich gemieden werden. Auch aus Naturschutzgründen. Die eigentliche Gefahr sind nicht die Pflanzen, sondern die Panik, die sie auslösen. Also Ruhe bewahren und am besten in Rückenlage so aus den Seerosen herausschwimmen, wie man reingeschwommen ist. Wasserpflanzen sind grundsätzlich sehr nützlich. Sie helfen, das Wasser zu reinigen und bieten vielen Lebewesen Nahrung und Unterschlupf.

Autsch, ich habe mich am Fuß geschnitten:
Das war bestimmt eine Muschel. Tatsächlich sind in den letzten Jahren immer mehr Muscheln in unseren Gewässern zu finden. Vor allem die Quagga-Muschel breitet sich als invasive Art in großer Zahl in unseren Gewässern aus. Ihren ungewöhnlichen Namen verdankt sie ihrer hell-dunkel gestreiften Schale, die an das Fellmuster der Zebraart „Quagga“ erinnert. Die Ansiedlung dieser Muschel hat Vor- und Nachteile. Muscheln sind Filtrierer und reinigen das Wasser von Nährstoffen. Bis zu vier Liter Wasser kann eine Muschel pro Tag filtern – das verbessert die Wasserqualität. Aber die Quagga-Muschel überwuchert mit ihren Byssusfäden andere Muscheln und Weichtiere, die dadurch in ihrer Bewegung eingeschränkt werden und zum Beispiel ihre Schalen nicht mehr schließen können.

Der Fisch traut sich aber nah an mich heran:
Die meisten Fische sind scheu. Es gibt aber auch Arten, die sich im flachen Wasser aufhalten und sogar dort schwimmen, wo viele Badegäste sind. Das sind zum Beispiel Flussbarsche. Man erkennt sie gut an ihren schwarzen Streifen und rötlichen Flossen. Aber auch andere Arten wie Plötzen und Rotfedern, die ebenfalls rötliche Flossen und silbergraue Schuppen haben, trauen sich recht nah an unsere Füße heran. In größeren Seen kann man auch Ukeleis beobachten, die Insekten von der Wasseroberfläche fressen. Der berühmt-berüchtigte Wels ist jedoch selten dort anzutreffen, wo sich viele Badegäste aufhalten. Er hält sich vor allem am Gewässergrund auf und ist auch nicht bissig und gefährlich, wie es der Volksmund behauptet. Allerdings werden sich durch die globale Erwärmung die Aufenthaltsorte vieler Fischarten verschieben – kälteliebende Arten werden also eher in tiefere Wasserschichten abwandern.

Libellen, Wasserläufer und Co.:
Wussten Sie, dass rund 6 Prozent aller Insekten mindestens eine Phase ihres Lebens im Wasser verbringen? Einige Fluginsekten wie Eintagsfliegen, Steinfliegen, Köcherfliegen und Libellen leben als Larven in Gewässern. Daher kann eine Verschlechterung der Wasserqualität auch das Vorkommen dieser Arten beeinflussen. Eintagsfliegen können sogar über ein Jahr im Wasser verbringen, bevor sie für wenige Tage zur Paarung als Fluginsekten an Land kommen. Der Wasserläufer hingegen lebt immer an der Grenze zwischen Wasser und Luft. Die Härchen auf ihren Beinen ermöglichen es den Tieren, sich mit Hilfe der Oberflächenspannung schnell auf der Wasseroberfläche zu bewegen, ohne dabei einzusinken. Mit sehr viel Glück können Sie beim Schnorcheln eine Wasserspinne, die Silberspinne, entdecken. Sie ist die einzige Spinnenart, die nicht an Land, sondern unter Wasser lebt. Sie sammelt Luft in einem dicht gesponnenen Netz unter Wasser – wie in einer Taucherglocke. Die Wasserspinne ist stark gefährdet, weil sie besonders sauberes Wasser zum Überleben braucht.

Weitere Informationen:
https://www.igb-berlin.de/news/was-ist-das-da-im-badesee

(nach oben)


Neue Hypertonie-Leitlinien: Was bedeuten sie für die Bluthochdruck-Behandlung?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Zielwerte, individuelles Risikoprofil, Krankheitsstadium: Herzstiftungs-Experte ordnet Neuerungen der neuen Leitlinien für Betroffene mit Bluthochdruck ein

Bluthochdruck ist einer der wesentlichen Risikofaktoren für Herz- und Gefäßerkrankungen. So kann ein dauerhaft unzureichend oder nicht behandelter Bluthochdruck zu Herzerkrankungen wie Herzschwäche und Vorhofflimmern oder zu schwerwiegenden Komplikationen wie Gehirnblutung, Schlaganfall, Herzinfarkt oder Nierenversagen führen. Über 20 Millionen Menschen haben in Deutschland einen hohen Blutdruck, etwa jeder dritte Erwachsene. Zwar ist die gesundheitliche Gefahr, die von dauerhaft erhöhten Werten ausgeht, hinlänglich bekannt. Dennoch ist die Zahl derer, die ihren Blutdruck kontrollieren und ihre Werte kennen, vergleichsweise gering. In Deutschland schätzen Experten, dass das etwa bei jedem fünften Erwachsenen der Fall ist. Neue Leitlinien der Europäischen Gesellschaft für Hypertonie (ESH) [1], die im Juni 2023 vorgestellt wurden, berücksichtigen die individuellen Aspekte einer Hochdrucktherapie, z. B. die Einteilung nach Krankheitsstadien des Bluthochdrucks oder eine Vereinfachung der Blutdruckzielwerte, die es den Patienten erleichtert, therapeutische Maßnahmen für ihren Schutz vor Komplikationen besser nachzuvollziehen und zu akzeptieren. „Das ist wichtig. Denn zum einen verursacht Bluthochdruck zunächst einmal keine Beschwerden, Stichwort ,stiller Killer‘. Zum anderen, sind Patienten oft verunsichert, wenn sie die Diagnose Bluthochdruck erhalten“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Herzstiftung und Ärztlicher Direktor des Agaplesion Bethanien-Krankenhauses Frankfurt am Main, in einer Einordnung der neuen Hypertonie-Leitlinien unter https://herzstiftung.de/leitlinie-hypertonie-2023 „Die neuen Leitlinien geben konkrete Antworten auf häufige Fragen wie: Ab welchen Blutdruckwerten sollte ich tatsächlich Medikamente nehmen? Und auf welchen Wert muss mein Blutdruck möglichst sinken, damit das Herz effektiv geschützt ist?“

Pragmatische Zielsetzung erleichtert die Kommunikation
Insgesamt ähneln die neuen Empfehlungen den bisherigen. Doch die Blutdruckzielwerte wurden zum Beispiel vereinfacht. Ganz pragmatisch gilt nun offiziell die Empfehlung, dass jeder Patient, jede Patientin im Alter zwischen 18 und 79 Jahren auf Werte unter 140 mmHg systolisch und 90 mmHg diastolisch (mmHg: Millimeter-Quecksilbersäule) eingestellt werden sollte. Diese Empfehlung gilt auch für Patienten über 80 Jahre, wenn das vertragen wird. Denn damit könnte die bluthochdruckbedingte Gesundheitsgefahr insgesamt deutlich verringert werden, betonen die Leitlinien-Autoren. Die Empfehlung kommt somit der Behandlungsrealität nahe und dient als eine Art Zielkorridor, der Anpassungen an die individuelle Situation eines Patienten durchaus zulässt. Denn das heißt nicht, dass niedrigere Werte nicht gut wären. Als bestätigt gilt ein Bluthochdruck im Allgemeinen, wenn bei mindestens zwei bis drei Praxisbesuchen in Abständen von ein bis vier Wochen erhöhte Werte ab 140/90 mmHg vorliegen oder eine deutliche Blutdruckerhöhung (≥180/110 mmHg) beziehungsweise hohe Werte bei bereits bekannter Herzerkrankung.
Eine Senkung auf Werte unter 130/80 mmHg ist in der Regel mit noch besseren Therapieergebnissen verbunden, vor allem bei Patienten mit bereits bestehender Herzerkrankung – ist aber für manche Patienten auch mit unerwünschten Effekten verbunden. Schwindel oder verstärkt Nebenwirkungen der Blutdrucksenker bei intensiver Therapie sind möglich. „Das bestätigt, was auch die Deutsche Herzstiftung immer geraten hat. Eine Blutdrucktherapie nutzt nur, wenn sie auch vom Patienten vertragen wird und die Medikamente regelmäßig eingenommen werden“, so Prof. Voigtländer. „Wichtig ist auch, dass klargestellt wird: Werte unter 120/70 mmHg sollten bei einer Blutdrucktherapie vermieden werden.“

Bei Hochbetagten mehr Spielraum für Therapiebeginn – „individuelle Entscheidung“
Für Patienten über 80 Jahre gilt entsprechend der neuen Leitlinien eine spezielle Empfehlung: Während generell eine medikamentöse Therapie ab einem beim Arzt gemessenen durchschnittlichen systolischen Wert über 140 mmHg und einem diastolischen Blutdruckwert über 90 mmHg ratsam ist, kann bei den Älteren auch ein systolischer Wert bis 160 mmHg toleriert werden. Zielwert ist dann ein systolischer Blutdruck wenigstens zwischen 140-150 mmHg, er darf aber auch niedriger sein. Vorsicht ist dann geboten, wenn bereits sehr niedrige diastolische Werte unter 70 mmHg vorliegen. „Die Entscheidung, ab welchem Blutdruck bei Hochbetagten mit einer Therapie begonnen wird, ist immer eine individuelle Entscheidung. Dabei spielen vor allem die allgemeine Gebrechlichkeit und weitere Begleiterkrankungen eine wichtige Rolle“, erläutert Voigtländer. Ebenfalls wichtig: Eine schon früher begonnene Blutdrucktherapie sollte auch bei Hochbetagten möglichst fortgesetzt werden.

Medikamente: Kombinationstherapie effektiver als Monotherapie
Die Empfehlungen zur medikamentösen Therapie sind im Wesentlichen unverändert. „Eine Zweierkombination aus ACE-Hemmer oder Sartan plus Kalziumantagonist oder Diuretikum ist hier in der Regel der erste Schritt zur Blutdrucksenkung“, erläutert der Frankfurter Kardiologe. Reicht das nicht, sollte eine Dreierkombination aus diesen Wirkstoffklassen versucht werden. Auf der dritten Stufe kommen weitere Substanzen ins Spiel. Wie bisher sind die Aldosteron-Antagonisten (Spironolacton/Eplerenon) als wichtige Substanzklasse bei der Behandlung der schwer einstellbaren Hypertonie genannt. Neu ist bei diesen Patienten der Einsatz des Kombinationspräparates aus Neprilysinantagonist und Sartan (ARNI, Angiotensin-Receptor-Neprilysin-Inhibitor) als Empfehlung zur Blutdrucksenkung. Wenn dieses Kombinationspräparat eingesetzt wird, müssen allerdings der ACE-Hemmer beziehungsweise das Sartan aus der bisherigen Therapie abgesetzt werden. Bei Patienten, die bereits Nierenschäden aufweisen, wird die Therapieempfehlung zudem um Wirkstoffe aus der Gruppe der sogenannten SGLT-2-Inhibitoren (Gliflozine) ergänzt wie Empagliflozin. „Wir haben inzwischen ein neues Verständnis, wie der Bluthochdruck reguliert wird beziehungsweise durch eine Funktionsstörung aus vielen Mechanismen entsteht, bei der verschiedenste Faktoren ineinandergreifen. Das erklärt auch, warum wir mit der Kombination von Medikamenten, die ganz unterschiedlich wirken, den Blutdruck viel effektiver senken können als durch eine Monotherapie“, so Voigtländer.
Bei Patienten mit niedrigem bis mittlerem kardialen Risiko und mit einem Blutdruck im hohen Normalbereich (130-139 mmHg systolisch und 85-89 mmHg diastolisch) besteht die Empfehlung, keine blutdrucksenkende medikamentöse Therapie einzuleiten. Bei diesen Patienten sollte sich die Intervention vorerst auf eine Lebensstilberatung beschränken.

Regelmäßige Blutdruckmessung kann Hypertonie aufdecken
„Zu begrüßen ist auch, dass in den Leitlinien nochmals auf die Wichtigkeit einer regelmäßigen Blutdruckkontrolle verwiesen wird. So wird betont, dass bei jeder sich bietenden Gelegenheit auf das Vorliegen eines Bluthochdrucks gescreent werden sollte“, so der Herzstiftungs-Vorsitzende. „Bei Menschen über 40 Jahren heißt das: Lassen Sie sich einmal pro Jahr beim Hausarzt den Blutdruck checken.“ Risikopatienten wird dieses Vorgehen bereits in jüngeren Jahren empfohlen. Hier werden in den neuen Leitlinien auch Frauen nach der Menopause und Frauen mit einer Vorgeschichte von Schwangerschaftsbluthochdruck und Schwangerschaftskomplikationen wie einer Präeklampsie hervorgehoben.
Voigtländer rät: „Wer an sich gesund ist und nicht zum Hausarzt muss, sollte zumindest die Gelegenheit nutzen, sich immer mal wieder in der Apotheke den Blutdruck messen zu lassen. Das kann ebenfalls einen Hinweis auf einen bisher unentdeckten Bluthochdruck liefern.“ Je früher ein Bluthochdruck entdeckt wird, desto besser lassen sich die genannten Folgen für Herz und andere Organe wie Gehirn und Nieren vermeiden.

Neue Stadieneinteilung anhand von Organschäden
Sinnvoll ist ebenfalls, dass neben der bisherigen Einteilung nach Blutdruckwerten (z.B. optimal, normal, hochnormal) drei Krankheitsstadien des Bluthochdrucks systematisch hervorgehoben werden. „Denn damit lassen sich besser die fortschreitenden Schäden an Organen wie Herz, Hirn und Nieren bei einem unbehandelten Bluthochdruck vor Augen führen“, wie Prof. Voigtländer betont. „Wir möchten Patienten im Gespräch keine Angst machen. Dennoch unterschätzen viele die Folgen ihres Bluthochdrucks – bis es zu spät ist und zum Beispiel ein Herzinfarkt eingetreten ist oder die Nieren schwer geschädigt sind“, so der Kardiologe. Das ist die Einteilung:

– Stadium I: unkomplizierte Erkrankung, bei der noch keine merklichen Organschäden vorliegen (gilt auch bis zu einer Nierenerkrankung Grad 1 und 2)
– Stadium II: leichte Organschäden sind erkennbar, etwa der Beginn einer chronischen Nierenerkrankung (Grad 3), oder das zusätzliche Vorliegen von Diabetes mellitus
– Stadium III: es liegen bluthochdruckbedingte kardiovaskuläre Erkrankungen vor oder eine fortgeschrittene chronische Nierenerkrankung (Grad 4 und 5)

„Die Stadieneinteilung kann in der Kommunikation helfen, dass Betroffene die Notwendigkeit von Lebensstiländerungen und gegebenenfalls einer medikamentösen Behandlung verstehen und akzeptieren“, so der Kardiologe und Intensivmediziner.
(ne)

Service-Tipp:
Bluthochdruck durch Schlafstörungen, Migräne und Lärm – Yoga und Kalium als natürliche Senker? Was in den Hypertonie-Leitlinien noch neu und wichtig ist, stellt der Herzstiftungs-Beitrag mit einer Experten-Einordung durch Prof. Voigtländer unter https://herzstiftung.de/leitlinie-hypertonie-2023 vor.
Infos rund um Bluthochdruck bietet die Herzstiftung kostenfrei telefonisch unter 069 955128-400, per Mail unter bestellung@herzstiftung.de oder auf der Homepage unter: https://herzstiftung.de/bluthochdruck

Video „Wie messe ich meinen Blutdruck richtig?“ mit Prof. Dr. Thomas Voigtländer: https://www.youtube.com/watch?v=6cQZaQskJJc

Quelle:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
https://herzstiftung.de

Originalpublikation:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Weitere Informationen:
https://herzstiftung.de/leitlinie-hypertonie-2023 – Stellungnahme zur Hypertonie-Leitlinie
http://https:herzstiftung.de/bluthochdruck – Infos zu Bluthochdruck

(nach oben)


Was der Klimawandel mit Gehirn und Seele macht

Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Über Jahrtausende hinweg hat sich unser Gehirn an unseren Lebensraum angepasst. Verändert er sich durch schnell steigende Temperaturen und den damit verbundenen Verlust von Ökosystemen, kommt das Gehirn von Menschen und Tieren nicht mehr mit. Was das bedeutet, beschreiben Dorothea Metzen und Prof. Dr. Sebastian Ocklenburg aus der Biopsychologie der Ruhr-Universität Bochum und der Medical School Hamburg in ihrem Buch „Die Psychologie und Neurowissenschaft der Klimakrise“. Sie integrieren dabei verschiedene Forschungszweige der Psychologie und Neurowissenschaft. Das Lehrbuch ist im Springer-Verlag erschienen.

Unsere Umwelt hat großen Einfluss auf die Funktion und die Entwicklung unseres Gehirns: „Studien zeigen zum Beispiel, dass ein Aufenthalt in der Natur im Gegensatz zu einem Aufenthalt in der Stadt zu einer Regulation von Stressnetzwerken im Gehirn führen kann“, erklärt Dorothea Metzen. Sind wir längere Zeit lebensfeindlichen Umgebungen ausgesetzt, etwa in besonders kalten Gebieten wie der Arktis, können sich unsere Hirnfunktionen ebenfalls verändern. „Der Erhalt der uns verbleibenden natürlichen Räume ist somit sehr wichtig für die Gesundheit unseres Gehirns“, unterstreicht Sebastian Ocklenburg.

Temperatur ist außerdem eine wichtige Umweltbedingung, die im Laufe der Evolution ökologische Nischen bedingt hat. Die Gehirne von Tieren und auch von uns Menschen sind an bestimmte Temperaturen angepasst. Extrem schnelle Änderungen der Durchschnittstemperaturen können zu einer Zerstörung von ökologischen Nischen führen, ohne Zeit für die Lebewesen, sich anzupassen. „So besitzen zum Beispiel Walgehirne besonders viele Zelltypen, die mit der Erzeugung von Hitze im Gewebe verbunden sind. Diese sind für sie in kalten Gewässern überlebenswichtig“, so Dorothea Metzen. „Sollte sich das Wasser allerdings zu stark erwärmen, haben die Wale keine ausreichenden Mechanismen, um die Körpertemperatur herunterzuregulieren.“
Hitzewellen und Naturkatastrophen

Der Klimawandel hat massive Auswirkungen auf die Gesundheit der Menschen, sowohl physisch als auch psychisch. Hitzewellen führen zu steigenden Zahlen von Hitzetoten, gleichzeitig werden Naturkatastrophen wie Fluten und Waldbrände mit steigender Durchschnittstemperatur immer wahrscheinlicher. All diese Phänomene beeinflussen auch unsere psychische Gesundheit: Hitzewellen hindern uns daran, unserem geregelten Alltag nachzugehen, können unser Sozialleben einschränken und zu Isolation führen. Außerdem sind erhöhte Außentemperaturen im Sommer mit einer verringerten Schlafqualität verbunden, was Einfluss auf Stimmung, Arbeit und Suizidalität haben kann. Besonders verwundbare Gruppen sind Menschen mit psychischen Erkrankungen, Frauen und Ältere. Naturkatastrophen können zu Depressionen und Posttraumatischen Belastungen führen. Menschen, die auf der Flucht vor den Folgen der Klimakrise sind, sind multiplen Stressoren und Gesundheitsrisiken ausgesetzt, durch prekäre Bedingungen in Flüchtlingsunterkünften, mangelnden Zugang zu Gesundheitsversorgung und Gewalt.

„Was können wir als Beschäftigte in Wissenschaft und Gesundheitsberufen nun tun?“, fragen die beiden Forschenden. „Wir können uns dafür einsetzen, das Gesundheitssystem auf die kommenden Herausforderungen vorzubereiten, denn das ist es bisher nicht“, sagt Sebastian Ocklenburg. „Die Folgen der Klimakrise müssen in Gesundheit, Wissenschaft und Lehre mitgedacht werden, denn sie stellt das größte Gesundheitsrisiko und die größte Herausforderung unserer Zeit dar. Wir können in Verbänden und Vereinen laut sein, um die Politik zum tatsächlichen Handeln gegen die Klimakrise zu bewegen, denn Prävention ist der beste Weg, um die Gesundheit unserer Mitmenschen zu schützen.“

Wissenschaftliche Ansprechpartner:
Dorothea Metzen
Biopsychologie
Institut für Kognitive Neurowissenschaft
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 21775
E-Mail: dorothea.metzen@ruhr-uni-bochum.de

Originalpublikation:
Dorothea Metzen, Sebastian Ocklenburg: Die Psychologie und Neurowissenschaft der Klimakrise. Wie unser Gehirn auf Klimaveränderungen reagiert, Springer, Berlin 2023, 48 Seiten, ISBN 9783662673645, DOI: 10.1007/978-3-662-67365-2

(nach oben)


Muster der Biodiversität entschlüsselt

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Der Mensch ist eine große Bedrohung für die biologische Vielfalt. Um sie zu schützen, ist es wichtig, ihre Ursprünge zu verstehen. Eine entscheidende Rolle spielen dabei Arten, die evolutionär einzigartig sind, das heißt wenige oder keine nah verwandten Arten haben, und nur in einem begrenzten Gebiet vorkommen, also endemisch sind. Ein internationales Forschungsteam unter der Leitung der Universität Göttingen hat nun globale Muster der Verbreitung endemischer Samenpflanzen aufgedeckt und Umweltfaktoren ermittelt, die ihren Endemismus beeinflussten. Damit liefern die Forschenden wertvolle Erkenntnisse für den weltweiten Schutz von Biodiversität.

Die Forschenden analysierten einen umfangreichen Datensatz zum regionalen Vorkommen von Samenpflanzen. Er umfasste etwa 320.000 Arten aus weltweit 912 Regionen. Dabei deckten sie die geografische Verteilung endemischer Arten auf. Indem sie zwischen „kürzlich“ entstandenen Arten und älteren evolutionären Linien unterschieden, machten sie Zentren von Neo- und Paläoendemismus aus. Neoendemismus ist die lokal begrenzte Verbreitung von Arten, deren Artbildung noch nicht lange zurückliegt und die sich noch nicht weiter ausgebreitet haben. Dagegen beschreibt Paläoendemismus die begrenzte Verbreitung meist älterer Arten, die heute nur noch auf Restflächen ihres einst größeren Verbreitungsgebiets vorkommen. Als globale Hotspots endemischer Samenpflanzen identifizierte das Forschungsteam isolierte tropische und subtropische Inseln sowie tropische Bergregionen. Die meisten tropischen Regenwaldgebiete sind Zentren des Paläoendemismus. Dagegen weisen viele Gebiete mit mediterranem Klima und abgelegene Inseln vor allem Neoendemismus oder beide Formen auf.

Das Forschungsteam untersuchte auch das Zusammenspiel zwischen Umweltfaktoren und Endemismus. Dabei wurde deutlich, dass eine Kombination aus vergangenen und gegenwärtigen Umweltbedingungen die globalen Unterschiede im Vorkommen endemischer Samenpflanzen beeinflusst. Die Studie zeigt auch, dass sowohl die klimatische als auch die geologische Geschichte Einfluss auf den Endemismus hat: Die langfristige klimatische Stabilität unterstützt das Fortbestehen von Paläoendemismus, während die isolierte Natur ozeanischer Inseln und ihre einzigartige geologische Geschichte Neoendemismus fördern.

Prof. Dr. Holger Kreft von der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen betont: „Die aufgedeckten Beziehungen zwischen vergangenen und gegenwärtigen Umweltbedingungen und Endemismus bieten beispiellose Einblicke in die evolutionären Grundlagen biogeografischer Muster bei Samenpflanzen.“ Dr. Patrick Weigelt aus derselben Abteilung fügt hinzu: „Unsere Ergebnisse verbessern nicht nur unser Verständnis der evolutionären Ursprünge der Pflanzenvielfalt, sie unterstreichen auch die dringende Notwendigkeit, Gebiete zu schützen, in denen Arten mit einzigartiger Evolution und begrenzter Verbreitung vorkommen.“

Wissenschaftliche Ansprechpartner:
Lirong Cai
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
E-Mail: lcai@uni-goettingen.de
Internet: www.uni-goettingen.de/en/597986.html

Dr. Patrick Weigelt
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
Telefon: 0551 39-28983
E-Mail: pweigel@uni-goettingen.de
Internet: www.uni-goettingen.de/de/157014.html

Originalpublikation:
Cai, L. et al. Climatic stability and geological history shape global centers of neo- and paleoendemism in seed plants. Proceedings of the National Academy of Sciences (2023). DOI: 10.1073/pnas.2300981120

Weitere Informationen:
http://www.uni-goettingen.de/de/3240.html?id=7159
http://(weiteres Bildmaterial)

(nach oben)


Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Aktuelle Auswertung des WSI-Tarifarchivs:

Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat – Tarifvertragsparteien reagieren mit überdurchschnittlichen Erhöhungen auf Fachkräftemangel

Bei den durch Tarifvertrag festgelegten Ausbildungsvergütungen bestehen je nach Branche und Region sehr große Unterschiede.
Die Spannbreite reicht von der gesetzlichen Mindestausbildungsvergütung, die im ersten Ausbildungsjahr bei 620 Euro pro Monat liegt und z.B. im Friseurhandwerk oder der ostdeutschen Floristik gezahlt wird, bis zu 1.580 Euro im westdeutschen Bauhauptgewerbe, mit denen Auszubildende im vierten Ausbildungsjahr vergütet werden (siehe auch Abbildung 1 sowie Tabelle 1 in der pdf-Version dieser PM; Link unten). Dies zeigt eine aktuelle Auswertung von 20 ausgewählten Tarifbranchen, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung kurz vor Beginn des neuen Ausbildungsjahres 2023 vorlegt.

Deutliche Zuwächse bei den Ausbildungsvergütungen
„In einigen Tarifbranchen sind die tarifvertraglichen Ausbildungsvergütungen in jüngster Zeit überdurchschnittlich stark angehoben worden“, sagt der Leiter des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten. „Die Tarifvertragsparteien reagieren hier auf sinkende Ausbildungszahlen und einen zunehmenden Fachkräftemangel, dem ohne eine deutliche Verbesserung der Vergütungsniveaus nicht entgegnet werden kann.“

Den größten Zuwachs konnte das Backhandwerk verzeichnen, wo die Ausbildungsvergütungen ab dem 1. August 2023 im ersten Ausbildungsjahr um 26,5 Prozent angehoben werden (siehe auch Abbildung 2 in der pdf-Version dieser PM; Link unten). Erhöhungen um 20 Prozent und mehr gab es außerdem im bayerischen Gastgewerbe, der westdeutschen Floristik und der Süßwarenindustrie Nordrhein-Westfalen. Über 10 Prozent stiegen die Ausbildungsvergütungen im sächsischen Gastgewerbe, in der Landwirtschaft (Mecklenburg-Vorpommern) und im Privaten Bankgewerbe.

In der Mehrzahl der Branchen wurden die Vergütungen im Laufe des letzten Ausbildungsjahres zwischen 2,0 und 7,5 Prozent angehoben. In einigen wenigen Branchen gab es hingegen keine Erhöhungen. Dies liegt zum Teil daran, dass wie z. B. bei der Deutschen Bahn AG oder dem nordrhein-westfälischen Friseurhandwerk die laufenden Tarifverhandlungen noch zu keinem Ergebnis geführt haben oder – wie im Fall der ostdeutschen Floristik – ergebnislos abgebrochen wurden. In anderen Branchen wie z. B. dem Kfz-Handwerk sind bereits Erhöhungen vereinbart worden, die jedoch erst im weiteren Verlauf der zweiten Jahreshälfte 2023 in Kraft treten.

Große Niveauunterschiede bei den Ausbildungsvergütungen nach Branche und Region
Die Ausbildungsvergütungen werden normalerweise im Rahmen der regulären Tarifverhandlungen zusammen mit den Löhnen der Beschäftigten verhandelt. Damit hängen sie auch mit der Verhandlungsposition der jeweiligen Gewerkschaft zusammen, die von Branche zu Branche und von Region zu Region sehr unterschiedlich ist. Dementsprechend existieren bei der Höhe der Ausbildungsvergütungen erhebliche Unterschiede.

Die Unterschiede bei den tarifvertraglichen Ausbildungsvergütungen zeigen sich bereits im ersten Ausbildungsjahr: In zehn der 20 untersuchten Tarifbranchen liegen die Vergütungen zumindest teilweise oberhalb von 1.000 Euro pro Monat. Hierzu gehören:

– das Gastgewerbe in Bayern, das mit der jüngsten Erhöhung erstmals die 1.000 Euro-Marke erreicht hat,
– die Textilindustrie in Baden-Württemberg mit 1.015 Euro,
– die Deutsche Bahn AG mit bundeseinheitlich 1.020 Euro,
– die Druckindustrie mit bundeseinheitlich 1.025 Euro,
– die Süßwarenindustrie Nordrhein-Westfalen mit 1.051 Euro,
– der Öffentliche Dienst mit einer monatlichen Ausbildungsvergütung von 1.068 Euro (Bund und Gemeinden) bzw. 1.087 Euro (Länder, ohne Hessen),
– die Chemische Industrie mit 1.090 Euro im Bezirk Nordrhein und 1.080 Euro im Bezirk Ost,
– die Metall- und Elektroindustrie mit 1.091 Euro in Baden-Württemberg und 1.059 Euro in Sachsen,
– das Versicherungsgewerbe mit bundeseinheitlich 1.120 Euro,
– das Private Bankgewerbe mit bundeseinheitlich 1.150 Euro

Die höchste Ausbildungsvergütung unter den hier untersuchten Tarifbranchen wird aktuell im ersten Ausbildungsjahr mit 1.231 Euro (Öffentlicher Dienst: Länder) bzw. 1.191 Euro (Öffentlicher Dienst: Bund und Gemeinden) für die Pflegeberufe gezahlt, die mittlerweile innerhalb der Tarifverträge des öffentlichen Dienstes über gesonderte Regelungen verfügen. Damit haben die Tarifvertragsparteien auf den akuten Fachkräftemangel in diesem Bereich reagiert. Allerdings gelten diese Ausbildungsvergütungen verbindlich nur für öffentliche Einrichtungen, die unter den Tarifvertrag für den Öffentlichen Dienst (TVöD) oder den Tarifvertrag der Länder (TV-L) fallen. In privaten Pflegeeinrichtungen ohne Tarifvertrag kann die Ausbildungsvergütung hingegen auch deutlich geringer ausfallen.

In der Mitte befinden sich 12 der untersuchten 20 Tarifbranchen mit (teilweise) monatlichen Ausbildungsvergütungen zwischen 800 und 1.000 Euro im ersten Jahr. Hierzu gehören das Kfz-Handwerk, der Einzelhandel, das Bauhauptgewerbe, die Holz und Kunststoff verarbeitende Industrie, das private Verkehrsgewerbe, die Süßwarenindustrie Ost, das sächsische Gastgewerbe, die Textilindustrie Ost, das Gebäudereinigungshandwerk, das Backhandwerk, die Landwirtschaft in Mecklenburg-Vorpommern und die westdeutsche Floristik.

Die niedrigsten Ausbildungsvergütungen mit Beträgen von unter 800 Euro im Monat finden sich in drei Tarifbranchen: der Landwirtschaft im Bezirk Nordrhein mit 790 Euro, dem nordrhein-westfälischen Friseurhandwerk mit 610 Euro und der ostdeutschen Floristik mit 585 Euro. Die beiden zuletzt genannten Tarifbereiche liegen dabei unterhalb der aktuell gültigen gesetzlichen Mindestausbildungsvergütung von 620 Euro und sind somit unwirksam.

In lediglich sieben der vom WSI untersuchten Tarifbranchen existieren bundesweit einheitliche Ausbildungsvergütungen, darunter das Bäckerhandwerk, das Private Bankgewerbe, die Druckindustrie, die Deutsche Bahn AG, das Gebäudereinigungshandwerk, der Öffentliche Dienst und das Versicherungsgewerbe.

In 13 Tarifbranchen bestehen hingegen nach wie vor Unterschiede im Niveau der Ausbildungsvergütungen zwischen den west- und den ostdeutschen Tarifgebieten. In der chemischen Industrie und der Metall- und Elektroindustrie liegen die ostdeutschen Ausbildungsvergütungen mit Beträgen von 10 bzw. 32 Euro pro Monat dabei nur relativ geringfügig unterhalb des hier berücksichtigten westdeutschen Tarifbezirks, wobei auch innerhalb Westdeutschlands regionale Unterschiede existieren. Die größten Ost-West-Unterschiede existieren mit 215 Euro in der Floristik gefolgt vom Kfz-Handwerk mit 169 Euro und der Textilindustrie mit 135 Euro.

In den übrigen Branchen variieren die Unterscheide zumeist zwischen 50 und 100 Euro. In der Landwirtschaft von Mecklenburg-Vorpommern liegen die Ausbildungsvergütungen sogar leicht oberhalb des Westniveaus.

Die erheblichen Unterschiede zwischen den Branchen setzen sich auch im zweiten und dritten Ausbildungsjahr fort (siehe Tabelle 1). So variieren die Ausbildungsvergütungen im zweiten Ausbildungsjahr zwischen der gesetzlichen Mindestausbildungsvergütung von 732 Euro, die im Thüringer Friseurhandwerk gezahlt wird, und 1.297 Euro für die Auszubildenden in der Pflege bei den Ländern.

Im dritten Ausbildungsjahr liegen die Unterschiede zwischen 837 Euro (Mindestausbildungsvergütung) und 1.495 Euro (westdeutsches Bauhauptgewerbe). Von wenigen Ausnahmen abgesehen verdienen die Auszubildenden ab dem dritten Jahr in fast allen Tarifbranchen zum Teil deutlich mehr als 1.000 Euro. In elf der hier ausgewerteten Branchen existiert darüber hinaus auch noch ein viertes Ausbildungsjahr. Die höchste Ausbildungsvergütung wird dann mit 1.580 Euro im Monat im westdeutschen Bauhauptgewerbe gezahlt.

„Trotz eines erheblichen Aufholprozesses ist das Niveau der Ausbildungsvergütung in einigen Tarifbranchen nach wie vor sehr niedrig“, erläutert Schulten. „Hinzu kommen die Branchen ohne Tarifvertrag, in denen Auszubildende lediglich Anspruch auf die gesetzliche Mindestausbildungsvergütung haben. Um die Attraktivität bestimmter Ausbildungsberufe zu erhöhen, ist deshalb eine Stärkung der Tarifbindung dringend geboten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211-7778-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Abbildung und Tabelle (pdf): http://www.boeckler.de/pdf/pm_ta_2023_07_24.pdf

(nach oben)


Hitze führt zu mehr Arbeitsunfällen

Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Eine Studie von Nachwuchsforschenden der Universitäten Passau und Bern zeigt anhand von Daten aus der Schweiz: An Tagen mit Temperaturen über 30 Grad steigt die Zahl der Arbeitsunfälle um 7,4 Prozent. Bei Bürokräften liegt die Ursache vor allem in der Nacht.

Große Teile der Welt leiden unter der aktuellen Hitzewelle. In Bayern und Baden-Württemberg wurden Temperaturen über 30 Grad gemessen, ebenso in der Schweiz, die von der globalen Erwärmung besonders betroffen ist.

Wie wirken sich solche extremen Temperaturen auf Unfälle auf der Arbeit aus? Diese Frage haben Katharina Drescher, Nachwuchsökonomin an der Universität Passau, und ihr Ko-Autor Benedikt Janzen von der Universität Bern anhand von Daten aus der Schweiz untersucht. In ihrer Studie werteten die Forschenden Arbeitsunfälle von 1996 bis 2019 aus. Die Schweiz eignet sich für eine solche Untersuchung insofern, als es hier auf kleinem Raum eine große Variation an Temperaturen gibt. Zudem stehen die administrativen Unfalldaten tagesgenau und auf kleinteiliger regionaler Ebene zur Verfügung, so dass sich diese mit dem Wetter abgleichen lassen.

Hitze betrifft in der Schweiz alle gleichermaßen
Das Ergebnis ist wenig überraschend: Drescher und Janzen zeigen, dass mit Temperaturen über 30 Grad auch die Zahl der Arbeitsunfälle steigt – und zwar um 7,4 Prozent. Was die Passauer Ökonomin aber verblüfft hat, war die Tatsache, dass in der Schweiz – anders als Studien aus den USA dies nahelegen – die Hitze alle Arbeitnehmerinnen und Arbeitnehmer gleichermaßen traf: „Wir konnten in unseren Auswertungen keine Unterschiede hinsichtlich des Geschlechts, Alters, Einkommens oder der Branche feststellen.“ Das heißt: Egal ob man etwa in der Baubranche arbeitete oder als Bürokraft – die Arbeitsunfälle stiegen in beiden Gruppen prozentual gleichermaßen.

Schlafmangel als Ursache für erhöhte Unfallzahlen bei Bürokräften
Allerdings unterschieden sich die Gruppen hinsichtlich der Ursachen: Während heiße Nächte alle schlecht schlafen lassen, ist es doch die Hitze am Tag, die zu mehr Unfällen führt für diejenigen, die überwiegend draußen arbeiten. Bei Bürokräften spielen die Temperaturen in den Nächten davor eine größere Rolle. Den Zusammenhang zwischen Temperaturen, Schlafmangel und erhöhten Arbeitsunfällen zeigen die Forschenden, indem sie zusätzlich zu den Unfalldaten die Schweizerische Gesundheitsbefragung heranziehen.

Drescher und ihr Ko-Autor berechnen auch den wirtschaftlichen Schaden, den die Unfallzunahme an Hitzetagen ab 30 Grad, aber auch an Sommertagen mit 25 bis 30 Grad und Kältetagen mit Minusgraden verursacht: Demnach beliefen sich im Beobachtungszeitraum die Kosten der temperaturbedingten Unfälle auf etwa 90 Millionen Schweizer Franken jährlich – Tendenz stark steigend. Denn gab es 1996 lediglich einen Hitzetag mit mehr als 30 Grad, so lag die Zahl im Jahr 2019 bereits bei elf Tagen.

Stipendium der Nationalökonomischen Gesellschaft
Die Studie mit dem Titel „When Weather Wounds Workers: The Impact of Temperature on Workplace Accidents“ ist als Discussion Paper des „Bavarian Graduate Program in Economics“ erschienen. Sie ist Teil von Dreschers kumulativer Dissertation am Lehrstuhl für Public Economics an der Universität Passau. Die Absolventin der Wirtschaftsuniversität Wien hat dafür ein mit 4000 Euro dotiertes Stipendium der österreichischen Nationalökonomischen Gesellschaft (NOeG) erhalten. „Ich gratuliere Katharina Drescher zu diesem tollen Erfolg. Mit der Studie tragen sie und Benedikt Janzen dazu bei, durch den Klimawandel bedingte Auswirkungen auf Arbeitsmarkt und Gesundheit besser zu verstehen“, erklärt Prof. Dr. Stefan Bauernschuster, Lehrstuhlinhaber und Dekan der Wirtschaftswissenschaftlichen Fakultät der Universität Passau.

Wissenschaftliche Ansprechpartner:
Katharina Drescher
Wissenschaftliche Mitarbeiterin am Lehrstuhl für Public Economics
Universität Passau
Innstraße 27, 94032 Passau
E-Mail: Katharina.Drescher@uni-passau.de

Originalpublikation:
https://www.bgpe.de/texte/DP/226_Drescher_1.pdf

(nach oben)


„Ich bin dann mal weg“ – Warum Urlaub ohne Arbeit so wichtig ist

Alexandra Naumann Pressestelle
IST-Hochschule für Management
Urlaub bietet Zeit für Entspannung, Erholung und das „Aufladen der Batterien“. Leider gibt es immer mehr Menschen, die während ihres Urlaubs arbeiten. Dies kann jedoch die Work-Life-Balance gefährden und langfristig negative Auswirkungen auf die körperliche und geistige Gesundheit haben. Alexandra Löwe, wissenschaftliche Mitarbeiterin an der IST-Hochschule für Management, erklärt, wie das aussehen kann.

„Arbeit im Urlaub führt dazu, dass die Grenzen zwischen Beruflichem und Privatem verschwimmen. Durch die ständige Erreichbarkeit befinden wir uns dauerhaft in einem arbeitsbezogenen Denkmuster, auch wenn wir eigentlich freie Zeit haben sollten. Dadurch wird es schwieriger, sich mental von der Arbeit zu lösen und sich auf die Entspannung und den Genuss des Urlaubs zu konzentrieren.

Der Stress bleibt weiterhin präsent“, erläutert Alexandra Löwe, Stress-Expertin am IST-Studieninstitut. „So kehren wir nach dem Urlaub nicht erfrischt und revitalisiert zurück, sondern fühlen uns weiterhin müde und ausgelaugt.“

Aber wer ständig arbeitet und keine Zeit für Erholung findet, riskiert eine Abnahme der Kreativität und Produktivität und letztlich Erschöpfung.

„Der permanente Einsatz des Gehirns im Arbeitsalltag kann dazu führen, dass bestimmte Denkfähigkeiten überbeansprucht, während andere vernachlässigt werden. Eine Auszeit in Form eines Urlaubs ermöglicht es dem Gehirn, sich zu regenerieren und neue Energie zu tanken“, so Löwe. „Darüber hinaus können wir unser Gehirn auf verschiedene Weise stimulieren, indem wir neue Orte erkunden, andere Aktivitäten ausprobieren und uns neuen Erfahrungen öffnen. Dies kann dazu beitragen, die kognitiven Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Problemlösung und Lernfähigkeit zu verbessern. Urlaub wirkt sich damit positiv auf unsere kreative Denkweise und Arbeitsleistung aus.“

Die mentale Gesundheit ist eng mit der Funktionsweise des Gehirns verbunden. Stress und Überlastung können zu Angstzuständen, Depressionen und anderen psychischen Problemen führen. Durch einen Urlaub kann dem entgegengewirkt und die geistige Gesundheit gestärkt werden.

Die viel zitierte Work-Life-Balance ist entscheidend für allgemeines Wohlbefinden. Wenn man sich im Urlaub nicht von der Arbeit lösen kann, wird diese Balance gestört. Die Zeit, die private Aktivitäten gedacht war, wird stattdessen von beruflichen Verpflichtungen eingenommen.

Dies kann zu Konflikten in persönlichen Beziehungen führen und das Gefühl verstärken, dass die Arbeit immer Vorrang hat. Beziehungen und soziale Bindungen sind wichtig für das Gehirn, da sie die Freisetzung von Oxytocin, einem Hormon, das mit positiven Emotionen und dem Aufbau von Vertrauen verbunden ist, fördern.

„Daher profitieren wir in mehrfacher Hinsicht davon, wenn wir den Urlaub nutzen, um Zeit mit unseren Liebsten zu verbringen, neue Menschen kennenzulernen und soziale Interaktionen zu pflegen“, fasst Löwe zusammen.

Wer sich mit dem Thema Stressmanagement ausführlich beschäftigen möchte, findet ein passendes Bildungsangebot am IST.

Weitere Informationen:
https://www.ist.de/gesundheit-und-wellness/stressmanagement-ausbildung

(nach oben)


Artenschutz durch Braukunst: Forschungsprojekt zeigt Eignung der seltenen Dicken Trespe für die Bierherstellung

Christian Wißler Pressestelle
Universität Bayreuth
Die Dicke Trespe (Bromus grossus) ist eine uralte Getreideart, die nachweislich schon in der Bronzezeit kultiviert und als Nahrungsmittel genutzt wurde. Heute zählt sie zu den vom Aussterben bedrohten Arten. In gemeinsamen Forschungsarbeiten haben die Universität Bayreuth, das Bezirkslehrgut Bayreuth und die Firma IREKS in Kulmbach untersucht, ob sich diese Pflanze zum Bierbrauen eignet. Das Ergebnis sind zwei schmackhafte Biere: ein Pils und ein Hefe-Weizen. Sie wurden am 20. Juli 2023 zum erfolgreichen Abschluss des von der Oberfrankenstiftung geförderten Projekts auf dem Campus der Universität Bayreuth verkostet. Die Bierproduktion könnte ein Weg zum Erhalt der Dicken Trespe sein.

„Die Dicke Trespe hat sich im Verlauf der letzten Jahrtausende immer stärker an die besonderen Bedingungen des Ackerbaus angepasst. Schnelle Keimung und eine sehr hohe Keimungsrate machen sie für die Herstellung von Malz besonders geeignet. Die Körner der Dicken Trespe sind fast so groß wie die von anderen Getreidearten“, erklärt Dr. Pedro Gerstberger vom Lehrstuhl für Pflanzenökologie der Universität Bayreuth, der das Forschungsprojekt geleitet hat. Ein großer Vorteil der Dicken Trespe besteht darin, dass die Körner – im Unterschied zu Wildgräsern – nach der Reife nicht aus der Rispe fallen, sondern an der Pflanze haften bleiben. So können sie ohne Verluste geerntet werden.

„Weil die Dicke Trespe keine eigene Saatgutreserve im Boden bildet, muss sie jährlich neu ausgesät werden. Genau hier liegt die Chance, den Erhalt dieser seltenen und gefährdeten Pflanzenart durch eine dauerhafte Nutzung für die Bierherstellung zu sichern. Die Dicke Trespe ist zwar durch die Fauna-Flora-Habitat-Richtlinie (FFH-Richtlinie) der Europäischen Union und die Bundesartenschutzverordnung streng geschützt, aber ohne ihren stetigen Anbau würde sie letztlich aussterben“, sagt Gerstberger.

Die für das Forschungsprojekt an der Universität Bayreuth verwendeten Körner stammten aus einem Anbau der Dicken Trespe auf dem Gelände des Bayreuther Bezirkslehrguts, das zu den Landwirtschaftlichen Lehranstalten des Bezirks Oberfranken gehört. Das verwendete Saatgut war von den Botanischen Gärten in Bonn und in Frankfurt am Main zur Verfügung gestellt worden. Die Firma IREKS, ein international tätiges Unternehmen der Lebensmittelbranche in Kulmbach, übernahm unter der Leitung von Dipl.-Ing. Matthias Hansen die Herstellung des Braumalzes.

Am Lehrstuhl für Bioprozesstechnik, der über eine breite Expertise auf dem Gebiet der Braukunst und einen eigenen modernen Braukessel verfügt, wurden schließlich unter der Leitung von Prof. Dr. Ruth Freitag insgesamt 45 Liter Pils hergestellt. 40 Liter Hefe-Weizen wurden vom Team um Dr. Benjamin Gilfedder, Limnologische Station der Universität Bayreuth, gebraut. Das Ergebnis, zwei vollmundige Craft-Biere, überzeugte alle Teilnehmer*innen der Verkostung – nicht zuletzt auch die Mitglieder des Vereins „UniBrauTechnik e.V.“, der sich 2012 auf dem Campus der Universität Bayreuth gegründet hat.

Wissenschaftliche Ansprechpartner:
Dr. Pedro Gerstberger
Lehrstuhl für Pflanzenökologie
Universität Bayreuth
E-Mail: gerstberger@uni-bayreuth.de

Prof. Dr. Ruth Freitag
Lehrstuhl für Bioprozesstechnik
Universität Bayreuth
Tel: +49 (0)921 55-7370
E-Mail: ruth.freitag@uni-bayreuth.de

(nach oben)


Welt-Hepatitis-Tag: Deutsche Leberstiftung unterstützt die Elimination der Virushepatitis

Rolf Kalus externe Pressestelle
Deutsche Leberstiftung
Hannover – Am 28. Juli 2023 findet der Welt-Hepatitis-Tag statt. Das diesjährige Motto in Deutschland „Ich warte nicht. Ich handele!“ ist ein Aufruf, aktiv zu werden und sich beispielsweise testen zu lassen oder als Betroffener eine antivirale Therapie zu beginnen. Die Deutsche Leberstiftung unterstützt den Welt-Hepatitis-Tag und das Erreichen der WHO-Zielsetzung, Hepatitis B und C bis 2030 zu eliminieren.

Infektionen mit Hepatitisviren gehören weltweit zu den häufigsten Infektionskrankheiten und stellen global eines der großen Probleme für das Gesundheitswesen dar. Die meisten Fälle einer viralen Hepatitis gehen auf fünf Viren zurück, die unterschiedlich sind: die Hepatitisviren A, B, C, D (delta) und E (HAV–HEV). Insbesondere chronische HBV- und HCV-Infektionen zählen zu den bedeutendsten Ursachen von Leberzirrhose und Leberzellkrebs (Hepatozelluläres Karzinom, HCC). Laut der Weltgesundheitsorganisation (WHO) leben weltweit schätzungsweise 354 Millionen Menschen mit einer Hepatitis B oder C. In Deutschland gehen Experten für die Hepatitis B und C gesamt von mehreren Hunderttausend Betroffenen aus.

Die WHO hat bereits 2016 das Ziel ausgerufen, bis 2030 die Virushepatitiden B und C zu eliminieren – definiert wird dies als eine Reduktion der Hepatitis B-Virus (HBV)- und Hepatitis C-Virus (HCV)-Infektionen um 90 Prozent, die Behandlung von 80 Prozent der therapiebedürftigen HBV- und HCV-Infizierten und eine Reduktion der HBV- und HCV-assoziierten Todesfälle um 65 Prozent. Diesem Ziel hat sich die Bundesregierung angeschlossen.

Die Behandlung der chronischen Hepatitis C mit direkt wirkenden antiviralen Substanzen (DAAs) ist einer der wichtigsten klinischen Fortschritte der jüngeren Medizingeschichte. Damit kann die Hepatitis C inzwischen bei fast allen Patienten sehr gut behandelt und in kurzer Zeit, nahezu ohne Nebenwirkungen, sogar geheilt werden. Die Hepatitis B kann mit den zugelassenen Medikamenten gut kontrolliert werden. Eine Impfung, die von der WHO seit 1992 empfohlen wird, schützt vor Hepatitis B – und gleichzeitig auch vor Hepatitis D (delta), da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann. Für die Therapie der Hepatitis delta ist seit einiger Zeit ein neues Medikament verfügbar.

Die weltweite Elimination der Hepatitis B und Hepatitis C, wie sie von der WHO angestrebt wird, ist mit den vorhandenen medizinischen Therapie- und Schutzmöglichkeiten realisierbar. Trotzdem stellt die Virushepatitis noch immer ein großes globales und EU-weites Gesundheitsproblem dar. Viele dieser Infektionen bleiben über Jahre oder sogar Jahrzehnte unerkannt und somit auch unbehandelt. Nur eine rechtzeitige Diagnose und Behandlung können die möglichen schweren Langzeitfolgen einer chronischen Hepatitis verhindern. Um diese Elimination in Deutschland zu unterstützen, ist die Deutsche Leberstiftung in verschiedenen Bereichen aktiv.

Im Februar 2022 organisierte die Deutsche Leberstiftung in Kooperation mit der Hepatitis B & C Public Policy Association (HepBCPPA) das virtuelle „Strategietreffen Virushepatitis in Deutschland eliminieren 2022“. Experten aus Medizin, Wissenschaft, Politik und Versorgungsforschung verständigten sich auf ein Positionspapier, in dem verschiedene Ziele und Maßnahmen formuliert wurden.

Seit Juni 2023 ist der „HCV-Tracker“, ein Kooperationsprojekt der Deutschen Leberstiftung und AbbVie Deutschland, online. „Auf der Website https://www.hcv-tracker.de werden regelmäßig aktualisierte Daten zu Hepatitis C-Neudiagnosen und zu den antiviralen Behandlungen in Deutschland veröffentlicht und zu modellierten Zielwerten ins Verhältnis gesetzt. Dafür werden unter anderem Daten des RKI und aus dem ‚IQVIA Contract Monitor‘ verwendet. Die so entstandenen Grafiken zeigen, wo Deutschland auf dem Weg zur HCV-Elimination bis 2030 steht. Damit schließen wir eine Datenlücke und unterstützen die Elimination“, erklärt Prof. Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung.

Eine Verbesserung, die eine aktive Umsetzung des diesjährigen Mottos des Welt-Hepatitis-Tages „Ich warte nicht. Ich handele!“ erleichtert, gibt es in Deutschland bereits: Seit der Umstrukturierung des Präventionsprogramms für gesetzlich Versicherte, das bis März 2019 unter dem Namen „Check-up 35“ geführt wurde, wird seit Oktober 2021 auch das einmalige Screening auf Hepatitis B und C angeboten. Damit sollen bislang unentdeckte Infektionen mit den Hepatitisviren B und C erkannt und betroffenen Menschen soll eine möglichst frühzeitige Behandlung angeboten werden.

Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung, Forschungsvernetzung und wissenschaftliche Projekte zu verbessern. Mit intensiver Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung in medizinischen Fragen. Auf der Website finden Sie umfangreiche Informationen sowie Bildmaterial für Betroffene, Interessierte, Angehörige der Fachkreise und Medienvertreter: https://www.deutsche-leberstiftung.de.

UNSERE BUCHEMPFEHLUNGEN
„Das große Kochbuch für die Leber“ – 122 Rezepte mit allen wichtigen Nährwertangaben; Küchentipps und Regeln für eine lebergesunde Ernährung, September 2022. Das Buch ist im Buchhandel erhältlich: ISBN 978-3-8426-3100-7 € 28,00 [D].
https://www.deutsche-leberstiftung.de/Kochbuch-Leber/

„Das Leber-Buch“ informiert allgemeinverständlich und umfassend über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien, 4. erweitere und aktualisierte Auflage September 2021, im Buchhandel erhältlich: ISBN 978-3-8426-3043-7, € 19,99 [D].
https://www.deutsche-leberstiftung.de/Leber-Buch/

Rezensionsexemplare können über asche@humboldt.de angefordert werden.

Kontakt
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de

Weitere Informationen:
https://www.deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de/presse/aktuelle-pressemitteilungen/
https://www.deutsche-leberstiftung.de/downloads/strategietreffen/strategietreffe…
https://www.hcv-tracker.de

(nach oben)


Auffrischimpfung gegen COVID-19:Anpassung der Auffrischimpfstoffe gegen Omikron-Varianten bedeutsam für COVID-19-Schutz

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Nicht an Omikron-Varianten angepasste COVID-19-mRNA-Impfstoffe führen als Auffrischimpfungen (3. und 4. Impfung) zwar zu höheren Blutspiegeln neutralisierender Antikörper gegen die Omikron-Subvarianten. Jedoch fallen diese Antikörpertiter sechs Monate nach der dritten oder vierten Impfung deutlich ab. Die vierte Impfung hatte ebenfalls keinen Einfluss auf die Breite der Immunantwort gegen verschiedene Virusvarianten. Auch bei der Grundimmunisierung mit Comirnaty waren nur geringe Mengen an neutralisierenden Antikörpern gegen Omikron vorhanden. Dies sind die Ergebnisse einer klinischen Studie, die das Paul-Ehrlich-Institut bei geimpften Angehörigen der Gesundheitsberufe durchgeführt hat.

Auffrischimpfung zur Stärkung des immunologischen Gedächtnisses
Zum Schutz vor COVID-19 werden in den meisten Altersgruppen Auffrischimpfungen empfohlen. Diese werden aus mehreren Gründen durchgeführt: Der Antikörpertiter steigt innerhalb der ersten zwei Wochen nach einer Auffrischimpfung rasch an und bietet den besten Schutz vor COVID-19. Im Anschluss sinkt er innerhalb der ersten Monate auf ein Basisniveau ab. Dieses Basisniveau wird durch das immunologische Gedächtnis aufgebaut bzw. aufgefrischt. Dabei kommt es zu einer Zunahme von Gedächtnis-B-Zellen und langlebenden Plasmazellen, die wiederum die Antikörper bilden. Beides sind wichtige Säulen der auf Antikörpern basierenden humoralen Immunantwort. Darüber hinaus stimuliert die Auffrischimpfung eine breitere humorale Immunantwort, die durch Differenzierungsvorgänge der Antikörpergene (somatische Hypermutation) und die Reifung der Antikörperaffinität erzeugt wird.

Omikron-Varianten des SARS-CoV-2 machen Impfstoffanpassungen erforderlich
Seit Anfang 2022 dominieren Omikron-Subvarianten des Coronavirus SARS-CoV-2. Die Omikron-Subvarianten weisen ein enormes Ausweich(Escape)-Potenzial aufgrund der Zerstörung bzw. Deletion verschiedener Bereiche des Virus auf, die für die Immunantwort bedeutsam sind (Epitope). Dadurch entkommen die entsprechenden Virusvarianten der Immunantwort. Dies erklärt auch, warum die Anzahl der Durchbruchsinfektionen bei geimpften Personen seit dem Auftreten der Omikron-Subvarianten signifikant gestiegen ist: Aufgrund der zahlreichen Mutationen im Spike-Protein können viele der durch Impfung und/oder Infektion induzierten Antikörper nicht an das mutierte Spike-Protein binden und dadurch auch nicht ihr neutralisierendes Potenzial entfalten.

Klinische Studie zeigt: Nicht an Omikron angepasste COVID-19-Impfstoffe sorgen nicht für anhaltend hohe Antikörperspiegel gegen Omikron-Varianten
Ein Forschungsteam des Paul-Ehrlich-Instituts unter Leitung von Prof. Eberhard Hildt, Leiter der Abteilung Virologie, hat den Einfluss der ursprünglichen mRNA-Impfstoffe Comirnaty (BioNTech) bzw. Spikevax (Moderna), die noch nicht an die Omikron-Varianten angepasst waren, in einer klinischen Studie auf den Schutz vor Omikron-Varianten durch neutralisierende Antikörper untersucht. Nach der Grundimmunisierung (Comirnaty) waren bei den Studienteilnehmerinnen und Studienteilnehmern nur geringe Blutspiegel (Titer) an neutralisierenden Antikörpern gegen Omikron vorhanden. Auffrischimpfungen (3. und 4. Impfung) mit dem zu diesem Zeitpunkt ebenfalls noch nicht an Omikron-Varianten angepassten monovalenten mRNA-Impfstoff Spikevax führten zwar zu höheren Titern neutralisierender Antikörper gegen die Omikron-Variante. Jedoch fielen die Antikörpertiter auch nach der vierten Impfung (2. Auffrischimpfung) sechs Monate nach der Impfung deutlich ab – wie auch schon zuvor nach der dritten Impfung. Auch hatte die vierte Impfung keinen Einfluss auf die Breite der Antikörper-basierten Immunantwort, die einen Hinweis darüber gibt, inwieweit Schutz vor Infektion mit verschiedenen Virusvarianten besteht.

Die Ergebnisse auch dieser Studie weisen auf die Bedeutung der an Omikron-Subvarianten angepassten COVID-19-Impfstoffe für Auffrischimpfungen hin.

Die Ständige Impfkommission (STIKO) empfiehlt für Auffrischimpfungen entsprechend an Omikron-Subvarianten angepasste mRNA-Impfstoffe gegen COVID-19.

Über die Ergebnisse berichtet Science Reports ausführlich.

Originalpublikation:
Hein S, Sabino C, Benz NI, Görgülü E, Maier J, Oberle D, Hildt E (2023): The fourth vaccination with a non-SARS-CoV-2 variant adapted vaccine fails to increase the breadth of the humoral immune response.
Sci Rep 13: 10820
DOI: https://doi.org/10.1038/s41598-023-38077-x

Weitere Informationen:
https://www.nature.com/articles/s41598-023-38077-x – Volltext des Artikels
https://www.pei.de/DE/newsroom/pm/jahr/2023/08-anpassung-covid-19-impfstoffe-omi… – Diese Pressemitteilung auf den Internetseiten des Paul-Ehrlich-Instituts

Anhang
Kurze Zusammenfassung Ergebnisse als Audiozitat

(nach oben)


Resilienz der Stromversorgung: Erfolgreiche Feldtests zum Hochfahren des Netzes mit Windparks und Flächenkraftwerken

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Expertinnen und Experten des Fraunhofer IEE und der Unternehmen ENERCON, Alterric Deutschland, DUtrain und Westnetz haben in Rheinland-Pfalz gemeinsam gezeigt, wie ein Windpark gesteuert werden muss, so dass er nach einem großflächigen Stromausfall zum Wiederaufbau des Stromnetzes beitragen kann. Weitere Feldtests mit einem Solar-Flächenkraftwerk verliefen ebenfalls erfolgreich. Diese und weitere Ergebnisse wurden im Abschlussbericht des dreijährigen Forschungsprojektes „SysAnDUk – Systemdienliche Anforderungen an Dezentrale Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ veröffentlicht.

„Das deutsche Stromnetz ist eines der zuverlässigsten der Welt. Dennoch ist die Resilienz von großer Bedeutung. Im Falle eines großflächigen Stromausfalls ist sehr entscheidend, dass wir schnell wieder zum Normalbetrieb zurückkehren“, erläutert Gesamtprojektleiter Holger Becker, Fraunhofer IEE, die Zielsetzung des Forschungsprojektes. Ausgangspunkt der Fragestellung war, dass sich die nötigen Schritte zum Wiederanfahren des Stromnetzes im Zuge der Energiewende verändert haben: Mit dezentralen Anlagen ist ein Neustart für die Netzbetreiber deutlich komplexer als mit Großkraftwerken: „Windparks und Solarkraftwerke können beim Hochfahren des Netzes einen aktiven Beitrag leisten, das ist technisch anspruchsvoll, aber möglich, wie unsere Feldversuche eindeutig gezeigt haben“, so Becker.

Der Feldtest fand im Gebiet des Verteilnetzbetreibers Westnetz statt. In Kümbdchen bei Mainz haben der Windenergieanlagenhersteller ENERCON und der Windparkbetreiber Alterric Deutschland in Zusammenarbeit mit den Projektpartnern ein Wiederanfahren unter realen Bedingungen geprobt. Im Mittelpunkt der Arbeiten stand die zentrale Steuerung des Windparks über die Leitstelle des Verteilnetzbetreibers sowie die Erstellung und Übertragung einer genauen Prognose der zu erwartenden Einspeiseleistung. Getestet wurden dabei die erweiterten elektrischen Eigenschaften der Anlage und neue Funktionen von Windparkreglern sowie eine mögliche Integration der Anlage in das Reservemanagement des Netzbetriebs.

„Akkurate Windprognosen ermöglichen den planbaren Einsatz von Windenergieanlagen im Normalbetrieb und in kritischen Situationen im Netz. Im Projekt wurde eine Prognostik entwickelt, die stör- und schwarzfallrobust in jeder Netzsituation den Netzbetreiber mit aktuellen Daten versorgen kann“, berichtet Lukas Holicki, Projektleiter bei ENERCON. „Dabei werden Modellrechnungen mit dezentral verfügbaren Beobachtungsdaten kombiniert und anlagenspezifische Eigenschaften und Betriebsdaten genutzt, um den Verlauf der zu erwartenden Einspeiseleistung mit hoher Zuverlässigkeit vorherzusagen. Zusammen mit einer speziell entwickelten Windparkregelung können Windenergieanlagen so zukünftig Systemverantwortung übernehmen und einen notwendigen Beitrag zur Stabilität und Resilienz unserer Stromnetze liefern. Diesen Aufgaben werden wir im Rahmen der Energiewende mit Windenergie begegnen müssen“, so Holicki.

In einem weiteren Projektstrang wurde am Fraunhofer IEE ein Flächenkraftwerk entwickelt, mit dem Photovoltaikanlagen in einer Region zusammengeschlossen und zentral gesteuert werden können. Zudem werden Prognosen für diese Anlagen erstellt. Dadurch wird es möglich, eine Vielzahl von Kleinstanlagen über eine Leitstelle gezielt einzusetzen und so Eigenschaften wie bei einem Großkraftwerk zu generieren. Die Flexibilitäten des Flächenkraftwerks ermöglichen damit insbesondere die gezielte Unterstützung des Wiederaufbaus des Stromnetzes in sonnenreichen Situationen, wie erste Feldtests des Systems exemplarisch gezeigt haben.

Netzwiederaufbau erfordert koordiniertes Zuschalten der Erzeugungsanlagen
Um ein Stromnetz nach einem Blackout wieder hochzufahren, kommt es darauf an, zunächst mit sogenannten schwarzstartfähigen Erzeugungsanlagen funktionierende elektrische Inseln zu bilden und diese dann schrittweise zu verbinden. Nach dem Schwarzstart kann die weitere benötigte Erzeugungsleistung durch Großkraftwerke oder durch einen Verbund von mehreren Photovoltaikanlagen und Windparks geliefert werden. Da Großkraftwerke an das Übertragungsnetz und die meisten Wind- und Photovoltaikanlagen an das Verteilnetz angeschlossen sind, müssen beide Netzsysteme im Fall von Störungen sehr koordiniert vorgehen.

Für die Verteilnetzbetreiber ergibt sich daraus eine aktive Rolle beim Netzwiederaufbau: „Die Veränderungen der Erzeugungs- und Laststruktur auf der Verteilnetzebene erfordern neue Fähigkeiten der Verteilnetzbetreiber. Dies gilt bereits für den Normalbetrieb, aber auch für Extremsituationen wie den Netzwiederaufbau“, analysiert Jonathan Bergsträßer, Fraunhofer IEE, die Konsequenzen des Ausbaus der erneuerbaren Energien für das Stromnetz. „Beim Wiederanfahren werden Flächenkraftwerke sowie Anlagenparks zu einem aktiven Werkzeug, um situationsgerechte Entscheidungen zu treffen, umzusetzen und anschließend zu überwachen“, so Bergsträßer.

„Uns Verteilnetzbetreibern kommt mit der Energiewende eine neue Rolle im Energiesystem zu – auch beim Wiederhochfahren nach einem großflächigen Stromausfall. Daher ist es für uns umso wichtiger, notwendige neue Anforderungen an Erzeugungsanlagen und hinsichtlich unserer Leitsystemfunktionen, möglichst frühzeitig zu identifizieren. Genau das haben wir im Rahmen dieses Projektes gemacht – im intensiven Austausch mit allen Expert*innen“, ergänzt Thomas Schmidt, Projektleiter bei Westnetz.

Als zentraler Bestandteil der Forschungsarbeiten kam ein Trainingssimulator zum Einsatz, der die Wechselwirkungen zwischen Erzeugungsanlagen und Stromnetz aufzeigt und ein gemeinsames Verständnis aller Partner ermöglichte. „Durch die Verwendung realistischer Netzwiederaufbauszenarien werden der Datenaustausch, die Beobachtungs- und Steuermöglichkeiten sowie die erforderlichen Handlungen entwickelt, validiert und verifiziert“, erläutert Udo Spanel, Geschäftsführer des Trainingsunternehmens DUtrain, das Verfahren. „Das ermöglichte ein effizientes und zielgerichtetes Vorgehen“, so Spanel.

Innovative Technik muss zum Standard werden
Der Betrieb der Stromnetze richtet sich nach den konkreten Gegebenheiten vor Ort und unterscheidet sich damit von den viel abstrakteren Handelsvorgängen am Markt. Denn bei der Preisbildung am Markt wird pauschal ein größeres Gebiet betrachtet. Rein physikalisch kommt es beim Netzwiederaufbau hingegen darauf an, dass die dezentralen Einheiten die notwendige räumliche Nähe aufweisen und die Netzstruktur beachtet wird. Nur dann lassen sich Inselnetze unter Verwendung von dezentralen Erzeugungsanlagen aufbauen, die wie Zellen mit weiteren Einheiten und untereinander verbunden werden können.

Mit dem Fortschreiten der Energiewende steigen die technischen Anforderungen an dezentrale Erzeugungsanlagen. Die Ergebnisse des Verbundvorhabens zeigen, dass die innovative Technik zum netzdienlichen Einsatz von dezentralen Anlagen zuverlässig funktioniert. Dies steht jedoch derzeit in den unteren Netzebenen noch nicht standardmäßig zur Verfügung. Denn Voraussetzung dafür sind eine entsprechende Kommunikation und Steuerung. In diesem Zuge wird der deutschlandweite Rollout des Smart-Meters mit seiner bidirektionalen Kommunikation auch Bestandsanlagen ermöglichen, sich an ein Flächenkraftwerk anzubinden. Darüber hinaus kann mit dem künftigen 450 MHz Mobilfunknetz eine robuste Kommunikation realisiert werden, die auch bei einem Blackout funktioniert.

Insgesamt steigen mit dem Ausstieg aus der Kohleverstromung und der Stilllegung von Großkraftwerken die Herausforderungen an den Betrieb der Stromnetze und insbesondere an die Netzstabilität beim Wiederaufbau. Hier sind noch weitere Lösungen zu erarbeiten. Die Entscheidung über weitere Forschungsprogramme liegt bei der Politik. Welche Investitionen dann von den Unternehmen umgesetzt werden, wird durch die Bundesnetzagentur reguliert.

Der Abschlussbericht zum Projekt „SysAnDUK – Systemdienliche Anforderungen dezentraler Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ ist unter folgendem Link abrufbar: https://www.iee.fraunhofer.de/de/projekte/suche/laufende/SysAnDUk.html

Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Holger Becker
Bereich Netzplanung und Netzbetrieb
Fraunhofer IEE
holger.becker@iee.fraunhofer.de

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2023/resilienz-de…

(nach oben)


PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.

Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.

Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.

Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.

Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.

Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.

Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «

Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«

Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.

Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.

Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.

Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…

(nach oben)


Genehmigung der künstlichen Grundwasseranreicherung in Berlin könnte Priorisierung der Wassernutzung minimieren

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Hydrogeologin Irina Engelhardt über eine Technologie, mit der in Dürreperioden deutlich weniger Wasser rationiert werden müsste, sondern zusätzlich zur Verfügung stünde / Aufruf zur Beteiligung am Citizen-Science-Projekt „Gewässerbeobachtungen im Gebiet der Unteren Spree“

Um in Berlin und Brandenburg vor Dürreperioden gewappnet zu sein, plädiert die Hydrogeologin Prof. Dr. Irina Engelhardt dafür, die künstliche Grundwasseranreicherung zu nutzen. „Diese Technologie ermöglicht es, in Dürreperioden zusätzliches Wasser zur Verfügung zu stellen“, sagt die Professorin, die an der TU Berlin das Fachgebiet Hydrogeologie leitet. Bei der künstlichen Grundwasseranreicherung wird Oberflächenwasser, was bei Starkregenereignissen im Frühjahr, Herbst und Winter von Dächern und Straßen abfließt und aufgrund der Wassermassen nicht versickert, zwischengespeichert und dann gezielt in den Boden künstlich versickert oder injiziert. Durch die Bodenpassage erfolgt zusätzlich eine Reinigung.

Auf diesem Wege wird die Grundwasserressource künstlich erhöht. Länder wie Spanien, Griechenland, Israel, Jordanien infiltrieren auch gereinigtes Abwasser und nutzen dies nach einer Bodenpassage zur landwirtschaftlichen Bewässerung. Ohne die künstliche Grundwasseranreicherung wären diese Länder kaum mehr in der Lage ihre Landwirtschaft zu versorgen, so Irina Engelhardt im Interview. Israel zum Beispiel recycelt 90 Prozent seines Abwassers. In Deutschland sei diese Technologie bislang nicht umgesetzt, weil die Wasserbehörden eine Verunreinigung des Grundwassers befürchten. Forschungsarbeiten in Spanien und Israel zeigen jedoch, dass diese Methode nur ein geringes Gefährdungspotenzial aufweist. Relevant ist jedoch, geeignete landwirtschaftlichen Kulturen und Bodensubstrate mit einem gutem Abbaupotenzial für Schadstoffe auszuwählen. Zusätzlich ist ein kontinuierliches Monitoring der Wasserqualität unerlässlich.

„Bewässerung des Stadtgrüns zu untersagen ist nicht sinnvoll“
Die Nutzung von recyceltem Grauwasser würde es zum Beispiel auch erlauben, Stadtgrün wie Parks, Friedhöfe und Straßenbäume in Dürreperioden zu bewässern, anstatt verdorren zu lassen, weil es an Wasser mangelt und das Trinkwasser dafür zu schade ist. „Aufgrund des Klimawandels sind städtische Grünflächen extrem wichtig geworden, damit Städte wie Berlin in Hitze- und Dürreperioden lebenswert bleiben und nicht zu einer Gefahr für die Gesundheit werden. Wir brauchen die Parks, die Friedhöfe, die Straßenbäume für das Stadtklima und die Erholung. Die Bewässerung des Stadtgrüns zu untersagen ist für mich nicht sinnvoll im Kontext einer Klimaanpassungsstrategie. Geboten wäre vielmehr überschüssiges Wasser aus den Frühjahr-, Herbst- und Wintermonaten oder gereinigtes Grauwasser zu nutzen, als es ungenutzt in die Kanalisation abfließen zu lassen. Je stärker der Klimawandel durchschlägt, desto stärker werden – so die Prognosen – die Unterschiede hinsichtlich des Niederschlags zwischen Herbst/Winter und Sommer. Und umso dringlicher wird es, die Niederschläge im Frühjahr, Herbst und Winter zwischen zu speichern, um sie in den Sommermonaten dann zu nutzen“, sagt Irina Engelhardt.

Das gesamte Interview mit Prof. Dr. Irina Engelhardt über Wassermanagement in Dürreperioden, die Notwendigkeit von Wasserbilanzen und ein neues Forschungsprojekt zur Abschätzung der Folgen für den Spreewald im Zusammenhang mit dem Braunkohleausstieg und dem Klimawandel lesen Sie unter: https://www.tu.berlin/go228823/

Im Rahmen des Forschungsprojektes SpreeWasser:N sammelt die Forschungsgruppe um Prof. Dr. Irina Engelhardt im Jahr 2023 Beobachtungen der Anwohnerinnen und Anwohner im Einzugsgebiet der Unteren Spree. Die Bürgerinnen und Bürger in diesem Gebiet sind aufgerufen, ihre Gewässerbeobachtungen im Bereich der Unteren Spree zu melden. Weiter Informationen zu diesem Citizen Science-Projekt unter: https://www.spreewasser-n.de/buergermeldungen/

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Irina Engelhardt
TU Berlin
Fachgebiet Hydrogeologie
Tel.: 030/314-24088
E-Mail: irina.engelhardt@tu-berlin.de

(nach oben)


Gift atmen: Mikrobielles Leben dank Stickoxid

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Ob und wie Mikroorganismen NO als Substrat zum Wachsen nutzen können, ist kaum erforscht. Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen ist es gelungen, seit mittlerweile mehr als vier Jahren Mikroorganismen auf NO wachsen zu lassen. Die Gemeinschaft wird von zwei bisher unbekannten Arten dominiert, deren Stoffwechsel genau unter die Lupe genommen wurde. Die Ergebnisse, jetzt in Nature Microbiology veröffentlicht, geben einen Einblick in die Physiologie der NO-reduzierenden Mikroorganismen, die eine entscheidende Rolle bei der Kontrolle klimaaktiver Gase, in Klärwerken und bei der Entwicklung der Nitrat- und Sauerstoffatmung spielen.

Stickstoffmonoxid (NO) ist ein faszinierendes und vielseitiges Molekül, wichtig für alle Lebewesen und unsere Umwelt. Es ist giftig und sehr reaktionsfreudig, es kann Signale übertragen, es zerstört die Ozonschicht unseres Planeten und es ist der Vorläufer des Treibhausgases Lachgas (N2O). Zudem könnte NO eine grundlegende Rolle bei der Entstehung und Entwicklung des Lebens gespielt haben, da es als energiereiches Oxidationsmittel verfügbar war, lange bevor es auf der Erde Sauerstoff gab.

Trotz seiner toxischen Wirkung ist es also durchaus sinnvoll für Mikroorganismen, NO zum Wachsen zu nutzen. Bislang wurde aber nur wenig zu dem Thema geforscht und es war noch nicht gelungen, Mikroorganismen, die auf NO wachsen, zu kultivieren. Das hat sich nun geändert, berichten Forschende um Paloma Garrido Amador und Boran Kartal vom Max-Planck-Institut für Marine Mikrobiologie in Bremen in der Zeitschrift Nature Microbiology. Ihnen ist es gelungen, zwei bisher unbekannte Arten von Mikroorganismen, die auf NO in Bioreaktoren wachsen, anzureichern und spannende Aspekte ihrer Lebensweise aufzudecken.

Aus der Kläranlage in den Bioreaktor
Die Studie begann mit einem Besuch in der Bremer Kläranlage. „Wir sammelten Schlamm aus dem Denitrifikationsbecken“, berichtet Garrido Amador. „Den brachten wir in unser Labor, füllten ihn in einen unserer Bioreaktoren und begannen die Inkubation, indem wir ihn mit NO fütterten.“ Bioreaktoren dienen dazu, Mikroorganismen unter kontrollierten Bedingungen, die ihrer natürlichen Umgebung sehr ähnlich sind, zu züchten. Die Einrichtung dieses Bioreaktors war jedoch eine große Herausforderung, erzählt Garrido Amador: „Da NO giftig ist, benötigten wir spezielle Ausrüstung und mussten sehr vorsichtig mit den Kulturen umgehen, um uns selbst nicht zu gefährden. Trotzdem ist es uns gelungen, die Kulturen seit mehr als vier Jahren wachsen zu lassen – und sie sind immer noch wohlauf!“

Zwei neue Mikroorganismen
Die Bedingungen im Bioreaktor bevorzugten also Mikroorganismen, die in Anwesenheit von NO leben und anaerob wachsen können. „Es zeigte sich, dass zwei bisher unbekannte Arten die Kultur dominierten“, sagt Boran Kartal, Gruppenleiter der Forschungsgruppe Mikrobielle Physiologie am Max-Planck-Institut in Bremen. „Wir nannten sie Nitricoxidivorans perserverans und Nitricoxidireducens bremensis.“ Garrido Amador ergänzt: „Anhand dieser zwei Mikroben, die auf NO wachsen, haben wir viel darüber herausgefunden, wie sogenannte Nicht-Modellorganismen – insbesondere solche, die NO reduzieren – wachsen. Einige unserer Beobachtungen machen deutlich, dass diese Mikroben sich anders verhalten als Modellorganismen – Organismen, die leicht zu kultivieren und daher umfassend erforscht sind. Wir zeigen auch, dass Aussagen über den mikrobiellen Stoffwechsel allein anhand von Genomanalysen nur eingeschränkt möglich sind.“

Bedeutung für die Umwelt und praktische Anwendungen
„Derzeit wissen wir nur wenig darüber, wie Mikroorganismen, die auf NO wachsen, zum Stickstoffkreislauf in natürlichen und künstlichen Lebensräumen beitragen“, erklärt Kartal. „Wir vermuten aber, dass diese Mikroorganismen sich von NO und N2O, das von anderen Mikroorganismen freigesetzt wird, ernähren, und dadurch nitrosativen Stress und die Freisetzung dieser klimawirksamen Gase in die Atmosphäre verringern könnten.“

Die angereicherten Mikroorganismen waren sehr effizient darin, NO in molekularen Stickstoff (N2) umzuwandeln. „Es gab praktisch keine Freisetzung des Treibhausgases Lachgas“, so Kartal weiter. Diese alleinige Produktion von N2 ist für praktische Anwendungen besonders relevant: Viele andere Mikroorganismen wandeln NO in Lachgas um, das ein starkes Treibhausgas ist. N2 hingegen ist harmlos. Jedes Molekül NO, das in N2 statt in Lachgas umgewandelt wird, ist also ein Molekül weniger, das zum Klimawandel beiträgt.

In einem nächsten Schritt kultivieren die Max-Planck-Forschenden weitere NO-atmende Mikroorganismen, die sie in natürlichen und künstlichen Lebensräumen sammeln. „Durch die Kultivierung und Anreicherung weiterer NO-atmender Mikroorganismen werden wir die Evolution der Stickoxid-Reduktion und der beteiligten Enzyme besser verstehen. So werden wir auch die Rolle von NO in bekannten und noch unbekannten Prozessen des Stickstoffkreislaufs und seine Bedeutung in natürlichen und künstlichen Umgebungen, in denen diese Prozesse ablaufen, entschlüsseln können“, schließt Garrido Amador.

Wissenschaftliche Ansprechpartner:
Paloma Garrido Amador
Doktorandin
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6530
E-Mail: pgarrido@mpi-bremen.de

Dr. Boran Kartal
Gruppenleiter
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6450
E-Mail: bkartal@mpi-bremen.de

Originalpublikation:
Paloma Garrido-Amador, Niek Stortenbeker, Hans J.C.T. Wessels, Daan R. Speth, Inmaculada Garcia-Heredia, Boran Kartal (2023): Enrichment and characterization of a nitric oxide-reducing microbial community in a continuous bioreactor. Nature Microbiology (2023). Published online July 10, 2023.

DOI: 10.1038/s41564-023-01425-8

Weitere Informationen:
https://www.mpi-bremen.de/Page6071.html Pressemeldung des MPIMM

(nach oben)


Mikrobielle Räuber bewirken saisonale Schwankungen bei der Abwasseraufbereitung

Dr. Elisabeth Hoffmann Kommunikation und Marketing
Universität zu Köln
Jahreszeitliche Temperaturschwankungen haben nur indirekten Einfluss auf die Bakteriengemeinschaft im Abwasser / Studie in „Water Research“ erschienen

Die Gemeinschaft der mikrobiellen Räuber beeinflusst die Zusammensetzung der Bakteriengemeinschaft im Abwasser. Dies erklärt jahreszeitliche Variationen der Mikrobengemeinschaft, die sich auf die Effizienz der Wasseraufbereitung auswirken. Das ergab eine Studie von Nils Heck und PD Dr. Kenneth Dumack vom Institut für Zoologie der Universität zu Köln. Die Studie ist unter dem Titel „Microeukaryotic predators shape the wastewater microbiome“ in der Fachzeitschrift „Water Research“ erschienen.

In Kläranlagen findet ein präzise abgestimmtes Zusammenspiel verschiedener Mikroorganismen statt, um Abwasser effektiv aufzubereiten. Ein Großteil der an der Wasseraufbereitung beteiligten Mikroorganismen ist allerdings immer noch weitgehend unbekannt. Neben den nützlichen Bakterien, die für die Reinigung des Abwassers verantwortlich sind, finden sich auch zahlreiche ihrer Fraßfeinde in den Klärbecken. Jedoch ist bisher wenig darüber bekannt, ob und in welchem Maße diese Räuber die Abwasseraufbereitung beeinflussen.

Seit der Einführung von Kläranlagen ist bekannt, dass die Jahreszeiten die bakterielle Gemeinschaft im Abwasser beeinflussen und somit auch die Effizienz der Wasseraufbereitung. Aber warum ist das so? Bakterien besitzen schließlich keinen Kalender. Diese Frage ist keineswegs trivial, da die jahreszeitlichen Veränderungen das Ergebnis einer Vielzahl von Faktoren sind. Die bekanntesten Faktoren sind sicherlich Temperatur- und Lichtverhältnisse, aber auch die chemische Zusammensetzung des Abwassers, Niederschlagsmengen und vieles mehr variieren im Laufe der Jahreszeiten. Welcher dieser Faktoren führt also zur Veränderung der Bakteriengemeinschaft über die Jahreszeiten hinweg?

Privatdozent Dr. Kenneth Dumack, der Leiter der Studie, erklärt: „Wir haben festgestellt, dass die jahreszeitlichen Schwankungen der Umgebungstemperatur nicht die Variation der Bakteriengemeinschaft erklären können. Dies hat uns überrascht, und deshalb haben wir nach einem anderen Faktor gesucht, der die Variation der Bakteriengemeinschaft erklären könnte.” Nils Heck, der Erstautor der Studie, führt weiter aus: “Dabei fanden wir heraus, dass die Gemeinschaft der mikrobiellen Räuber, wie Amöben, Wimperntierchen und auch Rädertiere, die Zusammensetzung der Bakteriengemeinschaft bis zu einem gewissen Grad erklären kann. Diese Räuber sind wiederum von der Umgebungstemperatur abhängig. Somit stellt der Temperaturfaktor einen indirekten Einfluss auf die Bakterien dar, der über die Gemeinschaft der Räuber vermittelt wird.“

Die neuen Erkenntnisse tragen dazu bei, die sogenannte „black box“ Abwasseraufbereitung besser zu verstehen, um so unter anderem Risiken für die Gesundheit zu vermeiden, die durch unzureichend behandeltes Abwasser entstehen können.

Presse und Kommunikation:
Mathias Martin
+49 221 470 1705
m.martin@verw.uni-koeln.de

Verantwortlich: Dr. Elisabeth Hoffmann – e.hoffmann@verw.uni-koeln.de

Wissenschaftliche Ansprechpartner:
PD Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49 221 470 8242
kenneth.dumack@uni-koeln.de

Originalpublikation:
„Microeukaryotic predators shape the wastewater microbiome“
https://doi.org/10.1016/j.watres.2023.120293

(nach oben)


LED-Frischenachweis für Obst

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Perowskit-modifizierte LEDs zeigen Lebensmittelverderb an
Ein Forschungsteam hat Leuchtdioden (LEDs) hergestellt, die Licht in zwei Wellenlängenbereichen gleichzeitig ausstrahlen und für eine vereinfachte die Frischeüberwachung von Obst verwendet werden können. Wie die Forschenden in der Zeitschrift Angewandte Chemie schreiben, bewirkte eine Modifizierung mit Perowskitmaterialien, dass die LEDs auch im Nahinfrarotbereich emittierten, einem Wellenlängenbereich, der in der berührungsfreien Lebensmittelüberwachung wichtig ist.

Perowskite sind Kristalle, die Licht einfangen und umwandeln können. Wegen ihrer einfachen Herstellung und großen Effizienz werden Perowskite in Solarzellen, aber auch für andere Technologien eingesetzt und intensiv erforscht. Angshuman Nag und sein Team am Indian Institute of Science Education and Research (IISER) in Pune (Indien) stellen nun eine Anwendung in der LED-Technologie vor, die die Qualitätsprüfung von frischem Obst und Gemüse vereinfachen könnte.

Da unbehandelte LEDs nur in einem recht engen Lichtbereich ausstrahlen, werden sie für Raumlichtanwendungen mit lumineszierenden Substanzen beschichtet. Diese sogenannten Phosphor-konvertierten (pc) LEDs können den weißen Sonnenlichtbereich recht gut abdecken. Um darüber hinaus noch eine starke Bande im Nahinfrarotbereich zu erhalten, entwickelten Nag und seine Kolleg*innen eine besondere doppelt emittierende Beschichtung für pc-LEDs.

Diese bestand aus einem doppelten, sowohl mit Bismut als auch mit Chrom dotierten Perowskitkristall. Wie die Forschenden feststellten, strahlte die Bismutkomponente warmweißes Licht aus, während die Chromatome einen Teil der Energie in eine starke Bande im Nahinfrarot abgaben.

Nahinfrarotlicht (NIR) verwendet die Lebensmittelindustrie bereits, um Obst und Gemüse auf ihren Frischezustand zu überprüfen. „Nahrungsmittel enthalten Wasser, das die breite Nahinfrarotemission bei etwa 1000 Nanometern absorbiert“, erklären Nag und sein Doktorand Sajid Saikia, der Erstautor der Arbeit. „Je mehr Wasser [in Faulstellen] enthalten ist, desto stärker wird die NIR-Strahlung absorbiert und ein Bild, das unter Nahinfrarotlicht aufgenommen wird, zeigt einen dunkleren Kontrast. Mit diesem einfachen, berührungsfreien Bildgebungsvorgang können wir den Wassergehalt an verschiedenen Stellen des Lebensmittels abschätzen und somit die Frische bestimmen.“

Bei der Inspektion von Äpfeln und Erdbeeren fielen unter derart modifizierten pc-LEDs dunkle Stellen auf, die auf dem normalen Kamerabild nicht zu sehen waren. Durch die Beleuchtung sowohl mit weißem als auch NIR-Licht ließ sich sowohl die normale Färbung mit bloßem Auge als auch verborgene schlechtere Stellen entdecken.

Nag und sein Team stellen sich für die Zukunft ein kompaktes Gerät für eine gleichzeitig visuelle und NIR-Inspektion von Lebensmitteln vor. Das würde jedoch zwei Detektoren einschließen, einen für das sichtbare und einen für das NIR-Licht, was für allgemeinere Anwendungen kostenmäßig noch eine Herausforderung sein könnte. Andererseits sei die pc-LED selbst leicht, ohne Verlust von Chemikalien und lösungsmittelfrei herzustellen. Das Team ist deshalb zuversichtlich, dass sich solche dual emittierende pc-LEDs bei einer ausreichenden Qualifikation in der Langlebigkeit und Skalierbarkeit für allgemeine Anwendungen eignen werden.

Angewandte Chemie: Presseinfo 31/2023
Autor/-in: Angshuman Nag, Indian Institute of Science Education and Research, Pune (India), https://www.iiserpune.ac.in/research/department/chemistry/people/faculty/regular…

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202307689

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Grüner Wasserstoff – Orientierung im aktuellen Dschungel

Travis Müller Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management
Wirtschaftsführer und Experten diskutieren bei Nachhaltigkeits-Workshop am Düsseldorfer Campus der WHU – Otto Beisheim School of Management über die geplante „Wasserstoffwirtschaft“.

Die Klima-Uhr tickt. Wer sie stoppen will, könnte mit nachhaltig erzeigtem Wasserstoff erfolgreich sein – so lautet zumindest die Meinung der Experten, die kürzlich am Düsseldorfer Campus der WHU – Otto Beisheim School of Management zusammengekommen sind. Zahlreiche Fachleute aus Wirtschaft und Wissenschaft trafen sich am 6. Juli zu einem Workshop unter dem Titel „Wasserstoff – Orientierung im aktuellen Dschungel“, den die WHU gemeinsam mit ihren beiden Alumni Dr. Klaus Dirk Herwig (DR, 1993) und Erik Schäfer (D, 1988) veranstaltet hatte. Die Veranstaltung bot Wirtschaftsführern die Möglichkeit, Einblicke zu gewinnen in das Potenzial, das grüner Wasserstoff für die Umwelt und alle Bereiche der Wirtschaft bietet – angefangen von der Stahlproduktion über den Verkehr bis hin zum Thema Heizen.

Nach einer kurzen Einführung von Prof. Dr. Jürgen Weigand, Inhaber des Lehrstuhls für Industrieökonomik an der WHU, analysierten die Experten das Thema aus verschiedenen Perspektiven. Da sich der Diskurs über die Energieerzeugung in den vergangenen zehn Jahren stark verändert hat und der Energiebedarf der Gesellschaft in den kommenden Jahren voraussichtlich exponentiell steigen wird, sind sie überzeugt, dass grüner Wasserstoff der Weg in eine umweltfreundliche Zukunft ist. Bis es so weit ist, müssen jedoch noch zahlreiche Hindernisse überwunden werden, ein mangelndes Bewusstsein in den Unternehmen und im öffentlichen Sektor beispielsweise.

Gehe es um erneuerbare Energien und Klimawandel, heißt es laut Erik Schäfer oft: Wenn die Menschheit nicht aufgibt und verzichtet, kann es keine Hoffnung auf eine nachhaltige Zukunft geben. Schäfer, Vorstand der Green Investors AG und Industry Partner bei SENCO Capital, hält diese Sichtweise und die damit suggerierten Schuldgefühle für wenig hilfreich. Er setzt stattdessen auf grünen Wasserstoff. Die Einführung sei ein Gewinn für die Gesellschaft, so Schäfer, da sie es der Menschheit ermögliche, ihr bisher gekanntes Leben weiterhin zu genießen, ohne dem Planeten Schaden zuzufügen. Laut Schäfer verfügt Deutschland, das für seine technologischen Fähigkeiten bekannt ist, über alle notwendigen Ressourcen, um die vorgeschlagene „Wasserstoffwirtschaft“ in die Tat umzusetzen.

Tatsächlich gewinnt die Idee einer Wasserstoffwirtschaft auch in politischen Kreisen immer mehr an Akzeptanz. Ministerin Mona Neubaur (Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes Nordrhein-Westfalen) versicherte den Workshop-Teilnehmern in einer Videobotschaft ihre Unterstützung. Zudem stellte Dr. Klaus Dirk Herwig, der auch Geschäftsführer von Hydrogy ist, sein kürzlich erschienenes Buch „WASSERSTOFF – Perspektiven, Potenziale und Lösungen für KMU-Unternehmen“ vor, das Unternehmern, Mut machen und ihnen helfen will, sich mit grünem Wasserstoff auseinanderzusetzen.

Dr. Heribert Wiedenhues, ehemaliges Vorstandsmitglied von thyssenkrupp und derzeit CEO von Brainfleet, steht seit zwei Jahrzehnten an der Spitze der Wasserstoffwirtschaft. Er argumentierte, dass eine Investition in grünen Wasserstoff nicht nur dem Planeten zugutekomme, sondern auch ein profitables Unterfangen für kluge Unternehmer sei. Dr. Jens Reichel, Manager bei thyssenkrupp Steel Europe AG, gab ein anschauliches Beispiel aus seinem Stahlwerk in Duisburg: Bei den hohen Energiemengen, die für die Stahlproduktion benötigt würden, scheine die Dekarbonisierung eine unlösbare Aufgabe zu sein, so Reichel. Grüner Wasserstoff ist deshalb unabdingbar, wofür derzeit Investitionen in Milliardenhöhe getätigt werden.

Als eine der bekanntesten deutschen Wirtschaftshochschulen teilt die WHU nachhaltige Umweltanliegen und ermutigt vorausschauende Unternehmer:innen, für eine ökologische und ökonomisch erfolgreiche Zukunft selbst aktiv zu werden. Workshops wie diese, in denen neue Ideen im Bereich der Nachhaltigkeit vorgestellt werden, sind eine Möglichkeit, wie Wirtschaftswissenschaftler und Wirtschaftsexperten zu dieser Diskussion beitragen können.

(nach oben)


Plastikmüll: Belastung in Seen teilweise höher als im Ozean

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Besorgniserregende Befunde für weltweite Mikroplastik-Belastung von Stillgewässern

Dass Meere durch Kunststoffabfälle verschmutzt werden, ist mittlerweile traurige Tatsache und wissenschaftlich gut belegt. Globale Angaben zur Mikroplastik-Belastung von Süßgewässern fehlten bisher allerdings. Ein internationales Forschungsteam unter Mitwirkung von Katrin Attermeyer, Limnologin am WasserCluster Lunz und an der Universität Wien, hat nun erstmals Daten im großen Ausmaß dazu gesammelt. Das Team stellt in der aktuellen Ausgabe des Fachmagazins Nature die Ergebnisse der ersten standardisierten und länderübergreifenden Erhebung vor. Das Ergebnis ist ernüchternd: Plastikmüll wurde in allen beprobten Seen gefunden, in einigen Seen wie dem Lago Maggiore in Italien und dem Lake Tahoe in den USA findet sich mehr Mikroplastik als im weltweit am stärksten verschmutzten subtropischen Ozean.

So praktisch sie im Alltag auch sein mögen: Für die aquatischen Ökosysteme unseres Planeten sind Kunststoffe, die sich dort letztendlich als Mikroplastikmüll ansammeln, eine große Belastung – mit dramatisch steigender Tendenz. Durch das anhaltende Wachstum der weltweiten Kunststoffproduktion nimmt auch die Menge an Mikroplastik – d.h. jener Kunststoffteile, die kleiner als 5 mm sind – in Umwelt und Gewässern zu. Richtete sich der Fokus der Forschung zunächst auf die Auswirkung des Plastikmülls auf marine Gewässer, so wurden in letzter Zeit auch verstärkt Binnengewässer untersucht, in denen sich der Müll ähnlich oder sogar in noch größerem Ausmaß als in den Meeren anreichert. Diese früheren Studien hatten jedoch zwei Mankos: die Beschränkung auf nur wenige Gewässer in bestimmten geografischen Regionen und das nicht-standardisierte Verfahren der Probenentnahme. Letzteres machte den direkten quantitativen Vergleich zwischen den Untersuchungen unmöglich. Überlegungen zu beiden Kritikpunkten flossen ins Design der aktuellen Studie ein und dies resultierte nun in der ersten global repräsentativen, standardisierten Untersuchung der Seen.

Untersucht: 38 Seen. Befund: Plastik überall.
Insgesamt beprobte das Forschungsteam 38 Seen in 23 Ländern, die eine große Zahl an hydromorphologischen Faktoren wie z. B. Fläche, Tiefe, Uferlänge und Verweilzeit des Wassers abdeckten. Auch unterschiedliche anthropogene Aspekte wie z. B. Landbedeckung, Vorhandensein von Kläranlagen und Bevölkerungsdichte wurden berücksichtigt. Die Untersuchungsgebiete waren geografisch weit gestreut und umfassten ein breites Spektrum an Seen und Einzugsgebieten. Somit war die Stichprobe für die globale Variabilität der Seen unter Einbeziehung bestimmter Schlüsselmerkmale repräsentativ. Alle Proben wurden an der Oberfläche durch horizontale Schleppnetze senkrecht zum Seeausfluss nach demselben Protokoll entnommen, konzentriert und gereinigt. Insgesamt wurden so Tausende von Kunststoffpartikeln identifiziert und anhand von Form, Farbe und Größe klassifiziert. „Auf diese Weise haben wir für jeden See die ‚Signatur‘ – also die Art und Häufigkeit – der Kunststoffe ermittelt und uns angeschaut, wie diese Signatur mit potentiellen Verschmutzungsquellen und hydromorphologischen Merkmalen der Wassereinzugsgebiete zusammenhängt“, erklärt Katrin Attermeyer. Anschließend wurde die chemische Zusammensetzung der Kunststoffe mit Hilfe einer speziellen Untersuchungsmethode (Mikro-Raman-Spektroskopie) aufgeklärt. Das Ergebnis war ernüchternd: Plastikmüll fand sich in allen untersuchten Seen – sogar in jenen Gewässern, die auf den ersten Blick vollkommen unberührt von menschlichen Einflüssen zu sein schienen. Insgesamt identifizierten die Forscher*innen den weitaus größten Anteil der Kunststoffpartikel (fast 94 %) als Mikroplastik, gefolgt von 5% Mesoplastik (Teilchengröße 5-10 mm) und 1,5% Makroplastik (> 10 mm). Tatsächlich war in einigen der untersuchten Seen die Plastikkonzentration unerwartet hoch. So wurden in drei der untersuchten Gewässern sogar mehr als 5 Partikel pro m3 gefunden. „Diese Resultate sind insofern beunruhigend, als diese drei Seen – der Luganer See, der Lago Maggiore und der Lake Tahoe – bereits jetzt eine höhere Mikroplastikbelastung aufweisen als die weltweit am stärksten verschmutzten subtropischen Ozeanwirbel“, meint Expertin Attermeyer.

Zusammenhang zwischen Signatur und Seen-Typ
Chemisch bestanden die meisten Kunststoffpartikel aus Polyester (PES), Polypropylen (PP) und Polyethylen (PP) – ein Ergebnis, das Katrin Attermeyer wenig überrascht: „PE und PP machen mehr als die Hälfte der weltweiten Kunststoffproduktion aus, während PES für 70 % der gesamten Produktion von Fasern für die Textilindustrie benötigt werden.“ Dementsprechend waren bei den gefundenen Kunststoffteilchen auch zwei Formkategorien dominant – Fasern (49 %) und Fragmente (41 %), die als „sekundäres Mikroplastik“ durch Zersplitterung größerer Kunststoffteile entstehen.

Zwei Seen-Typen erwiesen sich für die Verschmutzung durch Mikroplastik als besonders vulnerabel: einerseits Seen in dicht besiedelten und urbanisierten Gebieten und andererseits flächenmäßig große Seen, die vermutlich wegen ihres großen Einzugsgebiets und der langen Wasserverweildauer besonders belastet sind. Interessanterweise korrelierten die Kunststoff-Typen der beprobten Seen mit deren morphometrischen Merkmalen: In Seen mit geringer Oberfläche, Maximaltiefe und Uferlänge dominierten blaue oder schwarze Fasern aus PES, während in großen, tiefen Seen mit ausgedehnter Uferlinie transparente oder weiße Fragmente aus PP und PE vorherrschten. „Jeder See hatte somit quasi seine eigene Plastik-Signatur. Die Erfassung dieser Signaturen hilft uns nicht nur bei der Ermittlung möglicher Verschmutzungsquellen, sondern auch bei der Charakterisierung der Auswirkungen der Kunststoffverschmutzung“, so Katrin Attermeyer. Die Ergebnisse der Studie unterstreichen, dass auch Seen Anzeiger der globalen Plastikverschmutzung sein können und bei der Bekämpfung dieser Art von Verschmutzung berücksichtigt werden sollten.

Lunzer See wenig kontaminiert
Als einzigen See Österreichs untersuchten die Forscher*innen den Lunzer See. Er gehört zu der Kategorie der weniger kontaminierten Gewässer mit unter 1 Plastikpartikel pro m3. Dort dominieren schwarze und blaue Fragmente, da der See eher klein ist und nur wenige Personen am Ufer des Sees leben.

Wissenschaftliche Ansprechpartner:
Dr. Katrin Attermeyer
Wasser Cluster Lunz – Biologische Station GmbH
Department für Funktionelle und Evolutionäre Ökologie
Universität Wien
1030 Wien, Djerassiplatz 1
T +43 (0) 7486 2006060
katrin.attermeyer@wcl.ac.at
https://carbocrobe.jimdosite.com/

Originalpublikation:
Plastic debris in lakes and reservoirs.
DOI: 10.1038/s41586-023-06168-4
https://doi.org/10.1038/s41586-023-06168-4 (online ab 17 Uhr)

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a… (online ab 17 Uhr)

(nach oben)


Künstliche Intelligenz – nachhaltig und ressourcenschonend?

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Projekt der Leibniz Universität Hannover entwickelt ganzheitliches Fahrassistenz-KI-System mit dem Ziel eines niedrigen Energieverbrauchs

Künstliche Intelligenz (KI) kommt inzwischen in vielen Branchen zur Anwendung und kann auch sehr sinnvoll für Nachhaltigkeitsvorhaben eingesetzt werden – etwa zur Klassifikation von Müll, für nachhaltige architektonische Entwicklungen in der digitalisierten Stadt oder zielgenaues Fällen von Bäumen. Doch läuft KI, wenn sie mit großem Rechenaufwand betrieben wird, dem Ziel der Nachhaltigkeit nicht selbst zuwider? Vor allem die Analyse von großen Datenmengen hat meist einen hohen Energieverbrauch und erzeugt einen großen ökologischen Fußabdruck.

Ein Forschungsteam der Leibniz Universität Hannover (LUH) hat sich zum Ziel gesetzt, ressourcensparende KI-Anwendungen zu entwickeln. Das Gesamtprojekt, an dem verschiedene Institute der LUH und die VISCODA GmbH beteiligt sind, wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz mit rund 1,5 Millionen Euro gefördert (LUH-Anteil: 1,2 Millionen Euro). Die Wissenschaftlerinnen und Wissenschaftler betrachten dafür exemplarisch Fahrassistenzsysteme, die in Fahrzeuge eingebaut werden, um die Sicherheit, den Komfort oder auch die Wirtschaftlichkeit des Fahrens zu verbessern. Ziel ist eine deutliche Einsparung von Energie durch effizientere Algorithmen, Kommunikation und Hardware. Wenn dieses erfolgreich ist, ließe sich das im Projekt entwickelte ganzheitliche Konzept auf viele andere Bereiche übertragen, in denen KI beziehungsweise Deep Learning als Methode des maschinellen Lernens zum Einsatz kommt. Das im Frühjahr gestartete Forschungsvorhaben GreenAutoML4FAS, an dem mehrere Institute der Fakultät für Elektrotechnik und Informatik in Kooperation mit der VISCODA GmbH beteiligt sind, läuft zunächst bis Februar 2026.

Das so genannte „Grüne Fahrassistenz-System“ wird eine Reihe von Entwicklungen beinhalten, die maßgeblich zur Energieeinsparung beitragen. So sollen etwa Algorithmen optimiert werden, indem zum Beispiel anstelle von komplexen Berechnungen einfachere Operationen verwendet werden. Die Herausforderung besteht darin, trotz starker Vereinfachung genügend Informationen beizubehalten. Eine ähnliche Herausforderung existiert in der Datenkomprimierung: Welche Informationen sind zum Beispiel wichtig, damit weiterhin eine Person erkannt werden kann? Die Kommunikation zwischen Komponenten ist deutlich schneller und effizienter, wenn nicht alle Informationen, sondern nur die entscheidenden, verschickt werden. Die Effizienz von Software hängt grundsätzlich aber auch von der genutzten Hardware ab. Alle diese Aspekte können einzeln oder in Kombination verbessert werden. Das Team des Verbundprojekts hat sich zum Ziel gesetzt, durch die Summe der Maßnahmen die Energieeinsparung deutlich zu erhöhen.

Hinweis an die Redaktion:
Für weitere Informationen steht Ihnen Tanja Tornede, Institut für Künstliche Intelligenz, unter Telefon +49 511 762 19749 oder per E-Mail unter t.tornede@ai.uni-hannover.de gern zur Verfügung.

(nach oben)


Fassadenbegrünung“Living Wall“ verbindet Nachverdichtung mit Hochwasserschutz

Sabine Keller Presse- und Öffentlichkeitsarbeit
Deutsche Institute für Textil- und Faserforschung Denkendorf
Durch den Klimawandel steigen die Temperaturen und Unwetter nehmen zu. Vor allem in den Innenstädten werden die Sommer für die Menschen zur Belastung. Durch Nachverdichtung wird zwar bestehende Infrastruktur genutzt und Zersiedelung vermieden, aber es steigt der Anteil an versiegelten Flächen. Das wirkt sich negativ auf Umwelt und Klima aus. Fassadenbegrünungen bringen hier mehr Grün in die Städte. Werden textile Speicherstrukturen eingesetzt, können sie sogar aktiv zum Hochwasserschutz beizutragen. Die Deutschen Institute für Textil- und Faserforschung (DITF) haben eine entsprechende „Living Wall“ entwickelt.

Die Pflanzen auf den grünen Fassaden werden über ein automatisches Bewässerungssystem mit Wasser und Nährstoffen versorgt. Die „Living Walls“ arbeiten weitgehend autonom. Sensorische Garne erfassen den Wasser- und Nährstoffgehalt. Der Aufwand für Pflege und Wartung ist gering.

Über neuartige hydraulische Textilstrukturen wird die Wasserführung geregelt. Das Pflanzsubstrat aus Steinwolle, auf dem die Pflanzen wachsen, verfügt durch seine Struktur über ein großes Volumen auf engem Raum. Je nachdem, wie stark die Niederschläge sind, wird das Regenwasser in einer textilen Struktur gespeichert und später zur Bewässerung der Pflanzen genutzt. Bei Starkregen wird das überschüssige Wasser mit zeitlicher Verzögerung in die Kanalisation eingeleitet. Die an den DITF entwickelten „Living Walls“ helfen auf diese Weise, in nachverdichteten Ballungsräumen die Ressource Wasser effizient zu nutzen.

Im Forschungsprojekt wurde auch die Kühlleistung einer Fassadenbegrünung wissenschaftlich untersucht. Moderne Textiltechnik im Trägermaterial fördert die „Transpiration“ der Pflanzen. Dadurch entsteht Verdunstungskälte und die Temperaturen in der Umgebung sinken.

Zur Arbeit des Denkendorfer Forschungsteams gehörte auch eine Kosten-Nutzen-Rechnung und eine Life-Cycle-Analyse. Auf der Basis der Untersuchungen im Labor und im Außenbereich wurde ein „Grünwert“ definiert, mit dem sich die Wirkung von Gebäudebegrünungen als Ganzes bewerten und vergleichen lassen.

Wissenschaftliche Ansprechpartner:
Weitere Informationen zum Thema: Christoph Riethmüller
Leiter Technologiezentrum Smart Living Textiles und Denkendorfer Zukunftswerkstatt
T +49(0)711 9340-256
E christoph.riethmueller@ditf.de

(nach oben)


Unter- und Überwasserkartierung von Flüssen und Seen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Die präzise Vermessung von Gewässern ist anspruchsvoll. Behörden und Ha-fenbetreiber sind verpflichtet, aktuelle Karten von Flussbetten oder Hafenanlagen bereitzustellen. Die Kartierung erfordert bis dato spezielle Kartierungsschiffe und hohen Personalaufwand. Sie ist kostenintensiv und erfolgt nicht in der Häufigkeit und Präzision, die für künftige Anwendungen, wie den autonomen Schiffverkehr, nötig sein werden. Ein Forscherteam des Fraunhofer IOSB hat deshalb ein handliches, unbemanntes Wasserfahrzeug entwickelt, das Gewässer wie Flüsse, Seen und Häfen über und unter der Wasseroberfläche autonom ver-misst und die zugehörigen 3D-Karten anfertigt.

Gewässerkarten liefern wichtige Informationen – etwa über die Gewässertiefe, die Boden- und Uferbeschaffenheit, die Sohlenstruktur, das Längs- und Querprofil, Angaben zur Böschung, zu anliegenden Flurstücken, zu Hafenanlagen und Brückenbauten, zum Gewässerzustand und vieles mehr. Diese Karten müssen regelmäßig von den zuständigen Behörden erhoben und aktualisiert werden, was mit hohem Kostenaufwand verbunden ist, da die Vermessung der Gewässer aktuell mithilfe von Fachkräften auf Kartierungsschiffen manuell durchgeführt wird. Deutlich günstiger lässt sich die Unter- und Überwasserkartierung mit autonomen Wasserfahrzeugen realisieren. Ein solches System haben Forschende des Fraunhofer IOSB in Karlsruhe im Projekt TAPS (Teilautomatisches Peilsystem für Flüsse und Seen) auf Basis eines kommerziellen USV (unmanned surface vessel) entwickelt. Lediglich mit einem zentralen Arbeitsplatz bzw. einem Leitstand an Land verbunden, kartiert das Messboot alle Arten von Binnengewässern und deren Umgebung, wobei die Vermessung sowohl über als auch unter der Wasseroberfläche stattfindet. Ein küstennaher Einsatz ist ebenso denkbar: Die Kartierung ist in der derzeitigen Ausführung bis zu einer Tiefe von 100 Metern möglich.

Hochpräzise 3D-Modelle von der Über- und Unterwasserszenerie
Ausgestattet mit GPS,- Beschleunigungs- und Drehratensensoren sowie einem Doppler Velocity Log (DVL), einem Sensor, der das Boot befähigt, sich inkrementell am Gewässerboden entlangzutasten, ist das Boot in der Lage, sich autonom fortzubewegen. Für die Orientierung des teilautomatischen Peilsystems werden die Sensordaten fusioniert. Für die Kartierung über Wasser kommen Laserscanner und Kameras in Kombination mit einer am Fraunhofer IOSB entwickelten Kartierungssoftware zum Einsatz – die Geräte rekonstruieren hochpräzise 3D-Modelle der Umgebung. Die Unterwasserkartierung wiederum erfolgt mithilfe eines in die Sensorik integrierten Multibeam-Sonars, das ein komplettes 3D-Modell des Grunds erstellt. »Unser Peilsystem ist insofern teilautomatisch, als der Anwender nur noch den zu kartierenden Bereich vorgeben muss. Die Vermessung selbst erfolgt vollautomatisch, die Datenauswertung erfordert nur wenige Mausklicks. Die für die Kartierung und das autonome Fahren erforderlichen Softwaremodule wurden von uns entwickelt«, erläutert Dr. Janko Petereit, Wissenschaftler am Fraunhofer IOSB.

USV umfährt Hindernisse selbstständig
Zunächst wird der Bereich vorgegeben, der vermessen werden soll. Die Software berechnet darauf basierend die Route. Im nächsten Schritt startet das USV, das 2m x 1,5m x 1m misst und mit 64 Kilogramm ein Leichtgewicht ist. Auf seiner Mission weicht es Hindernissen, die der Laserscanner und das Sonar erfassen, selbstständig aus. Während der Fahrt wird für Navigationszwecke ein schnelles 3D-Modell in Echtzeit erstellt, einschließlich dynamischer Objekte wie fahrender Schiffe. Ein zweites hochpräzises 3D-Modell berechnet die Software nach der Datenauswertung, wobei sowohl die Gewässersohle als auch die über der Wasseroberfläche liegende Szene erfasst wird, bewegliche Objekte aber ausgeblendet werden.

Die Tests mit dem Messboot fanden auf verschiedenen Seen statt. Der einsatzfähige Prototyp wird derzeit von der Fraunhofer-Forschungsgruppe »Smart Ocean Technologies SOT« in Rostock in weiteren Projekten mit dem Schwerpunkt Unter- und Überwasserrobotik genutzt.

Software ermöglicht autonome Navigation auf dem Wasser
Die Anwendungsperspektiven der entwickelten Technologie sind vielfältig. Neben dem autonomen Vermessen von Fahrrinnen und baulichen Strukturen ist etwa auch das autonome Ausheben von Wasserfahrstraßen denkbar. Aber auch, wer nur autonom auf Gewässern navigieren möchte, ohne diese zu kartieren, kann den im Projekt entwickelten Software-Stack nutzen. Deshalb sieht Petereit letztlich Einsatz- bzw. Weiterentwicklungsmöglichkeiten für alle Bereiche des Personen- und Gütertransports auf hoher See und auf Binnengewässern. »Künftig wird der autonome Schiffsverkehr auf deutschen Wasserstraßen massiv zunehmen – bis hin zu neuartigen Logistikketten, die Schiene, Straße und Wasser intelligent kombinieren.«

Autonomer Schiffsverkehr erfordert neben Autonomiealgorithmen aber eben auch sehr präzise Karten, die heute mitunter fehlten, so Petereit: »Die manuellen Vermessungsfahrten finden derzeit nur im Ein- bis Zwei-Jahres-Rhythmus statt und liefern im Vergleich zu unseren umfassenden 3D-Modellen deutlich weniger präzise Ergebnisse, sodass der Zustand der Wasserstraßen nicht optimal erfasst wird. Die Vermessung der Flüsse muss daher künftig in einer wesentlich höheren Frequenz mit einem höheren Detailgrad erfolgen. Unser teilautomatisches Peilsystem bietet hier eine kostengünstige Alternative zu aktuellen Vermessungsmethoden«.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2023/juli-2023/unter-und…

(nach oben)


Grünalge baut Schadstoffe ab – Schon früh im Studium bei internationalem Wettbewerb Praxisluft schnuppern

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Wie lassen sich Pestizid- oder Medikamenten-Rückstände im Wasser abbauen, damit sie nicht in die Umwelt gelangen? Damit befasst sich ein studentisches Team der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) bei einem internationalen Wettbewerb. Dabei kommt den Studierenden das erlernte Wissen in Theorie und Praxis und eine enge Betreuung zugute. Ideale Studienbedingungen bescheinigt der Kaiserslauterer Biologie regelmäßig auch das CHE-Ranking. Neben Bachelor- und Masterstudiengängen bietet die RPTU in Kaiserslautern ein Lehramtsstudium Biologie an. Eine Bewerbung dafür ist bis zum 15. Juli möglich, für die Bachelor- und Masterstudiengänge bis zum 15. September.

Pestizide, Medikamentenrückstände, aber auch Spuren anderer Substanzen landen regelmäßig in unseren Gewässern. So zeigt zum Beispiel der Pestizidatlas 2022 der Heinrich-Böll-Stiftung auf, dass sich in vielen Fließgewässern in Deutschland Pestizide und ähnliche Stoffe nachweisen lassen. Wie aber lässt sich verhindern, dass sich solche Chemikalien in der Umwelt verbreiten können, Ökosystemen schaden und letztlich auch uns Menschen betreffen? Genau damit befasst sich ein studentisches Team der RPTU in Kaiserslautern. Es nimmt beim internationalen Genetically Engineered Machine Wettbewerb, kurz iGEM, teil. Im Fokus steht hier die Synthetische Biologie. Ziel ist es, an einem realen Problem zu forschen und eine Lösung für dieses beim Finale in Paris im November vor einer Jury und rund 300 weiteren Teams aus aller Welt vorzustellen.

„In verschiedenen Studien haben wir gelesen, dass immer mehr bedenkliche Spurenstoffe im Abwasser zu finden sind“, sagt Luca Langenberg vom Kaiserslauterer iGEM-Team. „Sie gelangen nach wie vor in die Umwelt, sind dort noch aktiv und können das Ökosystem schädigen. Auch aktuelle Kläranlagen können hier nicht alles filtern und abbauen.“

Die Studierenden setzen bei ihrem Vorhaben auf die Grünalge Chlamydomonas reinhardtii. Sie fungiert mit ihrem Stoffwechsel gewissermaßen als winzige Fabrik und soll mit Hilfe bestimmter Enzyme verschiedene Schadstoffe abbauen. Das Team möchte dazu Enzyme der Cytochrom P450-Familie nutzen. „Sie kommen in allen lebenden Organismen vor, unter anderem auch in der menschlichen Leber und sind wichtig für die Entgiftung. Über menschliche Cytochrome ist schon viel bekannt, aber über andere noch nicht. Hier gibt es womöglich noch Potential“, fährt Langenberg fort.

Das Team arbeitet derzeit mit drei dieser Enzyme und ist dabei, die entsprechenden Gene ins Erbgut der Grünalge einzubauen. Im nächsten Schritt müssen die Algen die Enzyme produzieren. Klappt das, können die Studierenden untersuchen, ob und inwieweit die Algen die Schadstoffe abbauen können. Langenberg erläutert: „Im Blick haben wir zunächst sogenannte halogenierte Kohlenwasserstoffe, die etwa als Pflanzenschutzmittel oder bei der Schädlingsbekämpfung Verwendung finden.“ Sollte das Verfahren funktionieren, könnten auch noch weitere Enzyme zum Einsatz kommen, die wiederum andere Substanzen abbauen. Allerdings muss das Team auch noch untersuchen, welche Abbauprodukte anfallen und welche Wirkung diese auf die Umwelt haben.

„Unser langfristiges Ziel ist es, die Grünalgen künftig als Reinigungswerkzeug zu nutzen, etwa in einem mobilen Bioreaktor, der Gewässer an Ort und Stelle säubert, ähnlich wie bei der Dialyse bei Nieren“, sagt Langenberg. Aber auch in Kläranlagen könnten sie zum Einsatz kommen, um Aktivkohlefilter beim Reinigen des Wassers zu unterstützen.

Fachlich unterstützt wird das Team von Professor Dr. Michael Schroda (Abteilung Molekulare Biotechnologie und Systembiologie), aber auch andere Arbeitsgruppen des Fachbereichs stehen den Studierenden mit Rat und Tat zur Seite.

Dass die Studierenden bereits früh in ihrem Studium so selbstständig an einem eigenen Forschungsprojekt arbeiten, ist Teil des Angebotskonzepts für praxisnahe Ausbildung und spiegelt den Wert wider, den der Fachbereich Biologie darauflegt, theoretisches Wissen fachwissenschaftlich in der Praxis anzuwenden.

„Der Studienablauf sieht sowohl im fachwissenschaftlichen als auch im Lehramtsstudium praktische Arbeiten in großem Umfang im Labor vor und vermittelt aktuelle Techniken und Methoden, damit Studierende lernen, Forschungsprojekte selbständig durchzuführen und ihr lösungsorientiertes Denken zu schulen“, sagt Dorothea Hemme-Schwöbel, Geschäftsführerin des Fachbereichs Biologie. Nicht nur Forscherinnen und Forscher, sondern auch Lehrkräfte müssen fit sein, um Schülerinnen und Schülern die Biologie und wissenschaftliches Arbeiten nahe bringen zu können.

Auch das Betreuungsverhältnis ist an der RPTU in Kaiserslautern im Vergleich zu den großen Universitäten sehr gut. Die Studierenden arbeiten und lernen in kleinen Gruppen. Es besteht ein direkter, persönlicher Kontakt zu den Dozentinnen und Dozenten.

Über das Studienangebot in der Biologie an der RPTU in Kaiserslautern
Der Bachelorstudiengang Molekulare Biologie (Bachelor of Science) und das Lehramtsstudium Biologie vermitteln wichtiges Basiswissen aus Botanik, Ökologie, Biodiversität, Genetik, Humangenetik, Tier- und Pflanzenphysiologie, Biotechnologie, Mikrobiologie, Neurobiologie, Bioinformatik, Zoologie sowie Zellbiologie, im Lehramtsstudium auch die Fachdidaktik. Darüber hinaus können die Studierenden ihr Grundlagenwissen in frei wählbaren Fachgebieten vertiefen. Zudem sieht der Bachelorstudiengang Molekulare Biologie ein Betriebs- oder Forschungspraktikum, das Lehramtsstudium Schulpraktika vor, um sich früh beruflich zu orientieren.

Die idealen Studienbedingungen bescheinigt dem Fach Biologie an der RPTU regelmäßig auch das CHE-Ranking. So zeigen sich die Studierenden etwa sehr zufrieden mit der Unterstützung am Studienanfang, dem Lehrangebot und den Laborpraktika, aber auch mit der Vermittlung fachwissenschaftlicher, methodischer und fachübergreifender Kompetenzen. Und auch mit der allgemeinen Studiensituation kann das Fach punkten.

Am Ende des Bachelorstudiums – egal ob fachwissenschaftlich oder Lehramt – steht die Bachelorarbeit an, bei der die Studierenden an einem eigenen Projekt im Labor arbeiten.

Das Lehramtsstudium ist für alle Schularten ausgelegt. Eine endgültige Entscheidung zur Schulform erfolgt erst nach dem vierten Bachelorsemester. Um sich für den Schuldienst zu qualifizieren, schließt sich für die Studierende der Masterstudiengang für das Lehramt (Master of Education) an.

Die RPTU bietet darüber hinaus den Masterstudiengang Biology (Master of Science) an. Hier können die Studierenden aus den folgenden vier Vertiefungsrichtungen auswählen: die Biotechnologie von Mikroorganismen und Pflanzen, die molekulare und biochemische Zellbiologie, der Aufbau und die Funktionsweise des Nervensystems sowie die Ökologie und Biodiversität niederer Organismen.

Wer sich für den Bachelorstudiengang Molekulare Biologie, den Masterstudiengang Biology oder den Lehramts-Masterstudiengang interessiert, hat noch bis zum 15. September Zeit, sich zu bewerben. Der Bachelorstudiengang für das Lehramt ist zulassungsbeschränkt. Hier ist eine Bewerbung bis zum 15. Juli möglich.

Weitere Informationen gibt es unter: https://bio.rptu.de/studium-lehre/studiengaenge

Fragen beantworten:
Luca Langenberg
iGEM-Team RPTU in Kaiserslautern
E-Mail: igem@bio.uni-kl.de

Dr. Dorothea Hemme-Schwöbel
Geschäftsführerin Fachbereich Biologie
RPTU in Kaiserslautern
Tel.: 0631 205-2602
E-Mail: bio-gf@rptu.de

(nach oben)


Einstein Research Unit Climate and Water under Change: Berliner Starkregen-Gefahrenkarten müssen veröffentlicht werden

Jonas Krumbein Kommunikation und Presse
Berlin University Alliance
Wegen Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit hat das Land Berlin Karten zu starkregengefährdeten Grundstücken bislang nicht allgemein zugänglich veröffentlicht. Nun stellt ein Rechtsgutachten der von der Berlin University Alliance geförderten Einstein Research Unit „Climate and Water under Change (CliWaC)“ klar: Die Berliner Starkregen-Gefahrenkarten müssen für alle sichtbar veröffentlicht werden, um die Bevölkerung wirksam vor Gefahren von Starkregen für Leben, Gesundheit und Besitz zu schützen, wie sie im Klimawandel vermehrt auftreten. Denn Datenschutzbedenken müssen gegenüber Schutz vor Extremwetter im Klimawandel zurückstehen.

Bei der Berliner Senatsverwaltung liegen Starkregengefahrenkarten, die bislang nicht öffentlich sind. Grund sind Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit, die durch eine Veröffentlichung von Grundstücksdaten Rückschlüsse auf die persönlichen Lebensverhältnisse von Menschen befürchtet. Diese Bedenken müssen einem Rechtsgutachten der Einstein Research Unit „Climate and Water under Change“ zufolge allerdings gegenüber dem Interesse der Gesamtbevölkerung am Schutz vor Starkregengefahren im Klimawandel zurückstehen.

„Starkregengefahrenkarten enthalten Informationen, die im Zuge des Klimawandels für eine wirksame private und öffentliche Vorsorge gegenüber Extremwetterereignissen unerlässlich sind. Ihre Veröffentlichung kann Leben und Gesundheit sowie Vermögen von Menschen schützen. Deshalb gebietet das Umweltinformationsgesetz, das die Umweltinformationsrichtlinie der Europäischen Union umsetzt und die aus den Grundrechten fließende Schutzpflicht staatlicher Stellen konkretisiert, dass die Starkregengefahrenkarten veröffentlicht werden müssen“, sagt der Rechtswissenschaftler Prof. Dr. Christian Calliess von der Freien Universität Berlin. Calliess‘ Team hat das Rechtsgutachten im Rahmen der Einstein Research Unit „Climate and Water under Change“ (CliWaC) erstellt. Die Einstein Research Unit „Climate and Water under Change“ widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg.

Dass eine Veröffentlichung von Starkregengefahrenkarten Rückschlüsse auf persönliche Lebensverhältnisse von Menschen zulässt, schließt Prof. Dr. Christian Calliess, ein ausgewiesener Kenner des Umweltrechts, aus: „Grundstücksbezogene Umweltdaten sind nach ihrem Inhalt, ihrem Zweck und ihren Auswirkungen in der Regel nicht mit einer bestimmten Person verknüpft. Sie geben deshalb auch keine Auskunft über die persönlichen Verhältnisse einer Person“, erklärt Calliess. „Selbst wenn im Einzelfall Daten personalisiert und damit offenbart werden könnten, wäre diese vergleichsweise geringe Beeinträchtigung des Datenschutzes kein ausreichender Grund, von einer Veröffentlichung von Gefahrendaten zum Schutz von Leben, Gesundheit und Eigentum bei Extremwetterereignissen und das der Anpassung urbaner Lebensräume an Starkregenereignisse abzusehen.

Die Einstein Research Unit „Climate and Water under Change”
Die Einstein Research Unit „Climate and Water under Change“ (CliWaC) widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg. Dabei wird CliWaC sozial- und naturwissenschaftliches sowie praktisches Fachwissen von Stakeholdern zusammenbringen, um Minderungs- und Anpassungsmaßnahmen gegenüber Auswirkungen des Klimawandels zu entwickeln. Der Fokus von CliWaC liegt auf der Modellregion Berlin-Brandenburg. Dies macht es möglich, unterschiedliche natürliche, gesellschaftliche und politische Verhältnisse in den Blick zu nehmen – vor allem in den Interdependenzen städtischer und ländlicher Räume. Diese gehen wiederum mit unterschiedlichen Bedürfnissen und Handlungsoptionen einher. Die Forschungsthemen von CliWaC umfassen dabei Ökosysteme, Biodiversität und Ökosystemdienstleistungen, Überschwemmungs- und Abwassermanagement sowie Wasserressourcenmanagement. Das Konsortium besteht aus 28 Projektleitern der Berlin University Alliance, die an Freier Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Charité forschen. Zusätzlich beteiligen sich das Leibniz-Zentrum für Agrarlandschaftsforschung und das Institut für ökologische Wirtschaftsforschung mit. Prof. Dr. Britta Tietjen (Freie Universität Berlin), Prof. Dr. Uwe Ulbrich (Freie Universität Berlin) und Prof. Dr. Tobias Sauter (Humboldt-Universität zu Berlin) leiten das CliWac-Projekt. Gefördert wird die Einstein Research Unit “Climate and Water under Change” durch die Berlin University Alliance und die Einstein Stiftung Berlin.

Die Berlin University Alliance
Die Berlin University Alliance ist der Verbund der drei Berliner Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin sowie der Charité – Universitätsmedizin Berlin für die gemeinsame Gestaltung von Wissenschaft in Berlin. Die vier Partnerinnen haben sich zusammengeschlossen, um den Wissenschaftsstandort Berlin zu einem gemeinsamen Forschungsraum weiterzuentwickeln, der zur internationalen Spitze zählt. Im Zentrum der Zusammenarbeit stehen dabei die gemeinsame Erforschung großer gesellschaftlicher Herausforderungen, die Stärkung des Austausches mit der Gesellschaft, die Nachwuchsförderung, Fragen der Qualität und Wertigkeit von Forschung sowie übergreifende Vorhaben in Forschungsinfrastruktur, Lehre, Diversität, Chancengerechtigkeit und Internationalisierung. Die Berlin University Alliance wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und dem Land Berlin im Rahmen der Exzellenzstrategie von Bund und Ländern.

Gemeinsame Pressemitteilung der Freien Universität Berlin, der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und der Charité – Universitätsmedizin Berlin

Weitere Informationen
Zur Einstein Research Unit „Climate and Water under Change”: https://www.cliwac.de/index.html
Zur Berlin University Alliance: https://www.berlin-university-alliance.de/index.html

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Calliess, Freie Universität Berlin, Fachbereich Rechtswissenschaft, Telefon: 030 / 838-51456, E-Mail: europarecht@fu-berlin.de

(nach oben)


Kompetenzzentrum Wasser Berlin unterstützt das WaterMan-Projekt zur Förderung der Wasserwiederverwendung im Ostseeraum

Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion. Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung.

Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion, indem es lokale Behörden und Wasser- und Abwasserunternehmen bei der Entwicklung von Strategien zur Nutzung von aufbereitetem und zurückgehaltenem Wasser unterstützt. Das Projekt wird im Rahmen des Interreg Baltic Sea Region-Programm von 2023 bis 2025 durchgeführt und hat das Ziel, die Wasserwiederverwendung als neues Element der Wasserwirtschaft zu etablieren und eine klimaresiliente Wasserversorgung zu schaffen.

Mit einem Budget von 4,38 Millionen Euro werden Aktivitäten wie die Wiederverwendung von aufbereitetem und zurückgehaltenem Wasser, die Förderung von Akzeptanz bei Interessensgruppen und Nutzern sowie die Entwicklung einer „Ostseeraum-Toolbox zur Wasserwiederverwendung“ finanziert. WaterMan zielt darauf ab, Wasserwiederverwendung in der Region einzuführen, etwa indem eine gemeinschaftliche Lernumgebung für lokale Behörden und Wasser- und Abwasserunternehmen geschaffen wird. Das Projekt wird von 43 Organisationen aus sechs Ländern unterstützt und konzentriert sich auf den südlichen Ostseeraum.

Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung. Das KWB arbeitet eng mit den Projektpartnern zusammen, um eine Anleitung zur Methodik und zu den verfügbaren Instrumenten zu entwickeln, die lokalen Akteuren bei der Erkennung von Wasserbedarf, der Durchführung von Risikobewertungen sowie der Auswahl umweltfreundlicher Technologien helfen sollen. Das Projekt wird schließlich einen umfassenden und konkreten Leitfaden für lokale Behörden und Wasser- sowie Abwasserunternehmen entwickeln, um die Wiederverwendung von Wasser in der Region zu fördern. Mit dem Fachwissen der Mitarbeitenden über Wasserwiederverwendung, dem Austausch von Erfahrungen und der Schulung praktischer Fähigkeiten in Bezug auf Risiko- und Lebenszyklusanalysen leistet das KWB mithilfe des WaterMan-Projekts einen wichtigen Beitrag zur Entlastung der natürlichen Wasserressourcen und zum Aufbau einer klimaresistenten Wasserwirtschaft im Ostseeraum.

Wissenschaftliche Ansprechpartner:
Pia Schumann
Dr. Ulf Miehe

Weitere Informationen:
https://www.kompetenz-wasser.de/de/forschung/projekte/waterman

(nach oben)


FLEXITILITY: Pilotanlage zur landwirtschaftlichen Wasserwiederverwendung geht an den Start

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Bewässerung und Monitoring auf Versuchsfeld bei der Kläranlage Uebigau

Die Wiederverwendung von gereinigtem und hygienisiertem Wasser aus Kläranlagen soll europaweit und auch in Deutschland vorangetrieben werden. Zum 26. Juni 2023 wird dazu die EU-Verordnung 2020/741 in den Mitgliedsländern wirksam. Ziel ist, die Nutzung von Wasser zu intensivieren und den Schutz der Umwelt sowie Gesundheit von Mensch und Tier zu gewährleisten. Im BMBF-Forschungsprojekt FLEXITILIY ist unter Leitung von inter 3 mit der Inbetriebnahme einer Pilotanlage zur Bewässerung jetzt ein wesentlicher Schritt zur Umsetzung der Wasserwiederverwendung getan. Bis Herbst 2024 wird in Südbrandenburg eine landwirtschaftlich genutzte Versuchsfläche bewässert und einem Monitoring unterzogen.

Seit 15. Juni 2023 werden 12 Hektar Ackerland für die Produktion von Tierfutter mit Wasser beregnet, das zuvor in der Brandenburger Kläranlage Uebigau technisch aufwändig gereinigt und mittels einer UV-Anlage hygienisiert wurde. Die UV-Anlage und das Bewässerungssystem wurden am 13. Juni feierlich durch den Bürgermeister von Herzberg (Elster), einen Vertreter des Gemeindeverbunds Liebenwerda sowie durch den Verbandsvorsitzenden des Herzberger Wasser- und Abwasserzweckverbands (HWAZ) eingeweiht. Die Forschungspartner inter 3 Institut für Ressourcenmanagement und Umweltbundesamt (UBA) arbeiten eng mit dem HWAZ, der Stadt Herzberg und der Agrargenossenschaft Gräfendorf e.G.in diesem Teilprojekt von FLEXITILITY zusammen.

Neue Standards für die Wiederverwendung von Abwasser
Während die Wasserwiederverwendung zu Bewässerungszwecken in südlichen EU-Ländern, und zu Versuchszwecken auch in Deutschland, bereits seit Jahrzehnten gelebte Praxis ist, setzt die EU-Verordnung neue Standards, mit denen es bislang noch keine Erfahrungen gibt: „Wir wollen zeigen, wie es gelingen kann, die hohen Mindestanforderungen an die Wasserqualität und die geforderte Überwachung sowie Risikobewertung einzuhalten,“ beschreibt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3, die Aufgabe. „Denn dann eröffnet die Wasserwiederverwendung Landwirten neue Möglichkeiten, ihre Abhängigkeit von lokalen Niederschlägen zu verringern und mit sicher verfügbarem Wasser wirtschaftlich noch interessantere landwirtschaftliche Produkte zu produzieren.“

Die Pilotanlage besteht aus einer UV-Desinfektion, einer Bewässerungs-technik nach landwirtschaftlicher Praxis und der nötigen Druckerhöhung. FLEXITILITY generiert mit dem Pilotversuch die benötigten praktischen Erfahrungswerte hinsichtlich
– der Bewertung der Hygienisierungstechnik für den Anwendungsfall „Bewässerung landwirtschaftlicher Tierfutterprodukte“,
– des Aufbaus eines praktikablen Monitoringsystems, sowie
– der Entwicklung eines praxisorientierten Risikomanagementplans für diesen Anwendungsfall.

FLEXITILITY: Forschung, Praxis und Behörden arbeiten eng zusammen
Das Projekt zeichnet sich durch eine enge Kooperation von Wissenschaft, Behörden, Kommunalverwaltung sowie Wasser-, Land- und Forstwirtschaft aus: inter 3 ist zuständig für den reibungslosen Aufbau und Betrieb der Technik sowie die Konzipierung und Einhaltung des Risikomanagementplans. Das UBA zeichnet verantwortlich für die Entnahme und Untersuchung von Proben aus Bewässerungswasser, Böden und Grundwasser sowie der angebauten Produkte. Es überwacht eine Vielzahl an Hygiene- und Schadstoffparametern. In der Umsetzung des Risikomanagementplans stimmen sich inter 3 und UBA eng mit der Stadt Herzberg, der unteren Wasserbehörde sowie dem HWAZ ab. Während die UV-Desinfektion auf dem Kläranlagengelände des HWAZ stattfindet, ist für den Betrieb der Bewässerungsanlage die Agrargenossenschaft Gräfendorf e.G. als Pächterin der landwirtschaftlichen Versuchsfläche eingebunden. Zusätzlich werden zwei weitere Versuchsflächen mit dem hygienisierten Wasser bewässert: eine Grünfläche auf dem Betriebsgelände der Kläranlage stellvertretend für städtische Grünflächen sowie Teile eines kleinen Waldstücks zur Beförderung eines klimaresilienten Waldumbaus.

Relevanz für eine klimaresiliente Landwirtschaft
Dass die Wasserwiederverwendung ein wichtiger Baustein in der Klimaanpassung werden sollte, verdeutlichen auch in diesem Jahr die sich intensivierenden Trockenphasen: Angesichts des ausbleibenden Regens rechnen Landwirte im südlichen Brandenburg erneut mit teils erheblichen Ernteausfällen. Bereits in den vergangenen Jahren sind einige aufgrund der Trockenheit wirtschaftlich an ihre Grenzen geraten und denken über das Aufgeben ihres Betriebes nach.

Die in FLEXITILITY gewonnenen Daten zur Hygienisierung und Wiederverwendung gereinigten Abwassers können eine wichtige Grundlage für die Konkretisierung von Umsetzungsregeln zur Wasserwiederverwendung in Deutschland bilden und somit über die Region hinaus wirksam werden. Sollten sich bei den Versuchen keine grundlegenden Risiken zeigen, kann über die Bewässerung weiterer Pflanzen wie z.B. Soja nachgedacht werden.

Das FLEXITILITY-Gesamtprojekt
Das Projekt Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur (FLEXITILITY) umfasst neben den Versuchen zur Wasserwiederverwendung auch Ansätze für den flexiblen Betrieb von Trinkwassernetzen. Diese werden durch die Projektpartner Brandenburgische Technische Universi-tät (BTU) Cottbus-Senftenberg, Fachgebiet Stadttechnik, und DVGW-Technologiezentrum Wasser (tzw), unter Beteiligung von inter 3 und der Stadt Herzberg (Elster), durchgeführt. Im Fokus steht dabei der Einsatz von dezentralen Trinkwasserspeichern in Wohngebäuden sowie bei institutionellen Wasserverbrauchern: stellvertretend beim Rathaus Herzberg. Die beiden großen Praxistests zur Trinkwasser-Flexibilisierung sowie zur Wasserwiederverwendung laufen noch bis September 2024.

Finanziert wird FLEXITILITY aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) im Rahmen des Programms „Umsetzung der Leitinitiative Zukunftsstadt“, Projektträger ist das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri
inter 3 Institut für Ressourcenmanagement
mohajeri@inter3.de | +49(0)30 3434 7440

Weitere Informationen:
http://www.inter3.de/forschungsfelder/projekte/details/flexible-utilities-umsetz… Projektbeschreibung
http://www.flexitility.de Projekt-Webseite

Anhang
FLEXITILITY Wasserwiederverwendung_PM_inter3

(nach oben)


Fischsterben in der Oder im August 2022: BfG legt neue Erkenntnisse und Empfehlungen vor

Dominik Rösch Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der heute veröffentlichte Bericht der Bundesanstalt für Gewässerkunde (BfG) gibt einen umfassenden Überblick zu den an der Bundesanstalt durchgeführten Untersuchungen zum Fischsterben in der Oder im August 2022. Darin enthalten sind neue Erkenntnisse, die ein genaueres Bild zur Entstehung der Katastrophe zeichnen sowie Empfehlungen, die dazu beitragen sollen, „ökologische Extremereignisse“ in der Oder und anderen Flüssen zukünftig frühzeitig zu erkennen und dadurch Gegenmaßnahmen einleiten zu können.

Die BfG-Wissenschaftlerinnen und -Wissenschaftler verdeutlichen in dem Bericht, dass die Kombination aus erhöhtem Salzgehalt, hohen Temperaturen, starker Sonneneinstrahlung und langanhaltend niedrigem Abfluss im Sommer 2022 die massenhafte Vermehrung der Brackwassermikroalge Prymnesium parvum in weiten Teilen der Oder ermöglichte. Den BfG-Fachleuten gelang es nicht nur die Alge, sondern auch das von ihr produzierte Algentoxin Prymnesin-B1 im Oderwasser nachzuweisen. Da in den umfassenden Analysen keine weiteren Schadstoffe in fischtoxischen Konzentrationen gefunden wurden, schlussfolgerten die Autoren/-innen, dass die Algentoxine von Prymnesium parvum der Auslöser für das massenhaften Sterben von Fischen und anderen Organismen waren.

Zur Identifizierung und Quantifizierung der Algenart nutzten die Forschenden u. a. molekularbiologische Methoden (PCR-Verfahren und DNA-Metabarcoding). Diese stehen an der BfG nun zusammen mit der Methode zur Bestimmung der Algentoxine zur Verfügung und können auch im Falle erneuter Algenblüten in der Oder sowie anderen Flüssen schnell zum Einsatz kommen und somit zu einer frühzeitigen Risikoabschätzung beitragen.

Dies ist aus Sicht der am Bericht beteiligten Autoren/-innen dringend erforderlich: Basierend auf den hydrologischen Auswertungen der vergangenen Jahre ist auch zukünftig mit vergleichbaren Niedrigwassersituationen an der Oder zu rechnen.

Eine entscheidende Voraussetzung für die Entstehung der Algenblüte war der erhöhte Salzgehalt in der Oder. Im Vergleich zu Analysen von Wasserproben aus anderen Flussgebieten Deutschlands konnte durch die BfG-Analysen nachgewiesen werden, dass die Konzentrationen des ansonsten nur sehr selten bestimmbaren Elementes Rhenium (Re) im Oderwasser außergewöhnlich erhöht waren. Dies ist ein deutlicher Hinweis auf eine maßgebliche Einleitung salzhaltiger Abwässer aus dem polnischen Bergbau. Hierfür sprechen auch die enormen Salzmengen von im Durchschnitt 4.000 Tonnen Kochsalz, die zusätzlich je Tag in dem Zeitraum der Algenblüte eingebracht wurden. Diese Menge entspricht in etwa dem Inhalt von 200 Güterwaggons Salz je Tag.

Wie lässt sich ein erneutes Fischsterben verhindern?

Ausgehend von der erarbeiteten wissenschaftlichen Basis leiteten die BfG-Fachleute in dem Bericht disziplinübergreifend Empfehlungen ab. Diese sind auch auf andere Flüsse übertragbar, um anderenorts vergleichbare Katastrophen zu verhindern. Die BfG-Fachleute empfehlen:

1. Eine Ausweitung des Algen-Monitorings, inklusive der Algentoxine, und verbesserte Onlinebereitstellung der Daten. Hierzu stehen sichere molekularbiologische Methoden als „Schnelltests“ für die frühzeitige Erkennung von Prymnesium parvum bereit.

2. Eine Vermeidung begünstigender Faktoren für Algenblüten, insb. durch ein an die klimatischen Bedingungen angepasstes Management von Stoffeinleitungen sowie die Reduzierung von Nährstoffeinträgen.

3. Die Kontrolle und Eindämmung schädlicher Algenblüten sowie die Schaffung von Rückzugshabitaten für die natürliche Flussfauna.

4. Ein konzertiertes Vorgehen von Landes- und Bundesbehörden bei zukünftigen Krisenfällen nach dem Vorbild der Ursachenaufklärung des Fischsterbens in der Oder 2022.

Wie dringend die Empfehlungen der BfG umgesetzt werden sollten, zeigen die aktuellen Entwicklungen: In den Seitenkanälen der Oder sind nach Angaben des polnischen Umweltministeriums in den vergangenen Tagen bereits hunderte Kilogramm an Fischen verendet – ein deutliches Warnsignal. „Angesichts der aktuell steigenden Temperaturen, fallender Wasserstände und dem unverändert erhöhten Salzgehalt der Oder halte ich es für sehr gut möglich, dass es auch in diesem Sommer zu einem erneuten großflächigen Fischsterben in der Oder kommt“, sagt Dr. Jan Wiederhold. Der Geoökologe koordinierte die Entstehung des BfG-Berichts zum Fischsterben in der Oder.

Die BfG beteiligte sich schon früh an der Suche nach den möglichen Ursachen des Fischsterbens und führte 2022 eine Vielzahl von Analysen durch. Nach Anfragen des Landeslabors Berlin-Brandenburg und des Landesamtes für Umwelt Brandenburg sowie in Abstimmung mit dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz leistete die BfG Amtshilfe in verschiedenen Bereichen. Einige der damals erarbeiteten Ergebnisse gingen in Kurzform in den am 30.09.2022 vorgestellten Statusbericht der „Nationalen Expert*innengruppe zum Fischsterben in der Oder“ ein.

Wissenschaftliche Ansprechpartner:
Dr. Jan Wiederhold, wiederhold@bafg.de

Originalpublikation:
https://doi.bafg.de/BfG/2023/BfG-2143.pdf

Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/220930_Statusbericht_Oder-Fischsterben.htm…

(nach oben)


Gut ein Viertel der Beschäftigten hat Zweifel, die aktuelle Berufstätigkeit bis zum Rentenalter durchhalten zu können

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Studie des WSI

Mehr als ein Viertel der Beschäftigten in Deutschland hat Zweifel, die aktuelle Berufstätigkeit ohne Einschränkungen bis zum Rentenalter durchhalten zu können: Gut 20 Prozent glauben, das eher nicht zu schaffen.

Weitere knapp 7 Prozent sind sogar überzeugt, auf keinen Fall durchhalten zu können. Noch deutlich höher sind die Quoten unter Arbeiter*innen (38 Prozent) und bei Menschen, die ihre Arbeitssituation generell als stark belastend oder äußerst belastend einstufen: In diesen Gruppen glauben rund 43 bzw. 59 Prozent, ihre jetzige Tätigkeit eher nicht oder auf keinen Fall ohne Einschränkung bis zum gesetzlichen Rentenalter ausüben zu können, während die Anteile bei geringerer Belastung unterdurchschnittlich sind (siehe auch die Abbildungen 1 bis 3 in der pdf-Version dieser PM; Link unten). Unter den Beschäftigten berichtet gut jede*r Fünfte von stark oder äußerst belastenden Arbeitsbedingungen. Zu diesen Ergebnissen kommt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung.*

Die Untersuchung der WSI-Forscher Dr. Florian Blank und Dr. Wolfram Brehmer stützt sich auf eine repräsentative Befragung unter knapp 5000 abhängig Beschäftigten und eine weitere Umfrage unter gut 3600 Betriebs- und Personalräten.

Die befragten Betriebs- und Personalräte sehen die Durchhalte-Chancen der Beschäftigten in ihren Betrieben häufig noch skeptischer. Die Beschäftigtenvertreter*innen sind aber auch der Überzeugung, dass Unternehmen etliche Mitarbeiter*innen länger im Job halten könnten, wenn sie sich verstärkt um alternsgerechte Arbeitsbedingungen bemühen würden: Knapp 42 Prozent der Betriebs- und Personalräte sind überzeugt, dass das für alle oder viele betroffene Beschäftigte möglich wäre, die sonst nicht bis zum Rentenalter durchhalten können, weitere 42 Prozent halten das zumindest bei einigen oder wenigen Kolleg*innen für realistisch. Bislang tun die Arbeitgeber nach Einschätzung der Betriebs- und Personalräte aber längst nicht genug: 40 Prozent bewerten die bisherigen betrieblichen Bemühungen um bessere Arbeitsbedingungen für Ältere auf einer Skala entsprechend den Schulnoten mit 5 oder 6. Knapp 28 Prozent geben lediglich eine 4 (siehe Abbildung 4 in der pdf-Version).

Die Ergebnisse machten deutlich „dass Forderungen nach einer weiteren Anhebung des Rentenalters offensichtlich an der Realität vieler Beschäftigter vorbeigehen“, schreiben die Studienautoren Florian Blank und Wolfram Brehmer. „Solche Maßnahmen würden den zweiten Schritt vor dem ersten machen“ und Ungleichheiten auf dem Arbeitsmarkt verschärfen – oft zuungunsten von ohnehin bei ihrer Arbeit stark belasteten Personen, warnen sie. Als ersten notwendigen Schritt sehen die beiden Wissenschaftler vielmehr‚ „`Gute Arbeit´ für alle Beschäftigten zu ermöglichen“. Wenn Unternehmen mehr dafür täten, ältere Beschäftigte durch bessere Arbeitsbedingungen im Job zu halten, habe das einen dreifachen Vorteil: Es helfe dabei, die Finanzlage der Sozialversicherungen zu verbessern. Es wirke arbeitsmarktpolitisch positiv, weil Arbeitskräfteengpässe entschärft würden. Und vor allem verbesserten sich Lebenssituation und Gesundheit von Millionen Menschen.


Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Kohlrausch
Wissenschaftliche Direktorin WSI
Tel.: 0211-7778-186
E-Mail: Bettina-Kohlrausch@boeckler.de

Dr. Wolfram Brehmer
WSI-Experte für Empirische Strukturanalysen
Tel.: 0211-7778-340
E-Mail: Wolfram-Brehmer@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Florian Blank, Wolfram Brehmer: Durchhalten bis zur Rente? Einschätzungen von Beschäftigten, Betriebs- und Personalräten. WSI Report Nr. 85, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008645

Die PM mit Abbildungen (pdf): https://www.boeckler.de/pdf/pm_wsi_2023_06_27.pdf

(nach oben)


Neue europäische Blutdruckleitlinie setzt 140/90 mmHg als „rote Linie“

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ergänzung vom 27.06.2023
Die neue Bluthochdruckleitlinie der „European Society of Hypertension“ wurde aktuell publiziert [1] und überrascht durch einen pragmatischen Ansatz im Hinblick auf die Zielwerte: 140/90 mmHg ist die „rote Linie“, die Werte jedes/r Betroffenen sollten also darunter liegen. Wer es verträgt, sollte noch tiefer eingestellt werden, wer nicht, muss es aber nicht. Der Vorstandsvorsitzende der Deutschen Hochdruckliga rät insbesondere im letzteren Fall dazu, die nicht-medikamentösen Maßnahmen zur Blutdrucksenkung auszureizen. Jeder kann selbst etwas tun! Neben zahlreichen Empfehlungen wurden in die Leitlinie zwei neue aufgenommen: eine kaliumreiche Kost und Antistresstraining.

Bluthochdruck ist eine der häufigsten Erkrankungen überhaupt. Die Rate der Betroffenen beträgt derzeit in Deutschland 31,8 Prozent. Das bedeutet: Nahezu jede/r Dritte hat zu hohe Blutdruckwerte – und die sollten nicht auf die leichte Schulter genommen werden/können schwere Gesundheitsschäden/-probleme verursachen. Unbehandelt führt Bluthochdruck zu Folgeschäden an den Organen, den Gefäßen, dem Herz oder den Nieren. Zu hohe Blutdruckwerte können sogar ein Treiber für Demenz sein. Bluthochdruck ist also nicht nur sehr häufig, sondern auch sehr gefährlich.

Daher ist es äußerst wichtig, hohen Blutdruck frühzeitig zu erkennen und zu behandeln. Doch auf welchen Zielwert hin? Bisher war die Beantwortung dieser Frage komplex, es galten verschiedene Werte für verschiedene Patientengruppen. Die neue europäische Blutdruckleitlinie gibt hier nun einen pragmatischen Anhaltspunkt: 140/90 mmHg ist gut, aber Werte weiter darunter wären noch besser (der Blutdruck sollte allerdings nicht unter 120/80 mmHg abgesenkt werden). Die neue Leitlinie zementiert also 140/90 mmHg als „rote Linie“ bei erwachsenen Menschen. Ab diesem Wert muss zwingend eine medikamentöse Blutdrucksenkung erfolgen und mit Hilfe der Blutdrucksenker sollte jede Patientin/jeder Patient diesen Wert unterschreiten.

„Wenn Betroffene Blutdruckwerte unter 140/90 mmHg erreichen, ist ihr Risiko für eine Folgeerkrankung bereits deutlich gesenkt, allerdings haben verschiedene Studien gezeigt, dass das Risiko für Herz-Kreislauf-Erkrankungen bei einer weiteren Absenkung dann noch etwas geringer ist“, erklärt Prof. Markus van der Giet, Vorstandsvorsitzender der Deutschen Hochdruckliga. Warum wurden dann nicht die Zielwerte in der neuen Leitlinie kurzerhand gesenkt? „Die neue ESH-Leitlinie spiegelt hier die Behandlungsrealität wider. Denn für eine tiefere Senkung sind oft höhere Dosen oder mehr Medikamente nötig, die wiederum zu Nebenwirkungen führen können. Diese führen dann dazu, dass die Patientinnen und Patienten die Medikamente oft gar nicht mehr einnehmen – und damit ist am Ende niemandem geholfen. Daher begrüßen wir dieses pragmatische Konzept, jeden auf Werte unter 140/90 mmHg einzustellen – und die, die es vertragen, auch etwas darunter.“

Wer die blutdrucksenkenden Medikamente schlecht toleriert und diese daher nicht für eine weitere Blutdruckabsenkung höher dosiert werden können, sollte versuchen, durch begleitende Lebensstilmaßnahmen eine weitere Absenkung zu erreichen, rät der Experte. „Gewichtsabnahme, gesunde Ernährung, ausreichend Bewegung und Stressreduktion führen zu nennenswerten Effekten bei der Blutdrucksenkung, die sich auch addieren“, motiviert Prof. van der Giet. „Wir raten natürlich allen Betroffenen zu diesen Maßnahmen, besonders aber jenen, bei denen die medikamentöse Therapie nicht wie gewünscht anschlägt bzw. nicht nach Bedarf hochdosiert werden kann.“ Grundsätzlich sollte aber keiner Sorge vor der medikamentösen Therapie haben: Nebenwirkungen treten verhältnismäßig selten auf und es gibt viele verschiedene blutdrucksenkende Medikamente, so dass für die meisten Betroffenen eine Behandlungsoption gefunden werden kann.

Die neue europäische Leitlinie empfiehlt auch zwei neue Maßnahmen für einen blutdruckgesunden Lebensstil: Zum einen werden erstmals Antistresstrainings wie Yoga und autogenes Training empfohlen, zum anderen gibt sie einen neuen, konkreten Ernährungstipp. In der Leitlinie wird zu einer salzarmen, aber kaliumreichen Kost geraten, da Kalium eine blutdrucksenkende Wirkung hat. Es ist in Obst und Gemüse enthalten, die neue Leitlinie rät daher, 4-5 Portionen davon am Tag zu essen. „Das ist im Alltag leicht umzusetzen und hat auch jenseits des Blutdrucks positive Effekte auf den Körper“, sagt Prof. van der Giet. Für das Antistresstraining empfiehlt der Experte, Kontakt zur Krankenkasse aufzunehmen – fast alle haben umfassende Kursangebote und die Kosten werden oft zu einem großen Teil von den Versicherungen getragen. „Werden nicht-medikamentöse Maßnahmen und die Einnahme von Blutdrucksenkern kombiniert, sind für die meisten Betroffenen Werte unter 140/90 mmHg – und auch deutlich darunter – gut zu erreichen“, so lautet das Fazit des Experten.

Umfassende Informationen zu Bluthochdruck finden Sie auf der Webseite der Deutschen Hochdruckliga: www.hochdruckliga.de
peziell mit der Bluthochdrucktherapie (medikamentös wie nicht medikamentös) beschäftigen sich zwei Folgen des Podcast „HyperTon“ der Deutschen Hochdruckliga https://www.hochdruckliga.de/betroffene/hyperton-podcast-blutdruck ):
Folge 1: Blutdruck natürlich senken
Folge 3: Keine Angst vor Medikamenten

[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Kontakt für Medienschaffende/Pressestelle der Deutschen Hochdruckliga
Dr. Bettina Albers
Jakobstraße 38
99423 Weimar
albers@albersconcept.de
Telefon: 03643/776423 // Mobil: 0174/2165629

Originalpublikation:
DOI: 10.1097/HJH.0000000000003480

Weitere Informationen:
http://www.hochdruckliga.de

Ergänzung vom 27.06.2023
Leider sind die Zielwerte in dieser Meldung fehlerhaft. Eine medikamentöse Therapie sollte immer bei Werten von über 140/90 mm Hg initiiert werden. Gesenkt werden sollte der Blutdruck aber zunächst bei allen Patientinnen und Patienten auf Werte unter 140/80 mm Hg. Bei erwachsenen Menschen unter 65 Jahren sowie bei älteren, die es tolerieren, soll dann weiter auf Werte unter 130/80 mm Hg abgesenkt werden.

(nach oben)


Wie belastet ist die Elbe? Helmholtz-Forschende verfolgen den Weg von Umweltchemikalien, Mikroplastik und Nährstoffen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Deutschlands Fließgewässer sind durch Einträge von außen etwa aus Industrie, Landwirtschaft oder Kläranlagen belastet. Doch diese Belastung verändert sich im Flussverlauf. Forscher:innen mehrerer Helmholtz-Zentren wollen nun in einer gemeinsamen Messkampagne genauer analysieren, wie Umweltchemikalien, Nano- und Mikroplastikpartikel sowie Nährstoffe in welcher Konzentration und Größe in die Elbe und dann ins Meer gelangen und wie sie auf dem Weg dahin abgebaut und verändert werden. Die diesjährige Elbe-Fahrt im Rahmen der Forschungsinitiative MOSES beginnt Ende Juni in Tschechien und endet Mitte September in der Deutschen Bucht.

Auf 1.094 Kilometer zieht sich die Elbe von ihrer Quelle im tschechischen Riesengebirge bis zu ihrer Mündung bei Cuxhaven durch Tschechien und Deutschland. Sie fließt dabei durch Großstädte wie Dresden und Magdeburg, bekommt Zulauf durch teils stark belastete Flüsse wie Saale, Havel und Mulde sowie unzählige kleinere Fließgewässer, nimmt Einleiter von Kläranlagen auf und passiert Ackerflächen und Wiesen. Damit landet vieles, was im Einzugsgebiet des Flusses in die Umwelt gebracht wird, irgendwann in irgendeiner Form in der Elbe. Das sind beispielsweise Umweltchemikalien, Nano- und Mikroplastikpartikel und Nährstoffe. „Ziel ist, die stofflichen Einträge und deren Konzentrationen von der Quelle der Elbe bis in die Deutsche Bucht zu messen. Wir wollen so ein Modell entwickeln, das die Verteilung und Verdünnung der Schadstoffe im Fluss berücksichtigt, um daraus Rückschlüsse zu ziehen, welchen Prozessen die Schadstoffe unterliegen“, sagt Dr. Ute Weber. Sie leitet am UFZ die Forschungsinitiative MOSES, bei der neun Helmholtz-Forschungszentren die Folgen hydro-meteorologischer Extremereignisse auf Erde und Umwelt analysieren.

Besonders ist an der diesjährigen Elbe-Kampagne, dass neben dem UFZ als koordinierende Forschungseinrichtung drei weitere Helmholtz-Zentren beteiligt sind, die auf einzelnen Flussabschnitten und Küstenbereichen der Nordsee mit ihren Forschungsschiffen unterwegs sind: Das Helmholtz-Zentrum Hereon, das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar und Meeresforschung (AWI). Diese Kooperation wurde erstmals bei der MOSES-Generalprobe „Elbe 2020“ getestet. „Wir haben damals die Zusammenarbeit der aufeinander abgestimmten Sensor- und Messsysteme sowie die Logistik und Organisation von Schmilka bis in die Deutsche Bucht erfolgreich geprobt“, sagt Ute Weber. Die Einsatzlogistik habe man in den folgenden Kampagnen stets verfeinert, sodass sie nun immer wieder für neue Forschungsziele genutzt werden könne.

Neu in diesem Jahr ist, dass die Schadstoffe erstmals im gesamten Gradienten von der Quelle der Elbe bis in die Mündung in Nordsee untersucht werden. Vom 27. bis 29. Juni übernimmt auf tschechischer Seite das Institute of Hydrobiology der Akademie der Wissenschaften der Tschechischen Republik die Beprobung auf dem rund 370 Kilometer langen Abschnitt von der Quelle bis zur tschechisch-deutschen Grenze. Weil die Elbe auf tschechischer Seite gestaut ist, ist dort allerdings anders als in Deutschland kein Forschungsschiff unterwegs. Die Wasser- und Sedimentproben werden deswegen von Brücken oder an Staustufen entnommen. Von der Grenze bis zur Staustufe Geesthacht kommen dann in den ersten beiden Juliwochen das UFZ-Forschungsschiff „Albis“ zum Einsatz, anschließend das Hereon-Forschungsschiff „Ludwig Prandtl“ von Geesthacht bis nach Cuxhaven (Ende August). Den Küstenbereich der Nordsee übernehmen Anfang September neben der „Ludwig Prandtl“ das GEOMAR Forschungsschiff „Littorina“ und das AWI-Forschungsschiff „Uthörn II“.

Inhalte des Messprogramms „Elbe 2023“
Die Untersuchungen zu den Umweltchemikalien verantwortet der UFZ-Umweltchemiker Prof. Dr. Werner Brack. „Wir wollen eine Palette von unterschiedlichen organischen Chemikalien, die im Wasser gelöst oder an Schwebstoffen gebunden sind, flussabwärts von Tschechien bis in die Deutsche Bucht erfassen und analysieren“, sagt er. Dazu zählen mehr als 600 Stoffe, darunter pharmazeutische Reststoffe, hormonell wirksame Substanzen, Konservierungsstoffe, Polyfluoralkylsubstanzen (PFAS), Pestizide, Industriechemikalien und Tenside. Sie werden abgebaut, umgewandelt, durch Einträge aus verschiedenen Quellen überlagert oder ihre Konzentrationen verdünnt. „Ziel ist, die Einträge etwa aus Landwirtschaft, Kläranlagen, Industrie und Siedlungsbereichen in die Elbe und damit die Belastung des Flusses genauer zu ermitteln“, sagt Werner Brack. Um diesen sogenannten chemischen Fußabdruck zu bestimmen, nehmen Forscher:innen Wasserproben – sowohl in Tschechien vom Ufer der Elbe als auch in Deutschland an 22 Stellen in der Elbe sowie von Land aus an sechs Zuflüssen und acht Kläranlagen. Zudem setzen die Forschenden auf die Non-Target-Analyse, mit der sich unbekannte Verbindungen in Wasserproben anhand der Molekülmasse identifizieren lassen. „Unser Anspruch ist, chemische Mischungen als typische Belastungsmuster zu bestimmen, die sich eindeutigen Quellen wie etwa Landwirtschaft, Industriebetrieben, Straßenverkehr oder Siedlungen zuordnen lassen“, sagt Brack. Bislang sei man diesem Forschungsansatz vor allem in Laborversuchen nachgegangen, doch das Messprogramm in der Elbe biete viel realistischere Bedingungen.

Die UFZ-Umweltchemikerin Prof. Dr. Annika Jahnke koordiniert ein Team von Forscher:innen, für die der Transport und die Verteilung von Nano- und Mikroplastik und mit diesen in Verbindung stehenden Chemikalien wie beispielsweise Weichmachern oder UV-Stabilisatoren im Mittelpunkt stehen. „Die Hauptquellen für das häufige Vorkommen von Plastik in den Meeren liegen an Land, und Flüsse spielen dabei eine wichtige Rolle in der Verteilung. Wir vermuten, dass durch die Elbe viele Nano- und Mikroplastikpartikel in die Nordsee transportiert werden, und wollen deswegen untersuchen, wie sich die Partikel und damit in Verbindung stehende Chemikalien verteilen, von der Quelle bis in die Nordsee“, sagt sie. Beispielhaft für die Elbe wolle man quantifizieren, wie viel Plastik auf diesem Weg ins Meer gelangt. Neben der Partikelanalytik hat ihr Team für das Mess- und Analyseprogramm rund 150 Stoffe ausgesucht. „Diese langlebigen Stoffe sind für Menschen, Organismen und die Umwelt potenziell toxisch, da sie beispielsweise im Verdacht stehen, auf das Hormonsystem einzuwirken, und dazu neigen, sich in Lebewesen anzureichern“, sagt Annika Jahnke. Sie lässt im Verlauf der Elbe und der Deutschen Bucht rund 30 Sediment- und zahlreiche Wasserproben nehmen, die in den Helmholtz-Forschungslaboren untersucht werden sollen.

Als dritter thematischer Schwerpunkt interessieren sich die Forscher:innen für Nährstoffe. Ein vom UFZ-Fließgewässerökologen Dr. Norbert Kamjunke koordiniertes Team will die Konzentrationen von Nährstoffen wie beispielsweise Nitrat, Phosphat oder Silizium sowie von organischen Verbindungen wie etwa Kohlenhydraten und Huminstoffen messen und die Nährstoffaufnahme durch Algen ermitteln, die im Flussverlauf starken Schwankungen unterliegt: Erst wachsen die Algen in der Binnenelbe in Massen heran, nehmen Nährstoffe auf, in dessen Folge die Konzentrationen von Nitrat und Phosphat im Wasser sinken. Die Algen produzieren durch Photosynthese viel Sauerstoff, der pH-Wert steigt. „Im Ästuar unterhalb des Hamburger Hafens sinkt die Fließgeschwindigkeit, die Algen sedimentieren und Abbauprozesse führen zu einem Sauerstoffminimum. Gelöste Nährstoffe werden wieder freigesetzt und in die Nordsee transportiert, wo sie potenziell wieder zu Algenwachstum führen können“, erläutert Norbert Kamjunke, der für das UFZ die Elbefahrt auf der „Albis“ leitet und die gesamte Kampagne koordiniert. Ziel der Messungen ist, durch insgesamt 70 Wasser- und Sedimentproben den Export der Nährstoffe vom Land in die Elbe und in die Küstengewässer zu quantifizieren. „Wir wollen so einen Gradienten für die Nährstoffverteilung von der Quelle bis ins Meer beschreiben“, sagt der UFZ-Forscher. Mit ersten vorläufigen Ergebnissen für die drei Schwerpunkte ist frühestens zum Jahresende zu rechnen.

MOSES steht für „Modular Observation Solutions for Earth Systems”. In dieser vom UFZ koordinierten Initiative haben neun Forschungszentren der Helmholtz-Gemeinschaft zwischen 2017 und 2021 gemeinsam mobile und modular einsatzfähige Beobachtungssysteme aufgebaut. Sie können so die Auswirkungen zeitlich und räumlich begrenzter dynamischer Ereignisse wie zum Beispiel extreme Niederschlags- und Abflussereignisse oder Dürreperioden auf die langfristige Entwicklung von Erd- und Umweltsystemen untersuchen. Seit 2022 ist MOSES im regulären Betrieb.

Aktuelle Informationen zu MOSES:
MOSES-Website: www.moses-helmholtz.de

Wissenschaftliche Ansprechpartner:
Wir bitten um Verständnis, dass im Fall dieser Messkampagne die entsprechenden Fachansprechpartner über die jeweiligen Pressestellen vermittelt werden. Bitte wenden Sie sich
1. an die UFZ-Pressestelle (presse@ufz.de): bei Fragen zur gesamten Kampagne / zur Befahrung der Elbe von der tschechischen Grenze bis zur Staustufe in Geesthacht
2. an die Hereon-Pressestelle (presse@hereon.de): Bei Fragen zur Befahrung der Tide-Elbe vom Wehr Geesthacht in die Deutsche Bucht
3. an die AWI-Pressestelle (medien@awi.de) oder die GEOMAR-Pressestelle (media@geomar.demedia@geomar.de) bei Fragen zu den Messungen in der Deutschen Bucht

Weitere Informationen:
http://www.moses-helmholtz.de

(nach oben)


Cyberagentur gibt Startschuss für zweite Forschungsphase zur Cybersicherheit von KRITIS

Michael Lindner Presse
Agentur für Innovation in der Cybersicherheit GmbH
Hochambitionierte Konzepte setzen sich durch

Drei Forschungsverbunde im Projekt „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ haben sich nach einer mehrstufigen Evaluation durchgesetzt.

Seit Anfang Dezember 2022 haben die sechs Teilnehmer des Forschungswettbewerbs in der ersten Phase ihre Forschungskonzepte zum Thema „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ (HSK) ausgearbeitet und konkretisiert. Am 1. Juni 2023 mussten die Konzepte nach vorheriger Vorstellung in individuellen halbtägigen Workshops sowie einwöchiger Überarbeitungsphase final eingereicht werden. Die Jury hat nun die finalen drei Wettbewerbsteilnehmer für die zweite Phase ermittelt. Der Projektleiter, Dr. Gerald Walther, betont in diesem Zusammenhang, dass „wir insgesamt sechs sehr gute Einreichungen am Ende der ersten Phase erhalten haben. Die Jury hat sich sehr genau mit den Konzepten auseinandergesetzt und sich letztlich für die drei Forschungsgruppen mit den innovativsten Ansätzen entschieden.“

Die Hauptauftragnehmer sind die Asvin GmbH, die Otto-von-Guericke-Universität Magdeburg und die Universität Hamburg. Alle drei haben hervorragende Konzepte mit jeweils eigenständigen, hochambitionierten Forschungsschwerpunkten eingereicht:

1) MANTRA, das Projekt der Asvin GmbH, schafft ein sicheres und resilientes Framework zum Echtzeit-Austausch von Cyber-Angriffsmustern und deren Risiko-Management. Der neuartige auf Graphen-Modellen basierende Ansatz bietet erhebliche Vorteile im Cybersicherheitsmanagement, insbesondere bei der Automatisierung und Priorisierung von Maßnahmen, bei der Risikominimierung und während der aktiven Abwehr von Cyberangriffen.

2) ATTRIBUT, das Projekt der Universität Magdeburg, will die Fähigkeit zur Aufklärung bzw. Attribution von Schadcodeangriffen erforschen, welche auf die Nutzung von verdeckter Kommunikation bzw. auf steganographischen Kanälen aufbauen und verdeckte Infiltration in gesicherte Netzwerke, das Verstecken von Command & Control-Kommunikation oder die verdeckte Exfiltration von Daten durch Schutzsysteme zum Ziel haben. Dabei werden sowohl die klassisch verdeckte Ende-zu-Ende-Kommunikation (Steganographie) als auch die moderneren Methoden von sogenannter Stego-Malware betrachtet.

3) SOVEREIGN, das Projekt der Universität Hamburg, wird eine resiliente, KI- und Zero-Trust-basierte Cyber-Defense-Plattform entwickeln und wird damit einen wichtigen Beitrag zur Erhöhung der Cybersicherheit kritischer Infrastrukturen leisten. Konzipiert als modularer Baukasten bringt die Plattform passive und aktive Sensorik sowie Aktuatorik tief in kritische Infrastrukturen ein, um Sicherheitslücken sowie komplexe Cyber-Angriffe frühzeitig zu erkennen, einzuschätzen, zu behandeln und abwehren zu können. Die Plattform wird mittels KI automatisiert Angriffe vorhersagen, erkennen, bewerten und darauf aufbauend das Risiko für Unternehmensprozesse und Assets dynamisch abschätzen.

„Alle drei Forschungsgruppen setzen nun ihre Projektkonzepte um“, erläutert Dr. Gerald Walther. „Dafür haben sie in der Phase 2 ein Jahr Zeit und am Ende wird wiederum die Umsetzung evaluiert. Dann werden zwei Teilnehmer ausgewählt, die in die Phase 3 vorrücken.“
Auch für diese Evaluation steht erneut die Fachjury aus Mitgliedern der Cyberagentur und Vertretern der gesamtgesellschaftlichen Sicherheitsvorsorge bereit. Ihr gehören Prof. Dr. Christian Hummert, Forschungsdirektor der Cyberagentur, Prof. Dr. Tobias Eggendorfer, Abteilungsleiter Sichere Systeme, Dr. André Müller, Forschungsreferent Sichere Systeme, und Dr. Gerald Walther, Leiter Schutz kritische Infrastruktur, und als externe Mitglieder Dr. Harald Niggemann, Cyber Security Strategist beim Bundesamt für Sicherheit in der Informationstechnik sowie Oberstleutnant Christoph Kühn, Dezernatsleiter im Cyber Security Operations Centre der Bundeswehr, an.

Kontakt
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de

Hintergrund:

Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.
Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.

Wissenschaftliche Ansprechpartner:
Dr. Gerald Walther

Originalpublikation:
https://www.cyberagentur.de/startschuss-fuer-zweite-forschungsphase-zur-cybersic…

Weitere Informationen:
https://www.cyberagentur.de/30-millionen-fuer-forschung-zum-schutz-kritischer-sy…
https://www.cyberagentur.de/strongcyberagentur-vergibt-millionenauftrage-zur-cyb…
https://www.cyberagentur.de/professionelle-unterstuetzung-der-cyberagentur-im-au…

(nach oben)


Mangel und Überfluss. Zur Verteilung von Knappheit im 21. Jahrhundert

Helena Rose Pressestelle
Kulturwissenschaftliches Institut Essen (KWI)
Podiumsdiskussion im Rahmen des Jahresthemas „Mehr oder Weniger“

Donnerstag, 13. Juli 2023, 18.00 Uhr
Kulturwissenschaftliches Institut Essen (KWI), Gartensaal & Online (via Zoom)
Goethestraße 31, 45128 Essen

Dass mehr und mehr Menschen im ökologischen Haushalt der Erde über ihre Verhältnisse leben, ist nicht erst seit gestern bekannt. Bereits 1972 wies der Club of Rome medienwirksam auf die Grenzen eines Wachstums hin, das auf nicht-erneuerbaren Energiequellen beruht und darüber hinaus kaum absehbare Folgeschäden nach sich zieht: Umweltverschmutzung, Artensterben und Klimakrise.

Immer öfter werden Stimmen laut, die für eine Selbstbeschränkung menschlicher Bedürfnisse im Dienste des planetaren Gleichgewichtes plädieren. Doch was macht die Aussicht auf Mangel mit modernen Massengesellschaften, in denen sich mit dem Versprechen von wachsendem Wohlstand lange Zeit selbst tiefe soziale Risse kitten ließen? An Vorschlägen, wie die Verteilung der Knappheit zukünftig organisiert werden soll, herrscht kein Mangel. Das Wort von der Rationierung knapper Ressourcen macht nicht nur in akademischen Kreisen die Runde, sondern ist auch aus dem Munde politischer Entscheidungsträger wieder zu vernehmen.

Doch verabschiedet man mit der Abkehr vom Überfluss nicht auch das moderne Projekt individueller Autonomie, das dem Menschen umso höhere Freiheitsgrade zusicherte, je entschlossener er die Fesseln der Natur abstreifte? Verbirgt sich im Gewand der Nachhaltigkeit eine Form der Kasteiung, die anderen Beschränkungen auferlegt, um sich selbst moralisch zu überhöhen? Ebenso fraglich ist, wie den Ländern des globalen Südens die Außerbetriebnahme einer Wachstumslokomotive zu vermitteln wäre, deren Ankunft sich weite Teile der Bevölkerung sehnlichst erhoffen. Dieser herausfordernden Gemengelage geht eine Podiumsdiskussion am KWI aus historischer, ökonomischer und politischer Perspektive auf den Grund.

DISKUTANT*INNEN
ANNA ECHTERHÖLTER ist Professorin für Geschichte der Neuzeit und Wissenschaftsgeschichte an der Universität Wien.
RALF FÜCKS ist Gründer und geschäftsführender Gesellschafter des Berliner Thinktanks Zentrum Liberale Moderne.
LISA HERZOG ist Professorin am Centre for Philosophy, Politics and Economics der Universität Groningen.
MATTHIAS SCHMELZER ist Soziologe an der Friedrich-Schiller-Universität Jena.

MODERATION
Danilo Scholz, KWI

TEILNAHME
Die Teilnahme ist kostenlos und ohne Anmeldung möglich in Präsenz im KWI oder via Zoom unter dem auf dieser Seite aufgeführten Link: https://www.kulturwissenschaften.de/en/veranstaltung/mangel-und-ueberfluss/

VERANSTALTER
Eine Veranstaltung des Kulturwissenschaftlichen Instituts Essen (KWI) im Rahmen des Jahresthemas „Mehr oder Weniger“

Über das Kulturwissenschaftliche Institut Essen (KWI):
Das Kulturwissenschaftliche Institut Essen (KWI) ist ein interdisziplinäres Forschungskolleg für Geistes- und Kulturwissenschaften in der Tradition internationaler Institutes for Advanced Study. Als interuniversitäres Kolleg der Ruhr-Universität Bochum, der Technischen Universität Dortmund und der Universität Duisburg-Essen arbeitet das Institut mit den Wissenschaftlerinnen und Wissenschaftlern seiner Trägerhochschulen und mit weiteren Partnern in NRW und im In- und Ausland zusammen. Innerhalb des Ruhrgebiets bietet das KWI einen Ort, an dem die Erträge ambitionierter kulturwissenschaftlicher Forschung auch mit Interessierten aus der Stadt und der Region geteilt und diskutiert werden. Derzeit stehen folgende Forschungsschwerpunkte im Mittelpunkt: Kulturwissenschaftliche Wissenschaftsforschung, Kultur- und Literatursoziologie, Wissenschaftskommunikation, Visual Literacy sowie ein „Lehr-Labor“. Fortgesetzt werden außerdem die Projekte im Forschungsbereich Kommunikationskultur sowie Einzelprojekte.
www.kulturwissenschaften.de

Anhang
Flyer zum Jahresthema „Mehr oder Weniger“

(nach oben)


Auf dem Weg zum Europäischen Gesundheitsdatenraum

Sophie Haderer Geschäftsstelle TMF e.V.
TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF)
Nationale Initiativen für Gesundheitsdateninfrastrukturen aus Deutschland, der Schweiz und den Niederlanden im Austausch

Berlin, 27.06.2023. Expertinnen und Experten dreier nationaler Initiativen kamen am 26. und 27. Juni bei einem Workshop in Berlin zusammen, um über Vorgehen, Hürden und Chancen beim Aufbau von Infrastrukturen für die Nutzung von Gesundheitsdaten für die Forschung zu diskutieren. Vertreten waren die deutsche Medizininformatik-Initiative (MII), gefördert vom Bundesministerium für Bildung und Forschung, die Schweizer Initiative SPHN (Swiss Personalized Health Network) sowie Health-RI (Health-Research Infrastructure) aus den Niederlanden. Bei einer Abendveranstaltung mit Teilnahme der EU-Kommission wurde über Herausforderungen und Perspektiven eines gemeinsamen Europäischen Gesundheitsdatenraums (EHDS) diskutiert. Eingeladen hatte die TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V., die gemeinsam mit dem Medizinischen Fakultätentag und dem Verband der Universitätsklinika die MII-Koordinationsstelle betreibt.

Die Einführung des EHDS bietet große Chancen für Versorgung und Forschung. Ein innereuropäischer Datenaustausch würde den Grundstein für eine Verbesserung der Gesundheitsversorgung legen und eine Nachnutzung von Gesundheitsdaten für die Forschung ermöglichen. Um den Anforderungen an eine digitale Gesundheits- und Forschungslandschaft erfolgreich zu begegnen, ist die Entwicklung einer gemeinsamen Gesundheitsdatenarchitektur beziehungsweise einer Digitalstrategie notwendig. Im Zuge des EHDS ist es wichtiger denn je, dass Versorgung und Forschung stärker miteinander verzahnt werden. Die MII, SPHN und Health-RI haben in Deutschland, der Schweiz und den Niederlanden jeweils die Basis für eine dezentrale Infrastruktur und damit relevante Vorarbeiten für den EHDS geschaffen, stehen aber noch vielen Herausforderungen gegenüber.

Bei der öffentlichen Abendveranstaltung des Workshops sprach Licínio Kustra Mano, Berater für den EHDS bei der EU-Kommission, DG SANTE, über den Zeitplan für den EHDS-Rechtsrahmen. So könne das Gesetz zum EHDS voraussichtlich im nächsten Jahr verabschiedet werden. Außerdem stellte er die Verantwortlichkeiten für Datenhalter, die erwarteten Vorteile aus Nutzersicht sowie Maßnahmen zur Datenqualität dar.

Vertreterinnen und Vertreter von MII, SPHN und Health-RI erörterten in verschiedenen Workshop-Sessions den aktuellen Stand des Infrastrukturaufbaus in den drei Ländern und gingen auf Gemeinsamkeiten und Unterschiede ein. Dabei wurden die Themen Einwilligungserklärung (Consent), Interoperabilität, Datenaustausch (Data Sharing), rechtliche Rahmenbedingungen, Finanzierung und Nachhaltigkeit adressiert.

Voraussetzungen für einen nachhaltigen Betrieb einer Dateninfrastruktur seien eine gute Governance-Struktur, robuste Finanzierung sowie eine gesetzliche Grundlage und verantwortliche Trägerstelle, sagte Dr. Thomas Geiger, SPHN-Geschäftsführer.

Dr. Katrin Crameri, Direktorin Personalisierte Gesundheitsinformatik beim SIB Schweizerischen Institut für Bioinformatik und Direktorin SPHN Datenkoordinationszentrum, stellte die Schweizer Initiative vor und erläuterte, wie die Schweiz auch als Nicht-EU-Staat zum EHDS beitragen könne. SPHN verfolgt einen dezentralisierten Ansatz und investiert in Datenqualität und Interoperabilität überall dort, wo Gesundheitsdaten aufgenommen oder produziert werden. Ziel ist, diese verantwortungsvoll und effizient für die Sekundärnutzung zur Verfügung zu stellen.

Dr. Jan-Willem Boiten, Senior-Projektleiter Architektur bei Health-RI, gab einen Überblick über das Vorhaben der Niederlande. Health-RI werde von 2022 bis 2028 mit 69 Millionen Euro gefördert. Die Zusammenarbeit mit den europäischen Partnern sei sehr wichtig für den weiteren Aufbau der Infrastruktur.

Sebastian C. Semler, TMF-Geschäftsführer und Leiter der MII-Koordinationsstelle, betonte die Notwendigkeit eines „Identifier“ für die Verknüpfung von Daten innerhalb der föderiert-dezentralisierten Dateninfrastruktur. Deutschland, die Schweiz und die Niederlande befänden sich auf einem ähnlichen Weg zum EHDS II zum „Secondary Use“ von Gesundheitsdaten für Forschung und Innovation. Dies sei sehr ermutigend für die kommenden Herausforderungen und böte Chancen in einer intensivierten Zusammenarbeit.

Pressekontakt:
Sophie Haderer, Tel.: 030 − 22 00 24 732, Mobil: 0173 4054214, E-Mail: presse@medizininformatik-initiative.de

Hintergrund:

Medizininformatik-Initiative:
Ziel der Medizininformatik-Initiative (MII) ist es, Routinedaten aus der Patientenversorgung bundesweit digital zu vernetzen und für die medizinische Forschung verfügbar zu machen, um Krankheiten zukünftig schneller und effektiver behandeln zu können. Daran arbeiten alle Einrichtungen der Universitätsmedizin Deutschlands gemeinsam mit weiteren Forschungseinrichtungen, Unternehmen, Krankenkassen und Patientenvertretungen in den vier Konsortien
DIFUTURE, HiGHmed, MIRACUM und SMITH. Datenschutz und Datensicherheit haben hierbei höchste Priorität. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die MII bis einschließlich 2026 mit insgesamt über 400 Millionen Euro.

SPHN:
Das Swiss Personalized Health Network ist eine nationale Initiative unter der Federführung der Schweizerischen Akademie für Medizinische Wissenschaften (SAMW). In Zusammenarbeit mit dem SIB Schweizerisches Institut für Bioinformatik tragen sie zur Entwicklung, Implementierung und Validierung von koordinierten Dateninfrastrukturen bei, um gesundheitsrelevante Daten für die Forschung nutzbar zu machen. Um Gesundheitsdaten interoperabel und der Forschung zugänglich zu machen, vereint das SPHN sämtliche Entscheidungsträger der wichtigsten Institutionen aus Klinik, Forschung und Forschungsförderung.

Health-RI:
Health-RI ist die nationale niederländische Initiative zur Förderung einer integrierten Infrastruktur für Gesundheitsdaten, die für Forschende, Bürgerinnen und Bürger, Leistungserbringende und die Industrie zugänglich ist. Sie wird die optimale Nutzung von Gesundheitsdaten, Proben und Bildern sowie ein lernendes Gesundheitssystem ermöglichen und die personalisierte Gesundheit beschleunigen.

Weitere Informationen:
http://www.medizininformatik-initiative.de
http://www.sphn.ch
http://www.health-ri.nl

(nach oben)


Netz von Messstationen dokumentiert Unterschiede bei Wetter und Klima im Stadtgebiet von Freiburg

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Daten der Universität Freiburg für alle Stadtteile sind jetzt über eine App in Echtzeit abrufbar
• Ein Schwerpunkt des Messnetzes liegt auf der Hitzebelastung der Freiburger Bevölkerung und Unterschieden innerhalb des Stadtgebiets. Die Stadt Freiburg unterstützt das Projekt und will die Messergebnisse auch selbst nutzen
• Die Daten bilden die Grundlage für mehrere Forschungsprojekte an der Universität Freiburg zu Klimaforschung und Anpassungsmöglichkeiten von Städten. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle“, sagt Umweltmeteorologe Prof. Dr. Andreas Christen

Im Freiburger Stadtteil Zähringen tobt ein Gewitter, im Rieselfeld hingegen fällt kaum ein Tropfen Regen. In Littenweiler kühlt ein angenehmer Höllentäler den heißen Sommerabend, im Industriegebiet Nord ist von dem Wind nichts zu spüren. „Innerhalb einer Stadt wie Freiburg gibt es große Unterschiede bei Wetter und Klima – diese werden bisher aber kaum erfasst und auch in Modellen etwa zu Extremereignissen wie Hitzestress oder Überflutungen wenig berücksichtigt“, sagt Prof. Dr. Andreas Christen, Professor für Umweltmeteorologie an der Universität Freiburg. Das soll nun ein Netz von gut 40 Messstationen im Freiburger Stadtgebiet und der näheren Umgebung ändern. Die gemessenen Daten an den einzelnen Stationen können von der Öffentlichkeit über die App „uniWeather“ abgerufen werden. Entwickelt hat sie der Student Gregor Feigel als Projektarbeit. Sie ist im App Store kostenlos verfügbar (nur für iOS).

Messstationen lassen sich in der App auswählen
Alle derzeit 42 Stationen messen Lufttemperatur, Feuchte und Niederschlag. Sie übermitteln die Daten alle fünf Minuten per Mobilfunknetz. An 13 der Stationen wird zusätzlich unter anderem Luftdruck, Wind, Sonneneinstrahlung und Strahlungstemperatur erfasst. Mithilfe dieser zusätzlichen Messgrößen kann an den jeweiligen Stationen ebenfalls die so genannte thermische Belastung errechnet werden, also der Hitze- oder Kältestress, dem Menschen dort ausgesetzt sind. „Unser Messnetz hat einen besonderen Schwerpunkt auf Hitze in der Stadt. Das ist in dieser Form einzigartig“, sagt Christen.

In der App lassen sich sowohl die Messstationen in verschiedenen Stadtteilen einzeln auswählen als auch Messgrößen wie etwa Niederschlag oder PET (Physiologisch äquivalente Temperatur), also die Wärmebelastung anzeigen – inklusive einer Grafik für die vergangenen 24 Stunden. Karten zeigen in einer Übersicht über das Stadtgebiet Unterschiede bei den jeweiligen Werten. Die aktuelle Temperatur einer ausgewählten Messstation lässt sich zusätzlich auf dem Sperrbildschirm des Handys ablesen.

Stadt stellt Masten und Strom zur Verfügung
Beim Aufbau des Messnetzes haben Christen und sein Team eng mit der Stadt Freiburg zusammengearbeitet, die unter anderem Laternenmasten zur Befestigung sowie den Strom zum Betrieb der Stationen zur Verfügung stellt. Die Stadtverwaltung kann die Daten der Universität zukünftig auch selbst nutzen, um noch zielgenauer extreme Wetterereignisse zu registrieren. Und klimatische Unterschiede innerhalb der Stadt könnten in längerfristige städtebauliche Planungen mit einbezogen werden. Weiter ist geplant, dass die Stadt die Daten in Echtzeit und historisiert über ihre Datenportale allen Interessierten kostenlos verfügbar macht.

Daten für die Forschung
Entstanden ist das Messnetz an der Universität Freiburg im Rahmen des 2020 gestarteten EU-Projekts „urbisphere“. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle an mehreren europäischen Universitäten und für Wetterdienste“, sagt Christen, der das Projekt leitet. Die Forschenden nutzen die Daten des Messnetzes, um neue Modelle zu entwickeln, die Klimaveränderungen und Wettervorhersagen kleinräumig auflösen: „Wir brechen die Entwicklungen herunter auf die Eben von Stadtteilen – wie betreffen zum Beispiel Wärmeinseln an heißen Tagen Weingarten und wie Littenweiler?“ Das „urbisphere“-Projekt ist an mehreren europäischen Universitäten angesiedelt und untersucht weltweit Modellstädte. Es läuft noch bis 2027 und wird durch einen Synergy Grant des European Research Council (ERC) der EU mit insgesamt zwölf Millionen Euro gefördert.

Künstliche Intelligenz errechnet Modelle
Auch das gemeinsame Projekt „I4C – Intelligence for Cities“ der Universität Freiburg und mehrerer Freiburger Fraunhofer-Institute nutzt die Daten des Messnetzes. Es erforscht mithilfe von Künstlicher Intelligenz (KI), welche Stadtteile besonders Hitze, Hochwasser und Stürmen ausgesetzt sind und wie wir darauf reagieren können. Betrachtungen zu Ethik und Datenschutz beim Umgang mit Künstlicher Intelligenz sind ebenfalls Thema. Das Projekt wird geleitet von dem Informatiker Prof. Dr. Thomas Brox, Professor für Mustererkennung und Bildverarbeitung an der Universität Freiburg, und vom Bundesumweltministerium als „KI Leuchtturm“ gefördert.

Die Freiburger App „uniWeather“ für iOS gibt es kostenlos im App Store unter https://apps.apple.com/de/app/uniweather/id6443663033

Kontakt:
Hochschul- und Wissenschaftskommunikation
Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/netz-von-messstationen-dokumentier…

(nach oben)


Biozide im Fassadenputz: überraschende Forschungsergebnisse

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Als vor einiger Zeit in Schweizer Gewässern bestimmte Substanzen festgestellt wurden, war die Überraschung groß. Es handelte sich um Biozide, die in der Landwirtschaft nicht mehr eingesetzt werden dürfen. Woher konnten sie kommen? Und wie wirken sie sich aus? Ein Forschungsprojekt der Hochschule Coburg liefert neue Erkenntnisse über Biozide in Baustoffen. Kommende Woche werden sie in Augsburg auf einer Fachtagung präsentiert.

Etwa ein Viertel der hergestellten Biozide wird im Bausektor verwendet. In Putz und Fassadenfarben verhindern sie, dass zum Beispiel Algen und Bakterien als grün-braune Biofilme an der Hauswand wuchern. Das ist nicht nur ein optisches Problem; Pilze beispielsweise können die Fassade tatsächlich beschädigen. Dagegen wirken Chemikalien in Baustoffen langfristig. Regen wäscht sie im Lauf der Zeit aus – und sie landen in Boden und Gewässern. Aus dieser Erkenntnis entwickelte sich ein Forschungskonsortium, an dem die Hochschule Coburg im Rahmen des Projekts BayÖkotox unter Leitung von Prof. Dr. Stefan Kalkhof arbeitet.

Wie Biozide auf Wasserlebewesen wirken, bezeichnen Forschende als „aquatische Toxizität“. Sie ist bereits gut untersucht. Aber zu den Effekten auf die Mikroorganismen im Boden, der so genannten „terrestrischen Toxizität“, gibt es bisher kaum Daten. „Vor zwei Jahren haben wir dazu einen großen Freilandversuch auf dem Parkplatz in der Sonneberger Straße aufgebaut“, erzählt Fabienne Reiß. Sie kommt aus den nahegelegenen Haßbergen, hat in Coburg bereits ihren Bachelor und Master in Bioanalytik absolviert und promoviert im Projekt BayÖkotox bei Prof. Dr. Matthias Noll. Ihre Kollegin Nadine Kiefer kommt aus der Nähe des baden-württembergischen Reutlingen, ist Chemikerin und promoviert bei Prof. Dr. Stefan Kalkhof. Die Bioanalytikerin und die Chemikerin ergänzen sich, sind dankbar für die Möglichkeit, sich miteinander wissenschaftlich auszutauschen – und menschlich aufzubauen, wenn mal was nicht läuft. „Eine Promotion hat Höhen und Tiefen“, sagt Reiß. Kiefer berichtet: „Die Betreuung durch die Profs ist an einer Hochschule sehr eng, das ist super. Und die Tandem-Promotion ist wirklich cool.“

Viel Regen – viele Proben
Sobald es anfing zu regnen, wusste das Tandem: Es steht Arbeit an. Schon wieder. „Wir haben den Freilandversuch 2021 gemacht. Dieses Jahr war sehr, sehr … “ Reiß schaut gespielt-gequält, dann lacht sie ironisch: „feuchtfröhlich! Wir sind fast in Baustoff-Eluaten ertrunken, wussten nicht mehr, wo wir sie lagern können, geschweige denn, wie wir sie analysieren, so lange alles noch stabil ist.“ Die Eluate, eine Flüssigkeit, die für weitere Tests aufbereitet und verdünnt ist, gewann Kiefer aus dem Regenwasser, das von der Test-Fassade lief und in speziellen Behältern aufgefangen wurde. Die Test-Fassade bestand aus L-Steinen aus Beton, die mit verschiedenen Prüfmustern verputzt worden waren: mal nur im Unterputz mit Bioziden, mal auch in Oberputz und Fassadenfarbe. Außer im Freilandversuch wurde das Auswaschungsverhalten auch in einer „Bewitterungskammer“ im Labor ermittelt. Insgesamt 350 Proben haben die Wissenschaftlerinnen analysiert.

Chemikerin Kiefer bestimmte die Menge und Art der Biozide, die im Boden gelandet ist und verschiedene Abbauprodukte. Dann ging es darum, wie sie sich auf das Mikrobiom, die Gemeinschaft der Lebewesen im Boden, auswirken. Dafür wurde untersucht, wie so genannte Standardorganismen reagieren: Algen, Leuchtbakterien, Sedimentwürmer zum Beispiel. Bioanalytikerin Reiß entwickelte eine Methode, um die Mikroorganismen zu markieren. „Wir geben dem Boden den Stoff Bromdesoxyuridin zu. Er ähnelt einem DNA-Baustein und deshalb verwenden ihn Bakterien und Pilze während der Zellteilung als Baustein für die neu gebildete DNA.“ Auf diese Weise konnte sie nachvollziehen, welche Zellteilung betreiben, aktiv sind, welchen es gut geht. Kiefer nickt: „Ich hatte nicht erwartet, dass die Organismen so sensibel reagieren und wir signifikante Effekte feststellen. So viel kommt aus den Fassaden ja gar nicht raus – und wir hatten den Fassadenablauf verdünnt.“

Regulierung, Baustile und Alternativen
Um für den europäischen Markt zugelassen zu werden, muss bei einem Biozid nachgewiesen werden, dass es nicht besonders schädlich ist. Wie sich durch die Kombination verschiedener Biozide („Co-Toxizität“) die Wirkung möglicherweise verändert, wird mit verschiedenen Modellen simuliert. Kiefer glich die Coburger Ergebnisse mit den Modellierungen ab, die für die Zulassung solcher Stoffe eingesetzt werden. Sie entwickelte ein Setup zur experimentellen Validierung, überprüfte spezifische Einflussparameter, kombinierte Modelle und kam zu einem eindeutigen Schluss: „Aktuelle Abschätzungsverfahren spiegeln die realen Effekte nicht wider. Für eine fundierte Gefährdungsbeurteilung für den terrestrischen Lebensraum braucht es weitere Studien.“
Grundsätzlich liefern Daten aus der ökotoxikologischen Forschung Entscheidungsgrundlagen für die Frage, wo eine stärkere Regulierung im Umgang mit solchen Substanzen nötig ist. „Es gibt biozidfreie Alternativen, rein mineralische Putze zum Beispiel“, sagt Kiefer. Reiß zuckt die Schultern: „So wie früher.“ Problematisch sei auch die derzeitige Bauweise: „Jeder möchte diese eckigen Häuser, clean und gerade im Bezug auf die Biozide ist das der worst case. Man kann sich nicht vorstellen, wie sehr ein Dachüberstand die Auswaschung reduziert!“ Kiefer ergänzt, dass auch begrünte Fassaden nicht nur für die Klimabilanz, sondern auch für die Fassade selbst positiv sind. „Aber solche Alternativen sind teurer und den meisten Verbraucherinnen und Verbrauchern ist gar nicht bewusst, dass biozide Verfahren eingesetzt werden.“

Forschungsstand wird auf Fachtagung in Augsburg präsentiert
Das Projekt BayÖkotox wird vom Bayerischen Staatsministerium für Umwelt und Verbruacherschutz gefördert. Das Landesamt für Umwelt (LfU) sammelt und koordiniert die Daten und Ergebnisse von Forschungsgruppen, die sich in verschiedenen Bereichen damit beschäftigen, wie sich Stoffe auf die Umwelt auswirken. Die beiden Coburger Promotionen werden in Kooperation mit den Universitäten Leipzig und Bayreuth durchgeführt. In einem weiteren Projekt befassen sich Coburger Wissenschaftler:innen ebenfalls mit dem Thema: „OMiBiB“ steht für „Optimierung und Minimierung des Biozideinsatzes in Baustoffen“ und wird vom Bayerischen Staatsministerium für Wissenschaft und Kunst gefördert. Die Erkenntnisse beider Projekte werden bei der Biozid-Fachtagung am Donnerstag, 29., und Freitag, 30. Juni in Augsburg vorgestellt. Die Tagung wurde vom Bayerischen Landesamt für Umwelt und dem Institut für Bioanalytik der Hochschule Coburg organisiert. Unter dem Motto „Biozide in Baumaterialien – von wissenschaftlicher Erkenntnis zu praktischen Handlungsmöglichkeiten“ geben nationale und internationale Expert:innen einen Überblick über die Themenschwerpunkte Einsatz, Freisetzung, Bewertung und Vermeidung von Bioziden in Baukomponenten.

(nach oben)


Das Ostseeklima im Einfluss des Atlantiks: Neue Erkenntnisse über eine „Fernbeziehung“

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Von der Wassertemperatur bis zum regionalen Wasserkreislauf: der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am Leibniz-Institut für Ostseeforschung Warnemünde ist es gelungen, mithilfe von regionalen Klimamodellen und der statistischen Auswertung von Langzeitbeobachtungen, hinter dem Signal des Klimawandels einen starken Einfluss des Atlantiks auf den Ostseeraum zu identifizieren. Sie untersuchten dafür die Auswirkungen der Atlantischen Multidekadischen Variabilität, einer periodischen Schwankung der Oberflächenwassertemperatur des Nordatlantiks, auf die Ostsee. Die Ergebnisse erschienen jetzt in der renommierten Fachzeitschrift npj Climate and Atmospheric Science.

Der Fußabdruck der von Menschen gemachten Erderwärmung ist mittlerweile fast weltweit nachweisbar, auch auf regionaler Ebene. In Nordeuropa ist zum Beispiel die Beeinträchtigung der Kryosphäre – also aller mit Eis bedeckten Gebiete – durch den Klimawandel eindeutig belegt. Dagegen ist der Einfluss auf den Wasserkreislauf weniger offensichtlich. Worauf lassen sich dann die teilweise drastischen Veränderungen, zum Beispiel bei den Niederschlagsmengen im Ostseeraum, zurückführen?

Schwankungen im regionalen Wasserkreislauf lassen sich in der Ostsee aufgrund ihrer eingeschlossenen Lage besonders gut studieren, denn Veränderungen wirken sich hier direkt auf den Salzgehalt aus. Und Salzgehaltsdaten aus der Ostsee existieren seit dem 19. Jahrhundert. Sie können also über einen langen Zeitraum stellvertretend über die Entwicklung von Niederschlag und Verdunstung im Einzugsgebiet Auskunft geben.
Auf dieser Basis zeigte sich, dass der mittlere Salzgehalt der Ostsee durch eine Schwankung mit einer Periode von ungefähr 30 Jahren gekennzeichnet ist. Markus Meier, Leiter der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am IOW lieferte nun zusammen mit einem Autorenteam eine Erklärung für diese multidekadische Variabilität der Salinität des Ostseewassers: Die so genannte Atlantische Multidekadische Variabilität (AMV) und ihre Wechselwirkung mit der Nordatlantischen Oszillation (NAO) beeinflussen den Niederschlag über dem Wassereinzugsgebiet und damit den Flusseintrag in die Ostsee: Je höher die Niederschläge, desto stärker der Flusswassereintrag. Beides führt zu einer direkten Verdünnung des Ostseewassers. Vermischungsprozesse im Eingangsbereich der Ostsee sorgen dafür, dass das hier einströmende Nordseewasser ebenfalls verdünnt wird – ein positiver Feedback-Mechanismus, der die multidekadische Variation des Salzgehaltes zusätzlich verstärkt.

„Mit unseren Ergebnissen können Trends, die durch den Klimawandel verursacht werden, von natürlichen Schwankungen getrennt werden. Wir werden zukünftig in der Lage sein, Veränderungen des Salzgehaltes im Laufe von Jahrzehnten vorherzusagen“, fasst Markus Meier zusammen. „Solche Vorhersagen könnten zum Beispiel einem nachhaltigen Fischerei-Management dienen, denn die meisten Fischarten sind an ein spezifisches Salzgehaltsspektrum angepasst. Veränderung führen zu Stress und Vorhersagen von „stressigen“ Jahren würden ein frühzeitiges Gegensteuern ermöglichen.“

Der Einfluss der AMV beschränkt sich aber nicht nur auf den Salzgehalt. Florian Börgel, ebenfalls Wissenschaftler in der AG „Dynamik regionaler Klimasysteme“ am IOW untersuchte, wie sich die AMV auf die Wassertemperatur der Ostsee auswirkt. Er wandte dabei zum ersten Mal eine statistische Methode auf die Ostsee an, die ursprünglich entwickelt wurde, um Variabilitätsmuster im globalen Ozean zu erkennen. Diese so genannte Low-Frequency-Component Analysis (LFCA) ermöglicht es, aus komplexen Datensätzen Schwankungsmuster auf der Skala mehrerer Jahrzehnte herausfiltern.

„Wir haben die Daten der Meeresoberflächentemperatur der Ostsee in den Jahren 1900 – 2008 der LFCA unterzogen und das Ergebnis mit dem Resultat einer solchen Analyse an Beobachtungsdaten aus dem Nordatlantik über den gleichen Zeitraum verglichen“, erläutert Florian Börgel. Sein Fazit: Auf der Skala von Jahren und Jahrzehnten korrelieren die multidekadischen Schwankungen der Meeresoberflächentemperaturen des Atlantiks sehr gut mit denen des Ostseeraums. Dieses Bild verschlechtert sich aber drastisch, wenn man einzelne Jahreszeiten betrachtet: Nur bei den Wintertemperaturen ist ein beträchtlicher Anteil der Schwankungen auf die AMV zurückzuführen. Sie spielt somit auch für die Eisbedeckung in der Ostsee eine besondere Rolle. Im Gegensatz dazu werden die Sommer- und Frühlingstemperaturen nicht durch den Atlantik beeinflusst.

Wissenschaftliche Ansprechpartner:
Dr. Florian Börgel | Tel.: 0381 – 5197 3498 | florian.boergel@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde

Prof. Dr. Markus Meier | Tel.: 0381 – 5197 110 | markus.meier@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde

Originalpublikation:
Meier, H.E.M., Barghorn, L., Börgel, F., Gröger, M., Naumov, L., Radtke, H.: Multi-decadal climate variability dominated past trends in the water balance of the Baltic Sea watershed. npj Clim Atmos Sci 6, 58 (2023). https://doi.org/10.1038/s41612-023-00380-9

Börgel, F., Gröger, M., Meier, H.E.M., Dutheil, C., Radtke, H., Borchert, L.: The impact of Atlantic Multidecadal Variability on Baltic Sea temperatures limited to winter. npj Clim Atmos Sci 6, 64 (2023). https://doi.org/10.1038/s41612-023-00373-8

(nach oben)


Bergisches Hochwasserschutzsystem 4.0: NRW fördert Hochwasserwarnsystem im Bergischen Land mit 2,8 Mio Euro

Katja Bischof Pressestelle
Bergische Universität Wuppertal
Drohendes Hochwasser entlang von Flüssen früher erkennen und so Leben retten und Schäden vermeiden: Das ist das Ziel eines modernen Hochwasserwarnsystems unter Einsatz Künstlicher Intelligenz, das derzeit auf Initiative der regionalen Wirtschaft im Bergischen Land entwickelt wird.

NRW-Wirtschafts- und Klimaschutzministerin Mona Neubaur übergab in dieser Woche den Förderbewilligungsbescheid über insgesamt 2,8 Millionen Euro zu dem Projekt an Prof. Dr.-Ing. Tobias Meisen vom Lehrstuhl für Technologien und Management der Digitalen Transformation (TMDT) der Bergischen Uni sowie an die weiteren Partner aus dem Projektkonsortium: Heinz Berger Maschinenfabrik, Wupperverband, Bergische Struktur- und Wirtschaftsförderungsgesellschaft, Wuppertaler Stadtwerke und Bergische Industrie- und Handelskammer Wuppertal-Remscheid-Solingen.

Im Rahmen des neuen bergischen Gemeinschaftsprojekts soll eine Künstliche Intelligenz (KI) entwickelt und trainiert werden, die die Vorhersage von Wasserpegeln und Hochwassergefahren für die Region präziser als bisherige Warnsysteme ermöglicht. „Das ‚Hochwasserschutzsystem 4.0‘ erkennt Gefahren präziser als etablierte Warnsysteme und kann somit Alarm schlagen, wenn Gewässer über die Ufer zu treten drohen“, so Dr. Andreas Groß, Geschäftsführer der Berger Gruppe und Initiator des Projekts.

Ministerin Neubaur: „Der Klimawandel wird auch bei uns in Nordrhein-Westfalen immer spürbarer und die Auswirkungen können wie bei der Hochwasserkatastrophe im Sommer 2021 dramatisch sein. Umso wichtiger sind Warnsysteme, die verlässlich und frühzeitig drohende Hochwasserstände erkennen und melden können. Das Projekt ‚Hochwasserschutzsystem 4.0‘ im Bergischen Land zeigt, wie künstliche Intelligenz im Ernstfall dazu beitragen kann, rechtzeitig notwendige Schutzmaßnahmen zu ergreifen und so größere Schäden an Gebäuden und Infrastruktur zu vermeiden. Das schafft langfristige Sicherheit für Unternehmen und stärkt die wichtigen Industriestandorte in unseren Mittelgebirgsregionen.“

Das Warnsystem soll die datengetriebene Vorhersage von regionalen Wasserpegeln und Hochwassergefahren unter Berücksichtigung der aktuellen Wetterlage und sonstiger Umweltfaktoren ermöglichen. Mit digitalen Sensoren werden dafür die Pegelstände an Gewässern, Rückhaltebecken und Kanälen, die Niederschlagsmengen, der Unterwasserdruck, Luftfeuchtigkeit, -druck und -temperatur sowie die Windrichtung und -stärke erfasst. In diesen Daten soll die Künstliche Intelligenz Muster erkennen, die im Zusammenhang mit einem Anstieg der Pegelstände stehen. Damit unterscheidet sich das Projekt von klassischen Vorhersagen auf Basis von Modellen. Informationen zu lokalen Wasserpegeln, Prognosen und Warnungen sollen gefährdeten Unternehmen künftig in Echtzeit über eine Hochwasserschutz-App bereitgestellt werden, die vom Wupperverband entwickelt wird.

Das Vorhaben „Hochwasserschutzsystem 4.0“ ist Teil der Initiative „Flagships powered by KI.NRW“, der Kompetenzplattform des Landes für Künstliche Intelligenz KI.NRW. Bei der Entwicklung der neuen Technologien arbeiten die Projektteilnehmer*innen auch mit dem Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) und weiteren Regionen zusammen. „Das System wird nach einer erfolgreichen Einführung im Bergischen Land allen Regionen in Nordrhein-Westfalen zur Verfügung gestellt“, so Stephan A. Vogelskamp, Geschäftsführer der Bergischen Struktur- und Wirtschaftsförderungsgesellschaft.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Tobias Meisen
Fakultät für Elektrotechnik, Informationstechnik und Medientechnik
Telefon 0202/439 1039
E-Mail meisen@uni-wuppertal.de

(nach oben)


DFKI entwickelt KI-Systeme für die flugzeuggestützte Erfassung von Plastikmüll in den Meeren

Simone Wiegand DFKI Niedersachsen
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI
Flugzeuge, die weltweit Gewässer routinemäßig überfliegen, um Verschmutzungen zu überwachen, könnten künftig nicht nur Öl- und Chemieunfälle auf Hoher See, in Küstengewässern und am Strand aufspüren, sondern auch Kunststoffabfälle, die auf der Wasseroberfläche schwimmen. Im Projekt PlasticObs+ arbeitet ein Konsortium unter der Leitung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) daran, erstmals eine luftgestützte Überwachung größerer, zusammenhängender Meeresgebiete zu entwickeln, die kontinuierlich und nicht wie bisher punktuell Plastik in Gewässern erfasst. Nun liegen erste Ergebnisse vor.

Plastikmüll in Gewässern stellt nach wie vor ein globales, drängendes Umweltproblem dar, da er das Ökosystem Meer und damit eine lebenswichtige Ressource für Menschen und Tiere gefährdet. Rund zehn Millionen Tonnen Plastikmüll landen jährlich in den Weltmeeren. Das entspricht etwa einer Lkw-Ladung pro Minute. Tütenreste, Einwegverpackungen oder Getränkeflaschen sind mittlerweile weltweit zu finden, von der Arktis über die Tiefsee bis zur Nord- und Ostsee.

Müll, der auf der Wasseroberfläche treibt, wurde in der Vergangenheit zwar schon luftgestützt erfasst, aber bisherige Erkenntnisse beruhen im Wesentlichen auf zeitlich und räumlich begrenzten Messungen. Hier setzt das Verbundprojekt PlasticObs+ an. Das langfristige Ziel besteht darin, Überwachungsflugzeuge, die routinemäßig bereits weltweit im Einsatz sind, mit KI-gestützter Sensorik auszustatten und so ein Messsystem zu entwickeln, das die Belastung von Plastikmüll in der Umwelt aus der Luft erfassen kann. Auf diese Weise könnte erstmals eine kontinuierliche und umfassende Bestandsaufnahme umgesetzt werden, die Aufschluss über die Art, Menge und Größe des Abfalls sowie mögliche Verursacherquellen gibt. Das Ergebnis wäre eine wissenschaftliche Basis, um Maßnahmen, Gesetze und Investitionen für die Sammlung, das Recycling und schließlich die Vermeidung von Kunststoffmüll in Gang zu setzen.

Zu den Aufgaben des DFKI, vertreten durch den Forschungsbereich Marine Perception in Oldenburg, gehört die Entwicklung von insgesamt vier KI-Systemen. Die ersten beiden sollen Plastikmüll noch während des Überflugs erkennen und Hotspots näher betrachten. Ein drittes System, das den Müll nach Art, Größe und Menge klassifiziert, kommt später am Boden zum Einsatz. Ein Feedback-System, das menschliche Expertise bei der Betrachtung der Bilder inkludiert, soll schließlich helfen, die ersten Systeme kontinuierlich zu verbessern und deren Vorhersagen zu optimieren.

Testflüge in Norddeutschland
Die Daten für ihre KI-Systeme erhalten die Forschenden des DFKI aus Testflügen in Norddeutschland, die die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth mit ihrem Forschungsflugzeug durchführt. Dabei nimmt ein Sensor unter der Nase des Flugzeugs Übersichtsbilder der Region auf. Darauf muss die KI in Sekundenschnelle Müll-Hotspots erkennen, so dass ein zweiter Sensor, der sich weiter hinten unter dem Rumpf befindet, Detailaufnahmen von diesen macht. Die Herausforderung, sagen die DFKI-Forschenden Mattis Wolf und Dr. Christoph Tholen, bestehe einerseits darin, dass „wir ein großes Gebiet überfliegen und der Übersichtssensor ein niedrig aufgelöstes Bild der Szene aufnimmt, dass andererseits die Auswertung innerhalb von Sekunden aber mit einer hohen Treffsicherheit erfolgen muss“.

Ein erster Test fand im vergangenen Jahr auf der Insel Spiekeroog statt. Das Projekt-Konsortium legte jeweils am Strand und in den Salzwiesen ein Versuchsfeld aus Plastik aus. Diese überflog zunächst eine Drohne in Höhen zwischen 15 und 100 Metern und anschließend das Forschungsflugzeug in Höhen ab 150 bis teilweise 1200 Metern. Das Versuchsfeld bestand aus einer exakten Anordnung verschiedener Plastiksorten wie schwarzen PP-Kaffeedeckeln, PS-weißen und cremefarbenen Lunchboxen sowie LDPE-blauen und transparenten Mülltüten. Das Team fixierte die Behältnisse in unterschiedlich großen Ansammlungen unter Netzen, so dass keine Verwehung stattfinden konnte. Die Kernfrage, die die Forschenden mit der Kampagne beantworten wollten, lautete: Aus welchen Höhen können die Sensoren an der Drohne bzw. dem Flugzeug Plastikmüll sicher erkennen? Die bisherigen Ergebnisse werten Projektleiter Wolf und sein Kollege Tholen positiv, denn „sie zeigten, dass Plastik in den von uns angepeilten Höhen mit zufriedenstellender Genauigkeit erkannt werden kann“.

Es zeigte sich, dass die Farbe und die Größe der Gegenstände sowie der Untergrund eine wichtige Rolle spielten. So konnten auf Gras alle Plastiksorten mit hoher Genauigkeit erkannt werden, mit Ausnahme der schwarzen PP-Kaffeedeckel aus mehr als 700 Metern. Auf Sand nimmt die Genauigkeit bei allen Plastiksorten bei 750 Metern ab, besonders stark betroffen waren hier LDPE-transparent und erneut PP-schwarz.

Heutige OCEANS Konferenz
Diese und weitere Ergebnisse haben die DFKI-Forschenden in einem Paper festgehalten, das sie in diesen Tagen auf der OCEANS Konferenz 2023 in Limerick, Irland, präsentieren. Carolin Leluschko, die an der wissenschaftlichen Publikation ebenfalls mitgewirkt hat, sagt: „Um herauszufinden, wie die KI performt, sind die Bilder aus dem Flugzeug von jeweils fünf Personen unabhängig voneinander untersucht und beschriftet worden, ob sie Plastik enthalten oder nicht.“ Die Genauigkeit der KI betrug 93,3 %, während die Genauigkeit der von Menschen gekennzeichneten Bilder 92,6 % betrug.

Auch wenn das Konsortium bis zum Ende der Laufzeit des Projektes im Frühjahr 2025 noch viel Arbeit vor sich hat, belegen die Zahlen, dass die luftgestützte Fernerkundung in Kombination mit KI-Methoden funktioniert und ein wichtiges Instrument zur Bewältigung des globalen Plastikmüllproblems sein kann. PlasticObs+ steht im Einklang mit politischen Initiativen wie der EU-Meeresstrategie-Rahmenrichtlinie und den UN-Nachhaltigkeitszielen, die darauf abzielen, Verschmutzungen der Meere zu verringern und die Ozeane zu schützen. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) mit 1,9 Millionen Euro über drei Jahre gefördert und ist Teil der BMUV-Förderinitiative KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen.

Neben dem DFKI sind in PlastiObs+ drei weitere Partner beteiligt. Die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth setzt ihr speziell für Forschungszwecke konzipiertes Flugzeug ein, das als Messplattform für die Aufnahme von Luftbildern dient. Die Optimare Systems GmbH aus Bremerhaven, deren Kerngeschäft in der Entwicklung und Fertigung von Sensorsystemen und Missionsausrüstungen für die flugzeuggestützte Meeresüberwachung besteht, bringt ein Verfahren ein, welches basierend auf Multisensordaten hochauflösende Detailbilder erzeugt. Darüber hinaus kümmert sich Optimare um die Technik und deren Installation auf einem Flugzeug. Die everwave GmbH, die weltweit Plastikmüll in Gewässern und an Küsten mittels innovativer Müllsammelboote und stationärer Flussplattformen einsammelt, sortiert und recycelt, informiert die Öffentlichkeit und sensibilisiert sie für einen nachhaltigeren Umgang mit Plastik zum Schutz der Ozeane.

Einsatz in Brasilien
Einer der nächsten Schritte im Projekt PlasticObs+ besteht darin, weitere Daten zu sammeln. Dazu hob das Forschungsflugzeug der Jade Hochschule kürzlich erneut von Wilhelmshaven ab und überflog ein Gebiet in Norddeutschland, in dem zuvor Festivals stattgefunden hatten. Weitere Feldtests fanden bei Friedeburg im niedersächsischen Landkreis Wittmund statt, wo die Forschenden, ähnlich wie zuvor auf Spiekeroog, einen künstlichen Müllteppich auf zwei Seen ausgelegt hatten. „Diese Daten nutzen wir zum Trainieren unserer KI-Modelle, die wir anschließend an der deutschen Küste mit dem Forschungsflugzeug testen werden“, erläutert Wolf, der im Projekt u.a. dafür zuständig ist, rechenintensive und langsame tiefe neuronale Netze effizienter zu machen, so dass die KI-Systeme während des Überflugs in Sekundenschnelle zuverlässig Müll-Hotspots finden und erfassen. In einem letzten Schritt sollen die Systeme schließlich in Überwachungsflugzeugen für Ölverschmutzungen eingebaut und getestet werden, voraussichtlich in Brasilien.

DFKI Communications:
Simone Wiegand
Telefon: +49 441 99833 66 12
simone.wiegand@dfki.de
communications-ni@dfki.de

Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer

Wissenschaftliche Ansprechpartner:
DFKI:
Mattis Wolf
Tel.: +49 441 99833 4714
Mattis.Wolf@dfki.de

Dr. Christoph Tholen
Tel.: +49 99833 4721
Christoph.Tholen@dfki.de

everwave GmbH:
Inga Hilbig
Tel.: +49 172 4628695
hilbig@everwave.de

Optimare Systems GmbH:
Dr. Tobias Binkele
Tel.: +49 471 48361–42
tobias.binkele@optimare.de

Jade Hochschule:
Tobias Schmid
Tel.: +49 176 922 560 47
tobias.schmid@jade-hs.de

Prof. Dr.-Ing. Jens Wellhausen
Tel.: +49 4421 985 2961
jens.wellhausen@jade-hs.de

Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer

(nach oben)


Wie wirkt das Deutschlandticket?

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
ARD-Mitmachaktion #besserBahnfahren startet mit Beteiligung von Forschenden der Universität Konstanz und der Hochschule Karlsruhe in die zweite Phase

Welche Erfahrungen haben die Menschen mit Bus und Bahn? Seit dem 1. Mai 2023 läuft die ARD-Mitmachaktion #besserBahnfahren, bei der Teilnehmende ihre Erfahrungen mit dem öffentlichen Nahverkehr mitteilen können. Bislang sind über 2.800 Erfahrungsberichte unter DasErste.de/besserBahnfahren eingegangen. In der nun gestarteten zweiten Phase des Projekts hakt das Wissenschaftsteam von der Hochschule Karlsruhe (Die HKA) und der Universität Konstanz genauer nach.
Wie weit haben es die Fahrgäste zur nächsten Haltestelle? Verfügen sie über ein Auto? Wofür nutzen sie das Deutschlandticket? Und wie hat sich ihr Verkehrsverhalten geändert? Außerdem begleitet die ARD Fahrgäste, die an der Aktion teilnehmen, mit Kamerateams und wird die Ergebnisse im Herbst in einer Doku im Ersten präsentieren. Die ARD erhofft sich daraus aufschlussreiche Erkenntnisse, was konkret geändert werden muss, damit mehr Menschen vom Auto zum ÖPNV umsteigen.

Auswertung der Mitmachaktion
Das Projekt #besserBahnfahren analysiert die Wirkung des Deutschlandtickets. Ausgewertet wird die Crowd-Science-Aktion von Wissenschaftler*innen beider Hochschulen unter Leitung des Verkehrsökologen Jochen Eckart von der HKA und der Gesundheitspsychologin Britta Renner von der Universität Konstanz, die im Rahmen des Baden-Württemberg Institut für nachhaltige Mobilität kooperieren. Die Ergebnisse werden aufbereitet und in verschiedenen Formaten in Fernsehen, Hörfunk und online diskutiert. In der ARD-Doku „Besser Bahnfahren! – Was muss sich ändern?“ geht ein Reporterteam ausgewählten Meldungen nach und spricht mit der Deutschen Bahn darüber.

#besserBahnfahren
Mit dem Start des bundesweiten Deutschlandtickets am 1. Mai will das ARD-Projekt #besserBahnfahren herausfinden, wie der Verkehr in Zukunft gestaltet werden kann, damit er klimafreundlicher wird und die Menschen dennoch mobil bleiben. Der von Jochen Eckart und Britta Renner entwickelte Fragebogen will erfahren, wie oft der ÖPNV genutzt wird und ob dafür das Deutschlandticket gekauft wurde.
In der aktuellen zweiten Befragungsrunde soll herausgefunden werden, ob sich mit dem Deutschlandticket etwas geändert hat, ob die Einführung der ÖPNV-Fahrkarte zu Verhaltensänderungen bei der Mobilität geführt hat und welche Rolle dabei Preisgestaltung, Flexibilität und Taktung im öffentlichen Nahverkehr spielen.
Bis Ende Juli können noch eigene Erfahrungen und Erlebnisse eingereicht werden unter DasErste.de/besserBahnfahren. Im Anschluss werden die ausgewerteten Ergebnisse in Fernsehen, Hörfunk und online vorgestellt.

Faktenübersicht:
• ARD-Mitmachaktion #besserBahnfahren mit Beteiligung der Gesundheitspsychologin Britta Renner von der Universität Konstanz, des Verkehrsökologen Jochen Eckart von der Hochschule Karlsruhe und des Baden-Württemberg Instituts für Nachhaltige Mobilität an der HKA
• Hochschule Karlsruhe und Universität Konstanz sind im Rahmen des Baden-Württemberg Instituts für Nachhaltige Mobilität gemeinsam an der wissenschaftlichen Auswertung beteiligt
• #besserBahnfahren analysiert die Wirkung des Deutschlandtickets
• Mitmachen unter: DasErste.de/besserBahnfahren
• Die Mitmachaktion wird unterstützt von Pro Bahn, Deutsche Bahn, Allianz pro Schiene, Greenpeace, BUND, den Verbraucherzentralen und Verkehrsclub Deutschland (VCD).
• Weitere Infos und Videomaterial unter: http://swr.li/besserbahnfahren-ard-mitmachaktion-startet-in-zweite-phase und DasErste.de/besserBahnfahren

(nach oben)


Das Fernwärmenetz der Zukunft – Projekt TeoS

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Unser Fernwärmenetz gleicht einem Wimmelbild. Ein Bild, das jetzt noch mehr Details bekommt, denn dieses Netz soll künftig weitgehend ohne fossile Brennstoffe arbeiten. Es gilt, ein ausgeklügeltes, effizientes System zu entwickeln, dabei die Vorlauftemperaturen zu senken und emissionsfreie Erzeugungskapazitäten zu errichten. Immer mit der Maßgabe, dass auch der letzte Anschluss die vertraglich zugesicherte Leistung erhält. Dies erfordert hochkomplexe Berechnungen und Ingenieurskunst. Genau diese Expertise bringt das neue Projekt TeoS* zusammen – unter der Leitung der Universität Duisburg-Essen (UDE).

Gemeinsam mit dem Fernwärmenetzbetreiber BTB in Berlin und der Fernwärme Duisburg GmbH erforscht der Lehrstuhl Energietechnik der UDE, wie ein solches Netz möglichst klimafreundlich versorgt werden kann. Dafür werden die bestehenden Netze in Duisburg und Berlin modelliert und um potenzielle, erneuerbare Energiequellen (EE) ergänzt – etwa Wärmepumpen, Geothermie, Solarthermie.

„Unser Lehrstuhl beschäftigt sich seit mehreren Jahren mit komplexen Modellen der Wärmenetze und Energieerzeugung – trotzdem ist TeoS mit den großen Datenmengen aus Duisburg und Berlin eine neue Herausforderung für uns. Wir werden etliche Monate brauchen, um die zahlreichen Szenarien mit der Netzberechnung und der Simulation der Erzeugungsseite zu verknüpfen“, erklärt Projektkoordinator Dr. Jürgen Roes. Die Standorte werden hinsichtlich Geodaten, städtebaulicher Gegebenheiten und nutzbarer industrieller Abwärme analysiert. Auch Wetterlagen und die Preisentwicklung spielen in Teilprojekten eine Rolle.

Es kann durchaus sein, dass neue Anlagen errichtet werden müssen, möglicherweise werden auch hydraulische Modifikationen erforderlich, um eine unterbrechungsfreie Versorgung zu gewährleisten. Das UDE-Team betrachtet emissionsarme Anlagen wie Großwärmepumpen, die Wärme aus Flüssen wie dem Rhein beziehen, oder die Tiefengeothermie, die es gerade in einem anderen Projekt für Düsseldorf und Duisburg untersucht.

Das Ziel des Ganzen ist ein Instrument, das ein künftiges Netz detailgenau simuliert, kritische Punkte identifiziert und dabei verschiedene Erzeugungsfälle berücksichtigt. Die verschiedenen Rahmenbedingungen sollen auch zeigen, wie sich möglichst viel CO2 einsparen lässt. „Nur so kann das Fernwärmenetz der Zukunft bedarfsgerecht und belastbar geplant werden“, unterstreicht Roes.

* TeoS steht für Technologieoffene Energiesystemanalyse zur Ableitung von Handlungsmaßnahmen für die Dekarbonisierung urbaner Wärmenetze. Gefördert wird das zunächst zweijährige Projekt vom Bundesministerium für Wirtschaft und Klimaschutz mit rund 800.000 Euro, wovon knapp 500.000 Euro auf den Lehrstuhl Energietechnik der UDE entfallen.

Wissenschaftliche Ansprechpartner:
Dr. Jürgen Roes, Energietechnik, Tel. 0203/37-93010, juergen.roes@uni-due.de

(nach oben)


Heizen und Kochen: Klimabilanz von Erdgas oft schlechter als bisher angenommen

Andreas Schmitz Corporate Communications Center
Technische Universität München
– Neuberechnung bezieht Gaslecks und unvollständige Gasverbrennung mit ein.
– Elektrizität kann klimafreundlichere Alternative zum Kochen und Heizen sein.
– Anteil der Erneuerbaren Energien im Strommix ist entscheidend.

Das Heizen und Kochen mit Erdgas ist oft klimaschädlicher als bisher gedacht. Dies ergibt ein neues Berechnungsmodell, das Forschende der Technischen Universität München (TUM) entwickelt haben. Das Besondere: Es bezieht auch die gewaltigen Gasmengen mit ein, die ungenutzt in die Atmosphäre entweichen.

„Wir wollten wissen, ob es – auch unter Berücksichtigung der Gasleckagen – klimafreundlicher ist, Gas für das Heizen und Kochen zu nutzen oder Elektrizität“, erläutert Dr. Florian Dietrich, Wissenschaftler im Bereich für Umweltsensorik und Modellierung an der TUM. Gemeinsam mit Forschenden der ETH Zürich, der Universität Utrecht und der Niederländischen Organisation für Angewandte Naturwissenschaftliche Forschung TNO hat das internationale Team eine Hightech-Messstation für die Erfassung von Kohlendioxid, Methan und Kohlenmonoxid sowie Laserspektrometer für Vor-Ort-Messungen von Methan genutzt und alle Variablen in dem eigens entwickelten Berechnungsmodell zusammengeführt. Die Ergebnisse wurden in einem Peer-Review-Verfahren publiziert und bestätigt.

Unvollständig verbranntes Erdgas wichtig für die Klimabilanz
Auf dem Oktoberfest 2019 beispielsweise, so fanden die Forschenden heraus, ging 1,4 Prozent des damals eingesetzten Gases verloren. Bei einer Gasmenge von über 185.000 Kubikmetern entwichen also 2.500 Kubikmeter Gas in die Umgebung. „Das entwickelte Berechnungsmodell bezieht diese Mengen an entwichenem Erdgas mit ein und liefert einen umfassenden Emissionsfaktor für die Verwendung von Erdgas zum Kochen und Heizen“, erläutert Wissenschaftler Dietrich.

Erneuerbare Energien im Strommix senken den Emissionsfaktor
Um entscheiden zu können, ob Erdgas oder Elektrizität die klimafreundlicher ist, muss man jedoch auch auf den verwendeten Strommix schauen: „Ein hoher Anteil erneuerbarer Energien senkt den Emissionsfaktor für Elektrizität erheblich, während z.B. die Verwendung von Kohlestrom den gegenteiligen Effekt hat“, so Dietrich. Die Forschenden haben all diese Faktoren in ihr Berechnungsmodell miteinfließen lassen und können so quantitative Rückschlüsse ziehen, für welche Nationen Strom bereits heute die klimafreundlichere Alternative zu Erdgas ist und welche Anstrengungen die anderen Nationen noch unternehmen müssen, um diesen Punkt zu erreichen.
Für alle 25 untersuchten Nationen wird dabei deutlich: „Durch die Einbeziehung der Leckagen und unvollständigen Verbrennungen wird insgesamt ein geringerer Anteil an erneuerbaren Energiequellen im Strommix benötigt, als bisher angenommen“, fasst die Professorin für Umweltsensorik und Modellierung Jia Chen zusammen, die zudem Leiterin des Innovationsbereichs Umwelt im Robotik- und KI-Institut MIRMI der TUM ist. Es ist also für die meisten Nationen bereits deutlich früher möglich, aus Aspekten des Klimaschutzes auf Elektrizität anstelle von Gas zu setzen.

Kanada mit klarer Empfehlung für Elektrizität
Auf einzelne Staaten geblickt heißt das, dass beispielsweise Kanada mit seinem hohen Anteil an Wasserkraft aus reinen Klimaschutzgründen bereits heute fürs Heizen und Kochen komplett auf Elektrizität setzen könnte. In China sieht es anders aus: Denn die Kohleverbrennung dominiert dort im Strommix, so dass durch die Verwendung von Elektrizität bei identischer Energiemenge mehr Kohlenstoff ausgestoßen wird als bei der Verbrennung von Erdgas.

Für Deutschland gibt es derzeit trotz des stark zunehmenden Anteils an Wind- und Solarenergie noch keine klare Empfehlung für Elektrizität. Damit befindet sich Deutschland noch in breiter „Gesellschaft“: Für 18 von 25 betrachteten Staaten ist Elektrizität im Vergleich mit Gas aktuell noch nicht klimafreundlicher, darunter Staaten wie Spanien, Italien, die Niederlande, Japan und Australien. Ein Blick auf die Diagramme der TUM-Forschenden zeigt jedoch deutlich, dass für viele der untersuchten Nationen Elektrizität schon bald die klimafreundlichere Alternative sein wird, da kontinuierlich in den Ausbau erneuerbarer Energien investiert wird.

Weitere Informationen
• In einem Presserundgang am 27. Juni 2023 auf der Messe Automatica in München, von 11:30 bis 12:30, Halle 4/329 bekommen Vertreter von Medien neu entwickelte Demos aus den Bereichen Gesundheit, Mobilität, Umwelt und Arbeit zu sehen – unter anderem auch eine Demo von Prof. Jia Chen. Akkreditierung über andreas.schmitz@tum.de.
• Auf der Messe Automatica vom 27. bis 30. Juni 2023 finden Sie zudem über 30 Demonstrationen von Forschungsarbeiten zum Thema Robotik und KI in Halle B4 im Bereich AI-Society. Hier geht es zur Übersicht
• Für diese Forschungsarbeit kamen unter anderem folgende Technologien aus dem Bereich für Umweltsensorik und Modellierung von Prof. Jia Chen sowie der Universität Utrecht und TNO und der Bioscience-Firma LI-COR zum Einsatz:
o MUCCnet-Stationen: Die Hightech-Messstation auf dem Dach des TUM-Forschungsbereiches zeigten zu Zeiten des Oktoberfests einen starken Anstieg der Methankonzentrationen. Dies war für die Wissenschaftler der Auslöser dafür, die Methanemissionen bei Verbrennungsprozessen mit Erdgas näher zu untersuchen.
o Laserspektroskopie: Zusätzlich zu diesen Messungen schickten Prof. Chen und Dr. Dietrich Studierende mit einem Laserspektrometer im Rucksack auf das Oktoberfestgelände. Diese präzisen Gasmessungen vor Ort bestätigten den Verdacht, dass ein Event wie das Oktoberfest, auf dem eine große Menge der Energie durch Erdgas bereitgestellt wird, eine starke Methanquelle darstellt.
o Durch zusätzlich durchgeführte Messungen des Isotopen- sowie des Ethan-Methan-Verhältnisses ließ sich auch ermitteln, welche Mengen an Methan durch Lecks und unvollständige Verbrennung entweichen.
• Prof. Jia Chen ist Professorin für Umweltsensorik und Modellierung an der TUM und Leiterin des Innovationsbereiches Umwelt im Munich Institute of Robotics and Machine Intelligence (MIRMI). Mit dem von Executive Director Prof. Sami Haddadin geführten MIRMI hat die TUM ein integratives Forschungszentrum geschaffen, in dem inzwischen über 70 Professor:innen der TUM und ihre Teams mithilfe von Robotik und künstlicher Intelligenz neue Lösungsansätze etwa in der Medizin, in Fabriken und in der Pflege erforschen. Weitere Informationen finden Sie unter https://www.mirmi.tum.de/.

Wissenschaftliche Ansprechpartner:
Prof. Jia Chen
Lehrstuhl für Umweltsensorik und Modellierung
Technische Universität München (TUM)
jia.chen@tum.de

Originalpublikation:
Dietrich, F., Chen, J., Shekhar, A., Lober, S., Krämer, K., Leggett, G., Van der Veen, C., Velzeboer, I., Denier van der Gon, H., Röckmann, T. (2023). Climate impact comparison of electric and gas-powered end-user appliances. Earth’s Future, 11, e2022EF002877. https://doi.org/10.1029/2022EF002877

Weitere Informationen:
http://Fotos zum Download: http://go.tum.de/857097

(nach oben)


Ärmere Alleinlebende von Teuerung erneut am stärksten belastet

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Daten des IMK Inflationsmonitors

Die Inflationsrate in Deutschland ist im Mai spürbar gesunken, war mit 6,1 Prozent aber immer noch sehr hoch. Deutlich überdurchschnittlich von der Teuerung belastet sind weiterhin Alleinlebende mit niedrigen Einkommen. Sie hatten im Mai eine Inflationsrate von 6,9 Prozent zu tragen, die höchste im Vergleich verschiedener Haushaltstypen. Dagegen verzeichneten Alleinlebende mit sehr hohen Einkommen eine Teuerungsrate von 5,4 Prozent – und wie schon seit Anfang 2022 die niedrigste haushaltsspezifische Belastung.

Die soziale Spreizung bei der Inflation betrug damit 1,5 Prozentpunkte, nachdem es im April 1,9 Prozentpunkte waren. Dass ärmere Haushalte besonders stark durch die Inflation belastet sind, liegt daran, dass Nahrungsmittel und Haushaltsenergie in ihren Warenkörben ein sehr hohes Gewicht haben. Diese Güter des Grundbedarfs sind nach wie vor die stärksten Preistreiber: Im Mai war ihr Beitrag zur allgemeinen Inflation noch sieben Mal (bei Nahrungsmitteln) beziehungsweise neunmal (Haushaltsenergie) so groß wie im langjährigen Mittel. Im Vergleich der letzten Monate hat die Preisdynamik bei Nahrungsmitteln und Haushaltsenergie aber nachgelassen, weshalb die haushaltsspezifischen Raten nun weniger weit auseinanderliegen als zuvor. Das ergibt der neue IMK Inflationsmonitor des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung.*

Die IMK-Inflationsexpertin Dr. Silke Tober und IMK-Direktor Prof. Dr. Sebastian Dullien berechnen mit dem IMK Inflationsmonitor seit Anfang 2022 jeden Monat die spezifischen Teuerungsraten für neun repräsentative Haushaltstypen. Am größten war die soziale Differenz bei den Inflationsraten bislang im Oktober 2022 mit 3,1 Prozentpunkten.

Eine leicht überdurchschnittliche Teuerungsrate mussten im Mai auch Familien mit niedrigen Einkommen schultern (6,2 Prozent). Sie hatten zwischen Februar 2022 und Februar 2023 durchgehend die höchste Inflationsbelastung unter allen Haushaltstypen aufgewiesen, in den ersten beiden Monaten 2023 zusammen mit einkommensarmen Alleinlebenden. Dass die ärmeren Familien nun nicht mehr so stark hervorstechen, beruht auf zuletzt deutlich rückläufigen Kraftstoffpreisen. Diese schlagen sich rechnerisch im Ausgabenportfolio von Familien spürbar nieder. Arme Alleinstehende besitzen hingegen selten ein Auto, weshalb ihre Inflationsrate davon weniger beeinflusst wird.

Die übrigen untersuchten Haushaltstypen lagen im Mai bei oder knapp unterhalb der allgemeinen Inflationsrate von 6,1 Prozent. Ersteres gilt für Alleinerziehende, für Alleinlebende und für kinderlose Paare mit jeweils mittleren Einkommen. Bei Familien mit mittleren und mit hohen Einkommen sowie bei Alleinlebenden mit höheren Einkommen schlug die Inflation mit jeweils 5,9 Prozent zu Buche (siehe auch die Informationen zur Methode unten und die Abbildung in der pdf-Version dieser PM; Link unten).

Trotz des nachlassenden Drucks bei den Preisen für Haushaltsenergie und Lebensmitteln spielen diese Kostenfaktoren für Haushalte mit niedrigeren Einkommen weiterhin eine besonders große Rolle, wie der Detailvergleich zeigt. Bei ärmeren Alleinlebenden trugen sie im Mai 4,7 Prozentpunkte zu 6,9 Prozent haushaltsspezifischer Inflationsrate bei. Bei Familien mit zwei Kindern und niedrigeren Einkommen summierten sie sich auf 4,4 Prozentpunkte, bei Familien mit mittleren Einkommen immerhin noch auf 3,3 Prozentpunkte. Das Problem wird vor allem für Haushalte mit niedrigen Einkommen dadurch verschärft, dass die Alltagsgüter, die sie vor allem kaufen, kaum zu ersetzen sind und viele nur geringe finanzielle Rücklagen haben.

Bei Alleinlebenden mit sehr hohen Einkommen trugen Nahrungsmittel und Haushaltsenergie hingegen lediglich 1,9 Prozentpunkte zur Inflationsrate von 5,4 Prozent bei. Bei ihnen wie den Haushalten mit höheren Einkommen waren dagegen beispielsweise die deutlich gestiegenen Preise für Wohnungsinstandhaltung, Restaurantbesuche und Übernachtungen oder Reisen ein spürbarer Faktor bei der spezifischen Teuerung.

Für die kommenden Monate erwarten die Fachleute des IMK, dass die starken Preisschübe als Folge der Pandemie und des Überfalls Russlands auf die Ukraine weiter auslaufen. Mittlerweile sinkt auch die sogenannte Kernrate der Inflation – die Teuerung ohne Energie und Nahrungsmittel –, wenn auch langsamer als die Inflationsrate insgesamt. Das liegt daran, dass die Energiepreise die Produktions- und Transportkosten nahezu aller Güter und Dienstleistungen beeinflussen, was aber sowohl beim Anstieg als auch beim Rückgang zeitversetzt geschieht.

Insgesamt werde die Inflation „bei hinreichendem Wettbewerb in den kommenden Monaten auch ohne weitere Zinserhöhungen der Europäischen Zentralbank weiter sinken, und es sind teilweise auch Preisrückgänge zu erwarten“, schreiben Tober und Dullien. Die Forschenden gehen davon aus, dass der Rückgang des Preisdrucks unterstützt wird „durch die Auflösung noch vorhandener Lieferengpässe und eine Verringerung der teilweise überhöhten Gewinnmargen“, die etliche Unternehmen im Windschatten der allgemein starken Preissteigerungen aufgeschlagen haben. „Beides dürfte die Wirkung der etwas stärkeren Lohnentwicklung kompensieren, so dass die Inflationsrate spätestens im Verlauf von 2024 wieder in der Nähe des Inflationsziels der EZB von zwei Prozent liegen dürfte.“

– Informationen zum Inflationsmonitor –
Für den IMK Inflationsmonitor werden auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) des Statistischen Bundesamts die für unterschiedliche Haushalte typischen Konsummuster ermittelt. So lässt sich gewichten, wer für zahlreiche verschiedene Güter und Dienstleistungen – von Lebensmitteln über Mieten, Energie und Kleidung bis hin zu Kulturveranstaltungen und Pauschalreisen – wie viel ausgibt und daraus die haushaltsspezifische Preisentwicklung errechnen. Die Daten zu den Haushaltseinkommen stammen ebenfalls aus der EVS. Im Inflationsmonitor werden neun repräsentative Haushaltstypen betrachtet: Paarhaushalte mit zwei Kindern und niedrigem (2000-2600 Euro), mittlerem (3600-5000 Euro), höherem (mehr als 5000 Euro) monatlichem Haushaltsnettoeinkommen; Haushalte von Alleinerziehenden mit einem Kind und mittlerem (2000-2600 Euro) Nettoeinkommen; Singlehaushalte mit niedrigem (unter 900 Euro), mittlerem (1500-2000 Euro), höherem (2000-2600 Euro) und hohem (mehr als 5000 Euro) Haushaltsnettoeinkommen sowie Paarhaushalte ohne Kinder mit mittlerem Haushaltsnettoeinkommen zwischen 3600 und 5000 Euro monatlich. Der IMK Inflationsmonitor wird monatlich aktualisiert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Dullien
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Sebastian-Dullien@boeckler.de

Dr. Silke Tober
IMK-Expertin für Geldpolitik
Tel.: 0211-7778-336
E-Mail: Silke-Tober@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Sebastian Dullien, Silke Tober: IMK Inflationsmonitor – Inflationsunterschiede zwischen Haushalten im Mai 2023 deutlich geringer. IMK Policy Brief Nr. 152, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008634

Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_imk_2023_06_16.pdf

(nach oben)


Charité übernimmt Vorsitz der Allianz führender europäischer Universitätskliniken EUHA

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie kann eine Gesundheitsversorgung in der Zukunft aussehen? Werden Mediziner:innen mit künstlicher Intelligenz Diagnosen stellen? Nutzen Ärzt:innen Big-Data-Analysen, um Krankheitsverläufe im Voraus zu bestimmen? Bleiben wir dank modernster Vorsorge länger gesund? Heute hat die Charité – Universitätsmedizin Berlin in London die Präsidentschaft der European University Hospital Alliance (EUHA) für die kommenden Monate übernommen. Ganz oben auf der gesundheitspolitischen Agenda: die nachhaltige Gestaltung der Gesundheitssysteme in Europa, damit sie dem demografischen Wandel, einer voranschreitenden Digitalisierung und dem erheblichen Mangel an Fachpersonal gerecht werden können.

In London sind Führungskräfte und Expert:innen der EUHA zur halbjährlichen Mitgliederversammlung und einem Symposium mit dem Titel „Rethinking European Health Systems: Creating the Sustainable Health Workforce of the Future“ zusammengekommen. Was sie bewegt, ist die Dringlichkeit einer Reform der europäischen Gesundheitssysteme. Fast alle Länder Europas stehen vor der Herausforderung, eine alternde Bevölkerung zu versorgen. In fast allen Ländern fehlt Personal, mangelt es an Ressourcen, kommt es zu Engpässen. Unterdessen entstehen beinahe täglich, insbesondere im Umfeld der Universitätsmedizin, neuartige Konzepte zur Versorgung von Patient:innen oder tragen Erkenntnisse der biomedizinischen Forschung zu innovativen Therapieansätzen bei.

Wie also lassen sich die europäischen Gesundheitssysteme unter diesen Voraussetzungen zukunftssicher aufstellen? Wie können Arbeitskräfte gewonnen und bestmöglich ausgebildet werden? Kann ein langes Erhalten von Gesundheit durch neuartige Präventionskonzepte der Schlüssel zu einer bestmöglichen Versorgung aller sein? „Diese drängenden Fragen gilt es anzugehen“, sagt Prof. Dr. Heyo K. Kroemer, Vorstandsvorsitzender der Charité. „Die COVID-19-Pandemie hat einmal mehr den Handlungsbedarf aufgezeigt: Wir müssen europaweit gemeinsame Standards in der Gesundheitsversorgung erarbeiten, Kooperationen in der biomedizinischen Forschung stärken und gemeinsam ein Konzept für die Ausbildung der Mediziner:innen und Gesundheitsfachkräfte von morgen entwickeln. Dabei ist eine Bündelung von Ressourcen wichtig, denn nur so können wir den Herausforderungen mit innovativen Ansätzen begegnen.“

Charité löst King’s Health Partners ab
Mit ihrer Verantwortung für die Versorgung von Patient:innen, für Forschung und Ausbildung kommt Universitätskliniken eine besondere Rolle in dem notwendigen Transformationsprozess zu. Mit dem heutigen Tag übernimmt die Charité den Vorsitz der EUHA und damit die Federführung für diesen Prozess in den kommenden Monaten. Sie löst das Londoner Universitätsklinikum King’s Health Partners ab und wird die aktuellen Themen gemeinsam mit dem schwedischen Karolinska University Hospital angehen, da sie von besonderer Tragweite sind. Das Karolinska University Hospital wird im November die darauffolgende Präsidentschaft antreten.

„Das Ziel unserer Präsidentschaft ist es, die Plattform der EUHA zu nutzen und zu erweitern, damit wir in Europa einerseits besser auf zukünftige Herausforderungen vorbereitet sind, beispielsweise auf neue Infektionskrankheiten oder Krisenfälle, und andererseits voneinander lernen, um unsere Gesundheitssysteme zukunftssicher aufzustellen“, sagt Prof. Kroemer. Das betrifft in besonderem Maße den Bereich Digital Health und den Aufbau eines gemeinsamen European Health Data Space, damit Gesundheitsdaten länderübergreifend für Versorgung und Forschung nutzbar werden. Es gehe darum, die Systeme und Strukturen europaweit auszubauen und intelligente Tools zu entwickeln: „Im digitalen Zeitalter muss das Gesundheitswesen zugunsten medizintechnischer Neuerungen und einer patientenzentrierten Medizin befähigt werden, große Mengen an klinischen Daten konsequent verarbeiten und damit auch nutzen zu können“, so der Vorstandsvorsitzende der Charité. Wie dies umgesetzt werden kann, damit beschäftigt sich das Digital Health and Data Network der EUHA, eine Arbeitsgruppe unter Charité-Leitung, die vor vier Jahren gegründet wurde.

Neue Ansätze aus EUHA-Gruppen und -Netzwerken
Den aktuellen Herausforderungen des Fachkräftemangels stellt sich unter anderem das 2021 ins Leben gerufene und an der Charité koordinierte Nursing Network der EUHA. Neben einer Vertretung der Interessen der Pflegenden auf europäischer Ebene stehen die Entwicklung gemeinsamer Ausbildungs- und Weiterbildungsprogramme und ein Austauschprogramm für Mitarbeitende im Vordergrund. Zu den innovationstreibenden Kräften der EUHA gehört neben vielen weiteren Aktivitäten auch das European Center for Gene & Cellular Cancer Therapies (EUCCAT), an dem die Charité und das Berlin Institute of Health in der Charité (BIH) maßgeblich beteiligt sind. Das virtuelle Institut strebt es an, neuartige Krebstherapien erschwinglich und zugänglich zu machen. Dazu führt es Grundlagenforschung, Einrichtungen zur Herstellung von Arzneimitteln, Kapazitäten für klinische Studien und Umsetzungswissen zusammen. Perspektivisch soll damit Europas Wettbewerbsfähigkeit auf dem Gebiet von Forschung und Entwicklung sowie klinischer Anwendung von Zell- und Gentherapien gestärkt werden.

„Die Entwicklung innovativer Therapien, sogenannte Advanced Therapy Medicinal Products (ATMPs), eine stärkere Berücksichtigung der Interessen von Patientinnen und Patienten durch das Erheben von Patient-Reported Outcome Measures (PROMs) und neue Ansätze, die dazu beitragen, exzellentes Personal zu gewinnen und binden, das sind neben der Digitalisierung Kernthemen, die die Zukunft der europäischen Universitätskliniken bestimmen werden“, befindet Prof. Kroemer. „Für den Austausch von Informationen und Best Practice ist die EUHA eine exzellente Plattform. Den Aktivitäten zum Erfolg zu verhelfen, dafür wird sich die Charité im Zuge ihrer Präsidentschaft einsetzen und Kontakte zu den Institutionen der Europäischen Union sowie anderen internationalen Organisationen weiter ausbauen.“

Über die EUHA
Die European University Hospital Alliance besteht aus zehn führenden europäischen Universitätskliniken mit nachgewiesener Exzellenz in Gesundheitsversorgung, Bildung und Forschung: Aarhus University Hospital, Dänemark; Assistance Publique – Hôpitaux de Paris, Frankreich; Charité – Universitätsmedizin Berlin, Deutschland; Erasmus MC, Rotterdam, Niederlande; Ospedale San Raffaele, Mailand, Italien; Universitätsklinik Karolinska, Stockholm, Schweden; King’s Health Partners, London, Vereinigtes Königreich; UZ Leuven, Löwen, Belgien; AKH Wien & MedUni Wien, Österreich; Krankenhaus Campus Vall d’Hebron Barcelona, Spanien. Die Institutionen arbeiten zusammen, um die Versorgung von Patient:innen jetzt und in Zukunft zu verbessern. Dabei haben alle Mitglieder eine Kapazität von mehr als 1.000 Krankenbetten, sie sind Exzellenzzentren in der Forschung und nationale Referenzzentren. Sie decken die bestehenden europäischen Referenznetzwerke (ERNs) ab. Das Motto „Leading by Doing“ steht für die Absicht, kompetenter Berater auf europäischer Ebene zu sein und innovative Lösungen für zentrale Herausforderungen im europäischen Gesundheitswesen zu entwickeln.

Weitere Informationen:
https://www.euhalliance.eu/ EUHA-Webseite
https://www.charite.de/index.php?id=30276849 Die European University Hospital Alliance (EUHA) an der Charité

(nach oben)


Die Energiewende in Deutschland auf einen Blick: Ariadne‐Tracker prüft Fortschritt auf dem Weg zur Klimaneutralität

Sarah Messina / Kopernikus-Projekt Ariadne Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Um 2045 klimaneutral zu sein, muss das Energiesystem in einem nie dagewesenen Tempo umgebaut werden. Ob die Energiewende in Deutschland auf Kurs ist, zeigt jetzt der neue Transformations‐Tracker des Kopernikus‐Projekts Ariadne auf einen Blick. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) setzt der Tracker die Entwicklung von mehr als 40 konkreten Schlüsselindikatoren ins Verhältnis zu den Zielpfaden der Ariadne‐Szenarien zur Klimaneutralität – vom Gesamtsystem, über die Energiewirtschaft bis in die einzelnen Sektoren Gebäude, Verkehr und Industrie.

„Unsere Analysen zeigen: Um auf Kurs zur Klimaneutralität zu kommen, geht es mit den Fortschritten der Energiewende in den meisten Bereichen zu langsam voran“, sagt Gunnar Luderer, Vize-Leiter des Ariadne-Projekts und Szenarien-Experte des Potsdam-Instituts für Klimafolgenforschung (PIK). „Vor allem bei Neuanschaffungen muss massiv umgesteuert werden, um den Weg zur Klimaneutralität nicht zu verbauen“. Wo es schon läuft, aber auch, wo es noch hakt, zeigt der Transformations-Tracker anhand von Geschwindigkeits-Tachometern. Derzeit stehen diese erst in den wenigsten Fällen auf Erfolg.

Neben Kennzahlen der letzten drei Jahre zu Emissionen und dem Ausbau von Windenergie, Photovoltaik & Co gehören zu den berücksichtigten Indikatoren auch jene Signale, die den Ausstieg aus der Nutzung von Kohle, Öl und Gas verfolgen. Auch inwiefern Investitionen in Autos, Heizungssysteme und Industrieanlagen mit den langfristigen Klimazielen vereinbar sind, fließt also in den Transformations-Tracker mit ein. Denn gerade bei den langlebigen Investitionsgütern zeigt sich, dass noch viel zu tun ist. Neue Benziner oder Diesel fahren im Schnitt 18 Jahre auf den Straßen, neue Gasheizungen sind 15-25, teils sogar 30 Jahre in Betrieb. Die fossile Zukunft wird hier also bei Kaufentscheidungen mitunter gleich mitbestellt.

+++ Achtung Sondereffekt! Vorsicht bei der Formel für den Fortschritt +++
Auch bei den Erfolgen lohnt es sich, genauer hinzuschauen. Jüngste Ereignisse wie die Corona-Pandemie oder die Energiekrise haben auf die Indikatoren einen starken Einfluss. Manch ein „Fortschritt“ auf dem Weg zur Klimaneutralität ist deshalb nicht der notwendigen strukturellen Transformation geschuldet, sondern geht lediglich auf kurzfristig wirkende Entwicklungen zurück. Diese im Tracker gekennzeichneten „Sondereffekte“ sollten deshalb mit Vorsicht interpretiert werden, so die Fachleute. Denn Emissionen, die etwa im Zuge der Pandemie durch das Herunterfahren der Industrieproduktion oder weniger Verkehr auf den Straßen gesunken sind steigen nach der Pandemie wieder an.

“Dass viele vermeintlich günstige Entwicklungen der letzten Jahre Folge der Corona-Pandemie und der Energiekrise sind, ist zunächst ernüchternd“, ergänzt Frederike Bartels vom PIK. „Umso mehr gilt es, auf dem aktuellen Bewusstsein für Energiefragen jetzt aufzubauen und strukturelle Veränderungen bei zukünftigen Investitionen oder individuellem Verhalten anzustoßen, die dann einen nachhaltigen Nutzen für den Weg zur Klimaneutralität haben”.

+++ Die Energiewende ist kein Selbstläufer: Ariadne-Szenarien als Frühwarnsystem für Kurskorrekturen +++
Der Ariadne-Tracker kann so als Frühwarnsystem der Energiewende aufzeigen, wo die Knack- und Knirschpunkte liegen und die praktische Umsetzung nicht zu den Notwendigkeiten der gesetzten Klimaziele passt. Geleitet vom Potsdam-Institut für Klimafolgenforschung unter Mitwirkung von Ariadne-Fachleuten des Instituts für Energiewirtschaft und Rationelle Energieanwendung der Universität Stuttgart, des Fraunhofer-Instituts für Solare Energiesysteme, des DLR-Instituts für Verkehrsforschung und des Fraunhofer-Instituts für System- und Innovationsforschung baut der Transformations-Tracker auf die im Ariadne-Projekt entstandenen Szenarien auf, die verschiedene Transformationspfade zur Klimaneutralität 2045 beschreiben. Diese Transformationspfade umfassen das gesamte Energiesystem und die Sektoren Industrie, Gebäude und Verkehr und integrieren im Modellvergleich Gesamtsystem- und Sektormodelle. So können detaillierte Energiewendepfade analysiert werden, um robuste Strategien abzuleiten und Unsicherheiten oder Hemmnisse entlang der notwendigen Transformation auszubuchstabieren.

Weblink zum Transformation Tracker:
https://tracker.ariadneprojekt.de/

Weiterführende Informationen:
Deutschland auf dem Weg aus der Gaskrise – Wie sich Klimaschutz und Energiesouveränität vereinen lassen (2022): Gunnar Luderer, Frederike Bartels, Markus Blesl, Alexander Burkhardt, Ottmar Edenhofer, Ulrich Fahl, Annika Gillich, Andrea Herbst, Kai Hufendiek, Markus Kaiser, Lena Kittel, Florian Koller, Christoph Kost, Robert Pietzcker, Matthias Rehfeldt, Felix Schreyer, Dennis Seibert, Luisa Sievers. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2022.004

Weblink: https://ariadneprojekt.de/pressemitteilung/deutschland-auf-dem-weg-aus-der-gaskr…

Deutschland auf dem Weg zur Klimaneutralität 2045. Szenarien und Pfade im Modellvergleich. Ariadne-Report (2021): Gunnar Luderer (Hrsg.), Christoph Kost (Hrg.), Dominika Soergel (Hrsg.) et al. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2021.006

Weblink: https://ariadneprojekt.de/pressemitteilung/so-geht-klimaneutralitat-2045-was-der…

Pressekontakt:
Sarah Messina | Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544 | Email: ariadne-presse@pik-potsdam.de

Maria Bader | Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365 | E-Mail: ariadne-presse@pik-potsdam.de

Wer ist Ariadne? Im Konsortium von mehr als 25 wissenschaftlichen Partnern führt das Kopernikus-Projekt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Energiewende und stellt politischen Entscheidern wichtiges Orientierungswissen bereit.
Weblink zum Projekt Ariadne: https://ariadneprojekt.de/
Folgen Sie dem Ariadnefaden auf Twitter @AriadneProjekt

Über die Kopernikus-Projekte
Die Kopernikus-Projekte des Bundesministeriums für Bildung und Forschung (BMBF) bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung bis zur Mitte des Jahrhunderts. www.kopernikus-projekte.de

(nach oben)


Lichtverschmutzung: Gemeinsame Standards sollen Klarheit schaffen

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Zusammenschau aktueller Methoden soll einheitliche Umweltschutzregelungen ermöglichen

Lichtverschmutzung – zu viel Licht in der Nacht – ist ein Problem für Natur und Naturwissenschafter*innen. Im Fachjournal Science vergleicht der Astrophysiker Stefan Wallner von der Universität Wien aktuelle Methoden und empfiehlt einheitliche Regelungen um den Umweltschutz voranzubringen. Auch für Österreich fordert er ein bundesweites „Lichtverschmutzungsgesetz“.

Lichtverschmutzung hat sehr viele Facetten, die schon bei der Definition anfangen: So kann es beispielsweise um die Aufhellung des Nachthimmels gehen oder um die Ausbreitung der Außenbeleuchtung, die von Satelliten oder Tieren auf unterschiedlichen Arten gesehen werden. Der Astrophysiker Stefan Wallner der Universität Wien erklärt: „Die Definition des Phänomens gibt Hinweise darauf, wie Messungen durchgeführt werden müssen. Aufgrund vieler verfügbarer Geräte und Methoden, die für die unterschiedlichen Ansätze verwendet werden, verfügen Forscher*innen weltweit über eine große Vielfalt, wie sie künstliches Licht in der Nacht untersuchen können. Dies kann aber zu Problemen führen, da verschiedene Beobachtungen dadurch möglicherweise nicht vergleichbar sind.“

Wallner wurde daher zusammen mit internationalen Forschungskolleg*innen vom renommierten Fachjournal Science dazu eingeladen, den aktuellen Wissensstand zusammenzutragen und die derzeit verwendeten Methoden zu überprüfen, um das Ausmaß der auftretenden Lichtverschmutzung zu quantifizieren und die daraus resultierenden Auswirkungen zu analysieren.

Eine besondere Herausforderung dabei stellt dabei der Zusammenhang zwischen Luft- und Lichtverschmutzung dar, an dem Wallner forscht. Wallner: „Die große Veränderlichkeit der Erdatmosphäre wirkt sich erheblich auf die daraus resultierende Lichtverschmutzung aus. Um beide Phänomene gemeinsam einzudämmen, müssen interdisziplinäre Lichtverschmutzungsforscher*innen weltweit zusammenkommen um daran arbeiten, Daten aus aktuell verfügbaren Technologien verständlicher zu nutzen, aber auch über Messstandards und neue Möglichkeiten nachdenken.“

Um die Lichtverschmutzung effektiv einzudämmen braucht es auf diese Erkenntnisse fußende Gesetzgebungen. „Die vor kurzem überholte ÖNORM O 1052 zu Lichtimmissionen sowie das kommende Lichtverschmutzungsgesetz im Land Oberösterreich sind wichtige Schritte. Ein bundesweites Gesetz dazu wird dennoch notwendig sein, um den Natur- und Umweltschutz gegen künstliches Licht bei Nacht maximal anzuheben“, fordert Wallner.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Wallner, BSc MSc
Institut für Astrophysik, Universität Wien
1180 Wien, Türkenschanzstraße 17
T +43 1 4277 53841
stefan.wallner@univie.ac.at

Originalpublikation:
Miroslav Kocifaj, Stefan Wallner. Measuring and monitoring light pollution: Current approaches and challenges. Science (2023)
DOI: 10.1126/science.adg0473 (https://doi.org/10.1126/science.adg0473)

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Alternative Einkommensquellen bringen Landwirtschaft und Gesellschaft näher zusammen

Heike Bräuer Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Neue Studie zu sozialen Funktionen der Landwirtschaft

Die Zahl landwirtschaftlicher Betriebe in Deutschland sinkt, im Durchschnitt bewirtschaften immer weniger Betriebe immer größere Flächen. Gleichzeitig nimmt der Anteil der Betriebe zu, die ihr Einkommen auch jenseits der Nahrungsmittelproduktion erwirtschaften, zum Beispiel mit der Produktion erneuerbarer Energien, der Vermietung von Ferienwohnungen oder der Direktvermarktung landwirtschaftlicher Produkte.

Ein Team von Agrarökonom:innen um Wiebke Nowack vom Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften hat die sozialen Funktionen der Landwirtschaft in diesem Kontext untersucht. Ergebnis: Mit der Industrialisierung der Nahrungsmittelproduktion und der Diversifizierung der Tätigkeiten verändert sich die Rolle landwirtschaftlicher Betriebe in Dorfgemeinschaften, in ländlichen Regionen und in der Gesellschaft insgesamt.

Fallstudie in Schleswig-Holstein
„In unserer Fallstudienregion im Kreis Dithmarschen in Schleswig-Holstein haben wir beobachtet, dass Betriebe insbesondere über die Tätigkeiten im Bereich der Einkommensdiversifizierung in soziale und wirtschaftliche Strukturen eingebunden sind“, erläutert Doktorandin Wiebke Nowack. Co-Autor Thies Popp, der im Rahmen seiner Doktorarbeit ebenfalls in der Region geforscht hatte und dort aufgewachsen ist, betont, dass Einkommensalternativen in Dithmarschen entscheidend dafür sind, welche Betriebe erfolgreich wirtschaften, wachsen und zu denen gehören, die weitermachen.

Soziale Funktionen noch wenig erforscht
Die Agrarökonom:innen bauen ihre Studie auf einer Kategorisierung von elf Typen sozialer Leistungen auf, die landwirtschaftliche Betriebe für die Gesellschaft erbringen können. Dazu zählen beispielsweise die Stärkung des sozialen Zusammenhalts der Dorfgemeinschaft oder die Erschließung und Erhaltung von Erholungsräumen. „Im Gegensatz zu ökologischen Funktionen, haben solche sozialen Funktionen der Landwirtschaft in der Wissenschaft bisher wenig Beachtung gefunden. Unsere Fallstudie zeigt, wie Landwirtschaft soziale Funktionen erfüllt und wie sich das im Kontext des Größenstrukturwandels ändert“, so Harald Grethe, Professor am Thaer-Institut für Agrar- und Gartenbauwissenschaften und ebenfalls Co-Autor der Veröffentlichung.

Arbeitsintensive Tätigkeiten wie Direktvermarktung sind sozial besonders wirksam
Während sich der Größenstrukturwandel in der Landwirtschaft und die damit verbundene Industrialisierung der Nahrungsmittelproduktion negativ auf die sozialen Funktionen der Landwirtschaft ausgewirkt haben, weil beispielsweise Maschinen größer und lauter geworden sind, weitere Distanzen zurücklegen oder von Dienstleistern bedient werden statt vom Nachbarn, bergen die Einkommensalternativen jenseits der Nahrungsmittelproduktion die Chance, dass sich Landwirtschaft und Gesellschaft begegnen und näher kommen. „Unsere Ergebnisse weisen darauf hin, dass vor allem arbeitsintensive Tätigkeiten wie Direktvermarktung, touristische Angebote oder auch Bauernhofpädagogik soziale Funktionen erfüllen“, betont Julia Schmid, eine weitere Co-Autorin.

Appell an die Agrarpolitik: stärkere Anerkennung sozialer Leistungen
Die Ergebnisse der Fallstudie sind aus Sicht der Forscher:innen ein Impuls für agrarpolitische Entscheidungsträger:innen. Bisher hängt die Höhe möglicher Fördermittel für landwirtschaftliche Betriebe in erster Linie von der bewirtschafteten Fläche ab oder es werden Kapitalinvestitionen gefördert. „Wollen wir, als Gesellschaft, dass soziale Leistungen von Landwirtschaft stärker anerkannt und honoriert werden, könnten landwirtschaftsnahe Tätigkeiten ein wichtiger politischer Ansatzpunkt sein. Würden diese stärker angereizt und Barrieren abgebaut, stünden landwirtschaftlichen Betrieben auch vielfältigere Entwicklungsmöglichkeiten zur Verfügung – unabhängig von ihrer Größe“, so das Resümee von Wiebke Nowack.

Wissenschaftliche Ansprechpartner:
Wiebke Nowack
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften
E-Mail: wiebke.nowack@hu-berlin.de

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S0743016723001006?via%3Dihub

(nach oben)


Wie denken die Deutschen über nachhaltiges Bauen und Wohnen?

Christoph Uhlhaas M.A. Geschäftsstelle
acatech – Deutsche Akademie der Technikwissenschaften
acatech, Körber-Stiftung und ZIRIUS veröffentlichen repräsentative Umfrage-Ergebnisse zu den Technikeinstellungen der Deutschen im Bereich Bauen und Wohnen. Online-Pressekonferenz am 19. Juni um 9:00 Uhr.

Wie möchten die Deutschen wohnen? Wo sehen sie sich in der Lage, durch Verhaltensänderung oder Anschaffung neuer Geräte Energie zu sparen? Welche Investitionen im Energiebereich planen Hauseigentümerinnen und -eigentümer? Das TechnikRadar 2023 fasst die Ergebnisse einer neuen repräsentativen Umfrage zu den Technikeinstellungen der Deutschen zusammen. In diesem Jahr liegt der Schwerpunkt auf nachhaltigem Bauen und Wohnen – ein Thema, welches angesichts von Klimakrise, Materialknappheit und steigenden Energiepreisen an Bedeutung gewonnen hat.

Am 19. Juni, bereits einen Tag vor der Veröffentlichung des TechnikRadar 2023, werden in einer Online-Pressekonferenz die zentralen Ergebnisse der aktuellen Umfrage vorgestellt.

Präsentiert und eingeordnet werden die Ergebnisse von
• Matthias Mayer, Leiter des Bereichs Wissenschaft der Körber-Stiftung
• Prof. Dr. Cordula Kropp, wissenschaftliche Projektleiterin und Soziologin vom Zentrum für Interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS)
• Prof. Dr. Ortwin Renn, TechnikRadar-Co-Projektleiter und acatech Präsidiumsmitglied
• Prof. Dr.-Ing. Jan Wörner, Präsident acatech

Die teilnehmenden Medienvertreterinnen und -vertreter erhalten die Studie sowie das Datenmaterial zur Erstellung eigener Grafiken direkt im Anschluss an die Pressekonferenz.

Wir laden Sie herzlich ein zur Online-Pressekonferenz:
TechnikRadar 2023
Montag, 19.06.2023, 9:00 Uhr bis 9:45 Uhr
Zoom-Videokonferenz

Anmeldung an frohwein@acatech.de

(nach oben)


Augengesundheit: Irisfarbe – ein wenig beachteter Risikofaktor

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Von hellem Blau oder Grau über grünliche bis hin zu tiefbraunen Tönen: Die Iris oder Regenbogenhaut des Auges kann eine ganze Palette von Farbschattierungen annehmen. Doch die Augenfarbe bestimmt nicht nur einen wesentlichen Teil des äußeren Erscheinungsbildes. Wie man heute weiß, hängt die Farbe der Iris auch mit der Neigung zu bestimmten Augenerkrankungen und dem Ergebnis etwa von Hornhauttransplantationen zusammen. Dass die Augenfarbe hier als unabhängiger Risikofaktor wirkt, sei lange Zeit wenig beachtet worden, so die Deutsche Ophthalmologische Gesellschaft (DOG). Experten der Fachgesellschaft geben einen Überblick darüber, was über diesen Zusammenhang bekannt ist.

Welche Augenfarbe ein Mensch hat, hängt davon ab, wie hoch die Konzentration an Melanin in seiner Iris ist – des Farbstoffs also, der neben der Augen- auch die Haut- und die Haarfarbe bestimmt. „Das Melanin hat dabei immer dieselbe bräunliche Farbe – auch grüne und blaue Augen besitzen keine anderen Farbstoffe“, erläutert Professor Dr. med. Claus Cursiefen, Direktor des Zentrums für Augenheilkunde am Universitätsklinikum Köln und Generalsekretär der DOG. Die anderen Farbschattierungen beruhten auf Lichtbrechungseffekten, die bei verschiedenen Melaningehalten zum Tragen kämen.

Ganz ohne Melanin – wie bei Menschen mit der angeborenen Pigmentstörung Albinismus – bleiben die Augen sehr hell, je nach Lichteinfall kann sogar der rote Augenhintergrund hindurchschimmern. „Bei Menschen mit okulärem Albinismus ist bekannt, dass die Augenentwicklung insgesamt beeinträchtigt ist“, sagt Cursiefen. Weil Melanin nicht nur in der Iris, sondern auch im Pigmentepithel der Netzhaut enthalten ist, kann es ohne diesen Farbstoff zu deutlichen Fehlentwicklungen im Augenhintergrund und nachfolgenden Sehstörungen kommen.

Helle Augen: Höheres Risiko für Aderhaut-Tumoren und AMD
Doch auch wenn man vom Extremfall der Pigmentstörung absieht, kann sich der Melaningehalt der Iris auf die Augengesundheit auswirken. Denn so wie in der Haut schützt das Melanin auch in der Iris vor dem Einfluss des Sonnenlichts. Es filtert sowohl den sichtbaren Teil des Lichtspektrums – Menschen mit sehr hellen Augen reagieren daher besonders empfindlich auf starken Lichteinfall – als auch dessen UV-Anteil. Bei niedrigerem Melaningehalt steigt deshalb auch das Risiko, an einem so genannten uvealen Melanom zu erkranken, einem aggressiven Tumor der Aderhaut.1 „Dieser Krebstyp ist zwar sehr selten, er findet sich jedoch bei Menschen europäischer Abstammung 20 bis 30 mal häufiger als bei Menschen asiatischer oder afrikanischer Abstammung“, erläutert Professor Dr. med. Nikolaos Bechrakis, Präsident der DOG und Direktor der Universitätsaugenklinik Essen.

Mit einem geringeren Schutz vor den schädlichen Auswirkungen des Sonnenlichts lässt sich vermutlich auch die Beobachtung erklären, dass Menschen mit hellen Augen eher eine altersabhängige Makuladegeneration (AMD) entwickeln als Menschen mit dunklen Augen. „Bei der Entstehung der AMD spielen freie Radikale, oxidativer Stress und die Ansammlung von Abfallprodukten im Bereich der Netzhaut eine Rolle – Prozesse, die durch UV-Licht verstärkt werden“, erläutert Cursiefen. Ein Zusammenhang zwischen Augenfarbe und AMD-Risiko sei zwar nicht in allen Studien gefunden worden, so der Experte. „Eine umfangreiche Metaanalyse mit fast 130 000 Teilnehmenden konnte jedoch belegen, dass zumindest die feuchte Form der AMD bei Menschen europäischer Herkunft deutlich häufiger ist als bei Menschen mit asiatischen oder afrikanischen Wurzeln“, berichtet der Kölner Augenarzt.2 Ob dies hauptsächlich auf die Augenfarbe zurückzuführen ist, oder ob auch andere genetische Faktoren eine Rolle spielen, ist allerdings noch unklar.

Dunkle Augen: Mehr Grauer Star, häufiger Komplikationen bei Transplantationen
Bei der Entwicklung einer Linsentrübung, auch Grauer Star oder Katarakt genannt, sind Dunkeläugige dagegen im Nachteil. Diese Augenerkrankung entwickelt sich bei Menschen mit braunen Augen zwei bis viermal so häufig wie bei blauäugigen Menschen – ein Effekt, der auch innerhalb der weißen Bevölkerung nachgewiesen wurde und somit von der Ethnie unabhängig zu sein scheint.2 „Eine Theorie hierzu besagt, dass in der vorderen Augenkammer eine umso höhere Temperatur herrscht, je mehr Licht durch die Iris absorbiert wird“, erläutert Cursiefen. Bei dunkler Iris wäre demnach mit einer leicht erhöhten Temperaturbelastung zu rechnen, die wiederum einen bekannten Risikofaktor für die Entstehung des Grauen Stars darstellt. So ist die hitzebedingte Katarakt etwa bei Schweißern als Berufskrankheit anerkannt.

Auch das Ergebnis operativer Eingriffe am Auge kann von der Augenfarbe abhängen. Bei einer Hornhauttransplantation, bei der die Hornhaut in ihrer gesamten Dicke ausgetauscht wird („perforierende Keratoplastik“), werden Abstoßungsreaktionen und andere Komplikationen häufiger beobachtet, wenn die Iris dunkel ist. „Hier wird ein Einfluss des Melanins auf das Immungeschehen in der vorderen Augenkammer vermutet“, sagt Cursiefen. Womöglich verstärke das Pigment entzündliche Prozesse.

Unabhängig von dieser Beobachtung nimmt die Zahl der klassischen, perforierenden Hornhauttransplantationen seit einigen Jahren stark zugunsten minimal invasiver Techniken ab. In einer eigenen Arbeit haben Cursiefen und Kollegen daher die Komplikationsrate bei der minimal invasiven DMEK („Descemet Membrane Endothelial Keratoplasty“) untersucht, bei der lediglich die innerste Schicht der Hornhaut transplantiert wird. „Hier konnten wir keinen Effekt der Augenfarbe auf das Transplantatüberleben nachweisen“, so Cursiefen.3 Offenbar sei es durch den wesentlich schonenderen Ansatz gelungen, eine Immunaktivierung im Auge zu vermeiden und so den Einfluss des Melanins auszuschalten.

Ziel ist, erhöhte Risiken durch die Irisfarbe auszugleichen
„Die Beispiele zeigen, dass scheinbar unbedeutende Faktoren wie die Augenfarbe im klinischen Alltag durchaus relevant sein könnten“, so das Resümee der DOG-Experten. Nun gelte es, diese komplexen Zusammenhänge weiter zu definieren, bei der Behandlung zu berücksichtigen und, wo immer möglich, erhöhte Risiken und Nachteile auszugleichen.

Quellen:
1 Sun HP,Lin Y,Pan CW. Iris color and associated pathological ocular complications:a review of epidemiologic studies. Int J Ophthalmol 2014;7(5):872-878. doi:10.3980/j.issn.2222-3959.2014.05.25

2 Pugazhendhi A et al. Neovascular Macular Degeneration: A Review of Etiology, Risk Factors and Recent Adavnces in Research and Therapy. Int J Mol Sci. 2021 Feb; 22(3): 1170. doi: 10.3390/ijms22031170

3 Hayashi T, Hos D, Schrittenlocher S, Siebelmann S, Matthaei M, Franklin J, Clahsen T, Bock F, Bachmann B, Cursiefen C. Effect of Iris Color on the Outcome of Descemet Membrane Endothelial Keratoplasty. Cornea. 2020 Jul;39(7):846-850. doi: 10.1097/ICO.0000000000002305.

(nach oben)


Berufliche Zukunft planen

Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Endlich geschafft – Abi in der Tasche! Wer noch zum Wintersemester ein Uni-Studium starten möchte, bekommt am 15. Juni bei der Wahl des Studiengangs Unterstützung. An diesem Donnerstag veranstalten die Hochschulen in NRW den Langen Abend der Studienberatung. Auch die Universität Duisburg-Essen (UDE) lädt Abiturient:innen, Oberstufenschüler:innen und Eltern ein. Eine Anmeldung ist nicht erforderlich.

Von 18 bis 21 Uhr können sich Uni-Interessierte im Akademischen Beratungs-Zentrum ABZ an der UDE am Campus Duisburg übers Studieren informieren. Insbesondere gibt es Beratungen zu Studiengängen der Ingenieurwissenschaften und der Physik & Energy Science. Dabei widmet sich das ABZ zudem Fragen der Inklusion. Die Berufsagentur für Arbeit (Ausbildung und duales Studium) wird mit ihrer Berufsberatung vertreten sein. Wer sich für Stipendien interessiert, erfährt darüber mehr vorab von verschiedenen Förderungswerken (ab 16 Uhr).

Beginn: 18 Uhr, ABZ, Geibelstraße 41 (Campus Duisburg)

Weitere Informationen:
https://www.uni-due.de/abz/studieninteressierte/langer_abend_der_studienberatung…

ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de

Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de

Wissenschaftliche Ansprechpartner:
ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de

(nach oben)


Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen.

Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen
Nächste Veranstaltung der „GO FUTURE!“-Vorlesungen findet am 14. Juni statt

Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen. Die Vorlesung findet am 14. Juni 2023 in Hörsaal 13 der Neuen Universität, Grabengasse 3-5, statt und beginnt um 17.00 Uhr. Eine Anmeldung ist nicht erforderlich.

Mit dem Projekt GO FUTURE! nimmt die Universität Heidelberg die insgesamt 17 Nachhaltigkeitsziele der Vereinten Nationen in den Blick: Damit verbindet sich der globale Plan, Frieden und Wohlstand zu fördern, Armut zu bekämpfen, Ungleichheit zu verringern und die Umwelt und unseren Planeten zu schützen. Doch was genau verbirgt sich hinter den SDGs – den Sustainable Development Goals? Was können Wissenschaft und Forschung leisten, um diese Ziele zu verwirklichen? Diese Fragen gemeinsam mit Kindern und Jugendlichen zu diskutieren, ist Anliegen des Projekts GO FUTURE!, das die Universität Heidelberg im Rahmen von heiSCHOOL – der neuen Dachmarke für die „Kinderuni“ und die „Junge Uni“ – ins Leben gerufen hat.

Ein zentraler Teil des Projekts ist eine Vorlesungsreihe, die über insgesamt sechs Semester läuft. Nach „Alles Klima?!“ – dem zentralen Thema des vergangenen Wintersemesters – wird die Reihe im Sommersemester mit Vorlesungen zu der Frage „Ein bisschen Frieden?“ fortgesetzt. Dem Auftakt zum „Kampf ums Klima – Von der ,Letzten Generation‘ und Klimaklagen“ folgen drei weitere Veranstaltungen, in denen es um die Entstehung von Kriegen (28. Juni) sowie um Konflikte in der Energiewende (5. Juli) und um Cybersicherheit (12. Juli) gehen wird. Neben Schülerinnen und Schülern sind alle Interessierten eingeladen, die Vorlesungsreihe zu besuchen.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.uni-heidelberg.de/de/heischool/go-future/ein-bisschen-frieden – Vorlesungen „Ein bisschen Frieden?“
http://www.uni-heidelberg.de/de/heischool/go-future/wenn-uni-schule-macht – Projekt GO FUTURE!
http://www.uni-heidelberg.de/de/heischool/go-future/ziele-fuer-nachhaltige-entwi… – Videos GO FUTURE!
http://www.uni-heidelberg.de/de/heischool – heiSCHOOL

(nach oben)


Großstädteranking 2023: Menschen in Hamburg am glücklichsten – in Leipzig am unglücklichsten

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Studie unter Leitung des Freiburger Wirtschaftswissenschaftlers Bernd Raffelhüschen untersucht 12 Großstädte im Rahmen des „SKL Glücksatlas“
• Einkommenshöhe, persönliche Gesundheit, Zusammengehörigkeitsgefühl und öffentliche Verwaltung sind wichtigste Gründe
• Je zufriedener die Bürger*innen, desto optimistischer blicken sie in die Zukunft

Die glücklichsten Großstädter*innen Deutschlands leben in Hamburg. Das ist das Ergebnis der Studie „SKL Großstädteranking 2023“ unter Leitung des Wirtschaftswissenschaftlers Prof. Dr. Bernd Raffelhüschen von der Wirtschafts- und Verhaltenswissenschaftliche Fakultät der Universität Freiburg, die im Rahmen des SKL Glücksatlas erschienen ist. Für das Ranking wurde die deutschsprachige Wohnbevölkerung in 12 Großstädten (Berlin, Hamburg, München, Köln, Frankfurt, Stuttgart, Düsseldorf, Leipzig, Dresden, Hannover, Bremen, Essen) mit Online-Zugang und einem Alter zwischen 16-74 Jahren repräsentativ hinsichtlich ihrer Lebenszufriedenheit befragt. Auch die Gründe für die Zufriedenheit wurden erhoben. Die Befragung fand zwischen 30. März und 24. April 2023 statt. Den Glücksatlas gibt es seit 2011, seit 2022 ist die Süddeutsche Klassenlotterie (SKL) Partnerin der Studie.

Den ersten Platz des Städterankings in der Kategorie allgemeine Lebenszufriedenheit erreicht Hamburg mit 7,16 Punkten (auf einer Skala von 0 bis 10 Punkten), gefolgt von Frankfurt am Main (7,07 Punkte) und dem drittplatzierten München (6,9 Punkte). Diese drei Städte erreichen überdurchschnittlich hohe persönliche Glückswerte sowie sehr gute Zufriedenheiten mit städtischen Merkmalen wie etwa dem Wirtschaftsstandort. „Insgesamt ist festzustellen, dass für die Zufriedenheit der Bürger*innen mit ihrer Stadt besonders die Höhe der Einkommen, die persönliche Gesundheit, das Zusammengehörigkeitsgefühl der Bürger und die Arbeit der öffentlichen Verwaltung wichtig sind“, sagt Bernd Raffelhüschen.

Auf Rang 4 folgt Berlin mit 6,88 Punkten. Die befragten Berliner*innen zeigen eine hohe Zufriedenheit mit ihrem Leben, dem Einkommen und dem Arbeitsleben, sind aber mit den städtischen Angeboten, besonders mit der Verwaltung, unzufrieden. Das Mittelfeld beginnt mit Hannover (6,75 Punkte) auf Platz 5. Die Hannoveraner*innen sind mit Familie und Gesundheit mäßig zufrieden, städtische Bereiche wie Verkehr und die Verwaltung bewerten sie indes positiv. Im sechstplatzierte Düsseldorf (6,69 Punkte) gibt es eine hohe Zufriedenheit mit dem Einkommen und dem Wirtschaftsstandort, Unzufriedenheit gibt es mit der Verkehrsinfrastruktur.

Die untere Hälfte des Rankings vereint neben den eher schwächeren Wirtschaftsdaten (Ausnahme: Stuttgart) eine allgemeine Unzufriedenheit mit dem Verkehr, der Sicherheit, aber auch mit der öffentlichen Verwaltung. In Köln (7. Platz, 6,65 Punkte), Essen (8. Platz, 6,63 Punkte) und Bremen (10. Platz, 6,5 Punkte) sind darüber hinaus die Arbeitslosenzahlen wie Unterbeschäftigung oder die SGBII-Quote eher hoch. Die beiden Letztplatzierten Leipzig (12. Platz, 6,44 Punkte) und Dresden (11. Platz, 6,49 Punkte) haben beide eine etwas ältere Bevölkerung und vergleichsweise schwache Wirtschaftszahlen. Die Dresdner sind mit dem persönlichen Leben eher unzufrieden, aber begeistert von ihrer Stadt. Stuttgart erhält einen schwachen 9. Platz (6,54 Punkte). Hervorstechend ist hier die hohe Unzufriedenheit mit dem Zusammengehörigkeitsgefühl.

Wirtschaftsstandort als Faktor
Spitzenreiter Hamburg punktet insbesondere auch in der Kategorie Wirtschaftsstandort. Das Bruttoinlandsprodukt pro Kopf liegt dort bei 64.000 Euro, Leipzig bei 38.000 Euro. Diese Unterschiede spiegeln sich auch in der Zufriedenheit mit dem Einkommen wider, die in Hamburg hoch und in Leipzig niedrig ist. Die Hamburger*innen bewerten die Attraktivität ihrer Stadt als Wirtschaftsstandort mit dem Topwert von 7,0 Punkten. Die Leipziger*innen geben ihrem Wirtschaftsstandort nur durchschnittliche 6,55 Punkte. Die Gleichung „Einkommen gleich Zufriedenheit“ gilt jedoch nicht uneingeschränkt. Es gibt auch Ausnahmen: Obwohl Düsseldorf (Platz 6) und Stuttgart (Platz 9) wohlhabend sind, sind sie nur mittelmäßig zufrieden. Die Gründe liegen unter anderem in unzureichender Stadtpolitik, wie die Bewertungen der öffentlichen Verwaltung zeigen. Generell wird die Stadtverwaltung von den Bürger*innen am schlechtesten von allen Bereichen beurteilt, Kultur- und Naherholungsmöglichkeiten am besten.

Zusammengehörigkeitsgefühl als Faktor
Das Zusammengehörigkeitsgefühl ist ein weiterer wichtiger Faktor für die Stadtzufriedenheit. Es wird umso stärker empfunden, wenn die Bürger*innen sich sicher und entspannt in ihrer Stadt bewegen können, wenn die Nachbarschaft funktioniert und wenn die Menschen gerne in Vereinen, in der Kommune oder bei Stadtfesten ehrenamtlich engagiert sind. Tendenziell gilt, dass Städte (etwa Leipzig, Berlin, Bremen, Essen), deren Bürger*innen mit dem Zusammengehörigkeitsgefühl unzufrieden sind, auch mit der Verwaltung und mit der Sicherheitslage ihrer Stadt unzufrieden sind. Die Zufriedenheit mit der Stadtverwaltung hängt aber auch von der Steuerkraft und den Sachinvestitionen der Städte ab. Je wohlhabender eine Stadt – wie zum Beispiel Frankfurt, Hamburg oder München – desto eher kann sie in Krankenhäuser, Schulen und Straßen investieren.

Generell gilt, so das Fazit der Forschenden: Je zufriedener eine Großstadt, desto optimistischer schauen ihre Bürger*innen auch in die Zukunft. Und: Wenn die Bürger mit dem eigenen Leben zufrieden sind, dann bewerten sie auch die Zufriedenheit mit der Stadt positiv.

Weitere Informationen:
https://www.skl-gluecksatlas.de/info/presse

Wissenschaftliche Ansprechpartner:
Timon Renz, M.Sc.
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-5480
E-Mail: timon.renz@vwl.uni-freiburg.de

Prof. Dr. Bernd Raffelhüschen
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2353
E-Mail: bernd.raffelhueschen@vwl.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/grossstaedteranking-2023

(nach oben)


Erkenntnisse und Folgen: COVID-19-Forschung aus Magdeburg vorgestellt

Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
Wie ist die Corona-Pandemie in der Landeshauptstadt Magdeburg verlaufen? Was ist über die einzelnen Virusvarianten und zu Therapieansätzen bekannt? Welche Erkenntnisse zu den Folgen der Viruserkrankung liegen bereits vor und wie steht es um die Versorgung von Betroffenen mit Long-COVID? Über diese und weitere Fragen diskutierten 75 Wissenschaftlerinnen und Wissenschaftler der Universitätsmedizin Magdeburg im Beisein von Wissenschaftsminister Prof. Dr. Armin Willingmann heute im Rahmen eines wissenschaftlichen Symposiums zu medizinischer COVID-19 Forschung.

Ziel des Symposiums war es, nach drei Jahren Pandemie und dem Auslaufen letzter bundesweiter Schutzmaßnahmen, über die bisherige Pandemieforschung am Standort Magdeburg in den wissenschaftlichen Austausch zu gehen und dabei auch offene Forschungsfragen in den Blick zu nehmen. Ausrichter war die Lokale Stabstelle des Netzwerks Universitätsmedizin (NUM) in Magdeburg unter der Leitung von Mikrobiologe Prof. Dr. med. Achim Kaasch.

Insgesamt 29 Forschungsprojekte wurden im Rahmen der Veranstaltung präsentiert. Professor Kaasch betonte: „Die Universitätsmedizin Magdeburg hat sich bereits seit der ersten Stunde an dem Nationalen Forschungsnetzwerk der Universitätsmedizin im Kampf gegen COVID-19 beteiligt. Aber auch darüber hinaus forschen zahlreiche Arbeitsgruppen hier am Standort zu diesem Thema.“ Darunter sind großangelegte Studien zur Immunreaktion, zur Verbreitung des Virus im Großraum Magdeburg, zu Auswirkungen der Corona-Pandemie unter anderem für die Risikogruppen der älteren Menschen, Pflegepersonal und pflegende Angehörige sowie zur Versorgung von Betroffenen mit Long-COVID. Ein Vorhaben befasst sich mit Surveillance und Testung, ein weiteres mit den Thema Pandemiemanagement. Auch das deutschlandweit einmalige „AKTIN-Register“, durch welches das Robert Koch-Institut seit März 2020 täglich wichtige Echtzeit-Daten zur Lage in deutschen Notaufnahmen während der COVID-19-Pandemie erhält, zählte zu den vorgestellten Projekten.

Als Vertreter des Fakultätsvorstandes der Medizinischen Fakultät der Otto-von-Guericke-Universität Magdeburg richtete Forschungsdekan Prof. Dr. med. Florian Junne ein Grußwort an die Gäste und unterstrich: „Unsere Wissenschaftlerinnen und Wissenschaftler haben mit ihren Forschungsprojekten über die neuartige Infektionskrankheit COVID-19 maßgeblich dazu beigetragen, Gesundheitseinrichtungen, Gesellschaft und auch Politik bei der Bewältigung der Corona-Krise zu unterstützen. Und obwohl wir seit Ausbruch der Pandemie einige wertvolle Erkenntnisse gewonnen haben, sind vor allem die Langzeitfolgen für Erkrankte noch weitestgehend unerforscht. Deshalb wollen wir als Universitätsmedizin Magdeburg weitere wissenschaftliche Anstrengungen unternehmen, um unter anderem für Betroffene mit den Krankheitsbildern Long COVID beziehungsweise Post-COVID-19 verbesserte Therapiestrategien zu entwickeln.“ „Aber auch die Frage nach der Pandemie-Resilienz, das heißt, wie gut sind wir auf künftige Pandemien vorbereitet und wie kann im Gesundheitssystem eine größere Resilienz erreicht werden, wird uns noch weiter beschäftigen“, ergänzt Professor Kaasch. Zu diesen und weiteren wissenschaftlichen Folgefragen wurde in einem offenen fachlichen Austausch im Rahmen einer gemeinsamen Poster-Ausstellung am Nachmittag diskutiert.

Wissenschaftsminister Prof. Dr. Armin Willingmann würdigte das hohe Engagement der Magdeburger Forscherinnen und Forscher im Kampf gegen die Corona-Pandemie. „Die Corona-Pandemie hat verdeutlicht, wie wichtig medizinische Spitzenforschung ist und welch großer Beitrag hier von der Universitätsmedizin geleistet werden kann: in der Erforschung, in der Therapie und nicht zuletzt auch in der Politikberatung. Diese Pandemie haben wir auch dank hervorragender wissenschaftlicher Leistungen überwunden. Als Erkrankung bleibt Covid-19 jedoch eine Herausforderung. Noch immer gibt es Ansteckungen und auch die Therapie von Long- und Post-Covid-Fällen sollte weiter optimiert werden. Deshalb wird das Land Sachsen-Anhalt die Universitätsmedizin in Magdeburg und Halle weiterhin bei ihren vielfältigen Forschungsprojekten unterstützen“, so Willingmann.

Lokale Stabstelle des Netzwerks Universitätsmedizin
Die Lokale Stabsstelle des Netzwerk Universitätsmedizin (NUM) in Magdeburg fungiert als Schnittstelle zwischen der zentralen Koordinierungsstelle des NUM an der Charité – Universitätsmedizin Berlin, den Wissenschaftlerinnen und Wissenschaftlern am Standort Magdeburg sowie den weiteren Lokalen Stabsstellen anderer Universitätsmedizinstandorte.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Achim Kaasch, Direktor des Institutes für Medizinische Mikrobiologie und Krankenhaushygiene Magdeburg (IMMB), Otto-von-Guericke-Universität Magdeburg, Tel.: 0391-67-13392, achim.kaasch@med.ovgu.de

(nach oben)


Sportrecht: Wo Sport und Staat sich berühren

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Wissenschaftspodcast mit Professor Martin Nolte über Sportregeln, Diskriminierung im Fußball, Anti-Doping und vieles mehr: https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/

Wer jemandem auf offener Straße ins Gesicht boxt, bekommt es mit der Polizei zu tun. In manchen Sportarten gibt es für gezielte Schläge auf den Kopf Punkte und Medaillen. Möglich ist das, weil Sportorganisationen selbst definieren können, was in ihrer Sportart erlaubt ist. Sie können sich selbst Regeln geben und in eigenen Gerichten verhandeln. Aber nur innerhalb bestimmter Grenzen. Denn auch im Sport greift staatliches Recht, zum Beispiel bei Spielmanipulation oder Doping.

Ein ausgewiesener Experte des Sportrechts und einziger Professor in Deutschland auf diesem Gebiet ist Univ.-Prof. Dr. Martin Nolte. Er leitet das Institut für Sportrecht der Deutschen Sporthochschule Köln und ist aktueller Gast im Wissenschaftspodcast „Eine Runde mit …“. Ein Rechtsthema in einem Podcast mag für einige auf den ersten Blick trocken klingen, doch Martin Nolte nimmt die Hörer*innen direkt humorvoll mit: „Gerade, wenn es um trockene Themen geht, muss man viel Wasser reinbringen. Denken wir zum Beispiel an Wassersport. Da paddeln Sie mit dem Kanu durch eine schöne Schilflandschaft und ignorieren das Schild ‚Kanu fahren verboten‘. Sie verstoßen gegen eine Regel, bekommen einen Bußgeldbescheid, Sie gehen dagegen vor und schon sind Sie im Rechtsstreit.“ Über die Grenzen von Sportregeln spricht Prof. Martin Nolte im Podcast ebenso wie über Diskriminierung im Fußball und die Wirksamkeit von Anti-Doping-Regeln. So hat er beispielsweise wissenschaftlich ausgewertet, wie genau die Leistungssportler*innen in Deutschland den Nationalen Anti-Doping Code kennen und ihn beherzigen. Sein Fazit: „Es wäre schön, wenn sich die Straßenverkehrsteilnehmer in Deutschland so an die Straßenverkehrsordnung hielten wie die Leistungssportler an die Anti-Doping-Regeln.“

Der Sportrechtsexperte skizziert auch aktuelle Fälle, an denen er arbeitet. Er erstellte etwa ein Gutachten im Fall Vušković. 2022 wurde der Fußballprofi Mario Vušković positiv auf das Dopingmittel EPO getestet. Die Anti-Doping-Regeln sehen eine vierjährige Sperre vor, das DFB-Sportgericht verhängte zwei Jahre, also zwei Jahre weniger als die Regel der Nationalen Anti Doping Agentur (NADA) besagt. Nolte erklärt, wie das zustande kommt. Seine wissenschaftliche Arbeit hat auch ganz konkret Effekte für die Praxis, zum Beispiel, wenn er eine Finanzierungsgarantie für den gemeinnützigen Sport aus Glücksspielerträgen entwickelt oder einen Safe Sport Code erarbeitet, der als Regelwerk gegen interpersonale Gewalt im Sport dienen soll. Neben seiner fachlichen Expertise spricht Martin Nolte bei „Eine Runde mit …“ auch über seine Leidenschaft für den Orientierungslauf, eine Sportart, die ihn schon sein ganzes Leben lang begleitet und ihm – privat wie beruflich – Orientierung gibt.

„Eine Runde mit …“ ist auf allen gängigen Podcast-Plattformen und auf der Website der Deutschen Sporthochschule Köln zu finden: https://www.dshs-koeln.de/einerundemit.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Martin Nolte
Institut für Sportrecht
E-Mail: m.nolte@dshs-koeln.de
Tel.: +49 221 4982-6088

Originalpublikation:
https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/

(nach oben)


Lokales Artensterben womöglich oft unterschätzt

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Eine neue Studie zur Biodiversität zeigt, dass die Artenzahl kein verlässliches Maß ist, um Ökosysteme zu überwachen. Demnach können scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Solche Übergangsphasen zeigen sich aufgrund systematischer Verzerrungen selbst in langjährigen Datenreihen erst mit Verzögerung, so ein Ergebnis der Untersuchung unter Leitung der Universität Oldenburg, die jetzt in der Zeitschrift Nature Ecology & Evolution erschienen ist.

Scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl können bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Selbst in langjährigen Datenreihen können sich solche Umbrüche erst mit Verzögerung zeigen. Grund dafür sind systematische Verzerrungen der zeitlichen Trends in der Artenzahl, wie eine aktuelle Studie zeigt, die jetzt in der Zeitschrift Nature Ecology & Evolution veröffentlicht wurde. „Unsere Resultate sind wichtig, um zu verstehen, dass die Artenzahl allein kein verlässliches Maß dafür ist, wie stabil das biologische Gleichgewicht in einem bestimmten Ökosystem auf lokaler Ebene ist“, sagt Dr. Lucie Kuczynski, Ökologin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Hauptautorin der Untersuchung, in der sie und ihre Kollegen Beobachtungsdaten von Süßwasserfischen und Vögeln mit Simulationsrechnungen kombinierten.

Das Forschungsteam, zu dem neben Kuczynski auch Prof. Dr. Helmut Hillebrand vom ICBM und Dr. Vicente Ontiveros von der Universität von Girona in Spanien gehörten, war von den Ergebnissen überrascht: „Uns erfüllt mit Sorge, dass eine gleichbleibende oder sogar zunehmende Artenvielfalt nicht unbedingt bedeutet, dass in einem Ökosystem alles in Ordnung ist und die Artenzahl langfristig konstant bleibt“, erläutert Hillebrand. „Offenbar haben wir etwa bei Süßwasserfischen negative Trends bislang unterschätzt. Arten verschwinden auf lokaler Ebene schneller als wir dachten“, so Kuczynski.

Bislang war die Biodiversitätsforschung davon ausgegangen, dass die Artenzahl in einem Ökosystem langfristig gleich bleibt, wenn sich die Umweltbedingungen nicht verschlechtern oder verbessern. „Es handelt sich dabei um ein dynamisches Gleichgewicht zwischen Neuansiedlungen und lokalen Auslöschungen“, so Hauptautorin Kuczynski. Zunehmende oder abnehmende Artenzahlen werden als Reaktion auf verbesserte oder verschlechterte Umweltbedingungen interpretiert. Um herauszufinden, ob sich aus einer konstanten Artenzahl tatsächlich auf ein stabiles biologisches Gleichgewicht schließen lässt, analysierten Kuczynski und ihre Kollegen zunächst mehrere tausend Datensätze, in denen die Artenzahl von Süßwasserfischen in Europa und Brutvögeln in Nordamerika in verschiedenen Gegenden über viele Jahre – bei den Fischen im Durchschnitt 24, bei den Vögeln 37 Jahre – dokumentiert worden war. Die Forschenden wollten so ermitteln, welche Trends sich bei den einzelnen Lebensgemeinschaften zeigten. Anschließend verglichen sie die Beobachtungsdaten mit verschiedenen Simulationsmodellen, in denen sie unterschiedliche Annahmen für die Einwanderung und das Verschwinden von Arten trafen.

Das Team fand zunächst heraus, dass die Artenzahl sowohl bei den Fischen als auch bei den Vögeln in den Beobachtungszeiträumen generell anstieg. Ein Vergleich mit den Simulationen zeigte aber, dass dieser Anstieg geringer ausfiel als es eigentlich zu erwarten gewesen wäre. Diese Diskrepanz führten die Forschenden auf ein Ungleichgewicht zwischen Neubesiedlung und lokalem Aussterben zurück: „Tiere wie Süßwasserfische, die sich nur begrenzt ausbreiten können, besiedeln unserer Simulation zufolge ein Ökosystem schneller als in klassischen Modellen, während das Aussterben später eintritt als erwartet“, so Kuczynski. Dies führe dazu, dass nach einer Umweltveränderung in einem Ökosystem noch eine Zeitlang Arten zu finden sind, die eigentlich schon zum Aussterben verdammt sind, während gleichzeitig neue Spezies einwandern. Dieser Effekt verschleiere den drohenden Verlust an Biodiversität: „In Ökosystemen treten Übergangsphasen auf, in denen die Artenzahl höher ist als erwartet“, so die Umweltforscherin. Das Artensterben tritt erst nach diesen Übergangsphasen auf – und dann in der Regel schneller als erwartet.

Das Team geht davon aus, dass man nun neu darüber nachdenken muss, mit welchen Methoden sich Ökosysteme am besten überwachen lassen. Auch Naturschutzziele – die oft vor allem darin bestehen, die bestehende Artenvielfalt zu erhalten – müssten womöglich neu definiert werden. Das von Kuczynski und Kollegen entwickelte Modell könnte dabei als Werkzeug dienen, um verschiedene Mechanismen auseinanderzuhalten, die die Artenzahl beeinflussen. Es liefert zudem Informationen darüber, wie stark die Beobachtungsdaten von den zu erwartenden Veränderungen abweichen.

Wissenschaftliche Ansprechpartner:
Dr. Lucie Kuczynski, E-Mail: lucie.kuczynski@uol.de (nur Englisch)
Prof. Dr. Helmut Hillebrand, E-Mail: helmut.hillebrand@uol.de

Originalpublikation:
Lucie Kuczynski, Vicente J. Ontiveros, Helmut Hillebrand: „Biodiversity time series are biased towards increasing species richness in changing environments”, Nature Ecology & Evolution, doi.org/10.1038/s41559-023-02078-w

Weitere Informationen:
http://uol.de/icbm/planktologie

(nach oben)


Dortmunder FOM Studierende erfinden neuen Deckel für PET-Einwegflaschen

Nils Jewko Pressestelle
FOM Hochschule
Wer sich eine Getränkeflasche aus Plastik kauft, stellt häufig fest, dass der Deckel nach dem Öffnen mit der Flasche verbunden bleibt. Dahinter steckt eine EU-Vorgabe, die in Deutschland teilweise schon umgesetzt wird. Demnach dürfen PET-Einwegflaschen ab Juli 2024 nur noch mit so einem Verschluss verkauft werden. Eine solche Konstruktion haben nun auch drei Studierende der FOM Hochschule in Dortmund im Rahmen ihres Maschinenbau-Studiums gemeinsam mit einem Dozenten entwickelt. Der große Unterschied zu bereits im Handel erhältlichen Flaschen: Durch eine besondere Laschenverbindung soll der Deckel ausreichend Abstand zur Flaschenöffnung haben und somit nicht beim Trinken stören.

„Der Deckel ist simpel, effektiv und kostengünstig. Er soll sich vor allem für kleinere Firmen lohnen, die nicht über ausreichend Konstruktionsmöglichkeiten und Entwicklungsbudget verfügen. Darauf lag unser Hauptaugenmerk“ sagt FOM Student Marius Wachholz, der den Deckel gemeinsam mit seinen FOM Kommilitonen Simon Börgel und Jan Limpak sowie FOM Dozent Prof. Dr. Jochen Remmel entwickelt hat. Das Besondere an dem Deckel ist die wendelartige Laschenverbindung: Dadurch ist er fest mit dem Flaschenring verbunden – aber mit ausreichend Abstand zum Flaschenhals.

Idee kam während einer Vorlesung
Die Idee für den Deckel kam den FOM Studierenden während einer Konstruktionsvorlesung bei Prof. Remmel im Rahmen ihres Bachelor-Studiums in „Maschinenbau“ (mittlerweile „Maschinenbau & Digitale Technologien“). Der Ausgangspunkt: Eine bereits erhältliche PET-Einwegflasche mit einem Deckel nach der EU-Vorgabe, die einer der Studierenden dabei hatte. Sie ärgerten sich über die Konstruktionsweise, vor allem darüber, dass sie der Deckel beim Trinken stört. „Wir haben uns gedacht, dass es dafür eine bessere Lösung geben muss“, sagt Marius Wachholz. Die Studierenden fingen an zu tüfteln, verfolgten verschiedene Ansätze – bis sich am Ende die Idee mit der Laschenverbindung durchsetzte.

Erfindung als Gebrauchsmuster angemeldet
„Aus einer Idee, die im Hörsaal entstanden ist, ist eine praktische Lösung geworden. Das unterstreicht, dass an der FOM großen Wert auf den Theorie-Praxis-Transfer gelegt wird“, sagt Prof. Remmel, der die Erfindung gemeinsam mit den Studierenden beim Deutschen Patent- und Markenamt als Gebrauchsmuster angemeldet hat. Bislang wurde zwar noch kein Deckel produziert, aber die ersten Schritte sind bereits in Planung: „Wir wollen Kontakt mit Firmen aufnehmen, um unseren Deckel vorzustellen. Wir sehen in unserem Produkt eine einfache Lösung für ein vorhandenes Problem“, sagt Marius Wachholz.

Hintergrund
Die EU-Vorgabe
Dass der Deckel fest an der Flasche hängen bleibt, geht auf ein großes Maßnahmenpaket der EU zur Vermeidung von Plastikmüll zurück. Zwar gilt die Regel erst ab Juli 2024 für alle PET-Einwegflaschen bis zu drei Litern, sie wird aber teilweise schon umgesetzt. Durch die Konstruktion soll der Deckel gemeinsam mit der Flasche recycelt werden und nicht in der Umwelt landen. Andere Produkte wie Trinkhalme aus Plastik oder Einweg-Besteck sind in Deutschland bereits verboten.

(nach oben)


Unterschätzter Wärmespeicher

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Der Klimawandel hat viele Effekte – der bekannteste davon ist die globale Erwärmung. Die überschüssige Wärme wird zu 89 Prozent in den Ozeanen gespeichert, der Rest von Eis und Gletschern, der Atmosphäre und von Landmassen. Ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) hat nun die gespeicherte Wärmemenge an Land (inklusive der Binnengewässer) untersucht und deren Verteilung aufgezeigt. Die im Fachjournal Earth System Dynamics veröffentlichten Berechnungen zeigen, dass dort im Jahr 2020 mehr als das 20-fache im Vergleich zu 1960 gespeichert wurde, wobei der stärkste Anstieg unter der Erde stattfand.

Die Zunahme der menschgemachten Treibhausgase in der Atmosphäre verhindert, dass Wärme ins All abgegeben wird. Folglich nimmt die Erde stetig mehr Sonnenstrahlung auf, als sie durch Wärmestrahlung abgeben kann. Diese zusätzliche Energie, das zeigen frühere Studien, wird gespeichert: vor allem in den Ozeanen (89 Prozent), aber auch in den Landmassen der Kontinente (5-6 Prozent), in Eis und Gletschern (4 Prozent) und in der Atmosphäre (1-2 Prozent). Noch hat dieses Wissen aber Lücken: Unklar war bislang etwa, wie sich diese zusätzliche Wärmemenge in den kontinentalen Landmassen genau verteilt.

Dem Forschungsteam unter Leitung des UFZ und mit Beteiligung von Wissenschaftler:innen des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Vrije Universiteit Brussel und anderer Forschungszentren gelang es, genauer zu quantifizieren, wie viel Wärme zwischen 1960 und 2020 in den kontinentalen Landmassen gespeichert wurde. Das Ergebnis: Insgesamt wurden dort zwischen 1960 und 2020 23,8 x 1021 Joule Wärme aufgenommen. Zum Vergleich: Das entspricht in etwa dem 1.800-fachen Stromverbrauch Deutschlands in der gleichen Zeit. Mit einem Anteil von rund 90 Prozent wird die meiste Wärme bis zu 300 Metern tief in der Erde gespeichert; 9 Prozent der Energie sorgen für das Auftauen von Permafrostböden in der Arktis, 0,7 Prozent werden in Binnengewässern wie beispielsweise Seen und Stauseen gespeichert. „Obwohl die Binnengewässer und Permafrostböden weniger Wärme speichern als die Böden, müssen sie dauerhaft beobachtet werden, denn die zusätzliche Energie sorgt für bedeutsame Veränderungen der Ökosysteme“, sagt der UFZ-Forscher Francisco José Cuesta-Valero, Erstautor der Studie.

Nachweisen konnten die Wissenschaftler:innen auch, dass sich die gespeicherte Wärmemenge unter der Erde, in Permafrostböden und in Seen seit den 1960er Jahren kontinuierlich erhöht hat. So nahm sie im Boden im Vergleich der beiden Dekaden 1960-1970 und 2010-2020 fast um das 20-fache von 1,007 auf 18,83 x 1021 Joule zu, in den Permafrostregionen von 0,058 auf 2,0 x 1021 Joule und in Binnengewässern von -0,02 auf 0,17 x 1021 Joule. Die Forschenden hatten für die Berechnung der Wärmemengen in bis zu 300 Meter Tiefe weltweit mehr als 1.000 Temperaturprofile genutzt. Für die Schätzung der Wärmespeicherung in Permafrostböden und in den Binnengewässern setzten sie auf Modelle. Für die Modellierung der Gewässer kombinierten sie beispielsweise globale Seenmodelle, hydrologische Modelle und Erdsystemmodelle. Um die Wärmespeicherung in Permafrostböden abzuschätzen, nutzten sie ein Permafrostmodell, das verschiedene plausible Verteilungen des Bodeneises in der Arktis berücksichtigt. „Die Verwendung von Modellen ermöglichte es, den Mangel an Beobachtungen in vielen Seen und in der Arktis auszugleichen und die Unsicherheiten aufgrund der begrenzten Anzahl von Beobachtungen besser einzuschätzen“, erklärt Francisco José Cuesta-Valero.

Die Quantifizierung der thermischen Energie ist wichtig, weil mit ihrer Zunahme Prozesse einhergehen, die Ökosysteme verändern können und somit Folgen für die Gesellschaft haben. Dies gilt zum Beispiel für die dauerhaft gefrorenen Böden in der Arktis. „In Permafrostböden mag die Wärmemenge zwar nur neun Prozent der kontinentalen Wärmespeicherung ausmachen, der Anstieg in den letzten Jahren verstärkt aber durch das Auftauen des Permafrostes die Freisetzung von Treibhausgasen wie Kohlendioxid und Methan“, sagt Francisco José Cuesta-Valero. Nimmt die gespeicherte Wärmeenergie im Boden zu, erwärmt sich die Erdoberfläche und gefährdet damit beispielsweise die Stabilität des Kohlenstoffpools im Boden. Auf landwirtschaftlichen Flächen könnte das die Ernten und damit die Ernährungssicherheit der Bevölkerung gefährden. In Binnengewässern könnte sich der veränderte thermische Zustand auf die Dynamik der Ökosysteme auswirken: Die Wasserqualität verschlechtert sich, der Kohlenstoffkreislauf gerät durcheinander; es kommt vermehrt zu Algenblüten, was wiederum die Sauerstoffkonzentration und die Primärproduktivität verändert und sich damit auf den Fischfang auswirken könnte.

Co-Autor Prof. Dr. Jian Peng, Leiter des UFZ-Departments Remote Sensing, bilanziert deshalb: „Es ist wichtig, die von den kontinentalen Landmassen absorbierte zusätzliche Wärmemenge genauer zu quantifizieren und zu überwachen. Denn dies ist ein wichtiger Indikator, um zu verstehen, wie sich aufgrund der Wärmespeicherung die Veränderungen der natürlichen Prozesse künftig auf die Natur und den Menschen auswirken werden“.

Wissenschaftliche Ansprechpartner:
Francisco José Cuesta-Valero
UFZ-Department Remote Sensing
francisco-jose.cuesta-valero@ufz.de

Prof. Dr. Jian Peng
Leiter UFZ-Department Remote Sensing
jian.peng@ufz.de

Originalpublikation:
Francisco José Cuesta-Valero, Hugo Beltrami, Almudena García-García, Gerhard Krinner,
Moritz Langer, Andrew H. MacDougall, Jan Nitzbon, Jian Peng, Karina von Schuckmann, Sonia I. Seneviratne, Wim Thiery, Inne Vanderkelen, and Tonghua Wu. Continental Heat Storage: Contributions from the Ground, Inland Waters, and Permafrost Thawing. Earth System Dynamics. https://doi.org/10.5194/esd-14-609-2023

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=20/2023

(nach oben)


Vor allem bei Übergewicht: Fachleute warnen vor verstecktem Muskelschwund

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Proteine & Kraftsport könnten helfen, wenn adipöse Patient:innen an Muskelschwund litten. Doch meist werde die Krankheit nicht erkannt, so Prof. Dr. Bischoff von der Uni Hohenheim

Es sei ein bislang kaum beachtetes Krankheitsbild, und es beträfe vor allem Menschen mit starkem Übergewicht, der sog. Adipositas: Aufgrund von Bewegungsmangel könne es bei dieser Bevölkerungsgruppe zu einem schleichenden Muskelschwund kommen, der unter dem Fettmantel verborgen und damit unentdeckt bleibe. Prof. Dr. med. Stephan Bischoff von der Universität Hohenheim in Stuttgart gehört zu einem internationalen Experten-Panel, das das neue Krankheitsbild der sogenannten „sarkopenen Adipositas“ definierte und Kriterien zur Diagnose erarbeitete. Ihre Ergebnisse veröffentlichten die Fachleute in den Zeitschriften „Clinical Nutrition“ und „Obesity Facts“ (https://doi.org/10.1159/000521241). Im nächsten Schritt gelte es nun, geeignete Therapien zu entwickeln.

Muskelschwund aufgrund von Bewegungsmangel sei eine Krankheit, die bislang vor allem bei betagten Menschen, bei chronisch Kranken und als Folge längerer Phasen der Unbeweglichkeit beobachtet werde. Beispiele für solche chronischen Krankheiten könnten Krebs, Herzinsuffizienz oder Diabetes sein. Längere Unbeweglichkeit könne z.B. durch langes Tragen eines Gipsverbandes oder längere Bettlägerigkeit verursacht werden.

Neu sei allerdings die Erkenntnis, dass auch junge Menschen an Muskelschwund leiden können, wenn sie entsprechendes Körpergewicht auf die Waage brächten, erklärt Ernährungsmediziner Prof. Dr. med. Bischoff. „Mit zunehmendem Übergewicht steigt erst einmal die Muskelmasse, um die Gewichtszunahme auszugleichen. Danach erreicht die Muskelmasse jedoch oft einen Kipp-Punkt, ab dem sie aufgrund von Bewegungsmangel wieder abnimmt.“

Mit abnehmender Muskelmasse steigt die Gefahr von Erkrankungen

Das gefährliche daran: bei stark bis krankhaft übergewichtigen Menschen verberge die Decke aus Körperfett den gefährlichen Muskelverlust.

Die Folgen seien nicht zu unterschätzen, warnt Prof. Dr. Bischoff: „Patientinnen und Patienten mit Muskelschwund sind deutlich anfälliger für Krankheiten. Auch die Lebenserwartung sinkt“, so der Ernährungsmediziner.

Diesen Zusammenhang hätten zum Beispiel auch die Erkrankungswellen während der Covid-Pandemie illustriert: „Da sich Muskelschwund bei adipösen Menschen auch auf die Atemmuskulatur auswirkt, hatten diese aufgrund der verringerten Atemleistung deutlich schwerere Verläufe.“

Ein Viertel der Bevölkerung potentiell betroffen

In Deutschland seien Übergewicht und Adipositas leider kein Randgruppenphänomen: Rund die Hälfte der Bevölkerung in Deutschland sei inzwischen übergewichtig. Bei einem Viertel der Gesamtbevölkerung sei das Übergewichts so stark ausgeprägt, dass sie unter dem Namen Adipositas als Krankheit eingestuft werde, so Prof. Dr. Bischoff (s. Hintergrund).

Zuerst sei der Zusammenhang zwischen Adipositas und Muskelschwund durch eine Häufung von Einzelbeobachtungen aufgefallen. Um den Verdacht zu erhärten, entschlossen sich zwei Fachgesellschaften – die European Society for Clinical Nutrition and Metabolism (ESPEN) und die European Association for the Study of Obesity (EASO) – das Thema mit einer eigens einberufenen Expertenrunde zu klären.

In ihrem Auftrag führten Prof. Dr. med. Bischoff und über 30 Kolleg:innen die Expertise aus 16 Ländern Europas und aus Übersee zusammen. In einem 4-stufigen sogenannten Konsensus-Gespräch erarbeiteten die Fachleute aus verschiedenen Disziplinen eine klinische Definition und Diagnoseverfahren. Koordiniert wurde das Panel von Prof. Dr. Lorenzo Donini von der italienischen Universität Sapienza in Rom.

Konsenspapier empfiehlt Methodenmix zur Diagnose

Um die sogenannte „sarkopene Adipositas“ zu diagnostizieren, empfehlen sie einen Methodenmix. Dabei werden sowohl die Anteile von Fett- und Muskelmasse im Körper bestimmt als auch die Muskelfunktion gemessen.

Um die Körperzusammensetzung zu bestimmen, biete sich z.B. die Bioimpedanzanalyse an: Das Analysegerät leite einen schwachen Strom durch den Körper der Patient:innen. Aus dem elektrischen Widerstand lasse sich dann die Körperzusammensetzung berechnen. Alternativ könnten auch Messungen aus der Magnetresonanztomographie („MRT-Röhre“) verwendet werden.

Um die Muskelfunktion zu testen, gäbe es eine Reihe standardisierter Tests. Dabei werde z.B. gestoppt, wie oft Patient:innen in einer Minute aufstehen und sich wieder hinsetzen könnten oder welche Gehstrecke sie in 6 Minuten zurücklegten.

„Von der sarkopenen Adipositas sprechen wir dann, wenn sowohl der Anteil von Muskelmasse zu niedrig als auch die Muskelfunktion bereits beeinträchtigt ist“, erklärt Prof. Dr. med. Bischoff. Bei der endgültigen Diagnose würden dann noch Details wie Alter, Geschlecht oder auch die ethnische Zugehörigkeit berücksichtigt.

Proteinreiche Kost als Hoffnungsträger bei den Therapieformen

Wie die sarkopene Adipositas behandelt werden könne, sei derzeit noch Gegenstand der Forschung, betont der Ernährungsmediziner der Universität Hohenheim. Erste Ergebnisse zeichneten sich jedoch bereits ab.

„Aus der Adipositas kennen wir bereits einige Programme zur Gewichts-Reduzierung. Eines davon wenden wir seit rund 20 Jahren erfolgreich an der Universität Hohenheim an. Nun müssen wir noch mehr darauf achten, dass die Muskelmasse bei der Gewichtsabnahme möglichst unangetastet bleibt bzw. wieder aufgebaut wird. Am aussichtsreichsten dafür scheint die Kombination aus Krafttraining und proteinreicher Ernährung.“

Die proteinreiche Ernährung will Prof. Dr. Bischoff schon seit Jahrzehnten empfohlen und auch in eigener Praxis angewendet haben: „Bislang empfahlen wir die proteinreiche Kost vor allem deshalb, weil sie schnell den Hunger stillt und dadurch den Abnehm-Erfolgt erhöht.“

Anpassungsbedarf gäbe es voraussichtlich bei der Bewegungstherapie: „Wichtiger als Ausdauertraining scheint es, Gewichte zu stemmen – so wie es Bodybuilder und Gewichtheberinnen tun.“

Chirurgische Maßnahmen benötigen intensivere Nachsorge

Noch weitreichender seien die Folgen der neuen Erkenntnisse für chirurgische Maßnahmen gegen krankhaftes Übergewicht, bei denen der Magen verkleinert oder der Darm verkürzt werde.

„In solchen Fällen brauchen wir eine viel intensivere Nachsorge“, erklärt Prof. Dr. med. Bischoff. Denn gerade weil Proteine stark sättigten, sei es für Patient:innen mit verkleinertem Magen sehr schwierig, ausreichende Mengen zu sich zu nehmen. „Da stellt sich sehr schnell ein Völlegefühl oder Übelkeit ein.“

Auch das nötige Bewegungstraining erweise sich als komplex. „In einer ersten Studie zusammen mit dem Universitätsklinikum Tübingen hatten wir versucht, die Betroffenen zum Training in Eigenregie zu ermutigen.“, berichtet Prof. Dr. Bischoff. Dazu hätten die Patient:innen eine Wii-Konsole und entsprechende Trainingsprogramme erhalten.

Der Erfolg sei bei diesem Ansatz jedoch überschaubar geblieben. „Es zeigt sich, dass Betroffene gerade nach einer chirurgischen Behandlung noch viel mehr aktive Betreuung benötigen“, so das Zwischenfazit des Ernährungsmediziners.

HINTERGRUND Übergewicht vs. Adipositas
Übergewicht bezieht sich auf ein Körpergewicht, das über dem gesunden Bereich liegt. Adipositas hingegen ist eine ernstere Erkrankung, bei der überschüssiges Körperfett zu Gesundheitsproblemen führen kann. Bei der Unterscheidung hilft der sogenannte Body-Mass-Index (BMI), bei der das Gewicht eines Menschen durch das Quadrat seiner Körpergröße geteilt wird. Adipositas wird in der Regel durch einen BMI von 30 oder höher definiert, während Übergewicht durch einen BMI von 25 bis 29,9 definiert ist. Adipositas kann das Risiko für Herzerkrankungen, Diabetes, Schlaganfälle und andere gesundheitliche Probleme erhöhen.

HINTERGRUND: Bioimpedanzanalyse
Die Bioimpedanzanalyse gibt Aufschluss, wie viel Wasser und wie viel Masse sich im Körper eines Lebewesens befinden. Sie fußt darauf, dass Wasser den Strom wesentlich besser leitet als feste Masse. Bei der Bioimpedanzanalyse wird eine Elektrode an der Hand und eine am Fuß angebracht, so dass der Strom quer durch den Körperstamm fließt. Aus dem elektrischen Widerstand lässt sich der Anteil des Wassers berechnen. Da Muskeln mehr Wasser enthalten als Fett, lässt sich weiterhin auch das Verhältnis von Muskelmasse zu Fettgewebe bestimmen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 (0)711 459-24100, E bischoff.stephan@uni-hohenheim.de

Originalpublikation:
Publikation Definition and Diagnostic Criteria for Sarcopenic Obesity: ESPEN and EASO Consensus Statement: https://doi.org/10.1159/000521241

Weitere Informationen:
https://www.uni-hohenheim.de/expertenliste-proteine
https://www.uni-hohenheim.de/presse

(nach oben)


Mit Schrott mehr Umweltschutz

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert neue Technik – Erste kommerzielle Anlage startet

Osnabrück/Berlin. Wenn östlich von Berlin das Entsorgungs- und Recyclingunternehmen Alba an seinem Standort Hoppegarten eine Aluminium-Sortieranlage in Betrieb nimmt, beginnt für das Metall-Recycling von Sekundärrohstoffen eine neue zirkuläre Zeitrechnung. Denn es ist die erste kommerzielle Anwendung einer laserbasierten Sortier-Technik, für deren Entwicklung die Deutsche Bundesstiftung Umwelt (DBU) mit Projekt- und Prototyp-Förderung in Höhe von mehr als einer Million Euro sowie drei mittelständische Unternehmen mit technischer Finesse und Ingenieurkunst den Weg geebnet haben. DBU-Generalsekretär Alexander Bonde: „Das ist bahnbrechendes Hightech. Aus Schrott wird Umweltschutz.“

Ein Win-Win für Wirtschaft und Umwelt
Der Metall-Müll ist nach Bondes Worten „keineswegs nutzloser Abfall, sondern tatsächlich kostbarer Rohstoff, der wieder zu hochwertigen Legierungen einzuschmelzen ist“. Das sei ein Win-Win für Wirtschaft und Umwelt. „Die wegweisenden Ideen der beteiligten mittelständischen Unternehmen senken nicht nur die Energiekosten, sondern sorgen für mehr Umwelt- und Klimaschutz, weil weniger Rohstoffe der Erde entnommen werden müssen“, fügt Bonde hinzu. Er spricht von einem „riesigen Impuls für die Kreislaufwirtschaft“. Dass nun eine Aluminium-Sortieranlage Marktreife erlangt hat, ist einer mehrjährigen Entwicklung und Forschung zu verdanken – maßgeblich durch Kooperation der beiden NRW-Firmen Clean-Lasersysteme GmbH und cleansort GmbH sowie der OSR GmbH & Co.KG aus Baden-Württemberg. Clean-Lasersysteme feilte an der geeigneten Messtechnik, cleansort tüftelte am Anlagenbau, und die auf Schrotthandel und Aufbereitung von Rohstoffen spezialisierte OSR war schließlich der entscheidende Schlüssel, um den Prototyp einer Anlage in Rosengarten (Ostwürttemberg) in Betrieb zu nehmen. Die Deutsche Bundesstiftung Umwelt hat die Hightech-Vorhaben fachlich und finanziell gefördert.

Bestimmte Hochleistungswerkstoffe benötigen exakte Legierungsanteile
„Die angewandte Technologie ist von höchster Präzision geprägt“, sagt DBU-Referatsleiter Dr. Michael Schwake. Kombiniert werden dabei zwei Verfahren mit dem Ziel, die Legierung der Schrottteile genau zu bestimmen. In der Metallurgie handelt es sich bei Legierungen um homogene metallische Werkstoffe, die aus mehreren chemischen Elementen bestehen, wovon mindestens eines ein Metall ist. Schwake: „Für verschiedene Sektoren wie die Automobilindustrie sind Legierungsbestandteile von größter Bedeutung. Hochleistungswerkstoffe wie Karosseriebleche oder Achsträger benötigen exakte Legierungsanteile.“

Bonde: Das könnte den Schrottmarkt revolutionieren
Genau das gewährleistet die Hoppegarten-Anlage, die anfangs aufgrund der zu erwartenden positiven Nachhaltigkeits- und Kosteneffekte Aluminiumschrott sortiert, grundsätzlich aber alle metallischen Werkstoffe für die spätere Weiternutzung trennen kann. In einem ersten Schritt werden die etwa handtellergroßen Schrottstücke wie zum Beispiel ausgestanzte Bleche auf einem Fließband transportiert. Kameras inspizieren jedes einzelne Teil und identifizieren mehrere Prüfpunkte. Dann kommen die Hightech-Laser an diesen Prüfpunkten zum Einsatz: zunächst zum Reinigen der Oberfläche von Dreck und Deckschichten bis aufs Grundmetall – anschließend mit punktuellen Laserpulsen direkt auf das Schrottteil. Blitzschnell. Die Folge: Das Material verdampft, aus den Lichtemissionen der Metallatome wird die chemische Zusammensetzung ermittelt. Eine Ausblas-Einheit am Ende des Prozesses sorgt mittels Luftdrucks für die Trennung der Schrottstücke. Durch eine solche laserbasierte Sortier-Technik – im Fachjargon spricht man von laserinduzierter Plasmaspektroskopie LIBS (Laser Induced Breakdown Spectroscopy) – kann künftig der Schrott entsprechend seiner Legierungsanteile zielgenau zur Schmelze gebracht werden. DBU-Generalsekretär Bonde: „Diese hochkomplexe Technologie ist eine herausragende Entwicklung und könnte den Schrottmarkt revolutionieren.“

Bedarf an Aluminiumschrott in der EU könnte in den nächsten Jahrzehnten auf neun Millionen Tonnen steigen
Vor allem ermöglicht die LIBS-Technologie, die Menge der verwendeten Sekundärrohstoffe als Recyclingmaterial für die Produktion von Hochleistungswerkstoffen beträchtlich zu steigern. Derzeit liegt deren Anteil in der Metallproduktion in Deutschland bei 43 Prozent des Kupfers, 69 Prozent des Bleis, 60 Prozent des Aluminiums und 44 Prozent des Rohstahls. Für die hierzulande jährlich erzeugten rund 50 Millionen Tonnen Stahl werden etwa 22 Millionen Tonnen Sekundärrohstoffe sowie zusätzlich drei Millionen Tonnen Legierungsmetalle eingesetzt. Wie dringend neue Technologien bei der Schrottverwertung sind, macht der Verband Deutscher Metallhändler und Recycler (VDM) klar. Laut VDM steigt in der EU in den nächsten Jahrzehnten der Bedarf an Aluminiumschrott auf rund neun Millionen Tonnen – mit hervorragender Perspektive: Der Einsatz von Aluminiumschrott spart 95 Prozent der Energie im Vergleich zum Energieverbrauch bei der Primärproduktion, so der VDM. Und: Laut cleansort-Kalkulation können durch eine Anlage wie in Hoppegarten jedes Jahr in einem Zwei-Schicht-Betrieb auf Basis deutscher Strompreise rund sechs Millionen Euro Kosten eingespart werden – und fast 18.000 Tonnen klimaschädliches Kohlenstoffdioxid.

Weitere Informationen:
https://www.dbu.de/news/mit-schrott-mehr-umweltschutz/ Online-Pressemitteilung

(nach oben)


Bessere Suche nach Ursache für Erbkrankheiten

Julia Rinner Corporate Communications Center
Technische Universität München
Bei rund der Hälfte aller seltenen Erberkrankungen kann deren Ursache bislang nicht geklärt werden. Ein Münchner Forschungsteam hat einen Algorithmus entwickelt, der die Auswirkungen von genetischen Mutationen auf die Bildung der RNA um das Sechsfache genauer vorhersagt als bisherige Modelle. Dadurch werden die genetischen Ursachen von seltenen Erberkrankungen und Krebs häufiger erkannt.

Genetische Variationen treten relativ häufig auf – durchschnittlich ist jede tausendste Stelle des DNA-Strangs eines Menschen betroffen. In seltenen Fällen können diese Veränderungen dazu führen, dass die RNA und die daraus gebildeten Proteine fehlerhaft sind. Dadurch können beispielsweise Fehlfunktionen in einzelnen Organen auftreten. Bei Verdacht auf eine seltene Erkrankung helfen mittlerweile oft computergestützte Diagnoseprogramme bei der Suche nach möglichen genetischen Ursachen weiter. Dazu wird das Genom mithilfe von Algorithmen analysiert, um herauszufinden, ob Variationen auf den Genen und Fehlfunktionen in bestimmten Teilen des Körpers zusammenhängen.

Interdisziplinäres Forschungsprojekt
Unter der Leitung von Julien Gagneur, Professor für Computational Molecular Medicine an der TUM und Forschungsgruppenleiter Computational Molecular Medicine bei Helmholtz Munich, hat ein interdisziplinäres Team aus den Bereichen Informatik und Medizin ein neues Modell entwickelt, das im Vergleich zu seinen Vorgängern deutlich besser vorhersagt, welche Variationen auf der DNA zu fehlerhaft gebildeten RNA-Strängen führen.

„Mit den bereits etablierten Methoden der DNA-Analyse kann bei ungefähr der Hälfte unserer Patienten eine sichere Diagnose gestellt werden“, sagt Dr. Holger Prokisch, Mitautor der Studie sowie Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, „Bei den übrigen benötigen wir unbedingt Modelle, die eine Vorhersage verbessern. Unser neu entwickelter Algorithmus kann hierbei einen wichtigen Beitrag leisten.“

Fokus des Modells liegt auf dem Splicing
In ihrer Studie haben die Forschenden Variationen betrachtet, die den Umwandlungsprozess von DNA in RNA und schließlich die Bildung von Proteinen in spezifischen Geweben beeinflussen. Der Fokus lag dabei auf dem Splicing – einem Vorgang in den Zellen, bei dem die RNA so zugeschnitten wird, dass später die Bauanleitung für das Protein abgelesen werden kann. Liegen Variationen auf der DNA vor, kann dieser Prozess gestört werden und dazu führen, dass entweder zu viel oder zu wenig aus den RNA-Strängen herausgeschnitten wird. Fehler im Splicing-Prozess gelten als eine der häufigsten Ursachen für die Fehlbildung von Proteinen und Erberkrankungen.

Deutlich höhere Genauigkeit als vorherige Studien
Um Aussagen über mögliche Zusammenhänge zwischen der Variation einzelner Gene und Fehlfunktionen in bestimmten Geweben treffen zu können, hat das Team auf einen bereits bestehenden Datensatz zurückgegriffen. Dieser enthält DNA- und RNA-Proben aus 49 Geweben von insgesamt 946 Individuen.

Im Vergleich zu vorherigen Studien betrachtete das Team jede Probe zunächst dahingehend, ob und inwiefern sich fehlerhaftes Splicing durch eine Variation auf der DNA überhaupt in bestimmten Geweben durch Fehlfunktionen äußert. So kann ein Protein relevant sein für spezielle Bereiche im Herzen, im Gehirn hingegen kommt es unter Umständen gar keiner Funktion nach.

„Hierfür erstellten wir eine gewebespezifische Splicing-Karte, in der wir quantifizierten, welche Stellen auf der RNA für das Splicing in einem bestimmten Gewebe wichtig sind. Durch unser Vorgehen konnten wir unser Modell auf die biologisch relevanten Kontexte reduzieren. Die von uns verwendeten Haut- und Blutproben ermöglichen uns aber auch Rückschlusse auf schwer zugängliches Gewebe, wie dem Gehirn oder dem Herzen zu ziehen“, so Nils Wagner, Erstautor der Studie und Doktorand am Lehrstuhl für Computational Molecular Medicine an der TUM.

Bei der Analyse wurde jedes Gen berücksichtigt, das mindestens eine seltene genetische Mutation trägt und gleichzeitig relevant für die Bildung von Proteinen ist. Neben den proteincodierenden Bereichen auf der RNA gibt es Abschnitte, die wichtig sind für andere Prozesse in unseren Zellen. Diese wurden in der Studie nicht betrachtet. Dadurch ergab sich eine Gesamtzahl von fast 9 Millionen untersuchten seltenen genetischen Muationen.

„Durch unser neu entwickeltes Modell konnten wir die Genauigkeit bei der Vorhersage von fehlerhaftem Splicing im Vergleich zu vorherigen Modellen um das Sechsfache steigern. Bei einer Erkennungsrate von 20 Prozent erreichen bisherige Algorithmen eine Genauigkeit von 10 Prozent. Unser Modell schafft bei gleicher Erkennungsrate eine Genauigkeit von 60 Prozent“, sagt Prof. Julien Gagneur.

Genauigkeit und Erkennungsrate sind wichtige Kennzahlen, um die Leistungsfähigkeit von Modellen vorherzusagen. Die Genauigkeit gibt dabei an, wie viele der Variationen, die vom Modell vorhergesagt wurden, tatsächlich zu fehlerhaftem Splicing führen. Die Erkennungsrate zeigt, wie viele der Variationen, von allen auf den dann vorhandenen Variationen, die zu fehlerhaftem Splicing führen, vom Modell gefunden werden konnten.

„Ein so großer Fortschritt bei der Genauigkeit ist uns gelungen, indem wir zum einen den Splicing-Prozess gewebespezifisch betrachtet und zum anderen direkte Splicing Messungen aus einfach zugänglichen Geweben wie Blut und Hautzellen benutzt haben, um Splicing-Fehler in nicht zugänglichen Geweben wie dem Herzen oder dem Gehirn vorherzusagen.“, so Prof. Julien Gagneur.

Praktischer Einsatz des Algorithmus
Das Modell wird im Rahmen des europäischen Forschungsprojekts „Solve – RD – solving the unsolved rare diseases“ eingesetzt. Die Initiative hat sich dabei zum Ziel gesetzt, durch einen breiten Austausch von Wissen die Diagnosemöglichkeiten seltener Erkrankungen zu verbessern. So hat das Team der TUM bereits 20.000 DNA-Sequenzen von insgesamt 6.000 betroffenen Familien analysiert.

Darüber hinaus soll es durch das Modell zukünftig möglich sein, Leukämie und ihre verschiedenen Formen leichter zu diagnostizieren. Hierfür untersuchen die Forschenden aktuell 4.200 DNA- und RNA-Proben von Leukämie-Erkrankten.

Weitere Informationen
Prof. Julien Gagneur kam 2016 als Assistant Professor an die TUM. 2020 übernahm er die Professur für Computational Molecular Medicine. Dabei erforscht er die genetischen Grundlagen der Genregulation und ihre Auswirkungen auf Krankheiten mithilfe statistischer Algorithmen und maschineller Lernverfahren. Gleichzeitig ist er Forschungsgruppenleiter bei Helmholtz Munich.

Zusammen mit Holger Prokisch, Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, entwickelt Prof. Julien Gagneur darüber hinaus Strategien, um die Ursache genetischer Störungen zu identifizieren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Julien Gagneur
Technische Universität München
Professur für Computational Molecular Medicine
Tel: +49 (89) 289-19411
julien.gagneur@tum.de

Dr. Holger Prokisch
Klinikum rechts der Isar der Technischen Universität München
Institut für Humangenetik
Tel: +49 89 3187-2890
holger.prokisch@tum.de

Originalpublikation:
Wagner, N., Çelik, M. H., Hölzlwimmer, F. R., Mertes, C., Prokisch, H., Yépez, V. A., & Gagneur, J. (2023). Aberrant splicing prediction across human tissues. Nature Genetics, 1-10.

Weitere Informationen:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/bessere-s…

(nach oben)


Strände nutzen – nicht verschmutzen

Maike Nicolai Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
31.05.2023/Kiel. Aufgrund der Ausrichtung der Küstenlinie und vorherrschenden Richtungen von Wind und Strömungen gelangt nur wenig Müll vom Meer aus an Schleswig-Holsteins Ostseestrände. Vielmehr ist die Verschmutzung eine Folge der Strandnutzung. Die Belastung mit kleinsten Partikeln, dem Mikroplastik, ist dabei moderat, und es konnte kein direkter Zusammenhang zwischen der Menge Mikroplastik und der Verschmutzung mit Strandmüll festgestellt werden. Zu diesem Ergebnis kommen Wissenschaftler:innen des GEOMAR und der Kieler Forschungswerkstatt. Mit ihrer Veröffentlichung legten sie die erste systematische Untersuchung zu Müll im Mikro- und Makrospektrum in der Region vor.

– Gemeinsame Pressemitteilung der Christian-Albrechts-Universität zu Kiel (CAU), der Kieler Forschungswerkstatt, des Forschungsverbunds Future Ocean und des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel –

Müll an Schleswig-Holsteins Stränden ist Einheimischen wie Gästen ein Dorn im Auge. Eine Untersuchung im Rahmen des Forschungsverbunds Future Ocean an der Christian-Albrechts-Universität zu Kiel (CAU) zeigt: Der größte Teil des Mülls stammt direkt aus der Strandnutzung und wird nicht aus dem Meer an die Strände gespült. Damit ist diese Verschmutzung leicht vermeidbar. Interessanterweise fand sich kein eindeutiger Zusammenhang zwischen der Dichte an Mikroplastik im Sediment und der Menge an sichtbaren größeren Müll-Teilen. Für ihre Analyse untersuchten die Wissenschaftler:innen des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und der Kieler Forschungswerkstatt, einer gemeinsamen Einrichtung der CAU und des Leibniz-Instituts für die Pädagogik der Naturwissenschaften und Mathematik (IPN), im Frühjahr und im Herbst 2018 zehn Strände entlang der schleswig-holsteinischen Ostsee. Mit ihrer Veröffentlichung im Fachmagazin Marine Pollution Bulletin legten die Forschenden jetzt die erste kombinierte systematische Untersuchung zu Müll im Mikro- und Makrospektrum an Schleswig-Holsteins Ostseestränden vor.

„Mikroplastik und größerer Müll an Stränden sind ein bekanntes Problem – und wir können ganz einfach etwas dagegen unternehmen“, erklärt Dr. Mark Lenz. Der Meeresbiologe am GEOMAR ist Leiter der Untersuchung und Erst-Autor der Publikation. „Unsere Daten zeigen den Zusammenhang zwischen Strandnutzung und Verschmutzung überraschend deutlich: Im Herbst, zum Ende der Saison, sind die Strände doppelt so verschmutzt wie im Frühling. An Orten, in denen die Strände regelmäßig gereinigt wurden, war die Steigerung geringer als an denen ohne. Zudem waren im Herbst deutlich mehr Papier, Pappe und vor allem Zigarettenkippen zu finden als zu Beginn der Saison. Die schleswig-holsteinischen Strände wären also deutlich sauberer und die Küstenökosysteme gesünder, wenn alle ihren Müll am Ende eines Strandbesuches entsorgen.“

Die Auswertungen an den Stränden von Holnis, Falshöft, Boknis, Schwedeneck, Schönberg, Hohwacht, Flügge, Staberhuk, Kellenhusen und Travemünde folgten dem einheitlichen Protokoll zur Erfassung von Makro-Müll des Übereinkommens zum Schutz der Meeresumwelt des Nordost-Atlantiks (Oslo-Paris Konvention, OSPAR): Drei Personen sammelten systematisch alle Müll-Teile größer als 2,5 Zentimeter entlang einer 100 Meter langen Strecke parallel zum Flutsaum auf und ordneten diese einer vorgegebenen Kategorie zu. Nach dem Trocknen wurde das Gesamtgewicht der Funde erfasst. Zusätzlich entnahmen die Forschenden Sediment-Proben, extrahierten die darin enthaltenen Mikroplastik-Partikel und analysierten den Kunststoff-Typ.

„Im Frühling fanden wir zwischen 38 Müll-Teilen in Holnis und 241 in Travemünde. Gut 40 Prozent bestand aus Plastik, fast 35 Prozent aus Papier, Pappe und Zigarettenkippen und 15 Prozent Glas. Im Herbst lag die Bandbreite zwischen 27 Teilen in Holnis und 713 in Schönberg. Papier, Pappe und Zigarettenkippen machten dann mehr als 60 Prozent aus, gut ein Viertel war Plastik und nur 4 Prozent Glas“, fasst Dr. Lenz zusammen.

Insgesamt ließ sich keine Korrelation zwischen der Menge des Makro-Mülls und des Mikroplastiks feststellen. Deutlich wurde aber auch: Unsere Strände sind nicht frei von Mikroplastik. Die kleinen Partikel fanden sich in fast allen Sedimentproben in Mengen zwischen 2 und 28 Partikeln pro Kilogramm Sand. Auch wenn diese Dichten im Vergleich zu anderen Standorten noch moderat sind, bedeutet dies trotzdem, dass sich an jedem unserer Strände wahrscheinlich Millionen der künstlichen Mikropartikel befinden. Diese werden in der Natur nicht abgebaut und können sich daher im Laufe der Zeit anreichern. Ob die Menge an Mikroplastik in Zukunft noch weiter zunimmt, könnten weitere Studien zeigen, die auf der nun vorgelegten Untersuchung aufbauen. Die Auswirkungen des Mikroplastiks auf die Umwelt sind noch nicht abschließend untersucht, aber es ist bekannt, dass Hunderte von Tierarten es mit ihrer Nahrung aufnehmen.

Ein Vergleich mit anderen Orten rund um die Ostsee zeigte, dass die Müllmengen denen in Mecklenburg-Vorpommern im Durchschnitt ähnelten. Strände in Litauen und Polen waren deutlich stärker verschmutzt, Strände in Dänemark ungefähr so sauber wie die weniger frequentierten schleswig-holsteinischen. Die geringe Dominanz an angeschwemmtem Plastikmüll in Schleswig-Holstein führen die Forschenden auf die Ausrichtung der Küstenlinie und die vorherrschende Richtung von Wind und Strömungen zurück.

GEOMAR und die Kieler Forschungswerkstatt bieten Informationen und wissenschaftliche Programme für Schüler:innen und Lehrer:innen zu Strandmüll und Mikroplastik an. „In der Kieler Forschungswerkstatt untersuchen wir bereits seit mehr als zehn Jahren die Strände rund um die Kieler Förde. Die Müllmengen dabei sind trotz Strandreinigung hoch. Jetzt haben wir zum ersten Mal Daten für die gesamte schleswig-holsteinische Ostseeküste, auf denen wir aufbauen können – eine gute Basis für zukünftige Untersuchungen“, sagt der Meeresbiologe Dr. Dennis Brennecke, der für die Kieler Forschungswerkstatt die Probennahme mit durchgeführt hatte. Seit der Untersuchung an den Ostsee-Stränden haben die Tourismus-Orte bereits viele Maßnahmen umgesetzt, um die Müllmengen zu reduzieren. „Klar ist, wir müssen das Bewusstsein in der Gesellschaft weiter stärken. In der Forschungswerkstatt beginnen wir damit schon bei den Grundschülerinnen und Grundschülern“, so Brennecke.

Projekt-Förderung:
Die Untersuchung wurde im Rahmen des Exzellenzclusters „Future Ocean“ sowie über die Projekte „Defining the baselines and standards for microplastics analysis in European waters (BASEMAN)“ und „Horizontal and vertical oceanic distribution, transport, and impact of microplastics (HOTMIC)“ der Joint Programming Initiative Healthy and Productive Seas and Oceans (JPI Oceans) gefördert.

Originalpublikation:
Lenz, M., Brennecke, D., Haeckel, M., Knickmeier, K., Kossel, E. (2023): Spatio-temporal variability in the abundance and composition of beach litter and microplastics along the Baltic Sea coast of Schleswig-Holstein, Germany. Marine Pollution Bulletin, doi: https://doi.org/10.1016/j.marpolbul.2023.114830

Weitere Informationen:
http://www.geomar.de/n8971 Bildmaterial zum Download
https://www.forschungs-werkstatt.de/aktuelles/plastikmuell-im-schulunterrichtsth… Kieler Forschungswerkstatt: Plastikmüll im Schulunterricht
https://ozeanwissen.futureocean.org/topics/plastic.html Ozeanwissen zu Plastik und seinen Folgen
https://www.geomar.de/entdecken/plastikmuell-im-meer GEOMAR Entdecken: Plastikmüll im Meer

(nach oben)


Windenergie: Neues Meerwasserlabor der BAM ermöglicht Korrosionsuntersuchungen unter Realbedingungen

Oliver Perzborn Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
Berlin, 30.05.2023. Die Bundesanstalt für Materialforschung und -prüfung (BAM) hat in Zusammenarbeit mit dem Wasserstraßen- und Schifffahrtsamt Elbe-Nordsee am Eidersperrwerk ein innovatives Meerwasserlabor errichtet. Die Anlage bietet die Möglichkeit, Korrosionsschutzmaßnahmen an Offshore-Gründungsstrukturen unter realen Bedingungen zu untersuchen. So lassen sich tatsächliche Korrosionsraten von Materialien ermitteln, Schutzmaßnahmen zielgerichtet auslegen und die geplanten Nutzungsdauer von Anlagen sicher erreichen.

Das eigens für diesen Zweck konzipierte Meerwasserlabor besteht aus zwei Containern, die eine Laborfläche von insgesamt ca. 50 m² bieten. An dem Standort am Eidersperrwerk können nicht nur Korrosionsuntersuchungen in Meerwasser und Sediment durchgeführt werden, sondern auch Untersuchungen zur Bewertung der Korrosivität der Atmosphäre. Das neue Labor ergänzt die bisherigen maritimen Auslagerungsstandorte der BAM auf Helgoland, Sylt und in Cuxhaven.
Ein zentraler Fokus der Untersuchungen liegt auf dem Übergangsbereich von Meerwasser zu Sediment, der generell kritisch für den Korrosionsschutz von Offshore-Gründungsstrukturen ist, weil hier besonders heterogene Bedingungen herrschen und daher der Erfolg eines Schutzsystems bisher nicht genau prognostiziert werden kann. Aufgrund dieser Problematik soll die Wirksamkeit verschiedener Korrosionsschutzmaßnahmen im Rahmen elektrochemischer Untersuchungen nachgewiesen werden. Durch die Analyse von Proben, die nach festgelegten Prüfzeiten entnommen werden, können Erkenntnisse für eine optimierte Korrosionsbekämpfung gewonnen werden.

Darüber hinaus befasst sich das Labor mit der Wechselwirkung von maritimem Bewuchs im Unterwasserbereich und der Wirksamkeit von kathodischem Korrosionsschutz (KKS). Bei diesem Schutzverfahren wird eine externe Stromquelle verwendet, um durch eine negative Spannung auf dem Metall die korrosive Reaktion zu hemmen. Da diese Wechselwirkung mit künstlichem Meerwasser nicht realitätsgetreu dargestellt werden kann, wurde das Korrosionslabor mit einem speziell konzipierten Wasser-Kreislaufsystem ausgestattet.

Die BAM arbeitet außerdem an der Entwicklung von Exploration-Tools, mit denen sich die Korrosivität des Sediments am Meeresgrund exakt beschreiben lässt. Die Tools sollen es in Zukunft ermöglichen, hochkorrosive Bereiche für die Gründung von Offshore-Bauwerken gezielt zu vermeiden bzw. den Korrosionsschutz an die Umweltbedingungen anzupassen.
Grundsätzlich können durch die Untersuchungen im Meerwasserlabor die Nutzungsdauer von Offshore-Windkraftenergieanlagen mit Blick auf die Korrosionsbelastung der Gründungsstrukturen künftig genauer ermittelt werden. Dies erhöht die Planungssicherheit für die Betreiber von Offshore-Windparks und stärkt insgesamt den Beitrag der Windenergie zu den klimapolitischen Zielen Deutschlands.

Weitere Informationen:
https://www.bam.de/Navigation/DE/Themen/Energie/Windenergie/sichere-windkraftanl…

(nach oben)


Informationen schneller fließen lassen – mit Licht statt Strom

Axel Burchardt Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Entweder 1 oder 0. Entweder es fließt Strom oder eben nicht. In der Elektronik wird bisher alles über das Binärsystem gesteuert. Elektronen generieren so schon ziemlich schnell und gut Informationen, leiten diese weiter und übernehmen diverse Schaltfunktionen. Doch es geht noch schneller. Das haben Paul Herrmann und Sebastian Klimmer von der Universität Jena bewiesen. Die beiden Doktoranden haben dazu mit monokristallinen 2D-Materialien und Laserlicht experimentiert. Sie haben die bekannte physikalische Methode der Frequenzverdopplung von Licht mit einer besonderen Materialeigenschaft, der Valleypolarisation, kombiniert und dabei erstaunliche Ergebnisse erzielt

Nach ihrem Lieblingsspielzeug aus Kindertagen befragt, müssen Paul Herrmann und Sebastian Klimmer nicht lange überlegen. Einmütig antworten sie: der Lego-Baukasten. Das Beste daran sei gewesen, dass es so viele Kombinationsmöglichkeiten gab, erklären beide übereinstimmend. Ihre Begeisterung für Baukästen haben sich die jungen Physiker bis heute bewahrt – allerdings beschäftigen sie sich für ihre Promotion seit geraumer Zeit mit einem Baukasten von ganz anderem Format: mit sogenannten 2D-Materialien, die sie in atomare Schichten zerlegen, um sie dann mit „Valleytronik“ zu manipulieren.

Paul Herrmann und Sebastian Klimmer forschen dazu am Institut für Festkörperphysik der Jenaer Universität in der Arbeitsgruppe „Ultraschnelle optische Spektroskopie“ von Juniorprofessor Dr. Giancarlo Soavi. Deren Ziel ist es, neue Materialien und technische Möglichkeiten zu finden, die helfen, die Informationsverarbeitung und Weiterleitung mit moderner Elektronik um Größenordnungen schneller zu machen.

Dafür nutzen sie Licht als Werkzeug – ein großes Thema nicht nur der Physik an der Jenaer Universität – und den High-Tech-Baukasten der 2D-Materialien. „Diese Materialien, die aus nur einer Lage von Atomen bestehen, verfügen über herausragende optische Eigenschaften, die sie so interessant für die Forschung machen“, erklärt Paul Herrmann, der seit einem Jahr zur Arbeitsgruppe von Giancarlo Soavi gehört. „2004 gelang es den Nobelpreisträgern Geim und Novoselov erstmals, zweidimensionale Lagen aus Kohlenstoffatomen, das Graphen, herzustellen. Seitdem wurden von Wissenschaftlern auf der ganzen Welt viele weitere 2D-Materialien entdeckt“, ergänzt Sebastian Klimmer. „Theoretische Modelle sagen zudem voraus, dass es ungefähr 1.800 von ihnen geben soll. Das ist praktisch unser moderner Lego-Kasten, dessen Bausteine uns unendliche Kombinationsmöglichkeiten bieten.“

Mit Licht lokale Extrema abwechselnd manipulieren
Die beiden Jenaer Physiker haben sich aus diesem Baukasten das Wolframdiselenid ausgesucht, das zur Gruppe der Übergangsmetalldichalkogenide gehört. „Dieses spezielle Halbleitermaterial hat lokale Extrema in seiner elektronischen Bandstruktur, sogenannte Valleys, welche wir mit Licht manipulieren können“, erklärt Paul Herrmann die Wahl.

Mit diesen Materialien arbeiten die jungen Forscher im Labor erfolgreich. „Wir beschießen das Material mit einem zirkular polarisierten Laser. Das kann in zwei unterschiedlichen Richtungen geschehen, so dass wir damit bestimmen können, in welchem Valley wir Elektronen anregen“, erklärt Herrmann. „Dieses Phänomen der Valleypolarisation – also der Zustand, in dem ein Valley mehr angeregt wird als das andere – kann man wiederum ausnutzen, um darin Informationen zu codieren, zu manipulieren und wieder auszulesen“, führt Klimmer aus.

Gleichzeitig machen sich die Forscher den seit den 1960er Jahren bekannten Effekt der „Second-harmonic Generation“, also der Frequenzverdopplung von Licht, zunutze. „Wir verwenden einen Infrarotlaser bei einer Wellenlänge von 1.500 Nanometern. Damit können wir die Frequenzverdopplung in Wolframdiselenid mit zwei Photonen resonant betreiben und somit die induzierte Valleypolarisation noch verstärken“, beschreibt Herrmann den komplizierten Prozess. „Weiterhin erlaubt uns die Verwendung der Frequenzverdopplung eine deutlich einfachere Trennung des Anregungslichtes und dem für uns interessanten Signal, welches sich entsprechend bei 750 Nanometern, der halben Wellenlänge beziehungsweise der doppelten Frequenz befindet“, ergänzt Klimmer.

Mit Licht wird Elektronik 1.000 Mal schneller
„Bisher wird in der Elektronik das Binärsystem genutzt, zur Informationsübertragung wird Strom an- oder abgeschaltet. Ein Transistor schafft so etwa eine Milliarde Berechnungen pro Sekunde. Indem wir die Elektronik mit Licht statt Strom schalten, lässt sich das auf eine Billion Berechnungen pro Sekunde steigern. Das heißt, wir sind mit unserem System 1.000 Mal schneller als die herkömmliche Elektronik“, fasst Paul Herrmann die Jenaer Forschungsergebnisse zusammen. Das mache die Lösung perspektivisch interessant für viele Bereiche der Optoelektronik und Technik.

Über ihre Forschungsarbeit zur „Nichtlinearen optischen kohärenten Erzeugung und Auslesen von Valleys in atomar dünnen Halbleitern“ berichten Herrmann und Klimmer in einem neuen Paper in der Fachzeitschrift „Small“, das bereits online geschaltet ist. Was diese Jenaer Arbeit originär macht, ist die Kombination der Methode der resonanten Zwei-Photonen-Frequenzverdopplung und der Valleypolarisation.

Forschungsfeld der 2D-Materialien boomt an der Universität Jena
Bis die neuen Erkenntnisse zu den 2D-Materialien und technischen Lösungen der Jenaer in größerem Maßstab eingesetzt werden können, werde es noch einige Jahre dauern, vermuten Sebastian Klimmer und Paul Herrmann. Man sei ja hier mit Grundlagenforschung beschäftigt. Doch sind nicht nur die beiden Mittzwanziger von den Chancen der neuen High-Tech-Materialien überzeugt. Am Institut für Festkörperphysik der Uni Jena beschäftigen sich in der Arbeitsgruppe von Professor Giancarlo Soavi aktuell rund 15 Physiker und Physikerinnen mit 2D-Materialien. Außerdem sind sie eingebunden in die Arbeit des Sonderforschungsbereichs SFB 1375 „NOA – Nichtlineare Optik bis in den Atombereich“, der im Juli 2019 an der Friedrich-Schiller-Universität eingerichtet und gerade verlängert wurde. Das Institut für Festkörpertheorie und Optik sei ebenso Kooperationspartner gewesen wie das Graduiertenkolleg „Maßgeschneiderte Metaoberflächen – Erzeugung, Programmierung und Detektion von Licht“, in dem Klimmer mitarbeitet. Darüber hinaus spielen 2D-Materalien auch in etlichen anderen Instituten der Friedrich-Schiller-Universität Jena eine wichtige Rolle.

Wissenschaftliche Ansprechpartner:
Paul Herrmann
Institut für Festkörperphysik der Friedrich-Schiller-Universität Jena
Helmholtzweg 5, 07743 Jena
Tel.: 03641 / 947385
E-Mail: p.herrmann@uni-jena.de

Originalpublikation:
Paul Herrmann, Sebastian Klimmer, Thomas Lettau, Mohammad Monfared, Isabelle Staude, Ioannis Paradisanos, Ulf Peschel, Giancarlo Soavi: Nonlinear All-Optical Coherent Generation and Read-Out of Valleys in Atomically Thin Semiconductors, small, https://doi.org/10.1002/smll.202301126

(nach oben)


Was man zählt, ist nicht unbedingt das, was zählt

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Eine neue Studie, die die Zahl sich teilender Bakterienzellen in der Nordsee unter die Lupe nimmt, rüttelt an einigen Dogmen über die mikrobiellen Meeresbewohner.

Meerwasser ist voll mit Bakterien, Hunderttausende leben in jedem Liter. Wie viele Bakterien im Wasser leben, hat aber nicht unbedingt viel zu bedeuten. Wichtiger ist, wie aktiv sie sind und wie schnell sie sich vermehren. Das zeigt eine Studie von Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen, nun veröffentlicht im Fachmagazin mSystems.

Um festzustellen, wie schnell eine Population von Bakterien wächst, wird häufig gemessen, wie sich ihre Zellzahl mit der Zeit verändert. Diese Methode hat aber einen großen Mangel: Sie erhebt nicht, wie schnell sich die Bakterien vermehren oder sterben. Diese Faktoren sind jedoch sehr wichtig, um ökologische Prozesse zu verstehen. Deswegen haben nun Forschende des Max-Planck-Instituts für Marine Mikrobiologie in Bremen einen genaueren Blick auf diese Prozesse im Rahmen einer Frühjahrsblüte in der Deutschen Bucht geworfen. Dabei gerieten einige bisherige Dogmen ins Wanken.

Die Forschenden um Jan Brüwer, Bernhard Fuchs und Rudolf Amann untersuchten das Wachstum von Bakterien während der Frühjahrsblüte vor Helgoland mit verschiedenen Methoden: Mit dem Mikroskop zählten und bestimmten sie nicht nur die vorhandenen Zellen, sondern auch die Häufigkeit von Zellen, die sich gerade teilten. So konnten sie anschließend berechnen, wie schnell sich verschiedene Bakterienarten in ihrer natürlichen Umwelt vermehrten.

„Wir haben in tausenden Bildern mit modernen mikroskopischen Methoden sich teilende Zellen sichtbar gemacht und gezählt“, erklärt Jan Brüwer, der die Studie im Rahmen seiner Doktorarbeit durchführte. „Dabei haben wir uns zu Nutze gemacht, dass das verdoppelte Genom in die zukünftigen Tochterzellen aufgeteilt werden muss, bevor sich eine Zelle teilt. Wir konnten diese Zellen also aufgrund der DNA-Verteilung in der Zelle gut erkennen.“ So konnten die Forschenden die Wachstumsgeschwindigkeiten einzelner Bakteriengruppen über größere Zeiträume bestimmen.

„Die Ergebnisse hielten einige Überraschungen für uns bereit“, sagt Gruppenleiter Bernhard Fuchs. „So haben wir beispielsweise festgestellt, dass sich die am häufigsten im Meer vorkommende Bakteriengruppe namens SAR11 fast zehn Mal schneller teilt als angenommen.“ Die gemessenen Wachstumsraten passen zudem in vielen Fällen nicht mit der Häufigkeit der jeweiligen Bakterien im Meer zusammen. „Wenn Bakterien sich oft teilen und trotzdem nicht so häufig vorkommen, deutet das darauf hin, dass sie ein beliebtes Opfer von Jägern oder Viren sind“, erklärt Brüwer. „Auch der Zeitpunkt der Bakterienvermehrung war überraschend: SAR11-Bakterien teilten sich häufig schon vor dem Einsetzen der Algenblüte in der Nordsee. Woher sie die dafür erforderliche Energie nahmen, ist bis jetzt rätselhaft.“

Nicht alle Bakteriengruppen verhielten sich so unerwartet wie SAR11; bei anderen Gruppen passten die nun erhobenen Ergebnisse eher zu den Erwartungen der Forschenden – bei ihnen stimmten Wachstumsgeschwindigkeiten und Zellzahlen weitgehend überein.

Bisher nimmt man an, dass SAR11, die sehr kleine Zellen haben, mit wenigen Nährstoffen auskommen, sich nicht besonders häufig teilen und wegen ihrer geringen Größe nur wenig gefressen werden. Andere größere Bakterien, beispielsweise die Bacteroidetes, werden dagegen als beliebtes Futter angesehen, die sich schnell vermehren und ebenso schnell wieder verschwinden, wenn Jäger und Viren ihnen auf die Spur kommen. Die neue Studie von Brüwer und seinen Kolleginnen und Kollegen entwirft ein ganz anderes Bild.

„Unsere Ergebnisse beeinflussen unser Verständnis von Stoffkreisläufen, vor allem des Kohlenstoffkreislaufs, im Meer“, betont Brüwer. „Die häufigsten Bakterien im Meer, SAR11, sind aktiver und teilen sich schneller als bisher angenommen. Das könnte bedeuten, dass sie weniger Nährstoffe benötigen und eine beliebtere Nahrungsquelle für andere Organismen sind als vermutet. Außerdem scheint der generelle Umsatz an Bakterien während der Algenblüte schneller zu sein als wir dachten.“

„Die vorliegende Arbeit ist methodisch sehr aufwändig und sie zeigt, wieviele Informationen man aus Mikroskopiebildern ziehen kann“, sagt Rudolf Amann, Direktor am Max-Planck-Institut für Marine Mikrobiologie. „Ich bin sehr stolz auf die beteiligten Forschenden, dass sie diese Mammutaufgabe gestemmt haben und froh, mit ihnen zusammenarbeiten zu dürfen. Die erzielten Ergebnisse werden Auslöser sein für viele spannende Diskussionen über die ökologischen Zusammenhänge während einer Frühjahrsblüte und generell im Meer.“

Wissenschaftliche Ansprechpartner:
Jan Brüwer
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9280
E-Mail: jbruewer@mpi-bremen.de

PD Dr. Bernhard Fuchs
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9350
E-Mail: bfuchs@mpi-bremen.de

Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de

Originalpublikation:
Brüwer, JD, Orellana, LH, Sidhu, C, Klip, HCL, Meunier, CL, Boersma, M, Wiltshire, KH, Amann, R, Fuchs, BM (2023): In situ cell division and mortality rates of SAR11, SAR86, Bacteroidetes, and Aurantivirga during phytoplankton blooms reveal differences in population controls. mSystems (17 May 2023)

DOI: 10.1128/msystems.01287-22

Weitere Informationen:
https://www.mpi-bremen.de/Page6045.html

(nach oben)


Spurensuche im Abwasser: Krankheitserreger schneller erkennen

Juliana Fischer Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Die Covid-19-Pandemie hat es gezeigt: Abwasser ist viel mehr als ein Abfallprodukt. Ob Viren, Bakterien oder Parasiten – ausgewertet verrät es so einiges über den Gesundheitszustand der Gesellschaft. Ein Informationsschatz, der in einem Projekt unter Leitung des Zentrums für Wasser- und Umweltforschung (ZWU) der Universität Duisburg-Essen (UDE) nun analysiert und ausgewertet werden soll, auch um künftige Pandemien frühzeitig zu erkennen.

Infektionskrankheiten gefährden die Menschen, gleichzeitig nehmen Antibiotikaresistenzen zu. Um diese Risiken zu erkennen und einzudämmen, kann die Sammlung und Auswertung von Daten helfen. Hier setzt das Projekt „Umweltassoziierte Infektionsgeschehen in Ballungsgebieten in NRW erkennen und eliminieren“ an. „Es geht darum, Informationen in einem ganzheitlichen Kontext zu gewinnen. Und unser Abwassernetz mit Abwässern u.a. aus Haushalten und Krankenhäusern ist genau die richtige Quelle. Denn dort können nicht nur Erreger, sondern auch Antibiotikaresistenzen und verabreichte Medikamente nachgewiesen werden“, sagt Dr. Michael Eisinger, Projektkoordinator am ZWU.

Bisher wurde dieser Ansatz in Deutschland nicht einheitlich systematisch verfolgt, sondern nur für SARS-Cov-2 genutzt. „Das Abwassernetz könnte aber auf lange Sicht zu einer Landkarte des Gesundheitsstatus sowie des Resistenzstatus weiterentwickelt werden“, erklärt Eisinger das Ziel. Denn, wenn man versteht, wie Erreger und Antibiotika im Abwassernetz verteilt sind, können mögliche Gefährdungspotenziale für die Öffentlichkeit erkannt werden.

In dem fachübergreifenden Projekt arbeiten drei Arbeitsgruppen des ZWU zusammen sowie das Institut für Künstliche Intelligenz in der Medizin am Universitätsklinikum (Prof. Dr. Folker Meyer und PD Dr. Dr. Ricarda Schmithausen), die Aquatische Ökologie (Prof. Dr. Bernd Sures) und die Instrumentelle analytische Chemie (Prof. Dr. Torsten Schmidt). Zwei ineinandergreifende Aspekte stehen dabei im Fokus: Einerseits sollen Nachweis- und Analysemethoden entwickelt und optimiert werden, um eine nachhaltige und langfristige Abwasserüberwachung zu installieren (Abwasserepidemiologie). Andererseits sollen Methoden erarbeitet werden, die das Abwasser effektiver von medikamentösen oder mikrobiologischen Belastungen reinigen (Photokatalyse).

Das Projekt ist am 1. April gestartet und zunächst auf drei Jahre ausgelegt. Es wird von der Stiftung Zukunft NRW gefördert. Kooperationspartner ist die Emschergenossenschaft. Die Proben stammen aus dem Essener Abwassernetz.

Hinweis für die Redaktion:
Zwei Fotos von den Arbeiten bei der Probenentnahme und der Abwasseranalyse (Copyright: UDE/Ricarda Schmithausen) stellen wir Ihnen für die Berichterstattung als Download zur Verfügung: https://www.uni-due.de/de/presse/pi_fotos.php

Weitere Informationen:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de

Redaktion: Jennifer Meina, Tel. 0203/379-1205, jennifer.meina@uni-due.de 

Wissenschaftliche Ansprechpartner:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de

(nach oben)


Neue Korallen-Datenbank für Klimadaten der vergangen 2000 Jahre

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Was Forschende heute über den Klimawandel wissen, basiert hauptsächlich auf instrumentellen Datenreihen der vergangenen 150 Jahre. Für einzelne Regionen existieren sehr umfassende Datensätze, für andere weniger. Das betrifft vor allem die weiten und abgelegene Gebiete der tropischen Ozeane, für die es nur wenige Daten zu vergangenen Temperaturen und dem Wasserkreislauf gibt. Bislang vorhandene Datensätze aus Korallen-Klimaarchiven wurden zusammengetragen und sind nun in der neuen PAGES (Past Global Changes) CoralHydro2k-Datenbank verfügbar.

So genannte Flachwasserkorallen sind in den Tropen weit verbreitet. In ihren Kalziumkarbonat-Skeletten finden sich Hinweise auf vergangene Umweltbedingungen. Klimarekonstruktionen auf der Grundlage von Korallen verwenden in erster Linie die stabile Sauerstoffisotopenzusammensetzung, die als Stellvertreter für die Meeresoberflächentemperatur und -hydrologie dient, aber auch zunehmend das Strontium/Kalzium Verhältnis, ein weiterer Stellvertreter für die Temperatur. „Die neue Datenbank ist maschinenlesbar, standardisiert und aktiv kuratiert“, erklärt dazu Mit-Initiator Dr. Thomas Felis vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen.

Die Gruppe der internationalen Autor:innen, darunter Dr. Jessica Hargreaves vom MARUM sowie Dr. Thomas Felis, trifft sich regelmäßig bereits seit über fünf Jahren. Über virtuelle Gespräche und Treffen – vor allem während der Corona-Pandemie – hat sich die Gruppe immer besser vernetzt. Das Ergebnis ist die CoralHydro2k-Datenbank. Sie umfasst begutachtete Veröffentlichungen und vor allem Datensätze korallenbasierter Klimaaufzeichnungen aus den vergangenen 2.000 Jahren. Gerade diese Zeitspanne ist laut Autor:innenteam insofern relevant, um die menschengemachten Klimaveränderungen der vergangenen etwa 150 Jahre mit tiefgreifenden Auswirkungen auf Gesellschaften, Volkswirtschaften und Ökosysteme vor dem Hintergrund der natürlichen Klimavariabilität der vorindustriellen Zeit abbilden und verstehen zu können. Aus diesem Grund seien regionale Trends der Vergangenheit so relevant. „Diese Korallen-Datensätze“, heißt es in der Publikation zur Datenbank, „werden in Verbindung mit Klimasimulationen entscheidend dazu beitragen, unser Verständnis der Klimavariabilität der vergangenen 2.000 Jahre und ihrer Dynamik zu verbessern.“

Tropische Korallendaten können für eine umfassende Klimarekonstruktion mit anderen hochauflösenden Klimaarchiven wie Baumringen, Speläothemen oder Eisbohrkernen kombiniert werden, um vergangene und gegenwärtige Wechselwirkungen zwischen Ozean, Atmosphäre und Land zu untersuchen. Insbesondere ermöglicht die neue CoralHydro2k Datenbank somit globale Vergleiche von Paläoklima-Rekonstruktionen unterschiedlicher Archive.

„Angesichts der vom Menschen verursachten Klimakrise ist die Verbesserung unserer Kenntnisse über den globalen Wasserkreislauf von entscheidender Bedeutung, da Wasser für das Leben auf unserem Planeten unerlässlich ist. Die neue Coralhydro2k-Datenbank ist eine wertvolle Ressource für die Gemeinschaft und wird zweifellos neue und relevante Forschungsarbeiten anregen“, sagt Dr. Lukas Jonkers vom MARUM, einer der Koordinator:innen des 2k-Netzwerks und Mitglied des PAGES-Steering Committee. „Die Datenbank ist ein weiteres Beispiel in einer langen Liste von PAGES-2k-Datenprodukten, die gemeinsam den Wert von Paläodaten durch Synthese erhöhen. Herzlichen Glückwunsch, Team Coralhydro2k!“

Wissenschaftliche Ansprechpartner:
Dr. Thomas Felis
Korallen-Paläoklimatologie
Telefon: 0421 218-65751
E-Mail: tfelis@marum.de

Originalpublikation:
Rachel M. Walter, Hussein R. Sayani, Thomas Felis, et al., and the PAGES CoralHydro2k Project Members: The CoralHydro2k database: a global, actively curated compilation of coral δ18O and Sr ∕ Ca proxy records of tropical ocean hydrology and temperature for the Common Era. Earth Syst. Sci. Data, 15, 2081–2116, https://doi.org/10.5194/essd-15-2081-2023, 2023.

Weitere Informationen:
https://www.marum.de/Entdecken/CoralHydro2k.html

(nach oben)


Schwebstoffkonzentrationen in den Bundeswasserstraßen gehen stark zurück

Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Schwebstoffe sind ein wesentlicher Bestandteil von Fließgewässern. Sind diese jedoch in erhöhten Konzentrationen vorhanden, kann sich das negativ auf die Ökologie eines Flusses auswirken. Ein Forscherteam der BfG konnte durch eine Studie belegen, dass der Schwebstoffanteil in den Bundeswasserstraßen stark abgenommen hat. Die Ergebnisse veröffentlichten die Wissenschaftler/-innen jetzt in der Fachzeitschrift Earth Surface Dynamics.

Das Wissenschaftler-Team konnte zeigen, dass an der großen Mehrheit der Schwebstoffmessstellen entlang der Bundeswasserstraßen die Konzentrationen bis zu 50% zwischen 1990 und 2010 signifikant abnahmen. Für den Rhein bedeutet das zum Beispiel, dass sich die Schwebstofffracht an der Deutsch-Niederländischen Grenze der Marke von einer Million Tonnen pro Jahr nähert. Eine Menge, die geschätzt zuletzt vor ca. 4000 Jahren, also vor Beginn der Bronzezeit, transportiert wurde. Diese war durch die großflächige Ausdehnung der Landwirtschaft in Europa geprägt, welche zu einem massiven Anstieg des Eintrags von Schwebstoffen in die Gewässer führte.
Erste Annahmen, dass insbesondere Stauhaltungen in den Flüssen die Schwebstoffe zurückhalten und so zum Rückgang der Konzentrationen geführt haben, konnte eine Analyse der Daten nicht bestätigen. „Unsere Auswertungen zeigen, dass die Schwebstoffkonzentrationen zwischen 1980 und 1990 konstant blieben. Der Rückgang begann erst in den 1990er Jahren, also mehr als 20 Jahre nachdem die meisten Stauhaltungen gebaut wurden“, erklärt Dr. Thomas Hoffmann, Hauptautor der Studie „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“. Daher vermuten der BfG-Wissenschaftler und seine Co-Autoren, dass die Abnahme vielmehr mit dem Management in den Einzugsgebieten und an den Nebenflüssen zu tun hat. Insbesondere die zahlreichen Retentionsflächen, die zum Hochwasserschutz in den Einzugsgebieten der Bundeswasserstraßen gebaut wurden, haben die Eigenschaft Schwebstoffe zurückzuhalten.

Die BfG-Forscherinnen und Forscher werteten Schwebstoffmessungen von insgesamt 440 000 Wasserproben an 62 Messstellen entlang der Bundeswasserstraßen aus – darunter die für die Schifffahrt wichtigen Flüsse Rhein, Elbe und Donau. Die Messstellen sind Teil des Schwebstoffdauermessnetzes, das von der WSV zusammen mit der BfG seit 1963 betrieben wird.

Schwebstoffe gelangen vor allem durch den Eintrag erodierter Böden in die Fließgewässern. Sie bestehen überwiegend aus feinen Partikeln (Schluff und Ton) und werden bei Starkniederschlagsereignissen vor allem auf intensiv genutzten Ackerflächen abgetragen und durch ihr geringes Gewicht und die Strömung in Schwebe gehalten.

Für die Tier- und Pflanzenwelt in und an unseren Flüssen ist der Rückgang an feinen Schwebstoffpartikeln im Wasser gut. „Die Abnahme der Schwebstoffkonzentrationen führt zu einer geringeren Verschlämmung des Flussbettes und damit zu verbesserten Laichbedingungen für Fische, die von einem sandigen und kiesigen Flussbett profitieren. Zudem verbessert sich in den meisten Fällen auch die Wasserqualität, wenn die Schwebstoffe zurückgehen“ , erklärt Hoffmann. Jedoch sind Regionen die, wie zum Beispiel große Teile der Niederlande, unterhalb des Meeresspiegels liegen, auf diese Schwebstoffe angewiesen. „Der fortschreitende Klimawandel bedingt steigende Meeresspiegel. Da ein Großteil der Niederlande schon heute einige Meter darunter liegt, sind Schwebstoffe, die der Rhein in das niederländische Rhein-Delta transportiert, wichtig. Diese lagern sich in den Flussauen ab und können zu einer Erhöhung der Landoberfläche führen und somit dem Meeresspiegelanstieg entgegenwirken“, so Hoffmann weiter. Die Schwebstoffe seien ein wichtiger Bestandteil, müssten aber natürlich auch erstmal an die richtige Stelle gelangen, was durch den Hochwasserschutz im Rhein-Delta oftmals nicht möglich sei.

Um die Gründe für den signifikanten Rückgang der Schwebstoffkonzentrationen und -frachten genauer untersuchen zu können, planen die BfG-Wissenschaftler/-innen rund um Thomas Hoffmann zurzeit ein Forschungsprojekt. Sie wollen unter anderem herausfinden, wo genau der Rückhalt der Sedimente stattfindet. Modellgebiet soll dabei der Main und sein Einzugsgebiet sein.

Die wissenschaftliche Veröffentlichung „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“ kann im Rahmen der Open-Access-Lizenz auf der Seite von Earth Surface Dynamics heruntergeladen werden.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Hoffmann, thomas.hoffmann@bafg.de

Originalpublikation:
https://esurf.copernicus.org/articles/11/287/2023/

(nach oben)


Wie schmeckt das Essen? Frag dein Gehirn!

Dr. Stefanie Merker Kommunikation (PR)
Max-Planck-Institut für biologische Intelligenz
Zu wissen, wann es Zeit für eine Mahlzeit ist – und wann man wieder aufhören sollte zu essen – ist wichtig für die Gesundheit und das Überleben von Menschen und Tieren. Forschende am Max-Planck-Institut für biologische Intelligenz fanden nun heraus, dass das „Hunger-Hormon“ Ghrelin spezialisierte Nervenzellen in der Amygdala von Mäusen aktiviert. In dieser Gehirnregion, die auch für die Regulierung von Emotionen zuständig ist, fördert das Zusammenspiel zwischen Ghrelin und den Nervenzellen die Nahrungsaufnahme und vermittelt sowohl Hunger als auch die mit dem Essen verbundenen Belohnungsgefühle.

Hunger ist ein starkes Gefühl mit einer wichtigen biologischen Funktion. Es signalisiert dem Körper, dass er nach Nahrung suchen sollte, um das eigene Überleben zu sichern. Wenn wir hungrig sind, sehnen wir uns nach Nahrung und wenn wir essen, belohnt uns unser Körper mit angenehmen Gefühlen und einem allgemeinen Glückszustand.

Netzwerke aus biologischen Schaltkreisen und Signalwegen im Gehirn steuern das Essverhalten von Menschen und Tieren und lösen die damit verbundenen Empfindungen aus. Einer der zentralen Akteure in diesem Netzwerk ist das Hormon Ghrelin. Es wird von Magenzellen freigesetzt, wenn Menschen und Tiere hungrig sind oder fasten, und fördert das Fressverhalten.

Die Abteilung von Rüdiger Klein am Max-Planck-Institut für biologische Intelligenz untersucht die Gehirnnetzwerke, die dem Fressverhalten von Mäusen zugrunde liegen. Zu diesem Zweck haben die Forscherinnen und Forscher eine gründliche Analyse der Zelltypen in einer Gehirnregion durchgeführt, die als zentrale Amygdala bekannt ist. “Bisher wurde die Amygdala vor allem im Zusammenhang mit Gefühlen wie Angst und Belohnungsempfinden untersucht. Es wurde angenommen, dass die Regulation des Fressverhaltens in anderen Gehirnbereichen stattfindet, etwa im Hypothalamus”, sagt Christian Peters, Postdoktorand in der Abteilung.

Peters und seine Kolleg*innen analysierten einzelne Nervenzellen in der zentralen Amygdala und untersuchten ihre Boten-RNA-Moleküle, also die Arbeitskopien der Gene, die auch als mRNAs bekannt sind. Die Analyse ergab, dass die Zellen in neun verschiedenen Zellclustern organisiert sind. Einige dieser Cluster fördern den Appetit, während andere ihn hemmen. Zudem passen die Zellen ihre Produktion von mRNAs an, wenn die Mäuse gefüttert werden oder fasten.

“Wir haben jetzt ein besseres Verständnis über die vielfältigen Zelltypen und die physiologischen Prozesse, die in der zentralen Amygdala die Nahrungsaufnahme fördern”, sagt Rüdiger Klein. “Unsere Forschung zeigt zum ersten Mal, dass das Hunger-Hormon Ghrelin auch auf Zellen in der zentralen Amygdala wirkt.” Dort aktiviert es eine kleine Untergruppe von Zellclustern, die gemeinsam durch die Anwesenheit des Proteins Htr2a gekennzeichnet sind, um die Nahrungsaufnahme zu steigern.

Das Team fand heraus, dass die Htr2a-Neurone nach mehrstündigem Fasten oder bei Anregung durch das Hormon Ghrelin aktiv wurden. Die Zellen reagierten auch, wenn die Forschenden den Mäusen Nahrung vorsetzten. “Wir denken, dass Ghrelin mehrere Funktionen erfüllt”, erklärt Christian Peters. “Wenn Mäuse hungrig sind, aktiviert Ghrelin die appetitanregenden Hirnregionen, um die Tiere zum Fressen zu animieren. Außerdem steigert das Hormon die Aktivität in Gehirnarealen wie der Amygdala, die Belohnungsgefühle vermitteln. Das ist wahrscheinlich ein Anreiz, noch mehr zu fressen.” Auf diese Weise erhöht Ghrelin die Schmackhaftigkeit der Nahrung in Abhängigkeit davon, wie gesättigt die Mäuse gerade sind.

Wenn die Tiere nach einer Fastendiät hungrig waren, war die Aktivität der Htr2a-Neuronen allerdings nicht erforderlich, damit die Mäuse mit dem Fressen begannen – die Forschenden vermuten, dass der Geschmack der Nahrung unter diesen Bedingungen eher nebensächlich ist. “In diesem Fall übernehmen andere Schaltkreise im Gehirn die Kontrolle, um den Stoffwechsel des Körpers zu regulieren. Unter anderem der Hypothalamus signalisiert den Mäusen dann, dass es wichtig ist zu fressen, um zu überleben”, sagt Christian Peters.

Hunger und Sättigungsgefühle haben große Auswirkungen auf das körperliche, aber auch auf das emotionale Wohlbefinden. Das hat wohl jede*r von uns beim Verzehr leckerer Speisen und den damit verbundenen Glücksgefühlen schon einmal erlebt. “Die neuronalen Netzwerke, die diese Gefühle vermitteln, sind offensichtlich eng mit denen verbunden, die die Nahrungsaufnahme kontrollieren. Wie genau sie sich gegenseitig beeinflussen, ist noch nicht vollständig geklärt”, sagt Rüdiger Klein. “Wenn wir diese Zusammenhänge entschlüsseln, werden wir auch die neuronalen Prozesse besser verstehen, die an pathologischem Essverhalten beteiligt sind”, fügt Christian Peters hinzu. “Zahlreiche biologische Faktoren tragen zu einem solch komplexen Verhalten bei und wir müssen uns die physiologischen Prozesse ansehen, um diese Faktoren zu verstehen.“

In der Zukunft könnte dieses Wissen zu neuen therapeutischen Ansätzen zur Linderung von Essstörungen führen. Vorerst legt die Studie den Grundstein für weitere Untersuchungen der speziellen Nervenzellverbände und neuronalen Schaltkreise, die die Nahrungsaufnahme steuern. Die Forschung fügt zudem ein weiteres wichtiges Puzzleteil zu unserem Verständnis hinzu, wie das Gehirn das Verhalten steuert.

KONTAKT
Dr. Marius Bruer
Max-Planck-Institut für biologische Intelligenz
Kommunikaton
E-Mail: communications@bi.mpg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rüdiger Klein
Direktor
Max-Planck-Institut für biologisch Intelligenz
E-Mail: ruediger.klein@bi.mpg.de

Originalpublikation:
Christian Peters, Songwei He, Federica Fermani, Hansol Lim, Wenyu Ding, Christian Mayer, Rüdiger Klein
Transcriptomics reveals amygdala neuron regulation by fasting and ghrelin thereby promoting feeding
Sciene Advances, online am 24. Mai 2023

Weitere Informationen:
http://www.bi.mpg.de/klein – Webseite der Abteilung von Rüdiger Klein

(nach oben)


Zu gut, um echt zu sein – ChatGPT & Co.

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Intelligente Softwaresysteme verändern Arbeitswelt und Geschäftsprozesse. Neue Anwendungen wie ChatGPT passen sich der menschlichen Kommunikation an. Ein Interview mit Prof. Dr. Sabine Baumann.

Sie ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und u. a. Expertin für Digitale Plattformen und Technologien, forscht zu Responsible AI Systems.

• Chatbots wie ChatGPT können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen.
• Es ist wichtig sicherzustellen, dass Chatbots und ähnliche Anwendungen fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.
• Technologieunternehmen können trotz der kostenloser Open-Source-Versionen Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten.

Zur Person
Prof. Dr. Sabine Baumann ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und wissenschaftliche Leiterin im Forschungsbereich Produktion am OFFIS Institut für Informatik in Oldenburg. Die Expertin für Digitale Plattformen und Technologien, Business Ecosystems, Nachhaltigkeit und Strategisches Management forscht auch zu Responsible AI Systems und Industrie 4.0/Smart Manufacturing.

Frau Prof. Baumann, leben und arbeiten wir bald alle im Metaverse oder ist die fiktive Welt zu täuschend echt, um wahr zu sein?

Das Metaverse – eigentlich genauer – die Metaversen sind virtuelle Räume, in denen Menschen miteinander interagieren und verschiedene Aktivitäten durchführen können. Es gibt eine breite Palette von Anwendungen wie virtuelle Meetings und Konferenzen oder virtuelles Einkaufen, Gaming und soziale Interaktionen. Ich glaube nicht, dass wir alle ständig in Metaversen sein werden, aber virtuelle Räume werden — so wie das Internet oder mobile Anwendungen — zu Begleitern werden, in die wir eintauchen, um uns zu treffen, zusammenzuarbeiten, Unterstützung bei der Lösung von Problemen zu bekommen oder unterhalten zu werden. Noch müssen aber einige technische und soziale Herausforderungen bewältigt werden.

Künstliche Intelligenz (KI) ist durch ChatGPT nun auch für eine breitere Öffentlichkeit Teil der Wirklichkeit geworden. Ein lernendes System erschafft selbstständig Texte. Fluch oder Segen?

Künstliche Intelligenz wie ChatGPT hat gute und schlechte Seiten. Sie kann helfen, Texte zu generieren, kann jedoch auch zu Missbrauch und Fehlinformationen führen, weshalb eine verantwortungsbewusste Nutzung und Regulierung wichtig sind.

Was finden Sie gut an Chatbots wie ChatGPT?
Sie können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen. Chatbots sind computergesteuerte Programme, die entwickelt wurden, um menschenähnliche Gespräche mit Benutzerinnen und Benutzern zu führen. Chatbots verwenden Algorithmen und künstliche Intelligenz, um auf Anfragen zu antworten, Informationen bereitzustellen oder bestimmte Aufgaben zu erledigen.

An welchen Stellen kollidieren Ethik und Technologie bei der Entwicklung und Anwendung?

Kollisionen treten zum Beispiel in den Bereichen Datenschutz, Transparenz, Verantwortung oder diskriminierungsfreier Entscheidungsfindung auf. Es ist daher wichtig sicherzustellen, dass Chatbots fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.

Was haben Sie als Hochschullehrerin in Bezug auf ChatGPT besonders im Blick?
Ich erforsche, wie sich Arbeitswelt und Geschäftsprozesse durch Systeme künstlicher Intelligenz verändern und auch zum verantwortungsvollen Umgang mit diesen Technologien. In der Lehre führe ich Studierende an die Technologien heran und möchte sie für einen kritischen Umgang mit möglicherweise falschen Ergebnissen oder der Verletzung geistigen Eigentums sensibilisieren. Auch sind datenschutzrechtliche Aspekte zu beachten. Wichtig ist mir auch die Vermittlung einer Beurteilungskompetenz zu den Einsatzgebieten von Systemen der künstlichen Intelligenz sowie deren Vor- und Nachteilen. ChatGPT verändert aber auch die Art zu prüfen. Eine rein textbasierte Reproduktion von Wissen wird zunehmend hinter interaktive Prüfungsformen zurücktreten.

Welche anderen Beispiele für ähnliche Anwendungen gibt es, die ähnlich im Kommen sind?

Neben Chatbots gibt es andere ähnliche Anwendungen wie Sprachassistenten wie Alexa und Siri, Übersetzungstools wie DeepL, virtuelle Assistenten wie Cortana und Bixby, personalisierte Empfehlungssysteme und automatisierte Kundensupport-Systeme. Diese Technologien bieten eine personalisierte und bequeme Unterstützung, indem sie Interaktionen zwischen Menschen und Maschinen automatisieren. Aber auch der Einsatz dieser Systeme wird ähnlich kritisch diskutiert, wie der von ChatGPT.

Die einfache Version von ChatGPT ist Open Source, kostenlos nutzbar. Wie können Technologieunternehmen trotzdem Geld verdienen?

Technologieunternehmen können trotz der kostenlosen Open-Source-Version von ChatGPT Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten. Sie können auch Cloud-basierte Plattformen bereitstellen und dafür Gebühren erheben oder spezielle Versionen von ChatGPT mit erweiterten Funktionen lizenzieren. Zudem können sie anonymisierte Nutzungsdaten analysieren und diese für Marketingzwecke oder die Entwicklung neuer Produkte nutzen.

Wenn neue Technologien wie ChatGPT doch so hilfreich sind, weshalb und aus welchen Richtungen kommen dennoch Bedenken und Kritik?

Trotz der Vorteile von Technologien wie ChatGPT gibt es Bedenken beispielsweise in Bezug auf Arbeitsplatzverlust, Verletzung geistigen Eigentums, Bias der Antworten, Abhängigkeiten von Technologien oder den Verlust wichtiger Kulturtechniken. Es wird daher darum gehen sicherzustellen, dass die KI-Technologien verantwortungsvoll eingesetzt werden.

Was hat Sie am Vormarsch des Text-Bots überrascht?
Überraschend war, mit welcher Geschwindigkeit ChatGPT allgemein akzeptiert wurde – und das auch von Menschen, die nicht (mehr) zu den Digital Natives zählen. Für viele Nutzerinnen und Nutzer ist der Text-Bot bereits jetzt nicht mehr wegzudenken.

Frau Prof. Baumann, ich danke Ihnen für das Gespräch.

Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin).

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

(nach oben)


Rege Beteiligung aus der Bevölkerung: Studie ermittelt Schicksal von Plastikpartikeln

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Auf welchen Wegen sich Plastikmüll in der südlichen Nordsee verbreitet, hat ein interdisziplinäres Forschungsteam unter Leitung der Universität Oldenburg untersucht. Ein wichtiger Teil des Projekts „Makroplastik“ war die Beteiligung von Bürgerinnen und Bürgern. Sie konnten über ein Online-Portal den Fund von Holztäfelchen melden, die das Team auf offener See und an der Küste ausgebracht hatte. Die Projektergebnisse zeigten, dass es in der Nordsee keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.

Woher stammen größere Plastikteile wie Einkaufstüten oder Einwegflaschen in der Deutschen Bucht, und auf welchen Wegen ist der Müll unterwegs? Das hat das Forschungsprojekt „Makroplastik in der südlichen Nordsee – Quellen, Senken und Vermeidungsstrategien“ der Universität Oldenburg umfassend mit einem interdisziplinären Team untersucht. Dabei setzten die Forschenden auch auf die Beteiligungen von Bürgerinnen und Bürgern, um die Verbreitungswege des Plastiks zu verfolgen. In der Zeitschrift „Frontiers in Marine Science“ haben sie nun einen Überblick über die Ergebnisse veröffentlicht. Sie fanden unter anderem heraus, dass es in der Nordsee und im Skagerrak keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.

Die Forschenden aus Meereswissenschaften, Geografie und Umweltplanung hatten seit 2016 mit einem interdisziplinären Ansatz untersucht, wie sich Plastikobjekte mit einem Durchmesser von mehr als fünf Millimetern in der Nordsee verbreiten. Um Verteilung und Transportwege zu verstehen, führten sie Feldstudien durch und berechneten die Wege virtueller Müllteilchen mit numerischen Modellen. Sie erfassten Plastikmüll an der Küste, in Flussmündungen und auf dem Meeresboden. Zudem setzten sie spezielle Driftkörper mit Satellitensendern aus, die – ähnlich wie der Müll – an der Meeresoberfläche treiben und kontinuierlich ihre Positionen übermittelten. Hinzu kamen rund 63.000 Holztäfelchen mit einer Kantenlänge von acht mal zehn Zentimetern, die das Team sowohl auf offener See als auch an verschiedenen Orten an der Küste ausbrachte. Ihr Fund konnte über ein Online-Portal gemeldet werden. Zu der Studie gehörte außerdem eine Analyse der verschiedenen Interessengruppen wie Tourismus, Fischerei, Industrie und Häfen.

Durch Kombination von Beobachtungen und Modellrechnungen erhielt das 15-köpfige Team sowohl einen Überblick über die räumliche Verteilung der Müllquellen als auch über den Beitrag unterschiedlicher Sektoren wie Tourismus oder Industrie. Demnach sind – wie auch schon frühere Studien gezeigt hatten – Fischerei und kommunaler Müll die wichtigsten Quellen. Ein nennenswerter Teil des Plastikmülls stammt aus den größeren Kommunen an der Nordseeküste und an den Mündungen von Elbe, Weser und Ems. Wie sich herausstellte, wurde ein Großteil der in den Flüssen ausgesetzten Holztäfelchen noch innerhalb der Wasserwege wieder ans Ufer gespült – knapp die Hälfte in der Elbe und fast 90 Prozent in der Ems. Auch ein Großteil des an den Küsten angeschwemmten Mülls stammt demnach aus nahegelegenen Quellen. In küstennahen Teilen der Nordsee waren Deutschland und die Niederlande die wichtigsten Müllquellen, wohingegen im offenen Meer die meisten Plastikpartikel aus Großbritannien, Frankreich und den Niederlanden stammten.

Die Untersuchungen zu den Transportwegen zeigten, dass zwei Drittel der an den Küsten ausgesetzten Holztäfelchen innerhalb von nur 25 Kilometern wieder an der Küste landeten. Die auf offener See entlassenen Täfelchen legten dagegen größere Strecken zurück, von ihnen waren 30 Prozent mehr als 250 Kilometer unterwegs, bevor sie wieder auf Land trafen. Insgesamt meldeten Freiwillige über das Onlineportal den Fund von mehr als 27.000 Täfelchen – rund 43 Prozent der ursprünglich ausgebrachten Menge. „Dieses Ergebnis unterstreicht die bedeutende Rolle, die die Bürgerwissenschaften beim Erzeugen großer Datensätze spielen können“, betont Projektleiter Prof. Dr. Jörg-Olaf Wolff vom Oldenburger Institut für Chemie und Biologie des Meeres (ICBM).

Ein weiteres wichtiges Ergebnis: Müllpartikel können für längere Zeit an so genannten ozeanografischen Fronten „gefangen“ bleiben. „Das sind Zonen, in denen beispielsweise Süßwasser aus einem Fluss auf salziges Meerwasser trifft. Dort geht es oft sehr turbulent zu“, erläutert der Ozeanograph Dr. Jens Meyerjürgens vom ICBM. Er war gemeinsam mit Dr. Marcel Ricker vom Helmholtz-Zentrum Hereon in Geesthacht Hauptautor der jetzt veröffentlichten Studie. Die Daten der größeren, mit Satellitensender ausgestatteten Drifter zeigten, dass die Geräte oft mehrere Tage oder sogar Wochen an solchen Fronten festhingen, bis der Wind stark genug wurde, um sie wieder zu befreien. Am Meeresboden unterhalb der Fronten fanden sich dementsprechend mehr Plastikpartikel als anderswo. Einen permanenten Müllstrudel, wie er im Pazifik oder Atlantik existiert, konnten die Forschenden in der Nordsee jedoch nicht nachweisen.

Das Team untersuchte zudem verschiedene Strategien, mit denen sich der Eintrag von Plastikmüll in Zukunft verringern lassen könnte. Am vielversprechendsten ist es der Studie zufolge, wenn Gemeinden bei größeren Veranstaltungen vorschreiben, auf Einweg-Plastik wie Trinkbecher oder Besteck zu verzichten. Zudem seien strengere Lagerbedingungen in Häfen sinnvoll, da der Hafenbetrieb allein für etwa acht Prozent der Kunststoffabfälle in der Nordsee verantwortlich ist. Auch Kampagnen, um das allgemeine Bewusstsein für das Müllproblem zu erhöhen, halten die Forschenden für wichtig. Dabei sollte die Fischerei ihrer Meinung nach stärker einbezogen werden.

Insgesamt zieht das Team ein positives Fazit: „Wir haben sehr viel positives Feedback zu den Driftern und den Holztäfelchen erhalten und auch eine erhöhte Aufmerksamkeit in der Bevölkerung für das Problem festgestellt“, sagt Dr. Thomas Badewien vom ICBM, einer der Hauptverantwortlichen im Projekt. Das seien positive Entwicklungen, die für die Zukunft hoffen lassen.

Dem fachübergreifenden Projektteam gehörten Forschende des ICBM und des Instituts für Biologie und Umweltwissenschaften (IBU) der Universität Oldenburg an. Zu den wissenschaftlichen Kooperationspartnern zählte unter anderem das Helmholtz-Zentrum Hereon. Projektleiter war der Oldenburger Ozeanograph Prof. Dr. Jörg-Olaf Wolff. Das niedersächsische Wissenschaftsministerium hatte das Projekt über vier Jahre mit insgesamt 1,4 Millionen Euro gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Jens Meyerjürgens, Tel.: 0441/798-3518, E-Mail: jens.meyerjuergens@uol.de

Originalpublikation:
Jens Meyerjürgens et al: „Sources, pathways, and abatement strategies of macroplastic pollution: an interdisciplinary approach for the southern North Sea”, Front. Mar. Sci., DOI: 10.3389/fmars.2023.1148714

Weitere Informationen:
http://www.macroplastics.de

(nach oben)


Klimawandel: Agri-Photovoltaik-Anlagen schützen Pflanzen vor Dürre

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Untersuchung der Universität Hohenheim zeigt: Beschattung kann die Folgen von Trockenperioden in der Landwirtschaft abschwächen

Agri-Photovoltaik kann die Folgen von Dürreperioden auf die Produktion pflanzlicher Nahrungsmittel abschwächen: Die Beschattung, die bei ausreichend Wasser oft die Ernteerträge senkt, kann bei Dürre sogar zu Ertragssteigerungen führen. Das ist das Ergebnis einer Untersuchung der Universität Hohenheim in Stuttgart. Der Effekt kann besonders für Regionen wichtig werden, in denen es gleichzeitig ein starkes Bevölkerungswachstum und ausgeprägte Dürreperioden gibt, wie beispielsweise in Indien oder Afrika. Aber auch in Europa muss in Zukunft mit längeren Trockenperioden gerechnet werden. Aus Sicht der Wissenschaftler:innen besteht jedoch noch erheblicher Forschungsbedarf – vor allem zu der Frage, welche Pflanzen sich für die unterschiedlichen Systeme am besten eignen.

Steigende Temperaturen und Veränderungen in der Menge und Verteilung der Niederschläge sind Kennzeichen des fortschreitenden Klimawandels. Vor allem die Verfügbarkeit von Wasser nimmt in vielen Regionen der Welt drastisch ab – mit weitreichenden Folgen für die Ernährungssicherheit einer wachsenden Weltbevölkerung.

Der Ersatz fossiler Brennstoffe durch erneuerbare Energien gilt als Schlüssel, um den Klimawandel abzubremsen. Dabei ist die Solarenergie, also die Umwandlung von Sonnenenergie in elektrische Energie durch Photovoltaik, die ergiebigste erneuerbare Energie und wird gleichzeitig immer erschwinglicher – Faktoren, die ihren weltweiten Ausbau begünstigen.

Die Installation von Photovoltaik-Anlagen auf Freiflächen steht jedoch in direkter Konkurrenz zu anderen Formen der Landnutzung, wie unter anderem der landwirtschaftlichen Produktion. Eine Lösung bietet die Agri-Photovoltaik. Sie ermöglicht die Erzeugung von Nahrungsmitteln und Energie auf derselben Fläche. Dazu werden beispielsweise die Photovoltaik-Paneele auf Ständer gesetzt, so dass darunter Nutzpflanzen angebaut werden können. Alternativ werden die Module in Bodennähe so installiert, dass zwischen ihnen Landwirtschaft betrieben werden kann.

Im Klimawandel kann Agri-Photovoltaik Ernteerträge steigern
Doch diese Form der Energieerzeugung kann noch mehr. Forschende vom Fachgebiet Pflanzenökologie der Universität Hohenheim unter Leitung von Jun.-Prof. Dr. Andreas Schweiger haben sich mit dem Potenzial beschäftigt, unter den sich ändernden klimatischen Bedingungen die Ernteerträge durch Agri-Photovoltaik zu steigern. „Zwar verringert die Beschattung durch die Photovoltaik-Anlage die Erträge, wenn ausreichend Wasser für das Pflanzenwachstum zur Verfügung steht“, erklärt die wissenschaftliche Mitarbeiterin Lisa Pataczek.

„Bei Wasserknappheit profitieren die Pflanzen jedoch von der geringeren Verdunstung und damit einem geringeren Wasserverlust: Der Ertrag ist höher als auf den unbeschatteten Flächen.“ Aus Sicht der Forschenden macht diese stabilisierende Wirkung auf die Ernteerträge die Agri-Photovoltaik zu einer vielversprechenden Technologie.

Wichtig für trockenheitsanfällige Regionen und Wüstenrandgebiete
Besonderes Potenzial sehen sie in den trockenheitsanfälligen Regionen der Welt. Dazu gehören unter anderem der Westen der Vereinigten Staaten, das östliche und südliche Afrika, die Arabische Halbinsel, der Nahe Osten, Indien und Australien. Vor allem in Ländern mit ausgeprägten Dürreperioden und einem massiven Bevölkerungswachstum, wie zum Beispiel in Indien, ist dies aus Sicht der Forschenden von Bedeutung.

„Zudem stellt in den Randgebieten aller großen Wüsten der Welt die Photovoltaik eine Strategie zur Bekämpfung der Wüstenbildung dar“, so Jun.-Prof. Dr. Schweiger. In Regionen mit Grundwasserknappheit könnte so die Erschöpfung dieser wichtigen Ressource verringert und gleichzeitig die CO2-Emissionen aus der Stromerzeugung reduziert werden, was wiederum dem Klimawandel entgegenwirkt.

„Damit trägt die Agri-Photovoltaik nicht nur dazu bei, die Auswirkungen des Klimawandels in bereits als trocken eingestuften Regionen abzuschwächen“, fährt er fort. „Sie wird vor allem für Regionen von Bedeutung sein, die in Zukunft mit einer zunehmenden Wasserknappheit konfrontiert sein werden, wie zum Beispiel in großen Teilen der Mittelmeerregion.“

Potenzial stark abhängig von Region, Pflanzen und verwendetem System
„Allerdings fällt dieses Potenzial je nach den klimatischen Bedingungen sehr unterschiedlich aus und hängt stark von den Pflanzen ab, die in solchen dualen Landnutzungssystemen angebaut werden“, betont der Experte. „So tolerieren die meisten der bislang untersuchten Kulturen eine Beschattung von bis zu 15 Prozent ohne nennenswerte Ertragseinbußen.“

Beeren, Obst und Fruchtgemüse profitieren sogar von einer Beschattung, während die Erträge von Futterpflanzen, Blattgemüse, Knollen- und Hackfrüchte sowie der meisten Getreide-Arten darunter minimal leiden. Starke Ertragseinbußen hingegen gibt es beispielsweise bei Mais, Ackerbohnen, Soja und Lupinen selbst bei geringer Beschattung.

Noch großer Forschungsbedarf
„Noch fehlt es allerdings an detailliertem, fundiertem Wissen über die Beziehungen zwischen den unterschiedlichen Formen der Agri-Photovoltaik und den Reaktionen der verschiedenen Pflanzen“, weist Lisa Pataczek auf den großen Forschungsbedarf hin. Denn diese Reaktionen beschränken sich nicht nur auf die Wasserversorgung.

„So beginnen viele Pflanzen im Schatten, das Wachstum des oberirdischen, photosynthetisch aktiven Blattmaterials zu erhöhen. Interessant ist dies zum Beispiel bei Salat, da dieser Teil der Pflanzen von wirtschaftlichem Interesse ist“, erklärt sie.

Weitere Forschungsergebnisse werden nicht nur gebraucht, um unter den gegebenen klimatischen Bedingungen die optimalen Pflanzen für die jeweilige Beschattung auszuwählen. Sie können auch zur Entwicklung intelligenter Agri-Photovoltaik-Systeme beitragen, bei denen in Echtzeit die Stresssignale der Pflanzen genutzt werden, um die Ausrichtung der Paneele und damit die Beschattung zu steuern.

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Andreas Schweiger, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-22189, andreas.schweiger@uni-hohenheim.de

M. Sc. Lisa Pataczek, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-23693, lisa.pataczek@uni-hohenheim.de

Originalpublikation:
Schweiger, A. H., & Pataczek, L. (2023). How to reconcile renewable energy and agricultural production in a drying world. Plants, People, Planet, 1–12.
https://doi.org/10.1002/ppp3.10371

Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


Tag der Biodiversität – Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf

Alexandra Jakob Pressestelle Botanischer Garten und Botanisches Museum Berlin
Freie Universität Berlin
Jedes Jahr am 22. Mai wird der Internationale Tag der biologischen Vielfalt begangen. Er erinnert daran, dass am 22. Mai 1992 das UN-Übereinkommen über die biologische Vielfalt verabschiedet wurde. Das diesjährige Motto lautet: „From Agreement to Action: Build Back Biodiversity”. Auch der Botanische Garten Berlin nimmt den Tag zum Anlass, um auf die dramatische Situation des weltweiten Artensterbens und den Erhalt der globalen Biodiversität aufmerksam zu machen.

„Biodiversität und Artenschutz gehen uns alle an. Denn ausgestorbene oder bedrohte Arten sind nicht beliebig ersetz- oder reparierbar. Daher ist es wichtig, dass wir jetzt ins Tun kommen“, so Thomas Borsch, Direktor des Botanischen Gartens Berlin. „Doch dafür braucht es dringend mehr Wissen, auch in der Breite unserer Gesellschaft. Sozusagen eine biologische Alphabetisierung. Denn gerade in Bezug auf den Erhalt der Pflanzenvielfalt vor der eigenen Haustür sind hier aktuell viele falsche Informationen im Umlauf. Das Verstreuen von Samen aus beliebigen, bunten Tütchen hilft bei der Erhaltung bedrohter Arten nicht weiter. Ganz im Gegenteil. Damit kann sogar großer Schaden angerichtet werden“, führt Borsch weiter aus.

Eine Art zu erhalten, ist viel komplexer als oft vermittelt wird: Es hat Jahrtausende oder zum Teil Jahrmillionen gebraucht, bis innerhalb einer Art die spezifische Vielfalt mit ihren ganz eigenen geographischen Mustern entstanden ist. Sie erkennt man nicht mit dem bloßen Auge, sondern nur durch wissenschaftliche Analysen ihrer genetischen Merkmale. Nur mit dem entsprechenden Wissen um diese innerartliche genetische Vielfalt ist es möglich, Arten mit ihren regionalen Besonderheiten zu erhalten. Die genaue Identifizierung bedrohter heimischer Arten ist essenziell, wenn es darum geht, ihren weiteren Rückgang zu verhindern. Viele nah verwandte Arten sind auf den ersten Blick sehr ähnlich, wissenschaftliche Verfahren helfen, sie richtig zu erkennen.

„Wir beobachten zunehmend, dass Pflanzenarten in Lebensgemeinschaften eingebracht werden, in die sie eigentlich nicht gehören. Im Berlin-Brandenburger Raum werden beispielsweise Reste wertvoller Vegetation mit spezifischen Arten wie Silbergras, Sandstrohblumen, Heidenelke, Frühlingssegge oder Schillergras umgegraben und zerstört und durch Aussaaten ‚insektenfreundlicher Pflanzen‘ ersetzt. Damit verschwinden nicht nur bedrohte Pflanzenarten, sondern auch die selteneren und gefährdeten Insektenarten“, erklärt der Direktor des Botanischen Gartens Berlin. „Was wir brauchen ist weniger Aktionismus und mehr wissensbasiertes Handeln. Dafür wäre es wichtig, dass Forschung und konkreter Artenschutz künftig viel stärker Hand in Hand gehen – und vor allem auch zusammen gefördert werden.“

Mehr Wissen für den Artenschutz
Laut der Roten Liste sind allein bei den Farn- und Blütenpflanzen über 28 Prozent – also mehr als ein Viertel – bestandsgefährdet. Der Botanische Garten Berlin ist als Knotenpunkt der internationalen Biodiversitätsforschung mit vielen Projekten aktiv, um das globale Artensterben zu stoppen. Unter anderem arbeitet er daran, die genetische Vielfalt gefährdeter Pflanzenarten zu erfassen, um damit den unsichtbaren Verlust von Vielfalt sichtbar zu machen. Dabei werden Populationen mit wertvollen Genotypen lokalisiert, um sie im Artenschutz besonders zu berücksichtigen. Bei Restpopulationen einer Art, deren Bestände durch intensive Landnutzung fragmentiert wurden, wird genau untersucht, ob sie genetisch erodieren und gezielte Hilfsmaßnahmen benötigen. So liefern die wissenschaftlichen Analysen konkrete Handlungsempfehlungen für die Praxis. Ein Beispiel für dieses Verfahren ist die in Berlin und Brandenburg stark gefährdete Duft-Skabiose (Scabiosa canescens) – hier helfen die dank molekularbiologischer Methoden gewonnenen Erkenntnisse der Wissenschaft bei der Populationsstützung sowie Wiederansiedlungen an geeigneten Standorten.

Genetische Vielfalt ist ein Garant dafür, dass Arten sich in Zeiten des Klimawandels besser anpassen können. Mit seiner Arbeit setzt sich der Botanische Garten Berlin dafür ein, diese genetische Vielfalt zu erkennen, sie zu schützen und so die Überlebensfähigkeit von Wildpflanzen in der Natur zu sichern.

Pressefotos (zum Download):
Duft-Skabiose (Scabiosa canescens),
https://box.fu-berlin.de/s/oCZpkBHxJkfGQ8j
Fotos: E. Zippel, © Botanischer Garten Berlin

Weiterführende Literatur: „Genetische Grundlagen für den botanischen Artenschutz in Deutschland“, Thomas Borsch und Elke Zippel, erschienen 2021 in „Natur und Landschaft“

Mit nahezu 20.000 Pflanzenarten ist der Botanische Garten Berlin der größte in Deutschland und zählt zu den bedeutendsten weltweit. Auf 43 Hektar Freigelände und in fünfzehn Gewächshäusern erhalten Besucherinnen und Besucher faszinierende Einblicke in die Welt der Botanik. Als Knotenpunkt der internationalen Biodiversitätsforschung sowie als Ort der Wissensgenerierung und -vermittlung beschäftigt der Botanische Garten mehr als 200 Mitarbeiterinnen und Mitarbeiter. Mit dem Botanischen Museum verfügt er über Deutschlands einzigartige museale Einrichtung, die sich der Vielfalt der Pflanzenwelt, ihrer Bedeutung und der Darstellung ihrer Kultur- und Naturgeschichte widmet. Seit 1995 gehört die Einrichtung zur Freien Universität Berlin.

Der Botanische Garten Berlin ist BO Berlin – Internationales Wissenszentrum der Botanik. Ein einzigartiger Ort, der Botanik in allen Facetten erlebbar macht.

Pressekontakt:
Alexandra Jakob, Pressesprecherin
Botanischer Garten und Botanisches Museum Berlin (BO Berlin)
Tel. 030 – 838 72375
a.jakob@bo.berlin

Anhang
PM – Internationaler Tag der Biodiversität Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf

(nach oben)


Digitale Transformation im Unternehmen aktiv mitgestalten

Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
Jetzt online informieren: Info-Veranstaltung zum Fernstudium MBA Digital Finance, Strategie & Accounting

Am Mittwoch, den 24. Mai ab 17.00 Uhr informiert die Graduate School Rhein-Neckar (GSRN) alle Weiterbildungsinteressierten in einer virtuellen Informationsveranstaltung über den berufsbegleitenden Fernstudiengang Digital Finance, Strategie & Accounting (DFSA). Im Rahmen der Veranstaltung stellen die Studiengangsleiter Prof. Dr. Gösta Jamin und Prof. Dr. Stefanie Hehn-Ginsbach den Studiengang vor. Gemeinsam mit Programm Managerin Sophia Richter informieren sie z.B. über Zugangsvoraussetzungen, inhaltliche Ausrichtungen in Bezug auf die berufliche Planung und beantworten individuelle Fragen. Wer teilnehmen möchte, wird gebeten, sich bei Sophia Richter unter sophia.richter@gsrn.de anzumelden und erhält anschließend die Zugangsdaten zum Webmeeting.

MBA-Studium mit und ohne Erststudium möglich
Der Fernstudiengang DFSA hat eine Regelstudienzeit von 5 Semestern und ist so angelegt, dass er berufsbegleitend durchgeführt werden kann. Die Absolvierenden schließen das Studium mit dem akademischen Grad Master of Business Administration (MBA) ab. Angesprochen sind Berufstätige, die sich für höherqualifizierte Tätigkeiten im Unternehmen weiterentwickeln wollen und die über einen ersten Hochschulabschluss sowie eine mindestens einjährige Berufserfahrung nach dem Erststudium verfügen. In Rheinland-Pfalz können auch beruflich qualifizierte Studieninteressierte ohne Erststudium, aber mit mehrjähriger, einschlägiger Berufserfahrung im Bereich Finance & Accounting über eine Eignungsprüfung zum Studium zugelassen werden.

Arbeitswelt 4.0 – jetzt weiterqualifizieren
Berufstätige Fernstudieninteressierte, die sich den Herausforderungen der Arbeitswelt 4.0 stellen möchten, liegen mit dem Fernstudiengang Digital Finance, Strategie & Accounting (MBA) richtig. Sie qualifizieren sich neben dem Beruf und auf akademischem Niveau. Das Studium vermittelt Schlüsselqualifikationen in zentralen Fragen der finanzwirtschaftlichen Unternehmenssteuerung, zu den Studieninhalten zählen Rechnungslegung & Kapitalmarktkommunikation, Change- & Projektmanagement sowie Entwicklung, Implementierung & Überwachung von Unternehmensstrategien. Fachübergreifende Kompetenzen wie Problemlösung, Gesprächs- und Verhandlungsführung, Digitalkompetenz und Coaching runden das Studienkonzept ab.

Die GSRN ist eine 100%ige Tochter der Hochschule für Wirtschaft und Gesellschaft (HWG) Ludwigshafen. Das zfh – Zentrum für Fernstudien im Hochschulverbund in Koblenz unterstützt die GSRN und die HWG bei der Durchführung von Fernstudiengängen. Beim zfh können sich Interessierte bis zum 15. Juli 2023 für das kommende Wintersemester online bewerben unter http://www.zfh.de/anmeldung

Weitere Informationen: http://www.zfh.de/mba/finance und http://www.gsrn.de/dfsa

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.575 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de,
Internet: http://www.zfh.de

(nach oben)


Verringerte Krebssterblichkeit bei täglicher Vitamin D-Einnahme

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Eine Vitamin D-Einnahme könnte die Krebssterblichkeit in der Bevölkerung um zwölf Prozent reduzieren – vorausgesetzt, das Vitamin wird täglich eingenommen. Dies ergab eine am Deutschen Krebsforschungszentrum durchgeführte Auswertung von 14 Studien der höchsten Qualitätsstufe mit insgesamt fast 105.000 Teilnehmern.

Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Über das Jahr gemittelt, liegen die Vitamin D-Blutwerte bei rund 15 Prozent der deutschen Erwachsenen unter dem Schwellenwert für einen ausgeprägten Vitamin D-Mangel*. In einer Studie an Darmkrebspatienten dagegen diagnostizierten Forscher bei 59 Prozent der Teilnehmer einen Vitamin D3-Mangel, der zudem mit ungünstiger Prognose assoziiert war.

Mögliche Effekte einer Vitamin D-Supplementierung und der Entstehung bzw. Prognose von Krebserkrankungen wurden bereits in zahlreichen Studien untersucht. „Nach derzeitiger Studienlage schützt eine Vitamin D3-Einnahme wahrscheinlich nicht davor, an Krebs zu erkranken, könnte aber die Wahrscheinlichkeit senken, an einer Krebserkrankung zu versterben. Die bisherigen Studien zur Krebssterblichkeit haben jedoch sehr unterschiedliche Ergebnisse geliefert und uns interessierten die Gründe dafür“, sagt Ben Schöttker, Epidemiologe im Deutschen Krebsforschungszentrum. „Mit einer Neubewertung aller bisherigen Studien zu dem Thema wollten wir dazu beitragen, in dieser für die Bevölkerungsgesundheit so relevanten Frage zu belastbaren Ergebnissen zu kommen.“

Um die Wirksamkeit von Vitamin D3 auf die Krebssterblichkeit in der Bevölkerung und auf das Überleben von Krebspatienten zu untersuchen, führte Ben Schöttker mit Kolleginnen und Kollegen eine systematische Literaturrecherche durch, in der 14 Studien mit insgesamt knapp 105.000 Teilnehmern identifiziert wurden. Die Forscherinnen und Forscher berücksichtigten ausschließlich Studien höchster Qualität, deren Teilnehmer per Zufall dem Vitamin D3-Arm oder dem Placebo-Arm zugewiesen worden waren.

In der Zusammenfassung aller 14 Studien zeigten sich keine statistisch signifikanten Ergebnisse. Teilte man die Studien jedoch danach auf, ob die Vitamin D3-Einnahme täglich in niedriger Dosierung** erfolgte oder aber als eine selten verabreichte, hohe Einzeldosis**, zeigte sich ein großer Unterschied. In den vier Studien mit den hohen Einzeldosen zeigte sich kein Effekt auf die Krebssterblichkeit. In der Zusammenfassung der zehn Studien mit täglicher Dosierung ermittelten die Forscher dagegen eine statistisch signifikante Verringerung der Krebssterblichkeit um zwölf Prozent.

„Diese zwölfprozentige Reduktion der Krebssterblichkeit haben wir nach ungezielten Vitamin D3-Gaben an Personen mit und ohne Vitamin-D-Mangel beobachtet. Wir können daher davon ausgehen, dass der Effekt für diejenigen Menschen, die tatsächlich einen Vitamin-D-Mangel aufweisen, erheblich höher ist“, sagt Ben Schöttker. Die bessere Wirksamkeit der täglichen Vitamin D3-Dosen erklärt er sich durch die regelmäßigere Bioverfügbarkeit des aktiven Wirkstoffs, dem Hormon 1,25-Dihydroxyvitamin D, das erst durch Reaktionen des Vitamin D im Körper entsteht und vermutlich das Tumorwachstum hemmen kann.

Bei einer detaillierteren Analyse der Studien mit täglicher Einnahme ergab sich weiterhin, dass Menschen ab dem Alter von 70 Jahren am meisten von der Vitamin-D3-Therapie profitierten. Außerdem zeigte sich der Effekt am deutlichsten, wenn die Vitamin D-Einnahme bereits vor der Krebsdiagnose begonnen wurde.

Hermann Brenner, Epidemiologe und Präventionsexperte am DKFZ, ergänzt: „Diese Arbeit unterstreicht das große Potential der Vitamin-D3-Gabe in der Prävention von Krebstodesfällen. Die regelmäßige Einnahme in niedriger Dosierung** ist mit nahezu vernachlässigbarem Risiko und sehr geringen Kosten verbunden.“

Die aktuelle Arbeit wurde von der Deutschen Krebshilfe gefördert.

Publikation
Kuznia S, Zhu A, Akutsu T, Buring JE, Camargo CA Jr, Cook NR, Chen LJ, Cheng TD, Hantunen S, Lee IM, Manson JE, Neale RE, Scragg R, Shadyab AH, Sha S, Sluyter J, Tuomainen TP, Urashima M, Virtanen JK, Voutilainen A, Wactawski-Wende J, Waterhouse M, Brenner H, Schöttker B. Efficacy of vitamin D3 supplementation on cancer mortality: Systematic review and individual patient data meta-analysis of randomised controlled trials. Ageing Res Rev. 2023, DOI: 10.1016/j.arr.2023.101923.

* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.

** In den Studien wurden als tägliche niedrige Dosierungen 400 bis 4000 IU pro Tag eingesetzt, und als hohe Einzeldosis 60.000 bis 120.000 IU einmal pro Monat oder seltener.

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationale Centren für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 7 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

(nach oben)


Magnetbakterien: Mikroorganismen können helfen, gefährliche Schwermetalle aus dem Abwasser zu holen

Simon Schmitt Kommunikation und Medien
Helmholtz-Zentrum Dresden-Rossendorf
Einem Forschungsteam des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) ist es gelungen, uranhaltiges Wasser mittels einer besonderen Art von Bakterien zu reinigen – den sogenannten magnetotaktischen Bakterien, die ihren Namen der Fähigkeit verdanken, auf Magnetfelder reagieren zu können. Sie sind in der Lage, in Lösung befindliche Schwermetalle in ihre Zellwand einzubauen. Die Forschungsergebnisse (DOI: 10.1016/j.jhazmat.2022.129376) werfen auch ein neues Licht auf die Wechselwirkungen von Uran mit Bioliganden.

„Wir zielen mit unseren Untersuchungen auf mögliche industrielle Anwendungen im Bereich der mikrobiologischen Sanierung von Wässern, die insbesondere mit Schwermetallen kontaminiert sind, wie sie etwa in den ehemaligen Uranminen als Flutungswasser vorkommen“, erklärt Dr. Evelyn Krawczyk-Bärsch vom Institut für Ressourcenökologie am HZDR. „Für dieses Projekt haben wir uns Hilfe bei einer ganz besonderen Gruppe von Lebewesen geholt: bei den magnetotaktischen Bakterien“, fügt ihr Kollege Dr. Johannes Raff hinzu und ergänzt: „Aufgrund ihres Aufbaus sind sie geradezu prädestiniert für eine solche Aufgabe.“

Denn sie weisen eine Besonderheit auf, die sie von anderen Bakterien unterscheiden: Magnetotaktische Bakterien bilden nanoskopisch kleine Magnetitkristalle in ihrem Zellinneren. Sie sind wie auf einer Perlenschnur aufgereiht und von so perfekter Gestalt, dass sie der Mensch auf synthetischem Wege zurzeit nicht kopieren könnte. Die einzelnen magnetischen Kristalle sind jeweils umgeben von einer schützenden Membran. Kristalle und Membran bilden die sogenannten Magnetosome, mit deren Hilfe sich die Bakterien entlang des Erdmagnetfeldes ausrichten und sich so in ihrem Lebensraum orientieren – und sie zugänglich für einfache Trennprozesse machen.

Sie sind fast überall in wässriger Umgebung verbreitet, vom Süß- bis hin zum Salzwasser, auch dort, wo es nur wenige Nährstoffe gibt. Der Mikrobiologe Dr. Christopher Lefèvre hat sie sogar in den heißen Quellen Nevadas gefunden. Von ihm und seinem Kollegen Dr. Damien Faivre vom französischen Forschungszentrum für Kernenergie, dem Kommissariat für Atomenergie und alternative Energien (CEA), haben die Rossendorfer ihren Bakterienstamm bekommen, und dazu gleich noch fachkundige Tipps, wie sie sich am besten halten lassen. Denn trotz ihres häufigen Vorkommens gilt es, bei ihrer Kultivierung einiges zu beachten.

Stabiler Schwermetall-Sammler in lebensfeindlicher Umgebung
Magnetotaktische Bakterien sind bei neutralen pH-Werten selbst bei höheren Uran-Konzentrationen in wässrigen Lösungen lebensfähig. Sie bauen das aufgenommene Uran über einen weiten pH-Bereich fast ausschließlich in ihrer Zellwand ein – ausgezeichnete Grundlagen, um mit den Bedingungen zurechtzukommen, wie sie in bergbaurelevanten Wässern vorkommen. Dabei gelangt kein Uran ins Zellinnere, es wird auch nicht von den Magnetosomen gebunden.

Es war vorher schon bekannt, dass unterschiedliche Bakterientypen Schwermetalle in ihrer Zellwand binden, obwohl diese ganz unterschiedlich aufgebaut sein können. Im Falle der magnetotaktischen Bakterien besteht die Zellwand aus einer nur vier Nanometer dünnen Peptidoglykan-Schicht, einem aus Zuckern und Aminosäuren zusammengesetzten Makromolekül, das Hauptbestandteil der Zellwände vieler Bakterien ist. Die Zellwand magnetotaktischer Bakterien wird durch eine äußere Membran abgeschlossen, die aus Zuckern und fettähnlichen Bestandteilen besteht: potenzielle Andockstellen für Uran.

„Unsere Ergebnisse zeigen, dass bei den magnetotaktischen Bakterien Peptidoglykan während der Aufnahme von Uran die Hauptrolle spielt. Diese Erkenntnis ist neu und war bei diesem Bakterientyp nicht zu erwarten“, berichtet Krawczyk-Bärsch. Es gelang dem Team sogar, drei konkrete Uran-Peptidoglykan-Spezies zu bestimmen und das Ergebnis mit Referenzproben zu bestätigen. Die neuen Erkenntnisse wurden erst durch eine Kombination von Mikroskopie und verschiedenen spektroskopischen Techniken möglich, wie sie weltweit nur selten zur Verfügung steht: „So konnten wir in Zusammenarbeit mit dem Institut für Ionenstrahlphysik und Materialforschung am HZDR beispielsweise das Elektronenstrahl-Mikroskop einsetzen. Die örtliche Konzentrierung unserer Institute am Standort und die Expertise unserer Kolleginnen und Kollegen sind ein großer Vorteil für unsere Arbeit“, resümiert Raff.

Bedeutung für die Sanierung kontaminierter Gewässer
Magnetotaktische Bakterien können aufgrund ihrer magnetischen Eigenschaften mittels Magneten leicht aus Wässern abgetrennt werden. „Dies ist auch im großen Stil in Form einer Behandlung direkt in oberflächennahen Gewässern oder über das Abpumpen des Wassers aus Untertage-Bergwerken und dem Weiterleiten in Pilotkläranlagen vorstellbar“, erläutert Krawczyk-Bärsch mit Blick auf die Entwicklung innovativer Sanierungsstrategien für kontaminiertes Wasser: Der Einsatz von magnetotaktischen Bakterien könnte eine wirksame Alternative zu teuren und konventionellen chemischen Behandlungen sein. Denn magnetotaktische Bakterien sind genügsam in der Haltung, während zum Beispiel die Überführung anderer Biomasse-basierter Lösungen in die Praxis regelmäßig am Preis scheitern, der einem erhöhten Nährstoff- und Energiebedarf geschuldet ist.

Und noch ein weiteres Detail hat das Interesse der Forschenden an diesen Bakterien geweckt: Ihre Proteine sind in der Lage, zwei- und dreiwertiges Eisen so zu stabilisieren, dass die Synthese des in die Magnetosomen eingelagerten Magnetits gelingt. „Uns stellt sich deshalb besonders eine Frage: Wie werden diese Mikroorganismen mit Radionukliden verschiedener Oxidationsstufen wechselwirken? Wir denken da insbesondere an Plutonium“, erklärt Raff. Denn anders als bei Uran ist es denkbar, dass es aufgrund seiner chemischen Ähnlichkeit zu Eisen ähnliche Aufnahmewege in die Zelle nutzt. Wie beeinflusst dies das Wanderungsverhalten von Plutonium in der Natur und ließe sich auf diesem Wege auch Plutonium aus Abwässern entfernen? Das Thema ist deshalb ebenfalls relevant für die Endlagerforschung: Etwaige Ergebnisse könnten dann in die Sicherheitsabschätzung einfließen.

Publikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )

Weitere Informationen:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de

Medienkontakt:
Simon Schmitt | Leitung und Pressesprecher
Abteilung Kommunikation und Medien am HZDR
Tel.: +49 351 260 3400 | Mobil: +49 175 874 2865 | E-Mail: s.schmitt@hzdr.de

Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?

Das HZDR entwickelt und betreibt große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Es ist Mitglied der Helmholtz-Gemeinschaft, hat sechs Standorte (Dresden, Freiberg, Görlitz, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt fast 1.500 Mitarbeiter*innen – davon etwa 670 Wissenschaftler*innen inklusive 220 Doktorand*innen.

Wissenschaftliche Ansprechpartner:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de

Originalpublikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )

Weitere Informationen:
https://www.hzdr.de/presse/magnetic_bacteria

(nach oben)


Decoding Love: Studie an der Universität Wuppertal untersucht Auswirkungen der Smartphonenutzung in Liebesbeziehungen

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Das Smartphone ist in unserem Alltag allgegenwärtig – im Durchschnitt vergehen weniger als zwanzig Minuten zwischen zwei Blicken, die wir darauf werfen. In zwischenmenschlichen Beziehungen kann das zu Konflikten führen. Die Wirkung von Smartphonenutzung in sozialen Situationen schauen sich Wissenschaftlerinnen der Bergischen Universität Wuppertal schon länger genauer an. In einer neuen Studie widmen sie sich nun konkret Liebesbeziehungen: Wie wirkt sich der unangemessene Gebrauch – auch als Phubbing bezeichnet – auf das Wohlbefinden von Paaren und ihre Nähe zueinander aus? Und was hilft dabei, das Verhalten zu ändern?

Derzeit sucht das Team vom Lehrstuhl für Gesundheitspsychologie und Angewandte Diagnostik noch Paare, die an der Studie teilnehmen wollen. Geleitet wird die Studie von Prof. Dr. Theda Radtke. Die Lehrstuhlinhaberin erklärt, wer fürs Mitmachen in Frage kommt: „Wenn Paare zusammenleben, das Smartphone Thema in der Beziehung ist und der Wunsch besteht, das zu ändern, können sich die Paare bei uns melden bzw. direkt die erste Kurzbefragung ausfüllen.“ Die, so die Forscherin, dauere rund zehn Minuten und diene ihrem Team dazu, eine erste Einschätzung der Situation des Paares vorzunehmen. Passen die Teilnehmenden ins Profil der Studie, folgen in den darauffolgenden drei Wochen noch drei weitere Online-Befragungen.

Paare unterstützen dabei nicht nur die Wissenschaft – sie tun vor allem etwas für ihre Beziehung: „Die Teilnahme an der Studie ermöglicht es den Paaren, ihre Smartphone-Nutzung zu reflektieren und im besten Fall ihre Beziehung zu stärken“, so Radtke. Dabei sollen auch ganz konkrete Tipps helfen, die die Wissenschaftlerinnen Paaren, bei denen die Smartphonenutzung zu Meinungsverschiedenheiten und Konflikten führt, an die Hand geben. „Wir begleiten die Paare über ein paar Wochen, um langfristige Effekte erzielen zu können und um ihnen zu zeigen, wie sich unangemessene Nutzungszeiten in Gegenwart des anderen reduzieren lassen.“

Infobox: Studie Decoding Love
Weiterführende Infos zur Studie und die erste Kurzbefragung gibt es hier: https://www.soscisurvey.de/decoding-love/

Gesucht werden Personen, die mindestens 18 Jahre alt sind, und mit dem*der Partner*in zusammenleben. Nur eine Person der Paarbeziehung füllt die Online-Befragungen aus, daher sollte zuvor besprochen werden, wer an der Studie teilnimmt. Teilnehmende haben die Chance auf Gutscheine im Gesamtwert von 250 Euro.

Weitere Fragen können an decodinglove@uni-wuppertal.de gerichtet werden.

Weitere Informationen:
https://health.uni-wuppertal.de/de/ – Mehr zur Forschung des Lehrstuhls

(nach oben)


Es darf gedüngt werden! Pressemitteilung und -einladung

Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
In der Schorfheide startet am Montag, den 15. Mai 2023 ein neuer Feldversuch mit Recyclingdüngern aus Inhalten aus Trockentoiletten. Erstmalig werden auf einem ca. sechs Hektar großen Ackerschlag der Schorfheider Agrar GmbH Recyclingdünger aus menschlichem Urin und Kot für den Anbau von Silomais angewendet.

In den kommenden Monaten werden die am Ertrag gemessene Düngewirkung sowie die Klima- und Schadwirkung untersucht. Besonderes Augenmerk wird dabei auf pharmazeutischen Rückständen liegen. Die Ergebnisse des Feldversuchs sollen Aufschluss darüber geben, ob solche neuartigen Dünger schadlos angewendet und synthetische Mineraldünger ersetzen können.
Die Firma Finizio veredelt den Recyclingdünger, dessen Basis in Trockentoiletten gesammelter menschlicher Kot ist, in Eberswalde auf dem Gelände der Kreiswerke Barnim. Die Recyclingdünger auf Urinbasis stammen von der Schweizer Firma Vuna. In Kürze wird eine Urinaufbereitungsanlage für die Herstellung von Recyclingdünger aus Urin auch in Eberswalde in Betrieb genommen.
Die Verwertungsanlage in Eberswalde und der Feldversuch sind Teil des Forschungsprojekts zirkulierBAR, welches für drei Jahre vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Es verfolgt die Vision einer Sanitär- und Nährstoffwende – d.h. Nährstoffe aus verzehrten Lebensmitteln zurück-zugewinnen und diese im Sinne einer nachhaltigen, regionalen Kreislaufwirtschaft wieder der Landwirtschaft zuzuführen.
Am 17.05.23 laden wir Sie herzlich von 14-16 Uhr zu den Kreiswerken Barnim nach Eberswalde ein – dem Ort an dem die Recyclingdünger entstehen. Sie können, das Forschungsprojekt zirkulierBAR kennenzulernen, die Anlage zur Verwertung von Inhalten aus Trockentoiletten besichtigen und Fragen rund um Trockentoiletten und Recyclingdünger stellen.
Rede und Antwort stehen Ihnen Jan-Ole Boness, Verantwortlicher für die Düngeversuche, sowie Ariane Krause und Corinna Schröder, Koordinatorinnen des Projekts zirkulierBAR am Leibniz-Institut für Gemüse- und Zierpflanzenbau e.V..
Treffpunkt ist der Parkplatz vor dem Verwaltungsgebäude der Kreiswerke Barnim am Standort Eberswalde (Ostender Höhen 70, 16225 Eberswalde).
Um eine Anmeldung unter presse@zirkulierbar.de bis zum 16.05.2023 wird gebeten.

Wissenschaftliche Ansprechpartner:
Dr. Ariane Krause | presse@zirkulierbar.de

Weitere Informationen:
https://zirkulierbar.de/ Projekt zirkulierBAR

(nach oben)


Schutz vor UV-Strahlung am Arbeitsplatz verbessern

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
FAU-Studie liefert wichtige Erkenntnisse für die Hautkrebsprävention bei der Arbeit im Freien

Die ultraviolette (UV) Strahlung der Sonne ist seit 1992 von der internationalen Agentur für Krebsforschung als krebserregend für den Menschen eingestuft und der wichtigste äußere Faktor für die Entstehung von Hautkrebs. Menschen, die überwiegend im Freien arbeiten, haben ein erhöhtes Risiko, an Hautkrebs zu erkranken. Ein Forschungsteam der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) hat in zwei Untersuchungen ermittelt, ob und wie sich Beschäftigte in Deutschland, die viel im Freien arbeiten, vor starker Sonneneinstrahlung schützen und welche Maßnahmen zur Vorbeugung von Hautkrebs Arbeitgeber treffen. Sie stellten dabei unter anderem Geschlechts- und Branchenunterschiede zwischen dem individuellen Sonnenschutzverhalten fest.

„Seit 2015 können das Plattenepithelkarzinom und dessen Vorstufen, die aktinischen Keratosen, bei Beschäftigten im Freien als Berufskrankheit in Deutschland anerkannt und entschädigt werden. Nach den COVID-19-Infektionen und der Lärmschwerhörigkeit sind diese Erkrankungen zur dritthäufigsten anerkannten Berufskrankheit und zum häufigsten Berufskrebs geworden. Gefährdet sind in Deutschland 2 bis 3 Millionen Beschäftigte und das berufliche Krebsrisiko ist deutlich höher als es bei chemischen Arbeitsstoffen oder radioaktiver Strahlung in unserer Arbeitswelt akzeptiert oder toleriert wird“, sagt Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin, der maßgeblich daran beteiligt war, dass diese Krebsformen als Berufskrankheit eingestuft wurden. Die Behandlungskosten für das Plattenepithelkarzinom und aktinische Keratosen werden in Deutschland auf 3,15 Millionen Euro pro Jahr geschätzt. Deshalb spielt der Sonnenschutz bei der Arbeit nicht nur eine wichtige Rolle für die einzelnen Beschäftigten, sondern auch für die Gesellschaft.

Geschlechtsunterschiede bei der Verwendung von Sonnenschutzmitteln
Das Forschungsteam der FAU um Prof. Dr. Katharina Diehl und PD Dr. Tatiana Görig, beide Professur für Epidemiologie und Public Health, sowie Prof. Dr. Hans Drexler befragte im Rahmen der siebten Welle des Nationalen Krebshilfe-Monitorings (NCAM) Beschäftigte, die mindestens zwei Stunden täglich im Freien arbeiteten wie beispielsweise auf Baustellen, in Kindertagesstätten, bei der Polizei, der Müllabfuhr oder Post- und Paketdiensten. Dabei stellten sie fest, dass nur rund 38 Prozent aller Teilnehmenden Sonnenschutz fürs Gesicht verwendeten, Frauen häufiger als Männer. Männer hingegen trugen eher Sonnenschutzkleidung, darunter etwa Hemden, die die Schultern bedecken, und Kopfbedeckungen.

Länge der Arbeitszeit hat Einfluss auf das Tragen von Schutzkleidung
Männliche Beschäftigte, die wenigstens vier Stunden im Freien arbeiteten, trugen häufiger ein schulterbedeckendes Shirt oder Hemd als Personen, die zwei bis drei Stunden im Freien tätig sind (88 Prozent gegenüber 73 Prozent). Auch die Branche spielte beim Sonnenschutz eine Rolle: Wer eine Uniform oder festgelegte Arbeitskleidung tragen musste wie bei der Polizei, im Sicherheitsdienst oder im Post- und Paketdienst, gab häufiger an, schulterbedeckende Hemden zu tragen. Kopfbedeckungen wurden am häufigsten im Gartenbau getragen (47 Prozent). Besonders oft wurde zum Sonnenschutz die Mittagspause im Schatten verbracht (83 Prozent). Bei Frauen gab es hinsichtlich der Länge der Arbeitszeit im Freien und dem Sonnenschutz nur einen Zusammenhang zum vermehrten Tragen von Kopfbedeckungen.

„Unsere Studie hat gezeigt, dass beim Sonnenschutz für Beschäftigte, die im Freien arbeiten, noch viel Luft nach oben besteht, vor allem in Bezug auf die Verwendung von Kopfbedeckungen, Sonnenbrillen und Sonnenschutzmitteln. Insbesondere Männer müssten stärker sensibilisiert werden, Sonnenschutzmittel zu verwenden. Auch über den UV-Index, der die Stärke der UV-Strahlung angibt, sollte besser aufgeklärt werden. Unsere Ergebnisse können unter anderem für gezielte Kampagnen zur Prävention von Hautkrebs genutzt werden“, sagt Prof. Diehl.

Unternehmen stärker für den Sonnenschutz sensibilisieren
Eine weitere Auswertung der FAU-Arbeitsgruppe ergab, dass auch die Unternehmen mehr dazu beitragen könnten, die Beschäftigten vor der UV-Strahlung und damit vor Hautkrebs zu schützen. So gaben zum Beispiel 28 Prozent der Beschäftigten die Auskunft, dass ihnen während der Arbeitszeit selten oder nie ein Schattenplatz zur Verfügung gestellt würde. Hier gäbe es die Möglichkeit, Sonnenschutzzelte oder Überdachungen aufzubauen. Nur etwa die Hälfte der Beschäftigten (52 Prozent) erhielt Schutzkleidung vom Arbeitgeber, ein Viertel Sonnenschutzmittel (25 Prozent) – ein weiterer möglicher Ansatzpunkt für den Arbeitsschutz. Etwa ein Drittel der Befragten konnte an heißen Sommertagen morgens früher mit der Arbeit beginnen, um der höchsten UV-Strahlenbelastung aus dem Weg zu gehen. Falls Unternehmen die Arbeit an heißen Sommertagen zeitlich anders organisieren können, sollten sie auch diese Möglichkeit nutzen, lautet eine weitere Schlussfolgerung der Studie. „Neben individuellen verhaltensbezogenen Sonnenschutzmaßnahmen stellt der Sonnenschutz durch den Arbeitgeber eine wichtige Ergänzung dar“, sagt PD Dr. Görig.

„Durch den Klimawandel wird die Belastung durch UV-Strahlen am Arbeitsplatz weiter zunehmen. Unsere Studien liefern Ansatzpunkte für die Verbesserung des UV-Schutzes am Arbeitsplatz“, betont Prof. Diehl.

Links zu den beiden Publikationen:
https://doi.org/10.1093/annweh/wxad014
https://doi.org/10.1002/ajim.23480

Ansprechpartner/-innen für die Studien:
Prof. Dr. Katharina Diehl
Professur für Epidemiologie und Public Health
katharina.diehl@fau.de

PD Dr. Tatiana Görig
Professur für Epidemiologie und Public Health
tatiana.goerig@fau.de

Prof. Dr. Hans Drexler
Lehrstuhl für Arbeits- und Sozialmedizin
hans.drexler@fau.de

Gerne vermitteln wir Ihnen Forschende rund ums Thema Sonnenschutz, zum Beispiel:

Expert/-innen für primäre Prävention (Aufklärung, inkl. Sonnencremes), sekundäre Prävention (Hautkrebsscreening) und tertiäre Prävention (Tumorentfernung und Nachsorge) über:
Prof. Dr. Carola Berking, Hautklinik des Uniklinikums Erlangen
Tel.: 09131/85-33661, direktion.de@uk-erlangen.de

Sonnenschutz als gesellschaftliches Thema: Wie kann man sich vor der Sonne schützen und wo zeigen sich Defizite?
Prof. Dr. Katharina Diehl, Professur für Epidemiologie und Public Health
Tel.: 09131/85-22793, katharina.diehl@fau.de

Arbeitsmedizin und -schutz: Welche Möglichkeiten haben Arbeitnehmer/-innen, um sich angemessen vor Sonnenstrahlung zu schützen, und wie können Arbeitsgeber/-innen aktiv werden?
Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin
Tel.: 09131/85-22312, hans.drexler@fau.de

Bei Fragen dürfen Sie sich auch gerne direkt an das Presseteam wenden unter 09131/85-70229 und presse@fau.de

(nach oben)


Mit grüner Energie und nachhaltigen Rohstoffen in die Zukunft

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel
„Grüne Energie und nachhaltige Rohstoffe“ nennt sich eine SDG-Partnerschaft, die jetzt für die Universität Kassel eingeworben wurde. Gefördert wird sie vom Deutschen Akademischen Austauschdienst DAAD. Beteiligt sind das Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften und das Centro de Estudios Latinamericanos (CELA) an der Universität Kassel.

Die SDG-Partnerschaften des DAAD fördern internationale Kooperationen, die die Umsetzung der UN-Ziele für Nachhaltige Entwicklung besonders unterstützen. Die geförderte Partnerschaft nimmt Bezug auf die Sustainable Development Goals „Bezahlbare und saubere Energie“ (SDG 7) und „Maßnahmen zum Klimaschutz“ (SDG 12).
Vor diesem Hintergrund wird Kassel in den kommenden vier Jahren intensiv mit der Universidad Nacional de San Martín (UNSAM) in Argentinien sowie der Universidad de la Habana (UH) in Kuba zusammenarbeiten. Denn: „Energiewende, Klimaschutz und Nachhaltigkeit klappen nicht ohne internationale Zusammenarbeit“, so Prof. Hans-Jürgen Burchardt, Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften der Uni Kassel.

Durch die eingeworbene Fördersumme von mehr als 380.000 Euro werden bis 2026 pro Jahr 19 Forschungs- und Studienaufenthalte in alle drei Länder finanziert.
Davon profitieren Studierende, Promovierende sowie Professorinnen und Professoren. Ziel der Zusammenarbeit ist es, gemeinsam Lösungen im Feld der nachhaltigen Energie- und Rohstoffversorgung zu erforschen und umzusetzen. Nicht nur Wissen und Perspektiven werden ausgetauscht, sondern auch gemeinsame neue Lehrformate erprobt. Verschiedene Forschungen sowie Veröffentlichungen stehen ebenso auf dem Programm wie ein intensiver Wissenstransfer in Politik, Wirtschaft und Gesellschaft.
Das Projekt soll in Lateinamerika Leuchtturmfunktion erhalten, da sich die Region auf den Abbau und Export von hauptsächlich nicht erneuerbaren Rohstoffen spezialisiert hat. Zusätzlich fördert dieser Fokus bei allen Partnerinstitutionen eine Erweiterung und Stärkung bereits bestehender SDG-Themen, die auf sozial-ökologische Forschung, nachhaltige Entwicklung und globale Ungleichheit ausgerichtet sind.

Das Projekt wird die Internationalisierung der Forschung und Lehre der Universität Kassel und des CELA in wichtigen Feldern stärken und ist ein bedeutender Mosaikstein beim Aufbau des neuen Kassel Institute for Sustainability. Die erfolgreiche Einwerbung zeigt gleichzeitig, dass Nachhaltigkeit bereits ein wichtiges Markenzeichen der Universität und Region Kassel ist.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Jürgen Burchardt
FG Internationale und intergesellschaftliche Beziehungen
Telefon: 0561 804-2797
Mail: magura@uni-kassel.de

(nach oben)


Post-Covid: keine falschen Versprechungen!

Natascha Hövener Pressekontakt
Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin e. V.
Im Gesundheitsausschuss wurde im April 2023 über die Versorgungssituation von Post-Covid- und ME/CFS-Betroffenen diskutiert – das ist wichtig, allerdings fanden die Beratungen unter Ausschluss der wissenschaftlichen Expertise der Allgemeinmedizin statt. Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) empfiehlt, diese Expertise künftig von Beginn an in solche Debatten und strukturelle Überlegungen einzubeziehen. Gleichzeitig warnt die DEGAM davor, spezialisierte Ambulanzen flächendeckend aufzubauen, die zum jetzigen Zeitpunkt (noch) kein erfolgversprechendes und evidenzbasiertes Therapieangebot machen können.

Im Gesundheitsausschuss wurde kürzlich über die Versorgung von Patientinnen und Patienten gesprochen, die an Post-Covid und / oder Myalgischer Enzephalomyelitis / Chronischem Fatigue-Syndrom (ME/CFS) leiden. Leider war die DEGAM, die die Perspektive der evidenzbasierten Allgemeinmedizin vertritt, nicht zur Anhörung geladen. Aus Sicht der DEGAM wäre es unethisch und auch ineffizient, hier eine neue Versorgungsebene in Aussicht zu stellen: Auch Ambulanzen können den Post-Covid-Betroffenen zum jetzigen Zeitpunkt wenig Konkretes anbieten.

„Spezialisierte Ambulanzen können nur dann helfen, wenn sie etwas anbieten können, das verfügbar und nachweislich wirksam ist. Das ist im Moment nicht der Fall, da weder einheitliche Diagnose-Kriterien noch Nachweise über evidenzbasierte erfolgreiche Therapieoptionen vorliegen. Insofern sollten hier keine Versprechungen gemacht werden“, warnt Prof. Martin Scherer, Präsident der DEGAM. „Was wir aber unbedingt tun sollten, ist, die wissenschaftliche Expertise der Allgemeinmedizin von Anfang an in solche strukturellen Fragen mit einzubeziehen. Und wir müssen die hausärztliche Versorgungsebene so stärken, dass Post-Covid- und ME/CFS-Patientinnen und Patienten in der Fläche bestmöglich begleitet werden können.“

Die DEGAM weist in diesem Zusammenhang auch auf den Unterschied von Long- und Post-Covid und ME/CFS hin: „Wir gehen davon aus, dass die allermeisten, die an Long-Covid-Symptomen leiden, wieder gesund werden. Einige der Betroffenen erkranken allerdings stark, mit einem monatelang hohen Leidensdruck. Dann sprechen wir von Post-Covid. Bei Post-Covid gibt es bisher keine schnellen Lösungen. Wir brauchen, wie bei manch anderen Krankheitsbildern auch, viel Geduld. Zwischen Post-Covid und ME/CFS gibt es große Überschneidungen. Allerdings fehlen uns zu den genaueren Abgrenzungen bisher gute Daten, so dass wir nicht wissen, wie die Gesamtsituation wirklich aussieht.“

Die DEGAM möchte ausdrücklich davor warnen, das Leid und die Not der Betroffenen nicht ernst zu nehmen – und mahnt gerade deshalb an, wirklich wirksame Lösungen zu finden. Ein zentraler Punkt dabei ist auch die Erforschung der Krankheitsbilder. Hierfür sollte auch die Initiative Deutscher Forschungspraxennetze – DESAM-ForNet, eine bundesweite Forschungsinfrastruktur in der Hausarztmedizin, genutzt werden.

„Der Wissenstransfer in die Hausarztpraxen gelingt dann insbesondere durch unsere Leitlinien. Wir haben kürzlich ein Update der Leitlinie Müdigkeit mit eigenem ME/CFS-Kapitel publiziert und sind an der Post-Covid-Leitlinie beteiligt“, erklärt Martin Scherer abschließend.

Pressekontakt:
Natascha Hövener
Pressesprecherin
Telefon: 030 – 20 966 98 16
E-Mail: hoevener@degam.de

Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM)
Schumannstraße 9, 10117 Berlin
http://www.degam.de
Präsident: Prof. Dr. med. Martin Scherer (Hamburg)

Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) ist eine wissenschaftliche Fachgesellschaft. Ihre zentrale Aufgabe ist es, die Allgemeinmedizin als anerkannte wissenschaftliche Disziplin zu fördern und sie als Rückgrat der Patientenversorgung weiterzuentwickeln. Die DEGAM ist Ansprechpartnerin bei allen Fragen zur wissenschaftlichen Entwicklung der Allgemeinmedizin an den Hochschulen, zur Fort- und Weiterbildung sowie zum Qualitätsmanagement. Sie erarbeitet eigene wissenschaftlich fundierte Leitlinien für die hausärztliche Praxis und beteiligt sich auch an interdisziplinären Leitlinien anderer Fachgesellschaften. Die Aktivitäten der Nachwuchsförderung sind in der Deutschen Stiftung für Allgemeinmedizin und Familienmedizin (DESAM) zusammengefasst.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Scherer, Präsident der DEGAM
E-Mail: m.scherer@uke.de

(nach oben)


SEMAplus: Neues Tool für Alterungsprognosen von Abwasser- und Wassernetzwerken wird in Lausanne eingesetzt

Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt.

Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt. Erstere ist eine gemeinnützige Forschungsorganisation mit Sitz in Berlin, die innovative und praxisnahe Lösungen für Herausforderungen im Bereich der Wasserwirtschaft entwickelt, während letztere das größte kommunale Wasserversorgungs- und Abwasserentsorgungsunternehmen in Deutschland ist. SEMAplus wird derzeit in Berlin für über 10.000 km Abwassernetz eingesetzt, um die jährliche Finanzplanung für Kanalsanierungen zu optimieren.

Alternde Wasser- und Abwassernetze erfordern enorme Investitionen für Instandhaltungen, die einen erheblichen Anteil kommunaler Budgets ausmachen. Die auf maschinellem Lernen basierende Softwarelösung SEMAplus liefert schnelle und genaue Informationen zur Lokalisierung von dringenden Sanierungsbedarfen sowie eine Grundlage für langfristige Investitionsplanung. Hierfür benötigt SEMAplus nur eine begrenzte Menge an Inspektionsdaten (visuelle Inspektion der Kanäle durch CCTV-Kameras), technischen Daten (Alter, Material, Durchmesser usw.) und Umweltdaten (Verkehrsbelastung, Grundwasserspiegel).

In Lausanne werden die vorhandenen Module von SEMAplus implementiert und erweitert, um spezifischen Bedürfnissen vor Ort gerecht zu werden. Das Hauptziel besteht darin, ein Tool bereitzustellen, das das Asset Management von Felddaten (CCTV-Inspektion von Kanälen oder Lokalisierung von Schäden) integriert und Informationen liefert, wo der Austausch bzw. die Sanierung von Kanalhaltungen priorisiert werden sollte.

SEMAplus wird durch ein neues Modul erweitert, das den Zustand der Kanalhaltungen automatisch auf Basis der visuellen Abwasserinspektionsberichte durch CCTV-Kameras bewertet. Ziel ist es, einen einzigen Zustandswert für jeden Abschnitt zu erhalten, der zusammen mit Daten zu Abwassereigenschaften und relevanten Umweltfaktoren verwendet wird, um die Ausfallwahrscheinlichkeit zu simulieren. Das Ergebnis ist eine Liste sowohl aller inspizierten als auch uninspizierten Kanalhaltungen, die nach ihrem unmittelbaren Sanierungsbedarf sortiert sind.

Weiterhin werden auch neue maschinelle Lernmethoden untersucht, um die Genauigkeit unserer Vorhersagen zu verbessern. Die Modellgenauigkeit ist in Lausanne von besonderer Relevanz, da die Ergebnisse unmittelbar zur Entscheidung über lokale Baumaßnahmen genutzt werden können. Ein weiteres spezielles Modul wird für die Priorisierung der Sanierungsbedürfnisse von Kanalhaltungen entwickelt, die das Risiko und die Folgen von Ausfällen besonders berücksichtigen. Die zugrundeliegende Analyse wird in enger Zusammenarbeit mit Experten der französischen Forschungsinstitute Institut National de la Recherche Agronomique (INRAE) und Institut National Des Sciences Appliquées Lyon (INSA) durchgeführt. Das Modul ermöglicht die Berücksichtigung zusätzlicher Auswirkungs- oder Verwundbarkeitskriterien zur Priorisierung von Sanierungsinvestitionen (z.B. unter stark befahrenen Straßen oder in Ressourcenschutzgebieten). Außerdem wird das vorhandene Tool für das Asset Management des Trinkwassernetzes der Stadt Lausanne, das auf derselben Philosophie basiert, aufgerüstet und in SEMAplus integriert.

Schließlich wird SEMAplus auf strategischer Ebene genutzt, um die Entwicklung des Netzwerkzustands für die nächsten zehn Jahre zu simulieren. Ziel ist es, die Verschlechterung oder Verbesserung des Zustands des Netzwerks zu visualisieren, abhängig von den jährlichen Investitionen für Kanalsanierungen und den verwendeten Sanierungstechniken (z.B. überwiegend Reparatur, Renovierung oder Austausch). Angesichts hoher Investitionskosten liefert SEMAplus der Stadt Lausanne Argumente, die Relevanz der vorgeschlagenen Investitionen zu begründen und Gemeinden dazu zu bewegen, gezielt in Kanalsanierungen zu investieren.

Indem es schnelle und präzise Informationen zur Lokalisierung dringender Sanierungsbedarfe bereitstellt und eine Grundlage für langfristige Investitionsplanung schafft, wird SEMAplus das Asset Management von Abwasser- und Wassernetzwerken in der Stadt Lausanne entscheidend transformieren.

Weitere Informationen zu SEMAplus finden Sie hier: https://www.kompetenz-wasser.de/de/forschung/dienstleistungen/semaplus

Wissenschaftliche Ansprechpartner:
Dr. Nicolas Caradot

(nach oben)


Immer mehr Ältere sind sozialversicherungspflichtig beschäftigt

Katja Feuerstein Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Die Erwerbstätigkeit von Älteren ab 50 nimmt seit 20 Jahren deutlich zu. Dabei dominiert der Anstieg der sozialversicherungspflichtigen Beschäftigung, insbesondere bei den 60- bis 64-Jährigen. Das zeigt eine am Dienstag veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

So ist die Beschäftigungsquote Älterer deutlich stärker gestiegen als die Beschäftigungsquote insgesamt: Der Anteil der sozialversicherungspflichtig Beschäftigten an der Gesamtbevölkerung ab 15 Jahren stieg zwischen 2006 und 2021 von 37 Prozent auf 47 Prozent, bei den 55- bis 59-Jährigen sogar von 43 Prozent auf 64 Prozent.

Auch im Vergleich zu anderen Beschäftigungsformen gewinnt die sozialversicherungspflichtige Beschäftigung besonders bei Älteren an Bedeutung. Während in der Gesamtbevölkerung die ausschließlich geringfügige Beschäftigung relativ zur sozialversicherungspflichtigen Beschäftigung seit 2001 um gut 20 Prozent zurückgefallen ist, beträgt der relative Bedeutungsverlust bei den 60- bis 64-Jährigen über 80 Prozent. Die Selbstständigkeit geht insgesamt von 2001 bis 2021 relativ zur sozialversicherungspflichtigen Beschäftigung um 20 Prozent zurück, für die 60- bis 64-Jährigen sogar um gut 60 Prozent.

„Die Entwicklung der vergangenen Jahre zeigt, dass es gelingen kann, mehr Ältere im Arbeitsmarkt zu halten“, erklärt IAB-Direktor Bernd Fitzenberger. „Der hohe Arbeitskräftebedarf sollte genutzt werden, um Ältere mit individuellen Arbeitszeitregelungen, Maßnahmen zum Erhalt der Beschäftigungsfähigkeit und geeigneten Tätigkeitsprofilen für eine längere berufliche Aktivität zu gewinnen“, so Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.

Die IAB-Studie ist online abrufbar unter https://www.iab-forum.de/der-starke-anstieg-der-erwerbstaetigkeit-von-aelteren-i….

(nach oben)


Quallenähnliche Roboter könnten eines Tages die Weltmeere säubern

Linda Behringer Public Relations
Max-Planck-Institut für Intelligente Systeme
Robotiker des Max-Planck-Instituts für Intelligente Systeme in Stuttgart haben einen von Quallen inspirierten Unterwasserroboter entwickelt, mit dem sie eines Tages Abfälle vom Meeresgrund aufsammeln wollen. Der nahezu geräuschlose Prototyp kann Objekte berührungslos unter seinem Körper einfangen und bewegt sich somit störungsfrei in empfindlichen Umgebungen wie zum Beispiel Korallenriffen. Jellyfish-Bot ist ein Hoffnungsträger – Schwärme dieser Roboter könnten eines Tages helfen, die Weltmeere zu säubern.

Stuttgart – Die Erdoberfläche ist zum größten Teil mit Meeren bedeckt, die leider stark verschmutzt sind. Eine der Strategien zur Bekämpfung der Müllberge in diesen sehr empfindlichen Ökosystemen – insbesondere in der Nähe von Korallenriffen – ist der Einsatz von Robotern. Doch Unterwasserroboter sind meist sperrig mit unbeweglichen Körpern, die nicht in der Lage sind, komplexe Umgebungen zu erkunden oder Proben zu nehmen. Zudem sind sie relativ laut aufgrund von Elektromotoren oder Hydraulikpumpen.

Auf der Suche nach einem geeigneteren Design haben sich Wissenschaftler am Max-Planck-Institut für Intelligente Systeme (MPI-IS) in Stuttgart von der Natur inspirieren lassen. Sie konfigurierten einen Quallen-ähnlichen, vielseitigen, energieeffizienten und nahezu geräuschlosen Roboter so groß wie eine Hand. Jellyfish-Bot ist eine Zusammenarbeit zwischen den beiden Abteilungen für Physische Intelligenz und für Robotik-Materialien am MPI-IS. Die Forschungsarbeit „A Versatile Jellyfish-like Robotic Platform for Effective Underwater Propulsion and Manipulation“ wurde in Science Advances veröffentlicht.

Für den Bau des Roboters verwendete das Team elektrohydraulische Aktuatoren, durch die Strom fließt. Die Aktuatoren dienen als künstliche Muskeln, die den Roboter antreiben. Um diese Muskeln herum befinden sich Luftkissen sowie weiche und starre Komponenten, die den Roboter stabilisieren und ihn wasserdicht machen. Auf diese Weise kommt die Hochspannung, die durch die Aktuatoren fließt, nicht mit dem umgebenden Wasser in Berührung. Strom fließt in regelmäßigen Abständen durch dünne Drähte, wodurch sich die Muskeln zusammenziehen und ausdehnen. Dadurch kann der Roboter anmutig schwimmen und Strudel unter seinem Körper erzeugen.

„Wenn eine Qualle nach oben schwimmt, kann sie Objekte auf ihrem Weg einfangen, da sie Strömungen um ihren Körper herum erzeugt. Auf diese Weise sammelt sie auch Nährstoffe. Auch unser Roboter lässt das Wasser um ihn herum zirkulieren. Diese Funktion ist nützlich, um Objekte wie Abfallpartikel zu sammeln. Er kann den Abfall dann an die Oberfläche befördern, wo die Partikel später recycelt werden. Er ist auch in der Lage, Proben wie z.B. Fischeier zu nehmen. Dabei hat die Maschine keine negativen Auswirkungen auf die Umgebung oder die Meeresbewohner, und er ist nahezu geräuschlos“, erklärt Tianlu Wang. Er ist Postdoc in der Abteilung für Physische Intelligenz am MPI-IS und Erstautor der Publikation.

Sein Mitautor Hyeong-Joon Joo aus der Abteilung für Robotik-Materialien ergänzt: „Schätzungsweise sinken 70 % des Mülls auf den Meeresboden. Mehr als 60 % dieses Mülls besteht aus Kunststoffen, die Hunderte von Jahren brauchen, um sich zu zersetzen. Daher war es für uns wichtig, einen Roboter zu entwickeln, der Objekte wie Abfälle bewegen und nach oben transportieren kann. Wir hoffen, dass Unterwasserroboter eines Tages bei der Säuberung unserer Ozeane helfen können“.

Jellyfish-Bot ist in der Lage, Objekte berührungslos zu bewegen und einzufangen, wobei er entweder allein oder als Schwarm arbeiten kann. Der Roboter arbeitet schneller als andere vergleichbare Erfindungen und erreicht eine Geschwindigkeit von bis zu 6,1 cm/s. Außerdem benötigt Jellyfish-Bot nur eine geringe Leistung von etwa 100 mW. Und er ist sicher für Menschen und Fische, sollte das Polymer, das den Roboter isoliert, irgendwann zerreißen. Gleichzeitig sind die Geräusche des Roboters nicht von den Hintergrundgeräuschen zu unterscheiden. Auf diese Weise interagiert Jellyfish-Bot sanft mit seiner Umgebung, ohne sie zu stören – genau wie sein natürliches Vorbild.

Der Roboter besteht aus mehreren Schichten: Einige stabilisieren den Roboter, andere machen ihn schwimmfähig oder dichten ihn ab. Eine weitere Polymerschicht fungiert als Schwimmhaut. In der Mitte der verschiedenen Schichten sind elektrisch betriebene künstliche Muskeln eingebettet, sogenannte HASELs. HASELs sind mit Pflanzenöl gefüllte Kunststoffbeutel, die teilweise von Elektroden bedeckt sind. Durch Anlegen einer Hochspannung an eine Elektrode wird der Muskel positiv aufgeladen, während das umgebende Wasser negativ geladen ist. Dadurch entsteht eine Kraft zwischen der positiv geladenen Elektrode und dem negativ geladenen Wasser, die das Öl innerhalb des Beutels hin- und herschiebt, wodurch sich die Beutel zusammenziehen und entspannen – ähnlich wie ein echter Muskel. HASELs können hohen elektrischen Spannungen standhalten, die von den geladenen Elektroden erzeugt werden, und sind durch eine Isolierschicht vor Wasser geschützt. Das ist wichtig, da HASEL-Muskeln bisher noch nie für den Bau eines Unterwasserroboters verwendet wurden.

Zunächst entwickelten die Forscher Jellyfish-Bot mit einer Elektrode und sechs Fingern oder Armen. Im zweiten Schritt teilte das Team die einzelne Elektrode in einzelne Gruppen auf, um sie unabhängig voneinander zu betätigen.

„Wir konnten Objekte greifen, indem wir vier der Arme zum Schwimmen und die anderen beiden als Greifer einsetzten. Oder wir betätigten nur eine Teilmenge der Arme, um den Roboter in verschiedene Richtungen zu lenken. Wir haben auch untersucht, wie wir eine Gruppe mehrerer Roboter betreiben können. Zum Beispiel haben wir zwei Roboter eine Corona-Schutzmaske aufheben lassen, was für einen einzelnen Roboter sehr schwierig ist. Zwei Roboter können auch zusammenarbeiten, um schwere Lasten zu tragen. Aktuell jedoch braucht unser Jellyfish-Bot ein Kabel. Das ist ein Nachteil, wenn wir ihn wirklich eines Tages im Ozean einsetzen wollen“, sagt Hyeong-Joon Joo.

Eventuell gehören mit Kabeln angetriebene Roboter bald der Vergangenheit an. „Unser Ziel ist es, kabellose Roboter zu entwickeln. Glücklicherweise haben wir den ersten Schritt in Richtung dieses Ziels erreicht. Wir haben alle Funktionsmodule wie die Batterie und die drahtlosen Steuerungseinheiten eingebaut, um in Zukunft drahtlose Manipulationen zu ermöglichen“, so Tianlu Wang weiter. Das Team befestigte eine Steuerungseinheit an der Oberseite des Roboters und eine Batterie und einen Mikrocontroller an der Unterseite. Anschließend schwamm Jellyfish-Bot im Teich des Max-Planck-Campus Stuttgart. Die Forscher konnten ihn erfolgreich geradeaus steuern. Bislang konnte das Team den kabellosen Roboter jedoch nicht dazu bringen, den Kurs zu ändern und in eine andere Richtung zu schwimmen.

Doch wenn man das Team kennt, kann man davon ausgehen, dass es nicht lange dauern wird, bis dieses Ziel erreicht ist.

Wissenschaftliche Ansprechpartner:
Dr. Tianlu Wang
tianluwang@is.mpg.de

Originalpublikation:
https://www.science.org/doi/10.1126/sciadv.adg0292

Weitere Informationen:
https://is.mpg.de/de/news/quallenahnliche-roboter-konnten-eines-tages-die-weltme…
http://Press Kit mit allen Fotos und Videos: https://www.dropbox.com/sh/w8k69d2z82p94nh/AACVtOalzhXHyht1WcIXPho9a?dl=0

(nach oben)


Gemeinsam ist man weniger verrückt

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Warum ist uns ein Mensch auf Anhieb sympathisch, ein anderer nicht? Diese Frage hat der Bochumer Psychologe Prof. Dr. Hans Alves mittels Umfragen untersucht. Er konnte nachweisen: Teilen zwei Personen, die sich ansonsten nicht kennen, eine seltene Vorliebe, ist ihr Interesse aneinander deutlich größer, als wenn sie eine gemeinsame Abneigung oder eine gemeinhin übliche Vorliebe teilen. Warum das so ist, erklärt Hans Alves in Rubin, dem Wissenschaftsmagazin der Ruhr-Universität Bochum.

Stars, Hobbys, Urlaubspläne
Die Forschenden der Arbeitseinheit Soziale Kognition erfragten in ihren Online-Umfragen Einstellungen, Vorlieben, aber auch Abneigungen von Versuchspersonen. Welche Bücher liest jemand gern? Was isst oder trinkt die Person gern, was mag sie nicht? Welche Filme schaut sie oder eben nicht? Wir sieht es aus mit Stars? Hobbys? Urlaubsplänen? Unter den Angaben, die die Befragten machten, waren sowohl gängige Aussagen wie „Ich mag Urlaub in der Sonne“, aber auch skurrile Vorlieben wie zum Beispiel bestimmte Verkleidungen.

Im nächsten Schritt luden die Forschenden die Teilnehmenden dazu ein, sich vorzustellen, sie träfen jemanden, der dieselben Angaben zu einem Punkt gemacht hatte wie sie selbst. Wie groß wäre dann das Interesse daran, diese Person kennenzulernen und Zeit mit ihr zu verbringen? „Es hat sich bestätigt, dass gleiche Vorlieben für mehr Sympathie sorgen“, berichtet der Psychologe. „Und seltene Interessen übertreffen darin tatsächlich solche, die viele Menschen teilen.“

Wir suchen den gemeinsamen Bezugspunkt
Für diese Tatsache hat der Forscher mehrere mögliche Erklärungen. Zum einen erzeugen Ähnlichkeiten generell ein Verbundenheitsgefühl zwischen Menschen. „Das gilt sogar für zufällige Übereinstimmungen wie denselben Geburtstag oder denselben Namen“, so Alves. Wenn sich Fremde begegnen, suchen sie nach einem gemeinsamen Bezugspunkt – hierin finden sie ihn.

„Wenn wir jemanden treffen, der unsere Einstellung teilt, befriedigt das aber auch unser Bedürfnis nach Bestätigung“, nennt Hans Alves einen weiteren Grund. „Gerade bei seltenen Einstellungen oder Vorlieben ist das Bedürfnis nach Bestätigung besonders groß“, so Alves. „Jemand, der sie teilt, zeigt uns, dass wir nicht allein sind, dass wir nicht sogar verrückt sind.“

Datingplattformen sollten solche Angaben matchen
„Wir haben das auch im Datingkontext untersucht“, berichtet Hans Alves. „Wir haben gefragt: Wie gut könnten Sie sich vorstellen, diese Person zu treffen?“ Auch hier war die Bereitschaft, jemanden zu treffen, besonders groß, wenn seltene Angaben übereinstimmten. „Wenn ich eine Datingplattform betreiben würde, würde ich genau solche Angaben matchen“, meint Hans Alves, der allerdings keine Einblicke in die Algorithmen solcher Plattformen hat. „Das wird nicht öffentlich kommuniziert.“ Jedoch würde es auch aus anderen Gründen Sinn ergeben, solche Übereinstimmungen zu suchen, denn die Literatur legt nahe, dass sie für den Erfolg und die Dauer einer Beziehung wichtiger sind als Persönlichkeitseigenschaften.

Ausführlicher Artikel im Wissenschaftsmagazin Rubin
Einen ausführlichen Beitrag zum Thema finden Sie im Wissenschaftsmagazin Rubin: https://news.rub.de/wissenschaft/2023-02-28-psychologie-gemeinsam-ist-man-wenige…. Für redaktionelle Zwecke dürfen die Texte auf der Webseite unter Angabe der Quelle „Rubin – Ruhr-Universität Bochum“ sowie Bilder aus dem Downloadbereich unter Angabe des Copyrights und Beachtung der Nutzungsbedingungen honorarfrei verwendet werden.

Rubin kann über ein Online-Formular kostenlos als Newsletter oder Printausgabe abonniert werden (https://news.rub.de/rubin).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans Alves
Soziale Kognition
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 19543
E-Mail: hans.alves@ruhr-uni-bochum.de

Weitere Informationen:
https://news.rub.de/wissenschaft/2023-02-28-psychologie-gemeinsam-ist-man-wenige… – ausführlicher Beitrag

(nach oben)


Forschungserfolg: Wie CO2 unsere Meere beeinflusst

Maike Lempka Corporate Communications
Constructor University
Das Verhalten von Mikroorganismen ist entscheidend, um zu verstehen, was der Eintrag von Kohlendioxid in den Ozeanen bewirkt. Forschende der Constructor University in Bremen haben in Zusammenarbeit mit Kolleg:innen aus Australien, den USA, und der Schweiz nun neue Erkenntnisse über den Stoffwechselaustauch zwischen den Kleinstlebewesen gewonnen. Die Forschungsergebnisse wurden kürzlich in der renommierten Zeitschrift „Nature Microbiology“ veröffentlicht.

Mikroorganismen sind ein zentraler Bestandteil des marinen Ökosystems – unter anderem produzieren sie Sauerstoff und binden Kohlendioxid. „Bisher wurde angenommen, dass die Diffusion von Nährstoffen von der Größe der Zelle abhängt“, sagt Professor Dr. Matthias Ullrich, Mikrobiologe an der Constructor University, und einer der Co-Autoren der Studie. Je größer eine Zelle, desto mehr Stoffe gibt sie ab und übt dadurch zugleich eine größere Anziehungskraft auf kleinere, bewegliche Organismen aus. Chemotaxis lautet hier der Fachbegriff, der diese durch chemische Reize ausgelöste Orientierungsbewegung bezeichnet.

Die Forschenden wiesen nun nach, dass auch kleinere und gleichgroße Zellen durch Chemotaxis erkannt werden können. Auch zwischen einigen der häufigsten Mikroorganismen der Ozeane bestehen also Stoffwechselbeziehungen, die keineswegs nur einseitig sind, wie bisher angenommen. Photosynthese betreibende Organismen versorgen konsumierende Bakterien nicht nur mit Kohlehydraten, sondern sie erhalten von diesen auch Nährstoffe. Sie verhalten sich also aktiv.

„Um den Kohlenstoffwechsel in den Ozeanen besser zu verstehen, ist es fundamental, mehr über die Austauschmechanismen der Mikroorganismen zu wissen“, meint Ullrich. „In Zukunft werden Forschende in der Mikrobiologie viel genauer beobachten, wie der Austausch von Substanzen zwischen gleich großen Mikroorganismen erfolgt.“

Möglich wurde diese Erkenntnis erst durch die Grundlagenforschung an der Constructor University. Schon vor einem guten Jahrzehnt hatten Forschende um Professor Ullrich die Gene eines einzelnen Bakteriums entschlüsselt. Sie stellten fest, welche Gene dazu beitragen, eine Zelle zu erkennen und zu binden. An der damaligen Forschung war die Promovierende Eva Sonnenschein beteiligt, die inzwischen als Professorin an der Universität von Swansea in Wales lehrt und auch an der aktuellen Studie mitwirkte. Maßgeblich vorangetrieben wurde die Forschung von Wissenschaftler:innen mehrerer australischer Universitäten, vom Massachusetts Institute of Technology in den USA und von der Eidgenössischen Technischen Hochschule Zürich in der Schweiz.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Ullrich | Professor für Mikrobiologie
mullrich@constructor.university | +49 421 200-3245

Originalpublikation:
https://www.nature.com/articles/s41564-023-01327-9

Weitere Informationen:
http://www.constructor.university

(nach oben)


Ausweisung von Notabflusswegen: Verbundforschungsprojekt FloReST der Hochschule Koblenz entwickelt erste Smart Tools

Christiane Gandner M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Koblenz – University of Applied Sciences
Starkregen und Sturzfluten sorgen immer wieder für große wirtschaftliche Schäden an städtischen Infrastrukturen. Das im Februar 2022 gestartete, vom Bundesbildungsministerim geförderte Verbundforschungsprojekt „Urban Flood Resilience – Smart Tools“ (FloReST) soll Maßnahmen zur Steigerung der Widerstandsfähigkeit gegen solche Starkregenereignisse entwickeln. Kürzlich fand nun an der Hochschule Koblenz ein Verbundtreffen der sechs Partner mit der Präsentation erster Ergebnisse statt: Verschiedene innovative, technologiebasierte Lösungen, die einen Werkzeugkasten aus sogenannten Smart Tools bilden, sollen die Planung und Ausweisung von Notabflusswegen ermöglichen.

Insgesamt 20 Vertreterinnen und Vertreter der Hochschule Koblenz, der Universität Trier, der Hochschule Trier mit dem Umwelt-Campus Birkenfeld, des Deutschen Forschungszentrums für Künstliche Intelligenz, des Softwareentwicklers Disy Informationssysteme GmbH sowie der Ingenieurgesellschaft Dr. Siekmann & Partner kamen am Koblenzer RheinMoselCampus zusammen, um erste Ergebnisse ihrer Projektarbeiten zu präsentieren und Herausforderungen zu diskutieren. Der Fokus der Forschungsarbeiten liegt auf der Anwendung von technologiebasierten Smart Tools. So laufen auf Quartiersebene, also in einzelnen ausgewählten Straßenzügen, aktuell beispielsweise Probeanwendungen eines Laserscanners, der eine hochaufgelöste Geodatenaufnahme ermöglicht. „Mit diesen Daten sollen im weiteren Verlauf 2D-hydrodynamische Modelle verfeinert, die Notabflusswegbestimmung optimiert und die Maßnahmenplanung vereinfacht werden“, erklärt Gina Stratmann, stellvertretende Projektleitung im Forschungsvorhaben FloReST an der Hochschule Koblenz.

In Trier werden unter anderem lokal erste experimentelle belastungsabhängige Testanwendungen mittels Flutungs- und Dotierversuchen durchgeführt, um mithilfe von wärmeempfindlicher Markier- und UAV-Drohnentechnik Fließwege auszuweisen. „Dabei wird das Untersuchungsgebiet mit einer definierten Wassermenge konfrontiert. Die sich daraufhin ausbildenden Fließwege werden mithilfe der UAV-Drohne und der Thermaltechnik verfolgt, sodass Fließwege visuell dargestellt werden können“, beschreibt Leonie Hörter, Wissenschaftliche Mitarbeiterin an der Hochschule Koblenz, das Vorgehen. Für große räumliche Skalen sei künftig auch der Einsatz Künstlicher Intelligenz geplant.

Ein weiterer wichtiger Baustein des Projektes ist die aktive Bürgerbeteiligung. So wird unter anderem an der Entwicklung einer Smart-App gearbeitet, mit der lokales Wissen zu Starkregenereignissen erfasst werden kann. Ziel der App ist es, mit Hilfe von Bürgerinnen und Bürgern Problemstellen und Missstände an abflussrelevanten Elementen, wie beispielsweise durch Äste verstopfte Durchlässe, zu identifizieren. Die praktische Anwendung der App und die Datenerfassung und Visualisierung im Geo-Data-Warehouse – einer zentral organisierten Geodatenbank – wurde bei dem Projekttreffen live mit einem Prototyp demonstriert. Außerdem wurde in den vergangenen Monaten im Rahmen des Projekts eine Umfrage zur Risikokommunikation und zum Wissen der Bevölkerung zu Starkregengefahren in den fünf beteiligten Pilotkommunen durchgeführt. „Die vorläufigen Ergebnisse zeigen, dass es eine Wissenslücke in Bezug auf Frühwarnung in der Bevölkerung zu geben scheint und Informationen über potenzielle Risiken nicht an die Bürgerinnen und Bürger weitergegeben werden“, erklärt Katharina Haupenthal, wissenschaftliche Mitarbeiterin am Umweltcampus Birkenfeld. An diesem Punkt setzt das Forschungsvorhaben FloReST mit einer aktiven Beteiligung von Bürgerinnen und Bürgern und der Einbeziehung der Betroffenen an.

Der zweite Tag des Verbundtreffens gestaltete sich durch drei themenübergreifende Workshops. Der Fokus dabei lag vor allem auf dem gemeinsam zu erstellenden Leitfaden zur optimierten Ausweisung von Notabflusswegen mittels verschiedener Methoden sowie einem Anforderungskatalog an die im Projekt FloReST entwickelten Smart-Tools. Das Projektkonsortium sammelte zudem Ideen und Anregungen, wie die Ergebnisse der einzelnen Arbeitspakete künftig im Geo-Data-Warehouse integriert und visualisiert werden können, sodass ein größtmöglicher Nutzen für potenzielle Anwendende geschaffen wird. Im Oktober sollen in einem übergreifenden Workshop mit den fünf Pilotkommunen sowie dem Projektbeirat weitere Ergebnisse diskutiert sowie Wünsche und Anforderungen der Kommunen an die Smart Tools erörtert werden.

Das Projekt wird über eine Laufzeit von drei Jahren vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lothar Kirschbauer
kirschbauer@hs-koblenz.de

(nach oben)


MHH-Studie zeigt: Pedelec fahren steigert Fitness und Gesundheit

Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
Forschende der Klinik für Rehabilitations- und Sportmedizin liefern erstmals konkrete Messdaten

Wie hoch ist der Trainingseffekt für Nutzerinnen und Nutzer von Elektrofahrrädern, auch Pedelecs genannt? Welche positiven Effekte für die Gesundheit sind zu erwarten? Diesen Fragen sind Wissenschaftlerinnen und Wissenschaftler der Klinik für Rehabilitations- und Sportmedizin der Medizinischen Hochschule Hannover (MHH) in einer fast dreijährigen Studie nachgegangen. Ihre Forschungsergebnisse wurden nun im Journal BMJ Open Sport & Exercise Medicine veröffentlicht.
Für ihre Studie haben die Wissenschaftlerinnen und Wissenschaftler zwischen 2017 und 2020 bundesweit die Daten von 1250 Pedelec-Fahrern und 629 Nutzern herkömmlicher Fahrräder ausgewertet. Dabei wurden die Fahrerinnen und Fahrer aber nicht nur befragt.
„In unserer Studie haben wir 58.833 Fahrten von E-Bikern und Radfahrern analysiert und jeweils die Herzfrequenzen und Geschwindigkeiten gemessen. Im Gegensatz zu anderen großen E-Bike Studien haben wir zum ersten Mal auch tatsächliche Messdaten prospektiv erhoben, nicht nur Fahrer befragt“, erläutert Prof. Dr. Uwe Tegtbur, Direktor der Klinik für Rehabilitations- und Sportmedizin.

Herz-Kreislaufsystem wird gefordert
Die Herzfrequenz der Pedelecfahrer lag dabei während des Radelns, unter Berücksichtigung der Therapien mit ß-Blockern, nur fünf Schläge pro Minute unter der der Fahrradfahrer. „Entgegen vieler Vorurteile zeigen die Zahlen, dass Muskeln und das Herz-Kreislaufsystem beim Pedelecfahren nahezu so gefordert werden wie beim herkömmlichen Radfahren“, erklärt Dr. Hedwig Theda Boeck, wissenschaftliche Mitarbeiterin der Klinik und einer der Erstautorinnen der Studie. „Wir haben zudem herausgefunden, dass die Pedelecfahrer öfter das Auto durch ihr Pedelec ersetzen als es die anderen Radfahrer tun – ein klarer Mehrwert für ihre Gesundheit.“
Die Motorunterstützung erleichtere den Einstieg in eine alltägliche körperliche Aktivität und sei auch für ältere, übergewichtige und weniger trainierte Menschen eine gute Möglichkeit, ihre Aktivitäten zu steigern. „Viele Pedelecnutzer waren vorher nicht unbedingt Radfahrer. Die Hemmschwelle ist deutlich niedriger, wenn auch in hügeligem Gelände oder bei starkem Gegenwind auf die Motorunterstützung zurückgegriffen werden kann“, ergänzt Dr. Boeck.

Über 35 Prozent der teilnehmenden E-Bike Fahrer haben Vorerkrankungen wie zum Beispiel einen Herzinfarkt, Bluthochdruck oder Gelenkverschleiß. Hier hilft das E-Bike, überhaupt wieder draußen in Bewegung zu bekommen.
Jeder Schritt zu mehr Aktivität, jede Unterbrechung des Sitzens und jeder Aufstieg auf das Rad sind ein Beitrag für ein gesünderes und aktiveres Leben.
„Wir haben gezeigt, dass die E-Biker 135 Minuten pro Woche unterwegs waren, davon ein Großteil mit einer gesundheitlichen effektiven Belastung. Allein dadurch konnten sie zwei Drittel des WHO-Bewegungsziels von 150 Minuten moderater Aktivität pro Woche erreichen“, erklärt Prof. Tegtbur.
Neben der gemessenen Zweiradaktivität gaben die E-Biker an, insgesamt 54,8 MET (metabolische Äquivalent = Berechnung für Energieverbrauch, 1 Stunde moderates Radfahren entspricht 7,5 MET) Stunden pro Woche und die Radfahrenden 55,2 MET Stunden pro Woche aktiv zu sein.
Insgesamt reduzieren sie Ihr Risiko, einen Herzinfarkt zu erleiden, um über 40 Prozent. Auch das Risiko einer Krebs- oder Diabeteserkrankung sinkt mit zunehmender Aktivität.
Die Gruppe der Pedelec Nutzer und Nutzerinnen war im Durchschnitt etwas älter als die Nutzer herkömmlicher Räder, hatte einen höheren Body-Mass-Index und litt auch häufiger an Vorerkrankungen wie Bluthochdruck, Diabetes, Asthma, oder Herzerkrankungen.

Das Projekt wurde vom Bundesministerium für Digitales und Verkehr (BMDV) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans (NRVP) 2020 gefördert. Kooperationspartner sind außerdem die MHH-Institute für Biometrie und Verkehrsunfallforschung sowie die Institute für Versicherungsbetriebslehre und das Center for Health Economics Research (CHERH) der Leibniz Universität Hannover.

SERVICE:
Weitere Informationen erhalten Sie bei Prof. Dr. Uwe Tegtbur, tegtbur.uwe@mh-hannover.de, Telefon (0511) 532- 5499.

Die Originalarbeit finden sie unter: https://blogs.bmj.com/bmjopensem/2022/10/25/a-peek-behind-the-study-with-hedwig-…

(nach oben)


Bessere Luft durch Gülleansäuerung

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Bei der Nutztierhaltung fallen große Mengen Exkremente an. Bei ihrer Lagerung im Stall und ihrer Ausbringung als Dünger auf die Felder entsteht Ammoniak. Das Gas ist gesundheitsschädlich und belastet erheblich die Umwelt. Eine Nachrüstlösung für bestehende Stallanlagen verspricht Abhilfe: Eine Studie der Universität Bonn zeigt, dass sich damit die Ammoniak-Emissionen schon im Stall um etwa 40 Prozent reduzieren lassen. Noch deutlicher senkt sie die Entstehung von Methan, eines starken Treibhausgases. Die Methode könnte daher auch einen wichtigen Beitrag zum Kampf gegen den Klimawandel leisten. Die Ergebnisse erscheinen im Journal of Environmental Management und sind bereits online abrufbar.

In die Umwelt abgegebenes Ammoniak ist ein großes Problem. Als wichtigster Verursacher gilt die Landwirtschaft – sie ist für 95 Prozent dieser Emissionen in Deutschland verantwortlich. Das farblose, stechend riechende Gas wirkt in höheren Konzentrationen toxisch. Es kann zudem zur Überdüngung von Gewässern beitragen und durch Reaktion mit anderen Luftschadstoffen Feinstaub bilden. Als besonders kritisch gilt seine Umsetzung zu Lachgas, einem Treibhausgas, das etwa 300 mal klimaschädlicher als Kohlendioxid ist. Lachgas trägt nach Schätzungen rund zehn Prozent zur globalen Erwärmung bei.

Die EU schreibt ihren Mitgliedsländern daher inzwischen nationale Ammoniakemissions-Höchstmengen vor. Doch wie lassen sich diese erreichen, ohne dass Landwirte dazu äußerst kostspielige Neu- oder Umbauten ihrer Stallungen vornehmen müssen? „Wir haben in den vergangenen drei Jahren ein Verfahren getestet, mit dem sich bestehende Stallungen nachrüsten lassen“, erklärt Dr. Veronika Overmeyer vom Institut für Landtechnik (ILT) der Universität Bonn.

Saure Gülle für saubere Luft
Zusammen mit ihren Projektpartnern, den Firmen SF-Soepenberg und Hölscher + Leuschner, haben die Forschenden dazu auf eine bewährte Methode zurückgegriffen: die Ansäuerung von Gülle mit Schwefelsäure. Oft werden Schweine und Rinder auf sogenannten Spaltenböden gehalten. Ihre Exkremente fallen dabei durch Öffnungen im Boden in den darunter liegenden Güllekanal. Dort werden sie so lange aufbewahrt, bis sie zu Beginn der nächsten Vegetationsperiode als Dünger verwendet werden.

„Aus dem Kot-Urin-Gemisch wird permanent Ammoniak freigesetzt“, sagt Overmeyer. „Die Zugabe von Säure führt dazu, dass Ammoniak als Ammonium vorliegt, das nicht gasförmig entweichen kann und somit in der Gülle verbleibt.“ Dieser Mechanismus ist schon lange bekannt. So wird der Flüssigmist in Deutschland heute schon teilweise bei der Ausbringung auf die Felder mit Säure versetzt. Dadurch lassen sich allerdings nicht die Ausgasungen in den Griff bekommen, die im Stall oder bei der Lagerung der Gülle entstehen.

Die Exkremente direkt im Güllekanal anzusäuern, kann unter bestimmten Umständen gefährlich sein, da dabei giftiger Schwefelwasserstoff entstehen kann. „Wir haben diesen Prozess daher aus dem Stall verlagert“, betont Overmeyer: „Wir pumpen den Flüssigmist alle paar Tage in einen speziellen Rührbehälter, wo er mit Schwefelsäure vermischt wird. Die frisch angesäuerte Gülle wird dann zurück in den Güllekanal gepumpt.“ Somit kann sie weiterhin im Stall gelagert werden, während zugleich die Ammoniak-Emissionen vermindert werden. Diese gingen in der Studie um knapp 40 Prozent zurück. Bei einer Optimierung der Methode sind sogar Werte von mehr als 60 Prozent denkbar. Die Ammoniak-Emissionen bei der Düngung mit dem vorbehandelten Flüssigmist sind ebenfalls deutlich geringer. Da die angesäuerten Exkremente größere Mengen Stickstoff und Schwefel als normalerweise enthalten, haben sie zudem eine noch bessere Düngewirkung.

Gute Nachrichten für das Klima
Unerwartet war zudem eine weitere Beobachtung: Die Ansäuerung unterdrückte auch die Entstehung von Methan, eines sehr starken Klimagases. 10 bis 15 Prozent des menschgemachten Methans stammen aus der Gülle-Lagerung. „Mit unserer Methode konnten wir die Methan-Emissionen um zwei Drittel reduzieren“, erklärt Prof. Dr. Wolfgang Büscher vom ILT, der die Studie betreut hat. „Wir schlagen damit also gleich zwei Fliegen mit einer Klappe.“

Die Nachrüstung ist nicht umsonst zu haben. Im Vergleich zu aufwändigen Um- oder gar Neubauten ist sie aber vergleichsweise kostengünstig, wobei der Landwirt durch die bessere Düngewirkung auch noch einen zusätzlichen Nutzen hat. Dennoch scheitert die Lösung momentan an der deutschen Rechtslage. Danach ist die Zugabe von Säure zu gelagerter Gülle nur erlaubt, wenn der Güllekanal zuvor mit Spezialfolie abgedichtet wurde. „Das verteuert die Umrüstung erheblich“, sagt Overmeyer. „Dabei zeigen Studien, dass diese Maßnahme nicht notwendig ist, weil trotz des leicht erniedrigten pH-Wertes im Flüssigmist die Wände der Güllekanäle nicht signifikant schneller abgenutzt werden.“

Ihre Hoffnung setzt sie nun auf einen neuen Referentenentwurf, der vorschlägt, die gesetzliche Abdichtungspflicht abzuschaffen. Der liegt aber bereits seit Jahren vor und wurde bislang noch nicht in ein Gesetz gegossen. „Mich ärgert das etwas“, sagt Overmeyer: „Einerseits erwarten wir, dass die Landwirte umweltfreundlicher arbeiten, und andererseits legen wir ihnen dabei Steine in den Weg.“

Für ihre Studie hat sie anderthalb Jahre lang zwei Schweinemastabteile (mit und ohne Gülleansäuerung) auf der Lehr- und Forschungsstation der landwirtschaftlichen Fakultät miteinander verglichen. „Derartige Langzeit-Untersuchungen sind aufgrund ihres hohen Aufwands eine Seltenheit“, betont ihr Doktorvater Prof. Büscher. „Mit dem Campus Frankenforst verfügen wir über eine der wenigen Einrichtungen hierzulande, an denen das überhaupt möglich ist.“

Beteiligte Institutionen und Förderung:
An der Studie waren neben der Universität Bonn die SF-Soepenberg GmbH in Hünxe sowie die Hölscher + Leuschner GmbH & Co. KG in Emsbüren beteiligt. Die Studie wurde durch das Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert (FKZ: 281B102316).

Wissenschaftliche Ansprechpartner:
Dr. Veronika Overmeyer
Institut für Landtechnik (ILT)
Universität Bonn
Tel.: +49 228 73-2837
E-Mail: overmeyer@uni-bonn.de

Prof. Dr. Wolfgang Büscher
Institut für Landtechnik (ILT)
Universität Bonn
Tel. +49 228 73-2395
E-Mail: buescher@uni-bonn.de

Originalpublikation:
Overmeyer V, Trimborn M, Clemens J, Hölscher R, Büscher W. Acidification of slurry to reduce ammonia and methane emissions: Deployment of a retrofittable system in fattening pig barns. J Environ Manage. 2023 Apr 1;331:117263. https://doi.org/10.1016/j.jenvman.2023.117263 Epub 2023 Jan 18. PMID: 36669315.

Weitere Informationen:
https://www.unter-2-grad.de/wp-content/uploads/2021/07/SAFT.mp4 Das Video demonstriert die Funktionsweise der Anlage. (c) Dr. Veronika Overmeyer / Universität Bonn

(nach oben)


Deutschland verlor in den letzten zwei Jahrzehnten durchschnittlich 760 Millionen Tonnen Wasser pro Jahr

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Sehr viel Wasser ging verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen.
Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun mit Kolleg:innen die Jahre 2002-2022 genauer untersucht. Fazit: Im Schnitt hat Deutschland pro Jahr 760 Mio Tonnen Wasser verloren – durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie nutzt Daten der Satellitenmissionen GRACE und GRACE-Follow On und ist der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung“ erschienen.

Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Es ging sehr viel Wasser verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen. Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun gemeinsam mit Forschenden der Universität Bonn und des Forschungszentrums Jülich die Jahre von 2002 bis 2022 genauer untersucht.

Ihr Fazit: Im Durchschnitt hat Deutschland jedes Jahr 760 Millionen Tonnen (0,76 Kubikkilometer) Wasser verloren – sei es durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie beruht in erster Linie auf Daten der Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv).

Das Besondere dieser Studie ist, dass die Forschenden vier verschiedene Auswertemethoden verglichen haben und damit zu einem deutlich geringeren Wasserverlust kamen als andere Auswertungen der Satellitendaten, die lediglich auf einer einzigen Methode beruhten. Der gesamte Wasserspeicher (auf Englisch Terrestrial Water Storage, TWS) hat demnach in den zwei Jahrzehnten um zusammengerechnet 15,2 Kubikkilometer abgenommen. Zum Vergleich: Der Wasserverbrauch aller Sektoren – Industrie, Landwirtschaft, Privathaushalte – in Deutschland beträgt rund 20 Kubikkilometer pro Jahr. Um verlässlich einen Trend abschätzen zu können, sei der Zeitraum jedoch zu kurz und zu stark von verschiedenen Extremen geprägt, schreiben die Forschenden in der April-Ausgabe der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung (HyWa)“.

Hintergrund: Bestimmung von Schwerefeld und Wassermassen der Erde aus Satellitendaten
Die Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv) sind einzigartig. Die Satelliten-Tandems vermessen die Erdanziehungskraft, das so genannte Schwerefeld, und dessen Änderungen global auf Monatsbasis. Aus diesen Schwerefelddaten lassen sich Massenverlagerungen erkennen, die wiederum Rückschlüsse auf Veränderungen im Wasserkreislauf erlauben, also beispielsweise das Abschmelzen von Gletschern oder das Entleeren von Grundwasserspeichern. Erstmals ist es damit zum Beispiel gelungen, den Eismassenverluste Grönlands und der Antarktis zu quantifizieren. Der große Vorteil dieser Art von Messung: Sie erfasst auch Grundwasserleiter, die tief unter der Erdoberfläche verborgen sind. Der Nachteil: Die räumliche Auflösung der Schwerefelddaten ist vergleichsweise grob: rund 300 mal 300 Kilometer. Verlässliche Aussagen lassen sich daher nur für Gebiete von rund 100.000 Quadratkilometern Größe treffen, das entspricht etwa der Fläche der ehemaligen DDR.

Neue Analyse verschiedener Datenreihen für Deutschland (2002-2022)
Ein Team von Forschenden unter der Leitung von Andreas Güntner vom Deutschen GeoForschungsZentrum GFZ hat jetzt erstmals für Deutschland einen detaillierten Überblick über die von den Satelliten gemessenen Änderungen des Gesamtwasserspeichers der letzten zwanzig Jahre veröffentlicht. Beteiligt waren Kolleg:innen mehrerer GFZ-Sektionen sowie Forschende aus dem Institut für Geodäsie und Geoinformation der Universität Bonn und aus dem Forschungszentrum Jülich.

Unterschiede in der Auswertung der Daten
Für die Auswertung der Daten – sowohl was die Bestimmung des Schwerefeldes betrifft als auch daraus abgeleitet die Bestimmung der gespeicherten Wassermassen – muss eine ganze Reihe von störenden Effekten herausgerechnet werden. So sind die 300 mal 300 Kilometer messenden Datenflächen naturgemäß nicht scharf abgegrenzt, denn der Einfluss der Schwerkraft auf die Satelliten lässt sich nicht auf klar definierte Segmente der Erde zurückführen wie etwa bei einem Satellitenbild. Das zeigt sich etwa darin, dass der Schwerefeldeffekt abschmelzender Alpengletscher auch die Messungen für die Wasservorkommen im Alpenvorland überlagert (der Effekt wird „Leakage“ genannt): Wenn die Gletschermassen schwinden, sieht es für die Satelliten so aus, als ob auch weiter entfernte Wassermassen verschwunden seien. Außerdem ändert sich das Schwerefeld der Erde auch, ohne dass sich akut Wassermassen verändern. Ein solcher Effekt ist beispielsweise, dass sich in manchen Regionen nach dem Verschwinden der eiszeitlichen Gletscher heute noch die Erdkruste hebt.

Je nach Prozessierungsmethoden und korrigierenden Faktoren ergeben sich leicht unterschiedliche Werte für das Schwerefeld und dessen Variationen. Die Forschenden nutzten für ihre Studie vier Datenreihen: die GFZ-eigene, eine aus mehreren Datenreihen berechnete Kombinationslösung der Uni Bern (COST-G genannt), eine der Universitäten Graz und Bonn (ITSG/UB) und eine vom Jet Propulsion Laboratory der NASA (JPL Mascons). Zusätzlich nutzten sie Niederschlagsdaten und Computermodelle des FZ Jülich, die die Veränderung des Gesamtwasserspeichers simulierten.

Ergebnisse im Vergleich
Über weite Teile des Beobachtungszeitraums, insbesondere in den Jahren zwischen 2004 und 2015, stimmen die Ergebnisse aller vier Datensätze für die Schwerefeldänderungen gut überein. Unterschiede gab es vor allem zu Beginn und am Ende der Zeitreihen. Das Jahr 2002 war von extremen Niederschlägen insbesondere in Süd- und Ostdeutschland geprägt. Die verheerenden Hochwasser an der Donau und der Elbe ereigneten sich im August 2002. Und am Ende des Untersuchungszeitraums stehen die trockenen Jahre seit 2018. In beiden Extremfällen zeigte vor allem die NASA-JPL-Datenreihe größere Ausschläge nach oben und unten. Auch die jahreszeitlichen Unterschiede zwischen dem Maximum der Wasserspeicherung im Winter und dem Minimum im Sommer fallen bei der NASA-JPL-Reihe am stärksten aus.

Vorsicht bei der Interpretation geboten
Die Forschenden mahnen daher zu Vorsicht bei der Interpretation von Auswertungen, die lediglich auf einer Datenreihe beruhen, und weisen insbesondere auf besondere Empfindlichkeit für Flut- oder Dürre-Extreme bei der NASA-JPL-Mascons-Reihe hin. Sie vermuten die Ursache in unterschiedlichen Prozessierungsverfahren und bei der Korrektur des „Leakage“-Effekts.

Diskussion früherer Publikation: 0,76 versus 2,5 Kubikkilometer durchschnittlicher Wasserverlust pro Jahr in Deutschland
Es waren jedoch ausgerechnet diese Datenreihe und Schlussfolgerungen daraus, die im vergangenen Jahr zu einem großen Medienecho geführt hatten: Deutschlands Gesamtwasserspeicher verliere fast 2,5 Kubikkilometer Wasser pro Jahr, hatte es geheißen, besonders betroffen sei der Südwesten. Der Vergleich mit anderen Auswerteverfahren zeigt nun: Es sind vermutlich nur 0,76 Kubikkilometer, also knapp ein Drittel des über die JPL-Mascons-Reihe bezifferten Verlusts. Und besonders in der Nähe der Alpen müsse man den Schwerefeld-Effekt abschmelzender Gletscher (Leakage) zusätzlich in Betracht ziehen.

Schlussfolgerung und Notwendigkeit zur Verlängerung der Datenreihen
Trotz der niedrigeren Werte gibt der Leitautor der Studie, Andreas Güntner, zu bedenken: „Die Beobachtungen aus allen Datensätzen zeigen, dass ein Jahr mit höheren Niederschlägen wie 2021 nicht ausreicht, um die Defizite der Wasserspeicherung, die sich über den längeren Zeitraum angesammelt haben, wieder auszugleichen.“

Auch bei Prognosen raten die Forschenden zur Vorsicht. Mitautorin Helena Gerdener von der Universität Bonn mahnt: „Da es in den zwanzig Jahren der bisherigen Datenerhebung einige auffällige Extreme gegeben hat, ist eine Aussage zu einem langfristigen Trend nur schwer zu treffen.“

Umso wichtiger sei die Kontinuität der Messreihe, schreiben die Forschenden. Eine Fortsetzung der GRACE- und GRACE-FO-Missionen wird bereits geplant und soll 2028 ins All starten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Güntner
Arbeitsgruppenleitung in Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1559
E-Mail: andreas.guentner@gfz-potsdam.de

Originalpublikation:
Güntner, A., Gerdener, H., Boergens, E., Kusche, J., Kollet, S., Dobslaw, H., Hartick, C., Sharifi, E., Flechtner, F. (2023): Veränderungen der Wasserspeicherung in Deutschland seit 2002 aus Beobachtungen der Satellitengravimetrie. Hydrologie & Wasserbewirtschaftung, 67, (2), 74-89. DOI: 10.5675/HyWa_2023.2_1
https://www.hywa-online.de/?p=6089

(nach oben)


Von der Kartoffelschale zum Abwasserreiniger

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel
Aktivkohle reinigt Abwässer in Kläranlagen – doch bislang wird sie meist aus klimaschädlicher Braun- oder Steinkohle gewonnen. Ein Graduiertenkolleg der Universität Kassel erforscht nun Methoden, Aktivkohle effizient aus Bioabfall herzustellen, um in Städten Kohlenstoff-Kreisläufe zu schließen und damit dieCO2-Bilanz zu verbessern.

„Was uns antreibt, ist unsere Gewässer vor Schadstoffen zu schützen. Dies wollen wir möglichst klimaneutral gestalten“, betont Prof. Dr.-Ing. Tobias Morck, Leiter des Fachgebiets Siedlungswasserwirtschaft. Er ist Sprecher des Graduiertenkollegs „CirCles“, das Ende letzten Jahres seine Arbeit aufgenommen hat. Pro Tonne Aktivkohle aus fossilen Rohstoffen fallen rund 8,5 Tonnen CO2-Äquivalente an. Die Herstellung biogener Aktivkohlen aus Kartoffelschalen, Essensresten oder anderen Küchenabfällen würde dieses Dilemma auflösen.

Aktivkohle ist ein hochporöses Material aus Kohlenstoff, an dem Schadstoffe im Abwasser gleichsam „hängenbleiben“ (in der Fachsprache heißt dies Adsorption). Es gibt erprobte Verfahren, um sie statt aus fossilen Rohstoffen aus Kokosschalen oder Holz herzustellen – doch in mitteleuropäischen Städten ist das kaum eine Option. Gelänge es hingegen, diese thermische Umwandlung auf Bioabfall anzupassen, könnte dies urbane Kohlenstoff-Kreisläufe schließen.

Im Graduiertenkolleg untersuchen vier Doktorandinnen und Doktoranden daher konkret am Beispiel Kassel, mit welchen Abfällen und mit welchen Verfahrens-Schritten sich die besten Ergebnisse erzielen lassen. Sie arbeiten dabei mit der kommunalen Abfall- und Abwasserwirtschaft zusammen. Zu den Schadstoffen, die dem Abwasser entzogen werden sollen, gehören beispielsweise Rückstände von Arzneimitteln wie Diclofenac oder Korrosionsschutzmittel, die in der Industrie eingesetzt werden.

Das Projekt „CirCles“ wird aus Mitteln der Universität Kassel finanziert und flankiert das jüngst etablierte Kassel Institute for Sustainability. Mittelfristig soll es weitere Ansätze zur Nachhaltigkeitsforschung liefern. Es wird von den Fachgebieten Siedlungswasserwirtschaft, Nachhaltiges Marketing, Ressourcenmanagement und Abfalltechnik sowie Grünlandwissenschaft und Nachwachsende Rohstoffe der Universität Kassel durchgeführt. Als Praxispartner sind die Stadtreiniger Kassel, Abfallentsorgung Kreis Kassel, KASSELWASSER und das Umwelt- und Gartenamt Kassel beteiligt.

(nach oben)


Unstatistik des Monats: E-Bike-Fahren senkt Herzinfarktrisiko um 40 Prozent

RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Die Unstatistik des Monats April ist die Berichterstattung über eine Studie der Medizinischen Hochschule Hannover zu den Auswirkungen des regelmäßigen Radelns mit einem E-Bike („Impact of electrically assisted bicycles on physical activity and traffic accident risk: a prospective observational study“). Das Risiko eines Herzinfarktes reduziere sich dadurch um 40 Prozent, berichtete beispielsweise die „Frankfurter Rundschau“ („Sportmediziner überrascht: E-Bike fahren reduziert Herzinfarktrisiko fast um die Hälfte“) am 3. April, „Regelmäßiges E-Bike-Fahren senkt das Herzinfarkt-Risiko“, schrieb auch die „Hannoversche Allgemeine Zeitung“.

Hierzu sind zwei Dinge klarzustellen: Erstens ist in der zitierten Studie von einer Senkung des Herzinfarktrisikos keine Rede. Es ging den Autoren einzig um einen Vergleich der körperlichen Belastung beim E-Bike-Fahren mit normalem Radeln, sowie um das Risiko von Verkehrsunfällen. Die Studie kommt zu dem wenig verblüffenden Ergebnis, dass Nutzer von E-Bikes etwas seltener die von der Weltgesundheitsorgansatin angemahnten 150 Minuten von „moderate to vigorous physical activity“ pro Woche erreichen, selbst wenn man berücksichtigt, dass die Nutzerinnen und Nutzer von E-Bikes älter sind und im Durchschnitt in einem schlechteren Gesundheitszustand als Nicht-E-Bike-Nutzer. Aber im Großen und Ganzen seien die Gesundheitskonsequenzen durchaus ähnlich. Die 40-Prozent-Reduktion des Herzinfarktrisikos für E-Bike-Fahrer resultiert offenbar aus einer Nebenbemerkung eines der Studienautoren in einem Spiegel-Interview zu Radfahren und Herzinfarkt ganz allgemein.

Angaben zur Risikoreduktion sind nur mit Angabe von Alter oder Zeitraum sinnvoll
Diese viel kolportierten 40 Prozent gelten also nicht nur für E-Bike-Fahrer oder heben diese, wie von den Medien insinuiert, sogar positiv von normalen Radlern ab. Darüber hinaus sind sie noch aus einem zweiten Grund sehr missverständlich: Dergleichen Risikoreduktionen ergeben ohne Angabe eines Alters oder eines Zeitraums keinen Sinn. An irgendetwas stirbt jeder Mensch, und sollte das Radfahren tatsächlich das lebenslange Risiko eines Herzinfarktes um 40 Prozent reduzieren, stiege damit die Wahrscheinlichkeit für einen Tod etwa durch Krebs dramatisch an. Das hört vermutlich kein Radfahrer gern. Gemeint war wohl: in jeder Altersgruppe sinkt das Herzinfarktrisiko um 40 Prozent. Irgendwann sterben dann vielleicht genauso viele Menschen wie immer am Herzkreislaufkrankheiten aller Art (aktuell rund ein Drittel aller Todesfälle), aber eben nicht so früh.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Walter Krämer, walterk@statistik.uni-dortmund.de

Originalpublikation:
https://www.rwi-essen.de/presse/wissenschaftskommunikation/unstatistik/detail/e-…

Weitere Informationen:
http://www.unstatistik.de – Hier geht es zur Homepage der „Unstatistik des Monats“

(nach oben)


Unterschätzte Gefahr: Lärm und Luftverschmutzung sind neue und wichtige Herz-Kreislauf-Risikofaktoren

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.
Umweltstressoren wie Verkehrslärm stellen weltweit eine Bedrohung für die menschliche Gesundheit dar. Eine heute im European Journal of Preventive Cardiology erschienene Studie von DZHK-Forscher Prof. Thomas Münzel zeigt, dass Lärm innerhalb kurzer Zeit negative Auswirkungen auf Gefäße und Gehirn hat. Weitere kürzlich unter seiner Mitwirkung veröffentlichte Übersichtsartikel belegen, dass Feinstaub und Lärm global eine ernsthafte Bedrohung für die Herz-Kreislauf-Gesundheit sind und Umweltfaktoren als Gesundheitsrisiko in Forschung, Politik und Gesellschaft immer noch stark unterschätzt werden.

Lärm nervt nicht nur, er schadet auch der Gesundheit: Laut Weltgesundheitsorganisation (WHO) gehen in Europa jährlich 1,6 Millionen gesunde Lebensjahre verloren. Die Europäische Umweltagentur (EEA) berichtet, dass jährlich 113 Millionen Menschen krank machendem Straßenlärm von mehr als 55 Dezibel ausgesetzt sind. Weitere 22 Millionen müssen zu hohe Lärmwerte durch Schienenlärm und 4 Millionen durch Fluglärm ertragen; 6,5 Millionen leiden an schweren Schlafstörungen. Lärmbelastung ist damit nach der Feinstaubbelastung zur zweithäufigsten Todesursache unter den Umweltbelastungen aufgestiegen ist. Auf die schädlichen Auswirkungen von Lärm auf Gesundheit und Lebensqualität macht der „Internationale Tag gegen Lärm“ am 26. April aufmerksam.

Eine heute im European Journal of Preventive Cardiology Studie unter der Leitung von Prof. Dr. Thomas Münzel, Direktor des Zentrums für Kardiologie an der Johannes Gutenberg-Universität Mainz, zeigt nun auf, wie Lärmbetroffene selbst aktiv werden können (Personal Mitigation Measures). Zuvor war nicht bekannt, welche pharmakologischen oder nicht-pharmakologischen Maßnahmen wirksam sind, um die Auswirkungen von Lärm zu reduzieren. Münzel und sein Team untersuchten erstmals verschiedene Interventionen, mit denen Lärmschäden möglicherweise beeinflusst werden können. Die wirksamste Gegenmaßnahme wäre, den Lärm zu reduzieren. Neuere Berechnungen der EEA zeigen jedoch, dass der Verkehrslärm in den nächsten Jahren eher noch zunehmen wird.

Lärm wirkt sich schon nach wenigen Tagen negativ auf die Gesundheit aus
Um die Auswirkungen von Fluglärm auf das Gefäßsystem zu untersuchen, wurden Mäuse ein, zwei oder vier Tage lang Fluglärm ausgesetzt. Der Lärm führte zu einem Anstieg des Stresshormonspiegels und des Blutdrucks. Es kam zu einer ausgeprägten endothelialen Dysfunktion mit Entzündungsreaktionen in den Gefäßen, was vor allem durch das Einwandern von radikalbildenden Makrophagen (Fresszellen) bedingt war. Diese Veränderungen waren nicht auf das Gefäßsystem beschränkt, sondern konnten auch im Gehirn nachgewiesen werden.

„Für mich war es überraschend, wie schnell sich Lärm bereits nach wenigen Tagen negativ auf die Gesundheit auswirkt“, sagt Prof. Thomas Münzel. Der Nachweis einer Gefäßschädigung bei Mäusen innerhalb von 24 Stunden passt auch zu den Ergebnissen der Arbeitsgruppe, die bei jungen Medizinstudenten bereits nach einer Nacht Flug- oder Bahnlärm eine endotheliale Dysfunktion nachweisen konnte.

In einem weiteren Schritt untersuchte das Team die Rolle der AMP-aktivierten Proteinkinase (AMPK). Dieses Enzym wird aktiviert, wenn die Zelle hungert und baut neue Energiereserven auf. Es wirkt auch stark entzündungshemmend und vermindert oxidativen Stress, so dass es theoretisch die Auswirkungen von Lärm mildern könnte. Es ist auch bekannt, dass AMPK durch Sport, Fasten und Medikamente stimuliert werden kann.

Bewegung, Fasten und Medikamente helfen gegen negative Lärmwirkungen
Um die AMPK bei den untersuchten Mäusen zu aktivieren, wurde ihnen ein siebenwöchiges „Sportprogramm“ verordnet, sie liefen freiwillig in einem Laufrad. Außerdem testeten die Forschenden die Wirkung eines achtwöchigen Fastens mit schrittweiser Nahrungsreduktion sowie einer dreitägigen Medikamentengabe (AICAR, 5-Aminoimidazole-4-Carboxamide Ribonucleotide; AMP-Analogon; entspricht in der Wirkungsweise dem Antidiabetikum Metformin). Jede dieser Interventionen hob die negativen Auswirkungen des Lärms auf: Blutdruck und Radikalbildung normalisierten sich, Gefäßfunktionsstörungen gingen zurück und die Entzündungsreaktion wurde reduziert.

Die endotheliale AMP-Kinase konnte in früheren Untersuchungen als wichtiger Mediator für antientzündliche und antioxidative Stresseffekte identifiziert werden. Dies nutzte das Team in einem weiteren Schritt, um die Bedeutung des Enzyms auch in diesem Zusammenhang nachzuweisen: Die positiven Effekte von Bewegung, Fasten und pharmakologischer Aktivierung gingen bei Mäusen durch einen Knockout der endothelialen AMP-Kinase verloren.

„Die Arbeit ist ein wichtiger experimenteller Hinweis und ein wunderbarer Ansatz für weiterführende klinische Studien“, sagt Münzel. Eine gute Nachricht hat die Studie für sportlich aktive Menschen: Wer sich regelmäßig bewegt, macht seine Gefäße widerstandsfähiger gegen Lärmstress“. Möglicherweise können auch Medikamente gegen Lärm helfen.

Schlussfolgerungen
1) Das Wichtigste ist nach wie vor, den Lärm auf die von der WHO empfohlenen Grenzwerte für Straßen-, Schienen- und Fluglärm zu reduzieren.
2) Die aktuell vorgestellten experimentellen Ergebnisse zur AMP-Kinase und Lärmschäden geben erste Hinweise darauf, wie möglicherweise Lärm-induzierte Herz-Kreislauf-Schäden verhindert oder gemildert werden können.

Weitere Forschung zu Umweltfaktoren
In einer weiteren Arbeit gibt der Mainzer Kardiologe zusammen mit einem internationalen Forscherteam in der renommierten Fachzeitschrift HYPERTENSION einen Überblick über die Auswirkungen von Feinstaub und Lärm auf Herz-Kreislauf-Erkrankungen, deren Bedeutung dramatisch zugenommen hat. Insbesondere die Luftverschmutzung (Particulate Matter 2,5µm) führt zu einer zusätzlichen Sterblichkeit von 8,8 Millionen pro Jahr, vor allem aufgrund der daraus resultierenden Herz-Kreislauf-Erkrankungen wie ischämische Herzkrankheit, Schlaganfall, Diabetes und arterielle Hypertonie. In den Übersichtsartikeln von Omar Hahad et al. werden aktuelle Epidemiologie, mögliche Ursachen und Interventionen sowie aktuelle Forschungslücken und zukünftige Herausforderungen diskutiert.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Thomas Münzel, Zentrum für Kardiologie – Kardiologie I, Universitätsmedizin Mainz tmuenzel@uni-mainz.de

Originalpublikation:
Mitigation of aircraft noise-induced vascular dysfunction and oxidative stress by exercise, fasting, and pharmacological α1AMPK activation: molecular proof of a protective key role of endothelial α1AMPK against environmental noise exposure. Kvandová et al., European Journal of Preventive Cardiology (2023) https://doi.org/10.1093/eurjpc/zwad075

Noise and Air Pollution as Risk Factors for Hypertension: Part I—Epidemiology. Hahad et al. Hypertension (2023) https://doi.org/10.1161/HYPERTENSIONAHA.122.18732

Noise and Air Pollution as Risk Factors for Hypertension: Part II—Pathophysiologic Insight. Hahad et al. Hypertension (2023) https://doi.org/10.1161/HYPERTENSIONAHA.123.20617

(nach oben)


UV-Strahlung und Klimakrise: Handlungsbedarf für Städte und Gemeinden

Julia Rudorf PB2/ Pressearbeit
Bundesamt für Strahlenschutz
Bundesumweltministerium und Bundesamt für Strahlenschutz veröffentlichen zum Start einer UV-Schutz-Kampagne die Ergebnisse einer Umfrage unter kommunalen Entscheider*innen

Beim Schutz vor UV-Strahlung besteht in vielen Städten und Gemeinden Handlungsbedarf. Besonders in Kitas, auf Spielplätzen und Schulhöfen halten Kommunen Schutzmaßnahmen wie mehr Schattenplätze in Zukunft für dringend nötig. Das ergab eine vom Bundesamt für Strahlenschutz (BfS) beauftragte repräsentative Umfrage des Forsa-Instituts unter rund 1.000 Bürgermeisterinnen und Bürgermeistern. Sieben von zehn Befragten gaben an, über die Folgen des Klimawandels für Kommunen Bescheid zu wissen. Über die damit zusammenhängende steigende Gefahr von UV-Strahlung jedoch fühlen sich nur vier von zehn gut informiert. Der Parlamentarische Staatssekretär im Bundesumweltministerium, Christian Kühn, und BfS-Präsidentin Inge Paulini stellten die Studie heute zum Auftakt einer UV-Schutz-Kampagne des BfS vor.

Parlamentarischer Staatssekretär Christian Kühn: „Das Jahr 2022 war geprägt von Temperatur- und Sonnenscheinrekorden in ganz Deutschland. Die Zahl der Sonnenstunden nimmt durch die sich verschärfende Klimakrise seit Jahren zu, und damit auch das Risiko für UV-bedingte Gesundheitsschäden wie Hautkrebserkrankungen. Bund, Länder und Kommunen müssen die Vorsorge an die Folgen der Klimakrise zum Schutz der Menschen auch in diesem Bereich voranbringen. Das BfS leistet dafür mit seiner UV-Schutz-Kampagne einen wichtigen, praxisorientierten Beitrag für kommunale Entscheiderinnen und Entscheider.“

BfS-Präsidentin Inge Paulini erläuterte: „Vor UV-Strahlung der Sonne und ihren Folgen für die Gesundheit können und müssen wir uns und andere schützen. Dazu gehört zum Beispiel, ausreichend Schattenplätze überall dort zu schaffen, wo Menschen sich aufhalten – in Kindergärten, Schulen, Parks, auf öffentlichen Plätzen und beim Sport. Überall dort gilt: Wer Schatten sucht, muss Schatten finden. Kommunalen Entscheiderinnen und Entscheidern kommt hier eine zentrale Rolle zu. Wir möchten sie deshalb gezielt unterstützen und motivieren, den UV-Schutz der Bevölkerung im Alltag zu verbessern.“

Viele Bürgermeister*innen halten der Umfrage nach einen gezielten UV-Schutz für die Bevölkerung zwar für wichtig oder sehr wichtig (58 Prozent). Allerdings gaben nur 25 Prozent der Städte und Gemeinden an, in den letzten Jahren UV-Schutz-Maßnahmen wie etwa Sonnensegel oder Baumpflanzungen umgesetzt zu haben. 71 Prozent berichteten, sich zu UV-Schutz-Maßnahmen in Kommunen nur schlecht oder sehr schlecht informiert zu fühlen.

BfS informiert mit Kampagne über UV-Schutz in Kommunen, Sport und bei Kinderbetreuung

Das Bundesamt für Strahlenschutz hat deshalb Informationen für Entscheider*innen in Kommunen, Kindergärten, Schulen und Sportvereinen zusammengestellt. Unter dem Motto „UV-sicher“ soll die Informationskampagne in den nächsten Monaten Städte, Kitas, Schulen und Sportvereine motivieren, Maßnahmen zum UV-Schutz umzusetzen.

Dazu gehören einfach zugängliche Informationen über die tagesaktuelle UV-Belastung oder das Anpassen von Tagesabläufen, etwa beim Sport. Kommunen, Kindergärten und Schulen sowie Sportvereine können diese Anregungen auf den Seiten des BfS abrufen.

Das Bundesumweltministerium (BMUV) erleichtert die Umsetzung durch die Programme „Maßnahmen zur Anpassung an die Folgen des Klimawandels“ und „Klimaanpassung in sozialen Einrichtungen“. Damit kann z.B. die Schaffung von Schattenplätzen, die auch dem Schutz vor Hitze dienen, gefördert werden. Außerdem bietet im Auftrag des BMUV das Zentrum KlimaAnpassung (ZKA) Beratung, Information und Vernetzung vor allem für Kommunen unter www.zentrum-klimaanpassung.de an. Die Risikovorsorge und Anpassung an die Folgen der Klimakrise ist ein Schwerpunkt des Bundesumweltministeriums und der Bundesregierung in dieser Legislaturperiode.

Unterstützt wird die Kampagne des BfS auch durch Expert*innen vom UV-Schutz-Bündnis, etwa der Arbeitsgemeinschaft Dermatologische Prävention e. V. (ADP) und der Deutschen Krebshilfe (DKH). Zum Start der Kampagne schickte Nationaltorwart Manuel Neuer eine Videobotschaft, in der er auf die unterschätzten Risiken von UV-Strahlung für Kinder und Jugendliche hinwies.

Für die Umfrage hatte Forsa zwischen dem 13. Februar und dem 6. März 2023 insgesamt 1.020 (Ober-)Bürgermeister*innen befragt, die nach einem Zufallsverfahren ausgewählt wurden. Die Ergebnisse sind repräsentativ und stehen auf den Seiten des BfS zum Download bereit.

(nach oben)


Abschluss Forschungsprojekt Kognitive Energiesysteme: KI-Agenten machen erneuerbare Energien flexibler und zuverlässiger

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Die Energiewende wird mit Künstlicher Intelligenz (KI) leichter realisierbar. Sogenannte KI-Agenten können komplexe Steuerungsprozesse übernehmen, die mit der heutigen Personal- und Technikausstattung in den Unternehmen nicht zu stemmen wären. Das ist eine zentrale Erkenntnis eines dreijährigen Forschungsprogramms des Kompetenzzentrum Kognitive Energiesysteme (K-ES). Untersucht wurden die Vorteile von KI insbesondere für Netzbetrieb, Prognosen, Resilienz, Leistungselektronik, Energiemanagement, Energiehandel und weitere Zukunftsfelder der Energieversorgung.

Eine systematische Nutzung von KI ist für die Energiewirtschaft angesichts von Fachkräftemangel und komplexen Aufgaben ein vielversprechender Ansatz, um die Energiewende voranzubringen. „In einem dezentralen Energiesystem auf Basis erneuerbarer Energien sind Erzeugung und Verbrauch nicht mehr so leicht zu matchen wie bisher. Um die komplexen Prozesse in Echtzeit aufeinander abzustimmen, muss das Energiesystem ein Bewusstsein über seinen eigenen Zustand entwickeln und automatisiert reagieren können“, erläutert Reinhard Mackensen, Institutsleiter am Fraunhofer IEE, die Zielsetzung des K-ES.

Das K-ES hat sich auf 44 Spotlight-Projekte konzentriert, um beispielhaft zu zeigen, für welche Prozesse KI im Energiesektor sinnvoll ist. Rund 50 Wissenschaftlerinnen und Wissenschaftler haben Lösungen für die gesamte Wertschöpfungskette von den Rohstoffen über Erzeugung, Verteilung, Vertrieb bis zum Verbraucher erarbeitet. Die Spotlights beschäftigen sich insbesondere mit Netzbetrieb, Prognosen, Resilienz, Leistungselektronik, Energiemanagement, Energiehandel und weiteren Zukunftsfeldern der Energieversorgung. Für die Energiewirtschaft entsteht daraus die Chance, zum Leitmarkt dieser Technologie zu werden.

Die erforschten kognitiven Systeme können den Zustand von Energiesystemen zuverlässig bestimmen, beispielsweise bei einer Zustandsschätzung für Stromnetze. Noch dazu können einige Systeme lernen, sich selbstständig zu optimieren, wie die Agenten für den automatisierten Energiehandel. „Mit KI als Schlüsseltechnologie für Netzführung und das Management von Erzeugung und Verbrauch kann die Energiewende sicherer und kostengünstiger umgesetzt werden“, so André Baier, Co-Projektleiter am Fraunhofer IEE.

Algorithmen brauchen das richtige Training
Die Struktur der Forschungsgruppen war themenübergreifend und in Kooperation mit Partnern verschiedener Universitäten, Institute und Unternehmen angelegt. Zur Projektinfrastruktur gehörten jeweils sehr leistungsfähige Server, Modelle und Trainingsumgebungen für KI. Jedes Team hatte sechs Monate Zeit, einen bestimmen Anwendungsfall zu testen. „Ein Ergebnis über alle Anwendungsfelder hinweg ist, dass Algorithmen viel lernen können, wenn sie richtig trainiert werden. Daher stand der Aufbau einer passenden Lernumgebung für verschiedene Einsatzzwecke im Mittelpunkt der Forschungsarbeiten“, resümiert André Baier.

Netzbetrieb läuft mit KI flexibler
Das Stromnetz wird künftig durch eine Vielzahl von unstetig produzierenden Anlagen stärker gefordert sein als heute. Der Einsatz von KI wird hier als vielversprechend angesehen, um die Komplexität zu meistern. So hat das Projekt KI OPF Netzzustände untersucht und dazu künstliche neuronale Netze trainiert. Das Ergebnis ist besonders für Netzbetreiber der Mittelspannungsebene interessant, da es die neuen Vorgaben für die Systemsteuerung Redispatch 2.0 unterstützt. Im Modell wurde überwachtes Lernen mit einem selbstlernenden Algorithmus kombiniert. Dabei wurde deutlich, welches Flexibilitätspotenzial im Netz möglich ist. Berücksichtigt wurden dabei insbesondere Blind- und Wirkleistung durch erneuerbare Energien und ein Ausfall einer Anlage.

„Die Forschungsergebnisse für den Netzbetrieb zeigen schon heute das Potenzial, dass in Zukunft die Automatisierung des gesamten Stromnetzes möglich wird“, ist Christoph Scholz, Co-Projektleiter am Fraunhofer IEE, zuversichtlich. Bei einem Praxistest im Rahmen des internationalen Wettbewerbs „L2RPN Challenge“ („Learn to Run a Power Network“) auf Initiative des französischen Übertragungsnetzbetreibers RTE konnte ein selbstlernender Agent beweisen, dass er mit fluktuierenden Einspeisungen und Lasten, Wartungsarbeiten und bösartigen Angriffe umgehen kann.

Daten und Modelle für zuverlässige Prognosen
Schon heute sind die Wetteraussichten wichtige Planungsgrößen für Stromerzeuger, Netzbetreiber und Händler. Wenn künftig Sonne- und Windanlagen den größten Teil der Energielieferungen übernehmen, ist das gesamte Energiesystem auf sehr genaue Wettervorhersagen angewiesen. Eine exakte Prognose von Sonneneinstrahlung und Wolkenverhalten ist zentral für eine gute Prognose für die zu erwartende solare Stromerzeugung. Das Projekt NeuRaSat hat sich hierfür damit beschäftigt, wie Wettervorhersagen mit Satellitendaten der solaren Einstrahlung verbessert werden können. Ziel des Projekts Temporal Fusion Transformers (TFT) war die Demonstration von neuartigen Modellen basierend auf der Transformer-Technologie in Windprognosen.

KI verbessert die Resilienz bei Störungen
Die Zuverlässigkeit der Stromversorgung ist essenziell für das gesamte Wirtschaftssystem. Um diese abzusichern, wurden die Möglichkeiten von KI im Projekt ARCANA getestet. Die Forschenden haben für Windenergieanlagen einen Algorithmus entwickelt, der Störfälle erklären kann. Dabei liefert das KI-System nicht nur einen Alarm, sondern gibt auch Hinweise, wie die Anlage repariert werden kann.

Die Sicherheit der KI-Methoden ist ein weiterer Aspekt, mit dem sich das K-ES eingehend beschäftigt hat: Im Projekt AAE – Adversarial Attacks im Energiesektor testeten die Forschenden die Möglichkeit von Manipulationen der Eingabedaten und Folgen für die Prognosequalität. Für einzelne Anlagen waren die Vorhersagen trotz eines simulierten Angriffs robust.

Leistungselektronik mit KI weiterentwickeln
Als Einsatzbereiche für KI in der Leistungselektronik wurden die Regelung eines Ortsnetztrafos im Projekt CTRL (Cognitive Train/Test System for Reinforcement Learning using Labs) entwickelt und die Gefahr durch ungewollte Inselnetze im Projekt Alsland reduziert.

In der Fragestellung des Projekts InvEx wurde untersucht, ob sich mit einem Expertensystem die Entwicklungszeit von Stromrichtern verkürzen lässt. Entstanden ist dabei eine Datenbank für Stromrichterbauteile und Komponenten, Topologien, Regelalgorithmen.

Energiemanagement: KI steuert Einsatzplanung
Auch bei der Betriebsführung von Anlagen kann KI unterstützen. Das Projektteam von Cognition²H2Force untersuchte das Zusammenspiel eines Windparks, eines Elektrolyseurs, eines Wasserstoffspeichers und einer Gasturbine. Der Agent konnte die Einsatzplanung des Elektrolyseurs an die Windstromerzeugung besser anpassen als ein regelbasierter Fahrplan.

Energiehandel kann flexibler und kleinteiliger werden
KI hat es im Projekt Deep Energy Trade geschafft, die erzeugte Energie eines Windparks automatisiert am Markt zu platzieren und erzielte dabei mindestens so gute Ergebnisse wie ein menschlicher Verkäufer. Der Agent lernte dabei insbesondere, Flexibilität kurzfristig anzubieten und Prognoseschwankungen auszugleichen. Die Ergebnisse zeigen, wie sich der Handel am Intra-Day-Markt vereinfachen lässt, sodass auch Marktteilnehmer handeln können, die nur kleine Mengen kaufen oder verkaufen möchten.

Weitere Zukunftsfelder im Fokus
Im Projekt DeepBirdDetect hat KI gefährdete Vogelarten aufgespürt. Die Aufgabe bestand dabei in der automatisierten Auswertung von Sounddateien mit Vogelstimmen. Das Tool erleichtert die Einschätzung, welche Flächen für den Ausbau von Windenergie unter Berücksichtigung des Artenschutzes geeignet sind.

Alle bisherigen Ergebnisse des K-ES wurden in Postern veröffentlicht und können für die Anwendung weiterentwickelt werden. Im Rahmen des Forschungsprojektes wurden Kompetenzen und Strukturen als Kompetenzzentrum aufgebaut, die mit Abschluss des Projektes über das Fraunhofer IEE genutzt werden können.

Bereits während der Projektlaufzeit wurde ein Ökosystem aufgebaut, in dem sich Industrie, Energiewirtschaft, Wissenschaft und Politik untereinander vernetzt hat. Ein Teil der Arbeiten des K-ES wird im Rahmen des KISSKI Projekts des BMBF übernommen, mit dem Ziel ein »KI-Servicezentrum für sensible und kritische Infrastrukturen« mit den Schwerpunkten Energie und Medizin» aufzubauen. Andere Forschungsbereiche des K-ES sollen künftig im Rahmen eines Vereins koordiniert werden.

Das Aufbauprojekt Kognitive Energiesysteme wurde von der Hessischen Landesregierung in den Jahren 2020 bis 2023 mit insgesamt 5,8 Mio. Euro gefördert.

Wissenschaftliche Ansprechpartner:
André Baier, Fraunhofer IEE

Weitere Informationen:
https://s.fhg.de/gd6

(nach oben)


Umweltwissenschaftliche Vortragsreihe: Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Welche Bedeutung Biodiversität und insbesondere eine auf Nachhaltigkeit ausgerichtete Produktion von Pflanzen für den Klimaschutz hat, ist Thema des Kolloquiums „Heidelberger Brücke“. Dazu lädt das Heidelberg Center for the Environment (HCE) der Ruperto Carola ein. Zum Auftakt der Reihe „Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels“ spricht Prof. Dr. Wilhelm Jelkmann vom Julius Kühn-Institut, dem Bundesforschungsinstitut für Kulturpflanzen. In seinem Vortrag am 26. April 2023 wird er über die Auswirkungen veränderter klimatischer Bedingungen auf den Weinbau sprechen. Die insgesamt vier Veranstaltungen in diesem Sommersemester finden mittwochs um 17 Uhr online statt.

Umweltwissenschaftliche Vortragsreihe: Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels
Vier Veranstaltungen des Kolloquiums „Heidelberger Brücke“ im Sommersemester

Welche Bedeutung Biodiversität und insbesondere eine auf Nachhaltigkeit ausgerichtete Produktion von Pflanzen für den Klimaschutz hat, ist Thema des Kolloquiums „Heidelberger Brücke“. Dazu lädt das Heidelberg Center for the Environment (HCE) der Ruperto Carola ein. Zum Auftakt der Reihe „Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels“ spricht Prof. Dr. Wilhelm Jelkmann vom Julius Kühn-Institut, dem Bundesforschungsinstitut für Kulturpflanzen. In seinem Vortrag am 26. April 2023 wird er über die Auswirkungen veränderter klimatischer Bedingungen auf den Weinbau sprechen. Die insgesamt vier Veranstaltungen in diesem Sommersemester finden mittwochs online statt. Beginn des Livestreams ist jeweils um 17 Uhr. Aufzeichnungen sind abrufbar auf heiONLINE, dem zentralen Portal der Universität Heidelberg mit Vorträgen, Diskussionsrunden und Veranstaltungen in digitalen Formaten.

Anliegen des Kolloquiums „Heidelberger Brücke“ ist es, das Thema nachhaltiger Pflanzenanbau aus verschiedenen disziplinären Blickwinkeln aufzugreifen, so unter den Aspekten Ernährung, Landwirtschaft, Naturschutz und Ökonomie. Nach Prof. Jelkmann und seinem Vortrag „Weinbau im Zeichen des Klimawandels“ referiert Dr. Alexandru Giurca vom European Forest Institute, einer Organisation, in der zu Fragen des Waldes geforscht wird. Dr. Giurca spricht am 17. Mai über die Widerstandsfähigkeit europäischer Wälder. Sein Beitrag „Climate Governance and Resilience of European Forests“ findet in englischer Sprache statt. Dr. Annette Hurst wird am 14. Juni über das „Netzwerk Bioökonomie in der Metropolregion“ sprechen. Sie ist für die Metropolregion Rhein-Neckar als Projektleiterin Regionales Innovationsmanagement tätig. Den Abschluss des Kolloquiums „Heidelberger Brücke“ bildet am 12. Juli ein Vortrag von Prof. Dr. Jale Tosun vom Institut für Politische Wissenschaft und Prof. Dr. Marcus Koch vom Centre for Organismal Studies der Universität Heidelberg. Sie werden über „Ökosorten für Biodiversität und Klimaschutz“ sprechen.

Das Heidelberg Center for the Environment vernetzt die bestehenden Kompetenzen in den Umweltwissenschaften an der Universität Heidelberg und initiiert neue Forschungsvorhaben. Über Fächer- und Disziplingrenzen hinweg befassen sich die Mitglieder des HCE mit den existentiellen Herausforderungen, die sich aus dem Wandel in Natur, Technik und Gesellschaft ergeben. Ziel ist es, ökologischen Auswirkungen wissenschaftlich zu begegnen. Das Kolloquium „Heidelberger Brücke“ schafft eine Plattform für den interdisziplinären Austausch sowie die Kommunikation mit der Öffentlichkeit. Die Vorträge der Reihe wenden sich an Studierende, Wissenschaftlerinnen und Wissenschaftler ebenso wie an die interessierte Öffentlichkeit.

Die Veranstaltungen des Kolloquiums „Heidelberger Brücke“ im Sommersemester 2023 finden online statt. Um den Link zum Livestream zu erhalten, ist eine Anmeldung per Mail an hce@uni-heidelberg.de erforderlich.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.hce.uni-heidelberg.de/de/das-zentrum/heidelberger-bruecke – Heidelberger Brücke
http://www.hce.uni-heidelberg.de/de – Heidelberg Center for the Environment
http://www.uni-heidelberg.de/de/heionline – heiONLINE

(nach oben)


Arktische Eisalgen stark mit Mikroplastik belastet

Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Die unter dem arktischen Meereis wachsende Alge Melosira arctica enthält zehnmal so viele Mikroplastikpartikel wie das umgebende Meerwasser. Diese Konzentration an der Basis des Nahrungsnetzes stellt eine Gefahr dar für Lebewesen, die sich an der Meeresoberfläche von den Algen ernähren. Klumpen abgestorbener Algen befördern das Plastik mit seinen Schadstoffen zudem besonders schnell in die Tiefsee – und können so die hohen Mikroplastikkonzentrationen im dortigen Sediment erklären. Das berichten Forschende unter Leitung des Alfred-Wegener-Instituts jetzt in der Fachzeitschrift Environmental Science and Technology.

Sie ist ein Futterfahrstuhl für die Bodenlebewesen in der Tiefsee: Die Alge Melosira arctica wächst in den Frühlings- und Sommermonaten mit rasantem Tempo unter dem Meereis und bildet dort meterlange Zellketten. Sterben die Zellen ab und schmilzt das Eis, an dessen Unterseite sie haften, verkleben sie zu Klumpen, die innerhalb eines einzigen Tages mehrere tausend Meter bis auf den Grund der Tiefsee sinken können. Dort bilden sie eine wichtige Nahrungsquelle für die bodenlebenden Tiere und Bakterien. Neben der Nahrung transportieren die Aggregate jedoch mittlerweile auch eine bedenkliche Fracht mit in die arktische Tiefsee: Mikroplastik. Das hat ein Forschungsteam um die Biologin Dr. Melanie Bergmann vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) jetzt in der Fachzeitschrift Environmental Science and Technology veröffentlicht.

„Wir haben endlich eine plausible Erklärung dafür gefunden, warum wir auch im Tiefseesediment immer im Bereich des Eisrandes die größten Mengen von Mikroplastik finden“, berichtet Melanie Bergmann. Bisher wussten die Forschenden aus früheren Messungen lediglich, dass sich Mikroplastik bei der Meereisbildung im Eis aufkonzentriert und beim Schmelzen an das umgebende Wasser abgegeben wird. „Die Algen befördern Mikroplastik auf direktem Weg mit nach unten zum Meeresboden, darum messen wir unter der Eiskante höhere Mikroplastikmengen. Normalerweise sinken die als Meeresschnee bezeichneten Aggregate aus Algenresten langsamer und werden von Wasserströmungen seitwärts abgetrieben, so dass der Meeresschnee weiter weg landet“, erläutert die AWI-Biologin.

Auf einer Expedition mit dem Forschungsschiff Polarstern sammelte sie im Sommer 2021 mit einem Forschungsteam von Eisschollen aus Proben von Melosira-Algen und dem Umgebungswasser. Diese analysierten die Partner von Dalhousie University, Kanada, und University of Canterbury, Neuseeland, anschließend im Labor auf den Gehalt von Mikroplastik. Das überraschende Ergebnis: Die Algenklumpen enthielten mit durchschnittlich 31.000 ± 19.000 Mikroplastikpartikel pro Kubikmeter etwa zehnmal so hohe Konzentrationen wie das Umgebungswasser. „Die fädigen Algen haben eine schleimig-klebrige Textur, so dass sie möglicherweise Mikroplastik aus atmosphärischen Niederschlägen, dem Meerwasser selbst, dem umgebenden Eis und jeder anderen Quelle, der sie begegnen, einsammeln. Einmal im Algenschleim gefangen fahren sie wie in einen Aufzug zum Meeresboden, oder werden von Meerestieren gefressen“, erklärt Deonie Allen von der University of Canterbury und der Birmingham University, die zum Forschungsteam gehört.

Da die Eisalgen eine wichtige Nahrungsquelle für viele Tiefseebewohner darstellen, könnte das Mikroplastik so in das dortige Nahrungsnetz gelangen. Aber auch an der Meeresoberfläche bildet es eine wichtige Nahrungsquelle und könnte erklären warum Mikroplastik besonders stark unter eis-assoziierten Zooplankton-Organismen verbreitet war, wie eine frühere Studie unter AWI-Beteiligung zeigt. Auf diesem Weg kann es auch hier in die Nahrungskette gelangen, wenn das Zooplankton von Fischen wie Polardorsch und diese von Seevögeln, Robben und diese wiederum von Eisbären gefressen werden.

Die detaillierte Analyse der Plastikzusammensetzung zeigte, dass eine Vielzahl verschiedener Kunststoffe in der Arktis vorkommt, darunter Polyethylen, Polyester, Polypropylen, Nylon, Akryl und viele mehr. Zuzüglich verschiedener Chemikalien und Farbstoffe entsteht so ein Stoff Mix, dessen Auswirkungen auf Umwelt und Lebewesen schwer einzuschätzen ist. „Gerade die Menschen in der Arktis sind für ihre Proteinversorgung besonders auf das marine Nahrungsnetz angewiesen, beispielsweise durch die Jagd oder Fischerei. Das heißt, dass sie auch dem darin enthaltenen Mikroplastik und Chemikalien ausgesetzt sind. Mikroplastik wurde bereits in menschlichen Darm, Blut, Venen, Lungen, Plazenta und Brustmilch nachgewiesen und kann Entzündungsreaktionen hervorrufen, doch die Folgen sind insgesamt noch kaum erforscht“, berichtet Melanie Bergmann. „Mikro- und Nanoplastik wurden im Grunde überall dort nachgewiesen, wo Forschende im menschlichen Körper und einer Vielzahl anderer Arten nachgeforscht haben. Es ist bekannt, dass sie das Verhalten, das Wachstum, die Fruchtbarkeit und die Sterblichkeitsrate von Organismen verändern, und viele enthaltene Chemikalien sind nachweislich schädlich für den Menschen“, ergänzt Steve Allen vom Ocean Frontiers Institut der Dalhousie University, ein Mitglied des Forschungsteams.

Außerdem ist das arktische Ökosystem durch die tiefgehenden Umwälzungen der Umwelt durch die Erderhitzung ohnehin schon bedroht. Sind die Organismen nun noch zusätzlich Mikroplastik und den enthaltenen Chemikalien ausgesetzt, kann es sie weiter schwächen. „Hier kommen also verschiedene planetare Krisen zusammen, gegen die wir dringend effektiv vorgehen müssen. Wissenschaftliche Berechnungen haben gezeigt, dass sich die Plastikverschmutzung am wirksamsten durch eine Minderung der Produktion von neuem Plastik verringern lässt“, sagt die AWI-Biologin und ergänzt: „Dies sollte darum auch unbedingt priorisiert werden in dem zurzeit verhandelten globalen Plastikabkommen.“ Darum begleitet Melanie Bergmann auch die nächste Verhandlungsrunde, die Ende Mai in Paris beginnt.

Wissenschaftliche Ansprechpartner:
Dr. Melanie Bergmann (Tel.: 0471 4831-1739, E-Mail: Melanie.Bergmann@awi.de)

Originalpublikation:
Bergmann, M., Allen, S., Krumpen, T., Allen, D., 2023. High levels of microplastics in the Arctic ice alga Melosira arctica, a vector to ice-associated and benthic food webs. Environmental Science and Technology. DOI: https://doi.org/10.1021/acs.est.2c08010

Weitere Informationen:
http://Druckbare Bilder finden Sie bis zum Ende des Embargos in dieser Kollektion: https://multimedia.awi.de/medien/pincollection.jspx?collectionName=738688f0fec18… und anschließend in der Online-Version dieser Pressemitteilung unter https://www.awi.de/ueber-uns/service/presse.html
http://Video-Rohmaterial von der Probennahme zur Studie finden Sie hier: https://we.tl/t-9p7yre7Ro1

(nach oben)


Abkehr von den fossilen Energieträgern

Gerhard Samulat Pressekontakt
Deutsche Physikalische Gesellschaft (DPG)
Ein Physikkonkret der Deutschen Physikalischen Gesellschaft beleuchtet die globale Herausforderung der Abkehr von den fossilen Energieträgern.

Der von Menschen verursachte Klimawandel wartet nicht. Im Gegenteil: Er wird immer bedrohlicher. Damit auch die nachfolgenden Generationen ein Leben genießen können, ohne ständig Angst vor Naturkatastrophen haben zu müssen, müssen wir wegkommen von den fossilen Energieträgern. So viel ist sicher.

Das ist leichter gesagt als getan. Es ist eine gigantische Aufgabe. Schließlich deckt die Menschheit ihren Primärenergiebedarf heute zu rund 80 Prozent durch fossile Brennstoffe. Und um das Klima nicht vollkommen aus dem Ruder laufen zu lassen, müssen die Netto-CO2-Emissionen bis zum Jahr 2050 auf null heruntergefahren werden. Deswegen muss das Tempo der Wende zur nicht-fossilen Energiewelt mit aller Kraft beschleunigt werden.

Welche Herausforderungen auf uns warten, zeigt nun die aktuelle Ausgabe des Faktenblattes Physikkonkret der Deutschen Physikalischen Gesellschaft (DPG).

Die Physik kann wichtige Beiträge leisten. Freilich müssen auch die politischen Rahmenbedingungen stimmen, damit die Energiewende – voraussichtlich nach einer Zeit erhöhter Investitionen – langfristig auch zu einem wirtschaftlichen Erfolg wird. Die Deutsche Physikalische Gesellschaft ist allerdings fest davon überzeugt, dass sich Klimaschutz und Wirtschaftlichkeit sehr gut vereinbaren lassen.

Die Deutsche Physikalische Gesellschaft e. V. (DPG), deren Tradition bis in das Jahr 1845 zurückreicht, ist die älteste nationale und mit rund 55.000 Mitgliedern auch mitgliederstärkste physikalische Fachgesellschaft der Welt. Als gemeinnütziger Verein verfolgt sie keine wirtschaftlichen Interessen. Die DPG fördert mit Tagungen, Veranstaltungen und Publikationen den Wissenstransfer innerhalb der wissenschaftlichen Gemeinschaft und möchte allen Neugierigen ein Fenster zur Physik öffnen. Besondere Schwerpunkte sind die Förderung des naturwissenschaftlichen Nachwuchses und der Chancengleichheit. Sitz der DPG ist Bad Honnef am Rhein. Hauptstadtrepräsentanz ist das Magnus-Haus Berlin. Website: https://www.dpg-physik.de

Originalpublikation:
https://www.dpg-physik.de/veroeffentlichungen/publikationen/physikkonkret/pk66_n…

Weitere Informationen:
https://www.dpg-physik.de/veroeffentlichungen/was-sagt-die-dpg-zu?year=1_klima-u… (Was sagt die DPG zum Thema Klima und Energie?)

Anhang
Physikkonkret Nr. 66 (955 kB)

(nach oben)


Ganzjährig & bundesweit: Klimawandel begünstigt Ausbreitung von Zecken & FSME

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Ganz Deutschland ist inzwischen ein FSME Endemiegebiet, so Forscher:innen auf einer Pressekonferenz der Uni Hohenheim. Die Krankheit wird immer noch unterschätzt.

Die Zecke bleibe ganzjährig aktiv und habe inzwischen selbst höher gelegene Bergregionen erobert: Der Klimawandel begünstigt die Ausbreitung von Zecken und damit auch das Auftreten der FSME, warnte Prof. Dr. Ute Mackenstedt von der Universität Hohenheim in Stuttgart auf der heutigen Pressekonferenz. Neuere Erkenntnisse zeigten außerdem, dass FSME-Infektionen auch sehr untypische Symptome hervorrufen können, sodass gerade bei Kindern die Gefahr der Fehldiagnose bestehe, bestätigt Prof. Dr. Gerhard Dobler, Mikrobiologe und Leiter des Nationalen Konsiliarlabors für Frühsommer-Meningoenzephalitis (FSME) am Institut für Mikrobiologie der Bundeswehr. Wissenschafts-Video zum Thema: https://www.youtube.com/watch?v=70AEbzH5XJY

Ein paar Tage Frost im Winter reichten nicht: „Damit die Zecke im Winter nicht überlebt, braucht es richtig knackig tiefe Temperaturen, die auch einmal wochenlang andauern. Da tiefe Temperaturen von -15 Grad durch den Klimawandel selbst in den Alpen immer seltener werden, sind die Zecken auch in den Wintermonaten aktiv“, erklärt Prof. Dr. Mackenstedt, Leiterin des Fachgebietes Parasitologie der Universität Hohenheim.

Die Folge: „Zecken werden früher im Jahr aktiv oder sind sogar ganzjährig aktiv. Und selbst in den Bergregionen bis 1.200 m werden heute stabile Zeckenpopulationen gefunden“.

Mit den Zecken breiteten sich auch Krankheiten aus, deren Erreger von den Zecken übertragen würden. Allen voran die Frühsommer-Meningoenzephalitis, kurz FSME. „Die Anzahl der FSME Fälle hat in den letzten Jahren zugenommen“, erklärt Dr. Rainer Oehme vom Landesgesundheitsamt Baden-Württemberg.

Er weist darauf hin, dass vom Robert-Koch-Institut (RKI) in diesem Frühjahr weitere zusätzliche Land- und Stadtkreise zu Risikogebieten in Deutschland erklärt worden seien, die z.B. in Sachsen liegen. Doch bleibe die Situation bestehen, dass mehr als 80% der FSME-Fälle in Baden-Württemberg und Bayern liegen. Hotspots sind z.B. der Landkreis Ravensburg.

Hochdynamische Situation vor allem in Süddeutschland

Vor allem in Süddeutschland sei die Situation sehr dynamisch, ergänzt Prof. Dr. Mackenstedt. Die Untersuchungen und die genetische Charakterisierung der FSME Viren habe gezeigt, dass sich gerade hier viele verschiedene FSME Stämme etabliert hätten, die für die Krankheitsfälle verantwortlich seien. Diese genetische Vielfalt sähe man in anderen Regionen Deutschlands nicht.

Die langjährigen Untersuchungen zeigten aber auch: Die FSME-Situation sei ein hochkomplexes vielfältiges Geschehen und Vorhersagen seien schwierig. Manche Regionen erwiesen sich über Jahre oder Jahrzehnte als FSME-Hotspot. Bei anderen schnellten die Fallzahlen innerhalb eines Jahres rapide nach oben und nähmen im nächsten Jahr wieder ab, so die Experten.

Ganz Deutschland muss inzwischen als Endemie-Gebiet gelten

Eines stehe aber bei genauer Ansicht der Fallzahlen fest: „Wir können für keine Region in Deutschland Entwarnung geben. Was die FSME betrifft, ist Deutschland inzwischen ein bundesweites Endemie-Gebiet“, betont Prof. Dr. Mackenstedt.

Aus diesem Grund seien Darstellungen irreführend, die weiße Flecken auf der FSME-Karte auswiesen: „In den Gebieten sind die Fallzahlen sehr gering, was aber nicht heißt, dass dort keine FSME Fälle gemeldet werden. Es heißt nur, dass die Anzahl nicht den Schwellenwert übersteigt, bei dem dieser Landkreis zu einem Risikogebieten erklärt wird. Auch das RKI bestätigt, dass FSME Fälle in fast allen Bundesländern auftreten.“

Erkrankungen können aufgrund atypischer Symptome zu spät erkannt werden

Als Krankheit sollte die FSME nicht unterschätzt werden, warnte der Mikrobiologe Prof. Dr. Gerhard Dobler, Leiter des nationalen Konsiliarlabors für FSME am Institut für Mikrobiologie der Bundeswehr.

Die bekanntesten Symptome seien zwar Gehirn- und Hirnhautentzündung, aber auch Symptome einer Sommergrippe wie Fieber, Kopfschmerzen oder Erbrechen und selbst Darmsymptome könnten unter Umständen auf eine FSME-Infektion hindeuten.

„Inzwischen wissen wir ebenfalls, dass die FSME auch bei Kindern einen schweren Verlauf nehmen kann. Hier wird häufig von einem uncharakteristischen Krankheitsbeginn berichtet, der immer wieder zu verspätetet Diagnosen oder selbst zu Fehldiagnosen führen kann“, so der Mikrobiologe.

98% der Erkrankten hatten keinen oder unvollständigen Impfschutz

Vor diesem Hintergrund bestehe die Gefahr, dass die FSME zu spät oder gar nicht erkannt werde. Die beste Strategie sei deshalb, der Krankheit vorzubeugen: „Bei 98% der FSME-Patienten oder -Patientinnen im vergangenen Jahr waren die Erkrankten gar nicht geimpft, oder hatten wegen fehlender Auffrischung-Impfungen einen unzureichenden Impfschutz.“

Gleichzeitig zeigten uns Länder wie Österreich, wie weitgehend flächendeckende Impfungen die Krankheitszahlen erfolgreich nach unten drückten. Allerdings zeige sich auch in Österreich ein ansteigender Trend bei den Erkrankungen in der ungeimpften Bevölkerung, sagt Prof. Dr. Dobler.

Was wissenswert sei: Die Impfung werde von den Krankenkassen bezahlt und sei gleich für die ganze Familie empfehlenswert.

Weitere Informationen:
Zeckenforschung in Hohenheim: https://zecken.uni-hohenheim.de/
Video : https://www.youtube.com/watch?v=70AEbzH5XJY

Kontakt für Medien:
Prof. Dr. Ute Mackenstedt, Universität Hohenheim, Fachgebiet Parasitologie,
T +49 (0)711 459 22275, E Mackenstedt@uni-hohenheim.de

Prof. Dr. Gerhard Dobler, Nationales Konsiliarlabor FSME am Institut für Mikrobiologie der Bundeswehr in München,
T +49 (0)89 992692 – 3974, E gerharddobler@bundeswehr.org

Dr. Rainer Oehme, Landesgesundheitsamt im Ministerium für Soziales, Gesundheit und Integration Baden-Württemberg,
E presse@sm.bwl.de

(nach oben)


Chemiker aus Chemnitz weisen erstmals lange gesuchte chemische Verbindung nach

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
Prof. Dr. Johannes Teichert und sein Team von der TU Chemnitz berichten in „Nature Chemistry“ über die seit mehr als 70 Jahren nur vermutete „neutrale homoaromatische Verbindung“

In einer aktuellen Ausgabe der renommierten und viel zitierten internationalen Fachzeitschrift „Nature Chemistry“ berichten Prof. Dr. Johannes Teichert, Inhaber der Professur organische Chemie an der Technischen Universität Chemnitz, sein Wissenschaftlicher Mitarbeiter Trung Tran Ngoc sowie weitere Beteiligte über eine sogenannte „neutrale homoaromatische Verbindung“.

Die Erkenntnisse sind ein Meilenstein für die organische Chemie, denn seit mehr als 70 Jahren haben Chemikerinnen und Chemiker lediglich die Existenz dieser Molekülklasse theoretisch vermutet. Der praktische Nachweis fehlte bislang. Die von Teichert und seinem Team nun hergestellten homoaromatischen Moleküle können zum Beispiel als „Ersatzbausteine“ für klassische aromatische Moleküle genutzt werden. Damit ergeben sich ganz neue Kombinationsmöglichkeiten und damit auch Ansätze, um zum Beispiel neue Materialien oder Wirkstoffe in der Medizin zu entwickeln.

„Mit dieser bahnbrechenden Entdeckung konnten wir ein fundamentales Problem der Chemie lösen und an der TU Chemnitz erstmals nachweisen, dass es die lange angenommenen aber nie nachgewiesenen neutralen homoaromatischen Verbindungen in der organischen Chemie überhaupt gibt“, sagt Teichert. „Das ist nicht weniger als ein Durchbruch für die organische Chemie – auch, weil wir diese Verbindungen zum ersten Mal mit ihren individuellen Eigenschaften charakterisiert haben“, so Teichert weiter.

Erstmals stabil hergestellt und gezielt veränderbar

Während klassische aromatische Moleküle mit ihrem cyclischen Aufbau durch eine kreisförmige Bewegung der Elektronen gekennzeichnet sind, ist dieser Ring bei homoaromatischen Verbindungen unterbrochen.

Werden jedoch die reaktiven Enden des Moleküls in einer exakten Geometrie gehalten, baut sich die Kreisbewegung der Elektronen auch ohne eine „echte“ Bindung auf. Diese Verbindung der Moleküle jenseits einer klassischen chemischen Bindung sei eine besondere Eigenschaft der von Teichert und seinem Team hergestellten Homoaromaten. „Damit können wir nun zum ersten Mal die molekularen Wechselwirkungen innerhalb der homoaromatischen Verbindungen erforschen und vor allem systematisch verändern“, fügt Teicherts Mitarbeiter Trung Tran Ngoc hinzu. „Durch die Stabilität der Verbindung können wir das Konzept der Homoaromatizität nun intensiv erforschen und so auch besser verstehen“, ergänzt Teichert.

Neue photochemische Schalter ermöglichen neue Forschungswege u. a. in der Biomedizin

Mit der Entdeckung dieser neuen Form chemischer Verbindungen geht auch ein neuer Typ photochemischer Schalter einher. Sogenannte „Photoschalter“ spielen unter anderen in der Medizin und Biomedizin eine wichtige Rolle. Durch diese Schalter können zum Beispiel Wirkstoffe im menschlichen Körper gezielt von außen durch Licht angeregt und so deren Wirkung an Ort und Stelle aktiviert und untersucht werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes Teichert, Tel. +49 371 531-33715, E-Mail johannes.teichert@chemie.tu-chemnitz.de

Originalpublikation:
Tran Ngoc, T., Grabicki, N., Irran, E. et al. Photoswitching neutral homoaromatic hydrocarbons. Nat. Chem. 15, 377–385 (2023).

Weitere Informationen:
https://doi.org/10.1038

(nach oben)


Hamburgs Stromversorgung zu zwei Drittel durch Solarkraft möglich

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Im Auftrag des Netzwerks Erneuerbare Energien Hamburg (EEHH) und unter Beteiligung des Competence Center für Erneuerbare Energien (CC4E) der HAW Hamburg wurde eine Solarpotenzialstudie für die Freie und Hansestadt Hamburg erstellt. Darin zeigt sich ein sehr hohes Potenzial für die Stromversorgung Hamburgs durch Solarstrom.

Unter dem Titel „Solarpotenzialstudie für Hamburg. Nicht nur Schietwetter in Hamburg!“ wurde die Studie am 30. März 2023 in ihrer Vollversion veröffentlicht. Sie wurde federführend von Dr. -Ing. Christina Rullán Lemke von der HCU Hamburg, Daniel John von der TU Hamburg und Nicholas Tedjosantoso vom CC4E der HAW Hamburg erarbeitet. Prof. Dr.-Ing. Martin Kaltschmitt (Leiter des Instituts für Umwelttechnik und Energiewirtschaft) von der TU Hamburg und Prof. Dr.-Ing. Hans Schäfers, kommissarischer Leiter des CC4E der HAW Hamburg, sowie Constantin Lange von der Erneuerbare Energien Hamburg Clusteragentur GmbH koordinierten die Arbeiten.

Im Zentrum der Studie stand die Identifizierung potenziell nutzbarer Flächen für die Solarstromerzeugung durch Photovoltaikanlagen sowie die Abschätzung sehr konkret geeigneter Flächen, um das wirklich realisierbare PV-Potential der Stadt insgesamt zu ermitteln. Dazu wurde unter Verwendung des digitalen Liegenschaftskatasters (ALKIS) eine detaillierte Eignungsanalyse jedes einzelnen Flurstücks in Hamburg durchgeführt. Mit Hilfe der digitalen Stadtkarte wurden zudem für die Gebäude auf den Grundstücken die Dachformen analysiert, um den realisierbaren PV-Belegungsgrad abzuschätzen zu können. Im Ergebnis resümieren die Forscher*innen ein hohes Potential für die Energieversorgung durch Photovoltaik in Hamburg. Laut der Studie können bilanziell etwa zwei Drittel des Strombedarfs in der Freien- und Hansestadt durch Solaranlagen gedeckt werden.

Die Studienrelevanz ergibt sich auch angesichts eines aktuellen Entwurfs zur Änderung des Klimaschutzgesetzes in Hamburg durch den Senat und den hierdurch ambitionierten Plan, die Treibhausgas-Emissionen bis 2030 drastisch zu reduzieren sowie bis 2045 Klimaneutralität in der Stadt zu erreichen. Damit steigt die Notwendigkeit des Ausbaus erneuerbarer Energien, daher sieht die Hamburger Gesetzesnovelle eine PV-Nutzungspflicht für Neubauten oder bei einer Dachsanierung vor.

Prof. Dr.-Ing. Hans Schäfers: „Die Größenordnung des realisierbaren PV-Potenzials hat uns überrascht. Aber sie ist gut belegt und zeigt, dass der Senat mit seiner Novelle des Klimaschutzgesetzes die richtigen Schritte geht. Nun wird es wichtig werden, diesen Schatz an klimaneutraler, kostengünstiger Energie, den wir mit der Studie im wahrsten Sinne `kartiert´ haben, zügig zu heben und für die Hamburgerinnen und Hamburger und unseren Wirtschaftsstandort zu nutzbar zu machen.

Kontakt
Inga Mohwinkel
Öffentlichkeitsarbeit CC4E
T +49 40 428 75 5828
CC4E-Presse@haw-hamburg.de

Weitere Informationen:
EEHH-Solarpotenzialstudie.pdf

(nach oben)


Wie Medikamente ins Blut gelangen

Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Dank Computersimulationen wissen Forschende im Detail, wie Wirkstoffe Zellmembranen durchqueren. Mit den Erkenntnissen lassen sich nun neue Arzneimittel gezielter entwickeln.

Neue Medikamente tun not. Antibiotika zum Beispiel: In dieser Arzneiklasse nimmt die Wirkung vieler seit Langem verwendeter Stoffe ab. Chemikerinnen und Pharmazeuten suchen fieberhaft nach neuen Substanzen, insbesondere nach solchen, die Zellmembranen durchdringen können. Denn nur Wirkstoffe, die Zellmembranen durchqueren, können Patientinnen und Patienten oral als Tablette oder Sirup einnehmen. Nur diese Wirkstoffe passieren im Dünndarm die Darmwand und gehen in den Blutstrom über, um so an ihren Wirkungsort im Körper zu gelangen. Bei Wirkstoffen, die die Zellmembran nicht durchdringen können, haben Medizinerinnen und Mediziner keine andere Wahl, als diese direkt ins Blut zu injizieren.

Grössere Moleküle mit Potenzial
Forschende versuchen daher zu verstehen, welche Moleküle Zellmembranen durchdringen können, und wie genau sie das tun. Für eine wichtige und vielversprechende Substanzklasse, jene der zyklischen Peptide, haben Chemiker:innen der ETH Zürich nun weitere Details zum entsprechenden Mechanismus entschlüsselt. «Je mehr wir über diesen Mechanismus und die Eigenschaften wissen, die ein Molekül besitzen muss, desto früher und gezielter können Forschende dies in der Entwicklung neuer Medikamente berücksichtigen», erklärt Sereina Riniker, Professorin am Departement Chemie und Angewandte Biowissenschaften. Sie hat die Studie, die im Journal of Medicinal Chemistry veröffentlicht worden ist, geleitet.

Zyklische Peptide sind ringförmige Moleküle, die deutlich grösser sind als die kleinen chemischen Moleküle («Small Molecules»), welche die Mehrzahl der heutigen Medikamente ausmachen. Doch in manchen Anwendungsgebieten kommen Chemikerinnen und Pharmazeuten mit Small Molecules an ihre Grenzen, weswegen sie sich grösseren Molekülen wie den zyklischen Peptiden zuwenden. Viele pharmazeutisch wirksame Naturstoffe gehören dieser Substanzklasse an, darunter Cyclosporin, ein seit Jahrzenten nach Organtransplantationen eingesetztes Immunsuppressivum, sowie viele Antibiotika.

Nur mit Computermodellierung möglich
Riniker und ihre Kolleg:innen konnten mithilfe einer rechenintensiven Computermodellierung aufklären, wie zyklische Peptide, die Cyclosporin ähnlich sind, eine Membran durchqueren. «Nur die Modellierung erlaubt uns solch hochaufgelöste und detaillierte Einblicke, denn es gibt keine experimentelle Möglichkeit, ein einzelnes Molekül beim Durchqueren der Membran zu beobachten», sagt Riniker.

Um den Mechanismus zu verstehen, muss man wissen, wie zyklische Peptide aufgebaut sind: Sie bestehen aus einer zentralen Ringstruktur, an der sogenannte Seitenketten hängen. Die Moleküle sind flexibel und können ihre Strukturen dynamisch verändern, um sich so ihrer Umgebung anzupassen.

Tanz durch die Zellmembran
Rinikers Simulationen decken im Detail auf, wie ein zyklisches Peptid die Membran durchdringt: Zuerst dockt das Molekül an die Membranoberfläche an und dringt dann senkrecht zur Membran in diese ein. Danach ändert es seine dreidimensionale Form und rotiert während der Durchquerung einmal um die Längsachse, ehe es die andere Seite der Membran erreicht und dort wieder austritt.

Die Formänderungen haben mit den unterschiedlichen Umgebungen innerhalb einer Zelle zu tun: Unser Körper besteht zu einem grossen Teil aus Wasser. Sowohl innerhalb als auch ausserhalb der Zellen befinden sich die biochemischen Moleküle grösstenteils in wässriger Lösung. Die Zellmembranen hingegen sind aus Fettsäuren aufgebaut. Innerhalb einer Membran herrschen daher wasserabstossende Bedingungen. «Um die Membran durchqueren zu können, ändert das zyklische Peptid seine dreidimensionale Form, um sich damit für eine kurze Zeit so wasserabstossend wie möglich zu machen», erklärt Riniker.

Molekulare Seitenketten verändern
Für die vorliegende Studie untersuchten die Forschenden acht verschiedene zyklische Peptide. Es handelt sich dabei um Modellpeptide ohne medizinische Wirkung, die von Wissenschaftler:innen der Pharmafirma Novartis für die Grundlagenforschung entwickelt wurden. Für diese Studie arbeitete Riniker daher auch mit Forschenden von Novartis zusammen.

Die neuen Erkenntnisse können nun in die Entwicklung zyklischer Peptide als neue Arzneimittel einfliessen. Riniker weist allerdings auf einen gewissen Zielkonflikt hin: Es gibt Seitenketten, dank denen ein zyklisches Peptid zwar ideal an die Membranoberfläche andocken kann, die jedoch dem Peptid das Durchqueren der Membran erschweren. Das neue Wissen hilft Forschenden, sich vorgängig zu überlegen, welche Seitenketten sie verwenden wollen und an welcher Stelle am Molekül sie am hilfreichsten sind. Das alles könnte die Medikamentenentwicklung beschleunigen, sodass die Forschende von Anfang an möglichen Wirkstoffen forschen, die als Tablette eingenommen werden können.

Originalpublikation:
Linker SM, Schellhaas C, Kamenik AS, Veldhuizen MM, Waibl F, Roth HJ, Fouché M, Rodde S, Riniker S: Lessons for Oral Bioavailability: How Conformationally Flexible Cyclic Peptides Enter and Cross Lipid Membranes, Journal of Medicinal Chemistry 2023, 66: 2773, doi: 10.1021/acs.jmedchem.2c01837

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/04/wie-medikament…

(nach oben)


Ein Zentrum für die Klimaforschung in Niedersachsen

Bianca Loschinsky Presse und Kommunikation
Technische Universität Braunschweig
Der Klimawandel wird auch in Niedersachsen spürbarer. Die Temperaturen steigen, immer öfter sind trockenere Frühjahr- und Sommermonate mit zum Teil heftigen Starkregenereignissen zu beobachten. Um die Forschung zum Klimawandel in den kommenden Jahren entscheidend voranzubringen, sollen interdisziplinäre Teams demnächst in themenspezifischen Zukunftslaboren Lösungen für eine sichere und gerechte Klimazukunft erarbeiten. Gebündelt werden die Aktivitäten im Zentrum Klimaforschung Niedersachsen (ZKfN) an der Technischen Universität Braunschweig. Mit rund 1,9 Millionen Euro unterstützt das Land Niedersachsen die Ansiedlung des ZKfN an der TU Braunschweig.

Den entsprechenden Förderbescheid hat Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs am 13. April an TU-Präsidentin Angela Ittel überreicht.

„Mit der Einrichtung des Zentrums für Klimaforschung Niedersachsen an der TU Braunschweig leistet das Land einen wichtigen Beitrag zur Bewältigung der Klimakrise. Damit erweitern wir die notwendige fachliche Expertise in Niedersachsen, um die möglichen Auswirkungen des Klimawandels besser zu verstehen und zielgerichtet auf den Klimawandel reagieren zu können“, so Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs. „Im ZKfN werden die Aktivitäten der Zukunftslabore gebündelt sowie die interne und externe Kommunikation und Vernetzung unterstützt. Anwendungsorientierte Grundlagenforschung und der Wissenstransfer gehen hier Hand in Hand. Nur so können wir die Herausforderungen angehen und nachhaltig umsetzen.“
Klimagerechte Stadtentwicklung und Ökosystem Wald

Mit der Förderung über das Programm zukunft.niedersachsen von Land und VolkswagenStiftung wird die Einrichtung der Geschäfts- und Koordinierungsstelle an der TU Braunschweig finanziert. Auch die Themen für die ersten beiden Zukunftslabore sind bereits gesetzt: Die klimagerechte Stadtentwicklung und Raumplanung und die Auswirkungen des Klimawandels auf das Ökosystem Wald sollen im Fokus stehen. Im Juli wird dazu das Niedersächsische Ministerium für Wissenschaft und Kultur die Ausschreibungen für die Initialförderungen veröffentlichen.

„Es ist großartig, dass das Zentrum Klimaforschung Niedersachsen (ZKfN) an der TU Braunschweig angesiedelt ist. An unserer Universität betreiben wir bereits seit Jahrzehnten Spitzenforschung zum Klimawandel und dessen Auswirkungen, sei es im Bereich Küstenschutz, Stadtklima oder auch der Einfluss der Klima-Erwärmung auf Tiere und Pflanzen. In den vergangenen Jahren hat diese Arbeit dazu eine besondere Relevanz und Dringlichkeit erfahren“, sagt TU-Präsidentin Angela Ittel. „An der TU Braunschweig bestimmt zudem eine konsequent handlungsleitende Orientierung an Nachhaltigkeit unsere Entscheidungen im Rahmen einer ganzheitlichen Entwicklung auf dem Weg zur Exzellenz. Um die Bedeutung des Zentrums und des Themas hervorzuheben, ist das ZKfN als Stabsstelle der Präsidentin eingerichtet.“
Gewünscht: Zukunftslabore über Hochschulstandorte hinweg

Auf die Zukunftslabore können sich interdisziplinäre Konsortien aus Wissenschaftler*innen und Praxispartner*innen aus Niedersachsen bewerben. „Dabei laden wir die Forscher*innen ein, sich über die verschiedenen Hochschulstandorte hinweg, gemeinsam zu thematisch fokussierten Zukunftslaboren einzubringen“, sagt die Geschäftsführerin des ZKfN, Katharina Beckmann. Ziel ist es, die Kompetenzen im Bereich der Klimaforschung weiter miteinander zu verzahnen, die wissenschaftliche Arbeit eng an die Anwendung anzubinden und aus dem Zentrum heraus ein Netzwerk aus Wissenschaft, Wirtschaft und Gesellschaft zu den Themen der Klimaforschung zu bilden. Die Geschäftsstelle wird vor allem auch die Kommunikation und den Wissenstransfer unterstützen. „Wir werden neue Formate und Plattformen entwickeln, Konferenzen und Workshops organisieren, um die Erkenntnisse aus der Forschung einer breiten Öffentlichkeit sichtbar und zugänglich zu machen“, berichtet Katharina Beckmann.

So ist am 15. Juni während der Eröffnung der ClimateCrisisClock am Forumsgebäude der TU Braunschweig eine Podiumsdiskussion zur Rolle der Hochschulen in der Klimakommunikation geplant. Im Oktober wird sich das ZKfN bei der internationalen Konferenz des Forschungsschwerpunkts „Stadt der Zukunft“ an der TU Braunschweig einbringen.
Einbindung von Studierenden

Besonders wichtig ist der ZKfN-Geschäftsführerin, frühzeitig Studierende im Zentrum einzubinden: „Viele Impulse kommen aus dieser Generation. Und wir können mit unserer Arbeit insbesondere ihre Transformations- und Problemlösungskompetenzen stärken. Sie sollen unsere ‚Change-Agents‘ werden.“

Unterstützt wird die Arbeit der Geschäftsstelle von einem Lenkungskreis, der die strategische Steuerung des Zentrums verantwortet. Zusätzlich wird ein institutionsübergreifender internationaler wissenschaftlicher Beirat eingerichtet, der aus Vertreter*innen aus Wissenschaft, Gesellschaft und Wirtschaft besteht.

Weitere Informationen:
Website des Zentrums Klimaforschung Niedersachsen:
https://www.tu-braunschweig.de/zkfn

Interview mit der Geschäftsführerin des ZKfN, Katharina Beckmann:
https://magazin.tu-braunschweig.de/m-post/fuer-eine-sichere-und-gerechte-klimazu…

TUmorrow Days vom 13. bis 15. Juni an der TU Braunschweig:
https://www.tu-braunschweig.de/greenoffice/bildungsangebote/tumorrow-day

Wissenschaftliche Ansprechpartner:
Katharina Beckmann

Technische Universität Braunschweig
Zentrum Klimaforschung Niedersachsen (ZKfN)
Universitätsplatz 2
38106 Braunschweig
Tel.: 0531 391-10070
E-Mail: zkfn@tu-braunschweig.de
www.tu-braunschweig.de/zkfn

(nach oben)


Grundwasser und Artenvielfalt: Neue Studie offenbart weltweit Lücken im Schutz von Naturschutzgebieten

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Wie sehr werden Naturschutzgebiete von Einflüssen außerhalb ihrer Grenzen geprägt? Ein internationales Forschungsteam unter Mitwirkung von Prof. Andreas Hartmann von der TU Dresden hat die Bedeutung von Grundwassereinzugsgebieten für den Schutz der biologischen Vielfalt und den Erhalt von Ökosystemdienstleistungen untersucht.

Ihre Studie zeigt, dass der Schutz von Grundwassereinzugsgebieten von Naturschutzgebieten oft unzureichend ist und menschliche Aktivitäten in angrenzenden Gebieten einen erheblichen Einfluss auf den Schutz der Ökosysteme haben können.

Die Forscher:innen haben die Grundwassereinzugsgebiete von Naturschutzgebieten weltweit kartiert und dabei herausgefunden, dass 85 Prozent der Schutzgebiete mit grundwasserabhängigen Ökosystemen nicht ausreichend geschützt sind. Das bedeutet, dass ein Teil des Grundwassereinzugsgebiets außerhalb des Schutzgebiets liegt. Die Hälfte aller Schutzgebiete weist ein Grundwassereinzugsgebiet auf, dessen räumliche Ausdehnung 50 Prozent oder sogar mehr außerhalb der Schutzgebietsgrenzen liegt.
Die Ergebnisse der Studie verdeutlichen das weit verbreitete Risiko für Schutzgebiete aufgrund von Aktivitäten, die das Grundwasser außerhalb der Schutzgebiete beeinträchtigen. Die Studie unterstreicht die Notwendigkeit, Grundwasserherkunftsräume und -fließwege in die Schutz- und Managementmaßnahmen von Naturschutzgebieten einzubeziehen. Die Bestimmung von Grundwassereinzugsgebieten trägt dazu bei, eine Diskussion über die Verknüpfung von Naturschutzgebieten mit ihrem Umfeld und ihre Widerstandsfähigkeit gegenüber externen Einflüssen in Gang zu setzen. Gleichzeitig unterstützen der Schutz und das Management solcher Einzugsgebiete dabei, Ökosysteme, die von Grundwasser abhängig sind, vor Gefahren von außen zu bewahren.

„Die Ergebnisse haben eine große Bedeutung für die die Entwicklung von Strategien zum Schutz der biologischen Vielfalt und zum Erhalt von Ökosystemdienstleistungen“, betont Grundwasserforscher Hartmann. Durch die Identifikation von Lücken im Schutz von Naturschutzgebieten und die Umsetzung gezielter Schutz- und Managementmaßnahmen könnten zukünftige Umweltveränderungen besser abgefedert und die Ökosysteme sowie die menschliche Lebensqualität nachhaltig gesichert werden.

Wissenschaftliche Ansprechpartner:
Prof. Andreas Hartmann
Institut für Grundwasserwirtschaft
Fakultät Umweltwissenschaften
Technische Universität Dresden
Telefon: (0351) 463-42551
E-Mail: andreas.hartmann@tu-dresden.de
Internet: https://tu-dresden.de/bu/umwelt/hydro/igw

Originalpublikation:
Huggins, X., Gleeson, T., Serrano, D., Zipper, S., Jehn, F., Rohde, M. M., Abell, R., Vigerstol, K., & Hartmann, A. (2023). Overlooked risks and opportunities in groundwatersheds of the world’s protected areas. Nature Sustainability. https://www.nature.com/articles/s41893-023-01086-9

(nach oben)


Unterschätztes Risiko: Bluthochdruck bei Kindern

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Rechtzeitig entdeckt, kann Bluthochdruck bei Kindern erfolgreich behandelt werden. Wie frühzeitiges Eingreifen schwere Folgen für Herz und Gefäße verhindern kann, erläutert der Kinderherzspezialist Prof. Dr. Robert Dalla Pozza im aktuellen herzblatt-Sonderdruck der Deutschen Herzstiftung

Bluthochdruck gilt als stiller Killer. Still, weil er unbemerkt schweren Schaden anrichten kann. Herz, Hirn, Nieren und Augen sowie Gefäße kann er massiv schädigen, wenn er über Jahre unentdeckt und unbehandelt bleibt. „Von großer gesundheitlicher Bedeutung für die einzelnen Patienten ist die Tatsache, dass der Bluthochdruck im Kindesalter das Blutdruckniveau des Erwachsenen bestimmt“, erklärt Prof. Dr. med. Robert Dalla Pozza, leitender Oberarzt der Abteilung für Kinderkardiologie und pädiatrische Intensivmedizin im LMU Klinikum München, Campus Großhadern. Den Bluthochdruck frühzeitig zu erkennen und mögliche Ursachen zu klären, sei deshalb besonders wichtig, um mit Hilfe der Therapie vor den Folgen des hohen Blutdrucks schützen zu können, betont der Kinderherzspezialist und Mitautor des herzblatt-Sonderdrucks „Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr“ der Deutschen Herzstiftung und ihrer Kinderherzstiftung. Dieser kann kostenfrei per Telefon angefordert werden unter 069 955128-400 oder per Mail unter bestellung@herzstiftung.de (1). Die Volkskrankheit Bluthochdruck (arterielle Hypertonie) betrifft in Deutschland nach Expertenschätzungen 20-30 Millionen Erwachsene (Infos: www.herzstiftung.de/bluthochdruck). Von den Kindern und Jugendlichen in Deutschland leiden rund zwei bis drei Prozent unter Bluthochdruck, das sind etwa 400.000 Betroffene. Bei Bluthochdruck wird das Blut dauerhaft mit zu viel Druck auf die Gefäßwände durch den Körper gepumpt. Die dauerhafte Gefäßbelastung und sich daraus entwickelnde arteriosklerotische Gefäßveränderungen (Gefäßverkalkung) erhöhen die Gefahr für Herz-Kreislauf-Erkrankungen im Erwachsenenalter wie Herzinfarkt, Schlaganfall oder Nierenversagen, wenn der hohe Blutdruck unentdeckt und unbehandelt bleibt.

Risiken erkennen und minimieren: frühzeitiger Blutdruck-Check
Insbesondere Übergewicht/Adipositas, chronische Nierenerkrankungen sowie die Einnahme bestimmter Medikamente (z. B. Psychopharmaka), Rauchen und Drogenmissbrauch sind die häufigsten Risikofaktoren für den primären Bluthochdruck im Kindes- und Jugendalter. Primär, „weil keine andere sekundäre Ursache bekannt ist und dieser primäre, arterielle Bluthochdruck aus dem Zusammenspiel vieler vererblicher Faktoren und Umwelteinflüssen wie falsche Ernährung, Stress oder Übergewicht resultiert“, erläutert Prof. Dalla Pozza.
Um die Gefahr für Herz und Gefäße rechtzeitig einzudämmen und die bereits genannten Spätschäden (Arteriosklerose) und Komplikationen im Erwachsenenalter frühzeitig zu verhindern, rät der Kinderkardiologe bereits im Kleinkindalter den Blutdruck regelmäßig zu beobachten. „Eine Blutdruckmessung sollte bei jedem Kind ab dem vierten Lebensjahr stattfinden. Bei Kindern mit Risikofaktoren für Bluthochdruck sollte sie bereits ab dem dritten Lebensjahr durchgeführt werden.“ Besonders bei den rund 8.700 Kindern, die mit einem angeborenen Herzfehler jährlich in Deutschland zur Welt kommen und außerdem mit Gefäßdefekten wie Hauptschlagaderverengung (Aortenisthmusstenose) geboren werden, muss sorgfältig darauf geachtet werden, dass der Blutdruck im unbedenklichen Bereich liegt. Das gilt auch für frühgeborene Kinder, die nach der Geburt intensivmedizinisch behandelt worden sind.

Blutdruck messen bei Kindern: Worauf sollte man achten?
Um den Blutdruck bei Kindern richtig zu messen, gibt es ein paar wichtige Punkte zu beachten:
– Die Blutdruckmessung sollte am rechten Oberarm nach einer etwa fünfminütigen Ruhepause erfolgen.
– Die Messungen sollten dreimal wiederholt werden.
– Bei älteren Kindern sollte im Sitzen, bei Säuglingen und kleineren Kindern im Liegen gemessen werden.
– Die Größe der Manschette korrekt wählen: Der aufblasbare Teil sollte gut am Arm anliegen, gegebenenfalls eine Kindermanschette wählen.
– Die Messung sollte man noch zweimal im Abstand von ein bis zwei Minuten wiederholen: Wiederholungsmessungen fallen meist niedriger aus. Den Mittelwert der letzten beiden Messungen notieren.
– Messungen mit vollautomatischen, sogenannten oszillometrischen Geräten, sind mittlerweile auch bei Kindern üblich.
– Weiterhin gilt die auskultatorische Messung, also die manuelle Blutdruckmessung mit Hilfe eines Stethoskops, als Goldstandard.
– Die Messwerte sollten mit den entsprechenden Normwerten, die für Kinder ab einem Jahr zur Verfügung stehen, verglichen werden.

Um die Diagnose Bluthochdruck zu sichern beziehungsweise den Erfolg einer Behandlung zu prüfen, sollte auch bei Kindern eine 24-Stunden-Langzeitblutdruckmessung erfolgen. „Eine Bestätigung der Diagnose muss von einem Facharzt durch mehrere Blutdruckmessungen im Abstand von einigen Tagen bis Wochen erfolgen“, betont der Kinderkardiologe Prof. Dalla Pozza. Steht die Diagnose arterieller Bluthochdruck fest, folgen u.a. Ultraschalluntersuchungen von Herz und Nieren. Beim Augenarzt gibt eine Spiegelung des Augenhintergrunds Auskunft über Gefäßveränderungen (Gefahr der Arteriosklerose). Je jünger ein Kind ist, desto wahrscheinlicher ist ein sekundärer Bluthochdruck. Im Säuglingsalter handelt es sich immer um einen sekundären Bluthochdruck, wobei angeborene Nieren- und Herzerkrankungen als Ursachen im Vordergrund stehen. „Bei älteren Kindern ist ein primärer Bluthochdruck wahrscheinlicher. Dabei handelt es sich in vielen Fällen um eine familiär gehäuft vorkommende arterielle Hypertonie ohne erkennbare Ursache“, erklärt Prof. Dalla Pozza.

Gesund leben: Ohne Medikamente Kinder vor Bluthochdruck schützen
Fast die Hälfte der Kinder in Deutschland bewegt sich zu wenig. „Mangelnde Bewegung, erhöhte Kalorienzufuhr durch unbewusstes und unkontrolliertes Snacken stellen ein Risiko für die Entwicklung einer Hypertonie dar“, warnt Prof. Dalla Pozza. Laut einer Forsa-Umfrage im Mai 2022 (2) ist jedes sechste Kind in Deutschland dicker geworden und fast ein Drittel der Kinder isst mehr Süßes. Im Vergleich zu Kindern mit normalem Gewicht haben fettleibige Kinder ein mehr als zehnfach erhöhtes Risiko für Bluthochdruck, warnen Kinder- und Jugendmediziner (3).
Um den Blutdruck zu senken, eignen sich für Kinder ebenso wie für Erwachsene Ausdauersportarten, die den Blutdruck stärker senken als Krafttraining. Bei deutlich erhöhten Blutdruckwerten wird Patienten bis zur Senkung der Blutdruckwerte von statischen Belastungen (z. B. Mountainbiking, Krafttraining, Alpinskilauf, Rudern) abgeraten. Täglich 60 Minuten moderate bis intensive körperliche Aktivität werden zur Prävention von Herz-Kreislauf-Erkrankungen empfohlen.
Extrem zuckerhaltige Getränke, Drinks mit Koffeingehalt und Alkohol steigern den Blutdruck ebenso wie Rauchen (auch passives der Eltern), Drogen (z.B. Ecstasy, Kokain, Crack und Amphetamine) und sollten unbedingt vermieden werden. Eine abwechslungsreiche Ernährung ist ebenfalls zur Vorbeugung von Risikokrankheiten wie Bluthochdruck wichtig. Weg vom Weißmehlbrötchen, hin zu herzgesunder abwechslungsreicher Ernährung. Auch Kinder mögen knackiges Obst und Gemüse, richtige Vermittlung und Anleitung vorausgesetzt. Die Deutsche Herzstiftung empfiehlt daher die Mittelmeerküche (https://herzstiftung.de/mediterrane-rezepte). Sie besteht vorwiegend aus ballaststoff- und proteinreichen Lebensmitteln und ist reich an frischem Gemüse und Obst, Hülsenfrüchten, Vollkornprodukten, pflanzlichen Ölen, Nüssen, Fisch, Salaten und Kräutern. Reichen diese Behandlungsmöglichkeiten nicht aus, empfehlen Mediziner zusätzlich eine medikamentöse Therapie.

Blutdrucksenkung mit Medikamenten
Problem sind die noch nicht ausreichenden Studienergebnisse für Präparate im Kindesalter, so dass auch sogenannte Off-Label-Produkte mit ausführlicher Risiko-Nutzen-Aufklärung eingesetzt werden. Wegen ihrer ungünstigen Nebenwirkungen werden Betablocker Kindern eher selten verschrieben. Erstes Mittel der Wahl sind ACE Hemmer (Angiotensin-Converting-Enzyme-Hemmer), die an Enzymen und Hormonen des RAAS (Renin-Angiotensin-Aldosteron-System) ansetzen. Das RAAS besteht aus Enzymen und Hormonen, die entscheidend mitwirken an der Regulation des Blutdrucks und des Flüssigkeitshausaltes. Ähnlich blutdrucksenkend wie ACE-Hemmer und oft besser verträglich sind AT1-Rezeptorblocker (hemmen u.a. die Bildung des Hormons Angiotensin2, das Blutgefäße verengt und als Folge steigt der Blutdruck). Lästige Nebenwirkungen wie Kopfschmerzen und Wasseransammlungen in den Beinen haben Kalziumantagonisten. Sie zählen dennoch zu den sehr wirksamen Präparaten zur Behandlung des gefährlichen Bluthochdrucks.
(sh/wi)

Service-Tipps
Der Artikel „Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr“ von Prof. Dr. Robert Dalla Pozza ist im gleichnamigen aktuellen Sonderdruck von herzblatt, der Zeitschrift der Deutschen Herzstiftung zum Leben mit angeborenem Herzfehler enthalten. Ein Probeexemplar/Rezensionsexemplar dieses Sonderdrucks kann kostenfrei bei der Kinderherzstiftung angefordert werden unter Tel. 069 955128-400 oder per Mail bestellung@herzstiftung.de

Der Artikel „Hoher Blutdruck schadet schon Kindern“ von Prof. Dr. Elke Wühl in der Herzstiftungs-Broschüre „Bluthochdruck: Herz und Gefäße schützen“ kann kostenfrei angefordert werden bei der Herzstiftung unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de

Online-Seminar: „Arterieller Bluthochdruck im Kindes- und Jugendalter“
Wann: Mittwoch, 19. April 2023, Start 17:30 Uhr
Link: https://herzstiftung.de/live
Referent: Prof. Dr. med. Robert Dalla Pozza, stellv. Leiter der Abteilung für Kinderkardiologie und Pädiatrische Intensivmedizin des LMU Klinikum München Campus Großhadern
Eine Anmeldung ist nicht nötig.

Der Vortrag des Kinderkardiologen richtet sich an interessierte Eltern, Familien mit betroffenen Kindern mit/ohne angeborenem Herzfehler sowie an betroffene Jugendliche. Im Anschluss besteht die Möglichkeit, Fragen an den Experten zu richten. Für die Teilnahme ist kein Einschalten von Kamera und Mikrofon erforderlich. Fragen zu diesem Online-Seminar können vorab an kinderherzstiftung@herzstiftung.de gesendet werden.

Schon gewusst? Die Kinderherzstiftung feiert 30-jähriges Jubiläum:
https://herzstiftung.de/30-jahre-khs

Bild- und Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

Quellen:
(1) Dalla Pozza, R., Weil, J., Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr, Sonderdruck von herzblatt, der Zeitschrift der Deutschen Herzstiftung zum Leben mit angeborenem Herzfehler, Frankfurt a. M., 2023
(2) Pressemeldung der Deutschen Adipositas-Gesellschaft (https://adipositas-gesellschaft.de) „forsa-Umfrage zeigt Folgen der Corona-Krise für Kinder: Gewichtszunahme, weniger Bewegung, mehr Süßwaren – Jedes sechste Kind ist dicker geworden“ vom 31.05.2022 (abgerufen am 12.04.2023)
(3) Wühl, E., Hoher Blutdruck schadet schon Kindern, in: Deutsche Herzstiftung (Hg.), Bluthochdruck: Herz und Gefäße schützen, Frankfurt a. M. 2021

Die Schweregrade des Bluthochdrucks
Mediziner unterscheiden beim arteriellen Bluthochdruck bei Kindern bestimmte Schweregrade und teilen sie in sogenannte Perzentile (Hundertstelwerte) ein. Diese Messwerte dienen als Vergleichsgröße.

– Hochnormaler Blutdruck: Werte über 90. Perzentile
Nur wenn zusätzliche Risikofaktoren wie z.B. Herz-Kreislauf-Erkrankungen, Diabetes mellitus oder chronische Nierenerkrankungen vorliegen, wird empfohlen, den Blutdruck abzusenken. Zur Risikoverminderung sollten nicht medikamentöse Maßnahmen ergriffen werden.
– Bluthochdruck Grad 1: Werte über 95. Perzentile
Eine Behandlung mit Medikamenten ist notwendig. Begleitet werden sollte sie von nicht medikamentösen Maßnahmen zur Reduktion des Herz-Kreislauf-Risikos.
– Bluthochdruck Grad 2: Werte über 99.Perzentile
Stationäre Behandlung und Überwachung sind erforderlich. Intensivbehandelt werden muss, wenn weitere Symptome wie Herzschwäche, Schwindel oder Benommenheit auftreten (Hypertensiver Notfall).

Weitere Literatur
Lurbe, E. et al. (2009): Management of high blood pressure in children and adolescents: recommendations of the European Society of Hypertension. doi: 10.1097/HJH.0b013e32832f4f6b

Flynn, J. T. et al. (2017): Clinical Practice Guideline for Screening and Management of High Blood Pressure in Children and Ado- lescents. doi: 10.1542/peds.2017-1904

Perk, J. et al. (2012): European Guidelines on cardiovascular disease prevention in clinical practice (version 2012): The Fifth Joint Task Force of the European Society of Cardiology and Other Societies on Cardiovascular Disease Prevention in Clinical Practice (constituted by representatives of nine societies and by invited experts). doi: 10.1093/eurheartj/ehs092

Lurbe E., Wühl, E. et al. (2016): European Society of Hyper- tension guidelines for the manage- ment of high blood pressure in children and adolescents. J Hypertens. doi.org/10.1097/ HJH.0000000000 001039

Kontakt
Deutsche Herzstiftung, Pressestelle: Michael Wichert (Ltg.)/Pierre König, Tel. 069 955128-114/-140, E-Mail: presse@herzstiftung.de, www.herzstiftung.de

Weitere Informationen:
https://www.herzstiftung.de/live
https://www.herzstiftung.de/30-jahre-khs
https://www.herzstiftung.de/bluthochdruck

Anhang
PM_DHS_Bluthochdruck-bei-Kindern_2023-04-12_FIN

(nach oben)


Smarte Fenster senken ab jetzt den Energieverbrauch in schwedischen Büros

Annett Arnold Unternehmenskommunikation
Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP
Leichte, schaltbare und smarte Glastechnologien können das Energiemanagement von Gebäuden mit großflächigen Fenstern und Glasfassaden signifikant verbessern und zur Senkung des Energieverbrauches für Heizung oder Kühlung beitragen. Die Verbesserung der Verfügbarkeit und Kosteneffizienz solcher Gläser und dessen Fertigungsprozesse ist das Ziel des EU-geförderten Verbundprojektes Switch2Save. Die Projektpartner haben erste elektrochrome Isolierglaseinheiten zur Überprüfung des Einsparpotenzials in einem Bürogebäude installiert. Auf der Messe BAU, vom 17. – 22. April 2023, in München, am Fraunhofer Gemeinschaftsstand werden diese und weitere Lösungen für Fenster und Gebäudefassaden präsentiert.

Der Energieaustausch zwischen den Innenräumen von Gebäuden und der Umwelt wird stark durch Fenster und Glasfassaden beeinflusst. Sonneneinstrahlung kann so effektiv zur Unterstützung der Heizung genutzt werden. Ebenso ist die Verschattung zur Senkung der Kühlenergie im Gebäude von Bedeutung. Smarte Gläser, wie beispielsweise elektrochrome (EC) und thermochrome (TC) Fenster erlauben die Steuerung der Wärmestrahlung in das Gebäude per „Knopfdruck“ und ermöglichen es, den Heiz- und Klimatisierungs-Energiebedarf großer Gebäude drastisch zu reduzieren. Im Vergleich zu herkömmlichen Jalousien oder Sonnenschutzvorrichtungen bieten sie einen hohen Lichtkomfort im Innenbereich.

Elektrochromie basiert auf Materialien, die ihre Lichtdurchlässigkeit im sichtbaren und infraroten Bereich durch Anlegen einer elektrischen Spannung ändern, während Thermochromie auf Materialien basiert, die ihre Infrarot-Reflexionseigenschaften mit steigender Temperatur ändern.

Im EU-geförderten Projekt Switch2Save arbeiten Universitäten, Forschungseinrichtungen und Industriepartner zusammen. Ihr Ziel ist es, leichte und energieeffiziente Isolierglaseinheiten mit EC- und TC-Systeme zu realisieren. Dazu werden die Fertigungstechnologien weiterentwickelt, um große Fenster und Glasfassaden auszustatten. Dadurch soll auch eine höhere Verfügbarkeit und Kosteneffizienz geschaffen werden.

Seit dem Projektstart 2019 ist viel geschehen. Inzwischen wurden Prototypen von neuartigen schaltbaren Fenstern entwickelt. Projektkoordinator Dr. Matthias Fahland vom Fraunhofer FEP erklärt dazu: „Diese Fenster können in bestehenden Gebäuden nachgerüstet werden und so die Energieeffizienz von Heizungs- und Klimaanlagen unterstützen. Die neue Lösung zeichnet sich dadurch aus, dass sie verschiedene Arten von optisch variablen intelligenten Beschichtungen in eine Gebäudehülle integrieren kann.“

Die Partner Chromogenics AB aus Schweden und das Fraunhofer-Institut für Silicatforschung ISC haben dafür neuartige elektrochrome Beschichtungen entwickelt. Diese ermöglichen es, ein Fenster zwischen einem dunklen und einem klaren Zustand umzuschalten.

Das Fraunhofer FEP und die Westböhmische Universität Pilsen haben einen Rolle-zu-Rolle-Abscheidungsprozess für thermochromes Vanadiumoxid realisiert. Dieses Material führt zu einer autarken Regulierung der durchgelassenen Wärmestrahlung in Abhängigkeit von der Außentemperatur. Die Nutzung der Rolle-zu-Rolle-Technologie unterstützt außerdem die Entwicklung einer kosteneffizienten Fertigung.

Beide Arten dieser intelligenten Beschichtungen sind auf leichten, flexiblen Substraten wie zum Beispiel ultradünnem Glas und PET-Folien herstellbar.

Im Projekt wurden zwei Gebäude mit unterschiedlichen klimatischen Bedingungen in Griechenland und in Schweden ausgewählt, die mit 50 Fenstern und 200 m² Glasfassadenfläche ausgestattet werden sollen. An diesen soll das Energieeinsparpotenzial der neuen Lösungen real eruiert und überwacht werden.

Nach drei Jahren Entwicklungsarbeit sind die Projektpartner hochzufrieden, dass diese entstandenen Glaslösungen Ende 2022 installiert werden konnten. Das ausgewählte Bürogebäude in Uppsala (Schweden) schmücken seit Kurzem die neuen Isolierglaseinheiten und es wird ein „Vorher-Nachher“-Vergleich des Energiebedarfs für einen gesamten Jahreszyklus durchgeführt.

Im nächsten Schritt wollen die Forscher die Technologien weiter aufskalieren. Außerdem stehen Projekte mit größeren Demostandorten im Fokus. Während der Messe BAU, vom 17. – 22. April 2023, präsentieren die Forscher des Fraunhofer FEP am Fraunhofer-Gemeinschaftsstand Nr. 528 in Halle C2 in München ein schaltbares Glas sowie weitere Ergebnisse zu thermochromen und elektrochromen Beschichtungen sowie hydrophile Schichten für Gebäudelösungen aus den Projekten Switch2save, NewSkin (FKZ: 862100) und FLEX-G4.0 (03EN1048A).

Über das Projekt Switch2Save:
Lightweight switchable smart solutions for energy saving large windows and glass facades

Das Projekt wurde im Rahmen des Horizon 2020 Forschungs- und Innovationsprogramms der Europäischen Union gefördert.
Förderkennzeichen: 862100
Laufzeit: 01.10.2019 – 30.09.2023
www.switch2save.eu

Fraunhofer FEP auf der BAU 2023
17. – 22. April 2023
Messegelände München
Fraunhofer-Gemeinschaftsstand Nr. 528, Halle C2

Vortrag:
„Dünnschichttechnologien für die Energiewende“, Dr. Matthias Fahland
18. April 2022, 13:30 Uhr, Fraunhofer Gemeinschaftsstand

Pressekontakt:
Frau Annett Arnold
Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP
Telefon +49 351 2586 333 | presse@fep.fraunhofer.de
Winterbergstraße 28 | 01277 Dresden | Deutschland | www.fep.fraunhofer.de

Weitere Informationen:
https://s.fhg.de/Ki6

(nach oben)


Konkurrenz unter Bakterien sorgt für Wohlergehen von Pflanzen

Dr. Mia von Scheven Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Pflanzenzüchtungsforschung
Forschende des Max-Planck-Instituts für Pflanzenzüchtungsforschung in Köln haben in Zusammenarbeit mit einem internationalen Forscherteam natürliche chemische Strategien identifiziert, die Bakterien nutzen, um Konkurrenten fernzuhalten und sich erfolgreich auf Pflanzen zu vermehren. Die Studie wurde jetzt in der Zeitschrift PNAS veröffentlicht.

In den letzten Jahren ist die Mikrobiota – eine Gemeinschaft von Mikroorganismen, die hauptsächlich aus Bakterien und Pilzen besteht und in allen eukaryontischen Organismen, einschließlich Menschen, Tieren und Pflanzen, zu finden ist – aufgrund ihres Beitrags zur Gesundheit und zum Wachstum ihrer Wirte in den Fokus gerückt.

Insbesondere die Wurzelmikrobiota von Pflanzen ist nachweislich wichtig für die Mineralienversorgung der Pflanzen, den Schutz vor Pflanzenpathogenen und die Toleranz gegenüber abiotischen Stressfaktoren wie Trockenheit.

Die Mechanismen zu kennen, die der Etablierung dieser mikrobiellen Gemeinschaften zugrunde liegen, ist der Schlüssel für kontrollierte Eingriffe in die Mikrobiota, um ihre nützlichen Leistungen für den Pflanzenwirt zu verbessern. Forschende haben Pflanzen- und Umweltsignale identifiziert, die die Ansiedlung der Mikrobiota an den Wurzeln beeinflussen, aber die Bedeutung der Mikroben-Mikroben-Konkurrenz in diesem Prozess ist nach wie vor nicht klar.

Bereits 1928 berichtete Alexander Flemming über die Hemmung zwischen zwei Mikroorganismen unter Laborbedingungen, verursacht durch Antibiotika. Die Identifizierung des Penicillins führte zu bahnbrechende Erfolgen in der modernen Medizin. In ähnlicher Weise ist die Produktion von Molekülen mit hemmender Wirkung bei einigen bodenbewohnenden und wurzelassoziierten Mikroorganismen bekannt, um mikrobielle Pflanzenpathogene in Schach zu halten.

In dieser Studie verwendeten die Wissenschaftler:innen eine große Sammlung von Bakterien, die aus den Wurzeln der Ackerschmalwand (Arabidopsis thaliana) isoliert wurden, und untersuchten deren Fähigkeit, Moleküle mit hemmender Wirkung zu produzieren. Dies führte zur Identifizierung eines Bakteriums namens Pseudomonas brassicacearum, das eine ungewöhnlich hohe hemmende Aktivität auf viele andere Bakterien in der Wurzelmikrobiota ausübte.

Die Forschenden fanden heraus, dass diese Aktivität weitgehend durch zwei Moleküle vermittelt wird, die zusammenwirken, um die mikrobiellen Konkurrenten in Schach zu halten. Das erste Molekül ist ein antimikrobieller Wirkstoff namens 2,4-Diacetylphloroglucinol, während das zweite Molekül den essenziellen Mikronährstoff Eisen abfängt und ihn so seinen bakteriellen Konkurrenten stiehlt.

Das Team verwendete dann P. brassicacearum-Mutanten, die so konstruiert wurden, dass sie die Produktion der beiden Moleküle blockieren, und testeten, ob sie für die Wurzelbesiedlung in Gegenwart von bakteriellen Konkurrenten relevant sind.

Um diese Hypothese zu testen, besiedelten sie Wurzeln von keimfreier Ackerschmalwand mit einer vereinfachten Bakteriengemeinschaft in Gegenwart von P. brassicacearum-Mutanten oder dem Wildtyp-Stamm. Das internationale Team konnte zeigen, dass diese beiden natürlichen Chemikalien – die von einem einzigen Bakterium produziert werden – nicht nur die strukturelle Organisation der Wurzelmikrobiota beeinflussen, sondern P. brassicacearum auch einen Vorteil bei der Besiedlung und Dominanz der Wurzel verschaffen.

Die Arbeit unterstreicht die Bedeutung der chemischen Abwehr zwischen Bakterien für eine erfolgreiche Besiedlung des Wirts. Diese Ergebnisse haben Auswirkungen auf die Entwicklung von Biologika in der Landwirtschaft, da sie eine Vorhersage der unter vereinfachten Laborumgebung beobachteten hemmenden Aktivitäten, auf die Anwendung im Feld erlauben.

Dies ist ein weiterer Baustein auf dem Weg zur Entwicklung nachhaltigerer Pflanzenschutztechnologien und zum Verständnis der inneren Funktionsweise der pflanzlichen Mikrobiota.

„Es ist erstaunlich, wie die Chemie natürlicher Verbindungen von Mikroben in der Natur genutzt wird, um mikrobielle Gemeinschaften zu bilden, die ihren Pflanzenwirten nützliche Dienste erweisen“, sagt Paul Schulze-Lefert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Paul Schulze-Lefert
email: schlef@mpipz.mpg.de
Tel: +49 221 5062-350

Originalpublikation:
https://doi.org/10.1073/pnas.2221508120

(nach oben)


Cyber-Sicherheit – Partnerschaft zwischen ODAV AG und TC Vilshofen

Dr. Jörg Kunz Presse- und Öffentlichkeitsarbeit
Technische Hochschule Deggendorf
Die ODAV AG aus Straubing ist mit dem neuen Technologie Campus der Technischen Hochschule Deggendorf (THD) in Vilshofen eine dreijährige Dienstleistungskooperation eingegangen. Das Ziel: Man will gegen die Vielzahl hochkomplexer Herausforderungen in den Bereichen Cyber-Security, Cyber-Strategie und Cyber-Resilienz gewappnet sein. Am 29. März war in Straubing die Kick-off Veranstaltung zu dieser Partnerschaft.

„Die Aufrechterhaltung der Cyber-Sicherheit stellt eine immer größer werdende Herausforderung dar“, erklärt Stefan Kappl, Leiter des Rechenzentrums der ODAV AG. Die Gefahr, Opfer eines Cyber-Angriffes zu werden, steige zunehmend. Aus diesem Grunde habe man entschieden, eine längerfristige, strategische Partnerschaft mit einem starken regionalen Partner im Bereich Cyber-Sicherheit einzugehen. Dieser Partner ist nun der TC Vilshofen, einer von inzwischen 13 Technologie Campi der THD.

Beim Kickoff am Firmensitz der ODAV in Straubing trafen sich Vertreter des TC sowie des Rechenzentrums und es wurden direkt Nägel mit Köpfen gemacht. Geplant ist zunächst ein umfangreiches Sicherheitsaudit, im Fachjargon Penetrationstest genannt. Dazu gehören auch zusätzliche Module wie etwa ein Passwort-Audit. Als Technologiepartner des Handwerks unterstützt die ODAV AG Handwerksbetriebe und deren Organisationen mit hochwertigen Software-Lösungen und IT-Dienstleistungen. Die Stärke der ODAV AG sind ihre Komplettlösungen: Von maßgeschneiderter Software über die Verarbeitung im Rechenzentrum bis hin zu Printlogistik und Versand begleitet sie von A bis Z alle wichtigen Geschäftsprozesse ihrer Kunden.

„Disruptive Technologien, gepaart mit der Vielfalt an Systemen und der Evolution der Netzwerkinfrastruktur des Traditionsunternehmens lassen aus unserer Sicht Platz für Verbesserungspotential zur Erreichung eines umfassenden Schutzes“, berichtet Prof. Dr. Michael Heigl von der THD. Deshalb hätten er und seine Kollegen vom TC Vilshofen sich bereits im Herbst 2022 mit Vertretern des ODAV-Rechenzentrums getroffen. In einem intensiven Workshop sein man sich der Möglichkeit und Notwendigkeit einer langfristigen Zusammenarbeit für Dienstleistungen im Bereich der Cyber-Security bewusst geworden. Heigl: „Dienstleistungen im Bereich der Cyber-Sicherheit sind oftmals kurzweilig und mit stark reduziertem Scope verbunden. Charme dieser nachhaltigen Kooperation ist es, gemeinsam einen ganzheitlichen Schutz zu etablieren. Von der Sicherheit einzelner Systeme, bis hin zum Umgang mit auftretenden Cyber-Angriffen.“ Prävention sei immer die beste Schutzmaßnahme.

„Die Partnerschaft ist ein wunderbares Beispiel dafür, was unsere Technologietransferzentren ausmacht. Beide Parteien profitieren gleichermaßen“, bestätigt THD-Präsident Prof. Dr. Peter Sperber. Von dem Erfolg der Kooperation sei er überzeugt. Auch der Wissenszuwachs aus der Praxis stelle für die Hochschule einen nachhaltigen Gewinn dar. Zum Beispiel für die Sparte der Weiterbildung am Campus. Auch die ODAV AG möchte in Zukunft im Bereich der Cyber-Sicherheit forschen. Ein Projekt in der Beantragungsphase des TCV ist hier die so genannte Cyber-Deception. Das ist die Früherkennung von Hacker-Angriffen, die versucht, Angreifer gezielt zu täuschen und in eine falsche Richtung zu steuern. So könne man Informationen über die Angreifer und ihr Vorgehen sammeln und daraus weitere Schritte der Verteidigung ableiten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Heigl
Künstliche Intelligenz für Cybersicherheit
Institut ProtectIT
michael.heigl@th-deg.de

(nach oben)


Alternativer Zuckerabbau sichert das Überleben von Krebszellen

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Ein wichtiges Schlüsselenzym des Zuckerstoffwechsels wird besonders leicht und effizient durch oxidativen Stress inaktiviert. Wissenschaftlerinnen und Wissenschaftler im Deutschen Krebsforschungszentrum zeigten nun: Mit dieser Oxidation schalten die Zellen auf einen alternativen Zuckerabbauweg um und können dadurch dem oxidativen Stress entgehen. Insbesondere Krebszellen profitieren von diesem Mechanismus, der sie auch vor therapiebedingten Schäden schützen kann.

Eines der zentralen Enzyme beim Zuckerabbau, die GAPDH (Glycerinaldehyd-3-phosphat-Dehydrogenase), hat eine besondere Eigenschaft: Es wird ungewöhnlich schnell und effizient durch Wasserstoffperoxid oxidiert und dabei inaktiviert. Dadurch kommt der energieliefernde Glukoseabbau in den Zellen zum Erliegen.

„An Hefezellen haben wir bereits gezeigt, dass die oxidative Inaktivierung der GAPDH den Zuckerabbau auf einen anderen Stoffwechselweg umlenkt, der dafür sorgt, dass die Hefen oxidative Stress besser tolerieren können. Ob das auch für Säugetierzellen gilt, konnten wir nun untersuchen“, sagt Tobias Dick vom Deutschen Krebsforschungszentrum.

Als Voraussetzung für die Funktionsanalyse nutzten die Forscher um Dick eine GAPDH-Mutante, die oxidations-resistent ist, aber ansonsten ihrer Funktion im Zuckerabbau ganz normal nachkommt. Mithilfe der Genschere CRISPR-Cas tauschten sie die normale GAPDH gegen die oxidations-resistente Mutante aus, sowohl in Zelllinien als auch in Mäusen.

Mithilfe dieses Ansatzes zeigte das Team, dass die Oxidation der GAPDH auch Säugetierzellen erlaubt, vom energieliefernden Zuckerabbau auf den so genannten Pentosephosphat-Weg umzuschalten. Dieser Abbauweg liefert der Zelle zwar keine Energie, dafür aber das reduzierende Molekül NADPH, mit dem schädliche Oxidantien neutralisiert werden können.

Gerade Tumorzellen sind in vielen Phasen ihrer Entwicklung erhöhtem oxidativen Stress ausgesetzt. Das gilt beispielsweise dann, wenn die Nährstoffversorgung im Tumor schwankt, oder wenn sich einzelne Zellen von der Tumormasse ablösen und in die Blutbahn eindringen. Wie kommen Krebszellen mit einer oxidations-resistenten GAPDH zurecht? Auf Mäuse transplantierte GAPDH-mutierte Krebszellen wuchsen deutlich langsamer zu Tumoren heran als Krebszellen mit normaler GAPDH. Die mutierten Krebszellen zeigten erhöhten oxidativen Stress und starben häufiger. Dies lag tatsächlich an ihrer Unfähigkeit, den Pentosephosphat-Weg zu aktivieren, wie eine Messung der Stoffwechselprodukte im Tumor zeigte.

Als das Team die tumortragenden Mäuse mit Chemo- und Strahlentherapie behandelte, was die oxidative Belastung der Tumorzellen noch zusätzlich erhöht, ergab sich wie erwartet ein synergistischer Effekt, d.h. die Therapie wirkte deutlich stärker auf GAPDH-mutierte Krebszellen.

„Oxidativer Stress ist eines der wichtigsten Hindernisse, die der Vermehrung und Ausbreitung von Tumorzellen im Körper entgegenstehen. Krebszellen sind daher ganz besonders auf Strategien angewiesen, um diese Situation bewältigen zu können“, erklärt Tobias Dick. “Eine dieser Strategien ist offenbar die Oxidation der GAPDH, die den Pentosephosphat-Weg ankurbelt und so die Zellen mit NADPH vor oxidativen Schäden schützt. Mit diesem schnell wirkenden Oxidationsschutz erkaufen sich Krebszellen möglicherweise wertvolle Zeit, bis andere, langsamere Anpassungsmechanismen greifen.“

Deepti Talwar, Colin G. Miller, Justus Grossman, Lukasz Szyrwiel, Torsten Schwecke, Vadim Demichev, Ana-Matea Mikecin-Drazic, Anand Mayakonda, Pavlo Lutsik, Carmen Veith, Michael D. Milsom, Karin Müller-Decker, Michael Mülleder, Markus Ralser & Tobias P. Dick: The GAPDH redox switch safeguards reductive capacity and enables survival of stressed tumour cells.
Nature Metabolism 2023, DOI: 10.1038/s42255-023-00781-3

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Originalpublikation:
Deepti Talwar, Colin G. Miller, Justus Grossman, Lukasz Szyrwiel, Torsten Schwecke, Vadim Demichev, Ana-Matea Mikecin-Drazic, Anand Mayakonda, Pavlo Lutsik, Carmen Veith, Michael D. Milsom, Karin Müller-Decker, Michael Mülleder, Markus Ralser & Tobias P. Dick: The GAPDH redox switch safeguards reductive capacity and enables survival of stressed tumour cells.
Nature Metabolism 2023, DOI: 10.1038/s42255-023-00781-3

(nach oben)


Kreislaufwirtschaft: Verbundprojekt will Recyclingrate von Lithium-Ionen-Batterien erhöhen

Nicole Gierig Pressestelle
Technische Universität Dresden
Der Chemiker Prof. Jan J. Weigand und sein Team an der TU Dresden arbeiten in einem Verbundprojekt an der Verbesserung des ökologischen Fußabdrucks von Lithium-Ionen-Batterien (LIBs). Das von der Firma Elyte Innovations GmbH geleitete Projekt trägt den Namen „SWELL – Stoffliche Wiederverwertung von Elektrolyt-Leitsalzen und-Lösungsmitteln “ und wird vom Bundesministerium für Wirtschaft und Klimaschutz gefördert. Im Gegensatz zu den meisten bisherigen Forschungsansätzen fokussiert sich das Projekt dabei nicht auf das Recycling der Metalle, sondern auf die Rückgewinnung der nichtmetallischen Komponenten, darunter Lithiumsalze, Lösungsmittel und Elektrolytadditive.

Elektromobilität ist ein entscheidender Baustein für die Energiewende. Die meisten Elektrofahrzeuge verwenden heute Lithium-Ionen-Batterien als Hauptenergiespeicher, denn diese sind aufgrund ihrer hohen Energie- und Leistungsdichte extrem vielseitig einsetzbar. Durch die erhöhte Nachfrage in der Batterieproduktion in den vergangenen Jahren stieg auch der Rohstoffbedarf für Lithium, Cobalt und andere Metalle enorm. Die aufwendige Gewinnung dieser Stoffe birgt zahlreiche ökologische Risiken. Effektives Recycling der gebrauchten Batterien stellt daher einen wichtigen Nachhaltigkeitsfaktor dieser Technologie dar.

Während sich bisher etablierte Recyclingprozesse überwiegend auf die Rückgewinnung der in LIBs befindlichen Metalle fokussieren, befasst sich das Verbundprojekt „SWELL“ erstmals mit der Rückgewinnung der nichtmetallischen Komponenten, also der Elektrolyte, bestehend aus Lithiumsalzen, Lösungsmitteln und Elektrolytadditiven. „Die Elektrolyte gehen in bisherigen Prozessen größtenteils in Form von thermischer Verwertung oder Downcycling verloren. Die Elektrolytkomponenten weisen jedoch einen signifikanten Materialwert auf und enthalten zudem kritische, umweltrelevante Ressourcen, wie Lithium, Fluor und Phosphor. Ihre Rückgewinnung und effiziente Aufarbeitung mit dem Ziel einer direkten Wiederverwendung in LIBs ist daher von großem Interesse und kann zur signifikanten Steigerung der Nachhaltigkeit der Batteriezellfertigung führen“, erläutert Projektmitarbeiter Dr. Kai Schwedtmann von der Professur für Anorganische Molekülchemie der TU Dresden.

Um die stofflichen Rückgewinnungsraten während des Recyclings von LIBs zu steigern, arbeitet das Team um Prof. Jan J. Weigand an effizienten Trennmethoden von flüssigen und festen Elektrolytkomponenten. „Mit der Entwicklung und Evaluierung eines solchen Verfahrens wollen wir den Zugang zu Batteriematerialien in Europa verbessern und den ökologischen Fußabdruck von LIBs senken. Wir können diese Ziele erreichen, in dem wir zukünftig sekundäre Wertstoffe aus kosteneffizienten Prozessen bereitstellen und dadurch Abhängigkeiten entlang der Batterie-Wertschöpfungskette von nicht-europäischen Zulieferern reduzieren“, bekräftigt TUD-Projektleiter Jan J. Weigand das Vorhaben.

Das Projekt wird vom Projektträger Jülich getragen und vom Bundesministerium für Wirtschaft und Klimaschutz gefördert. Unter der Leitung der Firma Elyte Innovations GmbH gehören die TU Dresden und die Fuchs Schmierstoffe GmbH zum Konsortium.

Wissenschaftliche Ansprechpartner:
Prof. Jan J. Weigand
Professur für Anorganische Molekülchemie
TU Dresden
Tel.: +49 351 463-42800
Email: jan.weigand@tu-dresden.de

Weitere Informationen:
https://tu-dresden.de/mn/chemie/ac/ac3/kooperation/swell Projektseite

(nach oben)


Sicherheit und Gesundheit in Unternehmen fördern

Marie-Luise Unteutsch Presse- und Öffentlichkeitsarbeit
SRH Hochschule für Gesundheit
SRH Hochschule für Gesundheit lädt am 27. April 2023 zu einem Online Health and Study Talk mit Absolvent:innen des Master-Studiengangs Arbeits- und Organisationspsychologie ein.

„Mit unserem innovativen Master-Studiengang Arbeits- und Organisationspsychologie möchten wir Unternehmen dabei unterstützen, sichere und gesunde Arbeit für die Beschäftigten anzubieten. Wir befähigen unsere Studierenden, in den Bereichen Arbeitssicherheit und betriebliche Gesundheit verschiedene psychologische Tätigkeiten inhaltlich und gesetzlich umzusetzen und damit gesunde Arbeit zu fördern“, erläutert Prof. Dr. Sabine Rehmer, Studiengangsleiterin im Master-Studiengang Arbeits- und Organisationspsychologie an der SRH Hochschule für Gesundheit.

Um Interessierten einen Einblick in das Studium und die anschließenden Karrieremöglichkeiten zu geben, lädt die SRH Hochschule für Gesundheit anlässlich des Welttages für Sicherheit und Gesundheit am Arbeitsplatz, der jährlich am 28. April begangen wird, bereits am 27. April zu einem Online Health and Study Talk mit Absolvent:innen des Studiengangs ein. Unter dem Thema „Wie fördern Arbeits- und Organisationspsycholog:innen die Sicherheit und Gesundheit in Unternehmen?“ werden diese mit Prof. Dr. Sabine Rehmer über ihre Erfahrungen nach dem Studium sprechen. Die Absolvent:innen stellen ihre beruflichen Tätigkeiten vor und zeigen auf, wie sie zur Förderung von Sicherheit und Gesundheit in Unternehmen beitragen.

Der Master-Studiengang mit dem Schwerpunkt Sicherheit und Gesundheit in der Arbeitswelt bereitet die Studierenden in vier Semestern auf die vielfältigen Karrieremöglichkeiten in den Bereichen Personal, Organisation, Arbeitssicherheit und betriebliches Gesundheitsmanagement vor. Dabei findet das Studium in einer für die Hochschule typischen Blockstruktur statt, wodurch es sich optimal mit dem Beruf und privaten Anforderungen vereinbaren lässt. Zudem kann Gelerntes auf diese Weise direkt in der Praxis angewendet werden.

Eine Besonderheit ist auch, dass Studierende keinen Bachelor-Abschluss in Psychologie mitbringen müssen, der Abschluss kann auch in anderen Studienrichtungen wie z. B. Betriebswirtschaftslehre, Erziehungswissenschaft oder Sportwissenschaft erfolgt sein. In das Studium sind dann ohne zusätzliche Kosten weitere Abschlüsse integriert: die Ausbildung zur Fachkraft für Arbeitssicherheit, zum/zur psychologischen Ersthelfer:in sowie ein Zertifikat als Stressmanagementtrainer:in.

Interessierte können sich für die kostenfreie Online-Veranstaltung, die am 27. April 2023 ab 17 Uhr stattfindet, hier unverbindlich anmelden: https://eveeno.com/819645592

Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/sabine-…

(nach oben)


Sensible Unternehmensdaten schützen und gleichzeitig besser nutzbar machen

Julia Hallebach Press & Public Relations
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Fraunhofer IDMT präsentiert Software-Prototyp für datenschutzkonforme SIEM-Analyse auf der Hannover Messe 2023

Forschende des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Ilmenau entwickeln im Rahmen des öffentlich geförderten Projekts DA3KMU eine Software, mit der kleine und mittlere Unternehmen (KMU) ihre gespeicherten Daten datenschutzkonform aufbereiten und für weitere Nutzungsszenarien einsetzen können. Ein mögliches Einsatzgebiet der Lösung ist die Anonymisierung bzw. Pseudonymisierung von Logdaten für sogenannte SIEM (Security Information & Event Management) Systeme. Der Prototyp der Software wird erstmals auf der Hannover Messe 2023 vorgestellt.

Herausforderungen für KMU bei der Analyse von IT-Sicherheitsvorfällen
Auf der Hannover Messe vom 17. bis 21. April 2023 demonstriert das Fraunhofer IDMT am Messestand des Industrial Security Circus (Halle 16, Stand D04/33) einen exemplarischen Anwendungsfall. Mit Hilfe der DA3KMU-Software können KMU ihre Logdaten zur Prüfung von Sicherheitsvorfällen datenschutzkonform an Externe übertragen oder für Analysezwecke im Unternehmen dauerhaft speichern.

Zum Hintergrund: Viele KMU nutzen kleine IT-Infrastrukturen mit mehreren Servern, Netzwerkrechnern und verschiedenen Wireless Access Points, um Geräte in einem drahtlosen Netzwerk zu verbinden. Sie sammeln Meldungen und Log-Daten von unterschiedlichen Geräten, Komponenten und Anwendungen innerhalb ihres Firmennetzes mit sogenannte SIEM-Systemen. Die so gesammelten Informationen geben beispielsweise Aufschluss darüber, auf welche Weise bestimmte Dateien angefordert werden, wer sie angefordert hat oder woher Dateien stammen. Diese Informationen liefern wichtige Hinweise zur Erkennung möglicher Hackerangriffe und anderer Sicherheitsvorfälle auf ihre IT-Infrastruktur.

KMU beauftragen für entsprechende Analysen bei einem Sicherheitsvorfall gerne externe Unternehmen, die über die erforderliche Expertise verfügen. Dafür ist eine Übertragung der Logdaten erforderlich, aber aufgrund von Datenschutzregelungen und Unternehmensinteressen ist dies sehr problematisch, da die Daten Personenbezüge oder sensible Geschäftsprozessinformation enthalten können. Ähnlich verhält es sich auch, wenn KMU die Logdaten für spätere Analysen selbst dauerhaft speichern möchten: Eine Langzeitspeicherung ist nach der geltenden Datenschutz-Grundverordnung nicht erlaubt, wenn personenbezogene Daten betroffen sind.

DA3KMU-Software für adaptive Datenanonymisierung
Die genannten Probleme für KMU können mit der DA3KMU-Software adressiert werden. Ziel des Projekts DA3KMU ist die Entwicklung einer Open-Source Softwarelösung für KMU, mit deren Hilfe Daten maßgeschneidert anonymisiert werden können. Das bedeutet, dass die Anonymisierungsverfahren einerseits die Eigenschaften der zugrundeliegenden Daten berücksichtigen, andererseits aber auch die Notwendigkeiten der anschließenden Analyse. So lassen sich Daten für ausgewählte Anwendungsfälle so generalisieren und anonymisieren, dass eine unbeabsichtigte Preisgabe sensibler Informationen vermieden wird, die Daten für Analysezwecke aber trotzdem weitgehend nutzbar bleiben.

Im Fall der SIEM-Analyse können mit Hilfe der Software Logdaten so aufbereitet werden, dass sie für die Analyse von Sicherheitsvorfällen an Externe weitergegeben oder auch dauerhaft gespeichert werden.

DA3KMU steht für »Datenschutz durch statistische Analyse und Adaptive Anonymisierung von personenbezogenen Daten für KMU« und ist ein Projekt, das vom Bundesministerium für Wirtschaft und Klimaschutz BMWK im Rahmen der Initiativen IT-Sicherheit in der Wirtschaft gefördert und durchgeführt wird. Die Projektleitung und -durchführung liegt beim Fraunhofer IDMT, die Unternehmen Psoido GmbH und EurA AG unterstützen das Projekt im Unterauftrag. Darüber hinaus sind weitere assoziierte Partner im Projekt beteiligt, die sich mit ihren Anforderungen einbringen und die Software testen.

Besuchen Sie uns vom 17. bis 21. April 2023 auf dem Messestand des Industrial Security Circus in Halle 16, Stand C04/34 und informieren Sie sich zu den aktuellen Entwicklungsschritten zur Anonymisierung von personenbezogenen Daten für kleine und mittlere Unternehmen. Erleben Sie weitere Angebote des Netzwerks Mittelstand-Digital zum Thema IT-Sicherheit auf dem Messestand.

Mittelstand Digital Netzwerk
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren, der Initiative IT-Sicherheit in der Wirtschaft und Digital Jetzt umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ermöglicht die kostenfreie Nutzung und stellt finanzielle Zuschüsse bereit. Weitere Informationen finden Sie unter www.it-sicherheit-in-der-wirtschaft.de

Wissenschaftliche Ansprechpartner:
Patrick Aichroth, Telefon +49 3677 467-121, patrick.aichroth@idmt.fraunhofer.de

Weitere Informationen:
https://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2023/DA3KMU-han… – Pressemitteilung des Fraunhofer IDMT
https://www.da3kmu.de/ – Projektwebseite DA3KMU

Anhang
Schaubild: Datenschutzkonforme SIEM-Analyse mit DA3KMU

(nach oben)


Deutschland verlor in den letzten zwei Jahrzehnten durchschnittlich 760 Millionen Tonnen Wasser pro Jahr

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Sehr viel Wasser ging verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen.
Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun mit Kolleg:innen die Jahre 2002-2022 genauer untersucht. Fazit: Im Schnitt hat Deutschland pro Jahr 760 Mio Tonnen Wasser verloren – durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie nutzt Daten der Satellitenmissionen GRACE und GRACE-Follow On und ist der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung“ erschienen.

Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Es ging sehr viel Wasser verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen. Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun gemeinsam mit Forschenden der Universität Bonn und des Forschungszentrums Jülich die Jahre von 2002 bis 2022 genauer untersucht.

Ihr Fazit: Im Durchschnitt hat Deutschland jedes Jahr 760 Millionen Tonnen (0,76 Kubikkilometer) Wasser verloren – sei es durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie beruht in erster Linie auf Daten der Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv).

Das Besondere dieser Studie ist, dass die Forschenden vier verschiedene Auswertemethoden verglichen haben und damit zu einem deutlich geringeren Wasserverlust kamen als andere Auswertungen der Satellitendaten, die lediglich auf einer einzigen Methode beruhten. Der gesamte Wasserspeicher (auf Englisch Terrestrial Water Storage, TWS) hat demnach in den zwei Jahrzehnten um zusammengerechnet 15,2 Kubikkilometer abgenommen. Zum Vergleich: Der Wasserverbrauch aller Sektoren – Industrie, Landwirtschaft, Privathaushalte – in Deutschland beträgt rund 20 Kubikkilometer pro Jahr. Um verlässlich einen Trend abschätzen zu können, sei der Zeitraum jedoch zu kurz und zu stark von verschiedenen Extremen geprägt, schreiben die Forschenden in der April-Ausgabe der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung (HyWa)“.

Hintergrund: Bestimmung von Schwerefeld und Wassermassen der Erde aus Satellitendaten
Die Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv) sind einzigartig. Die Satelliten-Tandems vermessen die Erdanziehungskraft, das so genannte Schwerefeld, und dessen Änderungen global auf Monatsbasis. Aus diesen Schwerefelddaten lassen sich Massenverlagerungen erkennen, die wiederum Rückschlüsse auf Veränderungen im Wasserkreislauf erlauben, also beispielsweise das Abschmelzen von Gletschern oder das Entleeren von Grundwasserspeichern. Erstmals ist es damit zum Beispiel gelungen, den Eismassenverluste Grönlands und der Antarktis zu quantifizieren. Der große Vorteil dieser Art von Messung: Sie erfasst auch Grundwasserleiter, die tief unter der Erdoberfläche verborgen sind. Der Nachteil: Die räumliche Auflösung der Schwerefelddaten ist vergleichsweise grob: rund 300 mal 300 Kilometer. Verlässliche Aussagen lassen sich daher nur für Gebiete von rund 100.000 Quadratkilometern Größe treffen, das entspricht etwa der Fläche der ehemaligen DDR.

Neue Analyse verschiedener Datenreihen für Deutschland (2002-2022)
Ein Team von Forschenden unter der Leitung von Andreas Güntner vom Deutschen GeoForschungsZentrum GFZ hat jetzt erstmals für Deutschland einen detaillierten Überblick über die von den Satelliten gemessenen Änderungen des Gesamtwasserspeichers der letzten zwanzig Jahre veröffentlicht. Beteiligt waren Kolleg:innen mehrerer GFZ-Sektionen sowie Forschende aus dem Institut für Geodäsie und Geoinformation der Universität Bonn und aus dem Forschungszentrum Jülich.

Unterschiede in der Auswertung der Daten
Für die Auswertung der Daten – sowohl was die Bestimmung des Schwerefeldes betrifft als auch daraus abgeleitet die Bestimmung der gespeicherten Wassermassen – muss eine ganze Reihe von störenden Effekten herausgerechnet werden. So sind die 300 mal 300 Kilometer messenden Datenflächen naturgemäß nicht scharf abgegrenzt, denn der Einfluss der Schwerkraft auf die Satelliten lässt sich nicht auf klar definierte Segmente der Erde zurückführen wie etwa bei einem Satellitenbild. Das zeigt sich etwa darin, dass der Schwerefeldeffekt abschmelzender Alpengletscher auch die Messungen für die Wasservorkommen im Alpenvorland überlagert (der Effekt wird „Leakage“ genannt): Wenn die Gletschermassen schwinden, sieht es für die Satelliten so aus, als ob auch weiter entfernte Wassermassen verschwunden seien. Außerdem ändert sich das Schwerefeld der Erde auch, ohne dass sich akut Wassermassen verändern. Ein solcher Effekt ist beispielsweise, dass sich in manchen Regionen nach dem Verschwinden der eiszeitlichen Gletscher heute noch die Erdkruste hebt.

Je nach Prozessierungsmethoden und korrigierenden Faktoren ergeben sich leicht unterschiedliche Werte für das Schwerefeld und dessen Variationen. Die Forschenden nutzten für ihre Studie vier Datenreihen: die GFZ-eigene, eine aus mehreren Datenreihen berechnete Kombinationslösung der Uni Bern (COST-G genannt), eine der Universitäten Graz und Bonn (ITSG/UB) und eine vom Jet Propulsion Laboratory der NASA (JPL Mascons). Zusätzlich nutzten sie Niederschlagsdaten und Computermodelle des FZ Jülich, die die Veränderung des Gesamtwasserspeichers simulierten.

Ergebnisse im Vergleich
Über weite Teile des Beobachtungszeitraums, insbesondere in den Jahren zwischen 2004 und 2015, stimmen die Ergebnisse aller vier Datensätze für die Schwerefeldänderungen gut überein. Unterschiede gab es vor allem zu Beginn und am Ende der Zeitreihen. Das Jahr 2002 war von extremen Niederschlägen insbesondere in Süd- und Ostdeutschland geprägt. Die verheerenden Hochwasser an der Donau und der Elbe ereigneten sich im August 2002. Und am Ende des Untersuchungszeitraums stehen die trockenen Jahre seit 2018. In beiden Extremfällen zeigte vor allem die NASA-JPL-Datenreihe größere Ausschläge nach oben und unten. Auch die jahreszeitlichen Unterschiede zwischen dem Maximum der Wasserspeicherung im Winter und dem Minimum im Sommer fallen bei der NASA-JPL-Reihe am stärksten aus.

Vorsicht bei der Interpretation geboten
Die Forschenden mahnen daher zu Vorsicht bei der Interpretation von Auswertungen, die lediglich auf einer Datenreihe beruhen, und weisen insbesondere auf besondere Empfindlichkeit für Flut- oder Dürre-Extreme bei der NASA-JPL-Mascons-Reihe hin. Sie vermuten die Ursache in unterschiedlichen Prozessierungsverfahren und bei der Korrektur des „Leakage“-Effekts.

Diskussion früherer Publikation: 0,76 versus 2,5 Kubikkilometer durchschnittlicher Wasserverlust pro Jahr in Deutschland
Es waren jedoch ausgerechnet diese Datenreihe und Schlussfolgerungen daraus, die im vergangenen Jahr zu einem großen Medienecho geführt hatten: Deutschlands Gesamtwasserspeicher verliere fast 2,5 Kubikkilometer Wasser pro Jahr, hatte es geheißen, besonders betroffen sei der Südwesten. Der Vergleich mit anderen Auswerteverfahren zeigt nun: Es sind vermutlich nur 0,76 Kubikkilometer, also knapp ein Drittel des über die JPL-Mascons-Reihe bezifferten Verlusts. Und besonders in der Nähe der Alpen müsse man den Schwerefeld-Effekt abschmelzender Gletscher (Leakage) zusätzlich in Betracht ziehen.

Schlussfolgerung und Notwendigkeit zur Verlängerung der Datenreihen
Trotz der niedrigeren Werte gibt der Leitautor der Studie, Andreas Güntner, zu bedenken: „Die Beobachtungen aus allen Datensätzen zeigen, dass ein Jahr mit höheren Niederschlägen wie 2021 nicht ausreicht, um die Defizite der Wasserspeicherung, die sich über den längeren Zeitraum angesammelt haben, wieder auszugleichen.“

Auch bei Prognosen raten die Forschenden zur Vorsicht. Mitautorin Helena Gerdener von der Universität Bonn mahnt: „Da es in den zwanzig Jahren der bisherigen Datenerhebung einige auffällige Extreme gegeben hat, ist eine Aussage zu einem langfristigen Trend nur schwer zu treffen.“

Umso wichtiger sei die Kontinuität der Messreihe, schreiben die Forschenden. Eine Fortsetzung der GRACE- und GRACE-FO-Missionen wird bereits geplant und soll 2028 ins All starten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Güntner
Arbeitsgruppenleitung in Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1559
E-Mail: andreas.guentner@gfz-potsdam.de

Originalpublikation:
Güntner, A., Gerdener, H., Boergens, E., Kusche, J., Kollet, S., Dobslaw, H., Hartick, C., Sharifi, E., Flechtner, F. (2023): Veränderungen der Wasserspeicherung in Deutschland seit 2002 aus Beobachtungen der Satellitengravimetrie. Hydrologie & Wasserbewirtschaftung, 67, (2), 74-89. DOI: 10.5675/HyWa_2023.2_1
https://www.hywa-online.de/?p=6089

(nach oben)


Kälte fördert gesundes Altern

Eva Schissler Kommunikation und Marketing
Universität zu Köln
Die Senkung der Körpertemperatur ist einer der wirksamsten Mechanismen zur Verlängerung der Lebenserwartung von Tieren. Nun hat eine Arbeitsgruppe des Alternsforschungs-Exzellenzclusters CECAD der Universität zu Köln herausgefunden, wie das funktionieren könnte. Die Forschenden zeigten, dass Kälte die typische Verklumpung von Proteinen bei zwei alterstypischen neurodegenerativen Erkrankungen verhindert / Veröffentlichung in „Nature Aging“

Kälte aktiviert einen zellulären Reinigungsmechanismus, der schadhafte, für verschiedene altersbedingte Erkrankungen verantwortliche Proteinaggregationen abbaut. Dass die Lebenserwartung deutlich steigt, wenn die Körpertemperatur abgesenkt wird, zeigten bereits in den vergangenen Jahren Untersuchungen an verschiedensten Modellorganismen. Wie das allerdings genau funktioniert, ist in vielen Bereichen noch weitgehend unklar. Ein Team des Alternsforschungs-Exzellenzclusters CECAD der Universität zu Köln entschlüsselte nun einen Mechanismus, der ein Erklärmodell dafür liefert. Die Studie ist unter dem Titel „Cold temperature extends longevity and prevents disease-related protein aggregation through PA28γ-induced proteasomes“ in der Fachzeitschrift Nature Aging erschienen.

Professor Dr. David Vilchez und seine Arbeitsgruppe nutzten dafür einen wirbellosen Modellorganismus, den Fadenwurm Caenorhabditis elegans, und kultivierten menschliche Zellen. Beide trugen die Gene für zwei neurodegenerative Erkrankungen in sich, die typischerweise im Alter auftreten: die Amyotrophe Lateralsklerose (ALS) und die Huntington-Krankheit. Beide Krankheitsbilder zeichnen sich durch Ansammlungen von schadhaften und schädlichen Eiweißablagerungen aus, die sogenannten pathologischen Proteinaggregationen. Kälte führte in beiden Modellorganismen dazu, dass die zur Verklumpung neigenden Proteine aktiv entfernt wurden und die für ALS und Huntington pathologische Proteinaggregation verhindert wurde.

Im Detail untersuchte das Team, ob Kälte die Proteasomaktivität beeinflusst. Dieser zelluläre Mechanismus beseitigt beschädigte Proteine in den Zellen. Die Untersuchungen zeigten, dass der Proteasomaktivator PA28γ/PSME3 die altersbedingten Defizite sowohl im Fadenwurms als auch in menschlichen Zellen abschwächt. In beiden Fällen war es möglich, die Proteasomaktivität durch eine moderate Temperaturabsenkung zu aktivieren. „Zusammengenommen zeigen die Ergebnisse eine evolutionär konservierte Wirkung von Kälte bei der Proteasomregulierung mit therapeutischen Ansatzpunkten für das Altern und altersbedingte Krankheiten“, sagt Professor Vilchez.

Das Altern ist ein Hauptrisikofaktor für verschiedene neurodegenerative Erkrankungen, die mit der Proteinaggregation verbunden sind, einschließlich Alzheimer, Parkinson, Huntington und ALS. Vilchez fügt hinzu: „Wir glauben, dass sich diese Ergebnisse auch auf weitere alterstypische neurodegenerative Erkrankungen übertragen lassen, wie auch auf andere Tierarten.“ Eine zentrale Erkenntnis der Forschenden ist es, dass sich die Aktivität des Proteasomaktivators auch durch genetische Überexpression erhöhen lasst. So können krankheitsverursachende Proteine selbst bei normaler Temperatur von 37 Grad Celsius eliminiert werden. Daraus ergeben sich mögliche Ansatzpunkte für therapeutische Eingriffe beim Altern und altersbedingten Erkrankungen.

Es ist seit langem bekannt, dass extrem niedrige Temperaturen zwar für den Organismus schädlich sein können, eine moderate Senkung der Körpertemperatur jedoch sehr positive Auswirkungen haben kann. So verlängert eine niedrigere Körpertemperatur die Langlebigkeit sowohl bei sogenannten wechselwarmen Tieren, deren Körpertemperatur mit der Umgebungstemperatur schwankt, also etwa bei Würmern, Fliegen oder Fischen. Aber dasselbe Phänomen tritt auch bei gleichwarmen Tieren wie Säugetieren auf, die ihre Körpertemperatur in einem engen Temperaturbereich halten können, egal wie kalt oder warm es in ihrer Umgebung ist. Zum Beispiel lebt der Fadenwurm viel länger, wenn er von der Standardtemperatur von 20 Grad Celsius auf eine kältere Temperatur von 15 Grad Celsius umgestellt wird. Und bei Mäusen verlängert eine leichte Abnahme der Körpertemperatur um lediglich 0,5 Grad Celsius ihre Lebensdauer erheblich. Das stützt die Annahme, dass die Temperatursenkung bei der Langlebigkeit eine zentrale Rolle im Tierreich spielt und ein sehr gut konservierter Mechanismus ist.

Selbst beim Menschen wird von einer Korrelation zwischen Körpertemperatur und Lebensdauer berichtet. Die normale menschliche Körpertemperatur liegt zwischen 36,5 und 37 Grad Celsius. Während ein akutes Absinken der Körpertemperatur unter 35 Grad Celsius zu Unterkühlung führt, schwankt die Körpertemperatur des Menschen tagsüber leicht und erreicht im Schlaf sogar kühle 36 Grad Celsius. Interessanterweise berichtete eine frühere Studie, dass die menschliche Körpertemperatur seit der industriellen Revolution kontinuierlich um 0,03 Grad Celsius pro Jahrzehnt gesunken ist, was auf einen möglichen Zusammenhang mit der fortschreitenden Zunahme der menschlichen Lebenserwartung in den letzten 160 Jahren hindeutet.

Die Studie wurde am Alternsforschungs-Exzellenzcluster CECAD der Universität zu Köln durchgeführt.

Wissenschaftliche Ansprechpartner:
Professor Dr. David Vilchez
CECAD Arbeitsgruppenleiter
+49 221 478 84172
dvilchez@uni-koeln.de

Originalpublikation:
Hyun Ju Lee, Hafiza Alirzayeva, Seda Koyuncu, Amirabbas Khodakarami, Alireza Noormohammadi, David Vilchez
Cold temperature extends longevity and prevents disease-related protein aggregation through PA28γ-induced proteasomes, Nature Aging, 3. April 2023

https://www.nature.com/articles/s43587-023-00383-4

(nach oben)


Am Ende der Trockenzeit: CO2-Pulse über Australien

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Am Ende der Trockenzeit kommt es über dem australischen Kontinent zu jährlich wiederkehrenden CO2-Pulsen in der Atmosphäre. Das hat ein internationales Forschungsteam unter der Leitung des Umweltphysikers Prof. Dr. André Butz von der Universität Heidelberg herausgefunden. Um die Kohlenstoffflüsse über Australien zu untersuchen, analysierten die Forscherinnen und Forscher atmosphärische CO2-Messungen. Ihre Analysen zeigen, dass besonders viel CO2 freigesetzt wird, wenn starke Regenfälle auf ausgetrocknete Böden treffen und dort Mikroorganismen aktiviert werden.

Heidelberger Umweltphysiker untersuchen trockene Regionen und ihren Einfluss auf Variationen des globalen Kohlenstoffkreislaufs

Am Ende der Trockenzeit kommt es über dem australischen Kontinent zu jährlich wiederkehrenden CO2-Pulsen in der Atmosphäre. Das hat ein internationales Forschungsteam unter der Leitung des Umweltphysikers Prof. Dr. André Butz von der Universität Heidelberg herausgefunden. Um die Kohlenstoffflüsse über Australien zu untersuchen, analysierten die Forscherinnen und Forscher atmosphärische CO2-Messungen. Ihre Analysen zeigen, dass besonders viel CO2 freigesetzt wird, wenn starke Regenfälle auf ausgetrocknete Böden treffen und dort Mikroorganismen aktiviert werden. Die Erkenntnisse deuten darauf hin, dass trockene Regionen einen größeren Einfluss auf die Variationen des globalen Kohlenstoffkreislaufs haben als bisher angenommen.

Der australische Kontinent wird von trockenen Ökosystemen und stark schwankenden Niederschlagsverhältnissen dominiert. Zumeist zum Ende der Trockenzeit – nach dem Einsetzen der ersten Regenfälle – kommt es über Australien zu einem sprunghaften Anstieg der CO2-Emissionen. „Auf lokaler Ebene ist dieser Effekt bekannt, er wurde aber noch nie auf kontinentaler Ebene beobachtet“, sagt Eva-Marie Metz, Doktorandin in der Arbeitsgruppe von Prof. Butz am Institut für Umweltphysik der Universität Heidelberg. Ausgewertet wurden nun Daten zu atmosphärischen CO2-Konzentrationen, die mit dem Greenhouse Gases Observing Satellite (GOSAT) gewonnen wurden. Mithilfe der Satellitendaten aus dem Zeitraum 2009 bis 2018 konnten die Wissenschaftlerinnen und Wissenschaftler aufdecken, dass das saisonale Muster der CO2-Konzentrationen über Australien viel dynamischer ist als bisher angenommen.

Welche Mechanismen zu diesen Variationen führen, wurde bislang aufgrund fehlender Bodenmessdaten nicht entschlüsselt. Das Forschungsteam speiste nun die GOSAT-Satellitendaten in ein atmosphärisches Inversionsmodell zur Schätzung von bodennahen CO2-Flüssen ein. Dabei wurde den Forscherinnen und Forschern klar, dass es einen unentdeckten Mechanismus der CO2-Abgabe in australischen Landökosystemen geben muss, so Dr. Sanam Vardag, die mit ihrer Gruppe ebenfalls am Institut für Umweltphysik der Universität Heidelberg forscht. Die weiteren Untersuchungen ergaben, dass die Konzentrationen an CO2 immer dann ansteigen, wenn trockene Böden durch starken Regenfall wieder durchfeuchtet werden. Dabei kommt es nach den Worten von Dr. Vardag zum sogenannten „Birch Effect“. Bodenmikroben, die bei Trockenheit inaktiv sind, werden durch die Feuchtigkeit reaktiviert und vermehren sich, wodurch der Boden „atmet“ und CO2 freisetzt. Da die pflanzliche Photosynthese erst später einsetzt und somit am Ende der Trockenzeit kein Kohlendioxid gebunden wird, kommt es zu dem sprunghaften saisonalen CO2-Anstieg, den das internationale Wissenschaftlerteam auf kontinentaler Ebene ausmachen konnte.

Mit ihren Untersuchungen haben die Wissenschaftlerinnen und Wissenschaftler eine Erklärung geliefert, wie die Schwankungen in den Kohlenstoffflüssen vom Land in die Atmosphäre zustande kommen. Diese Forschungsergebnisse sind nach den Worten von Prof. Butz deshalb bedeutsam, weil sie darauf hindeuten, dass trockene Regionen – wie sie in Australien vorherrschen – einen größeren Einfluss auf die Variationen des globalen Kohlenstoffkreislaufs haben als bisher angenommen. „Unsere Erkenntnisse, die sich zum ersten Mal auf einen gesamten Kontinent beziehen, können in Klimamodelle einfließen und so zu einem besseren Verständnis der globalen Klima-Kohlenstoff-Rückkopplungen beitragen“, erklärt der Heidelberger Wissenschaftler.

Die Forschungsergebnisse wurden in der Fachzeitschrift „Science“ veröffentlicht. An den Forschungsarbeiten waren neben den Heidelberger Umweltphysikerinnen und Umweltphysikern auch Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena und des Max-Planck-Instituts für Meteorologie in Hamburg sowie aus Australien, China, Frankreich, Großbritannien, Japan, Kanada und den USA beteiligt. Gefördert wurden die Forschungsarbeiten unter anderem von der Deutschen Forschungsgemeinschaft.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. André Butz
Institut für Umweltphysik
Telefon (06221) 54-6310
andre.butz@uni-heidelberg.de

Originalpublikation:
E.-M. Metz, S. N. Vardag, S. Basu, M. Jung, B. Ahrens, T. El-Madany, S. Sitch, V. K. Arora, P. R. Briggs, P. Friedlingstein, D. S. Goll, A. K. Jain, E. Kato, D. Lombardozzi, J. E. M. S. Nabel, B. Poulter, R. Séférian, H. Tian, A. Wiltshire, W. Yuan, X. Yue, S. Zaehle, N. M. Deutscher, D. W. T. Griffith, A. Butz: Soil respiration-driven CO2 pulses dominate Australia’s flux variability. Science (31 March 2023), doi: 10.1126/science.add7833

Weitere Informationen:
http://www.iup.uni-heidelberg.de/de/institut/forschung/groups/ghg/de – Website von André Butz
http://www.iup.uni-heidelberg.de/index.php/de/research/GHGSim – Website von Sanam Vardag

(nach oben)


Girls‘ Day 2023: Gründerin, Ingenieurin, Polizeikommissarin

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Zum Girls‘ Day am 27. April 2023 öffnet die Hochschule für Wirtschaft und Recht Berlin ihre Türen für künftige Ingenieurinnen, Polizeikommissarinnen und Unternehmerinnen.

Berlin, 31. März 2023 – Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) lädt zum bundesweiten Mädchen-Zukunftstag am 27. April 2023 Schülerinnen von der 7. bis zur 10. Klasse zu spannenden Workshops und einer Campustour ein.

Zwischen 9.00–15.00 Uhr stehen am Campus Lichtenberg (Alt-Friedrichsfelde 60, 10315 Berlin) zur Auswahl:

• Workshop „Ab in eine nachhaltige Zukunft – mit Maschinenbau zur Klimaretterin“
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…

• Workshop „Bauingenieurin werden – Brücken bauen und mehr“
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…

• Workshops „Kriminalistik und Kriminaltechnik“ und „Polizei- und Kriminalpsychologie“ (Mindestalter der Teilnehmerinnen: 12 Jahre)
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…

Außerdem gibt es von 8.45–13.00 Uhr im Gründungszentrum der HWR Berlin, dem Startup Incubator Berlin, (Rohrdamm 88, 13629 Berlin) Ideen und Inspirationen für zukünftige Unternehmerinnen, die vielleicht mal eine eigene Firma gründen wollen.

• Workshop „Zukunft eigenes Unternehmen: Ideen und Inspirationen für zukünftige Female Founders
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…

Eingebunden sind die Workshops in ein buntes Rahmenprogramm, um die Hochschule für Wirtschaft und Recht Berlin bzw. den Startup Incubator Berlin (SIB) kennenzulernen, Fragen zum Studieren, den Studienfächern, zur Unternehmensgründung und zur Hochschule zu stellen.

Die Teilnahme ist kostenlos, eine vorherige Anmeldung erforderlich. Die Teilnehmerinnenzahl ist begrenzt.

Alle Informationen und Anmeldung zum Girls‘ Day an der HWR Berlin
Die Online-Anmeldung erfolgt über das Girls’Day Radar unter dem Link www.girls-day.de oder über den direkten Link des jeweiligen Workshops auf der Veranstaltungsseite der HWR Berlin:
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/446-gir…

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Birte Skrzypczak
E-Mail: frauenbuero@hwr-berlin.de

(nach oben)


Fledermäuse in gestörten Ökosystemen sind häufiger mit Coronaviren infiziert

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Tiere aus gestressten Ökosystemen sind stärker mit Coronaviren belastet, was die Übertragungsmöglichkeiten auf den Menschen verstärkt.

Bereits dreimal haben Coronaviren aus wilden Fledermauspopulationen in den vergangenen 20 Jahren zu großen Krankheitsausbrüchen beim Menschen geführt: SARS im Jahr 2002, MERS im Jahr 2012 und COVID-19. Letzterer zog eine globale Pandemie nach sich, von deren Folgen sich die Menschheit noch immer nicht gänzlich erholt hat. Das hat auch für eine erhöhte Aufmerksamkeit für Infektionskrankheiten gesorgt, deren Ursprünge im Tierreich liegen – sogenannte Zoonosen.

Eines ist inzwischen klar: Die Wahrscheinlichkeit für sogenannte Spillover-Ereignisse, bei denen Krankheitserreger von Tieren auf den Menschen überspringen, wird umso größer, je stärker der Mensch der Wildnis auf den Pelz rückt. Dabei spielen verschiedene Faktoren eine Rolle. Zum Beispiel, wie stark menschliche Invasionen in intakte Ökosysteme die Kontaktraten zwischen Menschen und potenziell infizierten Arten erhöhen oder wie leicht ein Virus sich an einen neuen Wirt anpassen kann.

Dr. Vera Warmuth und Prof. Dr. Dirk Metzler aus dem Fachbereich Evolutionsgenetik der LMU haben nun gemeinsam mit der Fledermausökologin Dr. Veronica Zamora-Gutierrez am CIIDIR Durango in Mexiko einen weiteren Zusammenhang nachgewiesen, der dabei relevant ist: Die Studie konnte klar nachweisen, dass Fledermäuse in (vom Menschen) gestörten Habitaten häufiger mit Coronaviren infiziert sind als solche in ungestörten Habitaten.

Dafür haben die Forschenden mittels einer Metaanalyse Informationen zu Infektionsraten bei Fledermäusen aus aller Welt zusammengetragen und statistisch analysiert. Dabei sind Daten von über 26.000 Fledermäusen aus über 300 Arten in die Auswertung eingeflossen und mit Daten zur Landbedeckung und Landnutzung in Verbindung gebracht worden.
„Viele Formen der Landnutzung bedeuten einen Verlust von wichtigen Ressourcen für Wildtiere; im Falle von Fledermäusen etwa Jagd- oder Schlafplätze“, sagt Vera Warmuth.

Dass ein solcher Ressourcenverlust für Wildtiere zu chronischem Stress führen kann, wurde bereits mehrfach gezeigt. Wenn Fledermäuse aufgrund menschlichen Eingreifens keine Schlafplätze oder weniger Nahrung fänden, könne der damit verbundene chronische Stress zu einer Abschwächung der Immunabwehr führen.

„Die negativen Auswirkungen von chronischem Stress auf das Immunsystem von Säugetieren sind gut bekannt. Unsere Ergebnisse zeigen ganz klar, dass Tiere in gestörten Ökosystemen häufiger infiziert sind. Je stärker ein Gebiet durch den Menschen beeinflusst ist, desto mehr Coronaviren finden sich in den dort lebenden Fledermäusen“, meint Warmuth.

Besonders stark stechen dabei drei Formen der Landnutzung heraus: Landwirtschaft, Abholzung und der Abbau von Bodenschätzen. Sie stellen den Autoren der Studie zufolge die größten Stressfaktoren für die Fledermauspopulationen dar. Durch sie werden Waldhabitate zerstört oder fragmentiert, die Fledermäuse finden wegen des Anbaus von Monokulturen und dem Einsatz von Pestiziden weniger Futter in Form von Insekten und verlieren selbst ihre unterirdischen Schlafplätze, wenn Bergbau betrieben wird.

Ökologischer Stress wirkt sich also signifikant auf die Häufigkeit von Coronaviren in einer Tiergruppe aus, der eine große Bedeutung als Virus-Reservoir in der Natur zukommt. „Wenn wir das Ausbreitungsrisiko möglicher Zoonose-Erreger vorhersagen und eingrenzen wollen, ist es nach unseren Erkenntnissen notwendig, auch ihre Häufigkeit in Wildtierpopulationen zu überwachen. Insbesondere wenn der menschliche Druck auf Ökosysteme weiter steigt“, meint Metzler. „Die Modelle weisen auch auf eine Handvoll Regionen, insbesondere im Osten der Vereinigten Staaten und in Indien, hin, in denen verstärkte Überwachungsmaßnahmen besonders wichtig sein könnten.“

Wissenschaftliche Ansprechpartner:
Dr. Vera Warmuth
Department Biologie II
Fachbereich Evolutionsbiologie
Tel: +49 (0)89 / 2180-74142
Email: warmuth@bio.lmu.de

Originalpublikation:
Vera M. Warmuth, Dirk Metzler, Veronica Zamora-Gutierrez; Human disturbance increases coronavirus prevalence in bats. Science Advances, 2023

(nach oben)


Wie sich Pflanzen an Stickstoffmangel anpassen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Stickstoff kann als Dünger Erträge steigern. Ein Zuviel hat aber auch negative Auswirkungen: etwa durch Belastungen des Grundwassers, einen hohen Energieaufwand bei der Dünger-Produktion und die Erzeugung klimarelevanter Gase. Die Wissenschaft sucht deshalb nach Wegen, wie Kulturpflanzen mit weniger Stickstoff auskommen. Forschende der Universität Bonn haben nun Genvarianten des Nitratsensors NPF2.12 entdeckt, die bei niedrigen Stickstoffgehalten im Boden eine Signalkette auslösen. Dadurch wird ein stärkeres Wurzelwachstum induziert, und die Pflanzen verbessern die Stickstoffverwertung. Die Studie wurde vorab online in “New Phytologist” publiziert. Nun ist die finale Fassung erschienen.

“Wir haben eine große Anzahl von Weizen- und Gerstengenotypen unter verschiedenen Stickstoffversorgungsbedingungen untersucht und ihre Wurzelarchitektur und die Anreicherung von Stickstoff in den Pflanzen analysiert”, sagt Erstautor Md. Nurealam Siddiqui von der Pflanzenzüchtung am Institut für Nutzpflanzenwissenschaften und Ressourcenschutz (INRES) der Universität Bonn. Die Forschenden untersuchten insgesamt mehr als 220 unterschiedliche Weizen- und Gerstensorten aus dem letzten halben Jahrhundert der Pflanzenzüchtung. „Die untersuchten Weizensorten wurden so ausgewählt, dass sie die Züchtungsgeschichte der letzten 60 Jahre abdecken“, erläutert Prof. Dr. Jens Léon von der INRES-Pflanzenzüchtung.

Auf dem Campus Klein-Altendorf der Universität Bonn untersuchten die Forschenden diese sehr unterschiedlichen Sorten jeweils auf Versuchsflächen mit hohen Stickstoffgehalten und zum Vergleich auf Flächen mit geringer Stickstoffapplikation. Anschließend analysierte das Team unter anderem jeweils die Wurzelmerkmale sowie die Stickstoffgehalte der Blätter und Körner und führte genomweite genetische Analysen durch, um Korrelationen zwischen DNA-Sequenzen und den entsprechenden Merkmalen zu finden, erklärt Prof. Léon weiter.

Mehr Wurzeln holen mehr Stickstoff aus dem Boden
Bei der Auswertung stießen die Wissenschaftlerinnen und Wissenschaftler auf NPF2.12. Bestimmte Varianten dieses Gens führten dazu, dass bei schlechter Stickstoffversorgung im Boden die Pflanzen größere Wurzelsysteme ausbildeten. “Wahrscheinlich fungiert das Gen beziehungsweise das von ihm kodierte Protein als Sensor, der bei geringen Stickstoffgehalten im Boden abgeschaltet werden muss, um indirekt über eine Signalkette den Botenstoff Stickstoffmonoxid zu erhöhen, der wiederum zu vermehrtem Wurzelwachstum führt und dadurch die Stickstoffverwertung verbessert”, sagt Korrespondenzautor Dr. Agim Ballvora von der INRES-Pflanzenzüchtung.

“Unter niedrigen Stickstoffbedingungen und in Anwesenheit bestimmter Varianten des NPF2.12-Gens ist ein erhöhter Stickstoffgehalt in Blättern und Körnern feststellbar”, sagt Ballvora, der auch mit dem Exzellenzcluster PhenoRob der Universität Bonn zusammenarbeitet. Die Erträge dieser Sorten nehmen somit auch unter widrigen Bedingungen zu, ergänzt Siddiqui.

Varianten des Nitratsensors NPF2.12 helfen bei der Stickstoffverwertung
Dass NPF2.12 dafür tatsächlich verantwortlich ist, wiesen die Forschenden im Labor und Gewächshaus nach: Weizenpflanzen mit einem Defekt im NPF2.12 Gen, wurden analysiert. Bei schlechter Stickstoffversorgung verhielten sich entsprechende npf2.12-Linien wie Sorten, die von Haus aus über die hilfreiche Genvariante verfügen. “Diese Ergebnisse zeigen, dass NPF2.12 ein Negativregulator ist, dessen verringerte Expression in entsprechenden Sorten durch einen ausgeklügelten Mechanismus zu mehr Wurzelwachstum und höheren Stickstoff-Gehalten im Spross führt”, erklärt Prof. Dr. Gabriel Schaaf, Mitglied des Exzellenzclusters PhenoRob aus der INRES-Pflanzenernährung.

Die Studie ist in der Grundlagenforschung angesiedelt, aber auch wegweisend für die Pflanzenzüchtung. “Ein besseres Verständnis der genetischen und molekularen Funktion der Stickstoff-Sensorik wird die Züchtung von Sorten mit verbesserter Stickstoff-Nutzungseffizienz beschleunigen”, blickt Ballvora in die Zukunft. Hierfür müssten aber die einzelnen Schritte der Signalkette des Sensors NPF2.12, die bei Stickstoffmangel zu einem stärkeren Wurzelwachstum führen, noch besser verstanden werden.

Beteiligte Institutionen und Förderung:
An der Studie waren die Pflanzenzüchtung und die Pflanzenernährung am Institut für Nutzpflanzenwissenschaften und Ressourcenschutz (INRES) sowie der Campus Klein-Altendorf der Universität Bonn, darüber hinaus das Institut für Quantitative Genetik und Genomik der Pflanzen und der Exzellenzcluster Pflanzenwissenschaften CEPLAS der Universität Düsseldorf beteiligt. Das Bundesministerium für Bildung und Forschung (BMBF), die Deutsche Forschungsgemeinschaft (DFG) und der Deutsche Akademische Austauschdienst (DAAD) förderten das Projekt.

Wissenschaftliche Ansprechpartner:
Dr. Agim Ballvora
Pflanzenzüchtung
Institut für Nutzpflanzenwissenschaften und Ressourcenschutz
Universität Bonn
Tel. +49-228-737400
E-Mail: ballvora@uni-bonn.de

Originalpublikation:
Md. Nurealam Siddiqui, Kailash Pandey, Suzan Kumer Bhadhury, Bahman Sadeqi, Michael Schneider, Miguel Sanchez-Garcia, Benjamin Stich, Gabriel Schaaf, Jens Léon, and Agim Ballvora: Convergently selected NPF2.12 coordinates root growth and nitrogen use efficiency in wheat and barley, New Phytologist, DOI: https://doi.org/10.1111/nph.18820

(nach oben)


Arzneimittelknappheit: Diese Faktoren sorgen für Lieferengpässe in der Pharmaindustrie

Lisa Wolf PR Management
Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung
Prof. Dr. Kai Hoberg (KLU) hat mit Prof. Dr. David Francas (Hochschule Worms) und Stephan Mohr (Frankfurt School of Finance and Management) in einer Studie untersucht, welche Rahmenbedingungen die Arzneimittelverfügbarkeit in Deutschland beeinflussen. Eine Erkenntnis: Wettbewerb unter vielen Generika-Produzenten sorgt nicht etwa für ein verteiltes Risiko und mehr Verlässlichkeit, sondern macht die Lieferketten vielmehr anfälliger.

Seit vielen Monaten schlagen Apotheken, Mediziner und Betroffene Alarm: Diverse Kinderarzneimittel wie Fiebersäfte sind knapp, die Versorgungslage ist angespannt. Während die Gesundheitspolitik Gesetze auf den Weg bringen will, um Abhilfe zu schaffen, hat sich die KLU seit Anfang 2021 mit den Hintergründen der Arzneimittelknappheit beschäftigt und nun ihre Forschungsergebnisse veröffentlicht.

Prof. Dr. Kai Hoberg, Professor für Supply Chain und Operations Strategy an der Kühne Logistics University (KLU), und seine Co-Autoren haben die Studie „On the Drivers of Drug Shortages: Empirical Evidence from Germany“ erstellt. Damit wollten die Wissenschaftler die Engpasssituationen bei Arzneien in Deutschland – dem viertgrößten Pharmamarkt nach den USA, China und Japan – ergründen.

Dafür griffen sie zum einen auf Daten des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) zurück, das entsprechende Engpässe dokumentiert. Als Grundlage dienten Daten aus dem Zeitraum von 2017 bis 2019 – bewusst ohne die Pandemiejahre als Sondereinfluss. Damit und mit weiteren Quellen wie Abverkaufs- und Daten zur Patentsituation und zu Reportingpflichten in Deutschland erstellten sie ein statistisches Modell, um Häufungspunkte identifizieren zu können.

Konkurrenz, Darreichungsform & Meldefristen als kritische Indikatoren
Patentierte Produkte, die nur von einem Hersteller angefertigt werden, sind demnach seltener von Engpässen betroffen als Arzneimittel, die den Patentschutz verloren haben und als Generika von vielen Anbietern hergestellt werden. „Sobald eine Konkurrenzsituation herrscht, sind einzelne Unternehmen zu stärkerer Effizienz gezwungen. Bereits kleine Störungen führen dann schneller zu Engpässen, weil weniger Kapazitäten und Bestände als Reserve existieren“, ordnet Hoberg dieses Ergebnis ein.

Eine weitere Erkenntnis der Autoren: Die Anfälligkeit für Lieferschwierigkeiten korreliert mit der Darreichungsform der jeweiligen Arzneimittel, da einzelne Applikationsmethoden aufwändiger und damit anfälliger sind. Konkret erwies sich der Produktionsprozess von gespritzten Medikamenten am komplexesten. Entsprechend ist hier die Gefahr für Verunreinigungen oder andere Störungen, die zu Engpässen führen können, höher. Ebenfalls sind Arzneimittel anfällig, deren Nachfrage variabel ist.

Weiterhin wurde analysiert, wann Pharmaunternehmen, die hierzulande verpflichtet sind, Engpässe bei kritischen Medikamenten dem BfArM zu melden, tatsächlich ihrer Pflicht nachgehen. Überraschenderweise wurden Engpässe oft erst sechs bis acht Wochen gemeldet, nachdem der Markt den Engpass bereits erreicht hat. „Von dieser Information waren alle Beteiligten überrascht“, berichtet Hoberg, der eine striktere Meldefristpolitik für nötig hält.

Frühwarnsysteme und mehr Transparenz als Lösungsansätze
Häufig wird in diesem Zusammenhang die Frage diskutiert, ob höhere Preise Engpässe bei Arzneimitteln vermeiden könnten – eine Frage, die Hoberg klar verneint: „Diese Strategie bedeutet nur eine Umverteilung des Problems: Man erhöht damit die Prioritäten der Unternehmen auf den deutschen Markt, aber dann fehlt das Arzneimittel in einem anderen europäischen Land.“ Vielmehr sieht Hoberg einen erfolgversprechenden Ansatz in einer differenzierteren Incentivierung, die mit Resilienz-Maßnahmen als Auflage verknüpft ist, die die Produktion wiederum langfristig garantieren und Risiken reduzieren.

Als nächste nötige, ganz praktische Schritte sehen die Wissenschaftler die Etablierung eines Frühwarnsystems sowie die Erhöhung der Transparenz entlang der gesamten Lieferkette, die bislang lediglich bei den Herstellern liegt. „Transparenz alleine löst das Problem der Engpässe zwar noch nicht, aber sie ist nötig, um auf dieser Basis adäquate Resilienz-Maßnahmen für Unternehmen zu entwickeln“, resümiert Hoberg.

Originalpublikation:
Francas, D., Mohr, S. and Hoberg, K. (2023), „On the drivers of drug shortages: empirical evidence from Germany“, International Journal of Operations & Production Management, Vol. ahead-of-print No. ahead-of-print. https://doi.org/10.1108/IJOPM-09-2022-0581

(nach oben)


Effizienzschub für die Geothermie

Ralf Kastner Hochschulkommunikation
Hochschule München
Forschende an der Hochschule München entwickeln ein Antriebssystem für Pumpen, die selbst unter extremen Bedienungen in mehr als tausend Metern Tiefe effizient und zuverlässig arbeiten können – ein wichtiger Baustein für die hydrothermale Tiefengeothermie in Bayern.

„Wenn die Energiewende gelingen soll, und wir in Zukunft zu einem bezahlbaren Preis unser Wohnzimmer heizen wollen, dann müssen wir die Effizienz regenerativer Energiegewinnung steigern – das gilt für Solaranlagen und Windräder, aber auch – und vor allem – für geothermische Kraftwerke“, betont Prof. Christoph Hackl, Leiter des Labors für Mechatronische und Erneuerbare Energiesysteme (LMRES), an der Hochschule München. Im Projekt „Prototypenbau eines neuartigen Pumpenmotors“ arbeitet sein Team an einer effizienten Förderung von heißem Wasser aus tiefen Gesteinsschichten: „Die Geothermie hat den Vorteil, dass sie jederzeit und unabhängig vom Wetter zur Verfügung steht. Daher ist sie eine wichtige Ergänzung zu Wind- und Solarenergie.“

Geothermie sehr gut nutzbar in Südbayern
Vor allem in Südbayern sind die Voraussetzungen für eine Nutzung der Erdwärme ideal: Im Molassebecken, wo sich Sedimente abgelagert haben, als die Alpen zu einem Gebirge emporwuchsen, gibt es zahlreiche wasserführende Gesteinsschichten, die durch die Hitze aus dem Erdinneren erwärmt werden. Mit Hilfe von Tiefbohrungen lassen sich diese hydrothermalen Wässer erschließen. Berechnungen der Geothermie-Allianz Bayern gehen davon aus, dass beispielsweise in der Metropolregion München bis zu 67 Prozent des Wärmebedarfs durch hydrothermale Tiefengeothermie gedeckt werden könnten.

Die Technik dafür ist vorhanden: 29 Tiefen-Geothermie-Projekte wurden in Bayern bereits realisiert. „Ein Problem sind die Kosten. Man muss erst einmal tiefe Bohrungen durchführen und dann die hydrothermalen Wässer heraufpumpen. Das ist enorm aufwändig und energieintensiv – bisherige Pumpen haben keinen besonders hohen Wirkungsgrad und fallen häufig aus“, erklärt Hackl.

Robuste Antriebe für widrige Einsatzbedingungen
Elektrische Antriebe sind sein Spezialgebiet: Seit Jahren entwickelt der Elektrotechniker für verschiedene industrielle Anwendungen Antriebssysteme, die robuster, langlebiger und sparsamer sind als traditionelle Modelle. Diese Antriebe, als Pumpenmotoren eingesetzt, sollen jetzt auch die Geothermie effizienter machen. Motoren für den Einsatz in Bohrungen zu optimieren, ist allerdings eine besondere Herausforderung. Bohrlöcher sind eng und die Bedingungen in tausenden von Metern Tiefe extrem: Die Antriebe müssen hohem Druck, Temperaturen von über 100 Grad und aggressiven Chemikalien standhalten.

Das Projekt ist Teil des Forschungs-Netzwerks Geothermie Allianz Bayern (GAB), in dem Wissenschaftler und Wissenschaftlerinnen an fünf Universitäten erforschen, wie sich geothermische Energie besser nutzen und in die Versorgungsinfrastruktur integrieren lässt. Gefördert wird die GAB durch das Bayerischen Staatsministeriums für Wissenschaft und Kunst.

Das Ziel des Designs: Zuverlässigkeit unter extremen Bedingungen
An der Hochschule München ist die Zukunft nur einen Mausklick entfernt. Auf Hackls Monitor öffnet sich ein Fenster, es erscheint das Computermodell des neuen Pumpenantriebs: ein extrem dünnes und langes Gebilde mit einem Durchmesser von 22 Zentimetern und einer Länge von mehr als zehn Metern. „Wir experimentieren derzeit mit verschiedenen Designs“, erläutert der Forscher. „Die Anforderungen an die Stabilität der Konstruktion sind enorm. Hinzu kommt, dass wir möglichst materialsparend arbeiten wollen, die Antriebe aber auch so robust sein sollen, dass sie über Jahre störungsfrei laufen und ihr Wirkungsgrad mindestens zehn Prozent höher ist als bisherige Motoren.“

Erhöhung des Wirkungsgrads: Beitrag zur Wärmewende
Mit Hilfe von Computermodellen entwirft Hackls Team nicht nur das Design der Antriebe, sondern auch die Steuer- und Regelungstechnik, die für die Fehlererkennung und die Optimierung der Leistung benötigt werden. Dank einer eigens entwickelten virtuellen Testumgebung lässt sich schon während der Entwurfsphase die Effizienz des Systems virtuell überprüfen. Bis zum Ende der Projektlaufzeit 2024 soll dann auch ein Prototyp gebaut und im Labor der Hochschule München getestet werden. „Das Potenzial der neuen Pumpantriebe ist enorm“, betont Hackl: „Der Energiebedarf der Motoren ist beträchtlich – er liegt im Megawatt-Bereich. Wenn wir da den Wirkungsgrad erhöhen und die Wartungsintervalle verlängern können, wäre ein essentieller Schritt auch in der Wärmewende getan.“

Die Geothermie-Allianz Bayern 2.0 (GAB) ist ein standortübergreifender, hochschulweiter Forschungsverbund der Technischen Universität München, der Friedrich-Alexander-Universität Erlangen-Nürnberg, der Universität Bayreuth, der Ludwig-Maximilians-Universität München sowie der Hochschule München, der von Januar 2021 bis Dezember 2024 läuft. Die HM beteiligt sich seit Oktober 2021 am Teilprojekt „effizient. Wärmewende durch intelligente Nutzung der Tiefengeothermie“, das sich mit der Auslegung eines neuen Pumpenantriebs für Tauchkreiselpumpen beschäftigt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Hackl
E-Mail: christoph.hackl@hm.edu

(nach oben)


Geringste Schadstoffspuren zuverlässig und schnell nachweisen

Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Materialforschende entwickeln wiederverwendbares Nanomaterial für ultrasensitive Analysen

Selbst geringe Schadstoffenspuren in Wasser oder anderen Flüssigkeiten lassen sich mit spektroskopischen Untersuchungsmethoden nachweisen. Für den Einsatz in der Forensik, der Sicherheitsbranche, der Lebensmittelindustrie oder der medizinischen Diagnostik sind Methoden wie die oberflächenverstärkte Raman-Streuung (SERS, surface-enhanced Raman scattering) allerdings noch zu teuer und nicht zuverlässig genug. Einem Forschungsteam aus der Materialwissenschaft der Christian-Albrechts-Universität zu Kiel (CAU) ist es jetzt gelungen, die Leistungsfähigkeit der Methode um das 50-fache zu steigern. Sie entwickelten ein Substrat mit besonderen Nanostrukturen, das die Empfindlichkeit und die räumliche sowie zeitliche Auflösung der Methode deutlich erhöht. Das führt selbst im Spurenbereich zu hochpräzisen und schnellen Ergebnissen. Außerdem lässt sich das Substrat wiederverwenden, was die Kosten der Analyse erheblich senkt. Die Ergebnisse des Forschungsteams sind in der renommierten Fachzeitschrift Small erschienen.

Substrat spielt entscheidende Rolle
Die Raman-Spektroskopie – benannt nach dem indischen Physiker und Nobelpreisträger Chandrasekhara Venkata Raman – ist eine Methode, um die chemische Zusammensetzung von Materialien zu bestimmen und so auch schädliche Stoffe nachzuweisen. Hierzu wird eine Stoffprobe mit einem Laser bestrahlt. Anhand des zurückgeworfenen sogenannten Raman-Signals lassen sich Rückschlüsse auf die Eigenschaften des Materials ziehen. „Eine entscheidende Rolle spielt hierbei das Substrat, die Unterlage, auf der die zu analysierende Stoffprobe liegt. Denn es kommt zu Wechselwirkungen mit dem Laserlicht, die das Raman-Signal beeinflussen“, erklärt Josiah Ngenev Shondo, Doktorand am Lehrstuhl für Materialverbunde.

Forschenden des Lehrstuhls ist es jetzt gelungen, aus verschiedenen Materialien ein Substrat herzustellen, mit dem das Raman-Signal um das 50-Fache verstärkt wird im Vergleich zu klassischen SERS-Methoden. „Das ist mehr als jemals zuvor für diese Methode berichtet wurde“, sagt Prof. Oral Cenk Aktas. Damit erhöht sich die Empfindlichkeit der Methode und ihre räumliche und zeitliche Auflösung. So lassen sich in kurzer Zeit auch sehr geringe Stoffmengen analysieren. Nach der Analyse zersetzten die Forschenden die Stoffprobe mit UV-Licht. „Das relativ teure Substrat wird so gereinigt und kann zum ersten Mal mehrmals verwendet werden – in unseren Test bis zu zwanzig Mal“, so Aktas weiter.

Material kombiniert herausragende Eigenschaften
Der Grund für die besonderen Eigenschaften des Substrats liegt in seinem Aufbau. „Hier kommen verschiedene Materialien mit herausragenden Eigenschaften zusammen“, sagt Dr. Salih Veziroglu, der im Rahmen einer Förderung des CAU-Forschungsschwerpunkt KiNSIS (Kiel Nano, Surface and Interface Science) zu den Substratmaterialien forscht. „Es besteht zum Beispiel aus einer extrem aktiven photokatalytischen Titandioxidschicht und aus besonderen plasmonischen Nanostrukturen.“ Auf der Oberfläche des Substrats kombinierten die Forschenden vier verschiedene Nanostrukturen, darunter Gold- und Silberpartikel, zwischen denen es zu Licht-Materie-Wechselwirkungen kommt – sogenannte plasmonische Effekte.

Mit ihrem Substrat hat das Team der CAU einen Beitrag geliefert zu einem neuen Ansatz der Raman-Spektroskopie, der kürzlich vorgestellten PIERS-Methode (Photo Induced Enhanced Raman Spectroscopy). Durch die Kombination von plasmonischen und photokatalytischen Effekten wird hier das Raman-Signal und damit die Auflösung der Methode deutlich verbessert.

Ergänzung um KI-Methoden und Ausgründung geplant
„Dieses Substrat ist das Ergebnis langjähriger Forschung und verschiedener Expertisen an unserem Lehrstuhl. Jetzt wollen wir unsere Erkenntnisse aus der Grundlagenforschung in die Anwendung bringen“, sagt Leiter Prof. Franz Faupel. Das Substrat lässt sich in andere Raman-Spektroskopiemethoden integrieren und macht so verschiedene Einsatzmöglichkeiten denkbar. Um es zur Marktreife zu bringen, sind die Forschenden jetzt auf der Suche nach anderen Forschungsgruppen und Unternehmen der Labor- und Analysetechnik. Außerdem planen sie, ihren Ansatz um Methoden der Künstlichen Intelligenz zu ergänzen, um eine umfassende Datengrundlage für die Materialanalyse schaffen. So sollen sich auch einzelne Moleküle noch schneller und präziser bestimmen lassen.

Eine Idee für eine konkrete Anwendung hat Doktorand Shondo bereits in seiner Promotion erforscht, die kurz vor dem Abschluss steht. 2018 kam der Materialwissenschaftler mit einem Stipendium des Deutschen Akademischen Auslandsdienstes (DAAD) an die CAU nach Kiel, um etwas gegen die Umweltverschmutzung in seinem Heimatland Nigeria zu tun. Die Förderung der großen Ölvorkommen des Landes verunreinigt Böden, Flüsse und sogar das Trinkwasser. Mit dem neuen Substrat, das er und die Kollegen in Kiel entwickelt haben, sieht er auch Potential, um tragbare Raman-Spektroskopie-Geräte in Nigeria einzusetzen: „Da sich damit bereits geringe Mengen an Öl nachweisen und sogar entfernen lassen, könnte diese Methode bereits frühzeitig zum Einsatz kommen und schlimmere Umweltschäden verhindern.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Franz Faupel
Lehrstuhl Materialverbunde
Institut für Materialwissenschaft
Telefon:+49 431 880-6225
E-Mail: ff@tf.uni-kiel.de
http://www.tf.uni-kiel.de/matwis/matv

Originalpublikation:
Shondo, J., Veziroglu, S., Tjardts, T., Sarwar, T.B., Mishra, Y.K., Faupel, F. and Aktas, O.C. (2022), Nanoscale Synergetic Effects on Ag–TiO2 Hybrid Substrate for Photoinduced Enhanced Raman Spectroscopy (PIERS) with Ultra-Sensitivity and Reusability (Small 50/2022). Small, 18: 2270271.
https://doi.org/10.1002/smll.202270271
https://onlinelibrary.wiley.com/doi/abs/10.1002/smll.202270271

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/072 Link zur Meldung
http://www.kinsis.uni-kiel.de/de Website des Forschungsschwerpunkts KiNSIS (Kiel Nano, Surface and Interface Science – KiNSIS) an der CAU

(nach oben)


Größere Reichweite für drahtlose Sensoren: mögliche Anwendungen in Smart Homes und Industrie

Mag. Mark Hammer Marketing und Unternehmenskommunikation
Fachhochschule St. Pölten
Smart Homes, Häuser mit unterstützender Technik, verwenden eine Vielzahl an Sensoren für unterschiedlichste Aufgaben. So manche beabsichtigte Funktion scheitert aber an der Reichweite der verwendeten drahtlosen Sensoren. Ein Forschungsprojekt der Fachhochschule St. Pölten arbeitet an einer Technik, um die Reichweiten zu erhöhen.

Bewegungs- und Temperatursensoren übernehmen in Smart Homes eine Reihe an Aufgaben, um Geräte zu steuern oder Besitzer*innen zu informieren. Die gängigen Funksensoren haben jedoch nur geringe Reichweiten und können daher nicht überall eingesetzt werden.

Einsatz daheim und im Weinbau
Henri Ruotsalainen vom Institut für IT-Sicherheitsforschung der FH St. Pölten arbeitet derzeit an einer Methode, um die Reichweiten der Sensoren zu erhöhen. „Für Anwendungsfälle, bei denen Daten von mehreren lokal montierten Sensoren drahtlos über größere Entfernungen übertragen werden müssen, gibt es derzeit keine brauchbare Technologie. In unserem Projekt LoRaBridge entwickelten wir eine Datenbrücke, mit der Daten von lokalen Sensoren über größere Entfernungen an einen Server gesendet werden können“, sagt Ruotsalainen.

Eine der Zielgruppen sind Privatpersonen, die gerne Sensoren oder Smart-Home-Komponenten im Keller, am Dachboden oder im Garten montieren möchten, aber daran scheitern, dass die Reichweite einer Funkverbindung nicht groß genug ist, um Daten über solche Distanzen abrufen zu können.

Ruotsalainen hat die Technologie sowohl in Innenräumen eines großen Bürogebäudes als auch im Freien umfassend getestet: „Unsere Messkampagne in Langenlois hat gezeigt, dass die kostengünstigen Sensoren auch für die Frosterkennung in Weinfeldern eingesetzt werden können“.

Einsatz in der Industrie
„Derzeit ist der Chipmangel ein großes Problem. Hardware ist oft teuer. Mit unserer Lösung können wir günstige Sensoren mit niedriger Reichweite in solche mit langer Reichweite umwandeln“, erklärt Ruotsalainen.

Auch Anwendungen in der Industrie sind denkbar. Dazu will Ruotsalainen die Technik mit anderen Sensoren und mit Drittanbieter*innen untersuchen und weiterentwickeln. Beispiele für mögliche Anwendungsfälle sind Füllstandserfassung von Mülltonnen, Monitoring von Parkplätzen oder Waldbrandfrüherkennung.

„Unsere Datenbrücke achtet auf Sicherheit, Flexibilität, modulare Einsätze und kann an verschiedene Bedürfnisse angepasst werden. Die Technik steht als Open Source allen Interessierten zur Verfügung“, so Ruotsalainen.

Projekt LoRaBridge – Reichweitenerweiterung für kostengünstige drahtlose Sensoren
https://research.fhstp.ac.at/projekte/lorabridge-reichweitenerweiterung-fuer-kos…
Das Projekt wurde von der Initiative NetIdee gefördert.

Über die Fachhochschule St. Pölten
Die Fachhochschule St. Pölten ist Anbieterin praxisbezogener und leistungsorientierter Hochschulausbildung zu den Themen Medien, Kommunikation, Management, Digitale Technologien, Informatik, Security, Bahntechnologie, Gesundheit und Soziales. In 6 Departments bieten 26 Studiengänge und zahlreiche Weiterbildungslehrgänge ca. 3.700 Studierenden eine zukunftsweisende Ausbildung. Hierbei werden Lehre und Forschung eng verzahnt. Als European University leitet die FH St. Pölten die europäische Hochschulallianz E³UDRES² (Engaged and Entrepreneurial European University as Driver for European Smart and Sustainable Regions) und arbeitet mit Hochschulen aus 9 Partnerländern an Konzepten für die Hochschule der Zukunft sowie an der Entwicklung smarter und nachhaltiger europäischer Regionen.

Informationen und Rückfragen:
Mag. Mark Hammer
Fachverantwortlicher Presse
Marketing und Unternehmenskommunikation
T: +43/2742/313 228 269
M: +43/676/847 228 269
E: mark.hammer@fhstp.ac.at
I: https://www.fhstp.ac.at/de/presse

Pressetext und Fotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse
Allgemeine Pressefotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse/pressefotos-logos

Die FH St. Pölten hält ausdrücklich fest, dass sie Inhaberin aller Nutzungsrechte der mitgesendeten Fotografien ist. Der Empfänger/die Empfängerin dieser Nachricht darf die mitgesendeten Fotografien nur im Zusammenhang mit der Presseaussendung unter Nennung der FH St. Pölten und des Urhebers/der Urheberin nutzen. Jede weitere Nutzung der mitgesendeten Fotografien ist nur nach ausdrücklicher schriftlicher Zustimmung (Mail reicht aus) durch die FH St. Pölten erlaubt.

Erfahren Sie mehr News von uns auf Twitter https://twitter.com/FH_StPoelten und LinkedIn https://www.linkedin.com/school/fhstp sowie auf weiteren Social-Media-Kanälen.

(nach oben)


Schweine als Organspender – neue Erkenntnisse zur Prävention von Infektionen durch Retroviren

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Intensiv wird daran geforscht, die Transplantation von Organen speziell gezüchteter Schweine auf den Menschen zu ermöglichen. Im Schweinegenom befinden sich allerdings die Genome verschiedener endogener Retroviren (PERV A, B and C), die möglicherweise Infektionskrankheiten verursachen könnten. Ein Forschungsteam des Paul-Ehrlich-Instituts hat bei der Schweinerasse (Yucatan-Miniaturschwein „Haplotyp SLA D/D“) nachgewiesen, dass das Retrovirus PERV-C vermehrungsfähig und daher infektiös sein könnte. Die Identifizierung des PERV-C-Genoms ermöglicht es jetzt, durch Gen-Editierung das PERV-C-Retrovirusgenom aus dem Genom dieser Schweine zu entfernen (Journal of Virology, 08.03.2023).

Aktuell stehen in Deutschland mehr als 8.500 Patientinnen und Patienten auf der Warteliste für eine Organspende. Organe für die Transplantation sind so knapp, dass Patientinnen und Patienten häufig sehr lange auf ein geeignetes Organ warten müssen. Um hier Abhilfe zu schaffen, wird schon lange an der Möglichkeit geforscht, speziell gezüchtete Schweine als Organspender einzusetzen. Im vergangenen Jahr 2022 wurde in den USA die erste Transplantation eines genetisch veränderten Schweineherzens auf einen Patienten vorgenommen, für den keine anderen Therapien mehr zur Verfügung standen und der auch nicht für eine reguläre Organtransplantation in Frage kam. Nach 49 Tagen kam es zu Komplikationen und nach 60 Tagen verstarb der Patient. Die Ursachen für das Organversagen werden noch untersucht.

Organtransplantation durch Tiere – Risiko durch Retroviren?
Bei der Transplantation eines Organs von einem Schwein auf einen Menschen – der Xenotransplantation – besteht das Risiko, dass endogene Retroviren des Schweins – Viren, deren Genom im Genom der Spendertiere, und zwar im Genom jeder Zelle dieser Schweine, verankert sind, – in Form vermehrungsfähiger Viruspartikel auf den Empfänger bzw. die Empfängerin übertragen werden könnten und Krankheiten hervorrufen könnten. Dies gilt insbesondere vor dem Hintergrund, dass die Betroffenen Medikamente erhalten, die das Immunsystem bremsen (Immunsuppression), um eine Organabstoßung zu verhindern. Aufgrund der Verankerung der Retrovirusgenome im Genom jeder Zelle des Schweins ist bisher eine Entfernung der Retroviren oder eine Züchtung von Spenderschweinen ohne Retrovirus-Genome nicht möglich.

Die endogenen Retroviren der Schweine werden als PERV (porzine endogene Retroviren) bezeichnet. Sie sind eng verwandt mit Retroviren, die bei Mäusen, Katzen oder Gibbonaffen Leukämien und Immundefizienzerkrankungen auslösen können. Daher wird vermutet, dass PERV nach Übertragung auf den Menschen diese Krankheiten bei diesen Menschen ebenfalls auslösen könnten.

Endogene Retroviren des Schweins (PERV) und ihr Übertragungsrisiko
Es wurde gezeigt, dass PERV zweier Klassen, PERV-A und -B, in vitro (in Zellkulturversuchen im Labor) nicht nur Schweinezelllinien infizieren können, sondern auch in der Lage sind, Zelllinien verschiedener Spezies, einschließlich des Menschen, zu infizieren und sich dort weiter zu vermehren. Die Retroviren sind polytrop. Damit könnten PERV-A und PERV-B Speziesbarrieren überwinden und möglicherweise nach Übertragung auch Menschen infizieren. Dagegen können Retroviren des Typs PERV-C hauptsächlich Schweinezellen, aber nicht menschliche Zellen infizieren. Allerdings ist in Laborversuchen beobachtet worden, dass PERV-C mit PERV-A rekombinieren kann, was zu PERV-A/C führte, welches menschliche Zellen infiziert. Im Vergleich zu den PERV-A und PERV-B vermehrt sich PERV-A/C in Zellkultur im Labor sogar besser.

Ein Schweinestamm, der für die Organspende besonders geeignet erscheint, ist eine Züchtung des Yucatan-Miniaturschweins. Die Wildtypen (Vorfahren) dieses Schweins wurden vor 60 Jahren von Yucatan, Mexiko, zur Züchtung nach Boston, USA, gebracht. Dort wurde über einige Jahre im Hinblick auf einen Einsatz der Tiere als Organspender für die Xenotransplantation die Rasse „Haplotyp SLA D/D“ generiert. Diese Züchtung besitzt weder ein voll funktionsfähiges PERV-A-, noch ein voll funktionsfähiges PERV-B-Genom, so dass keine infektiösen oder vemehrungsfähigen Retrovirus-Partikel gebildet werden. Haplotyp SLA D/D-Schweine können aber PERV-C-Genomträger sein, aber bisher ging man davon aus, dass daraus entstehende PERV-C-Retroviruspartikel nicht replikationskompetent (vermehrungsfähig) und nicht infektiös sind, sofern diese Schweine nicht mit PERV-A infiziert werden.

Ein Forschungsteam des Paul-Ehrlich-Instituts unter Leitung von Prof. Dr. Ralf Tönjes, Arbeitsgruppenleiter im Fachgebiet Transfusionsmedizin, Zelltherapie und Gewebezubereitungen, hat sich mit der Frage befasst, ob nicht doch PERV-C selbst auch selbst replikationskompetent sein könnte. Bei der Charakterisierung von PERV-C aus Zellen der Schweinerasse Haplotyp SLA D/D stellten sie fest, dass diese PERV-C in vitro durchaus replikationskompetent und infektiös sind, sich also in Zellkultur vermehren können. Dies würde ein Risiko bei Transplantationen bedeuten. Die gute Nachricht ist: Da die diese PERV-C-Genome im Schweinegenom nur einmal vorkommen, wäre ein Knock-out – ein Ausschalten dieser PERV-C-Loci – durch Genom-Editierung, d.h. die zielgerichtete Veränderung der DNA des Schweins, möglich. Damit wäre bei Organen von PERV-C-Knock-out-Schweinen des Haplotyps SLA D/D Schweinen kein Risiko der Übertragung von PERV bei der Xenotransplantation gegeben.

Die aktuellen Befunde liefern wertvolle Informationen auf dem Weg zu geeigneten Spendertieren für die Xenotransplantation. Das Paul-Ehrlich-Institut ist für die wissenschaftliche Beratung zu und die Genehmigung klinischer Prüfungen von xenogenen Arzneimitteln in Deutschland zuständig.

Originalpublikation:
Rodrigues Costa M, Fischer N, Gronewald A, Gulich B, Godehardt AW, Tönjes RR (2023): Isolation of an Ecotropic Porcine Endogenous Retrovirus PERV-C from a Yucatan SLAD/D Inbred Miniature Swine.
J Virol Mar 8 [Epub ahead of print].
DOI: 10.11.28/jvi.00062-23

Weitere Informationen:
https://journals.asm.org/eprint/ECMKCTMHQ27U4AY55UMU/full – Volltext der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2023/04-schweine-organspender-schutz-vor-… – diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

Anhang
Audiozitat mit kurzer Zusammenfassung

(nach oben)


Manipulationen in Mikrochips aufspüren

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Sicherheitslücken können sich nicht nur in Software, sondern auch direkt in der Hardware befinden. Angreifer könnten sie dort absichtlich einbauen lassen, um technische Anwendungen in großem Stil zu attackieren. Wie sich solche sogenannten Hardware-Trojaner aufspüren lassen, untersuchen Forscher der Ruhr-Universität Bochum und des Max-Planck-Instituts für Sicherheit und Privatsphäre (MPI-SP) in Bochum. Sie verglichen Baupläne für Chips mit elektronenmikroskopischen Bildern von echten Chips und ließen einen Algorithmus nach Unterschieden suchen. Auf diese Weise konnten sie Abweichungen in 37 von 40 Fällen detektieren.

Das Team des Exzellenzclusters CASA, kurz für Cyber Security in the Age of Large-Scale Adversaries, um Dr. Steffen Becker und das Team des MPI-SP um Endres Puschner berichtet über die Ergebnisse auf dem IEEE Symposium on Security and Privacy, das vom 22. bis 25. Mai 2023 in San Francisco stattfindet. Die Forschung erfolgte in Zusammenarbeit mit Thorben Moos von der Université catholique de Louvain (Belgien) und dem Bundeskriminalamt in Deutschland.

Die Forscher stellten alle Aufnahmen der Chips, die Designdaten sowie die Analysealgorithmen frei verfügbar im Internet bereit, damit andere Forschungsgruppen mit dem Material weiterarbeiten können (https://github.com/emsec/ChipSuite).

Fertigungsfabriken als Einfallstor für Hardware-Trojaner
Elektronische Chips sind heute in zahllosen Objekten verbaut. In der Regel werden sie von Designhäusern entworfen, die keine eigene Produktion besitzen. Die Baupläne wandern daher zwecks Fertigung zu hochspezialisierten Chipfabriken. „Es ist denkbar, dass in den Fabriken kurz vor der Produktion kleinste Veränderungen in die Designs eingefügt werden, die die Sicherheit der Chips außer Kraft setzen können“, erklärt Steffen Becker und gibt ein Beispiel für mögliche Konsequenzen. „Durch einen solchen Hardware-Trojaner könnte ein Angreifer im Extremfall auf Knopfdruck Teile der Telekommunikations-Infrastruktur lahmlegen.“

Unterschiede zwischen Chips und Designplänen aufspüren
Das Team um Becker und Puschner untersuchte Chips in den vier modernen Technologiegrößen 28, 40, 65 und 90 Nanometer. Sie arbeiteten mit Dr. Thorben Moos zusammen, der während seiner Promotion an der Ruhr-Universität Bochum mehrere Chips designt hatte und hatte anfertigen lassen. Somit lagen sowohl die Designdateien als auch die angefertigten Chips vor. Natürlich konnten die Forscher die Chips nicht nachträglich verändern und Hardware-Trojaner einbauen. Also bedienten sie sich eines Tricks: Sie manipulierten nicht die Chips. Stattdessen veränderte Thorben Moos seine Designs nachträglich so, dass minimale Abweichungen zwischen den Plänen und den Chips entstanden. Dann prüfte die Bochumer Gruppe, ob sie diese Veränderungen aufspüren konnte, ohne zu wissen, was genau sie wo suchen mussten.

Das Team der Ruhr-Universität und vom MPI musste die Chips dazu zunächst aufwändig chemisch und mechanisch präparieren, um dann mit einem Rasterelektronenmikroskop jeweils mehrere Tausend Bilder der untersten Chipebenen aufnehmen zu können. Auf diesen Ebenen befinden sich mehrere Hunderttausend der sogenannten Standardzellen, die logische Operationen ausführen.

„Die Chipbilder und die Designpläne zu vergleichen war eine Herausforderung, weil wir die Daten zunächst präzise übereinanderlegen mussten“, so Endres Puschner. Hinzu kam, dass jede kleine Verunreinigung auf dem Chip die Sicht auf bestimmte Bildbereiche versperren konnte. „Bei dem kleinsten Chip von 28 Nanometern Größe kann ein einziges Staubkorn oder Haar eine ganze Reihe von Standardzellen verdecken“, so der IT-Sicherheitsspezialist.

Fast alle Manipulationen entdeckt
Mithilfe von Bildverarbeitungsmethoden verglichen die Forscher Standardzelle für Standardzelle und suchten Abweichungen zwischen den Plänen und den mikroskopischen Aufnahmen der Chips. „Die Ergebnisse stimmen vorsichtig optimistisch“, resümiert Puschner. Bei den Chipgrößen von 90, 65 und 40 Nanometern konnte das Team alle Veränderungen zuverlässig detektieren. Gleichzeitig gab es 500 falsch-positive Treffer: Es wurden also Standardzellen als verändert erkannt, obwohl sie in Wirklichkeit unangetastet waren. „Bei mehr als 1,5 Millionen untersuchten Standardzellen ist das eine sehr gute Quote“, befindet Puschner. Lediglich bei dem kleinsten Chip von 28 Nanometern konnten die Forscher drei subtile Veränderungen nicht detektieren.

Detektionsrate steigern durch Reinraum und optimierte Algorithmen
Abhilfe schaffen könnte künftig eine bessere Aufnahmequalität. „Es gibt Rasterelektronenmikroskope, die auf die Aufnahme von Chipbildern spezialisiert sind“, verdeutlicht Becker. Wenn diese noch dazu in einem Reinraum eingesetzt würden, in dem Verunreinigungen verhindert werden könnten, sollte die Detektionsquote nochmals steigen.

„Wir hoffen auch, dass andere Gruppen mit unseren Daten weiterarbeiten“, gibt Steffen Becker einen Ausblick. „Durch maschinelles Lernen könnte der Detektionsalgorithmus vermutlich so weit verbessert werden, dass er auch die Veränderungen auf den kleinsten Chips erkennen würde, die uns entgangen sind.“

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Exzellenzstrategie (EXC 2092 CASA — 390781972). Weitere Unterstützung kam vom Europäischen Forschungsrat (ERC-Projekt SWORD, 724725) sowie von der EU und Wallonien im Rahmen des Projekts „UserMEDIA“ (501907-379156).

Bilder zum Download
Weitere Bilder zu dieser Presseinformation finden Sie zum Download unter https://news.rub.de/presseinformationen/wissenschaft/2023-03-20-it-sicherheit-ma….

Wissenschaftliche Ansprechpartner:
Dr. Steffen Becker
Eingebettete Sicherheit
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 90498 107
E-Mail: steffen.becker@ruhr-uni-bochum.de

Endres Puschner
Embedded Security
Max-Planck-Institut für Sicherheit und Privatsphäre
Tel.: +49 234 90498 106
E-Mail: endres.puschner@mpi-sp.org

Originalpublikation:
Endres Puschner, Thorben Moos, Steffen Becker, Christian Kison, Amir Moradi, Christof Paar: Red team vs. blue team: A real-world hardware trojan detection case study across four modern CMOS technology generations, Proceedings of the IEEE Symposium on Security and Privacy, 2023, DOI: 10.1109/SP46215.2023.00044, Download Preprint: https://eprint.iacr.org/2022/1720

(nach oben)


Mit dem Onlinetool zur Energiewende

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
Die Entscheidung für erneuerbare Energiesysteme im Eigenheim ist von unterschiedlichen Faktoren abhängig. Im Projekt HEATED der TH Nürnberg entsteht ein kostenloses Onlinetool, das den Nutzer*innen eine individuelle Empfehlung gibt.

Photovoltaikanlage, Wärmepumpe, Pelletheizung: Inzwischen gibt es viele erneuerbare Energiequellen für Einfamilienhäuser. Den passenden Energieträger zu finden, der sowohl effizient als auch wirtschaftlich ist, ist für Hausbesitzer*innen oft schwer. Mit seinem Projekt HEATED (Holistic Engineering Approach: Free Tool for Energy System Dimensioning) setzt Prof. Dr.-Ing. Frank Opferkuch von der Technischen Hochschule Nürnberg Georg Simon Ohm genau da an. Der Leiter der Forschungsgruppe für Dezentrale Energiewandlung und Speicherung entwickelt gemeinsam mit seinem Projektteam ein unabhängiges Onlinetool, das verschiedene Datensätze aufbereitet und eine individuelle Empfehlung gibt, welche regenerative Energiequelle sich am besten eignet.
„Regenerative Energiesysteme zur Wärmeversorgung sind sehr teuer“, erklärt Opferkuch. „Bei großen Gebäuden wird in der Regel ein versorgungstechnisches Büro mit einer detaillierten Planung beauftragt, das genau berechnet, welche Systeme sich lohnen. Für Einfamilienhäuser ist so eine Beauftragung zu kostenintensiv, weshalb die Installationsbetriebe nur auf Basis von Erfahrungswerten und überschlägigen Berechnungen ihre Systeme anbieten. Diese Angebote sind oft ineffizient und nicht miteinander vergleichbar.“ Mit HEATED entsteht ein kostenloses, unabhängiges Onlinetool von einer neutralen Stelle.
Gedacht wird das Programm von den Endverbraucher*innen aus und kann von Nutzenden auch ohne viel Hintergrundwissen zur Energieversorgung bedient werden. Sie können beispielsweise den derzeitigen Energieverbrauch oder das Baujahr des Hauses eingeben. „Ein Baujahr steht meistens für bestimmte Gebäudeeigenschaften“, sagt Opferkuch. „Man kann daraus beispielsweise auf die Größe der Fensterflächen schließen und auf die damit zusammenhängenden Kühllasten im Sommer.“ Zusätzlich zieht sich das Tool verlässliche Wetterdaten aus dem Internet und analysiert, wie viele Sonnenstunden oder welche Windstärken am Standort zur Verfügung stehen.

Für die Nutzungsfreundlichkeit des Onlinetools arbeitet Opferkuch mit dem OHM User Experience Center (OHM-UX) der TH Nürnberg zusammen. „Die Kooperation ist gewinnbringend für das Projekt“, erklärt Prof. Dr. Patrick Harms, Leiter des OHM-UX. „Selbst, wenn die fachlichen Ergebnisse großartig sind, müssen sie auch für die entsprechenden Zielgruppen aufbereitet werden. Wir müssen die Nutzenden auf ihrem jeweiligen Wissenstand abholen, andernfalls kommt es zu Frustrationen.“ Harms und sein Team erstellten auf der Grundlage von Interviews mit Hausbesitzer*innen Personas, Szenarien und User Stories, die sowohl Eigentümer*innen mit viel als auch mit wenig Hintergrundwissen zu regenerativen Energien darstellen. Auf dieser Grundlage entwickelte das Team einen funktionalen Prototyp und verbesserte ihn mithilfe von Expert*inneninterviews und Usabilitytests schrittweise.
Das Projekt HEATED wird von der STAEDTLER Stiftung gefördert.

(nach oben)


Projektabschluss iMulch: Einfluss landwirtschaftlicher Mulchfolien auf terrestrische Ökosysteme

Dipl.-Chem. Iris Kumpmann Abteilung Kommunikation
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
In der Landwirtschaft kommen auf Agrarflächen häufig Mulchfolien zum Einsatz. Sie dienen zur Temperatur- und Feuchteregulierung im Boden, verhindern das Unkrautwachstum und die Bodenerosion bei Starkregen, schützen Kulturen vor Schädlingen und Fressfeinden. Gleichzeitig können diese Folien aber auch zu einem direkten Kunststoffeintrag in den Boden führen. Im Rahmen des Projekts iMulch haben Forschende die Auswirkungen der Kunststoffe auf Organismen, Bodenfunktionen, Drainagesysteme und angrenzende Gewässer untersucht.

Im Zuge des Klimawandels und der angestrebten Reduktion eingesetzter Pestizide erwarten Expertinnen und Experten einen stetig steigenden Einsatz von Mulchfolien in der Landwirtschaft. Das Verbundprojekt »iMulch – Eine Untersuchung des Einflusses von Polymeren auf ein terrestrisches Ökosystem am Beispiel von in der Landwirtschaft eingesetzten Mulchfolien« hat mögliche negative Effekte dieser Entwicklung aus verschiedenen Perspektiven betrachtet. Im Fokus standen eine konventionelle, erdölbasierte Polyethylen-Folie (PE) und zwei biobasierte und biologisch abbaubare Kunststofffolien (PLA/PBAT-Blends). Es sollte geklärt werden, ob und inwieweit biologisch abbaubare Folien im Vergleich zu konventionellen Folien ökologische Vorteile bieten.

Verwitterung, Alterung, Transportverhalten und mögliche Ökotoxizität
Mithilfe einer Versuchskläranlage im Labormaßstab, die mit dem Drainagewasser einer Ackerfläche befüllt war, führte das iMulch-Team verschiedene Verwitterungs- und Alterungstests mit den Mulchfolien durch. Die biobasierten Folien zeigten nach rund sechs bis acht Wochen deutliche Verwitterungsspuren und eine partielle Zersetzung. Konventionelle PE-Folien wiesen vor allem einen Bewuchs durch Mikroorganismen (Biofouling) auf. Generell führte Fouling bei beiden Folientypen zu einer deutlichen Zunahme der Dichte im Zeitablauf, was eine Sedimentierung von Folienfragmenten in Gewässern verursachte.

Um Aussagen über die Verwitterung der Mulchfolien treffen zu können, haben die Forschenden einen Bodenteststand verwendet und mit beiden Folientypen bestückt. Die Proben wurden auf dem Boden unter realistischen Umgebungsbedingungen hinsichtlich Bodenfeuchte, UV-Licht und Lufttemperatur bewittert. Ergebnis: Die Zersetzung biologisch abbaubarer Folien dauert länger als durch beschleunigte Klimaschranktests zunächst erwartet. Ein vollständiger Abbau konnte bis zum Versuchsende nach sechs Monaten nicht beobachtet werden. Die PE-Folie zeigte im selben Zeitraum keine wirklichen Veränderungen.

Zur Untersuchung des Transport- und Abbauverhaltens der Polymere im Boden wurden PE- und PLA/PBAT-Partikel mit einer 14C-radioaktiven Markierung synthetisiert und anschließend in den Oberboden eingebracht. Ein Transport fand bei beiden Folientypen auch nach 24 Monaten nicht statt. Ebenfalls wurden im selben Zeitraum die untersuchten Polymere und ihre Abbauprodukte nicht in Pflanzen nachgewiesen. Adsorptionsversuche mit dem Schwermetall Kupfer und drei Pestiziden zeigten keine signifikante Adsorption an den Mulchfolien. Lediglich für das Pestizid Tebuconazol ermittelten die Forschenden eine geringe Adsorption bei den Bio-Mulchfolien. Im Rahmen von Toxizitätsuntersuchungen wurden keine negativen Effekte für Bodenorganismen festgestellt. Untersuchungen aquatischer Organismen wiesen hingegen hormonelle Effekte beider Folientypen nach.

Entwicklung geeigneter Messmethoden
Um die Proben hinreichend untersuchen zu können, entwickelten die Forschenden in einem ersten Schritt eine geeignete Detektionsmethodik für Mikroplastik im Boden. Mithilfe der Methode wurden verschiedene Bodenproben aus bekannten Bewirtschaftungsformen betrachtet. Die im Rahmen von iMulch durchgeführten Messungen konnten die These nicht bestätigen, dass unterschiedliche Bewirtschaftungsformen zu unterschiedlichen Konzentrationen von PE bzw. PLA/PBAT in Böden führen.

Material- und Partikelgrößenverteilung
Aussagen über Partikelgröße und Partikelform konnten auf Basis einer neu entwickelten Methode für die RAMAN-Spektroskopie getroffen werden. In allen untersuchten Bodenproben wurden geringe Mengen an Mikroplastik nachgewiesen. Der Nachweis erforderte einen hohen zeitlichen Aufwand, denn um einen Kunststoffpartikel zu finden, mussten ca. 200 weitere Partikel betrachtet werden. Ein wirtschaftlicher Einsatz der RAMAN-Spektroskopie erfordert daher eine effizientere Probenvorbereitung.

Ökobilanzielle Betrachtung mithilfe einer Lebenszyklusanalyse
Als begleitende ökobilanzielle Betrachtung wurde eine Lebenszyklusanalyse (LCA) durchgeführt. Das Modell bilanzierte den Anbau von Zucchini in einer Saison unter 1 ha Mulchfolie beider Typen. Die Cradle-to-Grave-Studie berücksichtigte alle Schritte – Rohstoffbeschaffung, biologischer Abbau im Boden, stoffliches bzw. energetisches Recycling. Hinsichtlich ihrer Auswirkungen auf den Klimawandel schnitten die herkömmlichen PE-Mulchfolien besser ab als die biologisch abbaubaren Mulchfolien, wenn Gutschriften der energetischen und stofflichen Verwertung am Ende des Lebenszyklus mit einbezogen wurden. Mit dem Blick nur auf die Prozessbelastungen wiesen beide Folientypen hingegen eine ähnliche Bilanz auf. Einsparpotenziale bei den Treibhausgasemissionen ergeben sich aus der Verwendung biobasierter Adipinsäure für die Synthese von PBAT und durch eine Erhöhung des Recyclings von PE-Folien.

Mikrobielles Upcycling als zukunftsweisender Weg
Ein weiterer Arbeitsfokus von iMulch lag auf dem möglichen Upcycling der Folien. Es ist gelungen, biologisch abbaubare Folienfragmente durch spezielle Mikroorganismen abzubauen und neue Substanzen für eine mögliche Polymerherstellung aufzubauen.

Empfehlungen für den Einsatz von Mulchfolien
Auf Grundlage der Versuchsergebnisse leitete das iMulch-Team verschiedene Empfehlungen ab. Sie zielen darauf, den Eintrag von Kunststofffolienfragmenten in die Umwelt zu reduzieren und einen Einsatz von Mulchfolien emissionsärmer zu gestalten. Generell wird der Einsatz biologisch abbaubarer Folien bevorzugt. Es sollte jedoch ein Nachweis der Abbaubarkeit unter realen Freilandbedingungen überprüft werden. Insbesondere bei sehr dünnen konventionellen Folien ist nach der Nutzung ein Fragmentverlust zu erwarten. Sollen diese nach der Anwendung ohne Materialverlust geborgen werden, sind dickere, konventionelle Mulchfolien von Vorteil. Zu diesem Zweck könnte eine minimale Untergrenze der Materialstärke definiert werden. Für die geborgenen Folien empfiehlt sich zudem die Entwicklung geeigneter Recycling-Konzepte.

Eine weitere Möglichkeit besteht in einer Erhöhung der Folienstärke biologisch abbaubarer Folien, um diese nach der Anwendung ebenfalls vom Feld sammeln zu können. Sollten einzelne Fragmente dennoch auf den Böden verbleiben, können diese untergepflügt und über die Zeit abgebaut werden. Eine Produktion biologisch abbaubarer Mulchfolien mit identischer Materialstärke zu konventionellen Pendants ist aus wirtschaftlicher Perspektive aktuell jedoch nicht durchsetzbar. Für dieses Szenario wären zukünftig gegebenenfalls staatliche Anreize zu schaffen.

Förderhinweis und Projektpartner
Das Vorhaben iMulch ist ein Leitmarkt.NRW-Projekt und wurde mit Mitteln aus dem Europäischen Fond für regionale Entwicklung (EFRE) »Investitionen in Wachstum und Beschäftigung« gefördert. Das Konsortium des Verbundvorhabens umfasste sechs aktive Projektpartner und wurde von drei assoziierten Partnern begleitet. Neben der Fischer GmbH waren das Fraunhofer IME, das Fraunhofer UMSICHT, das nova-Institut und die RWTH Aachen mit den Instituten IUF und iAMB beteiligt. Die Projektleitung lag beim Institut für Energie- und Umwelttechnik e. V. (IUTA). Assoziierte Partner waren BASF, FKuR Kunststoff GmbH und das Umweltbundesamt. Zudem bestand ein reger Austausch mit der Landwirtschaftskammer NRW.

Weitere Informationen:
http://imulch.eu/ Homepage iMulch
https://www.umsicht.fraunhofer.de/de/projekte/imulch-kunststoffe-boeden.html Projektsteckbrief iMulch

(nach oben)


Innovative Technologien entfernen Arzneimittelrückstände aus Abwasser

Leibniz-Institut für Plasmaforschung und Technologie e.V.
Jedes Jahr am 22. März erinnert der Weltwassertag an die Bedeutung einer der wichtigsten Lebensressourcen. Unser Planet ist zu fast zwei Dritteln mit Wasser bedeckt, aber nicht einmal drei Prozent sind trinkbares Süßwasser. Täglich gelangen große Mengen an Chemikalien in unsere Gewässer und gefährden die Gesundheit von Menschen, Tieren und Pflanzen. Neben beispielsweise Pflanzenschutzmitteln belasten auch Medikamentenrückstände unser Trinkwasser. Das Leibniz-Institut für Plasmaforschung und Technologie (INP) hat technische Lösungen entwickelt, um Abwasser von solchen Schadstoffen zu reinigen.

Nach Informationen des Umweltbundesamts1) wurden bereits mehr als 400 verschiedene Arzneimittelwirkstoffe, deren Zwischen- oder Transformationsprodukte in der Umwelt nachgewiesen. Tierarzneimittel landen über Gülle und Mist als Dünger auf unseren Äckern oder werden von Weidetieren ausgeschieden. Von dort gelangen sie in Gewässer und oberflächennahes Grundwasser. Humanarzneimittel erreichen über Abwasser die Kläranlagen, werden dort aber meist nicht entfernt.

Der Verband der forschenden Pharmaunternehmen vfa2) weist zwar auf die geringe Konzentration der im Wasser gefunden Arzneimittelrückstände hin. Zur Beseitigung dieser Rückstände wäre aber laut Verband die Erweiterung der derzeit im Einsatz befindlichen Klärtechnik eine Möglichkeit, damit Arzneistoffe nicht in Gewässer gelangen.

Innovative Verfahren sorgen für sauberes Wasser
Prof. Dr. Juergen Kolb, Experte für Umwelttechnologien am Leibniz-Institut für Plasmaforschung und Technologie (INP) erläutert den aktuellen Stand der Forschung: „Wir kombinieren klassische physikalische Verfahren zur Abwasserreinigung mit neuen Technologien wie Ultraschall, gepulsten elektrischen Feldern und Plasmatechnologie. Hierdurch können wir chemische Verbindungen wie Medikamentenrückstände aber auch andere vom Menschen verursachte Verunreinigungen aufspalten und in unbedenkliche Stoffe umwandeln.“

Ihr Potenzial haben diese Verfahren in verschiedenen INP-Forschungsprojekten bereits bewiesen. Gegenwärtig werden die Ansätze in praxisrelevante Umgebungen überführt. „Unser Ansatz sind derzeit mobile Anlagen, die beispielsweise in Krankenhäusern eingesetzt werden können, wo die Wasserbelastung mit Arzneimittelrückständen besonders hoch ist. Gerade mit Blick auf die steigende Zahl an Antibiotika-resistenten Mikroorganismen sehen wir hier akuten Handlungsbedarf“, ergänzt Kolb. Auch für kommunale Kläranlagen eignen sich die Technologien als vierte Reinigungsstufe.

Den Weltwassertag haben die Vereinten Nationen ins Leben gerufen. Er findet seit 1993 jedes Jahr am 22. März statt. In diesem Jahr steht er unter dem Motto „Accelerating Change“, also den Wandel beschleunigen. Weltweit finden an diesem Tag Aktionen statt, die auf die lebenswichtige Bedeutung von Wasser hinweisen und Initiativen für sauberes Wasser und den sorgsamen Umgang mit der Ressource unterstützen.

Quellen:
1) https://www.umweltbundesamt.de/daten/chemikalien/arzneimittelrueckstaende-in-der…
2) https://www.vfa.de/de/wirtschaft-politik/arzneistoffe-im-wasser.html

(nach oben)


Die Laune an der Nasenspitze erkennen

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Nicht nur Augen und Mund verraten den Gemütszustand – Gießener Wahrnehmungsforscher stoßen zufällig auf die Bedeutung der Nase

Woran erkennen wir, ob andere sich gut oder schlecht fühlen, erregt sind oder entspannt? Wieso wirken manche Menschen auf Anhieb vertrauenswürdig, andere dominant oder attraktiv? Forschende beschäftigen sich seit Jahrzehnten mit der Frage, wie Menschen Gesichter verarbeiten und zu solchen Urteilen gelangen. Dabei liegt der Fokus traditionell auf der Augen- und der Mundregion, die sich als besonders wichtig für solche Wahrnehmungseindrücke erwiesen haben. Aber überraschenderweise nicht nur: In einer in der Zeitschrift „iPerception“ veröffentlichten aktuellen Studie zeigen Forscher der Justus-Liebig-Universität Gießen (JLU), dass auch die Nasenregion Urteile über den Gemütszustand erlaubt.

„Das Ganze war ein witziger Unfall“, erklärt Maximilian Broda, Erstautor der Studie und Doktorand in dem vom Europäischen Forschungsrat finanzierten Projekt INDIVISUAL. „Mein Promotionsbetreuer und ich schnitten Portraits für eine andere Studie zu, und dabei fiel uns auf, dass die isolierte Nasenregion erstaunlich ausdrucksstark erschien“. Die beiden Experimentalpsychologen folgten buchstäblich ihrem Riecher und baten 114 Teilnehmende einer Onlinestudie, Gesichter und isolierte Gesichtsteile hinsichtlich ihres Ausdrucks zu beurteilen. Und tatsächlich: Die isolierte Nasenregion erlaubte Urteile, die hoch mit denen für komplette Gesichter korrelierten, insbesondere bezüglich ihrer Gefühlslage, Erregung und Attraktivität.

„Wir waren überrascht zu sehen, wie gut das gelingt“, führt Dr. Ben de Haas aus, der das Projekt betreute. „Es ist bekannt, dass Menschen Gefühlsausdrücke an den Augen und dem Mund ablesen können. Dass das auch mit der Nasenregion gelingt, hatten wir so nicht erwartet. Vermutlich tragen die Wangenheber dazu bei, die die Nase einrahmen und in der Mimik eine große Rolle spielen. Außerdem können wir die Nase selbst kräuseln oder rümpfen. Unsere Ergebnisse legen nahe, dass Menschen auch solche Informationen nutzen, um die Gesichter anderer zu ‚lesen‘.“ Als nächstes wollen die Forscher versuchen, solche „Nasencodes“ besser zu verstehen.

Wissenschaftliche Ansprechpartner:
Dr. Benjamin de Haas
Abteilung für Allgemeine Psychologie der JLU
E-Mail: Benjamin.de-Haas@psychol.uni-giessen.de

Originalpublikation:
Broda, M. D., & de Haas, B. (2023). Reading the mind in the nose. I-Perception, 14(2). https://doi.org/10.1177/20416695231163449

(nach oben)


Wärmewende in der kommunalen Energieversorgung

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Wissenschaftler*innen aus mehreren Bundesländern haben Projekte zur Wärmewende begleitet und Lösungen für die Energieversorgung erarbeitet. Am 22. März 2023 stellen sie die Ergebnisse vor.

Berlin, 16. März 2023 – Über dreieinhalb Jahre haben Wissenschaftler*innen eines bundesweiten Forschungskonsortiums die Umsetzung von Wärmewendeprojekten in ausgesuchten Quartieren vor Ort begleitet, konkrete Lösungen mit initiiert, spannende Diskussionen geführt und zahlreiche Erfahrungen und Erkenntnisse gesammelt.

Am 22. März 2023 werden im Rahmen einer Abschlusskonferenz in Berlin die Ergebnisse des Forschungsprojektes „KoWa – Wärmewende in der kommunalen Energieversorgung“ von 9.00 bis 17.00 Uhr im VKU-Forum (Invalidenstraße 91, 10115 Berlin) präsentiert und diskutiert. Die Tagung wird im Livestream online übertragen.

Im ersten Teil der Tagung werden die im Projekt untersuchten Cluster im Detail vorgestellt. Der zweite Teil bietet Wissenschaftlern und Wissenschaftlerinnen und anderen Konferenzteilnehmern und -teilnehmerinnen Raum und Zeit, sich über die Forschungsergebnisse auszutauschen, Schwerpunktthemen in separaten Workshops zu diskutieren. Dabei geht es zum Beispiel um Kriterien und Bewertung von Nachhaltigkeitsparametern, rechtliche Herausforderungen bei der kommunalen Wärmewende und die Anwendung von Geo- und Solarthermie.

Am Forschungsprojekt beteiligt waren:
• IZES gGmbH – Institut für ZukunftsEnergie- und Stoffstromsysteme (Verbundkoordinator)
• Hochschule für Wirtschaft und Recht Berlin (HWR Berlin), Institut für Nachhaltigkeit der HWR Berlin (INa)
• Hochschule Osnabrück
• enable energy solutions GmbH
• Steinbeis Innovation gGmbH (SIG), Solites
• Universität Rostock

Das Forschungsprojekt wurde gefördert durch das Bundesministerium für Wirtschaft und Klimaschutz.

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

https://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marko Schwertfeger
Hochschule für Wirtschaft und Recht Berlin
E-Mail: kowa@hwr-berlin.de

(nach oben)


Nationale Wasserstrategie: Umsetzung durch wissenschaftliche Forschung unterstützen

Katrin Presberger Pressestelle
Technische Universität Dresden
In dieser Woche stellte die Bundesregierung die erste Nationale Wasserstrategie vor.
„Damit richtet die Bundesregierung einen besonderen Fokus auf die Notwendigkeit des integrierten Wasserressourcenmanagements, das international als Leitbild der Ressourcennutzung im Wassersektor gilt“, erklärt Niels Schütze, Professor für Hydrologie an der TU Dresden. Die deutsche Wasserforschung hat dafür in den letzten Jahren die wissenschaftlichen Grundlagen geschaffen.

In dieser Woche stellte die Bundesregierung die erste Nationale Wasserstrategie vor. Ziel ist es, angesichts der veränderten Rahmenbedingungen durch den Klimawandel Wassersicherheit sowohl für die menschliche Nutzung als auch die Gewässerökosysteme zu gewährleisten.

„Damit richtet die Bundesregierung einen besonderen Fokus auf die Notwendigkeit des integrierten Wasserressourcenmanagements, das international als Leitbild der Ressourcennutzung im Wassersektor gilt“, erklärt Niels Schütze, Professor für Hydrologie an der TU Dresden. Die deutsche Wasserforschung hat dafür in den letzten Jahren die wissenschaftlichen Grundlagen geschaffen.

Trotz der Fortschritte steht das integrierte Wassermanagement vor zahlreichen Herausforderungen beispielsweise auf dem Gebiet des adaptiven Managements unter Bedingungen von konkurrierenden Nutzungen, limitierten Ressourcen und großen Unsicherheiten der zukünftigen klimatischen, sozialen und ökonomischen Randbedingungen.

„Die Nationale Strategie ist ein gutes Instrument, um das Gesamtbild zu sehen und zu diskutieren“, sagt Niels Schütze. Bisher konnte man in Deutschland die Wasserverteilung und -speicherung ungefähr 50 Jahre im Voraus planen. „Mit den Änderungen durch den Klimawandel fahren wir auf Sicht. Wir können maximal die nächsten zehn bis 15 Jahre vorhersagen – bei ständigen Anpassungen“, erläutert der Hydrologe.

Während das verfügbare Trinkwasser derzeit wenig Sorge bereitet, ist offen, welche Maßnahmen für große Wasserverbraucher wie Land- und Forstwirtschaft sowie die Industrie notwendig sind. Aufgrund zunehmender Trockenheit stellt sich bei Land- und Forstwirtschaft immer drängender die Frage nach Intensität bzw. Menge der Bewässerung und deren Kosten. Aber auch aufgrund des hohen Wasserbedarfs von Industrieansiedlungen kann es im Einzelfall zu lokalen Engpässen kommen.

„Als ein zentrales Instrumentarium für die weitere wissenschaftliche Entwicklung und praktische Planung sehen wir an der TU Dresden virtualisierte Reallabore, sogenannte ‚digitale Zwillinge‘ von Umwelt und Gesellschaft, um die Gesamtheit der Einflussfaktoren und Wechselwirkungen in Gewässern und ihren Einzugsgebieten zu beurteilen“, sagt Niels Schütze. „Die Nationale Wasserstrategie der Bundesregierung sollte daher durch ein langfristig angelegtes wissenschaftliches Wasserforschungs- und Entwicklungsprogramm begleitet werden, das die schrittweise Umsetzung der Strategie unterstützt.“

Denn während Wasserknappheit und zukünftige Wasserverfügbarkeit in Deutschland im Zentrum der aktuellen Debatte stehen, sollte auch der Wasserqualität und dem guten ökologischen Zustand der natürlichen Gewässer und Feuchtsysteme mehr Aufmerksamkeit geschenkt werden. Steigende Nitratbelastung und der Eintrag von Mikroschadstoffen sind Beispiele für die wichtigsten aktuellen Probleme.

Wissenschaftliche Ansprechpartner:
Prof. Niels Schütze
Professur für Hydrologie
TU Dresden

Weitere Informationen:
http://Kontakt:
http://Prof. Niels Schütze
http://Professur für Hydrologie
http://TU Dresden
http://Tel.: +49 351 463-36380
http://E-Mail: niels.schuetze@tu-dresden.de

(nach oben)


Grüne Energie durch Abwärme

Yasmin Ahmed Salem M.A. Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Eisenforschung GmbH
Internationales Forschungsteam unter Leitung des Max-Planck-Instituts für Eisenforschung optimiert Effizienz thermoelektrischer Materialien und veröffentlicht neueste Ergebnisse in der Fachzeitschrift Advanced Energy Materials

In Zeiten knapper Energie sind nachhaltige Wege zur Energiegewinnung essentiell. So könnten zum Beispiel thermoelektrische Materialien zur Umwandlung von Abwärme in Energie genutzt werden. Allerdings ist diese Umwandlung bisher nicht effizient genug, um im industriellen Großmaßstab verwendet zu werden. Um die Effizienz zu steigern und grünen Strom aus Abwärme zu erzeugen, ist ein besseres Verständnis der funktionellen und strukturellen Eigenschaften der thermoelektrischen Materialien nötig. Einem Forschungsteam unter Leitung des Düsseldorfer Max-Planck-Instituts für Eisenforschung (MPIE) ist es nun gelungen, die Mikrostruktur eines vielversprechenden neuen thermoelektrischen Materials zu optimieren und somit den Weg zur industriellen Nutzung dieser Materialien zu ebnen. Das Team veröffentlichte seine Ergebnisse in der Fachzeitschrift Advanced Energy Materials.

Titan verbessert die elektrische Leitfähigkeit
Die Mikrostruktur der meisten Metalle und thermoelektrischer Materialien besteht aus Kristallen, sogenannten Körnern. Die Struktur und Zusammensetzung der Körner und der Räume zwischen ihnen, den sogenannten Korngrenzen, sind für die thermische und elektrische Leitfähigkeit thermoelektrischer Materialien entscheidend. Frühere Forschungsarbeiten haben gezeigt, dass Korngrenzen sowohl die thermische als auch die elektrische Leitfähigkeit des Materials verringern. Optimal ist allerdings eine niedrige thermische Leitfähigkeit, damit die Wärme beziehungsweise Energie im Material bleibt, und eine hohe elektrische Leitfähigkeit, um möglichst viel Wärme in Energie umzuwandeln. Ziel der Forschungsgruppe des MPIE, der Northwestern University (USA) und des Leibniz-Instituts für Festkörper- und Werkstoffforschung Dresden war es, die Korngrenzen so zu optimieren, dass nur die thermische Leitfähigkeit verringert wird, ohne die elektrische Leitfähigkeit zu beeinträchtigen. Sie verwendeten eine Legierung aus Niob, Eisen und Antimon, die bei mittleren bis hohen Temperaturen thermisch und mechanisch robust ist und deren Elemente reichlich verfügbar und unschädlich sind.

„Wir haben mit Rastertransmissionselektronenmikroskopen und Atomsonden die Mikrostruktur der Legierung bis auf die atomare Ebene untersucht. Unsere Analyse hat gezeigt, dass die Chemie und die atomare Anordnung der Korngrenzen optimiert werden müssen, um die elektrischen und thermischen Eigenschaften zu verbessern. Je kleiner die Körner im Material, desto höher die Anzahl der Korngrenzen und desto schlechter die elektrische Leitfähigkeit“, sagt Ruben Bueno Villoro, Doktorand in der unabhängigen Forschungsgruppe „Nanoanalytik und Grenzflächen“ von Prof. Christina Scheu am MPIE und Erstautor der Veröffentlichung. „Es ist nicht sinnvoll die Körner im Material zu vergrößern, da größere Körner die Wärmeleitfähigkeit erhöhen würden und wir somit Wärme und damit Energie verlieren. Deswegen mussten wir einen Weg finden, die elektrische Leitfähigkeit trotz der kleinen Körner zu erhöhen“, erklärt Dr. Siyuan Zhang, Projektleiter in derselben Forschungsgruppe und korrespondierender Autor der Veröffentlichung. Die Lösung ist das Material mit Titan anzureichern, welches sich unter anderem an den Korngrenzen ansammelt und damit die elektrische Leitfähigkeit erhöht.

Nächster Schritt: Selektive Anreicherung von Titan an Korngrenzen
Nachdem der Einsatz von Titan die elektrische Leitfähigkeit des Materials verbessert hat ohne die Wärmeleitfähigkeit zu beeinflussen, analysiert das Forschungsteam nun Möglichkeiten Titan gezielt nur an den Korngrenzen einzusetzen ohne das ganze Material mit Titan anzureichern. Diese Strategie spart Kosten und erhält die ursprüngliche chemische Zusammensetzung des thermoelektrischen Materials weitestgehend. Die aktuelle Forschungsarbeit zeigt wie funktionelle Eigenschaften mit der atomaren Struktur eines Materials verbunden werden können, um gezielt bestimmte Eigenschaften zu optimieren.

Wissenschaftliche Ansprechpartner:
Ruben Bueno Villoro, r.bueno@mpie.de

Originalpublikation:
R. Bueno Villoro, D. Zavanelli, C. Jung, D.A. Mattlat, R. Hatami Naderloo, N. Pérez, K. Nielsch, G.J. Snyder, C. Scheu, R. He, S. Zhang: Grain boundary phases in NbFeSb half-Heusler alloys: A new avenue to tune transport properties of thermoelectric materials. In: Advanced Energy Materials (2023) 2204321. DOI: 10.1002/aenm.202204321

Weitere Informationen:
https://www.mpie.de/4861523/tuning-thermoelectric-materials?c=2914275

(nach oben)


Lachen ist Medizin – auch fürs Herz

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Lachen und Humortraining können positive Effekte haben, die besonders Herzkranken zugutekommen. Über seine Klinikerfahrungen mit Angina-pectoris-Patienten berichtet ein Kardiologe im Herzstiftungs-Podcast

Lachen ist gesund und lässt sich durchaus als Medizin bezeichnen. Es weitet die Blutgefäße und fördert die Atmung. Lachen ist zudem einfach anzuwenden, kostengünstig und mit wenigen „Nebenwirkungen“ verbunden. Während Humor und Lachen in Form von Klinikclowns auf Kinderstationen in Krankenhäusern schon länger im Einsatz sind, nutzt man erst seit wenigen Jahren auch bei Erwachsenen gezielt ein Humortraining zur Therapie im Krankenhaus. „Humor und Lachen reduzieren Stress und die Konzentration des Stresshormons Cortisol kann durch ein siebenwöchiges Humortraining deutlich sinken“, berichtet der Kardiologe Prof. Dr. Peter Ong, Oberarzt der Abteilung für Kardiologie am Robert-Bosch-Krankenhaus Stuttgart, im aktuellen Herzstiftungs-Podcast „Lachen ist Medizin fürs Herz – wie Humortraining hilft“. Der Podcast der Serie „imPULS – Wissen für Ihre Gesundheit“ ist unter https://herzstiftung.de/podcast-lachen abrufbar. Inwiefern ein Humortraining bei Patienten mit nicht therapierbaren Angina-pectoris-Beschwerden die Symptome bessern kann, testeten Prof. Ong und Kollegen in einer Studie bei über 30 Patientinnen und Patienten (1).

Humortraining verbessert auch die depressive Stimmung, steigert die Erheiterbarkeit
Der Körper schüttet in Stresssituationen (z. B. Wut, Ärger) die Stresshormone Adrenalin und Cortisol aus, die das Herz schneller schlagen und die Gefäße verengen lassen. Dadurch steigt wiederum der Druck im Gefäßsystem. Beim Lachen werden nicht nur Glückshormone (Endorphine) und Serotonin sowie Immunglobuline (verstärkte Abwehr) ausgeschüttet, auch wird das Stresshormon Adrenalin unterdrückt, was dazu führt, dass im Blut der Spiegel des bei Stress erhöhten Hormons Cortisol sinkt. Auch ein Humortraining über sieben Wochen, angeleitet von einem speziell ausgebildeten Psychologen, kann stressreduzierend wirken und die Cortisol-Konzentration senken, wie Prof. Ong im Rahmen der genannten Studie bestätigt hat. Als Studienteilnehmer ausgewählt wurden bewusst Patienten mit koronarer Herzkrankheit (KHK) und Angina pectoris, deren starke Beschwerden wie Brustschmerz therapeutisch (Medikamente, Stents, Bypass-OP) nicht mehr zu lindern und deren Leidensdruck dementsprechend hoch war. Für den Kardiologen besonders erfreulich war, dass nicht allein der Stresshormon-Spiegel sank, sondern auch die depressive Stimmung merklich verschwand und sich die Erheiterbarkeit deutlich verbesserte, was sich anhand eines Fragebogens erfassen ließ. Wie lange diese Effekte anhalten, müssten noch weitere Untersuchungen klären, erklärt der Stuttgarter Herzspezialist im Podcast. „Wir sind fest davon überzeugt, dass hier ein bisher noch zu wenig genutztes Potenzial liegt – gerade um bei Herzpatienten die Beschwerden zu verbessern und zur Steigerung der Lebensqualität beizutragen.“ Wichtig ist Ong zufolge, dass Patienten das Humortraining, das über Techniken wie beim Lach-Yoga hinausgeht, dauerhaft betreiben. Aus der Gruppe des Humortrainings sei zum Beispiel inzwischen eine Art Selbsthilfegruppe entstanden, die den Austausch über Beschwerden und den Kontakt mit den „Leidgenossen“ über die Studie hinaus ermöglicht habe – ein wichtiger sozialer Aspekt.
Was ein Humortraining auszeichnet, warum es Frauen leichter fällt, sich auf Humor einzulassen und ob es auch Nebenwirkungen (Keine Wirkung ohne Nebenwirkung?) geben kann, erfahren Sie im Herzstiftungs-Podcast „Lachen ist Medizin fürs Herz – wie Humortraining hilft“ mit Prof. Dr. Peter Ong unter: https://herzstiftung.de/podcast-lachen
(wi/ne)

Literatur:
(1) Voss M. et al., Effect of humor training on stress, cheerfulness and depression in patients with coronary artery disease and refractory angina pectoris; DOI: 10.1007/s00059-019-4813-8

Bildmaterial erhalten Sie gerne unter E-Mail presse@herzstiftung.de oder Tel. 069 955128-114/-140

Der aktuelle Herzstiftungs-Podcast mit Prof. Dr. Peter Ong „Lachen ist Medizin fürs Herz – wie Humortraining hilft“ ist unter https://herzstiftung.de/podcast-lachen abrufbar.

Deutsche Herzstiftung
Pressestelle: Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
https://herzstiftung.de/podcast-lachen – Herzstiftungs-Podcast

Anhang
PM_DHS_Humor-und-Lachen-Medizin_2023-02-20_FIN

(nach oben)


Problem Schmerzmittelkonsum

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
In vielen Bereichen des Spitzen- und Leistungssports ist das Thema „Schmerzmittelkonsum“ zu einem Problem geworden – dies zeigt die weltweite Literaturrecherche einer Köln-Koblenzer Forschungsgruppe um Prof. Dr. Dr. Dieter Leyk, in der die Daten von über 6.000 Studien ausgewertet wurden. Die Ergebnisse wurden jetzt im Deutschen Ärzteblatt publiziert.

Schätzungsweise 1,9 Millionen Menschen in Deutschland nehmen täglich Schmerzmittel ein. 30 bis 40 Prozent der Schmerzmittelkonsumenten tun dies, ohne dass körperliche Schmerzen vorliegen, so das Ergebnis einer Befragungsstudie des Robert-Koch-Instituts. Und aus den Daten des Epidemiologischen Suchtsurveys 2018 geht hervor, dass die Abhängigkeit von Schmerzmitteln mit 3,2 Prozent auf einem ähnlichen Niveau liegt wie die Alkoholabhängigkeit (3,1 Prozent). Auch im Sport ist der Schmerzmittelkonsum in vielen Bereichen als Problem erkannt worden, wie u.a. die Berichterstattung der ARD Dopingredaktion sowie die öffentliche Anhörung zum Thema im Sportausschuss des Bundestags gezeigt haben.

Die Forschungsgruppe Leistungsepidemiologie der Deutschen Sporthochschule Köln um Prof. Dr. Dr. Dieter Leyk hat unter Mitwirkung von Koblenzer Wissenschaftler*innen die Daten von über 6.000 Studien (unter Einbeziehung von knapp 50.000 Dopingkontrollformularen) zum Schmerzmittelkonsum im Profi-, im Leistungs- sowie im Breitensport ausgewertet. Die weltweite Literaturrecherche konnte zeigen, dass der Schmerzmittelkonsum in vielen Bereichen des Spitzen- und Leistungssports zu einem Problem geworden ist. Im internationalen und nationalen Profifußball nimmt z.B. jede*r zweite bzw. jede*r dritte Spieler*in regelmäßig Analgetika, also schmerzstillende oder -lindernde Arzneimittel ein.

Im Breitensport scheint der Schmerzmittelkonsum bislang weniger verbreitet zu sein, dies zeigen die Daten des „ActIv-Projekts“, eine bundesweite Befragung zu Gesundheit, Leistung und Gewohnheiten (Bewegung, Ernährung, Schlaf) sowie Barrieren und Motiven für einen gesunden Alltag (https://www.dshs-koeln.de/activ). Nur 2,1 Prozent von über 50.000 Läufer*innen der German Road Races (GRR) gaben an, mindestens einmal im Monat Schmerzmittel zu nehmen.

Zur Gesamtproblematik trägt für Leyk und seine Mitautor*innen die große Medien-präsenz der Schmerzmittelwerbung bei, die oft schnell wirksame Lösungen für die unterschiedlichen Schmerzarten suggeriert. Daher fordern die Forscher*innen angesichts der Verbreitung von schädlichem Schmerzmittelgebrauch bzw. von Schmerzmittelabhängigkeit bessere Aufklärung und Werbeeinschränkungen.

Zur Publikation auf aerzteblatt.de: https://www.aerzteblatt.de/archiv/230125/Schmerzmittelkonsum-im-Sport

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Dieter Leyk: https://www.dshs-koeln.de/forschungsgruppe-leistungsepidemiologie/team/prof-dr-d…

Originalpublikation:
https://www.aerzteblatt.de/archiv/230125
Dtsch Arztebl Int 2023; 120: 155-61
DOI: 10.3238/arztebl.m2023.0003

Weitere Informationen:
http://www.dshs-koeln.de/activ Das ActIv-Projekt

(nach oben)


Rückgang der Nährstoffbelastung und Meeresspiegelanstieg: Gewinner und Verlierer im UNESCO-Weltnaturerbe Wattenmeer

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Ein Team von Forschenden hat eine signifikante Abnahme in der Häufigkeit, der Biomasse und der räumlichen Verbreitung von charakteristischen Wattenmeer-Arten, wie Schnecken, Muscheln, Krebsen oder Würmern, im Ostfriesischen Wattenmeer festgestellt. Das Team verglich dabei einen umfangreichen, aktuellen Datensatz aus dem Jahr 2018 von etwa 500 Messstationen mit einem vergleichbaren, historischen Datensatz aus den 1980er Jahren. Den Artenwandel im Ostfriesischen Wattenmeer führen die Wissenschaftler*innen auf eine verringerte Nährstoffbelastung und Auswirkungen des Meeresspiegelanstiegs auf die Lebensgemeinschaften im Wattboden zurück.

„Die in den 1980er Jahren noch dominante Gemeine Wattschnecke Peringia ulvae, der Bäumchenröhrenwurm Lanice conchilega oder die Sandklaffmuschel Mya arenaria haben in ihrer Häufigkeit um mehr als 80 Prozent abgenommen“, erklärt Erstautorin Dr. Anja Singer von Senckenberg am Meer und der Carl von Ossietzky-Universität Oldenburg und fährt fort: „Wir haben in einer breit angelegten Langzeitstudie die Artenzusammensetzung und -veränderung im Ostfriesischen Wattenmeer untersucht – und dabei einen deutlichen Wandel in der Häufigkeit, der Biomasse und der räumlichen Verbreitung zahlreicher Charakterarten festgestellt.“

In seiner Studie zeigt das Forscher*innen-Team, dass die Anzahl der insgesamt gefundenen Arten seit den 1980er Jahren im Untersuchungsgebiet zwar fast konstant geblieben ist – die zahlenmäßige und räumliche Verbreitung sowie der Anteil der Biomasse zahlreicher Arten sich aber bedeutend geändert hat. In den 1980er Jahren belief sich die Gesamtzahl auf 90 Arten, 2018 waren es noch 81 Arten. „Viel signifikanter ist die Abnahme der Gesamt-Individuenzahl der Arten pro Quadratmeter: Hier gab es einen gemittelten Rückgang um circa 31 Prozent. Die Gesamtbiomasse verringerte sich sogar um circa 45 Prozent im Vergleich zu den 1980er Jahren“, erläutert Prof. Ingrid Kröncke von Senckenberg am Meer und der Universität Oldenburg. Die Biomasse von drei in den 1980er Jahren vorherrschenden Arten – der Gemeinen Wattschnecke Peringia ulvae, des Bäumchenröhrenwurms Lanice conchilega und des Schlickkrebses Corophium volutator – ging um mehr als 80 Prozent zurück.
Insbesondere Tiere wie die Wattschnecke Peringia ulvae oder verschiedene Muschelarten, die sich von an der Sedimentoberfläche wachsenden kleinen Algen ernähren, verzeichnen in den Auswertungen der Forschenden einen starken Rückgang, der sich dann auch in der Gesamtbiomasse und -häufigkeit dieser Arten niederschlägt. Grund für die Abnahme sei ein vermindertes Nahrungsangebot. „Seit den 1980er Jahren gelten strengere Anforderungen für die Landwirtschaft und für kommunale Kläranlagen, wodurch weniger Nährstoffe in die Flüsse, wie die Elbe, die Weser oder den Rhein gelangen – und damit auch in unser Untersuchungsgebiet. Diese verringerte Nährstoffbelastung führt zu einem deutlichen Rückgang von Algenblüten – der Nahrungsquelle der genannten Tiere“, erklärt Kröncke und fährt fort: „Was für die Wattschnecke vielleicht von Nachteil ist, ist für andere Organismen aber ein deutlicher Gewinn: Die bessere Wasserqualität wirkt sich beispielsweise positiv auf Seegraswiesen und Austernriffe aus. Die Ergebnisse unserer Studie bestätigen, dass sich Seegrasbestände im deutschen Wattenmeer bis 2018 erholt haben und zeigen eine Ausdehnung der gemischten Muschel- und Austernbänke!“

Auch die Biomasse des Wattwurms Arenicola marina stieg um etwa 75 Prozent an. „Wir erklären diese Zunahme mit einer durch den Meeresspiegelanstieg bedingten höheren Sandanreicherung auf den Watten, besonders im westlichen Bereich des Ostfriesischen Wattenmeeres. Darüber hinaus führen durch den Meeresspiegelanstieg bedingte höhere Strömungsgeschwindigkeiten zugleich zu einer Abnahme des Schlickgehalts in den Sedimenten. Eine Synergie dieser beiden Prozesse, Sandanreicherung und Abnahme des Schlickgehalts, bieten bessere Lebensbedingung für den Wattwurm und andere Arten“, so Singer.
Die Gesamtzahl der invasiven Arten erhöht sich laut der neuen Studie von zwei auf insgesamt sechs Arten. Der klimabedingte Anstieg der Meeresoberflächentemperaturen um circa zwei Grad Celsius seit den 1980er Jahren im Untersuchungsgebiet begünstigt die Etablierung neuer invasiver Arten, so die Forschenden. Die Amerikanische Schwertmuschel (Ensis leei) findet man nun etwa 80 Prozent häufiger im Ostfriesischen Wattenmeer. Die invasive Muschel zählt zu den „Gewinnern“ in diesem Teil des UNESCO-Weltnaturerbes Wattenmeer. Die vier 2018 neu erfassten invasiven Arten – die Amerikanische Pantoffelschnecke Crepidula fornicata, die Pazifische Auster Magellana gigas, die Zwergbrandungsmuschel Mulinea lateralis und die räuberisch lebende Felsenkrabbe Hemigrapsus spec. – gelten als tolerant gegenüber höheren Temperaturen.

„Unsere Ergebnisse zeigen deutliche Veränderungen in den Lebensgemeinschaften im Wattsediment, die erhebliche Auswirkungen auf das gesamte Nahrungsnetz im Wattenmeer haben werden: Die im Wattboden lebenden Arten stellen eine wichtige Nahrungsquelle für junge Plattfische und brütende und rastende Vogelarten dar. Durch den fortschreitenden Anstieg des Meeresspiegels und der Temperatur wird das Ökosystem des Wattenmeeres mit gravierenden ökologischen und biologischen Veränderungen in der Zukunft konfrontiert sein. Daher ist eine detaillierte Kenntnis der Veränderungen im UNESCO-Weltnaturerbe Wattenmeer von entscheidender Bedeutung für umweltrechtliche Entscheidungen und die Entwicklung realistischer Managementkonzepte mit dem übergeordneten Ziel, eine dauerhafte Strategie für eine nachhaltige Nutzung der natürlichen Meeresressourcen zu schaffen“, fasst Singer zusammen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ingrid Kröncke
Senckenberg am Meer
Tel. 04421 9475 250
ingrid.kroencke@senckenberg.de

Dr. Anja Singer
Senckenberg am Meer
Tel. 04421 9475 267
anja.singer@senckenberg.de

Originalpublikation:
Singer A, Bijleveld AI, Hahner F, Holthuijsen SJ, Hubert K, Kerimoglu O, Kleine Schaars L, Kröncke I, Lettmann KA, Rittweg T, Scheiffarth G, van der Veer HW and Wurpts A (2023): Long-term response of coastal macrofauna communities to deeutrophication and sea level rise mediated habitat changes (1980s versus 2018). Front. Mar. Sci. 9:963325. doi: 10.3389/fmars.2022.963325

(nach oben)


Immunzellen verfügen über einen Backup-Mechanismus

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Das Enzym TBK1 ist ein wichtiger Baustein des angeborenen Immunsystems, der vor allem bei der Abwehr von Viren eine Rolle spielt. Ist die Aktivität von TBK1 durch Mutationen gestört, zeigen Patienten eine gesteigerte Anfälligkeit gegenüber Virusinfektionen. Wird TBK1 hingegen gar nicht exprimiert, zeigt sich dieser klinische Effekt nicht. Welcher Mechanismus sich hinter dieser vermeintlichen Diskrepanz verbirgt, konnte nun von Forschenden um Prof. Martin Schlee vom Universitätsklinikum Bonn und vom Exzellenzcluster ImmunoSensation2 der Universität Bonn aufgeklärt werden. Die Studie wurde in der Zeitschrift Frontiers in Immunology veröffentlicht.

Virale Bestandteile werden im menschlichen Körper von so genannten Pattern Recognition Rezeptoren (PRRs) innerhalb der Zelle oder auf der Zelloberfläche erkannt. Diese lösen bei Aktivierung eine Signalkaskade aus, die letztendlich in der Produktion von Signalmoleküle wie Interferonen und Zytokinen und deren Ausschüttung mündet. Diese Botenstoffe alarmieren benachbarte Immunzellen und machen sie auf die Virusinfektion aufmerksam, so dass eine Immunreaktion erfolgt.

Bestandteil dieser Signalkaskade ist das Enzym TANK Binding Kinase 1 (TBK1). Werden virale Bestandteile durch PRRs erkannt, wird TBK1 aktiviert. TBK1 setzt wiederum zwei Transkriptionsfaktoren in Gang, die in den Zellkern wandern und dort die Transkription von Interferon- und Zytokin-Genen anwerfen.

Anfälligkeit für Virusinfektionen
Punktmutationen im TBK1-Gen können zu einem Funktionsverlust von TBK1 führen. Dieser schlägt sich beim Menschen in einer klinischen Anfälligkeit für Virusinfektionen nieder. Erstaunlicherweise ist dieser Effekt nicht zu beobachten, wenn TBK1 nicht exprimiert wird und somit in der Zelle fehlt. „Ein vollständiges Fehlen der TBK1-Expression beim Menschen ist überraschenderweise nicht mit einer verminderten antiviralen Reaktion verbunden“, sagt Prof. Martin Schlee vom Institut für Klinische Chemie und Klinischen Pharmakologie am Universitätsklinikum Bonn. Bislang war unklar, warum ein vollständiger Verlust der TBK1-Expression hinsichtlich der Immunkompetenz besser toleriert wird als eine Mutation von TBK1, die die Kinase-Funktion betrifft.

Die Bonner Forscher konnten nun eine Erklärung für diese bisher unerklärte Beobachtung liefern. „Dabei spielt ein zweites Enzym, das der TBK1 sehr ähnlich ist, eine wichtige Rolle: die IkB kinase epsilon, oder kurz IKKepsilon,“ erklärt Dr. Julia Wegner, Erstautorin der Studie. Genau wie TBK1 ist IKKepsilon den PRRs nachgeschaltet und kontrolliert die Expression von Interferonen. Auch in ihrem Aufbau sind sich die beiden Proteine sehr ähnlich und weisen eine Sequenzhomologie von über 60 Prozent auf. Neu ist der Befund, dass TBK1 einen direkten Einfluss auf IKKepsilon hat. „In myeloiden Zellen konnten wir zeigen, dass TBK1 die Expression der verwandten Kinase IKKepsilon reguliert“, ergänzt Dr. Wegner.

Keine halben Sachen
TBK1 verringert die Stabilität von IKKepsilon. Dieser Vorgang ist von der enzymatischen Funktion des Proteins unabhängig. „Ein durch Punktmutation nichtfunktionales TBK1 ist entsprechend trotzdem in der Lage, IKKepsilon zu destabilisieren“, erklärt Prof. Gunther Hartmann, Direktor des Instituts für Klinische Chemie und Klinische Pharmakologie und Sprecher des Exzellenzclusters ImmunoSensation2. „Dies führt in menschlichen Immunzellen zu einem kontinuierlichen Abbau der Kinase IKKepsilon.“

Zusammengefasst führt also der Verlust der TBK1-Expression zu einem erhöhten Vorkommen von IKKepsilon. Dieser Mechanismus stellt sicher, dass trotz Abwesenheit von TBK1 eine antivirale Immunreaktion ablaufen kann. Ein durch Punktmutationen herbeigeführter Funktionsverlust von TBK1 hingegen verhindert die Destabilisierung und den Abbau von IKKepsilon nicht, so dass letztendlich beide Faktoren in der Virusabwehr fehlen. Eine erhöhte Anfälligkeit für Virusinfektionen ist die Folge.

Die Waffen eines Virus
Im gesunden Organismus können also erhöhte Mengen der Kinase IKKepsilon den Verlust von TBK1 ausgleichen. Das ist besonders wichtig, wenn Viren die körpereigene Abwehr gezielt ausschalten wollen. Das Herpes-Simplex Virus 1 (HSV-1), das Humane Immundefizienz Virus (HIV), aber auch das Severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2) sind in der Lage, TBK1 gezielt auszuschalten. Auch sind verschiedene Bakterienarten in der Lage, den Abbau von TBK1 zu bewirken. „Unsere Daten zeigen eindeutig, dass menschliche Immunzellen über einen wichtigen Backup-Mechanismus verfügen“, erläutert Dr. Wegner. „Sie sind in der Lage, eine effektive antivirale Antwort aufrecht zu erhalten, auch wenn es zu einem pathogen-induzierten Abbau von TBK1 kommt. Darüber hinaus greift der Mechanismus auch bei genetischem Verlust von TBK1“.

Kontakt:
Dr. David Fußhöller
Cluster of Excellence ImmunoSensation2
University of Bonn
Tel. (+49) 228 287 512 83
E-Mail: david.fusshoeller@uni-bonn.de

Originalpublikation:
Wegner Julia, Hunkler Charlotte, Ciupka Katrin, Hartmann Gunther, Schlee Martin (2023); Increased IKKepsilon protein stability ensures efficient type I interferon responses in conditions of TBK1 deficiency; Frontiers in Immunology , Vol. 14; DOI: 10.3389/fimmu.2023.1073608

(nach oben)


Erste Dialogveranstaltung von Citizen-Science-Projekt zu Trinkwasser

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Was passiert mit unserem Wasser, bevor es in unsere Häuser und Wohnungen gelangt? Infos dazu gibt es für alle Interessierten in Impulsvorträgen und einer Gesprächsrunde.

Wasser befindet sich in einem ständigen Kreislauf, von dem das Projekt CS:iDrop® – kurz für „Citizen Science: investigation of Drinking water of and by the public“ – einen kleinen Ausschnitt unter die Lupe nimmt: Das Projekt setzt an der Stelle an, an der der Verantwortungsbereich des kommunalen Wasserversorgers endet, an der Wasseruhr. Aber was passiert mit dem Wasser bis zu diesem Punkt? Wie wird Oberflächen- oder Grundwasser von den kommunalen Wasserversorgern wieder zu Trinkwasser aufbereitet, und wie sehen die regelmäßigen Analysen aus, die eine sehr hohe Qualität unseres Trinkwassers bis zur Wasseruhr sicherstellen? Antworten gibt es am Montag, 20. März 2023 ab 18 Uhr in der Aula der Technischen Beruflichen Schule 1, Ostring 25, 44787 Bochum. Das Organisationsteam bittet um eine unverbindliche Anmeldung (https://terminplaner6.dfn.de/de/b/a984dd6bfbc7c7325b9048d8aaf889d1-137889).

Neben dem CS:iDrop-Projektteam sind die Projektpartner, die Stadtwerke Bochum und die Westfälische Wasser- und Umweltanalytik GmbH, bei der Veranstaltung vertreten. Teilnehmende können im Anschluss das Labor der Technischen Beruflichen Schule 1 besichtigen, in dem die Proben aus CS:iDrop auch analysiert und ausgewertet werden. Das Format der Dialogveranstaltung dient dazu, Bürgerinnen und Bürgern Einblicke rund um das Thema Trinkwasser zu ermöglichen. Zugleich bieten sie den Forschenden und Interessierten die Gelegenheit, miteinander ins Gespräch zu kommen, um den fachlichen und inhaltlichen Austausch zu fördern und zur Weiterentwicklung des Projekts beizutragen.

Das Projekt CS:iDrop
Im bürgerwissenschaftlichen Forschungsprojekt CS:iDrop nehmen Bürgerinnen, Bürger und Forschende der Pilotregion Bochum gemeinsam das Trinkwasser zwischen der Hausübergabestation und dem Wasserhahn in den Blick. Dazu entnehmen Teilnehmende zu Hause eine Trinkwasserprobe und untersuchen diese mittels verschiedener Methoden. Ziel ist es, Erkenntnisse über mögliche Veränderungen ausgewählter chemischer Parameter des Trinkwassers durch Wechselwirkungen mit Leitungen und Armaturen auf dem letzten Meter zu gewinnen. Bisher wurden 15 Messlokaltermine durchgeführt, an denen mehr als 250 Personen teilgenommen haben. Alle interessierten Bochumerinnen und Bochumer können sich über die Projektwebseite (https://www.ruhr-uni-bochum.de/didachem/CSiDrop.htm) jederzeit für die wissenschaftliche Mitarbeit anmelden.

Förderung
Das bürgerwissenschaftliche Projekt CS:iDrop wird von dem Bundesministerium für Bildung und Forschung im Rahmen der Richtlinie zur Förderung von bürgerwissenschaftlichen Vorhaben seit 1. März 2021 bis 31. Dezember 2024 mit 600.000 Euro gefördert. Die Koordination liegt bei Prof. Dr. Katrin Sommer (Lehrstuhl für Didaktik der Chemie) und Prof. Dr. Joachim Wirth (Lehrstuhl für Lehr-Lernforschung).

Wissenschaftliche Ansprechpartner:
Maren Funke
CS:iDrop®
Presse- und Öffentlichkeitsarbeit
Lehrstuhl für Didaktik der Chemie
Ruhr-Universität Bochum
E-Mail: csidrop@ruhr-uni-bochum.de

Weitere Informationen:
http://Projektwebseite: https://www.ruhr-uni-bochum.de/didachem/CSiDrop.htm

(nach oben)


Hochschulzertifikate: Berufsbegleitende Weiterbildung auf akademischem Niveau

Timo Keppler Presse- und Öffentlichkeitsarbeit
Allensbach Hochschule
Die private Allensbach Hochschule hat eine Reihe an Hochschulzertifikaten auf Bachelor- und Masterniveau entwickelt, um Berufstätige nebenberuflich akademisch auf hohem Niveau zu qualifizieren. Die Hochschule baut das Angebot kontinuierlich aus.

Viele Arbeitnehmende, Selbständige und sogar Unternehmer:innen wollen sich weiterbilden, um neue Kompetenzen zu erlangen und sich damit auf die kommenden Herausforderungen in der Arbeitswelt einzustellen. Aber für ein Studium fehlt ihnen im Alltag die Zeit, oder aber sie suchen einen eher spezifischen Zugang zu bestimmten Themen, weil ein Bachelor- oder Masterstudium zu umfangreich und/oder allgemein für die individuellen Bedürfnisse sind.

Aus diesem Grund hat die private Allensbach Hochschule eine Reihe an Hochschulzertifikaten auf Bachelor- und Masterniveau entwickelt. Damit werden Professionals angesprochen, die strukturierte Weiterbildungsangebote in ihrem oder einem angrenzenden Fachbereich suchen, um sich darüber neue Möglichkeiten in ihrem beruflichen Umfeld zu eröffnen. „Wir haben die Erfahrung gemacht, dass unsere Hochschulzertifikate sehr gut ankommen. Sie bieten die Gelegenheit, mit einem überschaubaren Zeitaufwand eine anerkannte und hochwertige Zusatzausbildung zu erhalten, die im Beruf unmittelbar weiterbringt. Alle Inhalte unserer Allensbach-Hochschulzertifikate sind so strukturiert, dass sie höchsten praktischen Nutzen bringen“, sagt Timo Keppler, Kanzler der Allensbach Hochschule. Die Hochschule entwickelt ihr Angebot an Hochschulzertifikaten kontinuierlich weiter (https://www.allensbach-hochschule.de/weiterbildung/).

Die Allensbach Hochschule in Konstanz ist eine staatlich anerkannte Hochschule des Bundeslandes Baden-Württemberg und bietet verschiedene berufsbegleitende Bachelor- und Masterprogramme im Bereich der Wirtschaftswissenschaften an. Kürzlich wurde die Hochschule vom Wirtschaftsmagazin „Focus Business“ in die Liste der „Top Anbieter für Weiterbildung 2023“ aufgenommen. Es ist das zweite Mal in Folge. Ebenso wurde die Allensbach Hochschule von „FernstudiumCheck“ als „Top Fernhochschule 2023“ ausgezeichnet und ist „Exzellenter Anbieter 2023“ beim Vergleichsportal „Fernstudium Direkt“. Die Allensbach Hochschule belegt bei dem Portal im Segment „Fernhochschulen-DE“ den zweiten Platz.

„Alle Hochschulzertifikate der Allensbach Hochschule werden praktisch und wissenschaftlich erfahrenen und anerkannten Dozierenden betreut und online und ohne verpflichtende Präsenzveranstaltungen absolviert. Die Lerninhalte lassen sich direkt im beruflichen Alltag einsetzen. Die Bildungseinrichtung setzt bei allen Programmen auf vollständig online-basierte Vorlesungen, die in geschützten Räumen stattfinden und aufgezeichnet werden. Das digitale Lernen wird durch didaktisch hochwertig aufbereitete Studienmaterialien unterstützt“, beschreibt Timo Keppler die Vorteile der berufsbegleitenden akademischen Weiterbildung.

Ein großer Vorteil: Für die Zulassung zu einem Hochschulzertifikat sind in der Regel weder Hochschulzugangsberechtigung noch Erststudium erforderlich. Teilnehmende können somit einzelne oder mehrere Module aus den Bachelor- beziehungsweise Masterstudiengängen buchen und hierfür ein Hochschulzertifikat erhalten. Erbrachte Prüfungsleistungen können anerkannt werden, falls Teilnehmende später ein Bachelor- oder Masterstudium absolvieren möchten. Alle Hochschulzertifikate werden im Fernstudium absolviert, das heißt online, ohne Präsenzveranstaltungen und ohne Präsenzpflicht. Nach Bestehen der Modulprüfung erhalten die Absolvent:innen ECTS und einen entsprechenden Leistungsnachweis mit Zertifikat.

„Alle Teilnehmenden werden in den Zertifikatsstudien von unseren Professor:innen ebenso individuell betreut wie in den regulären Studiengängen. Wir legen dabei neben der akademischen Grundlagenbildung vor allem Wert auf moderne, innovative Inhalte wie Integrations- und Diversity-Management, Mediendidaktik und E-Learning oder auch Digital Business Management“, betont Timo Keppler.

(nach oben)


Parasiten im Visier

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
30. Jahrestagung der Deutschen Gesellschaft für Parasitologie vom 15. bis 17. März 2023 an der Justus-Liebig-Universität Gießen

Parasiten zählen zu den weltweit bedeutendsten Krankheitserregern, auch wenn ihnen in der breiten Öffentlichkeit eine vergleichsweise geringe Aufmerksamkeit zuteilwird. Drängende Fragen zur Grundlagenforschung an Parasiten, zu Vektoren (Überträgern), Wirt-Parasit-Interaktionen, zur Epidemiologie, Klinik, Diagnostik, Behandlung und zu Resistenzen werden auf der 30. Jahrestagung der Deutschen Gesellschaft für Parasitologie (DGP) diskutiert. Auf der Tagung kommen Wissenschaftlerinnen und Wissenschaftler zusammen, die neben der Parasitologie auf den Gebieten Allgemeine Zoologie, Biochemie, Zell- und Molekularbiologie, Analytische Chemie, Medizin, Tropenmedizin und Veterinärmedizin forschen. Die Tagung adressiert auch genderspezifische Aspekte, den ONE-Health-Ansatz und vernachlässigte Tropenkrankheiten (Neglected tropical diseases, NTDs), translationale Aspekte parasitärer Infektionskrankheiten (Parasitosen) sowie methodische Neuerungen. Die Jubiläumstagung findet vom 15. bis zum 17. März 2023 an der Justus-Liebig-Universität Gießen (JLU) statt. Tagungsort ist das Hörsaalgebäude/Seminargebäude Recht und Wirtschaft, Licher Straße 68.

„SARS-Cov-2 ist bekanntlich nicht die einzige Bedrohung durch einen Infektionserreger für Menschen weltweit. Neben Viren sind aus der Welt der Pathogene weitere Erregergruppen von hoher medizinischer und wirtschaftlicher Relevanz bekannt wie die Parasiten, welche überall auf der Erde, und auch zu Wasser, auftreten und eine breite Palette von Erkrankungen auslösen – mit schwerwiegenden, zum Teil fatalen Folgen für Mensch und Tier. Solchen Parasiten werden wir uns im Rahmen der Jahrestagung widmen“, sagt der Parasito¬lo¬ge Prof. Dr. Christoph Grevelding. Gemeinsam mit seinen Kolleginnen und Kollegen vom Institut für Parasitologie am Fachbereich Veterinärmedizin der JLU – Prof. Dr. Anja Taubert, Prof. Dr. Franco H. Falcone und Prof. Dr. Carlos Hermosilla sowie weiteren Mitarbeiterinnen und Mitarbeitern – richtet er die dreitägige wissenschaftliche Veranstaltung aus.

Im Jubiläumsjahr umfasst die internationale Tagung neun Plenarvorträge renommierter Wissenschaftlerinnen und Wissenschaftler sowie 21 wissenschaftliche Sessions und fünf Workshops, welche die Breite des Fachs Parasitologie abbilden. Die Gastgeber erwarten über 300 Teilnehmerinnen und Teilnehmer in Gießen.

Prof. Grevelding ist zugleich stellvertretender Sprecher des LOEWE-Zentrums DRUID (Novel Drug Targets against Poverty-related and Neglected Tropical Infectious Diseases), das sich dem Themenkomplex der vernachlässigten Tropenkrankheiten widmet und vor allem Fragen zur Identifikation und Charakterisierung potenzieller Zielmoleküle für die Entwicklung von Wirkstoffen und Diagnostika gegen tropische Infektionskrankheiten adressiert. Das Zentrum DRUID vereint unter Federführung der Philipps-Universität Marburg (Sprecher: Prof. Dr. Stephan Becker, Institut für Virologie der UMR), die hessischen medizinführenden Universitäten (UMR, JLU und Goethe-Universität Frankfurt) sowie das Paul-Ehrlich-Institut, das Fraunhofer Institut für Translationale Medizin und Pharmakologie und die Technische Hochschule Mittelhessen.

Deutsche Gesellschaft für Parasitologie (DGP)
Die Deutsche Gesellschaft für Parasitologie (DGP) mit Sitz in Frankfurt/Main versteht sich als Zusammenschluss aller wissenschaftlich an der Parasitologie interessierten Personen, die auf den Gebieten der Zoologie und Botanik, der Medizin, insbesondere Tropenmedizin, Mikrobiologie und Hygiene, der Veterinärmedizin, des Pflanzenschutzes und der Schädlingsbekämpfung tätig sind. Die Gesellschaft hat sich zum Ziel gesetzt, dem Fortschritt auf allen Gebieten der Parasitologie zu dienen durch fachliche Zusammenarbeit, durch Erfahrungsaustausch zwischen In- und Ausland und durch Förderung des wissenschaftlichen Nachwuchses. Dazu hält die DGP alle zwei Jahre eine wissenschaftliche Tagung ab und führt zwischenzeitlich Symposien und Arbeitstagungen durch. Die DGP betreibt Öffentlichkeitsarbeit, um die Bedeutung von Parasitosen und die Arbeit von Parasitologen in den Medien und bei Forschungsförderern bekannt zu machen. Unter anderem konnten bei der Deutschen Forschungsgemeinschaft (DFG) aufgrund der Aktivitäten der DGP bislang drei Forschungsschwerpunktprogramme eingerichtet werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph G. Grevelding
Institut für Parasitologie der JLU Gießen
BFS, Schubertstraße 81
35392 Gießen
Telefon: 0641 99-38466
E-Mail: christoph.grevelding@vetmed.uni-giessen.de

Originalpublikation:
https://parasitology-meeting.de/
https://dgparasitologie.de/
AG Schistosomen — Institut für Parasitologie (uni-giessen.de)
DRUID – LOEWE-Vorhaben / ProLOEWE / ProLOEWE

(nach oben)


Cochrane Review: So lassen sich bei älteren Menschen Stürze verhindern

Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Die Beseitigung von Stolperfallen in der Wohnung kann das Sturzrisiko älterer Menschen um etwa ein Viertel verringern, so das Ergebnis eines aktuellen Cochrane Reviews. Für eine Reihe anderer Maßnahmen zur Verringerung des Sturzrisikos fand die Studie keine überzeugenden Belege.

Stürze häufen sich im Alter: Schätzungen zufolge erleidet rund ein Drittel aller Menschen ab 65 im Laufe eines Jahres mindestens einen Sturz. Und auch die Folgen eines Sturzes sind im Alter öfter dramatisch, das Risiko für Knochenbrüche und andere Verletzungen steigt erheblich. Dabei ereignen sich die meisten Stürze in den eigenen vier Wänden.

„Stürze sind bei älteren Menschen sehr häufig. Sie können zu schweren Verletzungen oder sogar zum Tod führen, dabei sie sind vermeidbar. In diesem Review wollten wir untersuchen, welche Maßnahmen das Sturzrisiko bei älteren Menschen, die zu Hause leben, am effektivsten reduzieren“, sagt Lindy Clemson, emeritierte Professorin an der Universität Sydney und Hauptautorin der Studie.

Für den Review analysierten Clemson und ihre Kolleg*innen die Ergebnisse von 22 Studien mit Daten von 8 463 älteren Menschen. Dabei zeigte sich, dass Maßnahmen zur Verringerung von Gefahrenstellen im häuslichen Umfeld die Zahl von Stürzen wahrscheinlich um 26 Prozent senken. Solche Maßnahmen umfassen in der Regel eine Bewertung der Gefahrenstellen im häuslichen Umfeld in Kombination mit Empfehlungen zur Verringerung des Risikos, z. B. durch simples Aufräumen oder das Anbringen von Handläufen und rutschfesten Streifen an Treppen. Diese Maßnahmen zeigen die größte Wirkung (38 Prozent weniger Stürze) bei Menschen mit erhöhtem Sturzrisiko. Auf der Grundlage ihrer Analyse rechnen die Autor*innen hoch, dass sich unter 1000 Personen, die diese Maßnahmen ein Jahr lang befolgen, die Gesamtzahl der Stürze von 1.847 auf 1.145 sinken würde.

Die Forschung zeigt, dass gefährdete Menschen ihr Sturzrisiko erheblich verringern können, wenn sie ein Bewusstsein für Sturzgefahren in der Wohnung entwickeln, diese beseitigen und sich sichere Verhaltensweisen angewöhnen. Es zeigt sich zudem, dass Maßnahmen zur Verringerung der Sturzgefahr im häuslichen Umfeld eine professionelle Begutachtung und Umsetzung erfordern und nicht nur mit einer kurzen Checkliste abzuhaken sind. „Zwar können und sollten Betroffene und Angehörige auch selbst auf das häusliche Umfeld achten. Auch Übungen für Gleichgewicht und Kraft der Beine sind sinnvoll. Dennoch ist die professionelle Unterstützung durch einen Ergotherapeuten oder eine Ergotherapeutin für sturzgefährdete Menschen eine wichtige Maßnahme“, meint Clemson.

Der Review belegt zwar, dass es bei einer Reduzierung des Gefahren zu weniger Stürzen kommt. Ob sich das auch in weniger sturzbedingte Krankenhauseinweisungen übersetzt, lässt sich auf Basis der Studienergebnisse allerdings nicht sagen. Für die anderen untersuchten Ansätze zur Sturzprävention wie Aufklärung, eine Überprüfung von Brillen oder spezielle Schuhe hätte der Review nur sehr begrenzte Evidenz gefunden, sagt Clemson. „Die Sturzprävention ist wirklich wichtig, um Menschen dabei zu helfen, im Alter gesund und unabhängig zu bleiben. Unsere Arbeit zeigt aber auch, dass mehr Forschung in diesem Bereich notwendig ist.“

Originalpublikation:
Clemson L, Stark S, Pighills AC, Fairhall NJ, Lamb SE, Ali J, Sherrington C. Environmental interventions for preventing falls in older people living in the community. Cochrane Database of Systematic Reviews 2023, Issue 1. Art. No.: CD013258. DOI: 10.1002/14651858.CD013258.pub2

Weitere Informationen:
https://www.cochrane.de/news/stuerze-bei-aelteren-menschen-lassen-sich-verhinder…

(nach oben)


Verbrenner-Aus ab 2035? Ja bitte!

Amelie Störk Presse- und Öffentlichkeitsarbeit
SRH Fernhochschule
Nachhaltigkeit ist ein komplexes Thema. Das zeigt sich auch in der aktuellen Diskussion, ob ab 2035 keine Kraftfahrzeuge mit Verbrennungsmotor mehr neu zugelassen werden sollen. Dies hat das Europäische Parlament im Februar 2023 beschlossen. Jetzt braucht es eine Bestätigung durch die EU-Mitgliedstaaten. Hier gibt es keine einfachen Antworten, weiß Prof. Dr. Michael Koch, Professor für Economics & Sustainability an der SRH Fernhochschule. Er hat die wichtigsten Argumente beider Seiten zusammengetragen und erklärt, warum er sich aus fachlicher Sicht für ein Ende des Verbrennungsmotors ausspricht.

Zwei Meinungen – zwei Antriebe
„Befürworter des Verbots sehen in jeglicher Form von Verbrennungsmotor ein Kraftfahrzeug, das im Betrieb klimaschädliche Gase ausstößt. Das ist für sich betrachtet richtig“, erklärt Prof. Koch. Demnach läge die Zukunft im Autobau bei Fahrzeugen mit alternativen Antrieben, insbesondere dem Elektroantrieb.

Gegner des Verbots führen an, dass es alternative, synthetische Kraftstoffe gibt, die sogenannten E-Fuels, die durch große Mengen von Strom aus Wasser und Kohlenstoffdioxyd hergestellt werden. „Kommt dieser Strom ausschließlich aus erneuerbaren oder anderen CO2-neutralen Quellen, dann können Verbrennungsmotoren mit E-Fuels klimaneutral betrieben werden“, so der Nachhaltigkeitsexperte.

In der Realität allerdings wird der Strom zur Herstellung von E-Fuels auf absehbare Zeit genauso wenig aus 100% klimaneutralen Quellen kommen, wie der Strom zum Betrieb von E-Fahrzeugen. Somit bleiben beide Antriebsarten auf lange Zeit nicht klimaneutral – ganz abgesehen von weiteren Fragen wie beispielsweise der negativen Umweltwirkung bei der Herstellung von Batterien für E-Fahrzeuge.

3 gute Gründe für ein Ende der Verbrennungsmotoren
„Es sprechen dennoch wichtige Argumente für ein künftiges Verbot von Verbrennungsmotoren in Kraftfahrzeugen. Erstens ist der Wirkungsgrad von Verbrennern sehr viel schlechter, so dass ein Elektrofahrzeug mit der gleichen Menge an Energie fünfmal weiter fahren kann als ein mit E-Fuels betanktes Fahrzeug“, weiß Prof. Koch. Somit wird viel Strom verschwendet, wenn dieser zur Produktion von E-Fuels statt für das Laden von Elektrofahrzeugen genutzt wird. Und: Während der Verbrennungsmotor technisch ausgereift ist, stehen alternative Antriebe am Anfang, so dass deren Effizienzvorsprung weiter anwachsen wird.

Als zweiten wichtigen Punkt führt Prof Koch an, dass ein Festhalten am Verbrennungsmotor bedeuten würde, dass die Automobilindustrie auf Dauer mehrgleisig forschen und produzieren würde. Verschiedene Antriebe gleichzeitig zu produzieren, führt zu höheren Kosten und geringeren Effizienzen in der Produktion, und damit letztlich zu höheren Preisen für die Verbraucher.
„Und drittens ist die Forderung der Automobilindustrie nach klaren Rahmenbedingungen berechtigt. Wenn die Politik das Aus von Verbrennern beschließt, kann die Industrie in die nötige Lade-Infrastruktur für Elektrofahrzeuge investieren. Das stärkt wiederum deren Akzeptanz beim Verbraucher und führt zu einer schnelleren nachhaltigen Transformation im Individualverkehr“, so die Einschätzung des Experten.

Jetzt ist die Politik gefragt
Prof. Kochs Forderung an die Politik: Dies soll kein einseitiges Credo für Elektromobilität sein. Hier muss die Batterietechnik Fortschritte machen, um mit weniger Ressourcen auszukommen und höhere Reichweiten zu ermöglichen. Das gelingt jedoch umso schneller, je zügiger die Politik ein Verbrenner-Aus beschließt.

Anhang
Verbrenner-Aus ab 2035? Ja bitte!

(nach oben)


Zusatz soll Gülle klimafreundlicher machen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Bei der Nutztierhaltung entstehen große Mengen Treibhausgase, vor allem das besonders klimaschädliche Methan. Es entweicht unter anderem bei der Lagerung der Tierexkremente, der Gülle. Eine Studie der Universität Bonn zeigt nun, dass sich die Methan-Emission mit einfachen und kostengünstigen Mitteln um 99 Prozent reduzieren lässt. Die Methode könnte einen wichtigen Beitrag zum Kampf gegen den Klimawandel leisten. Die Ergebnisse sind jetzt in der Zeitschrift Waste Management erschienen.

Klimagase wirken wie eine Schicht Fensterglas in der Atmosphäre: Sie verhindern, dass Wärme von der Erdoberfläche in das Weltall abgestrahlt wird. Methan macht das 28 mal so effektiv wie Kohlendioxid – es ist (um im Bild zu bleiben) eine Art unsichtbare Doppelverglasung.

In den letzten 200 Jahren hat sich die Methankonzentration in der Atmosphäre mehr als verdoppelt. Das liegt vor allem am menschlichen Fleischkonsum: Einerseits erzeugen Kühe und andere Wiederkäuer bei der Verdauung Methan. Eine weitere wichtige Quelle sind zudem die Exkremente der Tiere. „Ein Drittel des menschgemachten Methans weltweit stammt aus der Tierhaltung“, erklärt Felix Holtkamp, der im INRES-Institut für Nutzpflanzenwissenschaften und Ressourcenschutz der Universität Bonn promoviert. „Nach Schätzungen entstehen bis zu 50 Prozent davon durch Gärungsprozesse in der Gülle.“

Rund um den Globus suchen Forschende daher nach Möglichkeiten, diese Prozesse zu unterbinden. Holtkamp, sein wissenschaftlicher Betreuer Dr. Manfred Trimborn vom Institut für Landtechnik der Universität Bonn sowie Dr. Joachim Clemens vom Düngemittel-Hersteller SF-Soepenberg GmbH haben für das Problem nun eine vielversprechende Lösung vorgestellt. „Wir haben Gülle von einem Bauernhof im Labor mit Kalkstickstoff versetzt, einer Chemikalie, die seit mehr als 100 Jahren als Dünger in der Landwirtschaft eingesetzt wird“, sagt Holtkamp. „Dadurch kam die Methanproduktion fast vollständig zum Erliegen.“

Emissionen sanken um 99 Prozent
Insgesamt sanken die Emissionen um 99 Prozent. Dieser Effekt begann bereits eine knappe Stunde nach der Zugabe und hielt bis zum Ende des Experiments ein halbes Jahr später an. Die lange Wirksamkeit ist wichtig, da Gülle nicht einfach entsorgt wird. Stattdessen wird sie bis zum Beginn der folgenden Vegetations-Periode gelagert und dann als wertvoller Dünger auf die Felder ausgebracht. Monatelange Lagerzeiten sind daher durchaus üblich.

In dieser Zeit wird die Gülle von Bakterien und Pilzen umgebaut: Sie zerlegen unverdautes organisches Material zu immer kleineren Molekülen. Am Ende dieser Prozesse entsteht Methan. „Kalkstickstoff unterbricht diese Kette chemischer Umwandlungen, und zwar gleichzeitig an verschiedenen Stellen, wie wir bei der chemischen Analyse der entsprechend behandelten Gülle sehen konnten“, erklärt Holtkamp. „Die Substanz unterdrückt den mikrobiellen Abbau von kurzkettigen Fettsäuren, einem Zwischenprodukt der Kette, und deren Umwandlung in Methan. Wie dies genau geschieht, ist noch unbekannt.“

Die Substanz hat aber noch weitere Vorteile: Sie reichert die Gülle mit Stickstoff an und verbessert so ihre Düngewirkung. Außerdem verhindert sie die Entstehung sogenannter Schwimmschichten – das sind Ablagerungen organischen Materials, die auf der Gülle eine harte Kruste bilden und den Gasaustausch behindern. Normalerweise muss diese Kruste regelmäßig zerkleinert und untergerührt werden.

Auch für die Tiere selbst hat das Verfahren Vorteile: Oft werden sie auf sogenannten Spaltenböden gehalten. Ihre Exkremente fallen dabei durch Öffnungen im Boden in einen großen Behälter. Durch die mikrobielle Umsetzung kann das Kot-Urin-Gemisch mit der Zeit aufschäumen und durch die Spalten wieder nach oben steigen. „Die Tiere stehen dann in ihren eigenen Ausscheidungen“, sagt Holtkamp. „Kalkstickstoff unterbindet diese Aufschäumung.“ Die Kosten sind zudem überschaubar – sie liegen für die Rinderhaltung bei etwa 0,3 bis 0,5 Cent pro Liter Milch.

Gülle-„Reinheitsgebot“ verhindert momentan den Einsatz
Unklar ist noch, wie sich die Methode auf die Ammoniak-Freisetzung aus der Gülle auswirkt. Ammoniak ist ein giftiges Gas, dass zwar selbst nicht klimaschädlich ist, aber zu gefährlichen Treibhausgasen umgesetzt werden kann. „Wir haben erste Hinweise darauf, dass sich die Ammoniak-Menge langfristig ebenfalls reduziert“, sagt Dr. Manfred Trimborn vom Institut für Landtechnik der Universität Bonn. „Ganz sicher können wir das momentan aber noch nicht sagen.“

In Deutschland verhindert momentan übrigens ein Umweltgesetz den Zusatz von Kalkstickstoff: Für konventionell gelagerte Gülle gilt aktuell ein strenges Reinheitsgebot.

Beteiligte Institutionen und Förderung:
An der Studie war neben der Universität Bonn die Firma SF-Soepenberg GmbH in Hünxe beteiligt. Die Studie wurde durch das Bundesministerium für Ernährung und Landwirtschaft (BMEL) und die Alzchem Group AG in Trostberg gefördert.

Wissenschaftliche Ansprechpartner:
Felix Holtkamp
INRES-Institut für Nutzpflanzenwissenschaften und Ressourcenschutz
Universität Bonn
Tel. (+49) 228 73-2154
E-Mail: holtkamp@uni-bonn.de

Dr. Manfred Trimborn
Institut für Landtechnik (ILT)
Universität Bonn
Tel. (+49) 228 73-3639
E-Mail: m.trimborn@uni-bonn.de

Originalpublikation:
Felix Holtkamp, Joachim Clemens, Manfred Trimborn: Calcium cyanamide reduces methane and other trace gases during long-term storage of dairy cattle and fattening pig slurry; Waste Management, https://doi.org/10.1016/j.wasman.2023.02.018

(nach oben)


Intelligente Algorithmen sollen im Katastrophenschutz unterstützen

Jennifer Strube Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Universität Paderborn an Verbundprojekt beteiligt

Nach einer Katastrophe wie schwerem Hochwasser oder Erdbeben wollen viele Menschen spontan helfen. Wie diese Hilfsbereitschaft schnell koordiniert und möglichst zielgerichtet eingesetzt werden kann, untersuchen Partner aus Wissenschaft, Wirtschaft, Verwaltung und der Bevölkerung in einem neuen vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt. In dem Vorhaben „Koordination von Spontanhelfenden im Krisen- und Katastrophenfall“ (KatHelfer-PRO) arbeitet das interdisziplinäre Team an einer digitalen Lösung, um in Notsituationen den Einsatz von freiwillig Helfenden zu koordinieren.

Das BMBF fördert das im Januar gestartete Projekt im Rahmen der Fördermaßnahme „Innovationen im Einsatz – Praxisleuchttürme der zivilen Sicherheit“ für die nächsten zwei Jahre mit rund 2,4 Millionen Euro. Dabei kooperiert die Universität Paderborn (Department für Wirtschaftsinformatik) mit den Partnern T-Systems (Koordinator), Martin-Luther-Universität Halle-Wittenberg, Universität Stuttgart, Fraunhofer FOKUS, Malteser Hilfsdienst und DRK Kreisverband Berlin Schöneberg-Wilmersdorf.

Eine App für den Katastrophenfall
Die Überflutung des Ahrtals, die Coronapandemie oder die Versorgung ukrainischer Kriegsflüchtlinge waren Großlagen, die in jüngster Vergangenheit tausende Freiwillige zur spontanen Hilfeleistung mobilisiert haben. Doch damit Behörden und Organisationen mit Sicherheitsaufgaben (BOS) – beispielsweise Polizei, Feuerwehr oder Rettungsdienst – diese Hilfe optimal integrieren und koordinieren können, fehlt es bislang an geeigneten Werkzeugen. „KatHelfer-PRO“ will das ändern – mithilfe intelligenter Algorithmen und einer App. Durch die Vernetzung mit den Einsatzleitzentralen sollen Freiwillige in die Arbeit professioneller Rettungskräfte eingebunden werden.

„Die Gewährleistung der zivilen Sicherheit in Deutschland bedarf eines verstärkten Einsatzes digitaler Innovationen. Durch ‚KatHelfer-PRO‘ wollen wir eine digitale Einsatzunterstützung realisieren, die eine koordinierte Kommunikation zwischen Freiwilligen, Einsatzleitstellen und Einsatzkräften ermöglicht“, erklärt Prof. Dr. Guido Schryen, Projektverantwortlicher an der Universität Paderborn und Inhaber des Lehrstuhls für Wirtschaftsinformatik, insb. Operations Research. Modernste Technologien in Kombination mit Erfahrungen und Forschungserkenntnissen der vergangenen Jahre sollen eine schnelle Anwendung in der Praxis ermöglichen.

Bundesweit nutzbares System zur Einsatzunterstützung
Um uneinheitliche, technisch inkompatible lokale Einzellösungen zu vermeiden, arbeitet das Team an einem bundesweiten digitalen System, das eine flexible Integration in die jeweils führenden Systeme ermöglicht.

„Durch das neue System sollen Freiwillige zukünftig innerhalb kürzester Zeit informiert werden können. Außerdem soll es möglich sein, ihnen Aufgaben entsprechend ihrer Fähigkeiten und Verfügbarkeiten zuzuweisen“, so der Paderborner Wissenschaftler. Das konkrete Szenario sieht dabei so aus: Bei einem Krisen- oder Katastrophenfall führt das System Bedarf und Angebot automatisiert mittels eines speziellen Vermittlungsalgorithmus zusammen. Dabei werden beispielsweise maximale Arbeits- und Ruhezeiten, Auslastungen von Einsatzorten und Wegzeiten berücksichtigt. Die Helfenden erhalten dann genaue Angaben über die Art und den Ort des Einsatzes sowie begleitende Informationen über die App.

Zahlreiche Projektpartner arbeiten eng zusammen
Die Verbundpartner des Projekts werden von mehr als 20 assoziierten Partnern unterstützt. Zu ihnen gehört der Arbeiter-Samariter-Bund, die Johanniter Unfall-Hilfe, das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, die Berliner Feuerwehr, die Stadt Halle (Saale), die Stadt Cottbus, der Kreis Ahrweiler, der Helferstab, die Senatsverwaltung für Inneres, Digitalisierung und Sport der Stadt Berlin, das Ministerium für Inneres und Sport des Landes Sachsen-Anhalt, der TÜV Rheinland Industrie Service sowie weitere Universitäten und Wirtschaftsunternehmen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Guido Schryen, Lehrstuhl für Wirtschaftsinformatik, insb. Operations Research der Universität Paderborn, Fon: 05251 60-2106, E-Mail: guido.schryen@upb.de

Weitere Informationen:
http://www.upb.de

(nach oben)


„Digital Lotse Wasser“ bietet hochmoderne Digitalisierungslösungen für die Wasserwirtschaft

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Hof – Mit der neuen Online-Plattform https://www.digital-lotse-wasser.org will die Hochschule Hof moderne Digitalisierungslösungen für die deutschsprachige Wasserwirtschaft erfassen und bekanntmachen. In der Versorgungswirtschaft werden aktuell lediglich rund 10 Prozent der verfügbaren digitalen Hilfen eingesetzt, so die Forschenden. Der Grund für die mangelnde Akzeptanz der Technik liege dabei oft schlicht in fehlenden Informationen über verfügbare Lösungen, Funktionen und Vorteile.

Die von der Hochschule Hof entwickelte Plattform „Digital Lotse Wasser“ hat zum Ziel, das Informationsdefizit nachhaltig zu beseitigen. Die Webseite bietet eine umfassende Datenbank für Digitalisierungslösungen im Wassersektor, die es Kommunen, Forschenden und Anbietenden erleichtert, die benötigten Informationen zu finden: „Unsere Datenbank ist nach Kategorien, Anwendungen, Technologien, Anbietern und bewährten Verfahren gegliedert und bietet einen klaren Überblick über den aktuellen Stand der Digitalisierung im Wassersektor“, so Projektleiter Prof. Günter Müller-Czygan.

Neue Forschungsergebnisse online abrufbar
Neben der Datenbank bietet der „Wasser-Lotse“ auch Zugang zu den wichtigsten Forschungsergebnissen aus den an der Hochschule Hof abgeschlossenen Metastudien WaterExe4.0 und DigiNaX. „Diese wurden durchgeführt, um die Herausforderungen und Erfolgsfaktoren der Digitalisierung in der Wasserwirtschaft zu verstehen. Sie geben wertvolle Einblicke in die Gründe für die derzeitige Zurückhaltung bei der Einführung digitaler Lösungen und die Erfolgsfaktoren bei bereits durchgeführten Projekten“, erläutert Prof. Müller-Czygan.

Positivbeispiele der Branche präsentieren
Daneben steht auf der neuen Plattform auch die Verknüpfung der Branche im Mittelpunkt: Nutzerinnen und Nutzer, Forschende und Dienstleistungsbetriebe finden die Möglichkeit sich zu vernetzen und ihre Arbeit einem breiteren Publikum vorzustellen. „Wer sich auf dem Portal registriert, kann zum Beispiel auf einem standardisierten Formular eine Beschreibung einer digitalen Lösung oder eines Projekts einreichen und sie als Best-Practice-Beispiel veröffentlichen“, erklärt der Projektleiter weiter. Und weiter: „Mit der Plattform „Digital Lotse Wasser“ war es noch nie so einfach, die gewünschten Informationen zu finden und die eigene digitale Lösung zu präsentieren.“

Jetzt registrieren
Zur Beteiligung eingeladen sind alle, die in der deutschsprachigen Wasserwirtschaft arbeiten und sich für die Vorteile der Digitalisierung interessieren. Jeder kann hier nützliche Informationen finden. Um aber eine eigene digitale Lösung zu präsentieren, muss man sich auf https://www.digital-lotse-wasser.org anmelden und damit aktiver Teil einer Gemeinschaft werden, die sich für die Digitalisierung im Wassersektor einsetzt. Die Plattform soll in Zukunft beständig erweitert und verbessert werden, so die Verantwortlichen.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de

(nach oben)


Für bakterienfreies Trinkwasser

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Effiziente Wasserdesinfektion mit Silbersulfid-Quantenpunkten im Peptid-Mantel
Bakterienverseuchtes Wasser ist eine ernsthafte weltweite Bedrohung für die Gesundheit. Ein chinesisches Forschungsteam beschreibt eine neue einfache Desinfektionsmethode in der Zeitschrift Angewandte Chemie. Sie basiert auf winzigen biokompatiblen Atomansammlungen, sogenannten Quantenpunkten, aus Silbersulfid, mit Kappen aus einem Silber-bindenden Peptid. Unter Bestrahlung mit Nah-Infrarot-Licht töten sie Bakterien in Wasser durch synergistische Effekte hocheffizient ab.

Vor allem in Entwicklungsländern und abgelegenen Regionen der Welt kann es sehr schwer sein, Zugang zu sauberem Trinkwasser zu bekommen. Pathogene Bakterien wie Koli-Bakterien, Enterokokken, Salmonellen oder Cholera-Erreger können schwere Infektionen verursachen. Schon ein einziger Schluck kann manchmal fatale Folgen haben. In den letzten Jahrzehnten breit eingesetzte traditionelle Desinfektionsmethoden wie UV-Licht, Chlorung und Ozonbehandlung haben Nachteile, wie ihre hohen Kosten, die geringe Effizienz, schlechte Biokompatibilität und krebserregende Nebenprodukte. Eine Alternative wird gesucht.

Das Team um Xusheng Qiu, Wei Wei und Jing Zhao stellt jetzt einen neuartigen Ansatz vor, der auf Quantenpunkten aus Silbersulfid (Ag2S) basiert. Quantenpunkte sind nanoskopische Strukturen aus ca. tausend bis zehntausend Atomen, die räumlich „eingeschränkt“ sind. Ihre quantenmechanischen Eigenschaften entsprechen dadurch eher Molekülen als makroskopischen Feststoffen, was zu interessanten opto-elektronischen Effekten führen kann.

Silbersulfid-Quantenpunkte werden bereits zur photodynamischen und zur photothermischen Therapie eingesetzt, z.B. zur Behandlung bestimmter Tumore und Hauterkrankungen. Sie können als Kontrastmittel dienen und als Fluoreszenz-Thermometer. In der Wasserdesinfektion wurden sie bislang kaum eingesetzt, unter anderem da bisherige Syntheseverfahren kompliziert und teuer sind. Das Team von der Universität Nanjing und dem Nanchuang (Jiangsu) Institute of Chemistry and Health hat nun ein einfaches, kostengünstiges Herstellverfahren entwickelt, bei dem die Quantenpunkte in Kappen aus einem speziell entwickelten biomimetischen Silber-bindenden Peptid (AgBP2) eingeschlossen werden.

Unter Bestrahlung mit Nah-Infrarot (NIR)-Licht töten die neuartigen AgBP2-Ag2S-Quantenpunkte Bakterien in Wasser effektiv ab. Dabei sind sie stabil, lichtbeständig sowie biokompatibel. Ihre starke Wirkung beruht auf einem synergistischen Zusammenwirken zweier Effekte: Zum einen erzeugen sie bei Bestrahlung hochreaktive Sauerstoffspezies, zum anderen führen sie zu einer starken lokalen Erhitzung. Keiner der beiden Effekte allein führt zum Erfolg, ihr synergistisches Zusammenwirken aber zerstört effektiv bakterielle Zellmembranen. So konnten sie mehr als 99 % Escherichia coli-Bakterien innerhalb von 25 min NIR-Bestrahlung abtöten – eine vielversprechende Strategie für die antibakterielle Wasserdesinfektion.

Angewandte Chemie: Presseinfo 08/2023
Autor/-in: Jing Zhao, Nanjing University (China), http://zj.njjixiang.com/

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202300085

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Energieeffizienz: Kaum Nachteile für Mietwohnungen

RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
In der Energieeffizienz zwischen neu angebotenen Miet- und Eigentumswohnungen besteht im Durchschnitt nur ein geringer Unterschied. Dies ist das Ergebnis einer Studie des Potsdam-Institut für Klimaforschung (PIK) und des RWI – Leibniz-Institut für Wirtschaftsforschung. Damit wird die Vermutung entkräftet, dass Vermieterinnen und Vermieter aufgrund fehlender Anreize zu wenig in Energieeffizienz investieren, da sie nicht direkt von Energieeinsparungen profitieren.

Das Wichtigste in Kürze:
– Eine neue Studie von PIK und RWI zeigt, dass es im Durchschnitt nur einen geringen und ökonomisch unbedeutenden Unterschied in der Energieeffizienz zwischen neu angebotenen Miet- und Eigentumswohnungen gibt – wenn Faktoren wie Baujahr, Größe und Lage der Immobilie durch ökonometrische Verfahren herausgerechnet werden.

– Für Immobilien, die direkt von privaten Eigentümern angeboten werden, beträgt der errechnete Unterschied in der Energieeffizienz zwischen Miet- und Eigentumswohnungen mit ansonsten ähnlichen Eigenschaften im Durchschnitt 1,8 Prozent gemessen am Energieverbrauch pro Quadratmeter. Das entspricht einer jährlichen Differenz von zwei Kilowattstunden pro Quadratmeter, was bei einer durchschnittlichen Wohnungsgröße von 75 Quadratmetern Mehrkosten in Höhe von 30 Euro pro Jahr bedeutet.

– Dieses Ergebnis, das durch weitere Untersuchungsansätze bestätigt wird, entkräftet die Behauptung, dass es im Mietsektor ein entscheidendes Anreizproblem bei Investitionen in Energieeffizienz gibt, obwohl Vermieterinnen und Vermieter nur dann von Investitionen profitieren, wenn es anschließend zu einer Mieterhöhung oder einem Verkauf der Immobilie kommt.

– Dafür könnte es zwei Gründe geben: Erstens werden viele Mehrfamilienhäuser sowohl von Mieter/innen als auch von Eigentümer/innen bewohnt. Da Investitionsentscheidungen in Mehrfamilienhäusern gemeinsam getroffen werden und die von Eigentümern selbst genutzten Wohnungen in der Regel größer sind, dürfte der Wille der Eigentümer gegenüber dem der Vermieter im selben Gebäude häufig stärker ins Gewicht fallen. Zweitens wohnt die Mehrzahl der Mieter in größeren Mehrfamilienhäusern, in denen die Renovierungskosten geteilt werden. Da die Renovierungskosten pro Wohnung mit der Zahl der Wohnungseinheiten tendenziell abnehmen, könnte dies den Anreiz für private Vermieter erhöhen, in Energieeffizienz zu investieren.

– Die Studienergebnisse deuten jedoch darauf hin, dass es im Neubau sowie bei umfassend sanierten Wohnungen ein größeres Defizit geben könnte: Der ermittelte Unterschied in der Energieeffizienz zwischen von privaten Eigentümern angebotenen Miet- und Eigentumswohnungen beträgt hier 6,5 Prozent. Neubauwohnungen sind im Schnitt zwar wesentlich energieeffizienter als Bestandswohnungen, aber auch etwas größer. Die durchschnittlichen Mehrkosten belaufen sich daher auf etwa 90 Euro pro Jahr.

– Die Studienergebnisse gelten zunächst nur für Wohnungen, die zwischen 2019 und 2021 neu angeboten wurden. Da sich die Untersuchung auf Inserate auf der Plattform ImmoScout24 stützt, können keine Wohnungen berücksichtigt werden, bei denen es nicht zum Mieter- bzw. Eigentümerwechsel kommt.

– Durch das „Gesetz zur Aufteilung der Kohlendioxidkosten“, das zu Beginn des Jahres 2023 in Kraft getreten ist, werden Vermieter inzwischen je nach energetischem Zustand der Immobilie an den Energiekosten in Form der CO2-Abgabe beteiligt. Dadurch sollten sich die Anreize für Vermieter, in Energieeffizienz zu investieren, im Vergleich zum Untersuchungszeitraum noch einmal erhöht haben.

„Unsere Studie zeigt, dass bei Mietwohnungen ähnlich viel oder ähnlich wenig in Energieeffizienz investiert wird wie bei Eigentumswohnungen“, sagt RWI-Energieexperte Stephan Sommer. „Das bedeutet, dass die insgesamt geringen Einsparungen im Wohnsektor in den vergangenen Jahren nicht auf fehlende Anreize für Vermieter zurückzuführen sind. Dennoch bleiben sinnvolle Investitionsanreize und eine faire Verteilung der Kosten enorm wichtig für ein klimaverträglicheres Wohnen.“ Puja Singhal, Klimapolitikforscherin am PIK, ergänzt: „Dass Deutschland ein Mieterland ist, ist kein entscheidendes Hindernis für die Wärmewende, wie unsere Analyse zeigt. Die Ergebnisse deuten darauf hin, dass der Mietwohnungsmarkt insgesamt wettbewerbsfähig genug ist, um privaten Vermietern Anreize zu bieten, in die Energieeffizienz ihrer Immobilien zu investieren. Das gilt zumindest dann, wenn ein Verkauf oder eine Neuvermietung der Immobilie bevorsteht.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stephan Sommer, Stephan.Sommer@rwi-essen.de, Tel.: (0201) 81 49-233

Originalpublikation:
https://www.rwi-essen.de/fileadmin/user_upload/RWI/Publikationen/Ruhr_Economic_P…

(nach oben)


Krieg in der Ukraine bedroht Süßwasserressourcen und Wasserinfrastruktur

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Der anhaltende Krieg in der Ukraine hat auch vielfältige Auswirkungen auf den Wassersektor des Landes. Das zeigt eine aktuelle Studie des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der Senckenberg Gesellschaft für Naturforschung (SGN), die in der Fachzeitschrift Nature Sustainability veröffentlicht wurde. Neben den verheerenden direkten Kriegsfolgen hat die Zerstörung der Wasserinfrastruktur auch sehr langfristige Folgen und Risiken für die Bevölkerung, die Umwelt und die weltweite Ernährungssicherheit.

In bewaffneten Konflikten gehören Süßwasser und Wasserinfrastruktur zu den am stärksten gefährdeten Ressourcen. Dabei kann der Zugang zu Wasserressourcen zum Auslöser des Konflikts werden, als militärisches Druckmittel dienen oder der Wassersektor selbst direkt von Kriegshandlungen betroffen sein. Die Zahl solcher Vorfälle hat in den letzten zehn Jahren deutlich zugenommen.

„In der Ukraine finden militärische Aktionen in einer Region statt, in der es einen hoch entwickelten und industrialisierten Wassersektor gibt. Dies ist eine besondere Situation im Vergleich zu anderen militärischen Konflikten weltweit, die den Wassersektor betreffen“, sagt Oleksandra Shumilova, IGB-Forscherin und Erstautorin der Studie, die selbst aus der Ukraine stammt. Die umfangreiche kritische Wasserinfrastruktur des Landes umfasst große Mehrzweck-Stauseen, Wasserkraftwerke, Kühlanlagen für Kernkraftwerke, Wasserreservoirs für Industrie und Bergbau sowie ein ausgedehntes Versorgungsnetz für die landwirtschaftliche Bewässerung und die städtische Wasserversorgung.

Das internationale Team der Studie – mit Forschenden aus der Ukraine, Deutschland, Belgien und den USA – sammelte und analysierte Informationen über die Anzahl, Standorte, Art und Folgen der Auswirkungen militärischer Aktionen auf den Wassersektor in den ersten drei Monaten des Konflikts. Dabei glichen die Forschenden Daten aus Regierungs- und Medienquellen ukrainischer, russischer und internationaler Herkunft ab, die im Zeitraum von Mitte Februar bis Mitte September 2022 verfügbar waren.
Die Ergebnisse zeigen ein breites Spektrum an Schäden, darunter die Überflutung großer Gebiete durch Dammbrüche, die Verschmutzung durch ungeklärte Abwässer, versenkte Munition und den Anstieg des Grubenwasserspiegels sowie eine erhebliche Verringerung der Menge und Qualität von Trinkwasser und Wasser für die Landwirtschaft. Einige Vorfälle führten zwar nicht zu direkten Schäden, haben aber potentielle Auswirkungen, wie beispielsweise Raketen, die Dämme von Stauseen und Kühlanlagen von Kernkraftwerken überfliegen.

Knappe Trinkwasserversorgung für Millionen Menschen:
Seit Beginn des Krieges ist die Trinkwasserversorgung von Millionen von Zivilist*innen durch Militäraktionen beeinträchtigt worden, und die Zahl der Betroffenen nimmt stetig zu. Wie die Studie zeigt, ist dies nicht nur auf direkte Angriffe auf Wasserleitungen, Kanäle, Pumpstationen oder Wasseraufbereitungsanlagen zurückzuführen, sondern auch auf die starke Abhängigkeit der Wasserinfrastruktur von der Stromversorgung, die unterbrochen wurde oder ganz zusammenbrach. „In meiner Heimatstadt Mykolajiw, die vor dem Krieg eine halbe Million Einwohner hatte, ist das Thema Wasser fast täglich in den Nachrichten. Im April 2022 wurde eine 90 Kilometer lange Transferleitung beschädigt, die Wasser aus dem Fluss Dnjepr lieferte. Über einen Monat lang gab es kein Leitungswasser. Später wurde das Wasser mit häufigen Unterbrechungen aus einer anderen Quelle geliefert, aber auch nach der Aufbereitung ist es nicht zum Trinken geeignet. Jeden Tag sieht man lange Schlangen von Menschen mit Plastikflaschen, die auf Wasser warten“, sagt Oleksandra Shumilova. Laut eines UN-Berichts ist die Zahl der Menschen in der Ukraine, die keinen Zugang zu ausreichend sauberem Wasser haben, zwischen April und Dezember 2022 von 6 auf 16 Millionen gestiegen. Dies hat negative Auswirkungen auf die Gesundheit und erhöht das Risiko von Epidemien im Land.

Militäraktionen führen zu starker Verschmutzung:
Militäraktionen verschmutzen Süßwasserressourcen stark, sowohl direkt – etwa durch versenkte Munition und Kriegsgerät, als auch indirekt – etwa durch beschädigte Industrieanlagen. Bis Anfang Juni 2022 wurden mehr als 25 große ukrainische Industriebetriebe beschädigt oder vollständig zerstört. Dazu gehören der Ammoniakhersteller AZOT, die Koks- und Chemiefabrik Coke and Chemistry in Avdievka und das Zentrum für Metallurgie AZOVSTAL in Mariupol.
Der größte Teil der Wasserinfrastruktur befindet sich in den südlichen und östlichen Teilen des Landes – Gebiete mit intensiver landwirtschaftlicher Produktion und großen Industrieanlagen der Metallverarbeitung, des Bergbaus und der chemischen Produktion. „Diese Regionen sind in diesem Krieg besonders gefährdet und stehen exemplarisch dafür, wie wichtig es ist, die Wassersysteme vor Verschmutzung und Gewalt zu schützen“, sagt Peter Gleick, Mitbegründer und Senior Fellow des Pacific Institute for Studies in Development, Environment, and Security in Oakland, USA. Er ist einer der Autoren der Studie und betreut auch die öffentlich zugängliche Datenbank des Instituts zur Chronologie globaler Wasserkonflikte.

Schwere Umweltverschmutzung bedroht auch Europas größtes landwirtschaftliches Bewässerungssystem:
Im Süden der Ukraine, der viel zitierten Kornkammer Europas, liegt der Kakhovka-Stausee mit seinem Bewässerungssystem für die großflächige landwirtschaftliche Produktion. Es ist das größte Bewässerungskanalsystem Europas mit einer Gesamtlänge von über 1.600 Kilometern. Das weit verzweigte Netz der Bewässerungskanäle ist auch zu einem Entsorgungsplatz für militärische Objekte geworden. Der Zerfall von Kriegsgerät und die Zersetzung von Munition unter Wasser führen zur Freisetzung von Schwermetallen und giftigen Sprengstoffen, deren Auswirkungen über Jahrzehnte andauern können.

Überflutete Gruben verunreinigen Trinkwasserquellen und Oberflächengewässer:
Im Osten des Landes befinden sich große Industrieanlagen der Metallverarbeitung, des Bergbaus und der chemischen Produktion, die ebenfalls betroffen sind. Eine besondere Gefahr stellt hier der Anstieg von kontaminiertem Grubenwasser dar. Die Region Donbass, deren Kohlerevier 13-mal so groß ist wie das deutsche Ruhrgebiet, verfügt über ein ausgedehntes Netz von 220 unterirdischen Bergwerken. Obwohl viele Bergwerke in den letzten Jahrzehnten stillgelegt worden sind, muss das Grubenwasser ständig abgepumpt werden, damit es nicht ansteigt und in geologisch verbundene Bergwerke überläuft. Mehrere Stromausfälle und direkte Schäden haben diesen Prozess zum Erliegen gebracht. Allein in den ersten drei Monaten des Konflikts wurden sechs Bergwerke vollständig und zwei zeitweise überflutet. Grubenwässer mit hohen Sulfat-, Chlorid- und Schwermetallkonzentrationen können in Grund- und Oberflächengewässer gelangen.

Der Zustand der Stauseen am Fluss Dnjepr birgt große Risiken, etwa die Freisetzung von radioaktivem Material:
Besorgniserregend sind die durch Angriffe verursachten baulichen Schäden an den großen Stauseen entlang des Dnjepr, die neben der Landwirtschaft auch für die Energieerzeugung und Kühlung von Kernkraftwerken wichtig sind. Ein Dammbruch am Dnjepr birgt zudem die Gefahr einer sekundären radioaktiven Kontamination durch unkontrollierte Freisetzung von radioaktivem Material, das sich nach der Katastrophe im Kernkraftwerk Tschernobyl 1986 in den Sedimenten angereichert hat – nach dem Unfall fungierten die Stauseen der Dnjepr-Kaskade als Senken für Radiocäsium. Das KKW Zaporizhzhia, das größte Kernkraftwerk Europas, liegt am Ufer des Kakhovka -Stausees. Dessen Wasser wird für das Kühlsystem des Reaktors benötigt. Ein Dammbruch würde daher die Sicherheit des Kernkraftwerks gefährden.

Nur einige der Folgen lassen sich abschätzen, beispielsweise anhand von vorangegangenen Katastrophen:
Zum gegenwärtigen Zeitpunkt ist eine umfassende Bewertung der Auswirkungen auf die Süßwasserressourcen aufgrund des eingeschränkten Zugangs zu den betroffenen Gebieten und möglicher Diskrepanzen in den verfügbaren Berichten nur begrenzt möglich. Hinzu kommt, dass Wassereinzugsgebiete grenzüberschreitend sind und sich Schadstoffe, die in die Umwelt gelangen, weit ausbreiten können. 98 Prozent der Einzugsgebiete der ukrainischen Flüsse fließen in das Schwarze und das Asowsche Meer, die restlichen zwei Prozent in die Ostsee. Für einige Ereignisse gibt es Vergleiche aus der Vergangenheit, wie zum Beispiel die katastrophalen Überschwemmungen nach der Beschädigung des Wasserkraftwerks am Dnjepr im Zweiten Weltkrieg und die Verbreitung von Radionukliden durch Wasser nach der Katastrophe von Tschernobyl.

Jetzt Maßnahmen zur Wiederherstellung ergreifen:
„Unsere Studie zeigt nur einige Beispiele für Schäden und mögliche langfristige und weitreichende Folgen. Die Einzugsgebiete von Süßwasser-Ökosystemen sind grenzüberschreitend und die internationale Gemeinschaft, einschließlich der Forschung, sollte jetzt dringend Maßnahmen ergreifen, um den Wassersektor in der Ukraine wiederherzustellen“, sagt Klement Tockner, einer der Autoren der Studie und Generaldirektor der Senckenberg Gesellschaft für Naturforschung.
Der wissenschaftliche Artikel zeigt Richtungen für zukünftige Forschung auf. So können beispielsweise räumliche mathematische und kartografische Modelle unter Verwendung von Fernerkundungsdaten angewandt werden, um Überschwemmungen nach Dammbrüchen, die Ausbreitung von Schadstoffen oder von unterirdischen Grubenwässern zu simulieren und die Qualität von Wasser für Trink- und Bewässerungszwecke zu bewerten.

Wissenschaftliche Ansprechpartner:
Dr. Oleksandra Shumilova
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
oleksandra.shumilova@igb-berlin.de

Prof. Klement Tockner
Senckenberg Gesellschaft für Naturforschung (SGN)
klement.tockner@senckenberg.de

Originalpublikation:
Shumilova, O., Tockner, K., Sukhodolov, A. et al. Impact of the Russia–Ukraine armed conflict on water resources and water infrastructure. Nat Sustain (2023). https://doi.org/10.1038/s41893-023-01068-x

Weitere Informationen:
https://www.igb-berlin.de/news/krieg-der-ukraine-bedroht-suesswasserressourcen-u…

(nach oben)


Inflation und Zinssätze bleiben langfristig hoch

Pascal Ausäderer Presse und Redaktion
ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung GmbH Mannheim
Das Inflationsziel der EZB von 2,0 Prozent wird im Zeitraum 2023-2025 voraussichtlich stärker überschritten als im November 2022 angenommen. Die Lohnentwicklung im Euroraum hat unter Finanzmarktexpertinnen und-experten erneut zu höheren Inflationserwartungen geführt, während die Energiepreise einen dämpfenden Effekt hatten. Die Experten/-innen gehen davon aus, dass die EZB die Zinsen in den kommenden Sitzungen weiter anheben wird, und zwar stärker als im November 2022 erwartet. Im Vergleich zum Jahr 2022 sollen die die Zinserhöhungen im Jahr 2023 allerdings nicht mehr so hoch ausfallen. Für 2024 und 2025 erwarten die Befragten wieder eine Senkung des Leitzinses.

Dies sind die Ergebnisse der Sonderfrage des ZEW-Finanzmarkttests vom Februar 2023, in der die Befragten ihre Einschätzung der Inflations- und Leitzinsentwicklung im Euroraum in den Jahren 2023 bis 2025 zum Ausdruck brachten.

In der Umfrage vom Februar 2023 erwarten die Finanzmarktexperten/-innen im Median Inflationsraten für die Jahre 2023, 2024 und 2025 von 6,0, 3,5 bzw. 2,5 Prozent. Die Befragten gehen somit weiterhin davon aus, dass sich die Inflation ab 2023 über die Zeit abschwächen wird. Die Inflationsprognosen für 2024 sind jedoch etwas höher als im November 2022. So wurden im November 2022 für die Jahre 2023 und 2024 noch Inflationsraten im Median von 6,0 und 3,1 Prozent erwartet.

Lohnentwicklungen befeuern die Inflation während Energiepreise die Inflation drücken
Wie in der Umfrage vom November 2022 begründet die Mehrheit der Finanzmarktexperten die höheren Inflationsprognosen im Februar 2023 mit der Entwicklung der Löhne und Gehälter im Euroraum (rund 65 Prozent sahen darin einen positiven oder stark positiven Einfluss gegenüber 60 Prozent im November 2022).

Im Gegensatz zur Umfrage vom November 2022 sind die Teilnehmer nun jedoch der Ansicht, dass die Entwicklung der Energiepreise die Inflation nach unten gedrückt hat. Während im November 2022 60 Prozent der Teilnehmer angaben, dass die Energiepreise einen positiven Einfluss auf ihre Inflationserwartungen hatten, sind nun 65 Prozent der Meinung, dass dies ein negativer Einflussfaktor war. In geringerem Maße kann dieselbe Beobachtung für die Entwicklung der Rohstoffpreise (ohne Energie) gemacht werden, da rund 50 Prozent der Teilnehmer der Ansicht waren, dass sie sich negativ auf ihre Inflationserwartungen auswirkten (und rund 30 Prozent waren der Ansicht, dass sie keinen Einfluss hatten), während im November 2022 rund 52 Prozent der Ansicht waren, dass sie einen positiven Einfluss hatten.

„Die Befragten erhöhten erneut ihre Inflationserwartungen, die mindestens bis zum Jahr 2025 über dem 2-Prozent-Ziel der EZB liegen dürften. Wie bereits im August und November 2022 nannten sie als einen der Haupttreiber für den Aufwärtstrend die Lohnentwicklung im Euroraum. Dies könnte zu Zweitrundeneffekten führen und damit die Inflation erneut anheizen. In diesem Zusammenhang haben die Experten/-innen auch ihre geldpolitischen Zinserwartungen für die kommenden Jahre angehoben“, kommentiert Thibault Cézanne, Researcher im ZEW-Forschungsbereich „Altersvorsorge und nachhaltige Finanzmärkte“ das Ergebnis.

Über die Befragung
Der ZEW-Finanzmarkttest ist eine seit Dezember 1991 durchgeführte Umfrage, in der monatlich die Erwartungen über die Entwicklung wichtiger internationaler Volkswirtschaften erhoben werden. Derzeit sind dies Deutschland, das Eurogebiet, die Vereinigten Staaten von Amerika sowie China. Insgesamt besteht das Panel aus etwa 350 Finanzanalysten aus Banken, Versicherungen und großen Industrieunternehmen. Angesprochen werden die Experten/-innen der Finanz-, Research- und volkswirtschaftlichen Abteilungen sowie der Anlage- und Wertpapierabteilungen dieser Unternehmen. Die meisten Teilnehmer/innen kommen aus Deutschland.

Die Finanzexpertinnen und -experten werden nach ihren Erwartungen gefragt, die sie auf einen Horizont von 6 Monaten hinsichtlich der Entwicklung der Konjunktur, der Inflationsrate, der kurz- und langfristigen Zinsen, der Aktienkurse und der Wechselkurse haben. Zusätzlich werden sie um eine Einschätzung der Ertragslage in 13 deutschen Branchen gebeten. Neben einem festen Umfrageteil werden laufend zu aktuellen Themen Sonderumfragen durchgeführt. Aus den Erwartungen der Finanzmarktexperten/-innen zur Entwicklung der wirtschaftlichen Lage in Deutschland werden die ZEW-Konjunkturerwartungen berechnet, die sich als Frühindikator für die Konjunkturentwicklung („ZEW-Index“) etabliert haben. Das ZEW kommuniziert die Ergebnisse des Finanzmarkttests darüber hinaus ausführlich im monatlich erscheinenden ZEW-Finanzmarktreport.

Wissenschaftliche Ansprechpartner:
Thibault Cézanne
Researcher im ZEW-Forschungsbereich
„Altersvorsorge und nachhaltige Finanzmärkte“

Tel: +49 (0)621 1235-287
thibault.cezanne@zew.de

Originalpublikation:
https://www.zew.de/fileadmin/ZEW-TTT-Daten/Aktuellmeldungen/2023/02_Februar/0220…

(nach oben)


Wie angehende Lehrkräfte künftig die Klimawandelforschung in den Unterricht einbringen können

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Lehramtsstudierenden digitale Methoden an die Hand zu geben, um aktuelle Klimawandelforschung im Schulunterricht zu vermitteln: Dieses Ziel verfolgen Prof. Dr. Werner Aeschbach und Dr. Nicole Aeschbach, Wissenschaftler an der Universität Heidelberg, mit der Entwicklung eines hybrid konzipierten Angebots für Studentinnen und Studenten mit dem Studienziel Lehramt. Das Projekt „Klimaphysik meets BNE“ ist am Institut für Umweltphysik und an der Heidelberg School of Education angesiedelt und wird mit einem Tandem-Fellowship für die innovative Weiterentwicklung der digitalen Hochschullehre gefördert.

Stifterverband und Land fördern Nicole Aeschbach und Werner Aeschbach für die Entwicklung eines hybrid konzipierten Moduls zur Vermittlung neuer virtueller Lehrmethoden

Lehramtsstudierenden digitale Methoden an die Hand zu geben, um aktuelle Klimawandelforschung im Schulunterricht zu vermitteln: Dieses Ziel verfolgen Prof. Dr. Werner Aeschbach und Dr. Nicole Aeschbach, Wissenschaftler an der Universität Heidelberg, mit der Entwicklung eines hybrid konzipierten Angebots für Studentinnen und Studenten mit dem Studienziel Lehramt. Als angehende Lehrkräfte in naturwissenschaftlichen Fächern sollen sie die Möglichkeit erhalten, sich intensiv mit klimaphysikalischen Fragen zu befassen und zugleich Kompetenzen für den Einsatz neuer virtueller Methoden im Unterricht zu erwerben. Das Projekt „Klimaphysik meets BNE“ ist am Institut für Umweltphysik und an der Heidelberg School of Education angesiedelt und wird mit einem Tandem-Fellowship für die innovative Weiterentwicklung der digitalen Hochschullehre gefördert. Der Stifterverband und das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg stellen dafür Mittel in Höhe von 50.000 Euro zur Verfügung.

Das Land Baden-Württemberg hat in seinen Bildungsplänen für Allgemeinbildende Schulen die „Leitperspektive Bildung für Nachhaltige Entwicklung“ (BNE) festgeschrieben. Sie schafft einen Rahmen zur fächerübergreifenden Verankerung von Nachhaltigkeitsthemen im Unterricht. Mit ihrem Projekt „Klimaphysik meets BNE“ schlagen Werner Aeschbach und Nicole Aeschbach eine Brücke von der Leitperspektive BNE in die MINT-Fächer – Mathematik, Informatik, Naturwissenschaft und Technik. „Wir bieten Lehramtsstudierenden aus den Naturwissenschaften die Chance, fachwissenschaftlich tief in die Klimaphysik einzutauchen und gleichzeitig mit Blick auf die Unterrichtspraxis konkret anwendbare Kompetenzen für die Vermittlung dieser Inhalte – insbesondere mit digitalen Methoden – zu erwerben“, erläutert Projektleiterin Dr. Aeschbach von der Heidelberg School of Education (HSE). „Für Studentinnen und Studenten mit dem Studienziel Lehramt wollen wir ein Lehrangebot schaffen, das das wissenschaftlich wie gesellschaftlich relevante Themenfeld Klimawandel aufgreift“, ergänzt Tandempartner Prof. Aeschbach, der am Institut für Umweltphysik der Universität Heidelberg lehrt und forscht.

Im Rahmen des Projekts „Klimaphysik meets BNE“ entsteht ein hybrid konzipiertes Modul, das sich an Lehramtsstudierende naturwissenschaftlicher Fächer richtet und Formen des Online-Lernens mit virtuell erweiterten Aktivitäten in Präsenz verbindet. Das Lehrangebot vermittelt insbesondere digitale Methoden, um aktuelle Erkenntnisse aus der Forschung zum Klimawandel in den Schulunterricht einzubringen. Um diese Ansätze interdisziplinär weiterzuentwickeln, nutzen Projektteam und Studierende das „HSE Digital Teaching and Learning Lab“ – einen Arbeitsraum mit medientechnischer Ausstattung, mit dem angehende Lehrerinnen und Lehrer an neue digitale Lehr- und Lernformen für den Schulunterricht herangeführt werden sollen. Das Lab wird von der HSE betrieben, der hochschulübergreifenden Einrichtung der kooperativen Lehrerbildung, die von Universität Heidelberg und Pädagogischer Hochschule Heidelberg getragen wird.

Nicole Aeschbach baut an der HSE die Zusatz- und Querschnittsqualifikation „Nachhaltigkeit“ für Lehramtsstudierende auf und befasst sich mit Fragen der Digitalisierung in der Lehrkräftebildung. Zudem leitet sie am Geographischen Institut der Universität Heidelberg ein Forschungs- und Praxislabor, in dem sie mit ihrem Team zum Klimaschutz und zur Anpassung an die Folgen des Klimawandels forscht. Werner Aeschbach ist Inhaber einer Professur am Institut für Umweltphysik der Ruperto Carola und leitet dort die Forschungsgruppe „Hydrosphärische Tracer und Proxies“, die im Arbeitsbereich Aquatische Systeme angesiedelt ist. Er ist Sprecher der Heidelberg Graduate School for Physics (HGSFP), der Graduiertenschule für die Ausbildung von Doktorandinnen und Doktoranden in der Physik.

Mit dem Fellowship-Programm fördern der Stifterverband und das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg innovative Ideen zur Weiterentwicklung der digitalen Hochschullehre.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.hse-heidelberg.de/forschungsprojekt-klimaphysik-bne – Projektseite „Klimaphysik meets BNE“
http://www.stifterverband.org/bwdigifellows – Fellowship-Programm für digitale Hochschullehre

(nach oben)


Restless-Legs-Syndrom: Lassen sich durch nicht medikamentöse Verfahren die Symptome lindern?

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Restless-Legs-Syndrom: Lassen sich durch nicht medikamentöse Verfahren die Symptome lindern? Für einige Verfahren zeigen sich bei dieser Forschungsfrage im Rahmen des ThemenCheck Medizin Anhaltspunkte für einen Nutzen. Stellungnahmen zur vorläufigen Bewertung erbeten bis zum 24.03.2023 .

Im Auftrag des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) untersucht derzeit ein interdisziplinäres Team von Wissenschaftlerinnen und Wissenschaftlern der Gesundheit Österreich GmbH und der Medizinischen Universität Graz den Nutzen von nicht medikamentösen Verfahren zur Linderung der Symptome bei Restless-Legs-Syndrom (RSL).
Vorläufiges Ergebnis: Das Wissenschaftsteam konnte 22 randomisierte kontrollierte Studien zu 17 unterschiedlichen nicht medikamentösen Verfahren in seine Bewertung einschließen. Bei einigen dieser Verfahren zeigte sich zumindest kurzfristig eine Verbesserung der RLS-Symptomatik.
Zu diesem vorläufigen Bericht bittet das IQWiG nun bis zum 24.03.2023 um Stellungnahmen. Es handelt sich dabei um eine Gesundheitstechnologie-Bewertung (engl. Health Technology Assessment = HTA) im Rahmen des IQWiG-Verfahrens ThemenCheck Medizin. Die Fragestellungen der ThemenCheck-Berichte gehen stets auf Vorschläge von Bürgerinnen und Bürgern zurück.

Anfrage einer Bürgerin war Ausgangspunkt des ThemenCheck-Berichts
Das Restless-Legs-Syndrom (RLS) wird auch als Syndrom der unruhigen, ruhe- oder rastlosen Beine bezeichnet. Es äußert sich durch Ziehen, Reißen, Kribbeln, Schmerzen und Krämpfe, meist verbunden mit einem unbändigen Bewegungsdrang. Die Symptome treten in der Regel in Ruhe, vor allem am Abend und in der Nacht auf, was zu starken Ein- oder Durchschlafstörungen führen kann.
Mit einer Gesamthäufigkeit von 4 bis 10 Prozent zählt das RLS zu einer der häufigsten neuro-logischen Erkrankungen in Deutschland. Von einem klinisch relevanten, behand¬lungsbedürftigen RLS sind in Deutschland etwa 1,3 Prozent der Erwachsenen betroffen.
Die Behandlung eines primären RLS hat zum Ziel, die direkten Symptome und Folgeerschein¬ungen wie Schlafstörungen zu lindern und die Lebensqualität der Betroffenen zu verbes¬sern, da es aktuell keine heilende Therapie gibt. Das primäre RLS wird heutzutage überwiegend pharmakologisch behandelt. Neben Arzneimitteln wie sogenannten Dopaminagonisten werden verschiedene nicht medikamentöse Verfahren wie Massagen, Akupunktur oder auch Wärme- und Kälteanwendungen zur Behandlung des RLS angeboten.
Vor diesem Hintergrund stellte eine Bürgerin die Frage an das IQWiG, ob es wirk¬same nicht medikamentöse Verfahren zur Behandlung der Erkrankung gibt.

Einige Verfahren bringen zumindest kurzfristig Linderung
Die vom IQWiG beauftragten Wissenschaftlerinnen und Wissenschaftler konnten für die Bearbeitung der Forschungsfrage 22 randomisierte kontrollierte Studien (RCTs) zu 17 unterschiedlichen nicht medikamentösen Verfahren in ihre Bewertung einschließen. Anhaltspunkte für eine Linderung der RSL-Symptomatik zeigen sich in den Studien für folgende Verfahren: Niedrigfrequenz-Elektrostimulation, pneumatische Kompression, Kältekammer, Behandlung mit Fußmassagegeräten, Training auf einem Vibrationsboard, Nahinfrarotlichttherapie, Akupunktur, Counterstrain Manipulation und Bewegungsprogramme wie Krafttraining der unteren Extremitäten oder Yoga.
Allerdings hebt das externe Wissenschaftsteam hervor, dass diese Aussagen auf Kurzzeiteffekte beschränkt bleiben, weil RCTs mit mittel- oder langfristigem Follow-up fehlen. Genauso halten die Wissenschaftlerinnen und Wissenschaftler fest, dass weitere Studien mit längerfristigem Follow-up notwendig seien, um die Ergebnisse zu festigen und auch die Nachhaltigkeit der gefundenen Ergebnisse beurteilen zu können.

Das IQWiG bittet um Stellungnahmen
Zu dem nun vorliegenden vorläufigen Bericht bittet das IQWiG bis zum 24.03.2023 um Stellungnahmen. Alle interessierten Personen, Institutionen und (Fach-)Gesellschaften können Stellungnahmen abgeben. Gegebenenfalls führt das IQWiG eine wissenschaftliche Erörterung zur Klärung von weitergehenden Fragen aus den schriftlichen Stellungnahmen durch. Die Ergebnisse aus der Anhörung können zu Änderungen und/oder Ergänzungen des vorläufigen Berichts führen.
Die ThemenCheck-Berichte werden nicht vom IQWiG selbst verfasst, sondern von externen Sachverständigen. Deren Bewertung wird gemeinsam mit einer allgemein verständlichen Kurzfassung (ThemenCheck kompakt) und einem IQWiG-Herausgeberkommentar veröffentlicht.

Originalpublikation:
https://www.iqwig.de/sich-einbringen/themencheck-medizin/berichte/ht21-04.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_89…

(nach oben)


Wie digital sind Kirchen in Deutschland? Bundesweite Studie gestartet

Dr. Inga Heins Hochschulkommunikation
Hochschule Macromedia, University of Applied Sciences
Digitalisierung ist in den letzten Jahren immer wichtiger geworden. Das gilt für alle Gesellschaftsbereiche und in besonderem Maße auch für den Raum der Kirchen. Gerade die Corona-Pandemie hat dabei in verschiedenen Feldern zumindest vermeintlich einen echten Digitalisierungsschub ausgelöst. Der Versicherer im Raum der Kirchen (VRK) führt deshalb aktuell in Kooperation mit der Hochschule Macromedia und weiteren Partnern eine Untersuchung zur Digitalisierung im kirchlichen Raum durch. Zahlreiche Landeskirchen, Bistümer sowie caritativ-diakonische und andere kirchliche Einrichtungen beteiligen sich daran und verbreiten den Befragungslink auch auf ihren Kanälen.

„Die Befragung richtet sich dabei genauso an Kirchenmitglieder wie an Mitarbeitende kirchlicher Einrichtungen“, erläutert VRK-Vorstand Jürgen Stobbe. Die allgemeine Nutzung digitaler Kanäle aller Befragten kommt dabei ebenso auf den Prüfstand wie bei kirchlichen Mitarbeitenden die berufliche Anwendung sowie bei kirchlichen Mitgliedern die Digitalisierung für gemeindliche und religiöse Thematiken. „Ziel ist es, ein breites Bild dieses Themas im Raum der Kirchen insgesamt zu zeichnen. Dazu möchten wir als VRK gern einen aktiven Beitrag leisten.“

Prof. Dr. Holger Sievert von der Hochschule Macromedia ergänzt als wissenschaftlicher Studienleiter: „Die Fragen orientieren sich dabei größtenteils an Fragen aus früheren Studien unterschiedlicher Provenienz mit Teil-Fragegruppen, zum Beispiel nur evangelisch oder nur katholisch, oder der Gesamtbevölkerung, um hier auch bereits bei der Ersterhebung Vergleiche zu ermöglichen.“ Spannend wird es vor allem zu schauen, wie sich bei diesem Thema kirchliche Mitarbeitende und Mitglieder verschiedener Konfessionen oder verschiedener Einrichtungen unterscheiden. „Aktuell kennen wir Einzelaspekte, aber kein Gesamtbild.“

Sievert, der die Fakultät „Kultur – Medien – Psychologie“ der Hochschule Macromedia in Köln leitet, ist Experte für digitales Kommunikationsmanagement und arbeitet sowohl für große privatwirtschaftliche Unternehmen als auch für Kirchen. Beispielsweise hat er gemeinsam mit fünf evangelischen Landeskirchen zwei Studien über Online-Gottesdienste mit je um 5.000 Befragten erstellt oder für die Landeskirchen in Baden, Bayern und Württemberg das Projekt „Die digitale Mustergemeinde“ konzeptionell und wissenschaftlich begleitet.

Generell ist die Befragung ab sofort unter https://www.surveymonkey.de/r/digitalisierung-im-raum-der-kirchen erreichbar.

Nach Abschluss und Auswertung der Befragung wird der Versicherer im Raum der Kirchen die Ergebnisse kommunizieren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Sievert, E-Mail: h.sievert@macromedia.de

Weitere Informationen:
https://www.surveymonkey.de/r/digitalisierung-im-raum-der-kirchen

(nach oben)


Neue Studie nimmt Energiespeicher unter die Lupe

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Forscher aus Gießen und Münster veröffentlichen detaillierte Analyse zu Entwicklungsperspektiven von Festkörperbatterien / Review in Nature Energy

Die Erforschung und Entwicklung von elektrochemischen Energiespeichern gehören weltweit zu den aktivsten Arbeitsgebieten der Materialwissenschaften. Mit dem rasant wachsenden Bedarf an leistungsfähigen Batterien für zahlreiche Anwendungsgebiete nimmt das Interesse an den erreichbaren Ladekapazitäten und -geschwindigkeiten zu. Ebenso wird das Augenmerk auf die Lebensdauer, die Sicherheit und die Verfügbarkeit der stofflichen Ressourcen sowie die CO2-Bilanz größer. Vor diesem Hintergrund haben die Chemiker Prof. Dr. Jürgen Janek von der Justus-Liebig-Universität Gießen (JLU) und Prof. Dr. Wolfgang Zeier von der Westfälischen Wilhelms-Universität (WWU) Münster und dem Helmholtz-Institut Münster (HI MS; IEK-12) des Forschungszentrums Jülich die Entwicklungen der vergangenen zehn Jahre auf dem Gebiet der Festkörperbatterien unter die Lupe genommen. Dafür analysierten die Forscher den derzeitigen Stand der Technik und liefern eine kritische Betrachtung der Herausforderungen und offenen Fragestellungen, deren Bewältigung notwendig ist, um die Festkörperbatterie wettbewerbsfähig werden zu lassen. Diese kritische Einordnung der Technologie ist aktuell in der Fachzeitschrift Nature Energy veröffentlicht (review article).

Zum Hintergrund: Die Festkörperbatterie ist eine Weiterentwicklung der Lithium-Ionen-Batterie, deren Funktion gegenwärtig mit einem flüssigen, organischen Elektrolyten erreicht wird. In ihr soll ein fester Elektrolyt zum Einsatz kommen, was noch bessere Speichereigenschaften, längere Lebensdauern und erhöhte Sicherheit verspricht. Die Entwicklung von Festkörperbatterien wird seit etwa zehn Jahren durch intensive Forschungsarbeiten weltweit vorangetrieben.

„Es wird deutlich, dass das Konzept der Festkörperbatterie mittlerweile viele Varianten umfasst, deren Erfolg auch heute noch nicht sicher absehbar ist“, fasst Jürgen Janek den Stand der Entwicklung zusammen. Trotz der umfangreichen Aktivitäten in Forschungseinrichtungen und Industrieunternehmen gibt es bislang noch keinen messbaren Fortschritt gegenüber der etablierten Lithium-Ionen-Zelltechnologie mit flüssigen Elektrolyten, so ein Fazit der Wissenschaftler. Als entscheidende Herausforderungen benennen sie in der Analyse verschiedene Aspekte. So ist ein Kernpunkt die Entwicklung fester Elektrolyte, die bei möglichst geringer Lithiumkonzentration gleichzeitig höhere Batterieleistungen und Sicherheit gewährleisten. Außerdem wird ein Anodenmaterial höchster Kapazität benötigt, das ein geringeres Volumen und Gewicht der Batterie ermöglicht. Generell seien neue Ansätze in der Materialforschung durch die Kombination von Theorie und Experiment und vor allem durch die Zusammenarbeit möglichst diverser Disziplinen wichtig. „Unser Ausblick ist optimistisch. Festkörperbatterien werden zweifellos die Kommerzialisierung erreichen. Es bleibt aber offen, wann und in welchem Umfang“, sagt Wolfgang Zeier.

Bereits 2016 analysierten Prof. Dr. Jürgen Janek und Prof. Dr. Wolfgang Zeier, beide damals an der JLU tätig, die Perspektiven von Festkörperbatterien und veröffentlichten sie in Nature Energy. Diese Veröffentlichung wurde mittlerweile mehr als 2.000-fach zitiert und hat das Forschungsgebiet entscheidend mitgeprägt. In der neuen und umfassenderen Veröffentlichung in der gleichen Zeitschrift aktualisieren die beiden Autoren nun ihre Analyse. Waren 2016 noch viele grundsätzliche Fragen offen und weitgehend ungeklärt, so spielen nun zusätzlich Faktoren eine Rolle, die einerseits der technologischen Umsetzung geschuldet sind und andererseits die wichtigen Fragen der stofflichen Ressourcen und Kosten berühren.

Zu den Autoren
Die Autoren gehören zu den international führenden Wissenschaftlern im Bereich der physikalisch- und anorganisch-chemischen Materialforschung. Prof. Dr. Jürgen Janek leitet seit 1999 eine Arbeitsgruppe für Festkörperelektrochemie an der JLU. Er leitet außerdem das Zentrum für Materialforschung an der JLU und ist einer der beiden wissenschaftlichen Leiter des Labors BELLA am Karlsruher Institut für Technologie. Er ist Mitglied der Nationalen Akademie der Wissenschaften Leopoldina und wurde erst jüngst für seine Arbeiten mit einer Ehrendoktorwürde der TU Delft und dem erstmalig vergebenen Greve-Preis der Leopoldina ausgezeichnet. Prof. Dr. Wolfgang Zeier ist Professor für Anorganische Festkörperchemie an der WWU und leitet die Abteilung „Design fester Ionenleiter“ am HI MS. Die Arbeiten seiner Gruppe zu festen Ionenleitern und Festkörperbatterien wurden mehrfach ausgezeichnet, unter anderem jüngst von der International Battery Association.

Das Bundesministerium für Bildung und Forschung unterstützte die Arbeit im Rahmen des Kompetenzclusters „FESTBATT“ finanziell (Projekte 03XP0431, 03XP0430A und 03XP0430F).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Janek
Justus-Liebig-Universität Gießen (JLU)
Physikalisch-Chemisches Institut
Telefon: 0641 99-34500
E-Mail: Juergen.Janek@phys.Chemie.uni-giessen.de

Prof. Dr. Wolfgang Zeier
Westfälische Wilhelms-Universität Münster
Institut für Anorganische und Analytische Chemie
Telefon: 0251 83-36831
E-Mail: wzeier@uni-muenster.de

Originalpublikation:
Jürgen Janek and Wolfgang G. Zeier (2023): Challenges in speeding up solid-state battery development. Nature Energy (Review Article);
https://doi.org/10.1038/s41560-023-01208-9

(nach oben)


Antibiotikaresistenzen: Tuberkulose-Therapie am Limit?

Karola Neubert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Infektionsforschung
Die Entwicklung von Antibiotikaresistenzen erschwert zunehmend die Behandlung der Tuberkulose. Besonders schwer betroffen sind Patientinnen und Patienten, die an einer multiresistenten Tuberkulose erkrankt sind. Hier ist der Erreger gegenüber den besten Tuberkulosemedikamenten, Rifampicin und Isoniazid, resistent, also unempfindlich geworden. Wenn auch die Medikamente zweiter Wahl versagen, gibt es oft keine Rettung für die Betroffenen. In einem besonders komplizierten Fall haben die Ärzte der Medizinischen Klinik Borstel, Leibniz Lungenzentrum, einen Patienten, der gegen praktisch alle Tuberkulose-Medikamente resistent war, erstmals mit außergewöhnlich hohen Dosierungen behandelt.

Die leitliniengerechte Therapie der multiresistenten Tuberkulose (MDR-TB) umfasst mindestens vier Medikamente, die je nach Ausmaß der Antibiotikaresistenzen und Verfügbarkeit der Medikamente 6-18 Monate (oder länger) beträgt. Die dabei eingesetzten Therapeutika sind weniger effektiv als Rifampicin und Isoniazid, mit deutlich höheren Therapiekosten und einem höheren Risiko für Nebenwirkungen verbunden.

Ein besonders komplizierter Fall von antibiotikaresistenter Tuberkulose wurde an der Medizinischen Klinik des Forschungszentrums Borstel, Leibniz Lungenzentrum, zwischen November 2018 und der Schließung der Klinik im November 2021 betreut: Der Patient war mit einem Tuberkulose-Stamm infiziert, der gegen praktisch alle Tuberkulose-Antibiotika resistent war. Nur Delamanid und das neu zugelassene Medikament Pretomanid waren in der Resistenztestung wirksam. In einem experimentellen Ansatz versuchte das medizinische Team, bestehende Antibiotikaresistenzen mit besonders hohen Medikamenten-Dosierungen zu überwinden. Unterstützt wurden sie dabei von Wissenschaftlerinnen und Wissenschaftlern des Nationalen Referenzzentrums für Mykobakterien und der Molekularen und Experimentellen Mykobakteriologie am Forschungszentrum Borstel, sowie von einem internationalen Team von Expertinnen und Experten.

Es gelang zunächst, die Bakterienlast so stark zu reduzieren, dass über den Zeitraum von beinahe einem Jahr keine Bakterien nachweisbar waren. Die eingesetzten Dosierungen überstiegen dabei die zugelassene Maximaldosis teilweise um das sechsfache. Mit dem Ende der Therapie nach insgesamt 28 Monaten stellte sich jedoch ein sofortiger Rückfall ein. Kurz darauf entwickelten die Tuberkulosebakterien eine zusätzliche Resistenz gegen Delamanid und auch Pretomanid. Danach gelang es nicht mehr, die Infektion zu kontrollieren und der Patient starb wenige Monate später.

„Es ist weltweit der erste Patient, bei dem Tuberkulosebakterien mit einer Resistenz gegen Pretomanid beschrieben wurden“, erklärt Professor Christoph Lange, Medizinischer Direktor am Forschungszentrum Borstel und Wissenschaftler im Deutschen Zentrum für Infektionsforschung (DZIF). Ein Alarmsignal für die Ärztinnen und Ärzte und eine Herausforderung zur Entwicklung neuer Medikamente.

„Wir haben gelernt, dass Antibiotikaresistenzen durch sehr hohe Medikamentendosierungen überwunden werden können und dass zumindest im Einzelfall diese hohen Dosierungen auch toleriert werden. Dennoch haben am Ende die Bakterien gesiegt“, sagt Erstautor Niklas Köhler, Arzt und Wissenschaftler in der Forschungsgruppe Klinische Infektiologie und im DZIF. Für Patientinnen und Patienten, bei denen die Tuberkulosebakterien gegen praktisch alle Antibiotika resistent sind, werden wir wahrscheinlich ganz neue Medikamentenkombinationen benötigen.“

Wissenschaftliche Ansprechpartner:
Prof. Christoph Lange
T +4945371883321/0
E-Mail: clange@fz-borstel.de

Originalpublikation:
Koehler N, Andres S, Merker M, Dreyer V, John A, Kuhns M, Krieger D, Choong E, Verougstraete N, Zur Wiesch PA, Wicha SG, König C, Kalsdorf B, Sanchez Carballo PM, Schaub D, Werngren J, Schön T, Peloquin CA, Schönfeld N, Verstraete AG, Decosterd LA, Aarnoutse R, Niemann S, Maurer FP, Lange C. Pretomanid- Resistant Tuberculosis. J Infect. 2023 Feb 2:S0163-4453(23)00069-5. doi: 10.1016/j.jinf.2023.01.039. Epub ahead of print. PMID: 36738862.

Weitere Informationen:
https://dzg-magazin.de/passgenau-gegen-tuberkulose/ Mehr über den individuellen Kampf gegen Tuberkulose (DZG-Magazin)

(nach oben)


Mehr Klimaschutz im Bau

Dr. Franziska Böhl Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig
Die Anmeldung zur 14. Tagung Betonbauteile am 30. März 2023 an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) ist geöffnet! Die Tagungsreihe berichtet über den Stand der Forschung und aktuelle Entwicklungen hinsichtlich Planung, Konstruktion und Ausführung von Bauteilen aus Beton, Stahlbeton und Spannbeton. Die Vorträge befassen sich mit Hintergründen und Fortschreibung der normativen Grundlagen, baustofflichen Innovationen und neuen Anforderungen an die Planung und Ausführung von Betonbauteilen. U.a. geht es um das Carbonbetontechnikum, nachhaltige Konzepte zum Holz-Verbund-Bau und klassische Massivbauthemen.

Die sächsische Bauwirtschaft soll nachhaltiger werden, so der Tenor der aktuellen Debatte im sächsischen Landtag. An der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) ist dies bereits seit vielen Jahren ein Schwerpunkt in der Forschung. Auch die 14. Tagung Betonbauteile, die am 30. März 2023 an der Hochschule stattfindet, befasst sich mit Aspekten der Nachhaltigkeit und Ressourceneffizienz sowie mit klassischen Massivbauthemen. Das Programm zur Tagung ist nun online; die Anmeldung geöffnet.

Klaus Holschemacher, Professor für Stahlbetonbau und Leiter des Instituts für Betonbau (IfB) der Fakultät Bauwesen der HTWK Leipzig: „Die Tagungsreihe Betonbauteile berichtet im zweijährigen Rhythmus über den Stand der Forschung und aktuelle Entwicklungen hinsichtlich Planung, Konstruktion und Ausführung von Bauteilen aus Beton, Stahlbeton und Spannbeton. In diesem Jahr befassen sich die zwölf Vorträge namhafter Referenten aus Baupraxis und Wissenschaft mit Hintergründen und Fortschreibung der normativen Grundlagen, baustofflichen Innovationen und neuen Anforderungen an die Planung und Ausführung von Betonbauteilen.“

Vorträge und begleitende Fachausstellung
Im Mittelpunkt des ersten Tagungsschwerpunktes steht das Bauen mit Carbonbeton: Die Referen-ten gehen dabei intensiv auf Ausführung und Bemessung von Bauteilen aus dem Baustoff der Zu-kunft ein. Ebenso wird es einen Vortrag zum Carbonbetontechnikum der HTWK Leipzig geben. In der weltweit ersten Modellfabrik wird die automatisierte Fertigung von Bauteilen aus Carbonbeton erprobt. Im anschließenden Themenkomplex zum klassischen Massivbau werden Problemstellun-gen angesprochen, unter anderem zur Bemessung der Mindestbewehrung für Zwangbeanspru-chung, zur neuen DAfStb-Richtlinie Stahlfaserbeton, zu Bauzuständen von Halbfertigteilen und nachträglich installierten Bewehrungsanschlüssen unter Brandeinwirkung. Dies ist unterem für Bau-ingenieurinnen und Bauingenieure in der Tragwerksplanung sowie für die Bauausführung von Inte-resse. Im letzten Veranstaltungsblock gehen die Experten auf die DAfStb-Planungshilfe „Nachhaltig Bauen mit Beton“, die Holz-Beton-Verbundbauweise und die neue Normengeneration DIN 1045 ein. Abschließend stellt IfB-Mitarbeiter Dennis Messerer ein innovatives Monitoringkonzept vor, das auf der Faseroptik basiert und dazu beitragen kann, den Bauwerksbestand zu erhalten.

Begleitend zum Vortragsprogramm wird es eine Fachausstellung mit Firmen der Bauindustrie sowie von Baufachverlagen und Softwareherstellern geben, für die sich bereits mehr als zehn Aussteller angemeldet haben. Für interessierte Firmen, die bei der Fachausstellung dabei sein möchten, ste-hen noch wenige Plätze zur Verfügung. Interessenten melden sich bei den Organisatoren der Tagung.

Die Fachtagung ist eine Gemeinschaftsveranstaltung der HTWK Leipzig, des Fachverbandes Beton- und Fertigteilwerke Sachsen/Thüringen e.V. und des InformationsZentrums Beton.

Hintergrund zum Institut für Betonbau
Das Institut für Betonbau der HTWK Leipzig wurde 2006 gegründet. In den Forschungsgruppen Massivbau und Nachhaltiges Bauen spielen unter anderem umweltkonforme und nachhaltige neue Baustoffe eine wichtige Rolle in Forschungsprojekten, ebenso baustoffliche und bauteilspezifische Analysen. In der jüngsten Forschungsgruppe Sensorik und Messtechnik sollen ganzheitliche Lösungen zur Zustandsüberwachung von Bauwerken und Bauteilen, aber auch von klassischen Laborversuchen ermöglicht werden.

Wissenschaftliche Ansprechpartner:
Ansprechperson: Stefan Wappler
Wissenschaftliche Leitung: Prof. Dr.-Ing. Klaus Holschemacher

Weitere Informationen:
www.htwk-leipzig.de/forschen/aktuelles/detailansicht/artikel/5643

(nach oben)


Forschungsprojekt „TwinMaP“ gestartet

Sybille Adamer Hochschulkommunikation
Hochschule für angewandte Wissenschaften Kempten
Wie kann ein Digitaler Zwilling eines heterogenen Maschinenparks den Gesamtprozess in der Bauteilfertigung optimieren? Dieser Frage widmet sich ein Konsortium aus Industrie und Wissenschaft im Verbundprojekt „TwinMaP“. Das Bundesministerium für Wirtschaft und Klimaschutz fördert das Vorhaben über drei Jahre mit rund 5 Mio. Euro. Ein Teilvorhaben des Projektes verantwortet das IPI – Institut für Produktion und Informatik der Hochschule Kempten am Standort Sonthofen.

Aufgrund individueller Kundenwünsche stellt die Fertigung von Bussen besondere Anforderungen an die Produktion: Bauteile müssen sowohl in hohen Stückzahlen als auch in kleinen Mengen bis hin zur Losgröße 1 gefertigt werden. Möglich wird das durch einen heterogenen Maschinenpark, der die Fertigung in hoher Stückzahl ermöglicht sowie auch Maschinen für die Fertigung einzelner Bauteile bereitstellt.

Eine große Herausforderung ist dabei die variierende Einbindung der heterogenen Maschinen in das „Industrial Internet of Things“, kurz IIoT. Bei modernen, vernetzten Maschinen kann mittels eines Digitalen Zwillings (Simulationsmodell) der Fertigungsprozess erheblich optimiert werden. Dies ist bisher jedoch nur auf Basis von Einzelmaschinen möglich. Ziel des Verbundprojektes „TwinMaP“ ist es daher, einen Digitalen Zwilling eines heterogenen Maschinenparks für die Gesamtprozessoptimierung in der Bauteilfertigung zu entwickeln.

Erforschung einer 3D-Integrationsplattform für Digitale Zwillinge von ganzen Maschinenparks
Das IPI – Institut für Produktion und Informatik der Hochschule Kempten am Standort Sonthofen forscht innerhalb des Verbundprojektes an einer 3D-Integrationsplattform für Digitale Zwillinge eines solchen Maschinenparks. „Dabei steht die neuartige Anbindung zwischen einer 3D-Integrationsplattform, den realen Maschinen und Digitalen Zwillingen im Fokus, damit komplette Prozessketten optimiert werden können“, erläutert Teilprojektleiter Professor Bernd Lüdemann-Ravit. Hierzu werden im Projekt neuartige Konnektoren entwickelt, welche ein Zusammenspiel einzelner Digitaler Zwillinge für einen gesamten Maschinenpark ermöglichen. Alle im Projekt verwendeten Digitalen Zwillinge werden dann in der 3D-Integrationsplattform zusammengeführt. Das wiederum ermöglicht Optimierungen mit Hilfe von Künstlicher Intelligenz, zum Beispiel im Hinblick auf die Auslastung der Produktion.

Das Bundesministerium für und Klimaschutz fördert das Teilvorhaben des IPI aufgrund eines Beschlusses des Deutschen Bundestages mit 993.310 Euro für eine Laufzeit von drei Jahren. Zum Forschungskonsortium gehören neben dem IPI die Daimler Buses – EvoBus GmbH, TRUMPF Laser- und Systemtechnik GmbH, ISG Industrielle Steuerungstechnik GmbH, FORCAM GmbH, SimPlan AG, VELIT Consulting GmbH & Co. KG sowie ifak e. V.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Bernd Lüdemann-Ravit
Tel. 0831 2523-9130
bernd.luedemann-ravit@hs-kempten.de

Weitere Informationen:
https://kefis.fza.hs-kempten.de/forschungsprojekt/428-twinmap

(nach oben)


Sichere und anonyme Datenanalyse

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Forschungsprojekt AnoMoB von Fraunhofer IAO und Partnern erhält Millionen-Förderung von Bundesbildungsministerium

Das gemeinsame Projekt »Anonymisierte Erfassung und Nutzung von Mobilitäts- und Bewegungsdaten« (AnoMoB) von Fraunhofer IAO, der Hochschule Esslingen und weiteren Partnern erhält eine Förderung über 2,76 Millionen Euro. Im Fokus steht die Erforschung von Anwendungsszenarien, die eine Nutzung von Daten für neue Geschäftsmodelle bei gleichzeitigem Schutz der Privatsphäre ermöglichen.

Die Verkehrs- und Mobilitätswende stellt Kommunen und Unternehmen aktuell vor große Hürden. Es werden viele Lösungsmöglichkeiten diskutiert, von alternativen Antrieben über Sharing-Konzepte bis zu intermodalen Mobilitätsangeboten. Für politische Entscheidungen und neue Geschäftsmodelle fehlen jedoch häufig Daten als Grundlage. Da Mobilitätsdaten, also jene Daten, die zeigen, wie und wo Menschen sich bewegen, sensibel und besonders schützenswert sind, stellt deren Sammlung eine Herausforderung dar.

Daten nutzen, Privatsphäre schützen
Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO entwickelt im Forschungsprojekt »Anonymisierte Erfassung und Nutzung von Mobilitäts- und Bewegungsdaten« (AnoMoB) daher gemeinsam mit den Projektpartnern Hochschule Esslingen, der cantamen GmbH, der MOTIONTAG GmbH, Stadtmobil Hannover und der Großraum-Verkehr Hannover GmbH neue Verfahren, mithilfe derer Mobilitätsdaten sicher anonymisiert werden können. Die anonymisierten Daten sollen, ohne die Privatsphäre des Einzelnen zu gefährden, als Grundlage für neue Geschäftsmodelle, aber auch für die öffentliche Nutzung eingesetzt werden können. Beispielsweise können so wichtige Erkenntnisse zum Mobilitätsverhalten gewonnen werden, die zu einer klimafreundlicheren Mobilität und Verbesserung der Verkehrsplanung führen können. AnoMoB hat nun über 2,76 Millionen Euro Förderung vom Bundesministerium für Bildung und Forschung BMBF erhalten, um neue Wege zur Anonymisierung von Mobilitätsdaten zu erforschen. »In dem Forschungsprojekt möchten wir mittels einer vollständig anonymisierten Erhebung von Mobilitätsdaten die konkurrierenden Anforderungen des Datenschutzes und jene datengetriebener Geschäftsmodelle zusammenführen. Auf Basis unserer Ergebnisse können Unternehmen weitergehende Analysen anwenden und neue Erkenntnisse ableiten, ohne, dass Rückschlüsse auf einzelne Personen möglich sind. Von besonderem Interesse sind für uns hierbei die Betrachtung unterschiedlicher Anwendungsfälle und die Frage, inwieweit diese mit den entwickelten Verfahren ohne Performance-Verluste abbildbar sind« sagt Ingo Trautwein, wissenschaftlicher Mitarbeiter im Forschungsbereich Smart Energy and Mobility Solutions des am Fraunhofer IAO.

Methodenkombination als Lösung?
Im Projekt sollen Methoden entwickelt werden, mit denen Mobilitätsdaten datenschutzkonform erhoben und anonymisiert werden können. So sollen mehr und bessere Mobilitätsdaten zur Verfügung stehen, um einen gezielten Erkenntnisgewinn zu erzielen. Dominik Schoop, Projektleiter und Professor für IT-Sicherheit an der Hochschule Esslingen, erklärt: »Mit unseren Ansätzen wollen wir die Interessen von Mobilitätsanbietern und Menschen, die mobil sind, in Einklang bringen. Dazu werden wir verschiedene Ansätze wie Clustering, Segmentierung, aber auch homomorphe Kryptographie und Multi-Party Computation einsetzen.«

Interdisziplinäre Expertise dank breit aufgestelltem Konsortium
Im Projekt werden mehrere Anwendungsszenarien untersucht, die im betrieblichen Alltag der Projektpartner von Bedeutung sind. Zur Entwicklung der Szenarien wird maßgeblich die Expertise des Fraunhofer IAO herangezogen. Das Projekt zeichnet sich insbesondere dadurch aus, dass die Erprobung in einem breit aufgestellten Konsortium erfolgt, in dem Mobilitätsanbieter aus dem Bereich öffentlicher Verkehrsmittel (Großraum-Verkehr Hannover) und des Carsharings (Carsharing-System-Anbieter cantamen und Stadtmobil Hannover) genauso vertreten sind, wie die Firma MOTIONTAG, die als Anbieter von Apps zur Erfassung und Analyse von Mobilitätsdaten viel Erfahrung in der Erfassung und im Umgang mit Daten einbringt. So entsteht eine umfangreiche Datenbasis und die entwickelten Methoden werden in realistischen Szenarien angewandt.

Großes Potenzial für Unternehmen im Bereich Sharing- und indermodaler Mobilitätsangebote
Die Möglichkeit, im Projekt neue Geschäftsmodelle auf Basis von anonymisierten Mobilitätsdaten zu entwickeln, bietet insbesondere für Unternehmen im Bereich der Sharing- und intermodalen Mobilitätsangebote großes Potenzial. »Durch die Verfügbarkeit von anonymisierten Mobilitätsdaten können wir die Nutzerfreundlichkeit erhöhen und unsere Geschäftsmodelle besser auf die Bedürfnisse und Wünsche der Nutzer abstimmen. Das führt zu höherer Verfügbarkeit von Fahrzeugen und größerer Effizienz«, so Harald Zielstorff, Geschäftsführer cantamen GmbH. Mobilitätsplaner, die in der öffentlichen Verwaltung tätig sind, können dank der anonymisierten Mobilitätsdaten bessere Entscheidungen treffen: Mobilitätsangebote können ressourcen- und umweltschonender gestaltet und die Verkehrsplanung verbessert werden. Rückschlüsse auf das Verhalten Einzelner wird durch die Anonymisierung der Daten vermieden und die Privatsphäre der Bürger bleibt geschützt. AnoMoB macht es mit dieser Vorgehensweise somit überhaupt erst möglich, umfangreich Mobilitätsdaten zu sammeln und auszuwerten.

Das Projekt wird im Rahmen des Forschungsrahmenprogramms der Bundesregierung zur IT-Sicherheit »Digital. Sicher. Souverän.« vom Bundesministerium für Bildung und Forschung gefördert und hat eine Laufzeit von drei Jahren. Die Projektleitung liegt bei der Hochschule Esslingen.

Ansprechpartnerin Presse:
Catharina Sauer
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2242
E-Mail: Catharina.Sauer@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Florian Maier
Cognitive IoT Applications
Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar
Telefon +49 711 970-2397
E-Mail: florian.maier@iao.fraunhofer.de

Ingo Trautwein
Cognitive IoT Applications
Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar
Telefon +49 711 970-2128
E-Mail: ingo.trautwein@iao.fraunhofer.de

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/sichere-und-anonyme…

(nach oben)


Schlafentzug beeinflusst kognitive Leistung

Anne Gregory Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Wer schon mal eine Nacht schlecht oder gar nicht geschlafen hat, weiß, wie sehr sich der Schlafmangel auf die Konzentration am nächsten Tag auswirken kann. Forschende am Leibniz-Institut für Arbeitsforschung an der TU Dortmund haben untersucht, wie genau sich dieser Schlafentzug auf die Leistung des Gehirns auswirkt. Die Ergebnisse zeigen, dass sich nicht nur die Aktivität des Gehirns verändert, sondern auch die Verbindungsstärken zwischen den Nervenzellen beeinflusst werden. Beides wirkt sich maßgeblich auf die Gedächtnisleistung und das Arbeitsgedächtnis aus.

Ausreichend Schlaf ist essenziell für eine optimale Leistung am Tag. Der Schlafmangel beeinträchtigt nicht nur die Aufmerksamkeit, sondern auch die Gedächtnisleistung und Lernprozesse. Um neue Gedächtnisinhalte zu speichern, werden im Gehirn Verbindungen zwischen Nervenzellen verstärkt oder abgeschwächt. Diese Verbindung wird auch als Neuroplastizität bezeichnet. Während des Nachtschlafs werden wichtige Verbindungen verstärkt und unwichtige wieder abgeschwächt.

Bei einem Schlafmangel fällt diese Abschwächung aus. Die kortikale Erregbarkeit ist dauerhaft erhöht, was zu einer Beeinträchtigung der Signalübertragung führt. Neue, äußere Reize und Informationen können daher nur schlecht oder gar nicht verarbeitet werden und das Lernen fällt schwerer. Durch die erhöhte, kortikale Erregbarkeit wird die Neuroplastizität gestört. Das bedeutet, dass die Überaktivierung des Gehirns eine Neuvernetzung der Synapsen erschwert.

Optimale Erregbarkeit des Gehirns könnte Erkrankungen vorbeugen
Dabei gibt es jedoch einen Unterschied zwischen kompletten Schlafentzug und dem Arbeiten gegen die persönlich bevorzugten Schlaf- und Wachphasen (Chronotyp). Bei letzterem sind die Aktivität des Gehirns und die Neuroplastizität verringert. Beim Schlafentzug ist die Hirnaktivität aber erhöht. Insbesondere bei anspruchsvollen Tätigkeiten kann das Arbeiten im Einklang mit dem eigenen Chronotyp die Arbeitsleistung verbessern.

Da die Dynamik der Plastizität und der Aktivität des Gehirns vom Schlaf abhängig sind, könnte diese eine Rolle bei der Vorbeugung von Erkrankungen mit kognitiven Defiziten spielen. Beispiele für solche Erkrankungen sind Demenzen, bei denen häufig Schlafstörungen vorliegen, und schwere Depressionen. Bei Depressionen besteht eine verminderte Hirnaktivierung und Neuroplastizität, die durch einen therapeutischen Schlafentzug, der eine etablierte antidepressive Maßnahme ist, kompensiert werden könnten.

Wissenschaftliche Ansprechpartner:
Dr. Ali Salehinejad
Wissenschaftlicher Mitarbeiter Psychologie & Neurowissenschaften
Telefon: +49 231 1084-476
E-Mail: salehinejad@ifado.de

Univ.-Prof. Dr. med. Michael Nitsche
Leiter des Forschungsbereichs Psychologie & Neurowissenschaften
Telefon: +49 231 1084-301
E-Mail: nitsche@ifado.de

Originalpublikation:
Salehinejad, M. A., Ghanavati, E., Reinders, J., Hengstler, J. G., Kuo, M.-F., Nitsche, M. A., Sleep-dependent upscaled excitability, saturated neuroplasticity, and modulated cognition in the human brain. Sleep-dependent upscaled excitability, saturated neuroplasticity, and modulated cognition in the human brain eLife 11:e69308 (2022). https://doi.org/10.7554/eLife.69308

(nach oben)


Mehr Sicherheit für Talsperren und Dämme

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
TH Köln und Aggerverband entwickeln System zur Überwachung von Sperrbauwerken

Die unter Wasser liegenden Teile von Sperrmauern und Dämmen wurden bislang nicht kontinuierlich überwacht. Um solche Bauwerke, die zur kritischen Infrastruktur gehören, besser zu schützen, haben die TH Köln und der Aggerverband gemeinsam mit weiteren Projektpartnern im Vorhaben „Talsperrensicherheit“ (TalSich) ein automatisiertes System entwickelt. Dieses kann Gefahren und Schäden an Sperrbauwerken mit Hilfe von Sensornetzwerken, autonomen Robotern und künstlicher Intelligenz durchgehend erfassen.

In Deutschland gibt es insgesamt 357 große Stauanlagen, von denen mehr als 100 der Trinkwassergewinnung dienen. Die Talsperren mit ihren Absperrbauwerken werden auch zum Hochwasserschutz und zur Niedrigwasseranreicherung genutzt. Häufig wandeln Wasserkraftwerke in Verbindung mit Turbinen und Generatoren die potentielle Energie des Wassers zudem in elektrische Energie um. „Mit Blick auf die Versorgungssicherheit der Bevölkerung stellen Sperrmauern und Dämme damit eine besonders schützenswerte Infrastruktur dar. Sie können allerdings durch Objekte, Menschen sowie durch Bauwerksschäden gefährdet werden“, sagt Prof. Dr. Christian Wolf vom :metabolon Institut der TH Köln.

Bislang werden Absperrbauwerke deshalb in regelmäßigen Abständen von der Wasseroberfläche aus kontrolliert und von der Landseite aus ununterbrochen überwacht. Fällt dabei etwas auf, werden Unterwasserroboter zur näheren Betrachtung hinzugezogen. „Diese müssen allerdings für ihren Einsatz erst vorbereitet und dann während ihres Einsatzes intensiv betreut werden – das bindet einige Arbeitskräfte und kostet somit Geld und Zeit“, so Wolf. Um diesen Vorgang effizienter zu gestalten, hat die TH Köln mit den beteiligten Professor*innen Dr. Elena Algorri, Dr. Thomas Bartz-Beielstein und Dr. Christian Wolf sowie mit den Projektpartnern ein automatisiertes Überwachungsverfahren entwickelt, das an einer Talsperren des Aggerverbandes getestet wurde.

Sonare, Hydrophone und autonome Roboter
„Die von uns erarbeiteten technischen Lösungen umfassen Sonarköpfe, um Bewegungen zu erfassen, und Hydrophone, also Schallsensoren, zur Wahrnehmung von Geräuschen“, so Algorri. Diese Sensoren sind in einem Netzwerk verbunden und können erfasste Ereignisse, also Position und Geschwindigkeit, an den Betreiber der Talsperre melden. Ein vom Projektteam weiterentwickelter Unterwasserroboter ist in der Lage, eine Route entlang der Mauer selbstständig abzufahren und Kameraaufnahmen anzufertigen. Bislang ist der Roboter unter Laborbedingungen gefahren – die Testfahrten an der Talsperre stehen noch aus.

Darüber hinaus ist die Alpha-Version einer automatischen Analysesoftware entstanden. „Um die künstliche Intelligenz unserer Anwendung zu trainieren, haben wir verschiedene Geräuschklassen, etwa schwimmende Personen sowie Motor- oder Tretboote, definiert. Dazu wurden manuell mehr als 1.000 Audiodateien abgehört, von denen wir 600 den unterschiedlichen Klassen zugewiesen haben. So können alarmierende – also vom üblichen Betrieb abweichende – und normale Geräusche unterschieden werden. Unbekannte Geräusche werden bewertet, eingeordnet und in einer Webanwendung visualisiert“, erklärt Bartz-Beielstein.

System soll weiterentwickelt werden
„Die Datensätze der Analysesoftware decken noch nicht das gesamte Spektrum der Ereignisse ab, die für einen vollautomatisierten Betrieb des Gesamtsystems notwendig sind. Das entstandene Überwachungssystem und die Alpha-Version sind aber sehr vielversprechend und können schon jetzt einen wertvollen Beitrag zur zusätzlichen Sicherheit von Stauanlagen leisten“, sagt Wolf. Um das Gesamtsystem weiter zu validieren und zur Marktreife zu führen, zeichnet die Software daher weiterhin automatisiert Sensordaten an einer anderen Talsperre auf und soll auch nach Ende des Vorhabens, unter anderem durch studentische Projektgruppen, weiterentwickelt, getestet und um zusätzliche Datensätze ergänzt werden.

Nach Abschluss der beschriebenen KI-Entwicklung könnte das System vollautomatisiert an der Projekt-Talsperre betrieben werden und wäre zudem auch auf andere Talsperren übertragbar. Darüber hinaus könnten im Projekt entstandene Einzelkomponenten, wie der autonom fahrende Roboter, nach weiterer Optimierung auch in anderen Einsatzgebieten wie etwa Binnenhafenanlagen genutzt werden.

Über das Kooperationsprojekt
Das Projekt „Talsperrensicherheit“ (TalSich) wurde an der TH Köln von Prof. Dr. Christian Wolf vom :metabolon Insitut der TH Köln geleitet. Beteiligt innerhalb der Hochschule waren zudem Prof. Dr. Thomas Bartz-Beielstein vom Institut für Data Science, Engineering, and Analytics und Prof. Dr. Elena Algorri Guzman vom Institut für Automation & Industrial IT. Projektpartner waren der Aggerverband Gummersbach, der das Vorhaben koordiniert hat, die ATLAS GmbH aus Bremen, die ecoTech Umwelt-Meßsysteme GmbH aus Bonn und die HST Systemtechnik GmbH & Co. KG aus Meschede. Das Projekt wurde vom Bundesministerium für Bildung und Forschung über einen Zeitraum von zwei Jahren mit rund 950.000 Euro gefördert.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 25.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Hochschule Coburg untersucht die weibliche Seite der Stadt

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Zwei Semester lang haben Coburger Studierende in den Bereichen Ökonomie, kommunale Verwaltung, Soziales und Gesundheit, Bildung, Kultur und Sicherheit eine Frage bearbeitet: Wie weiblich ist die Stadt? Jetzt haben sie ihre Entdeckungen präsentiert.

Albrecht Dürer, Albert Schweitzer und Prinz Albert: Wer eine alphabetische Liste der Namen von Coburger Straßen und Plätzen durchforstet, stößt schon beim Buchstaben A auf recht unterschiedliche Persönlichkeiten. Wobei sie so unterschiedlich auch wieder nicht sind. Zumindest nicht in jeder Hinsicht. Die meisten – fast 93 Prozent – sind Männer. „Wenn man die Straßennamen einzeln betrachtet, fällt das nicht auf“, sagt Patiani Leupolt. Sie ist Studentin der Sozialen Arbeit und steht gerade in der Hochschule Coburg vor einem Plakat, das die Geschichte der Pazifistin Anna Bernhardine Eckstein erzählt. Vor dem Ersten Weltkrieg brachte diese Coburgerin eine Friedens-Petition auf den Weg. Millionen Menschen unterschrieben. Anna B. Eckstein und ihr wichtiges Anliegen sind heute im Herzen Coburgs präsent, weil die Stadt eine Grünanlage nach ihr benannt hat. Darüber spricht Patiani Leupolt jetzt mit Tabea Kühlewindt. Gemeinsam betrachten sie das Schwarz-Weiß-Foto Ecksteins. „Es ist wichtig, dass Frauen in der Öffentlichkeit sichtbar sind”, sagt Kühlewindt.

Eine mobile Ausstellung
Die beiden Studierenden der Sozialen Arbeit haben sich als Teil einer interdisziplinären Projektwerkstatt unter Leitung von Prof. Dr. Gaby Franger-Huhle und Sozialpädagogin Beate Weigle mit der Frage „Wie weiblich ist die Stadt“ auseinandergesetzt. Um die 20 Studierende waren beteiligt und präsentieren an diesem Morgen die Ergebnisse aus zwei Semestern auf 30 Plakaten. Wenige Stunden später ist alles wieder abgebaut. „Die Ausstellung ist mobil und kann gerne ausgeliehen werden“, erklärt Weigle. Ziel der Projektwerkstatt war, kommunalpolitische, ökonomische und bildungspolitische Entwicklungen in Coburg unter dem Gesichtspunkt von Geschlechtergerechtigkeit und der Lebenssituation und Inklusion vulnerabler Gruppen von Frauen jeglicher Herkunft als Maßstab für eine nachhaltige kommunale Entwicklung zu betrachten. Das Ergebnis ist eine Momentaufnahme: Coburg im Herbst 2022.
Mit verschiedenen Methoden von Literatur- und Internetrecherche über qualitative Interviews bis zur nächtlichen Ortsbegehung haben die Studierenden beispielsweise analysiert, welche Rolle Frauen in den Strukturen, den Bedeutungen, der Wahrnehmung Coburgs und in den sozialen Räumen spielen, was die Stadt Frauen in Beruf und Alltag bietet, wie Frauen in Wirtschaft und Gesellschaft vertreten sind und wie ihre Leistungen anerkannt werden.

Teilhabe von Frauen als Bestandteil partizipativer Stadtentwicklung
Tabea Kühlewindt gehörte zu einer Gruppe, die sich mit Frauen in der Kultur beschäftigte, in Patiani Leupolts Team ging es um Anlaufstellen für Frauen. „Mich hat besonders das Frauenhaus beeindruckt“, erzählt sie. Viele Stellen in Coburg unterstützen das Projekt, besonders dankten die Studierenden der Gleichstellungsbeauftragten der Stadt, Susanne Müller. Aber nicht alle ließen sich auf das Thema ein. „Für mich war auch eine spannende Erfahrung, wie sich so ein Projekt entwickelt und wie schwierig es manchmal ist, mit Leuten ins Gespräch zu kommen“, berichtet Kühlewindt.

Die junge Frau aus Sachsen-Anhalt hat dabei viel über partizipative Stadtentwicklung gelernt. Genau wie Patiani Leupolt, die aus der Nähe von München kommt – und wie all die anderen unterschiedlichen Studierenden in der Projektwerkstatt. Wobei sie wiederum in einem Punkt gar nicht so unterschiedlich waren: 95 Prozent der Teilnehmenden dieser Wahlveranstaltung waren Frauen.

(nach oben)


Abbau von Plastikabfall durch neu entwickelte Biokatalysatoren möglich

Jan Meßerschmidt Hochschulkommunikation
Universität Greifswald
Die Kunststoffe Polyurethan und Polyvinylalkohol können mit Hilfe von Enzymen als Biokatalysatoren unter milden Bedingungen abgebaut werden. Ein Team der Universität Greifswald hat zusammen mit dem deutschen Unternehmen Covestro und Teams aus Leipzig und Irland zwei neue Verfahren dafür entwickelt. Dies wurde jetzt in der Fachzeitschrift Angew. Chem. Int. Ed. in zwei Publikationen (DOI: 10.1002/anie.202216220 und DOI: 10.1002/anie.202216962) veröffentlicht.

Somit wurde die Voraussetzung geschaffen, beide Kunststoffe ressourcenschonend zu verwerten und umweltfreundliche Verfahren zu deren Recycling zu entwickeln, um das weltweite Problem des Plastikmülls für diese beiden industriell in großen Mengen hergestellten synthetischen Polymere zu verringern.

Kunststoffe sind aktuell noch unentbehrlich für die Herstellung von Baumaterialien, elektrischen Isolierungen, Getränke- und Lebensmittelverpackungen, Textilien und vielen weiteren Anwendungen. Leider hat die Massenproduktion von Plastik, vor allem für Verpackungen, weltweit zu einer enormen Plastikverschmutzung unserer Umwelt geführt. Die beiden Kunststoffe Polyurethan und Polyvinylalkohol machen rund acht Prozent der Kunststoffproduktion in Europa aus. Seit einigen Jahren wird intensiv an Methoden geforscht, die ein umweltfreundliches Recycling von Kunststoffen ermöglichen. Dieses würde nicht nur die Umwelt entlasten, sondern es wäre weniger Erdöl zur erneuten Herstellung von Plastik notwendig. Zudem würde erheblich weniger Treibhausgas CO2 emittiert werden, da auf eine Verbrennung des Kunststoffabfalls in Müllverbrennungsanlagen verzichtet werden kann.

Polyurethane (PUR) werden zur Herstellung von Matratzen, Dämmstoffen, Thermoplasten (z. B. für Sportschuhe) und für Beschichtungen (Dichtungsmittel, Farben und Klebstoffe) verwendet. Für diese Stoffe gibt es bereits grundlegende chemische Verfahren, um diese abzubauen. Sie erfordern jedoch einen erheblichen Energieeinsatz, da hohe Temperaturen und Drücke nötig sind. Biotechnologische Verfahren unter Einsatz von Mikroorganismen oder Enzymen als natürliche Biokatalysatoren sind eine Alternative, da diese bei moderaten Temperaturen bis ca. 40 °C und ohne Einsatz chemischer Reagenzien den Abbau der Plastikmoleküle und vor allem ein Recycling, also die Gewinnung der Bausteine zur Herstellung neuer Kunststoffe ermöglichen.

Das Team von Prof. Dr. Uwe Bornscheuer vom Institut für Biochemie der Universität Greifswald hat nun zusammen mit Wissenschaftler*innen der Firma Covestro in Leverkusen genau die Enzyme identifiziert, die nach einer chemischen Vorbehandlung in der Lage sind, Polyurethane in seine Bausteine zu zerlegen. „Die Suche nach diesen speziellen Biokatalysatoren war sehr aufwendig und wir mussten ca. zwei Millionen Kandidaten durchmustern, um die ersten drei Enzyme zu finden, die nachweislich in der Lage sind, die spezielle Bindung in Polyurethan aufzubrechen“, beschreibt Doktorand Yannick Branson (Universität Greifswald) die Herausforderung dieses Projekts. „Mit dieser bahnbrechenden Entdeckung haben wir nun die Voraussetzung geschaffen, diese Biokatalysatoren durch Methoden des Protein-Engineerings weiter zu verbessern, um sie für ein industrielles Recycling von Polyurethan maßschneidern zu können“, führt Prof. Dr. Uwe Bornscheuer (Universität Greifswald) weiter aus. „Mit Hilfe der neu identifizierten Enzyme kommen wir unserem Ziel einer vollständigen Kreislaufwirtschaft in der Kunststoffindustrie ein Stück näher“, ergänzt Dr. Gernot Jäger, der das Kompetenzzentrum für Biotechnologie der Covestro (Leverkusen) leitet.

Polyvinylalkohole (PVA) haben vielseitige Eigenschaften und werden ebenfalls breit eingesetzt, z. B. bei der Beschichtung von Fasern und als Folien für Verpackungen. Für den Abbau von PVA gab es bislang ebenfalls keine ausgereiften Verfahren. Hier konnten die Forscher*innen um Professor Bornscheuer zusammen mit einem Polymerexperten des University College Dublin (Irland) und Wissenschaftler*innen aus Leipzig ebenfalls die Grundlagen für ein biotechnologisches Verfahren entwickeln. Der Abbau von PVA konnte hier durch die geschickte Kombination von drei verschiedenen Enzymen erzielt werden, die nach und nach das Polymer so verändern, bis Bruchstücke entstehen, die stofflich verwertet werden können.

Auch wenn die jetzt veröffentlichten Erkenntnisse einen wichtigen Durchbruch darstellen, wird es voraussichtlich noch einige Jahre dauern, bis ein Industrieverfahren ausgereift ist, mit dem ein großtechnisches Recycling dieses Plastikmülls möglich sein wird.

Weitere Informationen:
Urethanases for the enzymatic hydrolysis of low molecular weight carbamates and the recycling of polyurethanes, Angew. Chem. Int. Ed., 62, e202216220
Der Artikel ist zu finden unter: https://doi.org/10.1002/anie.202216962

Urethanasen für die enzymatische Hydrolyse niedermolekularer Carbamate und das Recycling von Polyurethanen (auf Deutsch), Angew. Chem. Int. Ed., 135, e202216220
Der Artikel ist zu finden unter: https://doi.org/10.1002/ange.202216962

Synthesis of modified poly(vinyl alcohol)s and their degradation using an enzymatic cascade, Angew. Chem. Int. Ed., 62, e202216220.
Der Artikel ist zu finden unter: https://doi.org/10.1002/anie.202216220

Synthese modifizierter Poly(vinylalkohole) und deren Abbau durch eine Enzymkaskade, Angew. Chem., 135, e202216220 (auf Deutsch).
Der Artikel ist zu finden unter: https://doi.org/10.1002/ange.202216220

Video- oder Audioanfragen möglich:
Wir bieten ein Interview im Video- oder Audioformat an. In dem Interview wurden die folgenden Fragen gestellt:
Können Sie uns erklären, was Sie gemacht haben bzw. welche Beitrag Ihre aktuelle Forschung leistet?
Ist es möglich, mit diesen neuen Verfahren das weltweite Plastikproblem zu lösen?
Ist diese Methode für auch für Kunststoffabfall in den Ozeanen anwendbar?
Ist diese Methode für auch für Mikroplastik anwendbar?
Wie lange wird es dauern, bis dieses Verfahren marktreif ist?

Ansprechpartner an der Universität Greifswald
Prof. Dr. Uwe Bornscheuer
Institut für Biochemie
Felix-Hausdorff-Straße 4, 17489 Greifswald
Telefon +49 3834 420 4367
uwe.bornscheuer@uni-greifswald.de
http://biotech.uni-greifswald.de

(nach oben)


Fischschwärme funktionieren ähnlich wie das Gehirn

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Wie es biologischen Systemen wie dem Gehirn oder Tierschwärmen gelingt, die Vielzahl an Einzelinformationen aus verschiedenen Quellen optimal zusammenzuführen, ist wenig bekannt. Es gibt die Hypothese, dass das größte Leistungspotenzial des Gehirns an der Grenze zwischen Ordnung und Chaos liegt, im Zustand der sogenannten Kritikalität. Forschende des Exzellenzclusters „Science of Intelligence“ der Humboldt-Universität zu Berlin (HU), der Technischen Universität Berlin (TU) und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) konnten diese Hypothese nun an einem riesigen Fischschwarm nachweisen. Die Studie wurde in Nature Physics veröffentlicht.

„Es geht bei Schwarmverhalten ja darum, dass sich Informationen lawinenartig ausbreiten. In diesem Zustand reagieren die Individuen maximal schnell auf externe Reize mit einer maximal effektiven Informationsweitergabe. Wir konnten an großen Fischschwärmen zeigen, dass die Gesetzmäßigkeit der Kritikalität, die man schon für neuronale Netzwerke nachweisen konnte, diesen Zustand beschreibt“, erläutert Studienleiter Pawel Romanczuk, Professor am Institut für Biologie der HU und Forscher im Exzellenzcluster.

Kritikalität: An der Schwelle von Ordnung zum Chaos arbeitet das Gehirn am effektivsten:
Die Informationsverarbeitung im Gehirn basiert auf einem Netzwerk von rund 86 Milliarden Neuronen. Sie leiten Informationen in Form von Spannungsimpulsen weiter. Nach einer These der Neurobiologie, der so genannten „Kritikalität des Gehirns“ (the critical brain hypothesis) ist unser Gehirn deshalb so effizient in der Informationsverarbeitung, weil es sich permanent an einem kritischen Punkt zwischen zwei dynamischen Zuständen befindet, nämlich Ordnung und Chaos – wobei Ordnung bedeutet, dass die Neuronen hochsynchron aktiv sind, wie in einem neuronaler Gleitschritt, und Chaos bedeutet, dass die Zellen unabhängig voneinander Impulse aussenden. Im Zwischenzustand, der Kritikalität, ist das Gehirn maximal erregbar und schon kleine Reize bringen plötzlich eine Vielzahl von Neuronen zum Feuern, Informationen breiten sich lawinenartig aus und können besonders leicht übertragen werden, auch in weit voneinander entfernte Hirnareale.

La-Ola-Welle für die höchstmögliche Alarmbereitschaft:
Schwefelmollys sind Fische die in Schwefelquellen in Mexiko leben. Sie schwimmen zu Hunderttausenden im Schwarm und zeigen dabei ein typisches und ungewöhnliches Verhalten: Sie tauchen in Wellen auf und ab – aus der Vogelperspektive wirkt es wie eine riesige La-Ola-Welle, die sich mannigfaltig wiederholt. Wie das Forschungsteam bereits in einer früheren Studie gezeigt hat, nutzen die kleinen Fische das Wellenverhalten zunächst, um angreifende Vögel erfolgreich zu verwirren. Dieses Verhalten könnte aber auch eine andere Funktion haben: Es könnte den Schwarm in einen Zustand optimaler Alarmbereitschaft versetzen – in einer Weise, die dem oben beschriebenen Zustand der Kritikalität des Gehirns sehr ähnlich ist. Diese Wachsamkeit ist notwendig, weil die Tiere einem hohen Fraßdruck durch Vögel ausgesetzt sind – wer also nicht wachsam genug ist, wird gefressen.

Die Fische machen nämlich auch eine Wellenbewegung, wenn gar keine Vögel angreifen. „Wir wollten also herausfinden, ob diese Wellenbewegung eine Analogie zur Informationsverarbeitung des Gehirns sein könnte: wenige Oberflächenwellen, wenn keine Vögel angreifen; stärkere und mehr Wellen, wenn Vögel angreifen. Damit würde sich auch der Schwarm bei der kollektiven Tauchbewegung im Stadium der Kritikalität bewegen – mit der höchstmöglichen Alarmbereitschaft“, erläutert Erstautor Luis Gómez-Nava, Forscher im Exzellenzcluster.

Die Forschenden kombinierten empirische Daten aus Verhaltensstudien im Feld mit mathematischen Modellen und konnten so zeigen, dass die räumlich-zeitliche kollektive Dynamik großer Schwärme von Schwefelmollys tatsächlich einem erregbaren System im Stadium der Kritikalität entspricht – ähnlich eines Gehirns.

Maximale Unterscheidungsfähigkeit von Umweltreizen und hohe Reichweite:
Das Verhalten an einem kritischen Punkt ermöglicht es den Schwefelmollyschwärmen, ständig auf Störungen in der Umwelt zu achten und Informationen über die Intensität des Hinweises auch über weite Strecken weiterzugeben. Dies konnte in Zusammenarbeit mit weiteren Mitgliedern des Exzellenzclusters aus dem Bereich der künstlichen Intelligenz, Robert Lange und Professor Henning Sprekeler, gezeigt werden. Sie nutzten modernste Algorithmen des maschinellen Lernens, um die Reaktion des Schwarms auf unterschiedliche Intensitäten von Störungen in der Umgebung zu testen, und kamen zu dem Schluss, dass der Schwarm tatsächlich in der Lage ist, die Informationen über äußere Reize – wie angreifende Vögel – effizient für sich zu nutzen.

„Im Falle der Schwefelmollys korreliert die Intensität der Hinweise mit der Gefahr, da jagende Vögel oft mit dem Körper ins Wasser eindringen, was zu hochintensiven visuellen, akustischen und hydrodynamischen Hinweisen führt, während Vögel im Überflug nur einige visuelle Hinweise geben. Daher ist die Information über die Intensität des Hinweises für Fische sehr wichtig, um angemessene Reaktionen zu koordinieren, zu denen auch wiederholtes Tauchen über mehrere Minuten gehört. Darüber hinaus können diese Informationen über weite Entfernungen übermittelt werden, sodass die Fische Vorsorgemaßnahmen ergreifen können, auch wenn sie sich nicht im direkten Gefahrenbereich befinden“, sagt Koautor David Bierbach. Der Forscher im Exzellencluster hat bereits viele Verhaltensstudien mit Schwefelmollys durchgeführt.

Unterschiede Schwarm und Gehirn: Individuelles Verhalten der Tiere:
Natürlich gibt es auch wichtige Unterschiede zwischen dem Fischschwarm und neuronalen Systemen. In neuronalen Systemen ändert sich die Struktur des Interaktionsnetzwerks zwischen den einzelnen Elementen auf einer viel langsameren Zeitskala als das dynamische Verhalten im Fischschwarm.

„Die dynamische Gruppenstruktur und individuelle Verhaltensparameter wie die individuelle Geschwindigkeit oder die Aufmerksamkeit gegenüber Artgenossen haben starke Auswirkungen auf das kollektive Verhalten, was zu alternativen Mechanismen der Selbstorganisation in Richtung Kritikalität durch Modulation des individuellen Verhaltens führen kann. Es gibt hier noch viele offene Fragen an denen wir weiterforschen“, sagt Jens Krause, Professor an der HU und im Exzellenzcluster sowie Leiter einer Forschungsabteilung am IGB.

Die Ähnlichkeit zwischen dem Tauchverhalten von Fischen als „kollektivem Verstand“ und der neuronalen Aktivität im Gehirn hilft, kollektive Systeme in der Natur besser zu verstehen.

Wissenschaftliche Ansprechpartner:
Luis Gomez
Science of Intelligence Excellence Cluster (SCIoI)
+49 30 2093 98438
Email: luis.gomez@hu-berlin.de

Pawel Romanczuk
Science of Intelligence Excellence Cluster (SCIoI)
+49 30 2093 6780
Email: pawel.romanczuk@hu-berlin.de

Jens Krause
Science of Intelligence Excellence Cluster (SCIoI)
und Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: jens.krause@igb-berlin.de

Originalpublikation:
Gómez-Nava, L., Lange, R.T., Klamser, P.P. et al. Fish shoals resemble a stochastic excitable system driven by environmental perturbations. Nat. Phys. (2023). https://doi.org/10.1038/s41567-022-01916-1

Weitere Informationen:
https://www.igb-berlin.de/news/fischschwaerme-funktionieren-aehnlich-wie-das-geh…

(nach oben)


Globale Studie der Universität Bayreuth zeigt Einflüsse des Klimawandels auf terrestrische Ökosysteme

Christian Wißler Pressestelle
Universität Bayreuth
Pflanzenökologen der Universität Bayreuth zeigen in „Nature Geoscience“, wie sich der globale Klimawandel auf terrestrische Ökosysteme auswirkt. Veränderungen in der Vegetationsaktivität konnten meist durch Veränderungen der Temperatur und der Bodenfeuchtigkeit erklärt werden. Änderungen der Sonneneinstrahlung und des CO₂-Gehalts in der Atmosphäre spielten selten eine dominante Rolle. In einigen Ökosystemen sind nach einer langjährigen Zunahme der Vegetationsaktivität Rückgänge zu beobachten. Diese Trendumkehr wirft die Frage auf, ob terrestrische Ökoysteme auch in Zukunft einen hohen Beitrag zur Bindung von atmosphärischem Kohlenstoff leisten werden.

Das Forschungsteam unter der Leitung von Prof. Dr. Steven Higgins, Inhaber des Lehrstuhls für Pflanzenökologie an der Universität Bayreuth, hat weltweite Fernerkundungsdaten aus den letzten 40 Jahren mit einem neuartigen dynamischen Modell des Pflanzenwachstums analysiert. Das neue Modell beschreibt den Einfluss wichtiger Klimaparameter wie Lufttemperatur, Bodentemperatur, Bodenfeuchte, Sonneneinstrahlung und atmosphärischer CO₂-Gehalt auf das Pflanzenwachstum. Damit ist es jetzt erstmals gelungen, messbare Veränderungen in der Vegetation von terrestrischen Ökosystemen auf einzelne Klimafaktoren zurückzuführen.

„Untersuchungen, die kausale Beziehungen zwischen klimatischen Veränderungen und Vegetationsänderungen herstellen und dabei den Einfluss einzelner sich ändernder Klimaparameter – wie beispielsweise Temperatur und Niederschlag – identifizieren, stellen einen wichtigen Fortschritt in der Ökosystemforschung dar. Sie beweisen, dass der menschengemachte Klimawandel bereits jetzt die Ökosysteme der Erde verändert. Aufgrund der so gewonnenen Erkenntnisse können wir erheblich besser verstehen und einschätzen, wie sich die Ökosysteme der Erde infolge des Klimawandels entwickeln. Die auf diese Weise gewonnenen Erkenntnisse können eine wertvolle Unterstützung für umwelt- und klimapolitische Programme sein“, sagt Higgins. „Früher konnten wir zwar Veränderungen der Vegetationsaktivität feststellen, aber es war oftmals schwierig zu erkennen, ob es wirklich der Klimawandel war, der diese Veränderungen verursacht hat. Auch der jüngste Bericht des Weltklimarats IPCC enthält überraschend wenig Fallstudien, in denen beobachtete Vegetationsveränderungen mit hoher Sicherheit auf klimatische Veränderungen zurückgeführt werden konnten“, ergänzt Dr. Timo Conradi, Ko-Autor und wissenschaftlicher Mitarbeiter am Lehrstuhl für Pflanzenökologie.

Die neue Studie beruht auf Messdaten zu insgesamt 100 Untersuchungsflächen, die über alle Kontinente verteilt sind. In dieser Stichprobe ist jedes der wichtigsten Ökosysteme der Erde mit mindestens fünf Beispielen vertreten: tropische immergrüne Wälder, boreale Wälder, gemäßigte Wälder, Savannen, Buschland, Grasland, Tundra und mediterrane Ökosysteme. Die durch Satellitenbeobachtungen ermittelten Vegetationsveränderungen an diesen Standorten wurden daraufhin untersucht, inwieweit sie mit Veränderungen der Lufttemperatur, der Bodentemperatur, der Bodenfeuchte, der Sonneneinstrahlung und dem CO₂-Gehalt der Atmosphäre erklärt werden können. In ihrer Gesamtheit lassen diese Analysen einige globale Trends erkennen: Ökosysteme an trockenen und warmen Standorten, vor allem Savannen und manche Grasländer, reagierten in erster Linie auf Veränderungen der Bodenfeuchtigkeit. Hingegen waren Ökosysteme an kühleren Standorten, wie boreale Wälder, Wälder der gemäßigten Breiten und Tundren, besonders sensibel für Temperaturänderungen. Änderungen des CO₂-Gehalts der Atmosphäre und der Sonneneinstrahlung hatten überraschenderweise nur selten einen dominierenden Einfluss auf Vegetationsänderungen.

„Unsere Ergebnisse zeigen, wie langfristige Fernerkundungsdaten die Ökosystemforschung unterstützen und erheblich voranbringen können. Gerade auf diesem Gebiet wird eine enge internationale Zusammenarbeit weiterhin erforderlich sein, um den Einfluss von Klimafaktoren auf globaler Ebene zu identifizieren und zu verstehen, wie und warum sich Ökosysteme in verschiedenen Regionen der Welt verändern“, sagt Ko-Autor Edward Muhoko M.Sc. aus Namibia, der zurzeit am Lehrstuhl für Pflanzenökologie promoviert und sich auf Geoinformationssysteme, Fernerkundungsverfahren und Geostatistik spezialisiert hat.

Die Bayreuther Forscher fanden in unterschiedlichen Klimazonen der Erde deutliche Hinweise auf Trendumkehrungen. Anscheinend haben steigende Luft- und Bodentemperaturen an vielen Standorten zunächst jahrzehntelang die Vegetationsaktivität erhöht und eine aus dem Weltraum sichtbare „Begrünung“ bewirkt. Anhaltende Temperaturerhöhungen können jedoch irgendwann zu einer Austrocknung der Böden führen, was eine Verringerung der Vegetationsaktivität zur Folge hat. Neuere Satellitenaufnahmen lassen daher an einigen Standorten eine „Verbraunung“ von Ökosystemen erkennen. Feldforschungen in tropischen Wäldern, bei denen Veränderungen der Baumgröße gemessen wurden, haben in jüngster Zeit ebenfalls Belege für diese Entwicklung geliefert. „Falls diese Trendumkehr durch weitere Studien bestätigt wird, wäre das in der Tat besorgniserregend, denn in der Vergangenheit haben die terrestrischen Ökosysteme durch ihre jahrzehntelange ‚Begrünung‘ erhebliche Anteile der anthropogenen Kohlenstoffemissionen absorbiert. Bislang hat uns diese Kohlenstoffbindung durch die Vegetation vor einem noch dramatischeren Klimawandel bewahrt“, erklärt Higgins.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Steven Higgins
Lehrstuhl für Pflanzenökologie
Universität Bayreuth
Telefon: +49-921-55-2800
E-Mail: steven.higgins@uni-bayreuth.de

Originalpublikation:
Steven I. Higgins, Timo Conradi, Edward Muhoko: Shifts in vegetation activity of terrestrial ecosystems attributable to climate trends. Nature Geoscience (2023), https://www.nature.com/articles/s41561-022-01114-x – DOI: https://doi.org/10.1038/s41561-022-01114-x

(nach oben)


Studienangebot des Jahres 2023

Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
Fernstudium Master of Arts: Kindheits- und Sozialwissenschaften (MAKS) für den Studienpreis des Bundesverbandes der Fernstudienanbieter nominiert

Das berufsbegleitende Masterfernstudium Kindheits- und Sozialwissenschaften (M.A.), das die Hochschule Koblenz in Kooperation mit dem zfh – Zentrum für Fernstudien im Hochschulverbund anbietet, wurde zum Studiengang des Jahres nominiert. Der Bundesverband der Fernstudienanbieter hat den Studienpreis „Bildung.digital.vernetzt.“ ausgelobt und prämiert innovative Projekte und digitale Weiterbildungsangebote. Es werden Fernstudienangebote gesucht, die besondere Alleinstellungsmerkmale aufweisen, etwa im Hinblick auf die Zielgruppe oder auf eine innovative Methodik und Didaktik.

Der Weiterbildungsfernstudiengang Kindheits- und Sozialwissenschaften ist als Fernstudium konzipiert und integriert Präsenz-, Selbstlern- und Onlinephasen. Neben den monatlich stattfindenden Präsenzveranstaltungen an der Hochschule studieren die Teilnehmenden sowohl zeitlich als auch räumlich flexibel. Das Fernstudium ist bundesweit ein einmaliges Angebot zur nebenberuflichen Weiterqualifizierung kindheitspädagogischer Fachkräfte auf Masterniveau.

Die Absolvierenden qualifizieren sich mit dem Masterfernstudium für anspruchsvolle Tätigkeiten in leitenden, planenden oder forschenden Positionen kindheitswissenschaftlicher Berufsfelder. Vier wählbare Schwerpunkte ermöglichen eine gezielte und spezialisierte Weiterbildung in den Bereichen Management und Beratung, Kinderschutz und Diagnostik, Bewegung und Gesundheit und einer ganz neuen Vertiefung Trauma und Ressource. Die Weiterbildungskurse ‚Fachkraft für Kita-Sozialraumarbeit‘ an der Hochschule Koblenz und ‚Pädagogische Fachberatung für Kindertageseinrichtungen‘ an der Fachhochschule Kiel können als erbrachte Leistung anerkannt werden.

Angesprochen sind Absolventinnen und Absolventen eines ersten Hochschulstudiums, die über eine mindestens einjährige aktuelle Berufspraxis in der Arbeit mit Kindern verfügen und ihre bisherigen Erfahrungen auf akademischem Niveau vertiefen möchten. Aber auch beruflich qualifizierte Studieninteressierte ohne Hochschulabschluss können über die Teilnahme an einer Eignungsprüfung zu diesem Studiengang zugelassen werden.

Weitere Informationen: http://www.zfh.de/master/kindheit und http://www.hs-koblenz.de/maks

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.575 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de
Internet: http://www.zfh.de

(nach oben)


Neues Verbundprojekt macht Herstellung von Biokraftstoffen effizienter | Biokraftstoffe mit Strom boostern

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
In einem zu Jahresbeginn gestarteten Projekt unter Koordination der Technischen Universität München (TUM) will ein Bündnis aus Forschungsinstitutionen und Unternehmen den ökologischen Fußabdruck des Verkehrssektors senken. Dazu entwickeln die Beteiligten ein Raffineriekonzept, um erneuerbare Kraftstoffe im Tonnenmaßstab für eine Vielzahl von Anwendungen zu produzieren. Die Forschenden kombinieren dafür die Herstellung von E-Fuels mit der von fortschrittlichen Biokraftstoffen.

In Deutschland stehen verschiedene Technologien wie Brennstoffzellen, Batterien oder erneuerbare Kraftstoffe bereit, um CO2-Emissionen im Verkehrssektor zu minimieren. Die Elektromobilität alleine reicht nicht aus, um den Verkehr klimaneutral zu gestalten. Bestandsflotten sowie schwer zu elektrifizierende Anwendungen etwa in der Schiff- und Luftfahrt benötigen noch auf lange Zeit erneuerbare Kraftstoffe in großen Mengen.

Erneuerbare Kraftstoffe ganzheitlich gedacht
Bei der Herstellung von E-Fuels, also unter Anwendung von erneuerbarem Strom und CO2 produzierte synthetische Kraftstoffe, bestehen in der nachhaltigen Bereitstellung von Kohlenstoff noch Herausforderungen – ebenso bei fortschrittlichen, aus biogenen Reststoffen hergestellten Biokraftstoffen. Diese sind in der Nutzung von Kohlenstoff wenig effizient, weil bis zu 50 Prozent des in der Biomasse verfügbaren Kohlenstoffes bei der Umwandlung zu Kraftstoffen als CO2 verloren geht. Dies vergrößert den Rohstoffbedarf.

Im neuen Verbundprojekt »Synergy Fuels« wollen die Forschenden diese Herausforderungen meistern, indem sie E-Fuels- mit Biokraftstoff-produzierenden Demonstrationsanlagen zusammenschalten. »Die stoffliche und energetische Integration der Synthesen von E-Fuels und Biokraftstoffen schafft Synergien: Die Nutzung von erneuerbarem Strom zur Umwandlung von CO2 zu flüssigen Kraftstoffen erhöht die Kohlenstoffeffizienz der biotechnologischen Verfahren. Zudem ermöglicht die langfristige Kohlenstoffbindung in Form des Nebenprodukts Pflanzenkohle sogar negative CO2-Emissionen, also eine netto Kohlenstoffabscheidung aus der Atmosphäre«, sagt Projektkoordinator Prof. Dr.-Ing. Jakob Burger, Professor für Chemische und Thermische Verfahrenstechnik am TUM Campus Straubing für Biotechnologie und Nachhaltigkeit.

So nutzt der Verbund Abwärme aus den (thermo-)chemischen Synthesen (z. B. der Methanolsynthese) für die Produktaufarbeitung. Wesentlich ist auch die Bereitstellung von biogenem CO2 für die Methanolsynthese sowie von biogenem Wasserstoff durch die thermochemische Konversion von Biomassereststoffen. Dadurch wird die Nutzung fossiler CO2-Quellen, beispielsweise Abgase der Verbrennung von Kohle oder Erdgas, oder eine aufwändige CO2-Abscheidung aus der Atmosphäre umgangen.

Kerosin und Diesel aus CO2
Das Fraunhofer IGB konzentriert sich in SynergyFuels auf die heterogenkatalytische Synthese von Mitteldestillatkraftstoffen, also Kerosin und Diesel, aus CO2 und erneuerbarem Strom. Die zu entwickelnde Prozessroute verläuft über Alkohole und Olefine als Zwischenprodukte. Das CO2 stammt direkt aus technischen Prozessgasen, zum einen aus der fermentativen Ethanolproduktion, zum anderen der thermokatalytischen Biomassekonversion. »So gelingt es uns, Power-to-X- und Biomasse-basierte Verfahren wertschöpfend zu verbinden. Dabei ist uns wichtig, nicht nur linear entlang einzelner Prozessketten zu denken, sondern wie in einer Raffinerie verschiedene Stoffströme durch Prozessvernetzung möglichst effizient zu nutzen«, stellt Dr. Arne Roth, Projektleiter am Fraunhofer IGB in Straubing, klar. Die Arbeiten erfolgen dabei von kleinskaligen Tests im Labor bis in den Technikumsmaßstab zur Produktion von Kraftstoffmustern.

Schnelle Markteinführung der produzierten Kraftstoffe
»Wir benötigen hocheffiziente Verfahren, um nachhaltige Drop-in-Kraftstoffe in industriellen Mengen zu vertretbaren Preisen herzustellen. Unser Verbund pilotiert diese Verfahren, damit eine schnelle Markteinführung der neuen Kraftstoffe gelingt«, sagt Prof. Burger. Drop-in bedeutet, dass die Kraftstoffe nahtlos dem bestehenden Kraftstoffpool zugemischt werden können und so die fossilen Kraftstoffe ersetzen, ohne die Motoren technisch zu ändern.

In den Raffinerieverbund werden in den nächsten vier Jahren neun Syntheseanlagen in Ostbayern integriert, darunter bestehende in Straubing und Sulzbach-Rosenberg. Diese Anlagen produzieren eine breite Palette von erneuerbaren Kraftstoffen im Tonnenmaßstab. Die Projektbeteiligten überprüfen deren physikalische Eigenschaften wie Schmierfähigkeit oder Kälteverhalten. Anwendungspartner aus den Bereichen Luft- und Schifffahrt sowie Fahrzeuge und mobile Maschinen demonstrieren die Eignung der Kraftstoffe im Realbetrieb.

An dem Projekt »Synergien durch Integration von Biomassenutzung und Power-to-X in der Produktion erneuerbarer Kraftstoffe (Synergy Fuels)« beteiligen sich neben der TUM als Koordinator und dem Fraunhofer IGB auch das Technologie- und Förderzentrum (TFZ), das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik (UMSICHT) sowie die Industrieunternehmen Clariant, Martech GmbH und Volkswagen AG. Das Bundesministerium für Digitales und Verkehr (BMDV) fördert das Vorhaben über die Förderrichtlinie »Maßnahmen zur Entwicklung regenerativer Kraftstoffe« mit 13,6 Millionen Euro.

Technische Universität München (TUM)
Die Technische Universität München (TUM) ist mit rund 600 Professorinnen und Professoren, 50.000 Studierenden sowie 11.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Mumbai, Peking, San Francisco und São Paulo vertreten.
An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006, 2012 und 2019 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands.

Wissenschaftliche Ansprechpartner:
Dr. Arne Roth
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Leiter Innovationsfeld Nachhaltige katalytische Prozesse
Schulgasse 11a
94315 Straubing
Telefon +49 9421 9380-1030
E-Mail: arne.roth@igb.fraunhofer.de

Prof. Dr.-Ing. Jakob Burger
Technische Universität München (TUM)
Campus Straubing für Biotechnologie und Nachhaltigkeit
Professur für Chemie und Thermische Verfahrenstechnik
Telefon: +49 9421 187-275
E-Mail: synergyfuels@cs.tum.de

Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/biokraft…

Weitere Informationen:
https://www.igb.fraunhofer.de/de/forschung/katalysatoren.html

(nach oben)


Zum Weltkrebstag 2023: DGU mahnt erneut Verbesserung der Prostatakrebs-Früherkennung an

Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.
Am 4. Februar 2023 ist Weltkrebstag: Wie die Deutsche Krebshilfe weist auch die Deutsche Gesellschaft für Urologie e.V. (DGU) anlässlich dieses wichtigen Aktionstages auf Defizite bei Prävention und Früherkennung von Krebs in Deutschland hin und ruft Bürgerinnen und Bürger dazu auf, sich auf ihrem Patientenportal www.urologische-stiftung-gesundheit.de über die Möglichkeiten der Vorbeugung und der Früherkennung urologischer Krebserkrankungen zu informieren.

Mit Blick auf die häufigste Tumorerkrankung des Mannes wiederholt die wissenschaftliche Fachgesellschaft ihre Forderung gegenüber den Verantwortlichen im Gesundheitswesen, die Empfehlungen des Europäischen Rates zur Früherkennung des Prostatakarzinoms mit hoher Priorität auf nationaler Ebene umzusetzen.
Urologische Tumoren machen mittlerweile bis zu einem Viertel aller in Deutschland pro Jahr neu gestellten Krebsdiagnosen aus. Prostata-, Blasen-, Nierenzell- und Hodenkarzinome sind dabei die häufigsten. Das Prostatakarzinom weist sowohl in Deutschland als auch in der EU die mit Abstand höchste Inzidenz der Krebsneuerkrankungen unter Männern auf und steht hinsichtlich der Mortalität in Deutschland inzwischen an zweiter Stelle: Im Jahr 2019 wurden in Deutschland 68.579 Neuerkrankungen dokumentiert; im gleichen Jahr verstarben 15.040 Männer an diesem Tumor.

Vor diesem Hintergrund hat sich die DGU seit Jahren für eine Weiterentwicklung der Prostatakrebs-Früherkennung stark gemacht und auf der Grundlage neuester evidenzbasierter Studiendaten bereits seit Längerem ein zeitgemäßes Früherkennungsverfahren gefordert, das nicht ausschließlich auf der Tastuntersuchung der Prostata beruht. „Im Einklang mit den jüngsten Empfehlungen des Europäischen Rates fordern wir die Entwicklung eines Früherkennungsprogramms, das an Früherkennung interessierten Männern den Zugang zu einer fachärztlichen Beratung, einem PSA-Test und untersuchungsbefundabhängig ein multiparametrisches MRT der Prostata ermöglicht und haben Ende 2022 in einem Brief an Bundesgesundheitsminister Prof. Dr. med. Karl Lauterbach appelliert, dies mit hoher Priorität umzusetzen“, sagt DGU-Generalsekretär Prof. Dr. med. Maurice Stephan Michel. „Wenngleich wir erfreulicherweise mit dem Gemeinsamen Bundesausschuss (G-BA) in konstruktiven Gesprächen zum Thema sind, bleiben wir besorgt, dass die Früherkennung des Prostatakarzinoms in Deutschland im Vergleich zu anderen europäischen Ländern zurückfällt und mahnen unsere Forderung nach einer schnellen Umsetzung anlässlich des diesjährigen Weltkrebstages öffentlich an“, so Prof. Michel weiter.

Anfang Februar hatte die Deutsche Gesellschaft für Urologie e.V. auch den Minister für Soziales, Gesundheit und Integration des Landes Baden-Württemberg und derzeitigen Vorsitzenden der Gesundheitsministerkonferenz, Manfred Lucha, über die Situation bei der Früherkennung des Prostatakarzinoms informiert. Der Minister hatte sich zuletzt der Männergesundheit angenommen und darauf hingewiesen, dass Männer Vorsorge- und Früherkennungsuntersuchungen deutlich weniger häufig wahrnehmen als Frauen und dadurch vermeidbaren Schaden an ihrer Gesundheit erleiden. „Bedauerlicherweise kommt beim Prostatakarzinom hinzu, dass den Männern, die bereit sind, an dieser Früherkennungsmaßnahme teilzunehmen, mit der alleinigen Tastuntersuchung derzeit in Deutschland ein Verfahren angeboten wird, das klar unzureichend ist“, unterstreicht DGU-Präsident Prof. Dr. med. Martin Kriegmair den dringenden Handlungsbedarf bei der Männergesundheit.

Weitere Informationen
Pressekontakt der Deutschen Gesellschaft für Urologie e.V.
Bettina-C. Wahlers
Sabine M. Glimm
Wettloop 36c
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de

(nach oben)


Wasserkrisen durch Klimawandel: gefährlicher als bisher gedacht

Dr. Florian Aigner PR und Marketing
Technische Universität Wien
Dass der Klimawandel in den Wasserkreislauf des Planeten eingreift, ist bekannt. Neue Analysen zeigen: Das Abflussverhalten reagiert vielerorts empfindlicher als bisher angenommen.

Der Klimawandel verändert die globale Luftzirkulation, dadurch ändern sich in großen Teilen der Erde auch Niederschlag und Verdunstung. Das beeinflusst auch die Wassermenge in den Flüssen, die lokal genutzt werden kann. Prognosen über derartige Auswirkungen des Klimawandels berechnete man bisher meist auf Basis physikalischer Modelle – auch das IPCC (das Intergovernmental Panel on Climate Change) wendet diese Strategie an.

Neue Datenanalysen, die unter der Leitung von Prof. Günter Blöschl von der TU Wien durchgeführt wurden, zeigen nun allerdings: Bisherige Modelle unterschätzen systematisch, wie sensibel die Wasser-Verfügbarkeit auf bestimmte Klima-Parameter reagiert. Eine Analyse von Messdaten aus über 9.500 hydrologischen Einzugsgebieten aus der ganzen Welt zeigt, dass der Klimawandel in noch stärkerem Ausmaß als bisher erwartet zu lokalen Wasser-Krisen führen kann. Die Ergebnisse wurden nun im Fachjournal „Nature Water“ publiziert.

Modell-Ansatz und Messdaten-Ansatz
„In der Klimatologie-Community versteht man heute sehr gut, welche Auswirkungen der Klimawandel auf die Atmosphäre hat. Welche Konsequenzen das aber lokal auf Flüsse und die Verfügbarkeit von Wasser haben kann, fällt allerdings in das Gebiet der Hydrologie“, erklärt Prof. Günter Blöschl vom Institut für Wasserbau und Ingenieurhydrologie der TU Wien.

Lokal lässt sich oft sehr gut erklären, wie die Wasserverfügbarkeit von äußeren Parametern wie Niederschlagsmenge oder Temperatur zusammenhängt – das wird an vielen Messstellen weltweit untersucht, ganz besonders ausführlich etwa in Blöschls Hydrologielabor in Petzenkirchen, wo auf 60 Hektar Fläche zahlreiche Sensoren installiert wurden. Doch globale Schlüsse kann man aus solchen Einzelbeobachtungen nicht ziehen: „Wie der Wasserhaushalt von äußeren Parametern abhängt, ist von Ort zu Ort unterschiedlich, auch die lokale Vegetation spielt hier eine sehr wichtige Rolle“, sagt Günter Blöschl. Ein simples physikalisches Modell zu entwickeln, mit dem man an allen Orten der Welt diese Zusammenhänge berechnen kann, ist kaum möglich.

Günter Blöschl arbeitete daher mit Kolleginnen und Kollegen aus China, Australien, den USA und Saudi Arabien zusammen, um eine möglichst große Datenbank über hydrologische Einzugsgebiete aus der ganzen Welt aufzubauen und zu analysieren. Über 9.500 solche Gebiete wurden einbezogen, mit Zeitreihen, die mehrere Jahrzehnte in die Vergangenheit reichen.

Das Wassersystem reagiert auf Klimawandel sensibler als gedacht
„Wir stützen uns in unserer Analyse also nicht auf physikalische Modelle, sondern auf tatsächliche Messungen“, betont Günter Blöschl. „Wir sehen uns an, wie stark sich die Menge des verfügbaren Wassers in der Vergangenheit geändert hat, wenn sich äußere Bedingungen änderten. Wir können dadurch also herausfinden, wie sensitiv Änderungen von Klima-Parametern mit einer Änderung der lokalen Wasser-Verfügbarkeit zusammenhängen. Und das erlaubt uns dann auch Vorhersagen für die Zukunft, in der sich das globale Klima erwärmt haben wird.“

Und dabei zeigte sich: Der Zusammenhang von Niederschlag und Wassermenge in den Flüssen ist viel sensitiver als man bisher dachte – und somit viel sensitiver als man in den derzeit üblichen Modellen zur Vorhersage des Klimawandels annimmt.

Prognosemodelle über die Auswirkungen des Klimawandels auf die Wasserversorgung müssen daher grundlegend überarbeitet werden. „Bisher gehen in die Modelle, wie sie auch das IPCC derzeit verwendet, Abflussmessungen meist gar nicht ein“, sagt Günter Blöschl. „Mit den jetzt verfügbaren Messreihen sollte es nun möglich werden, auch die dahinterliegenden physikalischen Vorhersagemodelle entsprechend anzupassen.“

Gefährlicher als angenommen
Die Ergebnisse des Forschungsteams rund um Günter Blöschl zeigen jedenfalls, dass die Gefahr des Klimawandels auf die Wasserversorgung in vielen Teilen der Erde bisher unterschätzt wurde. Besonders für Afrika, Australien und Nordamerika sagen die neuen Daten bis 2050 ein deutlich höheres Risiko für Wasser-Versorgungskrisen voraus als bisher angenommen.

Wissenschaftliche Ansprechpartner:
Univ.Prof. Günter Blöschl
Institut für Wasserbau und Ingenieurhydrologie
Technische Universität Wien
Karlsplatz 13, 1040 Wien
+43-1-58801-2231
bloeschl@hydro.tuwien.ac.at

Originalpublikation:
H. Zheng et al., Future global streamflow declines are probably more severe than previously estimated, Nature Water, 2023. https://doi.org/10.1038/s44221-023-00030-7

(nach oben)


76 Prozent der erfassten Insektenarten nicht von Schutzgebieten abgedeckt

Sebastian Tilch Medien und Kommunikation
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Die Zahl der Insekten ist in vielen Teilen der Welt rückläufig. Schutzgebiete könnten einen wesentlichen Beitrag zur Erhaltung bedrohter Insektenarten leisten, doch Forschende unter Leitung des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv), des Helmholtz-Zentrums für Umweltforschung (UFZ), der Friedrich-Schiller-Universität Jena und der Universität Queensland zeigen, dass 76 Prozent der erfassten Insektenarten nicht ausreichend durch Schutzgebiete abgedeckt sind. In der Zeitschrift One Earth empfehlen sie Entscheidungsträgern, die mit Abstand größte Artengruppe bei der Umsetzung der neuen Ziele der UN-Konvention zur biologischen Vielfalt angemessen zu berücksichtigen.

Geschätzt über 80 Prozent aller Tierarten sind Insekten. Diese Artengruppe spielt in fast allen Ökosystemen eine entscheidende Rolle. Insekten bestäuben über 80 Prozent der Pflanzen, haben eine Schlüsselfunktion im natürlichen Nährstoffkreislauf und bei der Schädlingsbekämpfung und dienen Tausenden von Wirbeltierarten als wichtige Nahrungsquelle. Dennoch wurden Insekten in der Vergangenheit von Naturschutzprogrammen weitgehend übersehen – und selbst auf der Roten Liste der bedrohten Arten der Weltnaturschutzorganisation IUCN machen sie nur acht Prozent aus.

Frühere Studien haben gezeigt, dass Schutzgebiete bedrohte Insektenarten erhalten können, wenn sie auf dieses Ziel zugeschnitten sind und mit ihren Verbreitungsgebieten übereinstimmen. Um festzustellen, welcher Anteil der Insektenarten weltweit in Schutzgebieten vorkommt, hat ein Forschungsteam unter der Leitung von iDiv, UFZ und den Universitäten Jena und Queensland die Daten von 89.151 Insektenarten, deren Verbreitung in der größten Biodiversitätsdatenbank, der Global Biodiversity Information Facility (GBIF), registriert ist, mit globalen Karten von Schutzgebieten abgeglichen. Einen Anhaltspunkt für eine ausreichende Abdeckung von Arten durch Schutzgebiete bieten die Globalen Standards der IUCN für die Identifizierung von Schlüsselgebieten der biologischen Vielfalt (Key Biodiversity Areas).

Das Forschungsteam stellte fest, dass 76 Prozent der weltweit erfassten Insektenarten in Schutzgebieten nur unzureichend vertreten sind, darunter mehrere stark gefährdete Arten wie die Dinosaurierameise (Nothomyrmecia macrops), die Blutrote Hawaii-Wasserjungfer (Megalagrion leptodemas) und die Bärenspinnerart Apantesis phalerata. Bei 1.876 Arten aus 225 Familien überschneiden sich die weltweiten Verbreitungsgebiete überhaupt nicht mit Schutzgebieten.

Der Erstautor der Studie, Dr. Shawan Chowdhury, Postdoktorand am iDiv, UFZ und an der Universität Jena, zeigte sich überrascht über das Ausmaß der Unterrepräsentation. „Viele Insektendaten stammen aus Schutzgebieten, daher dachten wir, dass der Anteil der Arten, die in Schutzgebieten zu finden sind, höher sein würde“, sagt Chowdhury. „Das Defizit ist auch viel größer als bei Wirbeltieren, bei denen eine ähnliche Analyse eine unzureichende Schutzgebietsabdeckung für 57 Prozent der Arten ergeben hat.“

Insekten waren in einigen Regionen besser geschützt als in anderen, beispielsweise in Amazonien, Süd- und Mittelamerika, Afrika südlich der Sahara, Westaustralien und auch Mitteleuropa. In Nordamerika, Osteuropa, Süd- und Südostasien sowie weiten Teilen Australiens hingegen war der Schutz durch Schutzgebiete für viele Arten unzureichend.

„Insekten wurden bei der Ausweisung neuer Schutzgebiete häufig nicht als Schwerpunktgruppe berücksichtigt“, sagt Chowdhury. „In der Regel sind es die Wirbeltiere, auf die die Schutzziele zugeschnitten werden, und deren Anforderungen an den Lebensraum sind häufig ganz andere als die der Insekten. Für eine Artengruppe, die einen so großen Teil des Tierreichs ausmacht und vielfältige Ökosystemfunktionen erfüllt, ist das beunruhigend.“

Die Mitgliedsstaaten des UN-Übereinkommens über die biologische Vielfalt (CBD) haben kürzlich ein neues globales Rahmenwerk für die biologische Vielfalt verabschiedet, unter anderem mit dem Ziel 3, das dazu aufruft, mindestens 30 Prozent der Land-, Binnengewässer-, Küsten- und Meeresflächen durch Schutzgebiete effektiv zu erhalten. Nach Ansicht der Autorinnen und Autoren sollten Insekten bei der Auswahl und Planung neuer Gebiete viel stärker berücksichtigt werden.

„Um dies weltweit umsetzen und den Erfolg effektiv bewerten zu können, sind jedoch wesentlich bessere Daten erforderlich, vor allem in Regionen mit hoher biologischer Vielfalt wie den Tropen, die in den Monitoringprogrammen bisher völlig unterrepräsentiert sind“, sagt Letztautor Prof. Richard Fuller von der Universität Queensland.
„Bürgerwissenschaft könnte einen enormen Einfluss auf die Schließung der Datenlücke bei der Verbreitung von Insekten haben. Wissenschaftler und politische Entscheidungsträger müssen jetzt aktiv werden und bei der Ermittlung von Gebieten helfen, die für den Schutz von Insekten wichtig sind.“

Die Studie wurde u.a. von der Deutschen Forschungsgemeinschaft (DFG; FZT-118) unterstützt. Sie ist ein Produkt der sDiv-Synthesearbeitsgruppe sMon. iDiv’s Synthesezentrum sDiv finanziert Arbeitsgruppentreffen, bei denen Forschende aus aller Welt gemeinsam wissenschaftliche Fragen bearbeiten.

Wissenschaftliche Ansprechpartner:
Dr. Shawan Chowdhury
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Friedrich-Schiller-Universität Jena
Helmholtz-Zentrums für Umweltforschung (UFZ)
Tel.: +49 341 9733178
E-Mail: shawan.chowdhury@idiv.de

Prof. Richard Fuller
Universität Queensland/Australien
Tel.: +61 7 334 69912
E-Mail: r.fuller@uq.edu.au

Originalpublikation:
Chowdhury, S., Zalucki, M. P., Hanson, J. O., Tiatragul, S., Green, D., Watson, J. E. M., Fuller, R. A. (2023): Three quarters of insect species are insufficiently represented by protected areas. One Earth. DOI: 10.1016/j.oneear.2022.12.003 https://www.cell.com/one-earth/fulltext/S2590-3322(22)00631-5

(nach oben)


Innovationskraft für eine nachhaltige Arbeitswelt

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Ministerpräsident Kretschmann besucht Stuttgarter Technologie- und Innovationscampus S-TEC

Nachhaltigkeit und Klimaschutz stehen ganz oben auf der Agenda von Politik, Wirtschaft und Wissenschaft. Um sich ein Bild davon zu machen, mit welchen Innovationen ressourceneffizientes Wirtschaften gelingt, besuchte Ministerpräsident Winfried Kretschmann am 31. Januar 2023 den Stuttgarter Technologie- und Innovationscampus S-TEC im Fraunhofer-Institutszentrum Stuttgart.

Ob Klimawandel, Fachkräftemangel oder digitale Transformation: Die Bewältigung der anstehenden Herausforderungen erfordert ein Umdenken auf vielen Ebenen. Dies gelingt nur, wenn Politik, Wirtschaft und Wissenschaft an einem Strang ziehen, interdisziplinär zusammenarbeiten und zukunftsrelevante Forschungsthemen mit hohem technischen und organisatorischen Innovationscharakter vorantreiben – auf globaler, aber vor allem und zuerst auf regionaler Ebene. Baden-Württemberg zählt seit Jahrzehnten zu den führenden Innovationsregionen in Europa. Doch das Land befindet sich in hartem Wettbewerb um die weltweit intelligentesten Technologien, besten Ideen und klügsten Köpfe.

»Wir haben in Baden-Württemberg eine herausragende Forschungslandschaft zu sehr innovativen und zukunftsrelevanten Technologien und Themen mit unterschiedlichen Schwerpunkten. Orte wie der S-TEC-Campus hier in Stuttgart sind Leuchttürme mit internationaler Strahlkraft in Forschung und Transfer in die Wirtschaft – und das macht Baden-Württemberg so besonders: Wirtschaft und Forschung arbeiten Hand in Hand«, sagte Ministerpräsident Winfried Kretschmann.

Mit dem Ziel, sich ein Bild von den wichtigsten Handlungsfeldern auf dem Weg in eine nachhaltige und ressourcenschonende Zukunft zu machen, hat Ministerpräsident Winfried Kretschmann den Stuttgarter Technologie- und Innovationscampus S-TEC im Fraunhofer-Institutszentrum Stuttgart besucht. Hier kooperieren Institute der Fraunhofer-Gesellschaft sowie der Universität Stuttgart mit Start-ups sowie weiteren Unternehmen aus der Region, um in zahlreichen Zentren zu unterschiedlichen Themenschwerpunkten Methoden, Verfahren, Prozesse, Produktionssysteme und Geschäftsmodelle zu entwickeln und in die Anwendung zu bringen.

»Als Regierungschef bin ich immer Lernender geblieben und auch neu- und wissbegierig auf alles, was uns voranbringt. Zum Beispiel hier in Stuttgart, wo kluge Köpfe an den Herausforderungen von jetzt und morgen arbeiten und damit das Land zukunftsfest gestalten«, so Kretschmann weiter.

S-TEC bringt als »Transfermaschine« Forschung in die industrielle Anwendung
»Die S-TEC-Zentren – es sind mittlerweile mehr als 10! – tragen seit nunmehr fünf Jahren erfolgreich zur Umsetzung er Forschungsstrategie des Landes bei. Ob mit Industriekooperationen, beispielsweise im Rahmen von Quick Checks, Exploring Projects oder dem CyberLänd, das Baden-Württemberg auf dem Weg ins Metaverse schicken wird: der Innovationscampus ist eine ›Transfermaschine‹, die Ergebnisse der Wissenschaft hoch effizient in die Unternehmen und Märkte bringt und somit in die wirtschaftliche Zukunftsfähigkeit des Landes einzahlt. Ich freue mich sehr, dass der baden-württembergische Ministerpräsident Kretschmann das fünfjährige S-TEC-Jubiläum zum Anlass genommen hat, sich unser innovatives Forschungs- und Transferumfeld aus der Nähe anzuschauen«, erklärte Prof. Thomas Bauernhansl, Leiter des Fraunhofer IPA und Sprecher des Institutsleiterrats des Fraunhofer-Campus in Stuttgart.

Campustour: mit neuen Technologien zu Nachhaltigkeit und Ressourceneffizienz
Im Fokus der Campustour mit fünf verschiedenen Stationen standen Technologien und digitale Werkzeuge rund um die Themen Nachhaltigkeit und Ressourceneffizienz. Allen voran die Einsatzmöglichkeiten der Künstlichen Intelligenz (KI), die das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO gemeinsam mit dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA im KI-Fortschrittszentrum erforscht: vom Schweißen mit Cobots bis hin zu KI-basierten digitalen Außendienst-Assistenten.

Unter dem Titel »Präzisionsmedizin von der Diagnostik bis zur Therapie« stellten das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB sowie das Fraunhofer IPA neueste Entwicklungen rund um eine schnelle DNA-gestützte Diagnostik von Sepsis-Erregern, virusbasierte Technologien zur Etablierung einer onkolytischen Virus-Plattform sowie die standardisierte automatisierte Produktion von neuartigen Zell- und Gentherapeutika vor. Das Fraunhofer-Institut für Bauphysik IBP präsentierte zum Thema »Nachhaltigkeit durch Klimaneutralität und Bioökonomie«, wie smarte Produktfunktionen ein Produkt nachhaltiger machen und wie die Anforderungen der EU-Taxonomie im Maschinenbau effizient umgesetzt werden können; beides Themen aus dem neuen S-TEC-Zentrum für Klimaneutrale Produktion und Ganzheitliche Bilanzierung. An aktuellen Beispielen zeigte das Fraunhofer IGB, dass sich Abwasser und Abfälle mittels Bioraffinerien nutzen lassen, um wertvolle Produkte für Industrie und Landwirtschaft herzustellen. Wie interdisziplinäre und branchenübergreifende Zusammenarbeit die Herstellung personalisierter Produkte ermöglicht, stellte das Leistungszentrum »Mass Personalization« der Fraunhofer-Institute IAO, IBP, IGB und IPA und der Universität Stuttgart in aller Kürze vor.

Die Möglichkeiten der Digitalisierung standen im Mittelpunkt der letzten beiden Stationen »Digitalisierte Batteriezellproduktion« und »Digitale Werkzeuge für Ressourceneffizienz und Nachhaltigkeit«. Die Wertschöpfungskette in der Batteriezellproduktion durchgängig zu digitalisieren, gehört zu den Aufgaben des Zentrums für Digitalisierte Batteriezellproduktion (ZDB) am Fraunhofer IPA. Mit dem CAPE®-System (Clean And Protective Environment) haben die Wissenschaftlerinnen und Wissenschaftler ein zeltähnliches Reinraumsystem entwickelt, mit dem sich kostengünstig, schnell und flexibel eine Reinraumumgebung herstellen lässt.

Wie Unternehmen in Baden-Württemberg bei ihrer Transformation in die Klimaneutralität unterstützt werden können, zeigte das Fraunhofer IAO im Rahmen der letzten Station: Im Projekt »Ultraeffizienzfabrik« wurde ein Werkzeug entwickelt, das es ermöglicht, Potenziale in den Handlungsfeldern Energie, Material, Emissionen, Mensch und Organisation zu identifizieren und unternehmensübergreifend umzusetzen. Ziel des gemeinsamen Vorhabens des Fraunhofer IAO und IPA ist es, die Vision einer symbiotisch-verlustfreien Produktion in einer lebenswerten Umgebung zu erreichen. Visualisierungs- und Kollaborationstechniken spielen im Kontext der Ressourcenschonung und Effizienzsteigerung eine wichtige Rolle: Am Beispiel der am Fraunhofer IAO entwickelten Multiviewer-Kollaborationswand (CoLEDWall) konnte Ministerpräsident Kretschmann in die Rolle eines Entwicklers schlüpfen und ein realistisches 3D-Modell erleben und bearbeiten. Institutsleiter Prof. Oliver Riedel hob hervor, dass die Zusammenarbeit im virtuellen Raum damit eine neue Ära erreicht habe: die Echtzeit-Ansicht desselben virtuellen 3D-Objekts aus jeweils individuellen Perspektiven der am Entwicklungsprozess beteiligten Personen. Wie man noch tiefer in komplexe Planungsmodelle eintauchen kann, zeigte die Virtual-Reality-Demonstration des Flugfeldklinikums. Die virtuelle Begehung eines solch komplexen Objekts offenbart Fehler, bevor sie in der Realität entstehen. Das spart nicht nur Zeit und Steuergelder, sondern vor allem auch Ressourcen – denn ein Rück- oder Umbau bedeutet Verschwendung und belastet unsere Umwelt.

Die Stuttgarter Fraunhofer-Institute setzen ihre Werkzeuge auch für ihre eigenen Zukunftsprojekte ein. So gab Dr. Florian Herrmann, stv. Institutsleiter des Fraunhofer IAO, Ministerpräsident Kretschmann zum Ausklang einen visionären Einblick des klimaneutralen Campus. Ministerpräsident Winfried Kretschmann hat aus der interaktiven Campustour viele Impulse und Ideen mitgenommen, um seinen eingeschlagenen Innovationskurs fortzusetzen und die Innovationskraft Baden-Württembergs zu stärken.

Der Stuttgarter Technologie- und Innovationscampus S-TEC ist ein in Zentren organisiertes Netzwerk für Unternehmen und wissenschaftliche Einrichtungen am Standort Stuttgart. Die Fraunhofer-Institute und Institute der Universität Stuttgart arbeiten gemeinsam mit Projektpartnern aus der baden-württembergischen Industrie an zentralen Zukunftsthemen. Gefördert durch das Land Baden-Württemberg, ermöglicht dieses Transferkonzept die Entwicklung und Realisierung innovativer Lösungen– dynamisch, effizient und partnerschaftlich.

Pressekommunikation:
Jörg-Dieter Walz | Telefon +49 711 970-1667 | joerg-dieter.walz@ipa.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr. Kai Kohler
Telefon +49 711 970-1600 | kai.kohler@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Weitere Informationen:
https://s-tec.de/
https://www.ipa.fraunhofer.de/de/ueber_uns/zusammenarbeit/industry-on-campus/s-t…

Anhang
Pressemitteilung

(nach oben)


Post-COVID: Versichertendaten zeigen Assoziation mit Autoimmunerkrankungen

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Nach einer überstandenen COVID-19-Infektion leiden Betroffene deutlich häufiger an einer Autoimmunerkrankung als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Bei Menschen mit einer SARS-COV-2-Infektion, nachgewiesen durch einen PCR-Test, kamen 15,05 Diagnosen auf 1.000 Versichertenjahre. Dagegen waren dies bei Menschen ohne SARS-COV-2-Infektion nur 10,55 Diagnosen. Insbesondere Entzündungen der Blutgefäße (Vaskulitiden) wie Morbus Wegner, Morbus Behcet oder Arteriitis temporalis wiesen die größten Assoziationen mit COVID-19 auf.

An der Studie sind mehrere gesetzliche Krankenkassen beteiligt. Die Koordination übernehmen das Zentrum für Evidenzbasierte Gesundheitsversorgung (ZEGV) der Dresdner Hochschulmedizin und das Robert Koch-Institut.

„Dies ist eine der ersten großen kontrollierten Kohortenstudien zu COVID-19 und Autoimmunerkrankungen. Die umfangreiche Datengrundlage unserer Partner erlaubt uns, Aussagen zu bleibenden Folgen der COVID-19-Pandemie zu treffen. In allen Alters- und Geschlechtsgruppen traten Autoimmunkrankheiten in der Zeit nach der Infektion signifikant häufiger auf“, sagt Prof. Jochen Schmitt vom Universitätsklinikum Carl Gustav Carus Dresden. Um die Zusammenhänge zwischen COVID-19 und den Erkrankungen zu verstehen, sei weitere Forschung notwendig. „Künftige Analysen sollten einen Fokus auf chronische Erkrankungen legen, die in der Pandemie entstanden sind. Zudem ist es wichtig, die Krankheitslast, die uns womöglich lange erhalten bleibt, zu quantifizieren.“

Unter Post-COVID werden längerfristige, mindestens drei Monate nach einer SARS-CoV-2-Infektion fortbestehende oder neu hinzukommende Krankheitssymptome und gesundheitliche Einschränkungen zusammengefasst. Bislang ist es eine offene Forschungsfrage, welche Symptome Post-COVID umfassen kann und wie viele Menschen davon betroffen sind. Um sich diesen Fragen zu nähern, sind kontrollierte Studien notwendig. Darin müssen Personen nach gesicherter SARS-CoV-2-Infektion ausreichend lange und im Vergleich zu einer gut definierten Kontrollgruppe auf ihren Gesundheitszustand hin nachbeobachtet werden.

Datenbasis der vorliegenden Studie sind Abrechnungsdaten der Jahre 2019 bis Juni 2021 von 38,9 Millionen gesetzlich Versicherten. Diese stammen von der AOK PLUS, der BARMER, der DAK-Gesundheit, der IKK classic, der Techniker Krankenkasse sowie aus der Forschungsdatenbank der InGef, über die ein wesentlicher Teil der Daten von Betriebskrankenkassen einbezogen wurde. In die Analyse gingen Daten von 640.000 Personen mit labormedizinisch nachgewiesener COVID-19-Erkrankung im Jahr 2020 ein, darunter 76.000 mit vorbestehender Autoimmunerkrankung. Für jede infizierte Person schlossen die Forschenden drei nichtinfizierte Versicherte in die Studie ein, die hinsichtlich Alter, Geschlecht, Vorerkrankungen, der Inanspruchnahme von Gesundheitsleistungen und Nachbeobachtungszeit vergleichbar waren. Infizierte und Nicht-Infizierte wurden hinsichtlich 41 vorab festgelegter Erkrankungen verglichen, die drei bis 15 Monate nach Infektions- bzw. Einschlussdatum neu dokumentiert wurden. Davon wiesen 30 eine hinreichend große Inzidenz auf, um Schätzwerte auszuweisen.

Es wird bereits länger spekuliert, dass die durch Virusinfektionen, wie SARS-CoV2, verursachten Autoantikörper bei einem Teil der Infizierten eine Autoimmunerkrankung auslösen können. Diese Ergebnisse beziehen sich hier auf die Nachverfolgung jener Betroffenen mit einer Infektion des Wildtyps des Virus. Erkenntnisse über andere Varianten des Virus bestehen aktuell nicht. „Das Ergebnis der Studie zeigt eindrücklich, welche wichtigen Erkenntnisse wir aus Patientendaten gewinnen können. Die Hochschulmedizin Dresden ist sehr froh, starke Partner an ihrer Seite zu wissen, die uns bei dieser Arbeit unterstützen. Ergebnisse aus solchen Studien helfen nicht nur der Medizin, sondern kommen vor allem den Patientinnen und Patienten in der Diagnostik und Therapie zugute“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Dresden.

Die Studie ist Teil des vom Robert Koch Institut geleiteten und vom Bundesgesundheitsministeriums geförderten Projektes „Postakute gesundheitliche Folgen von COVID-19“ https://rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Long-COVID/Projekt-Post….

Sie schließt an eine vor kurzem bei PLOS Medicine veröffentlichen Studie an, welche sich mit einer Vielzahl von mit COVID-19 assoziierten Symptomen beschäftigte.

https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004122#s….

Bisher ist nur eine andere Kohortenstudie aus England als Preprint veröffentlich worden. Diese weist für eine kürzere Beobachtungszeit der Personen und 11 ausgewählte Erkrankungen ein Überschussrisiko für eine neue Autoimmunerkrankung von 0,72 auf 1000 Personenjahre, statt 4,50 wie in dieser Studie, auf.

https://www.medrxiv.org/content/10.1101/2022.10.06.22280775v1.full

Die Ergebnisse wurden als Preprint veröffentlicht („Incident autoimmune diseases in association with a SARS-CoV-2 infection: A matched cohort study “,
https://www.medrxiv.org/content/10.1101/2023.01.25.23285014v1

Kontakt für Medienschaffende
Universitätsklinikum Carl Gustav Carus Dresden
Pressestelle
Annechristin Bonß
Tel.: 0351 458 14162
E-Mail: pressestelle@uniklinikum-dresden.de

Wissenschaftliche Ansprechpartner:
Zentrum für Evidenzbasierte Gesundheitsversorgung
Prof. Dr. Jochen Schmitt und Falko Tesch, Autoren der Studie
Tel.: 0351 458 89211
E-Mail: correspondence.zegv@ukdd.de

Originalpublikation:
Die Ergebnisse wurden als Preprint veröffentlicht („Incident autoimmune diseases in association with a SARS-CoV-2 infection: A matched cohort study “,
https://www.medrxiv.org/content/10.1101/2023.01.25.23285014v

Weitere Informationen:
https://rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Long-COVID/Projekt-Post…
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004122#s…
https://www.medrxiv.org/content/10.1101/2022.10.06.22280775v1.ful

Anhang
Pressemitteilung

(nach oben)


BürgerwissenschaftlerInnen für Energiewende gesucht. EfficientCitzens startet Teilnahmeaufruf für HausbesitzerInnen

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Energiekrise, Klimawandel, Inflation: Das Thema energetische Sanierung ist hochaktuell. Mit einem bundesweiten Teilnahmeaufruf ist jetzt das Projekt EfficientCitizens gestartet. Gesucht werden HauseigentümerInnen, die als BürgerwissenschaftlerInnen an dem Forschungsvorhaben zum Thema Gebäudesanierung teilnehmen wollen. Das Citizen Science-Projekt wird vom inter 3 Institut für Ressourcenmanagement und dem Beratungsunternehmen co2online durchgeführt und vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.

Ziel ist es, zu erproben, inwieweit in Zeiten knapper Beratungskapazitäten die Sanierung von Eigenheimen auch durch einen Austausch auf Augenhöhe zwischen HauseigentümerInnen vorangebracht werden kann.

Erfahrungsaustausch auf Augenhöhe zum Thema Gebäudesanierung
Können sogenannte SanierungsbotschafterInnen helfen, die Energiewende voranzubringen? Kann ein nachbarschaftlicher Austausch eine nützliche Vorstufe zur Energieberatung sein? Bei der Beantwortung dieser Forschungsfragen arbeiten HauseigentümerInnen als BürgerwissenschaftlerInnen aktiv mit. Bereits in die Konzeption des Forschungsdesigns für die nun startende Feldstudie waren ausgewählte EigentümerInnen und EnergieberaterInnen eingebunden.

„In einem Workshop haben wir diskutiert, wie der Austausch ablaufen kann, welche Vorbereitung die BürgerwissenschaftlerInnen dafür brauchen und wie mögliche Effekte identifiziert werden können“, sagt Dr. Susanne Schön, Projektleiterin bei inter 3: „Jetzt sind wir neugierig, was wir in der Feldstudie gemeinsam mit den BürgerwissenschaftlerInnen herausfinden werden.“

Dabei soll der Erfahrungsaustausch zwischen erfahrenen Sanierern und Sanierungsinteressierten die professionelle Energieberatung, nicht ersetzen. Aber er soll den Haushalten Mut machen, die Sanierung anzugehen und bestmöglich vorzubereiten. Interessierte HauseigentümerInnen können sich noch bis zum 10.02.2023 registrieren auf https://www.efficient-citizens.de/mitmachen/.

Das Projekt Efficient Citizens wird mit Förderung des BMWK bis 2024 im Programm „Energiewende und Gesellschaft“ umgesetzt. Im wissenschaftlichen Beirat begleiten die Verbraucherzentrale Nordrhein-Westfalen, die Klimaschutz- und Energieagentur Baden-Württemberg GmbH, der Bauherren-Schutzbund e.V. sowie der Bundesverband Gebäudeenergieberater, Ingenieure, Handwerker e.V. das Vorhaben.

Hintergrund: Wer steht hinter dem Projekt EfficientCitizens?
Mit mehr als zwanzig Jahren Erfahrung in der sozialwissenschaftlichen und transdisziplinären Forschungs- und Transferarbeit übernimmt das inter 3 Institut für Ressourcenmanagement die Leitung und die wesentliche operative Forschungsarbeit im Projekt. Als Praxispartner in einer Vielzahl transdisziplinärer Forschungsverbünde und mit einem großen Akteursnetzwerk, konzentriert sich co2online auf die inhaltlichen Aspekte der Energieeffizienz, ermöglicht den Feldzugang zur Akquise der BürgerwissenschaftlerInnen und entwickelt den Ansatz bürgerwissenschaftlicher SanierungsbotschafterInnen weiter, um ihn praktisch anschlussfähig zu machen. Beide Partner haben bereits in anderen Forschungsprojekten kooperiert und sind gut aufeinander eingespielt.

Wissenschaftliche Ansprechpartner:
Helke Wendt-Schwarzburg
wendt-schwarzburg@inter3.de
+49(0)30 34 34 74 46

Weitere Informationen:
https://www.efficient-citizens.de/ Webseite des Projekts
https://www.efficient-citizens.de/mitmachen/ Direkt zur Anmeldung als BürgerwissenschaftlerIn

Anhang
PM_EfficientCitizens_inter 3

(nach oben)


Wie sich nicht-einheimische Baumarten auf die biologische Vielfalt auswirken

Beate Kittl Medienkontakt WSL Birmensdorf
Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft WSL
Nicht-einheimische Waldbaumarten können die heimische Artenvielfalt verringern, wenn sie in einheitlichen Beständen angepflanzt sind. Hingegen sind ihre Auswirkungen auf Bodeneigenschaften gering. Zu diesem Ergebnis kommt eine internationale Übersichtsstudie mit Beteiligung der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL.

Fluch oder Segen? An gebietsfremden* Baumarten scheiden sich die Geister. Viele Forstleute pflanzen neben einheimischen Arten auch gebietsfremde, die der zunehmenden Sommertrockenheit trotzen können. In verschiedenen Teilen Europas sind Letztere bereits wichtige Holzlieferanten. Auf der anderen Seite befürchten Naturschützer ökologische Schäden, wenn beispielsweise einheimische Arten verdrängt oder Baumkrankheiten und Schadinsekten eingeschleppt werden.

Nun hat sich ein Team europäischer Forschender, geleitet von Thomas Wohlgemuth von der WSL, den Stand des Wissens zu den ökologischen Folgen von eingeführten Baumarten in Europa angeschaut. Es analysierte die Ergebnisse von insgesamt 103 Studien zu sieben solchen Arten. Alle diese Studien hatten untersucht, wie sich von gebietsfremden Baumarten dominierte Bestände im Vergleich zu Beständen einheimischer Baumarten auf die Artenvielfalt oder den Bodenzustand unter den Bäumen auswirkten. Zu den untersuchten Organismen gehörten Pflanzen, Moose, Mikroorganismen und Insekten vom Boden bis in die Baumkronen.

Von den sieben untersuchten eingeführten Arten wird in der Schweiz aktuell nur die Douglasie in grösserer Anzahl im Wald gepflanzt. Während Förster früher ihren schnellen, geraden Wuchs und ihr vielseitig verwendbares Holz schätzten, ist es heute ihre höhere Trockenheitstoleranz im Vergleich zur Fichte. Andere Arten sind problematisch, weil sie sich unkontrolliert ausbreiten können. So ist die nordamerikanische Robinie invasiv und kann heimische Arten verdrängen. Sie wurde bereits vor 400 Jahren nach Europa gebracht und in der Schweiz unter anderem dazu verwendet, um Böden zu befestigen.

Negativ-Effekte auf Artenvielfalt überwiegen
Über die gesamten 103 Studien hinweg gesehen überwogen die negativen Konsequenzen der gebietsfremden Arten für die Biodiversität. So zeigen 65 Studien, dass auf und bei Douglasien weniger Insektenarten leben. Auch Robinien verringern die Vielfalt der Insekten, Eukalyptus diejenige der Vögel. Das sei wenig überraschend, meint Wohlgemuth, Leiter der WSL-Forschungseinheit Walddynamik. Denn: «Diese Ergebnisse treffen auf Vergleiche zwischen Reinbeständen zu.» In zusammenhängenden, einheitlichen Pflanzungen schneiden viele eingeführte Arten klar schlechter ab als einheimische.

Doch gebietsfremde Arten haben nicht nur negative Auswirkungen. Die meisten beeinflussen die Bodeneigenschaften nicht. Die leicht abbaubaren Nadeln der Douglasien können sogar mehr Nährstoffe verfügbar machen als die schwerer abbaubare Fichtennadeln. «Wenn es nur um Bodeneigenschaften geht, hat die Douglasie keinen negativen Einfluss,» sagt Wohlgemuth. Generell fanden gleich viele Studien positive wie negative Effekte der sieben nicht-einheimischen Arten auf den Boden.

Ausserdem macht es einen Unterschied, ob die gebietsfremden Arten näher oder entfernter mit europäischen Baumarten verwandt sind. «Baumarten ohne nähere Verwandte wie Eukalyptus und Akazie aus Australien verringern die Artenvielfalt über alle Studien hinweg stärker als näher verwandte Arten wie zum Beispiel Douglasie und Spätblühende Traubenkirsche aus Nordamerika», ergänzt Martin Gossner, Leiter der WSL-Gruppe Waldentomologie und Zweitautor der Studie.

Auf die Bewirtschaftung kommt es an
Die Bewirtschaftung hat einen wesentlichen Einfluss darauf, ob Douglasien oder andere Baumarten insgesamt gut oder schlecht für einen Wald sind. Einheitliche und dichte Douglasien-Bestände sind als Lebensraum für viele Organismen ungeeignet. Das Gleiche gilt jedoch auch für die Fichten, die in den letzten 100 Jahren in Tieflagen Mitteleuropas grossflächig für die Holzgewinnung angepflanzt wurden. Hingegen würden Douglasien in Beständen einheimischer Waldbäume, einzeln oder in kleinen Gruppen, das Ökosystem kaum stören, meint Wohlgemuth: «Wir folgern, dass der Einfluss auf die einheimische Biodiversität gering ist, wenn man die Douglasie beimischt.»

Sollen nun Förster gebietsfremde Baumarten anpflanzen oder nicht? Trotz gewisser negativer Aspekte rät Wohlgemuth nicht zum Totalverzicht. «Gerade bei der Douglasie zeigen die Fakten, dass dosierte Beimischung in Beständen die einheimische Biodiversität wenig beeinträchtigt, gleichzeitig aber Ökosystemleistungen wie die Gewinnung von Bauholz erhalten werden können. Dies vor allem, wenn andere, weniger dürrerestistente Nadelbäume im Hinblick auf den ungebremsten Klimawandel zunehmend fehlen.»

Wissenschaftliche Ansprechpartner:
Dr. Thomas Wohlgemuth
Leiter Forschungseinheit Walddynamik a.i., Mitglied der Direktion
thomas.wohlgemuth@wsl.ch
+41 44 739 23 17

Originalpublikation:
Wohlgemuth, T.; Gossner, M.M.; Campagnaro, T.; Marchante, H.; Van Loo, M.; Vacchiano, G.; Castro-Díez, P.; Dobrowolska, D.; Gazda, A.; Keren, S.; Keserű, Z.; Koprowski, M.; La Porta, N.; Marozas, V.; Nygaard, P.H.; Podrázský, V.; Puchałka, R.; Reisman-Berman, O.; Straigytė, L.; … Silva, J.S., 2022: Impact of non-native tree species in Europe on soil properties and biodiversity: a review. NeoBiota, 78: 45-69. doi: 10.3897/neobiota.78.87022

Weitere Informationen:
https://www.wsl.ch/de/newsseiten/2023/01/wie-sich-nicht-einheimische-baumarten-a…

(nach oben)


Wissenschaft und Familie: Männer sind gefragt! Wie wir den Sprung zur Vereinbarkeit von Karriere und Familie schaffen

Silke Paradowski Science Communication Centre – Abteilung Kommunikation
Technische Universität Darmstadt
Darmstadt, 27. Januar 2023. Podiumsdiskussion der vom Land Hessen geförderten LOEWE-Forschungsverbünde FLOW FOR LIFE und emergenCITY der TU Darmstadt, Moderator Jochen Breyer, 24. März 2023, 11:30–12:45 Uhr, TU Darmstadt

An deutschen Universitäten und auch in anderen Berufsfeldern in Deutschland wird seit sehr vielen Jahren über den geringen Frauenanteil in höheren Karrierestufen geklagt – an Universitäten vor allem über die geringe Anzahl der Professorinnen. Dabei strengen sich Universitäten nun schon lange sehr an, diesen Zustand zu ändern. So gibt es immer mehr Frauenförderprogramme und jährlich werden neue Aktivitäten erdacht und umgesetzt. Aber trotz aller Bemühungen steigt der Frauenanteil unter Professorinnen kaum. Warum?

Wichtige Gründe dafür sind gesamtgesellschaftlicher Art, die sich nicht allein über Aktivitäten an Universitäten eliminieren lassen. Das Ausscheiden vieler Frauen aus der Wissenschaft nach der Promotion im Alter um die 30 Jahre ist leider eine Tatsache. Viele meinen oder erleben, dass eine wissenschaftliche Karriere nicht oder nur sehr schwer mit ‚Familie‘ vereinbar ist. Warum?
Zum einen erfordern wissenschaftliche Karrieren einen intensiven Zeiteinsatz und in experimentellen Fächern ist auch eine sehr hohe Präsenzzeit – unter anderem wegen der Arbeit in Laboren – unabdingbar. Außerdem liegen Laboraufenthalte und Messzeiten häufig jenseits ‚normaler‘ Regelarbeitszeiten. Auch ist eine Karriere in der Wissenschaft mit zahlreichen Konferenzreisen, beruflichen Ortswechseln und Auslandsaufenthalten verbunden. Dazu kommt, dass der größte Anteil an Hausarbeit, Versorgung oder Betreuung von Familienmitgliedern in Deutschland weiterhin von Frauen geleistet wird.

Dabei gibt e*s Lösungen für diese Herausforderungen, die aber nicht oder nur sporadisch umgesetzt werden, auch, weil es uns in Deutschland an Vorbildern fehlt – Vorbilder besserer Elternzeit- und Teilzeitsysteme, wie sie zum Beispiel in skandinavischen Ländern bestehen, insbesondere aber auch Männer, die anderen Männern als Vorbilder dienen und Mut machen könnten. Männer, die die Karriere ihrer Partnerinnen unterstützen, indem sie wesentliche Beiträge im Haushalt, bei der Kinderbetreuung oder bei der Pflege anderer Familienmitglieder leisten. Solche Beispiele finden sich auch hier bei uns: Männer, die sich entschieden haben, ihre eigene Karriere ganz oder zum Teil zurückzustellen sowie Partnerschaften, in denen beide beruflich vorankommen – die dual career couples. Über die damit verbundenen Herausforderungen und möglichen Lösungsansätze möchten wir ins Gespräch kommen – gemeinsam mit engagierten Männern die wir zu diesem Anlass auf unser Podium geholt haben.

Moderiert wird die Diskussion von Jochen Breyer, vor allem bekannt als sympathischer und kompetenter Sportmoderator, der sich bei seiner Arbeit als Journalist immer wieder auch durch seinen Mut auszeichnet, gesellschaftskritische Themen anzusprechen und näher zu beleuchten.

Wissenschaft und Familie: Männer sind gefragt!
Podiumsdiskussion mit Moderator Jochen Breyer, am 24. März 2023, 11:30 – 12:45 Uhr, Wilhelm-Köhler-Saal, Gebäude S1|03, Hochschulstraße 1, TU Darmstadt

Auf dem Podium sind zu Gast:
– Dr. Franz Baumdicker: Mathematiker, Forschungsgruppenleiter an der Universität Tübingen, verheiratet mit einer Mathematikprofessorin der TU Darmstadt. Beide verfolgen eine Karriere in der Wissenschaft und teilen die Elternzeiten und Betreuung ihrer drei Kinder untereinander auf. Er spricht über die Herausforderungen und Vorteile als dual career couple.
– Dr. Sebastian Braun: Biologe, Wissenschaftler an der Universität Lund, Schweden. Seine Frau (Ärztin) und er arbeiten beide in Teilzeit und haben drei Kinder. Er spricht über schwedische Konzepte und Beispiele aus seinem Umfeld.
– Dr. Kim Bräuer: Soziologin, TU Braunschweig – Arbeit und Organisation, wissenschaftliche Arbeiten zu Vätern in Elternzeit. Sie leitet das Väter-Projekt „You don’t need to be Superheroes“: Einblicke in die vielfältigen Lebenslagen von Vätern. Hat selbst ein Kind.
– Dr. Florian Kaffarnik: Biologe, verheiratet mit einer Germanistik-Professorin der TU Darmstadt. Er hat sich gegen eine eigene Karriere in der Wissenschaft entschieden und kümmert sich um die drei gemeinsamen Kinder und den Haushalt.

Die Veranstaltung wird von den LOEWE-Forschungsverbünden FLOW FOR LIFE und emergenCITY der TU Darmstadt gemeinsam mit ProLOEWE organisiert.
LOEWE ist das hessische Programm zur Förderung von Spitzenforschung und bundesweit einmalig. Die Abkürzung steht für Landes-Offensive zur Entwicklung wissenschaftlich-ökonomischer Exzellenz.

Weitere Informationen zu den LOEWE-Vorhaben finden sie unter www.tu-darmstadt.de/flowforlife, www.emergencity.de oder proloewe.de.

Pressekontakte:
Jörg Feuck
Sprecher der Technischen Universität Darmstadt
presse@tu-darmstadt.de

Tanja Desch
Geschäftsführerin
Netzwerk der LOEWE-Forschungsvorhaben des Landes Hessen
tanja.desch-proloewe@uni-kassel.de

(nach oben)


Energiespeicherforschung an der EAH Jena: Projekt zur Entwicklung hocheffizienter Wärmespeicher bewilligt

Marie Koch Marketing und Kommunikation
Ernst-Abbe-Hochschule Jena
Ab Juli 2023 startet an der Ernst-Abbe-Hochschule (EAH) Jena ein durch die Carl-Zeiss-Stiftung gefördertes Projekt zur Entwicklung hocheffizienter Wärmespeicher für die gewerbliche Wärmewende.
Die Gewährleistung einer CO2-neutralen und von Öl- und Gasimporten unabhängigen Wärmeversorgung von Neubau- und Bestandsquartieren ist eine der zukünftigen Herausforderungen auf dem Weg zur Klimaneutralität und Rohstoffunabhängigkeit Deutschlands. In den Quartieren ist speziell die Versorgung von Unternehmen des Gewerbe- und Dienstleistungssektors mit erneuerbarer Wärme bei Temperaturen größer 100 °C mit am Markt verfügbaren Technologien kaum zu realisieren.

Vor diesem Hintergrund starten am 01. Juli 2023 offiziell die Arbeiten am Projekt „Adsorptionswärmespeicher für die gewerbliche Wärmewende“. Es wird mit 892.500 Euro von der Carl-Zeiss-Stiftung gefördert. Das Ziel des Projektes ist es, einen Zeolith-basierten Wärmespeicher zu entwickeln und labortechnisch zu erproben, der in der Lage ist, regenerative Wärme zu speichern und bei gewerblich relevanten Temperaturen > 100 °C bereitzustellen.
Im Detail sollen das Engineering eines Wärmespeichers durch Simulationsrechnungen und umfangreiche Laborversuche erarbeitet und die Umsetzung an einem Industriestandort vorbereitet werden. Dazu gehören neben der Betrachtung konstruktiver Merkmale auch die Ermittlung optimaler verfahrenstechnischer Parameter und werkstofftechnische Analysen.
„Wir hoffen, mit dem Projekt zeigen zu können, dass wir durch den intelligenten Einsatz innovativer Wärmespeicher einen maßgeblichen Beitrag zur Wärmewende und Klimaneutralität in Deutschland leisten können. Da die Zeit drängt, ist uns die Anwendungsnähe und frühzeitige Einbindung von Partnern aus der Wirtschaft extrem wichtig.“ so der Leiter des Projektes, Prof. Dr.-Ing. Stefan Rönsch. Er lehrt und forscht an der EAH Jena. Zu seinen Forschungsthemen gehören insbesondere die chemischen und thermischen Energiespeicher.
Die Projektbearbeitung erfolgt in Kooperation zwischen der EAH Jena (Arbeitsgruppe für Erneuerbare Energien und Speicher & Arbeitsgruppe Funktionskeramik) sowie der Universität Stuttgart (Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung). Begleitet wird das Projekt zudem durch ein hochkarätiges Projektkonsortium unterschiedlichster Wirtschaftspartner, welchem die Chemiewerk Bad Köstritz GmbH, die WIN Wartung- und Instandhaltung GmbH, die TWS Thüringer Wärmeservice GmbH und die Energiedienste der Landeshauptstadt Stuttgart GmbH angehören.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Stefan Rönsch
Professur für Umweltwirtschaft
Ernst-Abbe-Hochschule Jena
Fachbereich Wirtschaftsingenieurwesen
E-Mail: stefan.roensch@eah-jena.de

Weitere Informationen:
https://www.eah-jena.de/erneuerbare-energien-und-speicher

(nach oben)


Die Wege des Wassers: Spurensuche mit DNA

Dr. Angelika Jacobs Kommunikation
Universität Basel
Die Analyse mikrobieller Umwelt-DNA hilft zu verstehen, wie der Wasserkreislauf einer Region funktioniert. Mit dieser Methode hat der Basler Hydrogeologe Oliver Schilling das Wassersystem am Mount Fuji untersucht. Daraus lassen sich auch Erkenntnisse für die Schweiz gewinnen.

Woher kommt das Wasser, das die Menschen in einer Region mit Trinkwasser versorgt? Wie speisen sich diese Quellen und wie lange dauert es, bis versickertes Wasser wieder an die Oberfläche gelangt? Dieser hydrologische Kreislauf ist ein komplexes Zusammenspiel verschiedener Faktoren. Versteht man das System besser, lässt sich etwa nachvollziehen, warum die Verschmutzung an manchen Stellen grösser ist als an anderen, und es hilft dabei, ein nachhaltiges Wassermanagement zu implementieren.

Wichtige Hinweise zum Verständnis liefert die Umwelt-DNA beziehungsweise environmental DNA (eDNA). Kombiniert mit der Auswertung anderer natürlicher Stoffe (Tracer) wie etwa Edelgasen, gewähren diese mikrobiellen Daten Einsichten in das Fliessverhalten und den Kreislauf von komplexen Grundwassersystemen. «Das ist eine riesige Toolbox, die neu ist für unseren Forschungsbereich», sagt Oliver Schilling, Professor für Hydrogeologie an der Universität Basel und der Eawag, dem Wasserforschungs-Institut des ETH-Bereichs. Die quantitative Hydrogeologie bildet ab, wo und wie schnell sich neues Grundwasser bildet.

Ab 2018 führte Schilling am Mount Fuji in Japan verschiedene Messungen durch, um nachzuvollziehen, woher das Quellwasser kommt respektive wo es durchfliesst, bevor es in Hunderten natürlichen Quellen wieder an die Oberfläche tritt. Seine Erkenntnisse publizierte er nun im Fachmagazin „Nature Water“, dessen Erstausgabe soeben erschienen ist.

Wasserherkunft aus eDNA lesen
Die Wahl des Berges war kein Zufall: «Die geologische Lage des Mount Fuji ist auf der Erde einmalig, da nur genau dort drei kontinentale tektonische Platten aufeinandertreffen. Das Grundwassersystem ist dadurch hoch komplex und nicht so gut mit Standardmethoden zu untersuchen», erklärt Oliver Schilling.

Auf die Idee, in dem Gebiet mikrobielle eDNA zu untersuchen, kam er dank des Hinweises eines japanischen Kollegen. «Er erzählte mir von Wasserquellen am Mount Fuji, die auffällige Signaturen aufweisen: Die im Wasser enthaltene eDNA zeige das Vorkommen von Organismen, die nur in einer Tiefe von 500 bis 1000 Metern vorkommen», erinnert er sich. Ein Hinweis darauf, dass ein Teil des Quellwassers aus tiefem Grundwasser stammt. «Es war das erste Indiz dafür, dass mikrobielle eDNA einen Hinweis auf die Fliesspfade des Grundwassers liefern könnte, wenn man sie mit anderen, unabhängigen Tracern wie etwa Edelgasen kombiniert», so Schilling weiter.

Seine Neugierde war geweckt. Damals als PostDoc an der Université Laval in Québec tätig, reiste er während seiner Ferien nach Japan und führte zusammen mit seinem japanischen Kollegen verschiedene Messungen durch. Zudem vertiefte er sich in bereits vorhandene, primär japanische Fachliteratur. Neben der eDNA analysierte der Hydrogeologe zwei weitere Grundwassertracer, die aufgrund der besonderen geologischen Lage des Mount Fuji vermehrt vorkommen: das Edelgas Helium sowie das Spurenelement Vanadium. «Alle drei natürlichen Tracer erzählen die gleiche Geschichte: Es gibt am Mount Fuji eine systematische Tiefenzirkulation des Wassers. Solche Analysen sind der Schlüssel, um das System zu verstehen», fasst Oliver Schilling zusammen.

Auch Erkenntnisse für die Schweiz möglich
Diese neue Tracer-Anwendung kann weltweit zur Untersuchung von Grundwassersystemen eingesetzt werden. In der Schweiz zum Beispiel, um herauszufinden, woher das Wasser stammt, das für die Aufbereitung zu Trinkwasser aus dem Untergrund gepumpt wird. «So deutet ein grosser Anteil an eDNA von kälteliebenden Mikroben im Grundwasser darauf hin, dass Schmelzwasser aus Schnee und Gletschern einen wesentlichen Anteil am Grundwasser hat», erklärt Oliver Schilling.

Mit Blick in die Zukunft heisst das: «Wenn wir die Bedeutung dieser natürlichen Wasserreserven für eine Region kennen, können wir frühzeitig Alternativen suchen, damit betroffene Gebiete von saisonaler Wasserknappheit möglichst verschont bleiben», so der Hydrogeologe weiter. Mit der Gletscherschmelze und Schneemangel im Zuge des Klimawandels gehen für viele Gebiete in der Schweiz zunehmend wichtige Wasserspeicher verloren, die Bäche und das Grundwasser speisen. Dies wird sich insbesondere in den immer häufigeren heissen, trockenen Sommermonaten negativ auf die Wasserverfügbarkeit auswirken.

Eine Möglichkeit, akutem Wassermangel im Sommer vorzubeugen, wäre, im Winterhalbjahr mehr Regenwasser in Reservoiren zu fassen, beispielsweise durch künstliche Anreicherung von Grundwasser oder mit einer angepassten Bewirtschaftung von Stauseen. «Die Analyse mikrobiologischer eDNA bietet sich hierbei als ein neues Werkzeug an, um hydrologische Modelle, die für das Grundwassermanagement genutzt werden, besser zu eichen», so Schilling. Das wiederum sei wichtig für realistische Prognosen zu Wasserverfügbarkeit und –qualität und ermöglicht eine nachhaltige und langfristige Planung zur Bewirtschaftung des Grundwassers – unserer kostbarsten und ergiebigsten Trinkwasserressource.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Oliver Schilling, Universität Basel, Departement Umweltwissenschaften, E-Mail: oliver.schilling@unibas.ch, Tel. +41 61 207 35 92

Originalpublikation:
Oliver Schilling et al.
Revisiting Mt. Fuji’s groundwater origins with helium, vanadium and eDNA tracers
Nature Water (2023); doi: 10.1038/s44221-022-00001

(nach oben)


Info-Abend: Berufsbegleitend zum Bachelor weiterqualifizieren

Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
TH Aschaffenburg stellt Bachelorstudiengänge Wirtschaftsingenieurwesen und Elektro- und Informationstechnik vor

Am Freitag, den 27. Januar 2023 findet an der Technischen Hochschule Aschaffenburg ein Informationsabend speziell für die berufsbegleitenden Bachelorstudiengänge Elektro- und Informationstechnik und Wirtschaftsingenieurwesen statt. Auch über das Modulstudium, das aus individuell gewählten Modulen beider Studienangeboten zusammengestellt werden kann und mit einem Zertifikat der Hochschule abschließt, können sich Interessierte informieren. Das Team an der TH Aschaffenburg stellt die Studienangebote und das flexible Blended-Learning-Konzept vor. Anschließend steht der Studiengangsleiter Prof. Dr.-Ing. Michael Mann für eine ausführliche Beratung zur Verfügung. Wer teilnehmen möchte, wird gebeten, sich per Mail unter: berufsbegleitend-studieren@th-ab.de anzumelden. Alle Interessierten sind herzlich willkommen an der TH Aschaffenburg, Würzburger Straße 45, 63743 Aschaffenburg, Gebäude 40, Raum 150.

Gerade im technischen Bereich sind qualifizierte Fachkräfte gesucht – hier haben gut ausgebildete Bewerberinnen und Bewerber beste Karrierechancen. Die Studienangebote der TH Aschaffenburg richten sich an Techniker/innen, Meister/innen und qualifizierte Facharbeiter/innen, die sich für die nächste Karrierestufe weiterbilden möchten.

Das zfh – Zentrum für Fernstudien im Hochschulverbund kooperiert bei der Durchführung der beiden berufsbegleitenden Bachelor-Fernstudiengänge mit der Technischen Hochschule Aschaffenburg und der Hochschule Darmstadt.

Elektro- und Informationstechnik (B. Eng.) – berufsbegleitend
Dieses Studienangebot richtet sich vorwiegend an technisches Personal mit abgeschlossener Berufsausbildung auf den Gebieten der Elektro- und Informationstechnik. Ebenfalls angesprochen werden Personen mit Fach- oder allgemeiner Hochschulreife, die über eine einjährige einschlägige Berufstätigkeit verfügen, und Studienabbrecher. Mit dem Studium qualifizieren sie sich für steigende berufliche Anforderungen und erhöhen ihre Aufstiegschancen. Der Studienabschluss Bachelor of Engineering ist die Grundlage für Ingenieurtätigkeiten von der Automobilindustrie bis zur Energieversorgung.

Wirtschaftsingenieurwesen (B. Eng.) – berufsbegleitend
Das Studium Wirtschaftsingenieurwesen mit dem Abschluss Bachelor of Engineering vermittelt sowohl Grundlagen in Ingenieur- als auch in Wirtschaftswissenschaften. Damit bildet das Studium Generalisten für technologie-orientierte Unternehmen aus. Es bereitet auf Managementaufgaben an der Schnittstelle zwischen Technik und Wirtschaft vor. Die Studierenden erlernen Arbeitsweisen als Ingenieur/in und als Betriebswirt/in. Schlüsselkompetenzen wie Projektmanagement, Personalführung oder interkulturelles Verständnis zählen ebenfalls zu den Studieninhalten.

Modulstudium
Wer kein komplettes Studium absolvieren oder sich in einzelnen Bereichen weiterqualifizieren bzw. sein Wissen auf einen aktuellen Stand bringen möchte, kann ausgewählte Module belegen und diese mit einem Zertifikat abschließen. Auch diese Variante lässt sich mit dem Berufsleben kombinieren. Anhand von Lehrbriefen und E-Learning-Einheiten bereiten sich die Studierenden zeit- und ortsunabhängig auf zwei Präsenztage pro Modul vor. An der Hochschule vor Ort vertiefen sie mit den Lehrenden ihr selbsterworbenes Wissen.

Die TH Aschaffenburg kooperiert bei diesen Studienangeboten mit der Hochschule Darmstadt. Das zfh – Zentrum für Fernstudien im Hochschulverbund in Koblenz unterstützt die Hochschulen bei der Durchführung der Fernstudienangebote.

Weitere Informationen unter:
https://www.th-ab.de/berufsbegleitend
http://www.zfh.de/bachelor/wirtschaftsingenieur/
http://www.zfh.de/bachelor/elektrotechnik/

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.640 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de
Internet: http://www.zfh.de

(nach oben)


Drohnen sammeln Umweltdaten

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Bäume kartieren, Hitzeinseln finden: Für die kleinräumige Beobachtung der Umwelt bieten Forschungsdrohnen viele neue Optionen.

Die Erdbeobachtung, auch Fernerkundung genannt, liefert über Satellitendaten weltweit täglich hoch relevante Informationen über den Zustand und den Wandel unseres Planeten. Mit Hilfe der Daten können beispielsweise Informationen über Hitzeinseln in Städten, Dürren oder den Zustand von Wäldern gesammelt werden.

Aktuell erschließt sich die Erdbeobachtung zusätzliche Datenquellen: Mit Sensoren, die auf handelsüblichen Drohnen installiert sind, erhält sie weitere detaillierte Umweltinformationen – und zwar in einer so hohen räumlichen Auflösung, wie sie sich mit Satellitendaten nicht erreichen lässt.

„Die sehr hohen Auflösungen im Zentimeterbereich eröffnen neue Anwendungsgebiete und Forschungsfragen“, sagt die Wissenschaftlerin Dr. Mirjana Bevanda vom Earth Observation Research Hub der Julius-Maximilians-Universität Würzburg (JMU), einem Zusammenschluss der beiden JMU-Lehrstühle für Fernerkundung sowie für Globale Urbanisierung und Fernerkundung. „Wir gewinnen damit hoch relevante Informationen für die urbane Forschung, für Ökologie und Naturschutz.“

Hitzeinseln und Stadtbäume kartieren
Für eine Machbarkeitsstudie hat Mirjana Bevanda mit Antonio Castañeda und weiteren Kolleginnen und Kollegen im Jahr 2022 die Neue Universität am Sanderring und Teile des Würzburger Ringparks mit Drohnen aufgenommen. Zum Einsatz kamen dabei Lidar, eine Form des dreidimensionalen Laserscannings, sowie Wärme- und Multispektralsensoren. Letztere erfassen fünf bis zehn Lichtwellenlängen und damit deutlich mehr als eine einfache Fotokamera.

Ziel der Studie ist es zu erkunden, welchen Mehrwert die gewonnen Daten für Forschungen im städtischen Raum bieten, etwa zur Erfassung und Analyse der urbanen Struktur oder zur Kartierung von Stadtbäumen oder Hitzeinseln.

„Wir können damit einen Beitrag leisten, um beispielsweise den Hitzeinseleffekt mit gezielten Gegenmaßnahmen zu verringern“, erklärt Professor Hannes Taubenböck. Dieser Effekt tritt auf, wenn sich Städte mit ihren vielen Steinen und Asphaltflächen im Sommer stärker aufheizen als das Umland. Das belastet nicht nur die Menschen in der Stadt, sondern auch Tiere und Pflanzen.

Drohnen eröffnen auch bei der Kartierung von Stadtbäumen neue Optionen. „Wir könnten jeden Baum einzeln beschreiben, auch in seiner vertikalen Struktur, und Rückschlüsse auf seine Vitalität ziehen“, sagt Professor Tobias Ullmann.

Auf vielen Studiengebieten aktiv
Das Team vom Earth Observation Research Hub der JMU ist mit Drohnen auch in Kanada und anderen Studiengebieten aktiv und dokumentiert deren Veränderungen über die Zeit. Mit Partnern, etwa aus der Biologie, nimmt es auch ökologische Aspekte in den Blick. So werden unter anderem Umweltdaten aus dem JMU-Universitätsforst im Steigerwald, von Kalkmagerrasen in Unterfranken oder von hochalpinen Strukturen der Zugspitze bearbeitet.

„Die Datenaufnahme mit Drohnen ist zwar sehr aufwendig, unter anderem wegen der nötigen Genehmigungsverfahren. Aber die gewonnenen Daten und besonders deren Detailgrad ist für viele Forschungsfragen sehr relevant“, sagt Tobias Ullmann.

Im Mittelpunkt der Würzburger Studien stehen methodische Ansätze, um die Datenaufnahme und deren Verarbeitung effizienter zu machen. Außerdem sollen die für die einzelnen Forschungsfragen relevanten Umweltinformationen identifiziert werden. „Aus dieser Arbeit wollen wir langfristig neue Erkenntnisse für die Erdbeobachtung gewinnen, die sich wiederum auf weltraumgestützte Systeme übertragen lassen“, so Mirjana Bevanda.

Kontakte bestehen auch zur JMU-Informatik. „Wir machen Feldarbeit und werten die gewonnenen Daten für die Umweltforschung aus. Aber die Entwicklung neuer Sensoren und Systeme ist nicht unsere Expertise. Hier sehen wir großes Potential in der Zusammenarbeit mit verschiedenen Arbeitsgruppen der Informatik”, sagt Hannes Taubenböck.

Einsatz im Masterstudiengang EAGLE
Die Studien zur Erdbeobachtung mit Forschungsdrohnen – die Fachleute sprechen von Unoccupied Aerial Systems (UAS) – fließen in die Lehre im internationalen Würzburger Masterstudiengang EAGLE ein (Applied Earth Observation and Geoanalysis of the Living Environment). Schließlich soll die zukünftige Generation von Forschenden auch auf diesem Feld ausgebildet werden.

Dafür engagiert sich unter anderem Antonio Castañeda, EAGLE-Alumnus aus Kolumbien. Er ist aktuell Doktorand am Earth Observation Research Hub, sein Schwerpunkt liegt auf der UAS-basierten Fernerkundungsforschung.

„Die Integration von UAS in die Lehre ermöglicht den Studierenden ganz neue Erfahrungen in Missionsplanung, Sensorgeometrie, Datenhaltung und Auswertung“, so Tobias Ullmann. Sie werden so mit neuen Herausforderungen konfrontiert, die es in der weltraumgestützten Erdbeobachtung meist nicht gibt.

Wissenschaftliche Ansprechpartner:
Dr. Mirjana Bevanda, Prof. Dr. Tobias Ullmann, Prof. Dr. Hannes Taubenböck, Earth Observation Research Hub, Universität Würzburg, mirjana.bevanda@uni-wuerzburg.de

Weitere Informationen:
https://www.geographie.uni-wuerzburg.de/fernerkundung/startseite/ Earth Observation Research Hub Würzburg
http://www.eagle-science.org Masterstudiengang EAGLE (Applied Earth Observation and Geoanalysis of the Living Environment)

(nach oben)


Künstliche Intelligenz für das Stromnetz der Zukunft

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Das Stromnetz wird zunehmend dezentralisiert und digitalisiert, was neue Herausforderungen für die Netzbetreiber mit sich bringt. Lösungen für diese Herausforderungen könnten im Einsatz von Künstlicher Intelligenz (KI) liegen. Das Projekt „Data4Grid“ der Deutschen Energie-Agentur erforscht die Möglichkeiten des Einsatzes von KI und Datenanalyse in Stromverteilnetzen. Der Expertenbericht ist jetzt online verfügbar und untersucht unter anderem den Umgang mit sensiblen Daten und den rechtlichen Rahmen für KI in der Energiewirtschaft. Das Fraunhofer-Institut für Energiewirtschaft und Energiesystem IEE erstellte ein wissenschaftliches Gutachten zum Thema Datenanalyse und KI im Stromverteilnetz.

Das von der Deutschen Energie-Agentur (dena) durchgeführte Projekt „Data4Grid“ hatte zum Ziel, das Potenzial der Nutzung von Datenanalyse und künstlicher Intelligenz im Stromverteilnetz zu untersuchen. Kern des Projekts war es, neue Chancen und Herausforderungen zu identifizieren, die sich aus der Integration dieser Technologien in das Stromnetz ergeben, und deren mögliche Auswirkungen auf die kritische Infrastruktur zu bewerten. Die Projektergebnisse sind nun als Abschlussbericht online verfügbar.

Eine der wichtigsten Erkenntnisse des Berichts ist, dass KI das Potenzial besitzt, das Stromnetz zu revolutionieren, indem sie einen effizienteren und zuverlässigeren Betrieb ermöglicht. So kann KI beispielsweise eingesetzt werden, um das Management dezentraler Energieressourcen wie Solar- und Windparks zu optimieren und die Widerstandsfähigkeit des Stromnetzes gegen Störungen und Ausfälle zu verbessern. Außerdem kann KI zur Steigerung der Effizienz des Stromnetzes eingesetzt werden, indem sie Ausfälle von Anlagen vorhersagt und verhindert und den Einsatz von Energiespeichersystemen optimiert. Der Einsatz von KI im Stromnetz birgt jedoch auch potenzielle Risiken, die im Bericht adressiert werden. Diese Risiken gilt es sorgfältig abzuwägen und geeignete Maßnahmen zu ergreifen, um sie zu mindern.

Im Rahmen des Projekts hat das Fraunhofer IEE ein wissenschaftliches Gutachten zum Thema „Datenanalyse und KI im Stromverteilernetz“ mit dem Fokus auf den Einsatz innerhalb kritischer Infrastruktur beigetragen. Eine zunehmend dezentrale, volatile Erzeugungsstruktur und flexible Lasten stellen Netzbetreiber vor neue Herausforderungen. Das Gutachten liefert eine umfassende Analyse der potenziellen Vorteile und Risiken, die mit dem Einsatz von KI im Stromnetz verbunden sind. Es untersucht die Rolle von Daten im Energiesystem und die verschiedenen rechtlichen Rahmenbedingungen, die den Einsatz von KI in der Branche regeln.

Neben dem Gutachten enthält der Abschlussbericht einen vom Fraunhofer IEE entwickelten Implementierungsleitfaden für innovative KI-Anwendungen im Stromnetz. Darin werden die wichtigsten Schritte und Überlegungen behandelt, die in den verschiedenen Phasen einer Einführung von Datenanalysen im Unternehmen von Bedeutung sind sowie reale Anwendungsfälle zur Veranschaulichung des Prozesses.

„Insgesamt bieten das Data4Grid-Projekt und der dazugehörige Abschlussbericht wertvolle Einblicke in das Potenzial von KI im Stromnetz sowie in die mit ihrem Einsatz verbundenen Vorteile und Risiken. Die Ergebnisse unterstreichen die Notwendigkeit eines umfassenden Ansatzes für die Integration von KI in das Stromnetz, einschließlich eines gründlichen Verständnisses der rechtlichen Rahmenbedingungen und der Bedeutung von Datenmanagement und -sicherheit.“, stellt Dr. Sebastian Wende-von Berg vom Fraunhofer IEE abschließend fest.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Wende-von Berg

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2023/kuenstliche-…

(nach oben)


Kollisionsrisiko und Lebensraumverlust: Windräder in Wäldern beeinträchtigen bedrohte Fledermausarten

Dipl. Soz. Steven Seet Wissenschaftskommunikation
Leibniz-Institut für Zoo- und Wildtierforschung (IZW) im Forschungsverbund Berlin e.V.
Um Klimaschutzziele zu erreichen, boomt in Deutschland der Ausbau erneuerbarer Energien – insbesondere der Windkraft. Mehr als 30.000 Anlagen wurden bislang auf dem Festland installiert, jetzt beginnt ein Ringen um weitere, rarer werdende, geeignete Standorte. So rücken auch Wälder als Standorte in den Fokus. Ein Forschungsteam des Leibniz-Instituts für Zoo- und Wildtierforschung (Leibniz-IZW) wies jetzt in einem Aufsatz in der Fachzeitschrift „Current Biology“ nach, dass die Windenergieerzeugung an diesen Standorten mit Kollisionsrisiken und Lebensraumverlusten und somit mit erheblichen Nachteilen verbunden für bedrohte Fledermausarten sein könnte.

Große Abendsegler (Nyctalus noctula) haben ein hohes Kollisionsrisiko und sind vermehrt an Windkraftanlagen in Wäldern anzutreffen, wenn diese in der Nähe von ihren Quartieren stehen. Fern der Quartiere meiden Große Abendsegler jedoch die Anlagen, was praktisch zu einem Lebensraumverlust für diese Art führt.

Große Abendsegler leiden den Ergebnissen der Untersuchung nach doppelt unter dem Windenergieausbau im Wald: Sie sind der wachsenden Gefahr ausgesetzt, mit den Anlagen zu kollidieren und dadurch getötet zu werden, wenn diese in der Nähe von Fledermausquartieren gebaut werden, und sie verlieren einen Teil ihres Jagdlebensraumes, da sie die Anlagen fern ihrer Quartiere meiden. In ihrem Aufsatz folgert das Team aus den Resultaten, dass der Windkraftausbau in Wäldern mit großer Sorgfalt und Umsicht erfolgen muss. Zu Quartierstandorten von Fledermäusen sollte ein Mindestabstand von 500 m eingehalten und der verursachte Lebensraumverlust kompensiert werden, indem an anderer Stelle Wälder aus der Nutzung genommen werden.
Die Windenergieproduktion ist ein wichtiges Standbein für die Energiewende in Deutschland und leistet einen erheblichen Beitrag zur Senkung der Treibhausgasemissionen. Mehr als acht Prozent der Windkraftanlagen in Deutschland befinden sich bereits in Wäldern. Ihr Anteil soll in den nächsten Jahren deutlich zunehmen, weil geeignete Standorte in der offenen Fläche rar werden. „In Wäldern kommt eine Vielzahl von Fledermausarten vor, da es hier viele Baumquartiere und zudem viele geeignete Jagdlebensräume mit hohen Insektenvorkommen gibt“, sagt Christian Voigt, Leiter der Abteilung für Evolutionäre Ökologie am Leibniz-IZW. „Darunter sind auch Arten wie der Große Abendsegler, der in Deutschland am häufigsten an Windkraftanlagen zu Tode kommt. Laut dem Bundesamt für Naturschutz nehmen die Bestände dieser Art deutschlandweit ab. Es ist deshalb dringend geboten, die Interaktion der Fledermäuse mit den Windkraftanlagen im Wald genauer unter die Lupe zu nehmen.“

Voigt und seine Kolleg:innen untersuchten das Raumnutzungsverhalten von Großen Abendseglern mit Hilfe miniaturisierter GPS-Logger. Diese Logger dokumentierten die Flugpfade von 60 Großen Abendseglern mit hoher zeitlicher und räumlicher Auflösung über 1-2 Nächte, bevor die Logger selbständig wieder vom Tier abfielen. „Wir stellten fest, dass Große Abendsegler besonders dann mit hoher Wahrscheinlichkeit Windkraftanlagen anflogen, wenn diese in der Nähe von Fledermausquartieren standen“, sagt Voigt. Fledermäuse nutzen exponierte Strukturen oftmals als sozialen Treffpunkt. Vermutlich fliegen sie deshalb vermehrt Windkraftanlagen über den Baumkronen an, wenn die Anlagen in der Nähe von Quartieren stehen. Dies birgt ein hohes Risiko für die Tiere, mit den Rotorblättern zu kollidieren. „Windkraftanlagen müssten demnach in ausreichender Entfernung zu bestehenden Baumquartieren aufgestellt werden“, fordert Christine Reusch, Erstautorin des Aufsatzes. „Da Quartiere jedoch auch neu entstehen können, besteht die Gefahr, dass vermeintlich sichere Windkraftanlagen, die während der Genehmigungsphase in ausreichend großem Abstand zu Fledermausquartieren aufgestellt wurden, später zur Todesfalle werden“, schließt Reusch.

Die Autor:innen stellten auch fest, dass die Großen Abendsegler jenseits von Baumquartieren die Windkraftanlagen mieden. Hierzu führten sie eine Datenanalyse durch, in der alle Ortungen in der Nähe von Quartieren unberücksichtigt blieben. Diese Analyse ergab, dass Fledermäuse jenseits von Quartieren Windkraftanlagen meiden. „Was sich nach einer guten Nachricht anhört, birgt auch ein Problem“, sagt Voigt. „Durch das Meidungsverhalten verlieren Große Abendsegler wichtige Jagdlebensräume.“ Die Forschenden empfehlen daher, Windkraftanlagen erstens nicht in Wäldern aufzustellen und zweitens besonders achtsam zu sein, falls es keine Alternativen gibt. Es sollte ein Mindestabstand von 500 m zwischen Windkraftanlagen und bekannten Fledermausquartieren in den Genehmigungsverfahren berücksichtigt werden und der Lebensraumverlust in der Nähe der Windkraftanlagen an anderer Stelle kompensiert werden. Ein naturverträglicher Ausbau ist angesichts der komplexen Interaktion der Fledermäuse an Windkraftanlagen in Wäldern eine große Herausforderung, so Voigt und Reusch.

Wissenschaftliche Ansprechpartner:
PD Dr. Christian Voigt
Leiter der Abteilung für Evolutionäre Ökologie
Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
Telefon: +49(0)30 5168 511
E-Mail: voigt@izw-berlin.de

Originalpublikation:
Reusch C, Paul AA, Fritze M, Kramer-Schadt S, Voigt CC (2022): Wind energy production in forests conflicts with tree-roosting bats. Current Biology. DOI: 10.1016/j.cub.2022.12.050

(nach oben)


Luftgüte: Lehrmeinung muss revidiert werden

Dr. Christian Flatz Büro für Öffentlichkeitsarbeit
Universität Innsbruck
Langzeitmessungen im Stadtgebiet von Innsbruck zeigen, dass der Anteil von bodennahem Ozon in Atmosphärenmodellen tendenziell überschätzt wird. Als Konsequenz muss eine für die Luftgüteprognose grundlegende Lehrmeinung für den urbanen Raum neu interpretiert werden. Die Messungen eines internationalen Teams um den Atmosphärenforscher Thomas Karl von der Universität Innsbruck belegen außerdem, dass direkte Stickstoffdioxid-Emissionen überbewertet werden.

Der 40 Meter hohe Messturm des Innsbruck Atmospheric Observatory an der Universitätskreuzung im Stadtgebiet von Innsbruck liefert laufend Daten über die Zusammensetzung der bodennahen Atmosphäre. Pro Stunde werden 36.000 Datenpunkte erfasst. Mit einem speziellen Messverfahren – der sogenannten Eddy-Kovarianz-Methode – lässt sich die Konzentration von Luftbestandteilen laufend überwachen. Ein internationales Team um Thomas Karl vom Institut für Atmosphären- und Kryosphärenwissenschaften der Universität Innsbruck hat diese Daten nun dazu genutzt, die Chemie von Ozon, Stickstoffmonoxid und Stickstoffdioxid im urbanen Raum detailliert zu studieren. Der hohe Anteil von Dieselfahrzeugen in europäischen Städten führt zu starken Stickstoffmonoxid-Konzentrationen. Dieses reagiert mit Ozon, wodurch Stickstoffdioxid entsteht. In der Atmosphäre zerfällt Stickstoffdioxid wieder zu Stickstoffmonoxid und atomarem Sauerstoff, der sich sofort mit Luft-Sauerstoff zu Ozon verbindet.

Lehrmeinung muss präzisiert werden
Dieser chemische Zyklus wurde vor über 60 Jahren im ersten Lehrbuch zur Luftverschmutzung von Philip Leighton mathematisch beschrieben. Das Verhältnis der beiden Prozesse wird seither als Leighton-Beziehung bezeichnet. Computermodelle der Atmosphärenchemie nutzen die Leighton-Beziehung, um die Komplexität zu minimieren, indem sie die Konzentration von Ozon, Stickstoffmonoxid und Stickstoffdioxid aus der Konzentration der jeweils beiden anderen ableiten. In der Praxis dient dies zum Beispiel dazu, die Ozonkonzentration in Gebieten abzuleiten, die durch Stickoxide verschmutzt sind. Die Daten der Innsbrucker Atmosphärenforscher zeigen nun, dass bei Vorhandensein von hohen Stickstoffmonoxid-Emissionen, rechnerische Vereinfachungen, die Leighton vorgenommen hat, zu falschen Ergebnissen führen. „In Städten mit hohen Stickstoffmonoxid-Emissionen wird dieses Verhältnis um bis zu 50 Prozent überschätzt“, warnt Thomas Karl. „Dies führt dazu, dass Modellrechnungen die Konzentration von bodennahem Ozon im urbanen Raum überschätzen. Dies spiegelt sich auch in den Luftgütevorhersagen wider.“ Nicht vernachlässigt werden darf dieser Effekt in der Modellierung der untersten Schicht der Atmosphäre, bis zu 200 Meter über dem Boden.
Verantwortlich für den von den Innsbrucker Wissenschaftlern untersuchten Effekt sind neben dem Vorhandensein hoher Stickstoffmonoxid-Emissionen, die im urbanen Raum stärkeren Turbulenzen. Die Durchmischung der Gase kombiniert mit den relativ rasch ablaufenden chemischen Prozessen führen dazu, dass mehr Ozon in Stickstoffdioxid umgewandelt wird. Die Daten der Forscher zeigen auch, dass der direkte Ausstoß von Stickstoffdioxid durch den städtischen Verkehr demgegenüber weitgehend vernachlässigbar ist. „Wichtig bleibt festzustellen, dass umweltpolitische Vorschriften nicht auf Modellrechnungen rekurrieren, sondern abhängig von tatsächlich gemessenen Schadstoffkonzentrationen in Kraft treten“, betont Thomas Karl.

Die Ergebnisse wurden nun in der Fachzeitschrift Science Advances veröffentlicht. Die Forschungen wurden gemeinsam mit dem National Center for Atmospheric Research (USA), der Case Western Reserve University (USA), der Wageningen University (NL) und Luftblick (AT) durchgeführt und unter anderem vom Österreichischen Wissenschaftsfonds FWF und der Europäischen Weltraumorganisation ESA finanziell unterstützt.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dipl.-Ing. Dr. Thomas Karl
Institut für Atmosphären- und Kryosphärenwissenschaften
Universität Innsbruck
Tel.: +43 512 507 54455
E-Mail: thomas.karl@uibk.ac.at
Web: http://acinn.uibk.ac.at/

Originalpublikation:
High Urban NOx Triggers a Substantial Chemical Downward Flux of Ozone. Thomas Karl, Christian Lamprecht, Martin Graus, Alexander Cede, Martin Tiefengraber, Jordi Vila-Guerau de Arellano, David Gurarie, Donald Lenschow. Science Advances 2023 DOI: 10.1126/sciadv.add2365

Weitere Informationen:
https://www.atm-phys-chem.at/facilities/iao/ – Innsbruck Atmospheric Observatory
https://www.atm-phys-chem.at/ – Atmospheric Physics and Chemistry Group, Universität Innsbruck

(nach oben)


„Schweizer Taschenmesser“ für Influenzaviren

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Wie Viren ihre wenigen Proteine für unterschiedlichste Funktionen nutzen – Team des Forschungscampus Mittelhessen identifiziert Mechanismus für die Steuerung des viralen M1-Proteins

In jedem Jahr erkranken weltweit Millionen von Menschen an der Influenza, der sogenannten „echten“ Grippe. Obwohl Influenza-Viren nur über ein gutes Dutzend an Virusproteinen verfügen, erfüllen sie damit sehr erfolgreich unterschiedlichste Aufgaben – vom Eindringen in die Zellen des Atemtrakts über die Vervielfältigung des RNA-Erbguts bis hin zur Bildung neuer Viren. Ein Forschungsteam der Justus-Liebig-Universität Gießen (JLU) und der Philipps-Universität Marburg hat jetzt untersucht, wie insbesondere das virale M1-Protein für zahlreiche verschiedene Prozesse zuständig sein kann – ähnlich wie ein „Schweizer Taschenmesser“. Die Forschungsergebnisse, die Ansatzpunkte für neue Influenza-Therapien bieten könnten, sind jetzt in der Zeitschrift „mBio“ veröffentlicht worden.
Das M1-Protein ist nicht nur für die Stabilität des Viruspartikels verantwortlich, sondern reguliert unter anderem auch das Ablesen des Virusgenoms und fördert den Zusammenbau der einzelnen Virusbestandteile sowie das Herausschleusen aus der Wirtszelle (die so genannte Knospung). Bei diesen Prozessen liegt das virale M1-Protein in unterschiedlichen Formen vor, entweder als größerer Molekülkomplex (Multimer), um bei der Knospung zu helfen, oder aber auch als kleineres Einzelmolekül (Monomer).
Den Forschenden konnten nun erklären, wie sich der Zustand des M1-Protein ändern kann und damit die Virusinfektion in so unterschiedlichen Funktionen unterstützt. Wie die Gießener Arbeitsgruppen von Prof. Dr. Lienhard Schmitz (biochemisches Institut) und Prof. Dr. Stephan Pleschka (Institut für Medizinische Virologie) in Zusammenarbeit mit der Arbeitsgruppe von Prof. Dr. Michael Kracht (Rudolf-Buchheim-Institut für Pharmakologie) sowie Dr. Uwe Linne (Abteilung für Massenspektrometrie und Elementanalytik der UMR) zeigten konnten, begrenzt das Anfügen einer Phosphatgruppe (Phosphorylierung) an das M1-Protein seine Fähigkeit zur Ausbildung von Multimeren. Für die Virusvermehrung ist das essentiell.
Über die Phosphorylierung wird ebenfalls die Bindung des M1-Proteins an ein Netzwerk von zellulären signalübertragenden Proteinen begrenzt, für das die beteiligten Forschenden eine Rolle bei der Vermehrung der Influenzaviren nachweisen konnten. „Wir gehen davon aus, dass damit neue therapeutische Optionen für die Behandlung von Influenza-Infektionen verbunden sein könnten“, erklärt Prof. Schmitz. „Dafür wird es künftig notwendig sein, Regulatoren dieser M1-Phosphorylierung zu identifizieren.“

Campus-Schwerpunkt „Mikroorganismen und Viren“
Das Erkennen übergreifender Strategien von Mikroben und Viren sowie deren Interaktion untereinander und mit dem Wirt ist das zentrale Ziel der gemeinsamen Forschungsaktivitäten der Forschenden im Campus-Schwerpunkt „Mikroorganismen und Viren“ des Forschungscampus Mittehlhessen (FCMH). https://www.fcmh.de/mv

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lienhard Schmitz
Biochemisches Institut der Justus-Liebig-Universität Gießen (JLU)
Friedrichstrasse 24, 35392 Gießen
Telefon: 0641 99-47570
E-Mail: Lienhard.Schmitz@biochemie.med.uni-giessen.de

Prof. Dr. Stephan Pleschka
Institut für Medizinische Virologie der Justus-Liebig-Universität Gießen (JLU)
Schubertstraße 81, 35392 Gießen
Telefon: 0641 99-47750
E-Mail: Stephan.Pleschka@viro.med.uni-giessen.de

Originalpublikation:
Liu, L., Weber, A., Linne, U., Shehata, M., Pleschka, S., Kracht, M., & Schmitz, M. L. (2023). Phosphorylation of Influenza A Virus Matrix Protein 1 at Threonine 108 Controls Its Multimerization State and Functional Association with the STRIPAK Complex. mBio, 2023 Jan 5. Advance online publication.
https://doi.org/10.1128/mbio.03231-22

(nach oben)


Winterblues: Tageslicht ist bestes Gegenmittel

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Viele kennen das Gefühl: In der kalten, dunklen Jahreszeit fühlt man sich antriebslos, die Stimmung ist gedrückt. Vom „Winterblues“ ist dann häufig die Rede. Doch was passiert dabei mit Körper und Geist und was kann man dagegen tun? Prof. Dr. Maria Strauß von der Universitätsmedizin Leipzig beantwortet die wichtigsten Fragen zu diesem Thema.

Was passiert mit Körper und Geist des Menschen, wenn er einen „Winterblues“ bekommt und was sind die Ursachen dafür?
Die Ursachen sind sehr komplex und letztendlich nicht gänzlich verstanden. Allerdings gibt es Hinweise dafür, dass der Lichtmangel während der dunklen Jahreszeit eine wesentliche Rolle bei der Entwicklung eines „Winterblues“ spielt. Durch den zunehmenden Lichtmangel im Herbst und Winter wird das Schlafhormon Melatonin nicht nur nachts, sondern auch tagsüber vermehrt ausgeschüttet. Dadurch reagiert der Mensch mit Abgeschlagenheit und vermehrter Müdigkeit. Gleichzeitig wird auch weniger Serotonin ausgeschüttet. Letzteres kann unter anderem dazu führen, dass die Stimmung nicht mehr ausgeglichen ist.

Welche Menschen sind besonders gefährdet?
Bei Menschen, die bereits von einer Depression betroffen waren, kann es in der dunklen Jahreszeit zu einem erneuten Auftreten von Symptomen kommen. Auch gibt es Hinweise, dass Menschen mit Verwandten, die zu saisonal bedingten Stimmungsschwankungen neigen, möglicherweise ein höheres Risiko für ein saisonal bedingtes Stimmungstief haben.

Wie kann man einem „Winterblues“ vorbeugen?
Das beste Mittel, um einem „Winterblues“ vorzubeugen, ist Tageslicht. Empfehlenswert sind zum Beispiele tägliche Spaziergänge an der frischen Luft. Aber auch sportliche Aktivitäten, eine angemessene Balance zwischen Stress und Erholungsphasen und regelmäßige soziale Kontakte sind hilfreich. Mit Beginn der dunklen Jahreszeit ändert sich auch der Alltag. Es fallen eine Reihe von Aktivitäten weg, welche im Sommer vorwiegend draußen stattfinden. Eine Umstrukturierung des Alltags mit passenden Aktivitäten für die dunkle Jahreszeit kann vorbeugend wirken. Schließlich kann dem Lichtmangel mit einer Lichttherapie begegnet werden. Für die Lichttherapie werden spezielle Lampen mit sehr hellem Licht, also mindestens 2500 Lux, besser 10.000 Lux, verwendet, welche täglich für etwa 30 Minuten zum Beispiel auf den Frühstückstisch gestellt werden. Wichtig ist, dass alle paar Sekunden direkt in die Lichtquelle geschaut wird. Auch wenn es sich beim „Winterblues“ um keine Erkrankung handelt, sollte die Nutzung einer Lichtlampe vorher mit einem Arzt besprochen werden. Ein frühzeitiger Beginn der vorbeugenden Maßnahmen im September/Oktober ist sinnvoll. 

Wie erkennt man einen „Winterblues“ überhaupt im Unterschied zur Depression?
Symptome eines „Winterblues“ können ein Stimmungstief, Antriebs- und Lustlosigkeit, vermehrte Erschöpfung, Mattigkeit und Energielosigkeit sein. Ähnliche Symptome können auch bei einer Depression auftreten. Allerdings schwankt die Stimmung bei einem „Winterblues“ nur tageweise, und die Ausprägung ist geringer als bei einer Depression. Hält die Symptomatik allerdings über mehr als zwei Wochen kontinuierlich an, oder es kommen weitere Symptome wie Hoffnungslosigkeit, Appetitminderung, Schlaflosigkeit, Schuldgefühle oder Suizidgedanken dazu, kann eine Depression vorliegen. In diesen Fällen reichen die Maßnahmen gegen einen „Winterblues“ alleine nicht aus und es sollte zusätzlich die professionelle Hilfe eines Arztes oder psychologischen Psychotherapeuten in Anspruch genommen werden.

Was ist Ihr aktueller Forschungsstand zum Thema „Winterblues“? 
Letztlich ist der Mechanismus nicht gänzlich verstanden. Wir wissen aber, dass Tagesslicht eine wichtige Rolle spielt. Unsere Forschungsanliegen sind, die neurobiologischen Zusammenhänge auf Neurotransmitter-Ebene besser zu verstehen und hier zum Beispiel Marker zu finden, zum Beispiel in der Elektroenzephalographie oder Bildgebung, um zwischen „Winterblues“ und Depression besser unterscheiden zu können. 

(Die Elektroenzephalographie, kurz EEG, ist ein neurologisches Diagnoseverfahren zur Erfassung von elektrischen Strömen des Gehirns.)

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Maria Strauß
Telefon: +49 341 9724500
E-Mail: maria.strauss@uniklinik-leipzig.de

(nach oben)


Europäisches Monitoring-Projekt zum Schutz der Biodiversität in Agrarlandschaften gestartet

Sabine Heine Presse und Kommunikation
Leibniz-Institut zur Analyse des Biodiversitätswandels
Mit dem Projekt “BioMonitor4CAP” ging jetzt ein internationales Forschungsprojekt an den Start, das zum Ziel hat, landwirtschaftliche Verfahren und Strategien zu identifizieren, die einen bestmöglichen Erhalt der biologischen Vielfalt zur Folge haben. Hier gilt es neue, fortschrittliche Methoden des Biodiversitätsmonitorings zu entwickeln, um eine ergebnisorientierte Politik in europäischen Agrarlandschaften zum Schutz der Biodiversität umzusetzen. Zwanzig Partnerorganisationen aus 10 europäischen Ländern und Peru nehmen an diesem Projekt teil, das durch das Forschungs- und Innovationsprogramm “Horizon Europe” finanziert wird.

Die Hälfte der europäischen Landfläche besteht aus landwirtschaftlichen Nutzflächen. Dabei ist die intensive Landwirtschaft einer der wichtigsten Faktoren, der die Lebensraum- und Artenvielfalt in Agrarlandschaften beeinträchtigt. Die EU-Strategien „Biodiversität 2030“ und „Farm to Fork“ zielen darauf ab, den Verlust der biologischen Vielfalt aufzuhalten und gleichzeitig das menschliche Wohlergehen zu gewährleisten. Noch ist unklar, wie diese Strategien effizient umgesetzt werden. Das LIB wird in diesem Projekt seine Expertise einbringen, um die Auswirkungen der verschiedenen Bewirtschaftungsformen in Vorhersagemodelle zu bringen, die dem Schutz der Artenvielfalt am besten dienen.

Demnach müssen für eine nachhaltige Entwicklung effizientere und objektiver beurteilbare Strategien und Methoden gefordert werden, um die biologische Vielfalt und ihren Verlust oder ihre Wiederherstellung in Raum und Zeit zu überwachen.

Im Rahmen des BioMonitor4CAP-Projekts werden kosteneffiziente und zuverlässige Systeme zum Monitoring der biologischen Vielfalt getestet, validiert und entwickelt, die sowohl auf landwirtschaftlichen Flächen als auch in besonders schützenswerten Natura-2000-Gebieten funktionieren. Klassische Indikatorensysteme für die biologische Vielfalt werden mit technologiegestützten Ansätzen wie akustischen, optischen oder molekularen Methoden kombiniert. Im Rahmen des Projekts werden Vorhersagemodelle entwickelt, mit denen geeignete Änderungen in der Landbewirtschaftung zur Verbesserung der biologischen Vielfalt in landwirtschaftlichen Betrieben empfohlen werden können. „Solche Biodiversitätsmonitoringsysteme werden benötigt, um eine ergebnisorientierte Politik in europäischen Agrarlandschaften umzusetzen“, sagen Prof. Christoph Scherber, Koordinator des BioMonitor4CAP-Projekts und Leiter des Zentrums für Biodiversitätsmonitoring (zbm) am Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) und Dr. Nils Borchard, Deutsche Landwirtschafts-Gesellschaft (DLG). “Die Implementierung neu entwickelter Biodiversitätsmonitoringsysteme unterstützt eine ergebnisorientierte Politikberatung und Entscheidungsfindung in europäischen Agrarlandschaften“, ergänzt Scherber.

Mitte Dezember 2022 trafen sich alle Projektpartner zum BioMonitor4CAP-Auftakttreffen im LIB Museum Koenig Bonn. Das Team erarbeitete Konzepte, um eine möglichst produktive Vorgehensweise zu gewährleisten. Das LIB wird in diesem Projekt seine Expertise insbesondere für die faunistische Auswertung und die Untersuchung der Auswirkungen der verschiedenen Bewirtschaftungsformen zum Beispiel auf die Vogel- und Insektenvielfalt einbringen. Das Projekt wird mehrere Interessengruppen einbeziehen, um eine erfolgreiche Umsetzung der neu entwickelten Biodiversitätsmonitoringsysteme zu gewährleisten.

Über das LIB
Das Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) widmet sich der Erforschung der biologischen Vielfalt und ihrer Veränderung. Seit dem 1. Juli 2021 arbeiten unsere Forschenden an zwei Standorten: dem Zoologischen Forschungsmuseum Alexander Koenig in Bonn sowie dem ehemaligen Centrum für Naturkunde in Hamburg. Generaldirektor ist Prof. Dr. Bernhard Misof, der das LIB standortübergreifend leitet.

Über die Leibniz-Gemeinschaft
Zur Leibniz-Gemeinschaft gehören zurzeit 96 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung sowie drei assoziierte Mitglieder. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Leibniz-Institute arbeiten strategisch und themenorientiert an Fragestellungen von gesamtgesellschaftlicher Bedeutung Bund und Länder fördern die Institute der Leibniz-Gemeinschaft daher gemeinsam.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Scherber
Leibniz-Institut zur the Analyse des Biodiversitätswandels, Museum Koenig Bonn
Leiter Zentrum für Biodiversitätsmonitoring (zbm)
Tel: +49 228 9122-450
c.scherber@leibniz-lib.de

(nach oben)


Ernährungssysteme der Zukunft

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Zentrum für Nachhaltige Ernährungssysteme (ZNE) der Justus-Liebig-Universität Gießen nimmt Arbeit auf – Globale Nachhaltigkeitsziele im Blick

Bevölkerungswachstum, Klimawandel, Hungersnöte … Die Herausforderungen sind immens, Lösungsansätze müssen die globalen Zusammenhänge in den Blick nehmen: So gilt es einerseits, die Ernährung für eine wachsende Weltbevölkerung sicherzustellen und gleichzeitig eine Landwirtschaft zu fördern, die sich an den 17 nachhaltigen Entwicklungszielen / Sustainable Development Goals (SDGs) ausrichtet. Damit muss eine Vielzahl an positiven Ökosystemleistungen wie Biodiversität und genetische Vielfalt als auch Ressourcenschutz einhergehen. An der Justus-Liebig-Universität Gießen (JLU) ist nun das Zentrum für Nachhaltige Ernährungssysteme (ZNE) gegründet worden, um den interdisziplinären, wissenschaftlichen Austausch zu drängenden Fragen im Bereich der Transformation von Ernährung zu fördern und innovative Lösungsansätze zu entwickeln, um nachhaltige Ernährungssysteme zu schaffen. Das neue Zentrum wird den Wissenstransfer in die Praxis begleiten und die Forschungsergebnisse in die Lehre integrieren.

„Ein nachhaltiges Ernährungssystem ist umweltfreundlich, gesundheitsfördernd, ethisch verantwortlich, alltagsangepasst, ermöglicht soziokulturelle Vielfalt, ist sozialverträglich in allen Schichten der Gesellschaft umsetzbar und ökonomisch tragfähig“, sagt Prof. Dr. Ramona Teuber, Inhaberin der Professur für Marktlehre der Agrar- und Ernährungswirtschaft und wissenschaftliche Leiterin des ZNE. In enger Anlehnung an die Definition des Sachverständigenrates für Ernährungssicherheit und Ernährung (High Level Panel of Experts on Food Security and Nutrition, HLPE) des UN-Ausschusses für Welternährungssicherheit aus dem Jahr 2017 soll dem ZNE daher folgende Definition zugrunde liegen: „Ein Ernährungssystem ist ein System, das von der Produktion von Lebensmitteln bis hin zum Konsum und den gesundheitlichen Folgen dieses Konsums reicht, alle Ressourcen, inklusive Lebensmittelabfällen und -verlusten berücksichtigt, und zudem von verschiedenen Rahmenbedingungen (ökonomisch, politisch, naturräumlich) beeinflusst wird.“

Seinen Sitz hat das Ende 2022 neu gegründete Zentrum im Zeughaus in Gießen in unmittelbarer Nachbarschaft zum Zentrum für internationale Entwicklungs- und Umweltforschung (ZEU), das ebenfalls in der Senckenbergstraße 3 beheimatet ist.

„Das neu gegründete Zentrum für Nachhaltige Ernährungssysteme wird einen bedeutenden Beitrag zu existentiell wichtigen gesellschaftlichen, ökonomischen und ökologischen Fragestellungen leisten“, erklärte JLU-Präsident Prof. Dr. Joybrato Mukherjee anlässlich einer kleinen internen Eröffnungsfeier. „Ich bin sicher, dass das ZNE als interdisziplinär angelegte Forschungsplattform eine Ausstrahlung weit über die Grenzen der JLU haben wird.“
Das ZNE wird als „Think Tank“ zu den Nachhaltigkeits- und Internationalisierungszielen der JLU beitragen, indem sowohl Forschung als auch Lehre in diesen beiden Querschnittsdimensionen gestärkt werden, die im Entwicklungsplan JLU 2030 festgehalten sind. In der Gründungsphase des Zentrums gilt es nun, die Konzepte und Strukturen mit Leben zu füllen und konkrete Forschungsprojekte gemeinsam anzugehen.

Prof. Dr. Klaus Eder, Dekan des Fachbereichs 09 – Agrarwissenschaften, Ernährungs-wissenschaften und Umweltmanagement, ging auf die nötige Vernetzung ein: „Die langfristige Sicherung der Ernährung der Weltbevölkerung unter den Gesichtspunkten der Nachhaltigkeit ist eine derart wichtige und komplexe Aufgabe, sodass alle Fachbereiche und Zentren eingeladen sind, daran mitzuwirken und im ZNE neue Impulse beizusteuern.“ Die Vorstellung der Ziele des ZNE übernahm Prof. Teuber, die auch auf die günstigen Rahmenbedingungen an der JLU einging.

Bereits seit vielen Jahren arbeiten Professuren des Fachbereichs 09 über Disziplin- und Fachbereichsgrenzen hinweg zusammen an Fragestellungen zu nachhaltigen Ernährungssystemen. Das Land Hessen fördert beispielsweise seit Januar 2021 den LOEWE-Schwerpunkt Integrierte Tier-Pflanze-Agrarökosysteme (GreenDairy); der Deutsche Akademische Austauschdienst (DAAD) fördert im Programm „exceed – Hochschulexzellenz in der Entwicklungszusammenarbeit“ den Aufbau eines internationalen Forschungs-
schwerpunkts „SDGNexus Network“. Das International PhD Program for Agricultural Economics, Bioeconomy and Sustainable Food Systems (IPPAE) für Nachwuchswissenschaftlerinnen und -wissenschaftler arbeitet an ähnlichen Fragestellungen. Diese zum Teil schon jahrzehntelang vorhandene Expertise soll nun im Zentrum für nachhaltige Ernährungssysteme gebündelt und durch die Etablierung bzw. Besetzung neuer Professuren auf lange Sicht fachlich erweitert und gestärkt werden.

Die Koordination des ZNE wird bis Ende 2025 aus dem Innovations- und Strukturentwicklungsbudget des Hessischen Ministeriums für Wissenschaft und Kunst (HMWK) finanziert.

Wissenschaftliche Ansprechpartner:
Zentrum für Nachhaltige Ernährungssysteme (ZNE)
Dr. Susanne Kühner, Koordinatorin
Senckenbergstraße 3, 35390 Gießen
Telefon: 0641 99-37022
E-Mail: Susanne.Kuehner@agrar.uni-giessen.de

(nach oben)


Niedriges Niveau bei Pflanzenschutzmittelrückständen in Lebensmitteln aus Deutschland

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
BVL-Auswertung für 2021: Belastung mit Rückständen ist abhängig von der Herkunft der Lebensmittel

In Lebensmitteln aus Deutschland und der EU werden weiterhin nur selten zu hohe Rückstände von Pflanzenschutzmitteln nachgewiesen. In deutschen Erzeugnissen ist im Jahr 2021 der Anteil an Überschreitungen der zulässigen Höchstgehalte im Vergleich zum Vorjahr gesunken. Bei Lebensmitteln aus anderen Staaten, insbesondere aus Nicht-EU-Staaten, gab es dagegen einen Anstieg der Überschreitungen, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) berichtet.

Die Ergebnisse sind Teil der „Nationalen Berichterstattung
Pflanzenschutzmittelrückstände in Lebensmitteln 2021“, die das BVL veröffentlicht hat. Von den Untersuchungseinrichtungen der amtlichen Lebensmittelüberwachung der Bundesländer sind hierfür insgesamt mehr als 8,3 Millionen Analysen an 20.603 Lebensmittelproben durchgeführt worden. Dabei wurde bestätigt, dass die Belastung mit Pflanzenschutzmittelrückständen in Abhängigkeit von der Herkunft variiert.

Betrachtung nach der Herkunft
Für Lebensmittel aus Deutschland war die Anzahl an Überschreitungen nach einem leichten Anstieg im Vorjahr wieder rückläufig und lag 2021 bei 1,1 % (2020: 2,0 %). Bei Erzeugnissen aus anderen EU-Mitgliedstaaten stieg die Überschreitungsquote leicht auf 1,8 % (2020: 1,3 %) an. Einen deutlichen Anstieg der Quote von 7,8 % (2020) auf 10,9 % gab es dagegen bei Lebensmitteln aus Nicht-EU-Staaten.

Betrachtung nach verschiedenen Lebensmittelgruppen
Während bei Getreide, Lebensmitteln tierischen Ursprungs sowie Säuglings- und Kleinkindernahrung die Überschreitungsquote sank, wurde bei verarbeiteten Lebensmitteln eine Zunahme an Überschreitungen der Rückstandshöchstgehalte nachgewiesen. Bei Obst und Gemüse blieb die Anzahl an Überschreitungen auf Vorjahresniveau. Vor allem bei Lebensmitteln, deren Verzehr besonders hoch ist, wie Äpfel, Karotten, Kartoffeln oder Tomaten, traten wie in den Vorjahren nur wenige Überschreitungen auf. Bei häufig untersuchten Lebensmitteln (mit mindestens 100 untersuchten Proben) wiesen in Lake eingelegte Weinblätter (71,8 %), Granatäpfel (33,0 %), Sesamsamen (8,7 %) und frische Kräuter (8,2 %) die höchsten Überschreitungsquoten auf.
Dabei muss berücksichtigt werden, dass für Weinblätter im Vergleich zu Trauben sehr niedrige, allgemeine Rückstandshöchstgehalte auf dem Niveau der analytischen Bestimmungsgrenze festgesetzt sind. Eine Beeinträchtigung der Verbraucherinnen und Verbraucher durch die festgestellten Höchstgehaltsüberschreitungen in Weinblättern ist nicht zu erwarten. Jedoch sind die rechtlich verbindlichen Rückstandshöchstgehalte grundsätzlich einzuhalten. Daher werden einige dieser auffälligen Erzeugnisse, u. a. Weinblätter, Granatäpfel und Sesamsamen, bereits verstärkten Kontrollen bei der Einfuhr in die EU unterzogen.

Manche auffälligen Wirkstoffe nicht mehr zugelassen
Bei den überwiegend risikoorientierten Kontrollen wurden die Lebensmittel auf 1.061 verschiedene Stoffe untersucht. Zwar wurden bei 216 (20,4 %) Wirkstoffen Überschreitungen der Rückstandshöchstgehalte festgestellt, jedoch generell auf niedrigem Niveau. Zu den Wirkstoffen, bei denen es relativ häufig zu Überschreitungen kam, gehörten Dithiocarbamate, Metalaxyl, Ethylenoxid, Chlorat und Chlorpyrifos. Die drei letztgenannten sind in der EU in Pflanzenschutzmitteln nicht mehr zugelassen.

Hintergrund
Rückstände von Pflanzenschutzmitteln in Lebensmitteln sind zulässig, sofern sie die geltenden Rückstandshöchstgehalte nicht überschreiten und demnach gesundheitlich unbedenklich sind. Auch eine Überschreitung des festgesetzten Rückstandshöchstgehalts ist nicht gleichbedeutend mit einer Gesundheitsgefahr für Verbraucherinnen und Verbraucher. Die Festsetzung eines Höchstgehaltes erfolgt ausgehend von der Menge an Rückständen, die bei ordnungsgemäßer Anwendung des Pflanzenschutzmittels zu erwarten ist. Eine Gesundheitsgefahr darf dabei nicht gegeben sein.

Weiterführende Informationen
• Hintergrundinformation „Nationale Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021_hintergrund
• Zusammenfassung des Berichts „Nationale Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021_zus
• Bericht zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021
• Tabellen zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_tabellen2021
• Hintergrundinformation „Bericht aus dem Europäischen Schnellwarnsystem für Lebensmittel und Futtermittel 2021“:
https://www.bvl.bund.de/RASFF_Jahresbericht_2021

Anhang
ANHANG ZUR PRESSEMITTEILUNG

(nach oben)


Ölkonzern Exxon kannte Klimawirkung ganz genau: neue Studie in ‚Science‘

Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Klimaszenarien des Ölkonzerns ExxonMobil haben bereits sehr früh die globale Erwärmung als Folge des Verfeuerns fossiler Brennstoffe genau vorhergesagt. Während bekannt ist, dass das Unternehmen die Risiken der globalen Erwärmung herunterspielte, wurden in der neuen Studie zum ersten Mal die internen Prognosen des Unternehmens zwischen 1977 und 2003 systematisch und quantitativ ausgewertet. Die jetzt im hochrangigen Fachjournal ‚Science‘ veröffentliche Analyse von Wissenschaftlerinnen und Wissenschaftlern der US-Universität Harvard und des Potsdam-Instituts für Klimafolgenforschung (PIK) ist verblüffend.

„Was ExxonMobil erstaunlich genau wusste, und was ExxonMobil dann bekanntlich leider tat, steht in scharfem Kontrast“, erklärt Stefan Rahmstorf vom PIK, Ko-Autor der Studie. „Eine Exxon-Projektion sagte sogar schon 1977 korrekt voraus, dass die Nutzung fossiler Brennstoffe ein ‚kohlendioxidinduziertes Superinterglazial‘ verursachen würde. Das ist eine Warmzeit, die nicht nur viel wärmer ist als alles in der Geschichte der menschlichen Zivilisation, sondern sogar wärmer als die letzte Warmzeit vor 125.000 Jahren. Durch den unaufhörlichen Ausstoß von Treibhausgasen sind wir heute schon weit auf dem Weg dorthin.“

In der ersten systematischen Bewertung der Klimaprognosen der fossilen Brennstoffindustrie überhaupt haben die Forschenden die Erkenntnisse der Klimawissenschaft, die Exxon schon vor Jahrzehnten hatte, mit Zahlen belegt: dass die Verbrennung fossiler Brennstoffe zu einer globalen Erwärmung von 0,20 ± 0,04 Grad Celsius pro Jahrzehnt führen würde. Die Ergebnisse haben sie in einem Diagramm zusammengefasst, das alle von Wissenschaftlern von Exxon und der ExxonMobil Corp. zwischen 1977 und 2003 erstellten Prognosen zur globalen Erwärmung zeigt, beruhend auf statistischen Analysen von bislang unveröffentlichten Daten aus den unternehmenseigenen Dokumenten.

Bekannt war bereits, dass Exxon seit den 1970er Jahren von der Bedrohung durch die globale Erwärmung wusste. Die jetzt veröffentlichte Studie ist nun die erste quantitative Überprüfung der frühen Klimawissenschaft des Unternehmens. Vorherige Untersuchungen konzentrierten sich auf die widersprüchliche interne und externe Rhetorik von Exxon zum Klimawandel. Die neue Analyse untersucht die im Unternehmen vorliegenden Daten.

„Wir stellen fest, dass die meisten ihrer Projektionen eine Erwärmung vorhersagen, die mit späteren Beobachtungen übereinstimmt“, heißt es in dem Bericht. „Ihre Vorhersagen stimmten auch mit denen unabhängiger akademischer und staatlicher Modelle überein und waren mindestens so gut wie diese.“

Unter Verwendung etablierter statistischer Verfahren kommt die Studie zu dem Ergebnis, dass 63-83 % der von den ExxonMobil-Wissenschaftlerinnen und Wissenschaftlern gemeldeten globalen Erwärmungsprognosen mit den später beobachteten Temperaturen übereinstimmten. Darüber hinaus wiesen die von den ExxonMobil-Wissenschaftlerinnen und Wissenschaftlern modellierten Projektionen einen durchschnittlichen „Skill Score“ (Maß der Vorhersagegüte) von 72 ± 6 % auf, wobei der höchste Wert bei 99 % lag. Das ist sogar deutlich besser als die Vorhersagen des bekannten NASA-Wissenschaftlers James Hansen zur globalen Erwärmung, die 1988 dem US-Kongress vorgelegt wurden.

„Öffentliche Erklärungen des Unternehmens […] widersprachen seinen eigenen wissenschaftlichen Daten“
Die Studie kommt zu dem Schluss, dass die internen Analysen von „Exxon und ExxonMobil Corp. […] genau vorausgesagt haben, wann die vom Menschen verursachte globale Erwärmung zum ersten Mal in den Messdaten festgestellt werden würde, und sogar das ‚Kohlenstoffbudget‘ für eine Begrenzung der Erwärmung auf unter 2°C realistisch abgeschätzt haben. In jedem dieser Punkte widersprachen die öffentlichen Erklärungen des Unternehmens zur Klimawissenschaft jedoch seinen eigenen wissenschaftlichen Daten.“

Die Studie verleiht den laufenden juristischen und politischen Ermittlungen gegen ExxonMobil zusätzliches Gewicht.
„Diese Ergebnisse bestätigen und präzisieren die Aussagen von Wissenschaftlern, Journalistinnen, Anwälten, Politikerinnen und anderen, dass ExxonMobil die Bedrohung durch die vom Menschen verursachte globale Erwärmung sowohl vor als auch parallel zur Orchestrierung von Lobby- und Propagandakampagnen zur Verzögerung von Klimaschutzmaßnahmen genau vorhergesehen hat, und widerlegen die Behauptungen der ExxonMobil Corp. und ihrer Verteidiger, dass diese Aussagen falsch seien“, schreiben die Autorinnen und Autoren in der Studie.

„Dies ist der Sargnagel für die Behauptungen von ExxonMobil, dass das Unternehmen zu Unrecht der bewussten Klimavergehen beschuldigt wurde“, kommentiert der Hauptautor von der Harvard University, Geoffrey Supran (seit Anfang 2023 ist er an Professor an der Rosenstiel School of Marine, Atmospheric and Earth Science der University of Miami). „Unsere Analyse zeigt, dass ExxonMobils eigene Daten im Widerspruch zu ihren öffentlichen Erklärungen stehen, in denen Unsicherheiten übertrieben, Klimamodelle kritisiert, der Mythos globaler Abkühlung verbreitet und Unwissenheit darüber vorgetäuscht wurde, wann – oder ob – die vom Menschen verursachte globale Erwärmung messbar sein würde, während man zum Risiko gestrandeter fossiler Investitionen schwieg.“

Originalpublikation:
Supran, G., Oreskes, N., Rahmstorf, S. (2023): Assessing ExxonMobil’s global warming projections. Science [DOI:10.1126/science.abk0063]

Weitere Informationen:
https://doi.org/10.1126/science.abk0063

(nach oben)


Menschenwürde schlägt Heimatliebe

Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Eine Umfrage unter Augsburger Lehramtsstudierenden zeigt: Die Bildungsziele und die Beziehung zur Werteentwicklung künftiger Lehrpersonen haben sich geändert. Der Lehrstuhl für Schulpädagogik bietet hier anknüpfend seit diesem Wintersemester das neue Zertifikat „Wertebildung“ an.

„Liebe zur Heimat“, „Ehrfurcht vor Gott“ und „Selbstbeherrschung“: Sind das aus heutiger Sicht noch zentrale Werte, die Lehrpersonen ihren Schülern vermitteln sollten? Oder sind „Achtung vor der Würde des Menschen“, „Verantwortungsbewusstsein für Natur und Umwelt“ und Erziehung im „Geiste der Demokratie“ inzwischen nicht dringendere und zeitgemäßere Bildungs- und Erziehungsziele? Um herauszufinden, wie angehende Lehrpersonen zu diesen Fragen stehen, führte der Lehrstuhl für Schulpädagogik im letzten Sommersemester eine Umfrage unter Augsburger Lehramtsstudierenden durch. Das Ergebnis der Umfrage zeigt deutlich, dass sich die Bildungsziele künftiger Lehrpersonen verändert haben und heute andere Werte bedeutsam sind als früher. Darüber hinaus zeigt die Umfrage, dass die Augsburger Lehramtsstudierenden ein hohes Bewusstsein für die globalen und gesellschaftspolitischen Herausforderungen unserer Zeit haben. Wertebildung als Teil des Lehramtsstudiums sollte dementsprechend einen höheren Stellenwert einnehmen. Daher hat der Lehrstuhl für Schulpädagogik unter der Leitung von Prof. Dr. Klaus Zierer das Zertifikat „Wertebildung“ entwickelt. Interessierte Studierende können dieses freiwillig innerhalb von zwei Semestern durch die Absolvierung dreier Module erwerben.

Umfrage unter Lehramtsstudierenden
Im Sommersemester wurden 586 Lehramtsstudierende der Universität Augsburg zu ihren zentralen Bildungs- und Erziehungszielen befragt. Grundlage der Umfrage des Lehrstuhls für Schulpädagogik (Prof. Dr. Klaus Zierer) bildeten die in Artikel 131 der Bayerischen Verfassung zusammengefassten obersten staatlichen Bildungs- und Erziehungsziele. Neben den zentralen in der Bayerischen Verfassung verankerten Werten wurden noch drei weitere Bereiche untersucht. Diese waren „epochaltypische Schlüsselprobleme“, die „17 SDGs (Sustainable Development Goals) der Vereinten Nationen“ und „Werte allgemein“.

Die Auswertung der Umfrage ergab, dass „Achtung vor der Würde des Menschen“, „Verantwortungsbewusstsein für Natur und Umwelt“ und eine Erziehung im „Geiste der Demokratie“ für Lehramtsstudierende die drei wichtigsten Bildungs- und Erziehungsziele sind. Demgegenüber wurde auch deutlich, welche pädagogischen Ideale die Befragten als am wenigsten drängend empfinden, nämlich: „Liebe zur bayerischen Heimat“, „Ehrfurcht vor Gott“ und „Selbstbeherrschung“. Prof. Klaus Zierer bewertet die Ergebnisse der Umfrage wie folgt: „Man merkt, dass die Bayerische Verfassung vor gut 75 Jahren in Kraft getreten ist. Patriotische Grundhaltung, religiöser Glaube und Zurückstellung eigener Bedürfnisse zugunsten der Gemeinschaft sind für die nächste Generation von Lehrpersonen keine vorrangigen Erziehungsziele mehr.“ Um so wichtiger sei Wertebildung als Studieninhalt und als gesamtgesellschaftliches Thema, betont der Augsburger Schulpädagoge.

Das Zertifikat „Wertebildung“
Um die Beschäftigung mit dem Thema Wertevermittlung weiter voranzutreiben, bietet der Lehrstuhl für Schulpädagogik nun seit diesem Wintersemester das neue Zertifikat „Wertebildung“ an. Es kann durch Absolvierung verschiedener Module innerhalb von zwei Semestern erworben werden. Bei dem Zertifikat handelt es sich um ein freiwilliges Zusatzangebot für Lehramtsstudierende. Grundlegende Ziele des Zertifikats sind die Entwicklung eines Bewusstseins für Wertebildung und -erziehung, das Kennenlernen wichtiger Grundbegriffe und Konzepte sowie die Auseinandersetzung mit exemplarischen Handlungsfeldern. Das grundlegende Modul 1 ist eine interdisziplinäre Ringvorlesung zum Thema „Perspektiven einer zukunftsweisenden Wertebildung – Aktuelle Fragen und Probleme der Schulpädagogik“ mit verschiedenen Dozierenden und externen Kooperationspartnern. Im Modul 2 können sich die Studierenden für einen der drei Schwerpunkte „Umweltbildung und Nachhaltigkeit“, „Medienbildung und Digitalisierung“ oder „Demokratiebildung und Soziales Lernen“ entscheiden. Alternativ können Studierende auch keinen Schwerpunkt wählen, sondern aus diesen drei Bereichen frei wählen. Im Modul 3 werden die erworbenen Kompetenzen in einer Projektarbeit vertieft.

Wertebildung und gesellschaftliche Verantwortung
Professor Klaus Zierer betont: „Unsere Studierenden zeichnen sich durch hohe Sensibilität für globale und gesellschaftspolitische Herausforderungen aus. So überrascht es nicht, dass Umweltschutz, Friedenssicherung und Bildungsgerechtigkeit für die jungen Menschen die bedeutendsten epochaltypischen Herausforderungen unserer Zeit sind.“ Hinzu kämen Frieden und Gerechtigkeit sowie die Bekämpfung von Armut und Hunger als die drei priorisierten SDGs (Sustainable Development Goals). Da es bei der Wertebildung im Kern um Haltungsbildung gehe, bilde der Sokratische Eid als Berufseid für Lehrpersonen auch für das neue Zertifikat „Wertebildung“ die moralische Grundlage. Der Sokratische Eid sei als Selbstverpflichtung gedacht und rücke die Verantwortung jedes Einzelnen ins Zentrum. Denn auch Sokrates hielt sogar im Angesicht des eigenen Todes an seiner Haltung fest und opferte diese selbst für das Leben nicht. Zierer folgert abschließend aus der Umfrage, dass „unsere Lehramtsstudierenden ein starkes Wertebewusstsein haben. Genau das wollen wir noch intensiver im Studium aufgreifen und es soll sich so noch weiterentwickeln können.“ Mit dem Zertifikat „Wertebildung“ ist ein wichtiger Schritt in diese Richtung gelungen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaus Zierer
Universität Augsburg
Ordinarius für Schulpädagogik
Telefon: +49 821 598-5575
E-Mail: klaus.zierer@phil.uni-augsburg.de

Weitere Informationen:
https://www.uni-augsburg.de/de/fakultaet/philsoz/fakultat/schulpadagogik/zertifi…

(nach oben)


Wie verändert die Digitalisierung unsere Gesellschaft?

Linda Schädler Abteilung Kommunikation
Universität Mannheim
Ergebnisse des landesweiten Forschungsprojekts „Gesellschaft im digitalen Wandel“ werden auf einer Webseite präsentiert

Die Digitalisierung ist ein Teil unseres Lebens geworden. Wie aber verändert sie unser Leben und unsere Gesellschaft? Das ist die Ausgangsfrage, die über dem 2019 ins Leben gerufenen Forschungsverbund „Gesellschaft im digitalen Wandel – Digitalisierung im Dialog“ (digilog@bw) stand. Drei Jahre lang haben Wissenschaftlerinnen und Wissenschaftler von acht universitären und außeruniversitären Einrichtungen aus ganz Baden-Württemberg in 20 Teilprojekten aus unterschiedlichen Disziplinen dazu geforscht, welche Auswirkungen die Digitalisierung auf jede einzelne Person und die Gesellschaft hat. Das von der Universität Mannheim koordinierte Projekt ist vorerst abgeschlossen. An einer Fortsetzung der Kooperation wird gearbeitet. In einem Blog, der schon über die ganze Projektlaufzeit begleitend geführt wurde, stellen die beteiligten Wissenschaftlerinnen und Wissenschaftler ihre Forschungsergebnisse vor. Zudem wurde ein Video der Abschlussveranstaltung, bei der eine Auswahl der Forschungsergebnisse vorgestellt wurde, auf YouTube veröffentlicht.

Prof. Dr. Sabine Sonnentag und Julia Iser vom Lehrstuhl Arbeits- und Organisationspsychologie der Universität Mannheim haben sich damit beschäftigt, wie Berufstätige arbeitsbezogene digitale Technologien in anderen Lebensbereichen (z.B. im Privaten) nutzen, wie sie die Grenzen zwischen den unterschiedlichen Lebensbereichen gestalten und wie sie dabei Gebrauch von den vorhandenen Handlungsmöglichkeiten machen. Als Ergebnis haben sie einen Wikipedia-Artikel zur Boundary Management Theorie veröffentlicht. Die Theorie beschäftigt sich mit den Grenzen zwischen verschiedenen Rollen, die eine Person innehaben kann (z.B. Rolle als angestellte Person, Rolle als Elternteil, Rolle als Vereinsmitglied etc.). In der Arbeits- und Organisationspsychologie wird sie in der Forschung zu Konflikten zwischen Arbeit und Privatleben verwendet.

Google, Instagram, TikTok und Co nehmen mittlerweile aufgrund ihrer Reichweite eine Vorrangstellung bei der Informationsverbreitung ein. Die Informationen, die den Nutzerinnen und Nutzern angezeigt werden, werden von Algorithmen gesteuert. Prof. Dr. Ralf Müller-Terpitz, Inhaber des Lehrstuhls für Öffentliches Recht, Recht der Wirtschaftsregulierung und Medien an der Universität Mannheim hat untersucht, welche rechtlichen Vorgaben an eine transparente Gestaltung solcher algorithmischer Entscheidungsprozesse gestellt werden können oder sollten. Seine Ergebnisse hat er in Form des Artikels „Algorithmen-Transparenz von Medienintermediären“ in der Zeitschrift UFITA – Archiv für Medienrecht und Medienwissenschaft veröffentlicht.

Sarah Lutz und Frank M. Schneider vom Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim haben untersucht, welche Auswirkungen – positive wie negative – die Nutzung digitaler Geräte auf die mentale Gesundheit hat. Ihre Ergebnisse haben sie als Blogbeitrag veröffentlicht, in dem sie auch praktische Ratschläge geben, wie eine Mediennutzung, die sich positiv auf das psychische Wohlbefinden auswirkt, gelingen kann.

Weitere Ergebnisse des Forschungsprojekts werden fortlaufend unter #outputdigilog auf dem Blog des Verbunds veröffentlicht: https://digilog-bw.de/blog

Die Aufzeichnung der Abschlussveranstaltung ist auf Youtube zu finden: https://www.youtube.com/watch?v=9RCDRN7Enfg&list=PLfBve91jdJ85auQSjBF4KjBeCQ…

Kontakt:
Katja Bauer
Stellv. Pressesprecherin
Universität Mannheim
Tel. 0621 181-3597
E-Mail: katja.bauer@uni-mannheim.de

(nach oben)


Methanemissionen aus Stauseen reduzieren. TH Köln optimiert Prototyp zur Methangasernte

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
In Stauseen lagern sich nicht nur vermehrt Sedimentschichten aus Materialien wie Kies oder Sand, sondern auch aus organischen Bestandteilen wie Blättern an. Durch den Abbau dieser organischen Stoffe entstehen teils erhebliche Mengen des Treibhausgases Methan. Damit dieses nicht in die Atmosphäre entweicht und dem Klima schadet, haben die TH Köln, die Universität Koblenz-Landau und die D-Sediment GmbH in zwei Projekten einen Prototyp zur Methangasernte weiterentwickelt. Mit Hilfe des optimierten Verfahrens lässt sich nun mehr als doppelt so viel Methan aus Stauseen entnehmen wie bisher und gleichzeitig die Stauraumverlandung beheben.

„Stauseen sind nicht nur für die Trink- und Brauchwasserversorgung relevant, sondern dienen auch dem Hochwasserschutz sowie der Energieerzeugung und stellen wichtige Lebensräume dar“, sagt Prof. Dr. Christian Jokiel vom Labor für Wasser und Umwelt der TH Köln. „Das Absperren von Fließgewässern unterbindet jedoch den natürlichen Transport des Sediments und es kommt zur sogenannten Stauraumverlandung: Sedimente lagern sich vor Absperrbauwerken ab. Dadurch verringert sich nicht nur das Stauvolumen, durch den Abbau von organischem Material im sich anhäufenden Sediment entsteht zudem das Treibhausgas Methan, das bis zu 80-mal so klimaschädlich ist wie Kohlenstoffdioxid.“

Um die Verlandung und die Methanemissionen zu reduzieren, hat das Projektteam die Wupper-Vorsperre nördlich von Hückeswagen untersucht und dort einen Prototyp zur Gasernte getestet. „Die Vorsperre mit ihrem Volumen von 307.000 Kubikmetern gibt jährlich so viele klimaschädliche Treibhausgase ab wie ein Pkw auf anderthalb Millionen Fahrkilometern“, erklärt Mara Offermann, wissenschaftliche Mitarbeiterin am Labor für Wasser und Umwelt der TH Köln. Zudem habe die Analyse ergeben, dass bei höheren Temperaturen deutlich mehr Methan freigesetzt werde. Mit Blick auf steigende Temperaturen durch den Klimawandel sei daher in Zukunft mit vermehrten Methangasemissionen aus Stauräumen zu rechnen.

Neuer Saugkopf und 3D-gedrucktes Schwimmerventil
Bei der Entwicklung des Prototyps konnte das Team auf Ergebnisse aus dem Vorgängerprojekt MELIST zurückgreifen. Dabei ist ein Hochdrucksauger entstanden, der an einer schwimmenden Plattform installiert ist – der sogenannte Saugkopf. Dieser löst die Sedimente, wodurch Methangas freigesetzt, aufgefangen und abgesaugt wird. Das Wasser-Sediment-Gas-Gemisch wird auf der Plattform getrennt und das Gas durch eine Vakuumpumpe abgesaugt. Anschließend kann das Sediment dem Fließgewässer unterhalb des Staudamms wieder zugeführt werden.

„Diesen Ansatz, der schon in MELIST zu guten Ergebnissen geführt hat, konnten wir nun weiter verbessern“, so Offermann. „Dazu haben wir das bereits bestehende System um einen neuen Saugkopf, der die Sedimentverlagerung erleichtert und das Gas effektiver aufnimmt, sowie ein 3D-gedrucktes Schwimmerventil ergänzt. Das Ventil ermöglicht in Kombination mit einem Überlauf, dass sich das System selbst reguliert, wodurch der Strombedarf reduziert wird.“ Darüber hinaus seien weitere Bestandteile wie Pumpen und die Steuerung optimiert worden.

Methanernte pro Betriebsstunde mehr als verdoppelt
Durch die Umbauten sei der Prototyp jetzt deutlich effizienter, sagt Offermann: „Wir haben insgesamt drei Modellmaßnahmen an der Wupper-Vorsperre durchgeführt, in denen wir den Prototyp jeweils zwei bis drei Wochen getestet haben. Im Rahmen dieser Untersuchungen konnten wir durch unsere Verbesserungen am Prototyp die Gasernte pro Betriebsstunde von 41 Litern auf ein Gasvolumen von 96 Liter pro Stunde steigern.“
In zwei weiteren aktuell laufenden Forschungsprojekten arbeitet das Team des Labors für Umwelt und Wasser der TH Köln derzeit an Lösungen zur Gasspeicherung und -verwertung sowie der Automatisierung der Plattform. Damit soll zum einen Methan als Ressource zur Stromversorgung zugänglich und zum anderen der Prototyp selbst energiesparender und damit effektiver gemacht werden.

Über die Projekte
Die Projekte „Analyse des Emissionsminderungspotenzials des modifizierten ,RemoGas‘-Verfahrens zur Methanernte während der Sedimentremobilisierung in wasserwirtschaftlichen Stauräumen“ und „Entwicklung und Erprobung eines Verfahrens zur Methangaselimination aus wasserwirtschaftlichen Stauräumen bei der Umlagerung von Sedimenten“ wurden von Prof. Dr. Christian Jokiel vom Labor für Wasser und Umwelt der TH Köln geleitet. Projektpartner waren das Institut für Umweltwissenschaften der Universität Koblenz-Landau und die D-Sediment GmbH. Die Projekte wurden von der Deutschen Bundesstiftung Umwelt (DBU) mit rund 470.000 Euro gefördert.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 25.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

Bildmaterial zur honorarfreien Verwendung bei Copyright-Angabe stellen wir Ihnen gerne zur Verfügung. Bitte wenden Sie sich dazu an pressestelle@th-koeln.de.

(nach oben)


Zukunftskompetenzen für die Welt von heute

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Am 26. Januar 2023 stellt Bildungsforscher Ulf Daniel Ehlers in einer Online-Veranstaltung der HWR Berlin Modelle und Profile für Hochschulentwicklung und gute, zukunftsfähige Lehre zur Diskussion.

In der Reihe „Gute Lehre zukunftsfähig gestalten“ der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) geht es in einer Online-Veranstaltung am 26. Januar 2023 ab 17 Uhr um die zentrale Frage, welche Kompetenzen heute schon für die Welt von morgen gefragt sind und wie sich Hochschulen und Hochschullehre neu ausrichten müssen. In seinem Vortrag mit anschließender Diskussion thematisiert Bildungsforscher und Professor für Bildungsmanagement und Lebenslanges Lernen an der Dualen Hochschule Baden-Württemberg Prof. Dr. Ulf Daniel Ehlers Future Skills und individuelle Kompetenzstrategien.

Klimawandel, Energiekrise, digitale Transformation – für Mit- und Umgestaltung zur nachhaltigen Bewältigung fundamentaler Herausforderungen braucht es Zukunftskompetenzen für die Welt von heute. Menschen müssen in der Lage sein, in hochkomplexen Handlungsfeldern selbstorganisiert komplexe Probleme lösen zu können, handlungsfähig zu sein. Hochschulbildung muss darauf reagieren, um angesichts globaler Aufgaben, sich immer schneller wandelnder gesellschaftlicher Umbrüche und innovationsgetriebener, agiler Arbeitsfelder bestehen zu können.

Für Ehlers ist das Konzept der Future Skills mehr als eine Renaissance des Kompetenzbegriffes und berührt die Grundfesten des Bildungssystems und des Umgangs mit Arbeit. Das geht über Digitalisierung hinaus. Der Bildungsforscher stellt Modelle und Profile für die Hochschulentwicklung der nächsten 15 Jahre vor und auf den Prüfstand.

Medienvertreter*innen sind herzlich eingeladen, an der Veranstaltung teilzunehmen.

Mehr Informationen und Anmeldung zur Online-Veranstaltung
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/943-fut…
Zur HWR-Veranstaltungsreihe „Gute Lehre zukunftsfähig gestalten“
https://www.hwr-berlin.de/aktuelles/neuigkeiten/neuigkeit-detail/3084-gute-lehre…

Zum eLerner Bog der HWR Berlin
https://blog.hwr-berlin.de/elerner/archiv/

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit rund 12 000 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in rund 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Katja Drasdo
E-Mail: elearning@hwr-berlin.de

(nach oben)


Ungewöhnliche Frosch-Invasion

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Der Johnstones Pfeiffrosch ist eine der erfolgreichsten invasiven Amphibienarten weltweit – trotz geringer genetischer Vielfalt

Senckenberg-Wissenschaftler*innen haben mit einem internationalen Team den invasiven Johnstones Pfeiffrosch genetisch mit einem weiteren eingewanderten und einem heimischen Frosch verglichen. In ihrer nun im Fachjournal „NeoBiota“ erschienenen Studie zeigen die Forschenden, dass die Invasion der winzigen Amphibien nicht, wie bislang angenommen, durch ihre genetische Vielfalt begünstigt wurde. Vielmehr erlauben anthropogene und ökologische Faktoren die Ausbreitung der Frösche – mit Auswirkungen auf das Naturschutzmanagement.

Er ist nur etwa 17 bis 35 Millimeter groß und ein sehr erfolgreicher tierischer Einwanderer, der sich über die gesamte Karibik und weite Teile des Festlandes von Mittel- und Südamerika ausgebreitet hat: der Johnstones Pfeiffrosch (Eleutherodactylus johnstonei). „Der ursprünglich auf den Kleinen Antillen beheimatete Frosch blickt auf eine lange Ausbreitungsgeschichte, die mindestens bis 1880 zurückreicht“, erklärt PD Dr. Raffael Ernst von den Senckenberg Naturhistorischen Sammlungen Dresden. „Heute gilt der Johnstones Pfeiffrosch als eine der am weitesten verbreiteten und erfolgreichsten invasiven Amphibienarten – er wird nur noch übertroffen von der Aga-Kröte Rhinella marina und dem amerikanischen Ochsenfrosch Lithobates catesbeianus. Dies hat nicht nur Auswirkungen auf die heimischen Ökosysteme, sondern auch auf den Immobilienmarkt – die nächtlichen, ohrenbetäubenden Konzerte der winzigen Frösche führen in Teilen Südamerikas bereits zu einem Verfall der Grundstückspreise.“

Die Verbreitung des Frosches ist häufig auf menschliche Einflüsse, wie den Pflanzenhandel, zurückzuführen. So fühlen sich die Tiere auch in einigen Botanischen Gärten Deutschlands, der Schweiz oder der Niederlande wohl – außerhalb der Gewächshäuser sind die kleinen Frösche in Europa aber nicht überlebensfähig. Ein internationales Team um Ernst hat nun untersucht, welche Faktoren – außer den menschlichen Eingriffen – zu der erfolgreichen Invasion der Amphibien führen. Hierzu verglichen sie die genetischen Muster des Johnstones Pfeiffroschs mit seinen ebenfalls gebietsfremden Verwandten Eleutherodactylus antillensis und der auf einer Insel endemischen Art Eleutherodactylus portoricensis.

„Es wird allgemein angenommen, dass genetische Vielfalt eine erfolgreiche Invasion begünstigt – dieser Annahme wollten wir mit soliden Daten auf den Grund gehen“, so Doktorandin Franziska Leonhardt. „Unsere Ergebnisse zeigen – entgegen der gängigen These –, dass unsere beiden eingewanderten Frösche im Vergleich zur heimischen Art genetisch verarmt sind. Selbst in deren Ursprungspopulationen weisen die Tiere eine geringe genetische Vielfalt und Differenzierung zwischen den Populationen auf. Erfolgreiche invasive Arten sind demnach genetisch nicht zwingend vielfältiger als ihre nicht-invasiven Artgenossen.“
Die Forschenden schlussfolgern, dass genetische Vielfalt per se nicht zu einem höheren Invasionserfolg führt. Vielmehr seien ökologische und anthropogene Faktoren von hoher Bedeutung für den Einwanderungsprozess des Johnstones Pfeiffroschs. Hierzu gehören wiederkehrende Einfuhrereignisse, die Etablierung von Populationen in spezifischen, den heimischen Lebensräumen ähnelnden Mikrohabitaten, wie den europäischen Gewächshäusern, sowie Menschen, die zur Verbreitung des Fröschchens beitragen.

„Zusammengenommen scheinen diese Aspekte einen größeren Einfluss auf das Ausbreitungspotenzial der Frösche zu haben als deren genetische Vielfalt“, resümiert Ernst und gibt einen Ausblick: „Um erfolgreiche Managementmaßnahmen für die invasiven Frösche ergreifen zu können und die heimische Tierwelt effektiv zu schützen, müssen diese Faktoren zukünftig berücksichtigt werden.“

Wissenschaftliche Ansprechpartner:
PD Dr. Raffael Ernst
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351 7958 414315
raffael.ernst@senckenberg.de

Originalpublikation:
Leonhardt F, Arranz Aveces C, Müller A, Angin B, Jegu M, Haynes P, Ernst R (2022) Low genetic diversity in a widespread whistling alien: A comparison of Eleutherodactylus johnstonei Barbour, 1914 (Eleutherodactylidae) and congeners in native and introduced ranges. NeoBiota https://doi.org/10.3897/neobiota.79.86778

Weitere Informationen:
http://Einen kurzen Videoclip zu Johnstones Pfeiffrosch finden Sie auf dieser Seite unter „Karibische Invasoren“: https://sgn.one/h3p

(nach oben)


Wie COVID-19 das Herz dauerhaft schädigt

Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
MHH-Forschungsteam zeigt erstmals auf, wie die Entzündung bei COVID 19 die kleinsten Gefäße im Herzen verändert

Schwere Krankheitsverläufe einer COVID-19-Infektion beeinträchtigen nicht nur die Lungenfunktion, sondern können auch lebensbedrohliche Folgen für das Herz hervorrufen. Das Spektrum reicht von einer akuten Herzmuskelentzündung (Myokarditis) bis zu einer chronischen Einschränkung der Pumpfunktion des Herzens. Die grundlegenden Schädigungsmuster konnten bis zum heutigen Tag nicht gänzlich nachgewiesen werden. Ein interdisziplinäres Forschungsteam um Professor Dr. Danny Jonigk, Christopher Werlein und Privatdozent (PD) Dr. Mark Kühnel vom Institut für Pathologie der Medizinischen Hochschule Hannover (MHH) hat jetzt mit Hilfe innovativer molekularer Verfahren und eines hochauflösenden Mikroskopieverfahrens gezeigt, wie die andauernde Entzündung bei COVID-19 das Herzgewebe angreift und langfristig die kleinsten Herzkranzgefäße umbaut, indem spezielle Vorläuferzellen des Immunsystems aus dem Blut in das Herz gelotst werden. Die Studie wurde im renommierten Fachjournal Angiogenesis publiziert.

Fehlaktivierte Entzündungszellen
Etwa jeder Dritte klagt nach einer schweren COVID-19-Erkrankung über Beschwerden und Funktionseinschränkungen des Herzens. Um die Mechanismen dieser langanhaltenden Herzmuskelschädigung aufzuklären, haben die Forschenden Herzgewebe von Patientinnen und Patienten mit schweren COVID-19-Verläufen untersucht und diese mit Gewebeproben nach schweren Grippe-Infektionen durch das Influenzavirus sowie nach schweren, durch andere Viren verursachte Herzmuskelentzündungen verglichen. Obwohl bei der COVID 19 Herzschädigung – anders als bei den Vergleichsproben – äußerlich keine klassische Entzündung des Herzgewebes festzustellen war, fand das Forschungsteam jedoch eine große Ansammlung von fehlaktivierten Entzündungszellen: sogenannte Makrophagen und ihre Vorläuferzellen, die Monozyten. „Diese Monozyten haben eine herausragende Bedeutung als Vorläuferzellen der Blutgefäßneubildung und können in kürzester Zeit das Blutgefäßsystem umbauen“, erklärt Christopher Werlein, Erstautor der Studie.

COVID-19 greift alle Gefäße im Körper an
Ausgelöst durch die Infektion mit dem Coronavirus SARS-CoV-2 sammeln sich in den nur wenige Millimeter dicken Herzgefäßen kleinste Verstopfungen an. „Diese Ultrathromben verändern den Blutstrom erheblich und damit auch die Sauerstoffversorgung“, betont PD Dr. Kühnel. Das ruft die Monozyten auf den Plan, die sich an die inneren Gefäßwände heften und dort neue Verzweigungen ausbilden. Diesen Gefäßumbau – in der Fachsprache intussuszeptive Angiogenese genannt – hat das Team bereits zuvor in anderen Organen von COVID 19 Betroffenen als charakteristisches Schädigungsmuster beschrieben. Was möglicherweise als kurzfristige Rettungsreaktion des Körpers gedacht ist, um den verminderten Blutfluss und die Unterversorgung mit Sauerstoff auszugleichen, könnte zur chronischen Schädigung des Herzens und zu Long Covid führen, vermuten die Forschenden. „Auf jeden Fall bestätigen die neuesten Untersuchungen unsere frühere Annahme, dass SARS-CoV-2 systemisch alle Gefäße im Körper angreift und diese langfristig umbaut“, betont Professor Jonigk.

Die Arbeit ist in Kooperation mit dem Deutschen Zentrum für Lungenforschung (DZL) am Standort Hannover BREATH, der Universitätsklinik Aachen, der Universitätsmedizin Mainz und der Georg-August-Universität Göttingen entstanden.

SERVICE:
Die Originalarbeit „Inflammation and vascular remodeling in COVID-19 hearts” finden Sie unter: https://link.springer.com/article/10.1007/s10456-022-09860-7

Weitere Informationen erhalten Sie bei PD Dr. Mark Kühnel, kuehnel.mark@mh-hannover.de, Telefon (0511) 532-4492.

(nach oben)


Digitaler, keine Noten, weniger Frontalunterricht: Wie könnte Schule in Zukunft aussehen?

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Veraltete Unterrichtskonzepte, schleppende Digitalisierung, zu wenig individuelle Förderung: Die Kritik am Schulsystem in Deutschland ist groß. Wie es besser gehen könnte, daran forschen Wissenschaftler:innen an der TU Dresden. Die Universitätsschule entwickelt neue Lernformen, am Exzellenzcluster CeTI untersucht man den Einsatz digitaler Lernmittel und die Psychologie des Lehrens und Lernens geht der Frage nach, wie Schüler:innen stärker motiviert werden können.

Auch die Ausbildung der angehenden Lehrer:innen steht auf dem Prüfstand. „Wir stehen vor der Herausforderung, Lehrkräfte auszubilden, die ihre Schüler:innen auf das nächste Jahrhundert vorbereiten“, weiß Professor Rolf Koerber vom Institut für Berufspädagogik und Berufliche Didaktiken. Lehrerkräfte von heute werden Schüler:innen unterrichten, die noch weit über das Jahr 2100 hinaus leben werden. Ziel des Lehramtsstudium sei es deshalb, die Studierenden dafür zu sensibilisieren, sich und ihre Methoden regelmäßig selbst zu reflektieren und immer weiterentwickeln zu wollen. Projektarbeit, gut und professionell gemacht, aber auch das Classroom Management sind Aspekte der Didaktik, die heute einen viel höheren Stellenwert im Lehramtsstudium genießen als früher.

An der Universitätsschule Dresden gehört das längt zum Alltag. Der gemeinsame Schulversuch der Landeshauptstadt Dresden und der TU Dresden wurde als öffentliche Schule in kommunaler Trägerschaft im Schuljahr 2019/20 gestartet. Aktuell ist eine Gemeinschaftsschule vom ersten bis zum zwölften Jahrgang im Aufbau. Professorin Anke Langner hat das Forschungsprojekt Universitätsschule maßgeblich konzipiert und kann erklären, worin sie sich von anderen Schulen unterscheidet. „Der Unterricht erfolgt projektbezogen. Das heißt, die Kinder gehen einer Forschungsfrage nach und lernen in diesem Prozess, sich zu strukturieren und Methoden der Wissensaneignung zu verinnerlichen“, erklärt die Bildungswissenschaftlerin. Während Schüler:innen sich mit dem Thema weitgehend selbstständig, aber unterstützt durch Lernbegleiter:innen beschäftigen, eignen sie sich Fachwissen an.

Daneben unterscheidet sich die Universitätsschule in weiteren Aspekten von anderen Schulen. So haben die Schüler:innen hier keine Ferien zu festen Zeiten, sondern können flexibel Urlaub nehmen. Es gibt über den gesamten Tag Lernangebote, um den Lernprozess zu entschleunigen. Auch auf eine Benotung wird verzichtet. „Was aber nicht bedeutet, dass es kein Feedback gibt“, fügt Anke Langner hinzu. Auch an der Universitätsschule wird genau beobachtet, auf welchem Stand sich ein Schüler oder eine Schülerin gerade befindet. „Wenn zu wenig transparent gemacht wird, wie die Noten zustande kommen, kann das dem Lerneffekt schaden“, weiß auch Professorin Susanne Narciss. Die Psychologin plädiert daher für klare Leistungskriterien und Feedback, aus dem die Schüler:innen Rückschlüsse ziehen können, wie sie sich verbessern können.

Einen großen Stellenwert legt die Universitätsschule auf digitale Wissensvermittlung. Das Digitale wird neben Schreiben, Rechnen und Lesen als vierte Kulturtechnik in den Lernprozess eingebunden. Wie das funktionieren kann, weiß Katharina Porepp vom Exzellenzcluster CeTI. Ihrer Meinung nach hängt Schule in Deutschland hinsichtlich der Digitalisierung gut 20 Jahre hinterher. Sie ist sich dennoch sicher, dass im Klassenraum der Zukunft verstärkt digitale Medien zum Einsatz kommen. Mithilfe von Tablets mit Eingabestiften oder VR-Brillen lasse sich Unterricht viel interaktiver gestalten. „Man behält nur 10 Prozent von dem, was man liest, aber 90 Prozent von dem, was man tatsächlich erlebt“, erklärt Katharina Porepp. Mithilfe von VR-Brillen werden immersive Lernerlebnisse erzeugt. Die Größenverhältnisse im Universum, mathematische Ebenenberechnungen oder andere abstrakte Unterrichtsinhalte werden so anschaulicher und damit verständlicher.

„Der zentrale Motor für Lernen aber ist“, macht die Psychologin Susanne Narciss deutlich, „dass wir feststellen, dass wir etwas dazulernen.“ Wenn Lehrkräfte Fehler als Lerngelegenheiten und nicht als Misserfolge vermitteln, kann dies zur Steigerung der Lernbereitschaft bei Schüler:innen beitragen. Während „One-size-fits-all“-Strategien und klassischer Frontalunterricht die Motivation zum Lernen zerstören können, führen neue didaktische Ansätze, innovative Unterrichtskonzepte sowie mehr digitale Lernunterstützung zu einer Steigerung des Lernanreizes.

Kontakt:
Pressestelle der TU Dresden
pressestelle@tu-dresden.de

Wissenschaftliche Ansprechpartner:
Prof. Rolf Koerber
Institut für Berufspädagogik und Berufliche Didaktiken
Tel: +49 351 463-42333
E-Mail: rolf.koerber@tu-dresden.de

Prof. Anke Langner
Projektleiterin Universitätsschule Dresden
Tel: +49 351 463-32235
E-Mail: anke.langner@tu-dresden.de

Prof. Susanne Narciss
Professur für Psychologie des Lehrens und Lernens
Tel.+49 351 463-36059
E-Mail: Susanne.Narciss@tu-dresden.de

Katharina Porepp
Exzellenzcluster CeTI
E-Mail: katharina.porepp@tu-dresden.de

Weitere Informationen:
Video zur Schule der Zukunft

(nach oben)


Welche Mechanismen wirken bei einer Paracetamol-Vergiftung der Leber?

Anne Gregory Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Vergiftungen mit Paracetamol (APAP) sind die zweithäufigste Ursache für Lebertransplantationen weltweit. Doch noch sind nicht alle Zusammenhänge bekannt, die zu einer Leberschädigung durch APAP führen. Mit Hilfe funktioneller Bildgebung untersucht das Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) daher in einem neuen Forschungsprojekt zum einen, wie eine vorübergehende Gallenstauung nach einer APAP-Vergiftung zur Leberschädigung beiträgt. Zum anderen wird erforscht, ob diese Leberschädigung durch Medikamente reduziert werden kann. Gefördert wird das Projekt von der Deutschen Forschungsgemeinschaft (DFG) und hat eine Laufzeit von drei Jahren.

Die IfADo-Forschende haben in früheren Forschungsarbeiten bereits ein bisher unbekanntes Phänomen im Zusammenhang mit einer Leberschädigung durch APAP identifiziert: Nach der Verabreichung einer für die Leber giftigen Dosis APAP an Mäuse kommt es nach zwei bis sechs Stunden zu einem vorübergehenden Stillstand des Gallenfluss mit erhöhter Konzentration an Gallensäure im Blut und Lebergewebe. Diese starke Zunahme der Gallensäurekonzentration in den Leberzellen führt zu deren Zelltod. Eine wichtige Beobachtung dabei war, dass mittels der Substanz Myrcludex B, das die Aufnahme von Gallensäure in Leberzellen hemmt, sowohl die Anreicherung von Gallensäure als auch die durch APAP verursachte Leberschädigung stark reduziert wurde.

Basierend auf diesen Vorarbeiten wird jetzt erforscht, welche Mechanismen der vorübergehenden Gallenstauung nach einer APAP-Vergiftung genau zur Leberschädigung beitragen. Dabei soll vor allem untersucht werden, an welcher Stelle des Gallefluss APAP eine Stauung verursacht. Außerdem wird die therapeutisch sinnvolle Wirkung von Medikamenten beobachtet. Die Forschenden gehen den Fragen nach, ob mit Hilfe von Medikamenten die Leberschädigung in Folge einer APAP-Vergiftung reduziert werden kann und wenn ja, zu welchem Zeitpunkt nach Vergiftung eine Verabreichung sinnvoll ist. Abschließend wird geprüft, ob sich die in Mäusen beobachteten Mechanismen auch auf den Menschen übertragen lassen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Jan G. Hengstler
Leiter des Forschungsbereichs Toxikologie
Telefon: +49 231 1084-348
E-Mail: hengstler@ifado.de

Dr. Ahmed Ghallab
Gruppenleiter IntravitalTox
Telefon: +49 231 1084-356
E-Mail: ghallab@ifado.de

(nach oben)


Multiresistente Bakterien vermehrt in Abwässern aus Kliniken nachgewiesen

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Umfangreiche Studie zum Vorkommen von Acinetobacter in der Umwelt – Multiresistente Stämme überleben auch ohne Sauerstoff

Gegen Antibiotika resistente Bakterien, oftmals landläufig auch als Krankenhauskeime bezeichnet, werden offenbar tatsächlich vor allem durch Kliniken in die Abwassersysteme eingeleitet, wie eine Studie des Instituts für Angewandte Mikrobiologie der Justus-Liebig-Universität Gießen (JLU) zum Vorkommen von Acinetobacter-Bakterien nahelegt. Die Forscherinnen und Forscher wiesen Vertreter der Bakteriengattung zwar sowohl in landwirtschaftlichen, ländlichen und städtischen Proben nach – aber nur im Abwasser der städtischen Kläranlagen, die auch Krankenhausabwässer reinigen, konnten sie multiresistente Acinetobacter-Stämme nachweisen. Damit stellte das Team erstmals und systematisch deutliche Unterschiede zur Verbreitung von multiresistenten Acinetobacter-Bakterien in der Umwelt fest.

Die Zunahme von Antibiotikaresistenzen ist ein weltweites und immer drängenderes Problem. Mit dem „One Health“-Ansatz – also dem Zusammenwirken von Human- und Veterinärmedizin sowie den Umweltwissenschaften – soll die Resistenzausbreitung eingedämmt werden. Acinetobacter-Arten kommen überall in der Umwelt vor. Bisher ist allerdings noch wenig darüber bekannt, wie sich resistente Stämme von Acinetobacter baumannii und verwandte klinisch relevante Arten in der Umwelt verbreiten. Auch die Frage, ob Resistenzen stabil erhalten bleiben, wenn derartige Bakterien zum Beispiel über das Abwasser oder aber auch durch landwirtschaftliche Einträge in die Umwelt freigesetzt werden, ist noch zu klären.

Interessanterweise waren Stämme der eigentlich auf Sauerstoff angewiesenen Gattung Acinetobacter auch nach sauerstofffreier Behandlung von Gülle und Klärschlämmen in Biogasanlagen und Faultürmen nachweisbar und überlebensfähig. Die Forscherinnen und Forscher erklären das mit der Fähigkeit der Bakterien, auch unter sauerstofffreien Bedingungen Polyphosphat als Energiequelle zu nutzen. Es handelt sich um ein Phänomen, das bereits im Zusammenhang der biologischen Phosphoreliminierung aus Abwasser bekannt ist, aber bislang nicht in Zusammenhang mit der Überdauerung antibiotikaresistenter Bakterien gebracht wurde.

Die Studie zeigt aber auch weiterhin große Wissenslücken bei der Verbreitung von Antibiotikaresistenzen in der Umwelt. In weitergehenden Untersuchungen soll daher vor allem untersucht werden, wie sich die resistenten Bakterien im gereinigtem Abwasser und in Klärschlämmen verhalten, und wie der Austausch von Resistenzen mit anderen Bakterien erfolgt, nachdem sie in die Umwelt freigesetzt werden.

Acinetobacter baumannii und verwandte Arten sind opportunistische Krankheitserreger, die vor allem bei immungeschwächten Patienten in Krankenhäusern Infektionserkrankungen verursachen. Waren derartige Infektionen durch Acinetobacter vor wenigen Jahren noch eher selten, verursachen vor allem multiresistente Stämme zunehmend große Probleme bei der Behandlung infizierter Personen. Die WHO hat deshalb Carbapenem-resistente Acinetobacter baumannii bereits 2017 auf die Prioritätsliste von Pathogenen gesetzt, bei denen die herkömmlichen Antibiotika zunehmend unwirksam sind. Das Europäische Zentrum für die Prävention und die Kontrolle von Krankheiten (ECDC) berichtet in einer kürzlich veröffentlichten Studie von 35.000 Todesfällen in der EU durch antibiotikaresistente Bakterien im Zeitraum zwischen 2016 und 2020 mit einem Anstieg von Acinetobacter-assoziierten Fällen von 121 Prozent im Vergleich zum Zeitraum 2018/2019.

Die Studie wurde finanziert durch das BMBF (Projekt ARMIS: Antimicrobial Resistance Manure Intervention Strategies) und die DFG. Dipen Pulami führte die Untersuchungen, die zu dieser Publikation führten, im Rahmen seiner Promotion durch, die durch ein Graduiertenstipendium der JLU gefördert wurde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Ing. Peter Kämpfer
Professur für Mikrobiologie der Recyclingprozesse
Telefon: 0641 99-37352
E-Mail: peter.kaempfer@umwelt.uni-giessen.de

Dr. Stefanie Glaeser
Professur für Mikrobiologie der Recyclingprozesse
Telefon: 0641 99-37373
E-Mail: stefanie.glaeser@umwelt.uni-giessen.de

Originalpublikation:
Dipen Pulami, Peter Kämpfer, Stefanie P. Glaeser: High diversity of the emerging pathogen Acinetobacter baumannii and other Acinetobacter spp. in raw manure, biogas plants digestates, and rural and urban wastewater treatment plants with system specific antimicrobial resistance profiles. Science of The Total Environment, Volume 859, Part 1,
2023
https://doi.org/10.1016/j.scitotenv.2022.160182

(nach oben)


COVID-19: Unterschiedliche Immunantwort bei Kindern und Erwachsenen bleibt lange bestehen

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Unterschiede in der Immunantwort bei Kindern und Erwachsenen auch nach milden oder asymptomatischen Verläufen / Studie der baden-württembergischen Unikliniken unter Leitung der Universitätskliniken Freiburg und Ulm / Studie in Nature Communications

Welche Art der Immunantwort Kinder und Erwachsene nach einer milden oder asymptomatischen Infektion mit SARS-CoV-2 ausbilden, haben Forscher*innen der Universitätskliniken Freiburg, Heidelberg, Tübingen und Ulm in einer gemeinsamen Studie untersucht. Es zeigte sich, dass bei Kindern selbst nach zwölf Monaten noch eine Immunantwort nachweisbar war, diese aber über die Zeit deutlich an Stärke verloren hat.
Während bei Erwachsenen die Immunantwort vor allem von Gedächtnis-B- und -T-Zellen getragen wird, übernehmen bei Kindern spezifische Serum-Antikörper, die von Plasmazellen produziert werden, eine zentrale Funktion. Die Studie erschien am 28. November 2022 im internationalen Fachmagazin Nature Communications.

„Wir fanden heraus, dass im Beobachtungszeitraum von einem Jahr spezifische Antikörper abnahmen, aber die neutralisierende Antikörperaktivität und -breite in beiden Altersgruppen zunahmen. Bestimmte Gedächtniszellen bleiben stabil und reifen mit der Zeit. Obwohl die Immunität gegen SARS-CoV-2 quantitativ abnimmt, hat sich die Qualität durch eine Reifung kontinuierlich gebessert, bei Kindern sogar deutlicher als bei Erwachsenen“, sagt Privatdozentin Dr. Marta Rizzi, Forschungsgruppenleiterin an der Klinik für Rheumatologie und Klinische Immunologie des Universitätsklinikums Freiburg und Professorin für klinische und experimentelle Immunologie an der Medizinischen Universität Wien. Rizzi hat die Studie gemeinsam mit Dr. Aleš Janda vom Universitätsklinikum Ulm geleitet.

„Unsere Daten tragen zur Erkenntnis der Entwicklung des Immunsystems in verschiedenen Lebensphasen bei. Sehr wahrscheinlich kann man durch die gefundenen Unterschiede auch Rückschlüsse auf andere virale Infektionen ziehen. Die COVID-19-Pandemie hat uns dabei geholfen, das Immunsystem in unterschiedlichen Altersgruppen besser zu verstehen“, ergänzt Janda, Oberarzt an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Ulm. „Wir freuen uns, dass es uns die Finanzierung durch das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg ermöglicht hat, diese enge und effektive Kooperation zwischen den vier Universitätskliniken in Baden-Württemberg aufzubauen“, sagen Rizzi und Janda.

Die Studie ist Teil der COVID-19-Haushaltsstudie Baden-Württemberg, einer gemeinsamen Initiative der Universitätskinderkliniken in Freiburg, Heidelberg, Tübingen und Ulm (www.corona-kinderstudie.de). Die Forschenden analysierten die Dynamik der Immunantwort in 28 Familien bis zu 12 Monate nach einer leichten oder asymptomatischen Infektion.

Wissenschaftliche Ansprechpartner:
PD Dr. Marta Rizzi
Gruppenleiterin
Klinik für Rheumatologie und Klinische Immunologie
Universitätsklinikum Freiburg
Telefon: 0761-270-62170
marta.rizzi@uniklinik-freiburg.de

MUDr. Aleš Janda, M.Sc., Ph.D.
Oberarzt an der Klinik für Kinder- und Jugendmedizin
Universitätsklinikum Ulm
Telefon: 0731-500-57154
ales.janda@uniklinik-ulm.de

Originalpublikation:
Original-Titel der Studie: High antibody levels and reduced cellular response in children up to one year after SARS-CoV-2 infection
DOI: (2022)13:7315
Link zur Studie: https://www.nature.com/articles/s41467-022-35055-1

(nach oben)


Hochschule Coburg testet Kraftstoff aus Klärschlamm

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Klimawandel und steigende Energiekosten erfordern neue Ideen. Eine wird gerade an der Hochschule Coburg getestet: Bio-Kraftstoff aus Klärschlamm.

Die Europäische Union fördert aktuell das Projekt To-Syn-Fuel, in dem es darum geht, biogene Abfallstoffe umzuwandeln in nachhaltige Kraftstoffe und grünen Wasserstoff. Durchgeführt wird das Forschungsprojekt vom Fraunhofer Institut Umsicht im oberpfälzischen Sulzbach-Rosenberg, wo auch der neue Bio-Kraftstoff entwickelt wurde – und zwar aus Klärschlamm. Jetzt wird er in einem VW mit Dieselmotor auf dem neuen Rollenprüfstand der Hochschule Coburg getestet. „Ziel unserer Untersuchungen ist die Analyse von Verbrauchs- und Emissionswerten im Vergleich zum Standardkraftstoff“, erklärt Prof. Dr. Markus Jakob. Er forscht und lehrt an der Fakultät Maschinenbau und Automobiltechnik insbesondere zur motorischen Verbrennung. Gemeinsam mit Chemikerin Anja Singer leitet Jakob die Fuel Research Group der Hochschule und forscht an der Schnittstelle zwischen Chemie und Maschinenbau an Lösungen, um Energie zu speichern und zu transportieren – auf nachhaltige Weise.

Klimaneutrales Rohöl
Mit dem „thermo-katalytischen Reforming“ (TCR-Verfahren), das Fraunhofer entwickelt hat, wird Biomasse in ihre Bestandteile zerlegt, veredelt und gereinigt. Ergebnis sind drei Produkte: Synthesegas mit einem sehr hohen Wasserstoffgehalt, „Biokohle“ und ein Bio-Rohöl, das den Ausgangsstoff für synthetische Kraftstoffe bildet. Solche nachhaltigen Energieträger wie der neue Bio-Kraftstoff aus Klärschlamm haben Fraunhofer zufolge einen um 85 Prozent geringeren CO2-Fußabdruck als konventionelle fossile Kraftstoffe. „Perspektivisch könnten sie in hunderten dezentralen Kleinanlagen hergestellt werden“, sagt der Coburger Kraftstoff-Forscher Jakob. „Bayern hat das Potential, ab 2030 rund 400 000 Tonnen Klärschlamm in normkonforme Kraftstoffe umsetzen.“

Um die fossilen Energieträger vollständig aus dem Straßenverkehr zu verbannen, würden die absoluten Mengen noch nicht ausreichen. „Da aus dem TCR-Verfahren bereits normkonforme Kraftstoffe hergestellt werden können, ist es aber auf einfache Weise möglich, die verfügbaren Mengen des neuen Kraftstoffs den bekannten Serienkraftstoffen beizumischen.“

(nach oben)


Tägliche Meldungen 2022

0

Dezember 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.12.2022 Citizen Science: Valide Daten zu Fließgewässern
27.12.2022 Braunalgenschleim ist gut fürs Klima
24.12.2022 TV-Doku: FH-Student beleuchtet Lichtverschmutzung
23.12.2022 Grünen Wasserstoff effizient produzieren: BMBF fördert deutsch-kanadisches Verbundprojekt an der Universität Bayreuth
22.12.2022 Seltene Bakterien sind hauptverantwortlich für den Kohlenstoffkreislauf im Meer
21.12.2022 Hochbelastbar und biologisch abbaubar
20.12.2022 Dünger klimafreundlicher produzieren
15.02.2022 Abwasser-Recycling: Landwirtschaft für Design-Dünger grundsätzlich offen
13.12.2022 „Weltweit einmaliges Ökosystem“
12.12.2022 Hochschule Karlsruhe erhält Stiftungsprofessur für Wärmepumpen
11.12.2022 Interview mit Professor Johannes Steinhaus zur Umweltbelastung durch Mikroplastik: „Das Waschen ist eine Hauptquelle“
08.12.2022 Binnengewässer in der Biodiversitätspolitik mit Landflächen und Meeren gleichstellen
06.12.2022 Wie toxisch sind Emissionen aus Flugzeugtriebwerken und Schiffsmotoren: Messkampagne an der Universität Rostock
05.12.2022 Desinfektionsmittel in hessischen Böden
01.12.2022 Klimaarchive unter dem Vergrößerungsglas
Gesundheit
17.12.2022 Woher kam Omikron? Studie in Science entschlüsselt die Entstehung der SARS-CoV-2-Variante
16.12.2022 Neue Röntgentechnologie kann die Covid-19-Diagnose verbessern
14.12.2022 Hochschule Koblenz untersuchte Abwasser in Koblenz und Umgebung auf Rückstände von Kokain-Konsum
09.12.2022 Krankmachende Bakterien in Hackfleisch, abgepackten Salaten und Fertigteigen
04.12.2022 Alzheimer: Therapie muss frühzeitig beginnen
Gesellschaft
29.12.2022 Gute Neujahrsvorsätze: Geborgenheit und sichere Kommunikation für das Neugeborene
28.12.2022 Silvester-Spaß mit brutaler Sprengkraft: Handchirurgen des Dresdner Uniklinikums warnen vor Leichtsinn
19.12.2022 Silvester: Augenärzt*innen starten Petition für kommunales Feuerwerk
18.12.2022 Stressarm durch die Weihnachtstage – wie man das Fest der Familie entspannt übersteht
10.12.2022 Arbeitszeitkontrolle als Standardfall bedeutet nicht die Rückkehr zur Stechuhr
07.12.2022 Experteninterview: „Cyberangriffe haben sich als Geschäftsmodell etabliert“
03.12.2022 Künstliche Intelligenz: Servicezentrum für sensible und kritische Infrastrukturen
November 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.11.2022 FLEXITILITY: Wasserinfrastruktur klimaresilient gestalten
28.11.2022 Grundwasserspeicher vielversprechend für Wärme- und Kälteversorgung
27.11.2022 Eine Wirtschaft ohne Umweltverschmutzungen – Neues Partnerprojekt der TUM und des Imperial College London
26.11.2022 TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen
24.11.2022 TU Berlin: Entwicklung einer innovativen und kostensparenden Abwasser-Klärtechnik für die MENA-Region
23.11.2022 Natürliche CO2-Reduktion schneller umsetzbar und weniger risikoreich als Hightech-Ansätze
20.11.2022 TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen
18.11.2022 Forschungsprojekt WärmeGut: Datenkampagne für die Geothermie in Deutschland gestartet
17.11.2022 Studie: Wie Städte mit grünem Strom eigenes Gas erzeugen können
13.11.2022 Keine Anzeichen für einen Rückgang der weltweiten CO2-Emissionen
10.11.2022 Energiewende in Südhessen: Vortragsreihe „Energie für die Zukunft“ startet wieder
09.11.2022 BLUE PLANET Berlin Water Dialogues
04.11.2022 Grüner Wasserstoff: „Hydrogen Lab Leuna“ am Chemiestandort Leuna eröffnet
02.11.2022 Auf der Suche nach den Baumaterialien der Erde
Gesundheit
30.11.2022 Alters- und Lungenmediziner: Alle über 60-Jährigen und Risikogruppen sollten sich jetzt gegen Grippe impfen lassen
25.11.2022 Erschöpft durch Online-Besprechungen? Studie erforscht das Phänomen „Videokonferenz-Müdigkeit“
22.11.2022 Kostengünstige Alternative zum PCR-Test
16.11.2022 Wieviel Innovationspotential hat die digitale Gesundheits­versorgung?
12.11.2022 Konzertreihe: Corona-Spürhunde sind alltagstauglich
07.11.2022 Deutschlands größte epidemiologische Langzeitstudie wird fortgeführt
06.11.2022 Der Labormedizin droht ein eklatanter Fachkräftemangel
Gesellschaft
21.11.2022 WM-Studie 2022: Scholz-Besuch in Katar für viele Deutsche „völlig überflüssig“
19.11.2022 Die Lockdowns sind vorbei, die psychischen Belastungen bei jungen Menschen gehen weiter“
15.11.2022 Themenpaket zur Fußball-Weltmeisterschaft
14.11.2022 Das Digitalzeitalter verstehen
11.11.2022 Kinder lernen wissenschaftliches Denken früher als gedacht | Neue Studie zeigt Einfluss von Eltern
08.11.2022 Cyberagentur vergibt Millionenaufträge zur Cybersicherheit
05.11.2022 Covid-19: Impfstatus polarisiert Bevölkerung
03.11.2022 BIFOLD: Cybersicherheit auf dem Prüfstand
01.11.2022 Hingehört! Der Sound des Anthropozäns
Oktober 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.10.2022 Wasser im Spiegel des Klimawandels und der Nachhaltigkeit: 2. Hofer Wasser-Symposium lockt zahlreiche Teilnehmer
30.10.2022 Per Anhalter auf dem Weg in die Tiefsee – Erste In-situ-Messungen von Mikroplastikflüssen
29.10.2022 Treibhausgasen auf der Spur
27.10.2022 Energiesysteme der Zukunft – Rund 20 Millionen für vier Forschungsprojekte
26.10.2022 Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?
24.10.2022 Als Unterstützung für Unternehmen: TH Lübeck Forscher entwickeln Energiesparkoffer
21.10.2022 Intelligente Algorithmen für die Energiewende
20.10.2022 Wärmere Ozeane erhöhen Niederschlagsmenge
19.10.2022 Phosphor-Recycling aus Klärschlamm verbessern
18.10.2022 Virenfahndung in der Kanalisation
17.10.2022 Studie zur Betriebswassernutzung – Wie Frankfurt am Main künftig Trinkwasser ersetzen könnte
16.10.2022 Dornröschen im Eiswürfel: Wie Bärtierchen Eiseskälte überdauern
15.10.2022 Künstliches Enzym spaltet Wasser
13.10.2022 Flexible Solarzellen mit Rekordwirkungsgrad von 22,2%
09.10.2022 Grüner Wasserstoff: Raschere Fortschritte durch moderne Röntgenquellen
08.10.2022 Mit den Nachhaltigkeitstagen den Wandel (er)leben
06.10.2022 Das Quecksilbergeheimnis in der Tiefsee
01.10.2022 Spurensuche: BfG wirkte an der Aufklärung des Fischsterbens an der Oder mit
Gesundheit
25.10.2022 Stress beeinträchtigt das episodische Gedächtnis
14.10.2022 Landkarte der molekularen Kontakte: Wie das Coronavirus SARS-CoV-2 mit menschlichen Körperzellen kommuniziert
11.10.2022 Influenza-Impfung ist das Gebot der Stunde – Vorstand des Dresdner Uniklinikums wirbt für zeitnahe Grippeschutzimpfung
07.10.2022 Neue Methode für Schnelltests: Hochempfindlicher Nachweis
04.10.2022 Die Besonderheit der Farbe Rot
02.10.2022 UV-C-Strahlung zur Inaktivierung des Covid-19-Erregers in Aerosolen
Gesellschaft
28.10.2022 Nachhaltiger Konsum: Bevölkerung sieht Politik und Wirtschaft in der Pflicht
22.10.2022 Wie sich familiäre Entscheidungen auf die Wirtschaft auswirken – und umgekehrt
12.10.2022 Wie digital wollen wir leben?
10.10.2022 Unternehmungsgeist von der Schule bis zur Weiterbildung
05.10.2022 Konferenzhinweis: Künstliche Intelligenz und ihre Auswirkungen auf Gesellschaften
03.10.2022 Soziale Dilemma spielerisch erklären – Die Entwicklung von Moralvorstellungen fördert selbstloses Handeln
September 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.09.2022 Klimaschwankungen in Ostafrika waren ein Motor für die Evolution des Menschen
28.09.2022 Climate Change Center Berlin Brandenburg: Berliner Kiezstruktur besonders klimafreundlich
26.09.2022 Mehrjährige Blühstreifen in Kombination mit Hecken unterstützen Wildbienen in Agrarlandschaften am besten
25.09.2022 Brennstoff aus Treibhausgas
24.09.2022 Mit Metallen gegen Pilzinfektionen
23.09.2022 Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende
22.09.2022 Forschung für Energiewende und Kreislaufwirtschaft
19.09.2022 Neues Zentrum für Mikrobenforschung in Marburg
17.09.2022 Warum versiegt das kostbare Nass?
15.09.2022 Auen verbessern die Wasserqualität von Flüssen
14.09.2022 Biogasanlagen: Klimaschutz durch Verminderung von Gasemissionen
13.09.2022 Wenn der Klimawandel den Stöpsel zieht: Sinkt das Grundwasser, versickern Bäche und Flüsse und verschmutzen Trinkwasser
12.09.2022 Materialrecycling – Aus alten Batterien werden neue
10.09.2022 Auf dem Weg zu Zero Waste: 28 Maßnahmen für verpackungsarme Städte
07.09.2022 Mit dem IntelliGrid-Stecker Strom intelligenter nutzen
05.09.2022 Gemeinsame Ziele für die Energiewende
02.09.2022 Klärwerk auf Nano-Ebene – Humboldt-Stipendiat in Technischer Chemie
01.09.2022 Mehr Sauerstoff in früheren Ozeanen
Gesundheit
27.09.2022 Herzinfarkt unter 50? Blutfette beachten und Lipoprotein(a)-Wert bestimmen!
20.09.2022 Kein erhöhtes Schlaganfallrisiko durch die Impfung gegen SARS-CoV-2
16.09.2022 SARS-CoV-2 kann das Chronische Fatigue-Syndrom auslösen – Charité-Studie liefert Belege für lang gehegte Annahme
11.09.2022 Cochrane Review: Fraglicher Nutzen teurer High-Tech-Laufschuhe für Verletzungsschutz
08.09.2022 Breit abgestützte Schweizer Covid-19 Forschung
03.09.2022 Chronische Entzündungen: Welche Rolle spielen ein verbreiteter Rezeptor und die Ernährung?
Gesellschaft
29.09.2022 „No War. Bildung als Praxis des Friedens“
21.09.2022 Passagierflugzeuge: Sicher und effizient
18.09.2022 Wie sicher ist der Verbands- und Vereinssport?
09.09.2022 Gute Führung ist erlernbar – Beliebtes Führungskräfteentwicklungsprogramm der HSW geht in die nächste Runde
06.09.2022 Das Arbeitsvolumen in Deutschland ist erneut gestiegen
04.09.2022 „Stadt? Land? Zukunft!“ – wie im Zwischenraum von Metropolen und Dörfern etwas Neues entsteht
August 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.08.2022 Countdown zum Tiefseebergbau läuft
27.08.2022 Grüner Wasserstoff aus Offshore-Windkraft
25.08.2022 Grüne Wasserstofftechnologien industriell nutzbar machen: deutsch-neuseeländisches Projekt zur Wasserelektrolyse
22.08.2022 Das Auto einfach stehen lassen
21.08.2022 Partikel aus alltäglichen Wandfarben können lebende Organismen schädigen – Neuartige Membran zeigt hohe Filterleistung
19.08.2022 Befragung zu Klimaanpassung: Hessens Kommunen im Klimawandel
18.08.2022 Umstellung auf Wasserstoff: BAM entwickelt hochpräzise Kalibriergase für Dekarbonisierung des europäischen Gasnetzes
17.08.2022 Fraunhofer auf der ACHEMA 2022: Lösungen für eine erfolgreiche Rohstoff- und Energiewende
16.08.2022 LKH₂ – Laserkolloquium Wasserstoff: Grüne Alternative zu fossilen Brennstoffen
13.08.2022 Weinbau braucht neue pilzwiderstandsfähige und stresstolerante Rebsorten, um Klimawandel trotzen zu können
12.08.2022 Wie die Biodiversität in Weinbergen am besten gefördert wird
10.08.2022 Bakteriengemeinschaften in städtischem Wasser zeigen „Signaturen der Verstädterung“
09.08.2022 Gewässergüte wird im Saarland online von Wissenschaftlern überwacht – kleine Fließgewässer im Fokus
04.08.2022 Wasserstoffbedarfe künftig decken: ESYS zeigt Importoptionen für grünen Wasserstoff auf
03.08.2022 Forschung für den Klimaschutz: Projekte zur Reduzierung der CO2-Konzentration in der Atmosphäre gesucht.
01.08.2022 Die Gestalt des Raumes – Ausstellung von IÖR und BBSR in Berlin zeigt Facetten der Landnutzung
Gesundheit
28.08.2022 Wie verlässlich sind Corona-Schnelltests bei der Omikron-Variante?
26.08.2022 Es ist nie zu spät: Rauchstopp senkt Herz-Kreislauf-Risiko auch nach einem ersten Herzinfarkt noch erheblich.
24.08.2022 Land Niedersachsen fördert die vorklinische Entwicklung des optischen Cochlea Implantats
20.08.2022 Schutz vor Corona: Erfahrung ist beim Immunsystem nicht immer ein Vorteil
11.08.2022 Post-Covid: Covid-19 hat langfristige Folgen für Herz und Gefäße
08.08.2022 Aufbereitete Abwässer in der Landwirtschaft: Gesundheitliches Risiko durch Krankheitserreger auf Obst und Gemüse?
05.08.2022 Hitze – was tun?
02.08.2022 Herzinfarkt bei Hitze – welche Rolle spielen Herz-Kreislauf-Medikamente?
Gesellschaft
15.08.2022 Zwischen Sorge und Euphorie: Wie künstliche Intelligenz unser Leben verändert
14.08.2022 Podcast: Macht Homeoffice krank?
07.08.2022 Tankrabatt wird bisher größtenteils weitergegeben
06.08.2022 Politikpanel-Umfrage: Deutsche fühlen sich von aktuellen Krisen stark bedroht
Juli 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.07.2022 Schwimmen ohne Hirn und Muskeln
28.07.2022 Stickstoff-Fußabdruck: Hohe Verschmutzung und Ressourcenverlust durch Gülle
25.07.2022 Thüringen wird Zentrum für nachhaltige Wasserforschung
24.07.2022 Neue Wasserstandsvorhersagen schaffen mehr Planungssicherheit für die Wirtschaft und die Binnenschifffahrt
22.07.2022 Warum Erdgas keine Brückentechnologie ist
20.07.2022 Neues Forschungsprojekt: Warnsystem für gefährliche Starkregen und Sturzfluten
18.07.2022 Kommunales Klimaschutzmanagement lohnt sich
15.07.2022 Krankenhäuser als hybride Energiespeicher nutzen
14.07.2022 Fraunhofer-Verfahren erhöht Methanausbeute von Biogasanlagen
13.07.2022 Potentialflächen von Wasser erstmals kartiert
12.07.2022 KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse
10.07.2022 KI im Wassersektor – Umweltministerin unterzeichnet Kooperationsvertrag „DZW – Digitaler Zwilling Wasserwirtschaft“
08.07.2022 KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse
07.07.2022 Positionspapier zur Energie- und Klimawende
05.07.2022 Die Energielandschaft der Zukunft
02.07.2022 Sicheres Trinkwasser auch für entlegene Gebiete – Projekt zur Entwicklungshilfe gestartet
01.07.2022 Norwegische Wasserkraft im treibhausgasneutralen Europa: Das Projekt HydroConnect
Gesundheit
29.07.2022 COVID-19-Impfung aktiviert langfristig das angeborene Immunsystem – Signalweg entschlüsselt
26.07.2022 Covid-Impfung schützt nierentransplantierte Patientinnen und Patienten nur unzureichend
21.07.2022 Sommerurlaub: Wie man die Augen vor Schäden durch UV-Strahlung schützt
19.07.2022 Studie bestätigt Ergebnisgenauigkeit des nationalen Virusvarianten-Monitorings im Abwasser
17.07.2022 Präventions-Studie: Fußball als Bewegungsmotor für Herzkranke
11.07.2022 Molekül facht die Fettverbrennung an
04.07.2022 Neue Omikron-Untervarianten BA.2.12.1, BA.4 und BA.5 werden schlechter durch Antikörper gehemmt
03.07.2022 Studien zu Essstörungen: Gen beeinflusst Gewicht und Magersucht
Gesellschaft
31.07.2022 Neues Zentrum für modell-basierte Künstliche Intelligenz
27.07.2022 9-Euro-Ticket: Mehr Menschen fahren Bus und Bahn
23.07.2022 Welche Rolle spielt der Mensch im Zeitalter der Technik und in der zukünftigen digitalisierten Arbeitswelt?
16.07.2022 UDE-Chemiker:innen entwickeln Brühtechnik: Mehr als kalter Kaffee
09.07.2022 Wie die Gesellschaft über Risiko denkt
06.07.2022 Wissenschaftsjournalistischer Vortrag: Zahlen lügen nicht?
Juni 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.06.2022 Besser vorbereitet sein auf Starkregen und Sturzfluten
27.06.2022 Gewässer setzen Methan frei – auch wenn sie austrocknen
26.06.2022 Führende Klimaforscher*innen fordern globale Partnerschaft: Regenfälle vorhersagen und Klimawandel entgegentreten
25.06.2022 Die Region als „Wasserschwamm“ – Wie muss Oberfranken auf den Klimawandel reagieren?
23.06.2022 Wie können Mikroorganismen unsere Welt retten?
18.06.2022 Wie Algen aus Abwässern zu Dünger werden
17.06.2022 Hochwasserschutz für Mensch und Natur
16.06.2022 „Bürger messen ihre Bäche selbst“ – Umwelt-Campus Birkenfeld unterstützt DRK – Modellprojekt an der Kyll
15.06.2022 Urbanen Wetterextremen begegnen: Vorhaben AMAREX erforscht, wie Städte im Umgang mit Regenwasser besser werden können
14.06.2022 Die neue Website der Bundesanstalt für Wasserbau – informativ, vielseitig und spannend
13.06.2022 Hubble-Weltraumteleskop nimmt größtes Nahinfrarotbild auf, um die seltensten Galaxien des Universums zu finden
11.06.2022 Wohl dem, der Wärme liebt – Insekten im Klimawandel
09.06.2022 Polarstern II: Der Startschuss für den Neubau ist gefallen
07.06.2022 Neues Tool für Notfallplanung bei Extrem-Hochwassern
04.06.2022 Auf Spurensuche im Abwasser: Mikroplastik, Schwermetalle, Arzneimittel
01.06.2022 Kleine Wasserlinse – großes Potential für die Landwirtschaft | Rund 500.000 Euro für Praxis-Forschungsprojekt
Gesundheit
28.06.2022 Covid-19-Infektion vor allem von Sozialstatus abhängig
19.06.2022 Auf der Spur der lebensbedrohlichen und lebensverkürzenden Krankheiten
08.06.2022 Effektive Auffrischung der Antikörperantwort gegen Omikron und andere Virusvarianten nach 3. und 4. COVID-19-Impfung
06.06.2022 Vitamin D-Anreicherung von Lebensmitteln – Potenziale auch für die Krebsprävention
05.06.2022 Wachgerüttelt – DGSM-Aktionstag am 21. Juni sensibilisiert für die Wichtigkeit von erholsamem Schlaf
03.06.2022 7 Stunden Schlaf pro Nacht sind kein Garant für erholsamen Schlaf!
Gesellschaft
30.06.2022 Das Neun-Euro-Ticket: Eine Chance für Menschen in Armut. Verkehrswissenschaftler der TU Hamburg führen Befragung
24.06.2022 Weitergeben, was wichtig ist
21.06.2022 KI im Unternehmen – Führungskräfte brauchen neue Kompetenzen
20.06.2022 Wie künstliche Gehirne die Robotik der Zukunft prägen könnten
12.06.2022 Digitalisierung in den KMU schreitet nur langsam voran
10.06.2022 Mit fortschreitender Erholung des Arbeitsmarkts arbeiten Beschäftigte wieder mehr Stunden
02.06.2022 Aktuelle Studie – Rund zehn Prozent der Erwerbstätigen arbeiten „suchthaft“
Mai 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.05.2022 Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren
28.05.2022 Studie untersucht Mikroplastikbelastung in der Rheinaue bei Langel in Köln
25.05.2022 Wasserwiederverwendung in der Landwirtschaft: Forschungsprojekt HypoWave+ auf der IFAT 2022
24.05.2022 Mehrheit der Deutschen setzt auf erneuerbare Energien
22.05.2022 Wenn Mikroben übers Essen streiten
19.05.2022 Dem Insektensterben auf der Spur: Landnutzung und Klima stören Kolonieentwicklung der Steinhummel
18.05.2022 Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren
16.05.2022 Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
14.05.2022 Fraunhofer UMSICHT auf IFAT 2022: Kreislaufführung von Wasser und Nutzungskonzepte für Biomasse
12.05.2022 Hochwasserschutz mit Mehrfachnutzen: Mehr Raum für Flüsse
11.05.2022 Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
10.05.2022 Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
09.05.2022 Neue Studie: Fließgewässer an Ackerflächen senken Schadstoffe im Wasserkreislauf
08.05.2022 Der Wald als Schutzraum für Insekten in wärmeren Klimazonen?
07.05.2022 Lachgas – alles andere als träge
05.05.2022 Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
03.05.2022 Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
Gesundheit
30.05.2022 Kompetent, kompakt und aktuell: diabetes zeitung feiert sechsjähriges Bestehen
27.05.2022 Gesunder Schlaf: Warum so wichtig fürs Herz?
23.05.2022 DGIM: Einrichtungsbezogene Impfpflicht greift zu kurz – Vorbereitung auf nächste Corona-Welle muss jetzt erfolgen
21.05.2022 Herzinsuffizienz: Verheiratete leben länger
15.05.2022 COVID-19: Wie Impfung und frühere Infektionen auch gegen Omikron helfen
13.05.2022 Grauer Star: Beide Augen am selben Tag operieren? Neuer Cochrane Review wertet Evidenz aus.
06.05.2022 Sonnenschutzkampagne will Hautkrebsrisiko im Sport senken
04.05.2022 Coronaviren auf Glas: Handelsübliche Spülmittel und manuelle Gläserspülgeräte entfernen Viren effektiv
Gesellschaft
26.05.2022 Die Migration nach Deutschland ist während der Covid-19-Pandemie stark eingebrochen
20.05.2022 Entspannen und verdienen: So wählen unternehmenserfahrene Bachelorstudierende der Generation Z ihren Arbeitgeber aus
17.05.2022 3D-Metalldruck – Der Schlüssel zu einer effektiven Instandhaltung im Maschinenbau
02.05.2022 Girls’Day und Boys’Day 2022: mehr als 115.000 Schülerinnen und Schüler machten mit
01.05.2022 Belastungen in der modernen Arbeitswelt – Herausforderung für den Arbeitsschutz?
April 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.04.2022 Erste weltweite Analyse der Bedrohung aller Reptilienarten
28.04.2022 Energieträger der Zukunft auf Schiffen – Deutsches Maritimes Zentrum stellt Kraftstoff-Portfolio vor
27.04.2022 Klimaneutral heizen statt Erdgas verbrennen: So schaffen Städte die Wärmewende
23.04.2022 Nach der Kirschblüte lauert die Essigfliege
22.04.2022 Der Himmel benötigt Schutz genau wie die Erde
19.04.2022 Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
18.04.2022 Ein Schwarm von 85.000 Erdbeben am antarktischen Unterwasservulkan Orca
14.04.2022 Energiewende: Solarzellen der nächsten Generation werden immer effizienter
13.04.2022 Mikroplastik – Erforschen und Aufklären
12.04.2022 Was machen Vulkane mit unserem Klima?
10.04.2022 Mit dem Laser gegen Mikroplastik
09.04.2022 Ein einziges Gen steuert die Artenvielfalt in einem Ökosystem
08.04.2022 Studie zeigt: Fische können rechnen
05.04.2022 Detektion von Wasserstoff durch Glasfasersensoren
04.04.2022 H2Wood – BlackForest: Biowasserstoff aus Holz | BMBF fördert Vorhaben zur Einsparung von CO2 mit 12 Millionen Euro
02.04.2022 Entstehung von Smog
Gesundheit
25.04.2022 Mit Herzerkrankungen leben – Tipps von Kardiologie-Experten
21.04.2022 COVID-19-Therapie: Zusammen ist besser als allein
17.04.2022 Neues Sinnesorgan entdeckt
06.04.2022 Einfluss von Handystrahlung auf die Nahrungsaufnahme nachgewiesen
01.04.2022 Corona macht Frauen unglücklicher als Männer
Gesellschaft
30.04.2022 Zukunft der Innenstädte und Ortsmitten – Studierende zeigen Arbeiten in Galerie der Schader-Stiftung
26.04.2022 Fleischkonsum muss um mindestens 75 Prozent sinken
24.02.2022 Quantencomputing: Neue Potenziale für automatisiertes maschinelles Lernen
20.04.2022 Welchen Fußball wollen wir?
16.04.2022 Social-Media-Workshop „Digitale Zukunft mit Dir!“ am 21. April 2022
15.04.2022 Wie viel „Ich“ steckt im eigenen Avatar?
11.04.2022 Hohe Erwartungen, unklarer Nutzen: Industrie 4.0 und der Wandel zu nachhaltigem Wirtschaften
03.04.2022 Fraunhofer-Projekt ML4P optimiert Effizienz der Industrieproduktion
März 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2022 Freiwillige untersuchen die Stickstoffbelastung von Gewässern
30.03.2022 Zurück in den Kreislauf: Menschlicher Urin wird zu Recyclingdünger für Berliner Gemeinschaftsgärten
28.03.2022 Pressemitteilung – Windparks verändern die Nordsee
26.03.2022 Mikrobiologen zeigen, wie wichtig Ammonium-oxidierende Mikroorganismen für Deutschlands größten See sind
24.03.2022 Entscheidende Phase für erfolgreichen Wasserstoff-Markthochlauf
22.03.2022 Weltwassertag am 22. März – Genug trinken: Reicht der Durst als Signalgeber?
20.03.2022 Praxiseinstieg in digitale Ökosysteme am Beispiel Gaia-X
19.03.2022 Kohlenstoffspeicherung in Küstenökosystemen verbessern
17.03.2022 Starke Kooperation von Universität in Koblenz, Hochschule Koblenz und Bundesanstalt für Gewässerkunde vereinbart
16.03.2022 Zwei Extreme zur gleichen Zeit: Niederschläge entscheiden, wie oft Dürren u. Hitzewellen gemeinsam auftreten werden
13.03.2022 Energiekrise: „Japan kann ein Vorbild sein“
10.03.2022 Alle Lebewesen bilden Methan
09.03.2022 Neues Tool ermittelt betrieblichen Klimafußabdruck
08.03.2022 Vernetzungskonferenz: Klimaanpassungsmaßnahmen – erfolgreich durch Dialog
06.03.2022 Energiesparen mit Magnonen: Magnetische Anregungen übertragen Informationen ohne Wärmeverlust
04.03.2022 Wegweisendes Pilotprojekt RoKKa erzeugt Dünger und Rohstoffe aus Abwasser
03.03.3022 Methan: Leckagen an Biogasanlagen verhindern – Strategien zur Verhinderung des Methanschlupfs vorgelegt
02.03.2022 „klimafit“ – Wissen für den Klimawandel vor der Haustür
Gesundheit
29.03.2022 KIT: Bundesweites Pilotprojekt zum Corona-Nachweis im Abwasser
27.03.2022 SARS-CoV-2 geht ins Auge
23.03.2022 Blutfette geben neue Einblicke in den Zusammenhang von Ernährung mit Diabetes und Herz-Kreislauf-Erkrankungen
21.03.2022 Tippen mit beiden Händen beugt dem Handydaumen vor
18.03.2022 Übergewicht vorbeugen
14.03.2022 Pandemiegefahren sicher simulieren
12.03.2022 Wie kann die Digitalisierung des Gesundheitssystems beschleunigt werden?
05.03.2022 Gesundheitsdaten handlungsfähig machen und patientenorientierte Gesundheitsversorgung sicherstellen
Gesellschaft
25.03.2022 Umdenken bei der Bekämpfung von Infektionskrankheiten durch gezielte Strategien für den Arbeitsplatz
15.03.2022 Zwischen Datenschutz und Vertrauen – wenn das Auto zu viel weiß
11.03.2022 Millionenförderung für Cybersicherheit
07.03.2022 Kollateralschaden: das Ende von SWIFT?
01.03.2022 Chatbot oder Mensch – Wer entscheidet besser bei der Rekrutierung? FAU-Team legt Studie zur KI im Personalwesen vor
Februar 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
26.02.2022 Studie: Umweltfachleute unterstützen Umweltpolitik jenseits des Wirtschaftswachstums
25.02.2022 Hilfe für Meer und Küste
22.02.2022 Mikrobielle Saubermänner räumen Kläranlagen auf
21.02.2022 Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?
18.02.2022 Regionaler Gemüseanbau auf der Kläranlage
17.02.2022 FH-Forscher entwickelt Sensor zur Überwachung von Biogasanlagen
15.02.2022 Vergleich mit Verbrenner: Elektrofahrzeuge haben beste CO2-Bilanz
12.02.2022 Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“
10.02.2022 Untersuchung von Feinstaub unterschiedlicher Emissionen
09.02.2022 Vom Tagebau zum Pumpspeicherkraftwerk
05.02.2022 KIT: Landnutzung: Plädoyer für einen gerechten Artenschutz
03.02.2022 Wasser in Berlin: Gewässer- und Flächenmanagement gemeinsam betrachten
Gesundheit
28.02.2022 PFH sucht Teilnehmende für wissenschaftliche Studie zur Belastung durch Covid-19-Pandemie
23.02.2022 Darmkrebs-Screening: Welche Strategie ist am wirksamsten?
19.02.2022 Neuer Omikron-Subtyp auf dem Vormarsch
16.02.2022 Corona-Impfung: Zweitimpfung mit Biontech steigert Immunantwort effektiver als mit Astra
14.02.2022 Der schwierige Weg zur Diagnose: COVID-19 als Berufskrankheit
07.02.2022 Warum altern wir? Die Rolle der natürlichen Selektion
04.02.2022 Gesünderes Licht für Schichtarbeit
02.02.2022 Blutdruck im Alter: Je höher – desto besser? Höhere Zielwerte bei gebrechlichen Personen können vorteilhaft sein
Gesellschaft
27.02.2022 Skepsis gegenüber Zuwanderung nimmt in Deutschland weiter ab
24.02.2022 Die Millionen-Frage: Wie lösen wir komplexe Probleme?
20.02.2022 Salmonellengefahr für Hundebesitzer
13.02.2022 Große politische Veränderungen beeinflussen das Wohlbefinden von Beschäftigten
11.02.2022 Wie das Leben auf die Erde kam
08.02.2022 Fehlverhalten von Führungskräften kann Unternehmen Milliarden kosten
06.02.2022 Neuer Geist in alter Hardware – Vermeidung von Elektroschrott durch Freie Software
01.02.2022 Wie Menschen lernen, sich beim Denken gerne anzustrengen
Januar 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.01.2022 Mikroplastik in der Umwelt: Daten reichen nicht aus
29.01.2022 Wasserstofftechnologie: Elektrolyseure sollen Massenware werden
26.01.2022 Bestätigt: Wird Klärschlamm auf Äcker gegeben, kann Mikroplastik tief in den Boden und auf angrenzende Felder geraten
24.01.2022 Klimawandel und Waldbrände könnten Ozonloch vergrößern
19.01.2022 Bodenversalzung gefährdet unsere Umwelt: Klimawandel verschärft das Problem der Bodendegradation
18.01.2022 Weltweit größtes Fischbrutgebiet in der Antarktis entdeckt
16.01.2022 Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!
15.01.2022 Mehr Regentage schaden der Wirtschaft
13.01.2022 Neue Abteilungen der Gewässerforschung am IGB
12.01.2022 Arktische Küsten im Wandel
11.01.2022 Wie das Amazonasbecken die Atacama-Wüste bewässert
07.01.2022 Digitaler Vortrag: Wie gelingt die Energiewende? Soziale Innovationen als Motor der Transformation.
04.01.2022 Bundesregierung sollte Atompläne der EU nicht rundheraus ablehnen
01.01.2022 Nano-Pralinen speichern Wasserstoff
Gesundheit
31.01.2022 Morgensport vs. Abendsport: Forschende entschlüsseln die unterschiedlichen Auswirkungen auf unsere Gesundheit
28.01.2022 Bergische Uni untersucht Ausdauer und Leistungsfähigkeit beim Tragen von FFP2-Masken
23.01.2022 Antikörper nach SARS-CoV-2-Infektion – neue Erkenntnisse über die Sensitivität und Nachweisdauer von Antikörpertests
14.01.2022 Corona in wastewater at record high
10.01.2022 Bundesgesundheitsministerium fand niemanden für Studie zu Corona-Ausbrüchen in Pflegeeinrichtungen
03.01.2022 Untersuchung zur Wiederverwendbarkeit von FFP2-Masken: Hält die Schutzwirkung?
02.01.2022 Herz-Kreislauf-Forschung lieferte Blaupause für universitäre COVID-19-Forschung
Gesellschaft
27.01.2022 Covid-19-bedingte Fehlzeiten erreichten im November 2021 vorläufigen Höchststand
24.01.2022 Online-Studie: Was bedeutende Lebensereignisse bewirken
22.01.2022 GBP-Monitor: Fast zwei Drittel der Unternehmen plant Preiserhöhungen – und 3G am Arbeitsplatz ist sehr umstritten
21.01.2022 Mit Remote Attestation gegen Hacker: Schutz für sicherheitskritische Systeme
20.01.2022 Psychische Gesundheit in der Arbeitswelt stärken
17.01.2022 Coronapandemie dämpft Anstieg – Entwicklung der tariflichen Ausbildungsvergütungen 2021
09.01.2022 Ungleicher Fahrradboom: Fahrrad wird immer mehr zum Statussymbol
08.01.2022 Leuphana informiert live über berufsbegleitende Studiengänge
06.01.2022 Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen
05.01.2022 Frauen in der Digitalbranche: Der lange Weg der Drishti Maharjan

 


Citizen Science: Valide Daten zu Fließgewässern

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Citizen-Science-Projekte etablieren sich mehr und mehr als wichtige Stütze für die Umweltforschung. Sie liefern Daten, öffnen die Wissenschaft für die Gesellschaft und geben Interessierten die Möglichkeit, sich für die Umwelt zu engagieren, um nur einige Vorzüge zu nennen. Allerdings gibt es auch Vorbehalte, etwa in punkto Datenqualität. Ein Forscher:innen-Team unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig hat anhand der Zustandsbewertung von Kleingewässern festgestellt, dass Citizen-Science-Daten für die weitere Verwendung in Wissenschaft und Verwaltung durchaus geeignet sind.

Die Forscher:innen untersuchten Daten, die rund 300 Freiwillige an 28 Bächen in Sachsen, Sachsen-Anhalt, Thüringen und Niedersachsen im Citizen-Science-Projekt FLOW im vergangenen Jahr erhoben hatten. Ziel von FLOW ist, Aussagen zum ökologischen Zustand von kleineren Fließgewässern in der Agrarlandschaft treffen zu können. Die Freiwilligen bewerteten dafür die Gewässermorphologie, erhoben physikalisch-chemische Parameter und analysierten die Gemeinschaft der wirbellosen Tiere (Makrozoobenthos), anhand derer Aussagen zum ökologischen Zustand eines Bachs möglich sind. Mitarbeiter:innen des UFZ und des Projektpartners Bund für Umwelt und Naturschutz Deutschland (BUND) hatten die Bürger:innen zuvor über ein halbtägiges Training mit den Methoden der Gewässerbewertung und der Bestimmung des Makrozoobenthos vertraut gemacht. Die Ergebnisse der Freiwilligen verglich das Forscher:innen-Team um Julia von Gönner mit denen des von Prof. Matthias Liess geleiteten UFZ-Forschungsprojekts „Kleingewässermonitoring“, in dessen Rahmen 2021 unter anderem diese 28 Bäche von Wissenschaftler:innen beprobt worden waren.

In einem Beitrag für das Fachjournal Science of the Total Environment verglichen die Forscher:innen nun die Ergebnisse der beiden Gruppen. Dabei zeigt sich, dass sich die Bestimmungsqualität des Makrozoobenthos durch Freiwillige von der der Expert:innen kaum unterscheidet, wenn man die Wirbellosen auf Ebene der Ordnung oder der Familie identifiziert. Dann liegt die Übereinstimmung bei den bestimmten Individuen bei rund 90 Prozent. Sollen für die Tierchen dagegen noch genauer die Gattung oder die Art bestimmt werden, nimmt die Fehlerrate bei den Freiwilligen zu. „Einige Wirbellose sind nur wenige Millimeter groß, innerhalb einer Familie oder Gattung sind sich die Larven der Wasserinsekten optisch oft sehr ähnlich, und die Merkmale zur genaueren Bestimmung sind mit einfacher Ausstattung im Feld nur schwer erkennbar. Um korrekte Gattungs- und Artnamen nennen zu können, braucht es monatelange Erfahrung, viel Zeit zur Bestimmung sowie gute Mikroskope, was in einem Citizen-Science-Projekt in der Regel nicht umsetzbar ist“, sagt Julia von Gönner. So hatten die Freiwilligen mit einer geländetauglichen Ausstattung gearbeitet, die neben einer Anleitung zur Bewertung der Gewässermerkmale und einer Bestimmungshilfe für das Makrozoobenthos ein Stereomikroskop mit lediglich 20-facher Vergrößerung umfasste. Am UFZ standen den Wissenschaftler:innen im Kleingewässermonitoring dagegen deutlich höher auflösende Mikroskope zur Verfügung, die die Artbestimmung erleichterten. Dass sich die Wirbellosen aber nicht präziser bestimmen lassen, muss kein Nachteil sein, denn: Für das von Matthias Liess entwickelte Bioindikatorsystem SPEARpesticides, mit dem sich analog zu den fünf Qualitätsklassen der EU-Wasserrahmenrichtlinie die Belastung des Fließgewässers durch Pestizide einschätzen lässt, reicht die Bestimmung eines Individuums auf Ebene der Familie aus. Folglich fallen auch die Ergebnisse zum Bioindikator SPEARpesticides der Bürger:innen und der Wissenschaftler:innen recht ähnlich aus: 61 Prozent der Bäche stuften beide Gruppen in die gleiche Qualitätsklasse ein. Bei 32 Prozent unterschied sich die Einschätzung um eine Klasse, lediglich bei 6 Prozent um zwei Klassen.

Gute Ergebnisse erzielten die Freiwilligen auch bei der Hydromorphologie, also etwa bei der Einschätzung des Gewässerverlaufs, der Uferstruktur oder der Diversität des Gewässersubstrats. So lag die Übereinstimmung beider Gruppen, ob diese Strukturen gemäß den Vorgaben der EU-Wasserrahmenrichtlinie in einem guten ökologischen Zustand sind, bei 82 Prozent. Insgesamt bewerteten beide Gruppen 50 Prozent der Gewässer mit den gleichen Qualitätsklassen, bei den anderen 50 Prozent lag nur eine Klasse dazwischen. „Das ist ein gutes Ergebnis, denn die Komponenten der Gewässermorphologie realistisch zu bewerten ist eine anspruchsvolle Aufgabe“, sagt von Gönner. Diese Variabilität von einer Qualitätsklasse gibt es auch bei professionellen Kartierer:innen.

Einzig bei der Messung der physikalisch-chemischen Parameter, also etwa des Sauerstoff-, Nitrit- und pH-Gehalts oder der Ionenleitfähigkeit, liegen größere Unterschiede zwischen den Ergebnissen vor. Ein Grund dafür: Während die UFZ-Wissenschaftler:innen die Gewässerabschnitte fünf Mal pro Saison beprobten, konnten die Freiwilligen aus zeitlichen und organisatorischen Gründen nur eine Messung vornehmen. „Eine Messung pro Saison und Bachabschnitt ist zu wenig, denn die chemische Zusammensetzung des Gewässers kann saisonal und tageszeitlich stark schwanken“, sagt Jonas Gröning, UFZ-Mitarbeiter im FLOW-Projekt. Um aussagekräftigere Ergebnisse zu bekommen, seien häufigere Messungen notwendig. Citizen-Science-Projekte, die den Gewässerzustand erforschen möchten, könnten dazu beispielsweise zwei bis drei Personen aus jeder Gruppe benennen, die sich ausschließlich mit den chemisch-physikalischen Messungen beschäftigen und dadurch mehr Daten pro Probestelle erheben könnten.

„Wir konnten nachweisen, dass die Freiwilligen sehr gute Daten zur Fließgewässerbewertung erheben, wenn sie davor geschult werden und ihre Einsätze gut koordiniert sind“, bilanziert Lilian Neuer vom BUND, die im Forschungsprojekt FLOW die Bürgerbeteiligung koordiniert. Die Ergebnisse könnten Datenlücken füllen, da die EU-Wasserrahmenrichtlinie auf größere Fließgewässer fokussiert und Kleingewässer mit einem Einzugsgebiet von weniger als zehn Quadratkilometern kaum berücksichtigt. Dabei machen diese laut Bundesamt für Naturschutz rund 65 Prozent der Gesamtlänge aller Fließgewässer in Deutschland aus. „Unsere Vision ist, ein bundesweites Monitoringnetz mit Citizen-Science-Gruppen aufzubauen, und diese Daten den Umweltbehörden, Wissenschaftler:innen und anderen Interessierten zur Verfügung zu stellen“, sagt von Gönner. So könnte jeder und jede Einzelne dazu beitragen, den ökologischen Gewässerzustand zu verbessern. „Dieses Projekt zeigt sehr anschaulich, dass wir durch Citizen Science wichtige gesellschaftliche Herausforderungen und Umweltprobleme zusammen mit Bürgerinnen und Bürgern erforschen können.“, sagt Prof. Aletta Bonn, FLOW -Studienleiterin und Departmentleiterin an UFZ und iDiv.

Das Projekt FLOW hat eine Laufzeit von Februar 2021 bis Januar 2024 und wird gefördert von der Deutschen Bundesstiftung Umwelt (DBU) und dem Bundesministerium für Bildung und Forschung (BMBF). Es gehört zu 15 Projekten, die bis Ende 2024 die Zusammenarbeit von Bürger:innen und Wissenschaftler:innen inhaltlich und methodisch voranbringen und Antworten auf gesellschaftliche Herausforderungen geben sollen. Weitere Informationen unter: www.buergerschaffenwissen.de

Wissenschaftliche Ansprechpartner:
Julia von Gönner
UFZ/FLOW-Koordinatorin
julia.goenner@ufz.de

Prof. Dr. Aletta Bonn
Leiterin Department Ökosystemleistungen an UFZ und iDiv
aletta.bonn@ufz.de

Prof. Dr. Matthias Liess
Leiter UFZ-Department System-Ökotoxikologie
matthias.liess@ufz.de

Originalpublikation:
von Gönner, J., Bowler, D.E., Gröning, J., Klauer, A.-K., Liess, M., Neuer, L. & Bonn, A. (2023) Citizen science for assessing pesticide impacts in agricultural streams. Science of The Total Environment, 857, 159607. https://doi.org/10.1016/j.scitotenv.2022.159607

Weitere Informationen:
http://www.flow-projekt.de
https://aktion.bund.net/bleiben-sie-im-flow
https://www.ufz.de/newsletter/ufz/Dezember2021/index.html

(nach oben)


Gute Neujahrsvorsätze: Geborgenheit und sichere Kommunikation für das Neugeborene

Maike Lempka Corporate Communications
Constructor University
Machen Sie 2023 zum Jahr der effektiven Kommunikation! Die TeamBaby App, entwickelt an der Constructor University in Bremen, unterstützt werdende Eltern bei ihrem Vorsatz „sichere Kommunikation“ im neuen Jahr. Die App steht allen Interessierten derzeit kostenlos zur Verfügung.

Der Jahreswechsel fühlt sich häufig wie der Beginn eines neuen Kapitels an. Wir nehmen uns vor, mehr Sport zu treiben, weniger zu essen oder uns mehr Zeit für unsere Hobbys und Erholung zu nehmen. Auch die Familienplanung und -vergrößerung kann dazu gehören. Die Möglichkeiten sind unzählig, die Umsetzung jedoch meist nicht so leicht. Mit der richtigen Strategie gelingt sie besser, gerade wenn wir ein neues Familienmitglied willkommen heißen.

Eine sichere Schwangerschaft und Geburt sind maßgeblich abhängig von effektiver Kommunikation sowohl innerhalb der Familie als auch mit dem Gesundheitspersonal. Das heißt, die Wahrscheinlichkeit einer positiven Schwangerschaft und einer idealen Geburt ist größer, wenn wir das Gefühl haben, dass uns zugehört wird und wir unsere Wünsche denjenigen, die uns betreuen, klar mitteilen können – nicht nur als Eltern, sondern auch als Großeltern, Freund:in oder Begleitperson.

Als Teil eines Teams haben wir die Unterstützung von Familie, Hebammen, Ärzt:innen und Pflegekräften. Um in diesem Team effektiv kommunizieren zu können, stellt die Arbeitsgruppe Gesundheitspsychologie und Verhaltensmedizin der Constructor University ihr digitales Gesundheitstool, die TeamBaby Web-App, kurzzeitig kostenlos zur Verfügung. Also setzen Sie Ihre Neujahrsvorsätze zeitnah in die Tat um und nutzen Sie diese einmalige Gelegenheit.

Das digitale Gesundheitstool TeamBaby zeigt werdenden Eltern und deren Begleitpersonen, wie sie gut miteinander und mit dem Gesundheitspersonal kommunizieren können. Zehn Lektionen enthalten eine Fülle an Tipps für eine effektive Zusammenarbeit und Kommunikation. Die Themen umfassen unter anderem wie Schwangere ihre Bedürfnisse vermitteln, wie sie sicherstellen, dass ihre Stimme gehört wird, und wie sie die Zeit mit Hebammen und Ärzt:innen optimal nutzen können.

Über die Arbeitsgruppe Gesundheitspsychologie:
Die Arbeitsgruppe Gesundheitspsychologie und Verhaltensmedizin unter der Leitung von Prof. Dr. Sonia Lippke befasst sich mit Themen der Gesundheitsprävention und -förderung für alle Bevölkerungsgruppen. In diesem Zusammenhang werden auch Themen wie Einsamkeit, Kommunikation und Gesundheit erforscht.

Für weitere Informationen: http://slippke.user.jacobs-university.de

Über Constructor University (ehemals Jacobs University):
Eine internationale Gemeinschaft, dynamisch und divers. Akademische Exzellenz, die höchste Standards in Forschung und Lehre gewährleistet. Studierende, die lernen, anhand ihres Wissens und Wissenschaft Lösungen für die Herausforderungen unserer Zeit zu schaffen: Constructor University ist eine private, top-gerankte, englischsprachige Universität. 2001 gegründet, bietet sie auf ihrem Campus mehr als 25 Studiengänge sowie Promotionsstellen an. Das Constructor-Ecosystem umfasst die Constructor University in Bremen und ein Institut im schweizerischen Schaffhausen.
Über 1.800 Studierende aus mehr als 110 Nationen profitieren von einer einzigartigen, interdisziplinären, akademischen Ausbildung mit hohem Praxisbezug. Eine lebendige Unternehmenskultur bereitet junge Fachkräfte auf eine erfolgreiche Karriere und den Eintritt in den globalen Arbeitsmarkt vor. Mit über 6.000 Alumni weltweit wächst unsere Gemeinschaft zudem stetig.
Die forschungsorientierten Projekte der Fakultät werden durch die Deutsche Forschungsgemeinschaft und das EU-Rahmenprogramm für Forschung und Innovation gefördert, wie auch von weltweit führenden Unternehmen.
Das Constructor-Ecosystem profitiert von Partnerschaften mit hochrangigen Universitäten wie Carnegie Mellon, der Universität Genf oder der National University of Singapore School of Computing sowie mit Technologieunternehmen wie Anisoprint, JetBrains und ChemDiv.

Constructor ist eine globale Institution, die es sich zur Aufgabe gemacht hat, die wichtigsten Herausforderungen der Gegenwart anhand von Wissenschaft, Bildung und Technologie zu lösen. Neben der Universität stützt sich das Ecosystem auf mehrere, for-profit Unternehmen, die technologische Infrastrukturen, Programme für lebenslanges Lernen, Beratungsdienste und Finanzierung anbieten: Alemira by Constructor, Rolos by Constructor, Constructor Learning und Constructor Capital.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonia Lippke | Professorin für Psychologie
Tel: 0421 200 4730 | S.Lippke@jacobs-university.de

Weitere Informationen:
https://team.baby
https://www.jacobs-university.de/teambaby/app

(nach oben)


Silvester-Spaß mit brutaler Sprengkraft: Handchirurgen des Dresdner Uniklinikums warnen vor Leichtsinn

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Die erste schwere Explosionsverletzung dieses Winters registrierte das Universitätsklinikum Carl Gustav Carus Dresden bereits in der ersten Dezemberwoche. Ein in der Hand explodierter Silvester-Knaller sorgte bei einem Jugendlichen für schwerste Verletzungen. In einer mehr als zehnstündigen Operation konnte die linke Hand erhalten werden. Prof. Adrian Dragu, Direktor für Plastische und Handchirurgie am UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie (OUPC) befürchtet auch aufgrund der in den beiden vergangenen Jahreswechseln erlassenen Verbote einen Nachhol-Effekt beim Einsatz der Pyrotechnik zu Silvester und damit verbunden einen Anstieg an schweren Verletzungen.

Die ohnehin durch Infektionswellen und Personalengpässe belasteten Krankenhäuser geraten durch den Wegfall des Verbots unnötigerweise unter zusätzlichen Druck. „Das Schicksal des 14-Jährigen sollte alle feuerwerkbegeisterten Menschen zu einem sehr bedachten, vorsichtigen und rücksichtsvollen Gebrauch von Feuerwerksartikeln mahnen“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. „Zwar ist das Uniklinikum als Maximalversorger immer da, um schwerste Verletzungen und Erkrankungen mit höchster Expertise optimal zu behandeln, aber für den einzelnen Menschen und das Gesundheitswesen ist jeder dieser leicht vermeidbaren Unfälle einer zu viel! Bitte schränken Sie deshalb den Einsatz von Feuerwerksartikeln ein und seien Sie besonders rücksichtsvoll und vorsichtig.“

Um durch Explosionen hervorgerufene Verletzungen erfolgreich zu behandeln, bedarf es einer hohen Expertise spezialisierter Mikrochirurginnen und Mikrochirurgen sowie der Pflegeteams in den OP-Sälen und im Nachgang auf den Stationen. Dies wird auch an dem Fall des 14-Jährigen deutlich. Bei der Explosion sind mehrere Finger und Teile der linken Hand abgerissen worden. Aufgrund der komplexen Verletzungen ist es notwendig solche Operationen trotz des akuten Handlungsbedarfs genau zu planen. „Wir nutzen dabei die modernsten und komplexesten Behandlungsmethoden die es aktuell gibt. Je nach Umfang der Verletzungen nutzen wir für die Rekonstruktion körpereigene Transplantate wie Knochen, Sehnen, Haut, Gefäße und Nerven“, sagt Prof. Adrian Dragu.

Die Operation des Opfers aus der Oberlausitz dauerte rund elf Stunden und wurde vom damals diensthabenden Handchirurgen Dr. Seyed-Arash Alawi geleitet. Der Facharzt ist unter anderem auf schwere Hand- und Amputationsverletzungen sowie bionische Prothesenversorgung spezialisiert: „Im OP-Saal und unter Vollnarkose wurde der Gesamtzustand der Hand nochmals eingehend geprüft, um zu klären, ob sie trotz der schweren Verletzungen erhalten werden kann oder nicht. Hier spielen viele Faktoren eine Rolle. Etwa das Alter, Nebenerkrankungen, der Beruf und natürlich auch die Wünsche und Bedürfnisse des Patienten.“ Prinzipiell versucht das Dresdener Team der Abteilung für Plastischen und Handchirurgie immer alles, um den maximalen Erhalt der abgetrennten Gliedmaßen zu erreichen. Mit der für den 14-Jährigen geleisteten Operation, sei das Dresdner Team weit über die in vielen anderen Kliniken möglichen Therapiekonzepte hinausgegangen. „Dazu braucht es enorme Expertise, Geduld und gleichzeitig viele Ressourcen aus der Gesundheitseinrichtung“, sagt Dr. Alawi. Das wichtiges Hilfsmittel im OP ist das Mikroskop, um die Millimeter kleinen Strukturen von Blutgefäßen und Nerven hochpräzise operieren zu können.

Um die Hand so umfassend wie möglich zu rekonstruieren, gehen die Mikrochirurginnen und Mikrochirurgen schrittweise vor. Erst gilt es, die Knochen auf den verschiedenen Ebenen zu stabilisieren und mit Drähten, Schrauben und Platten an der richtigen Position zu fixieren. Danach geht es darum, die Sehnen wiederherzustellen. Blutgefäße und Nerven werde als empfindlichste und feinste anatomische Strukturen zu Letzt mikrochirurgisch versorgt. Ein ebenso wichtiger Schritt besteht darin, die bei Explosionen häufig verbrannte Haut zu ersetzen, um die Wunden erfolgreich zur Abheilung zu bringen. Bei diesen Prozessen müssen gegebenenfalls Knochen, Sehnen, Gefäße, Nerven und Haut von anderen Körperregionen des Patienten verwendet werden. Im Fall des 14-Jährigen wurden kleine Venen aus dem Fuß genutzt, um damit die arterielle Blutversorgung an der betroffenen Hand und den Fingern wiederherzustellen.

Medizinische Blutegel und modernes Wundmanagement unterstützen Heilungsprozess
Der langfristige Erfolg bei einer Rekonstruktion schwer verletzter Gliedmaßen hängt nicht nur von der Operation selbst ab, sondern insbesondere auch von den postoperativen Behandlungskonzepten. Hierbei spielt die Pflege aber auch die spezialisierte Handphysio- und ergotherapie und eine innovative Orthopädietechnik eine sehr große Rolle. Sollte in den ersten Stunden nach der Operation das Blutverhältnis zwischen Einstrom und Ausstrom in die replantierten Finger nicht im Gleichgewicht sein, nutzt das Team der Plastischen und Handchirurgie medizinische Blutegel. Sie stabilisierten auch bei dem 14-jährigen Patienten den venösen Abfluss und verbesserten dabei auch die Durchblutung.

Verletzungen durch Feuerwerkskörper belasten die Notaufnahmen enorm
Für die Teams der Krankenhaus-Notaufnahmen führen die von unsachgemäßem Gebrauch verursachten Verletzungen traditionell über den Jahreswechsel zu einem überdurchschnittlichen Anstieg der Notfälle. Deshalb werden beispielsweise die Teams der Notaufnahmen des Dresdner Uniklinikums in der Silvesternacht personell aufgestockt. Auch für die Weiterbehandlung stehen mehr Teams bereit als an anderen Wochenenden üblich. Das betrifft nicht nur das UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie, sondern weitere Fächer wie die Augenheilkunde, bei der ebenfalls deutlich mehr Verletzungen behandelt werden müssen. Auch hier ist zum Jahreswechsel der unsachgemäße Gebrauch von Feuerwerksartikeln der Hauptgrund.

„Es vergeht kein Tag, an dem die Medien nicht über die enorme Belastung der Krankenhäuser berichten. Die Wellen von Influenza-, RSV- und Covid-Neuerkrankungen mit schweren Verläufen sorgen in Kombination mit Personalknappheit dafür, dass die Krankenversorgung an ihre Kapazitätsgrenzen stößt“, sagt Prof. Dragu. Eine hohe Zahl an Verletzungen durch Feuerwerksköper könne das Fass nun zum Überlaufen bringen. „Für mich und auch für viele meiner Kolleginnen und Kollegen ist es deshalb unverständlich, dass das Verkaufsverbot von Feuerwerksartikeln anders als in den beiden Vorjahren nicht weiterhin gilt“, so Prof. Dragu weiter. Es bleibe leider nur der eindringliche Apell, freiwillig auf potenziell gefährliche Feuerwerkskörper – insbesondere Knaller und Raketen zu verzichten oder zumindest die Sicherheitshinweise der Hersteller im Vorfeld zu lesen und sich daran auch zu halten. „Das Beispiel unseres 14-jährigen Patienten macht noch einmal deutlich, welche Gefahren vom unsachgemäßen Gebrauch der Silvesterknaller ausgehen!“

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie
Prof. Dr. med. Adrian Dragu, Direktor für Plastische und Handchirurgie
Tel.: 0351 4 58 44 40
E-Mail: adrian.dragu@uniklinikum-dresden.de
www.uniklinikum-dresden.de/oupc

Anhang
Pressemitteilung

(nach oben)


Braunalgenschleim ist gut fürs Klima

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Braunalgen nehmen große Mengen Kohlendioxid aus der Luft auf und geben Teile des enthaltenen Kohlenstoffs in Form eines schwer abbaubaren Schleims wieder an die Umwelt ab. Weil dieser Schleim kaum einem Meeresbewohner schmeckt, verschwindet dieser Kohlenstoff so für lange Zeit aus der Atmosphäre. Das zeigt eine Studie von Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen. Die Forschenden zeigen, dass insbesondere der Algenschleim namens Fucoidan dafür verantwortlich ist und schätzen, dass Braunalgen so bis zu 550 Millionen Tonnen Kohlendioxid jedes Jahr aus der Luft holen könnten – beinahe die Menge der gesamten jährlichen Treibhausgas-Emissionen Deutschlands.

Braunalgen sind wahre Superpflanzen wenn es darum geht, Kohlendioxid aus der Luft aufzunehmen. Sie übertreffen darin sogar die Wälder an Land und spielen deswegen eine entscheidende Rolle für die Atmosphäre und unser Klima. Aber was passiert mit dem Kohlendioxid, nachdem die Algen es aufgenommen haben? Nun berichten Forschende des Max-Planck-Instituts für Marine Mikrobiologie in den Proceedings der amerikanischen National Academy of Sciences (PNAS), dass die Braunalgen große Mengen an Kohlendioxid langfristig aus dem globalen Kreislauf entfernen und so der Klimaerwärmung entgegenwirken können.Fucoidan: Die wenigsten mögen Braunalgenschleim

Fucoidan: Die wenigsten mögen Braunalgenschleim
Algen nehmen Kohlendioxid aus der Luft auf und nutzen den darin enthaltenen Kohlenstoff für ihr Wachstum. Bis zu einem Drittel des aufgenommenen Kohlenstoffs geben sie wieder ans Meerwasser ab, beispielsweise in Form zuckerhaltiger Ausscheidungen. Je nachdem, wie diese Ausscheidungen aufgebaut sind, werden sie entweder schnell von anderen Organismen genutzt oder sinken Richtung Meeresgrund.

„Die Ausscheidungen der Braunalgen sind sehr komplex und daher unglaublich kompliziert zu messen“, sagt Erstautor Hagen Buck-Wiese vom Max-Planck-Institut für Marine Mikrobiologie in Bremen. „Es ist uns aber gelungen, eine Methode zu entwickeln, um sie detailliert zu analysieren.“ Die Forschenden nahmen eine Vielzahl verschiedener Substanzen unter die Lupe. Als besonders spannend entpuppte sich dabei das sogenannte Fucoidan. „Fucoidan machte etwa die Hälfte der Ausscheidungen der von uns untersuchten Braunalgenart namens Blasentang aus“, so Buck-Wiese. Zudem ist Fucoidan sehr widerständig. „Das Fucoidan ist so komplex, dass es nur schwer für andere Organismen nutzbar ist. Keiner scheint es zu mögen.“ So kommt es, dass der Kohlenstoff im Fucoidan nicht so schnell wieder in die Atmosphäre gelangt. „Die Braunalgen sind dadurch besonders gute Helfer, um Kohlendioxid langfristig – für Hunderte bis Tausende von Jahren – aus der Atmosphäre zu entfernen.“

Braunlagen könnten fast den gesamten Kohlendioxid-Ausstoß Deutschlands binden
Braunalgen sind außergewöhnlich produktiv. Es wird geschätzt, dass sie etwa 1 Gigatonne (eine Milliarde Tonnen) Kohlenstoff pro Jahr aus der Luft aufnehmen. Rechnet man nun mit den Ergebnissen der vorliegenden Studie, ergibt sich, dass dadurch bis zu 0,15 Gigatonnen Kohlenstoff, was 0,55 Gigatonnen Kohlendioxid entspricht, jedes Jahr langfristig durch die Braunalgen gebunden werden. Zum Vergleich: Die jährlichen Treibhausgas-Emissionen Deutschlands belaufen sich laut Umweltbundesamt aktuell auf etwa 0,75 Gigatonnen Kohlendioxid (Schätzung für 2020).

„Was die Sache noch besser macht: Im Fucoidan sind keine Nährstoffe wie beispielsweise Stickstoff enthalten“, erklärt Buck-Wiese weiter. Das Wachstum der Braunalgen wird durch die Kohlenstoffverluste also nicht beeinträchtigt.

Weitere Arten und Orte
Für die aktuelle Studie konnten Buck-Wiese und seine Kolleginnen und Kollegen aus der MARUM MPG Brückengruppe Marine Glykobiologie, die sowohl am Bremer Max-Planck-Institut als auch am MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen angesiedelt ist, ihre Experimente an der Tvärminne Zoological Station in Südfinnland durchführen. „Als nächstes wollen wir schauen, wie es bei anderen Braunalgenarten und an anderen Standorten aussieht“, sagt Buck-Wiese. „Das große Potenzial der Braunalgen für den Klimaschutz gilt es unbedingt weiter zu erforschen und zu nutzen.“

Wissenschaftliche Ansprechpartner:
Hagen Buck-Wiese
MARUM MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-7360
E-Mail: hbuck@mpi-bremen.de

Dr. Jan-Hendrik Hehemann
MARUM MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 218-65775
E-Mail: jheheman@mpi-bremen.de

Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de

Originalpublikation:
Hagen Buck-Wiese, Mona A. Andskog, Nguyen P. Nguyen, Margot Bligh, Eero Asmala, Silvia Vidal-Melgosa, Manuel Liebeke, Camilla Gustafsson, Jan-Hendrik Hehemann (2022): Fucoid brown algae inject fucoidan carbon into the ocean. PNAS (December 2022).

Weitere Informationen:
https://www.mpi-bremen.de/Page5921.html

(nach oben)


TV-Doku: FH-Student beleuchtet Lichtverschmutzung

Michael Milewski Presse- und Öffentlichkeitsarbeit
Fachhochschule Dortmund
Für seine Bachelor-Abschlussarbeit hat sich FH-Fotografie-Student Oskar Schlechter mit „Lichtverschmutzung“ in Städten beschäftigt und ein 160-seitiges Fotobuch mit dem Titel „Darkless“ gestaltet. Die Dokumentation „Die Macht der Nacht“ zeigt den 29-Jährigen jetzt aktuell mit seinem Schaffen in der Mediathek des TV-Senders „arte“.

Gleich zum Auftakt der neuen Ausgabe der Kulturreihe „TWIST“ sind nicht nur Aufnahmen zu sehen, die Oskar Schlechter bei seinen nächtlichen Exkursionen gemacht hat. Auch er selbst steht vor der TV-Kamera und erläutert Probleme, die sich aus dem „Lichtsmog“ ergeben – wenn die Nacht quasi künstlich zum Tag gemacht wird, also Naturgesetze außer Kraft gesetzt werden und darunter beispielsweise der Biorhythmus von Menschen, Tieren und Pflanzen leidet.

„Meine Arbeit soll eine Anregung sein, in den jeweiligen Situationen darüber nachzudenken: Braucht man das Licht wirklich?“, sagt Oskar Schlechter. „Muss die Beleuchtung tatsächlich in allen Räumen aktiviert sein? Und wie ist es im Garten?“, nennt er Beispiele für Privatleute. Weitere Beispiele im öffentlichen Raum seien Laternen, leuchtende Werbedisplays oder angestrahlte Bauwerke. „Damit sollten sich die Verantwortlichen auch unabhängig von der derzeitigen Energiekrise beschäftigen.“

Für sein Fotobuch, das 2023 in den Druck gehen soll, porträtierte Oskar Schlechter auch Menschen, die sich in ihrem Alltag oder beruflich mit der übermäßigen nächtlichen Beleuchtung auseinandersetzen, darunter ein Lichtforscher. Betreuer der Abschlussarbeit waren Prof. Dr. Marcel Marburger und Prof. Kai Jünemann vom Fachbereich Design der Fachhochschule Dortmund.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcel Marburger
Fachhochschule Dortmund / Fachbereich Design
Mail: MarcelRene.Marburger@fh-dortmund.de

Prof. Kai Jünemann
Fachhochschule Dortmund / Fachbereich Design
Mail: kai.juenemann@fh-dortmund.de

Weitere Informationen:
https://www.fh.do/nacht Link zur Dokumentation „Die Macht der Nacht“

(nach oben)


Grünen Wasserstoff effizient produzieren: BMBF fördert deutsch-kanadisches Verbundprojekt an der Universität Bayreuth

Christian Wißler Pressestelle
Universität Bayreuth
Die Effizienz und Zuverlässigkeit von Elektrolyseanlagen zu steigern, ist das Ziel eines neuen internationalen Verbundprojekts am Zentrum für Energietechnik (ZET) der Universität Bayreuth. Gemeinsam mit einem deutschen Industriepartner und vier kanadischen Partnern aus Industrie und Wissenschaft werden neuartige Modelle sowie Hard- und Softwareanwendungen zur Kostensenkung bei der Produktion von grünem Wasserstoff entwickelt. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben für drei Jahre, die Universität Bayreuth erhält insgesamt rund 250.000 Euro.

Grüner Wasserstoff hat in zukünftigen Energiesystemen eine Schlüsselfunktion bei der Dekarbonisierung und der Kopplung aller Sektoren. Die Europäische Union hat sich daher das Ziel gesetzt, bis 2030 in den eigenen Mitgliedsländern zehn Millionen Tonnen grünen Wasserstoff zu produzieren und weitere zehn Millionen Tonnen zu importieren. Dies kann nur gelingen, wenn dafür effiziente, zuverlässige und wettbewerbsfähige Technologien zur Verfügung stehen. Besonders geeignet zur Produktion von grünem Wasserstoff im großen Maßstab sind Elektrolyseanlagen, deren Funktionsweise auf der Protonen-Austausch-Membran (PEM) basiert. Diese PEM-Elektrolyseanlagen werden bereits im Megawatt-Maßstab kommerziell eingesetzt. Sie bieten schnelle Reaktionszeiten und können sehr flexibel betrieben werden. Dadurch kann die stark fluktuierende Stromerzeugung aus nachhaltigen Energiequellen wie Sonne oder Wind direkt mit PEM-Elektrolyseanlagen gekoppelt werden. Diese große Dynamik kann jedoch dazu führen, dass die zu Stacks zusammengefassten Elektrolysezellen vorzeitig altern. Infolgedessen verringern sich auch die Lebensdauer und die Leistung der Anlage insgesamt. Bisher ist es nicht möglich, diese Prozesse im industriellen Maßstab abhängig von der Betriebsweise vorherzusagen: Die an der Elektrolyse beteiligten Vorgänge sind komplex und die Langzeit-Betriebserfahrungen gering.

Genau hier setzt das vom BMBF geförderte deutsch-kanadischen Verbundprojekt „Modellentwicklung zur Steigerung der Effizienz von Elektrolyseanlagen“ (kurz: „Hyer“) an. Gemeinsam wollen die Forschungspartner ein digitales techno-ökonomisches Modell einer PEM-Elektrolyseanlage entwickeln, die mit erneuerbaren Energiesystemen gekoppelt ist und sich durch eine dynamische Betriebsweise auszeichnet. In Verbindung mit Hard- und Softwareanwendungen wird dieses Modell es ermöglichen, Alterungsvorgänge und die Verringerung der Leistungsfähigkeit mit hoher Genauigkeit vorherzusagen. Dadurch können Betriebsstrategien unter Berücksichtigung der Lebensdauer optimiert werden. Das angestrebte Modell wird dazu auch den digitalen Zwilling eines Stacks umfassen, der die nachteiligen Folgen einer dynamischen Betriebsweise für die Elektrolysezellen präzise abbildet.

An der Entwicklung des digitalen Zwillings werden Forschende des Institute for Integrated Energy Systems an der University of Victoria und des National Research Council Canada (NRC) mit Methoden der künstlichen Intelligenz und des maschinellen Lernens arbeiten. Die zur Modellierung notwendigen experimentellen Daten werden vom Hydrogen Research Institute der Université du Québec à Trois-Rivières bereitgestellt, das in Zusammenarbeit mit dem NRC neuartige Stacks herstellt, analysiert und charakterisiert. Diese Stacks werden in einem speziell für das Projekt „Hyer“ entwickelten Prüfstand bei der SEGULA Technologies GmbH in Rüsselsheim getestet und beschleunigt gealtert. Für die elektrochemische Charakterisierung der Stacks wird das in Toronto ansässige Start-up Pulsenics Inc. die erforderlichen technischen Lösungen liefern.

Unter der der Leitung von Prof. Dr.-Ing. Dieter Brüggemann, Direktor des ZET, übernimmt das Bayreuther Team die techno-ökonomische Simulation und Optimierung der PEM-Elektrolyseanlage. „Unser Ziel ist es, einen guten Kompromiss zwischen einer langen Lebensdauer und einer hohen Flexibilität der Elektrolyseanlage zu finden. Von dem Modell werden beispielsweise auch Projektentwickler und Anlagenbetreiber profitieren, da es durch datengestützte Regelungs- und Betriebsstrategien einen vorhersehbaren kostenoptimierten Anlagenbetrieb ermöglicht“ sagt Brüggemann und betont die starke internationale und interdisziplinäre Zusammenarbeit im neuen Verbundprojekt: „Die langjährige deutsch-kanadische Partnerschaft in Wissenschaft, Technologie und Innovation hat mit der aktuellen Energiekrise noch mehr an Bedeutung gewonnen. Beide Länder ergänzen sich optimal in ihren Zielsetzungen, den Klimawandel zu begrenzen, was nicht zuletzt an der Gründung der deutsch-kanadischen Wasserstoffallianz sichtbar wird. Im Projekt bringen die Partner ihre Expertisen auf verschiedensten Fachgebieten ein – von der Materialforschung bis hin zur Simulation von Energiesystemen mit neuesten Methoden. Dadurch können Lösungen entwickelt werden, die ohne diesen Austausch nicht möglich wären.“

Matthias Welzl, der als Koordinator für Wasserstoffforschung und -technologien das Projekt am ZET wesentlich vorbereitet hat, übernimmt die Koordination der deutschen Projektpartner. Er ergänzt: „Seit über einem Jahr arbeiten wir gemeinsam intensiv an der Ausgestaltung des Projekts. Dabei entwickelte sich insbesondere mit den beiden Projektverantwortlichen unserer Industriepartner, Mariam Awara und Dr. Ing. Stephan Wagner, ein enger Kontakt.“ Mariam Awara ist COO und Mitgründerin des kanadischen Start-up Pulsenics Inc., dessen elektrochemisches Monitoring- und Regelungssystem Grundlage für die Umsetzung des Projekts ist. Für die erfolgreiche Gründung von Pulsenics Inc. wurde sie 2022 in der Kategorie „Manufacturing & Industry“ auf der „Forbes 30 Under 30“-Liste ausgezeichnet. Stephan Wagner wird als Projektingenieur und Experte für Wasserstofftechnologien die Arbeiten bei der SEGULA Technologies GmbH leiten. Welzl beschreibt die weiteren Planungen: „Demnächst werden wir nach Kanada reisen, um auch die anderen Partner persönlich kennenzulernen und die Projektarbeit mit einem Kickoff-Workshop offiziell zu starten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dieter Brüggemann
Direktor des Zentrums für Energietechnik (ZET)
Universität Bayreuth
Telefon: +49 (0)921 / 55-7160
E-Mail: brueggemann@uni-bayeuth.de

Matthias Welzl, M.Sc.
Koordinator Wasserstoffforschung und -technologien
Akad. Rat am Zentrum für Energietechnik (ZET)
Universität Bayreuth
Telefon: +49 (0)921 / 55-7525
E-Mail: matthias.welzl@uni-bayreuth.de

(nach oben)


Seltene Bakterien sind hauptverantwortlich für den Kohlenstoffkreislauf im Meer

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Rare Bakterienarten sind im Ozean am aktivsten, häufige Arten hingegen sind weniger aktiv

Ein internationales Team aus Meeresbiolog*innen mit Beteiligung von Gerhard J. Herndl und Eva Sintes von der Universität Wien hat eine Methode entwickelt, die es erlaubt die Atmungsaktivität von einzelnen Bakterienarten zu bestimmen. Dabei fanden sie heraus, dass im offenen Ozean weniger häufige Bakterienarten die größten Atmungsraten haben, also mehr Sauerstoff verbrauchen und CO2 produzieren. Jene Bakterien hingegen, die besonders häufig im Ozean zu finden sind, verbrauchen eine relativ geringe Menge an organischem Material. Weniger als 3% der Bakterien im Ozean konsumieren so ein Drittel des gesamten Sauerstoffs. Diese Ergebnisse haben große Auswirkungen auf die Sichtweise auf den Kohlenstoffkreislauf der Ozeane und erscheinen aktuell im renommierten Fachjournal „Nature“.

Häufig ist nicht gleich wichtig
In einem Liter Ozeanwasser finden sich hunderttausende verschiedene Bakterienarten. Die meisten dieser Bakterien veratmen, so wie wir, Sauerstoff, um Energie aus organischem Material zu gewinnen und erzeugen dabei Kohlendioxid. Um abzuschätzen, wie hoch die Atmungsaktivität von Meeresmikroben ist, haben Forscher*innen bisher die Summe die gesamte Atmungsaktivität durch die Anzahl der vorhandenen Organismen geteilt. Dieser Ansatz berücksichtigt jedoch nicht die überwältigende Artenvielfalt der verschiedenen Meeresbakterien, die nicht alle die gleiche Atmungsaktivität haben.
Die im Fachjournal Nature publizierte Studie zeigt nun, dass die Unterschiede zum Teil gravierend sind: „Die Atmungsaktivität der einzelnen Bakterienarten im Meerwasser kann bis zu tausendfach variieren. Wir haben herausgefunden, dass gerade jene Bakterien, die im Ozean weniger zahlreich vertreten sind die höchsten Atmungsaktivitäten zeigen, während sehr häufig vorkommende Bakterien geringe Atmungsaktivitäten haben“, erklärt Gerhard J. Herndl von der Universität Wien, einer der Co-Autor*innen der internationalen Studie. Das bedeutet, dass für den Kohlenstoffkreislauf in den Meeren die seltenen Bakterien insgesamt wichtiger sind als die Mikroorganismen, die in großer Anzahl im Meerwasser vorkommen. „Das ist ein häufiges Missverständnis in der Ökologie und in der Betrachtung der biogeochemischen Kreisläufe. Nicht jene Organismengruppen oder Nährstoffe, die in der höchsten Konzentration verkommen, sind besonders wichtig, sondern sehr oft jene, die nur in geringen Konzentrationen vorkommen“, erklärt Herndl.

Neue Methode verbindet die Messung der Atmungsaktivität mit mikrobieller DNA
Um die komplexe Gemeinschaft der Mikroorganismen im Ozean zu verstehen, entwickelte das internationale Team eine neue Methode, mit der sie die Atmungsaktivität und den genetischen Code einzelner Zellen verknüpfen können. Dabei verwendeten die Forscher*innen zuerst fluoreszierende Sonden, um die Atmungsraten einzelner Bakterienzellen zu messen. Je mehr eine Zelle atmet, desto mehr fluoresziert sie. Das Fluoreszenzsignal wird gemessen und die Zellen werden gleichzeitig nach ihrer Fluoreszenz sortiert. Anschließend werden die einzelnen Zellen einer genetischen Analyse unterzogen, um herauszufinden, um welche Art es sich handelt. Für die Studie wurden Bakteriengemeinschaften aus dem Golf von Maine, dem Mittelmeer und aus dem offenen Atlantischen und Pazifischen Ozean untersucht.

Bakterien und der Kohlenstoffkreislauf im Meer
Bakterien, die organisches Material wieder in anorganische Komponenten, wie etwa CO2 umwandeln, dominieren den Kohlenstoffkreislauf im Meer und setzen mehr organisches Material um, als all die anderen Lebewesen im Meer zusammen. Sie spielen also eine große Rolle im ozeanischen Kohlenstoffkreislauf und deshalb ist es außerordentlich wichtig, ihre Atmung als Aktivitätsparameter zu messen: „Wenn nun die meisten Bakterien im Meer nur wenig aktiv sind, so wie unsere Studie zeigt, dann heißt das, dass wenige Bakterienarten sehr hohe Stoffumsetzungsraten haben. Gleichzeitig werden diese hochaktiven Bakterien aber offensichtlich stark beweidet, das heißt von anderen Lebewesen gefressen, sodass sie nur in geringen Häufigkeiten vorkommen. Hohe Aktivität bedeutet also auch hohe Verlustraten durch Beweidung. Das bedeutet wiederum, dass nur wenige Bakterienarten dafür sorgen, dass wir einen hohen Kohlenstofffluss haben, während der Großteil der Bakterien eher wenig aktiv ist, langsam wächst und auch wenig beweidet wird. Diese neuen Erkenntnisse haben große Auswirkungen auf die Untersuchung von globalen Nährstoffkreisläufen wie dem Kohlenstoffkreislauf, da das Meer für einen Großteil des globalen Kohlenstoffkreislaufes verantwortlich ist.“, so Gerhard J. Herndl.

Wissenschaftliche Ansprechpartner:
Gerhard J. Herndl
Department für Funktionelle und Evolutionäre Ökologie
Universität Wien
1030 Wien, Djerassiplatz 1
T +43-1-4277-76431
M +43-664-817-5971
gerhard.herndl@univie.ac.at
chie.amano@univie.ac.at

Originalpublikation:
„Decoupling of respiration rates and abundance in marine Prokaryoplankton“: Jacob H. Munson-McGee, Melody R. Lindsay, Julia M. Brown, Eva Sintes, Timothy D’Angelo, Joe Brown, Laura C. Lubelczyk, Paxton Tomko, David Emerson, Beth N. Orcutt, Nicole J. Poulton, Gerhard J. Herndl, Ramunas Stepanauskas. Nature
doi: 10.1038/s41561-022-01081-3
https://www.nature.com/articles/s41586-022-05505-3

(nach oben)


Hochbelastbar und biologisch abbaubar

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Ein Polyester-Kunststoff mit hoher mechanischer Stabilität, der trotzdem gut recycelt werden kann und sogar kompostierbar ist: Forschende der Universität Konstanz um den Chemiker Stefan Mecking stellen ein neues Material vor.

Wie können Kunststoffe so gestaltet werden, dass ihre positiven Materialeigenschaften erhalten bleiben, sie aber gleichzeitig besser rezykliert werden können? Diese und andere Fragen zur Umweltverträglichkeit von Kunststoff-Materialien erforscht der Chemiker Stefan Mecking in seiner Arbeitsgruppe an der Universität Konstanz. In ihrem aktuellen Artikel in der internationalen Ausgabe der Fachzeitschrift Angewandte Chemie stellt die Arbeitsgruppe nun einen neuen Polyester vor, der industriell gefragte Materialeigenschaften und gute Umweltverträglichkeit in einem Kunststoff vereint.

Normalerweise kaum vereinbar
Kunststoffe bestehen aus langen Aneinanderkettungen eines oder weniger chemischer Grundbausteine, sogenannter Monomere. Kunststoffe, die sich durch eine hohe Kristallinität und einen wasserabweisenden Charakter auszeichnen und dadurch mechanisch hochbelastbar und beständig sind, sind weit verbreitet. Ein bekanntes Beispiel ist hochdichtes Polyethylen (HDPE), dessen Grundbausteine unpolare Kohlenwasserstoffmoleküle sind. Was auf der einen Seite vorteilhaft für die Anwendungseigenschaften sein kann, birgt jedoch auch Nachteile: Das Recycling derartiger Kunststoffe – also die Rückgewinnung der Grundbausteine – ist sehr energieaufwändig und ineffizient. Gelangen die Kunststoffe unbeabsichtigt in die Umwelt, werden sie dort nur extrem langsam abgebaut.

Eine Strategie, die Mecking und seine Kolleg*innen bereits seit längerem verfolgen, um diese vermeintliche Unvereinbarkeit der Beständigkeit und Abbaubarkeit von Kunststoffen zu umgehen, ist der Einbau chemischer „Sollbruchstellen“ in ihre Materialien. Sie konnten bereits zeigen, dass dies die Rezyklierbarkeit von polyethylenartigen Kunststoffen deutlich verbessert. Eine gute biologische Abbaubarkeit ist dadurch jedoch nicht automatisch gewährleistet. „Kunststoffe mit hoher Zähigkeit erreichen diese oft durch eine Ordnung in dichtgepackte, kristalline Strukturen“, erklärt Mecking: „Die Kristallinität in Kombination mit dem wasserabweisenden Charakter bremst jedoch in der Regel die biologische Abbaubarkeit der Materialien stark, weil sie die Zugänglichkeit der Sollbruchstellen für Mikroorgansimen erschwert.“ Für den neuen Kunststoff, den die Forschenden nun vorstellen, gilt dies jedoch nicht.

Kristallin und dennoch kompostierbar
Der neue Kunststoff, Polyester-2,18, besteht aus zwei Grundbausteinen: einer kurzen Diol-Einheit mit zwei Kohlenstoffatomen und einer Dicarbonsäure mit 18 Kohlenstoffatomen. Beide Grundbausteine können leicht aus nachhaltigen Rohstoffquellen gewonnen werden. So ist beispielsweise der Ausgangsstoff für die Dicarbonsäure, die den Hauptbestandteil des neuen Polyesters ausmacht, pflanzlichen Ursprungs. In seinen Eigenschaften ähnelt der Polyester denen von HDPE: Durch seine kristalline Struktur besitzt er zum Beispiel eine hohe mechanische Stabilität und auch Temperaturbeständigkeit. Gleichzeitig zeigten erste Versuche zur Rezyklierbarkeit, dass aus dem Material unter vergleichsweise milden Bedingungen seine Grundbausteine zurückgewonnen werden können.

Der neue Polyester besitzt jedoch eine weitere, eher unerwartete Eigenschaft: Trotz seiner hohen Kristallinität ist er biologisch abbaubar, wie Laborversuche mit natürlicherweise vorkommenden Enzymen und Tests in einer industriellen Kompostieranlage zeigten: Der Polyester konnte durch die Enzyme im Laborversuch innerhalb weniger Tage abgebaut werden. Die Mikroorganismen in der Kompostieranlage benötigten etwa zwei Monate, sodass der Kunststoff sogar ISO-Kompostierungsnormen erfüllt. „Wir waren selbst über diese schnelle Abbaubarkeit erstaunt“, so Mecking, der ergänzt: „Natürlich lassen sich die Ergebnisse aus der Kompostieranlage nicht eins zu eins auf jede erdenkliche Umweltsituation übertragen. Sie belegen dennoch die biologische Abbaubarkeit des Materials und deuten darauf hin, dass es um ein Vielfaches weniger persistent ist als Kunststoffe wie HDPE, sollte es einmal unbeabsichtigt in die Umwelt gelangen.“

Sowohl die Rezyklierbarkeit des Polyesters als auch seine Bioabbaubarkeit unter verschiedenen Umweltbedingungen sollen nun noch weiter untersucht werden. Anwendungsmöglichkeiten für das neue Material sieht Mecking zum Beispiel im 3D-Druck oder bei der Herstellung von Verpackungsfolien. Hinzu kommen weitere Felder, in denen Kristallinität in Kombination mit Rezyklierbarkeit und Abbaubarkeit von Abrieb oder ähnlichen Materialverlusten wünschenswert ist.

Faktenübersicht:
– Originalpublikation: Marcel Eck et al. (2022) Biodegradable high density polyethylene-like material. Angewandte Chemie International Edition; DOI: https://doi.org/10.1002/ange.202213438
– Forschende der Universität Konstanz entwickeln einen neuen Kunststoff, der sich durch hohe Belastbarkeit bei gleichzeitiger biologischer Abbaubarkeit und guter Rezyklierbarkeit auszeichnet
– Stefan Mecking ist Professor für Chemische Materialwissenschaft am Fachbereich Chemie der Universität Konstanz. Er erforscht mit seiner Arbeitsgruppe katalytische Verfahren, die auf mehreren Ebenen die Umweltverträglichkeit von Kunststoffen steigern.
– Finanzierung: Europäische Union in Form eines ERC Advanced Grants für das Projekt DEEPCAT (Degradable Polyolefin Materials Enabled by Catalytic Methods)

Hinweis an die Redaktionen:
Fotos können im Folgenden heruntergeladen werden:
Link: https://www.uni-konstanz.de/fileadmin/pi/fileserver/2022/hochbelastbar.jpg
Bildunterschrift: Der neuartige Polyester ähnelt in seinen Eigenschaften und seiner Struktur hochdichtem Polyethylen (HDPE), ist jedoch gleichzeitig bioabbaubar und rezyklierbar.
Copyright: AG Mecking

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Originalpublikation:
Eck M, Schwab ST, Nelson TF, Wurst K, Iberl S, Schleheck D, Link C, Battagliarin G, Mecking S. Biodegradable high density polyethylene-like material. Angew Chem Int Ed Engl. 2022 Dec 8. doi: https://doi.org/10.1002/ange.202213438

(nach oben)


Dünger klimafreundlicher produzieren

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Forschende der ETH Zürich und der Carnegie Institution for Science zeigen auf, wie sich Stickstoffdünger nachhaltiger herstellen liesse. Dies ist nicht nur aus Klimaschutzgründen nötig, sondern auch um die Abhängigkeit von Erdgasimporten zu reduzieren und um die Ernährungssicherheit zu erhöhen.

Eine intensive Landwirtschaft ist nur möglich, wenn die Böden mit Stickstoff, Phosphor und Kalium gedüngt werden. Während Phosphor und Kalium als Salze abgebaut werden können, muss Stickstoffdünger aufwändig aus Stickstoff aus der Luft und aus Wasserstoff hergestellt werden, wobei die Produktion von Wasserstoff äusserst energieintensiv ist. Es werden dazu grosse Mengen an Erdgas oder – vor allem in China – Kohle benötigt. Entsprechend gross ist der CO2-​Fussabdruck, die Abhängigkeit von fossiler Energie und somit auch die Anfälligkeit auf Preisschocks auf den Energiemärkten.

Paolo Gabrielli, Senior Scientist am Labor für «Reliability and Risk Engineering» der ETH Zürich hat zusammen mit Lorenzo Rosa, Forschungsgruppenleiter an der Carnegie Institution for Science in Stanford, USA, verschiedene CO2-​neutrale Herstellungswege von Stickstoffdünger untersucht. In einer in der Fachzeitschrift «Environmental Research Letters» veröffentlichten externe SeiteStudiecall_made kommen die beiden Forscher zum Schluss, dass ein Wandel bei der Stickstoffproduktion möglich ist und ein solcher unter Umständen auch die Ernährungssicherheit erhöht. Die alternativen Herstellungswege haben aber Vor-​ und Nachteile. Konkret haben die beiden Forscher drei Alternativen untersucht:

– Der benötigte Wasserstoff wird wie derzeit mit fossilen Energiequellen hergestellt, wobei das Treibhausgas CO2 nicht in die Atmosphäre emittiert, sondern in den Produktionsbetrieben abgeschieden und dauerhaft im Untergrund gespeichert wird (Carbon Capture and Storage, CSS). Das benötigt nicht nur eine Infrastruktur für das Abscheiden, den Transport und die Lagerung des CO2, sondern entsprechend auch mehr Energie. Trotzdem ist das eine vergleichsweise effiziente Herstellungsmethode. Allerdings ändert sich dadurch nichts an den Abhängigkeiten von fossilen Brennstoffen.

– Die Düngerherstellung lässt sich elektrifizieren, indem der Wasserstoff mittels Elektrolyse aus Wasser hergestellt wird, was aber etwa 25-​mal so viel Energie braucht wie die heutige Herstellung mit Erdgas. Es bräuchte also sehr viel Strom aus klimaneutralen Quellen. Interessant ist dieser Ansatz für Länder, in denen viel Solar-​ oder Windenergie zur Verfügung steht. Allerdings ist geplant, aus Klimaschutzgründen auch andere Wirtschaftssektoren zu elektrifizieren. Das könnte somit zu einer Konkurrenz um nachhaltige Elektrizität führen.

– Stellt man den Wasserstoff für die Düngerproduktion aus Biomasse her, sind dafür viel Ackerland und Wasser nötig. Somit konkurriert dieser Herstellungsweg ironischerweise die Nahrungsmittelproduktion. Sinnvoll ist er laut den Studienautoren, wenn Abfallbiomasse – zum Beispiel Ernteabfälle – verwendet wird.

Nach Ansicht der Wissenschaftler dürfte der Schlüssel zum Erfolg darin liegen, alle diese Ansätze je nach Land und lokalen Voraussetzungen und verfügbaren Ressourcen zu kombinieren. Zusätzlich müsse Stickstoffdünger effizienter verwendet werden, betont Lorenzo Rosa: «Wenn man Probleme wie Überdüngung und Food Waste angeht, kann man auch den Düngerbedarf reduzieren.»

Indien und China gefährdet
Die Wissenschaftler haben in der Studie ausserdem untersucht, in welchen Ländern der Welt die Ernährungssicherheit aufgrund ihrer Abhängigkeit von Stickstoff-​ oder Erdgasimporten derzeit besonders gefährdet ist. Diese Länder sind besonders anfällig für Preisschocks auf den Erdgas-​ und Stickstoffmärkten: Indien, Brasilien, China, Frankreich, die Türkei und Deutschland.

Eine Dekarbonisierung der Düngemittelproduktion würde diese Anfälligkeit in vielen Fällen reduzieren und die Ernährungssicherheit erhöhen. Denn zumindest bei einer Elektrifizierung mittels erneuerbarer Energien oder der Nutzung von Biomasse verringert man die Abhängigkeit von Erdgasimporten. Allerdings relativieren die Forschenden diesen Punkt: Alle CO2-​neutralen Methoden zur Herstellung von Stickstoffdünger sind energieintensiver als die gegenwärtige Nutzung fossiler Energie. Somit bliebe man immer noch anfällig auf gewisse Preisschocks – zwar nicht direkt auf solche auf den Erdgasmärkten, aber gegebenenfalls auf solche beim Strom.

Wandel bei Stickstoffherstellern
Bei den Herstellerländern von Stickstoffdünger dürfte es im Rahmen einer Dekarbonisierung zu Veränderungen kommen, wie die Wissenschaftler in der Studie aufzeigen. Die grössten Exportnationen für Stickstoff sind heute Russland, China, Ägypten, Katar und Saudi-​Arabien. Mit Ausnahme von China, das Erdgas importieren muss, haben alle diese Länder ihre eigenen Erdgasreserven. In Zukunft dürften eher Länder profitieren, die viel Solar-​ und Windstrom herstellen und gleichzeitig ausreichende Land-​ und Wasserreserven haben, wie zum Beispiel Kanada und die USA.

«Wir kommen nicht umhin, den Stickstoffbedarf der Landwirtschaft in Zukunft nachhaltiger zu gestalten, sowohl um die Klimaziele zu erreichen als auch aus Gründen der Ernährungssicherheit», sagt Paolo Gabrielli. Der Krieg in der Ukraine beeinflusst den Weltmarkt für Nahrungsmittel nicht nur, weil das Land normalerweise viel Getreide exportiert, sondern auch, weil als Folge des Krieges die Erdgaspreise gestiegen sind. Deswegen sind auch die Preise für Stickstoffdünger gestiegen. Trotzdem ist von einigen Düngerherstellern bekannt, dass sie wegen der exorbitanten Gaskosten nicht mehr wirtschaftlich produzieren können und die Produktion zumindest zeitweise eingestellt haben.

Originalpublikation:
Rosa L, Gabrielli P: Energy and food security implications of transitioning synthetic nitrogen fertilizers to net-​zero emissions, Environmental Research Letters 2022, doi: 10.1088/1748-9326/aca815 [https://doi.org/10.1088/1748-9326/aca815]

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2022/12/duenger-klimaf…

(nach oben)


Silvester: Augenärzt*innen starten Petition für kommunales Feuerwerk

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Das Verkaufsverbot für Feuerwerkskörper hat sich in den beiden Pandemiejahren insgesamt als effektive Maßnahme erwiesen, die Gesamtzahl der Augenverletzungen zur Silvesterzeit um 86 Prozent in 2020/2021 und um 61 Prozent in 2021/2022 zu reduzieren. Damit ist gleichwohl im zweiten Pandemiejahr trotz Verkaufsverbot die Zahl der Unfälle wieder leicht angestiegen, wie die aktuelle Umfrage der „Arbeitsgruppe Sicheres Feuerwerk“ der Deutschen Ophthalmologischen Gesellschaft (DOG) zeigt.

Die Zunahme ist vermutlich unter anderem auf die gelockerten Versammlungsbeschränkungen zurückzuführen. Für dieses Jahr, in dem Pyrotechnik wieder frei verkäuflich ist, erwartet die DOG einen neuerlichen Anstieg bei den Augenverletzungen. Die Arbeitsgruppe will deshalb eine Petition auf den Weg bringen, die privates durch kommunales Feuerwerk ablöst.

Seit Jahreswechsel 2016/2017 führt die DOG alljährlich zu Silvester eine Umfrage an notdienstleistenden deutschen Augenkliniken durch, um die Zahl der Augenverletzungen durch Feuerwerkskörper zu ermitteln. Insgesamt liegen für den Zeitraum von sechs Jahren Daten zu 2151 Patientinnen und Patienten mit Augenverletzungen durch Böller & Co vor, die jüngst publiziert worden sind.1 Auch zum Jahreswechsel 2022/2023 soll wieder eine Umfrage stattfinden.

Wie die Sechsjahres-Ergebnisse nun im Rückblick zeigen, erlitten in den Jahren ohne Verkaufsverbot konstant jeweils etwa 500 Betroffene in den Silvestertagen Augenverletzungen durch Pyrotechnik. „Im ersten Pandemiejahr 2020/2021 mit Verkaufsverbot sank die Verletztenzahl auf 79, was einer Reduktion um 86 Prozent entspricht“, berichtet Arbeitsgruppenmitglied Dr. med. Ameli Gabel-Pfisterer. Im Folgejahr 2021/2022 stieg die Zahl der Verletzten trotz Verkaufsverbot wieder leicht auf 193 an, was immerhin noch einen Rückgang im Vergleich zu den Vorpandemie-Jahren von 62 Prozent darstellt. „Die Zunahme gegenüber 2020/2021 könnte mit der etwas häufigeren Nutzung nichtzugelassener Feuerwerksartikel zusammenhängen“, so Gabel-Pfisterer. „Denn das Verbot wurde im vergangenen Jahr früher angekündigt, so dass Zeit war, sich im Ausland einzudecken.“

Die erhobenen Daten lassen einen solchen Schluss zu. Während der Jahre 2020 bis 2022, in denen ein Verkaufsverbot für Feuerwerksartikel galt, stammte nach Aussage der Verletzten der ursächliche pyrotechnische Artikel bei 11 Prozent der Unfälle aus nicht offizieller Quelle – für die Jahre 2017 bis 2019 war dies nur bei 2 Prozent der Unfälle so angegeben worden. „Zudem waren die Verletzungen in den Pandemiejahren tendenziell schwerer, es gab relativ mehr stationäre Aufnahmen“, berichtet Arbeitsgruppenmitglied Professor Dr. med. Daniel Böhringer. „Neben der Nutzung nicht offizieller Pyrotechnik könnte dies auf einen Selektionseffekt besonders risikofreudiger privater Pyrotechniker zurückzuführen sein.“

Dennoch, so betont die AG Feuerwerk, wurde der größte Teil der Augenverletzungen auch während des Verkaufsverbots durch CE-zertifizierte Feuerwerksartikel hervorgerufen. „Die im Zusammenhang mit dem Verkaufsverbot befürchtete stärkere Verwendung von nicht offiziellem Feuerwerk führt zwar relativ zu etwas mehr schweren Verletzungen, ist mit Blick auf die absoluten Zahlen aber überschaubar“, erläutert Arbeitsgruppenmitglied Professor Dr. med. Hansjürgen Agostini. Es seien 10-mal mehr Schwerverletzte aus Unfällen mit offiziellen Feuerwerkskörpern festzustellen. „Das CE-Zeichen garantiert natürlich nur bei sachgerechtem Gebrauch ein gewisses Maß an Sicherheit“, stellt der Freiburger DOG-Experte klar.

„Zusammenfassend lässt sich feststellen, dass ein Verkaufsverbot von privatem Feuerwerk eine effektive Maßnahme ist, um die Gesamtzahl der Augenverletzungen zu reduzieren“, bilanziert Agostini. Auch die Versammlungsbeschränkungen, die mit dem Verkaufsverbot angeordnet waren, entfalteten Wirksamkeit. So sank der Anteil der verletzten Zuschauenden von rund 62 Prozent in den Vor-Pandemiejahren auf 47 Prozent in 2020 und 2021.

Das sicherste Feuerwerk ist jedoch das professionelle. „In den 6 Jahren der Umfrage fand sich lediglich eine Patientin, die während einer öffentlichen Feuerwerksshow als Zuschauerin leicht verletzt worden war“, berichtet Agostini. Der Augenexperte startet daher eine Bundestags-Petition, die privates durch kommunales Feuerwerk ablösen will. „Ausgebildete Feuerwerker, etwa aus den Reihen der Feuerwehr, sollen ein gemeinsam erlebtes, sicheres Feuerwerk höchster Qualität zünden“, so der DOG-Experte.

Literatur:
https://link.springer.com/article/10.1007/s00347-022-01778-1

Weitere Informationen:
https://www.dog.org/augenverletzungen-durch-feuerwerkskoerper Die Petition befindet sich in der Prüfung und wird nach Veröffentlichung auf die Webseite der DOG gestellt:

(nach oben)


Stressarm durch die Weihnachtstage – wie man das Fest der Familie entspannt übersteht

Kathrin Markus Presse- und Öffentlichkeitsarbeit
Northern Business School
Ein paar Mal werden wir noch wach, dann ist wieder Weihnachtstag. Und was man bis dahin alles zu erledigen hat! Stress und ein schiefer Haussegen sind bei vielen nicht fern. Aber das muss nicht sein: Prof. Dr. Marcel Schütz von der NBS Northern Business School in Hamburg gibt Anregungen zur weihnachtlichen Wohltemperierung.

Kaum sind alle angekommen, gibt es den ersten Ärger in der Küche. Auf einmal schlägt eine Tür zu und wenn es ganz schlecht läuft, geht auch mal Geschirr zu Bruch – Weihnachten ist ein Fest der Harmonie – nun ja, zumindest in der Theorie. Praktisch kann es mal hoch her gehen und ruckzuck ist die Stimmung im Eimer.

Prof. Dr. Marcel Schütz forscht über die Gesellschaft und ihre Formen der Organisation. Er arbeitet derzeit auch an einem soziologischen Buch zum Weihnachtsfest, das im kommenden Jahr erscheint. Sein Augenmerk gilt den Beziehungen und Interaktionen rund um die Festtage. Wie bereiten sich die Menschen auf die besondere Zeit vor, wie prägen Rituale und Erwartungen den Umgang?

Erwartungsstau zu Weihnachten
„Zu Weihnachten gibt es eine Art Erwartungsstau. Die kurze Zeit des Festes soll möglichst perfekt verbracht werden. Dass das mitunter anstrengend wird, liegt auf der Hand“, sagt Schütz, der für die weihnachtlichen Tage bei und mit der Familie ein paar Anregungen gibt – gewissermaßen als Erwartungsmanagement gegen das Risiko der häuslichen Besinnungslosigkeit.

„Allgemein kann man sagen, dass viele erstmal in diesem Fest ankommen müssen. Und das nicht nur mit Auto und Zug nach vielleicht mehreren Stunden Fahrt in die Heimat; ankommen auch im übertragenen Sinne“. Schütz rät dazu, sich nicht sofort mit allen Plänen und Details zu behelligen, Freiräume und Rückzugsmöglichkeiten während der Festtage einzuräumen. „Sich nicht groß drängen und belagern, das ist schon die halbe Miete, würde ich sagen. Gerade wenn man, wie in vielen Familien, gut und gern eine halbe Woche aufeinander hockt.“

Eben weil Familien häufig nur zu bestimmten Anlässen wie Weihnachten in dieser ganzen Konstellation zusammenfinden, gibt es natürlich den ein oder anderen Punkt, den man mit einzelnen Mitgliedern besprechen möchte. „Hier muss man schauen, ob der Moment passt. Bei grundsätzlichen und politischen Themen können naturgemäß die alters- und lebensspezifisch unterschiedlichen Standpunkte hervortreten.“

In Gesprächen auf Sicht fahren
Schütz empfiehlt kommunikativ auf Sicht zu fahren. Wenn man merkt, dass ein Thema Irritation und Ärger auslöst – lieber umgehen bzw. konstruktiv abmoderieren. Man könne einander am Rande, optimalerweise erst am 27. Dezember, kurz zur Seite nehmen und Dinge persönlich klären. Selbst in der Familie werde es zur Zumutung, wenn man alles vor allen ausdiskutiere.

„Jeder ist bemüht zu Weihnachten möglichst weihnachtlich zu funktionieren. Anstrengend wird es, wenn man dabei gegen eigene Gefühle ankämpfen muss. Man geht vielleicht gar nicht vollkommen gelöst und freudig in die Feiertage, sondern trägt vielmehr etwas mit sich, das einem Gedanken macht“, so der Sozialwissenschaftler.

In vielen Familien gibt es ein ambitioniertes Besuchsprogramm. „Hinter vorgehaltener Hand werden viele sagen: Weniger ist mehr, und können wir es nicht etwas langsamer angehen?“, weiß Schütz. Natürlich wolle man einander nicht vor den Kopf stoßen. An Weihnachten werde jede Einsparung in puncto eigene Präsenz schnell als Entzug von Aufmerksamkeit empfunden. Da helfe es, Achtsamkeit im Blick auf die individuellen Bedürfnisse aufzubringen.

Basis-Rituale und „Programmdiversifikation“
Das Familienfest zeichne allerdings auch aus, dass alle zu Kompromissen bereit sind. Sonst wäre es ja gar kein Anlass der Gemeinsamkeit. „Man kann ein derart traditionsgetränktes Fest nicht für jeden Lebensstil und Geschmack genau passend aufziehen. Der eine hängt an der Weihnachtsmusik, der andere an der edlen Nordmanntanne. Die Kinder wollen Geschenke. Dem nächsten bedeutet all das nicht ganz so viel, dafür die freien Tage, die Gespräche und das Essen. Eine etwas oberflächliche Synchronisierung der Emotionen und Vorstellungen ist somit ziemlich normal.“

Sinnvoll sei es, sich zwanglos auf eine gute Mischung weihnachtlicher Beschäftigungen zu verständigen. Marcel Schütz: „Beispielsweise ein paar Basis-Rituale wie Gottesdienstbesuch, Weihnachtsessen, Spaziergang – idealerweise natürlich mal wieder bei weißer Weihnacht – oder Gesellschaftsspiele. Nennen wir es ,Programmdiversifikation‘ oder einfach Abwechslung. Der eine Teil verzieht sich zum Plausch, der andere Teil schaut einen Film. Wieder andere wollen mal joggen, um den Kopf von all dem Kerzenduft und der Weihnachts-CD freizukriegen.“

Zwischen Zauber und Nachdenklichkeit
Weihnachten, so der Gesellschafts- und Organisationsforscher Schütz, bleibe im Kern eine ambivalente Sache. Das Fest lebe von einer gediegenen Form, von Maß und Mitte, Ruhe und Einkehr. In einer schnellen Zeit mit vielen gleichzeitigen Baustellen sei diese wiederkehrende Zäsur bemerkenswert. Ein Leben lang feiere man Weihnachten, und werde es doch immer noch nicht leid. – Eine mächtige Institution und Gesellschaftsleistung.

„Manches in unserer Kindheitsweihnacht kann ein Leben lang in der Erinnerung gegenwärtig bleiben. Auch dann, wenn die strahlenden Gesichter vergangener Zeit längst nicht mehr auf dieser Welt sind.“ Der Weihnachtszauber zwischen gestern, heute und morgen fasziniere die Menschen und mache sie zugleich nachdenklich. „Somewhere in my memory – so heißt der Titelsong des Weihnachtsklassikers ,Kevin allein zu Haus‘. Das ist es, was viele zur Weihnacht spüren: Irgendwo in meiner Erinnerung, irgendwo ist da etwas geblieben, das verbindet.“

Schütz abschließend: „Ich denke, es kommt darauf an, dass man weiß, was einem die Tage bedeuten. Und dass man sich nach all dem Rennen und Rasen das ganze Jahr doch ein paar schöne, entspannte Momente gönnt, an die man sich noch lange erinnert. Man kann mit lauter Geschenken nicht so glücklich machen wie mit der Zeit, die man miteinander verbringt. Denn das wird man nicht immer haben.“

Prof. Dr. Marcel Schütz hat die Stiftungs- und Forschungsprofessur für Organisation und Management an der Northern Business School in Hamburg inne. Seine Arbeitsschwerpunkte bilden die soziologische Organisations- und Gesellschaftsforschung. E-Mail: schuetz@nbs.de.

Ihr Ansprechpartner für die Pressearbeit an der NBS Hochschule ist Frau Kathrin Markus (markus@nbs.de). Sie finden den Pressedienst der NBS mit allen Fachthemen, die unsere Wissenschaftler abdecken, unter www.nbs.de/die-nbs/presse/pressedienst

Die NBS Northern Business School – University of Applied Sciences ist eine staatlich anerkannte Hochschule, die Vollzeit-Studiengänge sowie berufs- und ausbildungs-begleitende Studiengänge in Hamburg anbietet. Zum derzeitigen Studienangebot gehören die Studiengänge Betriebswirtschaft (B.A.), Sicherheitsmanagement (B.A.), Soziale Arbeit (B.A.), Real Estate Management (M.Sc.) und Controlling & Finance (M.Sc.).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcel Schütz, schuetz@nbs.de

Originalpublikation:
https://www.nbs.de/die-nbs/aktuelles/news/details/news/stressarm-durch-die-weihn…

(nach oben)


Woher kam Omikron? Studie in Science entschlüsselt die Entstehung der SARS-CoV-2-Variante

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Vor einem Jahr wurde sie erstmals in Südafrika entdeckt: eine neue Variante von SARS-CoV-2, die später als Omikron bekannt wurde und sich in kürzester Zeit über den ganzen Erdball verbreitete. Bis heute ist unklar, wo und wann dieses Virus genau aufkam. Eine jetzt im Fachmagazin Science* veröffentlichte Studie der Charité – Universitätsmedizin Berlin mit afrikanischen Kooperationspartnern zeigt: Omikron-Vorläufer gab es auf dem afrikanischen Kontinent schon deutlich vor dem ersten Nachweis von Omikron. Demnach ist die Virusvariante schrittweise über mehrere Monate in verschiedenen Ländern Afrikas entstanden.

Seit Beginn der Pandemie verändert sich das Coronavirus. Den bisher größten Sprung in der Evolution von SARS-CoV-2 konnten Forschende vor einem Jahr beobachten, als eine Variante entdeckt wurde, die sich durch mehr als 50 Mutationen vom Erbgut des ursprünglichen Virus unterschied. Erstmals Mitte November 2021 bei einem Patienten in Südafrika nachgewiesen, erreichte die später als Omikron BA.1 bezeichnete Variante innerhalb weniger Wochen 87 Länder der Erde. Bis Ende Dezember 2021 hatte sie das zuvor dominierende Delta-Virus weltweit verdrängt.

Seither wird über den Ursprung dieser sich so rasant ausbreitenden Variante spekuliert. Diskutiert werden vorrangig zwei Hypothesen: Entweder sei das Coronavirus vom Menschen auf ein Tier übergesprungen und habe sich dort weiterentwickelt, bevor es als Omikron wieder einen Menschen infizierte. Oder das Virus habe in einem Menschen mit unterdrücktem Immunsystem für längere Zeit überdauert und sich dort verändert. Eine neue Auswertung von COVID-19-Proben, die schon vor der Omikron-Entdeckung in Südafrika gesammelt worden waren, widerspricht nun beiden Annahmen.

Durchgeführt wurde die Analyse von einem internationalen Forschungsteam um Prof. Dr. Jan Felix Drexler, Wissenschaftler am Institut für Virologie der Charité und am Deutschen Zentrum für Infektionsforschung (DZIF). Innerhalb des europäischen und panafrikanischen Netzwerks maßgeblich beteiligt waren die Universität Stellenbosch in Südafrika und das Referenzlabor für hämorrhagische Fieber in Benin. Die Wissenschaftlerinnen und Wissenschaftler entwickelten zunächst einen speziellen PCR-Test, um die Omikron-Variante BA.1 spezifisch nachweisen zu können. Diesen wandten sie dann bei mehr als 13.000 Proben aus 22 Ländern Afrikas an, die zwischen Mitte 2021 und Anfang 2022 abgestrichen worden waren. Dabei fand das Forschungsteam Viren mit Omikron-spezifischen Mutationen bei 25 Menschen aus sechs verschiedenen Ländern, die bereits im August und September 2021 an COVID-19 erkrankt waren – also zwei Monate vor dem ersten Nachweis der Variante in Südafrika.

Um mehr über die Entstehung von Omikron herauszufinden, entschlüsselten die Forschenden zusätzlich bei rund 670 Proben das virale Erbgut. Durch eine solche Sequenzierung ist es möglich, neue Mutationen zu erkennen und auch unbekannte Viruslinien nachzuweisen. So entdeckte das Team mehrere Viren, die unterschiedlich starke Ähnlichkeiten mit Omikron aufwiesen, aber eben nicht identisch waren. „Unsere Daten zeigen, dass Omikron verschiedene Vorläufer hatte, die sich miteinander mischten und zur selben Zeit und über Monate hinweg in Afrika zirkulierten“, erklärt Prof. Drexler. „Das deutet auf eine graduelle Evolution der BA.1-Omikron-Variante hin, während der sich das Virus immer besser an die vorhandene Immunität der Menschen angepasst hat.“ Aus den PCR-Daten folgern die Forschenden darüber hinaus, dass Omikron zwar nicht allein in Südafrika entstand, dort aber als erstes das Infektionsgeschehen dominierte und sich dann innerhalb weniger Wochen von Süd nach Nord über den afrikanischen Kontinent ausbreitete.

„Das plötzliche Auftreten von Omikron ist also nicht auf einen Übertritt aus dem Tierreich oder die Entstehung in einem immunsupprimierten Menschen zurückzuführen, auch wenn das zusätzlich zur Virusentwicklung beigetragen haben könnte“, sagt Prof. Drexler. „Dass wir von Omikron überrascht wurden, liegt stattdessen am diagnostischen blinden Fleck in großen Teilen Afrikas, wo vermutlich nur ein Bruchteil der SARS-CoV-2-Infektionen überhaupt registriert wird. Die Entwicklung von Omikron wurde also einfach übersehen. Deshalb ist es wichtig, diagnostische Überwachungssysteme auf dem afrikanischen Kontinent und in vergleichbaren Regionen des Globalen Südens jetzt deutlich zu stärken und den Datenaustausch weltweit zu erleichtern. Nur eine gute Datenlage kann verhindern, dass potenziell wirksame Eindämmungsmaßnahmen wie Reisebeschränkungen zum falschen Zeitpunkt ergriffen werden und damit mehr wirtschaftlichen und gesellschaftlichen Schaden anrichten als Gutes zu tun.“

*Fischer C et al. Gradual emergence followed by exponential spread of the SARS-CoV-2 Omicron variant in Africa. Science 2022 Dec 01. doi: 10.1126/science.add8737

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Felix Drexler
Institut für Virologie
Charité – Universitätsmedizin Berlin
t: +49 30 450 570 400
presse@charite.de

Originalpublikation:
https://www.science.org/doi/10.1126/science.add8737

Weitere Informationen:
https://virologie-ccm.charite.de/ Institut für Virologie
https://www.charite.de/service/pressemitteilung/artikel/detail/charite_experten_… PM vom 22.12.2021
https://www.charite.de/service/pressemitteilung/artikel/detail/lateinamerika_cha… PM vom 23.06.2020

(nach oben)


Neue Röntgentechnologie kann die Covid-19-Diagnose verbessern

Carolin Lerch Corporate Communications Center
Technische Universität München
Ein Forschungsteam der Technischen Universität München (TUM) hat erstmalig Dunkelfeld-Röntgenaufnahmen von Patient:innen erstellt, die mit dem Corona-Virus infiziert waren. Die Dunkelfeldbilder können im Gegensatz zu konventionellen Röntgenaufnahmen auch die Mikrostruktur des Lungengewebes abbilden und liefern so zusätzliche Informationen. Das Verfahren könnte eine Alternative zur deutlich strahlenbelastenderen Computertomographie bieten.

Die Bildgebung der Lunge von Patient:innen mit Covid-19 erfolgt meist durch Computertomographie (CT). Hierfür werden Röntgenaufnahmen aus verschiedenen Richtungen zu einem dreidimensionalen Bild kombiniert. Dies ermöglicht eine genauere Bildgebung als zweidimensionale Aufnahmen mit konventioneller Röntgentechnologie, hat jedoch den Nachteil einer höheren Strahlendosis aufgrund der vielen Röntgenaufnahmen.

Das neue, von Prof. Pfeiffer entwickelte Dunkelfeld-Röntgenverfahren eröffnet nun neue Möglichkeiten in der radiologischen Diagnostik: „Bei unserer Röntgen-Untersuchung nehmen wir gleichzeitig konventionelle Röntgen- und Dunkelfeldbilder auf. So erhalten wir schnell und einfach zusätzliche Informationen über das betroffene Lungengewebe“, sagt Franz Pfeiffer, Professor für biomedizinische Physik und Direktor des Munich Institute of Biomedical Engineering der TUM.

„Die Strahlendosis ist dabei im Vergleich zu einem CT-Gerät um den Faktor 50 kleiner. Daher ist die Methode auch für Anwendungsszenarien vielversprechend, die wiederholte Untersuchungen über einen längeren Zeitraum erfordern, beispielsweise zur Erforschung von Long-Covid-Verläufen. Für längere Beobachtungszeiträume könnte die Methode eine Alternative zur Computertomographie für die Bildgebung von Lungengewebe bieten“, erläutert Franz Pfeiffer weiter.

Zusätzliche Informationen über die Mikrostruktur des Lungengewebes
In einer neuen Studie haben Radiolog:innen Aufnahmen von Personen mit Covid-19-Lungenerkrankung mit denen gesunder Personen verglichen. Dabei fiel ihnen die Unterscheidung zwischen kranken und gesunden Personen anhand der Dunkelfeldaufnahmen deutlich leichter als mit konventionellen Röntgenbildern. Am besten konnten die Radiolog:innen zwischen krankem und gesundem Lungengewebe unterscheiden, wenn beide Arten von Aufnahmen – konventionell und Dunkelfeld – vorlagen.

Während konventionelles Röntgen auf der Abschwächung des Röntgenlichts basiert, nutzt das Dunkelfeld-Röntgen die sogenannte Kleinwinkelstreuung des Röntgenlichts. Dadurch lassen sich zusätzliche Informationen über die Beschaffenheit der Mikrostruktur des Lungengewebes gewinnen. Somit bieten Dunkelfeldaufnahmen einen Mehrwert für die Untersuchung verschiedener Lungenerkrankungen.

Quantitative Auswertung
Das Forschungsteam optimierte den Aufbau des Röntgengerät-Prototyps so, dass sie die Aufnahmen auch quantitativ auswerten konnten. Eine gesunde Lunge mit vielen intakten Lungenbläschen erzeugt ein starkes Dunkelfeldsignal und erscheint in der Aufnahme hell. Dagegen erzeugt entzündetes Lungengewebe, in das Flüssigkeit eingelagert ist, ein schwächeres Signal und erscheint im Bild dunkler. „Wir normieren dann das Dunkelfeldsignal auf das Lungenvolumen, um die Unterschiede im Lungenvolumen verschiedener Personen zu berücksichtigen“, erklärt Manuela Frank, eine Erstautorin der Publikation.

„Als nächstes möchten wir noch mehr Patient:innen untersuchen. Wenn dann genügend Dunkelfeld-Röntgendaten vorhanden sind, sollen auch Methoden der künstlichen Intelligenz den Auswertungsprozess unterstützen. Mit konventionellen Aufnahmen haben wir bereits ein Pilotprojekt zur KI-Auswertung unserer Röntgenaufnahmen durchgeführt“, sagt Daniela Pfeiffer, Professorin für Radiologie und ärztliche Leiterin der Studie am Klinikum rechts der Isar.

Mehr Informationen zur neuen Technologie Dunkelfeld-Röntgen:
Die Dunkelfeld-Bildgebung mit Röntgenlicht ist eine für die Medizin neuartige Untersuchungsmethode. Prof. Franz Pfeiffer und sein Team haben die Methode von Grund auf entwickelt und verbessern sie kontinuierlich seit über zehn Jahren, um sie für den Einsatz bei Patient:innen verfügbar zu machen.

So entwickelten sie zuletzt in enger Zusammenarbeit mit den Radiolog:innen am Klinikum rechts der Isar der TUM den ersten Dunkelfeld-Röntgen-Prototyp, der für die weltweit ersten klinischen Untersuchungen zugelassen wurde. Dieser wird nun aktuell für mehrere Patientenstudien zu verschiedenen Lungenerkrankungen verwendet. Nach ersten Aufnahmen von Patient:innen mit chronisch-obstruktiver Lungenerkrankung (COPD) und Covid-19 könnte die Technologie zukünftig auch für weitere Lungenpathologien wie Lungenkrebs, Fibrose oder Pneumothorax genutzt werden.

o Gitterbasierte Dunkelfeld-Bildgebung mit Röntgenlicht – Erklärung des Prinzips: https://www.bioengineering.tum.de/forschung/mikroskopie-und-biomedizinische-bild…

o Schematische Darstellung (Grafik): https://mediatum.ub.tum.de/1545408

o Neue Technologie für klinische Computertomographie (2022):
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/neue-tech…

o Neue Röntgentechnologie im Patienteneinsatz (2021) – Erster Einsatz bei Patient:innen mit COPD:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/neue-roen…

Weitere Informationen:
Prof. Dr. Franz Pfeiffer ist Direktor des Munich Institute of Biomedical Engineering (MIBE). Das MIBE ist ein Integrative Research Institute der Technischen Universität München (TUM). Am MIBE entwickeln und verbessern Forschende aus der Medizin, den Naturwissenschaften und Ingenieurwissenschaften gemeinsam Verfahren zur Diagnose, Prävention und Behandlung von Krankheiten. Sie arbeiten auch an Technologien, die körperliche Einschränkungen ausgleichen. Die Aktivitäten reichen dabei von der Untersuchung grundlegender wissenschaftlicher Prinzipien bis zu deren Anwendung in medizinischen Geräten, Medikamenten oder Computerprogrammen.

Die Autor:innen Franz Pfeiffer (TUM), Daniela Pfeiffer (TUM) und Thomas Köhler (Philips Research) sind Fellows des TUM Institute for Advanced Study (TUM-IAS). Das TUM-IAS führt Forschende der TUM und Gäste anderer Forschungseinrichtungen sowie aus der Industrie in interdisziplinären Forschungsgruppen zusammen, um neue herausfordernde Forschungsfelder zu erschließen.

Die Arbeiten wurden gefördert durch das European Research Council im Rahmen eines Starting und Advanced Grants sowie von Philips durch Bereitstellung von Komponenten unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Franz Pfeiffer
Technische Universität München
Lehrstuhl für Biomedizinische Physik
Tel.: +49 89 289 12551
franz.pfeiffer@tum.de
https://www.ph.nat.tum.de/en/e17/home/

Originalpublikation:
Manuela Frank, Florian T. Gassert, Theresa Urban, Konstantin Willer, Wolfgang Noichl, Rafael Schick, Manuel Schultheiss, Manuel Viermetz, Bernhard Gleich, Fabio De Marco, Julia Herzen, Thomas Koehler, Klaus Jürgen Engel, Bernhard Renger, Felix G. Gassert, Andreas Sauter, Alexander A. Fingerle, Bernhard Haller, Marcus R. Makowski, Daniela Pfeiffer, Franz Pfeiffer. Dark-field chest X-ray imaging for the assessment of COVID-19-pneumonia. Communications Medicine, November 2022. DOI: https://doi.org/10.1038/s43856-022-00215-3

Weitere Informationen:
https://www.bioengineering.tum.de/ Munich Institute of Biomedical Engineering (MIBE) der TUM
https://mediatum.ub.tum.de/1692790 Hochauflösende Bilder und Grafik für die redaktionelle Berichterstattung

(nach oben)


Abwasser-Recycling: Landwirtschaft für Design-Dünger grundsätzlich offen

Florian Klebs Hochschulkommunikation
Universität Hohenheim
Studie der Universität Hohenheim zeigt: Landwirt:innen akzeptieren aus Bioabfall und Siedlungsabwasser gewonnenen Mineraldünger – sofern er gewisse Bedingungen erfüllt

Landwirt:innen würden neuartigen Dünger aus Bioabfall und Haushalts-Abwasser einsetzen – wenn die Schadstofffreiheit garantiert ist. Denn die Sorge vor Kontaminationen stellt das wichtigste Hindernis dar. Bei einem Teil der Befragten würde ein Preisnachlass die Kaufbereitschaft fördern. Dieses vielschichtige Stimmungsbild ermittelten Forschende der Universität Hohenheim in Stuttgart. Unter Leitung des Agrarökonomen Prof. Dr. Christian Lippert befragten sie 206 Landwirt:innen, unter welchen Bedingungen sie bereit wären, Recycling-Dünger einzusetzen. Die Studie ist Teil des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft“. Dessen Ziel ist es, regionale Nährstoffkreisläufe zu schließen und Ressourcen nachhaltig zu nutzen.

Angesichts zunehmender Energie- und Ressourcenknappheit wird die künftige Landwirtschaft verstärkt auf Düngemittel zurückgreifen müssen, deren Herstellung keine fossilen Ressourcen benötigt. Die Erzeugung von mineralischen Recycling-Düngern aus häuslichem Abwasser und Küchenabfällen ist hierbei ein vielversprechender Ansatz. Denn elementare Pflanzennährstoffe wie Stickstoff und Phosphor können daraus zurückgewonnen werden.

Wie dieser Ansatz praktisch umgesetzt werden könnte, wird zur Zeit von Wissenschaftler:innen im Rahmen des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft “ unter Federführung der Universität Stuttgart untersucht. Das Kürzel RUN steht hierbei für Rural Urban Nutrient Partnership.

Online-Befragung erfasst Einstellung der Landwirtschaft zu Design-Düngern
Aus technischer und ökologischer Sicht gilt das Nährstoffrecycling aus häuslichen Abwässern gemeinsam mit Bioabfällen aus der Küche als vielversprechender Weg zur Gewinnung nachhaltig produzierter Mineraldünger. Da diese Dünger an die spezifischen Bedürfnisse der jeweiligen Betriebe angepasst werden könnten, werden sie von den Projektbeteiligten als „Design-Dünger“ bezeichnet.

Doch welche Eigenschaften sollten solche Dünger haben, um von den Landwirt:innen auf breiter Basis akzeptiert und gekauft zu werden? Dieser Frage sind Forschende der Universität Hohenheim vom Fachgebiet für Produktionstheorie und Ressourcenökonomik im Agrarbereich nachgegangen und haben in einer Online-Befragung die Einstellung deutscher Landwirt:innen zu diesen neuartigen Mineraldüngern ermittelt.

In einem sogenannten Auswahlexperiment mussten sich die 206 Befragten mehrfach jeweils für einen von drei beschriebenen Mineraldüngern mit unterschiedlichen Eigenschaften entscheiden. So konnten die Forschenden die Zahlungsbereitschaft für entsprechende Düngemittel erstmals auf breiter wissenschaftlicher Basis abschätzen.

Sehr unterschiedliche Akzeptanz wirkt sich auf Zahlungsbereitschaft aus
„Dabei hat sich gezeigt, dass die Einstellungen sehr unterschiedlich sind, was sich zum Teil mit den jeweiligen betrieblichen Gegebenheiten erklären lässt“, sagt Prof. Dr. Lippert. So stellten die Forschenden vor allem bei Betrieben, die ihre Erzeugnisse beispielsweise in Hofläden direkt vermarkten, deutlich größere Vorbehalte gegenüber Design-Düngern fest. Problem ist die Herkunft der Nährstoffe aus Siedlungsabwasser.

Bei Landwirt:innen, die ohne eine solche Direktvermarktung ihre Produkte absetzen, zeigten sich zwar im Durchschnitt auch leichte Vorbehalte gegenüber diesen neuartigen Düngern. Sie würden sie aber mit einem Preisnachlass von etwa zehn Prozent akzeptieren.

Allerdings erwarten nicht alle Landwirt:innen beim Kauf von Design-Düngern einen Preisnachlass: Betriebe, die auch Pflanzen anbauen, die als Futter oder zur Energieerzeugung verwendet werden, würden solche Düngemittel auch zu marktüblichen Preisen abnehmen. Bei ihnen hat die Herkunft der Nährstoffe keinen nennenswerten Einfluss auf die Zahlungsbereitschaft. Die anpassbare Nährstoffzusammensetzung der Design-Dünger und eine konstante Lieferbarkeit wirken zudem verkaufsfördernd.

Design-Dünger tendenziell geringer mit Schwermetallen belastet als konventioneller Dünger
„Es scheint sogar Landwirt:innen zu geben, die bereit sind, mehr zu zahlen als für entsprechend belastete konventionelle Dünger, falls die Schwermetallgehalte des Design-Düngers deutlich unter den gesetzlichen Grenzwerten für Düngemittel lägen“, so der Experte. Ein Pluspunkt für die aus Abwasser gewonnenen Phosphatdüngemittel: Sie sind tendenziell geringer mit Schwermetallen belastet als herkömmliche Mineraldünger auf Basis von Rohphosphat aus fossilen Lagerstätten.

„Andererseits sinkt die durchschnittliche Zahlungsbereitschaft für Düngemittel erheblich, wenn mit Medikamentenrückständen oder anderen organischen Schadstoffen gerechnet werden müsste“, fährt Prof. Dr. Lippert fort.

Sorge vor Kontaminationen stellt Hemmnis dar
„Insgesamt deuten unsere Ergebnisse darauf hin, dass eine negative Einstellung der deutschen Landwirt:innen gegenüber Design-Düngern vor allem durch ihre Sorge verursacht wird, dass recycelte Nährstoffe die Produktsicherheit ihrer Lebensmittelkulturen durch Kontaminationen, insbesondere mit organischen Schadstoffen, gefährden könnten“, fasst er zusammen.

Garantierte Schadstofffreiheit ist daher von entscheidender Bedeutung für die Akzeptanz und die Bereitschaft des Agrarsektors, in Zukunft aus Abwässern und Küchenabfällen gewonnene Düngemittel in großem Umfang einzusetzen. Forschende der Universität Stuttgart am Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) untersuchen daher gemeinsam mit ihren Hohenheimer Kolleg:innen vom Zentrum Ökologischer Landbau intensiv die Sicherheit (Schadstoffarmut) der Design-Düngemittel.

„Derzeit gibt es genügend Spielraum für die Einführung von maßgeschneidertem Recycling-Dünger, wenn die damit verbundenen technischen und hygienischen Herausforderungen bewältigt werden können“, so Prof. Dr. Lippert weiter.

Politik ist bei der Markteinführung gefragt
Ein kostendeckendes dezentrales Phosphor-Recycling aus Abwasser erscheint derzeit ohne zusätzliche finanzielle Unterstützung kaum möglich. Der Preisnachlass, den Landwirt:innen für Design-Dünger erwarten, deutet ebenfalls auf die Notwendigkeit von Subventionen hin, wenn Recycling-Dünger in der Praxis breit eingeführt werden sollen.

Andererseits haben Versorgungsengpässe und explodierende Energiepreise, insbesondere nach der russischen Invasion in der Ukraine, in der Europäischen Union ernsthafte Bedenken hinsichtlich der Versorgungssicherheit aufkommen lassen. Dies könnte in Zukunft Anreize für Recycling-Dünger schaffen.

Zudem könnten diese Düngemittel auch durch die Festlegung von Qualitätsstandards und die Schaffung eines vertrauenswürdigen Labels gefördert werden. „Auf diese Weise würden die politischen Entscheidungstragenden das Vertrauen der Landwirt:innen in ein Recycling-Produkt stärken, das das Potenzial habe, zu einem nachhaltigen und kreislauforientierten Landwirtschaftssystem beizutragen“, empfiehlt Prof. Dr. Lippert.

Expertenliste Bioökonomie: https://www.uni-hohenheim.de/expertenliste-biooekonomie

HINTERGRUND: Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft
RUN ist eines von acht Projekten des Forschungsvorhabens „Agrarsysteme der Zukunft“ im Rahmen der „Nationalen Forschungsstrategie BioÖkonomie 2030“. Es wird vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 5,95 Mio. Euro gefördert, davon über 680.000 Euro für die Universität Hohenheim. Projektstart war der 1. April 2019. Das Projekt war zunächst auf drei Jahre angelegt und wurde um weitere zwei Jahre bis August 2024 verlängert.

Die Koordination des Projekts liegt in der Hand von Dr.-Ing. Anna Fritzsche vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart (ISWA). Weitere Projektpartner sind die TU Kaiserslautern, die Universität Heidelberg, das Karlsruher Institut für Technologie (KIT), der Umweltcampus Birkenfeld der Hochschule Trier, die iat Ingenieurberatung für Abwassertechnik GmbH als Praxispartner sowie das Thünen-Institut in Braunschweig als assoziierter Partner.

Projektwebsite mit Erklär-Videos und Comic: https://www.run-projekt.de/

Pressemitteilung zu RUN: https://www.uni-hohenheim.de/pressemitteilung?tx_ttnews%5Btt_news%5D=51752

HINTERGRUND: Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
Das Zentrum verfolgt das Ziel, einen Beitrag zur Verbesserung der globalen Ernährungssicherung zu leisten. Es unterstützt Wissenschaftlerinnen und Wissenschaftler bei der Entwicklung und Umsetzung von innovativen und effektiven Forschungsinitiativen zur Ernährungssicherung und Hungerbekämpfung mit einem besonderen Fokus auf entwicklungsorientierter Forschung.

HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.

Zu den Pressemitteilungen der Universität Hohenheim
http://www.uni-hohenheim.de/presse

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Lippert, Universität Hohenheim, Fachgebiet Produktionstheorie und Ressourcenökonomik im Agrarbereich,
T +49 (0)711 459-22560, E christian.Lippert@uni-hohenheim.de

Yvonne Zahumensky, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme,
T +49 (0)711 459-22632, E yvonne.zahumensky@uni-hohenheim.de

Originalpublikation:
Publikation: Utai, K., Narjes, M., Krimly, T. und C. Lippert (2022): Farmers’ Preferences for Fertilizers derived from Domestic Sewage and Kitchen Waste – A Discrete Choice Experiment in Germany. German Journal of Agricultural Economics (GJAE) 71 (4);
DOI: 10.30430/gjae.2022.0235

Weitere Informationen:
https://www.run-projekt.de/

(nach oben)


Hochschule Koblenz untersuchte Abwasser in Koblenz und Umgebung auf Rückstände von Kokain-Konsum

Christiane Gandner M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Koblenz – University of Applied Sciences
Das Institut für sozialwissenschaftliche Forschung und Weiterbildung (IFW) des Fachbereichs Sozialwissenschaften der Hochschule Koblenz hat gemeinsam mit den Klärwerken Koblenz und Neuwied I sowie in Zusammenarbeit mit der Bundesanstalt für Gewässerkunde ein kriminologisches Forschungsprojekt „Drogen in Koblenz und Umgebung – Abwasseranalyse auf Rückstände von Kokain-Konsum“ durchgeführt. Die Ergebnisse lassen Rückschlüsse auf die Menge und Qualität des konsumierten Kokains sowie auf die weiteren Umstände des Konsums zu.

Das Forschungsteam entnahm die Proben während einer Trocken-Wetter-Periode vom 8. bis 14. März 2022. Die Bundesanstalt für Gewässerkunde untersuchte die Abwässer auf Kokain, Bezoylecgonin (BE), einem Humanmetabolit des Kokains, Cocaethylen und Levamisol. Die Analyse erfolgte anhand der Standards des European Monitoring Centre for Drugs and Drug Addiction (EMCDDA, Europäische Beobachtungsstelle für Drogen und Drogensucht), welche seit einigen Jahren in vielen Städten Europas Abwasseruntersuchungen auf Drogenrückstände durchführen lässt.

Auf der Grundlage der Messergebnisse führte das Forschungsteam eine kriminologische Auswertung durch. Nach dem Kokaingenuss scheidet der menschliche Körper im Urin das Abbauprodukt Benzoylecgonin aus. Im Untersuchungszeitraum wurde für den Raum Koblenz/Neuwied eine durchschnittliche Benzoylecgonin-Tagesfracht von etwa 276 Gramm/Tag/1000 Einwohner detektiert. Daraus errechnet sich unter Berücksichtigung von Unsicherheitsfaktoren wie etwa dem Aufkommen von Tagestourismus für den Beprobungszeitraum ein Kokainkonsum zwischen 0,4 und 1,6 Gramm pro Tag auf 1000 Einwohner.

Cocaethylen wird bei gleichzeitigem Konsum von Kokain und Alkohol ausgeschieden. Hierbei zeigte sich, dass die Verhältnisse von Cocaethylen zu Benzoylecgonin am Wochenende höher sind als an Werktagen. Dies lässt sich durch einen verstärkten gemeinsamen Konsum von Kokain und Alkohol am Wochenende erklären.

Bei der Analyse trat auch die zuweilen schlechte Qualität des in Koblenz und Umgebung konsumierten Kokains zu Tage, wie Projektleiter Prof. Dr.jur. Winfried Hetger erklärt: „Das Auffinden von Levamisol als Streckmittel von Kokain in einer Konzentration von durchschnittlich 14 % ist besorgniserregend“. Bei Levamisol handelt es sich um ein Entwurmungsmittel aus der Veterinärmedizin, welches in Deutschland nicht zugelassen ist. Der Konsum von mit Levamisol gestrecktem Kokain bedeutet ein erhebliches Gesundheitsrisiko für die Konsumierenden.

Der Forschungsbericht empfiehlt die Einrichtung eines Drug-Checking-Programms in Deutschland, wie dies beispielsweise schon in der Schweiz, Österreich, den Niederlanden, Frankreich, Belgien, Großbritannien und Luxemburg seit Jahren etabliert ist. Hierbei können Kokainkäufer und -käuferinnen ihre Drogen auf gefährliche Überdosierungen und andere medizinisch bedenkliche Stoffe untersuchen lassen. Des Weiteren befürwortet der Bericht, in der Zukunft erneute Abwasseruntersuchungen zur weiteren Beobachtung des Drogenkonsums durchzuführen. „Auch wäre eine Drogenpräventions- und Aufklärungskampagne über Risiken des Drogenkonsums angezeigt. Hierbei sollten auch die genannten Gesundheitsgefahren deutlich herausgestellt werden“, betont Hetger.

Der Forschungsbericht ist auf der Homepage des Instituts für sozialwissenschaftliche Forschung und Weiterbildung des Fachbereichs Sozialwissenschaften der Hochschule Koblenz www.hs-koblenz.de/ifw unter dem Menüpunkt „Forschung“ abrufbar.

Wissenschaftliche Ansprechpartner:
Prof. Dr.jur. Winfried Hetger
hetger@hs-koblenz.de

Weitere Informationen:
http://www.hs-koblenz.de/ifw unter dem Menüpunkt „Forschung“

(nach oben)


„Weltweit einmaliges Ökosystem“

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Wattenmeerkonferenz – DBU: Küstenzonen-Management

Osnabrück/Wilhelmshaven. Von Ägypten an die Nordsee, vom Weltklimagipfel in Scharm el Scheich zur trilateralen Wattenmeerkonferenz in Wilhelmshaven: Turnusgemäß alle vier Jahre verhandeln ab heute (Montag) wieder die drei Wattenmeer-Anrainerstaaten Deutschland, Dänemark und die Niederlande über die nachhaltige Zukunft dieses Unesco-Weltnaturerbes. „Wie in Scharm el Scheich geht es um die Folgen der Klimakrise und eine Schlüsselfrage: wie Naturschutz und Nutzung in Einklang zu bringen sind“, sagt Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU). Diese unterstützt seit mehr als 30 Jahren innovative und vor allem lösungsorientierte Vorhaben für mehr Umweltschutz. Der DBU-Beitrag zur Wattenmeerkonferenz: die Förderung einer Initiative des Wattenmeer Forums in Höhe von fast 120.000 Euro, um ein integriertes Küstenzonen-Management (IKZM) zu etablieren.

Das weltweit größte zusammenhängende und durch unterschiedliche Wattzonen geprägte Gezeitengebiet
„Das Wattenmeer ist ein weltweit einmaliges Ökosystem, quasi vor Deutschlands Haustür“, so Bonde. „Nirgendwo sonst gibt es ein derartig großes zusammenhängendes und durch unterschiedliche Wattzonen geprägtes Gezeitengebiet – mehr als 11.500 Quadratkilometer.“ Das Dilemma: Zugleich ist diese Fläche Transitstrecke für die internationale Schifffahrt, ein Großteil des Welthandels hängt also von dieser Route ab. Und neben der Schifffahrt melden auch Hafenbetreiber, Tourismus und Fischerei jeweils eigene Interessen an. „All diese verschiedenen Anliegen mit dem Schutzstatus unter einen Hut zu bringen, ist natürlich kein leichtes Unterfangen“, sagt der DBU-Generalsekretär. „Umso wichtiger ist es deshalb, praxisnahe Lösungen für Schutz und Nutzung auf den Weg zu bringen. Ein integriertes Küstenzonen-Management hat die Kraft, Konsens zu finden“, ist Bonde überzeugt.

Wattenmeer-Zusammenarbeit zwischen Deutschland, Dänemark und der Niederlande seit 1978
Die gemeinsame Wattenmeer-Kooperation der drei Anrainer Deutschland, Dänemark und Niederlande startete 1978. Die Konferenz findet alle vier Jahre statt. Seit 2018 hat Deutschland den Vorsitz inne. Die Organisation der Vereinten Nationen (UN) für Bildung, Wissenschaft und Kultur (Unesco) hat das Wattenmeer 2009 als Weltnaturerbe anerkannt; geschützt wird das Gebiet durch mehrere Nationalparke und Biosphärenreservate. Genau darin liegt aber zugleich eine Herausforderung, wie DBU-Experte Volker Wachendörfer erläutert. Der Referent aus der DBU-Abteilung Umweltforschung und Naturschutz ist bei der Wattenmeerkonferenz dabei, um das Projekt des Wattenmeer Forums zu erläutern. Die Crux: Während in den Nationalparken im Wattenmeer naturgemäß die Schutzfunktion oben auf der Agenda steht, sieht es beim Übergang zu Biosphärengebieten mit deren Puffer- und Pflegezonen schon anders aus. Wachendörfer: „Eine Nutzung ist dort möglich, zugleich teils sogar erforderlich, was wiederum eine – allerdings sanfte – Inanspruchnahme durch Schifffahrt, Fischerei und Tourismus ermöglicht.“

Zusätzliche Herausforderungen zur Bewältigung der Energiekrise wegen Russlands Ukrainekrieg
Hinzu kommen je eigene Positionen Deutschlands, Dänemarks und der Niederlande – sowie aktuell neue Erfordernisse, um die durch Russlands Ukrainekrieg ausgelöste Energiekrise zu bewältigen. Vor diesem Hintergrund hält Wachendörfer die Implementierung eines integrierten Küstenzonen-Managements für unabdingbar: „Das würde eine nachhaltige Entwicklung des Wattenmeers im Sinne der 17 UN-Nachhaltigkeitsziele (Sustainable Development Goals, SDG) voranbringen und hätte das Zeug, gemeinsame Lösungsansätze für Konflikte zwischen Schutz und Nutzung zu finden.“ Ein solches IKZM werde seit Langem debattiert. „Es ist dringend Zeit, diesen Plan in die Praxis umzusetzen“, so der DBU-Experte.

Trilaterales Konzept am Beispiel der Schifffahrt soll Wirtschaft und Naturschutz in Einklang bringen
Dem Wattenmeer Forum (Wadden Sea Forum, WSF) kommt laut Wachendörfer bei dieser Mittler-Aufgabe eine zentrale Rolle zu – vor allem, weil es sich als unabhängige grenzüberschreitende Interessenvertretung verschiedener Sektoren und Branchen in allen drei Anrainerstaaten versteht. Mit dabei sind aus Deutschland, Dänemark und der Niederlande Vertreterinnen und Vertreter der Sektoren Landwirtschaft, Energie, Fischerei, Industrie, Häfen sowie Naturschutz, Tourismus, lokale und regionale Behörden. Im Konsortium für das von der DBU geförderte WSF-Projekt sind neben der Hafenwirtschaft auch Umwelt- und Naturschutzorganisationen der trilateralen Wattenmeer-Region vertreten. Die Idee des WSF: Am Beispiel der Schifffahrt soll ein trilaterales Konzept entstehen, das die verschiedenen Interessen von Wirtschaft und Naturschutz harmonisiert. Aus gutem Grund, „denn so können die für das Weltnaturerbe Wattenmeer durch die Schifffahrt lauernden Risiken von Havarien über Emissionen und Kontaminationen bis hin zu raumgreifender Hafeninfrastruktur minimiert werden – ohne ökonomische Belange grundsätzlich in Frage zu stellen “, sagt Wachendörfer. Seine Hoffnung für die Wattenmeerkonferenz: die im Zuge des DBU-Projekts erarbeitete trilaterale Erklärung, die in Wilhelmshaven unterzeichnet werden soll. Wachendörfer: „Diese Initiative für nachhaltige Schifffahrt und Häfen kann ein wichtiger Grundstein für die zukünftige Entwicklung im Wattenmeer und ein Signal für andere Meeresregionen sein.“

Weitere Informationen:
https://www.dbu.de/123artikel39586_2442.html Online-Pressemitteilung

(nach oben)


Hochschule Karlsruhe erhält Stiftungsprofessur für Wärmepumpen

Holger Gust M. A. Presse und Kommunikation
Hochschule Karlsruhe
Mit Unterstützung der Unternehmen ait-group, Bosch Thermotechnik, Danfoss Climate Solutions, Stiebel Eltron Gruppe und der Vaillant Group kann an der HKA die deutschlandweit erste Stiftungsprofessur für dieses Zukunftsfeld eingerichtet werden

Aktuell gibt es in Deutschland noch keine Professur speziell für Wärmepumpentechnologie. Mit großzügiger finanzieller Unterstützung der Unternehmen ait-group, Bosch Thermotechnik GmbH, Danfoss Climate Solutions, Stiebel Eltron GmbH & Co. KG und der Vaillant Group ist es der Hochschule Karlsruhe (Die HKA) jetzt gelungen eine Stiftungsprofessur für Wärmepumpentechnologie einzurichten. Zusätzliche Mittel sind über die Valerius-Füner-Stiftung von der Firma BKW Management AG gespendet worden. Die Stiftungsprofessur wird an der Fakultät für Maschinenbau und Mechatronik der HKA angesiedelt, wo auch in diesem Wintersemester der neue Bachelorstudiengang Green Technology Management startete. Die Ausbildung von Fachkräften und der Technologietransfer in der Wärmepumpentechnologie ist für die Energiewende von immenser gesellschaftlicher Relevanz. Die aktuelle Energiekrise, ausgelöst durch den Ukrainekrieg, verdeutlicht einmal mehr die Notwendigkeit einer unabhängigen und nachhaltigen Energieversorgung – auch für den Wirtschaftsstandort Deutschland.

Wissenschaftsministerin Petra Olschowski sagte: „Die Herausforderungen der Energiewende können wir nur mit klugen Köpfen, kreativen Lösungen und gemeinsamen Anstrengungen von Wissenschaft, Wirtschaft und Gesellschaft bewältigen. Die Einrichtung der Stiftungsprofessur für Wärmepumpen ist dafür ein herausragendes Beispiel. Sie wird einen wichtigen Beitrag zur Umstellung der Energieversorgung auf erneuerbare Energien leisten. Ich danke insbesondere den Unternehmen für ihre Bereitschaft, die Stiftungsprofessur mitzufinanzieren. Neben der hohen inhaltlichen Relevanz ist diese Entwicklung zugleich eine Referenz für die besonderen Leistungspotenziale der Forschung an der Hochschule Karlsruhe.“

Heizen und Kühlen stehen für die Hälfte des Endenergieverbrauchs in Europa und nutzen zu rund 80 Prozent noch immer fossile Energien, von denen in Deutschland der größte Teil importiert wird. Dabei hat sich Europa eine Reduzierung der Treibhausgasemissionen um 55 % bis 2030 auf die Fahne geschrieben und Klimaneutralität bis 2050. Dies setzt voraus, dass der Wärmesektor schrittweise vollständig auf erneuerbare Energie umgestellt und entsprechende Technologien zum Heizen und zur Warmwasserbereitung zur Verfügung stehen. Wärmepumpen spielen in diesem Zusammenhang eine Schlüsselrolle. Sie sind nicht nur extrem energieeffizient, sondern auch komplett klimaneutral, wenn sie mit erneuerbarer elektrischer Energie betrieben werden, und damit völlig unabhängig von fossilen Brennstoffen. Auch die EU-Kommission hat dies erkannt und setzt mit dem europaweiten Ziel, 30 Millionen Wärmepumpen bis 2030 in Europa zu installieren, ein klares Zeichen.

Der Zeitpunkt für die Einrichtung der Stiftungsprofessur und des neuen Studiengangs trifft aktuell auf eine hohe Nachfrage. „Mit dem Boom dieser nachhaltigen Heizungstechnologie besteht ein enormer Bedarf an Fachkräften“, so Prof. Dr.-Ing. habil. Michael Kauffeld, Prof. für Kältetechnik an der Fakultät für Maschinenbau und Mechatronik der HKA und Sprecher des Instituts für Kälte-, Klima- und Umwelttechnik „Es ist allerhöchste Zeit, hier gezielt Abhilfe zu schaffen. Mit unserem neuen Studiengang wollen wir einen ganz konkreten Beitrag dazu leisten und die Industrie bei diesem disruptiven Wandel unterstützen“, so Prof. Kauffeld weiter.

Die Stiftungsunternehmen unterstreichen diese Bewertung vollumfänglich. Dr. Kai Schiefelbein, Geschäftsführer der Stiebel Eltron Gruppe: „Der Ausstieg aus den fossilen Brennstoffen muss so schnell wie möglich erfolgen. Im Wärmesektor ist mit der Wärmepumpe eine bewährte Technologie verfügbar, mit der dieser Ausstieg sofort realisiert werden kann, auch bei Sanierungen.“ Dr. Rainer Lang, Director Group R&D Heat Pump Technology bei der Vaillant Group teilte mit: „Wärmepumpen sind eine Schlüsseltechnologie zur erfolgreichen Dekarbonisierung des Gebäudesektors. Das Produktsegment verzeichnet seit Jahren ein starkes Marktwachstum.“ Und Jürgen Fischer, Präsident bei Danfoss Climate Solutions betont: „Der massive Anstieg der Nachfrage nach energieeffizienten, CO2-neutralen Lösungen für die Heizungs-, Kälte- und Klimatechnik zeigt, dass sich der Markt im Umbruch befindet.“ Edgar Timm, Director R&D der ait-group, ergänzt: „Das Thema Wärmepumpe – speziell auch mit natürlichen Kältemitteln – ist unsere Kernaufgabe und DNA! Der Einsatz dieser Technologie ist notwendig für eine nachhaltige Zukunftsgestaltung. Die Grundlage dafür liegt in der qualitativ hochwertigen Ausbildung künftiger Fachkräfte.“ Dr. Thomas Finke, Technical Director Electric Solutions, Bosch Thermotechnology, fügt hinzu: „Bis Mitte der Dekade investieren wir weitere 300 Millionen Euro in die Elektrifizierung. Wir freuen uns deshalb sehr, dass wir auch die fundierte Ausbildung von dringend benötigten Nachwuchskräften unterstützen können.“

Die Stiftungsunternehmen und die HKA arbeiten daher Hand in Hand. Erste Forschungsprojekte wurden bereits ins Leben gerufen. „Eine anwendungsorientierte Stiftungsprofessur für Wärmepumpen vor dem Hintergrund der angestrebten umfassenden und schnellen Umstellung auf erneuerbare Energien bringt starke Impulse für die hohe Attraktivität des neuen Studiengangs Green Technology Management und die Forschung in der Kälte-, Klima- und Umwelttechnik an der HKA mit sich“, betont Rektor Prof. Dr. Frank Artinger, „und wird unseren Beitrag auf dem Weg zur Klimaneutralität weiter steigern.“

Welche Bedeutung die HKA dem Thema „Wärmepumpen“ in Forschung und Lehre beimisst, wird auch über das gleichnamige Symposium an der Hochschule deutlich, zu dem Experten aus ganz Europa am gleichen Tag erwartet wurden.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. habil. Michael Kauffeld
Prof. für Kältetechnik an der Fakultät für Maschinenbau und Mechatronik der HKA und Sprecher des Instituts für Kälte-, Klima- und Umwelttechnik
E-Mail: michael.kauffeld@h-ka.de
Tel. +49 (0)721 925-1843

Originalpublikation:
https://www.h-ka.de/die-hochschule-karlsruhe/aktuelles/news/2022/stiftungsprofes…

Anhang
Die Hochschule Karlsruhe etabliert die deutschlandweit erste Professur für Wärmepumpen

(nach oben)


Interview mit Professor Johannes Steinhaus zur Umweltbelastung durch Mikroplastik: „Das Waschen ist eine Hauptquelle“

Daniela Greulich Presse- und Öffentlichkeitsarbeit
Hochschule Bonn-Rhein-Sieg
Die Verschmutzung unseres Planeten mit Plastik und Mikroplastik ist ein globales Problem gewaltigen Ausmaßes. In Uruguay verhandeln aktuell Regierungen und Organisationen auf Einladung der Vereinten Nationen über ein Abkommen gegen Plastikmüll. Professor Johannes Steinhaus von der Hochschule Bonn-Rhein-Sieg (H-BRS) beschäftigt sich in seiner Forschung mit der Mikroplastikbelastung. Für das Problem der mikroskopisch kleinen Partikel, die über das Abwasser der Waschmaschinen in die Flüsse und Meere gelangen, hat der Wissenschaftler eine Idee.

H-BRS: Herr Professor Steinhaus, lassen Sie uns über Fußball reden: Das Trikot, das die Spieler der deutschen Mannschaft tragen, sondert offensichtlich bei den ersten fünf Wäschen im Schnitt 68.000 Mikroplastik-Fasern ab. Die Forschungsgruppe Mikroplastik an der Universität Hamburg hat dies herausgefunden. Überrascht Sie das?

Johannes Steinhaus: Nein, nicht unbedingt. Die Zahl von 68.000 ist zwar ungewöhnlich hoch, und der Hersteller täte gut daran herauszufinden, warum das so ist. Allerdings waschen wir alle sehr viele Kleidungsstücke, die aus Synthetikfasern wie zum Beispiel Polyester, Acryl, Nylon oder Elastan bestehen. Die Fasern, die sich dabei abreiben – typischerweise eher um die 2000 Fasern pro Kleidungsstück und Wäsche – gelangen ungehindert in unsere Kläranlagen und in der Folge zum Teil in den Klärschlamm und zum anderen Teil in unsere Gewässer. Der Grund ist, dass sich die Fasern aufgrund ihrer Größe schlecht aus dem Abwasser filtern lassen. Da Klärschlämme auch gerne als Dünger auf Ackerflächen ausgetragen werden, kann man davon ausgehen, dass ein Großteil dieser Fasern in der Umwelt landet. Das Waschen von synthetischen Kleidungsstücken ist die Hauptquelle für sekundäres Mikroplastik, also entstanden durch Abrieb und Zerfall größerer Kunststoffprodukte.

H-BRS: Was bedeutet das für die Umwelt? Und wie könnte eine Lösung aussehen?

Steinhaus: Die Auswirkungen all dieser Mikroplastikfasern auf die verschiedenen Ökosysteme sind noch relativ unklar. Das Ärgerliche daran ist, dass man einfach nur alle Waschmaschinen mit einem Filtersystem ausstatten müsste, die den Eintrag der Fasern von Anfang an verhindern würden. Da die Waschmaschinenhersteller das aber nicht in vorauseilendem Gehorsam machen möchten – ein Nachrüstfilter kostet zirka 80 Euro – müssten da gesetzliche Auflagen her. Am besten EU-weit.

H-BRS: Kunststoffe finden sich nicht nur in Textilien, sondern wir begegnen ihnen in unserem Alltag ständig. Täuscht der Eindruck, oder wird immer mehr Kunststoff produziert?

Steinhaus: Nein, der Eindruck täuscht leider nicht. Laut Statista lagen wir weltweit um die Jahrtausendwende bei etwa 200 Millionen Tonnen Kunststoff-Jahresproduktion. Heute haben sich die Mengen bei einem linearen Trend etwa verdoppelt. Ein wesentlicher Faktor ist sicherlich der ungebrochene Trend, Waren in Kunststoff zu verpacken.

H-BRS: Vor allem unsere Supermärkte sind voll von Verpackungen aus Kunststoff. Da wir alles brav in die gelbe Tonne werfen: Wird die Masse der Verpackungen recycelt?

Steinhaus: Könnte man denken. Jedoch wird ein großer Teil des Kunststoffmülls leider immer noch verbrannt. Der Kunststoffeintrag in die Umwelt ist in unseren Breiten durch das Abfallmanagement sicher niedriger als etwa in Asien oder Südamerika. Alles entsorgen wir in Europa aber sicher nicht korrekt, wie sich an unserer Umwelt erkennen lässt. Außerdem vergisst man dabei gerne, dass wir Unmengen Mikroplastik über Reifenabrieb und Waschabwässer generieren. Zudem exportieren wir hierzulande große Mengen an Kunststoffmüll nach Südostasien. Das ist der Teil, der sich nur aufwändig oder gar nicht recyceln lässt. Dort wird der Müll auch eher nicht ordnungsmäßig recycelt, sondern oft auf wilden Deponien gelagert oder offen verbrannt. Und so gelangt auch der Müll aus der gelben Tonne in unsere Umwelt.

H-BRS: In Ihrer Forschung beschäftigen Sie sich unter anderem mit Mikroplastikanalytik und der Simulation und Lebensdaueranalyse von Gummi-Bauteilen. Was genau ist Gegenstand Ihrer Forschung, und was kann die H-BRS zur Lösung des Problems beitragen?

Steinhaus: Meine aktuelle Forschung im Bereich der Mikroplastikanalytik bezieht sich auf die Aufbereitung von Strand-, Erd- und Sedimentproben. Es ist tatsächlich sehr schwer, die vielen Studien über die Mikroplastikbelastung der weltweit genommen Proben miteinander zu vergleichen, da die Probenaufbereitung teils unter sehr unterschiedlichen Bedingungen erfolgte und auch die sogenannte Wiederfindungsrate der Mikroplastikpartikel signifikant streut. Wir forschen unter anderem in Zusammenarbeit mit dem Alfred-Wegener-Institut/Helmholtz-Zentrum für Polar- und Meeresforschung in Bremerhaven daran, möglichst einfache Verfahren zu entwickeln, die möglichst überall auf der Welt umsetzbar sind.
Interview: Martin J. Schulz

Hinweis an die Medien: Prof. Dr. Johannes Steinhaus steht als Ansprechpartner für Interviews zum Thema (Mikro-)Plastik gerne zur Verfügung. Sie erreichen ihn unter johannes.steinhaus@h-brs.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes Steinhaus
Materialwissenschaften, insbesondere hybride Werkstoffsysteme und Schadenanalyse
Hochschule Bonn-Rhein-Sieg
Tel.: 02241/865-458
E-Mail: johannes.steinhaus@h-brs.de

(nach oben)


Arbeitszeitkontrolle als Standardfall bedeutet nicht die Rückkehr zur Stechuhr

Claudia Staat Kommunikation
Frankfurt University of Applied Sciences
Arbeitsrechtler Prof. Dr. Peter Wedde erläutert die Entscheidungsgründe des Bundesarbeitsgericht-Urteils zur Zeiterfassung / Experte sieht Gesetzgeber in der Pflicht: „Ohne klare gesetzliche Vorschriften droht ein Wildwuchs an Ausgestaltungen, der den angestrebten Arbeitszeitschutz nicht herbeiführen wird“

Der 1. Senat des Bundesarbeitsgerichts hat mit seiner am 13. September 2022 verkündeten Entscheidung alle Arbeitgeber verpflichtet, Beginn und Ende der täglichen Arbeitszeit ihrer Arbeitnehmer/-innen zu erfassen. Der Beschluss des höchsten deutschen Arbeitsgerichts, der inhaltlich der Linie eines Urteils des Europäischen Gerichtshofs vom 14. Mai 2019 zur Arbeitszeiterfassung folgt, ließ bislang Detailfragen offen. Seit kurzem sind nun die in Fachkreisen und bei Betroffenen mit Spannung erwarteten Entscheidungsgründe bekannt. Arbeitsrechtler Prof. Dr. Peter Wedde, emeritierter Professor für Arbeitsrecht und Recht der Informationsgesellschaft an der Frankfurt University of Applied Sciences (Frankfurt UAS), hat diese analysiert.

„Das Bundesarbeitsgericht verlangt von Arbeitgebern keine Rückkehr zur Stechuhr, sondern eine nachvollziehbare, ehrliche und moderne Form der Erfassung der individuellen Arbeitszeiten ausnahmslos aller Arbeitnehmer/-innen“, erläutert Wedde. „Dafür müssen in allen Betrieben oder Dienststellen objektive, verlässliche und zugängliche Systeme zur Zeitmessung eingeführt werden. Diese Systeme müssen auch bei speziellen Ausgestaltungen wie der so genannten Vertrauensarbeitszeit oder bei Tätigkeiten auf Basis vereinbarter Zielvorgaben zum Einsatz kommen. Das Gericht geht vom Regelfall einer automatisierten Erfassung aus. Nur in kleinen Betrieben soll eine manuelle Erfassung möglich bleiben, beispielsweise in Form einer Excel-Tabelle.“

Aus Sicht der Arbeitgeber bedeutet die Einführung der notwendigen Messsysteme und -prozesse einen erhöhten Aufwand. Diese Belastung wird nach Weddes Ansicht durch einen positiven Aspekt aufgewogen. „Die Messung der tatsächlichen Arbeitszeiten wird dazu beitragen, dass gesetzliche Höchstarbeitszeiten und zwingende Ruhezeiten besser eingehalten werden als bisher. Das dient dem Gesundheitsschutz und reduziert auf Dauer die Zahl von Krankheitstagen.“ Verstöße gegen gesetzliche Arbeitszeitregeln können für Arbeitgeber allerdings künftig teuer werden: „Wird bei Messungen festgestellt, dass Beschäftigte über die vertraglich geschuldete Arbeitszeit hinaus tätig waren, können diese je nach konkreter Vertragssituation von ihrem Arbeitgeber einen Zeitausgleich oder Nachzahlungen verlangen.“

Die notwendige Erfassung der Arbeitszeit hält Wedde in der Praxis für durchführbar. „In vielen Betrieben gibt es bereits Arbeitszeiterfassungssysteme, welche die vom Bundesarbeitsgericht formulierten Anforderungen erfüllen. Wo sie fehlen, kann für die Messungen in der Regel auf Zeitinformationen zurückgegriffen werden, die in unterschiedlichen für die Arbeit verwendeten Softwareanwendungen verarbeitet werden. Diese Daten lassen sich mit speziellen Programmen so aufbereiten, dass Beginn und Ende der Arbeit sowie Pausen dokumentiert werden können.“

Vermieden werden muss nach Weddes Auffassung, dass dabei eine Art „Totalkontrolle“ der Betroffenen erfolgt: „Es geht nur um die genaue Erfassung von Beginn und Ende der Arbeitszeit, nicht aber um eine minutiöse Dokumentation jeder Arbeitshandlung. Eine umfassende und dauerhafte Erfassung einer Tätigkeit würde Persönlichkeitsrechte der Beschäftigten verletzen und wäre unzulässig.“
Insoweit sieht Wedde, der auch Experte für Beschäftigtendatenschutzrecht ist, den Gesetzgeber in der Pflicht. „Es müssen umgehend gesetzliche Rahmenbedingungen zu Art und Umfang von Arbeitszeitmessungen geschaffen werden, an denen sich Arbeitgeber sowie Beschäftigte und deren Interessenvertretungen orientieren können. Ohne klare gesetzliche Vorschriften droht ein Wildwuchs an Ausgestaltungen, der den angestrebten Arbeitszeitschutz nicht herbeiführen wird.“

Die Entscheidung des Bundesarbeitsgerichts geht auf die Klage eines Betriebsrats zurück, der die Einführung eines elektronischen Verfahrens einseitig durchsetzen wollte. Deshalb weist Wedde auf einen Wermutstropfen für Betriebsräte im Beschluss hin: „Nach Feststellung des Gerichts kann ein Betriebsrat die Einführung eines elektronischen Arbeitszeiterfassungssystems nicht gegen den Willen eines Arbeitgebers erzwingen, weil es hierfür kein Mitbestimmungsrecht gibt. Ist hingegen die Einführung eines solchen Systems für einen Betrieb geplant, kann der zuständige Betriebsrat dessen konkrete Ausgestaltung mitbestimmen.“

Zur Person:
Prof. Dr. Peter Wedde war bis zum Sommersemester 2021 Professor für Arbeitsrecht und Recht der Informationsgesellschaft an der Frankfurt UAS. Zu seinen Forschungsschwerpunkten gehören das individuelle und kollektive Arbeitsrecht sowie Daten- und Beschäftigtendatenschutz. Er ist Herausgeber von juristischen Fachkommentaren zum gesamten Individualarbeitsrecht, zum Betriebsverfassungs- und zum Datenschutzrecht sowie Autor zahlreicher Buch- und Zeitschriftenbeiträge und Onlinepublikationen. Als Referent vertritt er seine Schwerpunktthemen regelmäßig auf Fachkonferenzen und in Praxisforen.

Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 2: Informatik und Ingenieurwissenschaften, Prof. Dr. Peter Wedde, Telefon: +49 171 3802499, E-Mail: wedde@fb2.fra-uas.de

(nach oben)


Krankmachende Bakterien in Hackfleisch, abgepackten Salaten und Fertigteigen

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Bundesamt stellt aktuelle Ergebnisse der Lebensmittelüberwachung vor

STEC-Bakterien können akute Darmentzündungen hervorrufen. Bei Untersuchungen der amtlichen Lebensmittelüberwachung wurden diese Bakterien in Rinderhackfleisch, in Salaten aus Fertigpackungen sowie in Fertigteigen und Backmischungen gefunden. Ein Risiko, besonders für empfindliche Verbrauchergruppen! Diese und weitere Ergebnisse hat das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) zusammen mit Länderarbeitsgemeinschaft Verbraucherschutz (LAV) auf seiner Pressekonferenz „Lebensmittelsicherheit in Deutschland“ in Berlin vorgestellt.

1. Krankmachende Keime in Rinderhackfleisch
Bei amtlichen Untersuchungen von Rinderhackfleisch wurden potentiell krankmachende Keime gefunden. 6,7 % der Proben enthielten STEC-Bakterien, 21,5 % Listerien (Listeria monocytogenes). Empfindlichen Verbrauchergruppen wie Kleinkinder, ältere und immungeschwächte Menschen sowie Schwangere sollten Hackfleisch daher nur ausreichend durcherhitzt verzehren.

Pressemitteilung „Krankmachende Keime in Rinderhackfleisch“:
https://www.bvl.bund.de/jpk22_keime_hackfleisch

2. Abgepackte Salate häufig mit Krankheitskeimen belastet
Für das amtliche Zoonosen-Monitoring wurden 2021 über 400 Proben von Feldsalat, Rucola und Pflücksalat in Fertigpackungen untersucht. In fast jeder zweiten Probe (46,7 %) wurden sogenannte präsumtive Bacillus cereus nachgewiesen, welche bei hohen Keimzahlen zu Erbrechen und Durchfall führen können. In geringerem Umfang wurden ebenfalls STEC-Bakterien (Shiga-Toxin-bildende E. coli) und Listerien (Listeria monocytogenes) gefunden. Da Salate roh verzehrt und die Keime damit nicht durch Erhitzen abgetötet werden, sollten empfindliche Verbrauchergruppen vorsichtshalber auf den Verzehr von Salat aus Fertigpackungen verzichten.

Pressemitteilung „Abgepackte Salate häufig mit Krankheitskeimen belastet“:
https://www.bvl.bund.de/jpk22_keime_salate

3. Acrylamid in Gemüsechips und geschwärzten Oliven
Bei Acrylamid kann eine krebserregende und erbgutschädigende Wirkung nicht ausgeschlossen werden. Es entsteht beim Backen, Braten und Frittieren von Lebensmitteln. Bei amtlichen Untersuchungen wiesen Gemüsechips und geschwärzte Oliven höhere Mengen an Acrylamid auf. Zum Schutz der Verbraucherinnen und Verbraucher sind weitere Maßnahmen zur Minimierung des Acrylamidgehalts notwendig.

Pressemitteilung „Acrylamid in Gemüsechips und geschwärzten Oliven“:
https://www.bvl.bund.de/jpk22_acrylamid

4. Lebensmittelbetrug bei Sushi
Sushi enthält neben Reis und Gemüse häufig auch Fisch und Meeresfrüchte. Neben den „Klassikern“ wie Lachs oder Thunfisch werden auch teurere Arten angeboten. Lebensmittelfälscher tauschen diese jedoch unerlaubt gegen preiswerte Arten aus und steigern somit illegal ihren Gewinn. Bei amtlichen Untersuchungen von Fisch und Meeresfrüchten wurden bei 8,1 % aller Proben eine andere als die angegebene Tierart nachgewiesen.

Pressemitteilung „Lebensmittelbetrug bei Sushi“:
https://www.bvl.bund.de/jpk22_betrug_sushi

5. Vorsicht beim Naschen! Roher Teig kann krank machen
STEC-Bakterien gehören zu den größten Verursachern bakterieller Durchfallerkrankungen in Deutschland. In einer aktuellen Untersuchung von Fertigteigen und Backmischungen wurde in jeder zehnten Probe STEC nachgewiesen. Verbraucherinnen und Verbraucher sollten daher Teige und Backwaren nur nach vollständiger Erhitzung essen.

Pressemitteilung „Vorsicht beim Naschen! Roher Teig kann krank machen“:
https://www.bvl.bund.de/jpk22_stec_fertigteig

6. Keine krebserregenden Stoffe (PAK) im Spielzeug
Zahlreiche polyzyklische aromatische Kohlenwasserstoffe (PAK) sind krebserregende Substanzen, die in Gegenständen aus Gummi oder Kunststoffen enthalten sein können. Im jüngsten Monitoring wurden Spielzeuge und Körperkontaktmaterialien auf den Gehalt an acht als krebserregend eingestuften PAK untersucht. Ergebnis: Bei fast allen Proben (99,7 %) wurde der Grenzwert eingehalten.

Pressemitteilung „Keine krebserregenden Stoffe (PAK) im Spielzeug“:
https://www.bvl.bund.de/jpk22_pak_spielzeug

Hintergrund
Für die Sicherheit von Lebensmitteln sind die Lebensmittelunternehmen verantwortlich. Die Behörden der Bundesländer kontrollieren dies im Rahmen der amtlichen Lebensmittelüberwachung. Die dabei gewonnenen Daten werden an das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) übermittelt. Das BVL wertet die Ergebnisse aus und veröffentlicht sie in den jährlichen Berichten zur Lebensmittelsicherheit.

Die hier vorgestellten Ergebnisse stammen aus den folgenden drei Berichten:
• Bericht zum Zoonosen-Monitoring 2021: https://www.bvl.bund.de/ZoonosenMonitoring
• Bericht zum Bundesweiten Überwachungsplan 2021: https://www.bvl.bund.de/buep
• Bericht zum Monitoring 2021: https://www.bvl.bund.de/monitoring
Weiterführende Informationen
• Präsentation „Lebensmittelsicherheit in Deutschland“: https://www.bvl.bund.de/lebensmittelsicherheit2022_praesentation

Anhang
Pressemitteilung

(nach oben)


Binnengewässer in der Biodiversitätspolitik mit Landflächen und Meeren gleichstellen

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Heute beginnt in Montreal der zweite Teil der Weltnaturschutzkonferenz (CBD COP 15). Dem Massenaussterben soll u.a. damit entgegengewirkt werden, dass 30 Prozent der Landfläche und der Meere bis spätestens 2030 unter Schutz gestellt werden. Aber fehlt da nicht etwas? Genau, die Binnengewässer! Sie werden bisher meist den Landflächen zugeordnet, ihre Relevanz dabei nicht ausreichend berücksichtigt. Wissenschaftlerinnen und Wissenschaftler, die am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) zur Süßwasser-Biodiversität forschen, geben eine Einordnung zu diesem oft übersehenen Thema:

Weltweit nimmt die Biodiversität in einem noch nie dagewesenen Tempo ab. Besonders gefährdet sind die die genetische Vielfalt, Populationen, Arten, Gemeinschaften und Ökosysteme im Süßwasser. Studien und Zahlen belegen dies eindrücklich. In Binnengewässern schrumpfen die Lebensräume besonders dramatisch, etwa weil in den Tiefen vieler Seen zunehmend Sauerstoffmangel herrscht, die Temperaturen des Oberflächenwassers steigen, oder weil Fließgewässer verbaut werden und periodisch austrocknen. Der Klimawandel mit zunehmenden Wetterextremen wie Dürren und Überflutungen verschärft die Situation zusätzlich.

Binnengewässer gleichwertig wie Land und Meer behandeln:
„Nach wie vor wird in der internationalen Biodiversitätspolitik die große Relevanz der Binnengewässer übersehen“, kritisiert IGB-Forscherin Prof. Dr. Sonja Jähnig und fährt fort: „Quellen, Bäche, Flüsse, Seen, Kleingewässer, Feuchtgebiete und das Grundwasser sind unabdingbare Voraussetzung und Lebensgrundlagen für die Natur und damit auch für uns Menschen. Deshalb sollten die Binnengewässer und ihre Biodiversität neben terrestrischen und marinen Ökosystemen als gleich bedeutsamer, dritter ökologischer Bereich in politischen und gesellschaftlichen Rahmenwerken und Strategien etabliert werden.“

Bislang werden Flüsse, Seen und Feuchtgebiete in unterschiedlichen politischen Rahmen entweder dem Land zugerechnet – weil sie im terrestrischen Bereich eingebettet sind – oder den Meeren und Ozeanen – weil sie aquatisch sind. „Süßwasser-Ökosysteme dürfen nicht länger nur ein Nebenschauplatz sein, denn sie können ihre vielfältigen Funktionen als Lebensraum und Schlüsselressource für Mensch und Natur nur erfüllen, wenn sie konsequent geschützt, nachhaltig bewirtschaftet und ökologisch wieder verbessert werden“, fasst Jähnig zusammen.

Dies gelte jetzt ausdrücklich auch für den neuen Globalen Biodiversitätsrahmen bis 2030, der in den kommenden Tagen verhandelt wird. Dessen Ziele müssten so angepasst werden, dass bei der Wiederherstellung der Ökosysteme und bei der Ausweitung von Schutzgebieten spezifische Ziele für Binnengewässer festgehalten werden. Dies empfiehlt Sonja Jähnig auch gemeinsam mit 20 weiteren international renommierten Süßwasserexpert*innen in einem gestern veröffentlichten Science Brief des Netzwerks GEOBON und FWBON.

Kein Klimaschutz ohne Biodiversitätsschutz:
Auch bei Maßnahmen gegen den Klimawandel werden Binnengewässer zu oft vernachlässigt. Ihre Biodiversität ist von Klimaveränderungen besonders stark betroffen, beispielsweise weil sich Seen weltweit schneller erwärmen als die Atmosphäre und die Ozeane – oder sich das Abflussregime ganzer Flusssysteme verändert. Wird der Klimaschutz nicht mit anderen Naturschutzzielen in Einklang gebracht, kann die biologische Vielfalt zusätzlich in Gefahr geraten, wie IGB-Experte Dr. Martin Pusch erläutert: „Die Biodiversitätskrise in unseren Binnengewässern ist eng mit der Klimakrise verbunden, denn saisonale Dürrephasen mit niedrigen Durchflussmengen, gestiegene Schadstoffkonzentrationen und höheren Wassertemperaturen bedrohen das Leben unter der Wasseroberfläche in besonderem Maße“, sagt er.

„Gerade der als Anpassung an den Klimawandel vorangetriebene Ausbau der Wasserkraft birgt große Risiken für die aquatische biologische Vielfalt: Millionen Dämme und andere Querbauwerke begünstigen die Massenentwicklung von Algen in Flüssen und verhindern, dass Fische in Hitzeperioden kühle Refugien aufsuchen können. Dabei tragen Wasserkraftwerke weniger zur Mitigation des Klimawandels bei als erwartet, denn Stauseen emittieren vor allem in den Tropen und Subtropen selbst hohe Mengen von Treibhausgasen.“ Pusch empfiehlt deshalb: „Die Erhaltung der aquatischen Biodiversität muss Vorrang haben. Wir brauchen dringend mehr freifließende Flüsse und großräumige Renaturierungen statt zusätzliche ineffiziente Wasserkraftprojekte mit ihren hohen ökologischen und sozialen Kosten.“

Auch die kleinsten Lebewesen schützen:
Wenn schon große Seen und Flüsse aus dem Blick geraten, wie mag es dann wohl um die kleinsten Lebewesen stehen, die sie beherbergen? Millionen Arten winziger Mikroorganismen wie Pilze und Bakterien kommen in allen Gewässertypen vor – in kleinen Pfützen, großen Binnenseen, selbst in Eis und Schnee. Obwohl man die meisten von ihnen mit bloßem Auge nicht erkennt, machen sie in allen Ökosystemen den größten Teil der biologischen Vielfalt aus.

„Diese Mikroorganismen bilden die Basis eines jeden Nahrungsnetzes und tragen ganz wesentlich zu den Funktionen eines Ökosystems bei – nehmen wir z.B. die Pilze, die organisches Material remineralisieren und so Nährstoffe und andere Verbindungen im Produktionskreislauf halten. Gerade in größeren Gewässern sind sie ein wichtiger Faktor der sogenannten Kohlenstoffpumpe, da sie das Absinken von organischem Material bis in die Gewässertiefe und somit auch das Klima nachhaltig beeinflussen. Darüber hinaus helfen sie beim Abbau von Schadstoffen“, erläutert IGB-Mikrobiologe Prof. Dr. Hans-Peter Grossart.

Obwohl Mikroben für das Funktionieren von Ökosystemen und unsere Gesundheit von so entscheidender Bedeutung sind, sei nur wenig darüber bekannt, ob wir infolge des globalen Wandels Schlüsselarten verlieren werden und wie sich das auf das Funktionieren und damit die Gesundheit unserer natürlichen Umwelt auswirken könnte. „Wir gehen davon aus, dass die derzeitigen Umweltveränderungen zum Verlust von Schlüsselarten und damit von Ökosystemfunktionen führen können“, betont der IGB-Forscher und fügt hinzu: „Es ist deshalb dringend nötig, auch Pilz-Schlüsselarten in die Liste der zu schützenden Organismen aufzunehmen.“ Leicht dürfte das allerdings nicht werden, denn Pilze stellen in Gewässern noch eine der am wenigsten erforschten Organismengruppen dar.

Natürliche Systeme – gibt es die noch?
„Eine wirklich unberührte Natur existiert eigentlich fast nirgends mehr auf der Welt“, so lautet die Antwort von Dr. Tina Heger, die am IGB in der Arbeitsgruppe für Ökologische Neuartigkeit forscht. „In Deutschland haben wir keine Urwälder, in Europa kaum Flüsse, die unreguliert fließen und der durch den Menschen verursachte Klimawandel betrifft und verändert alle ökologischen Systeme.“

In einem aktuellen Interview plädiert die Biologin deshalb dafür, natürliche und vom Menschen beeinflusste Natur nicht als Gegensätze zu begreifen. Stattdessen könne es alle denkbaren Zustände zwischen diesen beiden Polen geben. „Ein Ökosystem, in das der Mensch eingreift, kann genauso biologisch vielfältig sein wie ein natürliches System, es kann mitunter sogar resilienter sein – das zeigen erfolgreiche Renaturierungen. Wir brauchen Begriffe, die helfen, solche Übergänge zwischen natürlichen und menschengemachten Zuständen in der Natur zu beschreiben“, sagt sie. Das sei am Ende auch eine ethische und philosophische Frage – und würde umso mehr die Verantwortung des Menschen für die uns umgebende Natur unterstreichen.

Weitere Informationen:
https://www.igb-berlin.de/news/binnengewaesser-der-biodiversitaetspolitik-mit-la…

(nach oben)


Experteninterview: „Cyberangriffe haben sich als Geschäftsmodell etabliert“

Thomas Kirschmeier Pressestelle
FOM Hochschule
Unternehmen, Privatpersonen und kritische Infrastrukturen geraten immer wieder ins Visier von Hackern. „Angreifer gehen dabei immer professioneller vor“, sagt Prof. Dr.-Ing. Torsten Finke, der an der Entwicklung der neuen Cyber-Security-Studiengänge an der FOM Hochschule mitgewirkt hat. Mit dem FOM Experten für Wirtschaftsinformatik haben wir über die Methoden von Hackern, Schutzmaßnahmen und künftige Herausforderungen im Bereich der Cybersicherheit gesprochen.

Herr Prof. Finke, wie ist es um die Cybersicherheit in Deutschland bestellt?
Cybersicherheit ist keine nationale Frage und macht vor Landesgrenzen nicht Halt. Insofern ist die Lage in Deutschland mit der Situation in anderen Staaten vergleichbar. Die Tatsache, dass in Medien regelmäßig über Angriffe gegen die IT-Sicherheit berichtet wird, zeigt, dass wir es mit einem relevanten Problem zu tun haben. Tatsächlich können die Risiken und Folgen für einzelne Unternehmen erheblich sein. Nicht umsonst hat sich in der Versicherungswirtschaft das Produkt der Cyberversicherung etabliert. Nach Hackerangriffen auf Krankenhäuser ist auch eine Gefahr für Leib und Leben real. Um die Wahrscheinlichkeit eines Cyberangriffs beurteilen zu können, muss man jedoch die Motive und Methoden der potenziellen Angreifer kennen.

Wie gehen Hacker denn typischerweise bei Angriffen vor?
Zunächst muss man zwischen der Art der Angriffe unterscheiden: Während sich physische Angriffe gegen die IT-Infrastruktur richten, geht es beim Social Engineering darum, durch die geschickte Manipulation von Menschen an vertrauliche Informationen zu gelangen. Zudem gibt es klassische Hackerangriffe, die über Netzwerke, Datenträger oder Geräte erfolgen. Grundsätzlich gilt, dass Hacker immer professioneller vorgehen und sich ihre Methoden dynamisch weiterentwickeln. Inzwischen haben sich Cyberangriffe als Geschäftsmodell etabliert. Dies gilt primär für das Prinzip der Ransomware, das faktisch auf einem Erpressungsmodell basiert. Daneben verfügen auch terroristische Gruppen und staatliche Einrichtungen über umfangreiche Möglichkeiten, Cyberangriffe auszuführen. Tendenziell wächst in allen Richtungen das Ausmaß des potenziellen Schadens.

Wie können sich Unternehmen möglichst effektiv vor einem Hackerangriff schützen?
Der beste Schutz für Unternehmen besteht in aktuellem Fachwissen. Eine gute Aus- und Weiterbildung der eigenen Mitarbeitenden im Bereich Cybersicherheit kann da sehr hilfreich sein. Darüber hinaus ist Wachsamkeit wichtig: In einem Unternehmen existieren oft zahlreiche Angriffsziele, die identifiziert und geschützt werden müssen. Es ist daher sinnvoll, das eigene Unternehmen kontinuierlich aus der Perspektive potenzieller Angreifer zu beobachten. Grundsätzlich ist es auch ratsam, die eigenen Systeme aktuell zu halten und Mitarbeitende regelmäßig zu schulen. Es ist jedoch keine gute Idee, Mitarbeitende zu häufigen Wechseln von Passwörtern zu zwingen und diese dann so zu gestalten, dass man sie sich nicht merken kann. Die Passwörter stehen dann auf Zettelchen unter der Tastatur.

Welche Tipps haben Sie für Mitarbeitende sowie Verbraucherinnen und Verbraucher, um beruflich wie privat möglichst sicher unterwegs zu sein?
Vor allem sollte man ein paar wichtige Regeln beherzigen, zum Beispiel niemals Passwörter, PIN-Nummern oder ähnlich vertrauliche Daten weitergeben. Denn eine seriöse Person wird niemals danach fragen. Auch wenn eine E-Mail oder eine Webseite ein großartiges Angebot verspricht, ist stets Vorsicht geboten. Zudem ist zu viel Komfort der Feind der Sicherheit. Es ist zwar komfortabel, auf dem eigenen Computer mit möglichst vielen Rechten ausgestattet zu sein. Wird man aber Opfer eines Hackerangriffs, dann hat auch der Angreifer diese Rechte. Daher sollte man niemals als Administrator oder Hauptbenutzer im Web surfen oder E-Mails verschicken.

Was sind die größten Herausforderungen im Bereich Cybersicherheit in den kommenden Jahren?
Es wird wichtig sein, Abhängigkeiten von Produkten und Anbietern zu verringern. Aktuell finden die wesentlichen Entwicklungen in der IT nicht in Europa statt, was technologische und organisatorische Abhängigkeiten schafft. Wünschenswert wären klare und koordinierte europäische Digitalinitiativen. Zudem muss die Transparenz erhöht werden. Das mag auf den ersten Blick irritierend klingen, da sicher niemand gern seine Sicherheitsmaßnahmen offenlegt. Ein System ist allerdings erst dann sicher, wenn es auch bei der Offenlegung seines Aufbaus sicher ist. Außerdem muss auch unser Rechtssystem mit der Entwicklung der Digitalisierung standhalten. Viele Angriffe erfolgen stark arbeitsteilig und transnational. Damit sind sie rechtlich schwer zu verfolgen. Bleiben Angriffe aber ohne Rechtsfolgen, dann könnte dies von den Angreifern als Einladung verstanden werden.

Schon gewusst?
FOM Hochschule bietet Studiengänge zu Cybersicherheit an
Der Bedarf nach Expertinnen und Experten für Cyber Security steigt. Die FOM Hochschule reagiert darauf mit drei neuen Studiengängen, die ab dem Sommersemester 2023 im Digitalen Live-Studium angeboten werden. Interessierte können ab März ausbildungs- oder berufsbegleitend die Bachelor-Studiengänge „Cyber Security“ und „Cyber Security Management“ sowie den berufsbegleitenden Master-Studiengang „Cyber Security Management“ absolvieren. Das Studium findet in virtueller Präsenz statt. Dabei werden Live-Vorlesungen aus den multifunktionalen FOM Studios gesendet, die den Studierenden im Nachhinein auch als Aufzeichnung zur Verfügung stehen.

(nach oben)


Wie toxisch sind Emissionen aus Flugzeugtriebwerken und Schiffsmotoren: Messkampagne an der Universität Rostock

Dr. Kirstin Werner Presse- und Kommunikationsstelle
Universität Rostock
Um die Risiken von Luftschadstoffen in Zukunft besser abzuschätzen, startet in dieser Woche an der Universität Rostock eine internationale Messkampagne. Bei den Untersuchungen der Gesundheitsgefährdung durch Feinstaubemissionen und Luftverschmutzung aus dem Verkehrssektor werden insbesondere die von ultrafeinen Partikeln aus Verkehrsemissionen ausgehenden Gefahren für die Gesundheit erforscht. Ziel der mehrmonatigen Messung mit internationalen Partnerinstitutionen ist es, Leitlinien für die Entwicklung von Maßnahmen zur Verbesserung der Luftqualität und der Gesundheit zu erstellen. Das Vorhaben wird von der EU mit über vier Millionen Euro gefördert.

In dem Vorhaben werden die von verschiedensten Verkehrsmitteln (Benzin-PKW, Diesel-PKW, Schiff, Flugzeug, Abrieb von Bremsen und Eisenbahnschienen etc.) direkt emittierten Verkehrsemissionen (sowohl Abgas- als auch Nicht-Abgasemissionen) und die ultrafeinen Partikel, die aus den Emissionen in der Atmosphäre durch photochemische Reaktionen im Sonnenlicht gebildet werden (so genannte sekundäre Partikel, PhotoSMOG), untersucht. Die nun an der Universität Rostock begonnene Messkampagne hat das Ziel, die Gesundheitsgefährdung durch Emissionen von Flugzeugturbinen und Schiffsmotoren im Detail zu bestimmen.

Die gemeinsamen Versuche des internationalen Projekt-Konsortiums mit dem Namen ULTRHAS (ULtrafine particles from TRansportation – Health Assessment of Sources) werden an möglichst realen Emissionsquellen durchgeführt. Im Verbundvorhaben arbeiten Forschende des Norwegischen Instituts für öffentliche Gesundheit (NIPH), der Universität Ostfinnland (UEF) und des Finnischen Instituts für Gesundheit und Wohlfahrt (THL), der Universität Fribourg (Schweiz), des Helmholtz Zentrum München, der Universität der Bundeswehr München sowie der Lehrstühle für Analytische Chemie und für Kolbenmaschinen und Verbrennungsmotoren der Universität Rostock zusammen. Neben den ULTRHAS-Partnern stoßen nun auch Forschende aus dem Weizmann Institut in Israel, der Universität Basel und dem Forschungszentrum Jülich zu den bisher einzigartigen Messungen in Rostock hinzu.

Auswirkungen frisch emittierter und gealterter Abgase auf die Lunge
Für die Rostocker Messkampagne kommen sowohl eine kerosinbetriebene Brennkammer eines Jet-Treibwerkes vom Institut für Aeronautical Engineering der Universität der Bundeswehr München als auch ein Schiffsmotorprüfstand des Lehrstuhls für Kolbenmaschinen und Verbrennungsmotoren der Universität Rostock zum Einsatz, in dessen Technikhalle die Rostocker Versuche auch durchgeführt werden. In einem speziellen Alterungsreaktor des finnischen Partners werden die Aerosole mit UV-Licht und Ozon atmosphärisch gealtert, um zu untersuchen, wie sich die Toxizität in der Umwelt mit der Zeit entwickelt. Dafür sind aus München ein mobiles biologisches Sicherheitslabor für toxikologische Untersuchungen sowie Messtechnik für die Aerosolchemie und -physik vor Ort. Zusätzliche, speziell entwickelte Messgeräte, wie beispielsweise ein neuartiges Einzelteilchenmassenspektrometer und hochauflösende Lasermassenspektrometer, erlauben ein vertieftes Verständnis der Zusammensetzung der Emissionen.

Die gleichzeitige Untersuchung der physikalisch-chemischen Eigenschaften und der atmosphärischen Alterungsprozesse der Emissionen sowie die Erforschung ihrer biologischen und toxikologischen Effekte auf Lungenzellkulturen ermöglichen es, die Eigenschaften der Emissionen mit ihren gesundheitsgefährdenden Effekten in Beziehung zu setzen. In einzigartigen Expositionssystemen werden die Lungenzellkulturen dafür direkt an der Luft-Flüssigkeits-Grenzfläche beobachtet, wodurch die Situation in der Lunge nachgestellt wird. Die Auswirkungen der frisch emittierten und gealterten Emissionen auf die Lungenmodelle werden mit Hilfe fortschrittlicher bioanalytischer Verfahren und Methoden der Bioinformatik untersucht. So können Vorhersagen darüber getroffen werden, wie physikalische und chemische Emissionsmerkmale der unterschiedlichen Verkehrsemissionen die biologischen Wirkungen beeinflussen und gesundheitliche Auswirkungen hervorrufen. Das Gesamtziel des Projekts besteht darin, die Risikobewertung von Luftschadstoffen aus dem Verkehr zu verbessern, die relative Toxizität der Emissionen unterschiedlicher Verkehrsarten zu bestimmen und politische Entscheidungsträger und Regulierungsbehörden über gezieltere Maßnahmen zur Eindämmung derjenigen Emissionskomponenten und -quellen zu beraten, die am stärksten zu nachteiligen Auswirkungen beitragen.

Erste Versuche, die das Konsortium bei dem finnischen Partner UEF durchgeführt hat, zeigten, dass die atmosphärische Alterung durch das Sonnenlicht die Toxizität selbst von Emissionen aus Automobilen, die mit neuester Abgasreinigungstechnologie (EURO 6) ausgestattet sind, deutlich erhöht. Dieses überraschende Ergebnis stellt die Sinnhaftigkeit bisheriger Grenzwertregelungen in Frage. Die Partner des Forschungsvorhabens ULTRHAS wollen nun beantworten, ob ähnliche Effekte auch für die als kritisch bekannten Schiffs- und Flugzeugemissionen beobachtet werden können.
Das Projekt wird von der Europäischen Union im Rahmen des Forschungs- und Innovationsprogramms Horizont 2020 mit der Finanzhilfevereinbarung Nr. 955390 finanziert.

Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Ralf Zimmermann
Universität Rostock
Institut für Chemie
Tel.: +49 381498 6460

E-Mail: ralf.zimmermann@uni-rostock.de
Prof. Dr. Bert Buchholz
Universität Rostock
Lehrstuhl für Kolbenmaschinen und Verbrennungsmotoren
Tel.: +49 381 498-9150
E-Mail: bert.buchholz@uni-rostock.de

Weitere Informationen:
http://Weitere Links:
http://Cordis https://cordis.europa.eu/project/id/955390
http://ULTRHAS website https://www.fhi.no/en/studies/ultrhas/

(nach oben)


Desinfektionsmittel in hessischen Böden

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Forscherteam weist Wirkstoffe in 97 Prozent der Proben nach

In Pandemiezeiten waren und sind sie unentbehrlich und allgegenwärtig: Desinfektionsmittel. Doch wie wirkt sich der massenhafte Gebrauch auf unsere Umwelt aus? Dieser Frage ist nun ein gemeinsames Forscherteam der Justus-Liebig-Universität (JLU) Gießen und des Hessischen Landesamtes für Natur-schutz, Umwelt und Geologie (HLNUG) auf den Grund gegangen: In einer breit angeleg-ten Studie untersuchten sie das Vorkommen wichtiger Wirkstoffe von Desinfektionsmit-teln und Tensiden, den Quartären Alkylammoniumverbindungen (kurz QAAV), in hessi-schen Böden. Das Ergebnis: In 97 % der 65 untersuchten Bodenproben konnten QAAV nachgewiesen werden. Dabei zeigte sich, dass sowohl Acker-, als auch Grünland-, Wald- und Weinbaustandorte mit dem Fremdstoff belastet waren. Die Gehalte der Des-infektionsmittel überschritten teilweise Werte von 1 mg kg-1 – und liegen damit zwei bis drei Größenordnungen oberhalb von Gehalten, wie sie für Arzneimittel und Antibiotika in Böden nachgewiesen wurden.

Problematisch an QAAV und ihrem Vorkommen in der Umwelt ist, dass sie Antibiotika-resistenzen verursachen können. Eine Verbreitung dieser Desinfektionsmittelgruppe in Böden ist deshalb kritisch zu sehen und könnte – wie der missbräuchliche Einsatz von Antibiotika – das Problem der Antibiotikaresistenzen zusätzlich verschärfen. Aktuelle Vorhersagen gehen davon aus, dass bereits im Jahr 2050 jährlich 10 Millionen Men-schen weltweit durch antibiotikaresistente Keime sterben werden.
Da die Stoffgruppe der QAAV analytisch nur schwer zugänglich ist, steht die Forschung zu deren Verbreitung und Effekten in Böden noch ganz am Anfang. In einer an der JLU betreuten Doktorarbeit konnte gezeigt werden, dass vor allem Böden, die regelmäßig durch Hochwasser der Flüsse Rhein und Main überschwemmt werden, stark mit QAAV kontaminiert sind. Überraschend war hierbei, dass QAAV selbst in Waldböden nachge-wiesen werden konnten, obwohl ein unmittelbarer Eintrag durch Überschwemmungen oder beispielsweise über Gülle-, Klärschlamm- oder Pestizidausbringung wie auf land-wirtschaftlichen Flächen in Wäldern allgemein nicht gegeben ist. Die Untersuchungs-standorte liegen unter anderem in den Landkreisen Marburg-Biedenkopf, Gießen, der Wetterau, dem Vogelsberg, Kassel und dem Raum Frankfurt. Die Mehrheit der Boden-proben wurde durch das HLNUG zur Verfügung gestellt und ist Teil des umfangreichen Probenarchivs der hessischen Bodendauerbeobachtung. Finanziert wurde das Projekt durch die Deutsche Forschungsgemeinschaft.

Ob und in welcher Weise die teils sehr hohen QAAV-Gehalte in hessischen Böden zu Resistenzen in Mikroorganismen und Pathogenen beitragen, ist noch nicht bekannt. Alle Ergebnisse sind im Fachmagazin „Science of the Total Environment“ publiziert und kön-nen unter https://doi.org/10.1016/j.scitotenv.2022.159228 eingesehen werden (dort auch eine Karte von Hessen mit alle beprobten Standorten und gemessenen Gehalten).

Wissenschaftliche Ansprechpartner:
Kontakt JLU Gießen:
Dr. Ines Mulder
Institut für Bodenkunde und Bodenerhaltung
E-Mail: Mulder.ines@umwelt.uni-giessen.de

Kontakt HLNUG:
Dr. Christian Heller
Dezernat G3, Boden und Altlasten
Vorsorgender Bodenschutz
E-Mail: christian.heller@hlnug.hessen.de

Originalpublikation:
Kai Jansen, Christian Mohr, Katrin Lügger, Christian Heller, Jan Siemens, Ines Mulder:
Widespread occurrence of quaternary alkylammonium disinfectants in soils of Hesse, Germany, Science of The Total Environment, Volume 857, Part 1, 2023
https://doi.org/10.1016/j.scitotenv.2022.159228

Weitere Informationen:
https://www.hlnug.de/themen/boden/erhebung/boden-dauerbeobachtung
https://www.hlnug.de/themen/boden

(nach oben)


Alzheimer: Therapie muss frühzeitig beginnen

Dr. Mareike Kardinal Pressestelle
Hertie-Institut für klinische Hirnforschung (HIH)
Eiweißablagerungen im Gehirn sind Ursache und Ansatzpunkt für Therapien – in späteren Stadien scheint sich jedoch die Krankheitsentwicklung von ihnen abzukoppeln, so Tübinger Forschende

Hauptursache für die Entstehung der Alzheimerkrankheit scheint die Ablagerung eines bestimmen Eiweißes, des Beta-Amyloid-Proteins, im Gehirn zu sein – so der aktuelle Stand der Alzheimerforschung. Die Bildung dieser sogenannten Plaques beginnt mindestens zwanzig Jahre vor den ersten Krankheitssymptomen. Bislang fand man bei Erkrankten jedoch nur einen schwachen Zusammenhang zwischen der Menge der Ablagerungen und den klinischen Symptomen. Grund dafür könnte sein, dass sich die Krankheit in fortschreitenden Stadien unabhängig von den Plaques weiterentwickelt. Das legt eine aktuelle Studie von Forschenden um Professor Dr. Mathias Jucker vom Hertie-Institut für klinische Hirnforschung, der Universität Tübingen und dem Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) nahe. Eine Therapie müsse daher so frühzeitig wie möglich begonnen werden, so Jucker. Die Ergebnisse sind in der aktuellen Ausgabe der renommierten Zeitschrift „Nature Communications“ erschienen.


„Es gibt überzeugende Beweise dafür, dass die Beta-Amyloid-Plaques die wichtigste Ursache der Alzheimererkrankung sind“, sagt Neurobiologe und Studienleiter Jucker. „Es existiert jedoch nur eine schwache Korrelation zwischen ihnen und den klinischen Symptomen.“ So sei die Verzögerung von zwanzig Jahren zwischen dem Entstehen der ersten Plaques und dem Auftreten der Krankheitssymptome sehr lang. Auch führe die Reduzierung schädigender Eiweißablagerungen im Gehirn von Probanden im Rahmen von klinischen Studien zu einer nur kleinen Verbesserung von deren Hirnleistungen. „All diese Befunde haben nahegelegt, dass die Alzheimer-Krankheitskaskade in späteren Stadien von den Proteinablagerungen unabhängig werden könnte.“

Das Tübinger Forschungsteam liefert nun erstmals experimentelle Belege für die Entkopplung der Ablagerungen von der nachgeschalteten Neurodegeneration. In ihrer Studie untersuchte es Mäuse, die als Alzheimermodell dienen. Bei ihnen lagern sich – wie bei Alzheimererkrankten – mit fortschreitendem Lebensalter Beta-Amyloid-Eiweiße im Gehirn ab.

Die Wissenschaftlerinnen und Wissenschaftler reduzierten nun bei den Mäusen in unterschiedlichen Altersstadien gezielt die Plaques. Dann maßen sie ein weiteres Protein im Hirnwasser der Mäuse, das sogenannte Neurofilament-Leichtketten-Protein (NfL). Das NfL-Protein ist im Hirnwasser von Alzheimererkrankten erhöht; es gilt als Anzeiger für den Abbau von Nervenzellen.

Das Ergebnis: „Wenn wir die Beta-Amyloid-Ablagerung in frühen Stadien reduzierten, stieg die Menge an NfL-Protein im Hirnwasser nicht mehr an. Wir konnten den Abbau der Nervenzellen stoppen“, so Christine Rother, Erstautorin der Studie. Ein anderes Bild ergab sich im höheren Lebensalter: „Wenn wir die Bildung der Beta-Amyloid-Plaques in späteren Stadien reduzierten, stieg der Pegel des NfL-Proteins im Hirnwasser unverändert an. Es starben also weiterhin Nervenzellen. Die Neurodegeneration hatte sich von den Ablagerungen entkoppelt“, ergänzt Ruth Uhlmann, Co-Erstautorin der Arbeit.

„Es scheint bei Alzheimer also zwei Phasen der Krankheitsentwicklung zu geben“, schlussfolgert Jucker. In der ersten Phase trieben die Beta-Amyloid-Plaques die Krankheit voran. Zu diesem Zeitpunkt seien Therapien, die den Ablagerungen entgegenwirken, höchst effektiv. In der zweiten Phase schreite hingegen die Neurodegeneration unabhängig von den Plaques fort. Gegen die Beta-Amyloid-Plaques gerichtete Therapien verfehlen nun weitgehend ihre Wirkung.

Doch wo liegt der Wendepunkt zwischen beiden Phasen? Um Antwort zu bekommen, analysierte das Forschungsteam die zeitliche Abfolge der Bildung der Beta-Amyloid-Plaques und dem Anstieg des NfL-Proteins im Hirnwasser von präsymptomatischen Probanden und Mäusen. Das Team stellte fest, dass beide Werte anfangs ähnlich anstiegen. „Zu einem bestimmten Zeitpunkt schoss die Menge des NfL-Proteins exponentiell in die Höhe“, berichtet Jucker. „Die Menge der Beta-Amyloid-Plaques stieg jedoch nicht in vergleichbarem Maße an.“

Diese Entkoppelung des Anstiegs des NfL-Proteins von der Bildung der Beta-Amyloid–Plaques sei zu einem Zeitpunkt geschehen, als sich rund die Hälfte der späteren Höchstmenge an Plaques gebildet hatte. „Das ist bei Patientinnen und Patienten etwa zehn Jahre nach den ersten Ablagerungen und zehn Jahre vor Auftreten der ersten Symptome der Fall“, so Jucker. „Der Zeitraum, in dem die gegen Beta-Amyloid-Plaques gerichtete Therapien am wirksamsten sind, scheint damit früher zu liegen als der, der in den bisherigen klinischen Studien angestrebt wurde. Künftige Alzheimertherapien, die gegen Beta-Amyloid-Plaques gerichtet sind, sollten daher unbedingt frühzeitiger ansetzen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mathias Jucker
Hertie-Institut für klinische Hirnforschung
Universität Tübingen
Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE)

Telefon +49 7071 29-86863
mathias.jucker@uni-tuebingen.de

Originalpublikation:
Rother et al. (2022): Experimental evidence for temporal uncoupling of brain Aβ deposition and neurodegenerative sequelae. Nature Communications, 13, 7333 (2022)
https://doi.org/10.1038/s41467-022-34538-5

Weitere Informationen:
http://www.hih-tuebingen.de Hertie-Institut für klinische Hirnforschung
https://uni-tuebingen.de Eberhard Karls Universität Tübingen
https://www.dzne.de Deutsches Zentrum für Neurodegenerative Erkrankungen (DZNE)

(nach oben)


Künstliche Intelligenz: Servicezentrum für sensible und kritische Infrastrukturen

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Die gestiegenen Ansprüche der Forschung im Bereich der Künstlichen Intelligenz, immer leistungsfähiger werdende Hardware und die steigende Verfügbarkeit von Daten und Algorithmen haben zu enormen Fortschritten im Rahmen der KI geführt. Um diesen Prozess für kritische Infrastrukturen, insbesondere in den Bereichen Energie und Medizin, weiter zu fokussieren und künftig als kompetenter Ansprechpartner zu fungieren, erforschen fünf Einrichtungen, wie ein KI-Servicezentrum aufgebaut werden kann. Das Verbundprojekt „KI-Servicezentrum für sensible und kritische Infrastrukturen“ unter Leitung der Universität Göttingen wird vom Bundesforschungsministerium für 3 Jahre mit 17 Millionen Euro gefördert.

Die Projektpartner sind die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG), die Universität Hannover, das aQua – Institut für angewandte Qualitätsförderung und Forschung im Gesundheitswesen GmbH in Göttingen und das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik in Kassel. Das Ziel ist der Aufbau eines Servicezentrums für Künstliche Intelligenz, welches verschiedene nutzerzentrierte Serviceleistungen anbieten und unterstützende Forschung betreiben wird.

Die Forschungsschwerpunkte liegen auf den Fachgebieten Medizin und Energie, weil diese als kritische Infrastrukturen spezielle Anforderungen für einen sicheren Umgang mit sensiblen Daten haben. In dem Verbundprojekt sind zudem Pilotprojekte geplant, die zum Beispiel mit kleinen und mittleren Unternehmen sowie Start-ups durchgeführt werden, um die entwickelten Services zu erproben und zu validieren.

Das Verbundprojekt wird von Prof. Dr. Julian Kunkel vom Institut für Informatik der Universität Göttingen koordiniert. Er ist zugleich Stellvertretender Leiter der GWDG für den Bereich High-Performance Computing. „Ich freue mich sehr, dass wir mit KISSKI einen Beitrag leisten werden, die Herausforderungen in der KI zu bewältigen“, sagt er. „Ich bin davon überzeugt, dass das offene Serviceangebot des Projekts als Sprungbrett zu weiteren erfolgreichen Projekten für uns und unsere Partner führen wird.“

Das Fraunhofer IEE erarbeitet ein vielschichtiges Serviceangebot von der Nutzung moderner Recheninfrastruktur bis hin zur Entwicklung und Bereitstellung passender Modelle und Daten für den Einsatz in der Energiewirtschaft, was modern als „KI-as-a-Service“ für die Energiebranche bezeichnet werden könnte.

„Für uns steht die Nutzung von Methoden der KI im Bereich der erneuerbaren Energien und der zukünftigen Energiesysteme im Mittelpunkt“, sagt Dr. Jan Dobschinski, stellvertretender Leiter Energiewirtschaftliche Prozessintegration, zur Rolle des Fraunhofer IEE im Verbundprojekt. „Die Schwerpunkte im Bereich Energie liegen primär auf datengetriebenen Anwendungen zum Monitoring und der Optimierung des Betriebs von Energienetzen und daran angeschlossen Erzeugungs- und Verbrauchsanlagen. Ergänzend dazu werden Verfahren zur intelligenten Teilhabe an Energiemärkten und Mechanismen zur Bereitstellung von Systemdienstleistungen für den Betrieb des Stromnetzes auf Basis von KI-Methoden betrachtet. Mit Fokus auf diesen Anwendungen stehen skalierbare zeitkritische KI-Modelle, ein effizientes und sicheres Datenmanagement sowie Entwicklungen von KI-Services für die thematisch breit aufgestellte Energiewirtschaft im Fokus.“

Die Arbeiten im Verbundprojekt KISSKI verstetigen das seit 2020 am Institut aufgebaute Kompetenzzentrum Kognitive Energiesysteme (K-ES), welches sich mit kognitiven Methoden für die Energiesystemtechnik, die Energiewirtschaft sowie die Energienetze beschäftigt. „In den nächsten zehn Jahren soll sich daraus ein internationaler Schwerpunkt für Künstliche Intelligenz in Forschung und Anwendung entwickeln“, betont André Baier, Co-Leiter des Kompetenzzentrums.

Das Fraunhofer IEE bietet seit mehr als 20 Jahren KI-basierte Produkte und Dienstleistungen für Unternehmen der Energiewirtschaft an. Dr. Axel Braun, Leiter des Geschäftsfeldes Energiemeteorologische Informationssysteme, sieht im Vorhaben KISSKI ein enormes Potenzial, um gemeinsam mit Anwendern aus der Energiewirtschaft innovative KI-Produkte in die Energiewirtschaft zu bringen: „Die in KISSKI aufzubauenden Beratungs- und Entwicklungsangebote stellen einen optimalen Nährboden dar, um KI-Forschung und Anwendung in der Energiewirtschaft gezielt zu verzahnen. Das Interesse an KI-Services in der Energiewirtschaft ist bereits jetzt enorm“.

Hintergrund
Das Fraunhofer IEE in Kassel forscht in den beiden Forschungsschwerpunkten Energieinformatik sowie Energiemeteorologie und Geoinformationssysteme seit mehr als 20 Jahren zur Anwendung von KI-Verfahren in der Energiewirtschaft. Hervorzuheben sind hierbei Systeme zur Prognose der Stromerzeugung aus erneuerbaren Energien, des Stromverbrauchs sowie der resultierenden Leistungsflüsse im Stromnetz, die mit den deutschen Stromübertragungsnetzbetreibern gemeinsam entwickelt wurden. Zudem leitet das Fraunhofer IEE seit 2020 das Kompetenzzentrum Kognitive Energiesysteme (K-ES), welches sich mit kognitiven Prozessen für die Energiesystemtechnik, die Energiewirtschaft sowie die Energienetze beschäftigt.

Wissenschaftliche Ansprechpartner:
Dr. Jan Dobschinski, Abteilungsleiter Energiemeteorologie und Geoinformationssysteme, stellvertretender Bereichsleiter Energiewirtschaftliche Prozessintegration
E-Mail: jan.dobschinski@iee.fraunhofer.de

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2022/ki_serviceze…

(nach oben)


Klimaarchive unter dem Vergrößerungsglas

Jana Nitsch Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
MARUM-Studie in Nature: Neue Analysemethode zeigt abrupte Zunahme der Saisonalität während des letzten globalen Klimawandels

Wie verändert sich das Wetter als Folge der globalen Erwärmung? Klimaarchive liefern wertvolle Einblicke in vergangene Klimaveränderungen, also in die Prozesse, die unseren Planeten von einem Klimazustand in den nächsten beförderten. Für Menschen und Ökosysteme ist die Variabilität in Zeiträumen von Wochen bis Jahren – das Wetter – aber oftmals entscheidend. Mittels einer am MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen neu entwickelten und erprobten Analysemethode wurden nun diese beiden Aspekte zusammengeführt und die Auswirkungen der letzten globalen Erwärmung auf saisonale Temperaturschwankungen beschrieben. Das Fachjournal Nature hat die Ergebnisse jetzt veröffentlicht.

In marinen Sedimenten sammeln sich fossile Überreste von Algen an, mittels derer vergangene Zustände des Ozeans rekonstruiert werden können. Von großer Bedeutung sind dabei molekulare Fossilien, so genannte Lipid-Biomarker: Zellbausteine von Algen, die einst den Ozean bevölkerten. Sterben diese Algen, sinken sie zum Ozeanboden und bewahren in ihren Lipiden Informationen über die durchlebten Bedingungen. Die Analyse solcher Klimaarchive hat seit Jahrzehnten fundamentale Informationen zum Verständnis vergangener Klimaveränderungen geliefert.

Werkzeug für verborgene Details
In ausgewählten Lokationen, zum Beispiel dem Cariacobecken vor der Küste Venezuelas, entstehen ganz besondere, laminierte Archive. „Das Besondere am Cariacobecken ist, dass die Ablagerungen seit tausenden Jahren schön ordentlich nach Jahreszeiten sortiert sind, jeweils eine dünne Lage für den Sommer und eine für den Winter. Es liegt dort also ein Archiv vor, mit ganz grundlegenden Informationen über vergangene, kurzfristige Klimaschwankungen in den Tropen, das aber bisher nicht gelesen werden konnte“, sagt Erstautor Dr. Lars Wörmer vom MARUM. Er und seine Kolleg:innen vergleichen das mit dem Kleingedruckten, für dessen Lektüre spezielle Lesehilfen notwendig sind. Solche eine Lesehilfe ist ein Laser, der gekoppelt mit einem Massenspektrometer die Verteilung von Lipid-Biomarkern in jeder dieser Millimeter breiten Lagen ermöglicht.
Prof. Kai-Uwe Hinrichs, in dessen Arbeitsgruppe die Methode entwickelt wurde, bezeichnet sie als „Werkzeug, um bisher verborgene Details in Klimaarchiven zu entschlüsseln“. In einem vom Europäischen Forschungsrat ERC geförderten Projekt haben Hinrichs und seine Kolleg:innen ein molekulares, bildgebendes Verfahren entwickelt, um Klima- und Umweltprozesse der jüngeren Erdgeschichte zeitlich hoch aufgelöst – das heißt nahezu in Monatsschritten – abzubilden. Mit anderen Analysemethoden werden verlässlich Intervalle von hunderten oder tausenden Jahren abgebildet – bei einer Erdgeschichte von über vier Milliarden Jahren gilt das bereits als sehr detailreich.

Globale Veränderungen wirken sich auf lokale Temperaturen aus
Im nun untersuchten Zeitintervall liegt die letzte erdgeschichtliche Periode mit drastischer – und nicht menschengemachter – Erwärmung. „Das ist die Parallele zu heute“, betont Lars Wörmer. „Die Erwärmung vor 11.700 Jahren hat die Menschheit ins Holozän gebracht, unserem aktuellen Zeitalter. Jede weitere Erwärmung bringt uns vom Holozän ins so genannte Anthropozän, das von einer durch den Menschen verursachten Klimaerwärmung und Umweltveränderung geprägt ist.“ Das Team um Kai-Uwe Hinrichs und Lars Wörmer konnte nun zeigen, dass sich während dieses Intervalls der Unterschied zwischen Sommer- und Wintertemperaturen im tropischen Ozean verdoppelt hat. Somit ist belegt, wie sich globale Klimaveränderungen auf lokale, saisonale Temperaturschwankungen auswirken.

Bereits im September ist eine MARUM-Studie in Nature Geosciences erschienen, die ebenfalls auf der neu etablierten Methode basiert. Hier wurden Daten erstellt, die die Meeresoberflächentemperatur mit einer Auflösung von einem bis vier Jahren zeigen. Dafür hat Erstautor Dr. Igor Obreht mit seinen Kolleg:innen einen Sedimentkern aus dem östlichen Mittelmeer untersucht, in dem die Temperatur aus dem letzten Interglazial (vor etwa 129.000 bis 116.000 Jahren) aufgezeichnet ist. Die Studie von Obreht und seinen Kolleg:innen nimmt also eine Zeit in den Fokus, die als letzte wärmer war als die heutige war.

Szenarien für eine solch wärmere Welt werden am MARUM innerhalb des hier angesiedelten Exzellenzclusters „Ozeanboden – unerforschte Schnittstelle der Erde“ entwickelt. Das im Rahmen des oben genannten ERC-Projekts etablierte GeoBiomolecular Imaging Lab gehört inzwischen zur Infrastruktur für die Erforschung der Kernthemen im Exzellenzcluster.

Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.

Wissenschaftliche Ansprechpartner:
Dr. Lars Wörmer
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Organische Geochemie
Telefon: 0421 218-65710
E-Mail: lwoermer@marum.de

Originalpublikation:
Lars Wörmer, Jenny Wendt, Brenna Boehman, Gerald Haug, Kai-Uwe Hinrichs: Deglacial increase of seasonal temperature variability in the tropical ocean. Nature 2022. DOI: 10.1038/s41586-022-05350-4

Weitere Informationen:
https://www.marum.de/Entdecken/Lipid-Biomarker.html

(nach oben)


Alters- und Lungenmediziner: Alle über 60-Jährigen und Risikogruppen sollten sich jetzt gegen Grippe impfen lassen

Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Jetzt ist die beste Zeit für ältere Menschen, um sich gegen Grippe impfen zu lassen! Die Deutsche Gesellschaft für Geriatrie (DGG) und die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) bestärken deshalb noch einmal die Empfehlung der Ständigen Impfkommission STIKO: Jeder Mensch über 60 Jahre sollte sich unbedingt neben einer vierten Corona-Impfung gegen das Influenza-Virus schützen. 90 Prozent der Grippe bedingten Todesfälle entfallen auf diese Altersgruppe.

„Bei Ungeimpften beobachten wir insbesondere im ersten Monat nach der Influenza-Infektion häufiger Herzinfarkte oder Schlaganfälle. Als Spätfolge kann nach mehr als zehn Jahren ein Morbus Parkinson auftreten“, warnt Dr. Andreas Leischker, Vertreter der DGG-Arbeitsgruppe Impfen. „Bei einer Influenza-Infektion kann sich im Verlauf der Erkrankung zusätzlich eine durch Pneumokokken-Bakterien verursachte Pneumonie, also Lungenentzündung, entwickeln, die zu besonders schweren Verläufen führt. Dieses Risiko, welches insbesondere ältere Patientinnen und Patienten betrifft, gilt es zu verhindern“, ergänzt Professorin Hortense Slevogt, Immunologin und Vorstandsmitglied der DGP. Sie ruft dazu auf, dass sich alle Risikogruppen vorsorglich impfen lassen sollten.

Die Influenzaimpfung schütze nicht nur vor einer akuten Grippeerkrankung, sondern könne auch das Risiko für Herzinfarkte signifikant senken und die Gesamtsterblichkeit um 40 Prozent reduzieren, sagen die beiden Experten. Bei Patientinnen und Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) tritt zudem deutlich seltener eine Demenz auf, wenn sie jährlich gegen Influenza geimpft werden. Derzeit lassen sich in Deutschland aber nur rund 47 Prozent aller Menschen gegen Influenza impfen. Dabei besteht weiter das erhöhte Risiko einer Ansteckung: Laut Robert Koch-Institut (RKI) steigt die Zahl der Arztbesuche wegen Atemwegserkrankungen weiter an. In 69 Prozent der zuletzt vom RKI untersuchten Stichproben wurden respiratorische Viren identifiziert. Darunter überwiegend Influenzaviren, aber ebenso Respiratorische Synzytial-Viren (RSV), Rhinoviren, Parainfluenzaviren, humane saisonale Coronaviren, SARS-CoV-2-Viren und humane Metapneumoviren.

Ausreichender Schutz: Hochdosierter Impfstoff enthält viermal mehr Wirkstoff
„Neben der vierten Corona-Impfung sollten älteren Menschen für den wirksameren Schutz unbedingt den hochdosierten Influenzaimpfstoff verabreicht bekommen – er enthält viermal so viel Wirkstoff wie der konventionelle Influenzaimpfstoff, der eher für jüngere Menschen mit umfassender Immunabwehr ausreichend ist“, sagt Andreas Leischker, Lehrbeauftragter der Philipps-Universität Marburg. Er folgt damit auch dem Rat der Ständigen Impfkommission am Robert Koch-Institut. Die Kommission empfiehlt die Grippeimpfung grundsätzlich zudem für chronisch Kranke, Bewohner von Alten- und Pflegeheimen, Menschen mit einem erhöhten beruflichen Risiko wie bei medizinischem Personal und Menschen, die alte Angehörige oder Bekannte pflegen.

Grippewelle vorbeugen: So bald wie möglich impfen lassen
Vor der Corona-Pandemie begann die jährliche Grippewelle meist im Januar und dauerte drei bis vier Monate. „Durch die Maskenpflicht und Kontaktbeschränkungen ist die Grippewelle zwei Jahre lang praktisch ausgefallen. Die Menschen hatten dadurch längere Zeit keinen Kontakt zu Influenza-Viren, eine Herdenimmunität besteht nicht mehr. Die Verbreitung verläuft in diesem Jahr früher, schneller und heftiger als in den Vorjahren“, sagt Hortense Slevogt, Oberärztin an der Medizinischen Hochschule Hannover. Seit Anfang Oktober haben sich die wöchentlichen Neuansteckungen mit Influenza mehr als verdoppelt. Das RKI hat deshalb rückwirkend den Start der Grippewelle für die vorletzte Oktoberwoche datiert. „Wir empfehlen daher dringend allen Über-60-Jährigen, sich so bald wie möglich impfen zu lassen. Dies schützt nicht nur vor der stark grassierenden Influenza, sondern beugt auch bakteriellen Lungenentzündungen vor, von denen sich gerade ältere Menschen in der Regel nur sehr langsam erholen können. Es ist genügend Impfstoff da“, sagt Hortense Slevogt.

(nach oben)


FLEXITILITY: Wasserinfrastruktur klimaresilient gestalten

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Trockenheit, Hitze, Starkregen: Die Auswirkungen des Klimawandels erfordern den Umbau der Wasser- und Abwasserinfrastruktur hin zu klimaresilienten Systemen. Neben der kostenintensiven Anpassung der gebauten Infrastruktur stellt die Flexibilisierung des Infrastruktur- und Ressourceneinsatzes eine mögliche Strategie dar. Um erfolgversprechende Maßnahmen wie die Wasserwiederverwendung und Zwischenspeicher für Trinkwasser zu erproben, ist im Oktober die Umsetzungsphase des BMBF-Forschungsprojekts „FLEXITILITY“ gestartet. Die Pilotversuche in Brandenburg werden unter Leitung von inter 3 gemeinsam mit Praxis- und Wissenschaftspartnern durchgeführt.

Nach der erfolgreich abgeschlossenen F+E-Phase von FLEXITILITY werden nun im Versorgungsgebiet des Herzberger Wasser- und Abwasser-Zweckverbands (HWAZ) in Südbrandenburg Möglichkeiten der Wasserwiederverwendung zur landwirtschaftlichen Bewässerung und der dezentralen Trinkwasser-Zwischenspeicherung ausprobiert.

„Zum Ende des Projekts in 2024 wollen wir Kommunen und Versorgungsbetrieben konkrete Empfehlungen an die Hand geben, wie sie auf diese Weise ihre Infrastrukturen flexibilisieren können,“ beschreibt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3, die Aufgabe. Übergeordnetes Ziel ist es, einen Beitrag zur klimaresilienten Gestaltung der Daseinsvorsorge zu leisten.

Betriebskonzepte für Wasserwiederverwendung und Trinkwasser-Zwischenspeicher
Für die Erprobung der Wasserwiederverwendung wird das gereinigte Wasser der Kläranlage Uebigau entsprechend EU-Verordnung 2020/741 desinfiziert und zur Bewässerung von Tierfutter- und Energiepflanzen verwendet. Eine landwirtschaftliche Fläche von insgesamt 12 Hektar wird teils voll, teils defizitär und teils gar nicht bewässert. Zur Einschätzung von Risiken für Menschen, Tiere und Umwelt werden alle relevanten Parameter im Bewässerungswasser, im Boden, auf den Pflanzen, im Grundwasser sowie auf dem bewässerten Grünland gemessen und analysiert. Dazu wird in enger Zusammenarbeit mit den relevanten Interessengruppen ein Risikomanagementplan aufgestellt.

Mit dem Ziel, Lastspitzen im Trinkwassernetz abzufedern, werden ausgewählte Kunden mit Zwischenspeichern für Trinkwasser ausgestattet. Der im Tagesgang schwankende Trinkwasserbedarf in den angeschlossenen Gebäuden wird aus den Speichern gedeckt, diese jedoch nur mit einem geringen, dafür kontinuierlichen Volumenstrom befüllt. In Testreihen werden betriebliche Anforderungen, Kosten und Nutzen ermittelt. Die hygienische und die technische Sicherheit des Speicherbetriebs werden durch ein intensives begleitendes Monitoring gewährleistet. Zudem wird die Wirksamkeit der Speicher im Kontext von Extremwetter-Folgen für den Betrieb des gesamten Trinkwassernetzes hochskaliert und modelliert.

Weiterhin startet ein in der F+E-Phase entwickeltes Modell zur Bewertung kommunaler Klimaresilienz in die praktische Anwendung.

Das Forschungsprojekt „FLEXITILITY“: praxisnah und regional verankert
Das Projekt startete 2017 mit einer Definitionsphase in der Region Anhalt und Südbrandenburg, in der Flexibilisierungsansätze und deren Potenzial auf Produzenten- und Kundenseite identifiziert wurden. In der anschließenden F+E-Phase wurden erfolgversprechende Lösungen in verschiedenen Reallaboren und Modellierungen praktisch untersucht. Neben technischen Optionen wurde vor allem auch erforscht, wie ein flexiblerer Verbrauch auf Kundenseite vonstattengehen könnte.

Das Forschungsprojekt „FLEXITILITY: Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur“ wird bis September 2024 vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Leitinitiative Zukunftsstadt gefördert. Weitere Partner im Forschungsverbund der Umsetzungsphase sind neben inter 3 die Brandenburgisch-Technische Universität Cottbus-Senftenberg, das DVGW-Technologiezentrum Wasser (TZW), das Umweltbundesamt, die Stadt Herzberg (Elster), der Herzberger Wasser- und Abwasserzweckverband (HWAZ) sowie die Agrargenossenschaft Gräfendorf eG.

Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri
inter 3 Institut für Ressourcenmanagement
+49(0)30 34 34 74 40
mohajeri@inter3.de

Weitere Informationen:
http://www.inter3.de/forschungsfelder/projekte/details/flexible-utilities-umsetz… Projektbeschreibung auf der Webseite von inter 3
http://www.flexitility.de Webseite des Projekts

Anhang
inter 3-PM_FLEXITILIY_Start der Umsetzungsphase

(nach oben)


Grundwasserspeicher vielversprechend für Wärme- und Kälteversorgung

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Thermische Aquiferspeicher können wesentlich zum klimafreundlichen Heizen und Kühlen von Gebäuden beitragen: Erwärmtes Wasser wird unter der Erde gespeichert und bei Bedarf heraufgepumpt. Forschende des Karlsruher Instituts für Technologie (KIT) haben nun ermittelt, dass Deutschland ein beträchtliches Potenzial für Niedertemperatur-Aquiferspeicher aufweist und dieses Potenzial aufgrund des Klimawandels in Zukunft voraussichtlich wachsen wird. Zu der Studie gehört die bis jetzt detaillierteste Karte der Aquiferspeichermöglichkeiten in Deutschland. Über ihre Ergebnisse berichten die Forschenden in der Zeitschrift Geothermal Energy. (DOI: 10.1186/s40517-022-00234-2)

Thermische Aquiferspeicher können wesentlich zum klimafreundlichen Heizen und Kühlen von Gebäuden beitragen: Erwärmtes Wasser wird unter der Erde gespeichert und bei Bedarf heraufgepumpt. Forschende des Karlsruher Instituts für Technologie (KIT) haben nun ermittelt, dass Deutschland ein beträchtliches Potenzial für Niedertemperatur-Aquiferspeicher aufweist und dieses Potenzial aufgrund des Klimawandels in Zukunft voraussichtlich wachsen wird. Zu der Studie gehört die bis jetzt detaillierteste Karte der Aquiferspeichermöglichkeiten in Deutschland. Über ihre Ergebnisse berichten die Forschenden in der Zeitschrift Geothermal Energy. (DOI: 10.1186/s40517-022-00234-2)

Mehr als 30 Prozent des Endenergieverbrauchs in Deutschland entfallen derzeit auf das Heizen und Kühlen von Gebäuden. Die Dekarbonisierung dieses Sektors kann daher einiges an Treibhausgasemissionen einsparen und wesentlich zum Klimaschutz beitragen. Zur saisonalen Speicherung und flexiblen Nutzung von Wärme und Kälte eignen sich Aquiferspeicher, also wasserführende Schichten im Untergrund. Wasser besitzt eine hohe Fähigkeit, thermische Energie zu speichern, und das umgebende Gestein wirkt isolierend. Aquiferspeicher werden durch Bohrungen erschlossen, um beispielsweise Wärme aus Solarthermieanlagen oder Abwärme aus Industrieanlagen unter der Erde zu speichern und bei Bedarf heraufzupumpen. Sie lassen sich ideal mit Wärmenetzen und Wärmepumpen kombinieren. Als besonders effizient haben sich oberflächennahe Niedertemperatur-Aquiferspeicher (engl. Low-Temperature Aquifer Thermal Energy Storage – LT-ATES) erwiesen: Da die Temperatur des Wassers nicht viel höher ist als die der Umgebung, geht während der Speicherung wenig Wärme verloren.

Mehr als die Hälfte der Fläche in Deutschland ist sehr gut oder gut geeignet
Welche Regionen in Deutschland sich für Niedertemperatur-Aquiferspeicher eignen haben Forschende am Institut für Angewandte Geowissenschaften (AGW) und in der Nachwuchsgruppe Nachhaltige Geoenergie des KIT untersucht. „Zu den Kriterien für einen effizienten LT-ATES-Betrieb gehören geeignete hydrogeologische Gegebenheiten wie die Produktivität der Grundwasserressourcen und die Grundwasserströmungsgeschwindigkeit“, erklärt Ruben Stemmle, Mitglied der Forschungsgruppe Ingenieurgeologie am AGW und Erstautor der Studie. „Wichtig ist auch ein ausgeglichenes Verhältnis zwischen Heiz- und Kühlenergiebedarf. Dieses lässt sich annäherungsweise über das Verhältnis von Heiz- und Kühlgradtagen ermitteln.“


Die Forschenden haben die hydrogeologischen und klimatischen Kriterien in einer räumlichen Analyse kombiniert. Dabei zeigte sich, dass 54 Prozent der Fläche in Deutschland in den kommenden Jahrzehnten bis 2050 sehr gut oder gut für LT-ATES geeignet sind. Die Potenziale konzentrieren sich im Wesentlichen auf das Norddeutsche Becken, den Oberrheingraben und das Süddeutsche Molassebecken. Visualisiert sind sie detailliert auf einer Karte, welche die Forschenden mit einem Geoinformationssystem (GIS) anhand einer multikriteriellen Entscheidungsanalyse erstellt haben.

Klimawandel wird Potenzial für Aquiferspeicher vergrößern
Wie die Studie weiter ergeben hat, werden die für LT-ATES sehr gut oder gut geeigneten Flächen für den Zeitraum 2071 bis 2100 voraussichtlich um 13 Prozent wachsen. Dies ist vor allem durch einen relativ starken Zuwachs bei den sehr gut geeigneten Flächen bedingt und zurückzuführen auf einen steigenden Kühlbedarf, also auf den Klimawandel. In Wasserschutzgebieten sind Aquiferspeicher nur eingeschränkt und in Einzelfällen zulässig. Dadurch fallen elf Prozent der technisch sehr gut oder gut geeigneten Flächen weg. „Alles in allem zeigt unsere Studie jedoch, dass Deutschland ein großes Potenzial für die saisonale Wärme- und Kältespeicherung in Aquiferen besitzt“, sagt Stemmle. (or)

Wissenschaftliche Ansprechpartner:
Dr. Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu

Originalpublikation:
Ruben Stemmle, Vanessa Hammer, Philipp Blum and Kathrin Menberg: Potential of low temperature aquifer thermal energy storage (LT ATES) in Germany. Geothermal Energy, 2022. DOI: 10.1186/s40517-022-00234-2

https://geothermal-energy-journal.springeropen.com/articles/10.1186/s40517-022-0…

Weitere Informationen:
http://Details zum KIT-Zentrum Energie: https://www.energie.kit.edu/

(nach oben)


Eine Wirtschaft ohne Umweltverschmutzungen – Neues Partnerprojekt der TUM und des Imperial College London

Ulrich Meyer Corporate Communications Center
Technische Universität München
Die Technische Universität München (TUM) und das Imperial College London (Imperial) und wollen gemeinsam an einer neuen Wirtschaftsweise ohne Umweltverschmutzung arbeiten. Das Imperial – TUM Zero Pollution Network wird dafür Wissenschaftler:innen, Industrie, Regierungen und andere Partner an einen Tisch bringen. Ziel ist es, Umweltverschmutzung bereits an der Quelle einzudämmen. So wird beispielsweise der Lebenszyklus von Technologien und Produkten berücksichtigt: von der Beschaffung der Rohstoffe über ihre Weiterverarbeitung in der Industrie und ihre Nutzung in der Gesellschaft bis hin zur Entsorgung und Wiederverwendung.

Im Rahmen des Projekts werden Lehrende und Studierende von zwei der besten Universitäten der Welt kollaborative Forschungs- und Bildungsprogrammen entwickeln und gemeinsam in den Laboren der jeweils anderen Partneruniversitäten arbeiten. Die Forschungsschwerpunkte liegen zunächst auf Elektrochemie und Energiespeichertechnologien, nachhaltiger Fertigung und auf der nachhaltigen Mobilität der Zukunft, wobei in den nächsten zwei Jahren weitere Themen entwickelt werden. Das Imperial College und die TUM werden auch zusammenarbeiten, um studentische Gründer:innen bei der Entwicklung ihrer Unternehmen zu unterstützen.

Gemeinsame Forschung an riesigen Herausforderungen
Der Präsident des Imperial College, Hugh Brady sagte: „Unsere Welt ist durch die globale Umweltverschmutzung ernsthaft in Gefahr. Sie zerstört unser Klima und unsere Umwelt und beeinträchtigt jedes Jahr die Gesundheit von Millionen von Menschen. Wir müssen dringend neue Technologien und Lösungen finden und grundlegende Veränderungen der Art und Weise anregen, wie Gesellschaft und Industrie produzieren und konsumieren. Dieses neue Netzwerk wird einige der führenden Köpfe in Wissenschaft, Industrie, Regierung und Gesellschaft zusammenbringen, um innovative Ideen und Technologien zu entwickeln. Die Technische Universität München ist eine der besten Universitäten der Welt und einer der engsten Kooperationspartner des Imperial, und wir freuen uns auf die Zusammenarbeit mit ihr bei dieser großen Herausforderung.“

Präsident der TUM, Thomas F. Hofmann, betonte: „Das Ausmaß und der Zeitrahmen des Klimawandels fordern uns heraus. Wir können mehr tun, und wir werden mehr tun, indem wir unsere TUM Sustainable Futures Strategy 2030 in die Praxis umsetzen und in engen internationalen Partnerschaften auf umweltfreundlichere Lösungen hinarbeiten. Unsere Flaggschiff-Partnerschaft mit dem Imperial College London wird einen großen Beitrag dazu leisten, die gewaltigen globalen Herausforderungen der Klimakrise zu bewältigen. Studierende und Wissenschaftler:innen des Imperial und der TUM sind aufgerufen, gemeinsam nachhaltige Ansätze für eine Kreislaufwirtschaft und Lösungen ohne Umweltverschmutzung zu entwickeln, um sicherzustellen, dass die Welt auch in Zukunft lebenswert bleibt. Und ich bin überzeugt, dass wir zusammen viel bewirken können.”

Die Vize-Kanzlerin für Research and Enterprise des Imperial College, Prof. Mary Ryan, sagte: „Der Umfang der Herausforderung ist enorm. Die vom Menschen verursachte Umweltverschmutzung ist überall sichtbar, von der Luftverschmutzung in unseren Städten bis hin zu Plastik in den tiefsten Bereichen unserer Ozeane. Wir müssen jetzt damit beginnen, uns mit der Umweltverschmutzung in all ihren Formen zu befassen, einschließlich Kohlendioxid. Wir brauchen einen transdisziplinären Ansatz. Wissenschaftler:innen, Ingenieur:innen, Mediziner:innen und Wirtschaftswissenschaftler:innen müssen zusammenarbeiten, um innovative Technologien und Strategien für einen schnellen Übergang zu sauberen Technologien zu entwickeln.“

Lange Partnerschaft zwischen Imperial und TUM
TUM und Imperial arbeiten schon seit Jahrzehnten eng zusammen. Im Jahr 2018 haben wurde sogar eine strategische Flagship-Partnerschaft in den Bereichen Bildung, Forschung und Innovation geschlossen. In den letzten fünf Jahren haben Wissenschaftler:innen der beiden Universitäten gemeinsam 654 Forschungspublikationen verfasst, was einer Steigerung von 90 % entspricht. Die beiden Universitäten betreiben 63 Verbundprojekte und 14 PhD-Projekte. Die Zusammenarbeit umfasst die Forschung in den Bereichen Windturbinen, Solarenergie und industriellen Prozessen für saubere Energie.

Das Imperial College London gehört zu den zehn besten Universitäten der Welt und genießt einen erstklassigen Ruf. Die 22.000 Studierenden und 8.000 Mitarbeiter:innen widmen sich der Bewältigung der größten Herausforderungen in Wissenschaft, Medizin, Technik und Wirtschaft. Im Research Excellence Framework (REF) 2021 wurde bestätigt, dass das Imperial College einen größeren Anteil an weltweit führender Forschung vorweisen kann als jede andere britische Universität. Außerdem wurde es im „The Times and The Sunday Times Good University Guide“ zur Universität des Jahres 2022 und im „Good University Guide“ zur Universität des Jahres 2022 in Bezug auf die Zufriedenheit der Studierenden gekürt sowie mit dem Queen’s Anniversary Prize für seine Corona-Initiative ausgezeichnet. https://www.imperial.ac.uk/

Die Technische Universität München (TUM) ist mit mehr als 600 Professorinnen und Professoren, 50.000 Studierenden sowie 11.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006, 2012 und 2019 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings wird sie regelmäßig als beste Universität Deutschlands bewertet.

Bilder:
http://go.tum.de/039753 (Der neue Präsident des Imperial College London, Prof. Hugh Brady (li.), und TUM-Präsident Prof. Thomas F. Hofmann beim Start des Imperial – TUM Zero Pollution Network am Campus Garching.)

https://mediatum.ub.tum.de/image/1692357.jpg (Die Delegation des Imperial College London besichtigt die MakerSpace-Hightech-Werkstätten am Campus Garching. v.l.: TUM-Vizepräsidentin Prof. Juliane Winkelmann, Imperial-Vizekanzlerin Prof. Mary Ryan, Imperial-Präsident Prof. Hugh Brady, TUM-Präsident Prof. Thomas F. Hofmann, Imperial-Vizepräsidentin Prof. Maggie Dallman, TUM-Vizepräsident Prof. Helmut Schönenberger)

Weitere Informationen:
Flagship-Partnerschaft von TUM und Imperial: https://www.international.tum.de/global/icl/
Imperial College London: https://www.imperial.ac.uk/
Strategische Partnerschaften & Allianzen der TUM: https://www.international.tum.de/global/globales-profil/strategische-partner-all…
TUM Nachhaltigkeitsstrategie: https://www.tum.de/ueber-die-tum/ziele-und-werte/nachhaltigkeit

(nach oben)


TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Täglich werden pro Person 30 bis 40 Liter Wasser, also des wichtigsten Lebensmittels, für die WC-Spülung verschwendet. Durch dezentrale Sammlung und Aufbereitung leicht verschmutzten Grauwassers und Wärmerückgewinnung profitierten die Umwelt und auch die Mieter*innen durch niedrigere Betriebskosten. Mit diesem Thema beschäftigt sich die Veranstaltung und Exkursionen „Den Klimawandel abmildern – aber wie? Die Potenziale des Grauwasserrecyclings im Wohnungsbau nutzen“

Mit der Veranstaltung sollen die Berliner Akteur*innen aus Baupraxis, Planung, Wissenschaft, Politik, Verwaltung, Verbänden und Initiativen über die Potenziale des Grauwasserrecyclings und Umsetzungsstrategien für den Wohnungsbau ins Gespräch gebracht werden. Wie ist der Stand der Technik? Was ist der ökologische und ökonomische Nutzen? Welche Umsetzungshemmnisse bestehen und wie können sie überwunden werden? Wie kann Grauwassernutzung zum Standard im Wohnungsbau werden? Diese Fragen sind zentrale Themen der Veranstaltung, die von der Kooperations- und Beratungsstelle für Umweltfragen Wissenschaftsladen kubus der TU Berlin und dem Fachgebiet Natural Building Lab der TU Berlin, der Architektenkammer Berlin und fbr – Bundesverband für Betriebs- und Regenwasser e.V. durchgeführt und von Fridays for Future der TU Berlin unterstützt wird.

Die Klimaschutzziele des Landes Berlin, Marina Ozic-Basic, Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, Referat Klimaschutz und Klimaanpassung

Warum wir jetzt gemeinsam über Grauwasserrecycling reden müssen. Gisela Prystav, TU Berlin, Kooperations- und Beratungsstelle für Umweltfragen (ZEWK / kubus)

Grauwasserrecycling im Wohnungsbau – Ressourcen-, Energieeffizienz, Kosten und Betriebserfahrungen, Erwin Nolde, Fa. innovative Wasserkonzepte / fbr – Bundesverband für Betriebs- und Regenwasser e.V.

Zukunft – Ökologisch – Bauen, Prof. Eike Roswag-Klinge, TU Berlin, Leiter des Fachgebiets Natural Building Lab
11.40–13:00 Uhr: Fishbowl-Diskussion mit Impulsen

Die Anforderungen von Architekt*innen, der Wohnungswirtschaft, die Sicht von Mieter*innen, Umwelt- und Klimaaktiven, Politik und anderen Akteur*innen

Weitere Informationen unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492

Weitere Informationen erteilt Ihnen gern:
Gisela Prystav
TU Berlin
Kooperations- und Beratungsstelle für Umweltfragen (kubus), der Wissenschaftsladen der TU Berlin
Tel.: 030/314-24617 (Rufweiterleitung) / -21580 (Sekr.)
E-Mail: gisela.prystav@tu-berlin.de

(nach oben)


Erschöpft durch Online-Besprechungen? Studie erforscht das Phänomen „Videokonferenz-Müdigkeit“

Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Im Zuge der Corona-Pandemie haben es viele von uns kennengelernt: Online-Meetings oder Web-Konferenzen, um sich mit Kolleginnen und Kollegen auszutauschen. In einer Studie haben Psychologinnen und Psychologen der Universität Ulm das neue Phänomen „Videokonferenz-Müdigkeit“ untersucht. Die Erkenntnis: Vor allem bei Personen mit Tendenzen zu emotionaler Instabilität und negativen Emotionen könnte eine Vielzahl an Videokonferenzen das Risiko für Burnout- und Depressionssymptome erhöhen.

Psychologinnen und Psychologen der Universität Ulm haben das neue Phänomen „Videokonferenz-Müdigkeit“ untersucht. Die Wissenschaftlerinnen und Wissenschaftler gingen dabei der Frage nach, wie Videokonferenz-Müdigkeit – abhängig von den Persönlichkeitsmerkmalen – mit Symptomen von Burnout und Depression zusammenhängt. Die Erkenntnis: Vor allem bei Personen mit Tendenzen zu emotionaler Instabilität und negativen Emotionen könnte eine Vielzahl an Videokonferenzen das Risiko für Burnout- und Depressionssymptome erhöhen. Erschienen ist die Studie im „Journal of Affective Disorders Reports“.

Stundenlange Online-Meetings am Küchentisch oder Web-Konferenzen im Arbeitszimmer. Im Zuge der Corona-Pandemie, den damit einhergehenden „Lockdowns“ und dem Muss zur sozialen Distanz hat die elektronische Kommunikation via Bildschirm stark zugenommen. Videokonferenzen mit Programmen wie Zoom oder Microsoft Teams sind seitdem ein beliebtes Werkzeug, um im Homeoffice Arbeits-Meetings durchzuführen und sich mit Kolleginnen und Kollegen zu besprechen. Doch das stundenlange Sitzen vor dem Bildschirm, technische Probleme oder die ständige Konfrontation mit dem eigenen Bild können die Teilnehmenden ermüden. Zudem fehlt vielen dabei echte soziale Interaktion. Betroffene berichteten vom Phänomen „Videokonferenz-Müdigkeit“.

„Die neuartige Erscheinung der Videokonferenz-Müdigkeit ist noch unzureichend charakterisiert. Sie kann sich in unterschiedlichen Ausprägungen äußern, die emotionale, soziale, motivationale und visuelle Aspekte haben können“, so Professor Christian Montag, Leiter der Abteilung Molekulare Psychologie an der Universität Ulm und Erstautor der Studie. Zusammen mit Professor Rene Riedl von der Fachhochschule Oberösterreich in Steyr und der Universität Linz (beide Österreich) haben Professor Montag und seine Kollegin Dr. Cornelia Sindermann Online-Fragebögen von über 300 Befragten ausgewertet. Speziell das Persönlichkeitsmerkmal „Neurotizismus“ wurde dabei als potenziell begünstigender Faktor für Videokonferenz-Müdigkeit berücksichtigt. „Weiterhin konnten wir Hinweise darauf finden, dass der Zusammenhang zwischen neurotischeren Personen und Burnout- als auch zu Depressions-Tendenzen zum Teil über die Videokonferenz-Müdigkeit erklärt werden könnte“, erläutert Psychologie-Professor Christian Montag.

In der Auswertung kommen die Psychologinnen und Psychologen zu dem Schluss, dass kürzere Videokonferenzen sowie längere Pausen dazwischen ein Schlüssel sein könnten, um das Phänomen einer Videokonferenz-Müdigkeit zu vermeiden. Dies ergaben statistische Analysen von Informationen über die persönlich erlebte Videokonferenz-Müdigkeit sowie zur Länge der Meetings und der Pausen.
Die Forschenden konnten außerdem zeigen, dass jüngere Menschen und Frauen eher durch Videokonferenzen ermüdet werden. Damit bestätigen die Ergebnisse frühere Arbeiten. In Zukunft sind jedoch weitere Studien erforderlich, um das Phänomen der Videokonferenz-Müdigkeit weiterzuerforschen.

Wer mehr über sein eigenes Verhalten und seine Tendenz zur Videokonferenz-Müdigkeit erfahren will, kann weiterhin auf einer Selbsttestplattform https://videokonferenz-muede.jimdosite.com/ anonym an der Studie der Abteilung Molekulare Psychologie der Uni Ulm teilnehmen. Die Angaben im Fragebogen unterstützen die Wissenschaftlerinnen und Wissenschaftler bei ihrer Forschung.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Montag, Leiter der Abteilung Molekulare Psychologie, Tel: 0731/50-32759, christian.montag@uni-ulm.de

Originalpublikation:
Montag, C., Rozgonjuk, D., Riedl, R., & Sindermann, C. (2022). On the associations between videoconference fatigue, burnout and depression including personality associations. Journal of affective disorders reports, 100409
https://doi.org/10.1016/j.jadr.2022.100409

(nach oben)


TU Berlin: Entwicklung einer innovativen und kostensparenden Abwasser-Klärtechnik für die MENA-Region

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Sauberes Wasser mit weniger Energie
Innovative und kostensparende Abwasser-Klärtechnik als Beitrag zur internationalen Energieproblematik

Klimawandel, Wasserknappheit und steigende Energiepreise sind weltweit eine große Herausforderung. Insbesondere bei der Reinigung von Wasser und Abwasser ist der Energiebedarf im Wassersektor sehr hoch. Ein neues Verbundvorhaben, „ANAJO“, entwickelt eine besonders energieeffiziente Klärtechnik, die auf einer Abwasservorbehandlung ohne Sauerstoff basiert. Diese soll zunächst in der MENA-Region (Mittlerer Osten/Nordafrika) in Jordanien implementiert und etabliert werden. Das Projekt wird vom Fachgebiet Siedlungswasserwirtschaft der TU Berlin koordiniert und gemeinsam mit Partnern aus Forschung und Industrie umgesetzt. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMVU) im Rahmen des Förderprogramms „Exportinitiative Umweltschutz“ gefördert.

Der Energiebedarf für Wasser und Abwasser in Jordanien entspricht etwa 16 Prozent des gesamten Energiebedarfs aller Sektoren. Rund 33 der jordanischen Kläranlagen werden mit dem sogenannten Belebtschlamm-Verfahren betrieben, ein Verfahren zur biologischen Reinigung, das zu 50 bis 70 Prozent für den besonders hohen Energieverbrauch verantwortlich ist. Durch die Integration einer anaeroben Behandlungseinheit in die bestehenden Abwasserkläranlagen, also einer Technologie, mit der Abbauprozesse ohne Vorhandensein von Sauerstoff ablaufen, kann das Potenzial zur Energieeinsparung bis zu 50 Prozent betragen. Hier setzt das Projekt ANAJO „Kläranlagen in der MENA-Region: Anaerobvorbehandlung zur Steigerung der Energieeffizienz und Leistungsfähigkeit“ an. Konkret könnte die innovative, klimafreundliche Anaerob-Technologie eine Energieeinsparung von rund 1,5 bis 2,0 Millionen Kilowattstunden jährlich erreichen. Mit der Integration der Anaerob-Technik wird auch die Schlammentsorgung potenziell ökonomischer, ökologischer und nachhaltiger, Betriebskosten werden reduziert.

Die Nachhaltigkeitsziele der Agenda 2030 der Vereinten Nationen im Blick
Insgesamt zielt das Projekt „ANAJO“ darauf, den Energiebedarf der kommunalen Abwasserkläranlagen in Jordanien zu reduzieren und Potenziale aufzeigen, wie aus mit einem vorgeschalteten anaeroben Behandlungsverfahren aus Abwasser und Klärschlamm Energie gewonnen werden kann. Darüber hinaus wird aus der anaeroben Behandlungsstufe Biogas gewonnen, aus dem wiederum Energie erzeugt werden kann. Das gesamte Projekt bezieht sich auf drei der 17 Nachhaltigkeitsziele, der Sustainable Development Goals (SGD) 6.3 und 7.a sowie 6.a der Agenda 2030 der Vereinten Nationen.

Installation einer Pilotanlage und Tests in Kläranlagen in Jordanien
Das Projekt hat folgende Ziele:

• Senkung des Energieverbrauchs verbunden mit einer Senkung der Betriebskosten kommunaler Kläranlagen
• Energieerzeugung durch Nutzung des entstehenden Biogases
• Reduzierung der Gesamtmenge des Überschussschlamms
• Verringerung der Treibhausgasemissionen

Zur Demonstration des Potenzials einer anaeroben Vorbehandlung in die bestehenden Systeme mit hohem Sauerstoff- und Energieverbrauch in Jordanien installiert die TU Berlin gemeinsam mit ihren Projekt- und Kooperationspartnern eine anaerob-aerobe Pilotanlage und testet diese in zwei verschiedenen Kläranlagen.

Internationale Verbundpartner aus Wissenschaft und Industrie
Verbundpartner sind die Ingenieurgesellschaft p2m berlin GmbH, die TIA Technologien zur Industrie-Abwasser-Behandlung GmbH sowie in Kooperation in Jordanien das Ministerium für Wasser und Bewässerung des Haschemitischen Königreichs Jordanien, die jordanische Wasserbehörde sowie die Universität von Jordanien in Amman und die Balqa‘ Applied University in As-Salt.

Das Förderprogramm „Exportinitiative Umweltschutz“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz finden Sie hier:
www.exportinitiative-umweltschutz.de

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fakultät VI Planen Bauen Umwelt
Institut für Bauingenieurwesen, Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 / (0) 30 / 314 72246
E-Mail: matthias.barjenbruch@tu-berlin.de

Iyad Al-Zreiqat M.Sc.
TU Berlin
Fakultät VI Planen Bauen Umwelt
Institut für Bauingenieurwesen, Fachgebiet Siedlungswasserwirtschaft
Tel. +49 30 314 72251
E-Mail: i.al-zreiqat@tu-berlin.de

(nach oben)


Natürliche CO2-Reduktion schneller umsetzbar und weniger risikoreich als Hightech-Ansätze

Katja Hinske Kommunikation
Helmholtz-Klima-Initiative
Kohlendioxid lässt sich auf natürliche oder technische Wege aus der Atmosphäre entziehen. Natürliche Senken wie Moore können wiederhergestellt werden, und es existieren bereits innovative Technologien, um Kohlenstoff aus der Luft zu holen. Forscher:innen des Clusters „Netto-Null-2050“ der Helmholtz-Klima-Initiative haben die vielversprechendsten Ansätze in Deutschland identifiziert. Sie zeigen, dass natürliche Senken kurzfristig erweitert werden können, während Hightech-Ansätze Treibhausgase erst mittelfristig reduzieren könnten und potentielle Risiken bergen.

Um die Ziele des Pariser Abkommens zu erreichen und die globale Erwärmung auf 1,5 bis 2 Grad Celsius zu begrenzen, wird es voraussichtlich nicht reichen, die CO2-Emissionen zu reduzieren. Darüber hinaus wird es wahrscheinlich notwendig, der Atmosphäre bereits emittiertes Kohlendioxid wieder zu entnehmen. Eine solche CO2-Abscheidung ließe sich auf natürlichem Wege durch die Erweiterung natürlicher Senken (ENS) wie beispielsweise die Wiederaufforstung von Wäldern erreichen. Auch neue Technologien, die chemische Prozesse zur Kohlenstoffabscheidung nutzen, ließen sich nutzen. Das Potenzial und die Durchführbarkeit dieser so genannten Kohlendioxid-Entnahmemaßnahmen (CDR) sind jedoch von vielen Variablen abhängig. Dazu gehören unter anderem die Verfügbarkeit von Infrastrukturen und Ressourcen wie Land und Energie.

Erweiterung natürlicher Kohlenstoffspeicher schneller umsetzbar als Hightech-Ansätze
Forscher:innen der Helmholtz-Klima-Initiative haben nun erstmals untersucht, wie viel CO2 mittels der verschiedenen Verfahren in Deutschland bis zum Jahr 2050 aus der Atmosphäre entnommen werden könnte.

Auf der Grundlage einer Literaturrecherche, von Expert:innenwissen und einer Analyse der Bedingungen im Land wie zum Beispiel der Verfügbarkeit von Infrastrukturen, Ressourcen und technologischer Reife haben die Forscher:innen 13 CDR-Optionen mit Einsatzpotenzial ermittelt und beschrieben. „Es ist wichtig, die unterschiedlichen Reifegrade und Einsatzmöglichkeiten der verschiedenen Optionen zu kennen“, erklärt Malgorzata Borchers vom Helmholtz-Zentrum für Umweltforschung (UFZ), die die Studie zusammen mit ihrer UFZ-Kollegin Daniela Thrän geleitet hat. „Während einige ENS-Optionen bereits heute eingesetzt werden und gegebenenfalls ausgeweitet werden könnten, würde es bei der Mehrheit der High-Tech-Optionen Jahre oder sogar mehr als ein Jahrzehnt dauern, bis sie in großem Maßstab eingesetzt werden könnten. Sie sind außerdem oft abhängig von der Möglichkeit der Kohlenstoffspeicherung, die in Deutschland derzeit durch Gesetze eingeschränkt ist und durch eine Änderung der geltenden Vorschriften erschlossen werden könnte. Gleichwohl ist es wichtig, diese Technologien weiterzuentwickeln, damit sie bei Bedarf im späteren Teil des Jahrhunderts eingesetzt werden können.“

Bioenergie mit CO2-Abscheidung und -Speicherung hat das höchste Entnahmepotenzial
Die vorgeschlagenen Konzepte weisen ein sehr unterschiedliches jährliches CO2-Entnahmepotenzial auf, das von 62.000 Tonnen bei der Wiederherstellung von Seegraswiesen in der Ostsee bis zu 29,9 Millionen Tonnen über die Verbrennung von Biomasse zur Kraft-Wärme-Kopplung mit Kohlenstoffabscheidung und -speicherung (CCS) reicht. Bioenergie mit CO2-Abscheidung und -Speicherung (Bioenergy with Carbon Capture and Storage, kurz BECCS) besitzt das höchste spezifische Entnahmepotenzial. Für BECCS wird Biomasse aus Pflanzen – die der Luft durch Photosynthese CO2 entziehen – zur Energieerzeugung, das heißt zum Beispiel für Wärme, Strom oder Kraftstoffe genutzt. Bei der Umwandlung von Biomasse in Energie wird CO2 freigesetzt, welches aber nicht in die Atmosphäre gelangt, sondern direkt eingefangen und anschließend gespeichert wird. Dieses Einfangen wird als Abscheidung bezeichnet. Besonders interessant im Hinblick auf die Menge des entzogenen CO2 ist das Konzept der sogenannten Kraft-Wärme-Kopplung (KWK). Dabei werden ehemalige Kohlekraftwerke zur Verbrennung von Holzpellets für die gleichzeitige Erzeugung von Strom und Wärme genutzt. Jedes Kraftwerk mit einer elektrischen Leistung von 500 MW könnte durch Anwendung von BECCS knapp 3 Megatonnen CO2 pro Jahr neutralisieren. Borchers gibt jedoch zu bedenken: „Die Verwendung von holzartiger Biomasse in Kraftwerken in größerem Maßstab wird die Gesamtnachfrage nach Biomasse voraussichtlich erheblich steigern. Wir werden Biomasse aus dem Ausland importieren müssen, was sich negativ auf die Waldökosysteme im Ausland auswirken und zusätzliche CO2-Emissionen ver-ursachen könnte“.

Auch Direktabscheidung von Kohlenstoff aus der Luft hat hohes Potenzial
Die Direktabscheidung von Kohlenstoff aus der Luft (Direct Air Carbon Capture, kurz DACC), bei der große DACC-Absorber-Anlagen installiert werden, ist der Studie zufolge ein weiteres CDR-Konzept mit hohem Entnahmepotenzial. Jede Anlage könnte bis zu einer Million Tonnen CO2 pro Jahr abscheiden, sofern eine wirksame CO2-Speicherung erreicht werden kann. Thrän wendet jedoch ein: „In Anbetracht der Größenordnung einer solchen Anlage und des damit verbundenen Energiebedarfs ist zweifelhaft, ob diese Technologie in Deutschland überhaupt umsetzbar wäre. Der Energiebedarf einer solchen
Anlage entspräche dem jährlichen Energiebedarf von 720.000 deutschen Haushalten“.

Verwitterung von Gesteinen bei natürlichen Verfahren vorne
Andere BECC- und DACC-Optionen weisen geringere CO2-Abscheidungspotenziale auf. Bei den Optionen zur Erweiterung natürlicher Senken wie der Wiedervernässung von Mooren, der Aufforstung von Ackerflächen oder der verstärkten Gesteinsverwitterung schwankt das Potenzial zwischen 1,5 und 9,5 Tonnen CO2, die jährlich pro Hektar Land, auf dem sie angewendet würden, abgeschieden werden könnten. Von diesen natürlichen Verfahren bietet die Förderung der natürlichen Verwitterung von Gesteinen das höchste Entnahmepotenzial pro Fläche. Karbonat- und Silikatminerale könnten in pulverisierter Form auf Böden ausgebracht werden, etwa auf landwirtschaftlichen Nutzflächen, um CO2 zu binden. Durch die Ausbringung von Basalt auf Ackerland könnten in Deutschland bis zu 5,82 Millionen Tonnen CO2 pro Jahr gebunden werden. Thrän gibt jedoch zu bedenken, „dass diese CDR-Option von der Gewinnung bis zum Zerkleinern und Mahlen des Silikatgesteins mit einem erheblichen Energieaufwand verbunden ist. Zudem sollten auch die Umweltauswirkungen weiter untersucht werden, da es noch an aussagekräftigen Ergebnissen mangelt.“

Wie viel CO2 aus der Atmosphäre entnommen werden muss, ist unklar
„Die Schätzwerte für den notwendigen Kohlendioxidabbau in Deutschland reichen von 3 bis 18 Gigatonnen CO2 von heute bis zum Jahr 2100, je nachdem, was wir als unsere historische Verantwortung, Leistungsfähigkeit und Beitrag zur globalen Gerechtigkeit zugrunde legen“, erklärt Borchers. „Und natürlich ist die Menge an CO2, die wir entfernen müssen, stark von den Maßnahmen abhängig, die wir in den kommenden Jahren zur Reduzierung und Vermeidung von Emissionen ergreifen.“

Über die Helmholtz-Klima-Initiative
Die Helmholtz-Klima-Initiative erforscht systemische Lösungen für eine der größten gesellschaftlichen Herausforderungen unserer Zeit: den Klimawandel. Wissen-schaftlerinnen und Wissenschaftler aus 15 Helmholtz-Zentren entwickeln gemeinsam Strategien zur Eindämmung von Emissionen und zur Anpassung an unver-meidliche Klimafolgen – mit dem Fokus auf Deutschland. Die Helmholtz-Klima-Initiative stellt vielen gesellschaftlichen Bereichen wissenschaftlich basiertes Wissen zur Verfügung und tritt mit Verantwortlichen aus Politik, Wirtschaft und Medien sowie der interessierten Öffentlichkeit in den Dialog.

Auf der Website der Helmholtz-Klima-Initiative mehr über die verschiedenen Ansätze zur Kohlendioxid-Entnahme erfahren.

Kontakte
Meike Lohkamp | Helmholtz-Klima-Initiative | Wissenschaftskommunikation | meike.lohkamp@helmholtz-klima.de | +49 151 5674 9826

Prof. Dr. Daniela Thrän | Helmholtz-Zentrum für Umweltforschung GmbH – UFZ |
Leiterin des Departments Bioenergie | daniela.thraen@ufz.de

Folgen Sie uns auf
• Twitter @klimainitiative
• Instagram @helmholtzklimainitiative
• LinkedIn @Helmholtz-Klima-Initiative
• YouTube @Helmholtz-Klima-Initiative

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniela Thrän | Helmholtz-Zentrum für Umweltforschung GmbH – UFZ |
Leiterin des Departments Bioenergie | daniela.thraen@ufz.de

Anhang
PDF zur Pressemitteilung

(nach oben)


Kostengünstige Alternative zum PCR-Test

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Schnelligkeit oder Genauigkeit? Was Corona-Tests angeht, musste man sich bisher zwischen diesen beiden Varianten entscheiden. Damit könnte künftig Schluss sein: Der Pathogen Analyzer verbindet die Vorteile von PCR-Test und Antigen-Schnelltest – er liefert bereits nach 20 bis 40 Minuten ein verlässliches Ergebnis. Darüber hinaus kann er gleichzeitig bis zu elf andere Krankheitserreger nachweisen. Ein Demonstrator des Systems ist vom 14. bis 17. November 2022 auf der Messe MEDICA in Düsseldorf zu sehen (Halle 3, Stand E74/F74).

Der Hals kratzt, Schlappheitsgefühl macht sich breit. Hat man sich mit Corona infiziert? Über Antigen-Schnelltests kann man dies zuhause oder im Bürgertestzentrum schnell überprüfen – die Genauigkeit dieser Tests lässt jedoch zu wünschen übrig. Tests auf Proteinbasis, bei denen virale Antigene auf dem Chip erkannt werden, sind schlichtweg nicht so genau wie Tests auf Nukleinsäurebasis. Sprich: Viele Infektionen bleiben unerkannt, auch kann es zu fehlerhaften Positiv-Ergebnissen kommen. Für einen sicheren Nachweis ist ein PCR-Test unerlässlich, allerdings ist dieser sowohl deutlich teurer als auch langwieriger: Es kann bis zu zwei Tage dauern, ehe das Ergebnis vorliegt.

Schnelle und verlässliche Ergebnisse
Ein Verbund aus Forscherinnen und Forschern des Fraunhofer-Instituts für Produktionstechnologie IPT, des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB sowie des Fraunhofer Center for Manufacturing Innovation in Boston (USA) möchte das nun ändern. »Mit unserem Pathogen Analyzer verbinden wir die Vorteile von Antigen- und PCR-Test: Da wir wie beim PCR-Test das Erbgut der Viren direkt nachweisen, ist der Test äußerst genau. Um das Erbgut zu vervielfältigen, nutzen wir allerdings ein anderes Verfahren, daher liegt das Ergebnis bereits nach von 20 bis 40 Minuten vor«, sagt Daniel Reibert, Wissenschaftler am Fraunhofer IPT. Dazu haben die Forschenden auf dem Testchip, der ähnlich groß ist wie ein Antigen-Schnelltest, zahlreiche kleine Hydrogel-Tropfen aufgedruckt, Experten sprechen von Signalpunkten. Auf diesen Chips wird die Probe – die wie bei bisherigen Tests über einen Nasen-Rachen-Abstrich gewonnen und in eine Pufferlösung übertragen wird – aufgebracht. Anschließend wird der Testchip in einem kompakten und mobilen Analyseinstrument auf 62 Grad Celsius aufgeheizt. Die Pufferlösung und die hohe Temperatur legen das Erbgut des Virus frei und vervielfältigen die Nukleinsäuren, um sie innerhalb der Signalpunkte quantitativ nachweisen zu können. Diese Reaktion findet bei einer konstanten Temperatur statt – das in der PCR biochemisch nötige Aufheizen und Abkühlen der Probenflüssigkeit entfällt. Um den Test personalisiert auszuwerten, können Patientinnen und Patienten eine Smartphone App mit dem Analyzer verbinden. Über ein Lichtsignal im Analyzer wird die Menge an Krankheitserreger-Erbgut detektiert und als Endergebnis direkt an die Betroffenen übermittelt.

Zwölf Virenarten mit einem Streich nachweisen
Eine weitere Neuheit: »Jeder Signalpunkt enthält Fängermoleküle, die unter Bestrahlung mit Licht Fluoreszenzstrahlung anderer Wellenlänge abgeben, wenn sie das passende Pathogen gefangen haben. Daher ist jeder Signalpunkt wie ein eigener kleiner Test«, erläutert Reibert. Ein solcher Multiplexing-Ansatz erhöht zum einen die Verlässlichkeit, zum anderen ermöglicht er es, bis zu zwölf verschiedene Virenarten gleichzeitig mit einer Probennahme und einem Chip nachzuweisen. »Da wir das System als Baukastensystem entwickelt haben, lässt es sich schnell an neue Pathogene anpassen«, erläutert Reibert.

Eine der Herausforderungen lag darin, die späteren Herstellungsprozesse des Tests mitzuentwickeln und sie preisgünstig zu gestalten – schließlich soll der Test in Serie hergestellt nicht mehr als einen Euro kosten. Für den Chip selbst setzen die Forschenden daher auf das Rolle zu Rolle-Verfahren. Der Druck der einzelnen Probenpunkte kann entweder über 3D-Druck oder das etablierte Siebdruckverfahren erfolgen.

Test auch für zuhause
Auf der Messe MEDICA vom 14. bis 17. November 2022 in Düsseldorf stellen die Forschenden sowohl einen Demonstrator des Chips für drei Pathogene als auch einen Analyzer-Demonstrator vor (Halle 3, Stand E74/F74). Langfristig soll der Test auch ohne Analyzer auskommen und komplett über das Smartphone funktionieren: Lichtquelle und Kamera sind im Handy bereits vorhanden, das Heizelement kann im Testchip selbst integriert werden. Dann, so die Hoffnung der Forscherinnen und Forscher, könnte der Test nicht nur in zentralen Orten wie Stadien oder Arztpraxen, sondern auch zuhause schnelle, kostengünstige und verlässliche Ergebnisse liefern – und das direkt für eine Vielzahl an Krankheitserregern.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/november-2022/koste…

(nach oben)


WM-Studie 2022: Scholz-Besuch in Katar für viele Deutsche „völlig überflüssig“

Florian Klebs Hochschulkommunikation
Universität Hohenheim
Repräsentative Umfrage der Uni Hohenheim untersucht WM-Erwartungen, Vermarktung, Medienverhalten & politische Aspekte / Teil 4 von 4: Die WM als politisches Ereignis

Für ein Drittel der Deutschen ist ein Besuch von Bundeskanzler Olaf Scholz sogar beim Finale „völlig überflüssig“. Dies dachten bei den Weltmeisterschaften 2014 in Brasilien nur 7 Prozent und 2018 in Russland 15 Prozent. So lautet ein Ergebnis der aktuellen Fußball-WM-Studie von Marketing-Experte Prof. Dr. Markus Voeth von der Universität Hohenheim in Stuttgart. Die Studie basiert auf einer bevölkerungsrepräsentativen Umfrage unter 1.000 Personen in Deutschland zu den Themen sportliche Erwartungen, Sponsoring und Sport-Vermarktung, Medienwirksamkeit sowie Politik. Bei der aktuellen Umfrage handelt es sich um die zehnte WM-Studie seit 2001. Die Universität Hohenheim veröffentlicht die Ergebnisse in vier Teilen. Vollständige Studie unter: https://mub.uni-hohenheim.de/wm2022

Der Vergleich zu den Weltmeisterschaften 2014 und 2018 zeigt: Die Deutschen sehen dieses Jahr auch einen Besuch des deutschen Bundeskanzlers von WM-Spielen der Nationalmannschaft deutlich kritischer als in den Jahren zuvor. Mehr als zwei Drittel der Befragten halten diese Besuche für überflüssig (Viertelfinale 68,2 Prozent, Achtelfinale 75,2 Prozent, Vorrunde 80,2 Prozent).

Wenn überhaupt, dann kommt für die Deutschen eine Reise von Olaf Scholz nach Katar erst im Finale der WM in Frage. Und auch dann sind noch rund 34 Prozent der Meinung, dass dies „völlig überflüssig“ sei.

Rund die Hälfte der Deutschen fordert von Sponsoren und Politiker:innen WM-Boykott
Die Deutschen sehen die WM 2022 in Katar insgesamt deutlich kritischer als die WM 2018 in Russland: Etwas mehr als 58 Prozent von ihnen glauben aktuell, dass sportliche Großveranstaltungen vom Gastgeberland instrumentalisiert werden, um von politischen Missständen abzulenken. 2018 gingen davon nur knapp 45 Prozent aus.

Prof. Dr. Voeth vom Lehrstuhl für Marketing & Business Development der Universität Hohenheim erläutert: „Wir konnten in unserer Studie ein gespaltenes Stimmungsbild beobachten. Denn aufgrund der politischen Missstände in Katar ist jeweils rund die Hälfte der Deutschen der Meinung, dass die Sponsoren auf Werbung für die Fußball-WM verzichten sollten und dass auch deutsche Politiker:innen den Spiele der deutschen Nationalmannschaft fernbleiben sollten.“

„Mehr als ein Drittel der Befragten kann sich sogar einen sportlichen Boykott der Nationalelf vorstellen“, berichtet Co-Studienleiter Yannick Urbitsch. „Ebenfalls knapp ein Drittel der Befragten wird wegen der politischen Missstände die WM nicht verfolgen.“

Image der FIFA seit 2014 dramatisch verschlechtert
Auch die Fédération Internationale de Football Association (FIFA) kämpft laut WM-Studie weiterhin mit einem großen Imageproblem. „Wir beobachten schon seit Jahren einen kontinuierlichen Rückgang beim Ansehen der FIFA“, so Prof. Dr. Voeth. „Aber seit der WM 2014 hat sich ihr Image in den Augen der deutschen Bevölkerung dramatisch verschlechtert.“

„Es hat seit der WM 2018 in Russland bei 40 Prozent der Deutschen abgenommen. Wenn wir aber den Zeitraum seit der WM 2014 in Brasilien betrachten, ist dies bei fast 60 Prozent der Deutschen der Fall“, fährt der Marketing-Experte fort.

„Dies spiegelt sich auch in der Einstellung wider, wie eine mögliche Weiterentwicklung des FIFA-Fußballgeschäftes aussehen könnte“, sagt Yannick Urbitsch. So lehnen mehr als zwei Drittel der Deutschen die Idee ab, Weltmeisterschaften häufiger auszutragen, also beispielsweise alle zwei Jahre. Auf eine ähnliche hohe Ablehnung stößt bei einer Mehrheit der Deutschen der Vorschlag, die WM in weniger fußballaffinen Ländern stattfinden zu lassen, um neue Märkte für den Fußballsport zu erschließen.

Noch deutlicher wird die Ablehnung bei der Frage, ob es auch in Zukunft Weltmeisterschaften im hiesigen Winter geben sollte. Nur 10 Prozent der Befragten halten dies für eine gute Idee, und nur 11,9 Prozent glauben daran, dass die WM in Katar zum „Winter-Märchen“ wird.

HINTERGRUND: WM-Studie 2022
Die WM-Studie 2022 ist eine bevölkerungsrepräsentative Online-Umfrage in Bezug auf Alter, Geschlecht und Bundeslandzugehörigkeit unter 1.000 Teilnehmer:innen. Durchgeführt wurde sie zwischen dem 13. Oktober und 27. Oktober 2022 vom Lehrstuhl für Marketing und Business Development der Universität Hohenheim.

Der Lehrstuhl von Prof. Dr. Markus Voeth begleitet die FIFA Fußballweltmeisterschaften seit 2001 mit regelmäßigen repräsentativen Bevölkerungsbefragungen. Schwerpunkte der Befragungen sind Themen wie Begeisterung, Pläne und Fanverhalten der Bevölkerung, ergänzt durch wechselnde Sonderschwerpunkte wie beispielsweise politische Themen rund um die sportlichen Großereignisse. Einzel- und Langzeitstudien sollen einerseits Stimmungsindikator, andererseits auch konstruktiver Beitrag für eine erfolgreiche Organisation sein.
Text: Stuhlemmer

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Voeth, Universität Hohenheim, Fachgebiet Betriebswirtschaftslehre, insb. Marketing & Business Development, +49 (0)711 459 22925, voeth@uni-hohenheim.de

M.Sc. Yannick Urbitsch, Universität Hohenheim, Fachgebiet Betriebswirtschaftslehre, insb. Marketing & Business Development, +49 (0)711 459 23414, yannick.urbitsch@uni-hohenheim.de

Weitere Informationen:
https://mub.uni-hohenheim.de/wm2022 Vollständige Studie
https://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Einladung zur Veranstaltung „Den Klimawandel abmildern – aber wie?“ am 22. November 2022

Täglich werden pro Person 30 bis 40 Liter Wasser, also des wichtigsten Lebensmittels, für die WC-Spülung verschwendet. Durch dezentrale Sammlung und Aufbereitung leicht verschmutzten Grauwassers und Wärmerückgewinnung profitierten die Umwelt und auch die Mieter*innen durch niedrigere Betriebskosten. Mit diesem Thema beschäftigt sich die Veranstaltung und Exkursionen „Den Klimawandel abmildern – aber wie? Die Potenziale des Grauwasserrecyclings im Wohnungsbau nutzen“

Zeit: Dienstag, 22.11.2022, 10.00–16.30 Uhr
Ort: Architekturforum TU Berlin, 10623 Berlin, Straße des 17. Juni 152

Anmeldung unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492/apply oder per E-Mail an: kubus@zewk.tu-berlin.de

Mit der Veranstaltung sollen die Berliner Akteur*innen aus Baupraxis, Planung, Wissenschaft, Politik, Verwaltung, Verbänden und Initiativen über die Potenziale des Grauwasserrecyclings und Umsetzungsstrategien für den Wohnungsbau ins Gespräch gebracht werden. Wie ist der Stand der Technik? Was ist der ökologische und ökonomische Nutzen? Welche Umsetzungshemmnisse bestehen und wie können sie überwunden werden? Wie kann Grauwassernutzung zum Standard im Wohnungsbau werden? Diese Fragen sind zentrale Themen der Veranstaltung, die von der Kooperations- und Beratungsstelle für Umweltfragen Wissenschaftsladen kubus der TU Berlin und dem Fachgebiet Natural Building Lab der TU Berlin, der Architektenkammer Berlin und fbr – Bundesverband für Betriebs- und Regenwasser e.V. durchgeführt und von Fridays for Future der TU Berlin unterstützt wird.

Programm
10.00–11.30 Uhr: Fachvorträge

Bauwende jetzt! Theresa Keilhacker, Präsidentin der Architektenkammer Berlin

Grußwort der Staatssekretärin Dr. Silke Karcher (Videobotschaft)

Die Klimaschutzziele des Landes Berlin, Marina Ozic-Basic, Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, Referat Klimaschutz und Klimaanpassung

Warum wir jetzt gemeinsam über Grauwasserrecycling reden müssen. Gisela Prystav, TU Berlin, Kooperations- und Beratungsstelle für Umweltfragen (ZEWK / kubus)

Grauwasserrecycling im Wohnungsbau – Ressourcen-, Energieeffizienz, Kosten und Betriebserfahrungen, Erwin Nolde, Fa. innovative Wasserkonzepte / fbr – Bundesverband für Betriebs- und Regenwasser e.V.

Zukunft – Ökologisch – Bauen, Prof. Eike Roswag-Klinge, TU Berlin, Leiter des Fachgebiets Natural Building Lab
11.40–13:00 Uhr: Fishbowl-Diskussion mit Impulsen

Die Anforderungen von Architekt*innen, der Wohnungswirtschaft, die Sicht von Mieter*innen, Umwelt- und Klimaaktiven, Politik und anderen Akteur*innen

Moderation: Frank Becker, ZEWK/kubus
13.00–14.00 Uhr: Imbiss, Poster und Exponate
14.00–16.30 Uhr: Besichtigungen (parallel, gemeinsame Anfahrt mit ÖPNV um 14.15 Uhr)
• 15.00 Uhr: Grauwasserrecyclinganlage eines Wohnhauses mit 400 Studierenden-appartements der Berlinovo, Berlin-Pankow
• 15.00 Uhr: Block 6 Dessauer/Bernburger Str., erneuerte Grauwasseranlage für i125 Wohneinheiten mit Roof Water Farm Gewächshaus
• 14.15 Uhr: Reallabor und Climate-Hood-Projekt an der TU Berlin in Planung –Vertikalbegrünung der Wasserbauhalle, Verdunstungsmodule, Regenwassernutzung

Während der Veranstaltung werden Bildaufnahmen gemacht. Sollten Sie damit nicht einverstanden sein, geben Sie uns bitte einen deutlichen Hinweis.

Weitere Informationen unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492

Weitere Informationen erteilt Ihnen gern:
Gisela Prystav
TU Berlin
Kooperations- und Beratungsstelle für Umweltfragen (kubus), der Wissenschaftsladen der TU Berlin
Tel.: 030/314-24617 (Rufweiterleitung) / -21580 (Sekr.)
E-Mail: gisela.prystav@tu-berlin.de

(nach oben)


„Die Lockdowns sind vorbei, die psychischen Belastungen bei jungen Menschen gehen weiter“

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit
SOS-Kinderdorf und Stiftung Kindergesundheit zum Tag der Kinderrechte

München, 18. November 2022. Die UN-Kinderrechtskonvention vom 20. November 1989 sichert jedem Kind universelle Rechte zu – unabhängig von Herkunft, Geschlecht, Religion oder sozialem Status. Doch wie steht es um diese Rechte in Deutschland angesichts andauernder Krisen? „In der Bundesrepublik werden die Kinderrechte jeden Tag missachtet. Gerade seit Corona wird das Recht junger Menschen auf Gesundheit massiv eingeschränkt, insbesondere im Bereich der psychischen Gesundheit“, erklärt Prof. Dr. Sabina Schutter, Vorstandsvorsitzende von SOS-Kinderdorf e.V. anlässlich des Tages der Kinderrechte.

Konkret bemängelt Schutter die zu langen Wartezeiten auf Therapieplätze: „Die psychischen Belastungen haben bei jungen Menschen stark zugenommen. Ein Jahr auf Hilfe warten zu müssen hat für Kinder und Jugendliche viel gravierendere Konsequenzen als für Erwachsene“. Auch das Selbstbestimmungsrecht von Minderjährigen werde im Bereich mentaler Gesundheit nicht umgesetzt, für eine Psychotherapie brauchen Kinder und Jugendliche aktuell die Zustimmung ihrer Erziehungsberechtigten. Das führe gerade für junge Menschen in der stationären Kinder- und Jugendhilfe zu massiven Problemen. Dies bestätigt auch die 19-jährige Vanessa, die selbst in einem SOS-Kinderdorf lebt: „Das Selbstbestimmungsrecht ist speziell für Kinder in stationärer Erziehung entscheidend. Wenn die leiblichen Eltern einer Therapie nicht zustimmen, bedeutet das eine zusätzliche Belastung für junge Menschen.“

Auch die Stiftung Kindergesundheit stellt in ihrem aktuellen Kindergesundheitsbericht fest, dass das in Artikel 24 der UN-Kinderrechtskonvention verbriefte Recht auf Gesundheit in Deutschland täglich verletzt werde. Die pädiatrische und kinder- und jugendpsychiatrischen Versorgung von Kindern und Jugendlichen in Kliniken und Praxen ist nur unzureichend gewährleistet, der Fachkräftemangel sowohl im ärztlichen als auch im pflegerischen Bereich verschärfe die Situation: „Die Versorgungsengpässe von jungen Menschen mit psychischen Problemen haben sich seit Corona noch einmal deutlich zugespitzt, weil es einfach mehr Kinder und Jugendliche gibt, die Hilfe brauchen“, sagt Priv.-Doz. Dr. med. Katharina Bühren, Vorstandsmitglied der Stiftung Kindergesundheit und ärztliche Direktorin am kbo-Heckscher-Klinikum für Kinder- und Jugendpsychiatrie in München und ergänzt: „Wir brauchen eine Vernetzung der Hilfesysteme: Jugendhilfe, Schulsozialarbeit, Schulpsychologie und die medizinischen Hilfsangebote. Wir müssen uns alle zusammenschließen und alles daransetzen, dass junge Menschen mit psychischen Problemen nicht zu chronisch Kranken werden.“

Weitere Empfehlungen von SOS-Kinderdorf und der Stiftung Kindergesundheit zur Stärkung des Rechts auf Gesundheit von Kindern und Jugendlichen:

• Förderung dauerhafter psychosozialer, psychotherapeutischer und psychiatrischer Angebote mit niedrigschwelliger schulischer Anbindung sowie erweiterter Jugendhilfemaßnahmen in besonders belasteten Wohnquartieren.
• Ausbau evidenzbasierter Maßnahmen in der Kinder- und Jugendhilfe sowie in der Therapie psychischer Störungen des Kindes- und Jugendalters, um eine weitere Verbesserung des Behandlungserfolges bei psychischen Erkrankungen zu erreichen.
• Lehre aus der Pandemie: Offenhalten von Bildungseinrichtungen/Kindertagesstätten unter Berücksichtigung geeigneter Schutzmaßnahmen. Schließungen dürfen nur dann in Betracht gezogen werden, wenn alle anderen Maßnahmen der Kontaktbeschränkung nicht erfolgreich waren.
• Einführung eines Schulfachs Gesundheit zur Verbesserung der Gesundheitskompetenz von Kindern und Jugendlichen. Dieses sollte auch die Förderung von Resilienz zum Ziel haben und das Erlernen von Strategien im Umgang mit Stress vermitteln. Hierdurch kann für alle Schüler*innen eine präventive Maßnahme zur Verringerung psychischer Erkrankungen geschaffen werden.
• Selbstbestimmungsrecht ab 14 Jahren – Kinder und Jugendliche sollten ab 14 Jahren selber entscheiden dürfen, ob sie einer psychotherapeutischen Behandlung bedürfen, auch ohne Zustimmung der Erziehungsberechtigten

Der SOS-Kinderdorf e.V.: SOS-Kinderdorf bietet Kindern in Not ein Zuhause und hilft dabei, die soziale Situation benachteiligter junger Menschen und Familien zu verbessern. In SOS-Kinderdörfern wachsen Kinder, deren leibliche Eltern sich aus verschiedenen Gründen nicht um sie kümmern können, in einem familiären Umfeld auf. Sie erhalten Schutz und Geborgenheit und damit das Rüstzeug für ein gelingendes Leben. Der SOS-Kinderdorfverein begleitet Mütter, Väter oder Familien und ihre Kinder von Anfang an in Mütter- und Familienzentren. Er bietet Frühförderung in seinen Kinder- und Begegnungseinrichtungen. Jugendlichen steht er zur Seite mit offenen Angeboten, bietet ihnen aber auch ein Zuhause in Jugendwohngemeinschaften sowie Perspektiven in berufsbildenden Einrichtungen. Ebenso gehören zum SOS-Kinderdorf e.V. die Dorfgemeinschaften für Menschen mit geistigen und seelischen Beeinträchtigungen. In Deutschland helfen in 38 Einrichtungen insgesamt rund 4.750 Mitarbeitende. Der Verein erreicht und unterstützt mit seinen über 840 Angeboten rund 85.500 Menschen in erschwerten Lebenslagen in Deutschland. Darüber hinaus finanziert der deutsche SOS-Kinderdorfverein 102 Programme in 21 Fokusländern und ist in 110 Ländern mit Patenschaften aktiv. Mehr Informationen unter www.sos-kinderdorf.de SOS-Kinderdorf auf Twitter: @soskinderdorfde

Die Stiftung Kindergesundheit: Als gemeinnützige Organisation mit direkter Anbindung zur Ludwig-Maximilians-Universität München und der dortigen Kinderklinik und Kinderpoliklinik agiert die Stiftung Kindergesundheit an der Schnittstelle zwischen Wissenschaft und Praxis. Sie vernetzt wissenschaftliche Erkenntnisse mit praktischer Anwendung innerhalb ihrer Programme und Projekte. Mit ihren evidenzbasierten Programmen gestaltet sie zielgruppengerechte Prävention – von der Schwangerschaft über den Kindergarten, von der Grundschule bis hin zum Jugendlichen. Ziel ist es, Erkenntnisse aus der Wissenschaft für die Praxis nutzbar zu machen. Gegründet wurde die Stiftung 1997 von Prof. Dr. Dr. h.c. mult. Berthold Koletzko, Facharzt für Kinder- und Jugendmedizin mit Tätigkeit am Dr. von Haunerschen Kinderspital der Ludwig-Maximilians-Universität München. Er ist bis heute ihr Vorstandsvorsitzender. Seit Juli 2022 gehört auch Priv.-Doz. Dr. med. Katharina Bühren zum Vorstandsteam. Mehr Informationen unter www.kindergesundheit.de, auf Twitter: @stiftung_kinder.

Wissenschaftliche Ansprechpartner:
Anna Philippi (M.A.)
Leitung Wissenschaft I Wissenschaftskommunikation

Tel.: +49/151 614 808 92
E-Mail: info@kindergesundheit.de
Internet: www.kindergesundheit.de

(nach oben)


Forschungsprojekt WärmeGut: Datenkampagne für die Geothermie in Deutschland gestartet

Greta Clasen Öffentlichkeitsarbeit
Leibniz-Institut für Angewandte Geophysik (LIAG)
Im Forschungsprojekt WärmeGut erarbeiten Wissenschaftlerinnen und Wissenschaftler ein bundesweit einheitliches Informationssystem, um das Potenzial oberflächennaher Geothermie im regionalen Maßstab für die Wärmeversorgung in Deutschland bestmöglich erkennbar und nutzbar zu machen. Dazu wird unter Leitung des Leibniz-Instituts für Angewandte Geophysik (LIAG) das etablierte und über das Internet frei zugängliche Geothermische Informationssystem GeotIS in Zusammenarbeit mit den Projektpartnern des Verbundvorhabens weiterentwickelt. Das BMWK fördert das Projekt im 7. Energieforschungsprogramm – es ist Teil dessen Erdwärmekampagne zur verstärkten Nutzung von Geothermie für die Wärmewende.

Für die konkrete Umsetzung der Energiewende sind Effizienzmaßnahmen und der massive Ausbau der Nutzung erneuerbarer Energien erforderlich. Der Wärmesektor wurde bislang in der Energiewende zu wenig beachtet, obwohl Wärme der größte Bedarfssektor in Deutschland ist. Seit 2019 weisen daher die Forschenden des LIAG auf die Wärmewende mit Geothermie hin. Erdwärme steht ganzjährig verlässlich zur Verfügung. Ihr Potenzial wurde bisher jedoch nur unzureichend erschlossen.

Potenziale erkennbar und nutzbar machen
Mit der Erdwärmekampagne „Geothermie für die Wärmwende“ setzt das BMWK das Ziel, das große Potenzial der Geothermie für eine klimaschonende Wärmeversorgung in Deutschland zu erschließen. In dem Eckpunktepapier des Bundesministeriums werden acht Maßnahmen zur Erreichung dieses Ziels genannt, unter anderem eine Datenkampagne zur Verbesserung der Datenlage insbesondere zu der Oberflächennahen Geothermie. Das Forschungsprojekt WärmeGut des LIAG greift mit seinem Antrag „Flankierung des Erdwärmepumpen-Rollouts für die Wärmewende durch eine bundesweite, einheitliche Bereitstellung von Geoinformationen zur oberflächennahen Geothermie in Deutschland“ genau dieses Ziel einer Datenkampagne auf. Projektpartner im bewilligten Verbundvorhaben sind die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover, die Universität Göttingen und die geoEnergie Konzept gmbH aus Freiberg.

„Um das Potenzial oberflächennaher Geothermie für die Wärmeversorgung in Deutschland anschaulich darzustellen, müssen komplexe Daten des geologischen Untergrunds analysiert, interdisziplinär aufbereitet und für alle Bedarfsgruppen leicht zugänglich zur Verfügung gestellt werden“, erklärt Prof. Dr. Inga Moeck, Leiterin des Projektes WärmeGut und des Forschungsbereichs Geothermie und Informationssysteme am LIAG. „Wichtig ist dabei die Zusammenarbeit von ganz verschiedenen Disziplinen, wie die der Geowissenschaften mit den Wirtschaftswissenschaften, aber auch die mit den Fachbehörden.“ Moeck ist auch Professorin für Angewandte Geothermik und Geohydraulik an der Universität Göttingen.

Die Staatlichen Geologischen Dienste der Länder (SGDs) besitzen für den Aufgabenbereich der oberflächennahen Geothermie höchste Kompetenz, weisen jedoch unterschiedliche Ressourcenausstattung und Datenbereitstellungssysteme auf. Gemeinsam mit den SGDs werden in einem Konsultationsprozess Konzepte zur überregionalen Datenbereitstellung und IT-Systemkomponenten entwickelt sowie Datenlücken durch umfangreiche Datenaufbereitung und Digitalisierung geschlossen, um bundesweit einheitliche Ampelkarten und 3-D-Temperaturmodelle zur oberflächennahen Geothermie in GeotIS bereitzustellen. So werden auf regionaler Skala besonders geeignete, aber auch für die Erdwärmenutzung ungeeignete Standorte leichter identifiziert.

Erweiterung des Geothermischen Informationsportals GeotIS
Bereits seit 2006 werden im etablierten geothermischen Informationssystem GeotIS des LIAG Daten aus dem Bereich der tiefen Geothermie – ab etwa 1.500 Meter Tiefe – geowissenschaftlich aufbereitet, digitalisiert und in dem interaktiven 3-D-Informationsportal über das Internet frei zugänglich gemacht. Dabei entwickelt das Forschungsinstitut sein Portal stetig weiter. Die Daten werden von der Industrie, aber auch in der Forschung, unter anderem für die Reservoirsimulation, täglich genutzt. Nun wird das Portal um neue Untergrunddaten für die gesamte Geothermie erweitert. Es werden aber auch Oberflächendaten zum Wärmebedarf implementiert, so dass erstmalig eine sozioökonomische mit einer geophysikalisch-geologischen Analyse zur Ermittlung des geothermischen Potenzials verknüpft werden kann. Dazu sind die Lehrstühle für Angewandte Geothermik und für Mittelstandsforschung der Universität Göttingen, die Fachfirma geoEnergie Konzept sowie die BGR eingebunden.

Hintergrundinformationen

Über GeotIS
Das Geothermische Informationssystem vom LIAG ist deutschlandweit einzigartig. Mehr als 30 000 Bohrungen bilden die Datengrundlage für GeotIS, welches damit ein wertvolles Potenzial für weitere Forschung und Publikationen bietet. Die Plattform umfasst überwiegend Ergebnisse aus LIAG-Forschungsprojekten, Daten aus Erdöl-Erdgas-Bohrungen, aber auch Geothermie-, Thermal- und Mineralwasserbohrungen sowie Bergbaubohrungen. Die Recherche-Oberfläche ermöglicht die dynamische Generierung von interaktiven Karten, in denen Fachinformationen mit topographischen und statistischen Daten kombiniert werden. Einen detaillierten Einblick in den Untergrund bieten zudem dynamisch generierte Vertikal- und Horizontalschnitte bis in eine Tiefe von 5000 Metern. GeotIS beinhaltet zudem das Auskunftssystem „Geothermische Standorte“ über tiefe geothermische Anlagen in Deutschland, die sich in Betrieb oder im Bau befinden. https://www.geotis.de

Über das LIAG
Das Leibniz-Institut für Angewandte Geophysik (LIAG) mit Sitz in Hannover ist eine eigenständige, außeruniversitäre Forschungseinrichtung. Mit Methoden der Angewandten Geophysik werden zukunftsgerichtete Fragestellungen von gesellschaftlicher Bedeutung untersucht. Der Schwerpunkt der Forschungsarbeiten liegt in der Erkundung des nutzbaren Untergrundes sowie in der Entwicklung von Mess- und Auswerteverfahren. Das Institut blickt auf über 70 Jahre Erfahrung in der Geophysik-Forschung zurück. Durch die langjährige Spezialisierung in der oberflächennahen Anwendung der Geophysik, der Geräte- sowie Dateninfrastruktur sowie der damit einhergehenden Möglichkeit, innerhalb eines Instituts verschiedenste geophysikalische Methoden themenübergreifend zu kombinieren, ist das LIAG deutschlandweit einzigartig. Mit der Geothermie beschäftigt sich das LIAG als Forschungsinstitut mit Geophysik-Expertise bereits seit 1953. https://www.leibniz-liag.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Inga Moeck
Leiterin Geothermik & Informationssysteme LIAG
Telefon: 0511 643 3468
Inga.Moeck@leibniz-liag.de

Anhang
WärmeGut-Projektlogo

(nach oben)


Studie: Wie Städte mit grünem Strom eigenes Gas erzeugen können

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Einen Teil des Gasbedarfs, der sich durch Einsparungen auch langfristig nicht vermeiden lässt, können Städte durch selbst hergestellten grünen Wasserstoff und synthetisches Methan ersetzen.

► Ökologische Vorteile: Eine urbane Gasproduktion kann Abfallströme wie Klärwasser und industrielle Abgase verwerten und Treibhausgase reduzieren. Die Abwärme des Herstellungsprozesses kann effizient in der Wärmeversorgung genutzt werden.

► In zwei Studien zeigt das Institut für ökologische Wirtschaftsforschung (IÖW), dass sich die Herstellungsverfahren Elektrolyse, Plasmalyse und Methanisierung für Städte nicht nur ökologisch, sondern teilweise bereits heute auch finanziell lohnen können.

Berlin, 16. November 2022 – Das Prinzip ‚Upcycling‘ eignet sich nicht nur für ausrangierte Kleidung, Geräte oder Möbel, sondern auch für die Gasversorgung, wie Forschende vom Institut für ökologische Wirtschaftsforschung (IÖW) vorschlagen: Städte könnten Abfallprodukte aus der Industrie und aus Kläranlagen weiternutzen, um daraus mithilfe von erneuerbarem Strom nachhaltiges Gas zu gewinnen. Zwar können Städte so nur einen kleinen Teil ihres Gasbedarfes selbst decken, doch hätte die urbane Gasproduktion deutliche ökologische sowie wirtschaftliche Vorteile und könnte Gasimporte ergänzen. Das zeigen die Forschenden am Beispiel Berlins in einem vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Projekt.

Bisher beruht etwa ein Viertel der in Deutschland verbrauchten Primärenergie auf Erdgas. „Um in Berlin und auch in ganz Deutschland so schnell wie möglich klimaneutral zu werden und mehr Versorgungssicherheit zu erreichen, müssen wir den Absprung vom Erdgas schaffen“, erklärt Elisa Dunkelberg, Energieexpertin am IÖW. „Dafür ist es wichtig, den Gasverbrauch für Wärme, Stromproduktion und Industrie so weit wie möglich zu senken. Und dort, wo Gas nicht ersetzbar ist, sollten in Zukunft vor allem grüner Wasserstoff und synthetisches Methan genutzt werden.“

Wie solches Gas in Berlin hergestellt werden könnte und welche Verfahren im Vergleich zu Erdgas besonders viel CO2 sparen, untersuchte das Forschungsprojekt UMAS, das von der Berliner Erdgasspeicher GmbH geleitet wurde. Fazit: Eine Gasproduktion in Städten mit erneuerbarem Strom würde sich für die Umwelt lohnen – weil Abfallprodukte verwendet werden können, weil die Transportwege sowie Verluste gering sind und weil die entstehende Abwärme besonders gut genutzt werden kann. Da Gas besser als Strom gespeichert werden kann, dient das Verfahren zudem als „Power-to-Gas“-Speicher für die städtische Energiewende. Dies ist nötig, um sogenannte Dunkelflauten, in denen weder Solarstrom noch Windenergie erzeugt wird, sowie die schwankende Nachfrage auszugleichen. Die Studie zeigt, dass sich für die urbane Wasserstoffherstellung bereits wettbewerbsfähige Lösungen abzeichnen. Um Methan vor Ort zu produzieren, braucht es noch weitere Forschung und Entwicklung, so die Wissenschaftler*innen.

Der grünste Wasserstoff könnte aus Kläranlagen kommen
Für besonders preiswert und klimafreundlich halten die Forschenden die sogenannte Schmutzwasser-Plasmalyse in Kläranlagen. Dieses neuartige Verfahren, das von der Firma Graforce entwickelt wurde, nutzt erneuerbaren Strom, um von dem Ammonium, das im Klärwasser enthalten ist, Wasserstoff abzuspalten. „Das Verfahren ist eine tolle Chance, um die klimaschädlichen Lachgas-Emissionen von Kläranlagen zu senken und gleichzeitig günstigen Wasserstoff zu produzieren“, erklärt Elisa Dunkelberg. Die Potenziale sind zwar beschränkt, aber Kläranlagen gibt es in jeder Stadt.

Darüber hinaus könnte sich auch Abwasser aus bestimmten Industriezweigen für das Verfahren eignen, etwa aus dem Papierrecycling, aus der Rauchgasreinigung und aus Biogasanlagen. Wenn all diese Potenziale genutzt werden, kann die Schmutzwasser-Plasmalyse schätzungsweise bis zu fünf Prozent des erwarteten Wasserstoffbedarfs in Berlin decken. „Die Plasmalyse ist außerdem effizienter und benötigt weniger Strom als eine Elektrolyse, bei der Wasser zu Wasserstoff und Sauerstoff gespalten wird. Die Kosten sind daher um etwa die Hälfte geringer und können auch mit importiertem Wasserstoff konkurrieren“, so Energieökonom Janis Bergmann vom IÖW.

Doch auch das Elektrolyse-Verfahren schneidet aus ökologischer Sicht besser ab als Erdgas, vor allem, wenn man die entstehende Abwärme nutzt und etwa in das städtische Fernwärmenetz einspeist. Die Herstellungskosten im urbanen Raum liegen jedoch in der Regel höher als an windreichen Orten etwa an der Nord- und Ostsee. Um die klimapolitischen Ziele zu erreichen, ist aber voraussichtlich auch die Herstellung von Wasserstoff an weniger ertragreichen Orten notwendig. „Städte sollten ihre lokalen Potenziale sowohl für die Schmutzwasser-Plasmalyse als auch für die Elektrolyse erschließen“, empfiehlt daher Dunkelberg.

Abgase aus der Industrie nutzen, um Methan herzustellen
Wasserstoff kann bereits heute ins Gasnetz eingespeist werden – derzeit bis zu einem Anteil von zehn Prozent, perspektivisch sogar zwanzig. In Zukunft könnte der lokal produzierte Wasserstoff jedoch auch in speziell dafür gebauten Pipelines und Kraftwerken landen – oder auch für die Produktion von Methan verwendet werden. Zwar ist es energetisch effizienter, den Wasserstoff direkt zu nutzen, doch eine Herstellung von Methan in Städten hat ebenfalls Vorteile: Methan ist ein Energieträger, der sich gut speichern lässt und uneingeschränkt in der vorhandenen Infrastruktur genutzt werden kann.

Auch hier greift das Prinzip „Upcycling“: Für die Herstellung von Methan braucht man neben Wasserstoff und Strom vor allem Kohlenstoffdioxid – ein Abfallprodukt, das in Biogasanlagen entsteht und zum Beispiel auch in den Abgasen von Zementfabriken und Müllverbrennungsanlagen enthalten ist. „Das CO2, das bisher einfach entweicht, könnte man auffangen, methanisieren und so ein weiteres Mal energetisch nutzen“, erklärt Dunkelberg. „Natürlich wird der Kohlenstoff dann beim Verbrennen des Methans wieder freigesetzt – es handelt sich also nicht um eine Kohlenstoffsenke. Aber unsere Berechnungen zeigen, dass klimaneutrales Methan erzeugt werden kann, sofern erneuerbarer Strom für die Produktion genutzt wird.“

Bis zu welchem Grad Berlin und andere Städte ihren Bedarf an Methan und Wasserstoff selbstständig decken könnten und welche Investitionen dafür nötig sind, müsste weiter erforscht werden. In jedem Fall sollten sich städtische Energie(wende)konzepte mit einer urbanen Gasproduktion auseinandersetzen, fordern die Forschenden.

Über das Projekt UMAS
Das Projekt „UMAS: Untertägige Methanisierung im Aquiferspeicher“, untersuchte, ob der ehemalige Erdgasspeicher in Berlin-Charlottenburg ein Power-to-Gas-Energiespeicher werden könnte. Die Untersuchung des Untergrunds ergab jedoch, dass der Standort für eine untertägige Methanisierung nicht optimal und somit nicht wirtschaftlich wäre. Grundsätzlich bewerteten die Forschenden dieses Verfahren sowie weitere Verfahren zur Herstellung von Methan und Wasserstoff allerdings als ökologisch sinnvoll.
Am Projekt beteiligt waren unter Leitung der Berliner Erdgasspeicher GmbH das Reiner Lemoine Institut, das Institut für ökologische Wirtschaftsforschung (IÖW), die Technische Universität Clausthal sowie die Firmen MicroPro und DBI – Gas- und Umwelttechnik. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) förderte das Projekt im Rahmen des 7. Energieforschungsprogramms.

Mehr zu dem Projekt: https://reiner-lemoine-institut.de/umas/

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-36
elisa.dunkelberg@ioew.de

Originalpublikation:
Elisa Dunkelberg, Jannes Katner (2022): Ökologische Bewertung der inländischen Erzeugung synthetischer Gase. https://www.ioew.de/publikation/oekologische_bewertung_der_inlaendischen_erzeugu…

Janis Bergmann, Nesrine Ouanes, Elisa Dunkelberg (2022): Ökonomische Analyse der inländischen Erzeugung synthetischer Gase. https://www.ioew.de/publikation/oekonomische_analyse_der_inlaendischen_erzeugung…

Weitere Informationen:
https://www.ioew.de/projekt/umas_untertaegige_methanisierung_im_aquiferspeicher

(nach oben)


Wieviel Innovationspotential hat die digitale Gesundheits­versorgung?

Lukas Portmann Universitätskommunikation
Universität Luzern
Die Studie «Swiss Health Monitor 2022» des Instituts für Marketing und Analytics (IMA) der Universität Luzern zeigt: Ein Grossteil der Befragten würde sich für eine digitale Begleitung in der Nachsorge interessieren.

Die in Zusammenarbeit mit B. Braun Medical entstandene repräsentative Studie wurde schweizweit erhoben und geht nebst dem Verhalten auch auf die Wünsche und Bedürfnisse der Bevölkerung ein. Ein weiterer Fokus liegt auf möglichen Innovationspotentialen digitaler Angebote für verschiedene Aspekte der Gesundheitsversorgung. Gemäss der Studie sind 73 Prozent der Schweizer Bevölkerung mit der Schweizer Gesundheitsversorgung zufrieden. 81 Prozent der Befragten schätzen den eigenen Gesundheitszustand als gut bis sehr gut ein. Generell zieht eine Mehrheit den physischen Kontakt mit dem Gesundheitspersonal einer digitalen Versorgung vor. Gleichzeitig besteht in drei Bereichen ein signifikantes Potenzial für digitale Interaktion: Prävention, Erstkontakt mit Gesundheitsdienstleistern und Nachsorge.

Digitale Angebote – Verbreitung und Vorbehalte
Im Bereich der Gesundheitsförderung und Prävention ist der Einsatz von Technologie weit verbreitet: Rund die Hälfte der präventiv aktiven Personen nutzt im Alltag regelmässig Hilfsmittel wie Fitness Tracker (z.B. Smart Watches). Bei anderen Berührungspunkten mit der Gesundheitsvorsorge zeigt sich eine geringere Nutzung von Technologien. Beim Auftreten erster Krankheitssymptome sucht eine Mehrheit sachkundigen Rat bei Hausarztpraxen und Apotheken. Diese sind nach wie vor die präferierten Anlaufstellen für Diagnosen und geniessen ein hohes Vertrauen. Auch schulmedizinischen und chirurgischen Behandlungen gegenüber ist die Bevölkerung generell sehr positiv eingestellt. Allerdings zeigte sich noch ein weiteres Bild: Obwohl drei Viertel der Patientinnen und Patienten während einer Therapie professionell begleitet werden, haben rund 55 Prozent der Befragten bereits einmal eine Behandlung abgebrochen oder gar nicht erst angetreten.

Grosses Potenzial in der Nachsorge
Ein grosses wirtschaftliches Potenzial für digitale Dienstleistungen eröffnet die Nachsorge. Die potenzielle Nachfrage für eine Nachbehandlung zu Hause statt in einer Gesundheitseinrichtung wird aktuell von Gesundheitsdienstleistern wenig adressiert. 40 Prozent der im Swiss Health Monitor 2022 befragten Personen geben jedoch an, dass sie sich zusätzlich für eine digitale begleitete Nachsorge interessieren. Beim Bezug von Medikamenten greifen Patientinnen und Patienten primär auf traditionelle Vertriebskanäle wie Hausarztpraxen und Apotheken zurück, was sich im geringen Anteil an Online-Käufen von Medikamenten spiegelt. Überraschend klar fiel die Einstellung der Bevölkerung zum Einsatz von künstlicher Intelligenz (KI) aus: Eine ausschliesslich auf KI basierende Diagnose wünschen sich nur 2 Prozent. Jedoch würden über 90 Prozent der Befragten der Diagnose eines Mediziners oder einer Medizinerin noch mehr Vertrauen schenken, wenn diese durch KI unterstützt würde.

Bezug des Studienberichts
Der «Swiss Health Monitor» umfasst 47 Seiten und bietet vertiefte Einblicke in den aktuellen und künftigen Stand der Schweizer Gesundheitsversorgung. Er enthält detaillierte Betrachtungen der «Customer Health Care Journey» sowie eine Untersuchung zum Engagement der Bevölkerung im Bereich der Gesundheitsversorgung, indem er beispielsweise die Bereitschaft zum Teilen persönlicher Gesundheitsdaten auslotet. Ausserdem finden sich in der Studie an ausgewählten Stellen Subgruppenanalysen, die weiterführende Erkenntnisse ermöglichen, etwa durch die Unterteilung in Altersgruppen oder Patientencharakteristika.

Der vollständige Bericht kann auf der Webseite Swiss Consumer Studies der Universität Luzern bestellt werden. Ausgewählte Insights der Studie sind im PDF-Format frei verfügbar.

Studienhintergrund
Die Datengrundlage des «Swiss Health Monitors» bildet eine repräsentative und schweizweit durchgeführte Online-Umfrage mit 1’028 Personen. Die Erhebung fand zwischen dem 15. Juni und 2. Juli 2022 in Zusammenarbeit mit LINK statt. Der Bericht ist Teil der «Swiss Consumer Studies» des Instituts für Marketing und Analytics (IMA) der Universität Luzern, das in regelmässigen Abständen Studien zu aktuellen Themen des digitalen Konsumentenverhaltens und des digitalen Marketings veröffentlicht.

Auskunft
Dr. Bernhard Lingens, Leiter Area Innovation, Institut für Marketing und Analytics, Universität Luzern, bernhard.lingens@unilu.ch
Yves Ottiger, Chief Marketing Officer, B. Braun Medical AG, Sempach, communications.ch@bbraun.com

(nach oben)


Themenpaket zur Fußball-Weltmeisterschaft

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Hintergrundinfos, Expert*innenservice, Interviews mit Wissenschaftler*innen, Forschungsthemen, Podcast, Spielprognosen …

Anlässlich der FIFA Fußball-Weltmeisterschaft Katar 2022™ (20. November bis 18. Dezember 2022) hat die Deutsche Sporthochschule Köln ein umfangreiches WM-Themenpaket zusammengestellt, welches die sportwissenschaftliche Expertise zahlreicher Institute und Expert*innen widerspiegelt. Im Vordergrund stehen dabei Hintergrundinfos, sachliche Einordnungen und Forschungsbezüge.

Wissenschaftler*innen der Deutschen Sporthochschule Köln sind auch bei sportlichen Großereignissen gefragte Gesprächspartner*innen. In Schrift-, Audio und Videoform haben wir unter www.dshs-koeln.de/wm-themenpaket Interviews und verschiedene Serviceangebote vorbereitet, die Wissen rund um den Fußball vermitteln und zu Nachfragen anregen sollen. Expert*innen aus Sportpolitik, Sportpsychologie, Soziologie, Fußballpraxis, Journalismus und Sportinformatik kommen zu Wort.

Univ.-Prof. Dr. Jürgen Mittag vom Institut für Europäische Sportentwicklung und Freizeitforschung skizziert, wie politisch der Sport ist, was Katar mit der WM-Ausrichtung bezweckt und welche Formen von Protest sinnvoll sind. Das gesamte Gespräch hören Sie in unserem Wissenschaftspodcast „Eine Runde mit…“.

Dr. Babett Lobinger und Hanna de Haan vom Psychologischen Institut ordnen ein, welche Bedeutung die psychologische Betreuung im Leistungssport hat. Sie erklären, warum „Schwäche zeigen“ noch ein Tabuthema im Profifußball ist, wie sich mentale Stärke trainieren lässt und wie wichtig Führungsspieler sind.

Dr. Birgit Braumüller (Institut für Soziologie und Genderforschung) war an der ersten EU-weiten Studie beteiligt, die LGBTIQ-Personen zur Diskriminierung aufgrund sexueller Orientierung oder Geschlechteridentität im Sport befragt hat. Sie spricht über sexuelle Vielfalt im Sport und insbesondere im Fußball.

Martin Jedrusiak-Jung, Institut für Vermittlungskompetenz in den Sportarten, beleuchtet als Experte für Nachwuchsfußball, ob Deutschland „nur“ ein Ausbildungsland ist und ordnet ein, warum der deutschen Fußballnationalmannschaft ein Stürmer fehlt.

Univ.-Prof. Dr. Daniel Memmert beschäftigt sich als studierter Mathematiker und Professor für Sportinformatik mit Spielanalyse, Prognosemodellen und Daten rund um den Fußball. Er nimmt im Interview das Sportliche in den Blick, räumt mit Elfmeter-Mythen auf und skizziert, welche Rolle der Zufall im Fußball spielt.

Dr. Christoph Bertling erläutert als Medien- und Kommunikationsexperte, wie sich der Sportjournalismus gewandelt hat, wo die Gefahr von so genannten Filterblasen liegt und was eigentlich Corporate Sports Journalism bedeutet.

Forschungsprojekte und -erkenntnisse der Deutschen Sporthochschule Köln, die im Zusammenhang mit der WM relevant und interessant sind, haben wir mit Beschreibungen und Links zu Artikeln und Studien übersichtlich zusammengefasst, unter anderem zu sportbedingten Gehirnerschütterungen, zur Rolle von Schiedsrichter*innen und Video Assistant Referees (VAR), zu Positionsdaten und Big Data, zu Taktik und Kreativität im Fußball und nicht zuletzt zur Anti-Doping-Forschung.

Dank unserer Expert*innenliste zu mehr als 100 Teilaspekten rund um den Fußball finden Medienvertreterinnen und -vertreter schnell die richtigen Ansprechpersonen für unterschiedliche Fragestellungen. Tagesaktuell wird es zudem eine Spielprognose geben.

Das WM-Themenpaket der Deutschen Sporthochschule Köln erreichen Sie online unter www.dshs-koeln.de/wm-themenpaket.

Weitere Informationen:
http://www.dshs-koeln.de/wm-themenpaket

(nach oben)


Das Digitalzeitalter verstehen

Pia Barth Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Eine neue Stiftungsprofessur „Digitale Transformation und Arbeit“ bereichert die sozialwissenschaftliche Forschung an der Goethe-Universität in der Tradition einer kritischen Gesellschaftstheorie: Gestern wurde dazu der Vertrag von den beiden Stiftern ProLife Stiftung und Frankfurter University of Labour sowie der Goethe-Universität unterzeichnet.

Digitalität ist längst zu einem selbstverständlichen Bestandteil unseres Alltags geworden und hat Wirtschaft und Arbeit bereits fundamental verändert – über unternehmerischen Erfolg bestimmt etwa, ob Daten maximal akkumuliert und Algorithmen kompetent verwaltet werden, ob höchste Aufmerksamkeit bei potenziellen Kunden erzielt und quasi in Echtzeit geliefert wird. Wie vollzieht sich dieser Wandel und welche sozialen Folgen gehen mit dem Wechsel vom Industriezeitalter zum Digitalzeitalter einher – für die Gesellschaft und speziell für die Wirtschaft und Arbeitswelt? Wie verändern die neuen Technologien soziale Praktiken und Arbeitsabläufe, die politische Öffentlichkeit und Formen der betrieblichen Beteiligung und Mitbestimmung? Die neue Stiftungsprofessur wird am Fachbereich Gesellschaftswissenschaften der Goethe-Universität diesen Fragen auf den Grund gehen.

Finanziert wird die Professur durch einen Stiftungsfonds der ProLife Stiftung und der University of Labour, eine Einrichtung der IG-Metall und des Deutschen Gewerkschaftsbundes (DGB). Gestern wurde der Vertrag im Beisein des Dekans des Fachbereichs Gesellschaftswissenschaften, Prof. Dr. Christopher Daase, von Jürgen Eckert, Vorstandsvorsitzender der ProLife Stiftung, Prof. Dr. Martin Allespach, Präsident der University of Labour, und Rainer Gröbel, Kanzler der University of Labour, sowie Prof. Dr. Enrico Schleiff, Präsident der Goethe-Universität, unterzeichnet.

„Mit der Professur wollen wir das Verständnis für die sozialen Folgen der Digitalisierung fördern“, erklärte Eckert das Ziel des neuen Stiftungsfonds. „Was technisch an Veränderungen auf die Arbeitswelt zukommt, können wir überall beobachten – uns fehlt aber das Narrativ dafür, was das eigentlich für den Menschen in seiner Arbeits- und Lebenswelt bedeutet“. Gröbel führte weiter aus: „Es geht uns nicht um eine Ablehnung der digitalen Transformation, sondern es geht uns um die Frage, wie wir Wissen und Kompetenzen im Umgang mit den Transformationsprozessen an Studierende und Beschäftigte in den Unternehmen vermitteln.“ Die Stifter betonen, dass sie mit der Wahl der Goethe-Universität bewusst an die Tradition der kritischen Gesellschaftstheorie anknüpfen und die Stärke der Hochschule in Sozialphilosophie und Sozialforschung ausbauen wollen.

„Wir freuen uns sehr über das Vertrauen in die Goethe-Universität, wesentliche Beiträge für die Lösung drängender globaler Herausforderungen in Forschung und Lehre zu leisten“, sagte Universitätspräsident Schleiff. „Die Stiftung gibt uns darüber hinaus die Möglichkeit, unseren Profilbereich ,Orders & Transmissions‘ zu stärken, in dem sich Kolleginnen und Kollegen aus verschiedenen Fachbereichen und Zentren unserer Goethe-Universität vor allem auch dieser Frage widmen: Was bedeutet der fundamentale digitale Wandel und seine Folgen für die Zukunft von Mensch, Natur und Umwelt?“

„Für den Fachbereich Gesellschaftswissenschaften“, so der Dekan des Fachbereichs, Prof. Dr. Christopher Daase, „bietet die neue Professur die Möglichkeit, sein Profil in der kritischen Sozialforschung zu schärfen und seine politische und gesellschaftliche Relevanz unter Beweis zu stellen.“

Die ProLife Stiftung und die University of Labour sind der Goethe-Universität sowie dem Institut für Sozialforschung, dem Sigmund Freud- und dem Frobenius-Institut durch Projektförderungen bereits verbunden. Durch die Stiftungsprofessur wird sich die Zusammenarbeit von Goethe-Universität und University of Labour intensivieren.

(nach oben)


Keine Anzeichen für einen Rückgang der weltweiten CO2-Emissionen

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Neuer Bericht des Global Carbon Projects zeigt: Die fossilen CO2-Emissionen werden bis Ende 2022 weltweit bei 36,6 Milliarden Tonnen CO2 liegen.

Im Jahr 2022 erreichen die fossilen CO2-Emissionen weltweit 36,6 Milliarden Tonnen CO2 und werden somit leicht höher liegen als vor der Corona-Pandemie. Zusammen mit Landnutzungsemissionen von 3,9 Milliarden Tonnen belaufen sich die Gesamtemissionen auf 40,6 Milliarden Tonnen und damit leicht unter den bislang höchsten Werten von 2019 (40,9 Milliarden Tonnen). Dies zeigt der aktuelle Bericht des Global Carbon Projects.

Die weiterhin hohen Emissionen stehen im Widerspruch zu dem Rückgang, der nötig wäre, um die Pariser Klimaziele zu erreichen. Um die globale Erwärmung mit einer 50%-Wahrscheinlichkeit auf 1,5°C zu begrenzen, dürfen insgesamt nur noch 380 Milliarden Tonnen CO2 emittiert werden. Wenn man von den Emissionswerten des Jahres 2022 ausgeht, wird diese Menge nun schon in neun Jahren erreicht sein.

Klimapolitik und technologischer Wandel greifen noch nicht genug
Der Bericht zeigt, dass sich das langfristige Wachstum der fossilen Emissionen abgeschwächt hat. 24 Länder mit wachsenden Volkswirtschaften haben ihre fossilen CO2-Emissionen sogar gesenkt. Doch dies reicht nicht, um die Klimaziele des Pariser Abkommens zu erreichen. Um bis zum Jahr 2050 null CO2-Emissionen zu erreichen, müssten die gesamten anthropogenen CO2-Emissionen um durchschnittlich 1,4 Milliarden Tonnen CO2 pro Jahr gesenkt werden, vergleichbar mit dem beobachteten Rückgang der Emissionen im Jahr 2020 infolge der COVID-19-Pandemie, was das Ausmaß der erforderlichen Maßnahmen verdeutlicht.

Die prognostizierte Zunahme der fossilen CO2-Emissionen im Jahr 2022 ist vor allem auf den höheren Ölverbrauch durch den wieder gestiegenen Flugverkehr zurückzuführen. Dabei sind regionale Unterschiede deutlich spürbar. So werden die Emissionen im Jahr 2022 im Vergleich zu 2021 in China um etwa 0,9% und in der Europäischen Union um 0,8% sinken. In anderen Regionen werden sie hingegen zunehmen: in den Vereinigten Staaten um 1,5%, in Indien um 6% und in der übrigen Welt um 1,7%.

Dies spiegelt die derzeitigen geopolitischen Krisen und die Pandemielage wider: Der Rückgang der Emissionen in China ist auf die Auswirkungen coronabedingter Lockdowns zurückzuführen. In der EU hingegen ist der Rückgang vor allem durch die Einschnitte in der Gasversorgung zu erklären – die Emissionen liegen 2022 etwa 10% niedriger als im Vorjahr. Teils wird dies aber durch einen Anstieg der Emissionen aus Kohle (um 6,7%) und Öl (um 0,9%) wettgemacht.

Der Bericht zum Global Carbon Budget 2022 wird veröffentlicht, während sich die Staats- und Regierungschefs der Welt auf der COP27 in Ägypten treffen, um über die Klimakrise zu diskutieren. „Wir sehen einige positive Entwicklungen, aber bei Weitem nicht die tiefgreifenden Maßnahmen, die jetzt eingeleitet sein müssten, um die globale Erwärmung auf deutlich unter 2 Grad zu halten. Die fossilen Emissionen steigen, statt zu sinken. Die Landnutzungsemissionen liegen weiterhin hoch – im Widerspruch zu dem auf der letztjährigen Klimakonferenz gefassten Beschluss, bis 2030 die globale Entwaldung zu stoppen. Unsere Ambitionen müssen verschärft, ihre Umsetzung viel nachdrücklicher vollzogen werden, wenn die Ziele des Pariser Abkommens Realität werden sollen“, sagt Julia Pongratz, Professorin für Physische Geographie und Landnutzungssysteme an der LMU und Teil des Kernteams des Berichts.

Tropische Entwaldung sorgt für hohe Emissionen
Einen großen Einfluss auf die globale Kohlenstoffbilanz hat neben fossilen Emissionen auch die Landnutzung durch den Menschen. So werden die Emissionen aus der Landnutzung in diesem Jahr bei geschätzt 3,9 Milliarden Tonnen CO2 liegen. „Den größten Anteil hat die Entwaldung mit Emissionen von etwa 6,7 Milliarden Tonnen CO2 pro Jahr im letzten Jahrzehnt – hier gibt es großes Potenzial für Emissionsreduktionen. Die Hälfte dieser Emissionen, 3,5 Milliarden Tonnen CO2, wird durch nachwachsende Wälder und Aufforstungen kompensiert. Diese Senken gilt es aufrechtzuerhalten und weiter auszubauen“, sagt LMU-Mitarbeiter Clemens Schwingshackl, der ebenfalls zum Bericht beitrug.

Die Landnutzungsemissionen entstehen vor allem in den tropischen Regionen – Indonesien, Brasilien und die Demokratische Republik Kongo waren im letzten Jahrzehnt für zusammen 58% der weltweiten Landnutzungsemissionen verantwortlich.

Der Bericht zum Global Carbon Budget erfasst auch den Verbleib der anthropogenen CO2-Emissionen in den natürlichen Senken. Für 2022 schätzen die Wissenschaftler*innen die CO2-Aufnahme des Ozeans auf 10,5 Milliarden Tonnen, die auf dem Land auf 12,4 Milliarden Tonnen. Die verbleibende knappe Hälfte der Gesamtemissionen lässt die atmosphärische CO2-Konzentration weiter steigen, auf 51% über ihrem vorindustriellen Niveau.

Der Bericht zum Global Carbon Budget wird gemeinsam von mehr als 100 Wissenschaftler*innen aufgrund von Daten globaler Messnetzwerke, Satellitendaten, statistischen Erhebungen und Modellrechnungen erstellt. Aus Deutschland, Österreich und der Schweiz sind Wissenschaftler*innen des Alfred-Wegener-Instituts (Bremerhaven), der Ludwig-Maximilians-Universität (München), des Max-Planck-Instituts für Meteorologie (Hamburg), des Max-Planck-Instituts für Biogeochemie (Jena), des Karlsruhe Institut für Technologie, des GEOMAR Helmholtz-Zentrums für Ozeanforschung (Kiel), des Leibniz-Instituts für Ostseeforschung (Warnemünde), des International Institute for Applied Systems Analysis (Laxenburg), der ETH Zürich und der Universität Bern beteiligt. Das Global Carbon Budget 2022 ist die 17. Ausgabe des jährlich erscheinenden Berichts, der durch unabhängige Expert*innen begutachtet wird.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Julia Pongratz
Inhaberin des Lehrstuhls für Physische Geographie und Landnutzungssysteme
Tel: +49 (0) 89 / 2180 – 6652
E-Mail: julia.pongratz@lmu.de

Originalpublikation:
Friedlingstein et al. (2022) Global Carbon Budget 2022. Earth System Science Data, DOI: https://doi.org/10.5194/essd-14-4811-2022

(nach oben)


Konzertreihe: Corona-Spürhunde sind alltagstauglich

Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Studie „Back to Culture“ veröffentlicht.

Die Stiftung Tierärztliche Hochschule Hannover (TiHo) untersuchte in Zusammenarbeit mit der Medizinischen Hochschule Hannover (MHH), dem Robert Koch-Institut, Hannover Concerts, ProEvent Hannover und der AWiAS Aviation Services GmbH, ob ausgebildete Corona-Spürhunde im Alltag eingesetzt werden könnten, um mit SARS-CoV-2 infizierte Personen aufzuspüren. Für die Studie veranstaltete das Projektteam Ende 2021 vier Konzerte, bei denen die Corona-Spürhunde am Einlass an Tupfern mit Schweißproben aller Besucherinnen und Besucher rochen, um Corona-Infektionen zu entdecken. Ihre Ergebnisse veröffentlichte das Forschungsteam heute in der Fachzeitschrift BMJ Global Health. Das Niedersächsische Ministerium für Wissenschaft und Kultur unterstützte die Studie mit rund einer Million Euro. „Ich freue mich über den Erfolg der Machbarkeitsstudie ‚Back to Culture‘“, so Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs. „Sie zeigt, dass der Einsatz der Hunde eine Option sein kann und ist ein weiterer Beleg für die Kreativität und Innovationskraft Niedersachsens.“

Die Trefferquote der Hunde lag bei fast 100 Prozent. Acht Hunde waren im Vorfeld darauf trainiert worden, SARS-CoV-2-positive-Proben am Geruch zu erkennen. Um zu bewerten, wie gut die Leistung der Corona-Spürhunde, Menschen auf SARS-CoV-2 zu screenen, in einer alltäglichen Situation funktioniert, organisierte das Projektteam vier Konzerte mit Fury in the Slaughterhouse, Bosse, Alle Farben und Sido. Insgesamt kamen 2.802 Teilnehmende zu den vier Veranstaltungen. Sie alle gaben Schweißproben ab, die den Tieren in einer Anordnung, bei der die Besucherinnen und Besucher keinen direkten Kontakt zu den Hunden hatten, präsentiert wurden. Zusätzlich hatten sich vor dem jeweiligen Konzert alle Teilnehmenden mit einem SARS-CoV-2-spezifischen Antigen-Schnelltest und einer RT-qPCR testen lassen. Zudem machten sie Angaben zu Alter, Geschlecht, Impfstatus und ihrer Krankheitsgeschichte.

Die SARS-CoV-2-Spürhunde erreichten eine diagnostische Spezifität von 99,93 Prozent (Erkennung negativer Proben) bzw. eine Sensitivität von 81,58 Prozent (Erkennung positiver Proben). Die Gesamtrate übereinstimmender Ergebnisse betrug 99,68 Prozent. Die Mehrheit der Teilnehmenden war mit unterschiedlichen Impfstoffen und Impfschemata geimpft worden, mehrere Besucherinnen und Besucher litten an chronischen Krankheiten und wurden chronisch medikamentös behandelt. Dies hatte keinen Einfluss auf die Entscheidungen und die Arbeit der Hunde.

Professor Dr. Holger Volk, Leiter der Klinik für Kleintiere der TiHo sagte: „Unsere Ergebnisse zeigen, dass SARS-CoV-2-Spürhunde in einem realen Szenario eine hohe diagnostische Genauigkeit erreichen können. Impfstatus, frühere SARS-CoV-2-Infektion, chronische Erkrankung und Medikation der Teilnehmenden hatten keinen Einfluss auf die Leistung der Hunde, eine akute Infektion zu erkennen. Außerdem zeigt die Studie, wie es organisatorisch gut möglich ist, Corona-Spürhunde im Alltag einzusetzen.“

Das Projekt „Back to Culture“
Schon im Juli 2020 hatte ein Forschungsteam der Klinik für Kleintiere in einer Pilotstudie gezeigt, dass Hunde mit ihrem ausgeprägten Geruchssinn in der Lage sind, Speichelproben SARS-CoV-2-infizierter und gesunder Menschen unter Laborbedingungen mit rund 94-prozentiger Sicherheit zu unterscheiden. Eine Folgestudie ergab, dass auch Schweiß und Urin geeignetes Probenmaterial sind. Ziel des gemeinsamen Projekts „Back to Culture“ war es, zu prüfen, wie und ob Großveranstaltungen durch den Einsatz von Corona-Spürhunden sicherer werden können. Die Studienergebnisse liefern zudem eine Aussage darüber, ob Corona-Spürhunde auch in anderen Alltagssituationen eingesetzt werden könnten.

Die Corona-Spürhunde
Im Alltag kommen Spürhunde täglich in vielen Bereichen zum Einsatz, wie zum Beispiel im Bereich der Sprengstoffsuche. Für eine gemeinsame Studie wurden darum im vergangenen Jahr Sprengstoffspürhunde der Bundeswehr und Spürhunde der AWiAS Aviation Services GmbH trainiert und getestet. Das Training der Hunde erfolgte mit Proben SARS-CoV-2-positiver Menschen, die zuvor chemisch inaktiviert wurden, um für Mensch und Tier während des Trainings die Gefahr einer Infektion auszuschließen. Für das Projekt „Back to Culture“ wurden Sprengstoffspürhunde der AWiAS Aviation Services GmbH trainiert. Die Konzertbesucherinnen und Konzertbesucher kamen bei den Konzerten nicht mit den Hunden in Kontakt. Nachdem sie sich mit einem Wattepad über die Armbeuge gestrichen haben, gaben sie das Pad ab.

Die Originalpublikation
ten Hagen NA, Twele F, Meller S, et al. Canine real-time detection of SARS-CoV-2 infections in the context of a mass screening event. BMJ Global Health 2022;0:e010276. https://doi.org/10.1136/bmjgh-2022-010276

Übersichtsartikel zum selben Thema
Jendrny, P., Twele, F., Meller, S. et al. Canine olfactory detection and its relevance to medical detection. BMC Infect Dis (2021) https://doi.org/10.1186/s12879-021-06523-8

Wissenschaftliche Ansprechpartner:
Professor Dr. Holger Volk
Stiftung Tierärztliche Hochschule Hannover
Klinik für Kleintiere
Tel.: +49 511 953-6202
holger.volk@tiho-hannover.de

Originalpublikation:
https://doi.org/10.1136/bmjgh-2022-010276

Weitere Informationen:
http://www.tiho-hannover.de/pressemitteilungen

(nach oben)


Kinder lernen wissenschaftliches Denken früher als gedacht | Neue Studie zeigt Einfluss von Eltern

Timo Fuchs Pressestelle
Universität Vechta
Wissenschaftliche Informationen verstehen und bewerten zu können, ist eine entscheidende Fähigkeit auch für das gesellschaftliche Leben, etwa bei der Bewältigung von Klimawandel oder Corona-Pandemie.Während man lange davon ausging, dass junge Kinder nicht in der Lage seien, wissenschaftlich zu denken, weist nun eine neue Studie nach, dass bereits 6-Jährige grundlegende Fähigkeiten darin zeigen. Wie sehr sie diese entwickeln, hängt wesentlich von der Förderung durch Eltern ab.

Hinweis: Diese Studie wird in Kürze auf einem internationalen pädagogischen Fachtag in Norddeutschland zur Entwicklung von Kindern vorgestellt. Der Fachtag dreht sich um wissenschaftliche Erkenntnisse zu einer Schlüssel-Kompetenz für das soziale Leben von Kindern: ihrer Fähigkeit, andere zu verstehen. Weitere Informationen unter dieser Meldung.

Erstmals Studie mit Grundschüler*innen auf diese Weise durchgeführt
Lange Zeit ging man davon aus, dass junge Kinder nicht in der Lage seien, wissenschaftlich zu denken. Das betrifft Fähigkeiten wie Daten zu bewerten, zu beurteilen, ob ein Experiment ein gutes oder ein schlechtes ist, oder ein grundlegendes Verständnis davon zu entwickeln, was Wissenschaftlerinnen und Wissenschaftler eigentlich machen. Eine Studie von Christopher Osterhaus, Juniorprofessor für Entwicklungspsychologie im Handlungsfeld Schule an der Universität Vechta, und Susanne Koerber, Professorin für Frühe Bildung der Pädagogischen Hochschule Freiburg, zeigt nun jedoch, dass bereits 6-Jährige erstaunliche Kompetenzen im wissenschaftlichen Denken aufweisen. Veröffentlicht wurden die Ergebnisse bereits in der renommierten Forschungszeitschrift „Child Development“.

Die beiden Wissenschaftler*innen der Universität Vechta und der Pädagogischen Hochschule Freiburg sind die ersten, die das wissenschaftliche Denken im Kindesalter in dieser Kombination aus besonders langem Zeitraum mit besonders kurz aufeinander folgenden Test-Intervallen und einer besonders hohen Zahl an Test-Aufgaben erfasst haben. Untersucht wurden in der fünfjährigen Längsschnittuntersuchung insgesamt 161 Kindergarten- und Grundschulkinder.

„Wir haben die Kinder zum ersten Mal im Kindergarten interviewt und sie dann bis ans Ende der Grundschulzeit begleitet“, erläutert Osterhaus. „Dabei haben wir jährlich ihre Kompetenzentwicklung gemessen. Auf diese Weise lässt sich sehr genau verfolgen, wann Entwicklungsschritte auftreten und wovon diese abhängen.“

Vorurteil widerlegt: Mädchen nicht schlechter als Jungen
Im Gegensatz zum geläufigen Vorurteil weist die Studie allerdings keine Gender-Unterschiede nach: Mädchen schnitten ebenso gut ab wie Jungen. „Manch eine Studie findet Gender-Unterschiede im wissenschaftlichen Denken“, sagt Osterhaus.

„Dies ist allerdings in der Regel nur der Fall, wenn Aufgaben verwendet werden, die überwiegend aus einem einzelnen naturwissenschaftlichen Inhaltsbereich stammen, wie beispielsweise der Physik. Wir haben in unserer Studie Aufgabenverwendet, die kindgerecht und in Kontexte eingebettet sind, die Jungen und Mädchen gleichermaßen ansprechen.“

Elternhaus entscheidend für Entwicklung
Neben den allgemeinen Fähigkeiten der Kinder (in erster Linie ihrem Sprachverständnis) scheint insbesondere ihr soziales Verständnis eine Rolle dabei zu spielen, wie gut sie wissenschaftlich denken. Aber auch das Elternhaus spielt eine wichtige Rolle. So haben die beiden Wissenschaftler*innen gezeigt, dass Kinder aus Elternhäusern mit einem hohen Bildungsniveau besser in den Testungen abschnitten als Kinder aus Elternhäusern mit einem durchschnittlichen oder niedrigen Bildungsniveau. Die Grundschule wirkte demnach nicht ausgleichend, sondern schien Unterschiede durch soziale Milieus eher zu verfestigen.

Zu Beginn der Grundschulzeit sind grundlegende Fähigkeiten vorhanden, vieles aber entwickelt sich noch. So müssen Lehrkräfte und Eltern die Kinder gezielt fördern, damit sich ihr wissenschaftliches Denken entfalten kann. Kindergarten und Schule müssen also hier ansetzen, um diesen Unterschieden entgegenzuwirken.

„Bis zum Ende der Grundschulzeit scheint es ein enormes Potenzial zur Entwicklung des wissenschaftlichen Denkens zu geben“, erläutert Christopher Osterhaus. „Aber während manch ein Kindergartenkind bereits komplexe Datenmuster korrekt interpretiert, haben andere Kinder selbst am Ende der Grundschulzeit Probleme damit, ein gutes von einem schlechten Experiment zu unterscheiden. Das heißt, die Kinder, die bereits im Kindergarten gut sind, sind diejenigen Kinder, die auch am Ende der Grundschulzeit ihren Klassenkamerad*innen weit voraus sind.“

Hinweis zum pädagogischen Fachtag
Diese Studie wird u.a. auf einem internationalen pädagogischen Fachtag in Norddeutschland zur Entwicklung von Kindern im Kontext von Schulen vorgestellt. Der Fachtag dreht sich um wissenschaftliche Erkenntnisse zu einer Schlüssel-Kompetenz für das soziale Leben von Kindern: ihrer Fähigkeit andere zu verstehen.

Dabei geht es auch um Studienergebnisse etwa zur mentalen Gesundheit von Kindern, zu homophobem Mobbing oder dem Einfluss von Schule auf die Entwicklung der Kompetenz, andere zu verstehen.

Datum: 17. + 18. November 2022
Ort: Universität Vechta, Driverstr. 22, 49377 Vechta

Für weitere Informationen für Ihre Berichterstattung sprechen Sie uns gerne an.

Ausblick zur weiteren Forschung
An der Universität Vechta laufen in Kooperation mit Partneruniversitäten weitere Studien zur Entwicklung und Förderung des wissenschaftlichen Denkens. In einer Zusammenarbeit mit der Universität Pavia führen die Wissenschaftler*innen Prof. Dr. Serena Lecce und Prof. Dr. Christopher Osterhaus eine Studie durch, in der untersucht wird, wie sich das wissenschaftliche Denken im Grundschulalter fördern lässt.

Da die oben genannte Studie von Osterhaus und Koerber einen Hinweis darauf liefert, dass zu wenig im Bereich der Förderung des wissenschaftlichen Denkens im Grundschulalter passiert, sind solche Trainingsstudien von großer Relevanz, da sie Wege aufzeigen können, wie Grundschullehrer*innen die Kompetenzen der Kinder effektiver fördern können. Die Erkenntnisse aus diesen und weiteren Studien sind somit von zentraler Bedeutung für die Lehrer*innenbildung.

Wissenschaftliche Ansprechpartner:
Junior-Prof. Christopher Osterhaus, Universität Vechta

Originalpublikation:
Die Original-Studie finden Sie hier: PM LS Scientific reasoning Osterhaus, C., & Koerber, S. (2022). The complex associations between children’s scientific reasoning and advanced theory of mind. Child Development:
https://srcd.onlinelibrary.wiley.com/doi/10.1111/cdev.13860

Anhang
Flyer Internationaler Pädagogischer Fachtag Vechta 2022 (englisch)

(nach oben)


Energiewende in Südhessen: Vortragsreihe „Energie für die Zukunft“ startet wieder

Simon Colin Hochschulkommunikation
Hochschule Darmstadt
Nach zweijähriger Coronapause findet die Vortragsreihe „Energie für die Zukunft“ wieder vor Ort in der Centralstation Darmstadt statt. Expertinnen und Experten aus Wissenschaft, Wirtschaft und Verwaltung geben Einblicke in Themen rund um die Energiewende und Klimaneutralität in der Region. Auftakt ist am Montag, 21. 11., um 19 Uhr mit einem Podiumsgespräch zur Nachhaltigen Energiewende in Südhessen.

Einmal monatlich ist ab sofort wieder „Energie für die Zukunft“-Zeit. Immer montags um 19 Uhr laden die Hochschule Darmstadt (h_da), das „ENTEGA NATURpur Institut“ und die Wissenschaftsstadt Darmstadt in Kooperation mit der Centralstation Darmstadt Fachleute aus Wissenschaft, Wirtschaft und Verwaltung zum „Wissenschaftstag“ ein. Der Eintritt zu den Vorträgen in der Centralstation ist frei.

Zum Auftakt der Vortragsreihe am Montag, 21.11., geht es in einem Podiumsgespräch um die Frage: „Nachhaltige Energiewende Südhessen – Welche Rolle spielen Bürgerinnen und Bürger, Politik und Unternehmen bei der Umsetzung der Energiewende?“. Es diskutieren auf dem Podium und mit dem Publikum: Dr. Marie Luise Wolff, Vorstandsvorsitzende der „ENTEGA AG“ und Präsidentin des BDEW, HEAG-Vorstand Prof. Dr. Michael Ahrend, HEAG mobilo-Geschäftsführer Michael Dirmeier und Lutz Köhler, Erster Kreisbeigeordneter des Landkreises Darmstadt-Dieburg.

Von der „Forschung an Europas einzigartigem Teilchenphysikzentrum CERN“ berichtet am Montag, 12.12., Dr. Kristof Schmieden. Er selbst arbeitete bis 2020 am weltweit größten Forschungszentrum für Teilchenphysik und forscht heute an der Johannes Gutenberg-Universität in Mainz. Bei „Energie für die Zukunft“ stellt er das CERN vor und gibt Einblicke in aktuelle Fragestellungen der Teilchenphysik, die auch für die Energietechnik relevant sind.

Das „Reallabor DELTA“ stellt am Montag, 23.01.2023, Prof. Dr. Jens Schneider vom Institut für Statik und Konstruktion der TU Darmstadt vor. Das „Darmstädter Energie-Labor für Technologien in der Anwendung“ (DELTA), an dem auch die Hochschule Darmstadt beteiligt ist, versteht sich als „Schaufenster für die urbane Energiewende zur Demonstration interagierender, energieoptimierter Quartiere“.

„Solarstrom für alle – Bürgersolarberatung in Darmstadt und Südhessen“ heißt es zum Abschluss der Vortragreihe am 13.02.2023, ebenfalls ab 19 Uhr. Heike Böhler von „HeinerEnergie Darmstadt“ und Michael Anton von der Klima-Initiative Ober-Ramstadt erläutern ihre Projekte und erklären, wie die Menschen in Darmstadt und Region Solarstrom für sich nutzen können.

„Energie für die Zukunft ist die Vorreiterin der Veranstaltungsreihen zu den Themenfeldern Energiewende und Nachhaltigkeit in Darmstadt und Südhessen“, sagt Moderator Prof. Dr. Ingo Jeromin vom Fachbereich Elektrotechnik und Informationstechnik der Hochschule Darmstadt. „Wir freuen uns, dass wir mit unseren Partnern bereits zum sechzehnten Mal den Menschen in Stadt und Region aktuelle Informationen mit auf den Weg geben können.“

Auch Matthias W. Send, Vorsitzender der Geschäftsführung der „ENTEGA NATURpur Institut gGmbH“, sieht die Vorteile der langjährigen Zusammenarbeit: „Die Kooperation von Wissenschaft und Wirtschaft ist ein entscheidender Baustein, um die Gesellschaft weiterzuentwickeln. Das gilt insbesondere für die Energie- und Klimawende.“

Veranstaltungsort
Centralstation Darmstadt
Im Carree
64283 Darmstadt

Beginn jeweils um 19 Uhr, montags, im Rahmen des Wissenschaftstags. Der Eintritt ist frei.

Programmübersicht:
Montag, 21. November 2022
Nachhaltige Energiewende Südhessen – Welche Rolle spielen Bürgerinnen und Bürger, Politik und Unternehmen bei der Umsetzung der Energiewende?
Mit Dr. Marie Luise Wolff, Vorstandsvorsitzende der ENTEGA AG und Präsidentin des BDEW, HEAG-Vorstand Prof. Dr. Michael Ahrend, HEAG mobilo-Geschäftsführer Michael Dirmeier und Lutz Köhler, Erster Kreisbeigeordneter des Landkreises Darmstadt-Dieburg.

Montag, 12. Dezember 2022
Forschung an Europas einzigartigem Teilchenphysikzentrum: CERN. Teilchenphysik – Interkulturelle Zusammenarbeit – Innovationenprojekt
Dr. Kristof Schmieden, Senior Researchers, Johannes Gutenberg-Universität Mainz

Montag, 23. Januar 2023
Das Reallabor DELTA – delta-darmstadt.de
Prof. Dr. Jens Schneider, Institut für Statik und Konstruktion, TU Darmstadt

Montag, 13. Februar 2023
Solarstrom für alle – Bürgersolarberatung in Darmstadt und Südhessen
Heike Böhler (HeinerEnergie Darmstadt) und Michael Anton (Klima-Initiative Ober-Ramstadt)

(nach oben)


BLUE PLANET Berlin Water Dialogues

Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Die BLUE PLANET Berlin Water Dialogues sind die globale und etablierte Netzwerk-Plattform, die internationale InteressenvertreterInnen und Stakeholder aus Forschung, Wirtschaft und Politik im Bereich des innovativen Wassermanagements zusammenbringt. Noch kann man sich für die nächste Online-Konferenz am 22. November 2022 anmelden.

Die BLUE PLANET Berlin Water Dialogues beleuchten am 22. November 2022 mit dem diesjährigen Schwerpunkt Artificial Intelligence: Reshaping the Water Industry ein international hochaktuelles Thema. Das Programm steht: Die in Berlin organisierte, englischsprachige Online-Konferenz bringt Interessenvertreter:innen aus Forschung, Wirtschaft und Politik im Bereich des innovativen Wassermanagements zusammen, um Zukunftsthemen der globalen Wasserwirtschaft zu diskutieren. Gefördert werden die BLUE PLANET Berlin Water Dialogues durch die Exportinitiative Umweltschutz – GreenTech „Made in Germany“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe (SenWEB).

In gut zehn Jahren hat sich die BLUE PLANET Berlin Water Dialogues-Konferenzreihe als das global führende Forum der Wasserwirtschaft etabliert. Seit der erfolgreichen digitalen Premiere 2021 wird die Fachkonferenz virtuell durchgeführt und eröffnet so dem interessierten Publikum weltweit die Möglichkeit der Teilnahme, Diskussion und Vernetzung.

Stefan Tidow, Staatssekretär im Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) wird die Online-Konferenz mit einem Grußwort eröffnen, zudem konnten wieder hochkarätige Expert:innen für Vorträge gewonnen werden. Sella Nevo, Google Flood Forecasting Initiative, Nicolas Zimmer, Technologiestiftung Berlin, Prof. Dr. Andrea Cominola, Einstein Center Digital Future der Technischen Universität Berlin, Dr. Riccardo Taormina, Delft University of Technology und Newsha Ajami, PhD, Berkeley Lab’s Earth & Environmental Sciences, sind als Keynote-Speaker bestätigt. Zahlreiche deutsche und internationale Repräsentant:innen aus Wirtschaft, öffentlichem Sektor, Politik und Wissenschaft zeigen die Chancen auf, die Anwendungen Künstlicher Intelligenz (KI) für den globalen Wassersektor bereithalten, diskutieren, wie sich die Wasserindustrie dadurch verändert, beleuchten die Möglichkeiten der Hydroinformatik und blicken auf die wichtigen Themen Cyber Security sowie die Stärkung der Klimaresilienz durch KI.

Die Konferenzteilnehmenden erhalten außerdem spannende Einblicke in innovative Anwendungsbeispiele, Projekte und Technologien aus Deutschland, Spanien, den USA, den Niederlanden und Großbritannien. Vertiefende Break-Out Sessions regen Diskussionen zu den Themen Datenquantität und -qualität sowie zu Möglichkeiten und Herausforderungen bei der Implementierung von KI-Anwendungen in der Wasserwirtschaft an. Die multimediale Online-Eventplattform ermöglicht zudem durch vielfältige Interaktionsmöglichkeiten vor, während und nach der Veranstaltung das internationale Netzwerken.

Die digitale Veranstaltung richtet sich an ein internationales Publikum, findet auf Englisch statt und ist für die Teilnehmenden kostenfrei.
Das Programm können Sie hier einsehen: https://blueplanetberlin.de/agenda-2022/
Die Anmeldung ist hier möglich: https://blueplanetberlin-event.de/events/5c4aecb25b654d56.
Weitere Informationen erhalten Sie unter www.blueplanetberlin.de sowie auf LinkedIn und Twitter.

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen Politik, Wasserwirtschaft, WissenschaftlerInnen und Nicht-Regierungsorganisationen entwickelt und etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche und internationale Kompetenzen und Lösungsansätze vorgestellt und beworben. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern. Damit sollen praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und Künstliche Intelligenz, in der Wasserwirtschaft oder dem Umweltschutz, durch ressourceneffiziente Technologien vorangetrieben werden. BLUE PLANET 2022 wird vom Kompetenzzentrum Wasser Berlin gGmbH und German Water Partnership e.V. zusammen mit den Berliner Beratungsunternehmen T-Base Consulting GmbH und eclareon GmbH organisiert.

Weitere Informationen zum BMUV-Förderprogramm Exportinitiative Umweltschutz unter https://www.exportinitiative-umweltschutz.de/

Presseeinladung
Vertreter:innen der Presse sind herzlich eingeladen an der Online-Konferenz teilzunehmen. Bitte nutzen Sie hierfür die Presse Registrierung: https://blueplanetberlin-event.de/events/30268/partners/press

Zur Pressemeldung vom 20.09.2022: https://blueplanetberlin.de/wp-content/uploads/2022/09/Pressemeldung_BLUE-PLANET…

Anhang
2. Pressemitteilung BLUE PLANET

(nach oben)


Cyberagentur vergibt Millionenaufträge zur Cybersicherheit

Michael Lindner Presse
Agentur für Innovation in der Cybersicherheit GmbH
Kickoff für die erste Forschungsphase zu KRITIS

Am 7. November 2022 wurden im Mitteldeutschen Multimediazentrum in Halle (Saale) die Verträge für Forschung zu „Existenzbedrohenden Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ mit sechs Forschungsverbünden unterzeichnet. Damit startet die erste Phase des mit 30 Millionen Euro dotierten Forschungsvorhabens der Agentur für Innovation in der Cybersicherheit (Cyberagentur).

Der Forschungsdirektor, Prof. Dr. Christian Hummert und der kaufmännische Direktor, Daniel Mayer, paraphierten am Montag (07.11.2022) für die Cyberagentur die Verträge für die erste Projektphase des bislang größten Forschungsvorhabens. Aus 19 eingegangenen Angeboten wurden sechs Forschungsverbünde von einer Fachjury ausgewählt, die in der sechsmonatigen ersten Phase ihre bisher eingereichten Projektideen zu „Existenzbedrohenden Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ weiter ausarbeiten werden.
„Wir waren sehr erfreut, dass sich sehr viele für unsere Ausschreibung interessierten“, betonte Prof. Dr. Hummert. „Die Qualität der Bewerbungen war außergewöhnlich gut. Für die Jury waren also hervorragende Bedingungen gegeben, um die sechs Forschungsverbünde aus dem Pool auszuwählen.“ Daniel Mayer ergänzte dazu: „Das Auftragsvolumen von 30 Millionen Euro stellt letztlich hohe Erwartungen an die Forschungsverbünde im Wettbewerb um die besten Ergebnisse.“

Wettbewerbsbeginn mit sechs Forschungsverbünden
Die Forschungsverbünde ATTRIBUT, CALCIO, MANTRA, SaCsy, SEC++ sowie SOVEREIGN haben sich schlussendlich gegenüber ihren Konkurrenten durchgesetzt. Diese setzen sich aus Universitäten, Hochschulen, Instituten und Unternehmen zusammen. Seit dem Ausschreibungsbeginn am 17. Juni 2022 haben diese sich mit der Fragestellung zur Erforschung und Entwicklung neuer Fähigkeiten der operativen Cybersicherheit befasst, um die Resilienz der Behörden und Kritischer Infrastrukturen zu erhöhen. In den kommenden Jahren werden sie untereinander mit verschiedenen Ansätze um innovativste Forschungsidee konkurrieren. Die Anzahl der Teilnehmer wird sich stufenweise im Laufe des Verfahrens reduzieren.

PCP-Verfahren in 5 Phasen
Der Wettbewerb der Cyberagentur umfasst einen Zeitrahmen von fünf Jahren. Als Ausschreibungsverfahren wurde das Pre-Commercial Procurement (PCP) gewählt. Die vorkommerzielle Auftragsvergabe ist ein von der EU-Kommission entwickeltes spezifisches Ausschreibungsverfahren der öffentlichen Hand für Forschungs- und Entwicklungsleistungen. Charakteristisch dabei ist die wettbewerbsbasierte Forschung & Entwicklung in Phasen und die Risiko-Nutzen-Teilung. So findet der aktuelle Wettbewerb in fünf Phasen einschließlich des Auswahlverfahrens statt. Insgesamt stehen dafür 30 Millionen Euro für den Zeitraum von 5 Jahren zur Verfügung. [Mehr Informationen]
Für die Evaluation der Angebote konnte eine Fachjury aus Mitgliedern der Cyberagentur und Vertretern der gesamtgesellschaftlichen Sicherheitsvorsorge gewonnen werden. Der Jury gehören von der Cyberagentur der Forschungsdirektor, Prof. Dr. Christian Hummert, Abteilungsleiter Sichere Systeme, Prof. Dr. Tobias Eggendorfer und der Projektleiter, Dr. Gerald Walther und als externe Mitglieder Dr. Harald Niggemann, Cyber Security Strategist beim Bundesamt für Sicherheit in der Informationstechnik sowie Oberstleutnant Christoph Kühn, Dezernatsleiter im Zentrum für Cyber-Sicherheit der Bundeswehr, an. „Mit den externen Jurymitgliedern aus den beiden staatlichen Organisationen als Vertreter der Inneren und Äußeren Sicherheit haben wir, unserem Auftrag entsprechend, für ein transparentes Vergabeverfahren gesorgt“, erläutert Projektleiter Dr. Gerald Walther. „Die Jury wird auch weiterhin über alle Projektphasen den Wettbewerb um die besten Forschungsergebnisse begleiten.“

Kickoff und Workshops zum Projektstart
Nach der feierlichen Unterzeichnung der sechs Verträge stellte das Projektteam der Cyberagentur noch einmal den Projektrahmen für die Phase der Konzeptentwicklung vor. Die Teilnehmenden konnten in dem Event ihre Fragen zu den organisatorischen Abläufen stellen.
In einzelnen Workshops am Dienstag haben die Forschungsverbünde die Möglichkeit, ihre spezifischen Ansätze und Problemstellungen mit den Mitarbeiterinnen und Mitarbeitern der Cyberagentur zu erörtern.

Kontakt
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de

Hintergrund: Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.
Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.

Wissenschaftliche Ansprechpartner:
Dr. Gerald Walther, Nicole Selzer

Weitere Informationen:
https://www.cyberagentur.de/strongcyberagentur-vergibt-millionenauftrage-zur-cyb…

(nach oben)


Deutschlands größte epidemiologische Langzeitstudie wird fortgeführt

Rebekka Kötting Pressestelle
Gemeinsame Wissenschaftskonferenz (GWK)
Die Gemeinsame Wissenschaftskonferenz (GWK) hat am 4. November 2022 die Fortschreibung der Bund-Länder-Vereinbarung über die Förderung der NAKO Gesundheitsstudie für eine dritte Förderphase von fünf Jahren ab Mai 2023 beschlossen. In den nächsten fünf Jahren wird die NAKO Gesundheitsstudie mit rund 127 Mio. Euro unterstützt.

Die NAKO Gesundheitsstudie ist eine Langzeit-Bevölkerungsstudie, die für einen angestrebten Beobachtungszeitraum von 20 bis 30 Jahren aufgebaut und seit 2013 von Bund, Ländern und der Helmholtz-Gemeinschaft gefördert wird. Sie wird von einem Netzwerk deutscher Forschungseinrichtungen organisiert und durchgeführt. Beteiligt sind Einrichtungen der Helmholtz-Gemeinschaft Deutscher Forschungszentren, der Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz sowie Universitäten und weitere Forschungsinstitute. Ziel ist es, belastbare Aussagen über die Ursachen von Volkskrankheiten wie Krebs, Diabetes, Infektionskrankheiten und Herzinfarkt im Zusammenwirken von genetischer Veranlagung, Lebensgewohnheiten und umweltbe-dingten Faktoren zu treffen.

Die Vorsitzende der GWK, Bettina Stark-Watzinger, Bundesministerin für Bildung und For-schung, erklärt dazu: „Seit über zwei Jahren stehen wir vor der großen Herausforderung, die Corona-Pandemie einzudämmen und zugleich den Kampf gegen Volkskrankheiten wie Krebs oder Diabetes darüber nicht zu vernachlässigen. Die Fortführung der Förderung der NAKO Gesundheitsstudie ist daher das richtige Signal in dieser Zeit. Auch kommt Gesundheitsfragen angesichts des demografischen Wandels eine zunehmende Bedeutung zu. Eine gesunde Bevölkerung ist Grundvoraussetzung für ein gutes Miteinander, die Sicherung unserer Wettbewerbsfähigkeit und unseres Wohlstands. Die NAKO Gesundheitsstudie schafft eine Datenbasis, deren Verwertung wissenschaftlichen, sozialen und wirtschaftlichen Fortschritt befördert.“

Der stellvertretende GWK-Vorsitzende, Markus Blume, Staatsminister für Wissenschaft und Kunst des Freistaats Bayern, ergänzt: „Die NAKO Gesundheitsstudie bietet eine einzigartige Datengrundlage für Langzeitbeobachtungen und neue wissenschaftliche Erkenntnis. Die gesellschaftliche Bedeutung der NAKO Gesundheitsstudie zeigt sich besonders deutlich in der aktuellen Pandemie, aber sie geht weit darüber hinaus. Denn die Möglichkeit, die in der NAKO gesammelten und aufbereiteten Daten nicht nur untereinander, sondern mit Daten aus anderen Quellen und Bereichen wie Klimadaten, Wirtschaftsdaten oder soziologische Daten zu verknüpfen, ermöglicht weitere Fortschritte: Auf dieser Grundlage können hier in Deutschland Innovationen für die ganze Welt geschaffen werden, die unsere Gesellschaft resilienter machen.“

Die NAKO Gesundheitsstudie will bessere Möglichkeiten für die Verhinderung, möglichst frühe Erkennung und bestmögliche Behandlung von Krankheiten schaffen. Sie will zur Beantwortung der Frage beitragen, warum ein Mensch krank wird, der andere aber gesund bleibt. Von welchen Faktoren hängt dies ab? Spielt dabei die Umwelt die zentrale Rolle, das soziale Umfeld oder die Situation am Arbeitsplatz? Ist es die Ernährung? Sind es die Gene? Oder ist es eine Mischung all dieser Faktoren? Dazu werden deutschlandweit in insgesamt 18 Studienzentren rund 200.000 zufällig ausgewählte Bürgerinnen und Bürger im Alter von 20 bis 69 Jahren wiederholt umfassend medizinisch untersucht und nach relevanten Lebensgewohnheiten befragt, z.B. nach körperlicher Aktivität, Rauchen, Ernährung, Beruf. In der aktuellen Förderphase hat die NAKO Gesundheitsstudie das angestrebte Ziel von 200.000 Teilnehmerinnen und Teilnehmern erreicht. Deren Gesundheitsdaten, darunter auch Bioproben, werden nun und in den Folgejahren wiederholt gesammelt und unter Berücksichtigung datenschutzrechtlicher Aspekte auch Dritten zur Verfügung gestellt. Dieser Datenschatz birgt ein enormes Potenzial für wissenschaftliche und medizinische Durchbrüche sowie für gesellschaftlich bedeutsame Innovationen.

Weitere Informationen zur NAKO können unter folgender Adresse abgerufen werden: https://www.nako.de/.

(nach oben)


Der Labormedizin droht ein eklatanter Fachkräftemangel

Karin Strempel Geschäftsstelle
Deutsche Gesellschaft für Klinische Chemie und Laboratoriumsmedizin e. V.
Am Europäischen Tag der Labormedizin – 5. November 2022 – warnen der Berufsverband der Deutschen Labormediziner (BDL) und die Deutsche Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL) vor einem eklatanten Fachkräftemangel in ihrem Fachgebiet. Für den Fachkräftemangel gibt es mehrere Gründe. Einer davon ist stringentes Outsourcing von Laborleistungen an den Kliniken sowie der Wegfall von Lehrstühlen an Universitäten. Hinzu kommt das sukzessive Ausscheiden der geburtenstarken Jahrgänge bei den LabormedizinerInnen. Deswegen fordern die Labormedizinier mehr Ausbildungsmöglichkeiten und höhere Investitionen in dieLaborinfrastruktur an den Kliniken

Der Fachkräftemangel betrifft Fachärzte und Fachärztinnen für Labormedizin sowie Medizinische TechnologInnen gleichermaßen. BDL-Vorstandsvorsitzender, Dr. Andreas Bobrowski: „Über die Jahre sind uns die Strukturen für die Weiterbildung von Laborfachärzten im klinischen Bereich weggebrochen. Wir müssen dringend mehr Weiterbildungsangebote an Universitätskliniken und bei Maximalversorgern schaffen.“ Die Entwicklung sei in vergangenen zwei Jahrzehnten insbesondere durch stringentes Outsourcing von Laborleistungen an den Kliniken sowie durch den Wegfall von Lehrstühlen an Universitäten forciert worden. Dabei beruhen etwa 66 Prozent aller ärztlichen Entscheidungen heutzutage direkt oder indirekt auf labordiagnostischer Diagnostik.

„Wir müssen aber im klinischen Umfeld ausbilden. Viele Krankheitsbilder, die zu einer fundierten Ausbildung zum Facharzt für Laboratoriumsmedizin gehören, können den angehenden LabormedizinerInnen nur im universitären Umfeld beziehungsweise bei einem Maximalversorger vermittelt werden“, erklärt DGKL-Vorsitzender Prof. Harald Renz. Als Beispiele nennt Renz Besonderheiten in der Gerinnungsdiagnostik, der mikrobiologischen Analytik, aber auch in der Diagnose von Intoxikationen durch Medikamenteneinnahme oder Drogen. Renz verweist des Weiteren auf die Bedeutung der Labormedizin bei der Diagnose von Volkskrankheiten und seltenen Erkrankungen sowie bei Infektionskrankheiten.

Verstärkt wird die Ausbildungsmisere durch den sukzessiven Wegfall der geburtenstarken Jahrgänge bei den LabormedizinerInnen. Darüber hinaus kritisieren BDL und DGKL die Bedarfsplanung der Labormediziner im ambulanten Sektor, die auf rund 1.000 Facharztstellen begrenzt ist. Bobrowski: „Wir werden aber nur ausreichend viele junge LabormedizinerInnen gewinnen können, wenn wir Perspektiven schaffen.“ Insbesondere die Corona-Pandemie habe gezeigt, dass die Labormedizin zu den systemrelevanten Fächern gehört. Wegen der zunehmenden Teilzeittätigkeit kommt es selbst bei einer leichten Zunahme der Anzahl der LaborärztInnen zu einem Arbeitskräftemangel.

Zur Zukunftssicherung gehören auch mehr Investitionen in bauliche Projekte der Labormedizin. Dr. Michael Heins, Chefarzt für Laboratoriumsmedizin am Klinikum Osnabrück, unterstützt diese Forderung. Heins hat 2016 ein Krankenhauslabor in ein Facharztlabor mit KV-Sitz ausgebaut und sehr viele Laborleistungen, insbesondere Spezialuntersuchungen, ingesourct. „Die Investitionen dafür kann ein Krankenhaus allein nicht stemmen, hierfür braucht es die Unterstützung der öffentlichen Hand.“ In den letzten Jahren hat sich gezeigt, dass durch den Ausbau eines eigenen Labors die Zeit bis zur Befundübermittlung und damit auch die Liegezeit verkürzt und sich zusätzlich die Kostenstruktur des Krankenhauses verbessert hat.

Der Europäische Tag der Labormedizin wird von der Europäischen Vereinigung der Labormediziner an jedem 5. November ausgerufen. In Deutschland gibt es aktuell 41 universitätsmedizinische Standorte, von denen 21 mit einer eigenständigen W3-Professur für Laboratoriumsmedizin besetzt sind. Die Ausbildungsmisere erstreckt sich auch auf die anderen Gesundheitsfachberufe im Labor. Sie kämpfen unter anderem mit Schulschließungen an den Kliniken.

(nach oben)


Covid-19: Impfstatus polarisiert Bevölkerung

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Menschen, die sich stark mit ihrem Covid-Impfstatus identifizieren, diskriminieren die jeweils andere Gruppe stärker. Das zeigt eine Studie des Teams um Luca Henkel, Mitglied des Exzellenzclusters ECONtribute an der Universität Bonn, unter Beteiligung der Universitäten Erfurt und Wien sowie des Bernhard-Nocht-Instituts für Tropenmedizin Hamburg. Die Studie ist in der Fachzeitschrift Nature Human Behaviour erschienen.

Die Forschenden haben analysiert, wie stark sich die Teilnehmenden über ihren Status als Geimpfte oder Ungeimpfte definieren und wie sie der jeweils anderen Gruppe begegnen. Das Ergebnis: Je mehr sich die Teilnehmenden als geimpft oder ungeimpft identifizierten, desto eher distanzierten sie sich von der anderen Gruppe.

Das Team befragte von Dezember 2021 bis Juli 2022 mehr als 3000 Geimpfte und 2000 Ungeimpfte aus Deutschland und Österreich. Diese mussten auf einer Skala von eins bis sieben Punkten bewerten, wie stark sie fünf verschiedenen Aussagen zu ihrem Impfstatus zustimmten. Aus beiden Gruppen gab zum Beispiel rund die Hälfte der Befragten an, dass sie stolz sei, (un-)geimpft zu sein. Im zweiten Schritt bekamen die Teilnehmenden 100 Euro, die sie zwischen sich und einer anderen Person aufteilen sollten. Vorab erfuhren sie, ob ihr Gegenüber geimpft oder ungeimpft ist. Gehörte die Person einer anderen Gruppe an als sie selbst, diskriminierten die Verteilendenden stärker und gaben deutlich weniger ab. So gaben Geimpfte im Schnitt 48 Euro an andere Geimpfte weiter, aber nur 30 Euro an Ungeimpfte.

Ungeimpfte fühlen sich eher sozial ausgegrenzt
Generell nahmen Ungeimpfte die öffentliche Debatte um eine Impfpflicht als unfairer wahr und gaben an, mehr soziale Ausgrenzung erlebt zu haben. Die Studie liefert Evidenz für die in der Literatur beschriebene Theorie, dass sich Konflikte befördern, je stärker sich Personen mit einer sozialen Gruppe identifizieren, da sie ihre eigene Überzeugung als die richtige ansehen und sich moralisch überlegen fühlen. So zeigt die Studie beispielsweise, dass die Bereitschaft, gegen Corona-Maßnahmen zu demonstrieren höher ist, je stärker sich Ungeimpfte mit dem Impfstatus identifizieren.

Impfen als ideologische statt rein gesundheitliche Entscheidung
„Wir zeigen, dass sich gegen Covid-19 zu impfen nicht mehr ausschließlich eine gesundheitliche Entscheidung, sondern auch eine ideologische Werteentscheidung geworden ist“, sagt Henkel. Die Befragten identifizieren sich nicht nur individuell als geimpft oder ungeimpft, sondern sehen sich als Teil einer sozialen Gruppe. Klassische Informationskampagnen seien deshalb wenig wirkungsvoll. „Wir brauchen mehr Austausch statt einseitiger Appelle“, so Henkel. Die Forschenden sehen dabei zum Beispiel Personen des öffentlichen Lebens in der Pflicht, sich für einen stärkeren Dialog einzusetzen.

ECONtribute: Einziger wirtschaftswissenschaftlicher Exzellenzcluster
Die Studie ist unter anderem im Rahmen von ECONtribute entstanden. Es handelt sich dabei um den einzigen wirtschaftswissenschaftlichen von der Deutschen Forschungsgemeinschaft geförderten Exzellenzcluster – getragen von den Universitäten in Bonn und Köln. Der Cluster forscht zu Märkten im Spannungsfeld zwischen Wirtschaft, Politik und Gesellschaft. Ziel von ECONtribute ist es, Märkte besser zu verstehen und eine grundlegend neue Herangehensweise für die Analyse von Marktversagen zu finden, die den sozialen, technologischen und wirtschaftlichen Herausforderungen der heutigen Zeit, wie zunehmender Ungleichheit und politischer Polarisierung oder globalen Finanzkrisen, gerecht wird.

Weitere Förderer: Universitäten Erfurt und Wien, sowie die Thüringer Staatskanzlei.

Wissenschaftliche Ansprechpartner:
Inhaltlicher Kontakt:
Luca Henkel
ECONtribute, Universität Bonn
luca.henkel@uni-bonn.de

Presse und Kommunikation:
Carolin Jackermeier
PR Manager ECONtribute
+49 221 470 7258
carolin.jackermeier@uni-bonn.de

Originalpublikation:
Luca Henkel, Philipp Sprengholz, Lars Korn, Cornelia Betsch, and Robert Böhm: The association between vaccination status identification and societal polarization. Nature Human Behaviour; https://doi.org/10.1038/s41562-022-01469-6

(nach oben)


Grüner Wasserstoff: „Hydrogen Lab Leuna“ am Chemiestandort Leuna eröffnet

Inna Eck Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES
Der Minister des Landes Sachsen-Anhalt Prof. Armin Willingmann und der Präsident der Fraunhofer-Gesellschaft Prof. Reimund Neugebauer übergaben im Rahmen der „Fokusreise Strukturwandel“ offiziell den Bau des Hydrogen Lab Leuna (HLL) an das Fraunhofer-Institut für Windenergiesysteme IWES im Mitteldeutschen Revier. Zudem überreichte Prof. Willingmann den Fördermittelbescheid für das Strukturwandel-Projekt „Hydrogen Competence Hub“ – ein zentraler Hub für Aus- und Weiterbildung.

Das Fraunhofer IWES stellt mit dem Hydrogen Lab in Leuna die Weichen für innovative Forschung und Entwicklung zur Erzeugung und zum Einsatz von grünem Wasserstoff in der chemischen Industrie. Wasserstoff ist ein Schlüsselelement für die Rohstoffversorgung der chemischen Industrie und für das Erreichen der Klimaziele ist die Defossilisierung, d.h. die Umstellung auf grünen Wasserstoff entlang der gesamten Prozesskette essenziell. Der Minister für Wissenschaft, Energie, Klimaschutz und Umwelt des Landes Sachsen-Anhalt, Prof. Willingmann, eröffnet gemeinsam mit dem Präsidenten der Fraunhofer-Gesellschaft Prof. Neugebauer nach mehrjähriger Planungs- und Bauphase offiziell das HLL im Chemiepark in Leuna: „Mit dem Hydrogen Lab in Leuna wird der dringend benötigte Markthochlauf von Wasserstoff-Technologien in Sachsen-Anhalt und darüber hinaus beschleunigt. Die hochinnovative Forschungseinrichtung wird wesentlich dazu beitragen, dass sich Sachsen-Anhalt zu einem neuen Kraftzentrum einer nachhaltigen Wasserstoffwirtschaft entwickeln kann. Der Aufbau der Wasserstoffwirtschaft ist darüber hinaus ein wichtiges Element für die erfolgreiche Gestaltung des Strukturwandels in der Region. Mit der Förderung des Aus- und Weiterbildungsprojekts „Hydrogen Competence Hub“ steuern wir zudem gemeinsam mit der Hochschule Merseburg, der Otto-von-Guericke-Universität und der Hochschule Anhalt aktiv gegen den Mangel an Fach- und Führungskräften“, sagt Minister Prof. Willingmann. Damit werden neben regionalen Unternehmen auch internationale Projektpartner und Industriekunden für Leuna angesprochen.

„Mit dem Aufbau des Chemie- und Wasserstoffstandorts Leuna, der bereits seit mehreren Jahren einen prosperierenden Nukleus für die erfolgreiche Zusammenarbeit von Wissenschaft und Wirtschaft bildet, zeigt die Fraunhofer-Gesellschaft nicht nur effiziente Wege für die Energiewende, sondern auch für einen gelingenden Strukturwandel im Mitteldeutschen Revier auf. Als eines von deutschlandweit drei Fraunhofer Hydrogen-Labs fokussiert sich das Hydrogen Lab Leuna auf die Forschung entlang der Wert-schöpfungskette der Wasserstofferzeugung. Der dort produzierte Grüne Wasserstoff wird vor Ort analysiert, aufbereitet und direkt in die 157 km lange H2-Pipeline eingespeist, von wo aus er zu den Industriestandorten der Region verteilt und in chemischen Prozessen eingesetzt wird. Mit dem neuen »Hydrogen Competence Hub« wird zudem eine wesentliche Herausforderung adressiert, die alle Reviere betrifft: der Mangel an Fach- und Führungskräften. Auch hier leistet die Fraunhofer-Gesellschaft durch Aus- und Weiterbildung einen wichtigen Beitrag zum Strukturwandel“, erläutert Prof. Neugebauer, Präsident der Fraunhofer-Gesellschaft.

Das für die Forschungsarbeiten im HLL notwendige Technikum ist baulich fertiggestellt und wird mit der offiziellen Eröffnung vom Land Sachsen-Anhalt an das Fraunhofer IWES übergeben. Derzeit wird der Innenbereich des Technikums mit den erforderlichen Laboreinrichtungen- und Anlagen ausgestattet, die nicht Teil des HLL-Bauprojektes sind. „Wir freuen uns sehr, dass wir das HLL offiziell übernehmen können und somit Platz für den Aufbau unsere umfangreiche Testinfrastruktur haben. Allerdings ist das Technikum bereits jetzt vollständig ausgelastet, sodass wir schon über Erweiterungen nachdenken müssen. Die wissenschaftliche Arbeit an den ersten Projekten hat ebenfalls bereits begonnen und wir sind im Chemiepark Leuna auf dem Weg in eine zukunftsfähige Wasserstoff-Wirtschaft, die wir aktiv forschungsseitig begleiten werden. In diesem Zusammenhang bedanken wir uns ausdrücklich für den Fördermittelbescheid für das »Hydrogen Competence Hub«, mit welchem wir gemeinsam mit der regionalen Hochschullandschaft unseren Beitrag zum Aufbau und Erhalt der dringend benötigten Fachkräfte leisten. Mit dem Hub streben wir eine erhöhte Durchlässigkeit zwischen beruflicher und wissenschaftlicher Weiterbildung an, um die Bedarfe der Industrie mittels des Erwerbs von Zusatzqualifikationen schnell und modular decken zu können“, ergänzt Dr.-Ing. Sylvia Schattauer, kommissarische Institutsleiterin, Fraunhofer IWES.

Hydrogen Lab Leuna
Im Mitteldeutschen Chemiedreieck stellt die Fraunhofer-Gesellschaft mit dem vom Land Sachsen-Anhalt und der EU geförderten HLL eine neue Generation der Testinfrastruktur für Wasserstofftechnologien bereit. Durch die Verbindung von Methodenkompetenzen und einmaliger Forschungsinfrastruktur entsteht ein nachhaltiges gemeinsames Geschäftsmodell und eine neuartige Kooperationsplattform für Industrie und Forschung. Eingebettet in den Stoffverbund des Chemieparks Leuna bietet das HLL vier Teststände plus Technikum für Elektrolyseure mit einer Leistung von bis 5 Megawatt (MW), die mit deionisiertem Wasser, Dampf, Druckluft, Stickstoff, Wasserstoff und zukünftig auch mit CO2 versorgt werden. Der produzierte grüne Wasserstoff wird vor Ort analysiert, aufbereitet und direkt in die 157 km lange H2-Pipeline eingespeist, von wo aus er zu den Industriestandorten der Region verteilt wird und dort in chemischen Prozessen verwendet werden kann. Das Fraunhofer IWES ist Besitzer und Betreiber der Infrastruktur am HLL.

Der Aufbau des „Hydrogen Lab Leuna“ wurde vom Land Sachsen-Anhalt und von der Europäischen Union mit gut acht Millionen Euro gefördert. Das gesamte Bauvolumen für das Hydrogen Lab Leuna beläuft sich auf über 10 Mio. EUR zuzüglich Projektförderungen für die Testinfrastruktur.

Im nächsten Jahr werden gleich zwei STARK-Projekte ihre Arbeit aufnehmen:
Fördermittelbescheid für Aus- und Weiterbildungsprojekt „Hydrogen Competence Hub“

Gemeinsam mit der Hochschule Merseburg, der Otto-von-Guericke-Universität und der Hochschule Anhalt soll ab Februar 2023 für zwei Jahre an dem Aufbau eines zentralen Hubs für Aus- und Weiterbildung gearbeitet werden. Konkret wird ein regionales Bildungsnetzwerk etabliert, aber auch eigene Weiterbildungsangebote entwickelt. Damit sollen die Kompetenzen der Region im Bereich digitale Wasserstoff-Technologien gestärkt und ein erhöhter Transfer zwischen beruflicher und wissenschaftlicher Weiterbildung geschaffen werden. Durch Zusatzqualifikationen sollen die Bedarfe der Industrie schnell und modular gedeckt werden. Dieses brandaktuelle und notwendige Projekt erhält den Förderbescheid und damit 2,5 Mio. € aus den Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) der Förderrichtlinie zur Stärkung der Transformationsdynamik und Aufbruch in den Revieren und an den Kohlekraftwerksstandorten (STARK).

Das zweite Projekt „House of Transfer“ als zentrale Anlaufstelle für Stakeholder aus den Bereichen Chemie, Bioökonomie, Kunststoff und Wasserstoff hat es sich zum Ziel gesetzt, die bestehenden Aktivitäten in der Region zu verzahnen. Hier werden z.B. Technologiegeber mit industriellen Bedarfen, Projektideen mit Investoren sowie Start-Ups mit erfahrenen Playern zusammengeführt. Es entsteht ein umfassendes Beratungs- und Dienstleistungsangebot. Das „House of Transfer“ hat bereits einen Förderbescheid über 4,6 Mio.€ am 28.09.2022 erhalten und startet im Januar mit der Arbeit.

Fokusreise Strukturwandel
In Folge der zunehmenden Digitalisierung sowie der Umstrukturierungen im Zuge einer nachhaltigen Wertschöpfung und der damit verbundenen ökonomische, ökologische und gesellschaftliche Transformation, stehen zahlreiche Regionen vor großen wirtschaftlichen und sozialen Herausforderungen. Die Fraunhofer-Gesellschaft unterstützt den innovationsgetriebenen Strukturwandel aktiv durch Vernetzung und den strukturierten Aufbau neuer Wertschöpfungsketten. Ziel ist es die vom Strukturwandel betroffenen Regionen durch innovationsfördernde Maßnahmen auf einen dynamischen Wachstumspfad zu heben und damit zur Verringerung regionaler Disparitäten beizutragen. Im Rahmen der »Fokusreise Strukturwandel« vom 1. bis 7. November 2022 demonstrieren Wissenschaftlerinnen und Wissenschaftler der regional verankerten Institute richtungsweisende Lösungsansätze, die geeignet sind, einen Beitrag zur Zukunftsfähigkeit und Innovationskraft in vom Strukturwandel betroffenen Regionen zu leisten. Gemeinsam mit Partnern aus Wirtschaft, Wissenschaft und Politik werden die Themenfelder Versorgungssicherheit, nachhaltige Fertigungsprozesse und Agrarwirtschaft diskutiert sowie künftige Technologiepfade ermittelt.

Folgen Sie der »Fokusreise Strukturwandel« auch in den Sozialen Medien, über den LinkedIn-Kanal von Fraunhofer-Präsident Professor Reimund Neugebauer (https://www.linkedin.com/in/reimund-neugebauer/) sowie unter dem Hashtag #We-KnowChange.

Pressekontakt
Fraunhofer-Institut für Windenergiesysteme IWES
Inna Eck, Leiterin Marketing und Kommunikation
Telefon +49 471 14290-543
inna.eck@iwes.fraunhofer.de
www.iwes.fraunhofer.de

Ansprechperson
Fraunhofer-Institut für Windenergiesysteme IWES
Dr. Johannes Höflinger, Gruppenleiter Hydrogen Lab Görlitz
Am Haupttor 4310, 06237 Leuna
Telefon +49 47114 290-657
johannes.hoeflinger@iwes.fraunhofer.de
www.iwes.fraunhofer.de

Fraunhofer IWES
Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Wind- und Wasserstofftechnologie. Derzeit sind mehr als 300 Wissenschaftler*innen und Angestellte sowie rund 150 Studierende an neun Standorten beschäftigt: Bochum, Bremen, Bremerhaven, Leer, Görlitz, Hamburg, Hannover, Leuna und Oldenburg.

Wissenschaftliche Ansprechpartner:
Fraunhofer-Institut für Windenergiesysteme IWES
Dr. Johannes Höflinger, Gruppenleiter Hydrogen Lab Görlitz
Am Haupttor 4310, 06237 Leuna
Telefon +49 47114 290-657
johannes.hoeflinger@iwes.fraunhofer.de
www.iwes.fraunhofer.de

(nach oben)


BIFOLD: Cybersicherheit auf dem Prüfstand

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Maschinelles Lernen in der Sicherheitsforschung birgt subtile Fallstricke

Cybersicherheit ist ein zentrales Thema der digitalen Gesellschaft und spielt sowohl im kommerziellen wie auch privaten Kontext eine wesentliche Rolle. Maschinelles Lernen (ML) hat sich in den letzten Jahren als eines der wichtigsten Werkzeuge zur Analyse sicherheitsrelevanter Probleme herauskristallisiert. Eine Gruppe europäischer Forscher*innen der TU Berlin, der TU Braunschweig, des University College London, des King’s College London, der Royal Holloway University of London und des Karlsruher Instituts für Technologie (KIT)/KASTEL Security Research Labs unter der Leitung von BIFOLD-Forschern der TU Berlin konnte jedoch zeigen, dass diese Art der Forschung oft fehleranfällig ist. Ihre Veröffentlichung: „Dos and Don’ts of Machine Learning in Computer Security“ über Fallstricke bei der Anwendung von Maschinellem Lernen in der Sicherheitsforschung wurde auf dem renommierten USENIX Security Symposium 2022 mit einem Distinguished Paper Award ausgezeichnet.


Maschinelles Lernens (ML) hat in einer Vielzahl von Anwendungsbereichen, wie zum Beispiel der Bilderkennung und der Verarbeitung natürlicher Sprache, zu großen Durchbrüchen geführt. Dieser Erfolg wirkt sich auch auf die Cybersicherheit aus: Nicht nur kommerzielle Anbieter werben damit, dass ihre von künstlicher Intelligenz (KI) gesteuerten Produkte effizienter und effektiver als bisherige Lösungen sind. Auch viele Forscher*innen setzen diese Technik ein, da Algorithmen den traditionellen Methoden oft weit überlegen zu sein scheinen. So wird maschinelles Lernen zum Beispiel auch eingesetzt, um neue digitale Angriffstaktiken zu erlernen und die Abwehrmaßnahmen an diese Bedrohungen anzupassen.
„In dem Paper liefern wir eine kritische Analyse des Einsatzes von ML in der Cybersicherheitsforschung“, beschreibt Erstautor Dr. Daniel Arp, Postdoc an der TU Berlin: „Zunächst identifizieren wir häufige Fallstricke bei der Konzeption, Implementierung und Evaluierung von lernbasierten Sicherheitssystemen.“ Ein Beispiel für solche Probleme ist die Verwendung nicht repräsentativer Daten. Also Datensätze, bei denen die Anzahl der Angriffe im Vergleich zu ihrer Häufigkeit in der Realität überrepräsentiert ist. ML-Modelle, die auf solchen Daten trainiert wurden, können sich in der Praxis als unbrauchbar erweisen. Im schlimmsten Fall könnte sich sogar herausstellen, dass sie außerhalb einer experimentellen Umgebung gar nicht funktionieren oder zu Fehlinterpretationen führen.
In einem zweiten Schritt führten die Forscher eine Prävalenzanalyse auf der Grundlage der identifizierten Probleme durch, bei der sie 30 Beiträge von hochrangigen Sicherheitskonferenzen untersuchten, die zwischen 2010 und 2020 veröffentlicht wurden. „Zu unserer Besorgnis mussten wir feststellen, dass diese Fallstricke selbst in sorgfältig durchgeführter Spitzenforschung weit verbreitet sind“, sagt BIFOLD Fellow Prof. Dr. Konrad Rieck von der TU Braunschweig.

Wo moderne Cybersecurity-Ansätze ins Straucheln kommen
Auch wenn diese Ergebnisse bereits ein alarmierendes Signal waren – die möglichen Folgen waren zunächst unklar. In einem dritten Schritt haben die Forscher*innen daher anhand von vier konkreten Fallstudien mit Beispielen aus der Literatur gezeigt, wie und wo diese identifizierten Probleme zu unrealistischen Ergebnissen und Interpretationen von ML-Systemen führen.

Eine der untersuchten Fallstudien beschäftigte sich mit der Erkennung mobiler Schadsoftware, sogenannter Malware. Aufgrund der großen Anzahl neuer gefährlicher Software für mobile Geräte, haben herkömmliche Antiviren-Scanner oft Probleme, mit der Schadsoftware Schritt zu halten und bieten nur eine schlechte Erkennungsleistung. Um dieses Problem in den Griff zu bekommen, haben Forscher*innen lernbasierte Methoden vorgeschlagen und entwickelt, die sich automatisch an neue Malware-Varianten anpassen können.
„Leider wurde die Leistung der lernbasierten Systeme in vielen Fällen überschätzt. Da es keine öffentlich zugänglichen Lern-Datensätze von Unternehmen gibt, nutzen Forscher*innen meist eigene Datensätze und führen dazu verschiedene Quellen zusammen“, erklärt Dr. Daniel Arp. „Diese Zusammenführung der Lern-Datensätze aus verschiedenen Quellen führt jedoch zu einer Verzerrung der Stichprobe: Apps aus den offiziellen App Stores der Smartphonehersteller bergen tendenziell weniger Sicherheitsrisiken als Apps, die aus alternativen Quellen mit geringeren Sicherheitsstandards stammen. Im Ergebnis konnten wir zeigen, dass moderne Cybersecurity-Ansätze dazu neigen, sich bei der Erkennung von Schadsoftware auf Merkmale zu konzentrieren, die auf die Quelle der App zurückzuführen sind, anstatt reale Malware-Merkmale zu identifizieren. Dies ist nur eines von vielen Beispielen des Papers, die zeigen, wie ein kleiner Fehler bei der Zusammenstellung der Lern-Datensätze, schwerwiegende Verzerrungen im Ergebnis herbeiführt und das gesamte Experiment beeinflussen kann.“

Die Probleme bei der Anwendung von ML-Methoden in der Cybersicherheit werden durch die Notwendigkeit, in einem feindlichen Kontext zu arbeiten, noch verschärft. Mit ihrer Veröffentlichung hoffen die Forscher*innen, das Bewusstsein für potenzielle Fehlerquellen im experimentellen Design zu schärfen und diese wenn möglich zu verhindern.

Publikation:
Daniel Arp, Erwin Quiring, Feargus Pendlebury, Alexander Warnecke, Fabio Pierazzi, Christian Wressnegger, Lorenzo Cavallaro, Konrad Rieck: Dos and Don’ts of Machine Learning in Computer Security, https://www.usenix.org/system/files/sec22-arp.pdf

Weitere Informationen erteilt Ihnen gern:
Dr. Daniel Arp
Tel.: 0049 (0)30 314-78621
d.arp@tu-berlin.de

(nach oben)


Auf der Suche nach den Baumaterialien der Erde

Christine Xuan Müller Stabsstelle Presse und Kommunikation
Freie Universität Berlin
Eine Nature- und eine Science-Studie geben neue Hinweise auf die Zusammensetzung des Erdmaterials / Beteiligt ist der Geowissenschaftler Prof. Dr. Harry Becker von der Freien Universität Berlin

Zwei internationale Forscherteams, haben unabhängig voneinander mit neuen, hoch präzisen Isotopenmessungen nachgewiesen, dass die Erde zumindest teilweise aus Material besteht, welches nicht durch bekannte Meteoritenzusammensetzungen erklärbar ist. Einige Studienautoren, darunter der Geowissenschaftler Prof. Dr. Harry Becker von der Freien Universität Berlin, gehen davon aus, dass einige Bausteine des „blauen Planeten“ in anderen Zonen des frühen solaren Nebels entstanden sind als bislang angenommen. Die beiden Studien wurden in diesem Herbst in den Fachzeitschriften Nature und Science veröffentlicht.

„Die häufigste Gruppe von Meteoriten die auf die Erde fallen, die sogenannten Chondrite, repräsentieren verfestigten Staub aus dem frühen solaren Nebel“, erläutert Harry Becker. Deshalb sei lange Zeit angenommen worden, dass Chondrite das plausibelste Baumaterial der erdähnlichen Planeten darstellen. Nun aber gebe es Hinweise für eine komplexere Zusammensetzung der Baumaterialen der Erde, wie aus der neuen Untersuchung der Häufigkeiten der Isotope des Selten-Erd-Elements Neodym in repräsentativen Gesteinen der Erde im Vergleich zu Daten von Meteoriten hervorgeht. Die Häufigkeiten der Neodym-Isotope Nd-142 und Nd-143 variieren in der Natur hauptsächlich, weil sie durch den Zerfall der radioaktiven Samarium-Isotope Sm-146 beziehungsweise Sm-147 entstehen. Wegen der kurzen Halbwertszeit von Sm-146 hat Nd-142 nur in der Frühzeit der Erde zugenommen, aber sich seither nicht mehr verändert, weil alle Atome von Sm-146 zerfallen sind. Im Gegensatz dazu entsteht neues Nd-143 auch heute noch durch den langsamen Zerfall von Sm-147. Die unterschiedliche Zeitabhängigkeit des Wachstums von Nd-142 und Nd-143 ermöglicht es, die Zeitskalen chemischer Prozesse beim Wachstum der Planeten einzuordnen. Weiterhin kann man mit dieser Methode das durchschnittliche Konzentrationsverhältnis von Samarium zu Neodym in der Erde ableiten und mit den Werten in Chondriten vergleichen, wie die Autoren der Studien erläutern.

Die neuen Resultate der beiden internationalen Forschungsteams zeigten nun übereinstimmend einen kleinen, aber auflösbaren Überschuss von Nd-142 für die Erde im Vergleich zu Chondriten, der nur durch den radioaktiven Zerfall von Sm-146 und ein etwas höheres Konzentrationsverhältnis von Samarium zu Neodym in der Erde im Vergleich zu Chondriten erklärt werden könne. Die Studien der beiden Teams, die in Nature und Science erschienen sind, kommen hier zu den gleichen Ergebnissen. „Beide Studien unterscheiden sich allerdings in der Erklärung der Ursache des chemischen Unterschieds zwischen Erde und Meteoriten“, betont der Geowissenschaftler der Freien Universität Harry Becker und einer der Autoren der Studie in Nature. In der Nature-Studie argumentieren die Autoren, dass die Baumaterialien der Erde teilweise in anderen Zonen des solaren Nebels gebildet wurden als die Chondrite, was auch von einigen astrophysikalischen Modellen postuliert wird. Dabei könne es zu geringfügigen chemischen Variationen in den Häufigkeiten von Samarium und Neodym in aus Gas kondensiertem Staub kommen, da sich der Anteil bestimmter Minerale im Staub je nach Temperatur und Zusammensetzung des Gases ändert, wie Prof. Alan Brandon von der University of Houston und Mitautor der Studie erklärt.

Im Gegensatz dazu argumentieren die Autoren der Studie in Science, dass das höhere Verhältnis von Samarium zu Neodym in der Erde das Resultat des Verlusts eines Teils der Kruste von kleinen Vorläuferkörpern der Erde darstellt: Da die Erde durch die Kollision solcher kleineren Körper wuchs, sei es denkbar, dass dabei frühe Kruste dieser Vorläuferkörper abgesprengt und verloren wurde, was ebenfalls die beobachten chemischen Effekte in der Erde hervorrufen könne. Weitere Studien müssten nun zeigen, welche Interpretation wahrscheinlicher ist oder ob beide Prozesse für die besondere chemische Zusammensetzung der Erde verantwortlich sind, erklärten die Wissenschaftler.

Wissenschaftliche Ansprechpartner:
• Prof. Dr. Harry Becker, Institut für Geologische Wissenschaften, Freie Universität Berlin, E-Mail: hbecker@zedat.fu-berlin.de, Tel. +49 30 83870668
• Prof. Dr. Alan D. Brandon, University of Houston, zurzeit New Mexico State University, E-Mail: abrandon@central.uh.edu

Originalpublikation:
• Johnston, S., Brandon, A., McLeod, C., Rankenburg, K., Becker, H., Copeland, P. (2022): Nd isotope variation between the Earth-Moon system and enstatite chondrites. Nature, https://doi.org/10.1038/s41586-022-05265-0
• Frossard, P., Israel, C., Bouvier, A., Boyet, M. (2022): Earth’s composition was modified by collisional erosion. Science, 377, 1527-1532. DOI: 10.1126/science.abq735

(nach oben)


Hingehört! Der Sound des Anthropozäns

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Durch die Aktivität der Menschen verändern sich auch die Klangwelten der Erde. Darum geht es in einer neuen öffentlichen Vortragsreihe an der Universität Würzburg, die am 8. November startet.

Die Welt verändert sich dramatisch: Das Klima wandelt sich, Arten sterben, Kriege brechen aus, es gibt neue Völkerwanderungen – die Erde scheint sich in einem ständigen Katastrophenzustand zu befinden. Die Kulturwissenschaften begreifen diese Zeit als das Anthropozän – als das Zeitalter, das vom Menschen geprägt wird.

Die drastischen Umweltveränderungen beeinflussen auch die Klangwelten der Erde. Kaum eine Region bleibt von den Geräuschen menschengemachter Maschinen unberührt, Tag für Tag gehen vertraute Klänge verloren, kommen ungewohnte neue Klänge dazu.

Wie klingt das Anthropozän? Darum geht es im Forschungskolloquium „Hingehört! Der Sound des Anthropozäns“, einer Online-Vortragsreihe des Lehrstuhls für Europäische Ethnologie der Universität Würzburg und der Hochschule für Musik Nürnberg.

Relevanz des sorgsamen Zuhörens in Vielfachkrisen
Die Reihe beginnt am Dienstag, 8. November 2022, 18:15 bis 19:45 Uhr. Dr. Lisa Herrmann-Fertig (Musikhochschule Nürnberg und Institut für Musikwissenschaft der Uni Würzburg) spricht zum Auftakt über das Thema „Multispecies Ethnomusicology – zur Relevanz sorgsamen Zuhörens in Vielfachkrisen“.

Fortgesetzt wird die Reihe am 22. November 2022, 12. Dezember 2022, 31. Januar 2023 und 7. Februar 2023, jeweils zur gleichen Uhrzeit. Infos über die Themen und die Einwahl via Zoom gibt es auf dieser Webseite: https://www.phil.uni-wuerzburg.de/eevk/veranstaltungen/hingehoert/

Die Teilnahme ist für alle Interessierten kostenfrei und ohne Anmeldung möglich. Eine Fortsetzung im Sommersemester 2023 ist geplant.

Vom Singen, Brummen und Vibrieren
In der Vortragsreihe werden auch viele grundlegende Themen angesprochen: Wie und was hören wir Menschen überhaupt bewusst? Hören wir hin oder überhören wir unsere Umwelt? Was nehmen wir von den Klängen, dem Singen, Summen, Brummen, Vibrieren des uns umgebenden Lebens wahr? Wie arbeiten Kunstschaffende mit Umweltveränderungen, welchen Eingang findet das Anthropozän in die Musik?

„Gemeinsam mit Vortragenden aus der Ethnomusikologie, der Musikwissenschaft, den Human-Animal und Sound Studies, der Landscape Architecture, Klanganthropologie, Sound Art, Ecomusicology und Biologie möchten wir die Klänge unserer Zeit besser verstehen“, sagt Professorin Michaela Fenske, Leiterin des Würzburger Lehrstuhls für Europäische Ethnologie.

Mitorganisatorin Dr. Lisa Herrmann-Fertig: „Wir hören den Klang verschwindender Gletscher, lauschen den schwindenden Gesängen der Vögel und diskutieren, inwiefern wir als Zuhörende aus dem Noch- oder Nichtmehrhören neues Handeln generieren.“

(nach oben)


Wasser im Spiegel des Klimawandels und der Nachhaltigkeit: 2. Hofer Wasser-Symposium lockt zahlreiche Teilnehmer

Kirsten Hölzel Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Am 12. und 13. Oktober 2022 lud das Institut für Wasser- und Energiemanagement (iwe) der Hochschule Hof in Kooperation mit dem Kompetenznetzwerk Wasser und Energie e.V. Spezialistinnen und Spezialisten aus dem Bereich der Wasserwirtschaft zum 2. Hofer Wassersymposium.

Rund 80 Teilnehmende aus ganz Deutschland, aber auch zahlreiche Studierende der Hochschule, folgten der Einladung und diskutierten an den beiden Tagen über das Leitthema „Wasser im Spiegel des Klimawandels und der Nachhaltigkeit“ und informierten sich im Rahmen der Fachausstellung.

Am 12. und 13. Oktober 2022 lud das Institut für Wasser- und Energiemanagement (iwe) der Hochschule Hof in Kooperation mit dem Kompetenznetzwerk Wasser und Energie e.V. Spezialistinnen und Spezialisten aus dem Bereich der Wasserwirtschaft zum 2. Hofer Wassersymposium. Die Organisation der Fachtagung lag federführend bei Prof. Dr. Manuela Wimmer, Professorin und Leiterin der Forschungsgruppe Nachhaltigkeit und Projektmanagement in der Wasserwirtschaft und Anja Grabmeier, wissenschaftliche Mitarbeiterin der Forschungsgruppe sowie Stiftungsprofessor und Leiter der Forschungsgruppe Wasserinfrastruktur und Digitalisierung, Dr. Günter Müller-Czygan.

Rund 80 Teilnehmende aus ganz Deutschland, aber auch zahlreiche Studierende der Hochschule, folgten der Einladung und diskutierten an den beiden Tagen über das Leitthema „Wasser im Spiegel des Klimawandels und der Nachhaltigkeit“ und informierten sich im Rahmen der Fachausstellung.

Den Auftakt der Veranstaltung bildete am Mittwoch, 12. Oktober eine virtuelle sowie 3-D Besichtigung von Demonstrationsanlagen wie beispielsweise einem Wasserwerk.

Am Donnerstag, 13. Oktober erwartete die Teilnehmenden nach Grußworten von Prof. Dr. Dr. h.c. Jürgen Lehmann (Präsident der Hochschule Hof), Eva Döhla (Oberbürgermeisterin der Stadt Hof) und Prof. Müller-Czygan ein interaktives, vernetzendes und gleichzeitig nachhaltiges Tagungs-Konzept. Den Einstieg in den Tag bildeten zwei Impulsvorträge und eine sich anschließende Podiumsdiskussion zu den Themen „Auswirkungen des Klimawandels auf die Wasserwirtschaft – von den Herausforderungen zum Handeln“ (Referent: Benno Strehler vom Bayerischen Landesamt für Umwelt) und „Auswirkungen des Klimawandels am Beispiel des Ahr-Hochwassers – Was wurde daraus gelernt?“ (Referent Markus Becker von Berthold Becker Ingenieure). In seinem Erfahrungsbericht – Markus Becker war selbst im Sommer 2021 vom Hochwasser im Ahrtal betroffen – unterstrich Becker unter anderem, wie wichtig es sei, aus der Flutkatastrophe zu lernen und dass die Wasserwirtschaft beim Umgang mit Wetterextremen zwingend die Erfahrungen und Fehler, die im Ahrtal gemacht wurden, bei der Entwicklung von zukunftsträchtigen Lösungen berücksichtigen müsse.

Anschließend erwartete die Teilnehmerinnen und Teilnehmer ein innovatives Format: „Speed Geeking & Exhibitors“. Hierbei präsentierten fünf Ausstellende, darunter die WILO SE, in wenigen Minuten und in kompakter Form ihr Unternehmen sowie ihre Innovationen und geben einen Einblick in die gelebte Nachhaltigkeit in ihrem Unternehmen. Als Besucher konnte man so nacheinander Einblicke in alle fünf Unternehmen erhalten.

Weiter ging es mit der Methode des so genannten World Cafés, die die Teilnehmerinnen und Teilnehmer rund um das Thema Wasser ins Gespräch bringen sollte. Die Inhalte von vier Kurzvorträgen boten dabei die Grundlage für einen regen Austausch:

Vortrag 1: Erfolgreiche Umsetzung von Digitalisierungsprojekten auch mit der Sowieso-Strategie – Prof. Günter Müller-Czygan
Vortrag 2: Energieautarke weitergehende Abwasserbehandlung und -wiederverwertung beispielsweise mit photonischen Methoden – Prof. Dr.-Ing. Tobias Schnabel
Vortrag 3: Effiziente Betriebsführung in der Trinkwasserversorgung mit den Kosten im Blick – Matthias Götz, Wasserversorgung Steinwaldgruppe und Mario Hübner, WILO SE
Vortrag 4: Digitale Kanalnetzsteuerung zum Umgang mit Wetterextremereignissen – Robert Köllner, Frank Große JenaWasser und Martin Frigger, HST Sytemtechnik GmbH
Vervollständigt wurde das Programm durch Einblicke in anwendungsorientierte Projekte aus Unternehmen und der Forschung. Prof. Müller-Czygan präsentierte den Statusbericht zur Digitalisierung der Wasserwirtschaft und Franziska Zielke vom Kompetenznetzwerk Wasser Energie e.V. berichtete aus dem Projekt Schwammstadt Region über Konzepte zum Wassermanagement.

Ein vielfach diskutiertes Thema im Rahmen des Symposiums war die Frage nach einer schnellen Umsetzung von Lösungen in der Wasserwirtschaft. Einerseits führen behördlich-formale Rahmenbedingungen wie z.B. Ausschreibungsanforderungen oder Genehmigungsverfahren zu einer längeren Projektdauer. Auf der anderen Seite fällt es insbesondere den Kommunen als Anwender schwer, Beispiellösungen auf die eigene Situation zu übertragen. Hier fehlen geeignete Methoden und Hilfestellungen für einen schnellen und wirksamen Lern- und Umsetzungstransfer.

Das iwe der Hochschule Hof arbeitet unter der Leitung von Prof. Müller-Czygan sowohl an robusten und hochwirksamen Digitalisierungslösungen als auch an der Entwicklung von Methoden für den schnellen und wirksamen Lern- und Umsetzungstransfer.

Bereits Im Vorfeld der Veranstaltung hatte die Organisatorin Prof. Wimmer betont: Klimawandel ist Wasserwandel. Mit dem zunehmenden Wasserrückgang auch in Deutschland sind innovative Lösungen gefordert, die eine nachhaltige Entwicklung gewährleisten: gerade hinsichtlich ökologischer Dimensionen aber auch hinsichtlich sozialer und wirtschaftlicher Aspekte. Je rasanter die Klimaveränderungen sind desto höher ist die Herausforderung und auch der Druck auf die Wasserwirtschaft zu reagieren und bestenfalls proaktiv die Transformation voranzutreiben. Dazu sind bereits zahlreiche Produkte und Dienstleistungen insbesondere mit digitalem Hintergrund auf dem Markt, suchen nach breiter Umsetzung und werden zudem weiterentwickelt. Die Transformation wird bevorzugt in Systemlösungen mit mehreren Partnern vonstattengehen. Dabei wird der Erfolg der Projekte von der sozialen Dimension, um im Wording der Nachhaltigkeit zu sprechen, beeinflusst. Im Detail heißt dies, dass diejenigen Projekte, bei denen der Mensch als Gestaltender als auch als User besonders berücksichtigt und integriert wird, die erfolgreicheren und effizienteren sein werden. Zu beachten ist auch, dass Wasser nicht nur zentraler Bestandteil der Wasserwirtschaft ist, sondern im stetig steigenden Spannungsfeld mehrerer Branchen, wie Landwirtschaft, Industrie und der Energiewirtschaft zu bewirtschaften ist – mit einer steigenden Komplexität bei schwindenden Ressourcen. Auch weiterhin an der „sozialen Dimension“ zu feilen und gemeinsam beste Lösungen in Forschung und Anwendung zu generieren mit dem Menschen und Wasser im Mittelpunkt wird auch morgen und übermorgen zentrales Anliegen sein. Vor diesem Hintergrund setzt sich die Forschungsgruppe von Prof. Wimmer intensiv mit Themen der Nachhaltigkeit auseinander und stellt diese unter anderem in den Kontext von Fachkräftegewinnung und -bindung sowie einer ganzheitlich nachhaltigen Unternehmensaufstellung.

Abgerundet wurde das Symposium durch umfassende Informationen über den Zertifikatslehrgang Schwammstadt, die Weiterbildung DRhochN zur Gewinnung und Bindung von Fachkräften sowie das Netzwerk S3REM, an denen sich die Tagungsgäste bei Interesse beteiligen können.

Nachhaltigkeit im 2. Hofer Wasser-Symposium
Was machte das 2. Hofer Wasser-Symposium nachhaltig? Nicht nur inhaltlich wurde das Thema Nachhaltigkeit verankert, sondern auch bei der Planung und Durchführung der Veranstaltung berücksichtigt (siehe auch: https://www.hof-university.de/forschung/institut-fuer-wasser-und-energiemanageme…).

Um einen Beitrag zu einem nachhaltigen Umgang mit Ressourcen zu leisten, verzichtete das Organisationsteam größtenteils auf die Nutzung von Papier. Dies war möglich durch den Einsatz von digitalen Medien für das Informations- und Teilnehmendenmanagement und digitalen Handouts. Die soziale Dimension wurde aufgegriffen durch die Verwendung genderneutraler Sprache, um alle Geschlechter auf respektvolle Art und Weise anzusprechen und sichtbar zu machen.

Ausblick auf das 3. Hofer Wasser-Symposium
Anhand einer Umfrage können die Teilnehmenden nun Rückmeldung zum 2. Hofer Wasser-Symposium geben und die Chance nutzen Anregungen zu Themen und Schwerpunkten sowie interaktiven Elementen für zukünftige Veranstaltungen zu geben. Das Hofer Wasser-Symposium soll im zweijährigen Rhythmus stattfinden. Darüber hinaus überlegt das iwe, weitere Veranstaltungen rund um das Thema Wasserwirtschaft und Nachhaltigkeit anzubieten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Günter Müller-Czygan, Prof. Dr. Manuela Wimmer

(nach oben)


Per Anhalter auf dem Weg in die Tiefsee – Erste In-situ-Messungen von Mikroplastikflüssen

Kommunikation und Medien Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
In-situ-Probenahmen während einer Expedition und anschließende Messungen werfen neues Licht auf das Absinken von Mikroplastik von der Meeresoberfläche in die Tiefsee. Sie zeigen, dass die Partikel – wie frühere Modellierungsansätze nahelegten – Teil des Meeresschnees werden, erklärt ein internationales Forschungsteam unter Leitung des GEOMAR in einer heute erschienenen Veröffentlichung. Die Erkenntnisse ermöglichen ein besseres Verständnis der vertikalen Transportdynamik und der damit verbundenen Risiken für das Nahrungsnetz. Außerdem illustrieren sie, dass menschenverursachtes Mikroplastik den marinen Kohlenstoff im natürlichen Kreislauf überlagert.

150 Millionen Tonnen Plastik verschmutzen heute den Ozean – und weil der Kunststoff nur langsam zerfällt, nimmt die Menge weiter zu. Aktuelle Modellrechnungen zeigen, dass nur etwa ein Prozent des Plastiks an der Meeresoberfläche nachgewiesen werden kann, wo es aufgrund seines Auftriebs schwimmen sollte. Am Meeresboden findet sich etwa 10.000 Mal mehr. Doch wie genau kommt es dorthin? Ein besseres Verständnis der zugrundeliegenden Dynamik trägt dazu bei, den Ozean vor der Plastikverschmutzung und den damit verbundenen Risiken für das Leben im Meer, das Nahrungsnetz und den Stoffkreislauf zu schützen, einschließlich der Kohlenstoffpumpe, die für die Fähigkeit des Ozeans, Kohlendioxid aufzunehmen und den Klimawandel abzuschwächen, von entscheidender Bedeutung ist.

Wissenschaftler:innen aus Deutschland und den Vereinigten Staaten von Amerika haben zum ersten Mal Daten über den Plastikexport von der Meeresoberfläche in die Tiefe des Nordatlantikwirbels vorgelegt, die auf In-situ-Messungen beruhen. Damit werfen sie neues Licht auf die vertikalen Mikroplastik-Flüsse. In der Fachzeitschrift Environmental Science and Technology erläutern sie, wie die Partikel in Meeresschnee eingeschlossen werden – organisches Material, das in der Wassersäule nach unten sinkt und als Nahrung für Plankton und größere Tiere dient. Die Beobachtungen bestätigen frühere Ergebnisse von Modellierungsansätzen und tragen dazu bei, die Frage nach dem „fehlenden Plastik“ an der Meeresoberfläche zu beantworten.

„Die Probennahmen, die während einer Expedition mit dem deutschen Forschungsschiff POSEIDON vor den Azoren im Jahr 2019 durchgeführt wurden, ergänzen die auf Modellsimulationen beruhenden Abschätzungen um wichtige Details“, sagt Dr. Luisa Galgani. Die Marie Curie Global Fellow am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und dem Harbor Branch Oceanographic Institute der Florida Atlantic University (USA) ist Hauptautorin der aktuellen Veröffentlichung. „Winzige Plastikteilchen, die zwischen 0,01 und 0,1 Millimeter groß sind, verschwinden von der Meeresoberfläche, weil sie Teil des Meeresschnees werden. Größere Teile können den gleichen Weg nehmen, sinken aber aufgrund ihrer größeren Masse auch schneller.“

Mit Hilfe spezieller Sedimentfallen und verschiedener optischer und chemischer Analysen fanden Galgani und ihre Kolleg:innen die höchsten Konzentrationen von Plastikpolymeren in Tiefen zwischen 100 und 150 Metern. Eine hochempfindliche Analysemethode, die am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg entwickelt wurde, ermöglichte die Quantifizierung selbst kleinster Mengen von Mikroplastik. In den oberflächennahen Schichten wurden auch hohe Konzentrationen an organischem Material und marinen Gelen entdeckt – dem natürlichen Klebstoff, der zur Bildung größerer Aggregate beiträgt, der auch als Meeresschnee bezeichnet wird. Sie ermöglichen einen effektiven Abwärtstransport. In den sonnendurchschienenen oberen hundert Metern finden auch Plankton und andere Meereslebewesen ihre Nahrung. „Je mehr Plastikpartikel im Meeresschnee enthalten sind, desto größer ist das Risiko für Meerestiere, die sich davon ernähren“, stellt Dr. Galgani fest.

Darüber hinaus wird Mikroplastik durch seine Häufigkeit im Meerwasser zu einem neuen Bestandteil des marinen Kohlenstoffkreislaufs. In den Proben aus dem nordatlantischen Wirbel, einem Plastikmüll-Hotspot, konnten bis zu 3,8 Prozent des abwärts transportierten organischen Kohlenstoffs auf Plastik zurückgeführt werden. „Unsere Ergebnisse zeigen, dass Plastik nicht nur die Umwelt verschmutzt, sondern auch in den natürlichen Kohlenstoffkreislauf eindringt. Zukünftige Studien müssen berücksichtigen, dass ein vermutlich signifikanter, zunehmender Anteil des organischen Kohlenstoffs im Ozean nicht auf die Aufnahme von Kohlendioxid über die Photosynthese zurückzuführen ist, sondern aus Kunststoffen im menschlichen Abfall stammt“, resümiert Professorin Dr. Anja Engel, Leiterin des Forschungsbereichs Marine Biogeochemie am GEOMAR und Leiterin der Studie.

Originalpublikation:
Galgani, L., Goßmann, I, Scholz-Böttcher, B. Jiang, X., Liu, Z., Scheidemann, L., Schlundt C. and Engel, A. (2022): Hitchhiking into the Deep: How Microplastic Particles are Exported through the Biological Carbon Pump in the North Atlantic Ocean. Environmental Science and Technology, doi: https://doi.org/10.1021/acs.est.2c04712

Weitere Informationen:
http://www.geomar.de/n8644 Meldung mit Bildmaterial zum Download auf der Website des GEOMAR
https://www.icbm.de Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg
https://utmsi.utexas.edu Marine Science Institute, University of Texas at Austin

(nach oben)


Treibhausgasen auf der Spur

Susanne Héjja Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
ITMS erfasst, wo in Deutschland Treibhausgase freigesetzt und aufgenommen werden.

Die Quellen und Senken von Treibhausgasen in Deutschland sollen zukünftig besser erfasst und überwacht werden. Das ist das Ziel des Integrierten Treibhausgas-Monitoringsystems (ITMS) für Deutschland, das offiziell mit einem dreitägigen Meeting vom 18. bis 20. Oktober 2022 am Max-Planck-Institut für Biogeochemie (MPI-BGC) in Jena gestartet wurde. Das ITMS wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und soll der Bundesregierung und der Öffentlichkeit gesicherte Informationen zu Stand und Entwicklung der Treibhausgasflüsse zur Verfügung stellen.

Neu daran ist, dass die Quellen (Freisetzung) und Senken (Aufnahme) von Treibhausgasen, nun auf Beobachtungen basierend, unabhängig ermittelt werden können: Auf der Grundlage der gemessenen Konzentrationen in der Atmosphäre und mittels aktueller Modellierung der Quellen- und Senkenprozesse sowie des meteorologischen Transports werden neue Berechnungen mit einer hohen Zuverlässigkeit ermöglicht. Gerade vertrauenswürdige Daten sind für eine faktenbasierte Politik zur Eindämmung des Klimawandels, für die Steuerung des Handels mit CO2-Zertifikaten und den Weg zu einer klimaneutralen Wirtschaft (NetZero) von besonderer Relevanz.

Zum Kick-Off Meeting vom 18. bis 20. Oktober 2022 am MPI-BGC trafen sich die beteiligten Forschungspartner mit einem erweiterten Kreis interessierter Forschungsgruppen, um die konkreten Pläne für die erste vierjährige Projektphase abzustimmen.

Dazu erklärt Bundesforschungsministerin Bettina Stark-Watzinger: „Die Bewältigung des Klimawandels ist eine Menschheitsaufgabe, die uns nur mit Forschung und Innovationen gelingen wird. Mit dem Integrierten Treibhausgas-Monitoringsystem für Deutschland können erstmals Treibhausgasquellen und -senken direkt überwacht werden. Dadurch erhalten wir ein genaueres Lagebild für einen besseren Klimaschutz und können Klimaschutzmaßnahmen auf ihre Wirksamkeit hin überprüfen.“

Inverse Modellierung findet Quellen und Senken
Quellen und Senken von Treibhausgasen sowie deren Herkunft an der Oberfläche unserer Erde können mit Hilfe der „inversen Modellierung“ ermittelt werden. Dieses Verfahren nutzt echte Beobachtungsdaten von atmosphärischen Treibhausgaskonzentrationen und unter Zuhilfenahme eines Modells lässt sich auf die räumliche Verteilung sowie die Stärke der Quellen und Senken rückschließen. „Die erste Projektphase wird es ermöglichen, existierende Beobachtungsdaten der atmosphärischen Treibhausgase vom Boden, aus der Luft sowie aus dem Weltraum mit der operationellen Wettervorhersage zusammenzubringen. In weiteren Projektphasen werden Änderungen der Treibhausgasemissionen verschiedener Sektoren, wie z.B. der Energieerzeugung, der Landwirtschaft oder dem Verkehr in Zeiträumen von Monaten bis mehrere Jahre und Jahrzehnte bestimmt werden“, so Dr. Christoph Gerbig vom MPI für Biogeochemie. Die von ihm geleitete Forschungsgruppe wird zusammen mit dem Referat Emissionsverifikation Treibhausgase des Deutschen Wetterdienstes (DWD) die inverse Treibhausgas-Modellierung für Deutschland entwickeln. „Beim DWD werden wir die inverse Modellierung in den operationellen Betrieb überführen und so die Politikberatung zum Treibhausgas-Monitoring verstetigen“, sagt Tobias Fuchs, DWD Vorstand Klima und Umwelt.

Nordstream-Leckagen zeigen die Bedeutung echter Messungen
Wie wichtig reale Messungen sind, zeigen jüngst die Lecks von Nordstream 1 und 2, aus denen große Mengen von Methan (CH4) in die Atmosphäre gelangten. Treibhausgase sind nicht sichtbar, werden aber unter anderem von Messtationen des Integrated Carbon Observation System (ICOS) am Boden und von Satelliten aus erfasst. „Mithilfe des auf unserem Wettervorhersagesystem ICON aufbauenden atmosphärischen Transportmodells ICON-ART konnten wir den Weg der Abluftfahne über Nordeuropa unmittelbar nachverfolgen“, so Tobias Fuchs weiter.

Satellitendaten sind ein bedeutender Baustein
Zu den wichtigsten Fortschritten des ITMS gehört die Verbesserung des Datenflusses von den verschiedenen Beobachtungssystemen, die Messungen am Boden, von Flugzeugen und von Satelliten umfassen. Hierbei werden insbesondere die neuen Satellitendaten wichtige Beiträge leisten. „Hochaufgelöste Satellitenmessungen der atmosphärischen Konzentration erlauben es, die Emissionsstärke von lokalen CO2- und CH4- Quellen vom Weltall aus zu quantifizieren, dies haben wir mit Flugzeugmessungen demonstriert“, erläutert Dr. Heinrich Bovensmann von der Universität Bremen. Für die neuen Satellitensysteme wie z.B. Copernicus CO2M und MERLIN konnte dies anhand von flugzeug-gestützten Messungen demonstriert werden.

Den Ursprung zu kennen, ist die Voraussetzung für erfolgreiche Maßnahmen
Aber auch das Wissen über einzelne Emissionsprozesse wird im ITMS weiterentwickelt und für das Modellsystem verfügbar gemacht:
„Es ist unabdingbar, die Quellen von Treibhausgasemissionen räumlich und zeitlich im Detail besser aufzulösen“, so Dr. Ralf Kiese vom Karlsruher Institut für Technologie (KIT). Um Quellen, und Senken biologischen Ursprungs zu berechnen, verwendet sein Team prozessbasierte Simulationsmodelle. In Zusammenspiel mit Schätzungen zu Emissionen aus Verkehr und Industrie wird es zukünftig möglich sein, zwischen Emissionen aus fossilen Quellen, der Land- und Forstwirtschaft sowie natürlichen Quellen wie Feuchtgebieten zu unterscheiden. „Damit können mit ITMS konkrete Maßnahmen zur Senkung lokaler Emissionen bewertet werden.“

Im Rahmen des ITMS fördert das BMBF Forschungsprojekte zu Kernkomponenten in den Bereichen Atmosphärische Modellierung, Beobachtungsdaten sowie Quellen und Senken. Auf diese Kernprojekte werden weitere Beiträge zum ITMS aufbauen. Zu den federführenden Partnern gehören das Max-Planck-Institut für Biogeochemie, der Deutsche Wetterdienst (DWD), das Institut für Umweltphysik der Universität Bremen, das Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU) des Karlsruher Instituts für Technologie (KIT) sowie das Institut für Physik der Atmosphäre des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Des Weiteren sind auch das Umweltbundesamt sowie das Thünen-Institut für Agrarklimaschutz beteiligt, die beide eine zentrale Rolle in der nationalen Berichterstattung spielen.

Wissenschaftliche Ansprechpartner:
Dr. habil. Christoph Gerbig (MPI für Biogeochemie) cgerbig@bgc-jena.mpg.de
Dr. Andrea Kaiser-Weiss (Deutscher Wetterdienst) Andrea.Kaiser-Weiss@dwd.de
Dr. Heinrich Bovensmann (Universität Bremen, Institut für Umweltphysik) heinrich.bovensmann@uni-bremen.de
PD Dr. Ralf Kiese (Karlsruhe Institut für Technologie, IMK-IFU) ralf.kiese@kit.edu
Dr. Andreas Fix (Deutsches Zentrum für Luft- und Raumfahrt (DLR)) Andreas.Fix@dlr.de

Anhang
CO2-Abluftfahne des Braunkohlekraftwerks Jänschwalde vom Flugzeug aus aufgenommen im Sommer 2021 mit dem neuen bildgebenden Treibhausgassensor MAMAP2D Light

(nach oben)


Nachhaltiger Konsum: Bevölkerung sieht Politik und Wirtschaft in der Pflicht

Ida Seljeskog Presse- und Öffentlichkeitsarbeit
Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit, DEval
Das Deutsche Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) untersucht in regelmäßigen Abständen das entwicklungspolitische Engagement der Bevölkerung in Deutschland. In seinem neuesten Bericht der Reihe „Meinungsmonitor Entwicklungspolitik“ hat es dabei erstmals auch die Einstellung der Bürger*innen zu nachhaltigem Konsum evaluiert. Die Ergebnisse zeigen, dass das Bewusstsein für nachhaltigen Konsum in der Bevölkerung weitverbreitet ist. Gleichzeitig sieht eine Mehrheit aber nur geringe Chancen, durch das individuelle Konsumverhalten etwas bewirken zu können. Stattdessen fordert ein Großteil der Befragten, Unternehmen und Politik stärker in die Pflicht zu nehmen.

Bewusstsein für nachhaltigen Konsum in der Bevölkerung vorhanden
Nachhaltiger Konsum ist in der Eigenwahrnehmung der Bürger*innen weitverbreitet: 58 Prozent der Befragten geben an, in ihrem Konsumverhalten beispielsweise bei Nahrungsmitteln, Kleidung und Finanzen auf Nachhaltigkeit zu achten. Mehr als zwei Drittel bekunden zudem, nachhaltiger konsumieren zu wollen.

Zweifel an der eigenen Selbstwirksamkeit
Die Bevölkerung ist mehrheitlich davon überzeugt, dass nachhaltiger Konsum dazu beitragen kann, entwicklungspolitische Herausforderungen zu bewältigen. Allerdings ist ein Großteil skeptisch, dass das individuelle Konsumverhalten dabei einen großen Einfluss hat. Ein Grund für Zweifel an der eigenen Selbstwirksamkeit ist, dass nachhaltiger Konsum und seine möglichen Auswirkungen oft als komplex und intransparent wahrgenommenen werden. Hinzu kommt, dass viele Bürger*innen eine gewisse Ohnmacht gegenüber globalen Unternehmen und deren Einfluss auf Produktion und Konsum empfinden.

Die Bevölkerung sieht Verantwortung bei Unternehmen und Politik
In der Studie wird gezeigt, dass die Bevölkerung stattdessen viele Einflussmöglichkeiten bei Wirtschaft und Politik sieht, nachhaltigen Konsum zu fördern. Gleichzeitig wird diesen Akteuren wenig Vertrauen entgegengebracht, dies auch tatsächlich zu tun. Knapp drei Viertel der Befragten fordern, dass Unternehmen mehr in die Pflicht genommen werden – besonders in Bezug auf die Zahlung existenzsichernder Löhne und die Verantwortung für menschenrechtliche Verletzungen entlang der Lieferkette. In diesem Zusammenhang arbeitet das DEval aktuell an einer Evaluierung zur Förderung nachhaltiger Lieferketten im Textilsektor durch die deutsche Entwicklungszusammenarbeit. Diese soll 2023 veröffentlicht werden.

Datengrundlage
Als Datenquelle dient eine vom Meinungsforschungsinstitut Respondi 2021 für das DEval durchgeführte bevölkerungsrepräsentative Erhebung. Zusätzlich wird auf Fokusgruppendiskussionen zurückgegriffen, die mit Unterstützung eines Dienstleisters durchgeführt wurden. Der vollständige Bericht „Meinungsmonitor Entwicklungspolitik 2022. Entwicklungspolitisches Engagement in Zeiten globaler Krisen und Herausforderungen“ ist auf der Website des DEval abrufbar.

Über das DEval
Das Deutsche Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) ist vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) mandatiert, Maßnahmen der deutschen Entwicklungszusammenarbeit unabhängig und nachvollziehbar zu analysieren und zu bewerten. Mit seinen strategischen und wissenschaftlich fundierten Evaluierungen trägt das Institut dazu bei, die Entscheidungsgrundlage für eine wirksame Gestaltung des Politikfeldes zu verbessern und Ergebnisse der Entwicklungszusammenarbeit transparenter zu machen. Das Institut gehört zu den Ressortforschungseinrichtungen des Bundes und wird von Prof. Dr. Jörg Faust geleitet.

Wissenschaftliche Ansprechpartner:
Wissenschaftlicher Kontakt:
Dr. Martin Bruder
Abteilungsleitung Zivilgesellschaft, Menschenrechte
Tel: +49 (0)228 336907-970
E-Mail: martin.bruder@DEval.org

Originalpublikation:
https://www.deval.org/de/publikationen/meinungsmonitor-entwicklungspolitik-2022-…

(nach oben)


Energiesysteme der Zukunft – Rund 20 Millionen für vier Forschungsprojekte

Vanessa Marquardt Presse- und Öffentlichkeitsarbeit
Carl-Zeiss-Stiftung
Wie sehen die Energiesysteme der Zukunft aus? Welche technischen Grundlagen benötigen wir und wie kann der anstehende Transformationsprozess so gestaltet werden, dass wir alle gesellschaftlichen Akteure mitnehmen? Antworten auf diese und ähnliche Fragen sollen vier Forschungsprojekte liefern, die die Carl-Zeiss-Stiftung im Rahmen des Programms CZS Durchbrüche fördert. Pro Projekt werden bis zu fünf Millionen Euro zur Verfügung gestellt.

Erneuerbare Energien stellen neue Anforderungen an die Netzinfrastruktur. Zudem steht bei Wind-, Wasserkraft und Solaranlagen Energie nicht immer in gleicher Menge zur Verfügung, sondern unterliegt gewissen Schwankungen. Neben einer effektiven Nutzung der Ressourcen verlangen die Energiesysteme der Zukunft damit auch flexiblere Prozesse.

„Die Energiewende erfordert einen umfassenden Transformationsprozess, den Wissenschaft, Wirtschaft und Gesellschaft gemeinsam gestalten müssen“, sagt Dr. Felix Streiter, Geschäftsführer der Carl-Zeiss-Stiftung. „Daher ist es wichtig, sowohl die technische Seite des Prozesses zu betrachten als auch alle relevanten Akteure in den Prozess einzubinden. Einen solchen breiten Ansatz verfolgen unsere Förderprojekte.“

Ausgeschrieben wurde das Programm CZS Durchbrüche – Energiesysteme der Zukunft mit dem Ziel, anwendungsorientierte Grundlagenforschung zur Energiewende zu fördern. Vier Projekte wurden nun von einer Expertenkommission ausgewählt. Sie erhalten in den kommenden sechs Jahren jeweils bis zu fünf Millionen Euro.

Die Verteilung elektrischer Energie ist eine der zentralen Herausforderungen bei der Energiewende. Um eine höhere Auslastung der Netzinfrastruktur zu erzielen, wird an der Technischen Universität Ilmenau eine Netzumstellung von Wechsel- auf Gleichstrom erforscht. Der Einsatz von Gleichstrom in Verteilnetzen könnte eine wesentlich höhere Auslastung der Netzinfrastruktur erreichen und so den Ressourceneinsatz für den Netzausbau verringern.

An der Technischen Universität Kaiserslautern wird neben gleichstrombasierten Versorgungsnetzen die Flexibilisierung von sogenannten Batchprozessen erforscht, um dem schwankenden Stromangebot durch erneuerbare Energien zu begegnen. Bei den in Mittelstand und Großunternehmen weit verbreiteten Batchprozessen handelt es sich um geschlossene Prozessketten, die automatisiert nacheinander ablaufen. Dabei werden verschiedene Aggregate (Rührer, Pumpen, elektrische Heizungen, usw.) an- und abgefahren, um die unterschiedlichen Schritte durchzuführen. Im Gegensatz zu kontinuierlichen Prozessen sind sie in Bezug auf eine Flexibilisierung noch weitgehend unerforscht.

Wie mit Hilfe von Augmented und Virtual Reality Entscheidungsträger direkt in den Prozess der Energiewende eingebunden werden, untersucht ein Forschungsteam der Universität Stuttgart. Dafür setzt es digitale Zwillinge ein, die urbane Bestandsquartiere energetisch abbilden sollen. Darauf aufbauend können geplante Veränderungen wie z. B. die Installation von Solaranlagen, energetische Gebäudesanierung oder auch Schallemissionen erlebbar gemacht und ihre Rückwirkungen auf die gesamte Infrastruktur bewertet werden.

Organische Halogenverbindungen wie beispielsweise Teflon oder PVC verfügen über einzigartige Eigenschaften, werden nach dem Gebrauch bislang aber verbrannt. An der Johannes Gutenberg-Universität Mainz wird erforscht, wie die Halogene im Sinne einer Kreislaufwirtschaft wieder nutzbar gemacht werden können. Elektrochemisch sollen die Halogene als negativ geladene Ionen (Anionen) oder halogenorganische Bausteine freigesetzt und dabei das Kohlenstoffgrundgerüst erhalten werden, das als Rohstoffquelle für andere chemische Prozesse dienen kann. Der Prozess soll dabei so flexibel gestaltet werden, dass Stromüberschüsse genutzt werden können.

Weitere Informationen:
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/ve…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/sm…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/sr…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/ha…

(nach oben)


Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?

Anja Schuster Kommunikation
Hochschule für Technik und Wirtschaft Berlin
Die HTW Berlin lädt am 5. November zur öffentlichen Debatte
Bei der Veranstaltung im Rahmen der Berlin Science Week 2022 kommen Fachleute und Öffentlichkeit miteinander ins Gespräch – die Teilnahme ist kostenlos.

Wie kann Deutschland seine Energieversorgung erstens unabhängig und zweitens klimaneutral gestalten? Nach einer Antwort auf diese Frage suchen vier Expert*innen im Rahmen der diesjährigen Berlin Science Week. Zur öffentlichen Debatte eingeladen hat die Hochschule für Technik und Wirtschaft Berlin (HTW Berlin). Die Veranstaltung mit dem Titel „Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?“ findet am Samstag, 5. November 2022, statt. Die Teilnahme ist kostenlos und sowohl in Präsenz im Museum für Naturkunde möglich als auch virtuell. Die Plätze vor Ort sind begrenzt, eine vorherige Anmeldung ist nötig.

Diskutieren werden mit Prof. Dr. Barbara Praetorius und Prof. Dr. Volker Quaschning zwei in Energiefragen profilierte HTW-Wissenschaftler*innen. Die Ökonomin Barbara Praetorius war eine der vier Vorsitzenden der von der Bundesregierung einberufenen Kommission Wachstum, Strukturwandel und Beschäftigung, der sogenannten „Kohlekommission“. Volker Quaschning ist Experte für Regenerative Energien und Mitbegründer der „Scientists for Future“. Die Position der Industrie vertritt Dr. Holger Lösch, seit 2017 Stellvertretender Hauptgeschäftsführer des Bundesverbands der Deutschen Industrie e.V. (BDI). Die Perspektive des Deutschen Gewerkschaftsbunds (DGB) bringt Katja Karger ein, Vorsitzende des DGB Berlin-Brandenburg.

Im Anschluss an die Podiumsdiskussion besteht die Möglichkeit, mit den Expert*innen sowohl vor Ort als auch virtuell ins Gespräch zu kommen. Die Moderation liegt bei der Journalistin Vivian Upmann. Die Veranstaltung ist Teil der Berlin Science Week, zu der sich seit 2016 Vertreter*innen aus Wissenschaft und Gesellschaft in Berlin treffen.

Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?
5. November 2022, 15:30-17:00 Uhr
Berlin Science Week Campus, New Normal Hall, 1. Obergeschoss
c/o Museum für Naturkunde Berlin, Invalidenstraße 43, 10115 Berlin

Wissenschaftliche Ansprechpartner:
Prof. Dr. Barbara Praetorius
Prof. Dr. Volker Quaschning

Weitere Informationen:
https://events.htw-berlin.de/forschung/symposium/

(nach oben)


Stress beeinträchtigt das episodische Gedächtnis

Sophie Ehrenberg Wissenschaftsorganisation & Öffentlichkeitsarbeit
Leibniz-Institut für Neurobiologie
Stress beeinträchtigt die Struktur und Funktion des Gehirns, was zu kognitiven Defiziten und einem erhöhten Risiko für psychiatrische Störungen wie Depression, Schizophrenie, Angstzuständen und posttraumatischen Belastungsstörungen führen kann. Dr. Alessio Attardo hat mit seinem Team vom Max-Planck-Institut für Psychiatrie in München und vom Leibniz-Institut für Neurobiologie (LIN) Magdeburg nun einen Mechanismus entdeckt: wiederholter Stress destabilisiert die Synapsen in der für das episodische Gedächtnis wichtigen Hippocampus-Region CA1, sodass die Neuronen zunächst hyperaktiv sind, anschließend Nervenverbindungen verschwinden und sich somit die Kodierung verändert.

Der erste Kuss, der Schulabschluss, ein Autounfall: Im episodischen Gedächtnis werden sowohl positive als auch negative Erfahrungen unseres Lebens abgespeichert. Es umfasst aber nicht nur die Erinnerungen an unsere persönlichen Lebensstationen, sondern auch an markante Ereignisse des öffentlichen Lebens, die uns geprägt haben, wie zum Beispiel den Fall der Mauer. Mit Hilfe des episodischen Gedächtnisses können wir komplexe Alltagserfahrungen in einen zeitlichen und räumlichen Zusammenhang stellen.

Durch Stress wird diese Form des Erinnerns jedoch erheblich verändert. Alessio Attardo suchte mit seinem Forscherteam den neuronalen Mechanismus: „In unserer Studie haben wir den Zusammenhang zwischen Veränderungen in den Aktivitätsmustern und der strukturellen Plastizität der Neuronen untersucht. Wir konnten mit unseren Experimenten zeigen: Wiederholter Stress erhöht bei den untersuchten Mäusen zunächst die neuronale Aktivität, doch anschließend geht die räumlich-zeitliche Struktur der Aktivitätsmuster verloren und die Enkodierung der Erinnerung im Hippocampus leidet.“

Für das Experiment trainierten die Wissenschaftler und Wissenschaftlerinnen Mäuse, die Position einer versteckten Plattform in einem kleinen Schwimmbecken zu erlernen. Mit Hilfe von Miniaturmikroskopen und der Zwei-Photonen-Bildgebung konnten sie Veränderungen in den Aktivitätsmustern von Tausenden von Neuronen erkennen, während sich die Mäuse frei bewegten. Die veränderte Aktivität ging mit einer Abnahme von erregenden Synapsen einher, weil vorhandene Synapsen durch den Stresseinfluss destabilisiert wurden und die Neubildung von synaptischen Kontakten drastisch abnahm.

Attardo erläutert: „Interessanterweise wurde der Verlust von Verbindungen in den Neuronen des Hippocampus erst nach mehreren Tagen Hyperaktivität deutlich, und die Desorganisation der Kodierung im Hippocampus zeigte sich erst nach einem erheblichen Kontaktverlust. Akuter Stress hingegen führte eher zu einer Stabilisierung der erregenden Synapsen, die in zeitlicher Nähe zum Stressereignis entstanden.“ Dies deutet darauf hin, dass Stress nicht gleich Stress ist, und dass die nach akutem Stress stabilisierten Synapsen möglicherweise an der Speicherung der negativen Stress-Wirkung beteiligt sind, nicht aber an der eigentlichen Lernaufgabe.

Die zellulären Mechanismen und Netzwerkveränderungen, durch die wiederholter oder lang anhaltender Stress bzw. Akutstress seine schädlichen Auswirkungen entfaltet, sind noch nicht vollständig geklärt. „Unsere Studie wirft ein Licht auf dieses Problem, indem sie zum ersten Mal zeigt, dass der Verlust neuronaler Konnektivität den Übergang zwischen früher neuronaler Hyperaktivität und späterer Beeinträchtigung der Hippocampusfunktion bei wiederholter Stressbelastung vermittelt“, so Attardo. Die Ergebnisse könnten das Potenzial haben, neue Therapien zur Linderung der negativen Auswirkungen von wiederholtem Stress zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Dr. Alessio Attardo, alessio.attardo@lin-magdeburg.de

Originalpublikation:
https://www.nature.com/articles/s41398-022-02107-5

(nach oben)


Als Unterstützung für Unternehmen: TH Lübeck Forscher entwickeln Energiesparkoffer

Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Viele kleine und mittlere Unternehmen stehen gerade vor großen Herausforderungen Energiesparpotentiale zu erfassen und Sparmaßnahmen umzusetzen. Damit sie gezielt vorgehen können und die verschiedenen Möglichkeiten ausprobieren können, haben Forscher des Kompetenzzentrums CoSA der TH Lübeck einen Energiesparkoffer entwickelt. Dieser besteht aus diversen Sensoren, die Verbrauche und damit Einsparpotentiale aufdecken.

Ob Friseursalon, Handwerksbetrieb oder Hotel – viele kleine und mittlere Unternehmen suchen derzeit nach Lösungen wie sie effektiv Energie einsparen können. Die TH Lübeck Forscher Prof. Horst Hellbrück und Marco Cimdins des Kompetenzzentrums CoSA entwickelten mit einem Energiesparkoffer eine praktische Lösung für Unternehmen. Erst kürzlich präsentierte Cimdins den Koffer beim Mittelstand-Digital Kongress im Umweltforum in Berlin.

„Wir zeigen mit einfachen Mitteln, wie die Unternehmen mit simplen technischen Anwendungen ihren Energieverbrauch ermitteln können – egal ob es um Stromverbräuche, das Raumklima oder den Zustand eines E-Parkplatzes geht“, sagt der wissenschaftliche Mitarbeiter Marco Cimdins. Im Rahmen des Mittelstand-Digital Zentrum Schleswig-Holstein stellte er einen Energieeffizienz-Koffer zusammen, der verschiedene Sensoren bündelt.

Prof. Horst Hellbrück erläutert den Prozess: „Im ersten Schritt geht es darum, den Energieverbrauch transparent zu machen und so Einsparpotenziale zu identifizieren. Grundlage sind Daten, die über Sensoren erfasst werden. Diese Daten können visualisiert werden, sie können dafür sorgen, dass automatische Benachrichtigungen geschickt werden oder sie können in andere Systeme integriert werden.“

Konkrete Beispiele für Sensoren im Energieeffizienz-Koffer sind:
• Raumklimasensor: der Temperatur, Luftfeuchtigkeit, Licht, Bewegung und auch CO2 misst. Mit diesen Sensoren kann nicht nur für ein optimales Raumklima gesorgt werden, sondern auch die Betriebskosten optimiert werden. Ob Friseur, Museum, Handwerk, Gastronom oder Maschinenbauer, diese Sensoren sind überall einsetzbar.
• Smarte Fenster- und Türsensoren: ermöglichen jederzeit einen Überblick, ob Türen und Fenster geschlossen oder offen sind und bieten so Potenzial, Energie zu sparen.
• KLAX: zum Nachrüsten von digitalen Stromzählern ermöglicht die Überwachung der internen Energieverbräuche in kurzen Intervallen. Diese können nach einzelnen Messstellen aufgeschlüsselt und visualisiert werden.
• Stromzangen: ermöglichen die Energiedatenerfassung und bieten durch die Auswertung Möglichkeiten zur Steigerung der Ressourceneffizienz.
• Smarte Steckdosen: messen nicht nur den Strombedarf, sondern können nach einem Zeitplan an- oder komplett abgeschaltet werden

Der Koffer entstand im Rahmen des Mittelstand-Digital Zentrums Schleswig-Holstein. Bei Interesse am Energieeffizienzkoffer ist eine Kontaktaufnahme mit Marco Cimdins und Prof. Horst Hellbrück möglich.

Wissenschaftliche Ansprechpartner:
Marco Cimdins, M.Sc.
Telefon: +49 451 300 5631
E-Mail: marco.cimdins@th-luebeck.de

(nach oben)


Wie sich familiäre Entscheidungen auf die Wirtschaft auswirken – und umgekehrt

Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Singles, Paare, alleinerziehende Elternteile, Familien mit einem Kind oder mit mehreren – private Haushalte können sehr unterschiedlich aussehen. Eine neue Forschungsgruppe an der Goethe-Universität will herausfinden, wie das individuelle Verhalten von Haushalten einerseits und die gesamtwirtschaftliche Situation und die Familienpolitik andererseits einander beeinflussen.

Wie Einkommen, Konsum und Vermögen in einer Volkswirtschaft verteilt sind, hat viel mit den Entscheidungen zu tun, die in den einzelnen Haushalten getroffen werden. Die Forschungsgruppe „Makroökonomische Implikationen von Intra-Haushalt-Entscheidungen“ will die Verhaltensweisen einzelner Haushaltsmitglieder im Hinblick auf Konsum-, Beschäftigungs- und Investitionsmöglichkeiten stärker in den Blick nehmen und deren Wechselwirkung erforschen. Die Deutsche Forschungsgemeinschaft (DFG) wird die Forschungen für zunächst vier Jahre mit 2,44 Millionen Euro finanzieren. Sprecher der Gruppe ist Prof. Alexander Ludwig, der an der Goethe-Universität die Professur für Public Finance and Macroeconomic Dynamics innehat. Die Forschungsgruppe besteht ausschließlich aus Frankfurter Ökonomen: Georg Dürnecker, Professor für Internationalen Handel, Entwicklung und Wachstum, die Leibniz-Preisträgerin Nicola Fuchs-Schündeln, Professorin für Makroökonomie und Entwicklung, Leo Kaas, Professor für Volkswirtschaftslehre, insbesondere Makroökonomik und Arbeitsmärkte sowie die Nachwuchswissenschaftlerinnen Chiara Lacava und Dr. Zainab Iftikhar, die ebenfalls auf arbeitsmarkt- und familienökonomische Fragestellungen spezialisiert sind.

„Traditionelle makroökonomische Modelle berücksichtigen die Dynamik in privaten Haushalten nicht. Jeder Haushalt wird durch ein einziges Mitglied repräsentiert. Mit Hilfe komplexer Wirtschaftsmodelle können wir nun Interaktionen zwischen den Haushaltsmitgliedern in makroökonomische Modelle einführen“, erklärt Prof. Ludwig, der Sprecher der Gruppe. Auf diese Weise werde man dazu beitragen, die mikroökonomischen Grundlagen der Makroökonomie noch besser zu verstehen. Das Thema Ungleichheit soll nicht nur zwischen Haushalten untersucht werden, sondern auch innerhalb von Haushalten – z.B. der ungleichen Einkommensverteilung zwischen Mann und Frau.

Die Forschungen sind in acht Projekte gegliedert, die unterschiedliche Themen bearbeiten werden. Eines der Projekte widmet sich der Frage, inwiefern die Möglichkeit, Eizellen einzufrieren und damit die Realisierung des Kinderwunsches zu vertagen, die Arbeitsbiographien von Frauen beeinflussen kann. Manche Firmen bieten bei diesem Jahr eine Kostenübernahme an, um so die Arbeitskraft im Betrieb halten zu können. Doch welche Auswirkungen hat dies auf die Frauen? Und auf die gesamte Volkswirtschaft? Weitere Themen sind etwa die Auswirkungen innerfamiliärer Arbeitsteilung auf die Einkommenssituation von Individuen oder die Wohnentscheidungen von Familien in Abhängigkeit von wohnungspolitischen Maßnahmen.

Die Forschenden erhoffen sich von ihrer Arbeit eine grundlegende Bereicherung der Kenntnisse darüber, wie ökonomische Maßnahmen wirken, die etwa durch Steuer- und Transferzahlungen Arbeitsangebots-, Spar-, Fertilitäts- und Wohnnachfrageentscheidungen beeinflussen. Diese Maßnahmen sollen sowohl hinsichtlich ihrer gesamtwirtschaftlichen Effizienz- als auch ihrer Verteilungswirkungen untersucht werden. Um diese Zusammenhänge zu verdeutlichen, untersuchen sie etwa, inwieweit eine Spezialisierung eines Partners in einer Familie auf dem Arbeitsmarkt, verursacht etwa durch die Geburt eines Kindes oder durch steuerpolitische Maßnahmen wie Ehegattensplittingtarife, zu stärkerer Ungleichheit zwischen Männern und Frauen führt und inwieweit dies die gesamtökonomische Effizienz verringert – z.B. durch eine verringerte Erwerbspartizipation von Frauen – oder etwa erhöht – da eine stärkere Spezialisierung die Arbeitsproduktivität des Main Breadwinners im Haushalt steigert.

Bild zum Download: https://www.uni-frankfurt.de/126914376

Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Ludwig
Chair of Public Finance and Macroeconomic Dynamics
Department Economic Policy & Quantitative Methods, Faculty of Economics and Business
Goethe-Universität
Telefon +49 (0)69 798-30036
E-Mail mail@alexander-ludwig.com

Weitere Informationen:
http://alexander-ludwig.com

(nach oben)


Intelligente Algorithmen für die Energiewende

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Mit einem Münchner Startup entwickeln HM-Professor Christoph Hackl und sein Team intelligente Algorithmen, die dafür sorgen, dass sich der Strom aus Wellenkraftwerken effizient und zuverlässig ins Stromnetz einspeisen lässt.

Früher passionierter Windsurfer, forscht HM-Professor Christoph Hackl heute an der Fakultät für Elektrotechnik und Informationstechnik zur Stromerzeugung aus Wellenkraft. Mit dem Münchner Start up SINN Power GmbH entwickeln Hackl und der wissenschaftliche Mitarbeiter Simon Krüner Steuerungssysteme für die Leistungselektronik für eine nachhaltige Stromgewinnung.

Stromproduktion auf dem Meer
Im Prinzip ist die Stromgewinnung auf See einfach: Das geplante Wellen-Kraftwerk besteht aus mehreren Reihen senkrechter Stangen, die miteinander verbunden und am Meeresgrund verankert sind. An jeder Stange befindet sich ein Schwimmköper, der von den Wellen auf- und ab bewegt wird. Dadurch werden Rollen angetrieben, die zwischen Schwimmkörper und Stange befestigt sind. Jede Rolle ist mit einem Generator verbunden, der die Bewegung in elektrische Energie verwandelt. Beim Auf und Ab der Rollen ändert sich die Drehrichtung. Deshalb produzieren die Generatoren Drehstrom, dessen Frequenz sich, abhängig von der Länge der Meereswellen, ständig verändert.

Ins Netz lässt sich dieser Strom nicht ohne weiteres einspeisen – dafür benötigt man Drehstrom mit einer konstanten Frequenz von 50 Hertz, das entspricht 50 Schwingungen pro Sekunde. Der im Wellenkraftwerk erzeugte Strom muss daher erst einmal umgewandelt werden. „Rein technisch ist das kein Problem: Man benötigt einen Umrichter, der aus dem primären Drehstrom Gleichstrom macht, sowie einen zweiten Umrichter, der zusammen mit einem Netzfilter 50 Hertz-Drehstrom erzeugt.

Herausforderung Effizienz und Zuverlässigkeit
„Die Herausforderung liegt darin, bei dieser Umwandlung eine möglichst hohe Effizienz und Zuverlässigkeit in allen Betriebsbereichen zu erreichen“, erklärt Hackl. Für den Prototypen der neuen Wellenkraftanlage hat er solche Algorithmen entwickelt, die unter anderem den Wirkungsgrad erheblich verbessern. Die Ergebnisse wurden unlängst unter dem Titel „Experimental Identification of the Optimal Current Vectors for a Permanent-Magnet Synchronous Machine in Wave Energy Converters“ veröffentlicht.

Hackls Algorithmen setzen da an, wo normalerweise Energie verloren geht: bei den verschiedenen Umwandlungsschritten – erst von Drehstrom in Gleichstrom und dann von Gleichstrom in netzkompatiblen Drehstrom. Jede dieser Umwandlungen verringert die Energieausbeute. Hackls Software minimiert die Verluste: „Unsere Algorithmen können das Zusammenspiel der verschiedenen Komponenten nicht nur optimal steuern, sondern steigern auch ihre Zuverlässigkeit.“ Wenn beispielsweise in einem Umrichter ein Schalter ausfalle, dann sorge die intelligente Software dafür, dass sich das System nicht abschalte, sondern sich an die veränderten Umstände anpasse und weiterarbeite – wenn auch mit etwas verringerter Leistung. Gleichzeitig werde eine Störungsmeldung an den Betreiber geschickt. „Insgesamt lässt sich so die Effizienz des Gesamtsystems erheblich verbessern“, resümiert Hackl.

Der Härtetest auf der Insel
Den Härtetest am Meer hat die Leistungselektronik mit Bravour bestanden: Für den Prototypen-Test wurden Umrichter, Netzfilter und Steuerungscomputer in eine wasserdichte, schuhschachtelgroße Box gepackt und nach Heraklion geflogen. Dort trotzt die Technik seit mehr als einem Jahr salziger Luft, Stürmen und spritzender Gischt und verwandelt den Strom des wellengetriebenen Generators zuverlässig in Netzstrom. Die Energieausbeute: 93 Prozent.

Technik für nachhaltige Energieerzeugung
Von den effizienten und fehlertoleranten Algorithmen sollen in Zukunft nicht nur die Hersteller von Wellenkraftanlagen profitieren, sondern auch die Betreiber von Wind-, Solar- oder Geothermieanlagen, sagt Hackl: „Die Leistungssoftware eignet sich für die Optimierung des Outputs aller regenerativen Kraftwerke – egal ob Erdwärme, Sonne, Wind oder Wasser. Man braucht am Ende immer Wandler, um Netzstrom daraus zu machen.“ Gesteigerte Effizienz und Zuverlässigkeit trägt zur Unabhängigkeit von fossilen Rohstoffen bei. „Tatsächlich sehe ich in den Algorithmen meinen persönlichen, bescheidenen, aber ganz konkreten Beitrag zur Energiewende. Ich habe selbst Kinder und ich möchte ihnen eine Welt hinterlassen, die lebenswert ist. Das ist meine Motivation.“

Gerne vermitteln wir einen Interviewtermin mit Prof. Dr. Christoph Hackl und Simon Krüner.

Christoph Hackl promovierte 2012 interdisziplinär an der Technischen Universität München in Mechatronik und Systemtheorie. 2018 wurde er zum Professor für “Elektrische Maschinen und Antriebe” an die HM berufen. Mit fünf Kollegen gründete er in 2019 das HM-Forschungsinstitut „Nachhaltige Energiesysteme”. In 2022 gewann er den HM-Oskar für angewandte Forschung. Seine Forschungsschwerpunkte umfassen mechatronische und regenerative Energiesysteme. Er hat mehr als 150 Konferenz-/Journal-/Buchbeiträge veröffentlicht.

Wissenschaftliche Ansprechpartner:
Kontakt: Christiane Taddigs-Hirsch unter 089 1265-1911 oder unter presseinfo@hm.edu

Originalpublikation:
C.M Hackl, J. Kullick and N. Monzen, „Optimale Betriebsführung von nichtlinearen Synchronmaschinen“, in Elektrische Antriebe – Regelung von Antriebssystemen (5. Auflage), Springer-Verlag, 2020.

C.M. Hackl, U. Pecha, K. Schechner, “Modeling and control of permanent-magnet synchronous generators under open-switch converter faults”, IEEE Transactions on Power Electronics, 2018 (doi: 10.1109/TPEL.2018.2855423).

(nach oben)


Wärmere Ozeane erhöhen Niederschlagsmenge

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Neue Nature-Studie: Die Erwärmung der oberen Ozeanschichten im westlichen tropischen Pazifik wird künftig zu stärkeren Winden und mehr Regen über Ostasien führen

Der östliche Pazifik ist eine der Schlüsselregionen im Klimasystem Erde. Ändern sich hier die Bedingungen, wirkt sich das direkt auf das Klima anderer Regionen aus. Eine neue Studie kommt zu dem Schluss, dass bereits eine Erwärmung der oberen Ozeanschichten im äquatorialen Pazifik dazu führen könnte, dass der ostasiatische Monsun insgesamt verstärkt wird. Die Studie, an der auch PD Dr. Mahyar Mohtadi vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen beteiligt ist, wird jetzt im Fachmagazin Nature veröffentlicht.

Das Indo-Pazifische Wärmebecken (IPWP) spielt eine entscheidende Rolle für das globale Klima, indem es enorme Mengen an Wasserdampf und latente Wärme an die Atmosphäre abgibt und so das Klima reguliert. In jüngster Zeit haben stetig wärmer werdende Ozeane dazu beigetragen, dass tropische Stürme verstärkt und intensiver werden – sie beziehen ihre Energie direkt von der Oberfläche des Meeres. Wie genau Ozeanerwärmung und Niederschlägen an Land zusammenhängen, ist jedoch noch nicht ausreichend erforscht. Fest steht aber, dass Ozeane die anthropogene Klimaerwärmung nur bis zu einem bestimmten Sättigungsgrad durch Aufnahme ausgleichen können.

Durch die Verwendung von Klimamodellen und geochemischen Untersuchungen an kalkhaltigen Meeresorganismen haben die Forschenden für die aktuelle Studie rekonstruiert, wie der Ozean seine Wärme und Energie verändert. Sie verglichen ihre Ergebnisse mit Rekonstruktionen von Monsunniederschlägen in Ostasien für denselben Zeitraum und fanden heraus, dass die Kopplung von ozeanischem Wärmeinhalt und Monsunschwankungen für die Regulierung des globalen Klimas entscheidend ist.

„Unsere Studie legt nahe, dass Änderungen in der thermischen Struktur des westlichen Pazifiks die Abgabe von Feuchtigkeit, latenter Wärme, und Niederschlag über Ostasien kontrollieren“, sagt Mahyar Mohtadi, Leiter der Forschungsgruppe „Klimavariabilität der Niedrigen Breiten“ am MARUM. „Der Temperaturgradient zwischen verschiedenen Breitengraden steuert nicht nur die Energieaufnahme vom tropischen Pazifik, sondern auch, wie Winde die Feuchtigkeit aus dem Ozean an Land tragen.“

Die von Forschenden aus China, Deutschland und den USA geleitete Studie ergab, dass in den vergangenen 360.000 Jahren die Zunahme des Monsunregens in Ostasien von einem erhöhten Wärmeinhalt des Indo-Pazifischen Wärmebeckens – einer Region, in der die Meeresoberflächentemperaturen das ganze Jahr über etwa 28 Grad Celsius bleiben – gesteuert wurde, wahrscheinlich durch einen verbesserten Transport von Feuchtigkeit und latenter Wärme durch Wasserdampf aus dem Ozean. Laut der Studie folgen die Änderungen des Wärmegehalts der oberen Ozeane den Verschiebungen in der Erdumlaufbahn, die etwa alle 23.000 Jahre auftreten und die Verteilung der einfallenden Sonnenstrahlung in jedem Breitengrad verändern.

Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.

Wissenschaftliche Ansprechpartner:
PD Dr. Mahyar Mohtadi
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Klimavariabilität der niedrigen Breiten
E-Mail: mmohtadi@marum.de
Telefon: 0421 218 65660

Originalpublikation:
Zhimin Jian, Yue Wang, Haowen Dang, Mahyar Mohtadi, Yair Rosenthal, David W. Lea, Zhongfang Liu, Haiyan Jin, Liming Ye, Wolfgang Kuhnt & Xingxing Wang: Warm pool ocean heat content regulates ocean–continent moisture transport. Nature 2022. DOI: 10.1038/s41586-022-05302-y.

Weitere Informationen:
http://www.marum.de/wir-ueber-uns/Klimavariabilitaet-der-niedrigen-Breiten.html – Forschungsgruppe „Klimavariabilität der Niedrigen Breiten“ am MARUM

(nach oben)


Phosphor-Recycling aus Klärschlamm verbessern

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Phosphor ist ein wichtiger Rohstoff, insbesondere als Dünger für die Landwirtschaft. Aber in Gewässern verschlechtert er die Wasserqualität. Seit den 80er Jahren gehört darum die Phosphatfällung zu den Kernprozessen kommunaler Kläranlagen. Dabei wird Phosphor mit Salzen im Klärschlamm gebunden. Weil der Rohstoff aber auch zunehmend knapp wird, soll er dort zurückgewonnen werden. Das gelingt beispielsweise, wenn er in gebundener Form als Vivianit vorliegt. Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben untersucht, welche Faktoren die Bildung von Vivianit fördern und damit die Menge an rückgewinnbaren Phosphor erhöhen.

Es gibt viele gute Gründe, Phosphor zu recyceln: Rohphosphate sind zunehmend verunreinigt und die Versorgung hängt von einigen wenigen Ländern ab. Deshalb steht er seit 2014 auf der Liste der „kritischen Rohstoffe“ der Europäischen Union. Und auch die deutsche Bundesregierung hat 2017 eine novellierte Klärschlammverordnung verabschiedet: Bis 2032 sollen demnach größere Anlagenbetreiber dafür sorgen, dass der im Klärschlamm enthaltene Phosphor zurückgewonnen wird.

Bei der Fällung im Klärschlamm kann Vivianit entstehen – eine Eisen-Phosphor-Verbindung, aus der sich Phosphor relativ gut wieder recyceln lässt. „Aber bisher war nicht klar, welche Bedingungen in den Kläranlagen die Vivianitbildung begünstigen. Das interessiert uns auch für die Restaurierung von Seen, wo die Fällung von Phosphor aus dem Wasser ebenfalls Anwendung findet, um die Nährstofflast zu reduzieren und so die Wasserqualität zu verbessern“, erläutert IGB-Forscher Michael Hupfer, der die Studie geleitet hat. Das Team analysierte die Eigenschaften und die Zusammensetzungen von Schlammproben aus 16 Kläranlagen sowie die Prozessparameter der Anlagen, um die Einflussfaktoren der Vivianitbildung zu ermitteln.

Hoher Eisengehalt begünstigt, hoher Schwefelgehalt verringert die Vivianitbildung:
Ein hoher Eisengehalt erwies sich als wichtigster Faktor, um die Vivianitbildung zu begünstigen. Ein hoher Schwefelgehalt wiederum verringerte die Vivianitbildung. „Es gibt schwefelhaltige und schwefelfreie Fällungsmittel. Wir konnten im Vergleich zeigen, dass die Verwendung von schwefelhaltigen Fällungsmitteln den Schwefelgehalt im Schlamm erhöhen und so der Vivianitbildung entgegenwirken kann. Die Wahl des Fällmittels kann also das Phosphor-Recycling wesentlich beeinflussen“, erläutert die IGB-Doktorandin Lena Heinrich, Erstautorin der Studie.

Die Anpassung der Bedingungen kann einiges bewirken: In den 16 Kläranlagen variierte der Anteil von Phosphor, das in Vivianit gebunden war, zwischen rund 10 bis zu 50 Prozent. Diese Spanne zeigt das große Potenzial, die Ausbeute von Vivianit zu erhöhen. „Für uns als Gewässerökologen sind die Erkenntnisse sehr wichtig, weil eisenhaltige Fällmittel auch für die Restaurierung von eutrophierten, also mit Nährstoffen belasteten Seen in Frage kommen. Die Effizienz einer Eisensalz-Zugabe ist viel größer, wenn es im Sediment zur Bildung von stabilem Vivianit kommt, was dann – vielleicht eines Tages – auch für die Rückgewinnung von Phosphor zur Verfügung steht“ ordnet Michael Hupfer die Ergebnisse ein.

Wissenschaftliche Ansprechpartner:
Lena Heinrich
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), nun an der Universität Potsdam. E-Mail: lena.heinrich@uni-potsdam.de

Michael Hupfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). E-Mail: michael.hupfer@igb-berlin.de

Originalpublikation:
Lena Heinrich, Peter Schmieder, Matthias Barjenbruch, Michael Hupfer: Formation of vivianite in digested sludge and its controlling factors in municipal wastewater treatment. Science of The Total Environment, Volume 854, 2023, 158663, ISSN 0048-9697. https://doi.org/10.1016/j.scitotenv.2022.158663.

Weitere Informationen:
https://www.igb-berlin.de/news/phosphor-recycling-aus-klaerschlamm-verbessern

(nach oben)


Virenfahndung in der Kanalisation

Jana Schlütter Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Mit am Max Delbrück Center entwickelten Algorithmen lassen sich nicht nur neue Varianten des Coronavirus im Abwasser rasch aufspüren. Das Verfahren, das ein Team um Altuna Akalin in „Science of the Total Environment“ vorstellt, kommt auch anderen Krankheitserregern leicht auf die Schliche.

Nicht nur das Coronavirus verändert permanent sein Gesicht, um sich den Angriffen des menschlichen Immunsystems möglichst zu entziehen. Auch andere Erreger nutzen diese Strategie: Durch winzige Veränderungen in ihrem Erbgut, den Mutationen, bringen sie immer wieder neue Varianten hervor, denen die Körperabwehr oft weniger entgegenzusetzen hat als den Erregern, die sie schon durch eine Infektion oder Impfung kennt.

Alle Infizierten hinterlassen ihre Spuren
„Daher ist es so wichtig, neu entstehende Virusvarianten möglichst rasch aufzuspüren“, erklärt Dr. Altuna Akalin, Leiter der „Bioinformatics and Omics Data Science Platform“ am Berliner Institut für Medizinische Systembiologie des Max Delbrück Centers (MDC-BIMSB). Gemeinsam mit vielen weiteren Forschenden des Max Delbrück Centers, den Berliner Wasserbetrieben und dem Laborunternehmen amedes hat der Bioinformatiker Akalin ein Verfahren entwickelt, um diese Varianten im Abwasser nachzuweisen. Denn dort hinterlässt sie jeder Mensch, der sich mit den Viren infiziert hat – unabhängig davon, ob oder welche Symptome er entwickelt und ob er getestet ist oder nicht.

Beteiligt waren an dem Projekt die Arbeitsgruppen „RNA-Biologie und Posttranscriptionale Regulation“ von Professor Markus Landthaler und „Systembiologie von Gen-regulatorischen Elementen“ von Professor Nikolaus Rajewsky sowie die Technologieplattform „Genomik“, die Dr. Janine Altmüller leitet. Landthaler und Rajewsky sind gemeinsam mit Akalin Letztautoren der aktuellen Publikation. Erstmals vorgestellt hatte das Team um Akalin
das computergestützte Werkzeug namens „PiGx SARS-CoV-2“ im Dezember 2021 auf der Preprint-Platform „medRxiv“. Erstautor*innen waren damals wie jetzt Vic-Fabienne Schumann und Dr. Rafael Cuadrat aus Akalins Arbeitsgruppe sowie Dr. Emanuel Wyler aus Landthalers Team.

Schneller als mit Proben von Patient*innen
Die Grundidee der Datenanalyse-Pipeline hat sich seither nicht verändert. „Um sie zu nutzen, muss das Erbgut der Viren im Abwasser zunächst sequenziert, also entschlüsselt werden“, erklärt Akalin. Die gewonnen Daten werden dann gemeinsam mit ein paar zusätzlichen Informationen, zum Beispiel zur verwendeten Sequenziermethode, in die Pipeline eingespeist. Heraus kommen grafische Darstellungen, an denen nicht nur Expert*innen, sondern auch Laien die Infektionsdynamik und die zirkulierenden Virusvarianten zeitgleich an verschiedenen Standorten ablesen können.

„Auch neu auftretende Varianten lassen sich auf diese Weise aufspüren – in den meisten Fällen sogar ein paar Tage früher, als es durch kontinuierliche Tests und die Sequenzierung von Patient*innenproben möglich wäre“, sagt Akalin. „Dank unserer Kooperationen konnten wir zudem zeigen, dass ein solches Abwasser-Frühwarnsystem sowohl in einem wissenschaftlichen Umfeld als auch auf industrieller Ebene erfolgreich ist.“ Routineuntersuchungen führe das Max Delbrück Center aber nicht durch, man stelle das Verfahren lediglich zur Verfügung, ergänzt Akalin.

Die Pipeline funktioniert weltweit
Das jetzt im Fachblatt „Science of the Total Environment“ beschriebene Tool hat sich in den vergangenen Monaten weiterentwickelt. „Die von uns erstellten Algorithmen sind robuster geworden“, sagt Akalin. „Wir haben etwa den Beweis erbracht, unter anderem am Beispiel von New York, dass die Pipeline Daten aus ganz unterschiedlichen Teilen der Welt zuverlässig analysieren kann – auch unabhängig davon, nach welchem Protokoll diese Daten erstellt wurden.“

Mit ihrer Methode haben Akalin und seine Kolleg*innen bereits die Delta- und die Omikron-Variante des Coronavirus entdeckt, bevor diese zu den jeweils dominierenden Varianten in der Bevölkerung wurden. „Unsere Software kann neu auftretende Mutationen sowohl räumlich als auch zeitlich verfolgen“, erklärt Akalin. „Finden sich an bestimmten Orten im Abwasser immer mehr Mutationen, werden diese markiert, um auf die Möglichkeit einer neuen Virusvariante hinzuweisen.“

„Mithilfe zusätzlicher Tools, die in die Pipeline integriert werden, lassen sich sogar die Auswirkungen der gefundenen Mutation vorhersagen“, ergänzt Akalin. Man könne so künftig beispielsweise abschätzen, inwieweit sich die neuen Virusvarianten dem menschlichen Immunsystem entziehen – und ob sie dadurch ansteckender als die alten Varianten sein werden oder schwerere Krankheitsverläufe hervorrufen.

Auch Grippeviren lassen sich aufspüren
„Eines der wichtigsten Merkmale unseres Ansatzes besteht jedoch darin, dass wir ein sehr robustes System mit einem hohen Automatisierungsgrad entwickelt haben, so dass es sich ohne Weiteres bei groß angelegten Abwasserüberwachungen einsetzen lässt“, sagt Akalin. Allerdings wolle sein Team nun noch weiter erforschen, wie das optimale Verfahren aussehe, um die Abwasserproben zu entnehmen. „Wo und wann man eine Probe nimmt, scheint die Daten durchaus zu beeinflussen“, räumt der Wissenschaftler ein.

Ziel aller beteiligten Teams am MDC-BIMSB ist es jedenfalls, den Ansatz nun auf andere Erreger als das Coronavirus auszuweiten und ein Frühwarnsystem zum Beispiel für kommende Grippe- oder Noroviren zu etablieren – also für Erreger, die sich ebenfalls stark auf die menschliche Gesundheit und damit auch auf die wirtschaftliche Produktivität auswirken.

„In den USA gibt es aufstrebende Unternehmen, die solche Dienstleistungen bereits anbieten“, sagt Akalin. Es sei daher absehbar, dass diese Art von Überwachungsstrategie künftig regelmäßig auch in anderen Teilen der Welt und, so hoffe er, auch für andere Krankheitserreger eingesetzt werde. Auch Impfstoffhersteller könnten von der Frühwarnung profitieren und ihre Impfstoffe in Zukunft womöglich leichter als bisher an neu auftretende Varianten anpassen.

Max Delbrück Center
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (Max Delbrück Center) gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den Standorten in Berlin-Buch und Mitte analysieren Forscher*innen aus rund 70 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organ-übergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patient*innen zugutekommen. Das Max Delbrück Center fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am Max Delbrück Center arbeiten 1800 Menschen. Finanziert wird das 1992 gegründete Max Delbrück Center zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin. www.mdc-berlin.de

Wissenschaftliche Ansprechpartner:
Dr. Altuna Akalin
Leiter der Technologieplattform „Bioinformatics and omics data science“
Max Delbrück Center
+49 30 9406-4271
Altuna.Akalin@mdc-berlin.de

Originalpublikation:
Vic-Fabienne Schumann, Rafael Ricardo de Castro Cuadrat, Emanuel Wyler et al. (2022): „COVID-19 infection dynamics revealed by SARS-CoV-2 wastewater sequencing analysis and deconvolution“, Science of the total environment, DOI: 10.1016/j.scitotenv.2022.158931

Weitere Informationen:
https://doi.org/10.1016/j.scitotenv.2022.158931 – Studie
https://www.mdc-berlin.de/de/news/press/omikron-hat-berlin-im-griff – PM zu Omikrondaten
https://www.mdc-berlin.de/bioinformatics – Bioninformatics and omics data science @ Max Delbrück Center
https://www.mdc-berlin.de/landthaler – Landthaler Lab
https://www.mdc-berlin.de/n-rajewsky – N.Rajewsky Lab

(nach oben)


Studie zur Betriebswassernutzung – Wie Frankfurt am Main künftig Trinkwasser ersetzen könnte

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Die öffentliche Trinkwasserversorgung gerät insbesondere in Städten durch Bevölkerungswachstum und den Klimawandel immer stärker unter Druck. Lang anhaltende Trockenzeiten und große Hitze bringen auch in Frankfurt am Main das komplexe Wasserversorgungssystem in Phasen des Spitzenbedarfs an seine Grenzen. Im Auftrag des Wasserbeschaffungsunternehmens Hessenwasser hat das ISOE – Institut für sozial-ökologische Forschung untersucht, in welchem Umfang Trinkwasser in der Metropole durch Betriebswasser aus alternativen Ressourcen ersetzt werden könnte. In zwei Szenarien zeigen Forscher*innen die Potenziale häuslicher Betriebswassernutzung bis zum Jahr 2050.

Wie könnten die vorhandenen Ressourcen in Frankfurt am Main so genutzt werden, dass der absehbar zusätzliche Wasserbedarf – durch Bevölkerungswachstum und klimatische Veränderungen – künftig gedeckt wird? Welcher Anteil der Trinkwassermenge könnte beispielsweise im Bereich der Haushalte durch Betriebswasser, auch als Brauchwasser bezeichnet, ersetzt werden? Welche Maßnahmen wären dafür nötig? Das ISOE – Institut für sozial-ökologische Forschung hat das unter anderem am Beispiel eines Bestands- und eines Neubaugebiets in Frankfurt untersucht. Die Studie „Abschätzung theoretischer Trinkwasser-substitutionspotenziale in Frankfurt am Main“ basiert auf umfangreichen Erhebungen und vorhandenen Gutachten und umfasst zwei Szenarien mit einem zeitlichen Horizont bis 2050.

Häuslicher Trinkwassertagesbedarf pro Kopf: Rechnerisch 39 Liter ersetzbar
Ausgehend vom durchschnittlichen Trinkwasserbedarf der Haushalte einschließlich Kleingewerbe von täglich 118 Litern pro Einwohner*in haben ISOE-Wasserexpert*innen untersucht: Wie viel davon könnte durch Wasser ersetzt werden, das zwar keine Trinkwasserqualität aufweist, für eine Verwendung im Haushalt aber dennoch unbedenklich ist? Gemeint ist Betriebs- bzw. Brauchwasser, das sich aus Regen- oder Flusswasser gewinnen lässt. Dazu zählt auch gereinigtes Grauwasser oder Grundwasser, das etwa beim Bau von Hochhäusern abgepumpt werden muss und für bestimmte Bedarfe im Haushalt, insbesondere für Toilettenspülung, Raumreinigung und Gartenbewässerung genutzt werden kann. „Rein rechnerisch lassen sich mit alternativen Wasserressourcen in Frankfurt am Main 33 Prozent des Trinkwassers im häuslichen Bereich ersetzen“, sagt ISOE-Wasserexperte und Erstautor der Studie Engelbert Schramm. „Das sind 39 Liter des durchschnittlichen häuslichen Tagesverbrauchs einer Person in der Stadt.“ In welchem Umfang sich diese grundsätzlich mögliche Substitutionsmenge bis zum Jahr 2050 erreichen lässt, zeigen die beiden Szenarien „Trend“ und „Besondere Anstrengung“.

Szenario „Besondere Anstrengung“ – Betriebswasser kann Mehrbedarf ersetzen
Im Szenario „Besondere Anstrengung“ ließen sich durch eine konsequente Betriebswassernutzung bis 2050 etwa 13 Prozent an Trinkwasser im häuslichen Bereich ersetzen. Das entspricht einem Einsparvolumen von 5,5 Millionen Kubikmeter im Jahr. Mit einer erweiterten Betriebswassernutzung auch in anderen Bereichen ließe sich das Substitutionspotenzial in diesem Szenario sogar auf 6,6 Millionen Kubikmeter erhöhen. „Theoretisch ist es möglich, den bis 2050 prognostizierten Mehrbedarf an Trinkwasser mit allen derzeit möglichen Maßnahmen durch Betriebswasser zu ersetzen“, sagt Schramm. Dafür müsse die Stadt auf einen Ressourcenmix aus Mainwasser, Grundwasser, Grau- und Regenwasser zurückgreifen und den Umbau der vorhandenen Infrastrukturen angehen. „Dieses Szenario setzt vonseiten der Kommune eine politische Entscheidung für eine öffentliche Betriebswasserversorgung durch lokale Betriebswassernetze insbesondere auch im Wohnungsbestand und deren Mitgestaltung voraus“, betont Schramm. Für die Haushalte seien durch die Betriebswassernutzung keine Komforteinbußen verbunden. Mit Blick auf die untersuchten Quartiere zeige sich, dass die Kosten von der gewählten Betriebswasservariante abhingen und sich in etwa im Rahmen der Kosten des bestehenden Wasser- und Abwassersystems bewegten. 

Szenario „Trend“ – Ersetzbare Trinkwassermenge gering
In einem zweiten Szenario hat das ISOE untersucht, was passiert, wenn bis 2050 nur solche Betriebswassernutzungen umgesetzt werden, die ohne größere Anstrengungen realisierbar sind. „Die ersetzbare Trinkwassermenge bleibt im Szenario, das sich am gegenwärtigen Trend orientiert, mit 0,5 Millionen Kubikmeter Wasser sehr gering und bringt deshalb keinen Entlastungseffekt“, sagt Schramm. Eine naheliegende Schlussfolgerung aus der Untersuchung sei vielleicht wenig überraschend, meint Mitautor Martin Zimmermann, der am ISOE den Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen leitet. „Die Stadt Frankfurt muss mittel- und langfristig neue Wege bei der Trinkwasserversorgung gehen, auch um den Druck auf die Wasservorkommen im Umland möglichst gering zu halten. Deshalb muss die Stadt jetzt dringend prüfen, welche Angebote sie zum Ersetzen von Trinkwasser machen kann.“ 

Nachhaltige Transformation der Wasserversorgung
Die ISOE-Studie im Auftrag von Hessenwasser bietet der Stadt Frankfurt eine Grundlage, um kommunalpolitische Entscheidungen über die künftige Strategie bei der Wasserversorgung vorzubereiten. „Ein nachhaltiges Wasserversorgungssystem setzt die Betriebswassernutzung als akzeptierten Standard voraus“, sagt Zimmermann. Dafür sei eine Kombination aus Technik, Ordnungs-, Preis- und Anreizpolitik notwendig. „Die Nutzung von Betriebswasser ist juristisch, technisch und ökonomisch realisierbar und sozioökonomisch denkbar, insofern sich Bewohner*innen für den Ersatz von Trinkwasser durch alternative Wasserressourcen offen zeigen“, so Zimmermann. „Die Studie zeigt, dass die wichtigsten Voraussetzungen für die Transformation der Wasserversorgung in Richtung Nachhaltigkeit und hin zu einer Betriebswasserkultur in Frankfurt am Main gegeben sind.“ 

Zur Studie 
Die Studie „Abschätzung theoretischer Trinkwassersubstitutionspotenziale in Frankfurt am Main“ ist im Auftrag der Wasserbeschaffungsgesellschaft Hessenwasser entstanden und steht als Download zur Verfügung:

https://isoe-publikationen.de/fileadmin/redaktion/ISOE-Reihen/st/st-26-isoe-2022…

Über das ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Es entwickelt wissenschaftliche Grundlagen und zukunftsweisende Konzepte für sozial-ökologische Transformationen. Hierfür forscht das ISOE transdisziplinär zu globalen Problemen wie Wasserknappheit, Klimawandel, Biodiversitätsverlust und Landdegradation und findet tragfähige Lösungen, die ökologische, gesellschaftliche und ökonomische Bedingungen berücksichtigen.

Wissenschaftliche Ansprechpartner:
Dr. Martin Zimmermann
ISOE – Institut für sozial-ökologische Forschung
Leiter Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-44
zimmermann@isoe.de
www.isoe.de

Originalpublikation:
Schramm, Engelbert/Martina Winker/Michaela Rohrbach/Martin Zimmermann/Christian Remy (2022): Abschätzung theoretischer Trinkwassersubstitutionspotenziale in Frankfurt am Main. Optionen der Betriebswassernutzung und deren ökonomische und ökologische Auswirkungen im Betrachtungshorizont bis 2050. Unter Mitarbeit von Christoph Meyer. ISOE-Studientexte, 26. Frankfurt am Main: ISOE – Institut für sozial-ökologische Forschung

Weitere Informationen:
http://www.isoe.de

(nach oben)


Dornröschen im Eiswürfel: Wie Bärtierchen Eiseskälte überdauern

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Bärtierchen können sich hervorragend an raue Umweltbedingungen anpassen. Bereits 2019 bewies Ralph Schill, Professor am Institut für Biomaterialien und biomolekulare Systeme der Universität Stuttgart, dass anhydrobiotische (getrocknete) Bärtierchen viele Jahre ohne Wasseraufnahme unbeschadet überdauern können. Ob Tiere in gefrorenem Zustand schneller oder langsamer Altern oder das Altern gar zum Stillstand kommt, war bislang unklar. Das Rätsel ist nun gelöst: Gefrorene Bärtierchen altern nicht.

Bärtierchen, auch Wasserbären genannt, gehören zur Familie der Fadenwürmer. Ihre Gangart erinnert an die eines Bären, womit die Gemeinsamkeiten bereits erschöpft wären. Die nur knapp einen Millimeter großen Bärtierchen haben es geschafft, sich im Laufe der Evolution perfekt an schnell wechselnde Umweltbedingungen anzupassen und können bei extremer Hitze austrocknen und bei Kälte gefrieren. ,,Sie fallen in einen Dornröschenschlaf ohne zu sterben“, erklärt Schill.

Dornröschen-Hypothese
Für einen Zellorganismus bedeutet es unterschiedlichen Stress, je nachdem ob er nun gefriert oder austrocknet. Doch Bärtierchen über-stehen Hitze und Kälte gleichermaßen unbeschadet. Sie zeigen dabei keine offensichtlichen Lebenszeichen mehr. Daraus ergibt sich die Frage, was mit der inneren Uhr der Tiere passiert und ob sie in diesem Ruhezustand altern.

Für getrocknete Bärtierchen, die viele Jahre in ihrem Lebensraum auf den nächsten Regen warten, haben Ralph Schill und sein Team die Frage nach dem Altern schon vor einigen Jahren beantwortet. In einem Märchen der Gebrüder Grimm fällt die Prinzessin in einen tiefen Schlaf. Als ein Prinz sie nach 100 Jahren küsst, erwacht sie und sieht noch immer so jung und schön aus wie zuvor. Bei den Bärtierchen im getrockneten Zustand ist es genauso und daher wird dies auch als „Dornröschen“-Hypothese („Sleeping Beauty“-Model) bezeichnet. „Während inaktiver Perioden bleibt die innere Uhr stehen und läuft erst wieder weiter, sobald der Organismus reaktiviert wird“, sagt Schill. „So können Bärtierchen, die ohne Ruheperioden normalerweise nur wenige Monate leben, viele Jahre und Jahrzehnte alt werden.

Bislang war noch unklar, ob dies auch für gefrorene Tiere gilt. Altern sie schneller oder langsamer als die getrockneten Tiere oder kommt das Altern auch zum Stillstand?

Alterungsprozess stoppt auch in gefrorenem Zustand
Um dies zu erforschen, haben Schill und sein Team in mehreren Experimenten insgesamt über 500 Bärtierchen bei -30 °C eingefroren, wieder aufgetaut, gezählt, gefüttert und wieder eingefroren. Dies geschah so lang bis alle Tiere gestorben sind. Zur selben Zeit wurden Kontrollgruppen bei gleichbleibender Raumtemperatur gehalten. Die Zeit in gefrorenem Zustand ausgenommen, zeigte der Vergleich mit den Kontrollgruppen eine nahezu identische Lebensdauer. „Bärtierchen halten also auch im Eis wie Dornröschen ihre innere Uhr an“, schlussfolgert Schill.

Ihre Erkenntnisse und Vorgehensweise veröffentlichten Schill und seine Kolleg*innen im Journal of Zoology unter dem Titel „Reduced ageing in the frozen state in the tardigrade Milnesium inceptum (Eutardigrada: Apochela)“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ralph Schill, Universität Stuttgart, Institut für Biomaterialien und biomolekulare Systeme, Tel. +49 (0) 172 730 4726, E-Mail ralph.schill@bio.uni-stuttgart.de

Originalpublikation:
Reduced ageing in the frozen state in the tardigrade Milnesium inceptum (Eutardigrada: Apochela, Sieger, J., Brümmer, F., Ahn, H., Lee, G., Kim, S., Schill, R.O., Journal of Zoology (ZSL), September 2022

(nach oben)


Künstliches Enzym spaltet Wasser

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Auf dem Weg zur sonnenlichtgetriebenen Produktion von Wasserstoff ist ein Fortschritt gelungen. Ein Team aus der Chemie präsentiert einen enzymähnlichen molekularen Katalysator für die Wasseroxidation.

Die Menschheit steht vor einer zentralen Herausforderung: Sie muss den Übergang zu einer nachhaltigen und kohlendioxidneutralen Energiewirtschaft bewältigen.

Wasserstoff gilt als vielversprechende Alternative zu fossilen Brennstoffen. Er lässt sich unter Einsatz von elektrischem Strom aus Wasser herstellen. Stammt der Strom aus regenerativen Quellen, spricht man von grünem Wasserstoff. Noch nachhaltiger wäre es aber, könnte man Wasserstoff direkt mit der Energie des Sonnenlichts produzieren.

In der Natur läuft die lichtgetriebene Wasserspaltung bei der Photosynthese der Pflanzen ab. Diese verwenden dafür einen komplexen molekularen Apparat, das sogenannte Photosystem II. Dessen aktives Zentrum nachzuahmen ist eine vielversprechende Strategie, um eine nachhaltige Produktion von Wasserstoff zu realisieren. Daran arbeitet ein Team von Professor Frank Würthner am Institut für Organische Chemie und dem Zentrum für Nanosystemchemie der Julius-Maximilians-Universität Würzburg (JMU).

Wasserspaltung ist keine banale Reaktion
Wasser besteht aus einem Sauerstoff- und zwei Wasserstoffatomen. Der erste Schritt der Wasserspaltung ist eine Herausforderung: Um den Wasserstoff freizusetzen, muss aus zwei Wassermolekülen der Sauerstoff entfernt werden. Dafür ist es zunächst nötig, den beiden Wassermolekülen vier Elektronen und vier Protonen zu entziehen.

Diese oxidative Reaktion ist nicht banal. Pflanzen nutzen dafür ein komplexes Gebilde als Katalysator, bestehend aus einem Cluster mit vier Mangan-Atomen, über die sich die Elektronen verteilen können.

Würthners Team hatte in einem ersten Durchbruch eine ähnliche Lösung entwickelt, eine Art „künstliches Enzym“, das den ersten Schritt der Wasserspaltung erledigen kann. Dieser Wasseroxidations-Katalysator, bestehend aus drei miteinander agierenden Ruthenium-Zentren innerhalb eines makrozyklischen Konstrukts, katalysiert erfolgreich den thermodynamisch anspruchsvollen Prozess der Wasserspaltung. Publiziert wurde das 2016 und 2017 in den Journalen Nature Chemistry und Energy & Environmental Science.

Zum Erfolg mit einer künstlichen Tasche
Nun ist es den Chemikerinnen und Chemikern der JMU gelungen, die anspruchsvolle Reaktion mit einem einzigen Ruthenium-Zentrum effizient ablaufen zu lassen. Dabei wurden sogar ähnlich hohe katalytische Aktivitäten wie im natürlichen Vorbild erreicht, dem Photosyntheseapparat der Pflanzen.

„Möglich wurde dieser Erfolg, weil unser Doktorand Niklas Noll eine künstliche Tasche um den Ruthenium-Katalysator geschaffen hat. Darin werden die Wassermoleküle für den gewünschten protonengekoppelten Elektronentransfer vor dem Ruthenium-Zentrum in einer genau definierten Anordnung arrangiert, ähnlich wie es in Enzymen geschieht“, sagt Frank Würthner.

Publikation in Nature Catalysis
Die JMU-Gruppe präsentiert die Details ihres neuartigen Konzepts nun im Fachjournal Nature Catalysis. Das Team aus Niklas Noll, Ana-Maria Krause, Florian Beuerle und Frank Würthner ist davon überzeugt, dass sich dieses Prinzip auch zur Verbesserung anderer katalytischer Prozesse eignet.

Das langfristige Ziel der Würzburger Gruppe ist es, den Wasseroxidations-Katalysator in ein künstliches Bauteil einzubauen, das mit Hilfe von Sonnenlicht Wasser in seine beiden Bestandteile Wasserstoff und Sauerstoff zerlegt. Das wird noch seine Zeit dauern, denn dafür muss der Katalysator mit weiteren Komponenten zu einem funktionierenden Gesamtsystem gekoppelt werden – mit lichtsammelnden Farbstoffen und mit sogenannten Reduktionskatalysatoren.

Förderer
Der Europäische Forschungsrat (European Research Council, ERC) hat die beschriebenen Arbeiten im Rahmen eines ERC Advanced Grant für Frank Würthner gefördert (grant agreement No. 787937). Weitere Fördermittel stammen vom Bayerischen Wissenschaftsministerium im Rahmen des Forschungsnetzwerks „Solar Technologies go Hybrid“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Frank Würthner, wuerthner@uni-wuerzburg.de

Originalpublikation:
Enzyme-like water preorganization in a synthetic molecular cleft for homogeneous water oxidation catalysis. Nature Catalysis, 3. Oktober 2022, DOI: 10.1038/s41929-022-00843-x

(nach oben)


Landkarte der molekularen Kontakte: Wie das Coronavirus SARS-CoV-2 mit menschlichen Körperzellen kommuniziert

Verena Coscia Kommunikation
Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH)
Wie genau sehen die molekularen Interaktionen zwischen dem menschlichen Wirt und dem COVID-19 Virus aus? Auf welchen genetischen Unterschieden beruhen die verschiedenen Krankheitsverläufe? Und wie unterscheiden sich die noch neu entstehenden Virusvarianten in ihren Wirt-Virus-Interaktionen? Um diesen Fragen auf den Grund zu gehen, hat ein internationales Forscherteam eine systematische Kontaktkarte erstellt.

Die Kontaktkarte, die im Fachmagazin Nature Biotechnology veröffentlicht wurde, umfasst mehr als 200 Protein-Protein-Kontakte, sogenannte Proteininteraktionen. Das internationale Konsortium aus Wissenschaftler:innen unter der Leitung von Pascal Falter-Braun, Direktor am Helmholtz Munich Institute of Network Biology (INET) und Professor für Mikroben-Wirts Interaktionen an der Fakultät für Biologie der Ludwig-Maximilians-Universität (LMU) in München, bestand aus Teams in Kanada, den USA, Frankreich, Spanien und Belgien.

Im Gegensatz zu früheren groß angelegten Studien über Protein-Protein-Komplexe, konnten jetzt die direkten Proteinkontakte zwischen Virus und Wirt genau identifiziert werden. „Um die mechanistischen Verbindungen zwischen Virus und Wirt wirklich zu verstehen, müssen wir wissen, wie die einzelnen Teile zusammenpassen“, sagt Frederick Roth, Professor am Donnelly Centre der Universität Toronto und am Sinai Health (Toronto, Kanada).

Bei einer genaueren Betrachtung dieser neu entdeckten direkten Eiweiß-Verbindungen (oder „Contaktome“) fand das Team Pfade von Verbindungen zwischen viralen Proteinen und infektionsrelevanten menschlichen Genen. So konnten sie beispielsweise Verbindungen zwischen bestimmten SARS-CoV-2-Proteinen und menschlichen Proteinen aufspüren, die von den Bereichen der Gene kodiert werden, die in anderen Studien mit einer erhöhten Wahrscheinlichkeit für eine schwere COVID-19-Erkrankung in Verbindung gebracht wurden. Sie fanden auch Verbindungen zwischen den viralen Proteinen und menschlichen Genen, die unter anderem an Stoffwechselstörungen wie Adipositas und Diabetes beteiligt sind.

„Wir wissen bereits, dass genetische Unterschiede beim Menschen eine wesentliche Rolle bei Verlauf und Schwere einer COVID-19-Erkrankung haben“, sagt Pascal Falter-Braun, und ergänzt weiter: „Dank der Identifizierung der molekularen Kontaktpunkte ist es nun möglich, die zugrundeliegenden Mechanismen detaillierter zu untersuchen.“
Erste Erkenntnisse zeigen, dass wichtige Entzündungssignalwege direkt durch das Virus aktiviert werden. Diese Kontakte könnten dazu beitragen, die überschießende Entzündungsreaktion zu erklären, die bei schweren Fällen von COVID-19 eine große Rolle spielt.

Die Protein-Protein-Kontakte haben aber nicht nur Auswirkungen auf die menschlichen Zellen und das menschliche Immunsystem. Bestimmte Verbindungen beeinflussen auch weitreichend SARS-CoV-2, etwa die Vermehrung des Virus.

Laut Falter-Braun kann man sich die Interaktion von Virus und menschlicher Zelle wie den Besuch des Virus in einem Restaurant vorstellen: Der Gast – das Virus – hat zunächst nur Kontakt mit dem Kellner. Aber dann geht der Kellner in die Küche, gibt die Bestellung an den Koch weiter, und das Virus bekommt wieder eine Antwort, in diesem Fall das Essen, das wiederum auf das Virus wirkt. Je nachdem, welche Proteine in der menschlichen Zelle – heißt: Kellner, Koch, Küchenhilfen, und andere – auf welche Proteine des Virus treffen, kann die Infektion und Immunreaktion ganz unterschiedlich ausfallen.

„Wegen dieser gegenseitigen Beeinflussung der Protein-Protein-Verbindungen gibt es in unserer systematischen Kontaktkarte eine Reihe potenzieller neuer Zielstrukturen für Medikamente“, sagt Falter-Braun. Eine erste Substanz konnten die Wissenschaftler bereits in ihrer Wirkung bestätigen: Das menschliche Protein USP25 wird rekrutiert, um bestimmte virale Prozesse zu fördern und seine Hemmung wiederum reduziert die Vermehrung des Virus deutlich.

„Viele der Technologien und Kooperationen in dieser Studie wurden eigentlich für andere Zwecke entwickelt und dann schnell auf die COVID-19-Pandemie umgestellt. Das unterstreicht den Wert von Investitionen in die Grundlagenforschung“, sagt Dr. Dae-Kyum Kim, einer der Hauptautoren, der diese Arbeit am Sinai Health (Toronto) begann und sie als Assistenzprofessor am Roswell Park Comprehensive Cancer Center fortsetzte. Dazu mussten die Wissenschaftler:innen zunächst einigen Aufwand betreiben und neueste Technologie einsetzen, denn das Erstellen der Kontaktkarte war für das internationale Team phasenweise wie das Lösen eines riesigen Puzzles: Die Wissenschaftler:innen haben systematisch die Reaktionen von rund 30 viralen Proteinen – darunter das bekannte Spike-Protein – mit jeweils etwa 17.500 menschlichen Proteinen in sogenannten Assays untersucht und dargestellt. Das ergibt rund 450.000 Kombinationen, die sie untersucht haben. Von Hand hätten sie das niemals in der kurzen Zeit geschafft. „Wir haben beim Präparieren der einzelnen Platten mit jeweils mehreren Assays auf Robotik zurückgegriffen, so dass jeweils eine Proteinart mit einer anderen automatisch gepaart wurde. Und die erste Auswertung, ob Interaktionen vorliegen oder nicht, haben wir von einem Computerprogramm mit künstlicher Intelligenz durchführen lassen“, so Falter-Braun.

Ein solches Mammut-Projekt erforderte eine Teamleistung: „Von molekularbiologischen Methoden über die computergestützte Analyse von Netzwerken und Proteinbereichen bis hin zu Fachkenntnissen in Virologie und angeborener Immunität haben wir interdisziplinär zusammengearbeitet“, sagt Falter-Braun. „Unser Fachwissen in der Virus-Wirt-Interaktomik in Verbindung mit der Biologie von RNA-Viren ermöglichte es, die Abhängigkeit des Virus von direkten Wirtspartnern zu bewerten“, ergänzt Caroline Demeret vom Institut Pasteur.

Der Aufwand, so glauben die Forscher:innen, hat sich gelohnt: Die Kontaktkarte soll der wissenschaftlichen Gemeinschaft als Plattform dienen, um einzelne Interaktionen eingehender zu untersuchen und ihre Auswirkungen auf molekulare Mechanismen und den klinischen Verlauf zu verstehen und so Ansatzpunkte für neue therapeutische Möglichkeiten aufzudecken.

Über die leitenden Wissenschaftler:innen:
Prof. Dr. Pascal Falter-Braun, Director, Institute of Network Biology (INET), Helmholtz Munich and Chair of Microbe-Host Interactions, Faculty of Biology Ludwig-Maximilians-University (LMU) Munich, Germany
Prof. Dr. Frederick P. Roth, Donnelly Centre for Cellular and Biomolecular Research, University of Toronto and the Lunenfeld-Tanenbaum Research Institute, Sinai Health in Toronto, Kanada.
Dr. Michael A. Calderwood, Dana-Farber Cancer Institute and Scientific Director of the Center for Cancer Systems Biology (CCSB), Boston, USA
Prof. Dr. Marc Vidal, Professor of Genetics, Harvard Medical School and Dana-Farber Cancer Institute and Director of the Center for Cancer Systems Biology (CCSB), Boston, USA
Dr. Caroline Demeret, leader of the Interactomics Group in the Molecular Genetics of RNA Viruses Unit at the Institut Pasteur, Paris, France

Wissenschaftliche Ansprechpartner:
Prof. Dr. Pascal Falter-Braun, Director, Institute of Network Biology (INET), Helmholtz Munich and Chair of Microbe-Host Interactions, Faculty of Biology Ludwig-Maximilians-University (LMU) Munich, Germany
E-Mail: pascal.falter-braun@helmholtz-muenchen.de

Originalpublikation:
Kim et al. (2022): A proteome-scale map of the SARS-CoV-2 human contactome. Nature Biotechnology. DOI: 10.1038/s41587-022-01475-z

(nach oben)


Flexible Solarzellen mit Rekordwirkungsgrad von 22,2%

Norbert Raabe Kommunikation
Empa – Eidgenössische Materialprüfungs- und Forschungsanstalt
Ein Jahr nach ihrem letzten Wirkungsgradrekord haben Empa-Wissenschaftlerinnen und -Wissenschaftler einen neuen Höchstwert von 22,2% für flexible CIGS-Solarzellen auf Plastikfolien erreicht. Solarzellen dieses Typs eignen sich besonders für Anwendungen auf Gebäuden, Fahrzeugen, Satelliten, Luftschiffen und mobilen Geräten.

Die Empa-Forschenden haben den Wirkungsgrad von flexiblen CIGS-Solarzellen erneut verbessert. Unabhängig zertifizierte Messungen ergaben einen Wert von 22,2% bei der Umwandlung von Licht in Strom, was eine Verbesserung gegenüber dem bisherigen Rekordwert von 21,4% bedeutet. Zum Vergleich: Der maximale Wirkungsgrad einer starren Solarzelle aus kristallinem Silizium liegt bei 26,7%. Das Team um Romain Carron, Gruppenleiter im Empa-Labor für Dünnschichten und Photovoltaik unter der Leitung von Ayodhya N. Tiwari, präsentierte seine neusten Resultate an der «8. World Conference on Photovoltaic Energy Conversion» (WCPEC-8) am 26. September 2022 in Mailand.

Die flexiblen Solarzellen werden auf einer Polymerfolie verarbeitet mit Cu(In,Ga)Se2 als lichtabsorbierende Halbleiterschicht, die durch ein Niedrigtemperatur-Co-Verdampfungsverfahren abgeschieden wird. Der Empa-Wissenschaftler Shiro Nishiwaki veränderte die Zusammensetzung der Schicht, um die Leistung und die Ausgangsspannung der Zellen zu verbessern. «Zwei unterschiedliche Ansätze zur Legierung des Kristalls führten zu einer ähnlichen Verbesserungen in der Leistung des Bauelements», sagt Romain Carron. Daher lassen sich die Ergebnisse auf unterschiedliche Weise, aber mit gleichwertigen Ergebnissen auf einen industriellen Massstab übertragen. Der Wirkungsgrad der Solarzelle von 22,2% wurde unabhängig am Fraunhofer-Institut für Solare Energiesysteme ISE in Freiburg bestätigt.

Seit 23 Jahren regelmässig neue Rekorde
Ayodhya Tiwari forscht mit seinem Team seit mehr als 23 Jahren an flexiblen Dünnschichtsolarzellen. Mit ihrem profunden Wissen über die Technologie und die grundlegenden physikalischen Prozesse haben sie im Laufe der Jahre mehrere Effizienzrekorde aufgestellt. Ihre «Rekordserie» begann im Jahr 1999 mit einer Effizienz von 12,8%, ging dann weiter auf 14,1% (2005), 17,6% (2010), 18,7% (2011) und 20,4 %(2013) und erreichte schliesslich 20,8% im Jahr 2019 und 21,4% im Jahr 2021. Angesichts der bereits sehr hohen Wirkungsgrade erfordert jede noch so kleine Steigerung eine sorgfältige Untersuchung der Faktoren, die die Energieumwandlung einschränken, und innovative Ansätze zu deren Bewältigung. Die aktuelle Steigerung des Wirkungsgrads geht auf die Legierung der lichtabsorbierenden Halbleiterschicht zurück, um deren elektronische Eigenschaften verbessert hat.

Flexible und leichte Solarmodule mit dieser Technologie eignen sich besonders für Anwendungen auf Dächern und Fassaden von Gebäuden, auf Gewächshäusern, Fahrzeugen und Luftschiffen sowie für tragbare Elektronik. Die Empa arbeitet mit der Schweizer Firma Flisom an der Rolle-zu-Rolle-Herstellung von leichten, flexiblen Solarmodulen für derartige Anwendungen. Die Forschung wurde vom Bundesamt für Energie (BFE) unterstützt.

Wissenschaftliche Ansprechpartner:
Dr. Romain Carron
Empa-Abteilung Thin Films and Photovoltaics
Tel. +41 58 765 47 91
romain.carron@empa.ch

Prof. Dr. Ayodhya N. Tiwari
Empa-Abteilung Thin Films and Photovoltaics
Tel. +41 58 765 41 30
ayodhya.tiwari@empa.ch

Weitere Informationen:
https://plus.empa.ch/images/2022-10-10-Gebogene%20Solarzelle/ Bilder in hoher Auflösung zum Download
https://www.wcpec-8.com/ 8th World Conference on Photovoltaic Energy Conversion
https://www.empa.ch/web/s604/cigs-record-2019 CIGS-Solarzellen mit verbesserter Effizienz: Neuer Rekord für Dünnschicht-Solarzellen; Medienmitteilung Juli 2019

(nach oben)


Wie digital wollen wir leben?

Jörg Heeren Medien und News
Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF) lädt zu Jahreskonferenz ein

Künstliche Intelligenz, Algorithmen und digitale Daten prägen unsere Gegenwart und beeinflussen auch ganz praktisch unseren Alltag. Wir gehen mit punkte- und datensammelnden Apps einkaufen, lassen Saugroboter für uns arbeiten und scrollen zum Einschlafen durch den auf uns zugeschnittenen Instagram-Feed. Was macht diese kluge Technik mit uns? Wie wirkt sich die Digitalisierung auf unser Leben aus? Diese Fragen stehen im Mittelpunkt der öffentlichen ZiF-Jahreskonferenz 2022 „Smarte neue Welt: Wie digital wollen wir leben?“ am 21. Oktober am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Themen sind unter anderem Chancen und Grenzen Künstlicher Intelligenz, die Gesellschaft der Roboter, Sinn und Unsinn smarter Produkte, Soziale Medien sowie digitale Ethik.

Um möglichst viele Facetten dieser Themenbereiche aufzuzeigen, geben Expert*innen aus Mathematik, Informatik, Rechts-, Wirtschafts- und Sozialwissenschaften Einblicke in ihre Forschungsfelder. Können wir wirklich damit rechnen, uns eines Tages von Roboterbutlern bedienen zu lassen? Und was bedeuten diese Entwicklungen für unser Wohlbefinden, für unsere Wirtschaft und unser Rechtssystem?

Um einige ‚kluge‘ Maschinen auch praktisch erleben zu können, stellen Initiativen und Forschungseinrichtungen als Teil der Konferenz ihre Projekte in einer kleinen Ausstellung vor – vom smarten Spiegel bis zur Virtual-Reality-Brille.

Am Abend findet eine Live-Coding-Performance von vier Digitalkünstler*innen statt. Beim Live-Coding dient Computercode als Element von Improvisation, Experiment und Kollaboration von Menschen mit Maschinen. Algorithmen sind dabei ein wesentlicher Teil von musikalischen, visuellen und textuellen Ausdrucksformen. Der Code ist während der Performances in einer Projektion sichtbar, die Entstehung der Klänge und Formen kann direkt nachvollzogen werden. Im Anschluss an die Performances hat das Publikum die Möglichkeit, selbst das Live-Coding auszuprobieren.

Das ZiF fördert als Institute for Advanced Study der Universität Bielefeld herausragende, interdisziplinäre und innovative Forschungsprojekte. Es steht Wissenschaftler*innen aller Länder und aller Disziplinen offen. Die renommierte ZiF-Jahreskonferenz widmet sich stets einem Thema von großer gesellschaftlicher Bedeutung, das zugleich eine wissenschaftliche Herausforderung darstellt. Sie richtet sich an die interessierte Öffentlichkeit.

Die Teilnahme an der Veranstaltung ist kostenlos. Eine Anmeldung ist erforderlich und online auf der ZiF-Webseite möglich. Auf der Seite ist auch das detaillierte Konferenzprogramm zu finden.

Weitere Informationen:
https://www.uni-bielefeld.de/(de)/ZiF/ZiF-Konferenz/2022/10-21-Smarte-neue-Welt…. Webseite der ZiF-Konferenz

Kontakt:
Trixi Valentin, Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF)
Telefon 0521 106-2769
E-Mail: zif-conference-office@uni-bielefeld.de

(nach oben)


Influenza-Impfung ist das Gebot der Stunde – Vorstand des Dresdner Uniklinikums wirbt für zeitnahe Grippeschutzimpfung

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Mit dem Eintreffen der ersten Impfdosen gegen die saisonale Grippe startete das Universitätsklinikum Carl Gustav Carus Dresden Ende September die diesjährige Impfkampagne für die Belegschaft. An diesem Montagmittag (10. Oktober) lassen sich nun auch die beiden Klinikumsvorstände Prof. Michael Albrecht und Frank Ohi gegen Influenza impfen. Der damit verbundene Appell richtet sich nicht nur an die eigenen Teams, sondern an alle Mitarbeitenden des Gesundheitswesens sowie an die Bevölkerung.

Ohne eine hohe Zahl an immunisierten Personen besteht die Gefahr einer massiven Grippewelle. Folgen wären einerseits ein hoher Personalausfall in den Kliniken, der die Krankenversorgung einschränken könnte, und andererseits viele schwere Krankheitsverläufe mit einer überdurchschnittlichen Zahl an Klinikeinweisungen.

„Ich befürchte, dass die Corona-Infektionswelle Ende des Jahres – spätestens im Januar mit einer Influenza-Welle zusammenfällt, die diesmal viel massiver als sonst sein wird“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. „Denn wir haben nahezu keinen Immunschutz mehr gegen die Influenza. Das liegt daran, dass mit den notwendigen Corona-Maßnahmen wie das Maskentragen und die Abstandsregeln die Infektionsketten auch gegen die Grippeviren so unterbrochen worden sind, dass die Menschen keine Immunität in größerem Stil aufbauen konnten. Damit ist es für die Influenza-Erreger leichter, schwere Krankheitsverläufe auszulösen. Bei aller Aufmerksamkeit hinsichtlich der aktuellen Coronasituation sollte der Grippeschutz in dieser Saison nicht unterschätzt werden. Die echte Grippe – Influenza – ist keine einfache Erkältung, sondern eine ernstzunehmende Erkrankung“, sagt Prof. Albrecht weiter: „Sie ist häufig mit hohem Fieber verbunden und kann den Körper so stark schwächen, dass Erkrankte nicht selten länger arbeitsunfähig sind. Wenn eine solche Grippewelle durch unsere pflegerischen oder ärztlichen Teams rollt, geraten wir an unsere Grenzen.“ – „Das müssen wir unbedingt verhindern. Deshalb haben wir unsere interne Impfkampagne so frühzeitig gestartet und sind guter Hoffnung, dass sich am Uniklinikum die guten Impfquoten der vergangenen Jahre noch einmal erhöhen“, ergänzt Jana Luntz, Pflegedirektorin am Uniklinikum. „Die Impfangebote – sei es die gegen die Grippe oder bei Bedarf eine Covid-Boosterimpfung – sind uns sehr wichtig. Wir sorgen so für die Gesundheit unseres Personals sowie die Sicherheit der zu betreuenden Patientinnen und Patienten. Wir sehen uns hier als Arbeitgeber in der Pflicht. Dies ist unser Beitrag in der Bekämpfung möglicher Wellen in Herbst und Winter“, sagt der Kaufmännische Vorstand des Uniklinikums, Frank Ohi.

Die Impfung dient dem persönlichen Schutz der Mitarbeitenden, die häufiger als andere Berufsgruppen mit Influenzakranken in Kontakt kommen. Zudem folgt die Immunisierung des medizinischen Personals dem ethischen Gebot, den anvertrauten Patientinnen und Patienten nicht zu schaden. Denn viele davon tragen wegen bestehender Grunderkrankungen ein erhöhtes Risiko, eine schwere, eventuell tödliche Verlaufsform der Influenza zu entwickeln. Auch wenn die Immunisierung keinen hundertprozentigen Schutz gewährleisten kann, sorgt sie für zusätzliche Sicherheit: „Zahlreiche Studien haben gezeigt, dass eine Influenza-Erkrankung bei geimpften Personen milder, also mit weniger Komplikationen verläuft als bei Ungeimpften“, sagt Prof. Martin Aringer von der Medizinischen Klinik III, der am Montag die Vorstände im Rahmen des Pressetermins impft. Sachsens Gesundheitsministerin Petra Köpping appelliert unter anderem via Facebook: „Schützen Sie sich durch eine Influenza-Schutzimpfung! Influenza ist keine harmlose Erkrankung und es gibt eine sichere und sehr gut verträgliche Impfung.“ – Wie gewohnt kann sich die Bevölkerung in den Hausarztpraxen und den Impfstellen des öffentlichen Gesundheitsdienstes impfen lassen.

Kontakt für Medienschaffende
Universitätsklinikum Carl Gustav Carus Dresden
Pressesprecher: Holger Ostermeyer
Tel. 0351 4 58 41 62
E-Mail: pressestelle@uniklinikum-dresden.de
www.uniklinikum-dresden.de

Anhang

(nach oben)


Unternehmungsgeist von der Schule bis zur Weiterbildung

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Am 21. Oktober 2022 findet der 4. Deutsche Entrepreneurship Education Campus für Lehrer*innen, Trainer*innen, Dozenten und Dozentinnen an der Hochschule für Wirtschaft und Recht Berlin statt.

Berlin, 7. Oktober 2022 – „Innovative Lehre mit Unternehmungsgeist“ ist das Motto des vierten Deutschen Entrepreneurship Education Campus, der am 21. Oktober 2022 von 14.00 bis 17.00 Uhr am Campus Schöneberg der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) stattfindet, Badensche Straße 52, 10825 Berlin.

Lehrer*innen, Trainer*innen, Dozenten und Dozentinnen aus Schulen, von Universitäten und Hochschulen sowie anderen Weiterbildungseinrichtungen können sich Inspirationen holen, miteinander diskutieren und sich vernetzen. Das Themenspektrum reicht von fachdidaktischen Ansätzen zur Vermittlung unternehmerischen Denkens an Sekundarschulen und Gymnasien, über Online-Tools und Startups in Hochschulinkubatoren, bis zur Entrepreneurship Education in Familienunternehmen.

Die Keynote hält Prof. Dr. Ilona Ebbers von der Universität Flensburg. Sie tritt dafür ein, dass Lehre stärker auf Lernende ausgerichtet und entsprechende Rahmenbedingungen von der Schule bis zur Universität selbstgesteuerte Lehr- und Lernprozesse ermöglichen und fördern.

Die Teilnahme an der Veranstaltung ist kostenlos. Aus organisatorischen Gründen wird um vorherige Anmeldung gebeten.

Medienvertreter*innen sind herzlich eingeladen. Auf Anfrage können Interviews mit Experten und Expertinnen vermittelt werden.

Weitere Informationen, Programm und Anmeldung
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/804-deu…

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

https://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sven Ripsas
Tel.: +49 (0)30 30877 1230
E-Mail: sven.ripsas@hwr-berlin.de

(nach oben)


Grüner Wasserstoff: Raschere Fortschritte durch moderne Röntgenquellen

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Mit der Elektrokatalyse von Wasser lässt sich elektrische Energie aus Sonne oder Wind zur Erzeugung von grünem Wasserstoff nutzen und so speichern. Ein Überblicksbeitrag in der Fachzeitschrift Angewandte Chemie zeigt, wie moderne Röntgenquellen wie BESSY II die Entwicklung von passenden Elektrokatalysatoren vorantreiben können. Insbesondere lassen sich mit Hilfe von Röntgenabsorptionsspektroskopie die aktiven Zustände von katalytisch aktiven Materialien für die Sauerstoffentwicklungsreaktion bestimmen. Dies ist ein wichtiger Beitrag, um effiziente Katalysatoren aus günstigen und weit verbreiteten Elementen zu entwickeln.

Grüner Wasserstoff ist ein Energieträger mit Zukunft. Er wird durch die elektrolytische Aufspaltung von Wasser mit Energie aus Wind oder Sonne gewonnen und speichert diese Energie in chemischer Form. Damit die Aufspaltung von Wassermolekülen leichter (und mit weniger Energieeinsatz) gelingt, sind die Elektroden mit katalytisch aktiven Materialien beschichtet. Dr. Marcel Risch untersucht mit seinem Team in der Nachwuchsgruppe „Gestaltung des Sauerstoffentwicklungsmechanismus“ die Sauerstoffentwicklung bei der Elektrokatalyse von Wasser. Denn vor allem die Sauerstoffentwicklung muss für eine wirtschaftliche Wasserstoffproduktion noch effizienter ablaufen.

Eine spannende Materialklasse für Elektrokatalysatoren sind Manganoxide, die in vielen verschiedenen strukturellen Varianten vorkommen. „Ein entscheidendes Kriterium für die Eignung als Elektrokatalysator ist die Oxidationszahl des Materials und wie sie sich im Lauf der Reaktion verändert“, erläutert Risch. Bei den Manganoxiden gibt es auch hierbei eine große Vielfalt.

Informationen über die Oxidationszustände bringt die Röntgenabsorptionsspektroskopie (XAS): Röntgenquanten mit passender Energie regen dabei Elektronen auf den innersten Schalen an, die diese Quanten absorbieren. Je nach Oxidationszahl kann man diese Absorption bei unterschiedlichen Anregungsenergien beobachten. Das Team um Risch hat eine Elektrolyse-Zelle konstruiert, die XAS-Messungen während der Elektrolyse ermöglicht.

„Mit der Röntgenabsorptionsspektroskopie können wir nicht nur die Oxdationszahlen ermitteln, sondern auch Korrosionsprozesse oder Phasenveränderungen im Material beobachten“, sagt Risch. Kombiniert mit elektrochemischen Messungen ergibt sich aus den Messdaten damit ein deutlich besseres Verständnis des Materials während der Elektrokatalyse. Die benötigte hohe Intensität der Röntgenstrahlung steht allerdings nur an modernen Synchrotronlichtquellen zur Verfügung. In Berlin betreibt das HZB dafür BESSY II. Weltweit gibt es etwa 50 solcher Lichtquellen für die Forschung.

Risch sieht noch großes Potenzial für die Anwendung von Röntgenabsorptionsspektroskopie, insbesondere was die Zeitskalen der Beobachtung betrifft. Denn typische Messzeiten betragen einige Minuten pro Messung. Elektrokatalytische Reaktionen finden jedoch auf kürzeren Zeitskalen statt. „Wenn wir bei der Elektrokatalyse zuschauen könnten während sie passiert, könnten wir wichtige Details besser verstehen “ , meint Risch. Mit diesem Wissen würden sich preiswerte und umweltfreundliche Katalysatoren rascher entwickeln lassen. Andererseits finden viele „Alterungsprozesse“ binnen Wochen oder Monaten statt. „Wir könnten zum Beispiel in regelmäßigen Abständen die gleiche Probe immer wieder untersuchen, um diese Prozesse zu verstehen“, rät Risch. Damit ließen sich zusätzlich noch langlebigere Elektrokatalysatoren entwickeln.

Wissenschaftliche Ansprechpartner:
Dr. Marcel Risch, HZB, marcel.risch@helmholtz-berlin.de

Originalpublikation:
Angewandte Chemie 2022:
What X-ray absorption spectroscopy can tell us about the active state of earth-abundant electrocatalysts for the oxygen evolution reaction

Marcel Risch, Dulce M. Morales, Javier Villalobos, Denis Antipin
DOI: 10.1002/ange.202211949

(nach oben)


Mit den Nachhaltigkeitstagen den Wandel (er)leben

Anette Schober-Knitz Referat für Hochschulkommunikation und Marketing
HBC Hochschule Biberach
Die Hochschule Biberach (HBC) wird klimaneutral – und bietet auf dem Weg zu diesem ehrgeizigen Ziel immer wieder die Gelegenheit für Einblicke in das Vorhaben und Möglichkeiten der Beteiligung. So veranstaltet die HBC vom 18. bis 20. Oktober die Nachhaltigkeitstage 2022 und lädt Hochschulmitglieder, aber auch die Biberacher Bevölkerung ein, den Wandel zu (er)leben. Geboten wir ein vielfältiges Programm rund um nachhaltige Transformationsprozesse, Klimaneutralität, Naturschutz und vieles mehr. Dabei sind die Formate bunt gemischt: Besucher*innen haben die Wahl zwischen Ausstellungen, Workshops, Vorlesungen, Diskussionsrunden und einer Filmvorführung im Traumpalast Biberach.

Der Filmabend bildet den Schlusspunkt für den ersten Veranstaltungstag, auch an den folgenden beiden Tagen findet jeweils ab 19 Uhr ein besonders hochkarätig besetztes Format statt. Der Film „Transformance“ porträtiert Pioniere des Wandels und ergründet deren Antrieb. An die Vorführung schließt sich ein Filmgespräch an (Dienstag, 18.10., 19 Uhr, Traumpalast, freier Eintritt). Am zweiten Abend stehen die Bemühungen um die Klimaneutralität bis 2030 der Hochschule, der Stadt sowie des Landkreises im Mittelpunkt. In einem Regionaldialog geht Kanzler Thomas Schwäble zusammen mit Landrat Mario Glaser und Baubürgermeister Christian Kuhlmann der Frage nach, wo die Region steht, welche Herausforderungen sich stellen und wie diese gemeinsam bewältigt werden können. Die Perspektive der jungen Generation bringen Studierende der Hochschule ein, angefragt ist zudem die Energieagentur Biberach (Mittwoch, 19. Oktober, 19 Uhr, Audimax der HBC).

„Der Wachstumszwang. Warum die Wirtschaft ohne Wachstum nicht funktioniert und was dies für die Umwelt bedeutet“: Unter diesem Titel steht der Abschlussvortrag am dritten und letzten Abend der Nachhaltigkeitstage. Dafür konnte die Hochschule den renommierten Ökonom Dr. Mathias Binswanger gewinnen, der Professor für Volkswirtschaftslehre an der Fachhochschule Nordwestschweiz in Olten und Privatdozent an der Universität St. Gallen ist und Autor zahlreicher Bücher. Binswanger zählt zu den einflussreichsten Ökonomen in der Schweiz. In Biberach wird er über den Zusammenhang von Wirtschaftswachstum und Umweltproblemen sprechen, Hintergründe erläutern und aufzeigen, wie ein modernes Wirtschaftssystem nachhaltiger gestaltet werden kann (Donnerstag, 20. Oktober, 19 Uhr, Audimax der HBC).

Mit den Nachhaltigkeitstagen will die Hochschule Biberach aufzeigen, „welche ökologischen, sozialen und wirtschaftlichen Herausforderungen unsere Zeit bestimmen und dass es in unseren Händen liegt, jetzt die richtigen Entscheidungen für eine nachhaltigere Zukunft zu treffen“, sagt die Klimaschutzmanagerin der Hochschule, Lisa Meyering. Wie das gelingen und welchen Beitrag jede*r Einzelne einbringen kann, zeigen die Nachhaltigkeitstage auf. „Unser dreitägiges Programm ist sehr vielseitig und richtet sich an alle Altersgruppen“, ergänzt ihr Kollege Tobias Götz. Jeweils nachmittags (16 bis 14 Uhr) finden interessierte Bürger*innen – Jugendliche wie Erwachsene – Austausch und Beteiligung am Campus Stadt (Gebäude B).

So wird beispielsweise vorgestellt, wie Ressourcen schonend genutzt oder wie Siedlungen nachhaltig entwickelt werden können, warum die Bioökonomie als innovativer Weg in die Nachhaltigkeit gilt und was wir für die Zukunft aus der (Architektur-)Geschichte lernen können. Auch ganz praktische Tipps gibt es bei der Veranstaltung, zum Beispiel zum aktuellen Thema Energie sparen in Privathaushalten. Neben eigenen Programmpunkten hat die HBC auch andere Akteure aus der Region eingeladen, sich vorzustellen. Mit Infoständen und Workshops sind das Haus der Nachhaltigkeit Ulm, die Solidarische Landwirtschaft Bad Waldsee sowie das Projekt Naturvielfalt Westallgäu vertreten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. jur. Gotthold Balensiefen, Beaufragter für Nachhaltigkeit
balensiefen@hochschule-bc.de

Weitere Informationen:
http://www.hochschule-biberach.de/nachhhaltigkeitsstage22

(nach oben)


Neue Methode für Schnelltests: Hochempfindlicher Nachweis

Dr. Thomas Wittek Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Rot ist der Strich nicht, aber vielleicht leicht rosa – oder doch nur ein eingebildeter Schatten? Corona-Schnelltests können zwar eine Infektion nachweisen, ist die Viruslast aber gering, kommt es oft zu falschen Negativ-Ergebnissen, da der Test nicht empfindlich genug ist. Das wollen Wissenschaftler:innen der Physikalischen Chemie der Universität Duisburg-Essen (UDE) um Prof. Sebastian Schlücker ändern. Dafür erhielt er nun den Internationalen Raman-Innovationspreis.

Je empfindlicher der Test, desto niedriger kann die Konzentration der nachzuweisenden Substanz für ein eindeutiges Ergebnis sein. „Die Empfindlichkeit unserer Methodik ist unter Laborbedingungen zehn Millionen Mal höher als bei üblichen Tests“, erklärt Prof. Schlücker vom Center for Nanointegration (CENIDE) der UDE. Allerdings wissen die Forschenden hier genau, was in der Probe chemisch vorliegt. Nun muss das Verfahren in die Praxis übertragen werden. „Dort sind allerdings störende Komponenten enthalten. Wenn wir trotzdem ‚nur‘ noch eine 100- bis 1000-fache Verbesserung erhalten, ist dies immer noch ein Meilenstein.“ Und: Die Methode kann nicht nur bei Coronaviren eingesetzt werden, sondern überall dort, wo Stoffe vor Ort schnell und in sehr niedriger Konzentration nachgewiesen werden müssen – etwa bei einer Sepsis oder schädlichen Bakterien in Lebensmitteln.

Die Methode basiert auf den bereits bestehenden Schnelltests. „Die üblichen nanometerkleinen Goldpartikel, durch welche die rote Farbe beim Schnelltest entsteht, werden durch unser optimiertes Raman-Molekül-kodiertes Nanogold ersetzt.“ Ansonsten bleiben Herstellung und Funktion gleich. „Unsere Partikel sind etwas aufwendiger in der Herstellung. Diesen Prozess wollen wir automatisieren – dadurch schneller und günstiger werden“, erklärt Schlücker weiter.

Im Gegensatz zu den normalen Teststreifen, bei denen mit dem bloßen Auge die Testlinie erkannt wird, ist bei diesem Verfahren ein Laser-basiertes Messgerät (Reader) notwendig. Dieser ist derzeit noch so groß wie ein Notebook und soll kleiner werden. Dafür ist er 100- bis 1.000-fach schneller und kostet weniger als zehn Prozent im Vergleich zu den bisher verwendeten Raman-Forschungsgeräten. Für diese Entwicklung hat Schlücker den Internationalen Raman-Innovationspreis erhalten. Aber: da das Gerät benötigt wird, kann nicht jeder den Test bei sich zu Hause machen. „So ein Gerät könnte aber in Apotheken, Arztpraxen und Testzentren stehen. Da würde sich die Anschaffung für das Gerät dann rechnen – und benötigt immer noch weniger Zeit als ein PCR-Test. Bis zum flächendeckenden Einsatz könnte es noch zwei bis drei Jahre dauern.

Wissenschaftliche Ansprechpartner:
Prof. Dr Sebastian Schlücker, Physikalische Chemie und CENIDE, Tel. 0201/18 3- 6843, sebastian.schluecker@uni-due.de

Weitere Informationen:
https://www.uni-due.de/imperia/md/content/ag-schluecker/git_0322.pdf

(nach oben)


Das Quecksilbergeheimnis in der Tiefsee

Bianca Loschinsky Presse und Kommunikation
Technische Universität Braunschweig
Die Kisten sind schon lange gepackt, Genehmigungen eingeholt und auch der Medizin-Check ist abgeschlossen: Nun ist Dr. Marta Pérez Rodríguez von der Technischen Universität Braunschweig an Bord des Forschungsschiffs „Polarstern“. Der Eisbrecher des Alfred-Wegener-Instituts (AWI) hat sich am 2. Oktober von Kapstadt aus auf den Weg in den Südatlantik begeben. Dort wird die Umweltwissenschaftlerin als Teil der Island-Impact-Expedition in den Gewässern um Südgeorgien Wasser- und Sedimentproben sammeln. Ziel ist es, zu erfahren, wo sich das Quecksilber in den Tiefen des Meeres ablagert.

Die zweigeteilte Expedition „Island Impact“ untersucht von Oktober bis Dezember biogeochemische Stoffflüsse um Südgeorgien, eine Inselgruppe im Südatlantik östlich der Ostküste Südamerikas. Hier treten einige der höchsten Konzentrationen von Phytoplankton im südlichen Ozean auf. Diese beträchtlichen Algenblüten benötigen für ihre Entwicklung eine Eisenquelle. Hauptaugenmerk der Expedition liegt darauf, die Quellen und Wege des Eintrags von Eisen und anderen Nährstoffen in die Schelfgewässer Südgeorgiens und weiter stromabwärts in den südlichen Antarktischen Zirkumpolarstrom (ACC) zu verstehen.

Quecksilber eingeschlossen in Sedimenten
Hier setzt auch die Forschung der Arbeitsgruppe Umweltgeochemie des Instituts für Geoökologie an, die sich auf das Spurenmetall Quecksilber konzentriert. Quecksilber ist ein hochgiftiger Schadstoff, der die menschliche Gesundheit ernsthaft schädigen kann. Der größte Teil der Quecksilberverschmutzung gelangt durch die Verbrennung von Kohle und anderen fossilen Brennstoffen sowie durch industrielle Aktivitäten in die Atmosphäre. Doch wohin gelangt es dann?

Bereits seit 2016 forschen Professor Harald Biester und Dr. Marta Pérez Rodríguez zum Quecksilberkreislauf und der Primärproduktion in den Ozeanen. In einer Studie, die 2018 in der Fachzeitschrift „Science“ veröffentlicht wurde und international Anerkennung fand, stellten sie fest, dass die untersuchten antarktischen Kieselsäuresedimente überraschend große Mengen an Quecksilber enthielten. Die Ergebnisse deuten darauf hin, dass bis zu 25 Prozent der Quecksilberemissionen der letzten 150 Jahre in solchen Sedimenten eingeschlossen sein könnten. „Von der Forschungsreise mit der ‚Polarstern‘ erhoffen wir uns nun weitere Erkenntnisse zum Quecksilberkreislauf, über den Verbleib von Quecksilber in der Wassersäule in produktiven Meeresgebieten und über die Rolle von Algenblüten für die Speicherung von Quecksilber in Meeressedimenten“, sagt Professor Biester.

Proben aus 6.000 Metern Tiefe
Dafür werden die Wissenschaftler*innen unter anderem Wasserproben in bis zu 5.000 Metern Tiefe und Meeressedimente in mehr als 6.000 Metern Tiefe nehmen. „Die Expedition gibt uns die Möglichkeit, vielfältige Proben zu sammeln, die wir sonst nicht erhalten würden“, sagt Dr. Marta Pérez Rodríguez. So setzen die Forschenden spezielle Wasserpumpen zum Sammeln von Schwebstoffen in der Tiefe ein, die nicht zur Standardausrüstung vieler Meeresuntersuchungen gehören. „Die gewonnenen Daten werden wird dann mit elementaren Meerwassereigenschaften wie Dichte, Salzgehalt, Temperatur, Sauerstoffkonzentration und Chlorophyllkonzentration sowie mit Informationen anderer Forschungsgruppen zusammenführen, beispielsweise die Identifizierung von Zooplanktonarten und anderen Spurenmetallkonzentrationen.“

Auf die Expedition hat sich die Wissenschaftlerin monatelang vorbereitet. Neben Schulungen für die Arbeit an Bord mussten Genehmigungen zu Probennahme eingeholt und vor allem das Arbeitsmaterial mehrfach gesäubert werden. „Die Quecksilberkonzentrationen im offenen Ozean sind sehr niedrig, sodass wir unter sehr sauberen Bedingungen arbeiten müssen“, erläutert Dr. Marta Pérez Rodríguez. „Die Reinigung der Flaschen, die wir zum Sammeln von Methylquecksilber verwenden werden, dauert zum Beispiel etwa zwölf Tage und umfasst mehrere Schritte mit Seifen, konzentrierten Säuren und ultrareinem Wasser.“

Gut gerüstet gegen stürmische See
Außerdem stand für alle Teilnehmenden ein medizinischer Check an. Das Leben und Forschen an Bord könnte für die Umweltwissenschaftlerin hin und wieder ungemütlich werden. Auch wenn die „Polarstern“ in Kapstadt voraussichtlich bei eher frühlingshaftem Wetter startet, wird es während der Expedition nicht dabei bleiben. Je weiter sich das Forschungsschiff Richtung Süden bewegt, desto niedriger werden die Temperaturen. Und in der Nähe von Südgeorgien könnten Stürme mit hohen Wellen die Arbeit beeinträchtigen. Gegen Kälte sind die Expeditionsteilnehmer*innen gut gerüstet: Das AWI stellt extra Kleidung mit wasserdichter Hose und Jacke, Fleecejacke, Wollmütze, Handschuhe und Sicherheitsstiefel zur Verfügung.

Dass die Expedition möglicherweise etwas stürmisch wird, schreckt Dr. Marta Pérez Rodríguez nicht. Sie freut sich, dass es nun endlich losgeht: „An einer Expedition an Bord eines Forschungsschiffes wie der Polarstern und an einem Ort wie dem Südatlantik teilzunehmen, ist ein Meilenstein in meiner Karriere und meinem Leben. Für mich persönlich geht als Umweltwissenschaftlerin damit ein Jugendtraum in Erfüllung.“

Expedition „Island Impact“
Die Polarstern-Expedition „Island Impact“ im Südatlantik findet unter der Leitung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) von Ende September bis Dezember 2022 statt und wird von Dr. Christine Klaas und Professorin Sabine Kasten (beide AWI) koordiniert. Dr. Marta Pérez Rodríguez wird im ersten Teil der Expedition bis Mitte November teilnehmen. Für die Untersuchungen kooperiert das Institut für Geoökologie mit Forschenden des Leibniz-Instituts für Ostseeforschung Warnemünde, dem National Institute of Aquatic Resources, Section for Oceans and Arctic an Dänemarks Technischer Universität (DTU), dem HADAL – Danish Center for Hadal Research der Süddänischen Universität und dem Institut Méditerranéen d’Océanographie der Aix-Marseille-Universität in Frankreich.

Der Polarstern folgen
Die Expeditionen des AWI-Forschungsschiffs „Polarstern“ kann man live per App verfolgen. Über https://follow-polarstern.awi.de gibt es Positions- und Wetterdaten in Echtzeit sowie mehrmals wöchentlich aktuelle Fotos und Berichte von Bord der „Polarstern“.

Link:
Interview mit Dr. Marta Pérez Rodríguez zur Expedition:
https://magazin.tu-braunschweig.de/m-post/aufbruch-zu-einer-stuermischen-forschu…

Wissenschaftliche Ansprechpartner:
Dr. Marta Pérez Rodríguez
Technische Universität Braunschweig
Institut für Geoökologie
Abt. Umweltgeochemie
Langer Kamp 19c
38106 Braunschweig
Tel.: 0531 391-7242
E-Mail: m.perez-rodriguez@tu-braunschweig.de
https://www.tu-braunschweig.de/geooekologie/institut/geochemie

Prof. Dr. Harald Biester
Technische Universität Braunschweig
Institut für Geoökologie
Abt. Umweltgeochemie
Langer Kamp 19c
38106 Braunschweig
Tel.: 0531 391-7240
E-Mail: h.biester@tu-braunschweig.de
https://www.tu-braunschweig.de/geooekologie/institut/geochemie

Originalpublikation:
Sara Zaferani, Marta Pérez-Rodríguez, Harald Biester: Diatom ooze – A large marine mercury sink. Science, Vol. 361, NO. 640424 Aug 2018: 797-800,
DOI: https://doi.org/10.1126/science.aat2735

(nach oben)


Konferenzhinweis: Künstliche Intelligenz und ihre Auswirkungen auf Gesellschaften

Jens Rehländer Kommunikation
VolkswagenStiftung
Auf der Herrenhäuser Konferenz „AI and the Future of Societies“ werden Expert:innen aktuelle und zukünftige Entwicklungen in Forschung und Anwendung von Künstlicher Intelligenz sowie deren Auswirkungen auf Gesellschaften diskutieren. Medienvertreter:innen sind herzlich eingeladen, vom 12. bis 14. Oktober an der Konferenz in Hannover teilzunehmen.

Der breite Einsatz Künstlicher Intelligenz (KI) wird moderne Gesellschaften weltweit grundlegend verändern. Die Lebensbereiche, die KI durchdringt, nehmen zu – sowohl in Arbeitswelten, als auch im privaten Bereich. Und damit bekommt die Frage, wo sie sinnvoll und gewinnbringend implementiert werden und wo sie eventuell sogar ein Risiko darstellen kann, größere Bedeutung. Welche Auswirkungen kann die digitale Revolution also haben?

Auf der Herrenhäuser Konferenz „AI and the Future of Societies“ (https://www.volkswagenstiftung.de/veranstaltungen/veranstaltungskalender/herrenh…) diskutieren Expert:innen aus interdisziplinärer Perspektive unter anderem die Auswirkungen von KI auf die Ausgestaltung sozialer Ungleichheiten, ihren Einfluss auf politische und wirtschaftliche Systeme und Arbeitsbeziehungen sowie die Konsequenzen für die Zukunft der Mobilität. Die Forschenden suchen nach Antworten auf die Frage, wie Menschen KI-Anwendungen zu ihrem Vorteil nutzen und wie alle Teile der Gesellschaft am Nutzen von KI partizipieren können.

Die Konferenz teilt sich in verschiedene Sessions auf (Konferenzsprache ist Englisch):

Mittwoch, 12. Oktober 2022:
• Keynote: AI and the drive towards a cybernetic society
• Session 1: AI and social inequality
• Session 2: Challenges of automated decision-making

Donnerstag, 13. Oktober 2022:
• Session 3: AI and the future of work
• Session 4: AI in medicine and eldercare
• Session 5: AI and youth
• Session 6: AI, communication, and democracy

Freitag, 14. Oktober 2022:
• Session 7: AI and sustainability
• Session 8: AI and the future of societies 2035+

Das vollständige Programm mit allen Redner:innen, Vortragsthemen und Uhrzeiten finden Sie im Anhang. Als Medienvertreter:in sind Sie herzlich eingeladen, an der Konferenz oder Teilen davon teilzunehmen. Gerne organisieren wir Interviewtermine für Ihre Berichterstattung. Wir bitte um formlose Anmeldung zur Konferenz an presse@volkswagenstiftung.de.

INFORMATIONEN ZUR VOLKSWAGENSTIFTUNG
Die VolkswagenStiftung ist eine eigenständige, gemeinnützige Stiftung privaten Rechts mit Sitz in Hannover. Mit einem Fördervolumen von insgesamt etwa 150 Mio. Euro pro Jahr ist sie die größte private deutsche wissenschaftsfördernde Stiftung und eine der größten Stiftungen hierzulande überhaupt. Ihre Mittel vergibt sie ausschließlich an wissenschaftliche Einrichtungen. In den mehr als 60 Jahren ihres Bestehens hat die VolkswagenStiftung rund 33.000 Projekte mit insgesamt mehr als 5,5 Mrd. Euro gefördert. Auch gemessen daran zählt sie zu den größten gemeinnützigen Stiftungen privaten Rechts in Deutschland.

Weitere Informationen über die VolkswagenStiftung finden Sie unter https://www.volkswagenstiftung.de/stiftung/wir-ueber-uns.

NEWSLETTER DER VOLKSWAGENSTIFTUNG ERHALTEN
Der Newsletter der VolkswagenStiftung informiert regelmäßig (etwa einmal pro Monat) über aktuelle Förderangebote, Stichtage, Veranstaltungen und Nachrichten rund um die Stiftung und um geförderte Projekte. Haben Sie Interesse an unserem Newsletter? Dann folgen Sie diesem Link: https://www.volkswagenstiftung.de/newsletter-anmeldung

Weitere Informationen:
https://www.volkswagenstiftung.de/veranstaltungen/veranstaltungskalender/herrenh… Link zur Veranstaltungsseite.
https://www.volkswagenstiftung.de/stiftung/wir-ueber-uns Weitere Informationen über die VolkswagenStiftung.
https://www.volkswagenstiftung.de/aktuelles-presse/presse/konferenzhinweis-k%C3%… Die Presseinformation im Internet.

Anhang
AI and the Future of Societies – Conference Program

(nach oben)


Die Besonderheit der Farbe Rot

Katharina Hempel Presse- und Öffentlichkeitsarbeit
Ernst Strüngmann Institute (ESI) for Neuroscience
Rot hat eine Signal- und Warnwirkung. Spiegelt sich diese farbliche Besonderheit auch im Gehirn wieder? Forschende des Ernst Strüngmann Institute (ESI) for Neuroscience sind dieser Frage nachgegangen.

Leuchtet die Ampel rot, bleiben wir stehen. Reife Kirschen an einem Baum stechen durch ihre Farbe hervor. Der Farbe Rot wird eine Signal- und Warnwirkung zugeschrieben. Aber spiegelt sich diese auch im Gehirn wieder? Forschende des Ernst Strüngmann Institute (ESI) for Neuroscience sind dieser Frage nun nachgegangen. Sie wollten wissen, ob Rot Hirnwellen in einem bestimmten Bereich stärker auslöst als andere Farben. Ihre Ergebnisse veröffentlichten sie jüngst in der Fachzeitschrift eLife.
Im Zentrum der Untersuchungen von Benjamin J. Stauch, Alina Peter, Isabelle Ehrlich, Zora Nolte und ESI-Direktor Pascal Fries steht der frühe visuelle Kortex, auch bekannt als V1. Es ist das größte visuelle Areal im Gehirn. Und das erste, das Input von der Netzhaut erhält. Dort entstehen Hirnwellen (Oszillationen) auf einer bestimmten Frequenz, dem sogenannten Gamma-Band (30-80 Hz), wenn dieser Bereich von starken und räumlich homogenen Bildern angeregt wird. Aber nicht alle Bilder erzeugen diesen Effekt in gleichem Maße!

Die Wirkung einer Farbe nachweisen
„In jüngster Zeit drehen sich viele Forschungsprojekte um die Frage, welcher spezifische Input Gamma-Wellen antreibt“, erläutert Benjamin J. Stauch, Erstautor der Studie. „Ein Auslöser scheinen farbige Oberflächen zu sein. Besonders, wenn sie rot sind. Die Wissenschaftler*innen haben dies dahingehend interpretiert, dass Rot für das visuelle System evolutionsbedingt etwas Besonderes ist, weil zum Beispiel Früchte oft rot sind.“
Aber wie lässt sich die Wirkung einer Farbe wissenschaftlich nachweisen? Oder gar widerlegen? Denn: Eine Farbe objektiv zu definieren ist schwer, Farben zwischen verschiedenen Studien zu vergleichen ebenfalls. Jeder Computermonitor gibt eine Farbe ein wenig anders wieder, sodass Rot auf dem einem Bildschirm nicht das gleiche ist wie auf einem anderen. Hinzu kommt, dass es eine Vielzahl von Möglichkeiten gibt, Farben zu definieren: auf der Grundlage eines einzelnen Monitors oder von Wahrnehmungsbeurteilungen oder basierend darauf, was deren Eintreffen auf der menschlichen Netzhaut bewirkt.

Farben aktivieren Lichtsinneszellen
Denn der Mensch nimmt Farben wahr, wenn in der Netzhaut bestimmte Lichtsinneszellen aktiviert werden, die sogenannten Zapfen. Sie reagieren auf Lichtreize, indem sie diese in elektrische Signale umwandeln, die dann von Nervenzellen zum Gehirn geleitet werden. Um Farben erkennen zu können, brauchen wir mehrere Typen von Zapfen. Jeder Zapfentyp ist besonders empfänglich für einen bestimmten Wellenlängenbereich: Rot (L-Zapfen), Grün (M-Zapfen) oder Blau (S-Zapfen). Das Gehirn vergleicht, wie stark die jeweiligen Zapfen reagieren und ermittelt daraus einen Farbeindruck.
Dies funktioniert bei allen Menschen in ähnlicher Weise. Es bestünde also die Möglichkeit, Farben objektiv zu definieren, indem gemessen wird, wie stark sie die verschiedenen Netzhautzapfen aktivieren. Wissenschaftliche Untersuchungen mit Makaken haben ergeben, dass das frühe visuelle System der Primaten zwei auf diesen Zapfen basierende Farbachsen besitzt: Die L-M-Achse vergleicht Rot mit Grün, die S – (L+M)-Achse vergleicht Gelb mit Violett. „Wir glauben, dass ein Farbkoordinatensystem, dem diese beiden Farbachsen zugrunde liegen, das richtige ist, um Farben zu definieren, wenn Forschende die Stärke von Gamma-Oszillationen erforschen wollen, weil es Farben direkt danach definiert, wie stark und auf welche Weise sie das frühe visuelle System aktivieren“, ist Benjamin J. Stauch überzeugt. Weil frühere Arbeiten zu farbbezogenen Gamma-Oszillationen meist mit kleinen Stichproben von einigen wenigen Primaten oder menschlichen Proband*innen durchgeführt wurden, aber die Spektren der Zapfenaktivierung genetisch bedingt von Individuum zu Individuum variieren können, messen er und sein Team in dem nun veröffentlichten Paper eine größere Stichprobe von Individuen (N = 30).

Gleiche Wirkung von Rot und Grün
Dabei gehen sie der Frage nach, ob Rot wirklich etwas Besonderes ist. Also ob diese Farbe stärkere Gamma-Oszillationen auslöst als ein Grün mit vergleichbarer Farbstärke (d. h. Zapfenkontrast). Und eine Nebenfrage lautet: Lassen sich farbinduzierte Gamma-Oszillationen auch durch Magnetoenzephalographie (MEG) nachweisen, also durch ein Verfahren zur Messung der magnetischen Aktivitäten des Gehirns?
Sie kommen zu dem Ergebnis, dass die Farbe Rot nicht besonders stark ist, was die Intensität der von ihr ausgelösten Gamma-Oszillationen betrifft. Vielmehr lösen Rot und Grün bei gleichem absolutem L-M-Zapfenkontrast gleich starke Gamma-Oszillationen im frühen visuellen Kortex aus. Darüber hinaus können farbinduzierte Gamma-Wellen bei sorgfältiger Behandlung im menschlichen MEG gemessen werden, sodass künftige Forschungen den 3R-Prinzipien für Tierversuche (Reduce/Verringern, Replace/Vermeiden, Refine/Verbessern) folgen könnten, indem sie an Menschen statt an nicht-menschlichen Primaten durchgeführt werden.
Farben, die nur den S-Zapfen (Blau) aktivieren, scheinen im frühen visuellen Kortex im Allgemeinen nur schwache neuronale Reaktionen hervorzurufen. Dies ist in gewisser Weise zu erwarten, da der S-Zapfen auf der Netzhaut von Primaten seltener vorkommt, evolutionär älter und träger ist.

Beitrag zur Entwicklung von Sehprothesen
Die Ergebnisse dieser Studie der ESI-Wissenschaftler*innen, das Verständnis der Art und Weise, wie der frühe menschliche visuelle Kortex Bilder kodiert, könnte eines Tages bei der Entwicklung von Sehprothesen hilfreich sein, die versuchen, den visuellen Kortex zu aktivieren, um bei Menschen mit geschädigter Netzhaut seh-ähnliche Wahrnehmungseffekte hervorzurufen. Dieses Ziel liegt jedoch noch in weiter Ferne. Es muss erst noch viel mehr über die spezifischen Reaktionen des visuellen Kortex auf visuelle Eingaben verstanden werden.

Wissenschaftliche Ansprechpartner:
Benjamin Stauch, presse@esi-frankfurt.de

Originalpublikation:
Stauch BJ, Peter A, Ehrlich I, Nolte Z, Fries P (2022). Human visual gamma for color stimuli. eLife 11, e75897. https://doi.org/10.7554/eLife.75897

(nach oben)


Soziale Dilemma spielerisch erklären – Die Entwicklung von Moralvorstellungen fördert selbstloses Handeln

Jana Gregor Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Mathematik in den Naturwissenschaften (MPIMIS)
Die menschliche Entscheidungsfindung und das Zusammenspiel von individueller und Gruppendynamik ist außerordentlich vielschichtig. Leider kann unser Verhalten negative Konsequenzen, wie die Erschöpfung gemeinsamer Ressourcen auf Kosten der Umwelt, haben. Mohammad Salahshour, Forscher am MPI für Mathematik in den Naturwissenschaften, hat untersucht wie strategische Entscheidungen, soziale Normen und Moral Entscheidungen beeinflussen. Sein spieltheoretischer Ansatz zeigt, wie die Komplexität realer strategischer Zusammenhänge zur Entwicklung moralischer Normen führen kann, die Gesellschaften helfen, sich selbst besser zu steuern, indem sie Einzelentscheidungen im Interesse der Gruppe lenken.

Der Entscheidungsprozess ist nicht selten konfliktreich und kann zu sozialen Konfliktsituationen führen, in denen die Interessen des Einzelnen dem Nutzen für die Gruppe oder die Gesellschaft gegenüberstehen. Die Moral bietet einen Ausweg aus dieser Tragik der Allmende, indem sie altruistische Anreize fördert und den Einzelnen dazu motiviert, seinen Egoismus zu zügeln und zu kooperieren, selbst wenn es mit persönlichen Kosten verbunden ist. Die Entstehung von moralischen Werten ist immer noch ein evolutionäres Rätsel. Die Kernfrage ist, warum eine Person sich selbst aufopfern und ihre persönliche Stellung untergraben sollte, um zu kooperieren und der Gruppe zu helfen. Es zeigte sich, dass das individuelle Streben nach Ordnung und Organisation in der Gesellschaft diese Entwicklung vorantreibt. Nachdem also zunächst aus reinem Eigeninteresse eine Form der sozialen Ordnung erstrebt wurde, verlangt das daraus resultierende moralische System eine Form der aufopferungsvollen Zusammenarbeit.

Individuen in Gruppen stehen oft gleichzeitig vor unterschiedlichen strategischen Problemen, die es zu lösen gilt. Der Max-Planck-Forscher Mohammad Salahshour verwendete grundlegende strategische Spiele als eine Art Metapher für eine Vielzahl dieser Problemstellungen, einschließlich sozialer Dilemmas und Koordinations- und Kooperationsprobleme, wie etwa die Aufteilung von Ressourcen. Um zu ermitteln, ob diese einfachen spieltheoretischen Näherungen für die Darstellung komplexer Interaktionen in der realen Welt geeignet sind, entwickelte er ein neuartiges evolutionäres Modell gekoppelter interagierender Spiele. In einem ersten Schritt müssen die Akteure ein Gefangenendilemma lösen, gefolgt von einem zweiten Spiel, das verschiedenen Klassen angehören kann, die strategische Szenarien darstellen, mit denen Individuen in Gruppen konfrontiert werden können. Bei der Untersuchung der sich daraus ergebenden Nash-Gleichgewichte konnte Mohammad Salahshour nachweisen, dass das Resultat der Entscheidungen der Spieler im sozialen Dilemma, das ihnen im ersten Spiel präsentiert wurde, ihre strategischen Entscheidungen im zweiten Spiel beeinflusst und zur Lösung verschiedener strategischer Probleme wie Koordination, Ressourcenteilung und Wahl des Anführers beitragen kann.

Diese erhöhte Komplexität der interagierenden Spiele führt zu einer breiten Palette möglicher Szenarien, da ein kooperierender Spieler nun für seine Unterwerfung im sozialen Dilemma belohnt werden kann. Abhängig von dieser Entschädigung entstehen auf natürliche Weise moralische Normen wie „gutes“ oder „schlechtes“ Verhalten: Im Falle einer geringen Auszahlung aus dem Spiel mit dem nicht-sozialen Dilemma – und somit einer geringen Kopplung der Spiele und einer geringen Komplexität – gibt es keinen intrinsischen Nutzen in der Kooperation, und die Hinterlist bleibt die rationale Wahl. Wird die Kopplung jedoch stark genug, kommt es zu einem symmetriebrechenden Phasenübergang, bei dem die Symmetrie zwischen Kooperation und Verrat gebrochen wird und sich eine Reihe kooperationsfördernder sozialer Normen herausbildet, denen zufolge Kooperation eine wertvolle Eigenschaft ist, die es wert ist, übernommen zu werden.

Salashours Studie zur Entwicklung moralischer Normen zeigte, dass die Moral zwei ganz unterschiedliche Funktionen ausübt. Die bereits erwähnte Förderung von selbstaufopferndem oder altruistischem Verhalten und die Ermutigung zu gegenseitig vorteilhaftem Verhalten. Diese zweite Funktion setzt keine Selbstaufopferung voraus und könnte sich z. B. in gegenseitiger Kooperation oder Konfliktlösung manifestieren, also in Normen, die die soziale Ordnung und Organisation fördern können. Der Mathematiker sagt: „Ein Moralsystem verhält sich wie ein trojanisches Pferd: Sobald es aus dem Eigeninteresse der Individuen heraus zur Förderung von Ordnung und Organisation eingeführt wurde, bewirkt es auch eine selbstaufopfernde Zusammenarbeit und unterdrückt antisoziales Verhalten.“ Besonders faszinierend an seiner Theorie ist, dass allein die Kosten der Normen und nicht ihr tatsächlicher Nutzen für deren Etablierung ausschlaggebend sind. Diese Tatsache kann die überraschende Entwicklung schädlicher sozialer Normen wie destruktive kulturelle Praktiken, Ehrenmorde oder grausame Strafen erklären. Diese Normen sind für den Einzelnen kostspielig und haben oft keinen unmittelbaren sozialen Nutzen, was zu kollektiven Kosten führt; sie können jedoch ebenso wirksam zur Förderung der sozialen Ordnung und zur Stabilisierung von Gesellschaften beitragen, insbesondere wenn es keine staatlichen Organe zur Rechtsdurchsetzung gibt.

Wissenschaftliche Ansprechpartner:
Mohammad Salahshour
Mail: msalahshour@ab.mpg.de

Originalpublikation:
Salahshour M (2022) Interaction between games give rise to the evolution of moral norms of cooperation. PLoS Comput Biol 18(9): e1010429
https://doi.org/10.1371/journal.pcbi.1010429

(nach oben)


UV-C-Strahlung zur Inaktivierung des Covid-19-Erregers in Aerosolen

Vanessa Offermann Abteilung Hochschulkommunikation
Hochschule Heilbronn
GEMEINSAME MEDIENINFORMATION

GEMEINSAME MEDIENINFORMATION
• Neue Studie liefert klare Ergebnisse: UV-C-Strahlung vernichtet Corona-Partikel in der Luft.
• Resultat zeigt Lösung für den Aufenthalt in Innenräumen.
• Herausgefunden hat das ein interdisziplinäres Forschungsteam der Uniklinik Tübingen und der Hochschule Heilbronn.

UV-C-Strahlung ist wirksam zur Desinfektion von Flüssigkeiten und Oberflächen. Unklar ist jedoch, in welchem Maße sie zur Inaktivierung von SARS-CoV-2-haltigen Aerosolen beitragen kann. Insbesondere die notwendige UV-C-Dosis zur Reduktion der Viruslast konnte bislang nicht ermittelt werden. Ein interdisziplinäres Forschungsteam aus Tübinger Virolog*innen und Ingenieur*innen der Hochschule Heilbronn (HHN) ging dieser Frage nun nach. Die Ergebnisse der Studie sind aktuell in der Fachzeitschrift Indoor Air publiziert. Für die Weiterführung der Aerosolstudie bemüht sich das Forschungsteam um Fördergelder.

SARS-CoV-2 hat sich seit Januar 2020 ausgebreitet und zu einer weltweiten Krise geführt. Neben direktem Kontakt und Tröpfchen sind Aerosole der Hauptübertragungsweg des Virus. Um Dekontaminationen der Atemluft zu ermöglichen, bedarf es daher einem Wirksamkeitsnachweis bereits eingesetzter Methoden. UV-C-Desinfektion wird seit Jahrzehnten zur Inaktivierung verschiedener infektiöser Erreger in kontaminierten Flüssigkeiten genutzt. Ob das Verfahren auch zur Inaktivierung von SARS-CoV-2-haltigen Aerosolen beitragen kann und wie hoch die notwendige UV-C-Dosis sein muss, konnte ein Forschungsteam nun erstmals ermitteln: Das Team um Prof. Dr. Michael Schindler vom Institut für Medizinische Virologie und Epidemiologie der Viruskrankheiten am Uniklinikum Tübingen sowie die Ingenieur*innen der Hochschule Heilbronn, unter Leitung von Prof. Dr.-Ing. Jennifer Niessner.

Über die Studie
Mithilfe eines im Hochsicherheitslabor der Tübinger Virologie eigens konstruierten Aerosol-Prüfstands konnte der Covid-19-Erreger unter kontrollierten Bedingungen vernebelt werden. Das Virus-Aerosol wurde einer genau definierten UV-C-Dosis ausgesetzt und Verfahren entwickelt, um die Viren aus dem Aerosol wieder abzuscheiden sowie ihre Vermehrungsfähigkeit zu testen. Dabei konnte das Forschungsteam nicht nur die sehr gute Effizienz von bereits geringen UV-C-Dosen zur Inaktivierung von Coronaviren nachweisen, sondern auch erstmals wissenschaftlich beweisen, dass UV-C-basierte Luftreiniger Coronaviren zuverlässig unschädlich machen. „Wir waren überrascht, dass UV-C Dosen im unteren Bereich dessen, was wir im Prüfstand anwenden können, ausreichend waren, um über 99,9 Prozent der infektiösen Viruspartikel zu inaktivieren“, erläutert Dr. Natalia Ruetalo, die die Infektionsexperimente in der Tübinger Virologie durchführte. Dies ist hinsichtlich der bevorstehenden Jahres- und Erkältungszeit als auch einer etwaigen weiteren Coronawelle von besonderer Relevanz.

„Mit dem modularen Prüfstand könnten wir nun nicht nur SARS-CoV-2, sondern auch andere über Aerosole übertragene Viren analysieren sowie die Effizienz verschiedenster Inaktivierungsverfahren oder den Einfluss von Umweltfaktoren“, so Prof. Schindler, der gemeinsam mit Prof. Niessner vom Institut für Strömung in additiv gefertigten porösen Strukturen an der Hochschule Heilbronn die Studie leitete. Dem interdisziplinären Team gelang es in nur einem Jahr diesen voll funktionsfähigen modularen Prüfstand zu konstruieren – von der Idee bis hin zum Aufbau und der Integration in die Anwendung. „Wir haben vorausschauend einen modularen Prüfstand konzipiert, der sich flexibel einsetzen und anwenden lässt und nach unserer Erkenntnis weltweit einzigartig ist“, so Prof. Niessner.

Warum es vorerst beim Konjunktiv bleibt, äußern sich die Studienleiter ratlos und ernüchtert, da sie bisher trotz intensiver Anstrengungen weder öffentliche noch industrielle Fördermittel zur Weiterführung ihrer Forschung akquirieren konnten. „Anscheinend wurden in den letzten zwei Jahren so viel Fördergelder in die Coronaforschung gesteckt, dass nun auch vielversprechende und über den Kontext hinausgehende Projekte im Angesicht der vermeintlich beendeten Pandemie eingestellt werden“, sagt Schindler.
Die angespannte Wirtschaftslage und Rezessionsängste tragen ihren Teil bei. Bleibt nur zu hoffen, dass es keine weitere Pandemie braucht, um dem innovativen Aerosol-Prüfstand aus Heilbronn und Tübingen wieder Leben einzuhauchen.

Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit rund 8.000 Studierenden ist die Hochschule Heilbronn (HHN) eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt in den Bereichen Technik, Wirtschaft und Informatik. An ihren vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die HHN mehr als 60 zukunftsorientierte Bachelor- und Masterstudiengänge an, darunter auch berufsbegleitende Angebote. Die HHN bietet daneben noch weitere Studienmodelle an und pflegt enge Kooperationen mit Unternehmen aus der Region. Sie ist dadurch in Lehre, Forschung und Praxis sehr gut vernetzt. Das hauseigene Gründungszentrum unterstützt Studierende sowie Forschende zudem beim Lebensziel Unternehmertum.

Ansprechpartner*innen:
Prof. Dr.-Ing. Jennifer Niessner, Professorin für die Fachgebiete Technische Physik und Strömungslehre, Forschungsprofessur für Fluidmechanik, Institut für Strömung in additiv gefertigten porösen Strukturen,
Telefon: 07131-504-308, E-Mail: jennifer.niessner@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de

Prof. Dr. Michael Schindler, Leiter der Forschungssektion Molekulare Virologie, Institut für Medizinische Virologie und Epidemiologie der Viruskrankheiten, Telefon: 07071 29-87459, E-Mail:michael.schindler@med.uni-tuebingen.de,
Internet: http://www.medizin.uni-tuebingen.de

Forschungskommunikation Hochschule Heilbronn: Vera Winkler, Telefon: 07131-504-1156, E-Mail: vera.winkler@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de

Pressekontakt Hochschule Heilbronn: Vanessa Offermann, Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de Internet: http://www.hs-heilbronn.de

Medienkontakt Universitätsklinikum Tübingen: Stabsstelle Kommunikation und Medien, Hoppe-Seyler-Straße 6, 72076 Tübingen, Telefon: 07071 29-88548,
E-Mail: presse@med.uni-tuebingen.de, Internet: http://www.medizin.uni-tuebingen.de

Originalpublikation:
Titel der Originalpublikation
Natalia Ruetalo, Simon Berger et. al: “Inactivation of aerosolized SARS-CoV-2 by 254 nm UV-C irradiation”. Indoor Air, 21. September 2022.
DOI: https://doi.org/10.1111/ina.13115

(nach oben)


Spurensuche: BfG wirkte an der Aufklärung des Fischsterbens an der Oder mit

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Heute veröffentlichten das BMUV und das UBA den Statusbericht einer vom BMUV eingerichteten nationalen Expert/-innengruppe zum Fischsterben in der Oder. In die Arbeitsgruppe brachten Fachleute der BfG ihre Erfahrungen und Fähigkeiten mit ein. Die Untersuchungen der Bundesanstalt liefern wichtige Informationen, um die Ursachen der Katastrophe nachvollziehen zu können.

Für die Aufklärung des Fischsterbens an der Oder erhielt die Bundesanstalt für Gewässerkunde zur Untersuchung von Wasser- und Schwebstoffproben seit dem 12. August mehrere Bitten um Amtshilfe des Landeslabors Berlin-Brandenburg (LLBB) und des Landesamtes für Umwelt (LU) Brandenburg. Das BMUV bat die BfG im Rahmen der aktuellen „Verwaltungsvereinbarung im Bereich der Wasserwirtschaft sowie zur grenzüberschreitenden und internationalen Wasserkooperation“ tätig zu werden. In den darauffolgenden Wochen führten Mitarbeiterinnen und Mitarbeiter der BfG chemische und ökotoxikologische Analysen zur Identifizierung möglicher Schadstoffe durch. Weiter wurden von der BfG taxonomische und molekularbiologische Untersuchungen zur Identifizierung der Algenzusammensetzung vorgenommen.

Parallel dazu konstituierte sich eine deutsche Expertengruppe mit Fachleuten aus den Landesbehörden in Brandenburg, Mecklenburg-Vorpommern sowie dem THW, dem WSA Oder-Havel, dem BMUV, dem UBA und der BfG sowie eine polnisch-deutsche Expertengruppe. Gemeinsames Ziel war es, auf Basis der vorliegenden Informationen und der aktuellen Messergebnisse die möglichen Ursachen des Fischsterbens wissenschaftlich – soweit wie möglich – aufzuklären.

Dr. Birgit Esser, Leiterin der BfG: “In den vergangenen sechs Wochen haben meine Kolleginnen und Kollegen unter Hochdruck daran gearbeitet, um unseren Beitrag bei der Suche nach den Ursachen für das dramatische Fischsterben in der Oder zu liefern. Gemeinsam mit unseren Partnern haben wir eine breite und wissenschaftliche Datengrundlage geschaffen, die eine Bewertung der Hypothesen zu den Ursachen ermöglicht.“

Monitoringstationen bewähren sich
Bei Hohenwutzen, einem Ort im Landkreis Märkisch-Oderland, ist die BfG an einer automatisierten Messstation (Fluss-km 661,6) beteiligt. Die Station wird in Kooperation mit dem LfU Brandenburg und den Mitarbeitenden des WSA Oder-Havel betrieben. Mit Hilfe standardmäßig erhobener Tagesmischproben konnten u. a. die Zusammensetzung und der Eintrag der Salze, die zu einem Anstieg der elektrischen Leitfähigkeit des Oder-Wassers führten, identifiziert und im Vergleich mit Langzeitdaten eingeordnet werden.
Diese Informationen sind wichtige Indizien bei der Suche nach der Ursache der Katastrophe. Erhöhte Chloridkonzentrationen treten seit vielen Jahren in der Oder auf. Diese erhöhten Konzentrationen und die daraus resultierende hohe Leitfähigkeit sind nach Auffassung der BfG nicht unmittelbar ursächlich für das Sterben der Fische. Sie leisteten jedoch einen sehr deutlichen Beitrag, insbesondere als Sekundäreffekt in Bezug auf die Lebensbedingungen der Algen.

Giftige Toxine einer Brackwasser-Algenart in der Oder
Ein sprunghafter Anstieg der Sauerstoffkonzentration, des pH-Wertes und der Chlorophyllgehalte, sowie ein Absinken der Nitrat-Konzentration wiesen bereits früh auf eine massive Algenblüte in der Oder hin. Im Verdacht stand die Alge Prymnesium parvum, die eigentlich in salzhaltigen Gewässern beheimatet ist. Die Alge wurde durch molekularbiologische Analysen der BfG eindeutig identifiziert. In Hohenwutzen wurde am 16.08.2022 eine maximale Zellzahl von 141 Millionen Zellen P. parvum pro Liter festgestellt. Laut Literatur ist bereits ab einer Zellzahl von 20 Millionen Zellen pro Liter mit einem Fischsterben zu rechnen.

Es ist bekannt, dass P. parvum giftige Stoffwechselprodukte (Algentoxine) bilden kann. Mitarbeiterinnen und Mitarbeiter der BfG haben diese Toxine im Rahmen eines sogenannten Non-Target-Screening (NTS) in Gewässerproben der Oder identifiziert. Jedoch konnte die Konzentration der Toxine bislang nicht ermittelt werden, weil es keine allgemein zugänglichen Referenzstandards gibt. Weiter fehlen für diese Toxine abgesicherte Erkenntnisse, ab welchen Konzentrationen Fische und andere Organismen geschädigt oder getötet werden. Wissenschaftlich kann zum gegenwärtigen Zeitpunkt zwar kein eindeutiger Nachweis geführt werden, dass die Toxine zum Fischsterben geführt haben. Unter Berücksichtigung der gesammelten Erkenntnisse spricht jedoch viel dafür.

Detektivarbeit mit Spurenanalytik
Die Expert/-innen der BfG analysierten die Tagesmischproben der Messstation bei Hohenwutzen auch auf die darin enthaltenen Schadstoffe. Dazu führten sie u. a. das NTS durch. Diese Methode liefert eine Momentaufnahme von über tausend bekannten und unbekannten Substanzen in einer Probe und damit eine Art umfassenden „Fingerabdruck“. Durch das NTS wurde neben den Algentoxinen im Ereigniszeitraum auch ein erhöhtes Vorkommen anderer Substanzen detektiert, darunter z. B. Nebenprodukte, die bei der Herstellung von Herbiziden entstehen. Inwieweit einzelne dieser Substanzen oder deren Summe direkt oder indirekt zum Fischsterben beigetragen haben, ist derzeit nicht bekannt.

Zusätzliche Untersuchungen
Über die im Statusbericht veröffentlichten Ergebnisse hinaus führte die BfG weitere Analysen durch. So wurden beispielweise Wasser- und Schwebstoffproben auf 86 Metalle und weitere Elemente sowie zahlreiche organische Schadstoffe untersucht. Diese und weitere Ergebnisse wird die BfG zu einem späteren Zeitpunkt in einem separaten Bericht veröffentlichen.

Ausblick
Die BfG will sich auch an der Bearbeitung der aus wissenschaftlicher Sicht offenen Fragen beteiligen, z. B. zum Vorkommen von der Alge P. parvum und zur Wirkung der Algentoxine auf Fische. Der hohe Nutzen der Non-Target-Analytik hat sich gezeigt. Die BfG wird diese Methodik gezielt ausbauen und einsetzen. Dr. Birgit Esser, Leiterin der BfG: „Es ist insgesamt unser Anspruch, anthropogene und natürliche Effekte zu differenzieren und so wirksame Maßnahmen für die Gewässerentwicklung aus ökosystemarer und funktioneller Sicht abzuleiten. Mit diesem Grundverständnis bringt die BfG gerne ihre fachliche Expertise in die von Bund und Ländern initiierten weiteren Aktivitäten rund um die Oder ein.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Ternes, Tel. 0261/1306-5560, Mail ternes@bafg.de
Dr. Franz Schöll, 0261/1306-5470, Mail schoell@bafg.de

(nach oben)


Klimaschwankungen in Ostafrika waren ein Motor für die Evolution des Menschen

Eva Schissler Kommunikation und Marketing
Universität zu Köln
Interdisziplinäre Forschung in Südäthiopien zeigt, wie Schlüsselphasen des Klimawandels die menschliche Evolution, Ausbreitung sowie seinen technologischen und kulturellen Fortschritt beeinflusst haben / Veröffentlichung in „Nature Geoscience“

Drei Schlüsselphasen mit unterschiedlichen, dramatischen Klimaschwankungen im östlichen Afrika fielen mit Verschiebungen in der Entwicklung und Ausbreitung der Hominiden (alle menschlichen Vorfahren der Gattung Homo einschließlich des heutigen Menschen) in den letzten 620.000 Jahren zusammen. Das ergab eine Rekonstruktion der damaligen Umweltbedingungen anhand von Seesedimenten aus der unmittelbaren Nähe wichtiger paläoanthropologischer Siedlungsstätten in Südäthiopien. Ein internationales Tiefbohrprojekt unter der Leitung von Wissenschaftler*innen der Unis Köln, Potsdam, Aberystwyth und Addis Ababa nahmen die Rolle des Klimawandels für das jüngste Kapitel der menschlichen Evolution unter die Lupe. Die Ergebnisse der Forschungsstudie, geleitet von Dr. Verena Förster vom Institut für Geographiedidaktik der Universität zu Köln, an der mehr als 22 Forscher*innen aus 19 Einrichtungen in 6 Ländern beteiligt waren, sind unter dem Titel „Pleistocene climate variability in eastern Africa influenced hominin evolution“ in der Fachzeitschrift Nature Geoscience erschienen.

Trotz zahlreicher Fossilfunde von Hominiden in Ostafrika aus mehr als fünfzig Jahren waren die regionalen Umweltbedingungen während der Entwicklung und Ausbreitung des modernen Menschen und seiner Vorfahren bislang noch nicht ausreichend geklärt. Insbesondere für das Pleistozän (Eiszeit) vor 2.580.000 bis 11.700 Jahren gibt es keine kontinuierlichen und präzisen Paläo-Umweltdaten für den afrikanischen Kontinent.

Das Forschungsteam entnahm zwei zusammenhängende, 280 Meter lange Sedimentkerne aus dem Chew Bahir-Becken im Süden Äthiopiens. Chew Bahir liegt sehr abgelegen in einem tiefen tektonischen Graben in unmittelbarer Nähe des Turkana-Gebiets und des Omo-Kibish, einer Region wichtiger paläoanthropologischer und archäologischer Stätten. Die Bohrkerne liefern die vollständigsten Aufzeichnungen über einen so langen Zeitraum, die jemals in diesem Gebiet gewonnen wurden. Darüber hinaus können sie zeigen, wie unterschiedliche Klimaveränderungen den biologischen und kulturellen Wandel der Menschen in der Vergangenheit beeinflusst haben.

Ein interdisziplinäres Team aus den Bereichen der Geowissenschaften, Sedimentologie, Mikropaläontologie, Geologie, Geographie, Geochemie, Archäologie, Chronologie und Klimamodellierung bohrte die beiden Sedimentkerne, aus denen sie anhand von so genannten Proxies (Indikatoren wie Mikrofossilien oder Elementveränderungen) Daten zur Rekonstruktion der Klimageschichte der Region gewannen. Archäolog*innen, Evolutionsbiolog*innen und Evolutionsanthropolog*innen identifizierten daraus Phasen von Klimastress und Phasen mit günstigeren Bedingungen. Anhand dieser Informationen leiteten sie ab, wie diese Faktoren die Lebensräume der frühen modernen Menschen veränderten und seine biologische und kulturelle Entwicklung sowie seine Ausbreitung beeinflussten.

Konkret fanden die Wissenschaftler*innen heraus, dass eine Phase lang anhaltender und relativ stabiler feuchter Bedingungen von etwa 620.000 bis 275.000 Jahren vor heute günstige Lebensbedingungen für die Hominidengruppen des Gebietes bedeuteten. Diese im Allgemeinen stabile und feuchte Phase wurde jedoch durch eine Reihe kurzer, abrupter und extremer Trockenheitsschübe unterbrochen. Das führte wahrscheinlich zu einer Fragmentierung der Lebensräume, Verschiebungen in der Populationsdynamik und sogar zum Aussterben lokaler Gruppen. Infolgedessen mussten sich kleine, reproduktiv und kulturell isolierte Populationen an die dramatisch veränderten Umgebungen anpassen. Das beförderte mit hoher Wahrscheinlichkeit die Ausdifferenzierung der Hominiden in viele geografisch und anatomisch unterschiedliche Gruppen sowie die Abspaltung unserer modernen menschlichen Vorfahren von archaischen Gruppen.

Darauf folgte zwischen ca. 275.000 und 60.000 Jahren vor heute eine Phase mit erheblichen Klimaschwankungen, die immer wieder zu Veränderungen der Lebensräume in diesem Gebiet führte: von üppiger Vegetation mit tiefen Süßwasserseen zu sehr trockenen Landschaften, in denen ausgedehnte Seen zu kleinen salzhaltigen Pfützen vertrockneten. In dieser Phase gingen die Bevölkerungsgruppen allmählich von der Technologie des Acheuléen (ovale Handäxte aus Stein, die vor allem Homo ergaster und Homo erectus nutzten) zu höher entwickelten Technologien über. In dieser entscheidenden Phase entwickelte sich auch Homo sapiens in Ostafrika. Wichtige soziale, technologische und kulturelle Innovationen in dieser Phase wappneten die Menschen womöglich vor den schärfsten Auswirkungen der wiederkehrenden Umweltveränderungen. „Diese technischen und sozialen Innovationen, darunter differenziertere Werkzeuge und Langstreckentransport, hätten den modernen Menschen enorm anpassungsfähig an den wiederholt stark veränderten Lebensraum gemacht“, sagt Erstautorin Dr. Verena Förster.

In der Phase von etwa 60.000 bis 10.000 Jahren vor heute traten die extremsten Klimaschwankungen auf, darunter die trockenste Phase der gesamten Aufzeichnung. Diese Phase könnte den kontinuierlichen kulturellen Wandel der Bevölkerung beschleunigt haben. Das Forschungsteam geht davon aus, dass das kurzzeitige Überlappen von Feuchtigkeitsschüben in Ostafrika mit feuchten Phasen in Nordostafrika und im Mittelmeerraum günstige Migrationsrouten aus Afrika heraus entlang einer Nord-Süd-Achse entlang des Ostafrikanischen Grabensystems und in die Levante eröffnete, was die globale Ausbreitung des Homo sapiens ermöglicht haben könnte.

„Angesichts der aktuellen Bedrohungen durch den Klimawandel und die Überbeanspruchung natürlicher Ressourcen für den menschlichen Lebensraum ist es wichtiger denn je, die Beziehung zwischen Klima und menschlicher Entwicklung zu verstehen“, schlussfolgert die Wissenschaftlerin.

Die Forschung ist Teil des Hominin Sites and Paleolakes Drilling Project (HSPDP). Um die Auswirkungen unterschiedlicher Zeitskalen und Größenordnungen von Klimaveränderungen auf die Lebensbedingungen der frühen Menschen zu bewerten, wurden im Rahmen dieses Projekts aus fünf Seearchiven der Klimaveränderungen der letzten 3,5 Millionen Jahre Bohrkerne entnommen. Alle fünf Bohrlokationen in Kenia und Äthiopien befinden sich in unmittelbarer Nähe zu wichtigen paläoanthropologischen Fundstellen aus verschiedenen Stufen der menschlichen Evolution. Der Standort in Südäthiopien deckt dabei das jüngste Kapitel ab.

Im Rahmen des HSPDP wurde das Projekt vom International Continental Scientific Drilling Program (ICDP), der Deutschen Forschungsgemeinschaft (DFG), dem Natural Environment Research Council (NERC), der National Science Foundation (NSF) und dem DFG-Sonderforschungsbereich 806 „Our Way to Europe“ gefördert. Der SFB 806 war von 2009 bis 2021 an den Universitäten Köln, Bonn und Aachen angesiedelt und wurde von diesen Institutionen finanziell und strukturell großzügig unterstützt.

Wissenschaftliche Ansprechpartner:
Dr. Verena Förster

Originalpublikation:
Verena Foerster et al., Pleistocene climate variability in eastern Africa influenced hominin evolution, Nature Geoscience, 26.9.2022
https://www.nature.com/articles/s41561-022-01032-y
DOI: 10.1038/s41561-022-01032-y

(nach oben)


„No War. Bildung als Praxis des Friedens“

Grit Gröbel Pressestelle
Fachhochschule Erfurt
Online-Ringvorlesung der Fakultät Angewandte Sozialwissenschaften im Wintersemester 2022/2023

Frieden ist nicht nur als die Abwesenheit von Krieg zu verstehen – das wäre negativer Frieden -, sondern Vorstellungen und Bedingungen eines positiven Friedens zu skizzieren und daran zu arbeiten. Positiver Frieden meint die Reduktion struktureller Gewalt; er ist ein Prozess, der auf den Abbau von Ungerechtigkeit und Ungleichheit zielt und zugleich Toleranz und die Akzeptanz von Vielfalt fördert sowie Gleichheit und die Entfaltung eines guten Lebens Aller will.
Ein positiver Friede bedarf der Friedensbildung und somit der Gestaltung von Bildungsprozessen. Darin liegt auch eine Aufgabe Sozialer Arbeit, insbesondere da diese mit Bildungsprozessen verknüpft ist. Insofern ist der Titel der Reihe programmatisch: Bildung kann zur Herstellung eines positiven Friedens beitragen. Hierzu sollen die Beispiele und Beiträge der Ringvorlesung beitragen:

Themen und Termine:
Die Online-Ringvorlesungen beginnen stets um 17:30 Uhr.

24.10.2022
Begrüßung und Einführung
Prof. Dr. Christine Rehklau (FH Erfurt), Prof. Dr. Claudia Lohrenscheit (HS Coburg)
Regionale Perspektiven auf den Krieg in der Ukraine
Mag. Sebastian Schäffer, Geschäftsführer des Instituts für den Donauraum und Mitteleuropa (IDM), Wien

7.11.2022
Organisation of social services during and after political confl ict – the role of grassroots, international and supranational organisations
Dr. Reima Ana Maglajlic, University of Sussex, United Kingdom

14.11.2022
Peacebuilding? Report from Slemani
Prof. Dr. Kristin Sonnenberg, Prof. Dr. Cinur Ghaderi; Evangelische Hochschule Rheinland-Westfalen-Lippe; Ass. Prof. Dr. Luqman Saleh Karim, Social Work De-partment, University of Sulaimani, Kurdistan Region of Iraq

21.11.2022
Lokale ‚Friedensbildung‘ – Perspektiven sozial- und kulturanthropologischer Friedensforschung
Dr. Philipp Naucke, Institut für Sozialanthropologie und Religionswissenschaft (ISAR), Philipps-Universität Marburg

28.11.2022
Social Work in the Context of War: What We Can Learn from Bosnia and Her-zegovina?
Prof. Dr. Sanela Bašić, University of Sarajevo, Faculty of Political Science, Depart-ment of Social Work

5.12.2022
Menschenrechte als Leitplanken für die Friedensarbeit. Das Beispiel der Su-che nach Verschwundenen in Kolumbien
Stefan Ofteringer, Dipl. Regionalwissenschaftler Lateinamerika, Berater für Men-schenrechte MISEREOR

12.12.2022
Global Citizenship Education als Perspektive für Frieden und Globale Ge-rechtigkeit
Prof. Dr. Hans Karl Peterlini, Institut für Erziehungswissenschaft und Bildungsfor-schung; Universität Klagenfurt

19.12.2022
Bildung – ein Ort epistemischer (und anderer) Gewalt?
Assoz. Prof. Mag. Dr. Claudia Brunner; Zentrum für Friedensforschung und Frie-densbildung; Institut für Erziehungswissenschaft und Bildungsforschung; Universität Klagenfurt

9.1.2023
Kriegsgesellschaftstheorie und ihre Konsequenzen für die Friedensbildung
Prof. i. R. Dr. Volker Kruse, Universität Bielefeld, Fakultät für Soziologie

16.1.2023
Krieg und Soziale Arbeit – Antinomien eines Berufsfeldes
Prof. Dr. Ruth Seifert, Ostbayerische Technische Hochschule (OTH) Regensburg

23.1.2023
Indigenous Peacemaking
Natasha Gourd, Traditional Court, at the Spirit Lake Nation – former Traditional Court Director of the Wodakota; Timothy Connors, Chief Judge; Verna Teller, Chief Jugde of the Pueblo of Isleta Nation

30.1.2023
Friedensarbeit als Element im Studium der Sozialen Arbeit
Assia Bitzan, Universität Tübingen; Prof. Dr. Kristin Sonnenberg, Evangelische Hochschule Rheinland-Westfalen-Lippe; Maria Mauersberger, Directora Fundación Mujeres en Paz, Colombia
Schlusswort: FG ISA, Prof. Dr. Andrea Schmelz

Alle Vorlesungen finden virtuell statt:

Hintergrund:
Seit dem 24. Februar 2022 erleben wir mit dem Beginn des Überfalls Russlands auf die Ukraine eine bis dahin nicht vorstellbare Steigerung des „Kata-strophischen“ in unserer Zeit. Zum Klimawandel und der noch immer grassierenden Pandemie kommt nun auch noch ein Krieg auf europäischem Boden. Gerade dieser zeigt noch einmal die Fragilität unserer globalisierten Welt und die darin liegenden Interdependenzen; Selbstverständlichkeiten bröckeln weiter und Eindeutigkeiten gehen verloren. Begriffe wie „Zeitenwende“ oder „Epochenbruch“ versuchen das Außergewöhnliche zu beschreiben.
Auch zeigt sich erneut die Vielfalt der Probleme in dieser globalisierten Welt wie in einem Brennglas: Abhängigkeiten von Öl, Gas, Kohle; Lieferketten- und Versorgungsprobleme. Soziale und Globale Ungleichheit wird sich verfestigen und Vulnerable, wie auch im Klimawandel und der Pandemie, sind die „Verliererinnen“.
Es stellen sich angesichts dessen viele Fragen, u.a.:
• Was ist eigentlich Frieden?
• Kann Soziale Arbeit das ignorieren?
• Welche Rolle kann oder soll sie darin spielen?
Hierauf gibt es, wie es in der Ringvorlesung diskutiert wird, eine klare Antwort: Als Menschenrechtsprofession muss Soziale Arbeit Position beziehen und sich zugleich als Akteurin der Friedensbildung verstehen und zudem einen Begriff von Frieden konzipieren. Dabei kann und muss sie vielfältige internationale Erfahrungen im Kontext von „peacebuilding“, in denen sie als Profession schon länger involviert ist, aufarbeiten, reflektieren und weiterdenken.

Wissenschaftliche Ansprechpartner:
Fachhochschule Erfurt, Fakultät Angewandte Sozialwissenschaften
Prof. Dr. phil. Ronald Lutz, E-Mail: lutz@fh-erfurt.de
Susanne Stribrny, E-Mail: stribrny@fh-erfurt.de

Weitere Informationen:
https://www.fh-erfurt.de/veranstaltungen/detailansicht/online-ringvorlesung Zur Veranstaltungswebsite
https://fh-erfurt.webex.com/fh-erfurt/j.php?MTID=mbc878cf72943ea1b669b3fff7134fb…
Direktlink zum Videokonferenzraum

Anhang
ASW_Plakat_Ringvorlesung

(nach oben)


Climate Change Center Berlin Brandenburg: Berliner Kiezstruktur besonders klimafreundlich

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Klimafreundlich Städte planen mit Künstlicher Intelligenz
Studie des Climate Change Centers Berlin Brandenburg und der TU Berlin weist nach: Berliner Kiezstruktur besonders klimafreundlich

CO2-Emissionen des motorisierten Individualverkehrs müssen stark gesenkt werden, um Berlins Klimaziele zu erreichen. Ein großes Potenzial zur Einsparung von CO2-Emissionen im Transportsektor liegt in der Veränderung der urbanen Infrastruktur. Das zeigt der neueste Sachstandsbericht des Weltklimarats. Jedoch ist es bisher nicht klar, wie genau die Infrastruktur der Hauptstadt das individuelle Fahrverhalten der Berliner*innen und die damit verbundenen CO2-Emissionen beeinflusst. Wissenschaftler*innen der TU Berlin entwickeln eine KI-gestützte Methode, um den Einfluss der gebauten Umgebung auf den motorisierten Stadtverkehr zu ermitteln und damit Grundlagen für eine klimafreundliche Stadtplanung zu schaffen. Eine Studie mit ersten Ergebnissen ihrer Untersuchungen haben sie soeben in der renommierten Fachzeitschrift „Transportation Research“ veröffentlicht.

Die Studie des neugegründeten Climate Change Centers Berlin Brandenburg (CCC), unterstützt vom Mercator Research Institute on Global Commons and Climate Change (MCC Berlin), zeigt: Vor allem die Ausdehnung der Stadt, aber auch die Entfernung zu lokalen Kiezzentren, können einen großen Einfluss auf die gefahrenen PKW-Wegstrecken und auf die damit einhergehenden CO2-Emissionen haben. So wird deutlich, dass kurze Entfernungen zu Kiezzentren mit kürzeren Autofahrten einhergehen und dass, je weiter man sich vom Stadtzentrum entfernt, Wegstrecken und gekoppelte CO2-Emissionen exponentiell ansteigen. Dies betrifft vor allem Stadtteile im Süd-Osten (Marzahn-Hellersdorf, Treptow-Köpenick) sowie im Süd-Westen (Steglitz-Zehlendorf und Spandau). Außerdem zeigt sich, dass vor allem PKWs aus Stadtteilen mit einkommensschwacher Bevölkerungsstruktur längere PKW-Wegstrecken zurücklegen müssen. Das spreche, so die Wissenschaftler*innen, für Stadtplanungsstrategien, die auf eine Verdichtung der Innenstadt abzielen und gleichzeitig die Peripherien von der Abhängigkeit vom Auto befreien.

3,5 Millionen Autofahrten und hochauflösende Daten zur städtischen Bebauung wurden ausgewertet
Die Autor*innen der Studie haben für ihre Untersuchungen eine für den Kontext der Stadtplanung neu entwickelte KI-Methode verwendet sowie eine Stichprobe von 3,5 Millionen Autofahrten über ein Jahr lang und hochauflösende Daten zur städtischen Bebauung. Die Ergebnisse zeigen, wie KI für klimaschutzrelevante Anwendungen eingesetzt werden kann. Der leitende Autor der Studie, Felix Wagner, Doktorand am MCC, einem An-Institut der TU Berlin, sagt: „Das Potenzial von KI im Bereich der nachhaltigen Stadtplanung liegt darin, dass man stadtübergreifende Dynamiken, wie auch lokale Details in einem Modell berücksichtigen kann.“

Lokale Subzentren sind wichtig für nachhaltige Mobilität in Berlin
Prof. Dr. Felix Creutzig, wissenschaftlicher Koordinator des Climate Change Centers Berlin Brandenburg (CCC) und Koautor der Studie, betont die klimapolitische Bedeutung dieser neuen Methode: „Mit der Auswertung und Anwendung städtischer Big Data-Komponenten können Stadtplaner*innen agil und schnell wünschenswerte Ziele wie die Klimafreundlichkeit einschätzen. Gerade in Zeiten des Personalmangels kann dieser Ansatz effektiv helfen, die Klimaschutzziele bis 2045 zu erreichen.“ Entsprechend treibe das CCC, die Berlin-Brandenburger Klima-Allianz unter Federführung der TU Berlin, mit Unterstützung des MCC Berlin die Entwicklung von klimaschutzrelevanten KI-Anwendungen weiter voran.

Die Ergebnisse zeigen auch, wie wichtig lokale Subzentren für eine nachhaltige Mobilität in Berlin sind. Während die Studie von Felix Wagner einen ersten Ansatz darstellt, soll in weiteren Forschungen der Fokus noch mehr darauf gerichtet werden, den Einfluss zukünftiger Planungsstrategien auf Nachhaltigkeit vorherzusagen. Öffentlich zugängliche Daten auf Portalen wie https://daten.berlin.de/ können helfen, so Felix Creutzig, klimarelevante Stadtplanungsstrategien voranzutreiben. Dies könne die Berliner Senatsverwaltungen und Stadtplaner*innen unterstützen, Entscheidungen zu treffen, die den Klimaschutz stärker berücksichtigen.

http://www.climate-change.center/
http://www.mcc-berlin.net

Veröffentlichung in „Transportation Research“
Wagner, F., Milojevic-Dupont, N., Franken, L., Zekar, A., Thies, B., Koch, N., & Creutzig, F. (2022). Using explainable machine learning to understand how urban form shapes sustainable mobility. In: Transportation Research Part D: Transport and Environment, 111, 103442:
https://doi.org/10.1016/j.trd.2022.103442

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Felix Creutzig
TU Berlin
Fachgebiet Sustainable Economics of Human Settlements Berlin
E-Mail: creutzig@mcc-berlin.net

Felix Wagner
TU Berlin
Mercator Research Institute on Global Commons and Climate Change
Working group Land Use, Infrastructure and Transport
E-Mail: Wagner@mcc-berlin.net

(nach oben)


Herzinfarkt unter 50? Blutfette beachten und Lipoprotein(a)-Wert bestimmen!

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Neben den Blutfetten LDL-Cholesterin und Triglyceride ist auch Lipoprotein(a) ein neuartiger Risikofaktor für Herzinfarkt und Schlaganfall. Ein Aktionsbündnis aus Patientenorganisationen sowie Herz- und Gefäßgesellschaften sensibilisiert für die Wichtigkeit von erhöhtem Lp(a) in der Infarktprävention. Aufklärungsaktion zum Weltherztag am 29. September.

Für die Betroffenen ist es ein Schock: Herzinfarkt – und das mit nicht mal 40 Jahren! Im Zuge der routinemäßigen Blutuntersuchung stellt sich bei jüngeren Infarktpatient*innen oftmals heraus, dass der Wert eines bestimmten Blutfetts: Lipoprotein(a), kurz Lp(a), stark erhöht ist. Lp(a) ist ein Cholesterin-Partikel, das dem LDL-Cholesterin (LDL-C/LDL=Low Density Lipoprotein), einem wichtigen Risikofaktor für Herz-Kreislauf-Erkrankungen, ähnelt. Auch stellt sich meist heraus, dass auch bei Familienangehörigen der Betroffenen bereits im jüngeren Lebensalter Herzinfarkte aufgetreten sind. „Das macht Lp(a) neben LDL-C zu einem weiteren lipidbasierten Marker für kardiovaskuläre Komplikationen wie Herzinfarkt und Schlaganfall. Das gilt besonders bei jüngeren Frauen und Männern und wenn keine klassischen Risikofaktoren vorliegen“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Deutschen Herzstiftung. „Ärztinnen und Ärzte müssen in der medizinischen Versorgung von Patient*innen mit Fettstoffwechselstörungen auch das Lp(a) als relativ neuen Risikofaktor auf dem Schirm haben. Aber auch die Bevölkerung muss über Lp(a) und Fettstoffwechselstörungen insgesamt gut informiert sein, um Risiken für Herz und Gefäße rechtzeitig vorzubeugen“, fordert der Herzstiftungs-Vorsitzende gemeinsam mit einem Aktionsbündnis der Deutschen Gesellschaften für Kardiologie – Herz- und Kreislaufforschung (DGK), für Angiologie (DGA), für Prävention und Rehabilitation von Herz-Kreislauferkrankungen (DGPR), zur Bekämpfung von Fettstoffwechselstörungen und ihren Folgeerkrankungen DGFF (Lipid-Liga) sowie der LipidHilfe-Lpa.
Unter dem Motto „Herzinfarkt unter 50? Blutfette beachten, Lp(a)-Wert bestimmen!“ sensibilisiert das Aktionsbündnis Ärzt*innen und die Bevölkerung für die Gefahr von Herzinfarkt und Schlaganfall durch Fettstoffwechselstörungen wie hohe Cholesterin-, Triglycerid- und Lp(a)-Werte und informiert anlässlich des Weltherztags unter www.herzstiftung.de/weltherztag und www.herzstiftung.de/podcast-lipoprotein

Was macht Lp(a) zum bösartigen Blutfett für die Gefäße?
Lp(a) gehört zu den Transportproteinen für Cholesterin, so wie LDL, dem es strukturell ähnelt. An Lp(a) ist zusätzlich ein weiteres Eiweiß, das Apolipoprotein A, kurz Apo(a), gebunden. Dieses Apo(a), kann im Gefäßsystem chronische Entzündungen verursachen und in der Gefäßwand abgelagert werden und so die Gefäßverkalkung (Arteriosklerose) beschleunigen. Auch hat dieses an Lp(a) gebundene und als „Kringle“ bezeichnete Apo(a) eine prothrombotische Wirkung, indem es zur Bildung von Blutgerinnseln beiträgt. Diese drei bösartigen Eigenschaften von Lp(a) erhöhen das Risiko für Herz-Kreislauf-Komplikationen wie Herzinfarkt und Schlaganfall sowie Herzklappenverengungen, darunter die Aortenklappenstenose (5).

Lp(a) meist genetisch bestimmt: Gesamtrisiko rückt in Fokus der Therapie
Die Lp(a)-Konzentration im Blut ist ganz überwiegend (> 90 %) genetisch bestimmt und bleibt somit im Leben weitgehend gleich. Eine Senkung des Lp(a)-Spiegels durch einen gesunden Lebensstil (Sport, Ernährung) und mit Medikamenten ist daher (noch) nicht möglich. Klinische Studien für eine medikamentöse Therapie des Lp(a) laufen derzeit. „Vor diesem Hintergrund ist für Personen mit erhöhtem Lp(a)-Wert umso wichtiger, ihr individuelles kardiovaskuläres Gesamtrisiko zu senken. Vorhandene Risikofaktoren können beispielsweise Rauchen, Bluthochdruck, erhöhtes LDL-Cholesterin und Diabetes mellitus sein. Liegt erhöhtes Lp(a) zusätzlich zu diesen Risikokrankheiten vor, ist das Risiko für Herz-Kreislauf-Erkrankungen stark erhöht“, warnt Prof. Dr. Bernhard Schwaab, Präsident der DGPR. „Bei erhöhter Lp(a)-Konzentration im Blut sollten Ärzt*innen deshalb Betroffene dazu animieren, generell ihr Risiko für Herz-Kreislauf-Erkrankungen zu senken, indem sie nicht rauchen, sich regelmäßig ausdauernd bewegen, gesund ernähren und Übergewicht vermeiden. Auch sollten sie ihren Blutdruck, Blutzucker und Blutfette wie LDL-C und Triglyceride regelmäßig kontrollieren“, so Schwaab. Dieses Vorgehen gilt ganz besonders auch für Personen mit erhöhtem Lp(a) und Durchblutungsstörungen als Folge der Arteriosklerose wie koronare Herzkrankheit (KHK) oder periphere arterielle Verschlusskrankheit (pAVK). Nach den Empfehlungen einer Expert*innengruppe der European Atherosclerosis Society (EAS) in einem Konsensus-Statement liegt ein erhöhtes Risiko bei Werten zwischen 30-50 mg/dl oder 75-125 nmol/l vor (1). Nach Expertenangaben weisen bis zu 20 % der Allgemeinbevölkerung erhöhte Lp(a)-Spiegel auf (3).

Jeder soll einmal im Leben seinen Lp(a)-Wert bestimmen lassen
Jede/r Erwachsene sollte einmalig seinen/ihren Lp(a)-Wert mit einem Bluttest bestimmen lassen. Dadurch sollen vor allem Personen mit sehr hohen Lp(a)-Spiegeln (>180 mg/dl bzw. >430 nmol/l) identifiziert werden mit einem vergleichbar hohen Risiko für Herz-Kreislauf-Erkrankungen (4). Die Kosten für den Bluttest tragen in der Regel die Krankenkassen, wenn ein begründeter Verdacht oder ein erbliches Risiko vorliegt. Den einmaligen Bluttest propagieren übereinstimmend die Herzstiftung und ihre Partner im Aktionsbündnis und folgen damit einer Empfehlung der EAS. „Alle Erwachsenen und Familienangehörige von Personen mit Gefäßverkalkungen im mittleren und jüngeren Lebensalter, die beispielsweise an einer koronaren Herzkrankheit leiden oder einen Herzinfarkt erlitten, sollten ihren Lp(a)-Wert im Blut bestimmen lassen“, raten DGPR-Präsident Prof. Schwaab und der Herzstiftungs-Vorsitzende Prof. Voigtländer. „Aufgrund der erblichen Komponente sollten auch die Kinder von Personen mit erhöhtem Lp(a)-Wert einem Blut-Check unterzogen werden“, fügt Dr. Christoph Altmann, Mitinitiator des Aktionsbündnisses und Ehrenvorsitzender des Landesverbands Sachsen der DGPR (LVS/PR) hinzu. Desweiteren ist eine Lp(a)-Bestimmung sinnvoll insbesondere bei folgenden Personen (2):
– bei Patienten mit einer Arteriosklerose vor dem 60. Lebensjahr (Männer)
– bei Patienten mit einer Familiären Hypercholesterinämie (FH)
– bei Patienten, bei denen eine Arteriosklerose oder eine KHK voranschreitet, obwohl der LDL-C-Zielwert medikamentös erreicht ist

Lipoprotein-Apherese (Blutwäsche): Therapieoption für wen?
Die Blutwäsche in Form der Lipoprotein-Apherese kann für eine bestimmte Patientengruppe mit rasch fortschreitenden arteriosklerotischen Erkrankungen (KHK, pVAK) und hohen Lp(a)-Konzentrationen erwogen werden. Die Apherese ist ein der Dialyse ähnliches Verfahren außerhalb des Körpers. Lp(a) und LDL-C werden innerhalb von 1,5 bis 3 Stunden aus dem Blut herausgefiltert. Je nach Lp(a)-Konzentration muss die Apherese wöchentlich oder alle zwei Wochen durchgeführt werden, weil sich rasch die Lp(a)-Werte wieder erhöhen. Für betroffene Patient*innen, die wegen stark erhöhter Lp(a)-Werte einen oder mehrere Infarkte erlitten haben, ist die Apherese derzeit eine Option, den Lp(a)-Wert im Blut immer wieder zu senken und so einen weiteren Infarkt zu vermeiden.

(wi)

Quellen:
(1) Kronenberg F. et al., Lipoprotein(a) in atherosclerotic cardiovascular disease and aortic stenosis: a European Atherosclerosis Society consensus statement, European Heart Journal, ehac361, https://doi.org/10.1093/eurheartj/ehac361
(2) DGFF (Lipid-Liga) (Hg.), Lipoprotein(a) – ein Risikofaktor für Herz-Kreislauf-Erkrankungen, Frankfurt a. M. 2022.
(3) Buchmann N. et al., Dtsch Arztebl Int 2022; 119: 270-6; DOI: 10.3238/arztebl.m2022.0153
(4) Wienbergen H. et al, Dtsch Arztebl 2021; 118(15): [16]; DOI: 10.3238/PersKardio.2021.04.16.05
(5) Video-Clip „Hohes Lipoprotein(a) – Was tun?“ mit Prof. Dr. Ulrich Laufs
(Leipzig): www.youtube.com/watch?v=5NNo64NMjbY&t=

Service-Tipps:
Unter dem Motto „Herzinfarkt unter 50? Blutfette beachten, Lp(a)-Wert bestimmen!“ bietet das Aktionsbündnis anlässlich des Weltherztags umfangreiche Informationen zum Thema Fettstoffwechselstörungen (hohes Cholesterin) und Lp(a) unter www.herzstiftung.de/weltherztag

Lp(a) im Herzstiftungs-Podcast: Der Podcast „Herzinfarkt-Risiko: Das sollten Sie über Lipoprotein (a) wissen“ mit dem Kardiologen und Lipid-Spezialisten Prof. Dr. Ulrich Laufs (Universitätsklinikum Leipzig) ist abrufbar unter www.herzstiftung.de/podcast-lipoprotein

Ratgeber zum Thema Hohes Cholesterin/Lp(a): Was tun?
Informationen über Ursachen und Folgen hoher Cholesterin-/Lp(a)-Werte sowie zu den aktuellen Therapieempfehlungen finden Betroffene unter www.herzstiftung.de/cholesterin bzw. in der Sprechstunde unter www.herzstiftung.de/lipoprotein-senken

Der kostenfreie Ratgeber „Hohes Cholesterin: Was tun?“ ist unter www.herzstiftung.de/bestellung oder per Tel. unter 069 955128-400 anzufordern.

Den Ratgeber „Lipoprotein(a) – ein Risikofaktor für Herz-Kreislauf-Erkrankungen“ bietet die DGFF (Lipid-Liga) kostenfrei (PDF) unter www.lipid-liga.de/buecher/lipidprotein-a

Video-Clips zu Lp(a)
Patientinnen-Portrait „Herzinfarkt unter 50? Blutfette beachten! Lipoprotein(a) bestimmen!“: Eine Lp(a)-Patientin berichtet eindrücklich über ihren Herzinfarkt mit 30 Jahren, auch Lipid-Experten kommen zu Wort: www.youtube.com/watch?v=gd0926Oo5ng

Experten-Film für Ärzt*innen „Herzinfarkt unter 50? Blutfette beachten! Lipoprotein(a) bestimmen!“ mit Herz- und Gefäßspezialistin Dr. Gesine Dörr (DGA): www.youtube.com/watch?v=e2eCX_QpKNc

Experten-Statements aus dem Aktionsbündnis
Vorstand, Deutsche Gesellschaft für Angiologie (DGA):

„Patienten mit peripherer arterieller Verschlusskrankheit (pAVK) haben ein sehr hohes Risiko für arterielle Gefäßerkrankungen. Erhöhtes LDL-Cholesterin und ein erhöhtes Lipoprotein (a) sind unabhängige, genetisch determinierte Risikofaktoren für das Auftreten von Stenosen im Gefäßsystem. Das frühzeitige Erkennen und die Behandlung dieser Risikofaktoren ist ein essenzieller Bestandteil der Primär- und Sekundärprävention. Die Deutsche Gesellschaft für Angiologie unterstützt daher dieses Aktionsbündnis, um Patienten mit hohem Risiko frühzeitig zu erkennen und eine nachhaltige Behandlung von Fettstoffwechselstörungen zu gewährleisten.“

Dr. med. Anja Vogt, stellv. Vorsitzende, Deutsche Gesellschaft zur Bekämpfung von Fettstoffwechselstörungen und ihren Folgeerkrankungen DGFF (Lipid-Liga):

„Seine LDL-Cholesterin-, Lp(a)- und Triglyzeridwerte sollte jeder kennen und früh aktiv werden, wenn sie erhöht sind. Denn dann fördern sie Atherosklerose und man riskiert Herzinfarkt, Schlaganfall und Durchblutungsstörungen der Beine. Diese schweren Erkrankungen kommen eben oft nicht aus heiterem Himmel. Und da viele Fettstoffwechselstörungen vererbt sind, muss man auch an Verwandte denken. Den Menschen das nahezubringen, ist die Triebfeder der DGFF (Lipid-Liga), beim Aktionsbündnis dabei zu sein.“

Dr. med. Manju Guha, Sprecherin der AG14, Arbeitsgemeinschaft „Präventive und rehabilitative Kardiologie“ der Deutschen Gesellschaft für Kardiologie, Herz- und Kreislaufforschung (DGK):

„Herzinfarkte bei Jüngeren sind häufiger als vermutet. Am Bremer Herzzentrum wurde 2015 gezeigt, dass jeder 15. Infarktpatient jünger als 45 Jahre ist. Der Infarkt ist oft schwer, mehr als bei Älteren überleben das erste Jahr nicht, belastend für junge Betroffene ohne klassisches Risikoprofil. Angeborene Störungen, wie ein hoher Lipoprotein(a)-Spiegel (Lp(a)), steigern das Risiko für einen Herzinfarkt. Lp(a) ist ein eigenständiger Risikofaktor und sollte bei jedem einmal im Leben bestimmt werden.“

Weitere Infos zum Thema
Überschüssige Fette im Blut
Grundsätzlich ist Cholesterin kein schädlicher Stoff, sondern sogar lebenswichtig als Baustein für Zellwände sowie als Ausgangsstoff für die Bildung von Gallensäuren und verschiedenen Hormonen. Problematisch wird es, wenn zu viel von der fettähnlichen Substanz im Blut anfällt.

LDL: Das Low Density Lipoprotein (LDL) arbeitet im Körper als Transportvehikel. Es bringt das Blutfett Cholesterin von der Leber (wo Cholesterin zu etwa drei Vierteln hergestellt wird, der Rest wird mit der Nahrung aufgenommen) zu den Organen. Sie nutzen Cholesterin als Baustein, um etwa Hormone oder Vitamin D zu produzieren. Zirkuliert zu viel LDL-Cholesterin im Blut, lagert es sich in den Wänden der Gefäße ab. Dadurch entsteht eine Gefäßverkalkung. Gemeinsam mit anderen Risikofaktoren steigern diese Verkalkungen das Risiko für Durchblutungsstörungen von Organen und schwerwiegende Ereignisse wie Herzinfarkt und Schlaganfall. Ziel einer Behandlung ist daher in erster Linie, dieses Risiko zu senken und Herzinfarkte und Schlaganfälle zu verhindern. Sind die Werte nur leicht erhöht, reicht häufig bereits eine Umstellung der Ernährungs- und Bewegungsgewohnheiten, um das Risiko deutlich zu senken. Bei stark erhöhten Werten oder wenn Lebensstilmaßnahmen nicht ausreichen, sollte eine medikamentöse Therapie erfolgen. Informationen über aktuelle Therapiemöglichkeiten und -empfehlungen finden Betroffene unter www.herzstiftung.de/cholesterin

Lipoprotein(a): Mit der Nahrung aufgenommene Fette können nicht einfach frei im Blut schwimmen. Sie werden von Lipoproteinen in Empfang genommen und transportiert. Das Lipoprotein(a) ist dem LDL-Cholesterin sehr ähnlich; liegen zu hohe Konzentrationen im Blut vor, führt es zu Gefäß- und Herzklappenerkrankungen. Die Höhe an Lp(a) im Körper ist vererbt. Der Lebensstil hat nur einen minimalen Einfluss. Lp(a) sollte bei jedem Menschen einmal im Leben bestimmt werden, insbesondere bei Familienangehörigen von Personen mit Gefäßverkalkungen in jüngerem Lebensalter. Bei hohem Lp(a) ist eine sorgfältige Senkung aller Risikofaktoren und des LDL-Cholesterins notwendig (Infos: www.herzstiftung.de/podcast-lipoprotein).

HDL: Das High Density Lipoprotein ist ein weiterer für Cholesterin zuständiger Transporter. HDL transportiert Cholesterin zwischen verschiedenen Transportern und der Leber. Nicht jedes HDL hat eine positive Funktion. Daher kann ein hoher HDL-Wert ein hohes LDL nicht wettmachen.

Triglyceride (Neutralfette): Natürlich vorkommende Fette, die mit der Nahrung aufgenommen werden, etwa mit Butter, Fleisch oder Milchprodukten. Was der Körper nicht unmittelbar verwertet, speichert er im Fettgewebe. Erhöhte Triglycerid-Werte begünstigen die Arteriosklerose. Hohe Triglyceride können durch Kalorienreduktion (insbesondere Verzicht auf Alkohol) und Sport günstig beeinflusst werden.

Quelle: Deutsche Herzstiftung (Hg.), Hohes Cholesterin: Was tun?, Frankfurt a. M. 2021

Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

Presse-Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle: Michael Wichert (Ltg.) /Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de/weltherztag – Infos zur Herz-Kreislauf-Gesundheit
http://www.herzstiftung.de/podcast-lipoprotein – Podcast zu Lp(a)
http://www.herzstiftung.de/lipoprotein-senken – Sprechstunde zu Lp(a)

Anhang
PM_DHS_Aktionsbündnis-Weltherztag-Herzinfarkt-unter-50_2022-09-29_Final

(nach oben)


Mehrjährige Blühstreifen in Kombination mit Hecken unterstützen Wildbienen in Agrarlandschaften am besten

Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Blühzeitpunkte von Blühstreifen und Hecken ergänzen sich gegenseitig und fördern Bienendiversität
• Vivien von Königslöw: „Ergebnisse legen nahe, bevorzugt mehrjährige Blühstreifen statt einjährige Blühstreifen zu pflanzen, denn diese blühen im zweiten Standjahr viel früher als im Jahr der Aussaat und fördern über die Jahre verschiedene Bienengemeinschaften.“

Landwirt*innen sollten ein Netzwerk aus mehrjährigen Blühstreifen in Kombination mit Hecken schaffen, um Wildbienen ein kontinuierliches Blütenangebot zu bieten. Zu dieser Empfehlung kommen die Ökolog*innen Dr. Vivien von Königslöw, Dr. Felix Fornoff und Prof. Dr. Alexandra-Maria Klein vom Institut für Geo- und Umweltnaturwissenschaften an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg nach ihren Untersuchungen in Apfelplantagen in Süddeutschland. Ihre Forschungsergebnisse veröffentlichten sie im Journal of Applied Ecology.

Weniger Wildbienen wegen Blütenmangel
„In intensiven Agrarlandschaften sind Wildbienen vielfach selten geworden, da meist nur wenige Blüten als Nektar- und Pollenquellen zur Verfügung stehen“, erklärt von Königslöw. „Eine Kombination aus Blühstreifen und Hecken am Rand der Produktionsflächen könnte diesen Mangel an Blüten ausgleichen, denn ihre Blühzeitpunkte ergänzen sich gegenseitig.“

Bienendiversität durch Netzwerk von mehrjährigen Blühstreifen mit blütenreichen Hecken fördern
Das Forschungsteam verglich von 2018 bis 2020 die zeitliche Entwicklung der Blühressourcen und der Wildbienengemeinschaften in mehrjährigen Blühstreifen und Hecken am Rand von 18 konventionellen Apfelplantagen. „Unsere Ergebnisse legen nahe, bevorzugt mehrjährige Blühstreifen statt einjährige Blühstreifen zu pflanzen, denn diese blühen im zweiten Standjahr viel früher als im Jahr der Aussaat und fördern über die Jahre verschiedene Bienengemeinschaften. Am besten ergänzt man das Blütenangebot mit arten- und blütenreichen Hecken“, so von Königslöw.

In ihrer Studie beobachteten die Freiburger Ökolog*innen, dass die Wildbienen die Hecken hauptsächlich im zeitigen Frühjahr und teilweise auch noch bis in den Juni hinein besuchten. Die Blühstreifen suchten sie im ersten Standjahr hingegen erst von Juni bis August auf, doch ab dem zweiten Jahr bereits schon ab April. Insgesamt betrachtet war die Bienenanzahl und Artenvielfalt in den Blühstreifen höher als in den Hecken.

Faktenbox:
● Alexandra-Maria Klein leitet seit 2013 die Professur für Naturschutz und Landschaftsökologie an der Universität Freiburg. Ihre Forschungsschwerpunkte liegen bei: Bienen und ihrer Bestäubung von Nutzpflanzen sowie Biodiversitätsförderung in der Agrarlandschaft.
● Klein ist Mitglied der DFG Senatskommissionen für Grundsatzfragen der Genforschung und Grundsatzfragen der Biodiversität und ist in mehreren Beiräten der Landesregierung in Baden-Württemberg tätig.
● Originalpublikation:
von Königslöw, V., Fornoff, F., Klein, A.M. (2022): Temporal complementarity of hedges and flower strips promotes wild bee communities in apple orchards. Journal of Applied Ecology. DOI: 10.1111/1365-2664.14277

Wissenschaftliche Ansprechpartner:
Dr. Vivien von Königslöw
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0163 6151841
E-Mail: vivien.von.koenigsloew@nature.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/mehrjaehrige-bluehstreifen-in-komb…

(nach oben)


Brennstoff aus Treibhausgas

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Vereinzelte Goldatome als Katalysator für die selektive Methanisierung von Kohlendioxid

Ein Schritt in Richtung CO2-Neutralität und damit zur Abmilderung des Treibhauseffekts sowie der Energiekrise könnte die Umwandlung von CO2 in Kohlenwasserstoff-basierte Brennstoffe wie Methan sein – angetrieben durch Sonnenlicht. In der Zeitschrift Angewandte Chemie stellt ein chinesisches Forschungsteam einen geeigneten, sehr effektiven Photokatalysator auf Basis vereinzelter Goldatome vor.

Die photokatalytische Umwandlung von CO2 läuft über eine Reihe von Prozessen, bei denen Elektronen übertragen werden. Dabei können verschiedenen Produkten entstehen, u.a. Kohlenmonoxid (CO), Methanol (CH3OH), Methan (CH4) sowie weitere Kohlenwasserstoffe. Acht Elektronen müssen für den Weg von CO2 zu CH4 transferiert werden – mehr als für andere C1-Produkte. Methan als Endprodukt ist zwar thermodynamisch bevorzugt, aber die Konkurrenzreaktion zu CO etwa benötigt nur zwei Elektronen und läuft viel schneller ab, ist also kinetisch bevorzugt. Eine effektive und selektive Methanisierung ist daher besonders herausfordernd.

Das Team um Hefeng Cheng von der Shandong University in Jinan hat jetzt einen praktikablen Ansatz entwickelt, um CO2 mittels Sonnenenergie effizient in Methan zu verwandeln. Schlüssel zum Erfolg ist ein neuartiger Katalysator mit einzelnen Goldatomen. Da Goldatome bei konventionellen Präparationsmethoden aggregieren, entwickelte das Team eine neue Strategie über einen Komplex-Austausch zur Herstellung des Katalysators.

Einzelatom-Katalysatoren verhalten sich aufgrund ihrer besonderen elektronischen Strukturen anders als herkömmliche Metall-Nanopartikel. Auf einem geeigneten Trägermaterial fixiert sind zudem quasi alle einzelnen Atome als katalytisch aktive Zentren zugänglich. Bei diesem neuen Katalysator sind einzelne Goldatome auf einer ultradünnen Zink-Indium-Sulfid-Nanoschicht verankert und mit nur je zwei Schwefelatomen koordiniert. Unter Sonnenlicht zeigte sich der Katalysator sehr aktiv bei einer Methan-Selektivität von 77 %.

Ein Photosensibilisator (ein Ruthenium-Komplex) absorbiert Licht, wird angeregt und nimmt ein Elektron auf, das von einem Elektronen-Donor (Triethanolamin) zur Verfügung gestellt wird, und gibt es an den Katalysator weiter. Die einzelnen Goldatome auf der Oberfläche des Trägermaterials agieren als „Elektronenpumpen“: Sie fangen die Elektronen wesentlich effektiver ein als z.B. Gold-Nanopartikel und übertragen sie dann auf CO2-Moleküle und Intermediate.

Detaillierte Charakterisierungen und Computerberechnungen ergaben, dass der Katalysator die CO2-Moleküle zudem deutlich stärker als Gold-Nanopartikel aktiviert, die angeregte *CO-Zwischenstufe stärker adsorbiert, die Energiebarriere für die Bindung von Wasserstoffionen senkt und die angeregte *CH3-Zwischenstufe stabilisiert. So kann sich bevorzugt CH4 bilden, während die Freisetzung von CO minimiert wird.

Angewandte Chemie: Presseinfo 19/2022
Autor/-in: Hefeng Cheng, Shandong University (China), https://faculty.sdu.edu.cn/chenghefeng/

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202209446

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Mit Metallen gegen Pilzinfektionen

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Eine internationale Kollaboration unter der Leitung von Forschenden der Universität Bern und der University of Queensland in Australien hat gezeigt, dass chemische Verbindungen mit speziellen Metallen hocheffektiv gegen gefährliche Pilzinfektionen sind. Mit diesen Ergebnissen könnten innovative Medikamente entwickelt werden, die gegen resistente Bakterien und Pilze wirksam sind.

Jährlich erkranken über eine Milliarde Menschen an einer Pilzinfektion. Obwohl diese für die meisten Leute harmlos sind, sterben mehr als 1.5 Millionen Patienten und Patientinnen pro Jahr an den Folgen einer solchen Infektion. Während immer mehr Pilzstränge nachgewiesen werden, die gegen eine oder mehrere der verfügbaren Medikamente resistent sind, ist die Entwicklung von neuen Medikamenten in den letzten Jahren fast zum Stillstand gekommen. So laufen heute nur rund ein Dutzend klinische Studien mit neuen Wirkstoffen gegen Pilzinfektionen. «Im Vergleich zu den über tausend Krebsmedikamenten, die zurzeit an Menschen getestet werden, ist dies eine verschwindend kleine Menge», sagt Dr. Angelo Frei vom Departement für Chemie, Biochemie und Pharmazie der Universität Bern, Erstautor der Studie. Die Ergebnisse wurden in der Fachzeitschrift JACS Au publiziert.

Mit Crowd-Sourcing die Antibiotikaforschung ankurbeln
Um die Entwicklung von Pilz- und Bakterienwirkstoffen zu fördern, haben Forschende an der University of Queensland in Australian die Community for Open Antimicrobial Drug Discovery, kurz CO-ADD, gegründet. Das ambitionierte Ziel der Initiative: neue antimikrobielle Wirkstoffe finden, indem Chemikern und Chemikerinnen weltweit angeboten wird, jegliche chemische Verbindungen kostenfrei gegen Bakterien und Pilze zu testen. Wie Frei erklärt, lag der Fokus von CO-ADD anfangs auf «organischen» Molekülen, welche mehrheitlich aus den Elementen Kohlenstoff, Wasserstoff, Sauerstoff und Stickstoff bestehen und keine Metalle enthalten.

Frei, der mit seiner Forschungsgruppe an der Universität Bern versucht, neue Antibiotika auf der Basis von Metallen zu entwickeln, fand jedoch heraus, dass mehr als 1’000 der über 300’000 von CO-ADD getesteten Verbindungen Metalle enthalten. «Bei den meisten Leuten löst das Wort Metall in Verbindung mit Menschen Unbehagen aus. Die Meinung, dass Metalle für uns grundsätzlich schädlich sind, ist weit verbreitet. Allerdings stimmt dies nur bedingt. Ausschlaggebend ist, welches Metall in welcher Form angewendet wird», sagt Frei, der bei der CO-ADD Datenbank der Verantwortliche für alle Metall-Verbindungen ist.

Geringe Toxizität nachgewiesen
In der neuen Studie konzentrierten sich die Forschenden nun auf die Metallverbindungen, die eine Aktivität gegen Pilzinfektionen zeigten. So wurden 21 hochaktive Metallverbindungen gegen verschiede resistente Pilzstränge getestet. Diese enthalten die Metalle Kobalt, Nickel, Rhodium, Palladium, Silber Europium, Iridium, Platin, Molybdän und Gold. «Viele der Metallverbindungen zeigten gute Aktivität gegen alle Stränge und wirkten bis zu 30’000 mal aktiver gegen Pilze als gegen menschliche Zellen», erklärt Frei. Die aktivsten Verbindungen wurden dann in einem Modellorganismus, den Larven der Wachsmotte, getestet. Dabei konnten die Forschenden beobachten, dass nur eine der elf getesteten Metallverbindungen Anzeichen von Toxizität zeigte, während die anderen von den Larven gut toleriert wurden. Im nächsten Schritt wurden einige Metallverbindungen in einem Infektionsmodell getestet, wobei eine Verbindung effektiv die Pilzinfektion in Larven reduzieren konnte.

Grosses Potenzial für breite Anwendung
Metallverbindungen sind in der Medizin nicht neu: Das platinhaltige Cisplatin ist beispielsweise eines der meistverwendeten Medikamente gegen Krebs. Trotzdem ist es noch ein weiter Weg, bis neue antimikrobielle metallhaltige Medikamente zugelassen werden könnten. «Unsere Hoffnung ist, dass unsere Arbeit den Ruf von Metallen in der medizinischen Anwendung verbessert und andere Forschungsgruppen motiviert, dieses grosse, aber noch relativ unerforschte Feld weiter zu erkunden», so sagt Frei. «Wenn wir das volle Potenzial des Periodensystems ausschöpfen, können wir möglicherweise verhindern, dass wir bald ohne effektive Antibiotika und Wirkstoffe gegen Pilze dastehen.»

Die Studie wurde unter anderen vom Schweizer Nationalfonds als auch vom Wellcome Trust und der University of Queensland unterstützt.

Wissenschaftliche Ansprechpartner:
Dr. Angelo Frei
Departement für Chemie, Biochemie und Pharmazie (DCBP)
Universität Bern
Freiestrasse 3
3012 Bern
Telefon: +41 31 632 88 65
E-Mail: angelo.frei@unibe.ch

Originalpublikation:
Angelo Frei,* Alysha G. Elliott, Alex Kan, Hue Dinh, Stefan Bräse, Alice E. Bruce, Mitchell R. Bruce, Feng Chen, Dhirgam Humaidy, Nicole Jung, A. Paden King, Peter G. Lye, Hanna K. Maliszewska, Ahmed M. Mansour, Dimitris Matiadis, María Paz Muñoz, Tsung-Yu Pai, Shyam Pokhrel, Peter J. Sadler, Marina Sagnou, Michelle Taylor, Justin J. Wilson, Dean Woods, Jo-hannes Zuegg, Wieland Meyer, Amy K. Cain, Matthew A. Cooper, and Mark A. T. Blaskovich*:
Metal Complexes as Antifungals? From a Crowd-Sourced Compound Library to the First In Vivo Experiments JACS Au, 3 May 2022.
DOI: 10.1021/jacsau.2c00308

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende

Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm
Ammoniak aus grünem Wasserstoff ist ein Energieträger mit hohem wirtschaftlichem Potenzial, der als chemischer Grundstoff, als Schiffstreibstoff oder für die stationäre Stromerzeugung eingesetzt werden kann. Zukünftig wird er in großem Umfang aus Regionen mit hohen Solar- und Windressourcen importiert werden. Im BMBF-geförderten Projekt »PICASO« arbeiten das Fraunhofer-Institut für Solare Energiesysteme ISE, die Universität Ulm und das Fukushima Renewable Energy Research Institute (FREA-AIST) an einem neuartigen Power-to-Ammonia- (PtA) Prozess für die nachhaltige Ammoniaksynthese. Das Verfahren könnte die CO2-Emissionen im Vergleich zum konventionellen Prozess um 95 Prozent senken.

Ammoniak als Wasserstoff-Vektor hat das Potenzial, einen wesentlichen Beitrag zur Energiewende zu leisten: »Ammoniak kann auch in sonnen- und windreichen, aber abgelegenen Regionen aus grünem Wasserstoff und Stickstoff hergestellt werden – zum Beispiel in der nordafrikanischen Wüste. Für den Transport nach Europa, in der Regel per Schiff, wird der Energieträger verflüssigt. Wir entwickeln dafür eine integrierte Reaktortechnologie mit dynamischen Betriebsstrategien, die den Betrieb mit fluktuierenden erneuerbaren Energiequellen erlaubt«, erläutert Prof. Dr. Christopher Hebling, Bereichsleiter Wasserstofftechnologien am Fraunhofer ISE.

Im Gegensatz zum konventionellen Haber-Bosch-Verfahren erlaubt der PtA-Prozess dank der hohen Reinheit des elektrolysebasierten »grünen« Wasserstoffs den Einsatz von aktiveren Synthesekatalysatoren. Diese können bei niedrigerer Temperatur arbeiten, was die thermodynamisch mögliche Ammoniakausbeute steigert und somit den Betrieb bei niedrigeren Drücken und ohne Rückführung unverbrauchter Edukte ermöglicht. Für das Projekt hat der japanische Partner FREA-AIST einen neuartigen Ruthenium-Katalysator entwickelt, der die Synthese bei deutlich milderen Prozessbedingungen mit Temperaturen unter 400 °C sowie Drücken unter 80 bar ermöglicht. Dieser kann bereits im halbindustriellen Maßstab (TRL > 7) hergestellt werden.

Um die Ausbeute noch weiter zu steigern, untersuchen das Fraunhofer ISE und die Universität Ulm die integrierte Abtrennung von Ammoniak: Die Reaktion und die Abtrennung von Ammoniak laufen in-situ in einem integrierten Reaktor ab. So kann der Betriebsdruck minimiert und die Rückführung von nicht umgesetztem Einsatzgas vermieden werden. »Da die Kompressoren und Wärmetauscher mit einem Anteil von 90 Prozent an den Investitionskosten die größten Kostentreiber bei der konventionellen Ammoniak-Synthese sind, bieten diese Verbesserungen ein enormes Potenzial für die Wirtschaftlichkeit flexibler Ammoniak- Produktionsanlagen, die auch in entlegenen Regionen einsetzbar sind«, so Dr.-Ing. Ouda Salem, Gruppenleiter Power to Liquids am Fraunhofer ISE. Somit ist keine aufwändige Infrastruktur mehr notwendig und die Ammoniakproduktion kann in wesentlich kleineren Maßstäben erfolgen. Damit bietet sich die Möglichkeit, das neuartige PtA-Verfahren für die Nutzung regenerativer Energiequellen auch in abgelegenen Regionen maßzuschneidern. Prof. Dr.-Ing. Robert Güttel, Leiter des Instituts für Chemieingenieurwesen an der Universität Ulm, ergänzt: »Außerdem können wir Wasserstoff und Stickstoff wesentlich besser ausnutzen, wenn keine Rückführung erforderlich ist, so dass wir die stoffliche und energetische Effizienz des gesamten PtA-Prozesses deutlich steigern können.«

Im Projekt soll bereits die Übertragung des neuen PtA-Konzepts vom Labor- in den Technikumsmaßstab realisiert werden. Während an der Universität Ulm der Labormaßstab im Fokus steht, werden am Fraunhofer ISE umfangreiche experimentelle Studien im Technikum durchgeführt. Robert Güttel: »Verknüpft werden die experimentellen Erkenntnisse in beiden Skalen durch detaillierte mathematische Modellierung und Simulation. Damit können wir sogar bereits belastbare Vorhersagen zum Pilotmaßstab treffen und die Implementierung des integrierten Reaktorkonzepts beschleunigen.«
Neben der technischen Demonstration wollen die Partner auch nachweisen, dass der neuartige, flexible PtA-Prozess wirtschaftlich mit dem konventionellen Verfahren wettbewerbsfähig ist.

Disruptives Verfahren mit hohem Einsparpotenzial
»Im Erfolgsfall wird der PICASO-Ansatz eine disruptive Technologie sein, die einen konventionellen fossilen Prozess ersetzt und damit den CO2-Ausstoss um bis zu 95 Prozent reduziert«, so Ouda Salem. Eine simulative Analyse des PICASO-Prozesses hat zudem ein Energieeinsparungspotenzial von 50 Prozent gegenüber dem konventionellen Haber-Bosch-Prozess ergeben. Ein konkretes Ziel für ein Folgeprojekt ist die Hochskalierung des integrierten Reaktors auf Demonstrationsniveau und dessen Erprobung in einer Pilotanlage am Standort der assoziierter Partner FREA-AIST in Fukushima. Darüber hinaus entwickeln die Forschenden spezifische dynamische Untersuchungen und Betriebsstrategien, um Schnittstellenanforderungen zwischen den Elektrolyseuren und der Syntheseanlage zu identifizieren. Mit dem erfolgreichen Abschluss dieser Projektphasen liegen die grundlegenden Engineering-Daten für eine industrielle Referenzanlage vor. Die PICASO-Partner werden diese Phasen mit FuE-Dienstleistungen und eigenen Patenten zu Katalysator- und Reaktorentwicklungen begleiten, um die komplette Technologie an die chemische und verfahrenstechnische Industrie zu lizenzieren.

Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt PICASO (Process Intensification & Advanced Catalysis for Ammonia Sustainable Optimized process) startete am 1. August 2022.

Text: Fraunhofer ISE/Uni Ulm

Wissenschaftliche Ansprechpartner:
Universität Ulm: Prof. Dr.-Ing. Robert Güttel: Tel. 0731 50-25700, robert.guettel@uni-ulm.de

(nach oben)


Forschung für Energiewende und Kreislaufwirtschaft

Gabriele Ebel M.A. Presse- und Öffentlichkeitsarbeit / Public Relations
Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg
Internationales Symposium zu Elektroden für Elektrolyse und Brennstoffzellen in Magdeburg ausgerichtet

Forscherinnen und Forscher aus den Bereichen Materialwissenschaften, Elektrochemie und Verfahrenstechnik haben sich vom 5. bis 7. September 2022 in Magdeburg zum zweiten Mal nach 2019 zum internationalen Symposium zu „Insights into Gas Diffusion Electrodes“ ge-troffen. Organisiert wurde die Veranstaltung vom Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg und der TU Clausthal im Rahmen der DFG-Forschungsgruppe 2397 „Multiskalen-Analyse komplexer Dreiphasensysteme“.

Gasdiffusionselektroden sind komplex aufgebaute Funktionsmaterialien, die in verschiedenen tech-nisch bedeutsamen elektrochemischen Prozessen wie Elektrolyseverfahren und Brennstoffzellen verwendet werden. Gerade im Hinblick auf die Herausforderungen der Energiewende, aber auch zur Elektrifizierung von chemischen Prozessen, beispielsweise durch direkte Nutzung von CO2 als Roh-stoff, ist die Weiterentwicklung dieser Materialien von großer Bedeutung.

Die Deutsche Forschungsgemeinschaft (DFG) fördert seit 2016 eine Forschungsgruppe zur „Mul-tiskalen-Analyse komplexer Dreiphasensysteme“. Die Wissenschaftlerinnen und Wissenschaftler möchten durch Experimente und Simulationen neue Einblicke in die komplexen Abläufe innerhalb von Gasdiffusionselektroden gewinnen. Schwerpunkt der Arbeiten in der zweiten Projektphase ist die elektrochemische Umwandlung von CO2 zu CO als wichtiges Wertprodukt für die chemische In-dustrie. Am Projekt sind Ingo Manke vom Helmholtz-Zentrum Berlin, Ulrich Nieken von der Universi-tät Stuttgart, Christina Roth von der Universität Bayreuth, Wolfgang Schuhmann von der Ruhr-Universität Bochum und Tanja Vidaković-Koch vom Max-Planck-Institut für Dynamik komplexer tech-nischer Systeme in Magdeburg beteiligt. Koordiniert wird die Gruppe von Thomas Turek (TU Claust-hal, Sprecher) und Ulrike Krewer (Karlsruher Institut für Technologie, stellvertretende Sprecherin).

100 Wissenschaftlerinnen und Wissenschaftler aus 11 Nationen sowie Vertreter und Sprecher aus verschiedenen Industrieunternehmen, unter anderem DE NORA, Elogen, Avantium, SGL Carbon und Johnson Matthey, trafen sich vom 5. bis 7. September 2022 in Magdeburg und diskutierten die neuesten Entwicklungen im Bereich der Gasdiffusionselektroden in Fachvorträgen und Posterbei-trägen. Im Rahmen des Symposiums im Veranstaltungszentrum Johanniskirche wurden drei Poster-preise für Nachwuchswissenschaftlerinnen und -wissenschaftler vergeben.

Das Symposium wurde federführend von Tanja Vidaković-Koch (Magdeburg) und Thomas Turek (TU Clausthal) organisiert. Die Veranstaltung wurde von der Deutschen Forschungsgemeinschaft (DFG), der Gesellschaft Deutscher Chemiker (GDCh), der International Society of Electrochemistry (ISE) und der Covestro AG gefördert.

Weitere Informationen:
https://www.mpi-magdeburg.mpg.de/2022-09-21-pm-gde-symposium
https://www.mpi-magdeburg.mpg.de/gde2022

(nach oben)


Passagierflugzeuge: Sicher und effizient

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
DFG-Forschungsgruppe 2895 misst im kryogenen Windkanal erstmals detailliert den Druck auf Flügel und Leitwerk.

Im Kampf gegen den Klimawandel arbeitet die Flugbranche intensiv an der Senkung ihres fossilen Energieverbrauchs. Neben alternativen Treibstoffkonzepten suchen die Hersteller nach Möglichkeiten zur Effizienzsteigerung. Dafür müssen Flugzeuge künftig unabhängig von der Antriebsart bereits in der Entwurfsphase besser auf zu erwartende Lasten im Reiseflug oder auch in Extremsituationen ausgerichtet werden. Genau dies ist das Ziel der DFG-Forschungsgruppe 2895 an der Universität Stuttgart: Die Forschenden wollen die physikalischen Phänomene bei der Flugzeugumströmung besser verstehen und konnten jetzt beeindruckende Messergebnisse vorlegen.

Die Gruppe mit dem Namen „Erforschung instationärer Phänomene und Wechselwirkungen beim High-Speed Stall“ (Sprecher Dr. Thorsten Lutz, Institut für Aerodynamik und Gasdynamik, IAG) umfasst in sieben Teilprojekten Wissenschaftler*innen an vier deutschen Universitäten sowie am Deutschen Zentrum für Luft- und Raumfahrt (DLR) und wird von der Forschungsgemeinschaft DFG gefördert. Die Federführung liegt in Händen des IAG der Universität Stuttgart, das zudem zwei der wissenschaftlichen Teilprojekte bearbeitet. Dabei nutzen die Wissenschaftler*innen Windkanaldaten aus aufwändigen Experimenten im Europäischen Transsonischen Windkanal (ETW) in Köln, um in Verbindung mit modernsten numerischen Simulationsmethoden Einblicke in die physikalischen Prozesse im Flügelnachlauf zu bekommen.

Nur solche bei großer Kälte und bei Überdruck betriebenen sogenannten kryogenen Windkanäle sind in der Lage, Flugbedingungen aus dem realen Betrieb an Modellen nachzubilden. Hierzu wird ein aus Spezialstahl hergestelltes und mit Messtechnik vollgepacktes Flugzeugmodell in eine auf bis zu -160°C heruntergekühlte Umgebung eingebracht. Ein starker Kompressor erzeugt eine Anströmung bis 800 km/h und bildet die Bedingungen im Reiseflug knapp unterhalb der Schallgeschwindigkeit nach. Der Betrieb der Anlage ist teuer und jede Sekunde zählt. Um die Zeit im Kanal optimal zu nutzen, wird daher jeder Aspekt einer solchen mehrtägigen Messkampagne vorab monatelang akribisch geplant und optimiert. Die ersten Messreihen fanden Ende 2020 und 2021 statt.

Messungen mit Hochgeschwindigkeitskameras
In den aktuellen Messreihen gelang es Wissenschaftler*innen des DLR nun erstmals, den Druck auf dem gesamten Flügel und auf dem Leitwerk zu messen. Hierfür beschichteten sie die Oberflächen mit einem druckempfindlichen Lack und nutzten Hochgeschwindigkeitskameras, die bis zu 2.000 Fotos pro Sekunde aufnehmen. Eigens geschriebene Bildverarbeitungsalgorithmen erlauben es, die Bilder in Druckinformationen umzurechnen. „Solche fein aufgelösten Informationen sind für die Aerodynamiker Gold wert“, betont Koordinator Dr. Thorsten Lutz. „Damit lassen sich kleinste Schwankungen der Druckverhältnisse am Flügel erfassen und wir verstehen, ab welchen Flugzuständen diese zu einer Größe anwachsen, die im Flugzeug Vibrationen und unerwünschte Lasten erzeugt.“

Die Umströmung ist jedoch nicht nur an der Oberfläche von Bedeutung, sondern zum Beispiel auch am Flügelnachlauf, also in dem turbulenten Bereich hinter dem Flügel. Treffen die dort vorkommenden chaotisch schwankenden Luftteilchen auf das hinten liegende Leitwerk, führt dies zu unerwünschten Vibrationen, die sich negativ auf die Lebensdauer der Teile auswirken können. Die Bewegung der Luft ist aber mit bloßen Auge nicht erkennbar. Konstrukteure legen das Flugzeug und seine Steuerung daher so aus, dass diese Wechselwirkung möglichst vermieden wird.

Was passiert, wenn dies in einer Extremsituation doch auftritt, machten die Forschenden mittels Lasertechnik sicht- und messbar. Bei der sogenannten der PIV (Particle Image Velocimetry) Methode werden kleinste Eiskristalle in die Strömung gegeben, die von einem Laser beleuchtet und mit einer extrem schnellen Kamera fotografiert werden. Dies offenbart die Bewegung der Luftteilchen durch das turbulente Strömungsgebiet und gibt den Forschern Aufschlüsse über die dadurch verursachten Kräfte auf das Flugzeug. „Damit können wir in einer Detailtiefe in die Umströmung eines Verkehrsflugzeugs blicken, von der wir bisher nur träumen konnten”, konstatiert Lutz. „Durch die Analyse dieser Daten verstehen wir viel besser, was passiert, wenn das Flugzeug zum Beispiel von einer starken Böe erfasst wird.”

Wissenschaftliche Ansprechpartner:
Dr. Thorsten Lutz, Universität Stuttgart, Institut für Aerodynamik und Gasdynamik, Tel.: +49 711 685 63406, E-Mail lutz@iag.uni-stuttgart.de

(nach oben)


Kein erhöhtes Schlaganfallrisiko durch die Impfung gegen SARS-CoV-2

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Neue Studien zeigen: Es gibt kein erhöhtes Schlaganfallrisiko nach Impfung gegen SARS-CoV-2 [1, 2]. Beide Erhebungen hatten sehr große Kohorten ausgewertet und kamen zu dem gleichen Ergebnis. Des Weiteren gibt es erste Daten, die sogar auf einen Schutz der Impfung vor Schlaganfällen während einer COVID-19-Erkrankung hindeuten: Bei Infektion mit SARS-CoV-2 hatten geimpfte Menschen nicht einmal ein halb so hohes Risiko wie ungeimpfte, einen Schlaganfall zu erleiden [4].

Ende März letzten Jahres wurde eine schwere, wenn auch seltene Nebenwirkung nach COVID-19-Impfung mit Vektor-basierten Vakzinen beobachtet: Impfassoziiert traten vor allem bei jüngeren Frauen Sinus- und Hirnvenenthrombosen auf, es kam zu Todesfällen. Bei Impfung mit mRNA-Vakzinen wurde diese unerwünschte Nebenwirkung nicht beobachtet, zumindest nicht in einer Häufigkeit, die einen Zusammenhang vermuten ließ. Der Vektor-basierte Impfstoff ChAdOx1 (AstraZeneca) wurde daraufhin nicht mehr jungen Frauen verabreicht, außerdem wurden Geimpfte für das Leitsymptom Kopfschmerzen nach Impfung sensibilisiert und Ärztinnen und Ärzte auf das Phänomen der Bildung von anti-PF4-Antikörpern hingewiesen. Der Nachweis dieser Antikörper kann Betroffene identifizieren, bevor klinische Symptome von Sinus- und Hirnvenenthrombosen auftreten, und erlaubt somit eine frühzeitige Therapie und Prävention dieser seltenen Komplikation.
Es wurde aber auch ein leicht erhöhtes Risiko für hämorrhagische Schlaganfälle (sogenannte Hirnblutungen) nach Impfung mit einem mRNA-Vakzin beschrieben. Eine im Oktober 2021 in „Nature Medicine“ publizierte Auswertung [3] zeigte diesbezüglich ein erhöhtes Risiko an den Tagen 1-7 und den Tagen 15-21 nach Impfung mit BNT162b2 (IRR: 1,27 und 1.38). Seitdem haftet allen Impfstoffen gegen SARS-CoV-2 das Stigma an, sie könnten Schlaganfälle auslösen, eine Sorge, die verständlicherweise zu Ängsten führt und zur Impfskepsis beiträgt. Doch zwei aktuelle Studien zeigen nun, dass die Impfung gegen SARS-CoV-2 nicht mit einem erhöhten Schlaganfallrisiko einhergeht.

In einem in „Neurology“ publizierten, systematischen Review [1] wurden zwei randomisierte Studien, drei Kohortenstudien und elf Register-basierte Studien ausgewertet. Insgesamt wurden 17.481 Fälle ischämischer Schlaganfälle erfasst – bei einer Gesamtzahl von 782.989.363 Impfungen. Die Schlaganfallrate betrug insgesamt 4,7 Fälle pro 100.000 Impfungen. Nur bei 3,1% der Schlaganfälle in Folge einer SARS-CoV-2-Impfung lag eine thrombotisch-thrombozytopenische Purpura (TTP) zugrunde. Wie die Autorinnen und Autoren schlussfolgern, ist damit die Schlaganfallrate nach Impfung mit der in der Allgemeinbevölkerung vergleichbar – und die TTP, die zu Sinus- und Hirnvenenthrombosen führte, zumindest nach den Vorkehrungen, die getroffen wurden, eine sehr seltene Komplikation. Des Weiteren betonen sie, dass die Schlaganfallrate bei SARS-CoV-2-infizierten Menschen hingegen deutlich höher liegt.

Bei der zweiten Studie handelt es sich um eine aktuelle Auswertung des „French National Health Data System“ (Système National des Données de Santé [SNDS]) [2]. Untersucht wurde, wie häufig nach erster und zweiter Gabe von Vakzinen gegen SARS-CoV-2 bei Menschen im Alter von 18 bis 75 Jahren kardiovaskuläre Ereignisse (Myokardinfarkte, Lungenembolien oder Schlaganfälle) auftraten. Insgesamt waren 73.325 Ereignisse dokumentiert worden, bei 37 Millionen geimpften Personen. Im Ergebnis zeigte die Studie, dass es keine Assoziation zwischen mRNA-Impfstoffen und dem Auftreten dieser schweren kardiovaskulären Komplikationen gab. Die erste Dosis des Vektor-basierten Impfstoffs ChAdOx1 war in Woche 2 nach der Impfung mit einer erhöhten Rate an Myokardinfarkten und Lungenembolien vergesellschaftet (RI: 1,29 und 1,41), auch beim Impfstoff von Janssen-Cilag konnte eine Assoziation mit dem Auftreten von Myokardinfarkten in Woche 2 nach Vakzinierung nicht ausgeschlossen werden. In Bezug auf die Schlaganfallrate ergab die Auswertung aber für keinen der Impfstoffe ein höheres Risiko.

DGN-Generalsekretär Professor Dr. Peter Berlit schlussfolgert: „Die vorliegenden Daten zeigen zumindest für die mRNA-Impfstoffe keinerlei Sicherheitssignale in Bezug auf ein erhöhtes Schlaganfallrisiko. Die Tatsache, dass beide Erhebungen sehr große Kohorten auswertet haben und beide zum gleichen Ergebnis kommen, gibt uns zusätzliche Sicherheit: mRNA-Vakzine gegen SARS-CoV-2 erhöhen nicht das Schlaganfallrisiko, die Sorge davor sollte also Menschen nicht davon abhalten, sich impfen zu lassen.“

Ganz im Gegenteil: Der Experte betont, dass die SARS-CoV-2-Infektion mit einer höheren Schlaganfallrate einhergeht und die Impfung somit vor Schlaganfällen schütze. Das zeigte jüngst eine koreanische Studie [4]: Von 592.719 SARS-CoV-2-positiven Patientinnen und Patienten im Studienzeitraum (von Juli 2020 und Dezember 2021) wurden 231.037 in die Studie eingeschlossen. 62.727 waren ungeimpft, 168.310 vollständig geimpft (zwei Dosen eines mRNA- oder Vektorimpfstoffs), sie hatten sich aber trotzdem mit Corona infiziert. Die geimpften Studienteilnehmerinnen und -teilnehmer waren älter und wiesen mehr Komorbiditäten auf. Dennoch waren schwere oder gar kritische COVID-19-Verläufe in dieser Gruppe seltener ebenso wie die Rate an Folgeerkrankungen. Das adjustierte Risiko betrug für den ischämischen Schlaganfall 0,40 bei den geimpften Teilnehmern, was bedeutet, dass die Impfung das Schlaganfallrisiko im Vergleich zur Gruppe der ungeimpftem Studienteilnehmer mehr als halbierte.

Literatur
[1] Stefanou MI, Palaiodimou L, Aguiar de Sousa D, Theodorou A, Bakola E, Katsaros DE, Halvatsiotis P, Tzavellas E, Naska A, Coutinho JM, Sandset EC, Giamarellos-Bourboulis EJ, Tsivgoulis G. Acute Arterial Ischemic Stroke Following COVID-19 Vaccination: A Systematic Review and Meta-analysis. Neurology. 2022 Aug 24:10.1212/WNL.0000000000200996. doi: 10.1212/WNL.0000000000200996. Epub ahead of print. PMID: 36002319.

[2] Botton J, Jabagi MJ, Bertrand M, Baricault B, Drouin J, Le Vu S, Weill A, Farrington P, Zureik M, Dray-Spira R. Risk for Myocardial Infarction, Stroke, and Pulmonary Embolism Following COVID-19 Vaccines in Adults Younger Than 75 Years in France. Ann Intern Med. 2022 Aug 23. doi: 10.7326/M22-0988. Epub ahead of print. PMID: 35994748.

[3] Patone, M., Handunnetthi, L., Saatci, D. et al. Neurological complications after first dose of COVID-19 vaccines and SARS-CoV-2 infection. Nat Med 27, 2144–2153 (2021). https://doi.org/10.1038/s41591-021-01556-7

[4] Kim YE, Huh K, Park YJ et al. Association Between Vaccination and Acute Myocardial Infarction and Ischemic Stroke After COVID-19 Infection. JAMA. 2022 Jul 22. https://jamanetwork.com/journals/jama/fullarticle/2794753

Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o Dr. Bettina Albers, albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren fast 11.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsident: Prof. Dr. med. Christian Gerloff
Stellvertretender Präsident: Prof. Dr. Lars Timmermann
Past-Präsidentin: Prof. Dr. med. Christine Klein
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: David Friedrich-Schmidt
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

(nach oben)


Neues Zentrum für Mikrobenforschung in Marburg

Dr. Virginia Geisel Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für terrestrische Mikrobiologie
Das „Zukunftszentrum Mikrokosmos Erde“ adressiert aktuelle Fragen der Umwelt- und Klimamikrobiologie

Das Max-Planck-Institut für terrestrische Mikrobiologie und die Philipps-Universität in Marburg eröffneten am Freitag, den 16. September 2022 das neu geschaffene „Zukunftszentrum Mikrokosmos Erde“ auf dem Campus Lahnberge. Zahlreiche Ehrengäste, darunter die hessische Ministerin für Wissenschaft und Kunst Angela Dorn, gratulierten zum Start. Das Projekt hat eine geplante Laufzeit von zunächst sieben Jahren und wird vom Land Hessen mit 6,8 Mio. Euro gefördert.

Mikroorganismen und das globale Klima sind miteinander untrennbar verbunden. Damit ist das genaue Verständnis der Netzwerke mikrobieller Stoffkreisläufe – vom Kleinsten bis in die globalen Maßstäbe – ein wichtiger Schlüssel zur Lösung vieler drängender Fragen unserer Zeit.

Das neue Forschungszentrum (Microcosm Earth Center, MEC) entsteht mit Unterstützung des Landes Hessen, des Hessischen Ministeriums für Wissenschaft und Kunst (HMWK) und der Max-Planck-Gesellschaft. Als gemeinsames Projekt des Max-Planck-Instituts für terrestrische Mikrobiologie (MPI-TM) und der Philipps-Universität Marburg (UMR) widmet es sich dem ebenso hochaktuellen wie breit gefächerten Themengebiet Umwelt- und Klimamikrobiologie.

Zur Eröffnung am 16. September im Hörsaal des Max-Planck-Instituts begrüßten Prof. Dr. Tobias Erb, Direktor am MPI und Mit-Initiator des Projektes, sowie der Präsident der UMR, Prof. Dr. Thomas Nauss, ca. 50 geladene Ehrengäste aus Politik, Hochschule, Kuratorium, Industrie und Wissenschaft. Anschließend sprachen Ministerin Angela Dorn sowie Dr. Michael Kopatz, Stadtrat der Universitätsstadt Marburg.

„Das Forschungsfeld der Mikrobiologie entwickelt sich rasant und ist eine Schlüsselwissenschaft des 21. Jahrhunderts für Umwelt, Klima und Gesundheit. Mit dem Zukunftszentrum Mikrokosmos Erde entwickeln wir neue Themen und Talente zwischen der Max-Planck-Gesellschaft und der Philipps-Universität Marburg, die wir zur wissenschaftlichen und wirtschaftlichen Standortentwicklung, aber auch zur Vorbereitung der nächsten Exzellenzinitiative brauchen“, so Wissenschaftsministerin Angela Dorn. „Ein entscheidender Schlüssel dazu ist die frühzeitige Gewinnung internationaler Forschender – vor allem von Frauen. Ich freue mich, dass wir als Land Hessen tatkräftig zum Aufbau des Zukunftszentrums beitragen konnten; es ist aus dem Zentrum für Synthetische Mikrobiologie (SYNMIKRO) hervorgegangen – ehemals von unserem Forschungsförderprogramm LOEWE gefördert, zudem unterstützen wir das Zentrum mit 6,8 Millionen Euro. Ich wünsche den Forschenden viel Erfolg bei ihrer zukunftsweisenden Arbeit!“

Prof. Dr. Paul Schulze-Lefert vom Max-Planck-Institut für Pflanzenzüchtungsforschung in Köln erläuterte in seinem Vortrag, wie Pflanzen durch ihre Mikrobiome geschützt werden. Danach gewährten die ersten Mitglieder des Zentrums spannende Einblicke in Ihre Forschung.
Das Zukunftszentrum wird insgesamt drei Forschungsgruppen umfassen. Dr. Judith Klatt analysiert am MEC mikrobielle Prozesse in einem breiten Spektrum an Umgebungen wie kontaminierten Böden, hydrothermalen Quellen oder Seen. Dabei ergänzt sie Online-Messungen direkt in der Umwelt durch klassische biochemische Forschungen. Dr. Julia Kurth leitet ebenfalls eine Forschungsgruppe am MEC: Sie erkundet unter anderem, wie unlängst entdeckte methanbildende Mikroben zur weltweiten Bilanz dieses wichtigen Treibhausgases beitragen.

Ergänzt werden die Forschungsgruppen durch sechs „Fellows“, Nachwuchswissenschaftlerinnen und -Wissenschaftlern aus bestehenden Gruppen an der UMR und dem MPI-TM. Sie erhalten für einen Zeitraum von sechs Monaten eine Finanzierung für die Weiterentwicklung ihrer Projekte.

Dabei kommt der Interdisziplinarität ein besonderer Stellenwert zu, wie Universitäts-Präsident Thomas Nauss betont: „Seit Jahren kooperieren am Campus Lahnberge die Philipps-Universität und das MPI sehr erfolgreich miteinander, wovon vor allem das Zentrum SYNMIKRO zeugt. Im Zukunftszentrum erhalten Nachwuchswissenschaftlerinnen und -wissenschaftler die Möglichkeit, innovative Forschung zu betreiben. Damit stärkt es die Interdisziplinarität der Marburger Biowissenschaften und intensiviert die Zusammenarbeit der beteiligten Partner.“

Für die Durchführung der Arbeiten steht den Forschenden die Infrastruktur beider Institutionen zur Verfügung, die u.a. Proteomics, Metabolomics, Hochleistungsmikroskopie, DNA-Synthese & -Sequenzierung, Robotik, Strukturbiologie, Cryo-EM sowie Gewächshäuser umfasst.

Prof. Dr. Tobias Erb, Direktor am Max-Planck- Institut und Sprecher des Zentrums, sagt: „Das genaue Verständnis und der gezielte Einsatz von Mikroorganismen wird eine Schlüsselrolle in einer nachhaltigen Agrar-, Umwelt-, Klima- und Gesundheitspolitik spielen. Wir freuen uns, herausragende Wissenschaftlerinnen und Wissenschaftler begrüßen zu dürfen. Sie forschen über die Grenzen der traditionellen Disziplinen hinweg und eröffnen damit neue Wege im Bereich der Umwelt- und Klimamikrobiologie.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Erb
toerb@mpi-marburg.mpg.de

(nach oben)


Wie sicher ist der Verbands- und Vereinssport?

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Mit über 4.300 befragten Vereinsmitgliedern und rund 300 beteiligten Sportverbänden stellt die SicherImSport-Studie die bislang größte Studie zu Gewalterfahrungen im organisierten Sport in Deutschland dar. Erste Ergebnisse des Projektes SicherImSport wurden bereits im Herbst 2021 veröffentlicht. Nun legt der Forschungsverbund der Deutschen Sporthochschule Köln, des Universitätsklinikums Ulm und der Bergischen Universität Wuppertal bei einer Fachtagung im Deutschen Sport & Olympia Museum in Köln den Abschlussbericht vor.

Die Studie zeigt, dass Gewalterfahrungen im Sport keine Einzelfälle sind. Psychische Gewalt, in Form von Erniedrigungen, Bedrohungen oder Beschimpfungen, wurde am häufigsten von den befragten Vereinsmitgliedern angegeben – 63% der Befragten berichten, dies bereits im Kontext des Vereinssports mindestens einmal erlebt zu haben, meistens häufiger. Zudem gab ein Viertel der Befragten an, sexualisierte Belästigungen oder Grenzverletzungen ohne Körperkontakt im Vereinssport erlebt zu haben. Ein Fünftel der befragten Vereinsmitglieder berichtete gar von sexualisierter Gewalt mit Körperkontakt (z.B. in Form von unerwünschten sexuellen Berührungen oder sexuellen Übergriffen). Jedoch: Auch wenn Vereinsmitglieder angeben, solche negativen und missbräuchlichen Erfahrungen im Kontext des Vereins gemacht zu haben, geben neun von zehn betroffenen Personen an, allgemein gute bis sehr gute Erfahrungen mit dem Vereinssport zu haben. Die generelle Beurteilung des Vereinssports fällt somit auch beim Vorliegen von Belästigungs- oder Gewalterfahrungen überwiegend positiv aus.

Zudem zeigt die Studie, dass die betroffenen Vereinsmitglieder auch außerhalb des Sports in ähnlichem Ausmaß Gewalt erleben; sexualisierte Grenzverletzungen, Belästigung und Gewalt mit und ohne Körperkontakt werden sogar außerhalb des Sportkontextes häufiger als innerhalb des Sportkontextes von den Vereinsmitgliedern erlebt. Die Studie belegt somit, dass interpersonelle und sexualisierte Gewalt gesamtgesellschaftliche Probleme darstellen, die auch den Sport betreffen.

„Kein Verein kann sich darauf berufen, dass es sich um Einzelfälle handelt“
PD Dr. Marc Allroggen vom Universitätsklinikum Ulm zieht das Fazit: „Mit dem Vorliegen der Befunde wird sich kein Verein darauf berufen können, dass es sich um Einzelfälle handelt und nur wenige Vereine betroffen sind.“ Zudem zeigen die Daten, dass es sich nicht überwiegend um „vergangene Fälle“ handelt. Im Gegenteil: Jüngere Personen (bis 30 Jahre alt) berichten in der Befragung deutlich häufiger von Gewalterfahrungen im Sportverein als ältere Mitglieder (über 30 Jahre alt). Zudem sind Vereinsmitglieder mit einem höheren sportlichen Leistungsniveau (z.B. Teilnahme an nationalen und internationalen Wettkämpfen) und solche mit längeren Trainingszeiten eher stärker als Vereinsmitglieder im Freizeitsport von Gewalt betroffen. Auch Mädchen und Frauen sowie Vereinsmitglieder mit nicht-heterosexueller Orientierung berichten häufiger von solchen negativen Erfahrungen.

Risikoanalysen und Schutzkonzepte sind für alle Sportvereine erforderlich
„Alle Vereine sind somit gut beraten, zielgruppenspezifische Risikoanalysen durchzuführen und eigene Schutzkonzepte zu entwickeln“, so heißt es im Fazit der Studie. Dass die Stadt- und Kreissportbünde sowie Landesfachverbände bereits verschiedene Maßnahmen auf den Weg gebracht haben, um die Sportvereine vor Ort beim Schutz vor Gewalt zu unterstützen, belegen die Ergebnisse der Studie SicherImSport ebenfalls. Dabei haben besonders die Landessportbünde eine wichtige Orientierungs- und Beratungsfunktion für die Mitgliedsverbände in den untersuchten Bundesländern und benötigen zugleich noch mehr Ressourcen, um dieser Verantwortung gerecht zu werden. Rund 60% der befragten Verbände auf der mittleren und regionalen Organisationsebene des Sportsystems in Deutschland wünschen sich mehr Unterstützung bei der Beratung zum Umgang mit Verdachtsfällen oder konkreten Vorfällen von Gewalt und suchen hier insbesondere bei den Landessportbünden Unterstützung. Rund die Hälfte der befragten Stadt- und Kreissportbünde sowie Landesfachverbände geben zudem an, dass sie mehr Unterstützung bei der Durchführung von Risikoanalysen und der Entwicklung von Schutzkonzepten benötigen.

Gut sichtbare Anlaufstellen für Betroffene im Sport wichtig
Die Studie SicherImSport zeigt außerdem, dass Betroffene von Gewalt im Sport nur selten über ihre Erfahrungen berichten, und nur selten Unterstützung bei den Sportvereinen oder -verbänden suchen. Vor diesem Hintergrund ist es besonders bedenklich, dass nach den Ergebnissen der Studie nur die Hälfte der befragten Sportverbände über nach außen sichtbare Kontaktmöglichkeiten für Betroffene (z.B. auf ihren Websites) verfügt. Prof. Dr. Bettina Rulofs von der Deutschen Sporthochschule resümiert: „Anlaufstellen für Betroffene im Sport sind wichtig. Der organisierte Vereins- und Verbandsport sollte dringend nach geeigneten Wegen suchen, wie er proaktiv und gut sichtbar, auf diejenigen zugehen kann, die Rat und Unterstützung bei Gewalterfahrungen benötigen.“

Das Forschungsprojekt SicherImSport wird mit Mitteln des Landessportbundes Nordrhein-Westfalen gefördert. Zehn weitere Landessportbünde beteiligten sich an der Finanzierung der einzelnen Teilprojekte. Die Projektleitungen liegen bei Prof. Dr. Bettina Rulofs an der Deutschen Sporthochschule Köln (zuvor: Bergische Universität Wuppertal) sowie bei PD Dr. Marc Allroggen am Universitätsklinikum Ulm.

Den Bericht zum Projekt gibt es hier: https://www.dshs-koeln.de/aktuelles/meldungen-pressemitteilungen/detail/meldung/…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Rulofs: https://www.dshs-koeln.de/visitenkarte/person/univ-prof-dr-bettina-rulofs/
PD Dr. Marc Allroggen: https://www.uniklinik-ulm.de/kinder-und-jugendpsychiatriepsychotherapie/team/dr-…

Originalpublikation:
https://www.dshs-koeln.de/fileadmin/redaktion/Aktuelles/Meldungen_und_Pressemitt…

(nach oben)


Warum versiegt das kostbare Nass?

Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Hydrologin von der Friedrich-Schiller-Universität Jena erforscht im internationalen Forschungsverbund DRYvER das Phänomen trockenfallender Flusssysteme.

Wasser ist Leben, diese simple Weisheit wird schon im Kindergarten vermittelt. Was aber geschieht, wenn das Wasser versiegt? Im Hitzesommer 2022 schafften es sinkende Pegel, eingestellte Fähren und ein zunehmend gestörter Warentransport über Schifffahrtswege immer häufiger in die Nachrichten. Eine Situation, die kaum noch Ausnahme, sondern eher Regel geworden ist, wie Dr. Annika Künne von der Friedrich-Schiller-Universität Jena konstatiert. Die Hydrologin arbeitet im internationalen Forschungsprojekt DRYvER mit, bei dem 25 Partner aus elf Ländern kooperieren. DRYvER wird durch das Horizon 2020-Programm der Europäischen Union gefördert. Neben europäischen Partnern gehören Forschungseinrichtungen in Südamerika, China und den USA dazu. Geleitet wird das Projekt vom Nationalen Forschungsinstitut für Landwirtschaft, Ernährung und Umwelt (INRAE) in Frankreich. Erforscht wird, wie sich die durch den Klimawandel und die menschliche Wassernutzung beförderte Austrocknung von Flusssystemen auf die biologische Vielfalt, die funktionale Integrität und die Ökosystemdienstleistungen auswirkt.

Ziel sind möglichst detaillierte Modelle der Flusssysteme
„Die ober- und unterirdischen Flussnetze erbringen wichtige Ökosystemdienstleistungen, beispielsweise für die Trinkwassergewinnung, den Anbau von Nahrungsmitteln und in Form der Klimaregulierung“, sagt Annika Künne. Hinzu komme, dass diese Ökosysteme eine riesige biologische Vielfalt beherbergen, deren Verlust kaum wiedergutzumachende Schäden verursachen würde. Gleichzeitig sind diese Wassersysteme sehr fragil und durch menschliche Aktivitäten bedroht.

Dr. Künnes Aufgabe in dem Verbundprojekt ist es, Flusssysteme detailgenau zu modellieren. Sechs Pilotgebiete stehen dabei im Fokus. Es sind die Flusssysteme von Guadiaro in Spanien, Krka in Kroatien, Morava in Tschechien, Ain in Frankreich, Fekete in Ungarn und Vantaanjoki in Finnland. Wie Annika Künne erläutert, sind diese Gebiete bis zu 10.000 Quadratkilometer groß. Die Erkenntnisse aus den Pilotprojekten können dann auf andere Flusssysteme übertragen werden. Prinzipiell, so sagt die Hydrologin, werden drei Zustände im Flussbett modelliert: Das Wasser fließt, es gibt Pfützen oder Pools und drittens, der Flusslauf ist trocken. Die Ursachen für trockenfallende Flüsse können jedoch sehr unterschiedlich sein.

Neue App für jedermann liefert der Forschung wertvolle Daten
„Meistens führt das Zusammenspiel verschiedener Faktoren dazu, dass ein Fluss trockenfällt“, sagt Annika Künne. Dazu gehören die Niederschlagsmenge, die Bodenbeschaffenheit und die Vegetation, die Geologie des Untergrundes, die herrschenden Temperaturen und natürlich die Wasserentnahme, etwa für Beregnungsanlagen der Landwirtschaft. In den Untersuchungsgebieten erfassen zudem Biologenteams regelmäßig den Bestand an Fischen, Kleinlebewesen, Mikroben und organischem Material, sozusagen den Stoffwechsel und den Gesundheitszustand des Flusses. Darüber hinaus wurde eine App entwickelt, mit der jedermann wertvolle Daten beisteuern kann. Per „DryRivers“-App werden Bilder und Standortdaten von trockengefallenen Flüssen übermittelt, wichtige Informationen, mit denen die vorhandenen Daten ergänzt werden. Andere Datenquellen sind beispielsweise lokale Umweltämter, die Pegelstände oder Durchflussmengen veröffentlichen.

„Hinter dem Projekt steht letztlich das Ziel, konkret eingreifen zu können, bevor es zu spät ist“, sagt Annika Künne. Die in Jena entwickelten Modelle helfen den Forscherinnen und Forschern, die komplizierten Wege des Wassers immer besser zu verstehen und Lösungsansätze zu finden, die Zahl austrocknender Flüsse zu verringern und sich an zukünftige Veränderungen anzupassen. Zwei Jahre läuft das Projekt noch, dessen Jenaer Part am Institut für Geographie, dem Lehrstuhl für Geoinformatik bei Prof. Dr. Alexander Brenning angesiedelt ist. Klar ist indes bereits jetzt: Die Zahl trockenfallender Flusssysteme hat in den letzten Jahren signifikant zugenommen.

Wissenschaftliche Ansprechpartner:
Dr. Annika Künne
Institut für Geographie der Friedrich-Schiller-Universität Jena
Löbdergraben 32, 07743 Jena
Telefon: 03641 / 948867
E-Mail: annika.kuenne@uni-jena.de

(nach oben)


SARS-CoV-2 kann das Chronische Fatigue-Syndrom auslösen – Charité-Studie liefert Belege für lang gehegte Annahme

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Es wird seit Beginn der Pandemie vermutet, dass SARS-CoV-2 das Chronische Fatigue-Syndrom ME/CFS verursachen kann. Eine Forschungsgruppe der Charité – Universitätsmedizin Berlin und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) zeigt jetzt in einer gut kontrollierten Studie, dass ein Teil der COVID-19-Erkrankten auch nach mildem Verlauf tatsächlich das Vollbild einer ME/CFS-Erkrankung entwickelt. Zudem beschreiben die Forschenden eine zweite Gruppe von Post-COVID-Betroffenen mit ähnlichen Symptomen. Unterschiedliche Laborwerte weisen auf möglicherweise verschiedene Entstehungsmechanismen der beiden Krankheitsbilder hin (Nature Communications*).

Gemeinsame Pressemitteilung der Charité und des MDC
„Bereits in der ersten Welle der Pandemie entstand der Verdacht, dass COVID-19 ein Trigger für ME/CFS sein könnte“, sagt Prof. Dr. Carmen Scheibenbogen, kommissarische Direktorin des Instituts für Medizinische Immunologie am Charité Campus Virchow-Klinikum. Sie leitet das Charité Fatigue Centrum, das auf die Diagnostik von ME/CFS (Myalgische Enzephalomyelitis / Chronisches Fatigue-Syndrom) spezialisiert ist – eine komplexe Erkrankung, die unter anderem von bleierner körperlicher Schwäche geprägt ist. Das Zentrum wurde bereits im Sommer 2020 von den ersten Patient:innen nach einer SARS-CoV-2-Infektion aufgesucht. Seither mehren sich die Hinweise auf einen ursächlichen Zusammenhang zwischen COVID-19 und der Erkrankung ME/CFS, die oft zu einem hohen Grad körperlicher Beeinträchtigung führt.

„Diese Annahme wissenschaftlich zu belegen, ist jedoch nicht trivial“, erklärt Prof. Scheibenbogen. „Das liegt auch daran, dass ME/CFS noch wenig erforscht ist und es keine einheitlichen Diagnosekriterien gibt. Durch eine sehr gründliche Diagnostik und einen umfassenden Vergleich mit ME/CFS-Betroffenen, die nach anderen Infektionen erkrankt waren, konnten wir jetzt aber nachweisen, dass ME/CFS durch COVID-19 ausgelöst werden kann.“

Für die Studie untersuchten Expert:innen des Post-COVID-Netzwerks der Charité 42 Personen, die sich mindestens 6 Monate nach ihrer SARS-CoV-2-Infektion an das Charité Fatigue Centrum gewandt hatten, weil sie noch immer stark an Fatigue, also einer krankhaften Erschöpfung, und eingeschränkter Belastungsfähigkeit in ihrem Alltag litten. Die meisten von ihnen konnten lediglich zwei bis vier Stunden am Tag einer leichten Beschäftigung nachgehen, einige waren arbeitsunfähig und konnten sich kaum noch selbst versorgen. Während der akuten SARS-CoV-2-Infektion hatten nur drei der 42 Patient:innen ein Krankenhaus aufgesucht, aber keine Sauerstoffgabe benötigt. 32 von ihnen hatten einen nach der WHO-Klassifizierung milden COVID-19-Verlauf durchlebt, also keine Lungenentzündung entwickelt, in der Regel jedoch ein bis zwei Wochen lang starke Krankheitssymptome wie Fieber, Husten, Muskel- und Gliederschmerzen empfunden. Da die SARS-CoV-2-Infektion in der ersten Welle der Pandemie stattgefunden hatte, war keine der in die Studie eingeschlossenen Personen zuvor geimpft gewesen. An der Charité wurden alle Betroffenen von einem interdisziplinären Team aus den Fachbereichen Neurologie, Immunologie, Rheumatologie, Kardiologie, Endokrinologie und Pneumologie mit langjähriger Erfahrung in der Diagnose von ME/CFS untersucht. Zum Vergleich zogen die Forschenden 19 Personen mit ähnlichem Alters- und Geschlechtsprofil sowie einer vergleichbaren Krankheitsdauer heran, die ME/CFS nach einer anderen Infektion entwickelt hatten.

Für die Diagnosestellung berücksichtigten die Forschenden die sogenannten kanadischen Konsensuskriterien. „Dieser Kriterienkatalog wurde wissenschaftlich entwickelt und hat sich im klinischen Alltag bewährt, um ein Chronisches Fatigue-Syndrom eindeutig zu diagnostizieren“, erklärt Dr. Judith Bellmann-Strobl, Leiterin der multidisziplinären Hochschulambulanz des Experimental and Clinical Research Center (ECRC), einer gemeinsamen Einrichtung der Charité und des MDC. Zusammen mit Prof. Scheibenbogen hat sie die Studie geleitet. Den Kriterien zufolge erfüllten knapp die Hälfte der untersuchten Patient:innen nach ihrer SARS-CoV-2-Infektion das Vollbild einer ME/CFS-Erkrankung. Die andere Hälfte hatte vergleichbare Symptome, ihre Beschwerden nach körperlicher Anstrengung, die sogenannte Postexertionelle Malaise, waren jedoch meist nicht so stark ausgeprägt und hielten nur für einige Stunden an. Dagegen trat die Verschlimmerung der Symptome bei den ME/CFS-Patient:innen auch noch am nächsten Tag auf. „Wir können also zwei Gruppen von Post-COVID-Betroffenen mit stark reduzierter Belastbarkeit unterscheiden“, resümiert Dr. Bellmann-Strobl.

Neben der Erfassung der Symptome ermittelten die Forschenden verschiedene Laborwerte und setzten sie in Beziehung zur Handkraft der Erkrankten, die bei den meisten vermindert war. „Bei den Menschen mit der weniger stark ausgeprägten Belastungsintoleranz stellten wir unter anderem fest, dass sie weniger Kraft in den Händen hatten, wenn sie einen erhöhten Spiegel des Immunbotenstoffs Interleukin-8 aufwiesen. Möglicherweise ist die reduzierte Kraft der Muskulatur in diesen Fällen auf eine anhaltende Entzündungsreaktion zurückzuführen“, sagt Prof. Scheibenbogen. „Bei den Betroffenen mit ME/CFS korrelierte die Handkraft dagegen mit dem Hormon NT-proBNP, das von Muskelzellen bei zu schlechter Sauerstoffversorgung ausgeschüttet werden kann. Das könnte darauf hinweisen, dass bei ihnen eine verminderte Durchblutung für die Muskelschwäche verantwortlich ist.“ Nach vorläufigen Beobachtungen der Wissenschaftler:innen könnte die Unterscheidung der beiden Gruppen sich auch im Krankheitsverlauf spiegeln. „Bei vielen Menschen, die ME/CFS-ähnliche Symptome haben, aber nicht das Vollbild der Erkrankung entwickeln, scheinen sich die Beschwerden langfristig zu verbessern“, erklärt Prof. Scheibenbogen.

Die neuen Erkenntnisse könnten zur Entwicklung spezifischer Therapien für das Post-COVID-Syndrom und ME/CFS beitragen. „Unsere Daten liefern aber auch einen weiteren Beleg dafür, dass es sich bei ME/CFS nicht um eine psychosomatische, sondern um eine schwerwiegende körperliche Erkrankung handelt, die man mit objektiven Untersuchungsmethoden erfassen kann“, betont Prof. Scheibenbogen. „Leider können wir ME/CFS aktuell nur symptomatisch behandeln. Deshalb kann ich auch jungen Menschen nur ans Herz legen, sich mithilfe einer Impfung und dem Tragen von FFP2-Masken vor einer SARS-CoV-2-Infektion zu schützen.“

*Kedor C et al. Post COVID-19 Chronic Fatigue Syndrome following the first pandemic wave in Germany and biomarkers associated with symptom severity results from a prospective observational study. Nat Comm 2022 Aug 30. doi: 10.1038/s41467-022-32507-6

Über ME/CFS
ME/CFS (Myalgische Enzephalomyelitis / Chronisches Fatigue-Syndrom) ist eine schwerwiegende Erkrankung, die meistens durch einen Infekt ausgelöst wird und oft chronifiziert. Hauptmerkmal ist die „Postexertionelle Malaise“, eine ausgeprägte Verstärkung der Beschwerden nach geringer körperlicher oder geistiger Belastung, die erst nach mehreren Stunden oder am Folgetag einsetzt und mindestens bis zum nächsten, aber oft auch mehrere Tage oder länger anhält. Sie ist verbunden mit körperlicher Schwäche, häufig Kopf- oder Muskelschmerzen sowie neurokognitiven, autonomen und immunologischen Symptomen. Die Häufigkeit von ME/CFS in der Bevölkerung wurde weltweit bereits vor der Pandemie auf etwa 0,3 Prozent geschätzt. Expert:innen gehen davon aus, dass die Anzahl der Betroffenen durch die COVID-19-Pandemie deutlich steigen wird. Als Auslöser für ME/CFS waren bisher Krankheitserreger wie das Epstein-Barr-Virus, das Dengue-Virus und Enteroviren bekannt. Auch unter den Personen, die sich 2002/2003 mit dem ersten SARS-Coronavirus infizierten, wurden ME/CFS-Fälle beobachtet. Von einer ME/CFS-Erkrankung abzugrenzen ist eine sogenannte postinfektiöse Fatigue, die im Rahmen vieler Infektionskrankheiten wochen- bis monatelang anhalten kann. Den aktuellen Stand des Wissens zu ME/CFS nach COVID-19 hat Prof. Scheibenbogen in einer aktuellen deutschsprachigen Publikation zusammengefasst (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9281337/).

Behandlung von ME/CFS an der Charité
Für die Diagnostik und Behandlung von Menschen mit lang andauernden Beschwerden nach einer SARS-CoV-2-Infektion betreibt die Charité elf Spezialambulanzen an verschiedenen Kliniken und Instituten, die im Post-COVID-Netzwerk zusammenarbeiten und unterschiedliche Patient:innen abhängig von ihrer Hauptsymptomatik betreuen. Dazu gehört auch das Charité Fatigue Centrum, das die Anlaufstelle für Personen ist, die mindestens sechs Monate nach ihrer COVID-19-Erkrankung anhaltend schwere Fatigue, Konzentrationsstörungen und eine Belastungsintoleranz haben und deren Symptome nach Anstrengung zunehmen. Im Rahmen des Projekts CFS_CARE besteht ein interdisziplinäres Versorgungsangebot für Patient:innen mit ME/CFS, das ein speziell entwickeltes Rehaprogramm mit einschließt.

Zur Studie
Basis für die jetzt veröffentlichten Daten war die Studienplattform Pa-COVID-19. Pa-COVID-19 ist die zentrale longitudinale Registerstudie für COVID-19-Patient:innen an der Charité. Sie zielt darauf ab, COVID-19-Betroffene klinisch sowie molekular schnell und umfassend zu untersuchen, um individuelle Risikofaktoren für schwere Verlaufsformen sowie prognostische Biomarker und Therapieansätze zu identifizieren. Das Protokoll zur Studie ist hier (https://link.springer.com/epdf/10.1007/s15010-020-01464-x) veröffentlicht.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Carmen Scheibenbogen
Kommissarische Direktorin des Instituts für Medizinische Immunologie
Campus Virchow-Klinikum
Charité – Universitätsmedizin Berlin
Tel: +49 30 450 570 400
E-Mail: carmen.scheibenbogen@charite.de

Originalpublikation:
https://www.nature.com/articles/s41467-022-32507-6

Weitere Informationen:
https://cfc.charite.de/ Charité Fatigue Centrum
https://www.mdc-berlin.de/de/hochschulambulanz-fuer-neuroimmunologie Hochschulambulanz für Neuroimmunologie am ECRC
https://pcn.charite.de/ Post-COVID-Netzwerk der Charité
https://immunologie.charite.de/ Institut für Medizinische Immunologie
https://www.mecfs.de/presse/pressefotos/ Pressefotos der Deutschen Gesellschaft für ME/CFS

(nach oben)


Auen verbessern die Wasserqualität von Flüssen

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Viele Flüsse sind durch Stickstoffeinträge belastet. Wie groß diese Einträge sind, in welchem Umfang sie abgebaut werden und welchen Anteil die Auengebiete daran haben, hat ein internationales Forschungsprojekt unter Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) nun erstmals für das Donau-Einzugsgebiet untersucht. Die Ergebnisse zeigen, wie sinnvoll die großräumige Renaturierung von Flussauen für eine bessere Wasserqualität ist.

Flussauen gehören zu den artenreichsten Ökosystemen der Erde. Weil sie die Schnittstelle zwischen Land und Wasser bilden, sind sie Hotspots von Nährstoffumsätzen und Biodiversität. Entlang vieler Flüsse wurden jedoch zahlreiche Auen von den Gewässern abgeschnitten oder umgenutzt. Zugleich gelangen zu viele Nährstoffe ins Wasser, vor allem Stickstoff. Beides verschlechtert die Wasserqualität und bedroht die Artenvielfalt – sowohl in den Flüssen selbst als auch in den Meeren, in die sie münden.
Dabei haben Flüsse in gewissem Umfang die Fähigkeit, Nährstoffe im Flusswasser selbst sowie in den Flussauen abzubauen. Wie groß der Beitrag von Auen zur Reduzierung von Stickstoff ist, haben Forschende im Rahmen des internationalen Kooperationsprojekts IDES für das Einzugsgebiet der Donau ermittelt. „Das Besondere unserer Untersuchung ist, dass wir erstmalig ein so großes Gebiet betrachtet haben, denn die Donau hat das zweitgrößte Einzugsgebiet Europas“, sagt IGB-Wissenschaftler und Ko-Autor Dr. Andreas Gericke.

Das Donau-Einzugsgebiet hat eine Fläche von mehr als 800000 km2 und erstreckt sich über 19 Länder. Etwa 70 bis 80 Prozent seiner Auen wurden den vergangenen Jahrzehnten vom Fluss abgetrennt oder in Agrarflächen umgewandelt und damit ihrer Ökosystemfunktionen und -leistungen beraubt. Die Forschenden wollten nun wissen, welchen Anteil am Nährstoffrückhalt die verbliebenen aktiven Auen haben. Dazu nutzte das Team das am IGB entwickelte Modell MONERIS, mit dem Nährstoffeinträge aus verschiedenen Quellen – darunter Atmosphäre, Düngereinsatz in der Landwirtschaft und Kläranlagen – bestimmt werden und ihr Verbleib sowie Transport im Flusssystem berechnet werden können. Demnach gelangen jährlich 500000 Tonnen Stickstoff in die Gewässer des Donau-Einzugsgebiets, überwiegend als Nitrat. Die meisten Einträge stammen aus der Agrarwirtschaft (44 Prozent) und aus urbanen Quellen (30 Prozent). Zwei Drittel dieser Einträge erreichen das Schwarze Meer, ein Drittel oder 160000 Tonnen werden in den Gewässern abgebaut.

Um herauszufinden, wie groß der Anteil der Auen am Nitrat-Rückhalt ist, ergänzte das Team die MONERIS-Berechnungen um weitere Modellierungen für die Donau sowie deren Zuflüssen Save, Theiß und Jantra. Dort finden sich 3842 km2 Flussauen und damit knapp die Hälfte aller aktiven Flussauen im Donau-Einzugsgebiet. „Das meiste Nitrat wird im Gewässernetz abgebaut, etwa indem Stickstoff von Plankton aufgenommen oder durch Bakterien umgewandelt wird (Denitrifikation) . Aber auch die Auen können zu einem nicht unerheblichen Teil zum Nährstoffrückhalt beitragen“, berichtet Andreas Gericke. Die Ergebnisse zeigen, dass die aktiven Auen 33200 Tonnen Nitrat jährlich abbauen, was einem Anteil von 6,5 Prozent des Eintrags entspricht. Die Forschenden schätzen auf Basis der Modellergebnisse, dass der Nitratabbau um 14,5 Prozent erhöht werden könnte, wenn die rund 1300 km² potenziell renaturierbaren Altauen und Altarme wieder an die Hauptläufe angeschlossen würden.

„Unsere Ergebnisse zeigen eindrucksvoll, dass es sinnvoll ist, Auen zu erhalten und ihre Funktionen wiederherzustellen – nicht nur wegen ihrer Fähigkeit, Nährstoffe abzubauen, sondern auch zum Erhalt der Artenvielfalt neben vielen weiteren Ökosystemleistungen“, betont Martin Tschikof vom Institut für Hydrobiologie und Gewässermanagement an der Universität für Bodenkultur in Wien (BOKU). Er ist der Hauptautor der Studie. Die vereinfachten Annahmen und Daten erlauben zwar nur eingeschränkte Aussagen. Sie sind jedoch eine gute Basis für eine bessere Berücksichtigung der Auen und deren Wiederanbindung für eine gute Wasserqualität in den großen Flussgebieten Europas.

Wissenschaftliche Ansprechpartner:
Dr. Andreas Gericke
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Originalpublikation:
Martin Tschikof, Andreas Gericke, Markus Venohr, Gabriele Weigelhofer, Elisabeth Bondar-Kunze, Ute Susanne Kaden, Thomas Hein:The potential of large floodplains to remove nitrate in river basins – The Danube case, Science of The Total Environment, Volume 843, 2022,156879, ISSN 0048-9697,
https://doi.org/10.1016/j.scitotenv.2022.156879

Weitere Informationen:
https://www.igb-berlin.de/news/auen-verbessern-die-wasserqualitaet-von-fluessen
https://www.interreg-danube.eu/approved-projects/ides

(nach oben)


Biogasanlagen: Klimaschutz durch Verminderung von Gasemissionen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Um klimaschädliche Methanemissionen in der Landwirtschaft zu reduzieren, plant die Bundesregierung bis 2030 den verstärkten Einsatz von Wirtschaftsdüngern in Biogasanlagen. Hierfür müssen zuvor die passenden Rahmenbedingungen, etwa in Form von gasdichten Gärrestelagern, geschaffen werden. Im Projekt »Gäremission« untersuchen das Fraunhofer UMSICHT und die HAWK Göttingen u. a. den Einfluss unterschiedlicher Anlagen- und Prozessparameter auf die Gasemissionen von Gülle- und Gärrestlagern.

Im vergangenen Jahr hat der Landwirtschaftssektor insgesamt 54,8 Mio. Tonnen CO2-Äquivalente produziert[1], was etwa 7 Prozent der gesamten deutschen Treibhausgasemissionen entspricht. Die größten Emissionsquellen sind die Lachgasemissionen als Folge des Stickstoffeinsatzes bei der Düngung, Methanemissionen aus der Verdauung von Wiederkäuern sowie Emissionen aus dem Güllemanagement. Hinzu kommt der Kraftstoffeinsatz landwirtschaftlicher Maschinen und Fahrzeuge. Durch abnehmende Viehbestände und verbessertes Güllemanagement nimmt die Menge an Treibhausgasemissionen in der Landwirtschaft bereits kontinuierlich ab. Dennoch bleibt es eine große Herausforderung, das Klimaziel der Bundesregierung bis 2030 zu erfüllen, das minus 35 Mio. Tonnen CO2-Äquivalente für den Bereich Landnutzung, Landnutzungsänderung und Forstwirtschaft vorsieht.

Bis zu 25 Mal klimaschädlicher als CO2
Schärfen wir den Blick in Richtung des Klimagases Methan. An tierischen Exkrementen wie Gülle, Jauche, Mist und Hühnertrockenkot fallen hierzulande jedes Jahr 150 bis 190 Mio. Tonnen an[2]. Ein Drittel davon wird energetisch in Biogasanlagen verwertet, der Rest dient als organischer Dünger auf landwirtschaftlichen Flächen (Wirtschaftsdünger). Alleine durch das Lagern und spätere Verteilen von Gülle auf Feldern werden jährlich rund 250 000 Tonnen Methan freigesetzt – eine enorme Menge, wenn man bedenkt, dass Methan bis zu 25 Mal klimaschädlicher als CO2 ist[3].

»Aus Klimaschutzgründen ist es daher sinnvoll, tierische Exkremente erst in Biogasanlagen zu Methan zu vergären und dann den Gärrest als Dünger auszubringen«, erklärt Lukas Rüller aus der Abteilung Verfahrenstechnik am Fraunhofer UMSICHT. Das Gas würde so energetisch nutzbar und gelangt nicht in die Atmosphäre. Die Emissionsvermeidung durch die fachgerechte Lagerung von Gülle habe außerdem positive Auswirkungen auf Luftreinhaltung und Gesundheit.

Forschende wollen Methanemissionen gezielt reduzieren
Forschende des Fraunhofer UMSICHT untersuchen gemeinsam mit der Hochschule für angewandte Wissenschaft und Kunst (HAWK) in Göttingen, wie sich zum einen die Anlagen- und Prozessparameter auf den Biogasertrag von Wirtschaftsdünger und zum anderen die Gasemissionen von vorgeschalteten Gülle- und nachgeschalteten Gärrestlagern auswirken. »Das erste Teilziel des Projekts ´Gäremission` ist die Ermittlung der Gasemissionen bei der Lagerung von Wirtschaftsdünger«, so Lukas Rüller. »Im nächsten Schritt werden die relevanten Prozessparameter auf den Biogasertrag bei der Fermentation und die Restgasemission der anschließenden Gärrestelagerung untersucht. Die unterschiedlichen Verfahren der Lagerung und Behandlung werden daraufhin in einer Ökobilanz bewertet.«

Relevant für die Bewertung sind neben der Art des Düngers und der Anzahl der Tiere auch deren Fütterung, die technischen Daten der Lagerbehälter sowie Zulaufmenge und Durchmischung. Bei den Gärrestelagern stehen vor allem die Eingangssubstrate, das Fermentersystem und die Beladung der Biogasanlage im Mittelpunkt. Gleichzeitig berücksichtigen die Forschenden die Verweilzeit im Lager und im Gesamtsystem, die Methanbildung bzw. Anlagenleistung, die Austragsmenge und die Frequenz der Gärreste.

Dazu werden bis 2024 eine Vielzahl von Biogasanlagen mit Gülle- und Gärrestlagern im Raum Nordrhein-Westfalen und Niedersachsen beprobt. Auf Grundlage von Laboranalysen können die entsprechenden Faktoren dann wissenschaftlich bewertet werden.

»Unsere Arbeit kann einen wichtigen Beitrag dazu leisten, klimaschädliche Emissionen gezielt zu reduzieren und gleichzeitig Optimierungsansätze für den Gesamtprozess der Biogaserzeugung zu liefern. Am Ende des Projekts wollen wir sowohl Anlagenbetreibern als auch politischen Entscheidungsträgerinnen und -trägern eine Handlungsempfehlung bereitstellen, die technische, ökonomische sowie ökologische Randbedingungen berücksichtigt«, blickt Lukas Rüller in die Zukunft.

Förderhinweis
Das Projekt »Gäremission« wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert.

Quellen:
1https://www.umweltbundesamt.de/daten/land-forstwirtschaft/beitrag-der-landwirtsc…
2https://biogas.fnr.de/rahmenbedingungen/duengeverordnung-duev
3https://www.umweltbundesamt.de/themen/boden-landwirtschaft/umweltbelastungen-der…

Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2022/gaere…

(nach oben)


Wenn der Klimawandel den Stöpsel zieht: Sinkt das Grundwasser, versickern Bäche und Flüsse und verschmutzen Trinkwasser

Kerstin Theilmann Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Zunehmende Trockenheit, weniger Niederschlag, vermehrter Wasserbedarf in der Landwirtschaft – der Klimawandel macht unserem Grundwasser zu schaffen. In Deutschland und weltweit führt er regional zu sinkenden Grundwasserständen. Ist der unterirdische Wasserpegel niedrig, gelangt belastetes Oberflächenwasser aus Bächen und Flüssen vermehrt ins Grundwasser. Die Folge: Unser Trinkwasser und die Grundwasserökosysteme sind gefährdet, das Mengenproblem wird damit auch zu einem Güteproblem. Das beschreiben Forscher aktuell im Fachmagazin „Water Research“. Neue Forschungsansätze und regional abgestimmte Konzepte zur Verbesserung der Grundwasserneubildung sind dringend notwendig, so ihre Empfehlung.

„Wir sehen hier eine direkte Folge des Klimawandels, wodurch unsere wichtigste Wasserressource – das Grundwasser – gefährdet ist“, unterstreicht Hans Jürgen Hahn von der Universität Koblenz-Landau, einer der Autoren der Studie. In vielen Gegenden weltweit sinkt der Grundwasserspiegel zunehmend, da auch die Neubildungsrate von Grundwasser abnimmt. Gleichzeitig steigen die Grundwasserentnahmen durch die landwirtschaftliche Bewässerung und für die Trinkwasserversorgung. Dies hat eine zusätzliche Absenkung der Grundwasserstände zur Folge, und der Landschaftswasserhaushalt ändert sich – die Klimafolgenspirale beginnt, sich immer schneller zu drehen. „Wir stehen dadurch vielerorts an einem Kipppunkt im Landschaftswasserhaushalt“, erklärt Mitautorin Anke Uhl vom Arbeitskreis Quellen und Grundwasser der Deutschen Gesellschaft für Limnologie. Anders als bisher drückt das Grundwasser durch den gesunkenen Grundwasserstand an vielen Stellen nicht mehr nach oben und speist Bäche und Flüsse (exfiltriert), sondern das Wasser der Fließgewässer versickert nun in den Untergrund (infiltriert). Als Folge dieser Druckumkehr können Schadstoffe ins unterirdische Nass eindringen. Denn in den Bächen und Flüssen fließen nicht nur Regen- und Quellwasser, sondern auch die Abläufe von Kläranlagen. „Wir reichern das Grundwasser zunehmend mit Abwasserinhaltstoffen an – mit Resten von Medikamenten, Haushaltschemikalien, künstlichen Süßstoffen und anderen Schadstoffen“, erklärt Christian Griebler von der Universität Wien.

Ein weiterer Aspekt: Durch die Umkehr der Fließrichtung zwischen Oberflächenwasser und Grundwasser trocknen Feuchtgebiete aus. „Da alle aktuellen Studien in großen Teilen der Erde weitere Rückgänge der Grundwasserstände vorhersagen, wird sich das Problem in Zukunft noch weiter verstärken. Dadurch werden wir vor allem in den zunehmend trockenen Sommern damit konfrontiert werden“, unterstreicht Petra Döll von der Goethe-Universität Frankfurt am Main.

Ihre Schlussfolgerungen stützen die Forschenden auf eine weltweite Literaturstudie zu den Folgen des Klimawandels, den Auswirkungen von Grundwasserentnahme auf diese Ressource sowie auf Fachartikel zu neuen Schadstoffen im Grundwasser. „Diese Zusammenhänge sind naheliegend, bislang hatte sie die Wissenschaft aber noch nicht auf dem Radar“, ordnet Markus Weiler von der Universität Freiburg das Gewicht der Studienergebnisse ein.

Regionale Unterschiede
Der Klimawandel findet regional unterschiedlich statt. Dabei variieren die Niederschläge, die Grundwasserneubildung und die Menge der Grundwasserentnahme je nach Gebiet wie auch die Ausprägung der Wechselwirkung zwischen Oberflächenwasser und Grundwasser – die hydrogeologischen Verhältnisse.

So sind in Österreich insbesondere der Osten, Nordosten und Südosten betroffen. Die in Deutschland beeinträchtigten Gebiete sind übers Bundesgebiet verteilt: Unter anderem sind die Regionen Oberrhein, Mittelfranken, Allgäu, östliches Niedersachsen, westliches Nordrhein-Westfalen und Südhessen betroffen sowie große Teile der neuen Bundesländer.

Konzepte auf die Gegebenheiten vor Ort anpassen
„Die Studie zeigt vor allem auch, dass wir neue wissenschaftliche Ansätze und Modelle auf regionaler und lokaler Ebene brauchen, um die Wechselwirkungen zwischen Oberflächenwasser und Grundwasser und vor allem die Kipppunkte im Landschaftswasserhaushalt zu ermitteln“, erklärt Markus Noack von der Hochschule Karlsruhe. Klar wird auch: Das Oberflächenwasser muss weiter vor Verschmutzung geschützt werden. Denn der Zustand der oberirdischen Gewässer hat direkte Konsequenzen für die Qualität des Grundwassers. Zur Minimierung von Schadstoffen im Wasserkreislauf gibt es eine Lösung: „Es ist höchste Zeit, den Wasserverbrauch industriell wie privat zu senken, um weniger Grundwasser fördern zu müssen. Zusätzlich ist es wichtig, den Eintrag langlebiger Schadstoffe in den Wasserkreislauf drastisch zu reduzieren und vierte Reinigungsstufen in Kläranlagen konsequent ausbauen“, so Anke Uhl.

Wissenschaftliche Ansprechpartner:
Universität Koblenz-Landau
iES Landau – Institut für Umweltwissenschaften
Arbeitsgruppe Molekulare Ökologie
PD Dr. Hans Jürgen Hahn
Tel.: +49 (0)6341 280-31211
E-Mail: hjhahn@uni-landau.de

Originalpublikation:
Uhl, A., Hahn, H.J., Jager, A., Luftensteiner, T., Siemensmeyer, T., Doll, P., Noack, M., Schwenk, K., Berkhoff, S., Weiler, M., Karwautz, C., Griebler, C (2022). Making waves: Pulling the plug – Climate change effects will turn gaining into losing streams with detrimental effects on groundwater quality, Water Research Volume 220
https://doi.org/10.1016/j.watres.2022.118649

(nach oben)


Materialrecycling – Aus alten Batterien werden neue

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Das Karlsruher Institut für Technologie (KIT) ist maßgeblich an einem neuen Projekt zum Batterierecycling beteiligt: In „LiBinfinity“ erarbeiten Partner aus Forschung und Industrie ein ganzheitliches Konzept zur Wiederverwertung der Materialien von Lithium-Ionen-Batterien. Dazu wird ein mechanisch-hydrometallurgisches Verfahren ohne energieintensive Prozessschritte vom Labor in einen für die Industrie relevanten Maßstab überführt. Das KIT prüft die Rezyklate auf ihre Eignung zum Herstellen neuer Batterien. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity mit knapp 17 Millionen Euro, davon erhält das KIT rund 1,2 Millionen Euro.

Das Karlsruher Institut für Technologie (KIT) ist maßgeblich an einem neuen Projekt zum Batterierecycling beteiligt: In „LiBinfinity“ erarbeiten Partner aus Forschung und Industrie ein ganzheitliches Konzept zur Wiederverwertung der Materialien von Lithium-Ionen-Batterien. Dazu wird ein mechanisch-hydrometallurgisches Verfahren ohne energieintensive Prozessschritte vom Labor in einen für die Industrie relevanten Maßstab überführt. Das KIT prüft die Rezyklate auf ihre Eignung zum Herstellen neuer Batterien. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity mit knapp 17 Millionen Euro, davon erhält das KIT rund 1,2 Millionen Euro.

Die Nachhaltigkeit der Elektromobilität hängt wesentlich von den Batterien ab. Diese enthalten wichtige Rohstoffe wie Lithium, Kobalt, Nickel und Mangan. Die in Lithium-Ionen-Batterien verwendeten Materialien lassen sich zu über 90 Prozent stofflich wiederverwerten. Doch das nun gestartete Projekt LiBinfinity geht darüber weit hinaus und zielt auf ein ganzheitliches Recyclingkonzept für Lithium-Ionen-Batterien (LiB). „Vor allem bei der Elektrifizierung von Lkws benötigen die Batterien so viel Material, dass ein Einsatz der Rezyklate für andere Anwendungen nicht ausreichend ist“, sagt Professor Helmut Ehrenberg, Leiter des Instituts für Angewandte Materialien – Energiespeichersysteme (IAM-ESS) des KIT. „Vielmehr bedarf es eines geschlossenen Kreislaufs bei den Batterien selbst. Das bedeutet, die Materialien aus gebrauchten Batterien zur Herstellung neuer Batterien zu verwenden.“

In LiBinfinity erarbeiten Partner aus Forschung und Industrie einen Ansatz, der sich von Logistikkonzepten bis hin zur Reintegration von Rezyklaten in den Lebenszyklus der Batterie erstreckt. Sie entwickeln ein mechanisch-hydrometallurgisches Verfahren, das ganz ohne energieintensive Prozessschritte auskommt und höhere Recyclingquoten ermöglicht: Materialien, die sich nicht mechanisch trennen lassen, werden unter relativ niedrigen Temperaturen mithilfe von Wasser und Chemikalien aufgespalten.

Kathodenmaterialien müssen hohe Anforderungen erfüllen
Das KIT übernimmt in LiBinfinity die Aufgabe, die Rezyklate, das heißt die wiedergewonnenen Stoffe, auf ihre Eignung als Ausgangsstoffe für die Herstellung neuer Batterien zu prüfen. „Diese Validierung ist unerlässlich, da Materialien für Batterien hohe Anforderungen erfüllen müssen“, erklärt Dr. Joachim Binder, Leiter der Forschungsgruppe Synthese und keramische Pulvertechnologie am IAM-ESS. „Vor allem gilt dies für Kathodenmaterialien, die Effizienz, Zuverlässigkeit, Lebensdauer und Kosten der Batterien wesentlich mitbestimmen.“ Am KIT laufen für LiBinfinity folgende Arbeiten: Eingangskontrolle der Rezyklate, Synthese neuwertiger Kathodenmaterialien, Elektrodenfertigung, Herstellung von großformatigen Lithium-Ionen-Batteriezellen in Industriequalität, Zelltestung und Bewertung der Batteriezellen. Basierend auf den Untersuchungen werden die Anforderungen an die Qualität der Rezyklate festgelegt, um diese in den Wertstoffkreislauf zurückführen zu können.

Ein ganzheitliches Recyclingkonzept für Batteriematerialien verbessert nicht nur die Nachhaltigkeit der Elektromobilität unter ökologischen, ökonomischen und sozialen Aspekten, sondern verringert auch Europas Rohstoffabhängigkeiten.

Über LiBinfinity
Für das Projekt LiBinfinity hat sich ein Konsortium um die Licular GmbH zusammengefunden, einem 100-prozentigen Tochterunternehmen der Mercedes-Benz AG. Projektpartner sind neben dem KIT die Mercedes-Benz AG, die Daimler Truck AG, die Primobius GmbH, die SMS group GmbH, die Technische Universität Clausthal und die Technische Universität Berlin. Am Mercedes-Benz-Standort Kuppenheim entsteht eine Recycling-Pilotanlage mit einer Jahreskapazität von 2 500 Tonnen. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity in der Fördermaßnahme zum „Batterie-Ökosystem“ mit knapp 17 Millionen Euro. Davon erhält das KIT rund 1,2 Millionen Euro. Das Vorhaben LiBinfinity trägt soll wesentlich dazu beitragen, die von der Europäischen Kommission vorgeschlagenen und derzeit noch in Abstimmung befindlichen Zielvorgaben im Rahmen der EU-Batterieregulierung zu erfüllen. (or)

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Originalpublikation:
https://www.kit.edu/kit/pi_2022_077_materialrecycling-aus-alten-batterien-werden…

(nach oben)


Cochrane Review: Fraglicher Nutzen teurer High-Tech-Laufschuhe für Verletzungsschutz

Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Macht es einen Unterschied, welche Art von Laufschuhen man trägt, wenn es um Verletzungen und Schmerzen beim Joggen geht? Ein aktueller Cochrane Review findet dafür auf Basis schwacher Evidenz keine Hinweise.

Wer schon mal versucht hat, in Bergstiefeln, Stilettos oder Badelatschen joggen zu gehen, der weiß: In Sportschuhen geht das besser. Doch welche der vielen unterschiedlichen Typen von Laufschuhen ermöglichen nicht nur sportliche Höchstleistungen, sondern schützen vor Lauf-Verletzungen und schmerzhaften Überbelastungen?

Die Autor*innen eines neuen Cochrane Reviews haben nun die wissenschaftliche Evidenz zu dieser Frage ausgewertet. Sie fanden 12 randomisierte oder quasi-randomisierte Studien mit insgesamt mehr als 11.000 Teilnehmenden, die unterschiedliche Typen von Laufschuhen miteinander verglichen.

Leider erlaubt die momentan verfügbare Evidenz kaum eindeutige Schlüsse. Grund dafür ist die nach Einschätzung der Autor*innen fast durchwegs niedrige bis sehr niedrige Vertrauenswürdigkeit der Evidenz (nach GRADE), bedingt insbesondere durch die fehlende Verblindung der Teilnehmenden gegenüber dem Typ von Laufschuh, der ihnen zugeteilt war. Zudem war die Studiengröße für einige Vergleiche sehr klein.

Dort wo sich verwertbare Hinweis aus der Evidenz ergeben, sprechen diese gegen große Effekte bestimmter Laufschuhe gegenüber anderen Typen. „Wir können uns deshalb über die tatsächlichen Auswirkungen verschiedener Laufschuhtypen auf die Verletzungsraten nicht sicher sein“, so das ernüchternde Fazit der Autor*innen.

Eine ausführlichere Darstellung der Ergebnisse finden Sie auf dem Cochrane-Blog „Wissen Was Wirkt“, siehe Link.

Originalpublikation:
Relph N, Greaves H, Armstrong R, Prior TD, Spencer S, Griffiths IB, Dey P, Langley B. Running shoes for preventing lower limb running injuries in adults. Cochrane Database of Systematic Reviews 2022, Issue 8. Art. No.: CD013368. DOI: 10.1002/14651858.CD013368.pub2

Weitere Informationen:
https://wissenwaswirkt.org/laufschuhe-und-verletzungen
https://www.cochranelibrary.com/cdsr/doi/10.1002/14651858.CD013368.pub2/full/de

(nach oben)


Auf dem Weg zu Zero Waste: 28 Maßnahmen für verpackungsarme Städte

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
Gemeinsame Pressemitteilung des Instituts für ökologische Wirtschaftsforschung (IÖW) und des Instituts für Energie- und Umweltforschung Heidelberg (ifeu)

► Was können Kommunen tun, damit weniger Verpackungen in Umlauf kommen?
► Institut für ökologische Wirtschaftsforschung (IÖW) und Institut für Energie- und Umweltforschung Heidelberg (ifeu) stellen Maßnahmen und Beispiele vor
► Städte sollten Verpackungsstrategien entwickeln, die Industrie, Handel und Gastronomie beraten, fördern und fordern sowie Verbraucher*innen unterstützen

Berlin/Heidelberg, 1. September 2022 – Öffentliche Flächen zu reinigen, kostet die Kommunen in Deutschland jährlich etwa 700 Millionen Euro. Ein Großteil des Mülls entsteht durch Verpackungen wie Einwegbecher, Getränkeflaschen oder To-go-Schachteln. Was können Städte und Gemeinden dagegen tun? Das Institut für ökologische Wirtschaftsforschung (IÖW) und das Institut für Energie- und Umweltforschung Heidelberg (ifeu) zeigen im Forschungsprojekt „Innoredux“: Städte haben viele Möglichkeiten, auf Unternehmen, Handel und Verbraucher*innen einzuwirken, damit diese weniger Verpackungen einsetzen und verbrauchen. Mit Förderung durch das Bundesforschungsministerium im Programm „Plastik in der Umwelt“ stellen die Forschenden in einem Leitfaden 28 Maßnahmen und zahlreiche Beispiele vor.

„Städte brauchen Verpackungsstrategien und hierfür müssen sie zunächst einmal klar definieren, welche kommunalen Ziele sie erreichen wollen“, betont Projektleiter Frieder Rubik, Umweltökonom am IÖW. „Die Stadt Kiel ist hierfür ein Beispiel: Sie will sich zu einer Zero-Waste-City entwickeln.“ Die Forschenden empfehlen, eine zentrale Anlaufstelle für die Umsetzung der Verpackungsstrategie zu schaffen, die verwaltungsintern verschiedene Maßnahmen koordiniert und Beratung anbietet. „Vor allem bei Unternehmen entstehen viele Fragen und Unsicherheiten bei der Umsetzung der kommunalen Vorgaben, etwa im Bereich Hygiene“, erläutert Rubik.

Fakten schaffen: Verträge und Satzungen
Einwegbesteck und -geschirr auf dem öffentlichen Marktplatz – Städte wie Jena und Kiel haben das mithilfe ihrer Marktsatzung unterbunden. Auch bei der Vermietung oder Verpachtung öffentlicher Liegenschaften sind ähnliche Vorschriften möglich, etwa Vorgaben für Volksfeste oder beim Catering von Sportveranstaltungen.

„Zusätzlich können Städte die Eigeninitiative der Unternehmen stärken: mit Wettbewerben für innovative Verpackungssysteme oder durch Vernetzungsangebote wie Runde Tische“, ergänzt Forscherin Eva Wiesemann vom IÖW. „Besonders ergiebig können Kooperationen in Industriegebieten sein: Welche Synergien sind möglich, um Reststoffe betriebsübergreifend zu nutzen?“

Mehrweg to go: Pfandsysteme aufbauen
Ein hoher Anteil des Verpackungsmülls in Städten entsteht in der Gastronomie, vor allem durch immer mehr To-go-Produkte. Städte können die Einführung von Mehrwegsystemen anschieben, finanziell fördern oder selbst betreiben. Freiburg im Breisgau etwa investierte 10.000 Euro in ein Pfandsystem für Mehrwegbecher. Der „FreiburgCup“ wurde 2016 bis 2021 von der Abfallwirtschaft und Stadtreinigung betrieben, bevor der Anbieter „ReCup“ den Service übernahm. Über 130 Betriebe beteiligen sich an diesem System.
Ab 2023 sind Betriebe ab einer gewissen Größe bundesweit verpflichtet, Mehrwegverpackungen für To-go-Angebote bereitzuhalten. Der Kreis Wesel etwa unterstützt Gastronomen deshalb mit Informationsveranstaltungen. Im Frühjahr 2022 wurde zudem eine Messe organisiert, auf der sich regionale Betriebe über verfügbare Mehrwegsysteme informieren konnten.

Verpackungsarm einkaufen
Mit Kampagnen, Aktionstagen und Informationsangeboten erreichen Städte auch Verbraucher*innen. Carola Bick vom ifeu nennt Beispiele: „Einkaufsratgeber stellen Tipps für einen nachhaltigen Konsum zusammen. Kommunen wie Heidelberg verschenken Frühstücksboxen an Erstklässler*innen. Und sogenannte Refill-Stationen, wo man sich kostenlos Leitungswasser abfüllen kann, erleichtern den Verzicht auf Plastikflaschen.“ Ende 2021 gab es solche Stationen deutschlandweit bereits in über 6.000 Cafés, Büros, Rathäusern oder anderen öffentlichen Einrichtungen, unter anderem in Hamburg, Hanau und Berlin.

Damit Städte selbst mit gutem Beispiel vorangehen, geben die Forschenden in ihrem Leitfaden außerdem Tipps für das Beschaffungswesen der Kommunen und deren Eigenbetriebe.

Downloads und Links:
► Verpackungsaufkommen reduzieren Einfluss und Steuerungsmöglichkeiten von Kommunen – eine Handreichung: https://www.ioew.de/publikation/verpackungsaufkommen_reduzieren
► Infografiken und Übersichts-Ökobilanzen zu beispielhaften Produktverpackungen: https://www.plastik-reduzieren.de/deutsch/infografiken/
► Einen Leitfaden für Unternehmen finden Sie auf der Projektwebsite: https://www.plastik-reduzieren.de/deutsch/veröffentlichungen/leitfaden-für-unter…

Über das Projekt Innoredux:
2019 bis 2022 erarbeiteten das Institut für ökologische Wirtschaftsforschung (IÖW) und das Institut für Energie- und Umweltforschung (ifeu) gemeinsam mit Handelsunternehmen und der Stadt Heidelberg innovative Verpackungslösungen für den Online- und stationären Handel. Im Zentrum stand die Frage, wie der Handel den Plastikeinsatz und Plastikmüll entlang der Wertschöpfungskette reduzieren kann. Berechnungen zu Ökobilanzen wurden ergänzt durch ein Reallabor, Interviews, Workshops und eine Kundschaftsbefragung. Im stationären Handel konnten der Drogeriemarkt dm, der Biohändler Alnatura und der Unverpacktladen „Annas Unverpacktes“ als Praxispartner gewonnen werden. Im Versandhandel beteiligten sich memo und der Avocadostore. Auch der Unverpackt-Verband, die Stadt Heidelberg und der Bund für Umwelt- und Naturschutz Deutschland (BUND) waren am Projekt beteiligt. Als Teil des Förderschwerpunktes „Sozial-ökologische Forschung“ hat das Bundesministerium für Bildung und Forschung das Projekt im Forschungsschwerpunkt „Plastik in der Umwelt“ gefördert.

http://www.plastik-reduzieren.de

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.

http://www.ioew.de | http://twitter.com/ioew_de | http://www.ioew.de/service/newsletter

Das Institut für Energie- und Umweltforschung (ifeu) forscht und berät weltweit zu wichtigen Umwelt- und Nachhaltigkeitsthemen für zahlreiche internationale und nationale Fördermittel- und Auftraggeber. Es zählt mit über 40-jähriger Erfahrung zu den bedeutenden ökologisch ausgerichteten, unabhängigen und gemeinnützigen Forschungsinstituten in Deutschland. An den Standorten Heidelberg und Berlin sind rund 80 Wissenschaftlerinnen und Wissenschaftler der Natur-, Ingenieurs- und Gesellschaftswissenschaften beschäftigt. Das ifeu sucht Antworten auf drängende gesellschaftliche Fragen und entwickelt diese im Sinne einer transdisziplinären Ausrichtung in engem Dialog mit Akteuren aus Politik, Wirtschaft, Wissenschaft und Zivilgesellschaft: vor Ort, in Deutschland und weltweit.

http://www.ifeu.de

Wissenschaftliche Ansprechpartner:
Dr. Frieder Rubik
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 6221/64916-6
frieder.rubik@ioew.de

Originalpublikation:
Rubik, Frieder; Wiesemann, Eva; Bick, Carola; Schmidt, Alina (2022): Verpackungsaufkommen reduzieren Einfluss und Steuerungsmöglichkeiten von Kommunen – eine Handreichung https://www.ioew.de/publikation/verpackungsaufkommen_reduzieren

Weitere Informationen:
https://www.plastik-reduzieren.de/

(nach oben)


Gute Führung ist erlernbar – Beliebtes Führungskräfteentwicklungsprogramm der HSW geht in die nächste Runde

Lara Wollenhaupt Presse- und Öffentlichkeitsarbeit
Hochschule Weserbergland
(Hameln, im September 2022). Ein Team erfolgreich führen, Konflikte lösen und Führen in Veränderungsprozessen sind Themen, die aktueller denn je sind. Ihnen sowie diversen weiteren für den Führungsalltag relevanten Themen widmet sich das seit Jahren nachgefragte Führungskräfteentwicklungsprogramm (FKE) der Hochschule Weserbergland (HSW). In dieser Woche startet eine weitere Seminargruppe.

Seit der Programmeinführung im Jahr 2005 habe über 270 Führungskräfte aus rund 60 Unternehmen das Angebot für sich genutzt „[…] und die Nachfrage reißt zu unserer großen Freude einfach nicht ab“, berichtet Ramona Salzbrunn, Leiterin des Zentrums für Personalentwicklung und Lebenslanges Lernen an der HSW.

Erst im vergangenen Jahr starteten zwei Gruppen mit insgesamt 25 Teilnehmenden in das rund 10-monatige Zertifikatsprogramm und schlossen es kürzlich erfolgreich ab. Parallel dazu begann im April dieses Jahres eine weitere Gruppe mit zwölf Teilnehmenden und bereits diese Woche folgt die nächste mit der gleichen Anzahl an Wissbegierigen.

„Viel mehr Teilnehmende sollten es tatsächlich auch nicht sein, denn in dem Programm legen wir großen Wert darauf, dass sich jeder einzelne von ihnen individuell und seinen Bedarfen entsprechend weiterqualifizieren kann. Darüber hinaus profitiert die jeweilige Gruppe nicht zuletzt von einem intensiven Austausch und Networking untereinander“, so Salzbrunn.

Für Arbeitgeber bietet das berufsbegleitende Angebot die Möglichkeit, ihre Führungskräfte auf hohem Niveau zu qualifizieren und von ihrer Gestaltungskompetenz bei zukünftigen Herausforderungen direkt zu profitieren. In verschiedenen Modulen wird neuen als auch erfahrenen Führungskräften das praxisnahe Handwerkzeug mit an die Hand gegeben, welches sie sowohl für den Führungsalltag selbst als auch zum Vertiefen ihre sozial-kommunikativen Kompetenzen benötigen. Dabei stehen den Teilnehmenden praxiserfahrene Trainer zur Seite.

Das Angebot beinhaltet verschiedenen Bausteinen. Zu diesen zählen acht Modulen zu spezifischen Führungsthemen, drei Einzelcoachings, zwei Transfertage Führung und ein Einzel-Assessment.

Der nächste FKE-Programmstart ist für April 2023 in Planung. Interessierte können unter Telefon 05151/9559 – 20 Kontakt zum ZPL aufnehmen und sich unverbindlich informieren.

Ebenfalls gut zu wissen: Das Niedersächsische Ministerium für Wirtschaft, Arbeit, Verkehr und Digitalisierung fördert aktuell bestimmte Weiterbildungsmaßnahmen, die bis zum 30. Juni 2023 laufen. Weitere Hinweise und Fördervoraussetzungen stehen auf der Internetseite der NBank.

Weitere Informationen:
http://www.hsw-hameln.de

(nach oben)


Breit abgestützte Schweizer Covid-19 Forschung

Medien Abteilung Kommunikation
Schweizerischer Nationalfonds SNF
Der Schweizerische Nationalfonds (SNF) unterstützte während der Corona-Pandemie insgesamt 114 Covid-19-Forschungsprojekte, für die er Fördermittel von über 45 Millionen CHF einsetzte. Im Nationalen Forschungsprogramm «Covid-19» (NFP 78) arbeiten rund 200 Forschende in 28 Projekten mit einem finanziellen Umfang von 20 Millionen CHF. Ein weiteres Forschungsprogramm zu Covid-19 steht am Start.

Für den SNF war es ein Novum, aufgrund einer akuten Krisensituation in derart kurzer Zeit Forschungsinfrastrukturen aufzubauen, um dringende Forschungsprojekte schnell aufzugleisen und geeignet zu unterstützen. Mit der Sonderausschreibung Coronaviren im März 2020 und der Lancierung des Nationalen Forschungsprogramms «Covid-19» (NFP 78) im April 2020 hat der SNF innerhalb sehr kurzer Zeit einen Rahmen für die Coronaforschung geschaffen, der die Schweizer Forschenden optimal unterstützt.

Rollende Planung und laufende Resultate
Die Herausforderung, Projekte schneller als üblich zu starten, haben die Forschenden problemlos bewältigt. So kämpften sie eher mit dem extrem dynamischen Forschungsfeld sowie mit logistischen oder personellen Problemen, die teilweise im Zusammenhang mit den Lockdowns standen. Zudem ergaben sich viele Fragestellungen, wie zum Beispiel die Long Covid-Erkrankungen, erst während der Pandemie. «Es war eine Freude zu sehen, wie sich zur Beantwortung dieser Fragen weltweit neue Forschungskooperationen bildeten. Beeindruckt hat uns auch die Kreativität und Agilität der Forschenden in diesem kompetitiven Umfeld, mit denen sie sich immer wieder den neuen Herausforderungen stellen.», resümiert Nicolas Rodondi, Professor am Berner Institut für Hausarztmedizin BIHAM und Mitglied des Nationalen Forschungsrats des SNF.

Breites Spektrum von Grundlagenforschung bis zu klinischen Studien
In der frühen Phase der Pandemie brachten epidemiologische und Monitoring-Projekte wichtige Erkenntnisse für die Swiss National COVID-19 Science Task Force, beispielsweise zur Übertragbarkeit des Virus, zum Mobilitätsverhalten der Bevölkerung während des Lockdowns, oder die wöchentlichen Analysen zur Akzeptanz von Schutzmassnahmen. Dies erlaubte dem Bundesrat, seine Empfehlungen entsprechend anzupassen. Ebenfalls ein früher Meilenstein war die Entwicklung eines günstigen Massentests durch eine Forschungsgruppe der EPFL, was erstmals den Nachweis von Covid-19 spezifischen Antikörpern bei breiten Bevölkerungsgruppen ermöglichte. «Dank dieser Tests konnten wir in Kindergärten Informationen über die Verbreitung des Virus gewinnen», erklärt Isabella Eckerle vom Universitätsspital Genf. Einen durchschlagenden Erfolg feierte das Abwassermonitoring der EAWAG Dübendorf, welches sehr präzise die Konzentration von SARS-CoV-2 Viren in Gewässern misst. Nach der ersten Forschungsphase wurde das Monitoring inzwischen auf über hundert Standorte ausgeweitet.

Wichtige Erkenntnisse aus dem biomedizinischen Bereich sind die besondere Exponierung und die unterschiedlichen Verläufe bei Kindern, die kognitiven und neuropsychologischen Einflüsse auf die psychische Gesundheit bei Erwachsenen sowie das Erkennen von Long Covid-Erkrankungen als immer noch nicht ausreichend verstandenem Gesundheitsproblem. Zahlreiche klinische Studien versuchten, für andere Indikationen eingesetzte Wirkstoffe bei Covid-19 Patientinnen und Patienten zu testen. Hier gab es neben erfolgreichen Ansätzen auch Studienabbrüche zu verzeichnen, da sich verfolgte Strategien als nicht zielbringend erwiesen.

Forschung schafft Lösungen: Entwicklung von Sensoren und Impfstoffen
Konkrete Ergebnisse von Forschungsprojekten sind ein von Forschenden der ETH Zürich entwickelter Sensor, der mit einer neu entwickelten Methode Aerosole mit Sars-CoV-2 aus der Luft filtert sowie ein Biosensor, der die Konzentration von Viren in der Raumluft von Pflegeheimen und Spitälern misst und entsprechende Warnungen auslöst.

Mehrere Forschungsprojekte widmen sich der Entwicklung neuer Corona-Impfstoffe. Impfpionier Steve Pascolo vom Universitätsspital Zürich will zum Beispiel die bewährten mRNA-Ansätze verfeinern und weiterentwickeln. Volker Thiel von der Universität Bern will einen Lebendimpfstoff als Nasenspray zur Verfügung stellen. Ob und welche dieser Ansätze es bis zur Zulassung schaffen, wird sich erst in den klinischen Phasen zeigen. «Ohne Kooperation mit der Industrie ist ein solches Wettrennen nicht zu gewinnen», sagt Volker Thiel, dessen Projekt am Anfang der klinischen Phase I steht. Die Zusammenarbeit mit der Industrie ermöglicht es, Impfstoffkandidaten in klinischen Studien zu testen und die Infrastruktur für die Produktion und Distribution von Impfstoffen bereitzustellen.

Positive Zwischenbilanz
Marcel Salathé, Professor für Epidemiologie an der EPFL, ist Präsident der Leitungsgruppe des NFP 78. Er zieht eine positive Zwischenbilanz der ersten zwei Jahre der Forschungsarbeiten. «Trotz hohem Druck und teilweise schwierigen Arbeitsbedingungen haben die Corona-Forschenden in der Schweiz eindrückliche Resultate vorgelegt», fasst er zusammen. «Da das Virus mit uns bleiben wird, muss die Forschung mit hoher Priorität weitergeführt werden.» Die Forschungsprojekte im NFP 78 laufen noch bis Ende Juni 2023. Im Dezember 2022 startet die Forschung des Nationalen Forschungsprogramms «Covid-19 in der Gesellschaft» (NFP 80). Die Projekte des Programms untersuchen die gesellschaftlichen Dimensionen, Prozesse und Massnahmen im Umgang mit Pandemien.

Nationales Forschungsprogramm «Covid-19» NFP 78
Das vom Schweizerischen Nationalfonds (SNF) durchgeführte NFP 78 hat zum Ziel, neue Erkenntnisse zu Covid-19 und zur weiteren Entwicklung der Pandemie zu gewinnen, Empfehlungen für das klinische Management und das Gesundheitswesen zu erarbeiten sowie die Entwicklung von Impfstoffen, Behandlungen und Diagnostika zu unterstützen.

In vier Modulen werden Aspekte der Biologie, Pathogenität und Immunogenität von SARS-CoV-2, neue Ansätze in der Covid-19-Epidemiologie und Prävention, Grundlagen für Impfstoffe, Medikamente und Diagnostika sowie innovative klinische Ansätze und therapeutische Interventionen zur Behandlung von Covid-19 Erkrankungen erforscht.

Die Forschung im NFP 78 startete im Herbst 2020 und dauert zweieinhalb Jahre. Das NFP ist mit einem Budget von 20 Millionen Schweizer Franken ausgestattet. Aus den 190 eingereichten Gesuchen wählte der SNF im Juli 2020 28 Forschungsprojekte aus, deren Ergebnisse schnellstmöglich veröffentlicht, kommunikativ begleitet und mit Politik und Gesellschaft diskutiert werden sollen.

Der Text dieser Medienmitteilung und weitere Informationen stehen auf der Webseite des Schweizerischen Nationalfonds zur Verfügung.

Wissenschaftliche Ansprechpartner:
Marcel Salathé
Präsident der Leitungsgruppe NFP 78
EPFL, Campus Biotech / Bâtiment B1.01
Ch. des Mines 91202
Genève
Tel.: +41 21 693 09 91
E-Mail: marcel.salathe@epfl.ch

Mark Bächer
Kommunikationsverantwortlicher NFP 78
Tel. +41 43 266 88 50
E-Mail: mark.baecher@lscom.ch

Weitere Informationen:
https://www.snf.ch/de/ugAcpfy8WjBXV0xK/news/breit-abgestuetzte-schweizer-covid-1…

(nach oben)


Mit dem IntelliGrid-Stecker Strom intelligenter nutzen

Frauke Schäfer Pressestelle
Fachhochschule Kiel
Projekt der Fachhochschule (FH) Kiel will Stromnutzung effizienter machen. Mit dem IntelliGrid-Stecker lassen sich einige Haushaltsgeräte gezielt verwenden, wenn günstiger Strom verfügbar ist. Zurzeit sucht das Projekt-Team Testhaushalte.

Die Speicherung von Elektrizität ist schwierig. Kondensatoren sind oft sehr teuer und ihrer Kapazität begrenzt; Akkumulatoren weisen deutliche Energieverluste auf und haben eine begrenzte Lebensdauer. Deshalb gilt meistens: Die Stromerzeugung in einem Elektrizitätsnetz muss dem aktuellen Verbrauch folgen. Das ist insbesondere für erneuerbare Energie aus Wind und Sonne ein Problem. Schließlich bläst der Wind nicht immer gleich stark und die Sonne scheint nicht an allen Tagen mit derselben Intensität.

Forschende der Fachhochschule (FH) Kiel haben sich deswegen das Ziel gesetzt, verfügbare Energie effizienter nutzbar zu machen. Prof. Dr. Ralf Patz, Dozent am Institut für Kommunikationstechnik und Embedded Systems des Fachbereichs Informatik und Elektrotechnik, hat mit seinem Team einen Stecker entwickelt, mit dem die im Netz verfügbare elektrische Energie dann genutzt werden soll, wenn gerade viel verfügbar ist. Ziel des Projekts ist es zu evaluieren, ob es möglich ist, Geräte in privaten Haushalten, hauptsächlich Geräte wie Geschirrspüler, Waschmaschine und Wäschetrockner, als schaltbare Last zu verwenden, um zum Ausgleich von Angebot und Nachfrage im Stromnetz beizutragen.

„Verbrauch und Erzeugung von elektrischer Energie unterliegen starken Schwankungen. In privaten Haushalten ist der Verbrauch morgens und abends am größten. Strom aus erneuerbaren Energien wird jedoch nicht – wie von Kohle, Gas oder Atomkraft – konstant erzeugt, sondern ist wetterabhängig. Hier setzt IntelliGrid ein“, erläutert Patz. Der Stecker soll den Stromverbrauch auf Zeiten verschieben, in denen der Strom am günstigsten ist. Das Projekt konzentriert sich in der ersten Erprobungsphase auf die Verbraucher Waschmaschine, Trockner und Geschirrspülmaschine. Sie werden fast täglich benutzt und ihre Nutzung kann leicht verschoben werden.

Und so funktioniert‘s: Die Haushalte stecken den IntelliGrid-Stecker zwischen Steckdose und Geräte. Über das Heim-WLAN kommuniziert der Stecker mit dem IntelliGrid-Server. Die Nutzer*innen verwenden eine Smartphone-Anwendung, um dem Stecker zu sagen, wann etwa die Waschmaschine fertig sein soll. Der Server von IntelliGrid sucht dann nach dem besten Zeitraum, um die Waschmaschine laufen zu lassen und dabei den verfügbaren Strom am besten nutzt.

Zurzeit sucht das IntelliGrid Team interessierte Haushalte, die für drei Monate das System testen möchten und dann im Anschluss einen Fragebogen ausfüllen.

Wissenschaftliche Ansprechpartner:
Benjamin Mahler
Fachhochschule Kiel, Informatik und Elektrotechnik
benjamin.mahler@fh-kiel.de

Weitere Informationen:
https://IntelliGrid.eu

(nach oben)


Das Arbeitsvolumen in Deutschland ist erneut gestiegen

Sophia Koenen, Jana Bart, Inna Felde und Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das Arbeitsvolumen stieg im zweiten Quartal 2022 gegenüber dem entsprechenden Vorjahresquartal 2021 um 1 Prozent auf 14,5 Milliarden Stunden. Dies geht aus der am Dienstag veröffentlichten Arbeitszeitrechnung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Die Zahl der Erwerbstätigen verzeichnete im zweiten Quartal 2022 einen deutlichen Anstieg von 664.000 Personen gegenüber dem Vorjahresquartal 2021 und liegt mit 45,5 Millionen Personen über dem Niveau vor Ausbruch der Covid-19-Pandemie im ersten Quartal 2020. Pro erwerbstätiger Person betrug die Arbeitszeit im zweiten Quartal 2022 durchschnittlich 319,3 Stunden. Damit zeigt sich ein Rückgang von 0,5 Prozent gegenüber dem Vorjahresquartal.

„Wegen des Beschäftigungsaufschwungs werden in Deutschland wieder fast so viele Stunden gearbeitet wie vor der Pandemie. Die Omikron-Welle und andere Infektionen sowie der Teilzeit-Boom lassen die geleistete Arbeitszeit pro Kopf aber trotz des Rückgangs der Kurzarbeit sinken.“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Nach vorläufigen Hochrechnungen ging die Kurzarbeit im zweiten Quartal 2022 gegenüber dem entsprechenden Vorjahresquartal um 1,78 Millionen Personen auf nun 390.000 Personen deutlich zurück.

Der Krankenstand lag im zweiten Quartal 2022 mit 5,18 Prozent deutlich über dem des Vorjahresquartals von 4,11 Prozent.

Die Teilzeitquote ist gegenüber dem Vorjahresquartal um 0,3 Prozentpunkte gestiegen und lag bei 38,8 Prozent. Damit hat sie ihren Höchstwert vom zweiten Quartal 2019 wieder erreicht. „Dies liegt auch an einem Beschäftigungszuwachs gerade in Branchen mit einem hohen Teilzeitanteil wie dem Gesundheits- und Sozialwesen oder dem Bereich Erziehung und Unterricht.“, erklärt IAB-Forscherin Susanne Wanger. Allerdings hat die Teilzeitquote damit erst wieder das Vorkrisenniveau erreicht. Zudem legen die Überstunden nach dem Corona-Einbruch wieder zu. „Ein Quiet Quitting kann man aus den Arbeitszeitdaten aktuell nicht ablesen“, stellt Weber fest.

Im Rahmen der Revision der Volkswirtschaftlichen Gesamtrechnungen des Statistischen Bundesamtes für den Zeitraum ab 2018 (Sommerrechnung) hat das IAB seine Arbeitszeitrechnung überarbeitet. Dabei wurden Datenquellen aktualisiert und neue Datengrundlagen integriert. Eine ausführliche Darstellung der Revisionspunkte der IAB-Arbeitszeitrechnung ist unter https://doku.iab.de/forschungsbericht/2022/fb1322.pdf online abrufbar.

Eine Tabelle zur Entwicklung der Arbeitszeit steht im Internet unter https://doku.iab.de/arbeitsmarktdaten/tab-az2202.xlsx zur Verfügung. Eine lange Zeitreihe mit den Quartals- und Jahreszahlen ab 1991 ist unter https://doku.iab.de/arbeitsmarktdaten/AZ_Komponenten.xlsx abrufbar.

Weitere Informationen zur Verbreitung von bezahlten und unbezahlten Überstunden sind unter http://doku.iab.de/aktuell/2014/aktueller_bericht_1407.pdf zu finden.

(nach oben)


Gemeinsame Ziele für die Energiewende

Veronika Packebusch Hochschulkommunikation
Hochschule Stralsund
Empfang an der HOST für österreichische Delegation bringt Vertreter*innen von Wirtschaft, Wissenschaft und Politik zu vielversprechendem Austausch.
Das ist eine „Ebene der Kooperation“, wie Ulrike Szigeti, Vize-Rektorin der Fachhochschule Salzburg, sagt, aus der gemeinsame Ziele mit Potenzial für die Energiewende erwachsen. Eine solche Ebene haben die Hochschule Stralsund, der Landkreis Vorpommern-Rügen und eine österreichische Delegation am Freitag bei einem Empfang an der Hochschule Stralsund zu den Themen Erneuerbare Energien und Wasserstoff zelebriert.

Gerahmt und gewürdigt von Redebeiträgen der Ministerin für Wissenschaft, Kultur, Bundes- und Europaangelegenheiten des Landes Mecklenburg-Vorpommern, Bettina Martin, des Landrates Stefan Kerth, und des stellvertretenden Oberbürgermeisters der Hansestadt Stralsund, Heino Tanschus, wurde ein fachlicher und ganz praktischer Austausch zwischen Vertreter*innen aus Politik, Wirtschaft und Wissenschaft vorangetrieben. Durch Pitches, die in der Kürze Tiefe aufbauen konnten (zur Wasserstofferzeugung und Aufbau einer Wasserstoffinfrastruktur sowie zur Elektro- und Wasserstoffmobilität auf der Straße, Schiene und auf dem Wasser) wurden Anknüpfungspunkte für die Zukunft gefunden.

Ministerin lobt gelebten Wissenstransfer
Die Ministerin Bettina Martin suchte das Gespräch mit Prorektor Prof. Dr. Koch, Landrat Kerth, FH-Salzburg Vize-Rektorin Szigeti, Dr. Norbert Brandtner (NEOS Salzburg) und Dr. Werner Balika (Innovation Salzburg) und fasste in ihrem Grußwort zusammen, dass an der Hochschule Stralsund „exzellente Forschungs- und Wissenschaftsarbeit geleistet würde“, womit sie sich in diesem Fall vor allem auch auf den Bereich des Institutes Regenerative Energie Systeme (IRES) bezog. „Sie helfen uns, uns als Wissenschaftsstandort wettbewerbsfähig zu machen“, lobte die Ministerin und dankte stellvertretend Prorektor Koch und der Hochschule – für den internationalen Austausch, der durch diese Kooperation begünstigt würde. „Was hier an Innovationen und Vernetzung läuft“, sei noch gar nicht so bekannt, „wir sind im Norden ja immer etwas zurückhaltender: Aber hier entsteht Zukunft“, konstatierte die Ministerin und bezeichnete den mehrtägigen Austausch als „gelebten Wissenstransfer“. Der Standort MV lebe die Energiewende und das müsse er auch in Anbetracht des Krieges auf europäischem Boden. „Jetzt sind wir unter zeitlichem Druck, wir brauchen Sie um uns zu entwickeln“, wandte sie sich an die Forschung, Wissenschaft und dahingehend tätigen Wirtschaftsunternehmen. „Um ein Vielfaches beeindruckt es mich, welcher Sachverstand hier heute an der Hochschule Stralsund zusammengekommen ist“, sagte auch der stellvertretende Oberbürgermeister der Hansestadt Stralsund, Heino Tanschus. Gebraucht würden, betonte er wie die Ministerin, Wirtschaft und Wissenschaft.

Zusammenhalt als oberste Prämisse für die Energiewende
Der Landkreis Vorpommern-Rügen hatte diesen Austausch mit diversen Unternehmensbesuchen im Kreisgebiet und der Stadt forciert und war vom 30. August bis 2. September einer der Haupt-Gastgeber desselben. „Wir müssen auf kommunaler Ebene Lust darauf haben, zusammenzuhalten und voranzugehen, dann wird das auch wahrgenommen“, sagte Landrat Stefan Kerth. Der Umstand, dass der Landkreis einen Wasserstoffmanager hat, Brennstoffzellenbusse anschaffen möchte und an vielen kleinen Mosaiksteinchen, aus denen sich Realität und Taten ergeben würden, arbeitet, zeige wie ernsthaft das Thema im Landkreis bearbeitet würde. „Sie können alle sicher sein, dass das beim Landkreis Vorpommern-Rügen keine Eintagsfliege ist“, so Kerth.
Was sich schon in den Grußworten zeigte, spiegelte sich auch auf österreichischer Seite: Wesentlich, um mit Erneuerbaren Energien voranzukommen, wird der Zusammenhalt. „Machen wir es so wie früher, wir stehen – den Rücken zusammen, wir haben dieselben Herausforderungen, lassen Sie uns die Erneuerbaren Energien vorantreiben“, forderte Dr. Norbert Brandtner (NEOS Salzburg) auf.

Fachlicher Input und Arbeitsstände der Wirtschaft
„Wir leben in einer turbulenten Zeit“, sagte der Initiator des Treffens Prof. Dr. Georg Christian Brunauer von der Fachhochschule Salzburg, „es liegt an uns, was wir daraus machen“. Die Erde, betonte er, habe zwar schon einiges mitgemacht, aber seit menschliches Leben auf ihr sei, sei die Temperatur relativ konstant. „Jetzt haben wir einen Punkt erreicht, an dem das Klima mit uns eine Art Achterbahn fährt“, so Dr. Brunauer. „Damit es angenehm mit der Atmosphäre weitergeht“, müsse alles darangesetzt werden, CO2 zu reduzieren.
In den Pitches stellten Vertreter*innen hiesiger und österreichischer Politik, Wirtschaft und Wissenschaft ihre aktuellen Bestrebungen beziehungsweise Forschungsstände und Ziele vor. Darunter waren beispielsweise von Enertrag SE Projektleiter Stephan Petzoldt, der über großtechnische Wasserstoffproduktion an vier Elektrolyse-Standorten entlang der H2-Pipeline sprach und damit über den Aufbau einer flächendeckenden Wasserstoffinfrastruktur in MV, Stralsunds Klimaschutzbeauftragter Stephan Latzko sprach über den Titel als HyExpert-Wasserstoff-Region, Dr. Michaela Leonhardt, die Leiterin des Teams Wasserstoff von Wien Energie, gab Einblicke in den Bau einer eigenen Erzeugungsanlage und André Flemming von der Steamergy GmbH & Co KG berichtete über das Bestreben, den Dampfmotor weiterzuentwickeln und den neuen Standort auf dem Stralsunder Werftgelände.

Hochschule präsentiert Wasserstofftechnologie zum Anfassen
Im Anschluss präsentierte sich die HOST – zeigte ihre Elektrolysestation, bot Laborbesichtigung und Wasserstoffexperimente an sowie Besuche der Werkstatt des ThaiGer- H2-Racingteams und der Werkstatt des Baltic Racing Teams, gab die Möglichkeit zum Probefahren mit dem ThaiGer-Rennwagen und eröffnete mit einen Info-Stand Einblicke in Tourismus und Management in der Ostseeregion und wie sie in Studiengängen an der HOST verankert sind. Am späteren Nachmittag besuchten die österreichische Delegation aus Vertreter*innen der Wirtschaft, Wissenschaft und Politik sowie Vertreter*innen der hiesigen Wirtschaft, Politik und der Hochschule Stralsund das Stralsunder Werftgelände und brachen danach zu einer Abendausfahrt mit der Weißen Flotte aus dem Stadthafen auf.
Lesen Sie auch: Neue Kooperation für Wasserstoffinfrastruktur: https://www.hochschule-stralsund.de/host/aktuelles/news/detail/n/neue-kooperatio…

(nach oben)


„Stadt? Land? Zukunft!“ – wie im Zwischenraum von Metropolen und Dörfern etwas Neues entsteht

Cosima Oltmann Kommunikation
ZEIT-Stiftung Ebelin und Gerd Bucerius
Ein neues Magazin der ZEIT-Stiftung Ebelin und Gerd Bucerius stellt Menschen und Projekte vor, die Grenzen zwischen Städten und ländlichen Räumen aufheben. Wie können neue Verbindungen unser aller Zusammenleben verbessern?

Stadt versus Land, Modernität versus Rückständigkeit, Beton versus Idylle – politische Debatten über die Lebensräume von Menschen sind oft von Klischees geprägt. Dabei haben Metropolen und ländliche Räume viel gemeinsam. Und zahlreiche Initiativen und Grenzgänger:innen zwischen den Welten arbeiten daran, die Unterschiede weiter zu verwischen. Die ZEIT-Stiftung Ebelin und Gerd Bucerius veröffentlicht daher ein Magazin, das sich den Räumen zwischen Regionen widmet. Wie gelingt es, Städte und ländliche Räume besser zu verbinden? Wie können Technologien dabei helfen? Was können Politik und Verwaltung tun?

Für das Magazin „Stadt? Land? Zukunft!“ hat das Bucerius Lab, das Zukunftslabor der ZEIT-Stiftung, in Zusammenarbeit mit dem Thünen-Institut für Regionalentwicklung sowie dem Denk- und Designbüro studio amore Studien gewälzt, Menschen getroffen und Ideen gesammelt. Herausgekommen sind spannende Geschichten über den Wandel, wie und wo Menschen leben möchten. In mehreren Porträts werden Akteur:innen vorgestellt, die sich den großen Herausforderungen unserer Zeit stellen und die Räume zwischen Stadt und Land zu regelrechten „Zukunftsorten“ machen. Und auch die verständliche Aufbereitung von wissenschaftlichen Grundlagen, wie man verschiedene Lebensräume einordnen kann, kommt nicht zu kurz.

„Die Texte rund um die Zukunft unseres Zusammenlebens sollen die Leser:innen inspirieren und motivieren, selbst mit anzupacken und etwas zu bewegen“, erklärt Manuel J. Hartung, Vorstandsvorsitzender der ZEIT-Stiftung Ebelin und Gerd Bucerius, das Ziel des Magazins. „Damit Demokratie und gesellschaftlicher Zusammenhalt funktionieren, dürfen Teilhabe und Wohlstand nicht stärker mit Ballungsräumen verbunden sein als mit anderen Orten, an denen Menschen leben.“

„Stadt-Land-Beziehungen sind vielfältiger als das, was wir häufig auf den ersten Blick sehen. Es gibt nicht nur Metropolen und – wahlweise idyllische oder abgehangene – Peripherie“, sagt Eleonore Harmel, wissenschaftliche Mitarbeiterin am Thünen-Institut für Regionalentwicklung und Mitgründerin des studio amore. „Wenn wir beides nicht mehr als getrennte Welten betrachten, finden wir schon heute Menschen und Projekte, Dörfer, Städte und Regionen, die ganz praktisch an ihrer Zukunftsfähigkeit bauen. In unserer wissenschaftlichen Analyse zeigen wir vier Wege, wie sich die Zukunft von Städten, ländlichen Regionen und den Räumen dazwischen entwickeln könnte.“

„In unserem Magazin stellen wir engagierte Menschen mit innovativen Ideen vor – in Städten und in ländlichen Räumen“, sagt Mirjam Büttner, Leiterin des Bucerius Labs der ZEIT-Stiftung. „Und egal in welcher Region, eines konnten wir überall sehen: Es braucht Menschen, die Stadt und Land als Kontinuum denken, und Verwaltungen, die Transformation als ihre Hauptaufgabe verstehen.“

Das neue Magazin der ZEIT-Stiftung wir beim ÜBERLAND Festival vom 2. Bis 4. September 2022 in Görlitz vorgestellt. Es wird in den kommenden Wochen auch bei anderen Veranstaltungen präsentiert und diskutiert. Ein besonderes Highlight: Im Oktober liegt „Stadt? Land? Zukunft!“ zum kostenfreien Lesen in den Fernverkehrszügen der Deutschen Bahn aus und lädt zum Schmökern und sich-Inspirieren-lassen ein.

Das Magazin in einer Online-Version zum Durchblättern finden Sie hier: https://read.zeit-stiftung.com/slz/

Das Magazin zum Download finden Sie hier: https://read.zeit-stiftung.com/slz/docs/Zeit_Stiftung_Zukunftsatlas.pdf

Die ZEIT-Stiftung Ebelin und Gerd Bucerius fördert Wissenschaft und Forschung, Kunst und Kultur sowie Bildung und Erziehung. Sie initiiert Debatten zu Themen, die Politik und Gesellschaft betreffen, und eröffnet Foren zur digitalen Entwicklung. In der Tradition ihrer Stifter Ebelin und Gerd Bucerius sieht sie sich als Teil und Förderer einer liberalen, weltoffenen Zivilgesellschaft, die Lösungen finden muss für die vielfältigen Herausforderungen unserer Zeit.

Das Bucerius Lab der ZEIT-Stiftung beschäftigt sich mit Zukunftsthemen: Es konzentriert sich auf den digitalen Wandel, der zu einem zentralen Motor gesellschaftlicher, ökonomischer, politischer und kultureller Veränderungen geworden ist. Fragen rund um die Entwicklung von Stadt und Land im digitalen Zeitalter bilden derzeit einen Arbeitsschwerpunkt des Labs.

Bei Rückfragen wenden Sie sich bitte an die ZEIT-Stiftung, Jessica Staschen, Leitung Kommunikation, Tel. 040 41336871 oder E-Mail: staschen@zeit-stiftung.de.

(nach oben)


Chronische Entzündungen: Welche Rolle spielen ein verbreiteter Rezeptor und die Ernährung?

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Unter Koordination der Charité – Universitätsmedizin Berlin werden Forschende in den kommenden drei Jahren der Rolle des Arylhydrocarbon-Rezeptors bei chronischen Entzündungen im Zusammenhang mit Ernährung nachgehen. Zu dem interdisziplinären Verbundvorhaben TAhRget (Targeting AhR-dependent Inflammation for Organ Protection) tragen sechs Partnereinrichtungen bei. Die Projektleitung hat das Experimental and Clinical Research Center (ECRC) – ein gemeinsames klinisches Forschungszentrum der Charité und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Arbeiten mit rund drei Millionen Euro.

Viele chronische Erkrankungen und Autoimmunerkrankungen gehen mit andauernden oder schubweise auftretenden Entzündungen einher, die zu schweren Organschäden führen können. Mit solchen chronischen Entzündungsprozessen wird der Arylhydrocarbon-Rezeptor (AhR), der in einer Vielzahl unserer Körper- und Immunzellen vorkommt und dabei hilft, körperfremde Stoffe aus dem Körper zu schleusen, in Zusammenhang gebracht. Die dahinterstehenden Mechanismen sind allerdings bislang nicht hinreichend erforscht. Nun startet das BMBF-Verbundprojekt TAhRget, das die Rolle des Rezeptors AhR bei der Entstehung von Entzündungen und den Einfluss von Ernährung am Beispiel der chronischen Niereninsuffizienz (CKD) und der Multiplen Sklerose (MS) näher beleuchten soll. Vor dem Hintergrund dieser beiden sehr unterschiedlichen Erkrankungen erhoffen sich die Wissenschaftler:innen ein genaueres Bild über das Bindungs- und Wirkspektrum von AhR. „Wir möchten herausfinden, ob sich AhR als therapeutisches Ziel – im Englischen ‚target‘ – für Behandlungsstrategien eignet, mit denen Entzündungsprozesse in Schach gehalten und Organschäden minimiert oder gänzlich verhindert werden könnten“, sagt Dr. Nicola Wilck von der Medizinischen Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin der Charité, Gruppenleiter am ECRC und Koordinator des TAhRget-Verbundprojekts.

Das interdisziplinäre Forschungsteam des Verbunds aus sechs überregionalen Partnern will in den kommenden drei Jahren mithilfe von Patientenkohorten, Tiermodellen, Zellkulturen, Einzelzellanalysen sowie Mikrobiom- und Ernährungsstudien herausfinden, ob und in welchem Maße der Rezeptor AhR zu Entzündungsprozessen bei CKD und MS beiträgt, die die Organe schädigen. Auch fahnden die Forschenden nach aussagekräftigen Biomarkern, die die Aktivität von AhR anzeigen können. Bekannt ist, dass der Rezeptor körperfremde Stoffe – etwa Nahrungsbestandteile oder Stoffwechselprodukte unserer Darmbakterien – bindet, um sie ausscheidungsfähig zu machen. Studienergebnisse zeigen außerdem, dass sich Ernährungsumstellungen auf Erkrankungen mit chronischen Entzündungen positiv auswirken können.

„Wir vermuten, dass hier AhR-vermittelte Prozesse eine Rolle spielen. Ein Schwerpunkt unserer Untersuchungen wird daher insbesondere auf ernährungs- und mikrobiomvermittelten Prozessen liegen, die den AhR und damit einhergehende entzündliche Prozesse bei CKD und MS steuern“, sagt Dr. Anja Mähler, Leiterin der Clinical Research Unit am ECRC und Teilprojektleiterin von TAhRget mit dem Schwerpunkt Ernährung. Das Ziel ist herauszufinden, welche Nahrungsbestandteile, Stoffwechselprodukte und Ernährungsformen sich negativ und welche sich positiv auf AhR-vermittelte entzündliche Prozesse auswirken, um dies bei der Behandlung von Patient:innen künftig berücksichtigen zu können. „Unser interdisziplinärer Verbund vereint Kliniker:innen aus Nephrologie und Neurologie, Immunologinnen und Immunologen, Mikrobiom- und Metabolomik-Forschende sowie Ernährungswissenschaftler:innen“, sagt Dr. Wilck. „Mit diesem gemeinschaftlichen und fachübergreifenden Forschungsansatz erhoffen wir uns, grundlegend neue und zukunftsweisende Erkenntnisse über die Beteiligung des AhR an chronischen Entzündungen zu gewinnen und damit den Weg zu neuen Behandlungsformen zu bahnen.“

Verbundvorhaben TAhRget
Das TAhRget-Verbundprojekt wird im Rahmen der BMBF-Ausschreibung „Förderung interdisziplinärer Verbünde zur Erforschung von Pathomechanismen“ unterstützt. Die Charité – Universitätsmedizin Berlin koordiniert das interdisziplinäre Vorhaben, zu dem sechs Partnereinrichtungen beitragen. Das Experimental and Clinical Research Center (ECRC), ein gemeinsames klinisches Forschungszentrum der Charité und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft, hat die Projektleitung inne. Weitere Partner sind das Helmholtz-Zentrum für Infektionsforschung (HZI), das Universitätsklinikum Erlangen, das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und die Universität Regensburg. Projektstart ist der 1. September 2022.

Wissenschaftliche Ansprechpartner:
Dr. Nicola Wilck
Medizinische Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin
Charité – Universitätsmedizin Berlin
t: +49 30 450 540 459
E-Mail: nicola.wilck@charite.de

Weitere Informationen:
https://nephrologie-intensivmedizin.charite.de
https://www.mdc-berlin.de/de/wilck

(nach oben)


Klärwerk auf Nano-Ebene – Humboldt-Stipendiat in Technischer Chemie

Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Wasser wird auf unserem Planeten immer knapper. Und das vorhandene ist oft verschmutzt. Dr. Libing Zheng möchte das Reinigen optimieren. Er ist derzeit Stipendiat bei Professor Mathias Ulbricht an der Fakultät für Chemie der Universität Duisburg-Essen (UDE). Finanziert wird sein Aufenthalt durch ein Forschungsstipendium für Postdocs der Alexander von Humboldt-Stiftung.

Wasseraufbereitung ist in vielen Ländern inzwischen Standard. „In der Industrie könnten wir auch Meerwasser verwenden“, so Libing Zheng von der Chinese Academy of Sciences. Wenn es vorher gesäubert wird, sei das kein Problem. Möglich macht das etwa die Membrandestillation (MD). Anders als beim bisherigen Destillieren werden die einzelnen Moleküle über durchlässige Schichten (Membranen) auf Nanoebene voneinander getrennt. „MD eignet sich sehr gut dafür, Abwässer mit hohem Salzgehalt aufzubereiten, also Brackwasser, Meerwasser oder Industrieabwasser“, sagt der Stipendiat. Er wurde über das Thema an der Chinese Academy promoviert.

Ist das Schmutz-Problem mit der MD aus der Welt? „Leider nein. Die Salze, organischen Stoffe und Mikroben, die aus der Flüssigkeit herausgefiltert werden, setzen sich auf den Membranen ab, verschmutzen sie und verringern nach und nach ihre Leistung“, sagt Zheng. Gegen dieses Fouling möchte er mit magnetischen Nanopartikeln angehen. Sie sollen die Membran sauber halten: „Diese Teilchen können die Porengröße der Membran regulieren und die Ablagerung des Schmutzes kontrollieren. Sie fangen unterm magnetischen Wechselfeld an zu vibrieren, werden quasi zu ‚Nanomixern‘ und verzögern so Ablagerungen auf der Membran“, erklärt der 33-Jährige. Wenn die Frequenz des Wechselfeldes hoch ist, würden die Teilchen zudem wärmer. „Sie werden im Wechselfeld zur ‚Nano-Heizung‘ und garantieren in Kombination mit dem Mixer eine hocheffiziente Wasseraufbereitung.“

An der UDE möchte Grundlagenforscher Zheng die magnetischen Partikel bis 2024 nicht nur gegen das Fouling einsetzen. „Wir müssen unbedingt herausfinden, wie der Mechanismus im magnetischen Wechselfeld funktioniert. Damit ergründen wir auch ein wenig die Magie des Magnetismus für die Verbesserung von Membranprozessen.“

Weitere Informationen:
Fakultät für Chemie, Technische Chemie II:
Dr. Libing Zheng, lbzheng@rcees.ac.cn
Prof. Dr. Mathias Ulbricht, Tel. 0201/183 3151, mathias.ulbricht@uni-due.de

Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de

(nach oben)


Mehr Sauerstoff in früheren Ozeanen

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Sauerstoffarme Meeresregionen wurden in vergangenen Warmzeiten offenbar kleiner

Eine paläoklimatologische Studie eines internationalen Teams um Forschende des Max-Planck-Institutes für Chemie kommt zu dem Schluss, dass sauerstoffarme Gebiete in den Meeren in langen Warmzeiten der Vergangenheit schrumpften.

Wenn der Sauerstoff knapp wird, hat es das Leben schwer. Das gilt für Bergregionen über 7.000 Meter genauso wie für umgekippte Gewässer. So können in tropischen Küstenregionen Westamerikas und Westafrikas, aber auch im Golf von Bengalen und Arabischen Meer nur spezialisierte Mikroben oder Organismen mit langsamem Stoffwechsel wie Quallen überleben.

In den vergangenen 50 Jahren haben sich die sauerstoffarme Meeresregionen sogar ausgeweitet. Das hat gravierende Folgen auch für die Menschen, die in Küstenregionen vom Fischfang leben. Die Wissenschaft schreibt diese Entwicklung der Erderwärmung zu: Dadurch löse sich zum einen weniger Sauerstoff im Wasser, zum anderen würden die Ozeanschichten schlechter durchmischt und immer größere Teile der Meere umkippen, so die gängige Meinung. Doch wie wird diese Entwicklung weitergehen und was geschah in vergangenen Warmzeiten?

Ein Team um Alexandra Auderset und Alfredo Martínez-García vom Max-Planck-Institut für Chemie in Mainz hat in einer aktuellen Studie gezeigt, dass im offenen Ozean die sauerstoffarmen Zonen während der Warmzeiten der Vergangenheit kleiner wurden.

Der frühere Sauerstoffgehalt der Ozeane lässt sich aus Sedimenten ablesen
Die Forschenden leiten diese Erkenntnis aus ihren Analysen von marinen Sedimentarchiven ab. An Bohrkernen lassen sich vergangene Umweltbedingungen ähnlich ermitteln wie an Baumringen. So geben die in den Sedimenten abgelagerten Skelette von Kleinstlebewesen wie Foraminiferen unter anderem Aufschluss über den Sauerstoffgehalt des Meeres in der Vergangenheit. Zu seinen Lebzeiten speichert das Zooplankton in seinem Skelett Stickstoff, dessen Isotopenverhältnis vom Sauerstoffgehalt des Meeres abhängt. Denn unter sauerstoffarmen Bedingungen verstoffwechseln Bakterien bei der Denitrifikation Nitrat, und zwar bevorzugt solches mit dem leichten Isotop 14N, zu molekularem Stickstoff. So verringert sich in sauerstoffarmem Meerwasser die Konzentration von 14N im Vergleich zum schwereren Stickstoffisotop 15N, weil die Bakterien dann mehr Denitrifikation betreiben.

Der tropische Pazifik war während zweier Warmzeiten gut mit Sauerstoff versorgt
Anhand des veränderten Isotopenverhältnisses in den Skeletten etwa der Foraminiferen im Sediment ermittelten die Forschenden, dass die sauerstoffarmen Regionen im östlichen tropischen Nordpazifik während zweier Warmphasen der Erdneuzeit, nämlich vor etwa 16 und 50 Millionen Jahren, schrumpften.

„Mit diesem Ergebnis haben wir nicht gerechnet“, sagt Alexandra Auderset über die Studie, die nun in der Fachzeitschrift Nature veröffentlicht wurde. „Aus dem Zusammenhang zwischen den hohen globalen Temperaturen und verringerter Denitrifikation schlussfolgern wir, dass der tropische Pazifik gut mit Sauerstoff angereichert war.“

Was das für die derzeitige Ausweitung der sauerstoffarmen Meeresregionen bedeutet, können die Forschenden aber noch nicht genau abschätzen: „Ob unser Ergebnis bereits auf die kommenden Jahrzehnte übertragbar ist oder erst auf viel längere Sicht eine Rolle spielt, bleibt unklar“, sagt die Paläoklimaforscherin Auderset.
„Das liegt daran, dass wir noch nicht wissen, ob kurz- oder langfristige Prozesse dafür verantwortlich waren.“

Dass sauerstoffarme Zonen in wärmeren Zeiten schrumpften, könnte am Rückgang der biologischen Produktivität in den tropischen Oberflächengewässer liegen. Die Produktivität könnte zurückgegangen sein, weil Winde im äquatorialen Pazifik aufgrund des wärmeren Klimas schwächer wurden.

Dafür spricht eine weitere Erkenntnis der Autoren: Während der beiden Warmzeiten des Känozoikums – dem Klimaoptimum des mittleren Miozäns vor etwa 16 Millionen Jahren und dem Klimaoptimum des frühen Eozäns vor etwa 50 Millionen Jahren – war der Temperaturunterschied zwischen hohen und niedrigen Breitengraden viel geringer als heute.

Schwächere tropische Winde während der Warmzeiten
Sowohl die globale Erwärmung als auch ein geringer Temperaturunterschied zwischen hohen und niedrigen Breitengraden dürften die tropischen Winde geschwächt haben, wodurch der Auftrieb von nährstoffreichem Tiefseewasser verringert wurde. Dies wiederum hätte zu einer geringeren biologischen Produktivität an der Oberfläche geführt. Weniger Planktonwachstum bedeutet auch, dass beim Abbau der Biomasse auch weniger Sauerstoff verbraucht wird. Diese Kette von Ereignissen kann relativ schnell ablaufen. Ist dieser Mechanismus entscheidend, dann könnte das Ausmaß des Sauerstoffmangels im offenen Ozean in den kommenden Jahrzehnten abnehmen.

Ein Blick in die Zukunft
Die Ursache für den Rückzug der Zonen mit wenig Sauerstoff könnte aber auch im Tausende von Kilometern entfernten Südpolarmeer liegen, wo der Klimawandel, anders als in anderen Meeresregionen, zu einer beschleunigten Durchmischung von Oberflächen- und Tiefenwasser führen könnte. Dadurch könnte mehr Sauerstoff in tiefere Regionen des Ozeans gelangen und sich über die Ozeanzirkulation ausbreiten, was die sauerstoffarmen Zonen schrumpfen ließe. Dieser Mechanismus würde sich allerdings erst langfristig auswirken. Wenn also die stärkere Umwälzung im Südpolarmeer Teile der sauerstoffarmen Zonen der Tropen und Subtropen beleben würde, wäre mit deren Rückzug frühestens in hundert Jahren zu rechnen.

„Vermutlich spielen beide Mechanismen eine Rolle. Jetzt geht es darum, herauszufinden, welcher der dominierende ist“, so Martínez-García und zeichnet so vor, was sein Team künftig untersuchen möchte.

Unabhängig davon, wann der Klimawandel sauerstoffarme Zonen im offenen Ozean zurückdrängen könnte, bleibt die Frage, welche Rückkopplungseffekte dann überwiegen und welche ökologischen und sozioökonomischen Folgen zu erwarten sind. So spricht letztlich alles dafür, die Klimaerwärmung so schnell wie möglich zu begrenzen.

Wissenschaftliche Ansprechpartner:
Dr. Alexandra Auderset
Max-Planck-Institut für Chemie
E-Mail: a.auderset@princeton.edu

Dr. Alfredo Martínez-García
Max-Planck-Institut für Chemie
Telefon: 06131-305 6717
E-Mail: a.martinez-garcia@mpic.de

Originalpublikation:
Enhanced ocean oxygenation during Cenozoic warm periods
Alexandra Auderset, Simone Moretti, Björn Taphorn, Pia-Rebecca Ebner, Emma Kast, Xingchen T. Wang, Ralf Schiebel, Daniel M. Sigman, Gerald H. Haug and Alfredo Martínez-García
Nature, 31 August 2022, doi: 10.1038/s41586-022-05017-0

Weitere Informationen:
https://www.mpic.de/5260697/ocean-oxygenation

(nach oben)


Countdown zum Tiefseebergbau läuft

Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Die Uhr tickt, aber ist Eile geboten? Im Jahr 2021 hat der Inselstaat Nauru eine als „Zwei-Jahres-Regel“ bekannte Vertragsbestimmung ausgelöst, die die Internationale Meeresbodenbehörde (ISA) verpflichtet, innerhalb von 24 Monaten Vorschriften für den Tiefseebergbau auszuarbeiten und zu verabschieden. Diese Frist läuft im Juli 2023 ab. Der Wissenschaftler Pradeep Singh vom Institut für transformative Nachhaltigkeitsforschung (IASS) untersucht die rechtlichen Auswirkungen dieser Bestimmung.

Der pazifische Inselstaat Nauru hat der Internationalen Meeresbodenbehörde (ISA) am 25. Juni 2021 seine Absicht mitgeteilt, sich mit Wirkung vom 9. Juli 2021 auf Abschnitt 1 Nummer 15 des Durchführungsübereinkommens von 1994 (siehe Auszug unten) zu berufen, da das unter seiner Schirmherrschaft stehende Bergbauunternehmen Nauru Ocean Resources („NORI“) beabsichtigt, die Genehmigung eines Arbeitsplans für die Ausbeutung gemäß dem Seerechtsübereinkommen der Vereinten Nationen (UNCLOS) zu beantragen. Die ISA ist ein autonomes zwischenstaatliches Gremium, das für die Regulierung von Bergbauaktivitäten in internationalen Gewässern zuständig ist.

Nauru wiederum ist eine kleine Insel im Pazifischen Ozean und liegt nordöstlich von Australien. Sie ist mit ihren 21 Quadratkilometern flächenmäßig der drittkleinste Staat der Erde. Es leben etwa 11.500 Menschen auf Nauru. Das Unternehmen Nori, in Nauru gegründet und registriert, ist eine hundertprozentige Tochtergesellschaft des in Kanada ansässigen Unternehmens „The Metals Company“ (zuvor Deep Green).

Zwei-Jahres-Regel ausgelöst
Die Berufung auf die „Zwei-Jahres-Regel“ gibt dem ISA-Rat zwei Jahre Zeit – in diesem Fall bis zum 9. Juli 2023 – um ein Regelwerk für die Ausbeutung von Mineralien auf dem internationalen Meeresboden zu verabschieden, nach dem die Einnahmen aus dem Bergbau und andere Vorteile gerecht unter den Staaten aufgeteilt werden sollen. Sollte der Rat die Vorschriften nicht innerhalb dieser Frist verabschieden und ein Antrag auf Ausbeutung eingereicht werden, müsste der Rat diesen trotzdem „prüfen“ und „vorläufig genehmigen“.

Bislang hat die ISA ein Regelwerk für Abbautätigkeiten in Bezug auf drei verschiedene Arten von Mineralien geschaffen: für polymetallische Knollen im Jahr 2000, für polymetallische Sulfide im Jahr 2010 und für kobaltreiche Ferromangankrusten im Jahr 2012. Bis zum 1. Januar 2022 hat die ISA 31 Explorationsverträge vergeben, aber es wurden noch keine Anträge oder Verträge für den Abbau geprüft oder vergeben. Ein Hauptgrund dafür ist laut Pradeep Singh, dem Autor der Studie, dass „die Entwicklung von Vorschriften zur Erleichterung von Abbauaktivitäten noch nicht abgeschlossen ist“.

Die vielen Unbekannten der Tiefsee
Ein Argument gegen den Tiefseebergbau ist die Existenz bisher unbekannter Arten in der Tiefsee, darunter der kürzlich entdeckte Biremis-Spaghettiwurm und das herrlich seltsame Gummieichhörnchen. Diese Entdeckungen verdeutlichen den Mangel an verfügbaren Daten über die Lebensräume der Tiefsee, die zur Bewertung der grundlegenden Umweltbedingungen in den Zielgebieten herangezogen werden könnten. Unser Wissen über die Lebensräume und Ökosystemfunktionen der Tiefsee (einschließlich ihrer Rolle bei der Klimaregulierung und der Unterstützung des Nahrungsnetzes) und darüber, wie Bergbautätigkeiten sie beeinträchtigen könnten, ist noch lange nicht umfassend.

Obwohl die wissenschaftlichen Erkenntnisse nach wie vor spärlich sind, können die Wissenschaftler bereits vorhersagen, dass die Umweltauswirkungen, die sich aus der Gewinnung von Mineralien aus dem Meeresboden ergeben könnten, erheblich und weitgehend irreversibel wären. Daher hat eine Gruppe von über sechshundert Meereswissenschaftlern und -experten dazu aufgerufen, den Übergang der ISA von der Exploration zur Ausbeutung zu unterbrechen, bis kritische Wissenslücken geschlossen sind.

Vor diesem Hintergrund müssen die ISA-Mitgliedstaaten nun ein „akzeptables“ Maß an Umweltschäden durch den Tiefseebergbau aushandeln und festlegen. Bis vor kurzem haben jedoch die Auswirkungen der Covid-19-Pandemie den Rat daran gehindert, persönlich zusammenzukommen, um die Verhandlungen voranzutreiben. Seit der Pandemie konnte der Rat nur insgesamt vier Wochen lang persönlich über die Verordnungen verhandeln und soll später in diesem Jahr noch einmal für zwei Wochen zusammenkommen.

Gleichzeitig wirft die Aufgabe, einen Schwellenwert für Umweltschäden festzulegen, auch Fragen der rechtlichen Haftung auf, erklärt der Rechtswissenschaftler Pradeep Singh, Fellow am IASS. „Wir können nur hoffen, dass die ISA versuchen wird, durch die Herausgabe von Standards und Leitlinien klarere Vorgaben zu machen, was ein ‚akzeptabler Schaden‘ und was ein ‚nicht akzeptabler Schaden‘ ist. Und welche Kriterien wir bei der Bewertung von Umweltschäden anwenden sollten“, sagt Singh. „Diese Dinge müssen vereinbart werden, damit Akteure, die die von der ISA gesetzten Grenzen überschreiten, für ihre Handlungen haftbar gemacht werden können. Leider ist die Frage der rechtlichen Haftung in den bisherigen Diskussionen weitgehend vernachlässigt worden“, erklärt Singh.

Bergbau muss allen Menschen zugutekommen
Ein Hauptanliegen derjenigen, die die Bergbauvorschriften (zusammenfassend als Bergbaugesetz bezeichnet) ausarbeiten, ist, dass der Tiefseebergbau auf dem internationalen Meeresboden zum Nutzen der gesamten Menschheit erfolgen muss. Da die Verabschiedung der Vorschriften den Weg für die Aufnahme des kommerziellen Bergbaus ebnen würde, müssen die Mitgliedstaaten darauf vertrauen können, dass das von ihnen gebilligte Regime tatsächlich den Interessen aller dient und nicht nur einer Handvoll von Akteuren.

In der Studie kommt Pradeep Singh zu dem Schluss, dass die so genannte Frist keine absolute Frist ist und sich ihr Versäumen aus rechtlicher Sicht als weitgehend folgenlos erweisen könnte. Ein übereiltes Einhalten der Frist, ohne sicherzustellen, dass die Regelung zunächst „zweckmäßig“ ist, könnte weitaus schwerwiegendere Folgen haben, einschließlich der Gefahr, dass die ISA gerichtlich belangt wird und ihren Ruf schädigt. Er fordert die ISA-Mitgliedsstaaten daher dringend auf, sich die nötige Zeit für die Entwicklung eines robusten und vorsorglichen Systems zu nehmen, und rät dazu: „Die ISA sollte sich nicht zu sehr unter Druck gesetzt fühlen, die Verordnungen fertig zu stellen, insbesondere wenn dies bedeutet, dass minderwertige, inkohärente oder unvollständige Anforderungen eingeführt werden, um die gefühlte Frist einzuhalten.“

Gleichzeitig ist die Genehmigung eines Arbeitsplans nicht automatisch oder garantiert, wenn die Frist verpasst und ein Antrag auf Nutzung eingereicht wird. Der ISA-Rat könnte einen solchen Antrag ablehnen, wenn Bedenken hinsichtlich des Schutzes der Meeresumwelt vor den schädlichen Auswirkungen der Bergbautätigkeiten im Rahmen des Plans oder hinsichtlich der Angemessenheit der Umweltinformationen und -maßnahmen wie Folgenabschätzungen oder Überwachung bestehen. „Die Uhr tickt schnell und die Frist rückt näher, aber es gibt keinen Grund zur Eile“, fügt er hinzu.

Hintergrundmaterial zu dieser Pressemitteilung:
Abschnitt 1 Absatz 15 lautet wie folgt in einer aus dem Englischen übersetzen Version:
Die [ISA] arbeitet gemäß Artikel 162 Absatz 2 Buchstabe o) Ziffer ii) des Übereinkommens [RRP] aus, die auf den in den Abschnitten 2, 5, 6, 7 und 8 dieses Anhangs enthaltenen Grundsätzen beruhen, sowie alle zusätzlichen [RRP], die zur Erleichterung der Genehmigung von Arbeitsplänen für Explorations- oder Abbauarbeiten erforderlich sind, und nimmt sie gemäß den folgenden Unterabsätzen an:
(a) Der Rat kann eine solche Ausarbeitung jederzeit vornehmen, wenn er der Auffassung ist, dass alle oder einige dieser [RRP] für die Durchführung von Tätigkeiten im Gebiet erforderlich sind, oder wenn er feststellt, dass eine kommerzielle Nutzung unmittelbar bevorsteht, oder auf Ersuchen eines Staates, dessen Staatsangehöriger beabsichtigt, die Genehmigung eines Arbeitsplans für den Abbau zu beantragen;
(b) Wird ein Ersuchen von einem unter Buchstabe a) genannten Staat gestellt, so schließt der Rat gemäß Artikel 162 Absatz 2 Buchstabe o) des Übereinkommens die Annahme solcher [RRP] innerhalb von zwei Jahren nach dem Ersuchen ab;
(c) Hat der Rat die Ausarbeitung der [RRP] für die Nutzung nicht innerhalb der vorgeschriebenen Frist abgeschlossen und ist ein Antrag auf Genehmigung eines Arbeitsplans für die Nutzung anhängig, so prüft und genehmigt er diesen Arbeitsplan gleichwohl vorläufig auf der Grundlage der Bestimmungen des Übereinkommens und der [RRP], die der Rat gegebenenfalls vorläufig angenommen hat, oder auf der Grundlage der im Übereinkommen enthaltenen Normen und der in dieser Anlage enthaltenen Bedingungen und Grundsätze sowie des Grundsatzes der Nichtdiskriminierung unter den Vertragspartnern.

Wissenschaftliche Ansprechpartner:
Pradeep Singh
E-Mail: pradeep.singh@iass-potsdam.de
Tel.: +49 331 28822 340

Originalpublikation:
Pradeep Singh: The Invocation of the ‘Two-Year Rule’ at the International Seabed Authority: Legal Consequences and Implications, The International Journal of Marine and Coastal Law, 07/2022. DOI: https://doi.org/10.1163/15718085-bja10098

Weitere Informationen:
https://www.iass-potsdam.de/de/news/countdown-zum-tiefseebergbau-laeuft

(nach oben)


Wie verlässlich sind Corona-Schnelltests bei der Omikron-Variante?

Kirstin Linkamp Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg
Eine groß angelegte klinische Studie mit mehr als 35.000 durchgeführten Paralleltestungen am Universitätsklinikum Würzburg zeigt, dass Antigen-Schnelltests eine Schwäche bei der Erkennung von Omikron-Infektionen haben.

Würzburg. Neben Impfen gehören Abstandhalten, Lüften, Maskentragen und Testen zu den wichtigsten Schutzmaßnahmen gegen die nächste, für den Herbst erwartete Corona-Welle. Große Hoffnung liegt wieder auf den unkomplizierten, weithin verfügbaren und kostengünstigen Antigen-Schnelltests, die vielen Aktivitäten Tür und Tor öffnen. Dass man sich bei einem negativen Schnelltest aber nicht immer in Sicherheit wiegen darf, zeigt die aktuellste am Universitätsklinikum Würzburg in Kooperation mit der Universität Würzburg und der Universität Greifswald durchgeführte Studie, die jetzt im Journal Clinical Microbiology and Infection veröffentlicht wurde (https://doi.org/10.1016/j.cmi.2022.08.006)

In der bisher weltweit größten veröffentlichten klinischen Studie zu Antigen-Schnelltests hat das Team um Isabell Wagenhäuser und Dr. Manuel Krone die Sensitivität von Antigen-Schnelltests bei verschiedenen Varianten von SARS-CoV-2, darunter die aktuell vorherrschende Omikron-Variante, verglichen. Insgesamt wurden zwischen November 2020 und Januar 2022 bei 26 940 Personen 35 479 Parallel-Proben entnommen.

Ergebnis: Von 426 SARS-CoV-2-positiven PCR-Proben waren im Schnelltest nur 164 positiv. Das entspricht einer Sensitivität von lediglich 38,50 Prozent. Bei der derzeit vorherrschenden Omikron-Variante schlugen sogar nur 33,67 Prozent an. Beim Wildtyp zeigten immerhin 42,86 Prozent der Schnelltests einen positiven Befund.

Sensitivität hängt von Viruslast ab
„Wir konnten erwartungsgemäß beobachten, dass mit abnehmender Viruslast auch die Empfindlichkeit der Schnelltests abnahm“, berichtet Isabell Wagenhäuser. „Doch gerade bei einer hohen Viruslast wurden Omikron-Infektionen durch Antigen-Schnelltests schlechter erkannt.“ Studienleiter Manuel Krone fügt hinzu: „Die Viruslast, bei der Schnelltests mit einer Wahrscheinlichkeit von 50 Prozent anschlagen, war bei Omikron-Infizierten 48-fach erhöht gegenüber dem Wildtyp-Virus. Diese zuvor in Laborstudien beobachtete Verringerung der Sensitivität konnten wir erstmals im klinischen Alltag nachweisen.“

Obwohl all diese Aspekte die Verwendung von Antigen-Schnelltests weiter einschränken, seien sie dem Autorenteam zufolge nach wie vor ein unersetzliches Diagnoseinstrument für ein schnelles, großflächiges SARS-CoV-2-Screening. Manuel Krone: „Schnelltests sind kein adäquater Ersatz für PCR-Untersuchungen bei symptomatischen Personen. Doch sie können potentielle Superspreader herausfiltern und somit dazu beitragen, die nächste Infektionswelle einzudämmen.“

Wissenschaftliche Ansprechpartner:
Manuel Krone, krone_m@ukw.de

Originalpublikation:
I Wagenhäuser, K Knies, D Hofmann, V Rauschenberger, M Eisenmann, J Reusch, A Gabel, S Flemming, O Andres, N Petri, M Topp, M Papsdorf, M McDonogh, R Verma-Führing, A Scherzad, D Zeller, H Böhm, A Gesierich, A K Seitz, M Kiderlen, M Gawlik, R Taurines, T Wurmb, R-I Ernestus, J Forster, D Weismann, B Weißbrich, L Dölken, J Liese, L Kaderali, O Kurzai, U Vogel, M Krone, Virus variant specific clinical performance of SARS-CoV-2 rapid antigen tests in point-of-care use, November 2020 to January 2022, Clinical Microbiology and Infection, 2022, doi.org/10.1016/j.cmi.2022.08.006.

(nach oben)


Grüner Wasserstoff aus Offshore-Windkraft

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
H2Mare ist eines von drei Wasserstoff-Leitprojekten, die vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt bis zu 740 Millionen Euro gefördert werden. Bei H2Mare wird innerhalb von vier Jahren gemeinsam mit rund 32 Partnern aus Wissenschaft und Industrie die Erzeugung von grünem Wasserstoff und Folgeprodukten mit Offshore-Windkraft untersucht. Mit vier seiner Institute unterstützt das Helmholtz-Zentrum Hereon die Technologieentwicklung für eine nachhaltige und umweltfreundliche Energieproduktion.

Um die Treibhausgasneutralität bis 2045 zu erreichen, muss Deutschland seinen CO2-Fußabdruck drastisch reduzieren. Die Produktion von grünem Wasserstoff, gewonnen aus erneuerbaren Energien, kann dazu einen wesentlichen Beitrag leisten. Der flexible Energieträger und von ihm abgeleitete Produkte wie Ammoniak, Methanol und synthetische Kraftstoffe – Power-to-X (PtX)-Produkte genannt – können die erzeugte überschüssige Energie speichern. Sie können etwa in der Industrie oder im Mobilitätssektor genutzt werden und somit fossile Brennstoffe ersetzen.

Für die Herstellung von grünem Wasserstoff weisen Offshore-Windparks ein großes Potential auf, denn auf dem Meer stehen große Flächen mit beständigerem Wind zur Verfügung und es gibt weniger Konflikte um die Nutzung als an Land. Um dieses Potential zukünftig zu nutzen, wird in H2Mare die direkte Produktion von Wasserstoff und anderen PtX-Produkten in maritimer Umgebung erforscht. Dies bietet auch die Chance, die Herausforderung der Netzanbindung zu umgehen und die fluktuierende erneuerbare Energie speicherbar und transportfähig zu machen und damit die Stromnetze dauerhaft zu entlasten. Das Hereon ist an zwei Verbundprojekten von H2Mare beteiligt: Das Projekt „PtX-Wind“ entwickelt und testet Möglichkeiten einer Plattform im offenen Meer, auf der aus Offshore-Windenergie direkt Wasserstoff und PtX-Produkte hergestellt werden. Das zweite Verbundprojekt mit Hereon-Beteiligung heißt „TransferWind“ und widmet sich der Umsetzung der entwickelten Technologien und dem Wissensaustausch zwischen Wissenschaft, Politik, Wirtschaft und Gesellschaft.

Die Offshore-Produktion von Wasserstoff und anderen PtX-Produkten gilt als eine der Zukunftstechnologien für die Energiewende und kann zudem die Abhängigkeit von Energieimporten verringern. Doch es gibt noch viele offene Fragen und Herausforderungen. Diese beziehen sich unter anderem auf die Umweltauswirkungen, den Betrieb und die Nachhaltigkeit der Plattform, Kosten und Wirtschaftlichkeit sowie die gesellschaftliche Akzeptanz. Vier verschiedene Hereon-Institute tragen dazu bei, diese Fragen im Laufe des Projekts zu beantworten: das Institut für Membranforschung, das Institut für Umweltchemie des Küstenraumes, das Institut für Küstensysteme – Analyse und Modellierung und das Climate Service Center Germany (GERICS).

Vier Institute – viele Aufgaben
Das Institut für Membranforschung stellt sich der Herausforderung, langzeitstabile Membranen zur Meerwasseraufbereitung für Elektrolyseverfahren herzustellen. Das sogenannte Fouling auf der Membranoberfläche muss minimiert werden. Das bedeutet, die Membranen chemisch so zu modifizieren, dass die Bildung eines Biofilms reduziert wird. „Wir werden für diesen Prozess Membranen mit verbesserten Eigenschaften entwickeln, um das Meerwasser für die verschiedenen Prozesse aufzubereiten“, sagt Dr. Volkan Filiz, Abteilungsleiter am Institut.

Das Institut für Umweltchemie des Küstenraumes bringt vor allem chemisch-analytische Erfahrung zur Untersuchung von Schadstoffen in marinen Umweltproben ein. Das hilft, mögliche Emissionen der Offshore-Plattformen wie (Schwer-)Metalle oder organische Schadstoffe frühzeitig zu benennen und folglich Emissionen weiter zu verringern. „Emissionen können etwa aus Abwasserreinigungsanlagen, Seekühlwassersystemen, Brandschutzsystemen, Öleinleitungen, vermehrtem Schiffsverkehr oder durch die notwendigen Korrosionsschutzmaßnahmen der Bauwerke entstehen“, sagt Dr. Daniel Pröfrock, Abteilungsleiter am Institut.

Das Institut für Küstensysteme – Analyse und Modellierung untersucht die Wetter- und Umweltbedingungen, um auf dieser Grundlage Sicherheitskonzepte zu erarbeiten. „Dafür erstellen wir Daten, die eine Beurteilung der Gefährdung der Plattformen und des Abtransportes der PtX-Produkte ermöglichen. Diese Daten umfassen die Windgeschwindigkeiten und Windrichtungen sowie den Seegang und Strömungsverhältnisse“, sagt Dr. Beate Geyer, Küstenforscherin am Institut.

Das GERICS beschäftigt sich mit der Frage, welchen möglichen Einfluss die Herstellung von Wasserstoff und anderen PtX-Produkten auf dem Meer auf die regionale Bevölkerung und andere Interessensgruppen, wie etwa Fischerei, Naturschutz oder Tourismus hat. Damit verbunden untersuchen die Forschenden auch die Akzeptanz für eine Offshore PtX-Plattform. „Wir setzen auf den Dialog mit den Beteiligten. Das erlaubt, die verschiedenen Positionen offenzulegen und sie gemeinsam mit Projektpartnern zu diskutieren“, sagt Dr. Paul Bowyer, Abteilungsleiter am Institut.

Große Herausforderungen, große Ziele
Die Ziele, die H2Mare verfolgt, sind Voraussetzungen zu schaffen, um klimaneutrale und leicht transportierbare Energieträger offshore zu produzieren, ins Gespräch zu kommen mit den Akteuren vor Ort, Insellösungen zu erarbeiten, damit der Anschluss an das Stromnetz auf See entfallen kann. Außerdem sollen die Erfahrungen, die in die Entwicklung einer serienreifen PtX-Produktionsplattform einfließen, auch Anwendungen in anderen Ländern und Kontexten finden. Daher wird das Projekt nicht nur den Aufbau der deutschen Wasserstoffwirtschaft unterstützen, sondern bietet auch das Potenzial, einen globalen Beitrag zur Reduktion des CO2-Fußabdruckes zu liefern.

Wissenschaftliche Ansprechpartner:
Dr. Paul Bowyer I Helmholtz-Zentrum Hereon I Climate Service Center Germany I T: +49 (0) 40 226338-427 I paul.bowyer@hereon.de I www.hereon.de

Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/projects/h2mare

(nach oben)


Es ist nie zu spät: Rauchstopp senkt Herz-Kreislauf-Risiko auch nach einem ersten Herzinfarkt noch erheblich.

Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Ein aktueller Cochrane Review zeigt, dass es sich auch nach einem ersten Herzinfarkt noch lohnt, mit dem Rauchen aufzuhören: Das Risiko eines weiteren Infarkts oder Schlaganfalls lässt sich dadurch um rund ein Drittel senken.

Über ein Drittel aller Todesfälle in Deutschland sind auf kardiovaskuläre Erkrankungen (cardiovascular disease, CVD) zurückzuführen, die sich insbesondere in Form von Herzinfarkten und Schlaganfällen manifestieren. Zu den wichtigsten beeinflussbaren Risikofaktoren für CVD gehört neben der Ernährung das Rauchen – Schätzungen zufolge ist das Tabakrauchen für rund jeden zehnten Todesfall durch CVD verantwortlich.

Dabei ist es nie zu spät, um mit dem Rauchen aufzuhören: Wie auch das Risiko für Lungenkrebs, so sinkt auch das kardiovaskuläre Risiko nach einem Rauchstopp wieder deutlich ab. Dass sich dies selbst dann noch lohnt, wenn man bereits einen ersten Herzinfarkt erlitten hat, belegt die Evidenz aus dem eben erschienenen Cochrane Review „Rauchentwöhnung zur Sekundärprävention von Herz-Kreislauf-Erkrankungen“ auf Basis von 68 Studien mit insgesamt mehr als 80.000 Teilnehmenden.

Die Kernaussagen des Reviews:

CVD-Risiko:
Menschen mit koronarer Herzerkrankung, die mit dem Rauchen aufhören, verringern wahrscheinlich ihr Risiko, einen Herzinfarkt oder Schlaganfall zu erleiden und daran zu sterben um rund ein Drittel. Die Autor*innen schätzten die Vertrauenswürdigkeit der Evidenz nach GRADE hierfür als moderat (für CVD-Todesfälle) bzw. gering (für nicht tödliche CVD-Ereignisse) ein.

Lebensqualität:
Viele Raucher lieben ihr Laster und fürchten einen Verlust an subjektiver Lebensqualität, wenn sie damit aufhören. In den acht Studien, die den Endpunkt „Lebensqualität“ mindestens 6 Monate lang nachverfolgten, bestätigte sich diese Sorge nicht. Vielmehr fühlten sich die Studienteilnehmenden, die sich zum Rauchstopp entschlossen, langfristig sogar geringfügig besser als jene, die weiter rauchten.

„Unsere Ergebnisse belegen, dass das Risiko sekundärer CVD-Ereignisse bei denjenigen, die mit dem Rauchen aufhören, im Vergleich zu denjenigen, die das Rauchen fortsetzen, sinkt, und dass sich die Lebensqualität als Folge des Rauchstopps verbessert“, schlussfolgern die Autor*innen. „Wir hoffen, dass diese Ergebnisse dazu mehr Menschen zu einem Rauchstopp motivieren und Gesundheitspersonal dazu ermutigen, Patient*innen beim Aufhören aktiver zu unterstützen.“

Originalpublikation:
Wu AD, Lindson N, Hartmann-Boyce J, Wahedi A, Hajizadeh A, Theodoulou A, Thomas ET, Lee C, Aveyard P. Smoking cessation for secondary prevention of cardiovascular disease. Cochrane Database of Systematic Reviews 2022, Issue 8. Art. No.: CD014936. DOI: 10.1002/14651858.CD014936.pub2

Weitere Informationen:
https://www.cochrane.de/news/es-ist-nie-zu-spaet-rauchstopp-senkt-auch-nach-eine…

(nach oben)


Grüne Wasserstofftechnologien industriell nutzbar machen: deutsch-neuseeländisches Projekt zur Wasserelektrolyse

Christian Wißler Pressestelle
Universität Bayreuth
Die Gewinnung von „grünem Wasserstoff“ durch Elektrolyse aus regenerativem Strom ist eine Schlüsseltechnologie der Energiewende. Ein ungelöstes Problem ist bislang der Bedarf an teuren, schwer verfügbaren Edelmetallen. Hier setzt das zum 1. August 2022 gestartete Projekt „HighHy“ an, in dem die Universität Bayreuth mit dem Fraunhofer IFAM und drei Universitäten in Neuseeland zusammenarbeitet. Gemeinsam wollen die Partner ein kostengünstiges und ressourcenschonendes Verfahren zur Wasserelektrolyse entwickeln, das Nickel und Mangan als Katalysatormaterialien verwendet. Das BMBF fördert das Vorhaben für drei Jahre, die Universität Bayreuth erhält insgesamt rund 240.000 Euro.

Im Juni 2021 hatte das Bundesministerium für Bildung und Forschung (BMBF) den Förderaufruf „Forschungskooperation Grüner Wasserstoff mit Neuseeland“ gestartet. Drei Projekte, darunter „HighHy“, wurden vor kurzem zur Förderung ausgewählt. „Deutschland und Neuseeland haben ein starkes Interesse an der Umstellung ihrer Energiesysteme auf nachhaltigere und effizientere Technologien. Ein Schwerpunkt der bilateralen Zusammenarbeit liegt auf der grünen Wasserstofftechnologie, die ein wesentlicher Bestandteil der deutschen Dekarbonisierungsstrategie ist. Die neuseeländischen Universitäten Canterbury, Auckland und Wellington, das Fraunhofer-Institut für Fertigungstechnik und angewandte Materialforschung in Dresden sowie die Universität Bayreuth, die 2020 eine eigene Wasserstoffstrategie auf den Weg gebracht hat, sind forschungsstarke und hochmotivierte Partner, die gemeinsam die grüne Wasserstofftechnologie mit innovativen Lösungen voranbringen wollen“, erklärt die Bayreuther Projekt-Koordinatorin Prof. Dr.-Ing. Christina Roth, Inhaberin des Lehrstuhls für Werkstoffverfahrenstechnik an der Fakultät für Ingenieurwissenschaften. In die bevorstehenden Forschungsarbeiten sollen auch Studierende, Doktorand*innen und Postdocs beider Länder einbezogen werden. „Ich hoffe sehr, dass es uns gelingt, den wissenschaftlichen Nachwuchs in Deutschland und Neuseeland für elektrochemische Energietechnologien zu begeistern“, sagt Roth.

Bei der Wasserelektrolyse wird Wasser in Sauerstoff und Wasserstoff aufgespalten. Als „grün“ wird der Wasserstoff bezeichnet, wenn die für die Aufspaltung verwendete Elektrizität aus nachhaltigen Quellen wie Sonne und Wind stammt. Ausgangspunkt des Projekts „HighHy“ ist die AEM-Elektrolyse. Hierbei handelt sich um eine noch junge, vielversprechende Technologie auf der Basis von Anionenaustauschmembranen (AEM = Anion Exchange Membran). Sie wird allerdings durch die unzureichende Geschwindigkeit der Sauerstoff-Entwicklungs-Reaktion (OER) behindert. Verläuft diese Reaktion zu langsam, hat dies nachteilige Auswirkungen auf den Prozess der Wasserstofferzeugung insgesamt. Aus diesem Grund hat sich die AEM-Elektrolyse noch nicht als industrielles Verfahren etablieren können. Daher wollen die deutschen und neuseeländischen Forschungspartner im Projekt „HighHy“ hochaktive Katalysatoren entwickeln, die einen raschen und zuverlässigen Ablauf der Sauerstoff-Entwicklungs-Reaktion gewährleisten. Entscheidend ist, dass diese Katalysatoren keine seltenen Edelmetalle wie Iridium enthalten, sondern mit Nickel und Mangan – zwei gut verfügbaren und kostengünstigen Metallen – arbeiten.

Unter der Leitung von Prof. Dr.-Ing. Christina Roth wird der Lehrstuhl für Werkstoffverfahrenstechnik grundlegende Forschungsbeiträge zur Entwicklung der Katalysatormaterialien und zu neuen Methoden der Elektrodenherstellung leisten. In Zusammenarbeit mit dem Fraunhofer IFAM und den neuseeländischen Partnern sollen hocheffiziente Anoden konzipiert, über umweltfreundliche Synthesewege hergestellt und unter realen Arbeitsbedingungen direkt im Betrieb getestet werden. Gemeinsames Ziel ist es, die AEM-Elektrolyse so weiterzuentwickeln, dass sie im Industriemaßstab zur Gewinnung von grünem Wasserstoff eingesetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Christina Roth
Lehrstuhl für Werkstoffverfahrenstechnik
Universität Bayreuth
Tel.: +49 (0)921 / 55-7200 und -7201
E-Mail: christina.roth@uni-bayreuth.de

(nach oben)


Land Niedersachsen fördert die vorklinische Entwicklung des optischen Cochlea Implantats

Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität
Das Land Niedersachsen und die VolkswagenStiftung bewilligen Forschenden der UMG und des Göttinger Exzellenzclusters Multiscale Bioimaging Mittel über 1 Million Euro aus dem „SPRUNG“ (vormals: „Niedersächsisches Vorab“) zur Entwicklung des optischen Cochlea-Implantats für die Wiederherstellung des Hörens beim Menschen.

(mbexc/umg) Die Schwerhörigkeit ist die häufigste Sinnesbehinderung des Menschen: Laut Weltgesundheitsorganisation (WHO) leiden 466 Mio. Menschen (davon 34 Mio. Kinder) weltweit an einer behandlungsbedürftigen Schwerhörigkeit. Ursächlich für die häufigste Form der Schwerhörigkeit sind defekte oder abgestorbene Hörsinneszellen. Bisher ist es nicht möglich, diese Sinneszellen zu reparieren oder wiederherzustellen. Die klinische Versorgung beruht daher auf Hörgeräten bei leicht- bis mittelgradiger Schwerhörigkeit und Cochlea-Implantaten bei hochgradiger Schwerhörigkeit und Taubheit. Elektrische Cochlea-Implantate (eCIs) werden weltweit von mehr als einer Million Menschen genutzt und ermöglichen den Betroffenen ein Sprachverstehen in ruhiger Umgebung. Doch Nutzer*innen haben Schwierigkeiten, Sprache bei Hintergrundgeräuschen zu verstehen, den emotionalen Tonfall von Sprache zu interpretieren oder Melodien in Musik zu genießen. Daher besteht ein großer klinischer Bedarf, das Hören mit CI zu verbessern.

Das Team um Prof. Dr. Tobias Moser, Direktor des Instituts für Auditorische Neurowissenschaften der Universitätsmedizin Göttingen (UMG) und Sprecher des Exzellenzclusters Multiscale Bioimaging (MBExC), erforscht intensiv die Weiterentwicklung des CI. Für deren Pionierarbeiten zur Etablierung des optischen Cochlea Implantats, das das herkömmliche eCI mit moderner Optogenetik kombiniert, erlangten er und sein Team international Aufmerksamkeit und Anerkennung. Die Vision vom „Hören mit Licht“ und die bisherigen Arbeiten zu seiner Umsetzung überzeugte das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung. Der vielversprechende Forschungsansatz erhält eine Förderung über „SPRUNG“ (vormals „Niedersächsisches Vorab“) in Höhe von über 1 Millionen Euro. „Ausdrücklich danken möchte ich dem Land Niedersachsen für die Unterstützung. Ministerpräsident Stephan Weil hat bei seinem Besuch der UMG großes Interesse an diesem translationalen Projekt bekundet und die nun gewährte Landesförderung ist ein sehr wichtiger Schritt bei der Vorbereitung der klinischen Prüfung“, sagt Prof. Moser.

Das optische Cochlea-Implantat (oCI)
Regenerative Ansätze für die Wiederherstellung des Hörens, die den Ersatz von verlorenen Haarsinneszellen oder Hörnervenzellen mittels Pharmakologie, Gen- oder Zell-Therapie anstreben, konnten bislang keine signifikante Hörverbesserung erzielen. „Bevor solche Ansätze die Wiederherstellung des Hörens möglich machen werden, sind die meisten mittel- bis hochgradig Schwerhörigen oder Tauben vermutlich auch in den kommenden ein bis drei Jahrzehnten auf Hörgeräte und CIs als breit anwendbare Versorgungslösungen angewiesen, da sie unabhängig von der genauen Krankheitsursache hilfreich sind“, sagt Prof. Moser.

Das elektrische Cochlea-Implantat (eCI) wird bereits seit 20 Jahren zur Wiederherstellung des Hörens bei ca. einer Million Patient*innen erfolgreich eingesetzt und ist somit die erfolgreichste Neuroprothese. Es umgeht geschädigte Hörsinneszellen, indem es Sprache und Geräusche in elektrische Pulse umwandelt. Je nach Frequenzbereich aktiviert der eintreffende Schall einzelne Elektroden des Implantats. Diese stimulieren wiederum den Hörnerv, was vom Gehirn dann als Geräuscheindruck interpretiert wird. Die breite Stromausbreitung von jeder der 12 bis 24 Elektroden führt jedoch zu einer nicht-selektiven Anregung der Nervenzellen und so zu einer schlechten Wahrnehmung von Tonhöhen. Auf diese Weise kann zwar das Hören an sich wieder hergestellt werden, der Höreindruck bleibt aber noch weit entfernt vom natürlichen Hören.

Ein interdisziplinäres Team von Wissenschaftler*innen am Göttingen Campus (mit MBExC, SFB889, Institut für Auditorische Neurowissenschaften der UMG, Deutsches Primatenzentrum, Leibniz-Institut für Primatenforschung, Max-Planck-Institut für Multidisziplinäre Naturwissenschaften) setzt auf die Optogenetik als moderne Schlüsseltechnologie für das „Hören mit Licht“. Da Licht räumlich wesentlich besser begrenzt werden kann als elektrische Reize, verspricht die optische Stimulation des Hörnervs, die Grenzen der derzeitigen elektrischen CIs zu überwinden. Durch die Kombination eines optischen CI mit einer Gentherapie wird eine fundamentale Verbesserung der Frequenzauflösung erreicht. Dabei wird die Gentherapie genutzt, um einen Licht-aktivierbaren Ionenkanal („Lichtschalter“) in Spiralganglionneuronen der Cochlea einzuschleusen und diese lichtempfindlich zu machen. Was im Tiermodell bereits erfolgreich war, gilt es nun für die Anwendung beim Menschen weiter zu entwickeln. Das geplante 64-kanalige optische CI soll es Nutzer*innen ermöglichen, Sprache auch in geräuschreicher Umgebung zu verstehen, Sprachmelodien zu erkennen und auch Melodien zu genießen. Den präklinischen Machbarkeitsnachweis sowohl für Gentherapie der Hörschnecke als auch für das optische CI als neues Medizinprodukt haben Moser und sein Team in jahrelanger Forschung (seit 2007) bereits erbracht und in mehr als zwanzig wissenschaftlichen Publikationen dokumentiert. Bis zum geplanten Start der ersten klinischen Studie im Jahr 2026 besteht jedoch noch ein erheblicher Forschungsbedarf. Ein Teil dieser Arbeit soll durch die bewilligten Fördermittel finanziert werden.

Das Göttinger Exzellenzcluster 2067 Multiscale Bioimaging: Von molekularen Maschinen zu Netzwerken erregbarer Zellen (MBExC) wird seit Januar 2019 im Rahmen der Exzellenzstrategie des Bundes und der Länder gefördert. Mit einem einzigartigen interdisziplinären Forschungsansatz untersucht das MBExC die krankheits-relevanten Funktionseinheiten elektrisch aktiver Herz- und Nervenzellen, von der molekularen bis hin zur Organebene. Hierfür vereint MBExC zahlreiche universitäre und außeruniversitäre Partner am Göttingen Campus. Das übergeordnete Ziel ist: den Zusammenhang von Herz- und Hirnerkrankungen zu verstehen, Grundlagen- und klinische Forschung zu verknüpfen und damit neue Therapie- und Diagnostikansätze mit gesellschaftlicher Tragweite zu entwickeln.

WEITERE INFORMATIONEN
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Auditorische Neurowissenschaften
Prof. Dr. Tobias Moser
Telefon 0551 / 39-63071, tmoser@gwdg.de

Exzellenzcluster Multiscale Bioimaging (MBExC)
Dr. Heike Conrad (Kontakt – Pressemitteilungen)
Telefon 0551 / 39-61305, heike.conrad@med.uni-goettingen.de

Wissenschaftliche Ansprechpartner:
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Auditorische Neurowissenschaften
Prof. Dr. Tobias Moser
Telefon 0551 / 39-63071
tmoser@gwdg.de

Weitere Informationen:
http://zum Institut für Auditorische Neurowissenschaften: www.auditory-neuroscience.uni-goettingen.de
http://zum Exzellenzcluster Multiscale Bioimaging (MBExC): https://mbexc.de/
http://zum Sonderforschungsbereich 889: http://www.sfb889.uni-goettingen.de
http://zur Volkswagenstiftung: https://www.volkswagenstiftung.de
http://zu „SPRUNG“: https://www.volkswagenstiftung.de/unsere-foerderung/sprung

(nach oben)


Das Auto einfach stehen lassen

Anna Riesenweber Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH
Die Städte Kerpen und Troisdorf und das Wuppertal Institut suchen Menschen, die im September für zwei Wochen den Schlüssel abgeben
 
Viele Arbeitnehmer*innen pendeln täglich über die Stadtgrenzen hinaus zur Arbeit. Der Pendelverkehr – oft mit dem eigenen Auto – verursacht erhebliche Verkehrs- und Umweltprobleme. Doch wie lässt sich der Autoverkehr reduzieren? Eine Lösung sind Mobilstationen, die komfortable, integrierte Wegeketten im Umweltverbund fördern. Die Kolpingstadt Kerpen und die Stadt Troisdorf machen vor wie es gelingt und wollen zeigen, wie es als Blaupause für weitere Städte dienen kann.

Im Rheinland verknüpfen die Mobilstationen verschiedene Verkehrsmittel an einem Ort und ermöglichen es Fahrgästen, flexibel etwa zwischen Öffentlichem Personennahverkehr (ÖPNV) und Leih-Angeboten (Sharing) zu entscheiden.
Die Mobilstationen an den Bahnhöfen Troisdorf und Spich sind die ersten im Stadtgebiet. Weitere acht sind bereits in Planung – unter anderem am Ursulaplatz und am Rathaus. Auch die Bahnhöfe Horrem, Sindorf und Buir in der Kolpingstadt Kerpen sind als Mobilstationen ausgebaut, wie auch sämtliche zentralen Bushaltepunkte des Stadtgebiets. Im Rahmen des Feinkonzepts des Rhein-Erft-Kreises erfolgt zudem ein sukzessiver Aufbau weiterer Mobilstationen in den kommenden Jahren. Im gesamten Rheinland sollen in den nächsten Jahren dann hunderte Mobilstationen entstehen. Auffällige Informationsstellen in Form einer Stele im einheitlichen mobil.nrw-Design sorgen dafür, dass die Stationen leicht wiedererkennbar sind.

Aktion „Gib den Schlüssel ab! Zwei Wochen ohne eigenes Auto”


Um der Bevölkerung diese vielfältigen Möglichkeiten näher zu bringen, nehmen die Städte Kerpen und Troisdorf an einer wissenschaftlichen Studie teil. Das Modellprojekt „Mobilstationen als intermodale Schnittstellen im Umweltverbund in der Stadtregion Köln“ – kurz MOST RegioKöln – soll helfen, die Nutzungsbedingungen von Mobilstationen besser zu erfassen und von den Erfahrungen zu lernen. Auf Basis der Erkenntnisse werden Empfehlungen zur Übertragbarkeit entwickelt, um den Ausbau von Mobilstationen auch in anderen Pendlerregionen in NRW und ganz Deutschland zu unterstützen.
 
„Mit der Studie wollen wir herausfinden, wie wir den Umstieg vom Auto auf den öffentlichen Verkehr, das Rad und Sharing-Mobilität erleichtern können. Die Ergebnisse sollen den Akteur*innen vor Ort helfen,  diese Verkehrsmittel schlau miteinander zu verknüpfen, damit Fahrgäste möglichst oft die Möglichkeit haben, das Auto stehen zu lassen“, sagt Thorsten Koska, Leiter des Projekts MOST RegioKöln und Co-Leiter des Forschungsbereichs Mobilität und Verkehrspolitik am Wuppertal Institut. 
 
Das Wuppertal Institut sucht in Kooperation mit der Kolpingstadt Kerpen und der Stadt Troisdorf interessierte Bürger*innen, die vom 12. bis zum 25. September symbolisch ihren Autoschlüssel abgeben. Mit einem kostenfreien „Rundum-Sorglos-Umsteige-Paket“ sollen sie als Alternative zum Auto die vielfältigen Angebote der Mobilstationen nutze, wie etwa ÖPNV, Car- und Bikesharing, Fahrradboxen, und davon mit dem Hashtag #DuGibstDenTonAn auf ihren öffentlichen Social-Media-Profilen berichten.
 
Mitmachen können alle Interessierten bis zum 31. August 2022, indem sie eine E-Mail an umsteigen@wupperinst.org schreiben – unter Angabe von Name, Alter, Wohnort, Beruf bzw. Tätigkeit sowie einem Foto und einer kurzen Beschreibung, warum sie mitmachen und wofür sie die Angebote vor allem nutzen möchten. Alternativ reicht auch ein Smartphone-Video, gepostet mit dem Hashtag #DuGibstDenTonAn, das diese Fragen beantwortet. Die eingesendeten Daten werden nur für interne Zwecke genutzt und nicht veröffentlicht. Das Wuppertal Institut wählt nach Ablauf der Bewerbungsfrist bis zu zehn Umsteiger*innen aus, berät diese, wie sie ohne Auto mobil(er) sein können und stattet sie mit ihrem persönlichen kostenlosen Rundum-Sorglos-Umsteige-Paket aus. Am Ende der Aktion ziehen die Umsteiger*innen ihr Fazit und nehmen an einem Auswertungsgespräch mit den Wissenschaftler*innen teil, welches in die Auswertung der Mobilitätsstudie einfließt.
 
Mobilitäts-Schnupper-Event an den Mobilstationen in Kerpen-Horrem und Troisdorf
Vom 22. August bis zum 23. September 2022 sollen alle Kerpener*innen und Troisdorfer*innen mithilfe der Kampagne #DuGibstDenTonAn motiviert werden, „ihre“ Mobilstationen kennenzulernen, die neuen Angebote auszuprobieren und sie in ihre Alltagsmobilität zu integrieren. Die Stadtverwaltungen freuen sich auf die Erfahrungsberichte der Bürger*innen in den Sozialen Medien unter dem Hashtag #DuGibstDenTonAn. Flyer und Plakate vermitteln die Kampagnenbotschaft: Mit den Mobilstationen gibst Du den Ton an – Du entscheidest, wie und wann Du fährst und bist 24/7 maximal flexibel! Zwei Aktionen laden zudem zum Ausprobieren ein:



– Am 16. September können Bürger*innen von 15 bis 19 Uhr an der Mobilstation Bahnhof Horrem (Bahnhofstraße 9, 50169 Kerpen) hautnah die Vorteile einer Mobilstation erleben. Der städtische Mobilitätsmanager Michael Strehling alle Menschen herzlich ein, vorbeizukommen und gemeinsam die neuen Mobilitäts-angebote kennenzulernen und auszuprobieren.

– Am 22. September haben Interessierte von 15 bis 19 Uhr Gelegenheit die Vorteile der Mobilstation am Troisdorfer Bahnhof (Poststraße 64, 53840 Troisdorf) zu erleben. Bürgermeister Alexander Biber lädt zusammen mit dem technische Beigeordneten Walter Schaaf, seinem Co-Dezernenten Thomas Schirrmacher und dem städtischen Mobilitätsmanager Daniel Euler alle Menschen herzlich ein, vorbeizukommen und gemeinsam die neuen Mobilitätsangebote kennenzulernen und auszuprobieren. An einem Glücksrad können Besucher*innen außerdem weitere Schnuppertickets gewinnen, beispielsweise für Bikesharing, Radboxen oder das örtliche Carsharing.
 
Über das Projekt MOST RegioKöln
Das Projektteam besteht aus Forschungs- und Praxispartner*innen, deren Kompetenzen sich ergänzen. Koordiniert wird das Projekt durch das Wuppertal Institut. Weitere Partner*innen sind der NVR – Nahverkehr Rheinland, das Institut für Landes- und Stadtentwicklungsforschung und die Bergische Universität Wuppertal. Im Unterauftrag wirken Jung Stadtkonzepte und tippingpoints – Agentur für nachhaltige Kommunikation am Projekt mit. Gefördert wird das Projekt mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Wirtschaftsministerium NRW. Gefördert wird das Projekt mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Wirtschaftsministerium NRW.

Wissenschaftliche Ansprechpartner:
https://wupperinst.org/c/wi/c/s/cd/657 – Thorsten Koska, Co-Leiter des Forschungsbereichs Mobilität und Verkehrspolitik

Originalpublikation:
https://wupperinst.org/a/wi/a/s/ad/7819 – Pressemitteilung auf der Website des Wuppertal Instituts

Weitere Informationen:
https://most-regio-koeln.de – Website MOST RegioKöln
https://www.mobil.nrw/mobilstationen – Infoportal mobil.nrw
https://wupperinst.org/p/wi/p/s/pd/939 – Projekt MOST RegioKöln
https://bit.ly/3QNvW8u – Download Onepager „Gib den Schlüssel ab!“
https://bit.ly/3JVt5Z0 – Download Infoflyer „Was ist eine Mobilstation?

(nach oben)


Partikel aus alltäglichen Wandfarben können lebende Organismen schädigen – Neuartige Membran zeigt hohe Filterleistung

Christian Wißler Pressestelle
Universität Bayreuth
Für Wand- und Deckenanstriche werden in Haushalten meistens Dispersionsfarben verwendet. Ein interdisziplinäres Forschungsteam der Universität Bayreuth hat jetzt zwei typische Dispersionsfarben auf ihre chemische Zusammensetzung hin analysiert und darin sehr viele feste Partikel entdeckt, die nur wenige Mikro- oder Nanometer groß sind. Untersuchungen an biologischen Testsystemen ergaben, dass diese Partikel lebende Organismen schädigen können. Mit einer neuartigen, an der Universität Bayreuth entwickelten Membran lassen sich diese Partikel aus dem Wasser herausfiltern, bevor sie in die Umwelt gelangen.

Inhaltsstoffe von Dispersionsfarben
Die Bayreuther Studie zu den Inhaltsstoffen der Dispersionsfarben und ihren möglichen Auswirkungen auf lebende Organismen ist in der Zeitschrift „Ecotoxicology and Environmental Safety“ erschienen. Sie basiert auf einer engen interdisziplinären Zusammenarbeit im Sonderforschungsbereich 1357 „Mikroplastik“ an der Universität Bayreuth. Für die Untersuchungen haben die Wissenschaftler*innen zwei handelsübliche, in Haushalten häufig verwendete Dispersionsfarben ausgewählt. Diese unterscheiden sich vor allem durch ihre Tropfeigenschaften, weil sie einerseits für Wandanstriche und andererseits für Deckenanstriche entwickelt wurden. Die beiden Farben haben einen Feststoffgehalt von 49 bzw. 21 Gewichtsprozent, der organische Anteil liegt bei 57 bzw. sieben Gewichtsprozent. Charakteristische feste Bestandteile im Mikro- oder Nanometerbereich sind Partikel aus Siliziumdioxid, Titandioxid und Kalziumkarbonat sowie Partikel aus verschiedenen Kunststoffen, vor allem Polyacrylat.

„Viele dieser winzigen Partikel gelangen zum Beispiel durch Abrieb der Farbschichten oder Verwitterung in die Umwelt. Unsere Untersuchung zeigt nun: Wenn Pinsel, Rollen, Abstreifgitter und Eimer, die beim Anstreichen von Wänden und Decken verwendet wurden, durch Auswaschen von Farbresten gereinigt werden, können die Partikel aus den Dispersionsfarben in Abwässer und damit auch in die Umwelt gelangen. Die Folgen für die Umwelt müssen gründlich untersucht werden, was angesichts der weltweiten Verbreitung von Dispersionsfarben und ihrer vielfältigen Materialzusammensetzung umso dringender erscheint. Deshalb haben wir uns nicht nur auf die chemische Untersuchung der Farbkomponenten beschränkt, sondern auch ihre Auswirkungen auf lebende Organismen und Zellen untersucht“, sagt Prof. Dr. Andreas Greiner, stellvertretender Sprecher des Sonderforschungsbereichs „Mikroplastik“.

Auswirkungen auf lebende Organismen
Für ihre biologischen Untersuchungen haben die Bayreuther Wissenschaftler*innen zwei in der Forschung bewährte Testsysteme ausgewählt: Wasserflöhe der Spezies Daphnia magna und eine Linie von Mauszellen. Maßgeblich für die Untersuchung der Wasserflöhe war ein Test nach OECD-Richtlinien für die Prüfung von Chemikalien. Bei diesem Test wird die Mobilität der Organismen betrachtet. Es stellte sich heraus, dass die Beweglichkeit der Tiere deutlich herabgesetzt war, wenn das Wasser einen hohen Anteil an gelösten und ungelösten anorganischen Nano- und Mikroplastikpartikeln enthielt. Bei den Mauszellen ließ sich eine Verringerung der Zellaktivität feststellen, die generell durch Partikel im Nanometerbereich verursacht wurde. Der Stoffwechsel in den Mauszellen wurde insbesondere durch Nanopartikel aus Titandioxid und Kunststoffen erheblich gestört.

„Unsere Forschungsarbeiten zeigen, dass die Inhaltsstoffe von Dispersionsfarben unterschiedlich starke Reaktionen in Organismen und Zellen hervorrufen können. Es lässt sich daher nicht ausschließen, dass die Inhaltsstoffe schädigend für die Umwelt sein könnten. Weitere Untersuchungen auf diesem Gebiet sind dringend erforderlich, zumal wir noch viel zu wenig darüber wissen, ob Wechselwirkungen zwischen Nanopartikeln aus Kunststoff und anorganischen Nanopartikeln zusätzliche Schädigungen auslösen können“, erklärt Prof. Dr. Christian Laforsch, Sprecher des Sonderforschungsbereichs „Mikroplastik“. „Es ist ebenso eine noch weitgehend ungeklärte Frage, wie die Inhaltsstoffe von Dispersionsfarben in verschiedenen Umweltkompartimenten – beispielsweise in der Luft, im Boden oder in Flüssen – mit anderen Stoffen wechselwirken. Schon heute ist aber klar, dass Dispersionsfarben nicht achtlos in der Umwelt entsorgt werden sollten“, sagt Prof. Dr. Ruth Freitag, Inhaberin des Lehrstuhls für Bioprozesstechnik an der Universität Bayreuth.

Eine neuartige Membran mit hohen Filterleistungen
Parallel zu den Untersuchungen von Dispersionsfarben und ihren möglichen Auswirkungen haben sich Forscher*innen unter der Leitung von Prof. Dr. Andreas Greiner einem weiteren Vorhaben gewidmet: Sie haben ein neues Verfahren entwickelt, mit dem potenziell umwelt- und gesundheitsschädliche Partikel aus Dispersions-Wandfarben aus dem Abwasser durch Filtration entfernt werden können. Dabei kommt eine im Elektrospinnverfahren hergestellte, aus funktionalisierten Fasern bestehende Membran zum Einsatz, die auf unterschiedliche Weisen mikro- und nanometergroße Partikel zurückhält. Einerseits sind die Poren der Membran so fein, dass Mikropartikel nicht hindurchgelassen werden. Andererseits führen Wechselwirkungen zwischen den Membranfasern und Nanopartikeln dazu, dass diese an der Membranoberfläche hängen bleiben, obwohl sie in die Poren hineinpassen würden. In beiden Fällen ist die Filterwirkung nicht mit einer raschen und großflächigen Verstopfung der Poren verbunden. Daher kann beispielsweise Wasser problemlos die Membran durchdringen und abfließen.

In der Zeitschrift „Macromolecular Materials and Engineering“ beschreiben die Bayreuther Wissenschaftler*innen die erfolgreiche Anwendung der Membran. Getestet wurden dabei auch die beiden Dispersionsfarben, die sich in der Studie als potenziell schädlich für lebende Organismen erwiesen hatten. Wie sich herausstellte, ist die Membran in der Lage, typische Farbkomponenten mit hoher Filterleistung zurückzuhalten – insbesondere Nanopartikel aus Titandioxid und Polyacrylat und Mikropartikel aus Kalziumkarbonat. „Im Alltag gelangen alle diese Farbkomponenten gemeinsam ins Abwasser. Hier mischen sie sich und ändern aufgrund ihrer Wechselwirkungen in manchen Fällen sogar ihre Strukturen und Eigenschaften. Daher haben wir die Filterleistung unserer elektrogesponnenen Membran gezielt an solchen Mischungen getestet. Die hohen Filterwirkungen, die wir dabei erzielt haben, zeigen: Dieses Verfahren hat ein großes Potenzial, wenn es darum geht, Wasser von Partikeln im Mikro- und Nanometerbereich zu reinigen, wie sie in weltweit handelsüblichen Farben enthalten sind“, sagt Greiner.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Greiner
Makromolekulare Chemie II
Sonderforschungsbereich 1357 „Mikroplastik“
Universität Bayreuth
Telefon: +49 (0)921 / 55-3399
E-Mail: andreas.greiner@uni-bayreuth.de

Originalpublikation:
Ann-Kathrin Müller, Julian Brehm, Matthias Völkl, Valérie Jérôme, Christian Laforsch, Ruth Freitag, Andreas Greiner: Disentangling biological effects of primary nanoplastics from dispersion paints’ additional compounds. Ecotoxicology and Environmental Safety (2022).
DOI: https://doi.org/10.1016/j.ecoenv.2022.113877

Ann-Kathrin Müller, Zhi-Kang Xu, Andreas Greiner: Filtration of Paint-Contaminated Water by Electrospun Membranes. Macromolecular Materials and Engineering (2022).
DOI: https://doi.org/10.1002/mame.202200238

(nach oben)


Schutz vor Corona: Erfahrung ist beim Immunsystem nicht immer ein Vorteil

Frederike Buhse Presse- und Öffentlichkeitsarbeit
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Bei der Corona-Impfung basiert eine gute Impfreaktion auf naiven Immunzellen, bereits existierende Gedächtniszellen sind eher nachteilig, wie ein Forschungsteam des Exzellenzclusters PMI zeigt.

Wer viele Infektionen mit gewöhnlichen Erkältungsviren durchgemacht hat, die ja auch zu den Coronaviren zählen, steht dadurch nicht besser da, was die Bekämpfung von COVID-19 angeht, sowohl nach Infektion mit SARS-CoV-2 als auch nach einer Corona-Impfung. „Wir haben bereits 2020 gezeigt, dass ein früherer Kontakt mit Erkältungsviren keinen Schutz vor COVID-19 bietet. In der Folgestudie konnten wir jetzt zeigen, dass dies auch für die Qualität der Impfreaktion nicht vorteilhaft ist“, erklärt Professorin Petra Bacher vom Institut für Immunologie der Christian-Albrechts-Universität zu Kiel (CAU) und dem Universitätsklinikum Schleswig-Holstein (UKSH), Campus Kiel. Gemeinsam mit Professor Alexander Scheffold, dem Leiter des Instituts für Immunologie, und weiteren Kolleginnen und Kollegen des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ (PMI) aus Kiel analysierte die Immunologin Blutproben von gesunden Personen vor und nach der Corona-Impfung. Das Ergebnis der jetzt in Immunity publizierten Studie: „Eine gute Immunantwort kommt aus dem naiven Repertoire an T-Zellen. Bereits vorhandene T-Gedächtniszellen, die SARS-CoV-2 erkennen, haben eher einen negativen Effekt.“ Das könnte erklären, warum bei alten Menschen die Immunreaktion nach Infektion oder Impfung oft schlechter verläuft.

Was macht eine gute Impfantwort aus?
T-Zellen, genau genommen, T-Helferzellen, sind die zentralen Organisatoren von Immunantworten. Jede einzelne erkennt über ihren „T-Zell-Rezeptor“ einen spezifischen Krankheitserreger. Naive T-Zellen, hatten noch keinen Kontakt mit einem Erreger. Bei einer Infektion oder Impfung werden nur die Erreger-spezifischen T-Zellen aktiviert und können sich zu Gedächtniszellen umwandeln. Diese sorgen bei erneutem Kontakt mit dem Erreger für eine schnelle Immunreaktion, das Prinzip der Impfung. Man findet aber im Blut von Menschen, die weder geimpft sind noch infiziert waren auch Gedächtniszellen, die auf SARS-CoV-2 reagieren können, die aber aus Infektionen mit anderen Erregern stammen. Ein Phänomen, das Kreuzreaktivität genannt wird und das bisher als protektiv betrachtet wurde. „Wir haben uns gefragt, ob Gedächtniszellen, die bereits gegen einen ähnlichen Erreger wir SARS-CoV-2 reagiert haben, zum Beispiel ein Schnupfenvirus, tatsächlich die Reaktion auf die Corona-Impfung verbessern. Oder ob es wichtiger ist, viele naive Zellen gegen SARS-CoV-2 zu haben, die sich spezifisch auf den neuen Erreger einstellen können. Das ist in der Regel bei jungen Menschen der Fall, die meist gut mit Infektionen und Impfungen zurechtkommen“, verdeutlicht Bacher, die den Dorothea-Erxleben-Forscherinnenpreis 2021 des Exzellenzclusters PMI erhalten hat und das Preisgeld in dieses Projekt steckte.
Für die aktuelle Studie wurde das Blut von 50 gesunden Personen vor der Corona-Impfung sowie mehrere Wochen nach der ersten und zweiten Impfung analysiert. Eine vorhergehende Corona-Infektion wurde ausgeschlossen. Durch eine spezielle Technik, die sogenannte Antigen-reaktive-T-Zell-Anreicherung, können ganz gezielt die Zellen untersucht werden, die auf den Impfstoff reagieren. Bacher: „Wir sortieren die Zellen heraus, die auf SARS-CoV-2 reagieren, denn nur die entscheiden über die Immunantwort. Über den T-Zell-Rezeptor können wir feststellen, ob die Zellen aus dem naiven Repertoire stammen oder aus dem Gedächtnis-Repertoire.“ Die Ergebnisse dieser Analyse wurden mit der Qualität der Impfantwort in Beziehung gesetzt.

Impferfolg bei über 80-Jährigen nicht so gut
Das Ergebnis der Untersuchung war, so Bacher, „Bereits vorhandene Gedächtnis-T-Zellen tragen nicht zu einer qualitativ hochwertigen Immunantwort bei. Eher im Gegenteil. Eine sehr gute Immunantwort kommt aus dem naiven Repertoire.“ Bei den über 80-jährigen zeigte sich eine insgesamt schwächere Reaktion. Die Impfung führte bei ihnen nur zu einem geringen Anstieg der SARS-CoV-2 spezifischen T-Zellen. „Wir zeigen, dass bei Älteren die wenigen naiven T-Zellen, die im höheren Alter noch übrig sind, nicht mehr so gut aktiviert werden können. Aber auch die stark vorhandenen Gedächtniszellen tragen bei Älteren nicht positiv zur Impfantwort bei.“ Dieser Defekt im Immunsystem von alten Menschen lasse sich zwar mit weiteren Auffrischimpfungen mildern aber nicht ausgleichen. Trotz Impfungen bleiben hochbetagte Menschen eine vulnerable Gruppe. „Wir müssen uns bewusst machen, dass es immer noch eine Gruppe gibt, die gefährdet ist. Das betrifft überwiegend die Älteren, deren Immunsystem nicht mit diesem „neuen“ Erreger zurechtkommt. Aber auch bei jungen Menschen gibt es welche mit schlechter Impfantwort. Das sieht man auch daran, dass trotz Impfung immer noch schwere Verläufe vorkommen“, ergänzt Alexander Scheffold.

Impfschutz – Antikörperwerte sind nicht aussagekräftig
Wie gut und wie lange die Impfung im Einzelfall vor einer Infektion mit Corona schützt, lässt sich nach wie vor durch Blutuntersuchungen nicht zuverlässig feststellen. Die Messung spezifischer Antikörper gegen den Erreger ist nicht wirklich aussagekräftig. Denn es ist nicht bekannt, ab welchem Wert ein ausreichender Immunschutz vorliegt. Bacher: „Im Immunsystem gibt es keine klaren Grenzen. Welcher Faktor entscheidend ist, kann von Mensch zu Mensch verschieden sein. Insgesamt tragen viele Faktoren zum Infektionsschutz bei, neben den Antikörpern eben vor allem die T-Zellen“. Die in der Studie angewandten T-Zelluntersuchungen sind aber für die klinische Anwendung noch viel zu aufwändig. Hier muss noch einiges in Forschung und Entwicklung investiert werden, um diese Organisatoren der Immunantwort auch im klinischen Alltag bestimmen zu können, nicht nur für SARS-CoV-2. Die Notwendigkeit aber hat die Corona-Epidemie klar vor Augen geführt.

Fotos stehen zum Download bereit:
www.precisionmedicine.de/de/pressemitteilungen/pressebilder-2022/08-immune-cell-isolation-blood_CopyrightSaschaKlahnCAU.jpg
Isolation von Immunzellen aus dem Blut.
© Sascha Klahn, Uni Kiel

www.precisionmedicine.de/de/pressemitteilungen/portraitbilder/petra-bacher.jpg
Prof. Dr. Petra Bacher, Mitglied im Exzellenzcluster PMI und Schleswig-Holstein Excellence-Chair Nachwuchsgruppenleiterin am Institut für Immunologie und Institut für klinische Molekularbiologie, CAU und UKSH.
© Jürgen Haacks, Uni Kiel

www.precisionmedicine.de/de/pressemitteilungen/portraitbilder/scheffold-alexander.jpg
Prof. Alexander Scheffold, Vorstandsmitglied im Exzellenzcluster PMI, Direktor des Instituts für Immunologie, CAU und UKSH.
© Jürgen Haacks, Uni Kiel

Der Exzellenzcluster „Präzisionsmedizin für chronische Entzündungserkrankungen/Precision Medicine in Chronic Inflammation“ (PMI) wird von 2019 bis 2025 durch die Exzellenzstrategie des Bundes und der Länder gefördert (ExStra). Er folgt auf den Cluster Entzündungsforschung „Inflammation at Interfaces“, der bereits in zwei Förderperioden der Exzellenzinitiative (2007-2018) erfolgreich war. An dem neuen Verbund sind rund 300 Mitglieder in acht Trägereinrichtungen an vier Standorten beteiligt: Kiel (Christian-Albrechts-Universität zu Kiel, Universitätsklinikum Schleswig-Holstein, Muthesius Kunsthochschule, Institut für Weltwirtschaft und Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik), Lübeck (Universität zu Lübeck, Universitätsklinikum Schleswig-Holstein), Plön (Max-Planck-Institut für Evolutionsbiologie) und Borstel (Forschungszentrum Borstel – Leibniz Lungenzentrum).

Ziel ist es, die vielfältigen Forschungsansätze zu chronisch entzündlichen Erkrankungen von Barriereorganen in ihrer Interdisziplinarität verstärkt in die Krankenversorgung zu übertragen und die Erfüllung bisher unbefriedigter Bedürfnisse von Erkrankten voranzutreiben. Drei Punkte sind im Zusammenhang mit einer erfolgreichen Behandlung wichtig und stehen daher im Zentrum der Forschung von PMI: die Früherkennung von chronisch entzündlichen Krankheiten, die Vorhersage von Krankheitsverlauf und Komplikationen und die Vorhersage des individuellen Therapieansprechens.

Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Wissenschaftliche Geschäftsstelle, Leitung: Dr. habil. Susanne Holstein
Postanschrift: Christian-Albrechts-Platz 4, D-24118 Kiel
Telefon: (0431) 880-4850, Telefax: (0431) 880-4894
Twitter: PMI @medinflame

Pressekontakt:
Kerstin Nees
Telefon: (0431) 880 4682
E-Mail: kerstin.nees@hamburg.de
https://precisionmedicine.de

Link zur Meldung:
www.precisionmedicine.de/de/detailansicht/news/schutz-vor-corona-erfahrung-ist-beim-immunsystem-nicht-immer-ein-vorteil

Wissenschaftliche Ansprechpartner:
Prof. Petra Bacher
Institut für Immunologie und Institut für klinische Molekularbiologie, CAU und UKSH
0431 500-31005
Petra.Bacher@uksh.de

Prof. Alexander Scheffold
Institut für Immunologie, CAU und UKSH
0431 500-31000
Alexander.Scheffold@uksh.de

Originalpublikation:
Carina Saggau, Gabriela Rios Martini, Elisa Rosati, …, Alexander Scheffold, Petra Bacher. The pre-exposure SARS-CoV-2 specific T cell repertoire determines immune response quality to vaccination. Immunity (2022). Doi: https://doi.org/10.1016/j.immuni.2022.08.003

(nach oben)


Befragung zu Klimaanpassung: Hessens Kommunen im Klimawandel

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Die Folgen des Klimawandels spüren auch Hessens Kommunen immer deutlicher. Mit dem derzeit aktuellen „Integrierten Klimaschutzplan 2025“ zielt das Land deshalb auf umfangreiche Maßnahmen zur Klimaanpassung. Doch bei der Umsetzung stehen Mitarbeitende in Städten und Gemeinden vor großen Herausforderungen. Welche Expertise haben oder benötigen sie, um Maßnahmen zur Klimaanpassung erfolgreich umzusetzen? Für eine wissenschaftliche Bestandsaufnahme wendet sich das ISOE – Institut für sozial-ökologische Forschung noch bis September 2022 mit einer Online-Befragung an kommunale Akteure in Hessen.

Die Herausforderungen für Kommunen sind gewaltig, was die Umsetzung von Klimaschutzmaßnahmen betrifft – nicht nur in Hessen. Der Aufgabenkatalog ist weitreichend. Er reicht von kleinräumigen Anpassungsmaßnahmen über umfassende Risikobewertungen bis hin zu fachübergreifenden Querschnittsaufgaben. Je nach Größe und Lage der Kommunen gestalten sich die Herausforderungen und die Wissensbedarfe daher sehr unterschiedlich. Oft fehlen in der kommunalen Alltagspraxis auch Zeit und Kapazitäten, um das breite Informationsangebot zu sichten. Maßnahmen zur Anpassung an den Klimawandel werden mithin für viele Städte und Gemeinden zum Kraftakt.

Mit der Frage, wie kommunale Akteure bei der Umsetzung von Klimaanpassungsmaßnahmen noch besser unterstützt werden können, beschäftigt sich das Forschungsprojekt WissTransKlima. „Wir wollen besser verstehen, wie es in den hessischen Städten und Gemeinden um das Thema Klimaanpassung bestellt ist, um speziell für Kommunen zugeschnittene Informations- und Beratungsangebote zu entwickeln“, sagt Nicola Schuldt-Baumgart, Leiterin des Forschungsprojekts.

WissTransKlima: Forschungsprojekt zur Unterstützung hessischer Kommunen
Das Forschungsteam ruft deshalb jene Mitarbeitende in den hessischen Kommunen zur Teilnahme an einer wissenschaftlichen Befragung auf, die sich mit dem Thema Klima und Klimaanpassung befassen. Die anonyme Umfrage wird online durchgeführt. Noch bis Mitte September können Mitarbeitende aus der kommunalen Verwaltungspraxis an der 10- bis 15-minütigen Umfrage teilnehmen. „Die Ergebnisse der Umfrage werden im kommenden Jahr mit Vertreterinnen und Vertretern einzelner Kommunen in moderierten Workshops diskutiert, um dann gemeinsam Lösungsstrategien und Maßnahmen zu erarbeiten“, erklärt ISOE-Klimaexperte Thomas Friedrich. „Die an der Befragung Teilnehmenden können uns im Rahmen der Befragung ihr Interesse an diesen Workshops sehr gern mitteilen.“

Das Forschungsprojekt „Wissenstransfer in Kommunen – Voraussetzungen und Möglichkeiten für eine gelingende Klimaanpassung (WissTransKlima)“ wird durch das Hessische Landesamt für Naturschutz, Umwelt und Geologie (HLNUG) gefördert und als Leitlinienprojekt umgesetzt. Das ISOE führt die transdisziplinäre Forschungs- und Praxisarbeit in dem dreijährigen Projekt zusammen mit dem Fachzentrum Klimawandel und Anpassung (FZK) noch bis September 2024 durch.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Friedrich
Forschungsschwerpunkt Energie und Klimaschutz im Alltag
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-60
friedrich@isoe.de
www.isoe.de

Weitere Informationen:
https://www.isoe.de/nc/forschung/projekte/project/wisstransklima/

(nach oben)


Umstellung auf Wasserstoff: BAM entwickelt hochpräzise Kalibriergase für Dekarbonisierung des europäischen Gasnetzes

Oliver Perzborn Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
Wasserstoff soll möglichst bald fossiles Erdgas im europäischen Gasnetz ersetzen. Die Bundesanstalt für Materialforschung und -prüfung (BAM) entwickelt für ein EU-weites Projekt hochpräzise Kalibriergase. Sie sind die Grundlage, um später Verbrauchsmengen und Kosten exakt berechnen und die Umstellung beschleunigen zu können.

Um bis 2050 das Ziel der Klimaneutralität zu erreichen, hat die Europäische Union beschlossen, ihr Gasnetz zu dekarbonisieren: Wasserstoff soll zukünftig den fossilen Energieträger Erdgas möglichst ganz ersetzen. Vor dem Hintergrund der aktuellen Versorgungskrise erhält dieses Ziel eine besondere Dringlichkeit.

Es geht dabei um eine monumentale Aufgabe: Das Gasnetz erstreckt sich in der Europäischen Union über fast eine Viertelmillion Kilometer, davon liegen ca. 38.000 Kilometer in Deutschland. Bevor dieses Netz in den kommenden Jahren schrittweise auf Wasserstoff umgestellt werden kann, müssen eine Reihe von technischen Herausforderungen bewältigt werden: So ist es derzeit noch nicht möglich, den Durchfluss von Wasserstoff-Erdgasmischungen oder auch von reinem Wasserstoff mit der erforderlichen Exaktheit zu messen und so den Verbrauch zu bestimmen. „Die Gasindustrie verwendet bislang mathematische Modelle, die jedoch nicht ausreichend validiert sind“, erklärt Dirk Tuma von der BAM. „Hochpräzise Messungen der Mischungen und der Durchflussmengen sind unverzichtbar, um den Verbrauch exakt abrechnen zu können. Das ist sowohl für die Industrie wie auch für private Endverbraucher*innen von großer Bedeutung. Angesichts der enormen Mengen, um die es geht, bedeuten bereits Unsicherheiten im Promillebereich große Kostenunterschiede.“

Der Chemiker ist Teil eines großen internationalen Forschungsprojekts, das diese messtechnischen Fragen lösen will. Initiiert hat es EURAMET, die Europäische Vereinigung von 37 nationalen Metrologieinstituten. Ziel ist es, die Gasindustrie bei der Umstellung von Erdgas auf Wasserstoff optimal zu unterstützen und so den Markthochlauf von Wasserstoff zu beschleunigen.

Die BAM wird für das Projekt in ihrem Wasserstoff-Kompetenzzentrum H2Safety@BAM hochpräzise Kalibriergase entwickeln: Mischungen von Erdgaskomponenten und Wasserstoff, die in ihrer Zusammensetzung bis auf 0,01 Prozent exakt sind. „Die besondere Herausforderung besteht darin, aus den Ausgangskomponenten Mischungen herzustellen, die über einen Zeitraum von mindestens drei Jahren nachweislich stabil sind“, erklärt Dirk Tuma.

Die hochgenauen Referenzgase der BAM sind die Grundlage, um alle weiteren metrologischen Fragen zu klären. Mit ihnen lassen sich Messgeräte kalibrieren und weiterentwickeln, um später in der Praxis Durchflussmengen exakt zu berechnen. Sie sind eine Voraussetzung dafür, um eine Messinfrastruktur in Europa aufzubauen und das vorhandene Gasnetz auf Wasserstoff umzustellen.

Beteiligt an dem Projekt des Programms EMPIR (European Metrology Programme for Innovation and Research) sind 18 namhafte Institutionen aus Forschung und Industrie, u. a. aus Frankreich, Spanien, den Niederlanden, Norwegen und Großbritannien. Aus Deutschland sind neben der BAM die Physikalisch-Technische Bundesanstalt (PTB), die DB Gas- und Umwelttechnik, die Gastransport Nord sowie Open Grid Europe vertreten.

Weitere Informationen:
https://www.decarbgrid.eu/
https://www.bam.de/Navigation/DE/Themen/Energie/Wasserstoff/energietraeger-der-z…

(nach oben)


Fraunhofer auf der ACHEMA 2022: Lösungen für eine erfolgreiche Rohstoff- und Energiewende

Fraunhofer-Gesellschaft Kommunikation
Fraunhofer-Gesellschaft
Auf der Weltleitmesse der Prozessindustrie ACHEMA in Frankfurt am Main präsentiert sich die Fraunhofer-Allianz für den Leitmarkt Chemie mit gebündeltem Know-how als starker Partner für die Branche. Von 22. bis 26. August 2022 stellen die beteiligten Institute aktuelle, gemeinsame Forschungsaktivitäten zu den Schwerpunkten Digitalisierung chemischer Prozesse, Weiterentwicklung der Grünen Chemie, Erleichterung des Scale-Up, zu Sicherheits- und Regulatorikfragen und zur Effizienz chemischer Prozesse sowie zum Aufbau einer Kreislaufwirtschaft aus.

Defossilisierte und zirkuläre Produktionsprozesse – nichts Geringeres hat sich die chemische Industrie in Deutschland zum Ziel gesetzt. Noch liegen große Herausforderungen vor den Verantwortlichen auf dem Weg zu mehr Nachhaltigkeit und Grüner Chemie. Die einzelnen Schritte in Zusammenarbeit mit den Industriepartnern erfolgreich zu meistern ist eine Aufgabe, der sich die Fraunhofer-Allianz Chemie verschrieben hat. Aufbauend auf die jahrzehntelange Zusammenarbeit der beteiligten 15 Fraunhofer-Institute mit der chemischen Industrie und untereinander liegt der Fokus der Fachleute darauf, Ergebnisse der Grundlagenforschung bis zu einer höheren Technologiereife weiterzuentwickeln und ihre Partner bei der großtechnischen Umsetzung zu unterstützen – mit einer hoch modernen Forschungsinfrastruktur vom Labor- bis zum Pilotmaßstab.

»Die besondere Stärke unserer Allianz liegt in ihren komplementären Kompetenzen und der hohen fachlichen Qualifikation ihrer Mitarbeiter. Unser erklärtes Ziel ist es, diese Kompetenzen und interdisziplinären Synergien zu nutzen, um unsere Industriekunden bei der Technologieentwicklung und Skalierung noch besser und zielgenauer zu unterstützen. Auf diese Weise können wir effizient nachhaltige, innovative Produkte und Prozesse entwickeln«, erläutert Geschäftsstellenleiter Dr. Stefan Löbbecke vom Fraunhofer-Institut für Chemische Technologie ICT. »Wir bieten unseren Industriekunden eine Art One-Stop-Shop für angewandte Forschung und Entwicklung – und das in einer Vielzahl von möglichen Kooperationsformaten: Ob dringende Trouble-Shooting Projekte, exklusive Prozess- und Produktentwicklungen oder strategische Projekte zur Bewältigung der Herausforderungen, vor denen sie im globalen Wandel aktuell stehen. Wir freuen uns darauf, auf der ACHEMA 2022 einen Einblick in die Bandbreite unserer Lösungen zu geben und mit unseren Kunden in einen intensiven Dialog zu treten.«

Weitere Informationen:
https://www.chemie.fraunhofer.de/de/veranstaltungen/ACHEMA-2022.html

Anhang
Fraunhofer auf der ACHEMA

(nach oben)


LKH₂ – Laserkolloquium Wasserstoff: Grüne Alternative zu fossilen Brennstoffen

Petra Nolis M.A. Marketing & Kommunikation
Fraunhofer-Institut für Lasertechnik ILT
Das Fraunhofer Institut für Lasertechnik ILT lädt zum dritten Mal zum LKH₂ – Laserkolloquium Wasserstoff nach Aachen ein. Am 13. und 14. September 2022 geht es im Research Center for Digital Photonic Production um neue wichtige Aufgaben für den Laser. Hersteller von Automobilen, Maschinen, Anlagen und Lasern diskutieren erstmals in Präsenz mit Forschern über den Stand der Produktionstechnik: Im Mittelpunkt stehen nun nicht mehr nur das Laserschneiden und -schweißen von Bipolarplatten oder der metallische 3D-Druck, sondern auch die gesamte Prozesskette und deren Überwachung.

»Nie war er so wertvoll wie heute«. Ein altbekannter Werbeslogan der Medizinbranche fällt einem spontan ein beim Blick auf das ständig wachsende Interesse am Hype-Thema Wasserstoff. Unter der Vielzahl an Veranstaltungen zu diesem Thema hat sich das LKH₂ – Laserkolloquium Wasserstoff des Fraunhofer ILT seit seiner virtuellen Premiere vor zwei Jahren als das Expertenforum für den Einsatz der Lasertechnik bei der Produktion von Bipolarplatten etabliert. Nachdem die ersten beiden Kolloquien im Herbst 2020 und 2021 rund 110 Online-Teilnehmer anlockten, rechnet das Fraunhofer ILT nun beim 3. LKH₂ – Laserkolloquium Wasserstoff bei der Präsenz-Premiere mit einer ähnlich hohen Teilnehmerzahl.

Der Prozess steht im Mittelpunkt
Die Aachener setzen auf einen bewährten Dreiklang: An zwei Tagen erwarten die Gäste 16 Vorträge, viele Laborführungen und ein Networking-Meeting. Sie erfahren z. B. wie Audi Bipolarplatten laserschweißt, wie Trumpf laserbasierte Prozesse für die Brennstoffzellen-Produktion weiterentwickelt und wie sich das TBC-Beschichtungsverfahren (thermal barrier coating) bei Anwendern wie dem Maschinenbauer Gräbener bewährt. Erweitert hat sich auch das Themenspektrum: Stand früher nur Produktionstechnik im Mittelpunkt, hat der Veranstalter nun die gesamte Prozesskette bis hin zur Überwachung im Visier. So berichtet Christian Knaak vom Fraunhofer ILT, wie sich mit KI-Prozesskontrolle Spritzer beim Laserschweißprozess frühzeitig erkennen und vermeiden lassen.

Dr. Alexander Olowinsky, Gruppenleitung Mikrofügen am Fraunhofer ILT und Initiator des Kolloquiums, weist auf ein besonderes Highlight hin: Das 300 Quadratmeter große Wasserstoff-Labor, das im Mai 2022 auf dem »International Laser Technology Congress AKL‘22« erstmals seine Pforten öffnete. Olowinsky freut sich besonders darauf, dass nun auch die Fachleute der Wasserstoff-Community die Leistungsfähigkeit des Labors bei einer Präsenzveranstaltung kennenlernen.

Wasserstoff-Labor: Ideale Ergänzung zur LKH2-Plattform
Dem Wissenschaftler ist zwar bewusst, dass es nicht das einzige deutsche Forschungslabor ist, das sich mit Wasserstoff beschäftigt. Olowinsky: »Was die Vielfalt der praktischen Möglichkeiten betrifft, ist unser neues Wasserstoff-Labor jedoch einzigartig.« Live und in Farbe erleben die LKH2-Gäste im September eine große Bandbreite an lasertechnischen Versuchsanlagen für variable Dimensionen und Designs.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Alexander Olowinsky
Gruppenleitung Mikrofügen
Telefon +49 241 8906-491
alexander.olowinsky@ilt.fraunhofer.de

Dr.-Ing. André Häusler
Gruppe Mikrofügen
Telefon +49 241 8906-640
andre.haeusler@ilt.fraunhofer.de

Weitere Informationen:
https://www.ilt.fraunhofer.de/

(nach oben)


Zwischen Sorge und Euphorie: Wie künstliche Intelligenz unser Leben verändert

Theresa Trepesch Pressereferat
Alexander von Humboldt-Stiftung
Neue Ausgabe des Magazins Humboldt Kosmos über Chancen und Herausforderungen künstlicher Intelligenz

Die Begeisterung für die Leistungen künstlicher Intelligenz ist groß – genauso wie die Sorgen vor den Risiken einer Technik, die dem Menschen über den Kopf wachsen könnte. Was KI heute schon kann, was sie noch lernen muss und welche Risiken sie birgt, analysieren KI-Expert*innen aus dem Netzwerk der Alexander von Humboldt-Stiftung.

Nach Meinung von KI-Experte Holger Hoos ist der wissenschaftliche Fortschritt in der KI-Forschung zentral für unsere künftige Lebensqualität: „Wer hier zurückfällt, wird auch als Gesellschaft abgehängt werden“. Der Alexander von Humboldt-Professor für Künstliche Intelligenz meint: „Insgesamt tut Europa zu wenig, um zum Beispiel die von der Europäischen Kommission formulierten Ambitionen zu realisieren.“ Hoos glaubt aber, dass eine mensch-zentrierte KI zum großen Standortvorteil für Deutschland und Europa werden kann. Daher schlägt er die Einrichtung einer großen Forschungseinrichtung, eines „CERN für KI“ vor, um Talente aus aller Welt anzulocken.

Neue Perspektiven in die technologische Entwicklung einbringen, um eine gerechtere Zukunft für alle zu schaffen – dieses Ziel verfolgt die Humboldtianerin Priya Goswami mit ihrer App „Mumkin“, die sich an Opfer von Genitalverstümmelung richtet. Eine KI dient als erste Ansprechpartnerin, „wie eine Art Trainingspartnerin zum Üben für spätere, reale Gespräche“, sagt Goswami.

Künstliche Intelligenz wirkt in der digitalen Welt oft als Meinungsverstärker. Sie schafft Filterblasen, fördert radikale Tendenzen und beeinflusst Wahlen. Diese Schattenseiten der KI erforscht José Renato Laranjeira de Pereira. „KI kann Rassismus, Homophobie und Radikalisierung fördern, unter anderem weil sie althergebrachte Vorurteile verstärkt. Sie kann etwa Menschen mit dunkler Hautfarbe als weniger kreditwürdig bewerten“, erklärt der brasilianische Rechtswissenschaftler. Deswegen arbeitet er an Strategien für mehr Transparenz und Nutzerrechte.

Wie nützlich oder schädlich KI ist, ob sie dem Menschen dient oder die Demokratie schwächt, hängt davon ab, welche KI wir erschaffen. Die Diskussion hierüber ist in vollem Gange und zeigt: Deutschland und Europa könnten Vorreiter einer wertegeleiteten KI werden, die der Gesellschaft dient.

Das gesamte Kosmos-Heft „Mit freundlicher Unterstützung. Wie künstliche Intelligenz unser Leben verändert“ lesen Sie hier: https://www.humboldt-foundation.de/web/Magazin-Humboldt-Kosmos.html.

Künstliche Intelligenz ist ein Schwerpunkt in der Förderung und Kommunikation der Humboldt-Stiftung: 2020 wurden zusätzlich zur Alexander von Humboldt-Professur, Deutschlands höchstdotiertem Forschungspreis, die Alexander von Humboldt-Professuren für Künstliche Intelligenz ins Leben gerufen. Diese können auch die gesellschaftlichen, rechtlichen oder ethischen Aspekte der künstlichen Intelligenz erforschen.

Humboldt-Professor*innen und weitere KI-Expert*innen aus dem Humboldt-Netzwerk diskutieren im Podcast der Humboldt-Stiftung „KI und Wir“ Fragen der KI-Forschung.

Weitere Informationen:
https://www.humboldt-foundation.de/entdecken/magazin-humboldt-kosmos/mit-freundl… Interview mit Humboldt-Professor Holger Hoos
https://www.humboldt-foundation.de/ki-und-wir Podcast „KI und Wir“

(nach oben)


Podcast: Macht Homeoffice krank?

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
Viele Unternehmen wollen auch nach der Pandemie das Angebot des mobilen Arbeitens beibehalten und zahlreiche Arbeitnehmende wollen weiterhin im Homeoffice arbeiten. Eine kürzlich veröffentlichte Studie des Deutschen Gewerkschaftsbundes zeigt: Mehr als jeder Vierte der befragten Arbeitnehmer:innen macht häufig unbezahlte Überstunden und von jedem Dritten wird eine besondere Erreichbarkeit erwartet. Welche positiven und negativen Aspekte es gibt, erklärt Dr. Ulrich Hößler, Professor für Wirtschaftspsychologie im Fernstudium der Hochschule Fresenius, in der aktuellen Folge des Wissenschaftspodcasts adhibeo.

Das mobile Arbeiten betrifft mittlerweile einen Großteil der Arbeitnehmer:innen. Was die einen freut, empfinden andere zunehmend als Belastung. Welche Vor- und Nachteile hat das Konzept „Homeoffice“? Welcher Zusammenhang besteht bei der Zunahme psychischer Erkrankungen, die insbesondere in den letzten zehn Jahren beobachtet wurde? Welche Art des Arbeitens ist am effektivsten und wie sollte sinnvolle Büroarbeit vor dem Hintergrund der neuen Arbeitswelt und ihrer Möglichkeiten aussehen? Diese und weitere Fragen beantwortet Prof. Dr. Ulrich Hössler, Professor für Wirtschaftspsychologie im Fernstudium an der Hochschule Fresenius.

Die Zuhörer:innen erfahren, warum Pauschallösungen nicht die Antwort sein können, worauf es ankommt, damit mobiles Arbeiten gelingt und weshalb Unternehmen den Mut haben sollten, ihre Mitarbeitenden „fürs Kaffeetrinken zu bezahlen“.
Die Podcastfolge „Macht Homeoffice krank?“ ist in voller Länge unter folgenden Links erreichbar: https://www.adhibeo.de/macht-homeoffice-krank/ und https://www.hs-fresenius.de/podcast/adhibeo/macht-homeoffice-krank/ und überall dort, wo es Podcasts gibt.

Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Id-stein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine mehr als 170-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbil-dung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfäl-tiges Fächerangebot und bietet in den Fachbereichen Chemie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studiengänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovati-ves Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbezug“ vom Wissenschaftsrat gewürdigt. Weitere Informationen finden Sie auf unserer Website: www.hs-fresenius.de

Weitere Informationen:
http://www.hs-fresenius.de

(nach oben)


Weinbau braucht neue pilzwiderstandsfähige und stresstolerante Rebsorten, um Klimawandel trotzen zu können

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Rebenzüchter und -genetiker aus 23 Ländern tauschten sich auf dem vom Julius Kühn-Institut (JKI) organisierten XIII. GBG-Symposium in der Pfalz aus.

(Siebeldingen) Das auf dem Geilweilerhof in der Pfalz angesiedelte Institut für Rebenzüchtung des Julius Kühn-Instituts (JKI) hatte in diesem Sommer (2022) die Ehre, das internationale Symposium zu Rebenzüchtung und -genetik auszurichten. Das „XIII. Symposium for Grapevine Breeding and Genetics“ fand vom 10.-15. Juli in der Jugendstilfesthalle Landau statt. Dazu kamen 180 Wissenschaftlerinnen und Wissenschaftler aus 23 Ländern aus Europa und Übersee zusammen, um aktuelle Forschungsergebnisse zu präsentieren und zu diskutieren. Die Veranstaltung findet alle vier Jahre an wechselnden Orten in aller Welt statt. Nächstes Austragungsland nach Deutschland ist 2026 Kroatien. Die Veranstaltungsreihe wurde vor fast einem halben Jahrhundert von den Rebenzüchtern am Geilweilerhof in Siebeldingen ins Leben gerufen, die seit 2008 dem Julius Kühn-Institut angehören.

„Sowohl die Vorgaben aus Politik und Gesellschaft zur Verminderung des Pflanzenschutzmitteleinsatzes in der Dauerkultur Rebe als auch die Folgen des sich deutlich abzeichnenden Klimawandels, unterstreichen die Bedeutung der auf dem GBG-Symposium vorgestellten Forschungsanstrengungen zur Züchtung neuer Rebsorten“, resümiert Prof. Dr. Reinhard Töpfer, der Leiter des Fachinstituts für Rebenzüchtung des JKI. „In der Züchtungsforschung nehmen wir das als Ansporn, die Genetik hinter den Rebeneigenschaften weiter aufzuklären und Methoden zu finden, um den Züchtungsprozess effizienter gestalten“, erklärt Töpfer weiter. Es bräuchte einen langen Atem, denn die aktuelle Generation von PIWIs hält leider nur langsam Einzug in die deutschen Weinberge.

Das GBG-Symposium war die Plattform, um sich über neue Erkenntnisse, Methoden und Techniken auszutauschen, aber auch das Potenzial alter Sorten oder Wildarten zu diskutieren, die in Genbanken erhalten werden. Bedeutsam sind etwa die internationalen Fortschritte bei der Aufklärung von Resistenzen gegen Mehltau, Grauschimmel (Botrytis) und Schwarzfäule, die in erheblichem Maße zur Reduktion der Pflanzenschutzaufwendungen beitragen. Auch die Ergebnisse aus Untersuchungen zur Sonnenbrandtoleranz bei Reben werden angesichts des Klimawandels immer bedeutsamer. „Die genetischen Arbeiten kommen in gleicher Weise dem ökologischen wie dem integrierten Weinbau zugute und sind unentbehrlich zur Bewältigung der Herausforderungen durch den Klimawandel und zur Steigerung der Nachhaltigkeit im Weinbau“, betont Töpfer. Ein Sortenwandel sei in den kommenden Jahrzehnten unausweichlich, wenn die Kulturlandschaft der Weinbaubaugebiete mit ihrem hohen touristischen Wert erhalten bleiben soll, darüber waren sich die Teilnehmenden der Tagung einig.

Neben den Vorträgen zur Forschungsergebnissen und Posterpräsentationen, die vom 11.-14. Juli stattfanden, wurden dem Fachpublikum am 13. Juli technische Ganztagsexkursion zu verschiedenen Weingütern der Umgebung, an das DLR in Neustadt und natürlich zum Züchtungsstandort des JKI auf dem Geilweilerhof angeboten. Hier wurde u.a. der Phänotypisierungsroboter gezeigt, dem eine bedeutende Rolle bei der Effizienzsteigerung der Züchtung zukommt. Eine weitere Voraussetzung für künftigen Erfolg in der Rebenzüchtung ist die Verfügbarkeit und Nutzung rebengenetischer Ressourcen. Sie enthalten wichtige Eigenschaften wie Krankheits-, Schädlings- oder Hitzestressresistenz, die die Züchtungsforschung weltweit untersucht und einer Nutzung zuführt. Das JKI verfügt am Geilweilerhof selbst über eine der weltweit größten Sammlungen genetischer Ressourcen der Rebe. Die zum Teil historischen Sorten sowie Wildreben werden in einer Genbank als Rebstöcke im Weinberg erhalten. Das JKI koordiniert auch die Deutsche Genbank Reben und betreibt mehrere Datenbanken (siehe dazu auch hier das Interview mit der Genbankexpertin: https://www.julius-kuehn.de/zr/interview-fr-dr-erika-maul/)

Der Verein der Förderer und Freunde des Geilweilerhofs hatte dankenswerterweise die Preisgelder für die Prämierung der besten Poster zur Verfügung gestellt. Die unabhängige Expertenjury kürte die Nachwuchsforscherin Nele Schneider, die am JKI-Institut für Rebenzüchtung im Projekt VitiSoil arbeitet, zur Siegerin.

Wissenschaftliche Ansprechpartner:
Kontakt
Prof. Dr. Reinhard Töpfer
Geilweilerhof, 76833 Siebeldingen
Tel.: 06345/41-115
E-Mai: zr@julius-kuehn.de

Weitere Informationen:
https://gbg2022.julius-kuehn.de/

(nach oben)


Wie die Biodiversität in Weinbergen am besten gefördert wird

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende der Universität Bern haben untersucht, wie sich eine biologische, biodynamische und konventionelle Bewirtschaftung in Weinbergen auf die Insektenfauna auswirkt. Sie konnten zeigen, dass biologische – und in einem geringeren Masse auch biodynamische – Bewirtschaftung bessere Lebensraumbedingungen für die Insekten bietet als konventionell bewirtschaftete Weinberge.

Weinberge werden zumeist entweder konventionell, biologisch oder biodynamisch bewirtschaftet. Konventionell bedeutet, dass synthetischer Dünger und Pestizide erlaubt sind. Zudem werden häufig Herbizide, also Unkrautmittel, eingesetzt, um eine allfällige Konkurrenz um Nährstoffe und Wasser zwischen den Reben und der Bodenvegetation zu verhindern. Im Gegensatz dazu werden in der biologischen und biodynamischen Bewirtschaftung mechanische Methoden eingesetzt, um die Bodenvegetation zu minimieren – teilweise werden auch Schafe zur Mahd eingesetzt. Hier dürfen nur natürliche Düngemittel und Fungizide verwendet werden. Darüber hinaus werden in der biodynamischen Bewirtschaftung in der Regel fermentierter Mist und Pflanzenpräparate auf den Boden und die Pflanzen aufgebracht, um den Nährstoffkreislauf im Boden zu stimulieren. Die biodynamische Bewirtschaftung ist zwar selten, wird weltweit aber am häufigsten in Rebbergen eingesetzt. Während die Vorteile des biologischen gegenüber dem konventionellen Landbau auf die Biodiversität bereits mehrfach in der Forschung nachgewiesen wurden, waren die Effekte der biodynamischen Bewirtschaftung bislang unklar.

Bessere Lebensraumbedingungen für Insekten
Forschende der Universität Bern haben nun die Effekte der drei Bewirtschaftungsformen «biologisch», «biodynamisch» und «konventionell» im Zusammenhang mit der Bodenbegrünung auf die Insektenfauna in Walliser Weinbergen untersucht. Als Bodenbegrünung wird eine spontane Begrünung oder das bewusste Einsäen oder Zulassen geeigneter Pflanzen im Weinberg zwischen den Rebzeilen bezeichnet. Die Ergebnisse der Studie zeigen, dass biologische und biodynamische Bewirtschaftung bessere Lebensraumbedingungen für die Bodeninsekten bieten als konventionell bewirtschaftete Weinberge, wobei die biologische Bewirtschaftung einen stärkeren Effekt zeigt. Dieser Zusammenhang ist aber weiter mit der Bodenbegrünung verknüpft, so dass in biologischen Weinbergen die Insektendichte mit zunehmender Bodenbegrünung stetig zunimmt. In biodynamischen und konventionellen Parzellen ist der Zusammenhang mit der Bodenbegrünung etwas komplexer und weniger eindeutig.

Vielfältige Bodenbegrünung als Erfolgskonzept
«Wir interpretieren diese Resultate so, dass biologische Parzellen bessere Bedingungen für die Insekten bieten, indem die Bodenbegrünung strukturell komplexer und vielfältiger ist und weniger oft bewirtschaftet und somit gestört wird», sagt Professor Raphaël Arlettaz vom Institut für Ökologie und Evolution (IEE) der Universität Bern, Leiter des Projekts. Dies entspricht der sogenannten Mittlere-Störung-Hypothese, die besagt, dass ein Ökosystem, das leicht gestört (in diesem Falle bewirtschaftet) wird, im Vergleich mit einem statischen (keine Störung) oder einem stark gestörten Ökosystem (etwa Vernichtung der Bodenvegetation mit Herbizid), mehr Nischen für die Artenvielfalt bietet.

In biodynamischen Parzellen wird häufig jede zweite Reihe oberflächlich gepflügt, was zu einer höheren Störung des Bodens und dadurch der Bodeninsekten führt. In konventionell bewirtschafteten Weinbergen wird die Bodenbegrünung häufig mit Herbiziden oder seltener maschinell zerstört, und dadurch die Nahrungs- und Lebensraumgrundlage vieler Insekten entzogen. «Diese neuen Forschungsresultate zeigen, dass alternative Bewirtschaftungsformen in Weinbergen biodiversitätsfördernd sind, insbesondere für Insekten in biologischen Weinparzellen», erklärt die Erstautorin der Studie, Dr. Laura Bosco von der Abteilung Conservation Biology im IEE.

Gemäss den Forschenden bieten die Ergebnisse grundlegende Anhaltspunkte für einen ökologisch nachhaltigeren Weinbau in der Zukunft. Ob sich diese Schlussfolgerungen auf andere Agrarökosysteme, andere Organismen und andere Grössenverhältnisse verallgemeinern lassen, bedürfe jedoch weiterer Untersuchungen. Die Studie wurde im Fachjournal Frontiers in Conservation Science publiziert.

Wissenschaftliche Ansprechpartner:
Französisch:
Prof. Dr. Raphaël Arlettaz, Institut für Ökologie und Evolution, Division of Conservation Biology, Universität Bern
Tel. +41 31 631 31 61 / 079 637 51 76
raphael.arlettaz@iee.unibe.ch

Deutsch:
Dr. Laura Bosco, Institut für Ökologie und Evolution der Universität Bern, Division of Conservation Biology. Gegenwärtig an der University of Helsinki, Finnish Museum of Natural History
Tel. +358 45 278 50 58
laura.bosco@helsinki.fi

Originalpublikation:
Bosco L, Siegenthaler D, Ruzzante L, Jacot A and Arlettaz R (2022) Varying Responses of Invertebrates to Biodynamic, Organic and Conventional Viticulture. Front. Conserv. Sci. 3:837551.
doi: 10.3389/fcosc.2022.837551

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Post-Covid: Covid-19 hat langfristige Folgen für Herz und Gefäße

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Was ist zu Long-/Post-Covid mit Blick auf Herz und andere Organe bekannt und welche Hilfsangebote für Betroffene gibt es? Herzstiftungs-Experten informieren

Im dritten Jahr der Corona-Pandemie und bei über 30 Millionen erfassten Covid-19-Fällen in Deutschland (RKI) zeichnet sich ab, dass viele Betroffene nach einer Infektion mit SARS-CoV-2 noch lange Beschwerden haben wie Herzrasen, Gedächtnisprobleme, Muskelschwäche und -schmerzen sowie lähmende Erschöpfung. Bis zu 30 Prozent der an Covid-19 Erkrankten geben nach der Infektion anhaltende Beschwerden an, die sich an ganz unterschiedlichen Stellen im Körper zeigen, auch am Herzen. Eine US-Studie fand zum Beispiel nach einem Jahr bei ehemals Covid-Erkrankten ein um über 70 Prozent erhöhtes Risiko für Herzinsuffizienz im Vergleich zu Nichtinfizierten (1). „Nach den Erfahrungen der vergangenen zwei Jahre ist das Herz auch über den akuten Infekt hinaus gefährdet, einen Schaden davonzutragen“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Deutschen Herzstiftung. Typische anhaltende Herzbeschwerden, über die Patienten in der Folge noch weiter klagen, sind dem Kardiologen zufolge „insbesondere Brustschmerzen, Herzstolpern und Herzrasen, Kurzatmigkeit sowie eingeschränkte körperliche Belastbarkeit und Schwäche nach körperlicher Belastung“. Die Krankheitsmechanismen sind unklar; am ehesten sind Autoimmunreaktionen dafür verantwortlich. Über die langfristigen Folgen von Covid-19 auf das Herz und was unter Long-/Post-Covid genau zu verstehen ist, informiert die Herzstiftung unter www.herzstiftung.de/post-covid-herzschaeden

Long-/Post-Covid: Über 200 Symptome
Inzwischen gibt es etliche Berichte und Studien über anhaltende Symptome nach Abklingen der eigentlichen Covid-19-Infektion. 200 verschiedene Symptome, die sich etwa zehn Organsystemen zuordnen lassen, sind beschrieben worden. Long-Covid hat sich als Überbegriff für anhaltende Beschwerden nach der Infektion etabliert. Ärzte differenzieren zwischen einem
– Long-Covid-Syndrom, wenn die Beschwerden länger als vier Wochen anhalten, und einem
– Post-Covid-Syndrom, wenn die Symptome mehr als zwölf Wochen andauern.
– Chronisches Covid-Syndrom wird häufig als Begriff genutzt, wenn die Beschwerden sogar mehr als ein halbes Jahr anhalten.

Allerdings: Alter, Vorerkrankungen und Schwere der Covid-19-Erkrankung sind keine verlässlichen Vorhersage-Parameter für das Risiko von Post-Covid. Nachgewiesen ist, dass Long-Covid bzw. Post-Covid offenbar Frauen häufiger trifft. Doch viele weitere Aspekte der Langzeitfolgen sind noch nicht geklärt.

Wohin kann man sich bei Post-/Long-Covid wenden?
Immer häufiger wenden sich Betroffene mit Beschwerden mehrere Wochen oder Monate nach einer Covid-Erkrankung an ihren Hausarzt oder an eine der rund 100 Post-Covid-Ambulanzen hierzulande. Die Bandbreite bei über 200 Symptomen, die sich unter dem Oberbegriff „Post-Covid“ sammeln, ist groß und kann „in individuell unterschiedlichen und phasenweise wechselnden Konstellationen auftreten“, wie Prof. Dr. Bernhard Schieffer, Direktor der Klinik für Kardiologie, Angiologie und internistische Intensivmedizin am Universitätsklinikum Marburg (UKGM) berichtet. Er leitet dort auch eine interdisziplinäre Post-Covid-Ambulanz. Neben Herzbeschwerden klagen die Patienten dort auch über neurologische und kognitive Symptome wie Seh- bzw. Konzentrationsstörungen oder Beschwerden der Lunge (Luftknappheit, Atemnot) sowie Abgeschlagenheit und Erschöpfung, die dem sogenannten Chronischen Fatigue-Syndrom (CFS) ähneln. Was zu den bisher vermuteten Ursachen von Long-Covid und Risikofaktoren bekannt ist und welche Hilfsangebote zur Verfügung stehen, erläutert der aktuelle Podcast „Long-Covid: Wer leidet besonders unter Langzeitfolgen?“ mit Prof. Schieffer und seiner Kollegin Dr. Ann-Christin Schäfer unter www.herzstiftung.de/podcast-longcovid

Langzeitfolgen für Herz und Kreislauf
Gerade Patienten mit einem vorerkrankten Herzen oder Risikofaktoren für Herzkrankheiten wie Bluthochdruck und Diabetes mellitus sind für schwere Covid-19-Verläufe besonders gefährdet. US-Wissenschaftler haben sich in einer großen Studie (1) bei über 150.000 ehemaligen Militärangehörigen mit überstandener Covid-Erkrankung ein Jahr lang den Gesundheitsstatus angeschaut. Die Analyse ergab eine deutlich erhöhte Fallzahl an Vorhofflimmern und anderen Rhythmusstörungen, von koronarer Herzkrankheit (KHK) und Herzschwäche. So hatten Covid-Patienten nach einem Jahr ein um 72 Prozent höheres Risiko für eine Herzinsuffizienz im Vergleich zu Kontrollpersonen ohne Infektion. Daraus errechneten die Wissenschaftler, dass es auf 1.000 Infizierte 12 zusätzliche Fälle von Herzinsuffizienz und insgesamt 45 zusätzliche Fälle an einer der 20 untersuchten Herzkreislauf-Erkrankungen insgesamt gab. „Und dieses Risiko war auch bei Patienten erhöht, die vorher keine Anzeichen für eine Herzerkrankung hatten“, berichtet der Herzstiftungs-Vorsitzende Voigtländer. Laut einer schwedischen Studie (2) ist offenbar auch das Risiko für venöse Thromboembolien nicht nur in der Akutphase, sondern noch Monate nach der Infektion erhöht – vor allem bei Patienten mit schwerem Covid-19. In diesem Zusammenhang war vor allem die Gefahr einer Lungenembolie über die folgenden sechs Monate deutlich erhöht. „Schwer an Covid Erkrankte haben allerdings generell ein erhöhtes Risiko für Thrombosen und Herz- und Gefäßerkrankungen, bedingt allein durch die Bettlägerigkeit und durch den schweren Krankheitsverlauf“, so Voigtländer.

Long-Covid: Was zu Therapie und Schutzmaßnahmen bekannt ist
Die Behandlung von Post-Covid-Beschwerden orientiert sich in der Regel an der Symptomatik. Etablierte Behandlungsverfahren gibt es bislang nicht. Kardiologen der US-Fachgesellschaft ACC haben in ihrer Stellungnahme speziell zu langfristigen Herzbeschwerden allerdings Empfehlungen zusammengefasst (3). Sie unterscheiden dabei zwei Post-Covid-Formen (PASC=Post acute sequelae of Covid-19) mit jeweils verschiedenen Beschwerdebildern, die das Herz betreffen. Beide Formen, das PASC-cardiovascular syndrome (PASC-CVS) und das PASC-cardiovascular disease (PASC-CVD) unterscheiden sich grob gefasst darin, dass bei der Therapie von Patienten mit PASC-CVD – also definierten Herzschäden – die Behandlung der Herzerkrankung entsprechend den ärztlichen Leitlinien im Vordergrund steht. Bei der PASC-CVS richten sich die Empfehlungen an der Symptomatik aus. Beide Formen werden unter www.herzstiftung.de/post-covid-herzschaeden genauer erläutert.
Was können wir nun tun, um uns vor Long-/Post-Covid zu schützen? Kardiologe Prof. Schieffer, Mitglied des Wissenschaftlichen Beirats der Deutschen Herzstiftung, verweist auf Schutzmaßnahmen, die bereits für Covid-19 auch von Experten der US-Amerikanischen Kardiologenvereinigung ACC für Herz-Kreislauf-Patienten und Ältere mit einem erhöhten Risiko für schwere Covid-Verläufe empfohlen wurden: „Jeder sollte sein Risikoprofil optimieren und auf seinen Gesundheitsstatuts achten: regelmäßig mit Ausdauerbewegung aktiv sein, sich gesund ernähren. Auch sollte man seinen Immunstatuts durch Impfen gegen SARS-CoV-2, Influenza, Pneumokokken sowie Herpes Zoster, verbessern. Ältere Menschen sollten auch ihren Vitamin-D-Spiegel prüfen – und nicht zu vergessen die etablierten Hygienemaßnahmen und Abstandsregeln.“
(wi)

Service-Tipp
Weitere Infos zu den Langzeitfolgen von Covid-19 auf das Herz und Long-Covid unter www.herzstiftung.de/post-covid-herzschaeden

Podcast der Reihe imPULS. Wissen für Ihre Gesundheit: „PostCovid – Wie Betroffenen mit Covid-Langzeitfolgen geholfen wird“
Im Gespräch mit dem Marburger Kardiologen Prof. Bernhard Schieffer und seiner Kollegin Dr. Ann-Christin Schäfer, die sich intensiv mit den Langzeitfolgen von Covid – und in seltenen Fällen – auch einer Impfung (Post-Vac) auseinandersetzen, geht es darum, was schon zu den Ursachen bekannt ist und wie bisher Betroffenen geholfen wird (Post-Covid-Ambulanzen/-Sprechstunden) www.herzstiftung.de/podcast-longcovid

Zusatzmaterial für Redaktionen
Long-Covid: Rund 200 Symptome erfasst und drei Gruppen zugeordnet
Britische Forscher haben die unterschiedlichen Dauerbeschwerden im Zuge einer Befragung von rund 3.800 Betroffenen erfasst und rund 200 Symptome zehn Organsystemen zugeordnet (4). 66 Symptome davon hielten mehr als sieben Monate an und wurden nach Symptomdauer in drei Gruppen aufgeteilt:

1. Symptome vor allem der Atemwege und des Magen-Darm-Bereichs, die früh im Erkrankungsverlauf auftreten, nach 2-3 Wochen ihren Höhepunkt erreichen und langsam innerhalb von 90 Tagen abklingen.
2. Symptome insbesondere neuropsychiatrisch und kardiovaskulär, aber auch Fatigue (übergroße Müdigkeit) und Hauterscheinungen mit z.B. frostbeulen-ähnlichen Veränderungen an den Zehen, die ihren Höhepunkt etwa sieben Wochen nach Covid-Beginn erreichen und deutlich langsamer abnehmen.
3. Symptome wie Allergien, Tinnitus, Neuralgien oder die als „Brain Fog“ bezeichneten ausgeprägten Konzentrationsstörungen, die mild beginnen und nach etwa 10-15 Wochen ihr Maximum erreichen und danach kaum Besserung aufweisen.

Quellen:
(1) Long-term cardiovascular outcomes of COVID-19Nat. Med. 2022, doi.org/10.1038/s41591-022-01689-3
(2) Risks of deep vein thrombosis, pulmonary embolism and bleeding after Covid-19, BMJ February 2022; doi.org/10.1136/bmj-2021-069590
(3) ACC Expert Consensus Decision Pathway on Cardiovascular Sequelae of COVID-19 in Adults; J Am Coll Cardiol. März 2022; DOI: 10.1016/j.jacc.2022.02.003
(4) Characterizing long COVID in an international cohort: 7 months of symptoms and their impact,E Clinical Med 2021; online 15. Juli; doi.org/10.1016/j.eclinm.2021.101019
Weitere: https://www.acc.org/~/media/665AFA1E710B4B3293138D14BE8D1213.pdf

Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de/post-covid-herzschaeden – Infos der Herzstiftung zu Long-/Post-Covid
http://www.herzstiftung.de/podcast-longcovid – Podcast der Herzstiftung zu Long-/Post-Covid

Anhang
PM_DHS_Long-Covid-und-Herzkrankheit_2022-08-03_Final

(nach oben)


Bakteriengemeinschaften in städtischem Wasser zeigen „Signaturen der Verstädterung“

Dipl. Soz. Steven Seet Wissenschaftskommunikation
Leibniz-Institut für Zoo- und Wildtierforschung (IZW) im Forschungsverbund Berlin e.V.
Ein Team unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und des Leibniz-Instituts für Zoo- und Wildtierforschung (Leibniz-IZW) untersuchte nun im Rahmen des Leibniz-Forschungsverbundes „Infektionen“ Bakteriengemeinschaften in städtischen Gewässern und Abwässern in Berlin und verglichen sie mit Gemeinschaften aus weniger vom Menschen beeinflussten Seen aus dem ländlichen Umland.

Gemeinschaften von Bakterienarten (Mikrobiome) sind in einer bestimmten Umgebung oft stabil und gut an sie angepasst, sei es in der menschlichen Mundhöhle oder in einem See. Der Mensch verändert naturnahe Lebensräume immer schneller – im Zuge der Verstädterung insbesondere Städte und ihr Umland. Die Ergebnisse zeigen, dass die Verstädterung große Mengen an Nährstoffen, chemischen Schadstoffen und antimikrobiellen Produkten in Gewässer verbringt und dadurch die Zusammensetzung des Mikrobioms zugunsten von Bakteriengruppen verändert, die humanpathogene Bakterien enthalten – mit noch unbekannten Folgen für die Funktion der Lebensräume und für die Gesundheit von Mensch und Tier. Die Publikation ist heute in der Fachzeitschrift „Science of the Total Environment“ erschienen.

Ob in der Achselhöhle, im Gartenboden oder im Wasser – fast jeder Ort auf der Erde hat eine natürliche bakterielle Gemeinschaft. Indem der Mensch seine Umwelt verändert, verändert er auch die bakterielle Zusammensetzung nahezu aller Ökosysteme: Er schafft neue Bedingungen, die einige Bakteriengruppen gegenüber anderen begünstigen. In einer Untersuchung analysierten Wissenschaftler:innen von IGB und Leibniz-IZW zusammen mit Kolleg:innen aus dem Leibniz-Forschungsverbund „Infections“ diese mit der Verstädterung verbundenen Veränderungen in der Bakterienzusammensetzung und zeigten, dass sich die Bakteriengemeinschaften in städtischen Gewässern und Abwässern in Berlin deutlich von denen ländlicher Seen in den umliegenden Regionen der Bundesländer Brandenburg und Mecklenburg-Vorpommern unterscheiden. Darüber hinaus werden durch die Verstädterung nicht nur menschliche Bakterien eingeführt („Humanisierung“), sondern auch übermäßige Mengen an Nährstoffen („Eutrophierung“), chemischen Schadstoffen und antimikrobiellen Produkten wie Antibiotika. Diese komplexen Veränderungen begünstigen bestimmte Bakterien gegenüber anderen drastisch und können die Zusammensetzung und die Funktion des Mikrobioms erheblich verändern.

„Wir wollten wissen, ob städtisches Wasser ‚Signaturen der Verstädterung‘ aufweist, die Vorhersagen über das Auftreten bestimmter Bakterienstämme in einer mikrobiellen Gemeinschaft innerhalb von Städten zulassen“, sagt Prof. Hans Peter Grossart vom IGB, einer der Hauptautoren der Publikation. Die Ergebnisse zeigen, dass mehrere Bakteriengruppen in städtischen Gewässern angereichert sind, wobei die meisten anthropogenen Bakterienstämme in den Zu- und Abflüssen einer Kläranlage gefunden wurden, was auf eine „Humanisierung“ des Mikrobioms städtischer Seen und Fließgewässer hinweist.

„Überraschenderweise sind die angereicherten Bakteriengruppen in städtischen Umgebungen diejenigen, die häufig pathogene Arten enthalten. Das deutet darauf hin, dass ein Krankheitserreger, wenn er in eine solche Umgebung gelangt, ein sehr günstiges Umfeld vorfindet, in dem er wachsen kann“, sagt Prof. Alex Greenwood, Leiter der Leibniz-IZW-Abteilung für Wildtierkrankheiten und einer der Hauptautoren des Aufsatzes. Dies könne möglicherweise zu Ausbrüchen in solchen Umgebungen führen. Dies steht im Gegensatz zu ländlichen Gewässern, die eher ungünstige Bedingungen für Krankheitserreger bieten.

Die Autor:innen schließen aus ihrer Untersuchung, dass die Reinhaltung und Aufbereitung des städtischen Wasser in der Zukunft stärker auf Bakteriengemeinschaften und das Mikrobiom ausgerichtet werden müsse, um wieder natürlichere Wasserökosysteme zu schaffen. Dies werde zunehmend wichtiger und zugleich schwieriger werden, da durch den Klimawandel viele städtische Gebiete trockener und nährstoffreicher werden, wodurch sich die Bakteriengemeinschaften in städtischem Wasser noch extremer ändern werden. Dies könnte tiefgreifende Auswirkungen auf die Gesundheit von Menschen und Tieren haben, da das Risiko einer Kontamination mit Krankheitserregern steigt.

Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
im Forschungsverbund Berlin e.V.
Müggelseedamm 310, 12587 Berlin, Deutschland

Pressestelle
Nadja Neumann
Telefon: +49(0)3064181975
E-Mail: pr@igb-berlin.de

Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Straße 17, 10315 Berlin, Deutschland

Steven Seet
Leiter der Wissenschaftskommunikation
Telefon: +49(0)30 5168125
E-Mail: seet@izw-berlin.de

Wissenschaftliche Ansprechpartner:
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
im Forschungsverbund Berlin e.V.
Müggelseedamm 310, 12587 Berlin, Deutschland
Prof. Hans-Peter Grossart
Leiter der Forschungsgruppe Aquatische Mikrobielle Ökologie
Telefon: +49(0)33082 69991
E-Mail: hanspeter.grossart@igb-berlin.de
Pressestelle
Nadja Neumann
Telefon: +49(0)3064181975
E-Mail: pr@igb-berlin.de
Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Straße 17, 10315 Berlin, Deutschland
Prof. Dr. Alex D. Greenwood
Leiter der Abteilung für Wildtierkrankheiten
Telefon: +49(0)30 5168255
E-Mail: greenwood@izw-berlin.de

Originalpublikation:
Numberger D, Zoccarato L, Woodhouse J, Ganzert L, Sauer S, García Márquez JR, Domisch S, Grossart HP, Greenwood AD (2022): Urbanisierung fördert bestimmte Bakterien in Süßwasser-Mikrobiomen, einschließlich potenzieller Krankheitserreger. Science of the Total Environment 845, 157321; https://doi.org/10.1016/j.scitotenv.2022.157321.

(nach oben)


Gewässergüte wird im Saarland online von Wissenschaftlern überwacht – kleine Fließgewässer im Fokus

Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Ein starker Regen kann Düngemittel aus Äckern ausschwemmen und Bäche damit belasten, aus Berghalden können Sulfate in Gewässer gelangen. Um solche Probleme frühzeitig zu erkennen, werden im Saarland auch kleine Fließgewässer mit mobilen Messstationen überwacht. Die Messergebnisse landen direkt online bei der Arbeitsgruppe Gewässermonitoring an der Universität des Saarlandes, die seit 20 Jahren die Untersuchungen durchführt. Die flexible Online-Überwachung verknüpft mit einer ausgefeilten Messstrategie ist bundesweites Vorbild.

An großen Flüssen wie Rhein und Donau gibt es feste Messstationen, deren Gewässerproben später im Labor ausgewertet werden. Im Unterschied dazu wurden im Saarland mit einer Förderung der Europäischen Union und des Landesumweltministeriums schon vor 20 Jahren mobile Messeinheiten aufgebaut, die in Autoanhänger flexibel zu jedem kleinen Bach im Saarland transportiert werden können. Von dort werden die Messdaten per GSM direkt an die Universität des Saarlandes übertragen und von der Arbeitsgruppe Gewässermonitoring ausgewertet, die am Lehrstuhl für Anorganische Festkörperchemie angesiedelt ist.

“Die Stationen sind mit Online-Sonden und Analysegeräten ausgestattet, so dass kontinuierlich verschiedene Messgrößen wie Sauerstoff, Wassertemperatur, pH-Wert und Salzgehalt erfasst werden. Zudem werden die Gehalte an Phosphat, Nitrat, Ammonium und Kohlenstoff-Verbindungen analysiert“, erläutert Diplomgeographin Angelika Meyer, die die Arbeitsgruppe Gewässermonitoring im Saarland unter Leitung von Professor Horst P. Beck mit aufgebaut und von Beginn an wissenschaftlich begleitet hat. Neben den mobilen Messeinheiten verfügt die Arbeitsgruppe auch über Einzelsonden, um bei besonderen Belastungen direkt im Gewässer messen zu können. Auch können einzelne Proben im Labor auf eine Vielzahl weiterer Parameter untersucht werden.

„Wenn die Gewässergüte in kleineren Fließgewässern durch Schadstoffe belastet wird, merkt man das in größeren Flüssen oft nicht, weil sich bis dorthin die Konzentration der Schadstoffe stark verdünnt hat. Daher ist die engmaschige Überwachung durch mobile Messstationen so wichtig, weil wir damit neben anthropogenen Einträgen auch Schwankungen während des Tages und bei verschiedenen Wetterlagen genau verfolgen können“, erklärt Guido Kickelbick, Professor für Anorganische Festkörperchemie der Universität des Saarlandes. Heute spielten dabei nicht nur die Gewässerqualität und der Hochwasserschutz eine zentrale Rolle, sondern verstärkt auch Aspekte des Klimaschutzes. „Wenn wir verrohrte und kanalisierte Bäche wieder freilegen, so dass sie sich auf natürliche Weise durch Wiesen und Wälder schlängeln können, und wir zusätzlich die Ufer mit Gehölzen bepflanzen, hilft das nicht nur beim Hochwasserschutz, sondern wirkt sich auch positiv auf das Mikroklima aus und trägt zum Erhalt der Biodiversität bei“, erklärt Kickelbick.

Die Arbeitsgruppe Gewässermonitoring wurde vor 20 Jahren mit Förderung der EU und des Landes eingerichtet, um die europäische Wasserrahmenrichtlinie umzusetzen, die zum Ziel hat, den chemischen und ökologischen Zustand aller Fließgewässer in Europa zu schützen und zu verbessern. Inzwischen wurde die Finanzierung des Gewässermonitorings von der Landesregierung fast vollständig übernommen. Die Wissenschaftlerinnen und Wissenschaftler entwickeln die aufwändige Messmethodik kontinuierlich weiter. Im vergangenen Jahr wurde das Projekt um weitere fünf Jahre verlängert. Eine langfristige Perspektive der Thematik befindet sich in enger Abstimmung aller Beteiligten.

„Die gute und langjährige Zusammenarbeit mit der Arbeitsgruppe Gewässermonitoring der Universität des Saarlandes liefert uns wichtige Daten zur Gewässergüte der unterschiedlichsten Flüsse im Saarland. Die Ergebnisse helfen bei der Umsetzung des Maßnahmenprogramms nach der Wasserrahmenrichtlinie und sind ein wichtiger Baustein auf dem Weg zum guten Zustand der saarländischen Gewässer“, betonte die saarländische Umweltministerin Petra Berg gestern bei dem Besuch einer mobilen Messstation in Wiebelskirchen.

Wissenschaftliche Ansprechpartner:
Dipl.-Geogr. Angelika Meyer
Arbeitsgruppe Gewässerschutz
Tel. 0681 / 302-4230
Mail: a.meyer@mx.uni-saarland.de

Prof. Dr. Guido Kickelbick
Anorganische Festkörperchemie
Tel. 0681 302-70651
Mail: guido.kickelbick@uni-saarland.de

Weitere Informationen:
http://www.gewaesser-monitoring.de

(nach oben)


Aufbereitete Abwässer in der Landwirtschaft: Gesundheitliches Risiko durch Krankheitserreger auf Obst und Gemüse?

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Bundesinstitut für Risikobewertung (BfR) rät in bestimmten Fällen von Bewässerung ab

Bodennah wachsendes und roh konsumiertes Obst und Gemüse wie Salat, Möhren, Erdbeeren, oder auch frische Kräuter sollten in Deutschland nicht mit aufbereitetem Abwasser bewässert werden. Davon rät das Bundesinstitut für Risikobewertung (BfR) vor allem im Hinblick auf krankmachende Viren und Parasiten ab, die über diesen Weg auf oder in die Pflanzen gelangen können. Für eine abschließende Risikobewertung ist die derzeitige Datenlage noch unzureichend. Belegt ist jedoch, dass bestimmte Viren und einzellige Parasiten (Protozoen) Umwelteinflüssen trotzen und über rohes Obst und Gemüse Erkrankungen auslösen können. „Aufbereitetes Abwasser in der Landwirtschaft stellt die Lebensmittelsicherheit vor eine neue Herausforderung“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Um Krankheitserreger bestmöglich zu reduzieren, benötigen wir sehr gute Aufbereitungs- und Nachweisverfahren.“

Klimawandel, unvorhersehbare Wetterverhältnisse und Dürren verknappen die Wasserressourcen in Deutschland und Europa. Um dem zu begegnen wurden in der Verordnung (EU) 2020/741 Mindestanforderungen an die Nutzung von aufbereitetem Abwasser zur landwirtschaftlichen Bewässerung festgelegt. Die EU-Verordnung für die Wasserwiederverwendung ist ab dem 26. Juni 2023 gültig und soll die Umwelt sowie die Gesundheit von Mensch und Tier schützen. Das BfR hat mögliche gesundheitliche Risiken durch die Nutzung von aufbereitetem Abwasser für die Bewässerung von pflanzlichen Lebensmitteln mit Blick auf ausgewählte krankmachende Viren und Protozoen bewertet. Im besonderen Fokus standen dabei roh verzehrbares Obst und Gemüse, bei dem möglicherweise vorkommende Krankheitserreger nicht durch Erhitzen reduziert oder abgetötet werden.

Auf Basis der verfügbaren Daten spricht das BfR die Empfehlung aus, auf die Bewässerung von Pflanzen mit aufbereitetem Abwasser zu verzichten, deren roh verzehrbarer Anteil im Boden oder bodennah wächst. Diese gilt solange, bis geeignete Aufbereitungsverfahren und Kontrollen sicherstellen können, dass im Bewässerungswasser keine Krankheitserreger enthalten sind, insbesondere humanpathogene Viren oder Protozoen. Denn bei jedem der betrachteten Bewässerungssysteme (unterirdische und oberirdische Tropfbewässerung, wasserführende Gräben, Beregnungssystem, hydroponische Kultur) können Krankheitserreger nach derzeitigem Wissensstand auf oder in die essbaren Teile der Pflanzen gelangen und bei deren Rohverzehr Erkrankungen beim Menschen auslösen. Je nach Art des Krankheitserregers und Gesundheitszustands der betroffenen Person kann die gesundheitliche Beeinträchtigung variieren, bei Risikogruppen sind mitunter schwere Verläufe möglich. Hinsichtlich der Eignung von Methoden zur Inaktivierung oder Reduzierung von Krankheitserregern während der Abwasseraufbereitung besteht weiterer Forschungsbedarf.

Pflanzen, deren roh verzehrbarer Anteil bodenfern wächst, zum Beispiel Weinstöcke und Obstbäume, können nach Ansicht des BfR mit aufbereitetem Abwasser der Güteklasse A oder B bewässert werden, sofern ein direkter Kontakt der roh verzehrbaren Anteile mit dem aufbereiteten Abwasser (durch Auswahl eines geeigneten Bewässerungssystems) und dem bewässerten Boden ausgeschlossen wird. Da die betrachteten Viren und Protozoen sensibel auf Hitze reagieren, sind bei pflanzlichen Lebensmitteln, die vor dem Verzehr ausreichend erhitzt werden, keine gesundheitlichen Beeinträchtigungen durch Krankheitserreger im aufbereitetem Abwasser zu erwarten.

Stellungnahme „Aufbereitete Abwässer: Virale Krankheitserreger auf pflanzlichen Lebensmitteln vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-virale-krankheitserreger-a…

Stellungnahme „Aufbereitete Abwässer: Protozoen auf pflanzlichen Lebensmitteln vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-protozoen-auf-pflanzlichen…

Auch für den Menschen krankmachende humanpathogene Bakterien in landwirtschaftlich genutztem aufbereiteten Abwasser können das Erkrankungsrisiko durch roh verzehrtes Obst und Gemüse steigern. Dies hat bereits eine im Jahr 2020 veröffentlichte gemeinsame Bewertung von BfR, Julius Kühn-Institut (JKI) und Max Rubner-Institut (MRI) ergeben:

Stellungnahme „Aufbereitete Abwässer: Bakterielle Krankheitserreger auf frischem Obst und Gemüse vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-bakterielle-krankheitserre…

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Tankrabatt wird bisher größtenteils weitergegeben

RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Der seit 1. Juni geltende Tankrabatt für Diesel und Benzin ist bisher im Wesentlichen an die Verbraucherinnen und Verbraucher weitergegeben worden. Das ergeben aktuelle Auswertungen im Rahmen des Benzinpreisspiegels des RWI – Leibniz-Institut für Wirtschaftsforschung.

Das Wichtigste in Kürze:
– Um die Bevölkerung von hohen Energiepreisen zu entlasten, wurde in Deutschland am 1. Juni 2022 für drei Monate der sogenannte Tankrabatt eingeführt, eine temporäre Senkung der Energiesteuern auf Kraftstoffe auf das in der EU erlaubte Mindestmaß. Für Diesel sinkt in diesem Zeitraum die Energiesteuer um 14,04 Cent pro Liter, für Superbenzin um 29,55 Cent pro Liter. Inklusive der entsprechend entfallenden Mehrwertsteuer in Höhe von 19 Prozent liegt die theoretische steuerliche Entlastung insgesamt bei 16,7 Cent pro Liter Diesel und 35,2 Cent pro Liter Superbenzin.
– Der Vergleich mit den Kraftstoffpreisen zwischen Frankreich und Deutschland vor und nach Einführung des Tankrabatts zeigt, dass dieser bisher im Wesentlichen an die Verbraucherinnen und Verbraucher weitergegeben worden ist. Das ergeben Auswertungen im Rahmen des Benzinpreisspiegels des RWI – Leibniz-Institut für Wirtschaftsforschung.
– Im Mai lagen die Dieselpreise in Deutschland im Mittel etwas mehr als 13 Cent je Liter höher als in Frankreich (s. Abbildung 1). Nach Einführung des Tankrabatts in Deutschland drehte sich das Verhältnis um: Die Dieselpreise fielen in Deutschland im Juni geringer aus als in Frankreich, im Mittel um mehr als 8 Cent je Liter. Die Summe beider Differenzen in den Dieselpreisen zwischen Frankreich und Deutschland vor und nach Einführung des Tankrabatts von rund 21 Cent je Liter Diesel weist darauf hin, dass der Tankrabatt von rund 17 Cent je Liter Diesel zumindest zu sehr großen Teilen, wenn nicht gar gänzlich an die Verbraucherinnen und Verbraucher weitergegeben worden ist.
– Ein ähnliches Bild zeigt sich für die Preise von Superbenzin E10 (s. Abbildung 2): Lagen die E10-Preise in Deutschland im Mai zumeist noch über denen in Frankreich, im Mittel um rund 3,5 Cent je Liter, fielen sie im Juni deutlich geringer aus als in Frankreich. Im Mittel lagen die E10-Preise im Juni um rund 28 Cent je Liter tiefer als in Frankreich. Zusammengenommen ergibt sich eine Differenz von rund 31,5 Cent für die beiden Monate unmittelbar vor und nach der Einführung des Tankrabatts. Diese Differenz ist nahe der steuerlichen Entlastung von rund 35 Cent pro Liter Superbenzin und deutet darauf hin, dass der Tankrabatt bei Superbenzin E10 weitgehend an die Verbraucherinnen und Verbraucher weitergegeben worden ist.
– Ein abschließendes und präziseres Urteil, in welchem Ausmaß der Tankrabatt weitergegeben worden ist, lässt sich erst nach Ablauf der Vergünstigung Ende August unter Verwendung geeigneter ökonometrischer Methoden fällen.

Zum Tankrabatt für Kraftstoffe sagt der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, Manuel Frondel: „Trotz der Weitergabe an die Autofahrer ist der Tankrabatt weder unter Verteilungs- noch unter ökologischen Aspekten sinnvoll. Denn mit dem Tankrabatt wird eher den Wohlhabenden geholfen als den armen Haushalten. Diese besitzen häufig gar kein Auto. Zudem ist der Tankrabatt ökologisch kontraproduktiv: Er hält nicht dazu an, weniger Benzin und Diesel zu verbrauchen. Genau das wäre aus ökologischen Gründen aber notwendig.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, manuel.frondel@rwi-essen.de, Tel.: 0201 8149-204

(nach oben)


Politikpanel-Umfrage: Deutsche fühlen sich von aktuellen Krisen stark bedroht

Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Befragte sehen vor allem beim Einkommen und beim Thema Gendern eine deutliche Spaltung der Gesellschaft
• Die Corona-Pandemie liegt nur noch auf Platz fünf der aktuellen Krisen – Ukrainekrieg und Preissteigerungen werden als stärkste Bedrohungen wahrgenommen
• An der Online-Umfrage nahmen 8.000 Personen aus ganz Deutschland teil

Die Mehrheit der Deutschen sieht sich durch die aktuellen Krisen in ihrer Sicherheit bedroht: Über 78 Prozent der Befragten des aktuellen „Politikpanels Deutschland“ der Universität Freiburg betrachten den Ukraine-Krieg als bedrohlich oder sehr bedrohlich. Der Krieg im Osten Europas überlagert damit alle andere Probleme. Auf Platz zwei liegt die Angst vor Inflation und steigenden Preisen (72 Prozent). Von den Teilnehmer*innen der Online-Befragung empfinden 65 Prozent der Befragten die Klimakrise als eher oder sehr bedrohlich.

Für die Umfrage des Politikpanel Deutschland haben die Freiburger Politikwissenschaftler Prof. Dr. Uwe Wagschal und Dr. Sebastian Jäckle in Zusammenarbeit mit Dr. James Kenneth Timmis vom Universitätsklinikum Freiburg mehr als 8.000 Personen aus ganz Deutschland zu politischen und gesellschaftlichen Themen befragt. Das lange beherrschende Corona-Thema liegt bei der aktuellen Umfrage noch hinter dem Thema Staatsverschuldung nur noch auf Platz fünf der bedrohlichen Krisen, lediglich 29,6 Prozent der Befragten sehen hier noch eine große Bedrohung.

Deutliche Unterschiede nach Parteipräferenz
Dabei unterscheiden sich die Befragten je nach Wahlabsicht zum Teil deutlich in ihrer Bedrohungswahrnehmung: So wird der Ukraine-Krieg nur von 47 Prozent der AfD-Anhänger*innen als bedrohlich oder sehr bedrohlich genannt, wohingegen mehr als 80 Prozent der Unions-, SPD- und Grünen-Anhänger*innen dies so sehen. Auch bei der Klima-Krise ist die Wahrnehmung der Bedrohung extrem unterschiedlich ausgeprägt: 48 Prozent der AfD-Anhänger*innen sehen die Klima-Krise als gar nicht bedrohlich, bei den Grünen-Anhängern*innen sind dies nur 0,25 Prozent.

Gesellschaft bei vielen Fragen gespalten
Ein Schwerpunkt der aktuellen Politikpanel-Umfrage ist die Spaltung der Gesellschaft. Über 80 Prozent der Befragten sehen die Gesellschaft bei der Einkommens- und Vermögensverteilung als ziemlich stark beziehungsweise sehr stark gespalten an. Beim Thema Gendern sehen knapp 70 Prozent eine solch starke Spaltung. „Offensichtlich sind in der Gesellschaft starke Unterschiede bei den Werte- und Normeneinstellungen zu beobachten“, erklärt Jäckle.

Das gelte auch in Bezug auf eine so genannte Cancel Culture, also die Tendenz, andere Menschen aufgrund ihrer Ansichten und Einstellungen zu blockieren und von Veranstaltungen auszuschließen: Hier sieht ebenfalls eine Mehrheit die Gesellschaft als gespalten an, gleichzeitig ist dieser Begriff fast 30 Prozent der Befragten nicht bekannt oder sie haben keine Meinung hierzu. Die geringste Spaltung wird zwischen Ost- und Westdeutschland gesehen, nur etwas über 30 Prozent der Befragten sehen hier eine starke Spaltung.

Deutsche wollen Dienstpflicht – vor allem die Älteren
Das kürzlich von Bundespräsident Frank-Walter Steinmeier aufgebrachte Thema einer allgemeinen Dienstpflicht stößt in der Bevölkerung überwiegend auf Zustimmung. Befragte über 30 Jahre befürworten eine solche Dienstpflicht zu 60 bis 70 Prozent, am stärksten ist die Zustimmung bei Befragten über 60 Jahre. Die jüngste Gruppe der 18- bis 30-Jährigen lehnt eine Dienstpflicht hingegen mehrheitlich ab, obwohl auch hier etwa 42 Prozent ihr positiv gegenüberstehen.

So gut wie keinen Unterschied zwischen den Altersgruppen gibt es bei der Frage, ob die Gesellschaft auf freiwilliges Engagement der Bevölkerung angewiesen ist: Etwa 85 Prozent stimmen dieser Aussage eher oder voll und ganz zu. Die große Mehrheit derjenigen, die in der Vergangenheit einen Dienst abgeleistet haben (zum Beispiel Wehrdienst oder Zivildienst), haben diesen als gute und sinnvolle Erfahrung in Erinnerung.

Faktenübersicht:
• Das Politikpanel Deutschland ist eine Umfrage des Seminars für Wissenschaftliche Politik der Universität Freiburg. Seit der Bundestagswahl 2017 findet es in unregelmäßigen Abständen statt.
• Die aktuellen Ergebnisse können abgerufen werden unter www.politikpanel.uni-freiburg.de .
• Für die aktuelle Umfrage wurden mehr als 8.000 Personen aus ganz Deutschland online zu politischen und gesellschaftlichen Themen befragt. Die Befragung lief vom 30. Juni bis zum 17. Juli 2022. Die Daten der Teilnehmenden wurden anhand der soziodemographischen Merkmale Alter, Geschlecht, Bundesland und Wahlabsicht gewichtet und somit an die reale Verteilung in der Bevölkerung angepasst.
• Prof. Dr. Uwe Wagschal ist Professor für Vergleichende Regierungslehre am Seminar für Wissenschaftliche Politik der Universität Freiburg. Dr. Sebastian Jäckle ist dort Akademischer Rat. Dr. James Kenneth Timmis ist Mitarbeiter des Universitätsklinikums Freiburg.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Uwe Wagschal
Seminar für Wissenschaftliche Politik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-9361
E-Mail: politikpanel@politik.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/politikpanel-umfrage-deutsche-fueh…

Anhang
Politikpanel-Umfrage_Grafiken

(nach oben)


Hitze – was tun?

Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Längere Hitzephasen gehören zu den Folgen eines Klimawandels, die unsere Gesundheit genau wie die Natur und Landwirtschaft direkt betreffen. Wie Menschen am besten mit Hitze umgehen können und welche Maßnahmen seitens der Politik nötig sind, fasst Prof. Dr. Claudia Traidl-Hoffmann, Umweltmedizinerin an der Medizinischen Fakultät der Universität Augsburg im Interview zusammen.

Wer ist besonders durch Hitze gefährdet?
Besonders gefährdet sind die vulnerablen Gruppen: ältere Menschen, Säuglinge und Kleinkinder. Und natürlich auch Vorerkrankte. Aber auch gesunde, fitte Menschen sind gefährdet, nämlich die Gefahr zu unterschätzen. Immer wieder werden Menschen in die Notaufnahme eingeliefert, die trotz hoher Temperaturen intensiv Sport treiben, stundenlang Rasen mähen oder in der prallen Sonne ausgiebig Arbeiten im Freien durchführen. Der menschliche Körper, mag er noch so fit und gesund sein, kann sich nicht unbegrenzt selbst kühlen – hier ist gesunder Menschenverstand gefragt.

Was kann ich persönlich tun, um Hitzewellen gut zu überstehen?
Die meisten Dinge, die helfen sich vor Hitze zu schützen, sind sehr einfach. Lüften Sie in der Nacht, um Kühle in die Wohn- und Arbeitsräume zu lassen und schließen Sie Fenster und ggf. Jalousien tagsüber, um die Wärme auszusperren. Gehen Sie anstrengenden Tätigkeiten nicht in praller Mittagshitze nach oder treiben Sie Sport in den frühen Morgenstunden oder am späten Abend. Trinken Sie ausreichend, am besten jede Stunde ein Glas Wasser, in etwa 2,5 – 3 l pro Tag. Wasser oder ungesüßte Tees sind am geeignetsten. Nehmen Sie leichte Mahlzeiten zu sich: Obst, Gemüse und Salat sind ideal – fette Speisen belasten eher. Auch Salziges wie etwa Salzstangen können helfen, den Elektrolythaushalt wieder ins Gleichgewicht zu bringen, wenn Sie viel geschwitzt haben. Lauwarme Duschen oder ein Sprühnebel auf der Haut schaffen Kühlung und erleichtern eventuell das Einschlafen bei hohen Temperaturen.
Langfristig hilft auch, das Umfeld zu begrünen – Bäume wirken wie Klimaanlagen.

Sind wir hier in Deutschland generell gewappnet für die kommende Hitze?
Nein, leider sind wir das momentan noch nicht. Frankreich hat nach dem Hitzesommer 2003 reagiert und Pläne in Kraft gesetzt, die nun die Bevölkerung umfassend im Falle einer Hitzeperiode schützen. Jeder weiß, was er im Fall der Fälle zu tun hat und die Zahl der Hitzetoten ist daraufhin dramatisch gesunken. In Deutschland sind wir leider noch nicht so weit. Die diesjährige, sehr langanhaltende Hitze trifft uns quasi unvorbereitet, als ob wir noch nicht glauben wollten, dass es bei uns heiß ist, sogar sehr heiß im Sommer. Die Gefahr wird noch immer, zum Teil auch in der Ärzteschaft, unterschätzt. Andererseits ist viel in Bewegung gekommen. Ich arbeite z.B. an der Erstellung eines Hitzeschutzplanes des Freistaates Bayern mit und nicht zuletzt die umfangreiche Berichterstattung bringt den Menschen die Dringlichkeit näher. Zum jetzigen Zeitpunkt jedoch sind wir hier weder institutionell oder individuell ausreichend vorbereitet oder geschützt. Dramatische Szenen könnten die Folge sein.

Was muss die Politik verändern?
Das naheliegendste in puncto Hitzeschutz ist zunächst ein Plan. Jeder sollte wissen, auf was bei Hitze zu achten ist: als Lehrer, als Nachbarin, als Ärztin, als Vater, als Altenpfleger oder Bürgermeisterin. Wo wohnen in der Kommune ältere Menschen in Dachgeschosswohnungen? Wer muss an kühlere Orte gebracht werden? Ab wann gibt es dann einfach keine Bundesjugendspiele mehr? Sehr viele weitere Maßnahmen sind nur mittel- und langfristig umsetzbar. Der Umbau der Städte zu grünen, nachhaltigen Orten, Schwammstädten z.B., die den sogenannten „Hitzeinseleffekt“ abmildern oder vermeiden, ist eine längerfristige, sehr kostenintensive Notwendigkeit. Und, von seiten der Politik unabdingbar: die Vermeidung von Emissionen und die Einhaltung der Klimaziele müssen jetzt einfach Priorität 1 haben. Es geht nicht mehr „nur“ um den Eisbären, es geht schon lange um uns selbst.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Claudia Traidl-Hoffmann
Lehrstuhlinhaberin Umweltmedizin
Telefon: +49 821 598-6424 (Sekretariat)
melanie.pawlitzki@uni-a.de (Pressereferentin)

(nach oben)


Wasserstoffbedarfe künftig decken: ESYS zeigt Importoptionen für grünen Wasserstoff auf

Anja Lapac Geschäftsstelle
acatech – Deutsche Akademie der Technikwissenschaften
Wasserstoff ist ein Schlüsselelement, um Klimaneutralität zu erreichen. Besonders für die Dekarbonisierung der Industrie und bestimmter Verkehrssektoren stellt er eine wichtige Ergänzung zur direkten Elektrifizierung dar. Um die künftig hohen Bedarfe zu decken, werden Importe nötig sein. Es gilt, aus der Vergangenheit zu lernen und Abhängigkeiten zu minimieren. Die ESYS-Fachleute zeigen in einer Analyse Transportoptionen und ihre Vor- und Nachteile auf und beschreiben Hemmnisse und Herausforderungen für den Aufbau von Transportketten und Wasserstoffkooperationen.

Einige Szenarien sehen für 2030 einen inländischen Bedarf an Wasserstoff und dessen Syntheseprodukten von rund 45–110 Terawattstunden, der bis 2045 auf etwa 400–700 Terawattstunden steigen wird. Diese Mengen wird Deutschland kaum selbst herstellen können und deshalb bei diesem Schlüsselelement der Energiewende auf ergänzende Importe aus der EU und voraussichtlich auch aus Nicht-EU-Ländern zurückgreifen müssen. Doch woher soll der benötigte Wasserstoff kommen? Und wie viel wird dieser Transport kosten?

Eine Arbeitsgruppe des Akademienprojekts „Energiesysteme der Zukunft“ (ESYS) – einer vom Bundesministerium für Bildung und Forschung (BMBF) geförderten gemeinsamen Initiative von acatech, Leopoldina und Akademienunion – zeigt in der Analyse „Optionen für den Import von grünem Wasserstoff nach Deutschland bis zum Jahr 2030“ auf, welche Transportoptionen bestehen, und vergleicht diese anhand verschiedener Kriterien. Berechnungen zu Kosten und Energieeffizienz der jeweiligen Transportketten fließen ebenso in die Betrachtungen ein wie qualitative Kriterien, unter anderem zu Umweltwirkungen, bestehenden Infrastrukturen sowie zur politisch-rechtlichen Umsetzbarkeit.

Die Analyse zeigt, dass die bis 2030 benötigten Importmengen grundsätzlich zu beschaffen sind, wenn die richtigen infrastrukturellen, rechtlichen und unternehmerischen Weichen schnell gestellt werden. Die Fachleute sprechen sich nicht für eine dominante Transportoption aus, sondern zeigen auf, dass eine Reihe von Optionen – mit unterschiedlichen Umsetzungsanforderungen sowie jeweiligen Vor- und Nachteilen – einen Beitrag zur Bedarfsdeckung 2030 leisten können. Dabei ist die Transportdistanz nicht zwangsläufig der treibende Kostenfaktor und eine Vielzahl an Regionen eignet sich für die Herstellung und den Export von Wasserstoff nach Deutschland.

Relevante Transportoptionen bis 2030: Reiner Wasserstoff per Pipeline, Syntheseprodukte via Schiff

Sowohl der Transport per Schiff als auch der über Pipelines ist möglich, eignet sich aber je nach Verwendung und Transportdistanz nicht für jeden Zweck gleichermaßen: Reiner Wasserstoff lässt sich gut mittels Pipelines transportieren, doch der Aufbau neuer Pipelines bis 2030 ist herausfordernd. Durch eine Umrüstung oder die Trassennutzung bestehender Infrastrukturen ließen sich nicht nur Kosten einsparen, sondern vor allem Planungs- und Umsetzungszeiten verkürzen. Für Syntheseprodukte wie Ammoniak und Methanol bietet sich hingegen der Transport via Schiff an: Es gibt bereits bestehende Produktions- und Transportstrukturen, auf die zurückgegriffen werden kann. Das Transportgut sollte dann jedoch direkt als Syntheseprodukt genutzt werden, ohne den gebundenen Wasserstoff wieder zu extrahieren, denn dies wäre energetisch ineffizienter und teuer.

Weichen stellen für eine grüne Wasserstoffwirtschaft 2030: technologisch, rechtlich und kooperativ

Ein ambitionierter Einstieg in die Wasserstoffwirtschaft ist notwendig. Zugleich gilt es, Schnellschüsse und Lock-ins zu vermeiden und im europäischen und globalen Maßstab zu denken – auch über 2030 hinaus. Es braucht nicht nur den Sprung relevanter Technologien von der Entwicklung in die industrielle Serienfertigung, sondern auch rechtliche und politische Rahmensetzungen, um für potenzielle Produzenten, Investoren und Abnehmer mehr Klarheit und Sicherheit zu schaffen. Das betrifft zum Beispiel eine Zertifizierung, die verlässlich definiert, was grüner Wasserstoff und die entsprechenden Derivate sind.

Für die Kooperation mit potenziellen Exportländern ist es wichtig, dass diese genügend Erneuerbare-Energien-Potenziale haben, um neben der eigenen Defossilisierung auch Wasserstoffexporte realisieren zu können. Zudem sind mögliche Konflikte um Ressourcen zu berücksichtigen – etwa hinsichtlich der Flächenverfügbarkeit oder der Wasserversorgung. Ziel der deutschen Wasserstoffpolitik sollte eine nachhaltige Umsetzung auf Augenhöhe sein, die beiden Handelspartnern nutzt.

Zur Publikation:
https://energiesysteme-zukunft.de/publikationen/analyse/transportoptionen-wasser…

Ansprechpartnerin:
Anja Lapac, Referentin Presse- und Öffentlichkeitsarbeit
acatech – Deutsche Akademie der Technikwissenschaften | Koordinierungsstelle „Energiesysteme der Zukunft“
Tel.: +49 (0)89 5203 09-850
lapac@acatech.de

Weitere Ansprechpartnerinnen:
Caroline Wichmann, Leiterin der Abteilung Presse- und Öffentlichkeitsarbeit
Nationale Akademie der Wissenschaften Leopoldina
Tel.: +49 (0)345 472 39-800
presse@leopoldina.org

Dr. Annette Schaefgen, Leiterin Presse- und Öffentlichkeitsarbeit
Union der deutschen Akademien der Wissenschaften
Tel.: +49 (0)30 325 98 73-70
schaefgen@akademienunion-berlin.de

Wissenschaftliche Ansprechpartner:
Sven Wurbs
acatech – Deutsche Akademie der Technikwissenschaften
Koordinierungsstelle „Energiesysteme der Zukunft“
Tel.: +49 (0) 30/2 06 30 96-23
wurbs@acatech.de

Originalpublikation:
Staiß, F. et al.: Optionen für den Import grünen Wasserstoffs nach Deutschland bis zum Jahr 2030: Transportwege – Länderbewertungen – Realisierungserfordernisse (Schriftenreihe Energiesysteme der Zukunft), München 2022.

Anhang
Importoptionen Wasserstoff – ESYS

(nach oben)


Forschung für den Klimaschutz: Projekte zur Reduzierung der CO2-Konzentration in der Atmosphäre gesucht.

Dr. Kristine Bentz Förderbereich Forschung
Vector Stiftung
Die Vector Stiftung unterstützt Ideen, Konzepte und Strategien, die vorhandenes CO2 aus der Atmosphäre entfernen, CO2-Emissionen reduzieren oder ganz vermeiden. Pro Projekt können bis zu 350.000 Euro beantragt werden. Projektanträge werden laufend entgegengenommen.

Anthropogene Treibhausgasemissionen, allen voran CO2-Emissionen, die durch die Verbrennung fossiler Energieträger und durch industrielle Prozesse freigesetzt werden, sind die Hauptursache für den Klimawandel. Um die globale Erwärmung unter 2°C (über dem vorindustriellen Niveau) zu halten, sind zusätzlich Anstrengungen zur Reduktion des Emissionswachstums bzw. zur Verringerung der Treibhausgaskonzentration in der Atmosphäre erforderlich.

Die aktuelle Ausschreibung richtet sich an Wissenschaftler:innen, die sich mit neuen innovativen Konzepten oder technologischen (Weiter-)Entwicklungen zur Reduzierung der CO2-Konzentration in der Atmosphäre beschäftigen.

Pro Projekt können bis zu 350.000 Euro für eine Laufzeit von maximal 36 Monaten beantragt werden.

Antragsberechtigt sind Hochschulen, Universitäten und außeruniversitäre Forschungseinrichtungen in Baden-Württemberg. Projekte können als Einzel- oder als Verbundvorhaben durchgeführt werden. Auch ganzheitliche Betrachtungsweisen und interdisziplinäre Ansätze verschiedener Fachrichtungen werden begrüßt.

Insbesondere werden Projektanträge eingeladen, die sich mit folgenden Forschungsfragen auseinandersetzen, jedoch nicht auf diese beschränkt sein müssen:

▸ CO2-Gewinnung aus der Luft
▸ CO2-Abscheidung an Punktquellen
▸ CO2-neutrale Kohlenstoffverwertung
▸ Ersatz fossiler Kohlenstoffquellen
▸ Dauerhafte Speicherung von CO2

Um den fachlichen Austausch zu unterstützen, plant die Vector Stiftung ein jährliches Netzwerktreffen aller zur Förderung ausgewählten Projekte. Mittel für Organisation und Durchführung werden von der Vector Stiftung zentral zur Verfügung gestellt.

Keine Einreichungsfrist. Anträge können laufend über das Online-Antragsportal eingereicht werden. Eingereichte Anträge werden zeitnah begutachtet, die Antragstellenden werden ggf. aufgefordert, ihr Vorhaben dem Forschungsbeirat persönlich zu präsentieren (virtuell oder vor Ort). Die finale Förderentscheidung fällt i.d.R. innerhalb von 4 Monaten nach Antragseinreichung.

Alle relevanten Informationen sowie den Zugang zum Online-Antragsportal unter https://vector-stiftung.de/foerderbereiche/#ausschreibungen

Wissenschaftliche Ansprechpartner:
Dr. Kristine Bentz
Leiterin Forschungsförderung
+49 (0)711 80670 1181
kristine.bentz@vector-stiftung.de

(nach oben)


Herzinfarkt bei Hitze – welche Rolle spielen Herz-Kreislauf-Medikamente?

Verena Coscia Kommunikation
Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH)
Bei hohen Temperaturen haben Menschen, die bestimmte Medikamente einnehmen, ein erhöhtes Herzinfarktrisiko: Dies fand ein Forscherteam um Dr. Alexandra Schneider, Forschungsgruppenleiterin ‚Environmental Risks‘ vom Helmholtz Munich Institut für Epidemiologie und Kai Chen, PhD vom Yale Institute for Global Health heraus. Für Menschen mit koronarer Herzkrankheit können Betablocker zwar die Lebensqualität verbessern und Thrombozytenaggregationshemmer das Risiko eines Herzinfarkts senken. Allerdings deuten die Ergebnisse der neuen Studie darauf hin, dass diese Schutzmaßnahmen an besonders heißen Tagen auch eine gegenteilige Wirkung haben können.

Bekannt ist, dass Umweltfaktoren, wie Luftverschmutzung und niedrige Außentemperaturen, Herzinfarkte auslösen können. Darüber hinaus zeigt sich immer deutlicher, dass ein akuter Herzinfarkt auch durch Hitze ausgelöst werden kann. Allerdings war bisher unklar, ob Patient:innen, die bestimmte Herz-Kreislauf-Medikamente einnehmen, ein höheres Risiko aufweisen, an heißen Tagen einen Herzinfarkt zu erleiden, als Patient:innen ohne diese regelmäßige Medikamenteneinnahme. Dieser Frage gingen die Forscher auf den Grund und zogen für ihre Analysen Daten des Herzinfarktregisters Augsburg der Jahre 2001 bis 2014 heran. Insgesamt konnten 2.494 Fällen während der Monate Mai bis September betrachtet werden.

Anstieg des Herzinfarktrisikos um mehr als 60 %
Es zeigte sich an heißen Tagen im Vergleich zu kühleren Kontrolltagen ein signifikant erhöhtes Risiko für nicht-tödliche Herzinfarkte bei Patient:innen, die Thrombozytenaggregationshemmer bzw. Betablocker einnahmen im Vergleich zu Patient:innen, die diese Medikamente nicht einnahmen. Die Einnahme von Thrombozytenaggregationshemmern war mit einem Anstieg des Risikos um 63% und die Einnahme von Betablockern mit einem Anstieg des Risikos um 65% verbunden. Patient:innen, die beide Medikamente einnahmen, hatten ein um 75% höheres Risiko. Bei Nichtanwendern dieser Medikamente war die Wahrscheinlichkeit eines Herzinfarkts an heißen Tagen nicht erhöht. Interessant ist auch, dass der Effekt der Medikamenteneinnahme in der jüngeren Altersgruppe (25–59 Jahre) stärker als bei älteren Patient:innen (60–74 Jahre) war, obwohl letztere häufiger bereits zugrunde liegende koronare Herzerkrankungen aufwiesen.

Mögliche Gründe für das erhöhte Risiko
Die Forschungsergebnisse beweisen nicht, dass diese Medikamente bei Hitze die Herzinfarkte verursacht haben. Die Wissenschaftler:innen spekulieren jedoch auf Grund dieser Daten, dass die Einnahme der Medikamente die Thermoregulation im Körper, also die Anpassung an hohe Temperaturen, erschwert. Somit könnte die Medikamenteneinnahme diese Patient:innen tatsächlich empfindlicher gegenüber Hitzeexposition machen. Denkbar ist allerdings auch, dass die zugrunde liegende schwere Herzerkrankung, sowohl die Verschreibung der genannten Medikamente erklärt, als auch die höhere Empfindlichkeit dieser Patient:innen gegenüber Hitze. Gegen letztere Hypothese spricht, dass zum einen der beobachtete Risikoanstieg durch die Medikamenteneinnahme besonders stark in der an sich gesünderen und jüngeren Patient:innengruppe auftrat. Darüber hinaus konnte bei keinem weiteren Medikament, das häufig von Herzpatient:innen eingenommen wird, eine Risikoerhöhung bzgl. das Auftretens von Herzinfarkten bei Hitze beobachtet werden (mit Ausnahme bei der Einnahme von Statinen).

Besondere Vorsicht bei Hitzewellen
„Die Ergebnisse legen nahe, dass Herzinfarkte mit fortschreitendem Klimawandel und damit verbundenen häufigeren heißen und sehr heißen Tagen zu einer größeren Gefahr für Patient:innen mit bestehenden Herz-Kreislauf-Erkrankungen werden können“ erklärt Dr. Alexandra Schneider. Besonders während Hitzewellen sei es für Betroffene daher ratsam, vorsichtig zu sein und sich im Kühlen aufzuhalten. „Welche Untergruppen der Bevölkerung am anfälligsten für diese Umweltextreme sind und damit am meisten von einem auf sie zugeschnittenen gesundheitlichen Hitzeschutz profitieren würden, ist aber noch unklar und bedarf weiterer Forschung“, so die Wissenschaftlerin. Vor allem die Wirkung der Medikamente auf die Thermoregulation, die veränderte Wirksamkeit der Medikamente bei Hitze sowie das Zusammenspiel von Medikamenten mit gesundheitlichen Hitzefolgen wie Dehydrierung, müsse noch besser erforscht werden. „Nur dann können Hausärzte auf angekündigte heiße Tage und Hitzewellen reagieren und die Medikation ihrer Patient:innen kurzfristig entsprechend anpassen“ erläutert die Forscherin.

Wissenschaftliche Ansprechpartner:
Dr. Alexandra Schneider, Forschungsgruppenleiterin ‚Environmental Risks‘ vom Helmholtz Munich Institut für Epidemiologie

Originalpublikation:
Kai Chen  et al.: Triggering of myocardial infarction by heat exposure is modified by medication intake, Nature Cardiovascular Research. DOI: 10.1038/s44161-022-00102-z

(nach oben)


Die Gestalt des Raumes – Ausstellung von IÖR und BBSR in Berlin zeigt Facetten der Landnutzung

Heike Hensel Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für ökologische Raumentwicklung e. V.
Deutschlands Landschaften sind vielfältig und einem steten Wandel unterworfen. Wachsende Städte, Windkraftanlagen und Solarfelder, Hochspannungstrassen, neue Verkehrswege, Agrarindustrie und zunehmende Technisierung verändern das Landschaftsbild immer schneller. Die Ausstellung „Die Gestalt des Raumes – Landschaften Deutschlands als Abbilder der Gesellschaft“ macht diesen Wandel mit vielfältigen Luftbildern sichtbar. Das Leibniz-Institut für ökologische Raumentwicklung (IÖR) und das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) präsentieren die Ausstellung vom 1. bis 26. August im Ernst-Reuter-Haus in Berlin.

Die Ausstellung „Die Gestalt des Raumes – Landschaften Deutschlands als Abbilder der Gesellschaft“ dokumentiert den gesellschaftlichen Umgang mit Landschaft in Deutschland. Unsere räumlichen Lebensgrundlagen sind einem steten Wandel unterworfen. Landnutzung ist dabei Ausdruck gesellschaftlicher Ansprüche, wirtschaftlicher Tätigkeiten, kultureller Prägungen, naturräumlicher Ausstattung und geschichtlicher Entwicklungen. Sie ist auch ein Resultat räumlicher Planungen auf verschiedenen Ebenen, die die Veränderungen steuern und versuchen, Flächennutzungskonflikte auszugleichen. Das Ergebnis sind im Vergleich zu europäischen Nachbarn meist klar gegliederte Siedlungsstrukturen und häufig auch schöne Kulturlandschaften, vielerorts aber auch Zersiedelung, Landschaftszerschneidung sowie Boden- und Waldschäden.

Anhand einer Vielzahl von Luftaufnahmen zeigt die Ausstellung eindrücklich verschiedene Facetten der Landnutzung in Deutschland: Siedlungsstrukturen von hochverdichteten Innenstädten bis hin zu Stadtrandlagen und urbanem Grün, Verkehrsinfrastrukturen sowie Industrie- und Energielandschaften, landwirtschaftliche Flächen von ausgeräumten Bergbaufolge- und agrarindustriellen Landschaften bis zu Ökolandbau, Waldbeständen und Freizeitlandschaften. Die von einem Fotokopter und einem Luftschiff aus einer Höhe von bis zu 100 Metern aufgenommenen Bilder ermöglichen einen neuen und zuweilen überraschenden Blick auf meist kleinräumig strukturierte, geordnete und genutzte Landschaften.

Am 25. August findet um 17 Uhr die Finissage der Ausstellung statt. Die Präsidentin des Bundesamtes für Bauwesen und Raumordnung, Petra Wesseler, wird die Veranstaltung eröffnen. In einem Gespräch mit den Autorinnen und Autoren des Fotobandes, der der Ausstellung zugrunde liegt, geht es um Wege für einen schonenden Umgang mit Landschaften und Siedlungsräumen in Deutschland.

Der Eintritt zu Ausstellung und Finissage ist frei.

Ausstellungsdauer: 01.08. – 26.08.2022

Ausstellungsort: Bundesamt für Bauwesen und Raumordnung, Ernst-Reuter-Haus, Straße des 17. Juni 112, 10623 Berlin

Öffnungszeiten: Montag bis Freitag 10 bis 18 Uhr
Eintritt frei

Wissenschaftliche Ansprechpartner:
Dr. Gotthard Meinel, E-Mail: G.Meinel@ioer.de

Originalpublikation:
Fotoband zur Ausstellung
Wendelin Strubelt, Fabian Dosch, Gotthard Meinel (Hrsg.)
„Die Gestalt des Raumes. Landschaften Deutschlands als Abbilder der Gesellschaft“ mit Fotos von Jürgen Hohmuth und Marcus Fehse (zeitort.de, Berlin) sowie Fachbeiträgen verschiedener Autor*innen
Wasmuth & Zohlen Verlag, 2021
ISBN: 978 3 8030 2224 0

Weitere Informationen:
http://www.die-gestalt-des-raumes.de – Internetseite zum Fotoband
https://wasmuth-verlag.de/shop/architektur-stadtplanung/urbanismus/die-gestalt-d… – Verlagsinformationen

Anhang
Pressemitteilung als PDF

(nach oben)


Neues Zentrum für modell-basierte Künstliche Intelligenz

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Um Methoden der mathematischen Modellierung mit der Informationsverarbeitung in neuronalen Netzen zu verbinden, ist an der Universität Heidelberg ein Zentrum für modell-basierte Künstliche Intelligenz etabliert worden. Den Aufbau des CZS Heidelberg Center for Model-Based AI fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit fünf Millionen Euro. Hier sollen Forschungsaktivitäten des Interdisziplinären Zentrums für Wissenschaftliches Rechnen (IWR) mit Techniken des Deep Learning verknüpft werden.

Carl-Zeiss-Stiftung fördert Aufbau des CZS Heidelberg Center for Model-Based AI mit fünf Millionen Euro
Um Methoden der mathematischen Modellierung mit der Informationsverarbeitung in neuronalen Netzen zu verbinden, ist an der Universität Heidelberg ein Zentrum für modell-basierte Künstliche Intelligenz etabliert worden. Den Aufbau des CZS Heidelberg Center for Model-Based AI fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit fünf Millionen Euro. Hier sollen Forschungsaktivitäten des Interdisziplinären Zentrums für Wissenschaftliches Rechnen (IWR) mit Techniken des Deep Learning verknüpft werden. Ziel ist es, hocheffektive, energieeffiziente und datenschutzkonforme Verfahren der Problemlösung für Forschung und Industrie zu entwickeln, wie Prof. Dr. Jürgen Hesser, Wissenschaftler an der Medizinischen Fakultät Mannheim, als Sprecher der neuen interdisziplinären Einrichtung erläutert.

Ansatz der Wissenschaftler am CZS Heidelberg Center for Model-Based AI ist es, vorhandenes Wissen aus großen Datenmengen in Methoden des modellbasierten Deep Learning zu implementieren. Damit sollen neuronale Netze zur Informationsverarbeitung so trainiert werden, dass sie eine möglichst schnelle und präzise Lösung von Problemen erzielen. Um dies zu erreichen, werden die Experten verschiedene Fragestellungen aus der Forschung zur Künstlichen Intelligenz bearbeiten, unter anderem zur Verlässlichkeit von Lerndaten, zur Effektivität der Objekterkennung sowie zur Qualität der Datenspeicherung und Datenauswertung. Von zentraler Bedeutung ist dabei die Kombination von mathematischen Modellen und modernen Verfahren des maschinellen Lernens.

„Wir arbeiten an Methoden, die zuverlässig sind und aufzeigen, wie sicher die mithilfe der neuronalen Netze getroffenen Entscheidungen sind“, so Prof. Dr. Ullrich Köthe, Gruppenleiter in dem am IWR angesiedelten Computer Vision and Learning Lab, der maßgeblich am Aufbau des neuen Zentrums beteiligt ist. Unter dem Stichwort „green IT“ wollen die Forscherinnen und Forscher die von ihnen verwendeten numerischen Techniken so gestalten, dass sie nicht nur bei der Auswertung, sondern bereits bei ihrer Anpassung an die jeweils zu nutzenden Daten möglichst wenig Energie verbrauchen. Zudem soll untersucht werden, wie gesetzliche Bestimmungen – etwa Datenschutz oder Medizinrecht – sinnvoll in die KI-Modelle implementiert werden können.

Um zu demonstrieren, was die neuen Methoden zu leisten imstande sind, wollen die Wissenschaftler ihre Verfahren in einem hoch relevanten Feld der Medizin – der Krebsbehandlung – anwenden. Ziel ist es, mit vorprogrammiertem Wissen Systeme der Künstlichen Intelligenz für die Therapie zu optimieren, wie Prof. Hesser erläutert. Der Experte für Medizinische Physik leitet die Forschungsgruppe „Datenanalyse und Modellierung in der Medizin“ am Mannheim Institute for Intelligent Systems in Medicine, das an der Medizinischen Fakultät Mannheim angesiedelt ist; zudem ist er Mitglied im Interdisziplinären Zentrum für Wissenschaftliches Rechnen der Universität Heidelberg.

Das CZS Heidelberg Center for Model-Based AI hat im Frühjahr seine Arbeit aufgenommen. Dem Zentrum gehören elf Forscherinnen und Forscher aus den Bereichen Mathematik, Informatik, Physik und Medizin an. Eingebunden ist neben dem IWR auch das Institut für Technische Informatik der Universität Heidelberg. Neu eingerichtet werden soll zudem eine Nachwuchsprofessur im Bereich Model-Based AI, um auch hier grundlegende Fragen der Forschung vertiefend bearbeiten zu können.

Die Carl-Zeiss-Stiftung fördert den Aufbau des CZS Heidelberg Center for Model-Based AI im Rahmen des „CZS Durchbrüche“-Programms. Damit unterstützt die Stiftung internationale Spitzenforschung in Baden-Württemberg, Rheinland-Pfalz und Thüringen. Mit diesen Mitteln soll bereits ausgewiesene Forschungsstärke weiterentwickelt und national wie auch international ausgebaut werden.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
https://www.uni-heidelberg.de/de/newsroom/neues-zentrum-fuer-modell-basierte-kue… – Pressemitteilung
http://www.umm.uni-heidelberg.de/miism/data-analysis-and-modeling-in-medicine – Jürgen Hesser
https://hci.iwr.uni-heidelberg.de/vislearn/people/ullrich-koethe – Ullrich Köthe
http://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/mod… – CZS Heidelberg Center for Model-Based AI
http://www.carl-zeiss-stiftung.de – Carl-Zeiss-Siftung

(nach oben)


Schwimmen ohne Hirn und Muskeln

Dr. Manuel Maidorn Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Dynamik und Selbstorganisation
Bakterien und andere einzellige Organismen haben trotz ihrer vergleichsweisen einfachen Strukturen ausgeklügelte Methoden entwickelt, um sich aktiv fortzubewegen. Um diese Mechanismen aufzudecken, haben Forschende des Max-Planck-Instituts für Dynamik und Selbstorganisation (MPI-DS) Öltröpfchen als Modell für biologische Mikroschwimmer verwendet. Corinna Maass, Gruppenleiterin am MPI-DS und Associate Professor an der Universität Twente, untersuchte zusammen mit ihren Kolleg*innen in mehreren Studien die Strategien von Mikroschwimmern: Wie navigieren diese in engen Kanälen, wie beeinflussen sie sich gegenseitig und wie schaffen sie es sich durch kollektive Rotation fortzubewegen?

Um zu überleben, müssen biologische Organismen auf ihre Umwelt reagieren. Während Menschen oder Tiere über ein komplexes Nervensystem verfügen, um ihre Umgebung wahrzunehmen und bewusste Entscheidungen zu treffen, haben einzellige Organismen andere Strategien entwickelt. In der Biologie bewegen sich kleine Organismen wie Parasiten und Bakterien beispielsweise durch enge Kanäle wie Blutgefäße. Sie tun dies oft in einer regelmäßigen, oszillierenden Weise, die auf hydrodynamischen Wechselwirkungen mit der begrenzenden Wand des Kanals beruht. „In unseren Experimenten konnten wir das theoretische Modell bestätigen, das die spezifische Dynamik der Mikroschwimmer in Abhängigkeit von ihrer Größe und den Wechselwirkungen mit der Kanalwand beschreibt“, sagt Corinna Maass, Leiterin der Studie. Diese regelmäßigen Bewegungsmuster könnten auch genutzt werden, um Mechanismen für die gezielte Verabreichung von Medikamenten zu entwickeln – sogar für den Transport von Gütern gegen die Strömung, wie in einer früheren Studie gezeigt wurde.

Eine Spur aus verbrauchtem Treibstoff
In einer weiteren Studie untersuchten die Wissenschaftler*innen, wie sich bewegte Mikroschwimmer gegenseitig beeinflussen. In ihrem Versuchsmodell bewegen sich kleine Öltröpfchen in einer Seifenlösung selbstständig, indem sie kleine Mengen Öl absondern und so einen Antrieb erzeugen. Ähnlich wie ein Flugzeug Kondensstreifen hinterlässt, erzeugen die Mikroschwimmer eine Spur von verbrauchtem Treibstoff, die andere Schwimmer abstoßen kann. Auf diese Weise können sie erkennen, ob ein anderer Mikroschwimmer kurz zuvor an der gleichen Stelle gewesen ist. „Interessanterweise führt dies bei einzelnen Mikroschwimmern zu einer selbstausweichenden Bewegung, während ein Ensemble von ihnen dazu führt, dass die Tröpfchen zwischen den Spuren der anderen gefangen werden“, berichtet Babak Vajdi Hokmabad, Erstautor der Studie. Die Abstoßung des zweiten Tropfens auf der Flugbahn eines zuvor vorbeiziehenden Tropfens hängt von seinem Annäherungswinkel und der nach dem ersten Schwimmer verstrichenen Zeit ab. Diese experimentellen Ergebnisse bestätigen auch die theoretischen Arbeiten auf diesem Gebiet, die zuvor von Ramin Golestanian, Geschäftsführer des MPI-DS, durchgeführt wurden. Die Forschung wurde im Rahmen des „Max Planck Center for Complex Fluid Dynamic“ durchgeführt, einem gemeinsamen Forschungszentrum des MPI-DS, des MPI für Polymerforschung und der Universität Twente.

Kollektive Bewegung durch Kooperation
Schließlich untersuchte die Gruppe auch das kollektive hydrodynamische Verhalten von mehreren Mikroschwimmern. Es stellte sich heraus, dass sich mehrere Tröpfchen zu Clustern zusammenschließen können, die spontan wie Luftkissenboote zu schweben beginnen oder sich wie mikroskopische Hubschrauber erheben und drehen. Die Rotation des Clusters beruht dabei auf einer kooperativen Kopplung zwischen den einzelnen Tröpfchen, die zu einem koordinierten Verhalten führt – obwohl einzelne Tröpfchen sich nicht auf diese Weise bewegen. Solche koordinierten Anordnungen stellen somit ein weiteres physikalisches Prinzip dar, wie Mikroschwimmer sich fortbewegen können – und das ohne dabei Gehirn oder Muskeln zu benutzen.

Originalpublikation:
https://www.pnas.org/doi/10.1073/pnas.2122269119
https://www.nature.com/articles/s41467-022-30611-1
https://pubs.rsc.org/en/content/articlelanding/2022/sm/d1sm01795k

Weitere Informationen:
https://www.ds.mpg.de/3950225/220729_microswimmers

(nach oben)


COVID-19-Impfung aktiviert langfristig das angeborene Immunsystem – Signalweg entschlüsselt

Christoph Wanko Unternehmenskommunikation und Marketing
Uniklinik Köln
Aktuelle Studie zur Aktivierung von Abwehrzellen nach COVID-19 mRNA-Impfung publiziert

Eine Infektion mit SARS-CoV-2 führt bei einigen Menschen zu schwersten Entzündungen der Lunge und anderer lebenswichtiger Organe. Die Impfung gegen SARS-CoV-2 bietet einen sehr guten Schutz gegenüber diesen schweren Krankheitsverläufen. Zahlreiche Studien haben sich mit der Rolle der sogenannten erworbenen Immunantwort nach einer Impfung beschäftigt und konnten zeigen, dass zum Beispiel Antikörper nach der Impfung im Blut zu messen sind und diese dann über Monate hinweg weniger werden. Für das Auslösen einer potenten Immunantwort benötigen Impfungen jedoch zunächst die Aktivierung des angeborenen Immunsystems, das unspezifisch auf körperfremde Eiweiße von Viren oder Bakterien reagiert. Bisher war nicht bekannt, wie genau und wie lange die neuen mRNA-Impfstoffe die Zellen des angeborenen Immunsystems stimulieren. Forschende der Uniklinik Köln und der Medizinischen Fakultät fokussieren in einer neuen Impfstudie erstmals auf die Signalwege dieser Abwehrzellen und deren Auswirkung auf die erworbene Immunantwort. Die Ergebnisse wurden nun im renommierten Wissenschaftsjournal „EMBO Molecular Medicine“ veröffentlicht.

Die rasche Entwicklung von potenten Impfstoffen gegen SARS-CoV-2 hat stark zur Eindämmung der Pandemie beigetragen. Zahlreiche Studien belegen den Schutz vor schweren Krankheitsverläufen und eine Reduktion der Ansteckungen durch eine vollständige Impfung. Insbesondere die potenten mRNA-Impfstoffe, die schnell zur Verfügung gestellt werden konnten, waren ein wichtiger Meilenstein für diese Entwicklung. Mittlerweile konnte relativ gut untersucht werden, wie lange der Impfschutz über eine Aktivierung des erworbenen Immunsystems anhält. Wichtig für eine möglichst langanhaltende und potente Wirkung einer Impfung ist zunächst jedoch die Aktivierung des angeborenen Immunsystems, welches das Zusammenspiel von verschiedenen Abwehrzellen anstößt und eine Gedächtnisfunktion im Immunsystem hinterlässt. Bei den meisten herkömmlichen Impfstoffen werden hierfür sogenannte Adjuvantien genutzt, Zusatzstoffe, die Zellen des angeborenen Immunsystems wie zum Beispiel Makrophagen anregen sollen. Bei mRNA-Impfstoffen fehlen diese klassischen Zusätze, und der Mechanismus, mit dem Abwehrzellen direkt nach der Impfung stimuliert werden, ist nicht bekannt. Hier setzt die Forschung der Arbeitsgruppe von Priv. Doz. Dr. Dr. Jan Rybniker an. „Wir konnten zeigen, dass die mRNA-Impfung im Blut zirkulierende Makrophagen sehr spezifisch über einen ganz bestimmten Signalweg anregt. Erst wenn diese Makrophagen mit dem Spike-Protein von SARS-CoV-2 in Kontakt kommen, erlaubt die Voraktivierung der Zellen die Ausschüttung entzündungsfördernder Botenstoffe und somit die Aktivierung von Abwehrzellen des erworbenen Immunsystems“.

Diese Voraktivierung der Blutzellen stellt auch eine Art Schutzvorrichtung der Zellen dar, bei der erst im Spike-Protein produzierenden Gewebe eine Entzündung entsteht und eben nicht für längere Zeit im ganzen Körper. Diese Entzündungsreaktion erfolgt dann am ehesten lokal begrenzt im Lymphknoten, in den diese Blutzellen einwandern können, so Rybniker, Leiter des Forschungslabors der Infektiologie an der Uniklinik Köln und Letztautor der Veröffentlichung. Die in der Studie beobachtete, sehr spezifische Reaktion auf das Spike-Protein ist für Abwehrzellen des angeborenen Immunsystems ungewöhnlich. Verantwortlich hierfür sind Spike-Protein bindende Rezeptoren auf der Oberfläche der Makrophagen. Diese Rezeptoren aktivieren nach der Impfung das zentrale Kontrollprotein SYK, welches zahlreiche entzündungsfördernde Prozesse in den Abwehrzellen aktiviert. Interessanterweise waren die beobachteten Effekte erst nach der zweiten Impfung besonders stark ausgeprägt. Aber auch die dritte Impfung (Booster) konnte noch Monate nach der Grundimmunisierung die Makrophagen reaktivieren. Im Blut vorliegende Makrophagen haben jedoch eine sehr kurze Lebensdauer von nur wenigen Tagen. „Anscheinend führt die Grundimmunisierung auch zu einer Gedächtnisfunktion in diesen kurzlebigen Zellen. Diese wichtige Erkenntnis ist für die mRNA-Impfung neu. Der zugrundeliegende Mechanismus könnte ebenfalls zu der starken Schutzwirkung, die wir durch die Booster-Impfung erzielen, beitragen“, berichtet Dr. Sebastian Theobald, Postdoktorand an der Uniklinik Köln und Erstautor der Studie.

Der in der Studie beschriebene SYK-Signalweg und die vorgeschalteten Rezeptormoleküle gelten schon seit längerer Zeit als ein möglicher und attraktiver Mechanismus, mit dem im Rahmen von Impfungen Zellen des angeborenen Immunsystems stimuliert werden könnten. Diese Theorie kann nun für die mRNA-Impfung, die ein sehr gutes Sicherheitsprofil aufweist, bestätigt werden. Die Ergebnisse können jetzt genutzt werden, um auch bei zukünftigen Impfungen ganz gezielt ähnliche immunitätsverstärkende Mechanismen zu aktivieren, zum Beispiel über entsprechende Adjuvantien. „mRNA basierte Therapien und Impfungen sind auf dem Vormarsch. Umso wichtiger ist es bereits jetzt, möglichst viele Informationen über die durch diese Medikamente ausgelösten Immunantworten zu entschlüsseln um deren Potential voll auszuschöpfen“ so Dr. Rybniker.

Interessanterweise scheint der SYK-Signalweg auch bei der schweren COVID-19 Erkrankung eine Rolle zu spielen. In einer früheren Studie konnte die Gruppe bereits ähnliche Einflüsse auf Blutzellen von COVID-19 Patienten nachweisen. Daher gilt SYK auch als ein möglicher therapeutischer Ansatzpunkt für immunmodulatorische Therapien bei schweren COVID-19-Infektionen. Klinische Studien mit entsprechenden Medikamenten werden bereits durchgeführt.

Diese vielschichtigen und aufwändigen Untersuchungen waren nur durch die Hilfe mehrerer Kooperationspartner möglich. „Unser Dank gilt daher allen Arbeitsgruppen und Forschern, die zum Erfolg der Studie beigetragen haben. Ganz besonders möchten wir uns bei den zahlreichen geimpften Personen bedanken, die uns ihr Blut für die Laborversuche zur Verfügung gestellt haben“, so Dr. Rybniker. Finanziert wurde die Studie unter anderem von der Deutschen Forschungsgemeinschaft (DFG) Zudem wurde die Studie maßgeblich durch die Immunologie-Plattform COVIM unterstützt, einem Verbundprojekt zur Bestimmung und Nutzung von SARS-CoV-2 Immunität. COVIM ist Teil des Netzwerks Universitätsmedizin (NUM). Das Netzwerk umfasst die gesamte deutsche Universitätsmedizin und fördert kooperative und strukturbildende Projekte, bei denen möglichst viele Universitätsklinika eingebunden sein sollen.

Wissenschaftliche Ansprechpartner:
Priv.-Doz. Dr. Dr. Jan Rybniker
Oberarzt – Klinik I für Innere Medizin
Onkologie, Hämatologie, Klinische Infektiologie, Klinische Immunologie, Hämostaseologie und internistische Intensivmedizin.
Uniklinik Köln
Center for Molecular Medicine Cologne (CMMC)
Robert-Koch-Str. 21 – 50931 Cologne – Germany
Head: Translational Research Unit – Infectious Diseases (TRU-ID)
www.tru-id.de
www.infektiologie-koeln.de

Referentin/Teamassistenz
Sandra Szablowski
Tel. 0049-221 478 38374
Fax. 0049-221 478 1433711

Originalpublikation:
https://www.embopress.org/doi/10.15252/emmm.202215888

(nach oben)


Stickstoff-Fußabdruck: Hohe Verschmutzung und Ressourcenverlust durch Gülle

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Massentierhaltung für die Fleischproduktion schadet der Umwelt. Zusätzlich zum direkt emittierten Methan werden durch das Ausbringen von Gülle klimaschädliche Stickstoffverbindungen wie Ammoniak und Lachgas in die Atmosphäre freigesetzt. Zudem wird das Grundwasser über die Flüssigphase mit Nitrat verunreinigt. Wie sich die Gülle, die bei der Viehhaltung entsteht und häufig als Düngemittel eingesetzt wird, auf den Stickstoff-Fußabdruck auswirkt, haben nun Forschende des KIT untersucht. Sie haben gezeigt, dass die Stickstoffbelastung durch Gülle aus der Rindfleischproduktion drei beziehungsweise acht Mal höher ist als bei Gülle aus der Schweine- und Geflügelfleischproduktion.

In der Landwirtschaft kommen große Mengen stickstoffhaltige Dünge- und Futtermittel zum Einsatz. Ein erheblicher Teil des eingesetzten Stickstoffs gelangt dabei ungenutzt in die Umwelt, etwa durch das Auswaschen von Nitrat aus Ackerböden oder durch Ammoniakemissionen aus der Tierhaltung. „Dass die Fleischproduktion sich sehr nachteilig für die globale Stickstoffbilanz auswirkt, ist bekannt. Der Stickstoff-Fußabdruck-Rechner zeigt bislang aber nicht, welch hohen Anteil die dabei entstehende Menge an Gülle daran hat“, sagt Prantik Samanta vom Engler-Bunte-Institut – Wasserchemie und Wassertechnologie des KIT. „Zugleich bedeuten diese Stickstoffmengen einen enormen Ressourcenverlust. Denn Stickstoff rückzugewinnen, ist energetisch sehr aufwendig.“ Wie viel Stickstoff über Gülle bei der Rind-, Schweine- und Geflügelfleischproduktion jeweils die Umwelt verschmutzt und als Rohstoff verloren geht, hat der Doktorand und Erstautor der Studie nun gemeinsam mit Kolleginnen und Kollegen untersucht. Zusätzlich haben sie berechnet, wie viel Energie benötigt würde, um die Gülle aufzubereiten und Stickstoff zurückzugewinnen. Dieser könnte wiederrum etwa gezielt als Düngemittel bereitgestellt werden.

Größte Stickstoffverlust bei der Rindfleischproduktion
„Wir haben festgestellt, dass sich der Stickstoffverlust pro Kilo Fleisch direkt mit einem virtuellen Stickstofffaktor, kurzVNF, berechnen lässt“, so Samanta. „Die Beziehung zwischen der Gesamtstickstoffzufuhr und dem entsprechenden Stickstoffverlust pro Kilogramm Fleischproduktion ist linear.“ Der VNF setzt den Stickstoffverlust mit dem Stickstoffgehalt im Fleisch ins Verhältnis. Dabei schlägt sich der größte Verlust in der zu entsorgenden beziehungsweise zu behandelnden Gülle nieder. Die Ergebnisse zeigen, dass sich die Rindfleischproduktion in den meisten Teilen der Welt am stärksten auf den Stickstoff-Fußabdruck auswirkt. Der Stickstoffverlust ist drei beziehungsweise acht Mal höher als bei Gülle aus der Schweine- und Geflügelfleischproduktion. Die Forschenden führen dies auf den hohen Futtermittelbedarf und den hohen Grundumsatz von Rindern zurück. Die Stickstoffverluste bei der Schweine- und Geflügelfleischerzeugung begründen sie eher mit schlechten Stallbedingungen als mit Futter und der Verdauung der Tiere.

Bei ihren Untersuchungen haben die Forschenden zudem mehrere Länder miteinander verglichen: „Japan setzt die größte Menge an Stickstoff in Bezug auf das konsumierte Fleisch frei, gefolgt von Australien. Das liegt auch daran, dass es zur Verschiebung der Werte kommt, wenn die Länder Futter und Fleisch in größerem Umfang ex- beziehungsweise importieren“, so Samanta. „Als Resultat ist in Japan auch die zu behandelnde Menge an Gülle pro Kilogramm Fleisch am höchsten.“ Der Stickstoffverlust durch die Fleischerzeugung sei in den USA und Europa niedriger.

Preissteigerungen von Fleisch durch hohen Energiebedarf
Die Forschenden haben außerdem berechnet, wie viel Energie nötig wäre, um den Eintrag von Stickstoff in die Umwelt weitestgehend zu minimieren. „Bei der Produktion von einem Kilogramm Rindfleisch verbleiben 140 Gramm Ammoniumstickstoff in der Rindergülle. Um diesen zurückzugewinnen, benötigen wir sieben Kilowattstunden an Energie. Zum Vergleich: Die Deutschen verbrauchen pro Kopf im Durchschnitt etwa 29 Kilowattstunden Strom pro Woche“, zeigt der Wissenschaftler auf. Bei der Behandlung von einem Kilogramm Schweine- und Geflügelmist sinke der Energiebedarf deutlich auf unter drei beziehungsweise 0,8 Kilowattstunden.

„Unsere Ergebnisse zeigen deutlich, wie hoch der Energieverbrauch für die Güllebehandlung wäre, um den gesamten Stickstoff-Fußabdruck in der Tierhaltung zu verringern“, sagt Samanta. Zurzeit werde dieser Energiebedarf bei der Preisbildung nicht berücksichtigt: „Bezöge man ihn ein, müsste der Fleischpreis, je nach Fleischsorte, um 0,20 bis 1,50 Euro pro Kilo steigen.“ (swi)

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
Prantik Samanta, Harald Horn and Florencia Saravia: Impact of Livestock Farming on Nitrogen Pollution and the Corresponding Energy Demand for Zero Liquid Discharge. MDPI Water, 2022. https://www.mdpi.com/2073-4441/14/8/1278

(nach oben)


9-Euro-Ticket: Mehr Menschen fahren Bus und Bahn

Klaus Becker Corporate Communications Center
Technische Universität München
Nach der Einführung des 9-Euro-Tickets haben viele Menschen in der Region München ihr Mobilitätsverhalten geändert. Eine Studie der Technischen Universität München (TUM) zeigt, dass mehr als 20 Prozent der Teilnehmenden, die vorher keine öffentlichen Verkehrsmittel genutzt hatten, nun Bus und Bahn fahren. Gut ein Drittel war häufiger als zuvor im ÖPNV unterwegs. Als einziges Forschungsprojekt zum 9-Euro-Ticket erfasst die Untersuchung die tatsächlich zurückgelegten Wege digital.

Wie hat sich das 9-Euro-Ticket in der ersten Hälfte seines Angebotszeitraums auf das Mobilitätsverhalten in der Metropolregion München ausgewirkt? Rund 1.000 Erwachsene aller Altersstufen nutzen von Mitte Mai bis Mitte September eine Smartphone-App, die eigens für die Studie „Mobilität.Leben“ entwickelt wurde. Die App registriert Wege und Verkehrsmittel, sodass das Forschungsteam die Daten beispielsweise nach exakten Streckenlängen und Zeiträumen auswerten kann.

Erste Auswertungen der bis Mitte Juli erhobenen Daten zeigen: 35 Prozent der Teilnehmerinnen und Teilnehmer fuhren häufiger mit öffentlichen Verkehrsmitteln, nachdem das 9-Euro-Ticket Anfang Juni eingeführt worden war. Drei Prozent nutzten seltener ihr eigenes Fahrzeug.

22 Prozent der Teilnehmenden waren vorher nicht Bahn und Bus gefahren und nutzten nun diese Angebote, ein Viertel von ihnen an mehr als drei Tagen pro Woche.

Erstmals im Juni weniger Autoverkehr als im Mai
„Es war nicht zu erwarten, dass sich das tägliche Verhalten wegen eines neuen Angebots radikal ändert. Umso höher einzustufen ist der Anteil der Menschen, die erstmals mit Alternativen zum eigenen Auto unterwegs sind“, sagt Studienleiter Prof. Klaus Bogenberger vom Lehrstuhl für Verkehrstechnik der TUM. Diejenigen, die bislang nur oder hauptsächlich mit eigenen Fahrzeugen unterwegs waren, nutzten den öffentlichen Verkehr in der ersten Junihälfte intensiver als im Juli. „Die Menschen haben beim Start des 9-Euro-Tickets Bus und Bahn getestet“, sagt Bogenberger. „Wenn das Neue dann normal wird, klingt die Neugier wieder etwas ab. Aber das wichtige Ergebnis ist: Viele haben die öffentlichen Verkehrsmittel in ihren Alltag integriert.“

Die Studie zeigt auch: Menschen, die auch bislang schon regelmäßig mit öffentlichen Verkehrsmitteln fuhren, nutzen dennoch vor allem am Wochenende weiterhin ihr eigenes Auto, vor allem für längere Strecken.

Die Projektergebnisse spiegeln sich auch in Daten wieder, die die Stadt München regelmäßig zum Verkehrsaufkommen erhebt: Erstmals gab es im Juni weniger Autoverkehr als im Mai. Rechnet man den Sondereffekt der Ferienzeiten raus, betrug die Differenz drei Prozent, während sonst von Mai zu Juni ein Plus von drei Prozent üblich ist. „Das klingt vielleicht zunächst nach einem kleinen Unterschied – aber dass es diese Änderung im Jahreszeitraum gibt, ist außergewöhnlich“, betont Forschungsteamleiter Dr. Allister Loder.

Einkommen unerheblich bei Bereitschaft für 9-Euro-Ticket
Zusätzlich zur Datenerhebung per App fragt das Forschungsteam die Studienteilnehmerinnen und -teilnehmer im Mai, im Juli und im Oktober nach ihren Einstellungen zum 9-Euro-Ticket, zu ihrer Bereitschaft, für den öffentlichen Verkehr zu zahlen, zum Klimawandel und weiteren Rahmenbedingungen sowie zu demographischen Daten.

Die Auswertung der ersten Befragung zeigt, dass Menschen, die ein Auto besitzen, und Menschen, die auf dem Land leben, eine leicht geringere Bereitschaft hatten, das 9-Euro-Ticket zu kaufen. Keinen Unterschied gab es aufgrund des Einkommens der Befragten.

Nach dieser Zwischenbilanz wird das Forschungsteam nicht nur das Mobilitätsverhalten während der zweiten Hälfte des 9-Euro-Ticket-Zeitraums erfassen, sondern auch den Verkehr in den anschließenden Wochen analysieren. Der kürzlich gegründete TUM Think Tank wird die Ergebnisse mit Bürgerinnen und Bürgern diskutieren sowie Handlungsempfehlungen für Politik, Wirtschaft und Gesellschaft erarbeiten.

Mehr Informationen:
Koordiniert wird die Studie der TUM und der Hochschule für Politik München (HfP) vom TUM Think Tank in enger Zusammenarbeit mit „MCube – Dem Münchner Cluster für die Zukunft der Mobilität in Metropolregionen“.

An der interdisziplinären Forschungsgruppe sind die Professuren für Verkehrstechnik, Data Analytics and Machine Learning, Economics, Erneuerbare und Nachhaltige Energiesysteme, Fahrzeugtechnik, Innovation Research, Policy Analysis und Umwelt- und Klimapolitik beteiligt.

Begleitet wird das Projekt durch eine Kommission u.a. mit Vertreterinnen und Vertretern des Bayerischen Staatsministeriums für Wohnen, Bau und Verkehr, der Landeshauptstadt München, des Münchener Verkehrsverbunds (MVV) und der Münchener Verkehrsgesellschaft (MVG).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaus Bogenberger
Technische Universität München
Lehrstuhl für Verkehrstechnik
Tel: +49 89 289 22437
klaus.bogenberger@tum.de

Weitere Informationen:
http://www.hfp.tum.de/hfp/tum-think-tank/mobilitaet-leben/ Projekt „Mobilität.Leben“

(nach oben)


Covid-Impfung schützt nierentransplantierte Patientinnen und Patienten nur unzureichend

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Dr. Louise Benning ist für Impfstudien am Nierenzentrum des Universitätsklinikums mit dem Anita und Friedrich Reutner Preis der Medizinischen Fakultät Heidelberg ausgezeichnet worden / Vorrübergehendes Pausieren eines immunsupprimierenden Medikaments kann die Impfwirkung bei manchen Patienten verbessern

Mit ihren Forschungsarbeiten lieferte Dr. Louise Benning, Assistenzärztin am Nierenzentrum des Universitätsklinikums Heidelberg (UKHD), wichtige Informationen zum Ansprechen nierentransplantierter Patientinnen und Patienten auf die Covid-Impfung. Dafür ist sie nun mit dem Anita und Friedrich Reutner Preis der Medizinischen Fakultät Heidelberg ausgezeichnet worden. Mit dem jährlich vergebenen und mit 10.000 Euro dotierten Preis unterstützt Stifter Professor Dr. Friedrich Reutner, Ehrensenator der Universität Heidelberg, junge Forschende der Medizinischen Fakultät, die noch keine etablierte Position innehaben. Dr. Benning zeigte in mehreren Impfstudien und Publikationen, dass Nierentransplantierte auch nach mehrmaliger Impfung nur unzureichend vor einer Covid-Erkrankung geschützt sind. Betroffene sind daher auf das verantwortungsvolle Handeln ihres Umfeldes und Maßnahmen des Infektionsschutzes angewiesen. In einer aktuell noch nicht publizierten Studie zeigte Benning jedoch einen möglichen Lösungsansatz auf: Wird vor der Impfung eines der immununterdrückenden Medikamente zeitweise pausiert, verbessert sich die Impfantwort. Das kommt aber nur bei einigen Patienten in Frage: Voraussetzung ist eine stabile Transplantatfunktion, kein vorbestehendes Abstoßungsrisiko und eine bestimmte Dreifachkombination immununterdrückender Medikamente.

„Die Forschungsarbeiten von Dr. Louise Benning sind am Puls der Zeit und von enormer Bedeutung für die Betroffenen. Die Forschungsergebnisse der Preisträgerin tragen dazu bei, besonders vulnerable Patientinnen und Patienten in der Corona-Pandemie bestmöglich zu schützen“, sagt Prof. Dr. Hans-Georg Kräusslich, Dekan der Medizinischen Fakultät Heidelberg. „Ich hoffe, dass die Auszeichnung der Medizinischen Fakultät Heidelberg Dr. Benning auf ihrem weiteren wissenschaftlichen Weg motiviert.“

Nierentransplantierte Patientinnen und Patienten tragen ein hohes Risiko, bei einer Covid-Infektion schwer zu erkranken. Grund ist unter anderem die medikamentöse Unterdrückung des Immunsystems, die nötig ist, um eine Abstoßung des Spenderorgans zu verhindern. Da Nierentransplantierte nicht in die Zulassungsstudien der Impfstoffe eingeschlossen wurden, war zu Beginn der Impfkampagne im Dezember 2019 nicht klar, in wie weit diese Patientengruppe einen Impfschutz entwickelt. Medizinerinnen und Mediziner des Nierenzentrums Heidelberg starteten daher im Januar 2020 klinische Studien zum Impfansprechen ihrer Patienten.

„Es zeigte sich, dass unsere nierentransplantierten Patientinnen und Patienten im Vergleich zu Normalgesunden deutlich schlechter auf die Impfung ansprachen: Nach der Zweitimpfung bildete nur knapp ein Drittel der 135 eingeschlossenen Patienten Antikörper gegen SARS-CoV-2 – im Gegensatz zu 100 Prozent in der gesunden Kontrollgruppe“, erläutert Dr. Louise Benning. „Auch bei Patienten, die COVID-19 spezifische Antikörper nach Zweitimpfung ausbildeten, wurden die Varianten Alpha, Beta und Delta signifikant schlechter neutralisiert als bei der gesunden Kontrollgruppe – die Menge an gebildeten Antikörpern war zu niedrig.“ Auch nach Drittimpfung bildeten mehr als 40 Prozent der Nierentransplantierten keine ausreichenden SARS-CoV-2-spezifischen Antikörper aus, um eine Infektion erfolgreich zu verhindern oder abzumildern. Insbesondere die nun vorherrschende Variante Omikron konnte den Impfschutz umgehen.

„Das deutlich eingeschränkte Impfansprechen unserer Patienten auch nach mehrmaligen Impfungen ist insbesondere im Hinblick auf die derzeit wieder steigenden Inzidenzen besorgniserregend“, so die Preisträgerin. „Es ist daher dringend nötig, sich über alternative Impfstrategien für diese Patienten Gedanken zu machen.“ Einen passenden Ansatz entwickelte das Team aus der Beobachtung heraus, dass Art und Umfang der Immunsuppression Einfluss darauf haben, wie die Impfantwort ausfällt. Insbesondere Patienten mit einer dreifachen immunsuppressiven Therapie inklusive dem Wirkstoff Mycophenolsäure sprachen schlecht auf die Impfungen an. In einer noch nicht veröffentlichten Studie pausierten Patientinnen und Patienten unter engmaschiger Kontrolle der Transplantatfunktion eine Woche vor bis vier Wochen nach der Impfung dieses Medikament, um dem Immunsystem eine bessere Chance zu bieten, auf die Impfung zu reagieren. Vorläufige Ergebnisse zeigen ein deutlich besseres Impfansprechen dieser Patienten ohne erhöhtes Abstoßungsrisiko. „Diese Ergebnisse stimmen vorsichtig optimistisch. Das Pausieren des Medikaments darf jedoch nur in enger Abstimmung mit dem Facharzt erfolgen, um das Spenderorgan nicht zu gefährden“, betont Dr. Benning.

Wissenschaftliche Ansprechpartner:
Dr. med. Louise Benning
Nierenzentrum am UKHD
E-Mail: louise.benning@med.uni-heidelberg.de

Originalpublikation:
Benning L, Morath C, Bartenschlager M, et al. Neutralization of SARS-CoV-2 Variants of Concern in Kidney Transplant Recipients after Standard COVID-19 Vaccination. Clin J Am Soc Nephrol. 2022;17(1):98-106. doi:10.2215/CJN.11820921
Benning L, Morath C, Bartenschlager M, et al. Neutralizing antibody response against the B.1.617.2 (delta) and the B.1.1.529 (omicron) variants after a third mRNA SARS-CoV-2 vaccine dose in kidney transplant recipients [published online ahead of print, 2022 Apr 5]. Am J Transplant. 2022;10.1111/ajt.17054. doi:10.1111/ajt.17054

Weitere Informationen:
https://www.medizinische-fakultaet-hd.uni-heidelberg.de/forschung/forschungsfoer…

(nach oben)


Thüringen wird Zentrum für nachhaltige Wasserforschung

Axel Burchardt Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Die Erforschung neuer, zukunftsweisender Ansätze einer sicheren und nachhaltigen Wasserversorgung wird in Thüringen langfristig gefördert. Der von der Universität Jena gemeinsam mit dem Fraunhofer-Institut für Keramische Technologien und Systeme IKTS und der Ernst‐Abbe‐Hochschule Jena initiierte „Thüringer Wasser-Innovationscluster“ (ThWIC) hat sich in der Endrunde des Clusters4Future-Wettbewerbs durchgesetzt und wird ab 2023 vom Bundesforschungsministerium gefördert. Damit fließen über die nächsten neun Jahre bis zu 45 Millionen Euro Fördermittel in die Entwicklung neuer Wassertechnologien und die Erforschung des gesellschaftlichen Umgangs mit der knapper werdenden Ressource.

„Mit unserem Cluster wollen wir die erfolgreiche Grundlagenforschung aus den Thüringer Hochschulen und Forschungseinrichtungen in gesellschaftliche Anwendung bringen und zeigen, wie sich die kleinen und mittleren Unternehmen der Region mit modernsten Technologien globale Marktchancen erarbeiten können“, so Prof. Dr. Michael Stelter. Der Chemiker, der als stellvertretender Institutsleiter am IKTS und Direktor am Center for Energy and Environmental Chemistry der Universität Jena Koordinator des Projekts ist, zeigt sich besonders erfreut, dass mit ThWIC kein reiner Technologiecluster zur Förderung ausgewählt wurde: „Es geht bei unseren Projekten nicht nur um technische Innovationen für eine nachhaltigere Wasserversorgung, sondern auch um die Zusammenarbeit mit der Zivilgesellschaft.“ Auch wenn das Thema Wasser zunehmend in den Medien präsent sei, fehle es häufig noch an überzeugenden Angeboten zur Vermittlung von Wasserwissen und zur Beteiligung breiter Bevölkerungsschichten an den anstehenden Umbrüchen in der Wasserwirtschaft.

Zukunftsweisende Entscheidung für den Wissenschaftsstandort
Die langfristige Förderung des Clusters durch das Bundesforschungsministerium freut auch den Präsidenten der Universität Jena Prof. Dr. Walter Rosenthal: „Der Erfolg in der Zukunftscluster-Initiative zeigt die herausragende Zusammenarbeit der Friedrich-Schiller-Universität mit den Wissenschaftseinrichtungen und Unternehmen der Region. Die Förderung ist ein starkes Signal für den Wissenschaftsstandort Thüringen und insbesondere für Jena.“ Rosenthal bezeichnete die im Cluster geplante Zusammenarbeit von naturwissenschaftlicher Wasserforschung, Datenwissenschaften und Soziologie als „perfektes Beispiel für die in Jena etablierte Bearbeitung wissenschaftlicher Problemstellungen über die Grenzen von Disziplinen und Wissenschaftskulturen hinweg, das das große Portfolio der Nachhaltigkeitsforschung der Universität Jena komplementiert“.

Datengetriebene Wasserbewirtschaftung
Die mehr als 20 Teilprojekte des Innovationsclusters beschäftigen sich mit verschiedensten Aspekten nachhaltiger Wasserversorgung. Ein zentraler Bereich sind neue Technologien zur Analyse und Reinigung von Wasser. „Mit der im Cluster entwickelten neuen Generation von Sensoren können tausendfach mehr Daten über die Wasserqualität erhoben werden“, erläutert der Mitkoordinator des Clusters, Dr. Patrick Bräutigam. „Wir können damit erstmals in Echtzeit Veränderungen der Wasserqualität beobachten und viel effektiver auf Belastungen durch Mikroschadstoffe wie Arzneimittelrückstände reagieren.“ Den Potenzialen einer smarten, datengetriebenen Wasserbewirtschaftung stünden jedoch, so Bräutigam, auch Fragen der Datensicherheit und die gesellschaftliche Angst vor Datenmissbrauch gegenüber. Deshalb komme es darauf an, „die Bürgerinnen und Bürger mit neuen Methoden frühzeitig in die Technologieentwicklung einzubeziehen und ihre Fragen ernst zu nehmen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Stelter
Institut für Technische Chemie und Umweltchemie der Friedrich-Schiller-Universität Jena
Philosophenweg 7a, 07743 Jena
Tel.: 03641/ 948402
E-Mail: michael.stelter@uni-jena.de

Weitere Informationen:
https://www.agstelter.uni-jena.de/thwic
https://www.clusters4future.de/die-zukunftscluster/die-zukunftscluster-der-zweit…

(nach oben)


Neue Wasserstandsvorhersagen schaffen mehr Planungssicherheit für die Wirtschaft und die Binnenschifffahrt

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Dr. Volker Wissing, Bundesminister für Digitales und Verkehr, gab bei seinem Besuch an der BfG den Startschuss für zwei neue Wasserstandsvorhersage-Produkte der BfG: „Mit der 6-Wochen-Vorhersage und der 14-Tage-Vorhersage ist ein wesentlicher Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ erfüllt. Von den neuen Diensten der BfG profitieren Logistik und Schifffahrt an Rhein und Elbe.“

Die Wasserstände an den Bundeswasserstraßen sinken wieder: Die Elbe führt bereits seit Mitte Juni Niedrigwasser und auch am Rhein müssen tiefergehende Schiffe mancherorts die Abladung verringern. Zwei neue Vorhersageprodukte der BfG lassen die Binnenschifffahrt sowie die Logistik an Rhein und Elbe weiter in die Zukunft schauen. Damit kann effizienter auf Niedrigwassersituationen reagiert und die Transportplanung verbessert werden.

Neue Vorhersageprodukte rechtzeitig zur aktuellen Niedrigwassersaison
Die BfG veröffentlicht ab sofort zweimal die Woche eine 6-Wochen-Vorhersage des
Wasserstandes und Abflusses für ausgewählte Pegel an Rhein und Elbe. Angegeben werden Wochenmittelwerte und die Einschätzung, wie sicher die Aussagen sind. Die Vorhersage erscheint über das WSV-Portal ELWIS für die Rheinpegel Kaub, Köln und Duisburg-Ruhrort sowie für die Elbepegel Dresden, Barby und Neu Darchau.

Zusammen mit dem Start der 6-Wochen-Vorhersage ging auch die 14-Tage-Wasserstandsvorhersage für den Rhein in den operationellen Betrieb. Es handelt sich dabei um den verbesserten Nachfolger der 10-Tage-Wasserstandsvorhersage. Die 14-Tage-Wasserstandsvorhersage gibt Tageswerte der Wasserstände für sieben besonders relevante Rheinpegel in Verbindung mit ihren Eintrittswahrscheinlichkeiten an. Damit kann die Schifffahrt die Beladung ihrer Schiffe für die jeweiligen Routen noch präziser planen.

Beide Vorhersageprodukte fokussieren auf den Niedrig- und Mittelwasserbereich. Sie sind in erster Linie für Akteure konzipiert, die an der Planung der Logistik des Wasserstraßentransports und den damit verbundenen Produktions- und Geschäftsprozessen beteiligt sind.

Wesentlicher Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ erfüllt
Dr. Birgit Esser, Leiterin der BfG: „Meine Kolleginnen und Kollegen haben in den
vergangenen Jahren einen intensiven Dialog mit den Nutzerinnen und Nutzern der Bundeswasserstraßen geführt. Dass Wasserstände mit derart langen Zeiträumen überhaupt vorhergesagt werden können, ist das Ergebnis mehrjähriger Forschungs- und Entwicklungsarbeit. Ich freue mich, dass wir mit diesen Produkten unseren Beitrag zum Aktionsplan Niedrigwasser Rhein und zum Masterplan Binnenschifffahrt leisten“

Bundesminister Dr. Volker Wissing: „Dank der neuen Vorhersagen erhalten Schifffahrt und verladende Wirtschaft zusätzliche Informationen, mit denen sie ihre Transportplanungen optimieren können. Die neuen Produkte stehen rechtzeitig zum Beginn der Niedrigwassersaison bereit. Das ist von großem Wert für die Gesellschaft und den Umgang mit den Folgen des Klimawandels. Denn das Binnenschiff ist elementarer Bestandteil vieler Transportketten. Mit Maßnahmen wie diesen setzen wir uns dafür ein, dass künftig noch mehr Güter auf der Wasserstraße transportiert werden.“

Prof. Dr.-Ing. Hans-Heinrich Witte, Präsident der Generaldirektion Wasserstraßen und Schifffahrt: „Die erweiterte Wasserstandvorhersage hilft uns insbesondere bei länger andauernden Niedrigwasserereignissen dabei, frühzeitig Vorkehrungen an den Bundeswasserstraßen zu treffen. Durch die neuen Vorhersagen können wir z. B. unsere Peilungen anpassen, zielgerichtete Messkampagnen vorbereiten und unsere Anlagen noch effizienter steuern.“

Weitere Informationen:
https://www.elwis.de/DE/Service/Wasserstaende/14-Tage-Vorhersage-Rhein/14-Tage-V…
https://www.elwis.de/DE/Service/Wasserstaende/6-Wochen-Vorhersage-Rhein-Elbe/6-W…

(nach oben)


Welche Rolle spielt der Mensch im Zeitalter der Technik und in der zukünftigen digitalisierten Arbeitswelt?

Jennifer Strube Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Diskurse über Mensch und Maschine von den 1920er- bis zu den 2020er-Jahren: Humanistische Ideen in Management und Kultur angesichts neuer Technik

Von der Dampfmaschine über das Fließband bis hin zu Robotern und künstlicher Intelligenz: Im Laufe der Zeit haben immer mehr Maschinen Aufgaben übernommen, die früher Menschen erledigt haben. Heute verändern Algorithmen die Arbeitswelt. Durch technologischen Wandel kommt es immer wieder zu Umbrüchen, die das Bild und die Rolle des Menschen in Wirtschaft und Gesellschaft infrage stellen. Konfrontiert mit der fortschreitenden Industrialisierung wurde das „Humane“ in den vergangenen 100 Jahren intensiv diskutiert. Aktuell ist die Debatte erneut entfacht. Im Zuge der vierten Industriellen Revolution – bei der Menschen, Maschinen und Produkte intelligent miteinander vernetzt sind – stellt sich die Frage: Wie werden Menschen in der künftigen, zunehmend digitalisierten Arbeitswelt gesehen? Mit diesem Thema beschäftigen sich Paderborner Kultur- und Wirtschaftswissenschaftler gemeinsam mit Forschenden aus Italien und Frankreich in einem neuen Projekt. Um Strategien und Lösungen für die zukünftige Personalführung und Gesellschaftspolitik zu entwickeln, vergleichen sie Debatten aus zwei historischen Zeiträumen, die wichtige Etappen im Modernisierungs- und Technisierungsprozess markieren: die 1920er- und die 2020er-Jahre.

Das Präsidium der Universität Paderborn hat das Projekt „Diskurse über Mensch und Maschine von den 1920er- bis zu den 2020er-Jahren“ für die Aufnahme in das Paderborner Wissenschaftskolleg „Data Society“ ausgewählt. Ziel ist es, durch eine Anschubfinanzierung interdisziplinäre Forschungsvorhaben und internationale Kooperationen zu einem für die Gesellschaft wichtigen Zukunftsthema zu fördern. Das vorgesehene Forschungssemester für das Projekt beginnt im April 2023.

Humanistische Ideen vor 100 Jahren und heute
„Im Zuge der fortschreitenden Industrialisierung wurden Fragen nach dem ‚Humanen‘ und der Tragfähigkeit eines Humanismus nach dem Vorbild von Antike und Renaissance in den Literatur- und Kulturwissenschaften prominent diskutiert. Heute wird im Zuge der Digitalisierung die Debatte über Mensch und Maschine von einem neuen Startpunkt aus geführt. Wie schon zu Beginn des 20. Jahrhunderts sehen Intellektuelle, Wissenschaftlerinnen und Wissenschaftler sowie Expertinnen und Experten sowohl Chancen als auch massive Gefahren des technologischen Wandels für den Menschen als vernünftiges, aber auch gefährdetes Wesen“, erklärt Prof. Dr. Claudia Öhlschläger, Professorin für Vergleichende Literaturwissenschaft und Intermedialität an der Universität Paderborn als eine Leiterin des Projekts.

Besonders krisenhaft waren die 1920er-Jahre: Aufbauend auf Fortschritten in den Bereichen Maschinenbau und Elektrifizierung vervollkommnete sich die industrielle Massenfertigung in Großbetrieben. Unter dem Eindruck dieses Transformationsprozesses, der sich auch auf die Technik der Kriegsführung während des Ersten Weltkriegs auswirkte, setzte eine humanistische Wende ein. Fortan sollten der Mensch und sein Verhältnis zur Technik im Mittelpunkt stehen. Bis heute prägen humanistische Ansätze auch Ideen der Personalführung sowie Managementliteratur und -praxis. Angesichts technisierter Prozesse gehören emotionale Kompetenzen wie Empathie ebenso zu einer humanen Personalführung wie eine gesundheitsschonende Gestaltung des Arbeitsplatzes oder die Förderung von individuellen Entwicklungsmöglichkeiten.

100 Jahre später wird im Zuge unserer digitalisierten Welt die Debatte um Mensch und Maschine erneut, jedoch unter anderen Voraussetzungen und Herausforderungen geführt. „‚Digitaler Humanismus‘ oder ‚humanistische Führung‘ in der digitalisierten Arbeitswelt sind Schlagworte aktueller Diskussionen“, so Prof. Dr. Martin Schneider, Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Personalwirtschaft der Universität Paderborn, der das Projekt zusammen mit Claudia Öhlschläger leitet. „Im Zuge von Industrie 4.0 befürchten einige Massenarbeitslosigkeit, andere sehen Technologien aufziehen, die Menschen entweder zu Cyborgs machen, sie ganz ersetzen oder sogar das Ende der Gattung Mensch bedeuten könnten“, schildert der Wirtschaftswissenschaftler.

Personalführung im digitalen Zeitalter
Indem die am Projekt beteiligten Wissenschaftler die Diskussionen der 1920er- und 2020er-Jahre analysieren, sollen Unterschiede und Parallelen erkennbar werden, die Antworten auf folgende Fragen liefern: Was können wir heute aus den Debatten früherer Maschinenzeitalter lernen? Wie und wodurch wird der Begriff des „Humanen“ damals und heute in kulturwissenschaftlichen, literarischen und anthropologisch-philosophischen Diskussionen geprägt? Während sich Öhlschläger zusammen mit PD Dr. Alexander Dunst vom Institut für Anglistik und Amerikanistik der Universität Paderborn und Prof. Dr. Isolde Schiffermüller von der italienischen Universität Verona den kulturwissenschaftlichen Fragen widmet, gehen Schneider, Prof. Dr. Kirsten Thommes, Professorin für Organizational Behavior an der Universität Paderborn, und Prof. Dr. Sabine Bacouël-Jentjens von der französischen ISC Paris Grand École ökonomischen Fragestellungen nach: Wie werden die Begriffe des „Humanen“ in der Führungsforschung aufgegriffen? Wie werden geschlechtsspezifische Effekte von Digitalisierung diskutiert? Welche Herausforderungen werden heute an eine humanistische Personalpolitik herangetragen?

Während des Forschungssemesters soll u. a. eine Ringvorlesung dazu dienen, mit Personen aus Wissenschaft, Kultur und Managementpraxis in einen interdisziplinären Dialog zu kommen. Durch die Untersuchungen wollen die Forschenden kreative Lösungen für die künftige Personalführung in einer digitalisierten Arbeitswelt finden, die sich aus kulturwissenschaftlichen Debatten des Humanen ableiten lassen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Claudia Öhlschläger, Fakultät für Kulturwissenschaften der Universität Paderborn, Fon.: +49 5251 60-3212, E-Mail: claudia.oehlschlaeger@upb.de

Prof. Dr. Martin Schneider, Fakultät für Wirtschaftswissenschaften der Universität Paderborn, Fon.: +49 5251 60-2929, E-Mail: kooperationen@wiwi.upb.de

Weitere Informationen:
http://www.upb.de

(nach oben)


Warum Erdgas keine Brückentechnologie ist

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Ausbau der Erdgas-Infrastruktur gefährde die Energiewende, sagt eine neue Studie unter Beteiligung der TU Berlin

Der geplante Ausbau der Erdgas-Infrastruktur stelle ein Risiko für die Energiewende dar, da Erdgas keine Brückentechnologie hin zu einem 100 Prozent erneuerbaren Energiesystem im Sinne des Pariser Klimaabkommens ist. Das ist das Ergebnis einer Studie eines interdisziplinären Forschungsteams unter Beteiligung eines Forschers der Technischen Universität (TU) Berlin, die in der Zeitschrift Nature Energy erschienen ist. Die Wissenschaftler*innen stellen dem Gas eine vergleichbar schlechte Klimabilanz aus wie Kohle oder Öl. Sie empfehlen Politik und Wissenschaft, die aktuellen Annahmen über Erdgas zu überarbeiten.

Im Zuge des russischen Angriffskrieges steht die Regierung in Deutschland vor der Herausforderung, die Energieabhängigkeit von Russland zu reduzieren und weiterhin eine bezahlbare und gesicherte Energieversorgung zu gewährleisten, die im Einklang mit den Klimazielen steht. Aktuell gehen die Bemühungen dahin, russisches Erdgas, dessen Lieferung gedrosselt und unsicher ist, durch den Aufbau neuer Gashandelsbeziehungen und neuer Infrastruktur auszugleichen. Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW) und Leiterin der Studie, erläutert dazu: „Fossiles Erdgas ist weder sauber noch sicher. Das zu lange Festhalten an fossilem Erdgas hat Deutschland in eine Energiekrise geführt, aus der jetzt nur entschlossenes Handeln für eine konsequente Dekarbonisierung führen kann, hin zu einer Vollversorgung aus erneuerbaren Energien.“

Erdgasnutzung ist nicht per se vorteilhaft gegenüber Kohle und Öl
Die Forschenden hinterfragen weitverbreitete Annahmen zu Erdgas. Während die Vorstellung des sauberen Energieträgers noch immer weit verbreitet ist, zeigen Forschungsergebnisse, dass die Folgen der Erdgasnutzung auf das Klima erheblich unterschätzt werden und Erdgas keinesfalls per se die bessere Alternative zur Kohle- und Ölnutzung darstellt. „Das Problem ist nicht nur das bei der Verbrennung entstehende CO2, sondern das stark wirksame Treibhausgas Methan, das entlang der kompletten Wertschöpfungskette durch flüchtige Emissionen unverbrannt in die Atmosphäre entweicht. Diese Emissionen wurden bislang nicht ausreichend berücksichtigt und unterschätzt“, erklärt Fabian Präger vom Fachgebiet Wirtschafts- und Infrastrukturpolitik der TU Berlin.

Das Narrativ der Brückentechnologie ist irreführend
Zudem stellen die Forschenden fest, dass ein Ausbau von Erdgas-Infrastruktur die Abhängigkeit von fossilen Energien zementiere („Lock-In Effekte“) und auf der anderen Seite ökonomische Risiken berge, wenn eben diese fossilen Vermögenswerte dann im Zuge der Energiewende einen vorzeitigen Wertverlust erfahren („Stranded Assets“). „Die klima- und geopolitische Energiekrise um fossile Brennstoffe unterstreicht die Notwendigkeit eines zeitnahen und konsequenten Erdgasausstiegs, der gesamtgesellschaftlich zu organisieren und umzusetzen ist“, betont Fabian Präger.

Fünf Maßnahmen
Die Wissenschaftler*innen schlagen fünf Maßnahmen vor, um die oben genannten Risiken zu vermeiden:
• Reduzierung von Methan-Emissionen entlang der kompletten Wertschöpfungskette in der bestehenden Erdgas-Infrastruktur
• Einbeziehung der neuesten Forschungserkenntnisse über die Treibhausgasemissionen in Zusammenhang mit Erdgas in allen Szenarien zur Energiewende und zur Klimaentwicklung
• Ersetzen des Narrativs der Brückentechnologie durch eindeutige und entschlossene Dekarbonisierungskriterien
• Kein Bau von neuer Erdgas-Infrastruktur und damit Vermeidung neuer fossiler Abhängigkeiten und Methanlecks
• Ernsthafte und strikte Einbeziehung klimabezogener Risiken bei der Planung von Energie-Infrastruktur

Die Studie wurde unter der Leitung von Prof. Dr. Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW) und der Leuphana Universität Lüneburg in Zusammenarbeit mit Fabian Präger von der TU Berlin sowie Wissenschaftlerinnen von der Ruhr-Universität Bochum und der Europa-Universität Flensburg erstellt. Fabian Präger promoviert am Fachgebiet Wirtschafts- und Infrastrukturpolitik unter der Leitung von Prof. Dr. Christian von Hirschhausen.

Weiterführende Informationen:
Link zur Studie:
Claudia Kemfert, Fabian Präger, Isabell Braunger, Franziska M. Hoffart, Hanna Brauers: The expansion of natural gas infrastructure puts energy transitions at risk, in Nature Energy, 2022, DOI: 1038/s41560-022-01060-3
https://www.nature.com/articles/s41560-022-01060-3

Weitere Informationen erteilen Ihnen gern:
Fabian Präger
Technische Universität Berlin
Fachgebiet Wirtschafts- und Infrastrukturpolitik (WIP)
Straße des 17. Juni 135
10623 Berlin
Tel.: +49 (0)30 314-25377
E-Mail: fpr@wip.tu-berlin.de

Prof. Dr. Claudia Kemfert
Deutsches Institut für Wirtschaftsforschung
E-Mail: sekretariat-evu@diw.de, presse@diw.de

Weitere Informationen:
https://www.nature.com/articles/s41560-022-01060-3

(nach oben)


Sommerurlaub: Wie man die Augen vor Schäden durch UV-Strahlung schützt

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Die Sommerferien beginnen und damit auch die Reisezeit. Viele Familien machen sich auf den Weg ans Meer, ins Grüne oder in die Berge. Doch Vorsicht: Wer sich ungeschützt in die Sonne begibt, riskiert gutartige und bösartige Erkrankungen am Auge, die bis zum Sehverlust führen und das Leben bedrohen können. Besonders empfindlich für Schäden durch UV-Strahlung sind die Augen von Kindern und Jugendlichen, warnen Experten der Deutschen Ophthalmologischen Gesellschaft (DOG). Sie klären auf, wie man sich richtig verhält, worauf bei UV-Index und Sonnenbrille zu achten ist und welchen Einfluss die Umgebung hat.

Ausgedünnte Ozonschicht, geringere Bewölkung, aber auch weniger Luftverschmutzung: All diese Umweltfaktoren tragen dazu bei, dass die UV-Strahlung, die die Erdoberfläche erreicht, deutlich zugenommen hat – vor allem in den hohen und mittleren Breitengraden. Damit steigt auch die Gefahr von Sonnenschäden an und in den Augen. „UV-Licht kann verschiedene gutartige und bösartige Erkrankungen am Auge auslösen“, erklärt Professor Dr. med. Dr. phil. Ludwig M. Heindl vom Zentrum für Augenheilkunde am Universitätsklinikum Köln. „Besonders empfindlich sind die Augen von Kindern und Jugendlichen“, ergänzt Privatdozent Dr. med. Vinodh Kakkassery von der Klinik für Augenheilkunde am Universitätsklinikum Schleswig-Holstein, Campus Lübeck. Die beiden Augenärzte sind Delegierte der DOG im UV-Schutzbündnis, einer Initiative von 28 Institutionen zur Prävention von UV-bedingten Erkrankungen.

Schäden an Hornhaut, Bindehaut, Netzhaut und Augenlinse
Zu den Schäden durch UV-Licht zählen unter anderem gutartige und bösartige Tumoren an Lidern und Bindehaut wie auch eine schmerzhafte Entzündung der Binde- und Hornhaut („Keratoconjunctivitis photoelectrica“). Sehr selten, insbesondere bei Kindern, können Hitzeschäden an der Netzhaut die Sehschärfe dauerhaft reduzieren. UV-Strahlung kann bei Erwachsenen zudem ein Pterygium auslösen, eine Gewebeveränderung an der Bindehaut, die zu Hornhautverkrümmung, trockenen Augen und Sehminderung führen kann. Starke Sonnenreflexion des Bodens etwa in den Tropen oder der Arktis kann schließlich eine Ablagerung von gelblichen Proteinen in der Hornhaut bewirken („klimatische Tröpfchenkeratopathie“).

Auf den UV-Index achten
Um sich zu schützen, raten die DOG-Experten, auf den UV-Index zu achten. „Der tagesaktuelle UV-Index lässt sich online beim Deutschen Wetterdienst einsehen, auch zahlreiche Wetter-Apps weisen diesen Wert aus“, erläutert Kakkassery. Der UV-Index, von der WHO definiert und weltweit einheitlich gültig, beschreibt den am Boden erwarteten Tagesspitzenwert der sonnenbrandwirksamen UV-Strahlung auf einer Skala von 1 bis 11; die Vorhersage teilt zugleich das gesundheitliche Risiko in fünf Gefahrenbereiche von „gering“ bis „extrem“ ein. In Deutschland werden im Sommer Werte von 8 bis 9, in den Hochlagen der süddeutschen Gebirgsregionen sogar bis 11 erreicht. Von April bis August gibt zudem das Zentrum für Medizin-Meteorologische Forschung (ZMMF) in Freiburg UV-Warnungen heraus.

Bei praller Sonne in den Schatten oder ins Haus
Bereits ab UV-Index 3 sollten Sonnenschutzmaßnahmen ergriffen werden. „Konkret bedeutet das: Sonnenschutzmittel mit ausreichendem Lichtschutzfaktor verwenden, Kopfbedeckung und Sonnenbrille tragen und in den zwei Stunden vor und nach Sonnenhöchststand möglichst den Schatten aufsuchen“, erläutert Heindl. Die Sonnenhöchststände variieren in Europa Anfang August je nach Land zwischen knapp 13.00 Uhr und 14.30 Uhr. Ab UV-Index 8 ist verschärfter Schutz erforderlich. „Dann sollte man in den zwei Stunden vor und nach Sonnenhöchststand möglichst gar nicht mehr draußen sein“, warnt Kakkassery. „Darüber hinaus sind Kleidung, Sonnencreme auch unter der Kleidung, Kopfbedeckung und Sonnenbrille dringend empfohlen.“

Sonnenbrille mit Filterkategorie 3 für Meer und Berge
Sonnenbrillen, die man in Deutschland kaufen kann, tragen die CE-Zertifizierung, entsprechen damit der EU-Norm DIN EN ISO 12312 und garantieren wirksamen UV-Schutz. Noch sicherer können Kaufinteressierte sein, wenn die Brille die Aufschrift „UV400“ oder „100 Prozent UV-Schutz“ trägt – ein solches Modell filtert alle UV-Strahlen bis zu einer Wellenlänge von 400 Nanometern heraus. Darüber hinaus spielt der Blendungsfilter eine Rolle: Er reicht von Kategorie 1 bis 4 und gibt an, wieviel Prozent an Sonnenstrahlung absorbiert wird. „Kategorie 1 eignet sich für bewölkte Tage“, sagt Heindl. „Urlauber am Meer und in den Bergen sind mit der höheren Schutzkategorie 3 gut beraten.“ Daneben gibt es auch selbsttönende Gläser, die für Brillenträger eine Option darstellen. „Sie sind allerdings nicht unbedingt für den Autoverkehr geeignet“, ergänzt Kakkassery.

Wasser, Sand und Schnee erhöhen den UV-Index
Spiegelnde Oberflächen wie Wasser, Sand und Schnee reflektieren das ultraviolette Licht und erhöhen den vorhergesagten UV-Index. So steigern Gras oder Wasser den UV-Wert um bis zu zehn Prozent, Sand am Meer um etwa 15 Prozent, Meeresschaum um 25 Prozent. Am stärksten reflektiert Schnee: Er erhöht den UV-Gesamtwert um rund 50 Prozent. Da die UV-Strahlung zudem alle 1000 Höhenmeter etwa zehn Prozent zunimmt, ist im Hochgebirge oder auf Gletschern besondere Vorsicht angebracht. „Aufgrund der starken Blendung sollte man dort Sonnenbrillen mit Filterkategorie 4 tragen, die bis zu 97 Prozent des Lichts absorbieren“, rät Heindl.

Neuerdings werden auch Kontaktlinsen mit UV-Schutz angeboten. „Aber Achtung: Sie bieten keinen ausreichenden UV-Schutz für die Augenlider und die Bindehaut, weshalb eine zusätzliche Sonnenbrille ratsam ist“, fügt der Kölner Augenexperte hinzu.

Literatur:
Hampel, U., Elflein, H.M., Kakkassery, V. et al. UV-strahlenexpositionsbedingte Veränderungen am vorderen Augenabschnitt. Ophthalmologe 119, 234–239 (2022). https://doi.org/10.1007/s00347-021-01531-0

Saßmannshausen, M., Ach, T. Einfluss von ultravioletter Strahlung auf die Netzhaut. Ophthalmologe 119, 240–247 (2022). https://doi.org/10.1007/s00347-021-01506-1

Kakkassery, V., Heindl, L.M. UV-Schutz am Auge – ein häufig vernachlässigtes Thema. Ophthalmologe 119, 221–222 (2022). https://doi.org/10.1007/s00347-021-01530-1

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 8.000 Mitglieder, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscherinnen und Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.

(nach oben)


Neues Forschungsprojekt: Warnsystem für gefährliche Starkregen und Sturzfluten

Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• AVOSS verknüpft Wetterdaten mit hydrologisch relevanten Informationen wie aktuelle Bodenfeuchte, Landbedeckung und Geländeneigung
• Bisher sind Vorhersagen von lokalen Sturzfluten oft kaum möglich, weil ihre Entstehung kompliziert ist und die aktuellen hydrologischen Bedingungen nicht berücksichtigt werden
• Prototypische Anwendungen in Pilotregionen sollen Qualität und Belastbarkeit der Vorhersagen zeigen

In den vergangenen Jahren gab es in Deutschland immer wieder Sturzfluten mit zum Teil verheerenden Auswirkungen. Ausgelöst wurden sie durch lokalen Starkregen. Eine Warnung vor solchen Ereignissen ist bisher oft nicht möglich, weil ihre Entstehung kompliziert ist und sie meist schnell und räumlich stark begrenzt auftreten. Ein neues Forschungsprojekt soll diese Lücke im Warnsystem schließen. Es wird koordiniert von Prof. Dr. Markus Weiler, Hydrologe an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Das Bundesministerium für Bildung und Forschung (BMBF) finanziert das Vorhaben, das über drei Jahre läuft.

Skalen von ganz Deutschland bis Gemeindeebene
Das neue Forschungsprojekt heißt AVOSS (Auswirkungsbasierte Vorhersage von Starkregen und Sturzfluten auf verschiedenen Skalen: Potentiale, Unsicherheiten und Grenzen). Es soll prototypisch Warnungen auf unterschiedlichen räumlichen Skalen von ganz Deutschland über einzelnen Bundesländern bis auf Gemeindeebene ermöglichen.

„Bestehende Warnwerkzeuge für Starkregen und deren Folgen beziehen sich nur auf die Vorhersage von Niederschlag und lassen die aktuellen hydrologischen Verhältnisse unbeachtet“, erklärt Weiler. Dabei seien gerade hydrologische Eigenschaften wie etwa die aktuelle Bodenfeuchte und Landbedeckung sowie das Gefälle oder die Bodenbeschaffenheit letztlich dafür entscheidend, ob ein Starkregenereignis auch eine Sturzflut auslöst: „Eine belastbare Sturzflutwarnung muss daher neben den meteorologischen Faktoren auch die hydrologischen berücksichtigen“, sagt der Freiburger Forscher.

Gefährdung quasi in Echtzeit abbilden
Meteorologische, hydrologische und hydraulische Informationen sollen in dem Projekt verknüpft und zu einem Warnsystem zusammengeführt werden, das quasi in Echtzeit die aktuelle Sturzflutgefährdung abbilden kann. Dazu arbeiten im interdisziplinären AVOSS-Projekt mehrere Universitäten und Forschungseinrichtungen aus ganz Deutschland mit Meteorolog*innen und Ingenieurbüros zusammen. Zusätzlich sind Akteur*innen aus der Praxis wie Landesbehörden und Gemeinden eingebunden.

So soll die Praxistauglichkeit der zu entwickelnden Warnwerkzeuge gewährleistet werden. Außerdem sind prototypische Anwendungen für Pilotregionen geplant, um die Qualität und Belastbarkeit der Sturzflutwarnungen zu bewerten.

Weitere Informationen zu AVOSS auf der Projekthomepage: www.avoss.uni-freiburg.de

Faktenübersicht:
• Das Forschungsprojekt AVOSS wird an der Universität Freiburg koordiniert. Außerdem beteiligt sind die Leibniz Universität Hannover, das GFZ Helmholtz-Zentrum Potsdam, die Forschungszentrum Jülich GmbH, die AtmoScience GmbH aus Gießen (Tochtergesellschaft der Kachelmann AG), die BIT Ingenieure AG aus Freiburg und die HYDRON GmbH aus Karlsruhe.
• Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt im Rahmen der Fördermaßnahme „WaX – Wasser-Extremereignisse“ mit rund 2,6 Millionen Euro für den Zeitraum von drei Jahren.
• Projektkoordinator Prof. Dr. Markus Weiler ist Professor für Hydrologie an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Zu seinen Forschungsschwerpunkten gehören die Identifikation und Modellierung der dominanten Abflussbildungsprozesse unter verschiedenen meteorologischen und hydrologischen Gegebenheiten, speziell auch hinsichtlich des Auftretens von Starkregenereignissen und der daraus resultierenden Überflutungsgefahren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Weiler
Professur für Hydrologie
Fakultät für Umwelt und Natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3530 oder 3535
E-Mail: markus.weiler@hydrology.uni-freiburg.de
avoss@hydrology.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/neues-forschungsprojekt-warnsystem…

(nach oben)


Studie bestätigt Ergebnisgenauigkeit des nationalen Virusvarianten-Monitorings im Abwasser

Anna Schwendinger Public Relations
CeMM Forschungszentrum für Molekulare Medizin der Österreichischen Akademie der Wissenschaften
Das Sequenzieren von Viruspartikel aus Abwasserproben ist seit 2020 ein wichtiger Teil des COVID19 Pandemiemonitorings in Österreich, das damit international eine Vorreiterrolle einnimmt. Eine aktuelle Studie des CeMM, dem Forschungszentrum für Molekulare Medizin der ÖAW sowie der Medizinischen Universität Wien, der Universität Innsbruck und vieler weiterer Kollaborationspartner zeigt nun, wie erstaunlich detailliert und exakt die Analysen des Abwassers die Variantendynamik widerspiegeln. Diese Studie, publiziert in Nature Biotechnology, liefert eine wissenschaftliche Bestandsaufnahme und neue bioinformatische Instrumente, die internationale Überwachung von Virusvarianten zu unterstützen.

Dass die Analyse des Abwassers ein geeigneter, ergänzender Ansatz zur Beobachtung des epidemiologischen Geschehens ist, davon wird bereits länger ausgegangen. Dennoch wurde die Methode erst in jüngster Zeit in vielen Ländern flächendeckend ausgerollt. In Österreich widmen sich WissenschaftlerInnen der Forschungsgruppe von Andreas Bergthaler, CeMM Adjunct Principal Investigator und Professor für Molekulare Immunologie an der MedUni Wien, bereits seit 2020 gemeinsam mit Kollaborationspartnern anderer Universitäten und Institutionen in ganz Österreich der Auswertung von Abwasserproben aus Kläranlagen. In der aktuellen Studie konnten die Erstautoren Fabian Amman vom CeMM und Rudolf Markt von der Uni Innsbruck zeigen, dass die Abwasserdaten sehr genau die Verbreitung von Virusvarianten in der Bevölkerung widerspiegeln.

Hohe Übereinstimmungen der Virusvarianten in Patientenproben und Abwasser
Für die Studie sequenzierten und analysierten die WissenschaftlerInnen von Dezember 2020 bis Februar 2022 insgesamt 3.413 Abwasserproben aus über 90 kommunalen Einzugsgebieten bzw. Kläranlagen, die zusammen wöchentlich mehr als 50 Prozent der österreichischen Bevölkerung abdecken. Mittels einer eigens entwickelten Software (Variant Quantification in Sewage designed for Robustness, kurz VaQuERo) konnten die WissenschaftlerInnen die räumlich-zeitliche Häufigkeit von Virusvarianten aus komplexen Abwasserproben ableiten. Diese Ergebnisse wurden anschließend anhand epidemiologischer Aufzeichnungen von mehr als 311.000 Einzelfällen gemeinsam mit den Infektionsepidemiologen der AGES validiert. Erstautor Fabian Amman, Bioinformatiker in der Forschungsgruppe von Bergthaler am CeMM und der MedUni Wien, erklärt: „Unsere Ergebnisse bestätigen, dass trotz zahlreicher Herausforderungen bei der Abwasseranalyse die Ergebnisse einen sehr genauen Überblick über das Pandemiegeschehen eines ganzen Landes bieten. Für jede Woche und jedes Einzugsgebiet, in denen laut epidemiologischem Meldesystem eine bestimmte Variante zumindest einmal auftrat, sehen wir in 86% der Proben derselben Woche ein entsprechendes Signal im Abwasser. Umgekehrt sehen wir in rund 3% der Abwasserproben Varianten, die dem Patienten-basierten System entgangen sind.“
Die im Rahmen der Studie generierten Daten bieten eine Basis für die Vorhersage neu entstehender Varianten und machen den Reproduktionsvorteil bedenklicher Varianten besser kalkulierbar.
Ein weiterer Vorteil des Abwassermonitorings ist zudem, dass auch asymptomatische Personen sowie Personen, die das Testangebot nicht nutzen, in den Daten erfasst werden.

Erfolgsfaktor Zusammenarbeit
In Österreich konnte insbesondere durch die erfolgreiche Zusammenarbeit zwischen Forschungseinrichtungen und verschiedenen Behörden frühzeitig ein flächendeckendes Monitoring aufgesetzt werden. Andreas Bergthaler erklärt: „Dies ist auch eine Erfolgsstory, was wissenschaftliche Zusammenarbeit schaffen kann. Im konkreten Fall war dies gekennzeichnet von früh begonnenen und erfolgreich weiterausgebauten Kollaborationen zwischen CeMM und MedUni Wien, Universität Innsbruck, der Medizinischen Universität Innsbruck, der Technischen Universität Wien, der AGES sowie mehr als zehn weiteren Institutionen.“ Gemeinsam konnte gezeigt werden, dass die Virussequenzierungen aus dem Abwasser auf nationaler Ebene einen wesentlichen Beitrag zur Überwachung von SARS-CoV-2 Varianten, dem Pandemiemanagement und der öffentlichen Gesundheit liefern vermag. Es ist zu erwarten, dass der Fokus auf SARS-CoV-2 zukünftig auch auf die Analysen anderer Infektionserreger im Abwasser Anwendung finden wird. Somit liefern die Erkenntnisse dieser Studie auch einen wichtigen Beitrag zur internationalen Überwachung von Infektionskrankheiten.

Die Studie „Viral variant-resolved wastewater surveillance of SARS-CoV-2 at national scale“ erschien in der Zeitschrift Nature Biotechnology am 18. Juli 2022, DOI: 10.1038/s41587-022-01387-y

AutorInnen: Fabian Amman*, Rudolf Markt*, Lukas Endler, Sebastian Hupfauf, Benedikt Agerer, Anna Schedl, Lukas Richter, Melanie Zechmeister, Martin Bicher, Georg Heiler, Petr Triska, Matthew Thornton, Thomas Penz, Martin Senekowitsch, Jan Laine, Zsofia Keszei, Peter Klimek, Fabiana Nägele, Markus Mayr, Beatrice Daleiden, Martin Steinlechner, Harald Niederstätter, Petra Heidinger, Wolfgang Rauch, Christoph Scheffknecht, Gunther Vogl, Günther Weichlinger, Andreas Otto Wagner, Katarzyna Slipko, Amandine Masseron, Elena Radu, Franz Allerberger, Niki Popper, Christoph Bock, Daniela Schmid, Herbert Oberacher, Norbert Kreuzinger, Heribert Insam, Andreas Bergthaler
**geteilte Erstautoren

Förderung: Dieses Projekt wurde teilweise vom Förderkreis 1669 der Universität Innsbruck, dem FFG-Emergency-Call, der Österreichischen Agentur für Gesundheit und Ernährungssicherheit (AGES), dem Wiener Wissenschafts- und Technologiefonds (WWTF) im Rahmen des WWTF COVID-19 Rapid Response Funding 2020 (A.B.), dem Österreichischen Wissenschaftsfonds (FWF1212P) und der Österreichischen Akademie der Wissenschaften/CeMM finanziert. Der Zugang zu den Kläranlagen und die Probenlogistik wurden durch das Coron-A-Projekt sowie durch die nationalen Abwasserüberwachungsprogramme des Bundesministeriums für Bildung, Wissenschaft und Forschung und des Bundesministeriums für Soziales, Gesundheit, Pflege und Konsumentenschutz ermöglicht.

Andreas Bergthaler hat Veterinärmedizin in Wien studiert. Nach seinem Doktorat bei Hans Hengartner und Nobelpreisträger Rolf Zinkernagel an der Universität Zürich und der ETH Zürich folgten postdoktorale Forschungsaufenthalte an der Universität Genf und am Institute for Systems Biology in Seattle. 2011 startete er als Forschungsgruppenleiter am CeMM und wurde 2016 ERC Start Preisträger, seit 1. Jänner 2022 ist er Professor für Molekulare Immunologie und Leiter des Instituts für Hygiene und Angewandte Immunologie an der MedUni Wien sowie CeMM Adjunct Principal Investigator.

Das CeMM Forschungszentrum für Molekulare Medizin der Österreichischen Akademie der Wissenschaften ist eine internationale, unabhängige und interdisziplinäre Forschungseinrichtung für molekulare Medizin unter wissenschaftlicher Leitung von Giulio Superti-Furga. Das CeMM orientiert sich an den medizinischen Erfordernissen und integriert Grundlagenforschung sowie klinische Expertise, um innovative diagnostische und therapeutische Ansätze für eine Präzisionsmedizin zu entwickeln. Die Forschungsschwerpunkte sind Krebs, Entzündungen, Stoffwechsel- und Immunstörungen, sowie seltene Erkrankungen.
Das Forschungsgebäude des Institutes befindet sich am Campus der Medizinischen Universität und des Allgemeinen Krankenhauses Wien. cemm.at

Die Medizinische Universität Wien (kurz: MedUni Wien) ist eine der traditionsreichsten medizinischen Ausbildungs- und Forschungsstätten Europas. Mit rund 8.000 Studierenden ist sie heute die größte medizinische Ausbildungsstätte im deutschsprachigen Raum. Mit 6.000 MitarbeiterInnen, 30 Universitätskliniken und zwei klinischen Instituten, 13 medizintheoretischen Zentren und zahlreichen hochspezialisierten Laboratorien zählt sie auch zu den bedeutendsten Spitzenforschungsinstitutionen Europas im biomedizinischen Bereich. meduniwien.ac.at

Die Universität Innsbruck wurde 1669 gegründet und ist heute mit über 28.000 Studierenden und über 5.000 Mitarbeiterinnen und Mitarbeitern die größte und wichtigste Forschungs- und Bildungseinrichtung in Westösterreich. Im Herzen der Alpen gelegen, bietet die Universität Innsbruck beste Bedingungen für erfolgreiche Forschung und Lehre. Internationale Rankings bestätigen die führende Rolle der Universität Innsbruck in der Grundlagenforschung. In diesem erfolgreichen Umfeld wird an den 16 Fakultäten eine breite Palette von Studien über alle Fachbereiche hinweg angeboten. In zahlreichen Partnerschaften hat sich die Universität mit Bildungs- und Forschungseinrichtungen rund um die Welt zusammengeschlossen, um den internationalen Austausch in Forschung und Lehre zu fördern. uibk.ac.at

Originalpublikation:
DOI: 10.1038/s41587-022-01387-y

(nach oben)


Kommunales Klimaschutzmanagement lohnt sich

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Kommunen, die aktiv Klimaschutzmaßnahmen steuern, sparen bis zu neunmal mehr klimaschädliche Treibhausgase ein als solche ohne Klimaschutzmanagement. Vor allem kleinere Gemeinden setzen doppelt so viele Projekte um und nutzen fünfmal so viele Fördermittel wie vergleichbare Kommunen ohne eigene Zuständigkeit für den Klimaschutz. Auch der Umfang der geförderten Projekte ist je nach Größe der Kommune zwei- bzw. dreimal höher. Das zeigt eine aktuelle Studie des Öko-Instituts im Auftrag des Umweltbundesamtes, die Städte, Gemeinden und Landkreise mit und ohne Klimaschutzmanagement vergleicht.

„Unsere Analyse zeigt klar den Erfolg des kommunalen Klimaschutzmanagers bzw. der -managerin“, fasst Tanja Kenkmann, Senior Researcher und Projektleiterin am Öko-Institut zusammen. „Städte und Gemeinden in Deutschland sollten deshalb flächendeckend diese Kompetenzen aufbauen, um ihre Klimaschutzaktionspläne zielorientiert umzusetzen.“

Klimaschutzförderung sinnvoll nutzen
Die Wissenschaftlerinnen und Wissenschaftler analysierten mehr als 350 Städte und Gemeinden verschiedener Größe sowie ihre mehr als 2.500 Klimaschutzvorhaben, die in 11 Bundesförderprogrammen gefördert wurden. Insgesamt, so die Auswertung, wurden in Kommunen mit Klimaschutzmanagement mehr geförderte Vorhaben durchgeführt, mehr Fördermittel eingesetzt und mehr Treibhausgasminderungen erzielt als in den jeweiligen Vergleichsgruppen ohne Klimaschutzmanagement.
Dabei spielt die Größe der Kommunen bei allen ausgewerteten Indikatoren – Anzahl der geförderten Vorhaben, Fördervolumen insgesamt, Fördervolumen der einzelnen Projekte, erzielte Treibhausgasminderungen – eine Rolle. So lag etwa das Volumen aller abgerufenen Förderungen in Städten mit 20.000 bis 100.000 Einwohnerinnen und Einwohnern etwa fünf Mal über dem von Kommunen der gleichen Größe ohne Klimaschutzmanagement. In diesen Städten betrug die erzielte Einsparung von Treibhausgasen das Zweieinhalbfache.
Aber auch kleinere Kommunen profitieren vom Klimaschutzmanagement: Bei den abgerufenen Fördermitteln können sie doppelt so viel Fördervolumen pro Klimaschutzprojekt geltend machen wie kleine Kommunen ohne Klimaschutzmanagement. Die erzielten THG-Minderungen sind neun Mal so groß wie in kleinen Kommunen ohne Klimaschutzmanagement.

Hintergrund: Klimaschutzmanagement in Kommunen
Kommunen sind wichtige Akteure für den Klimaschutz und verfügen über enorme Potenziale Treibhausgase einzusparen. Viele Gemeinden haben sich eigene Klimaschutzaktionspläne gegeben, die von Mobilitätskonzepten bis zur kommunalen Wärmeplanung verschiedene Handlungsfelder abdecken. Diese Projekte zu planen und umzusetzen, ist Hauptaufgabe des kommunalen Klimaschutzmanagements. Die Studie des Öko-Instituts zeigt, dass die strategische Einbindung dieser Aufgabe in der Verwaltung zum Erfolgsfaktor wird.
Klimaschutzmanagerinnen und -manager sorgen dabei insbesondere für die Vernetzung aller Akteure der Stadtverwaltungen, die an der Realisierung von Klimaschutzprojekten beteiligt sind. Sie werben Fördermittel ein und befördern den fachlichen Austausch. Nicht zuletzt wirken sie in die Stadtgesellschaft, koordinieren die Öffentlichkeitsarbeit sowie die Einbindung der Bevölkerung und leisten Beiträge für die Umweltbildung in Schulen und Kitas.
Die Studie ist der 2. Teilbericht im Projekt „Wirkungspotenzial kommunaler Maßnahmen für den nationalen Klimaschutz“, das bis Ende des Jahres Ergebnisse vorlegt.

Studie „Wirkungsanalyse für das Klimaschutzmanagement in Kommunen – Fördermittelnutzung“ des Öko-Instituts (https://www.oeko.de/publikationen/p-details/wirkungsanalyse-fuer-das-klimaschutz…)

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
www.oeko.de | Podcast | blog.oeko.de | Twitter | Instagram | Onlinemagazin

Wissenschaftliche Ansprechpartner:
Tanja Kenkmann
Senior Researcher im Institutsbereich
Energie & Klimaschutz
Öko-Institut e.V., Geschäftsstelle Freiburg
Telefon: +49 761 45295-263
E-Mail: t.kenkmann@oeko.de

Anhang
PM Kommunaler Klimaschutz Öko-Institut

(nach oben)


Präventions-Studie: Fußball als Bewegungsmotor für Herzkranke

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Fit und Fun mit Fußball nach Herzinfarkt oder koronarer Herzkrankheit: von Herzstiftung und Land Niedersachsen geförderte MY-3F-Studie soll Gesundheitsfußball auch in der Herz-Kreislauf-Prävention etablieren.

Regelmäßige Bewegung zählt zur besten Medizin – sowohl um Herz-Kreislauf-Erkrankungen vorzubeugen als auch zur Therapie bei Herzerkrankung. Mit Ausdauerbewegung (5-mal/Woche á 30 Minuten) lassen sich nahezu alle wichtigen Risikofaktoren für Herzinfarkt und Schlaganfall wie Bluthochdruck, Diabetes mellitus, Fettstoffwechselstörungen (hohes LDL-Cholesterin) und Adipositas bessern. Und Sport wirkt auch psychischem Stress und Depressionen entgegen. Dennoch schafft es ein Großteil der Bevölkerung nicht, sich wenigstens 2,5 Stunden pro Woche mit mäßiger Intensität zu bewegen, wie von der Weltgesundheitsorganisation (WHO) empfohlen. Gerade Patienten mit Herzerkrankung haben im Zuge ihrer chronischen Krankheit häufig den „Drive“ verloren, sich regelmäßig zu bewegen. Manche waren etwa vor ihrer Erkrankung in einer Ballsportart aktiv, trauen sich das aber im höheren Alter und wegen ihrer Herzkrankheit nicht mehr zu. Für sie sind deshalb niederschwellige Bewegungskonzepte gefragt, die Sport mit Spaß verbinden. Um speziell Menschen mit verengten Herzkranzgefäßen, der sogenannten koronaren Herzkrankheit (KHK), oder nach einem Herzinfarkt zu mehr körperlicher Aktivität anzuspornen, fördert die Deutsche Herzstiftung daher das Forschungsprojekt die „MY-3F-Studie: Fit und Fun mit Fußball nach Myokardinfarkt oder koronarer Herzerkrankung“ mit 70.000 Euro. Weitere gut 200.000 Euro erhält das Projekt vom Niedersächsischen Ministerium für Wissenschaft und Kultur.
„Der Lebensstilfaktor Ausdauerbewegung ist enorm wichtig, um das Risiko für Herzinfarkt und andere Herz-Kreislauf-Komplikationen wie Schlaganfall oder plötzlicher Herztod zu verringern“, betont der Kardiologe und Vorstandsvorsitzende der Deutschen Herzstiftung, Prof. Dr. Thomas Voigtländer. „Wir fördern dieses Projekt, weil Fußball ein populärer Breitensport ist. Und ein auf Herzkranke abgestimmtes, attraktives Bewegungskonzept kann bedeutsam zur Verbesserung der kardiovaskulären Prävention in Deutschland beitragen.“ Die MY-3F-Studie leistet zudem einen wichtigen Forschungsbeitrag, indem jetzt auch die Gesundheitseffekte von Fußball bei kardiovaskulären Erkrankungen wissenschaftlich erfasst werden. „Wissenschaft, Fußball und Gesundheit miteinander zu verbinden ist eine tolle Sache“, so der Niedersächsische Wissenschaftsminister Björn Thümler. „Damit zeigt sich, dass Wissenschaft lebenswichtige Fragestellungen adressieren, den Beteiligten zugleich Spaß machen und dabei eine hohe Breitenwirkung entfalten kann“, so der Minister weiter.

Mit Fußball die langjährig inaktiven chronisch Kranken erreichen
Studien belegen, dass auch Patienten mit bestehender KHK oder nach einem Herzinfarkt nicht ausreichend Medikamente erhalten, die sich gegen ihre kardiovaskulären Risikofaktoren richten. Und auch lebensstilfördernde Maßnahmen wie Bewegung, gesunde Ernährung und Rauchverzicht werden nicht ausreichend umgesetzt. Dabei ist die Verbesserung der körperlichen Aktivität auch bei diesen Patienten ein Kernelement, um das Fortschreiten der Herzerkrankung oder einen neuen Herzinfarkt zu verhindern. „Mit der MY-3F-Studie untersuchen wir am Beispiel Fußball, inwiefern sich mit diesem Sport besonders auch lange inaktive Personen mit Risikokrankheiten wie Bluthochdruck, Diabetes oder einer Herzerkrankung für körperliche Aktivität gewinnen lassen. Denn das ist bei dieser Personengruppe meistens besonders schwierig“, berichtet der Internist und Studienleiter Prof. Dr. Joachim Schrader, Institut für Klinische Forschung in Cloppenburg. Die MY-3F-Studie wird gemeinsam von der Universitätsklinik für Kardiologie im Klinikum Oldenburg, der Carl von Ossietzky Universität Oldenburg, dem Institut für klinische Forschung in Cloppenburg und der Nephrologie am St. Josefs-Hospital Cloppenburg unter der Studienleitung von Prof. Dr. Joachim Schrader, PD Dr. Stephan Lüders, Dr. Bastian Schrader und Prof. Dr. Albrecht Elsässer durchgeführt. In dem Studienbeirat finden sich renommierte Wissenschaftler aus Göttingen, Hannover und München.

Vom wettkampforientierten hin zum „Gesundheitsfußball“
Fußball ist die mit Abstand populärste Sportart Deutschlands. Die Verbreitung in sämtlichen Regionen und die starke Infrastruktur sind von Vorteil, wenn es darum geht, mehr Menschen mit Risikofaktoren oder bestehender Herzerkrankung zu körperlicher Aktivität zu ermutigen. Allerdings hat Fußball als Präventions- oder Gesundheitssportart derzeit praktisch keine Bedeutung. Dies liegt den Projektleitern zufolge einerseits an der fehlenden wissenschaftlichen Datenlage zur Verbesserung bestimmter Gesundheitsparameter durch Fußball. „Neben dem typischen auf Wettkampf ausgerichteten Fußball gibt es kaum Angebote für ausschließlich auf Gesundheitsaspekte angelegtes Fußballspielen“, sagt Schrader, selbst ein begeisterter Fußballer. Dies gilt insbesondere für ältere Personen mit Risikofaktoren oder bereits bestehender KHK. Der wettkampforientierte Fußball wird dem Internisten zufolge den speziellen Bedürfnissen von inaktiven Personen mit Risikofaktoren oder Herzerkrankungen „nicht gerecht – auch wegen der Verletzungsgefahr“.
Das Trainingsformat der MY-3F-Studie ist daher auf die Verbesserung von Fitness, Spaß und Gesundheit durch Fußball ohne wesentliches Verletzungsrisiko ausgerichtet. Dieses Konzept „Gesundheitsfußball“ wurde von der Studiengruppe entwickelt und beinhaltet den Verzicht auf direkte Zweikämpfe und gefährliche Kontaktaktionen. Der Schwerpunkt liegt auf einem zielgruppenorientierten Pass- und Laufspiel. Vier kleine Tore ziehen die Spielfläche für dieses Trainingskonzept in die Breite. Das unterstützt die Balleroberung über das Laufen statt Tacklings. Hinzu kommen eine Unterbrechung des Trainings mit Dehnübungen zur Vorbeugung von Muskelverletzungen und der vermehrte Einbau von Koordinations- und Kognitionsübungen. Jeder Teilnehmer hat unabhängig von seinen fußballerischen Fähigkeiten gleich viele Ballkontakte. Zu einem derartigen Programm gehören auch leichtere Bälle. Voraussetzung sind ausgebildete Trainer, die ein derartiges Konzept in einer Gruppe umsetzen. Mit der MY-3F-Studie bauen die Ärzte und Forscher auf die erste „3F-Studie: Fit und Fun mit Fußball“ auf (1). Dieses Programm für „Gesundheitsfußball“ wurde bereits bei noch gesunden Teilnehmern mit Risikofaktoren für Herzkreislauferkrankungen erfolgreich eingesetzt. Die primären Ziele (Blutdrucksenkung, Gewichtsabnahme, Reduktion von Medikamenten) wurden erreicht, ohne dass es zu wesentlichen Verletzungen kam.

Ziel der Studie: Gesundheitsfußball landesweit etablieren
Ziel der anlaufenden MY-3F-Studie ist es, das erfolgreiche 3F-Trainingskonzept „Gesundheitsfußball“ in einer Studie bei Patientinnen und Patienten mit bestehender KHK oder nach Myokardinfarkt im Vergleich zu einer Kontrollgruppe einzusetzen und so den Gesundheitsfußball auch in der Sekundärprävention zu etablieren. Körperlich inaktive Patientinnen und Patienten mit Herzerkrankungen trainieren über ein Jahr einmal die Woche für 90 Minuten unter einem für Gesundheitsfußball DFB-lizenzierten Trainer. Das Konzept von Gesundheitsfußball soll langfristig landesweit etabliert werden, daher sind eine Anbindung an lokale Fußballvereine und eine Ausbildung von Trainern erforderlich. Um ein langfristiges Präventionsangebot zu schaffen, wurden bereits Vereine eingebunden und eine Zusatzqualifikation von Trainern speziell für „Gesundheitsfußball“ vom DFB geschaffen. Insgesamt haben 17 Frauen und 73 Männer für eine Teilnahme an der MY-3F-Studie zugesagt, insgesamt 110 bis 120 Studienteilnehmer sollen in die Studie eingeschlossen werden.

Literatur:
(1) Schrader B., Schrader J. et al., Football beats hypertension: results of the 3F (Fit&Fun with Football) study Journal of Hypertension 2021, DOI:10.1097/HJH.0000000000002935

Herz-Kreislauf-Forschung nah am Patienten
Dank der finanziellen Unterstützung durch Stifterinnen und Stifter, Spender und Erblasser kann die Deutsche Herzstiftung gemeinsam mit der von ihr 1988 gegründeten Deutschen Stiftung für Herzforschung (DSHF) Forschungsprojekte in einer für die Herz-Kreislauf-Forschung unverzichtbaren Größenordnung finanzieren. Infos zur Forschung unter www.herzstiftung.de/herzstiftung-und-forschung

Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle: Michael Wichert (Ltg.)/
Pierre König
Tel. (069) 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Niedersächsisches Ministerium
für Wissenschaft und Kultur
Pressestelle: Heinke Traeger
Tel.: (0511) 120-2603
Fax: (0511) 120-2601
E-Mail: pressestelle@mwk.niedersachsen.de
www.mwk.niedersachsen.de

Weitere Informationen:
http://www.herzstiftung.de
http://www.mwk.niedersachsen.de/startseite/
http://www.herzstiftung.de/herzstiftung-und-forschung

Anhang
PM_DHS_Prävention-Gesundheitsfussball_MY-3F-Studie_2022-07-15-Final

(nach oben)


UDE-Chemiker:innen entwickeln Brühtechnik: Mehr als kalter Kaffee

Dr. Thomas Wittek Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Vor allem im Sommer ist er der Renner: Cold Brew Coffee. Fix zubereiten geht aber leider nicht. Ein Team aus der Chemiefakultät der Universität Duisburg-Essen (UDE) wollte das ändern und hat dafür ein neues Brühverfahren entwickelt: Anstatt den Kaffeesatz für mindestens zwölf Stunden bei Raumtemperatur ziehen zu lassen, dauert ihr Prozess nur drei Minuten – dank Laser. Ihr Ergebnis haben sie in „npj Science of Food“ veröffentlicht. Nun tüfteln zwei von ihnen weiter.

Auf den Gedanken gebracht wurde Dr. Anna Rosa Ziefuß durch einen Ideenwettbewerb ihres Doktorvaters Prof. Stephan Barcikowski. „Die Intention dahinter war, uns zum Denken anzuregen und zwar über unsere eigene Forschung hinaus“, erzählt die Chemikerin. Sie weiß, warum kalt aufgebrühter Kaffee so im Trend liegt: „Er schmeckt nicht so bitter und hat mehr Aromen. Zudem enthält er weniger Säure und lässt sich besser verdauen.“ Aber: Die Geschmacks- und Aromastoffe aus dem gemahlenen Kaffee lösen sich im kalten Wasser nur sehr langsam auf – der „Brühvorgang“ kann bis zu 24 Stunden dauern.

Das Verfahren: das Wasser samt Kaffeepulver mit einem ultrakurz gepulsten Laser für etwa drei Minuten beleuchten – ohne dass das Gemisch erhitzt wird. Das Ergebnis: Neben dem Geschmack stimmt auch die Chemie. Sowohl die Koffein- als auch die Bitterstoffkonzentration entspricht herkömmlichem Cold Brew Coffee. „Durch die fehlende Erhitzung bleiben Pyridin und Diphenol erhalten, die dem Getränk seinen Geschmack verleihen.“ Mit ihrer Brühvariante hat Ziefuß nicht nur den ersten Preis des GUIDE Ideenwettbewerbes gewonnen, sondern zusammen mit ihrer UDE-Teamkollegin, Lebensmittelingeneurin Tina Friedenauer, auch den dritten Platz bei der „From Lab to Market challenge“ von Chemstars.nrw erreicht.

Nun wollen die beiden mit LEoPARD ausgründen. Das steht für Laser-based Extraction offers Pure and Advanced Refreshment Drinks – was zeigt, wo die beiden das Marktpotenzial sehen. „Es ist nicht der Kaffee, sondern das laserbasierte Herstellungsverfahren, das einen enormen Eventcharakter hat. So stellen wir uns vor, dass wir entsprechende Lasersysteme für Veranstaltungen, wie Hochzeiten, vermieten. Aber man könnte es auch an Kaffeehäuser verleihen oder lizensieren.“ Zudem kann der Prozess in Zukunft auch für die Getränkeindustrie interessant werden, da auch Tee oder Matcha so hergestellt werden könnten.

Noch tüfteln die Wissenschaftlerinnen aber an der Vielfallt von LEoPARD. „Cold Brew Coffee ist erst der Anfang, aktuell arbeiten wir an der Entwicklung für weitere Rezepturen für kalte Erfrischungsgetränke,“ sagt Ziefuß.

Wissenschaftliche Ansprechpartner:
Dr. Anna Rosa Ziefuß, Tel. 0201/18 3-3067, anna.ziefuss@uni-due.de
Redaktion: Jennifer Meina, Tel. 0203/37 9-1205, jennifer.meina@uni-due.de

Weitere Informationen:
https://www.nature.com/articles/s41538-022-00134-6

(nach oben)


Krankenhäuser als hybride Energiespeicher nutzen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Ob Kraft-Wärme-Kopplung (KWK) oder Kältemaschinen – in vielen deutschen Krankenhäusern stehen Anlagen, die aufgrund ihrer Größe hervorragend geeignet sind, die Einbindung erneuerbarer Energien zu fördern sowie kurzfristige Strompreisschwankungen zu nutzen. Wie hoch das Potenzial der Lastverschiebung konkret ist, haben das Fraunhofer UMSICHT, die Stadtwerke Bochum GmbH und das Evangelische Krankenhaus Hattingen im Projekt »Hybrider Energiespeicher Krankenhaus (HESKH)« untersucht.

Der Startschuss für das Projekt fiel im Oktober 2018. »Wir sind mit der Zielsetzung angetreten, zu ermitteln, welches Potenzial für Lastverschiebungen in Krankenhäusern vorliegt und welche wirtschaftlichen Vorteile sich daraus für die Krankenhäuser ergeben«, erklärt Dr. Anne Hagemeier vom Fraunhofer UMSICHT. »Ein weiterer Schwerpunkt lag auf der Prognose des Wärmebedarfs, der eine wichtige Rolle bei der vorausschauenden Optimierung des Anlageneinsatzes spielt.«

In einem umfangreichen Monitoring wurden über einen Zeitraum von mehr als einem Jahr die Wärme- und Kältemengen im Evangelischen Krankenhaus Hattingen gemessen und durch Kurzzeitmessungen einzelner Stromverbraucher und Abteilungen ergänzt. Die Ergebnisse flossen in verschiedene, im Projekt erstellte Modelle ein und erlaubten es, die Zusammensetzung der Energieverbräuche zu verstehen und Einsparpotenziale aufzudecken. Gleichzeitig konnten durch eine Simulation von Energieverbrauch und -versorgung Möglichkeiten zum Energiesparen und zur Kostenreduktion aufgezeigt werden.

»Es zeigte sich, dass – wenn die Nennlast des Blockheizkraftwerkes (BHKW) des Krankenhauses die Grundlast übersteigt und thermische Speicher vorhanden sind – Flexibilität bereitgestellt und wirtschaftliche Vorteile erzielt werden können. Auch, wenn ein konstanter Strompreis verwendet wird«, so UMSICHT-Wissenschaftler Sebastian Berg. »Gehen wir von einem dynamischen Stromtarif aus, der sich an dem Börsenstrompreis orientiert, können die Stromkosten zusätzlich um bis zu 15 Prozent reduziert werden. Die Stromerzeugung mit dem BHKW erfolgt dann vorzugsweise zu Zeiten, in denen die Strompreise hoch sind.«

Um den vorausschauenden Betrieb in der Praxis umzusetzen, ist die Prognose von Rahmenbedingungen notwendig. Dazu gehören die Energiebedarfe (Strom, Wärme etc.), die Preisen für deren Ein- und Verkauf sowie nicht-steuerbare Eigenerzeugungen (Photovoltaik, Solarthermie). »Um eine hohe Prognosegenauigkeit zu erzielen, haben wir u.a. auf Basis künstlicher neuronaler Netze unterschiedliche Prognosemodelle erstellt und anschließend simulativ getestet«, beschreibt UMSICHT-Wissenschaftler Malte Stienecker das Vorgehen. »Dabei konnten wir feststellen, dass die Prognoseabweichungen zwar zum Teil durch den thermischen Speicher des Krankenhauses ausgeglichen werden konnten, jedoch regelmäßig Anpassungen am ursprünglichen Anlagenfahrplan, der mit den prognostizierten Daten erstellt wurde, notwendig waren, um auch den tatsächlich auftretenden Wärmebedarf zu decken.«

Welche Mehrkosten dadurch im Betrieb anstehen, hängt sowohl von der Größe der Abweichung als auch von ihrem Zeitpunkt ab. So waren vor allem in den Wintermonaten vermehrte Fahrplananpassungen notwendig. Zu dieser Zeit laufen allerdings – aufgrund des höheren Wärmebedarfs – die Spitzenlastkessel, die kurzfristig und ohne Beeinträchtigung der Stromseite ihre Wärmeerzeugung anpassen können. Anders in den Sommermonaten: Dann nutzt das Krankenhaus ausschließlich das BHKW zur Wärmeversorgung, so dass sich Fahrplananpassungen stärker auswirken, weil z.B. mehr Strom eingekauft werden muss.

Die Projektergebnisse sind übrigens sowohl auf andere Krankenhäuser als auch auf Gebäudetypen mit ähnlichen Anlagen bzw. ähnlicher Energieerzeugung übertragbar – beispielweise Hotels, Schwimmbäder oder Gewerbebetriebe. Sebastian Berg: »Wir haben eine Analyse der Krankenhauslandschaft in Deutschland durchgeführt und dabei die ermittelten Lastverschiebepotenziale für das Krankenhaus in Hattingen hochgerechnet. Ergebnis: Wenn alle KWK-Anlagen, die aktuell in Krankenhäusern eingebaut sind, flexibel betrieben werden, liegt ein Lastverschiebepotenzial von etwa 300 MW für positive und 200 MW für negative Flexibilität vor – wenn die Fahrweise der Anlagen nach den Marktpreisen für Strom optimiert wird.« Sprich: Durch eine verbesserte Steuerung können Krankenhäuser zur Energiewende beitragen und gleichzeitig Kosten sparen.

(nach oben)


Fraunhofer-Verfahren erhöht Methanausbeute von Biogasanlagen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Biogasanlagen erzeugen Methan – und etwa 40 Prozent CO2, das bislang ungenutzt entweicht. Forschende des Fraunhofer-Instituts für Mikrotechnik und Mikrosysteme IMM wandeln dieses Abfallprodukt nun ebenfalls in Methan um und erhöhen die Methanausbeute von Biogasanlagen somit drastisch. Das Verfahren läuft, derzeit skaliert das Forscherteam die Demonstrationsanlage auf fünf Kubikmeter Methan pro Stunde hoch.

Deutschland ist auf dem Weg zur Klimaneutralität, bereits bis 2030 sollen die Emissionen von Kohlenstoffdioxid um 65 Prozent sinken – verglichen mit den Werten von 1990. Ein Element der Defossilisierung sind Biogasanlagen: In ihnen bauen Bakterien Biomasse unter Ausschluss von Sauerstoff zu Biogas ab, das durchschnittlich aus etwa 60 Prozent Methan und 40 Prozent CO2 besteht. Während das Biogas in Blockheizkraftwerken Strom und Wärme erzeugt oder aber auf Erdgasqualität aufbereitet ins Erdgasnetz eingespeist werden kann, entweicht das CO2 bislang ungenutzt in die Luft.

Biogas in vollem Umfang nutzen
Forscherinnen und Forscher des Fraunhofer IMM wollen dies nun ändern. »Wir wandeln das CO2 mit Hilfe von grünem Wasserstoff in Methan um«, erläutert Dr. Christian Bidart, Wissenschaftler am Fraunhofer IMM, den Ansatz des neuen Verfahrens. Das entstehende Biogas kann also nicht nur wie bisher zu etwa 60 Prozent, sondern in vollem Umfang genutzt werden. Die zugrundeliegende Reaktion ist bereits seit etwa hundert Jahren bekannt, blieb allerdings bislang meist auf Laborniveau. Erst die anstehende Energiewende rückt mögliche Anwendungen in den Fokus, die Forschenden überführen die Reaktion daher erstmals in einen industriellen Prozess.

Eine Demonstrationsanlage entwickelte das Forscherteam bereits im Projekt ICOCAD I: Diese wandelt einen Kubikmeter Biogas pro Stunde in einen Kubikmeter Methan um, ihre thermische Leistung beträgt zehn Kilowatt. Im Folgeprojekt ICOCAD II skalieren die Forschenden diese Anlage derzeit auf die fünffache Größe, also auf eine thermische Leistung von 50 Kilowatt. Eine der Herausforderungen, die dabei auf der Agenda stehen: der hochdynamische Prozess. Denn die Strommenge, die aus Wind- und Photovoltaikanlagen erzeugt wird, schwankt stark – und damit auch die Menge des grünen Wasserstoffs, der mittels Strom in Elektrolyseuren aus Wasser gewonnen wird. Die Anlage muss also schnell auf schwankende Mengen an Wasserstoff reagieren können. Zwar wäre auch eine Speicherung von Wasserstoff möglich, jedoch aufwändig und teuer. »Wir arbeiten daher daran, die Anlage flexibel zu gestalten, um die Speicherung von Wasserstoff möglichst zu umgehen«, sagt Bidart. Dazu gehören unter anderem CO2-Speicher: Denn die Menge an CO2, das aus den Biogasanlagen strömt, ist gleichbleibend.

Entwicklung effizienter Katalysatoren
Eine weitere Herausforderung lag in der Entwicklung effizienter Katalysatoren für die Reaktion. Die Forschenden des Fraunhofer IMM haben dafür eine Mikrobeschichtung aus Edelmetallen verwendet. Das Prinzip: Wasserstoff und Kohlenstoffdioxid strömen durch zahlreiche Mikrokanäle, in denen sie miteinander reagieren können und deren Wände mit einer Beschichtung des Katalysators versehen sind. »Auf diese Weise können wir die Kontaktfläche der Gase mit dem Katalysatormaterial vergrößern und die benötigte Katalysatormenge reduzieren«, weiß Bidart. Im Reaktionsreaktor werden zahlreiche solcher Mikrostrukturen übereinandergestapelt.

Weitere Skalierungen geplant
Derzeit arbeiten die Forscherinnen und Forscher daran, die größere Anlage umzusetzen und den dynamischen Betrieb zu realisieren. 2023, so hofft das Team, könnte diese dann in Betrieb gehen und an einer Biogasanlage real getestet werden. Damit ist die Hochskalierung jedoch keineswegs abgeschlossen – schließlich sind die CO2-Mengen, die an den Biogasanlagen entstehen, groß. Bis zum Jahr 2025 planen die Forschenden daher eine Hochskalierung auf 500 Kilowatt, bis 2026 soll die Anlage gar ein bis zwei Megawatt Leistung erzeugen.

(nach oben)


Potentialflächen von Wasser erstmals kartiert

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Flüssigkeiten sind schwerer zu beschreiben als Gase oder kristalline Feststoffe. Ein HZB-Team hat nun an der Swiss Light Source SLS des Paul Scherrer Instituts, Schweiz, erstmals die Potentialflächen von Wassermolekülen in flüssigem Wasser unter normalen Umgebungsbedingungen kartiert. Das trägt dazu bei, die Chemie des Wassers und in wässrigen Lösungen besser zu verstehen. Diese Untersuchungen können demnächst an der neu errichteten METRIXS-Station an der Röntgenquelle BESSY II fortgesetzt werden.

Wasser ist die bekannteste Flüssigkeit der Welt. In allen biologischen und vielen chemischen Prozessen spielt Wasser eine entscheidende Rolle. Die Wassermoleküle selbst bergen kaum noch ein Geheimnis. Schon in der Schule lernen wir, dass Wasser aus einem Sauerstoff-Atom und zwei Wasserstoff-Atomen besteht. Wir kennen sogar den typischen stumpfen Winkel, den die beiden O-H-Schenkel miteinander bilden. Außerdem wissen wir natürlich, wann Wasser kocht oder gefriert und wie diese Phasenübergänge mit dem Druck zusammenhängen. Aber zwischen der Kenntnis des einzelnen Moleküls und dem Wissen über die makroskopischen Phänomene klafft ein weiter Bereich des Ungefähren: Ausgerechtet über das Verhalten der einzelnen Moleküle in ganz normalem flüssigem Wasser ist nur Statistisches bekannt, die Wassermoleküle bilden ein fluktuierendes Netz aus Wasserstoffbrücken, ungeordnet und dicht und ihre Wechselwirkungen sind überhaupt nicht so gut verstanden wie im gasförmigen Zustand.

Nun hat ein Team um die HZB-Physikerin Dr. Annette Pietzsch hochreines, flüssiges Wasser bei Zimmertemperatur und normalem Druck unter die Lupe genommen. Mit Röntgenuntersuchungen an der Swiss Light Source des Paul Scherrer Instituts und statistischen Modellierungen ist es den Forscher:innen erstmals gelungen, die so genannten Potentialflächen der einzelnen Wassermoleküle im Grundzustand zu kartieren, die je nach Umgebung vielfältige Gestalt annehmen.

„Das Besondere ist hier die Methode: Wir haben die Wassermoleküle an der ADRESS-Beamline mit resonanter inelastischer Röntgenstreuung untersucht. Einfach ausgedrückt haben wir einzelne Moleküle nur ganz vorsichtig angeschubst und dann gemessen, wie sie in den Grundzustand zurückfallen“, sagt Pietzsch. Die niederenergetischen Anregungen führten zu Streckschwingungen und anderen Vibrationen, durch die sich – kombiniert mit Modellrechnungen – ein detailliertes Bild der Potentialoberflächen ergab.

„Damit haben wir eine Methode, um experimentell die Energie eines Moleküls in Abhängigkeit von seiner Struktur zu ermitteln“, erläutert Pietzsch. „Das hilft, die Chemie im Wasser zu verstehen, also auch mehr zu durchblicken, wie sich Wasser als Lösungsmittel verhält.“

Die nächsten Experimente sind schon in Vorbereitung, und zwar an der Röntgenquelle BESSY II am HZB. Dort hat Annette Pietzsch mit ihrem Team die Messstation METRIXS aufgebaut, die genau dafür konzipiert ist, flüssige Proben mit RIXS-Experimenten zu untersuchen. „Nach den Wartungsarbeiten im Sommer starten wir mit ersten Tests der Messinstrumente. Und dann kann es weitergehen.“

Wissenschaftliche Ansprechpartner:
Dr. Annette Pietzsch; annette.pietzsch@helmholtz-berlin.de

Originalpublikation:
PNAS (2022): Cuts through the manifold of molecular H2O potential energy surfaces in liquid water at ambient conditions

Annette Pietzsch, Johannes Niskanen, Vinicius Vaz da Cruz, Robby Büchner, Sebastian Eckert, Mattis Fondell, Raphael M. Jay, Xingye Lu, Daniel McNally, Thorsten Schmitt, Alexander Föhlisch

DOI: 10.1073/pnas.2118101119

(nach oben)


KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.

Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_067_kit-klimawandel-und-landnutzungsanderungen-b…

Das Hochwasser im Juli 2021 gehört zu den fünf schwersten und teuersten Naturkatastrophen der letzten 50 Jahre in Europa. Mehr als 180 Menschen verloren ihr Leben, weit über 10 000 Gebäude wurden beschädigt. Kritische Infrastrukturen wie Strom- und Wasserversorgungsnetze, Brücken, Bahnstrecken und Straßen wurden teilweise oder vollständig zerstört. Das Gesamtausmaß des Hochwassers am 14. und 15. Juli 2021 in der Eifel war auch für Expertinnen und Experten überraschend. Eine Kombination mehrerer Faktoren bedingte diese Katastrophe: „Wir haben untersucht, wie Niederschläge, Verdunstungsprozesse sowie Gewässer- und Abflussverhalten dieses Hochwasser begünstigt haben“, sagt Dr. Susanna Mohr, Geschäftsführerin des Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT, welche die Studie zusammen mit einem interdisziplinären Team aus mehreren Instituten des KIT erstellt hat.

Geschiebe erhöhte das Ausbreiten sowie die Auswirkungen des Hochwassers an der Ahr
An der Ahr bewegte sich die geschätzte Wasserabflussmenge 2021 in einer ähnlichen Größenordnung wie bei den historischen Hochwasserereignissen 1804 und 1910. Trotzdem lagen die Pegelstände 2021 an mehreren Orten deutlich höher. „Wir haben gesehen, dass sich die Art des Geschiebes – also Material, das durch ein Fließgewässer mittransportiert wird – erheblich verändert hat. Neben Abtragungen von Sedimenten und bereits vorhandenem Totholz hat der anthropogene, also vom Menschen verursachte Einfluss eine erhebliche Rolle gespielt“, sagt Mohr. „So haben sich etwa Fahrzeuge, Wohnwagen, Mülltonnen oder Baumaterialien an Brückenbereichen gestaut, was zu zusätzlichen Engpässen geführt und die Auswirkungen des Hochwassers weiter verschärft hat.“ Um zukünftig besser auf solche Ereignisse vorbereitet zu sein, sei es beim Hochwasserrisikomanagement notwendig, Landschaft, Infrastrukturen und Bebauung sowie Flussverläufe einschließlich deren Veränderungen und mögliche Sedimenttransporte in die Gefährdungsbeurteilung miteinzubeziehen.

Niederschlagsausmaß nicht einzigartig
Die Forschenden verglichen weiterhin das Niederschlagsereignis vom Juli 2021 mit historischen Niederschlagsaufzeichnungen: „Unsere Analysen zeigen, dass die beobachtete Gesamtniederschlagsumme mit zu den höchsten der letzten 70 Jahre in Deutschland zählt – und somit extrem, aber nicht einzigartig war“, sagt Dr. Florian Ehmele vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO). „Die Niederschlagsereignisse, die beispielsweise zu den schweren Hochwassern in Berlin und Brandenburg 1978 oder an der Elbe 2002 geführt haben, waren sowohl hinsichtlich ihrer Niederschlagsintensität als auch ihrer Ausdehnung oder Lebensdauer deutlich stärker.“ Allerdings seien vergangene Niederschlagsereignisse, die mit dem im Juli 2021 vergleichbar sind, überwiegend im Osten und Süden von Deutschland und seltener im Westen beobachtet worden.

Simulationen zeigen: Klimawandel verstärkt künftige Hochwasserereignisse
Zusätzlich haben die Forschenden des KIT das Hochwasserereignis unter verschiedenen Klimarandbedingungen simuliert. „Die Intensität solcher Niederschlagsereignisse nimmt um circa sieben Prozent pro Grad Erwärmung zu. Die Simulationen zeigen, dass sich die Niederschlagsmenge bereits jetzt um elf Prozent gegenüber vorindustriellen Bedingungen erhöht hat“, sagt Dr. Patrick Ludwig, Leiter der Arbeitsgruppe „Regionale Klimamodellierung“ am IMK-TRO. „Bei fortschreitender globaler Erwärmung müssen wir also von einer weiteren Verstärkung des Niederschlags ausgehen.“ Aber nicht nur das sei zukünftig ein Problem: „Laut unserer Zukunftsprojektionen dehnen sich solche Extremereignisse zusätzlich sowohl räumlich als auch zeitlich aus und deren Häufigkeit nimmt zu“, prognostiziert Ludwig.

Risikokompetenz der Bevölkerung muss verbessert werden
Das schwere Hochwasser im Juli 2021 habe somit gezeigt, wie wichtig es ist, auf derartige Ereignisse vorbereitet zu sein und angemessen zu reagieren, so die Forschenden. Um die Resilienz, also die Widerstandfähigkeit im Falle von Katastrophen, zu erhöhen und somit Schäden und Opferzahlen zu verringern, gelte es daher, neben dem Gefahrenpotenzial auch die Verwundbarkeit von Systemen und soziale Aspekte miteinzubeziehen. Ein essenzieller Bestandteil von Resilienz sei dabei die Risikokompetenz der Bevölkerung, also das Wissen um angemessene und rasche Handlungsmöglichkeiten bei Eintritt einer Katastrophe.

Center for Disaster Management and Risk Reduction Technology (CEDIM)
Das CEDIM, eine interdisziplinäre Einrichtung des KIT, forscht zu Katastrophen, Risiken und Sicherheit. Ziel ist, natürliche und menschengemachte Risiken in einer sich rasch verändernden, von Bevölkerungswachstum, Urbanisierung und Klimawandel geprägten Welt genauer zu verstehen, früher zu erkennen und besser zu bewältigen. Dazu verbinden die Forschenden Risikoerfassung, Risikoanalyse, Risikomanagement und Risikokommunikation und entwickeln darauf aufbauend Konzepte zum Verbessern der Resilienz von Infrastrukturen und Versorgung. (swi)

Originalpublikationen
Susanna Mohr, Uwe Ehret, Michael Kunz, Patrick Ludwig, Alberto Caldas-Alvarez, James E. Daniell, Florian Ehmele, Hendrik Feldmann, Mário J. Franca, Christian Gattke, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Marc Scheibel, Frank Seidel, and Christina Wisotzky (2022): A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 1: Event description and analysis. Nat. Hazards Earth Syst. Sci. Discuss., https://doi.org/10.5194/nhess-2022-137, in review.

Patrick Ludwig, Florian Ehmele, Mário J. Franca, Susanna Mohr, Alberto Caldas-Alvarez, James E. Daniell, Uwe Ehret, Hendrik Feldmann, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Michael Kunz, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Frank Seidel, and Christina Wisotzky: A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 2: Historical context and relation to climate change. In finaler Vorbereitung für Nat. Hazards Earth Syst. Sci. Discuss.

Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…

Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730

Weitere Informationen zum CEDIM: https://www.cedim.kit.edu

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
https://doi.org/10.5194/nhess-2022-137, in review.

Weitere Informationen:
http://Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
http://Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
http://Weitere Informationen zum CEDIM: https://www.cedim.kit.edu

(nach oben)


Molekül facht die Fettverbrennung an

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Eine Studie unter Federführung der Universität Bonn hat ein Molekül identifiziert, das die Fettverbrennung in braunen Fettzellen anfacht. Der Mechanismus wurde in Mäusen entdeckt, existiert aber wahrscheinlich auch im Menschen: Ist bei ihnen ein Transporter für den Signalstoff weniger aktiv, bleiben sie trotz fettreicher Kost deutlich schlanker. Die Arbeit, an der unter anderem auch Forschende der Universität Leipzig und des Universitätsklinikums Hamburg-Eppendorf beteiligt waren, ist nun in der Fachzeitschrift Nature erschienen.

Normalerweise speichern Fettzellen Energie. In braunen Fettzellen dagegen verpufft sie dagegen als Wärme – braunes Fett dient uns also gewissermaßen als biologische Heizung. Unter kalten Bedingungen ist das nicht nur praktisch, sondern überlebenswichtig. Die meisten Säugetiere verfügen daher über diesen Mechanismus. Auch Menschen besitzen braunes Fett. Seine Aktivierung schützt zusätzlich vor Herz-Kreislauf-Erkrankungen.

„Heutzutage haben wir es aber selbst im Winter muckelig warm“, erklärt Prof. Dr. Alexander Pfeifer vom Institut für Pharmakologie und Toxikologie der Universität Bonn. „Unsere körpereigenen Verbrennungsöfen werden also kaum noch gebraucht.“ Gleichzeitig ernähren wir uns immer energiereicher und bewegen uns zudem weit weniger als unsere Vorfahren. Diese drei Faktoren sind Gift für braune Fettzellen: Sie stellen nach und nach ihre Funktion ein und sterben schließlich sogar ab. Andererseits nimmt die Zahl stark übergewichtiger Menschen weltweit immer weiter zu. „Weltweit suchen Arbeitsgruppen daher nach Wirkstoffen, die das braune Fett stimulieren und so die Fettverbrennung erhöhen“, sagt Pfeifer.

Sterbende Fettzellen kurbeln Verbrennung bei ihren Nachbarn an
Zusammen mit einer Gruppe von Kolleginnen und Kollegen hat nun das Team der Universität Bonn nun ein zentrales Molekül identifiziert, das dazu in der Lage ist. „Es ist bekannt, dass sterbende Zellen oft einen Mix aus Botenstoffen abgeben, die das Verhalten ihrer Nachbarn beeinflussen“, erläutert Dr. Birte Niemann aus Pfeifers Arbeitsgruppe. Zusammen mit ihrer Kollegin Dr. Saskia Haufs-Brusberg hat sie die zentralen Experimente der Studie geplant und durchgeführt. „Wir wollten wissen, ob das bei braunem Fett genauso ist.“

Die Forschenden untersuchten daher braune Fettzellen aus Mäusen, die sie stark gestresst hatten, so dass die Zellen quasi auf dem Weg in den Tod waren. „Dabei haben wir festgestellt, dass sie in großen Mengen ein Molekül namens Inosin ausschütten“, sagt Niemann. Interessanter war aber, wie intakte braune Fettzellen auf den molekularen Hilferuf reagierten: Sie wurden durch das Inosin (oder auch schlicht durch sterbende Zellen in ihrer Nähe) aktiviert. Der Signalstoff fachte also den Verbrennungsofen in ihnen an. Weiße Fettzellen wandelten sich zudem in ihre braunen Geschwister um. Mäuse, die sehr energiereiche Nahrung erhielten und gleichzeitig Inosin injiziert bekamen, blieben auch schlanker als ihre Artgenossen und waren vor Diabetes geschützt.

Eine wichtige Rolle scheint in diesem Zusammenhang der sogenannte Inosin-Transporter zu spielen: Dieses Protein in der Zellmembran transportiert Inosin in die Zelle und senkt so die Konzentration des Botenstoffs auf deren Außenseite. Das Signalmolekül kann so vermutlich nicht mehr seine verbrennungsfördernde Wirkung entfalten.

Medikament hemmt den Inosin-Transporter
„Es gibt ein Medikament, das eigentlich gegen Gerinnungsstörungen entwickelt wurde, aber auch den Inosin-Transporter hemmt“, sagt Pfeifer, der auch Mitglied in den Transdisziplinären Forschungsbereichen „Leben und Gesundheit“ sowie „Nachhaltige Zukunft“ an der Universität Bonn ist. „Wir haben es Mäusen verabreicht, die daraufhin mehr Energie verbrauchten.“ Auch wir verfügen über einen Inosin-Transporter. Bei zwei bis vier Prozent aller Menschen ist er durch eine genetische Veränderung weniger aktiv. „Unsere Kollegen an der Universität Leipzig haben 900 Personen genetisch analysiert“, erklärt Pfeifer. „Diejenigen mit dem weniger aktiven Transporter waren im Schnitt deutlich schlanker.“

Die Ergebnisse deuten darauf hin, dass Inosin auch bei uns die Verbrennung in braunen Fettzellen reguliert. Substanzen, die in die Aktivität des Transporters eingreifen, könnten sich daher möglicherweise zur begleitenden Behandlung einer Fettleibigkeit (Adipositas) eignen. Als Ausgangspunkt könnte der bereits zugelassene Wirkstoff gegen Gerinnungsstörungen dienen. „Es sind aber weitere Studien in Menschen nötig, um das pharmakologische Potential dieses Mechanismus zu klären“, meint Pfeifer. Auch glaubt er nicht, dass eine Pille allein die Lösung für die weltweit grassierende Adipositas-Pandemie sein wird. „Die verfügbaren Therapien sind aber momentan zu wenig wirksam“, betont er. „Wir brauchen daher unbedingt Medikamente, um den Energiehaushalt in adipösen Patienten zu normalisieren.“

Welche Schlüsselrolle dabei der körpereigenen Heizung zuerkannt wird, zeigt sich auch in einem neuen Großprojekt: Die Deutsche Forschungsgemeinschaft (DFG) hat kürzlich einen Transregio-Sonderforschungsbereich bewilligt, in dem die Universitäten Bonn, Hamburg und München zielgerichtet an braunem Fettgewebe forschen.

Förderung:
An der Studie waren die Universität sowie das Universitätsklinikum Bonn, das Universitätsklinikum Hamburg-Eppendorf, die Universität sowie das Universitätsklinikum Leipzig, das Helmholtz-Zentrum München und die Universität Texas beteiligt. Die Arbeiten wurden durch die Deutsche Forschungsgemeinschaft sowie das National Institute of Health (USA) finanziert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Pfeifer
Institut für Pharmakologie und Toxikologie
Universität Bonn
Tel. +49 228 28751300
E-Mail: alexander.pfeifer@uni-bonn.de

Originalpublikation:
Birte Niemann et al.: Apoptotic brown adipocytes enhance energy expenditure via extracellular inosine; Nature; https://doi.org/10.1038/s41586-022-05041-0

(nach oben)


KI im Wassersektor – Umweltministerin unterzeichnet Kooperationsvertrag „DZW – Digitaler Zwilling Wasserwirtschaft“

Tanja Loch-Horn Referat für Öffentlichkeitsarbeit Umwelt-Campus
Hochschule Trier
Am 4. Juli 2022 unterzeichnete die rheinlandpfälzische Umweltministerin Katrin Eder an der Außenstelle des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Trier den Kooperationsvertrag für das Vorhaben „DZW – Digitaler Zwilling Wasserwirtschaft“. Die Hochschule Trier (Umwelt-Campus Birkenfeld) und das DFKI erforschen damit den Einsatz von KI-Methoden für Simulations- und Prognosemodelle in der Wasserwirtschaft.

Uneingeschränkten Zugang zu Frischwasser in Deutschland garantieren zu können, wird allgemein als Selbstverständlichkeit angesehen. Der Schein des glanzvollen Wassers trügt jedoch – insbesondere der Klimawandel und die Urbanisierung stellen für natürliche Ressourcen eine enorme Belastung dar. Auch die demographischen und gesellschaftlichen Veränderungen, politische Zielvorgaben in Bezug auf die Abwasserreinigung oder die energiebedingten CO2-Emissionen der Wasserversorgung gehören zu den vielen neuen Herausforderungen in der Wasserwirtschaft. Wasserwerke in der ganzen Nation stehen vor ähnlichen Fragestellungen. Variablen wie Größe, Besiedlungsdichte, Nutzungsarten, Topologie des Versorgungsgebiets und unterschiedliche Strukturen des Wasser- und Abwassernetzwerkes beeinflussen die Problematik. Neue und resiliente Lösungen müssen gefunden werden. Mit ingenieurstechnischem Höchstmaß und KI gelingt es, den intelligenten Umgang mit Wasser zu gewährleisten.

„Der effiziente und verantwortungsvolle Umgang mit natürlichen Ressourcen ist eine gesellschaftliche Verantwortung und ein entscheidender Beitrag zum Klimaschutz und zur Klimafolgenanpassung. Deshalb unterstützen wir die zukunftsweisende Forschung des DFKI und der Hochschule Trier in diesem Vorhaben. Der Erkenntnisgewinn und Wissenstransfer über digitale Zwillinge sind wegweisend für das Wasser 4.0“, betonte Umweltministerin Katrin Eder. „Die vehemente Fortführung der Digitalisierung der Wasserwirtschaft kann einen großen Beitrag dazu leisten, den neuen Herausforderungen gewachsen zu sein. Das Land Rheinland-Pfalz setzt entschieden auf das Thema KI für Umwelt und Nachhaltigkeit und unterstützt das DFKI deshalb seit mehr als 30 Jahren.“

Prof. Dr. Andreas Dengel, Geschäftsführender Direktor des DFKI in Kaiserslautern und KI-Botschafter des Landes Rheinland-Pfalz: „Die Nutzung von digitalen Zwillingen aus dem Bereich der Künstlichen Intelligenz wird industrielle Prozesse, so auch die Wasserwirtschaft, in den kommenden Jahren maßgeblich beeinflussen. Wir freuen uns, gemeinsam mit dem Umwelt-Campus Birkenfeld der Hochschule Trier einen weiteren essenziellen Forschungsbeitrag für eine nachhaltige und umweltfreundliche KI zu leisten. Wir sehen den Einsatz von KI für gesamtgesellschaftliche Herausforderungen als Teil der DFKI-Mission. Mit dem Kompetenzzentrum „DFKI4planet“ und verschiedenen Projekten aus dem breiten Spektrum der KI haben wir uns zum Ziel gesetzt, das große Potenzial intelligenter Technologien effektiv für Umweltschutz und Nachhaltigkeit einzusetzen.“

Die Präsidentin der Hochschule Trier, Prof. Dr. Dorit Schumann, ergänzt: „Digitalisierung und Nachhaltigkeit sind Schwerpunktthemen der Hochschule Trier und ich freue mich besonders, dass das ‚Lebenselixier Wasser‘ im Mittelpunkt der Kooperation steht.“

Projektleiter Prof. Dr. Ralph Bergmann erklärt: „Wir sehen eine große Entwicklungsmöglichkeit, mit Hilfe von erfahrungsbasierten Methoden auf Herausforderungen in der Wasserwirtschaft zu reagieren und mithilfe von Prognose- und Simulationsmodellen beweglich handlungsfähig zu sein. Als Ergebnis erhoffen wir uns, die Prozesse im Wassersektor zukünftig ressourcenschonender und resilient gegen Störungen gestalten zu können. Auf die gemeinsame Zusammenarbeit mit dem Umwelt-Campus freuen wir uns, da wir besonders den Wissenstransfer der Forschenden schätzen.“ Prof. Dr. Stefan Naumann, der seitens des Instituts für Softwaresysteme am Umwelt-Campus das Projekt leitet, sieht in dieser Kooperation erhebliche Chancen, „sowohl im informationstechnischen Bereich als auch im Anwendungsfeld der Wasser- und Energieeinsparung wissenschaftliche Fortschritte zu erzielen und diese auch in die Praxis zu überführen.“

In Anlehnung an der Initiative „Industrie 4.0“, prägt die „German Water Partnership“ den Begriff „Wasser 4.0“ zur Transformation bestehender industrieller Produktionsanlagen zu Cyber-Physical-Systems. Die optimale Vernetzung virtueller und realer Wassersysteme soll in Zukunft in der Wasserwirtschaft Anwendung finden und dabei Planung, Bau und Betrieb berücksichtigt werden. Die Kooperation zwischen der Hochschule Trier (Umwelt-Campus Birkenfeld) und dem DFKI hat unter anderem zum Ziel, gemeinsame Modellprojekte zu entwickeln. Für kommunale Entscheidungsträgerinnen und Entscheidungsträger können die gemeinsam erarbeiteten Ergebnisse als guter Ansatzpunkt für die Entwicklung von Maßnahmen dienen. Weiter soll das Potenzial der Entwicklung eines digitalen Zwillings in der Wasserwirtschaft exemplarisch konkretisiert werden.

Grundsätzlich wird Gegenstand dieser Kooperation sein:
– Die Referenzmodellentwicklung und Validierung „Digitaler Zwilling Wasserwirtschaft“.
– Anwendungsfälle für den Einsatz Künstlicher Intelligenz in der Wasserwirtschaft.
– Wissenschaftliche Begleitung von Projekten und Wissenstransfer.

GOOD TO KNOW | DIGITALE ZWILLINGE IN DER WASSERWIRTSCHAFT
Ein digitaler Zwilling ist ein virtuelles Abbild eines Produkts oder Prozesses, welches mit realen Daten versorgt wird. Bevor Ressourcen in der realen Welt eingesetzt werden, sind digitale Zwillinge von großem Nutzen. Mit ihnen kann das Unternehmen eine realistische Modellierung vornehmen und Produktionsprozesse optimieren und planen. Beispielsweise können Prognose- oder auch Simulationsmodelle mit digitalen Zwillingen angefertigt werden. So können Fehler bei der Verwaltung der Systeme gelöst oder auch verhindert werden. Beispiele hierfür sind die Ortung eines Lecks, die Energieeffizienz, die Wasserqualität, die Planung der Wartungsarbeiten und die frühzeitige Reaktion auf Notfälle. Häufige Fehler können finanzielle Verluste zur Folge haben und vielzählige Gefahren für das Unternehmen mit sich bringen. Umso sinnvoller ist die Anwendung der digitalen Zwillinge in der Wasserwirtschaft. Auf Basis von Echtzeitmodellierung und Wertschöpfung von Wasser- und Umweltdaten wird ein erfolgreicher Grundbaustein der Industrie 4.0 in den Wassersektor implementiert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Naumann
06782 171217 | s.naumann@umwelt-campus.de

(nach oben)


Wie die Gesellschaft über Risiko denkt

Noemi Kern Kommunikation
Universität Basel
Von Pandemien bis zur Kernenergie – die Welt ist voller Risiken. Psychologen der Universität Basel haben eine neue Methode entwickelt, mit der die Risikowahrnehmung innerhalb einer Gesellschaft ermittelt werden kann.

Ob es um Arbeit, Finanzen oder Gesundheit geht: Viele unserer alltäglichen Handlungen sind mit einem Risiko verbunden. Doch wie wird Risiko in einer Gesellschaft wahrgenommen und wie denkt der Einzelne darüber nach?

Das wollten Dr. Dirk Wulff und Prof. Dr. Rui Mata wissen, Forscher an der Fakultät für Psychologie der Universität Basel. «Risiko ist etwas, das viele Wissenschaftlerinnen und Wissenschaftler interessiert», sagt Dirk Wulff. «Jedoch definieren es Disziplinen wie die Psychologie, Soziologie und die Wirtschaftswissenschaften unterschiedlich.»

Gerade der Tatsache, dass die Bedeutung von Risiko je nach Zielsetzung und Lebenserfahrung von Individuum zu Individuum unterschiedlich sein kann, wurde laut Wulff bisher wenig Aufmerksamkeit geschenkt. Es sei jedoch wichtig zu verstehen, wie verschiedene Personen über Risiken denken, um beispielsweise die Einstellung zu neuen Technologien oder gesellschaftlichen Herausforderungen zu bewerten.

Risiko verbindet diametrale Enden des Gefühlsspektrums
Um dem auf den Grund zu gehen, haben die Forscher eine neue Methode entwickelt, die mit Wortassoziationen und algorithmischen Verfahren die Bedeutung von Risiko für verschiedene Gruppen und Einzelpersonen abbildet. Diese Methode ähnelt einem Schneeballsystem: Dabei wurden Teilnehmende aufgefordert, fünf Wörter zu nennen, die sie mit dem Begriff Risiko assoziieren, sowie fünf Wörter, die sie wiederum mit diesen Assoziationen verbinden. Mit dieser Methode befragten die Forscher eine landesweit repräsentative Stichprobe von 1205 Personen, in der Männer und Frauen sowie verschiedene Altersgruppen gleichermassen vertreten waren.

Aus den insgesamt 36’100 Assoziationen wurde mithilfe eines Algorithmus ein semantisches Netzwerk des Begriffs Risiko generiert, das folgende Komponenten aufweist: Bedrohung, Glück, Investment, Aktivitäten und Analyse. Am prominentesten wurde dabei das semantischer Cluster «Bedrohung» (Gefahr, Unfall, Verlust etc.) mit Risiko in Verbindung gebracht, dicht gefolgt von «Glück» (Profit, Spiel, Abenteuer). «In bisherigen Untersuchungen wurden meist die negativen Komponenten von Risiko betrachtet und dabei ausser Acht gelassen, dass durchaus auch positive Bewertungen damit verbunden sind», sagt Wulff.

Die Methode soll individuelle, aber auch gruppenspezifische Unterschiede in der Risikowahrnehmung erkennen. Dazu haben die Psychologen die Unterschiede zwischen Männern und Frauen und zwischen verschiedenen Altersgruppen untersucht. Allgemein fiel auf, dass Frauen und Männer sowie Menschen verschiedenen Alters ähnlich über Risiken denken. Dennoch ergaben sich Differenzen: Vor allem Ältere gegenüber Jüngeren und Frauen gegenüber Männern verbinden das Wort Risiko stärker mit Bedrohung und weniger mit Glück.

Kleine Unterschiede zwischen Sprachen
Ausserdem haben die Forscher die Frage gestellt: Denken Menschen aus verschiedenen Sprachregionen ähnlich über Risiko? Um das zu untersuchen, haben sie das auf Deutsch ermittelte semantische Netzwerk des Risikos mit dem von zwei anderen Sprachen, Niederländisch und Englisch, verglichen. Zwar gibt es kleine Unterschiede in der Häufigkeit. So wurde im Niederländischen Risiko eher mit Bedrohung und im Englischen stärker mit Vermögen in Verbindung gebracht. Doch deuten die Ergebnisse insgesamt daraufhin, dass es einige universelle Merkmale der Risikodarstellung gibt, die über die Sprache hinweg vergleichbar sind.

«Unsere Untersuchung hat ein neues Fundament geschaffen zu der Frage, wie Menschen über Risiko nachdenken», sagt Wulff. «Dies könnte wichtig sein, um besser zu verstehen, wie verschiedene gesellschaftliche Gruppen Risiken interpretieren und die gesellschaftliche Polarisierung durch bessere Risikokommunikationsstrategien zu bekämpfen.»

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rui Mata, Universität Basel, Fakultät für Psychologie, Center for Cognitive and Decision Sciences, Tel. +41 61 207 06 11, E-Mail: rui.mata@unibas.ch

Dr. Dirk Wulff, Universität Basel, Fakultät für Psychologie, Center for Cognitive and Decision Sciences, Tel. +41 61 207 06 24, E-Mail: dirk.wulff@unibas.ch

Originalpublikation:
Dirk U. Wulff and Rui Mata
On the semantic representation of risk
Science Advances (2022), doi: 10.1126/sciadv.abm1883

(nach oben)


KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.

Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_067_kit-klimawandel-und-landnutzungsanderungen-b…

Das Hochwasser im Juli 2021 gehört zu den fünf schwersten und teuersten Naturkatastrophen der letzten 50 Jahre in Europa. Mehr als 180 Menschen verloren ihr Leben, weit über 10 000 Gebäude wurden beschädigt. Kritische Infrastrukturen wie Strom- und Wasserversorgungsnetze, Brücken, Bahnstrecken und Straßen wurden teilweise oder vollständig zerstört. Das Gesamtausmaß des Hochwassers am 14. und 15. Juli 2021 in der Eifel war auch für Expertinnen und Experten überraschend. Eine Kombination mehrerer Faktoren bedingte diese Katastrophe: „Wir haben untersucht, wie Niederschläge, Verdunstungsprozesse sowie Gewässer- und Abflussverhalten dieses Hochwasser begünstigt haben“, sagt Dr. Susanna Mohr, Geschäftsführerin des Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT, welche die Studie zusammen mit einem interdisziplinären Team aus mehreren Instituten des KIT erstellt hat.

Geschiebe erhöhte das Ausbreiten sowie die Auswirkungen des Hochwassers an der Ahr
An der Ahr bewegte sich die geschätzte Wasserabflussmenge 2021 in einer ähnlichen Größenordnung wie bei den historischen Hochwasserereignissen 1804 und 1910. Trotzdem lagen die Pegelstände 2021 an mehreren Orten deutlich höher. „Wir haben gesehen, dass sich die Art des Geschiebes – also Material, das durch ein Fließgewässer mittransportiert wird – erheblich verändert hat. Neben Abtragungen von Sedimenten und bereits vorhandenem Totholz hat der anthropogene, also vom Menschen verursachte Einfluss eine erhebliche Rolle gespielt“, sagt Mohr. „So haben sich etwa Fahrzeuge, Wohnwagen, Mülltonnen oder Baumaterialien an Brückenbereichen gestaut, was zu zusätzlichen Engpässen geführt und die Auswirkungen des Hochwassers weiter verschärft hat.“ Um zukünftig besser auf solche Ereignisse vorbereitet zu sein, sei es beim Hochwasserrisikomanagement notwendig, Landschaft, Infrastrukturen und Bebauung sowie Flussverläufe einschließlich deren Veränderungen und mögliche Sedimenttransporte in die Gefährdungsbeurteilung miteinzubeziehen.

Niederschlagsausmaß nicht einzigartig
Die Forschenden verglichen weiterhin das Niederschlagsereignis vom Juli 2021 mit historischen Niederschlagsaufzeichnungen: „Unsere Analysen zeigen, dass die beobachtete Gesamtniederschlagsumme mit zu den höchsten der letzten 70 Jahre in Deutschland zählt – und somit extrem, aber nicht einzigartig war“, sagt Dr. Florian Ehmele vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO). „Die Niederschlagsereignisse, die beispielsweise zu den schweren Hochwassern in Berlin und Brandenburg 1978 oder an der Elbe 2002 geführt haben, waren sowohl hinsichtlich ihrer Niederschlagsintensität als auch ihrer Ausdehnung oder Lebensdauer deutlich stärker.“ Allerdings seien vergangene Niederschlagsereignisse, die mit dem im Juli 2021 vergleichbar sind, überwiegend im Osten und Süden von Deutschland und seltener im Westen beobachtet worden.

Simulationen zeigen: Klimawandel verstärkt künftige Hochwasserereignisse
Zusätzlich haben die Forschenden des KIT das Hochwasserereignis unter verschiedenen Klimarandbedingungen simuliert. „Die Intensität solcher Niederschlagsereignisse nimmt um circa sieben Prozent pro Grad Erwärmung zu. Die Simulationen zeigen, dass sich die Niederschlagsmenge bereits jetzt um elf Prozent gegenüber vorindustriellen Bedingungen erhöht hat“, sagt Dr. Patrick Ludwig, Leiter der Arbeitsgruppe „Regionale Klimamodellierung“ am IMK-TRO. „Bei fortschreitender globaler Erwärmung müssen wir also von einer weiteren Verstärkung des Niederschlags ausgehen.“ Aber nicht nur das sei zukünftig ein Problem: „Laut unserer Zukunftsprojektionen dehnen sich solche Extremereignisse zusätzlich sowohl räumlich als auch zeitlich aus und deren Häufigkeit nimmt zu“, prognostiziert Ludwig.

Risikokompetenz der Bevölkerung muss verbessert werden
Das schwere Hochwasser im Juli 2021 habe somit gezeigt, wie wichtig es ist, auf derartige Ereignisse vorbereitet zu sein und angemessen zu reagieren, so die Forschenden. Um die Resilienz, also die Widerstandfähigkeit im Falle von Katastrophen, zu erhöhen und somit Schäden und Opferzahlen zu verringern, gelte es daher, neben dem Gefahrenpotenzial auch die Verwundbarkeit von Systemen und soziale Aspekte miteinzubeziehen. Ein essenzieller Bestandteil von Resilienz sei dabei die Risikokompetenz der Bevölkerung, also das Wissen um angemessene und rasche Handlungsmöglichkeiten bei Eintritt einer Katastrophe.

Center for Disaster Management and Risk Reduction Technology (CEDIM)
Das CEDIM, eine interdisziplinäre Einrichtung des KIT, forscht zu Katastrophen, Risiken und Sicherheit. Ziel ist, natürliche und menschengemachte Risiken in einer sich rasch verändernden, von Bevölkerungswachstum, Urbanisierung und Klimawandel geprägten Welt genauer zu verstehen, früher zu erkennen und besser zu bewältigen. Dazu verbinden die Forschenden Risikoerfassung, Risikoanalyse, Risikomanagement und Risikokommunikation und entwickeln darauf aufbauend Konzepte zum Verbessern der Resilienz von Infrastrukturen und Versorgung. (swi)

Originalpublikationen
Susanna Mohr, Uwe Ehret, Michael Kunz, Patrick Ludwig, Alberto Caldas-Alvarez, James E. Daniell, Florian Ehmele, Hendrik Feldmann, Mário J. Franca, Christian Gattke, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Marc Scheibel, Frank Seidel, and Christina Wisotzky (2022): A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 1: Event description and analysis. Nat. Hazards Earth Syst. Sci. Discuss., https://doi.org/10.5194/nhess-2022-137, in review.

Patrick Ludwig, Florian Ehmele, Mário J. Franca, Susanna Mohr, Alberto Caldas-Alvarez, James E. Daniell, Uwe Ehret, Hendrik Feldmann, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Michael Kunz, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Frank Seidel, and Christina Wisotzky: A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 2: Historical context and relation to climate change. In finaler Vorbereitung für Nat. Hazards Earth Syst. Sci. Discuss.

Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…

Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730

Weitere Informationen zum CEDIM: https://www.cedim.kit.edu

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
https://doi.org/10.5194/nhess-2022-137, in review.

Weitere Informationen:
http://Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
http://Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
http://Weitere Informationen zum CEDIM: https://www.cedim.kit.edu

(nach oben)


Positionspapier zur Energie- und Klimawende

Dr. Barbara Laaser (Pressestelle) Öffentlichkeitsarbeit/Pressestelle
Westfälische Hochschule
Sieben Instituts-Professoren des Westfälischen Energieinstituts (WEI) legen heute nach intensiver Forschungsarbeit ein Positionspapier zur Energie- und Klimawende vor. Unter dem Titel „Energie- und Klimawende zwischen Anspruch, Wunschdenken und Wirklichkeit“ kommen Heinz-J. Bontrup, Michael Brodmann, Christian Fieberg, Markus Löffler, Ralf-M. Marquardt, Andreas Schneider und Andreas Wichtmann zu den folgenden Befunden:

Gelsenkirchen. Die sich verschärfende Klimakrise kann nur durch eine verstärkte internationale Kooperation gelöst werden. Deutschland, mit einem Anteil von rund 2 % der weltweiten CO2-Emissionen, wird dazu nur einen marginalen Beitrag leisten können. Dennoch müssen wir als eines der reichsten Länder der Erde überproportionale Anstrengungen zur CO2-Neutralität unternehmen.

Die bisherigen Bemühungen waren dazu nicht in allen Bereichen hinreichend und die jetzt von der Ampel-Regierung neu ausgegebenen Ziele sind als hoch anspruchsvoll einzustufen. Das WEI sieht hier zum Erreichen der zukünftigen Ziele und dem dazu notwendigen weiteren Ausbau mit erneuerbaren Energien (EE) in Deutschland nicht unbeträchtliche Herausforderungen bei der Versorgungssicherheit mit Elektrizität. Dies gilt sowohl für die Flächen- und Energiespeicherbedarfe, genauso wie für die viel zitierten Wasserstoffszenarien. Der Ausbau mit EE muss auf jeden Fall von Brückentechnologien begleitet werden. Dazu zählen Erdgaskraftwerke im H2-ready-Format und/oder Biogasanlagen. Zusätzlich muss es zu einem wesentlich verbesserten Lastenverschiebungsmanagement und zum verstärkten Ausbau von Grenzkuppelkapazitäten kommen.

Die dabei zur Versorgungssicherheit womöglich dennoch auftretende zu geringe Menge an elektrischer Anschlussleistung mit Auslandsimporten zu lösen, sieht das WEI als problematisch an. Genauso wie die geforderte höhere Energieeffizienz sicher rational ist, ergeben sich aber auch hier mehr Fragen als Antworten. Dennoch wird Deutschland nach Einschätzung der Studie weiter ein Energieimportland bleiben. Selbst wenn für diesen Fall der Import von Kohle, Erdöl und Gas zukünftig verringert werden kann, so entsteht über den notwendigen riesigen Speicherbedarf an elektrischer Energie aus EE eine neue Importabhängigkeit von im Ausland regenerativ erzeugten Wasserstoff und Basiswerkstoffen für Batteriespeicher wie Kobalt und Lithium. Die deutsche Gasreserve würde im Falle einer reinen Wasserstoffwirtschaft nur noch 20 bis 30 Prozent der derzeitigen Erdgasreserve betragen können.

Will man hier im internationalen Austausch verhindern, dass vor allem die Schwellen- und Entwicklungsländer aufgrund ihrer schwierigen ökonomischen Herausforderungen ihre Energieversorgung über die – unter Vernachlässigen externer Effekte – kostengünstigen fossilen Energieträger decken, sondern mittel- bis langfristig aus eigener Kraft die Herausforderungen der Klimakrise angehen können, so sind diesbezüglich Exportmöglichkeiten für diese Länder zu schaffen. Da viele dieser Länder im Sonnengürtel der Erde liegen und enorme Windenergiepotenziale haben, bietet sich hier eine neue internationale Arbeitsteilung an, bei der dort grüner Wasserstoff erzeugt und nach Europa exportiert wird. Dazu müssen aber die reichen Länder entsprechende technische und finanzielle Unterstützungen bereitstellen.

Neben den vielfältigen und beträchtlichen Problemen bei der technischen Umsetzung der Energiewende in Deutschland müssen ebenso große sozioökonomische Herausforderungen bewältigt werden. Energie wird sich dauerhaft drastisch verteuern. Ohne Preissignale und eine Internalisierung negativer Effekte der konventionellen Energieerzeugung auf die Umwelt in die Kalkulationen wird es aber nicht zu notwendigen Verbrauchseinsparungen kommen.

Die unteren Einkommensschichten werden die Preiserhöhungen nur schwerlich stemmen können: Dies zeichnet sich bereits ab, selbst wenn Sondereffekte der Coronakrise und des Ukrainekriegs außen vorgelassen werden. Die politisch aufgesetzten Entlastungspakete der Regierung erweisen sich hier als halbherzig, nicht zielgenau und letztlich auch als ungeeignet, die Problematik dauerhaft zu lösen. Eine Symptompolitik und Sekundärverteilung sind hier nicht zielgerichtet und nur mit einer Beseitigung der Ursachen für niedrige Primäreinkommen angehbar. Es muss deshalb zu einer spürbaren Umverteilung zu Gunsten der Einkommensschwachen kommen. Dazu bedarf es zumindest einer verteilungsneutralen Tarifpolitik zwischen Gewerkschaften und Unternehmerverbänden.

Die für die Umsteuerung benötigten Investitionsbedarfe sind auf Grund der gesamtwirtschaftlichen Ersparnisse nicht das größte Problem der Umsetzung der Energiewende. Tatsächlich müssen dazu die hohen deutschen Exportüberschüsse reduziert werden, was nicht leicht sein wird, weil davon zwei Wirkungen ausgehen: Erstens ein beträchtlicher Transformationsprozess in der deutschen Industrie, nicht nur in der Automobilindustrie, und zweitens Anpassungsprozesse in den Importländern. Ein Großteil der für die Energiewendeinvestitionen notwendigen Finanzmittel würde dann binnenwirtschaftlich zum Einsatz kommen und nicht mehr wie heute, unsere Exportüberschüsse finanzieren. Das Ausland hätte dadurch aber auch weniger kreditbasierte Importmöglichkeiten. Alternativ oder ergänzend könnte hier mit deutschem Finanzkapital in den Schwellen- und Entwicklungsländern eine Infrastruktur aufgebaut werden, um damit EE-Strom und Wasserstoff zu produzieren und für diese Staaten in einer beiderseitigen Win-Win-Lösung eine neue Wohlstandsquelle aufzubauen.

Ohne Lenkung und Regulierung durch den Staat und Interventionen wird die Energiewende nicht umsetzbar sein. Überdies wird eine Verschuldung des Staates unumgänglich sein, was aber nur generationengerecht ist. Daher bedarf es einer Suspendierung der Schuldenbremse zugunsten einer an den Zukunftsinvestitionen orientierten Schuldenbegrenzung. Zudem werden die hohen Einkommen und Vermögen von einer wesentlich höheren Besteuerung betroffen sein. Ohne die ergänzende Wiedereinführung der 1997 ausgesetzten Vermögensteuer und einer höheren Erbschaftsteuer wird die Energie- und Klimawende ebenfalls nicht gelingen.

Das Positionspapier ist unter https://www.w-hs.de/wei/aktuelles/positionspapier-zur-energiewende abrufbar.

Autoren der Meldung und des Positionspapiers: Prof. Dr. Heinz-Josef Bontrup, Prof. Dr. Michael Brodmann, Prof. Dr. Christian Fieberg, Prof. Dr. Markus Löffler, Prof. Dr. Ralf-Michael. Marquardt, Prof. Dr. Andreas Schneider und Prof. Dr. Andreas Wichtmann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Heinz-J. Bontrup, Telefon: 0160 944 799 84, E-Mail: bontrup@w-hs.de und Prof. Dr. Markus Löffler, Telefon: Tel. 0151 5115 0961, E-Mail: markus.loeffler@w-hs.de

(nach oben)


Wissenschaftsjournalistischer Vortrag: Zahlen lügen nicht?

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Was bedeutet es, wenn der Deutsche im Durchschnitt mehr Geld verdient als ich? Verursacht der Verzehr von Eiscreme vor dem Baden tatsächlich mehr Ertrinkungsunfälle? Über die Bedeutung von Zahlen und Statistiken in der Berichterstattung geht es in einem Vortrag, den die renommierte Wissenschaftsjournalistin Prof. Dr. Ionica Smeets an der Universität Heidelberg halten wird. Die promovierte Mathematikerin ist im laufenden Sommersemester Nature Marsilius Gastprofessorin für Wissenschaftskommunikation; an der Universität Leiden hat sie eine Professur auf diesem Gebiet inne. Die Vortragsveranstaltung mit dem Titel „Lying with Numbers“ findet am 12. Juli 2022 im Marsilius-Kolleg statt.

Wissenschaftsjournalistischer Vortrag: Zahlen lügen nicht?
Veranstaltung mit Ionica Smeets, Nature Marsilius Gastprofessorin für Wissenschaftskommunikation an der Universität Heidelberg

Was bedeutet es, wenn der Deutsche im Durchschnitt mehr Geld verdient als ich? Verursacht der Verzehr von Eiscreme vor dem Baden tatsächlich mehr Ertrinkungsunfälle? Über die Bedeutung von Zahlen und Statistiken in der Berichterstattung geht es in einem Vortrag, den die renommierte niederländische Wissenschaftsjournalistin Prof. Dr. Ionica Smeets an der Universität Heidelberg halten wird. Die promovierte Mathematikerin ist im laufenden Sommersemester Nature Marsilius Gastprofessorin für Wissenschaftskommunikation; an der Universität Leiden hat sie eine Professur auf diesem Gebiet inne. Die englischsprachige Vortragsveranstaltung mit dem Titel „Lying with Numbers“ findet am Dienstag, 12. Juli 2022, im Marsilius-Kolleg, Im Neuenheimer Feld 130.1, statt. Beginn ist um 19.30 Uhr.

„Zahlen lügen nicht, aber sie können ein verzerrtes Bild der Wahrheit vermitteln“, betont Prof. Smeets. Die Nature Marsilius Gastprofessorin wird in ihrem Vortrag in eine Welt voller „überraschender Paradoxien, irreführender Diagramme und heiterer Logik“ entführen. Damit, so die Journalistin und Professorin für Wissenschaftskommunikation, möchte sie dazu beitragen, dass sich ihre Zuhörerinnen und Zuhörer künftig von vermeintlich klaren Zahlen und Statistiken nicht mehr so einfach täuschen lassen.

Die Nature Marsilius Gastprofessur ist eine gemeinsame Initiative von Holtzbrinck Berlin, der Klaus Tschira Stiftung und der Universität Heidelberg. Namhafte Expertinnen und Experten werden im Rahmen der Professur an die Universität eingeladen, um in eigenen Veranstaltungen zu vermitteln, was eine qualitativ hochwertige Berichterstattung über wissenschaftliche Arbeit und wissenschaftliche Erkenntnis ausmacht. Zugleich sollen die Gastprofessorinnen und Gastprofessoren eine breit angelegte Diskussion über neue Formen des Austauschs zwischen Wissenschaft und Öffentlichkeit anstoßen. Im Rahmen ihres Aufenthaltes an der Universität Heidelberg gestaltet Prof. Smeets verschiedene Workshops, etwa eine Veranstaltung zu der Frage, was einen guten populärwissenschaftlichen Vortrag ausmacht, um insbesondere junge Wissenschaftlerinnen und Wissenschaftler darin zu schulen, ihre Forschung einem breiten Kreis von Adressaten zu vermitteln und zum gesellschaftlichen Dialog beizutragen.

Ionica Smeets hat Angewandte Mathematik und Informatik an der Technischen Universität Delft (Niederlande) studiert und wurde 2010 mit einer Arbeit zum Thema „On continued fraction algorithms“ an der Universität Leiden promoviert. Dort ist sie seit 2015 als Professorin tätig und leitet in Leiden die Forschungsgruppe Wissenschaftskommunikation und Gesellschaft. Seit 2004 arbeitet sie als freiberufliche Journalistin unter anderem für die Zeitung „de Volkskrant“, in der auch eine wöchentliche Kolumne von ihr erscheint. Zugleich vermittelt sie in zahlreichen TV-Formaten wissenschaftliche Themen. Ionica Smeets hat darüber hinaus mehrere Bücher veröffentlicht, zuletzt ein Kinderbuch über Mathematik, das unter anderem mit dem niederländischen Literaturpreis „Zilveren Griffel“ ausgezeichnet wurde.

Kontakt:
Kommunikation und Marketing
Pressestelle
Tel. +49 6221 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.uni-heidelberg.de/de/transfer/kommunikation/nature-marsilius-gastprof…

(nach oben)


Die Energielandschaft der Zukunft

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Die heutigen Studierenden werden den Wandel gestalten – durch die Stärkung von Windkraft, Photovoltaik, Biomasse und neuer Energieübertragungs- und Speichersysteme.

Kohle, Öl, Gas: Fossile Brennstoffe sind Hauptursache der globalen Erderwärmung. Und sie sind teuer geworden. Deutlich offenbart der Russland-Ukraine-Krieg die Abhängigkeiten. Die Art der Energiegewinnung muss sich grundlegend ändern. Prof. Dr. Bernd Hüttl forscht und lehrt als Professor für erneuerbare Energien insbesondere im Bereich Photovoltaik. Er erklärt, wie die Energielandschaft der Zukunft aussehen wird – und warum wir dafür jetzt dringend gute Ingenieurinnen und Ingenieure brauchen.

Seit 50 Jahren wird über die Energiewende gesprochen – was fehlt denn noch?
Prof. Dr. Bernd Hüttl: Es gibt technische Themen, aber zuerst erfordert die Energiewende gesellschaftliche Akzeptanz, Umsetzungswillen und Betriebswirte, die clevere Finanzierungsmechanismen entwickeln. Das Erneuerbare-Energien-Gesetz mit der festen Vergütung für Strom aus erneuerbaren Energien war ein wichtiger Schritt. Es hat ganze Technologiezweige gefördert, so dass diese heute preiswert zur Verfügung stehen. PV-Strom großer Anlagen kostet heute in Deutschland nur noch 5 Cent/kWh. Andererseits hat das EEG den Strompreis in die Höhe getrieben, das muss nun geändert werden. Grüner Strom selbst ist inzwischen billig, der Vorteil muss an die Verbraucher zurückgegeben werden. Nur so kann das Stocken der Energiewende überwunden werden.

Und das hat sich jetzt geändert …
Jetzt passiert alles gleichzeitig. Der Atomausstieg ist noch immer Thema, die Abhängigkeit von Russland und die Preissteigerungen haben einen gesellschaftspolitischen Schock ausgelöst und der Klimawandel wird sichtbarer, spürbarer. Aber die Hektik, die nun entsteht, hätte nicht sein müssen. Stöhnend fragen die energieintensiven Industriezweige: Können wir schnell was machen? Nein, schnell können wir nichts machen. Es gibt technische Lösungen, aber da fehlt noch einiges an Entwicklung, damit die Lösungen preiswert werden. Erst das macht Technologien zukunftsfähig. Dafür braucht’s eine Anschubfinanzierung. Und gute Ingenieurinnen und Ingenieure, die wir ausbilden.

Was sind die Themen der Ingenieurinnen und Ingenieure?
Die Energielandschaft der Zukunft. Sie ist dezentral. Zum Beispiel sind Genossenschaften im Bereich der Windenergie stark im Kommen, weil die Menschen vor Ort etwas davon haben und nicht nur die großen Konzerne. Photovoltaik hat große Bedeutung, aber auch Geothermie und Wasserkraft leisten einen Beitrag. Und all die kleinen dezentralen Versorgungseinheiten müssen intelligent, smart, miteinander vernetzt sein, denn die Anforderungen an die Netze sind ganz anders als früher. „Zappelenergie“ nennen es manche, wir sagen volatile Stromerzeugung; das ist ingenieurtechnisch exakt. Die Netze müssen stabilisiert werden, und man muss Energie zwischenspeichern, damit sie greifbar ist, wenn es die sogenannte Dunkelflaute gibt. Kollegen an der Hochschule forschen und lehren auch die Themen Smart Grid und Wasserstofftechnik, außerdem wird man künftig Gas aus erneuerbaren Energien herstellen. Die Speicherung macht Energie teuer. Deshalb müssen wir an allen Stellen daran arbeiten, das weiterzuentwickeln und da gibt es auch spannende Berufsfelder für unsere Absolventinnen und Absolventen.

Was studieren diejenigen, die die Energielandschaft der Zukunft gestalten?
Es gibt natürlich junge Leute, die auf die Straße gehen und den Wandel fordern und zum Beispiel Politikwissenschaft studieren. Aber es gibt auch diejenigen, die sagen: Wenn die Probleme technisch sind, muss ich da ansetzen. Die sind bei uns richtig. Die Hochschule Coburg gehört zum Netzwerk „Study Green Energy und wir sind in allen Bereichen sehr praxisorientiert ausgerichtet, das reicht von kleinen Studierendenprojekten bis zur Promotion. In unserem Bachelorstudiengang Energietechnik und Erneuerbare Energien steht die Speicherung und Verteilung der Erneuerbaren Energie im Mittelpunkt. Aber auch die Studienrichtung Energieeffizientes Gebäudedesign im Bachelor-Studiengang Bauingenieurwesen und der Master-Studiengang ressourceneffizientes Planen und Bauen (Bauingenieurwesen) sind auf die Energiewende ausgerichtet. Die Bewerbungsphase für’s Wintersemester an den Studiengängen der Hochschule läuft. Weitere Informationen darüber gibt es auf der Webseite www.hs-coburg.de.

Interview: Natalie Schalk

(nach oben)


Neue Omikron-Untervarianten BA.2.12.1, BA.4 und BA.5 werden schlechter durch Antikörper gehemmt

Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Infektionen mit den „alten“ Omikron-Untervarianten BA.1 und BA.2 schützen kaum vor der für die Sommerwelle verantwortlichen SARS-CoV-2-Untervariante BA.5

Die Omikron Untervarianten BA.1 und BA.2 des SARS-CoV-2 haben die COVID-19 Pandemie im Frühjahr 2022 dominiert. In vielen Ländern werden diese Viren nun durch neue Untervarianten verdrängt. In Deutschland breitet sich derzeit die Untervariante BA.5 stark aus und führt zu einem Anstieg der Fallzahlen. Bislang war es jedoch noch unklar, ob die Untervarianten BA.2.12.1, BA.4 und BA.5 die vorherrschenden Varianten aufgrund einer gesteigerten Übertragbarkeit verdrängen oder ob sie möglicherweise weniger gut durch Antikörper gehemmt werden. Eine Studie von Forschenden des Deutschen Primatenzentrums (DPZ) – Leibniz-Institut für Primatenforschung, der Medizinischen Hochschule Hannover und der Friedrich-Alexander-Universität Erlangen-Nürnberg zeigt, dass die meisten therapeutischen Antikörper die Omikron Untervarianten BA.2.12.1, BA.4 und BA.5 nur schwach oder gar nicht hemmen. Lediglich der Antikörper Bebtelovimab blockierte alle getesteten Varianten mit hoher Effizienz. Außerdem zeigt die Studie, dass die Omikron Untervarianten BA.2.12.1 und insbesondere BA.4 und BA.5 schlechter als ihre Vorgänger BA.1 und BA.2 durch Antikörper gehemmt werden, die nach einer Impfung oder einer Impfung gefolgt von einer Infektion gebildet wurden. Somit handelt es sich bei BA.2.12.1, BA.4 und BA.5 um Immunflucht-Varianten. Eine durchlaufene Infektion mit „alten“ Omikron Untervarianten verleiht nur einen eingeschränkten Schutz gegen eine Infektion mit „neuen“ Untervarianten (The Lancet Infectious Diseases).

SARS-CoV-2 Varianten entstehen, weil das Virus bei seiner Vermehrung Fehler macht. Diese Fehler führen zu Mutationen, die die viralen Proteine verändern, einschließlich des Oberflächenproteins Spike, das den zentralen Angriffspunkt für die Antikörperantwort darstellt. Führen diese Mutationen zu einer schlechteren Bindung von Antikörpern an das Spike-Protein, können sich diese Varianten auch in Bevölkerungen ausbreiten, die infolge von Impfung oder Impfung und zurückliegender Infektion bereits immunisiert wurden.

Die Infektionsbiolog*innen am Deutschen Primatenzentrum haben sich auf die Analyse der Hemmung von SARS-CoV-2 durch Antikörper spezialisiert. Zusammen mit Forschenden von der Medizinischen Hochschule Hannover und der Friedrich-Alexander-Universität Erlangen-Nürnberg haben sie untersucht, wie die neuen SARS-CoV-2 Omikron-Untervarianten durch Antikörper gehemmt werden. BA.2.12.1 und BA.4/BA.5 – das Spike-Protein dieser Varianten ist identisch – sind in vielen Ländern auf dem Vormarsch und BA.5 ist wesentlich für den Anstieg an Infektionen in Deutschland verantwortlich.
Das Team um Prerna Arora, Markus Hoffmann und Stefan Pöhlmann fand heraus, dass von zehn Antikörpern, die für die COVID-19 Therapie entwickelt wurden, nur zwei die Infektion mit BA.2.12.1, BA.4 und BA.5 zumindest teilweise hemmten und dass lediglich ein Antikörper, Bebtelovimab (LY-CoV1404), die Infektion mit allen Omikron-Untervarianten wirksam blockierte. „Diese Ergebnisse bestätigen einen Trend, der sich bereits in unseren früheren Studien gezeigt hat: Omikron-Untervarianten werden durch die meisten therapeutischen Antikörper nicht gut gehemmt und die wenigen Antikörper, die gute Hemmung zeigen, sind häufig gegen eine Untervariante aktiv, aber nicht gegen eine andere. Es ist daher wichtig, dass zeitnah neue Antiköper für die Therapie entwickelt werden, um für zukünftige Varianten gut gerüstet zu sein“, so Prerna Arora, Erstautorin der Studie.

Antikörper von ungeimpften Personen, die sich im Frühjahr mit den Omikron-Untervarianten BA.1 oder BA.2 infiziert hatten blockierten zwar auch BA.2.12.1, waren aber gegen BA.4 und BA.5 kaum aktiv. Es ist daher davon auszugehen, dass eine durchgemachte Infektion mit BA.1 oder BA.2 nur einen geringen Schutz vor einer nachfolgenden Infektion mit BA.4 oder BA.5 bietet. Die Antikörperantwort nach einer Grundimmunisierung und Booster-Impfung mit dem mRNA-Impfstoff von BioNTech/Pfizer hemmte alle Omikron Untervarianten, allerdings war die Hemmung deutlich geringer als die des Ursprungsvirus, das sich zu Beginn der Pandemie ausgebreitet hat. Zudem zeigte sich, dass BA.2.12.1, BA.4 und BA.5 weniger effizient gehemmt wurden als BA.1 und BA.2. Ähnliche Ergebnisse wurden auch für Antikörper erhalten, die nach Impfung und anschließender Durchbruchinfektion gebildet wurden. Auch wenn diese sogenannte Hybrid-Immunität zu einer besonders starken Hemmung aller getesteten Varianten führte, war die Hemmung von BA.2.12.1, BA.4 und BA.5 deutlich reduziert.

„BA.2.12.1 sowie insbesondere BA.4 und BA.5 sind Antikörperfluchtvarianten. Die Impfung wird dennoch vor einem schweren Verlauf schützen, der Schutz wird jedoch wahrscheinlich etwas geringer ausfallen als bei den vorher zirkulierenden Varianten“, schließt Markus Hoffmann, Letztautor der Studie. „Unsere zukünftigen Studien müssen zeigen, ob BA.2.12.1 und BA.4 und BA.5 nicht nur schlechter durch Antikörper gehemmt werden, sondern auch Lungenzellen besser infizieren. Wenn das der Fall sein sollte, ist ein Anstieg der Hospitalisierungen nicht auszuschließen. Allerdings wurde ein solcher Effekt zumindest in Südafrika, wo BA.4 und BA.5 zuerst nachgewiesen wurden, bislang noch nicht beobachtet“, sagt Stefan Pöhlmann, der die Studie gemeinsam mit Markus Hoffman geleitet hat.

Originalpublikation
Augmented neutralisation resistance of emerging omicron subvariants BA.2.12.1, BA.4, and BA.5. P. Arora, A. Kempf, I. Nehlmeier, S. R. Schulz, A. Cossmann, M. V. Stankov, H.-M. Jäck, G. M. N. Behrens, S. Pöhlmann, M. Hoffmann (2022). The Lancet Infectious Diseases. DOI: https://doi.org/10.1016/S1473-3099(22)00422-4

Kontakt und Hinweise für Redaktionen
Prof. Dr. Stefan Pöhlmann
Tel: +49 (0) 551 3851-150
E-Mail: spoehlmann@dpz.eu

Dr. Markus Hoffmann
Tel: +49 (0) 551 3851-338
E-Mail: mhoffmann@dpz.eu

Susanne Diederich (Kommunikation)
Tel.: +49 (0) 551 3851-359
E-Mail: sdiederich@dpz.eu

Druckfähige Bilder finden Sie unter folgendem Link:
http://medien.dpz.eu/pinaccess/showpin.do?pinCode=BzjZyFjR8oV1

Die Deutsches Primatenzentrum GmbH (DPZ) – Leibniz-Institut für Primatenforschung betreibt biologische und biomedizinische Forschung über und mit Primaten auf den Gebieten der Infektionsforschung, der Neurowissenschaften und der Primatenbiologie. Das DPZ unterhält außerdem vier Freilandstationen in den Tropen und ist Referenz- und Servicezentrum für alle Belange der Primatenforschung. Das DPZ ist eine der 97 Forschungs- und Infrastruktureinrichtungen der Leibniz-Gemeinschaft.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Pöhlmann
Tel: +49 (0) 551 3851-150
E-Mail: spoehlmann@dpz.eu

Dr. Markus Hoffmann
Tel: +49 (0) 551 3851-338
E-Mail: mhoffmann@dpz.eu

Originalpublikation:
Augmented neutralisation resistance of emerging omicron subvariants BA.2.12.1, BA.4, and BA.5. P. Arora, A. Kempf, I. Nehlmeier, S. R. Schulz, A. Cossmann, M. V. Stankov, H.-M. Jäck, G. M. N. Behrens, S. Pöhlmann, M. Hoffmann (2022). The Lancet Infectious Diseases. DOI: https://doi.org/10.1016/S1473-3099(22)00422-4

Weitere Informationen:
http://medien.dpz.eu/pinaccess/showpin.do?pinCode=BzjZyFjR8oV1 Druckfähige Bilder
https://www.dpz.eu/de/aktuelles/pressemitteilungen/einzelansicht/news/neue-omikr… Pressemitteilung

(nach oben)


Studien zu Essstörungen: Gen beeinflusst Gewicht und Magersucht

Dr. Milena Hänisch Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Neben Umweltfaktoren beeinflussen auch die Gene die Wahrscheinlichkeit, an einer Essstörung zu erkranken. Wissenschaftler:innen der Medizinischen Fakultät der Universität Duisburg-Essen (UDE) haben nun jeweils fast 200 Proband:innen untersucht, die entweder von einer Magersucht (Anorexia nervosa) oder extremem Übergewicht betroffen waren. Beim Vergleich genetischer Marker fiel vor allem ein Gen auf, von dem gleich 25 Varianten identifiziert werden konnten: das Gen für PTBP2. Dieses Gen könnte vor allem bei Männern einen ausgeprägten Einfluss auf die Regulierung des Körpergewichts haben. Die Forscher:innen haben ihre Erkenntnisse kürzlich in Translational Psychiatry veröffentlicht.*

„PTBP2 scheint das Körpergewicht und die Magersucht gleichermaßen zu beeinflussen“, erklärt Prof. Dr. Anke Hinney, Leiterin der Forschungsabteilung Molekulargenetik an der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Kindes- und Jugendalters des LVR-Klinikums Essen. „Eine frühere Studie hat gezeigt, dass die Expression von PTBP2 bei Patient:innen mit Adipositas höher ist als bei normalgewichtigen Kontrollpersonen.

Die Forschenden kommen zu dem Schluss, dass PTBP2 mit vielen weiteren Genen in Wechselwirkung steht, die entscheidend für die Regulierung des Körpergewichts sind. Bei Männern dürfte PTBP2 zudem eine größere Rolle spielen, vermuten die Autor:innen, weil bei ihnen eine größere Zahl an Varianten für die Gewichtsregulation relevant ist als bei Frauen.

Yiran Zheng, Doktorandin in der Molekulargenetik, betont, dass es keinen unmittelbaren Zusammenhang zwischen den beschriebenen genetischen Veränderungen und der Entwicklung einer Essstörung gibt: „Darüber entscheidet nicht nur ein einziges Gen. Aber wir wissen, dass sowohl Anorexia nervosa, also Magersucht, als auch ein hoher BMI in hohem Maße vererbbar sind. Deshalb ist PTBP2 für uns ein weiterer Ansatzpunkt, um die genetischen Faktoren genauer zu betrachten.“

Redaktion: Dr. Milena Hänisch, Medizinische Fakultät, Tel. 0201/723-1615, milena.haenisch@uk-essen.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Anke Hinney, Leiterin der Forschungsabteilung Molekulargenetik, Klinik f. Psychiatrie, Psychosomatik und Psychotherapie des Kindes- und Jugendalters/LVR-Klinikum Essen, Tel. 0201/7227-342, anke.hinney@uni-due.de

Originalpublikation:
PTBP2 – a gene with relevance for both Anorexia nervosa and body weight regulation
https://pubmed.ncbi.nlm.nih.gov/35680849/

(nach oben)


Sicheres Trinkwasser auch für entlegene Gebiete – Projekt zur Entwicklungshilfe gestartet

Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Verfügbarkeit von sauberem und sicherem Trinkwasser ist in vielen Teilen der Erde alles andere als selbstverständlich. Seine Beschaffung beschäftigt viele Millionen Menschen tagtäglich und ist oft mit erheblichen Strapazen und Gefahren verbunden. Sauberes Trinkwasser ist nicht nur lebensnotwendig, sondern es leistet einen Beitrag zur kulturellen und sozialen Entwicklung insbesondere abgelegener Regionen. Im Projekt LEDSOL entwickelt das iso-Institut in Saarbrücken im Verbund mit internationalen Partnern ein portables Wasserreinigungssystem für Menschen in entlegenen Regionen, die keinen Zugang zu sauberem Wasser haben.

Durch politische Krisen und Naturkatastrophen wird die wirtschaftliche und soziale Entwicklung vieler Regionen dieser Welt behindert. Insbesondere die Folgen des Klimawandels sind spürbar: Andauernde Dürreperioden bedrohen vor allem die ärmsten Regionen der Erde und zwingen nicht selten die Menschen zur Flucht aus ihrer Heimat. Das Menschenrecht auf Zugang zu sauberem Wasser ist in diesen Gebieten meist nicht gewährleistet. Das LEDSOL-Projekt entwickelt vor diesem Hintergrund ein handliches, tragbares und zuverlässiges Wasserreinigungssystem, mit dem Menschen in entlegenen Regionen sauberes Wasser gewinnen können. Mittelbar sollen so der Alltag der Menschen vereinfacht, gesundheitliche Risiken reduziert und gesellschaftliche Entwicklung ermöglicht werden. Die Wasserreinigung basiert auf einer nachhaltigen UV/LED-Technologie, die Strom aus Solarzellen gewinnt, und reduziert so den ökologischen Fußabdruck des Systems auf ein Minimum.
Ein multidisziplinäres Projektkonsortium mit Forschungspartnern aus Europa und Afrika entwickelt das LEDSOL-System mit Förderung der europäischen Kommission im Rahmen des LEAP-RE Cofund Calls. Beteiligt sind dabei neben dem Saarbrücker Institut für Sozialforschung und Sozialwirtschaft (iso) die Partner des Centrul IT pentru Stiinta si tehnologie SRL in Rumänien (CITST), der Tampere University in Finnland (TAU) und die afrikanischen Partner des Laboratory of Applied Hydrology and Environment of University of Lomé (LOME), Togo sowie der Unité de Développement des Equipements Solaires /EPST- Centre de Développement des Energies Renouvelables (UDES / EPST-CDER) mit Sitz in Tipaza, Algerien.
Bei der Systementwicklung stehen die Nutzenden im Fokus und sie werden von Beginn an mit in den Entwicklungsprozess einbezogen. Zur optimalen Anpassung der Dekontaminationsanlage an die Bedarfe und Gewohnheiten der Menschen werden die Systemanforderungen mit sozialwissenschaftlichen Methoden vor Ort in Algerien und Togo erhoben und evaluiert. Die Ergebnisse fließen in die Technikentwicklung ein und werden in Pilottestungen auf ihre Tauglichkeit überprüft. Darüber hinaus wird ein Businessplan entwickelt, um in der Breitennutzung einen kosteneffizienten, niedrigschwelligen und flächendeckenden Zugang zum Wasserreinigungssystem zu gewährleisten.

Wissenschaftliche Ansprechpartner:
Kathrin Bierwirth
bierwirth@iso-institut.de

(nach oben)


Norwegische Wasserkraft im treibhausgasneutralen Europa: Das Projekt HydroConnect

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Wasserkraft ist ein wesentlicher Bestandteil des norwegischen Energiesystems. Im Rahmen des HydroConnect-Projekts wird untersucht, ob und wie die norwegische Wasserkraft einen Beitrag zum Klimaschutz in Europa leisten kann. HydroConnect ist ein Verbundprojekt vom Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE, der norwegischen Forschungsorganisation SINTEF Energy Research, der Norwegian University of Science and Technology (NTNU) und der University of Trento. HydroConnect wird vom Norwegian Research Council mitfinanziert.

Um das Ziel der Klimaneutralität in Europa bis 2050 zu erreichen, ist ein erheblicher Ausbau der variablen erneuerbaren Stromerzeugung erforderlich. Daher stehen die europäischen Strom- und Energiesysteme vor mehreren grenz- und sektorenübergreifenden Herausforderungen, insbesondere um diesen Übergang effektiv und effizient zu ermöglichen. HydroConnect analysiert dazu die Auswirkungen der Nutzung norwegischer Wasserkraft und wie diese zum Ausgleich variabler erneuerbarer Energiequellen eingesetzt werden kann.

Die Rolle norwegischer Wasserkraft für den Klimaschutz
Die norwegischen Wasserkraftsysteme verfügen über eine große Speicherkapazität in bestehenden Wasserreservoiren. Basierend auf den Ergebnissen des Projekts HydroBalance und den Szenarien zum Energiesystem aus dem Projekt openENTRANCE bewertet HydroConnect die Auswirkungen der norwegischen Wasserkraftsysteme auf die Bereitstellung von Flexibilität für das europäische Stromsystem. Ein besonderer Fokus liegt hierbei auf den Treibhausgasemissionen in Europa, den Strompreisen in Norwegen und Europa sowie den Umweltauswirkungen auf norwegische Stauseen und Flüsse. Anhand verschiedener Szenarien für die Entwicklung des Stromnetzes und insbesondere der Interkonnektoren wird so untersucht, ob norwegische Wasserkraft einen wesentlichen Beitrag zum Klimaschutz in Europa leisten kann.

Das Fraunhofer IEE setzt hierfür Modellierungs- und Optimierungswerkzeuge für die mittel- bis langfristigen Szenarioentwicklungen ein. „Konkret haben wir unser Energiesystemmodell SCOPE Scenario Development (SCOPE SD) genutzt, um relevante europäische Energieszenarien für die norwegische Wasserkraft zu entwickeln. Hierbei verwenden wir unter anderem ein detailliertes Wasserkraftmodell und untersuchen verschiedene Szenariovarianten, um die Rolle der Wasserkraft in zukünftigen europäischen Energieszenarien zu analysieren und die prägenden Unsicherheiten der Zukunft widerzuspiegeln“, so Dr. Philipp Härtel, Leiter des Projektes am Fraunhofer IEE.

Insgesamt hat das Projektteam 15 verschiedene Szenarien analysiert. In einem mittelfristigen Szenario, das für 2030 entwickelt wurde, werden die Treibhausgasemissionen im Vergleich zu 1990 um 55 Prozent reduziert. In den langfristigen Szenarien für 2050 wird Europa als treibhausgasneutrales System modelliert, sodass weniger Treibhausgase produziert als vom System absorbiert werden.

Die Abbildung von Multireservoir-Wasserkraftsystemen in Europa basiert auf der internen Datenbank des Fraunhofer IEE. Diese umfasst die Wasserkraftwerks- und Reservoirparameter von über 850 Wasserkraftsystemen in Europa. Neben anlagen- und speicherspezifischen Daten enthält die Datenbank auch komplexe hydraulische Verbindungen und Kopplungen individueller Becken sowie Informationen über die grenzüberschreitende Marktteilnahme. Die Parameter der Wasserkraftsysteme in Norwegen wurden in enger Abstimmung mit SINTEF und auf Basis der vorhandenen detaillierten Modelle aktualisiert.

Ergebnisse bieten Raum für weiterführende Forschung
Einer der nächsten unmittelbaren Schritte ist der Transfer der Ergebnisdaten aus dem Energiesystemmodell SCOPE SD zu den nachgelagerten Modellen bei SINTEF und NTNU über die openENTRANCE-Nomenklatur. Insbesondere werden die Ergebnisdaten von SCOPE SD genutzt, um den Einsatz der norwegischen Wasserkraft mit dem Modell FanSI noch detaillierter zu analysieren.

Mit dem etablierten Modellaufbau und der geschaffenen Modell-Verknüpfung ist es möglich, neue Sensitivitäten auf Basis der betrachteten Referenzfälle zu untersuchen. In Anbetracht der aktuellen politischen Debatte könnten zusätzliche Sensitivitäten in Bezug auf Offshore-Energie-Inseln oder künftige Wasserstoff- und E-Fuel-Importpreisunsicherheiten neue Erkenntnisse liefern.

Wissenschaftliche Ansprechpartner:
Dr. Philipp Härtel, Fraunhofer IEE

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2022/norwegische-…

(nach oben)


Das Neun-Euro-Ticket: Eine Chance für Menschen in Armut. Verkehrswissenschaftler der TU Hamburg führen Befragung

durchFranziska Trede Presse- und Öffentlichkeitsarbeit, PressestelleTechnische Universität Hamburg
Seit dem 1. Juni können Fahrgäste bis Ende August für neun Euro im Monat bundesweit auf allen Strecken und in allen Verkehrsmitteln des Öffentlichen Personennahverkehrs (ÖPNV) reisen. Das verlockende Angebot hat auch seine Schwachstellen. So die Einschätzung von Christoph Aberle, Doktorand und Wissenschaftlicher Mitarbeiter am Institut für Verkehrsplanung und Logistik an der Technischen Universität Hamburg. Dort erforscht er den Zusammenhang von sozialer Exklusion und Mobilität. Mit einer qualitativen Befragung in Zusammenarbeit mit dem Hamburger Verkehrsverbund (hvv) möchten er und sein Team herausfinden, welche Auswirkungen das kurzfristige Angebot auf einkommensschwache Menschen hat.

Armut schränkt Mobilität ein
Bis Juli befragen Aberle und zwei Masteranden rund 30 Personen, denen monatlich weniger als 900 Euro netto im Monat zur Verfügung steht. Die TU-Forschenden möchten herausfinden, ob diese Menschen mithilfe des 9-Euro-Tickets verstärkt am öffentlichen Leben teilnehmen. Ihre bisherige Erkenntnis: Einkommensarme Menschen fahren kürzere Strecken und sind seltener unterwegs als Menschen mit höherem Einkommen.

Herr Aberle, was erhoffen Sie sich von der qualitativen Befragung?
Wir wollen die Daten aus quantitativen Befragungen, beispielsweise des Verbands Deutscher Verkehrsunternehmen, mit einem Fokus auf Menschen in Armut ergänzen. Die Antworten der Betroffenen helfen uns, soziale Ausgrenzung besser zu verstehen und daraus politische Maßnahmen zu entwickeln. Unser Ziel ist es, Mobilitätsarmut zu bekämpfen und Möglichkeitsräume für Betroffene zu eröffnen und zu erweitern.

Denken Sie, dass Menschen mit geringerem Einkommen den ÖPNV durch das 9-Euro-Ticket verstärkt nutzen?
Eindeutig ja. Eine Person, die „Hartz IV“ bekommt, hat nur 41 Euro im Monat für den Verkehr zur Verfügung. Die Mehrheit der Betroffenen überschreitet dieses Budget fast um das Doppelte. Demzufolge ist der ÖPNV für die meisten Menschen in Armut schlichtweg zu teuer. Zwar gibt es Möglichkeiten, für kleines Geld in Städten wie Hamburg mobil zu sein, dann muss ich mich aber den Sperrzeiten und Zonengrenzen unterordnen. Wir erwarten, dass viele Einkommensarme mit dem 9-Euro-Ticket sowohl in ihrem Alltag als auch in ihrer Freizeit verstärkt Bus und Bahn nutzen. Wobei der Tarif ja für alle hoch attraktiv ist.

Sollte es das 9-Euro-Ticket dann nicht dauerhaft geben?
Einkommensarme Menschen werden durch die kurzfristige Maßnahme deutlich entlastet. Sie können sich, was für viele Menschen selbstverständlich ist, uneingeschränkt und sorglos im Nahverkehr fortbewegen. Hier sehe ich einen absoluten Gewinn an Teilhabechance, den es zu verstetigen gilt, und zwar spezifisch für diese Zielgruppe. Allgemein bewerte ich das 9-Euro-Ticket aus zwei Gründen kritisch. Erstens verfolgt diese kurzfristige Maßnahme keine strategischen Ziele. So bleibt etwa der Individualverkehr gegenüber dem ÖPNV weiterhin attraktiv – zumal gleichzeitig die Energiesteuer gesenkt wurde, die ohnehin durch die Inflation stetig an Wert verliert. Ein finanzieller Anreiz, mittelfristig den Autoschlüssel gegen die Abokarte einzutauschen, fehlt. Dabei bräuchten wir so eine strategische Rahmensetzung, um unsere Klimaziele einzuhalten. Zweitens kann der pauschal günstige Preis die Botschaft transportieren, dass die Bereitstellung von Personenbeförderung ohne Aufwand erfolgt. Das ist schön für den einzelnen Fahrgast – aber ein falsches Signal, wenn es eigentlich darum gehen sollte, den Energiebedarf unserer Verkehrssysteme und Siedlungsstrukturen zu senken.

Weitere Informationen zum Thema Mobilität und soziale Ausgrenzung unter www.stadtarmmobil.de sowie unter www.mobileinclusion.de.

Wissenschaftliche Ansprechpartner:
Christoph Aberle M.Sc.
Technische Universität Hamburg
Institut für Verkehrsplanung und Logistik
E-Mail: christoph.aberle@tuhh.de

Weitere Informationen:
http://www.mobileinclusion.de

(nach oben)


Besser vorbereitet sein auf Starkregen und Sturzfluten

Peter Kuntz Kommunikation & Marketing
Universität Trier
Die Universität Trier ist an einem Verbundprojekt beteiligt, das den Einsatz von Notabflusswegen während Wasser-Extremereignissen erforscht.

Starkregen und daraus entstehende Sturzfluten gab es in den letzten Jahren immer häufiger. Sie haben zu großen Schäden an der Infrastruktur und vereinzelt sogar zu Verletzten und Todesopfern geführt. Sogenannte Notabflusswege stellen eine Möglichkeit dar, Wassermengen möglichst schadlos durch Wohngebiete abzuleiten. Mit ihnen befasst sich das Verbundforschungsprojekt „Urban Flood Resilience – Smart Tools“ (FloReST), das nun unter der Förderinitiative „Wasser-Extremereignisse“ des Bundesministeriums für Bildung und Forschung (BMBF) gestartet ist.

Neben der Universität Trier sind die Hochschule Trier mit dem Umwelt-Campus Birkenfeld, die Hochschule Koblenz, das Deutsche Forschungszentrum für Künstliche Intelligenz, der Softwareentwickler Disy Informationssysteme GmbH sowie die Ingenieurgesellschaft Dr. Siekmann & Partner beteiligt. Gemeinsam bündeln sie die nötigen Fachkenntnisse aus Wissenschaft und Praxis.

„Unsere Kanalisation ist auf eine gewisse Wassermenge beschränkt, die sie abtransportieren kann“, erklärt Juniorprofessor Dr. Tobias Schütz von der Universität Trier. Bei Wasser-Extremereignissen wie Starkregen und dadurch entstehenden Sturzfluten würden allerdings so große Wassermengen frei, dass die Kanalisation regelrecht überflutet werde. „Es entstehen Oberflächenabflüsse, die möglichst kontrolliert und ohne große Schäden zu verursachen durch Siedlungen gesteuert werden müssen. Hierfür werden Notabflusswege in die Bebauung hinein geplant“, so Schütz.

In enger Abstimmung mit Pilotkommunen, Fachverbänden und betroffenen Bürgerinnen und Bürgern sollen nachhaltige und lokal angepasste Maßnahmen zur Hochwasser- und Sturzflutvorsorge entwickelt werden. Dabei stellt die kontinuierliche Einbindung einiger bereits von Sturzfluten betroffener Kommunen sicher, dass sich die entwickelten Maßnahmen auch in die Praxis übertragen lassen. Schütz betont allerdings, dass alle beteiligten Gemeinden das Thema Notabflusswege bereits vor der Flutkatastrophe des vergangenen Jahres im Blick hatten: „Aus fachlicher Sicht war das Thema schon lange relevant, es mangelte an einer Umsetzung in der Praxis. Mit allen beteiligten Akteuren hatten wir schon vor mehr als anderthalb Jahren erstmals Kontakt.“

Während der dreijährigen Projektlaufzeit verfolgen die sechs Verbundpartner eine Reihe von Schwerpunktthemen. Dazu zählt die Neuentwicklung eines robotergestützten Systems, das eine hochaufgelöste 3D-Datenerfassung der innerörtlichen Infrastruktur ermöglicht. Damit wird eine bisher schwer erreichbare Erfassung kleinster Fließhindernisse und Bruchkanten ermöglicht. Technologien mit künstlicher Intelligenz sollen zukünftig Notabflusswege durch Machine-Learning-Verfahren auch ohne die ressourcen-intensive detaillierte Anpassung hydraulischer Modelle für große Einzugsgebiete nachweisbar machen. Zudem soll der Einsatz von Drohnentechnik dazu genutzt werden, belastungsabhängige Notabflusswege experimentell auszuweisen, um die Maßnahmen zur Hochwasser- und Sturzflutvorsorge zielgenau planen und umsetzen zu können.

Des Weiteren ist geplant, eine App zu entwickeln, die die Erfahrungen und Ortskenntnisse der Bürgerinnen und Bürger zu vergangenen Starkregenereignissen erfasst. So soll die Bürgerbeteiligung gefördert und die Betroffenenperspektive mit einbezogen werden. Hinzu kommen Workshops, um Forschungsinteressen und die benötigten Lösungen in den einzelnen Kommunen zu ermitteln. „Was wir im Projekt erforschen, wollen wir möglichst zielgenau an die Bedürfnisse der Kommunen und der darin lebenden Bürgerinnen und Bürger anpassen“, betont Schütz.

Neben der Zusammenarbeit mit fünf Pilot-Kommunen wird das Projekt FloReST durch Mitglieder eines Projektbeirats aus der Praxis (Ingenieurkammer Rheinland-Pfalz), aus der Landesverwaltung (Kompetenzzentrum Hochwasservorsorge und Hochwasserrisikomanagement, Landesamt für Umwelt) sowie dem Gemeinde- und Städtebund (Informations- und Beratungszentrum Hochwasservorsorge Rheinland-Pfalz) unterstützt.

Wissenschaftliche Ansprechpartner:
Kontakt
JProf. Dr. Tobias Schütz
Hydrologie
Tel. +49 651 201-3071
Mail: tobias.schuetz@uni-trier.de

(nach oben)


Covid-19-Infektion vor allem von Sozialstatus abhängig

Jörg Heeren Medien und News
Universität Bielefeld
Studie untersucht, welche Faktoren das Infektionsgeschehen beeinflussen

Der soziale Status und migrationsbezogene Faktoren wirken unabhängig auf die Verbreitung von Corona-Infektionen. Das zeigt eine heute (13.06.2022) veröffentlichte Studie zur regionalen Verteilung der gemeldeten Infektionen über die ersten drei Wellen der Pandemie. „Im Verlauf der Pandemie hat der soziale Status als Faktor für das Infektionsgeschehen an Bedeutung gewonnen“, sagt der Epidemiologe Professor Dr. med. Kayvan Bozorgmehr von der Universität Bielefeld.

Um die Bedeutung des sozialen Status zu ermitteln, hat das Studienteam um Bozorgmehr sozioökonomische Merkmale wie Bildung, Beschäftigungsstatus und Einkommen mit den Infektionen auf Stadt- und Landkreisebene in Verbindung gebracht. Die Studie ist im Fachjournal Lancet eClinicalMedicine erschienen. Die Forschung ist Teil der StopptCOVID-Studie, einem Kooperationsprojekt der Universität Bielefeld und des Robert Koch Instituts, gefördert vom Bundesministerium für Gesundheit.

„Uns ging es darum, mit Blick auf die unterschiedlichen Regionen in Deutschland Faktoren herauszuarbeiten, von denen abhängt, wie stark sich das Coronavirus ausbreitet“, sagt Kayvan Bozorgmehr. Er ist Professor für Bevölkerungsmedizin und Versorgungsforschung an der Universität Bielefeld und hat die Studie geleitet.

Die Forschenden analysierten die Entwicklung in 401 Landkreisen in Deutschland in einem Zeitraum von 72 Wochen. Das Hauptergebnis der Studie: Sozioökonomische und migrationsbedingte Merkmale beeinflussen das Infektionsgeschehen in Landkreisen in Deutschland unabhängig voneinander. „Ein Mehrwert unserer Studie liegt darin, dass wir beide Faktoren zusammen analysiert haben“, sagt Bozorgmehr. „Die Faktoren wurden bislang meist getrennt voneinander betrachtet.“

In der ersten Welle der Pandemie waren Menschen in wohlhabenderen Landkreisen, in denen ein höherer Sozialstatus dominiert, einem höherem Infektionsrisiko ausgesetzt – zum Beispiel durch Reiserückkehrer*innen. Das war zuvor bereits aus anderen Erhebungen bekannt. Die jetzt veröffentlichte Studie zeigt, dass sich dieses Muster in der zweiten und dritten Welle änderte: Nun waren hauptsächlich Menschen in sozial benachteiligten Regionen stärker gefährdet, sich zu infizieren. Das Risiko in sozial benachteiligten Regionen nahm über die Wellen hinweg zu.

Menschen ausländischer Staatsangehörigkeit nur in erster Welle stärker betroffen
„Bei migrationsbedingten Faktoren sehen wir ein gegenläufiges Muster“, sagt Erstautor Sven Rohleder, wissenschaftlicher Mitarbeiter in der Arbeitsgruppe von Bozorgmehr. „In der ersten Welle war das Infektionsrisiko in Landkreisen mit einem höheren Anteil an Personen mit ausländischer Staatsangehörigkeit relativ hoch. In den späteren Wellen stieg das Risiko jedoch nicht weiter an, sondern es verringerte sich.“

Bozorgmehr erklärt: „Wir interpretieren unsere Ergebnisse so, dass sozioökonomische Faktoren in der gesamten Pandemie für das Infektionsrisiko bedeutsam waren und im Pandemieverlauf an Bedeutung gewannen. Migrationsbedingte Faktoren hatten hingegen zu Beginn der Pandemie ein stärkeres Gewicht.“ Offenbar habe es nach Pandemiebeginn länger gedauert, die Teile der Bevölkerung mit ausländischer Staatsangehörigkeit zu erreichen – ob mit Informationen zur Pandemie oder entsprechenden Maßnahmen.

Studie zeigt Verbindung von sozialer Ungleichheit und Infektionsrisiko
In der Studie haben die Forschenden den German Index of Socioeconomic Deprivation (GISD, Deutscher Index sozioökonomischer Deprivation) verwendet. Deprivation bezieht sich auf einen Mangel an Chancengleichheit. Der Index verzeichnet, in welchen deutschen Regionen soziale Ungleichheit stärker und weniger stark vertreten ist. Der Index wurde am Robert Koch Institut entwickelt und umfasst darüber hinaus auch Informationen zu den einzelnen Dimensionen Bildung, Beschäftigungstatus und Einkommen.

Das Studienteam setzte den Deprivationsindex und dessen einzelne Dimensionen in Beziehung zur Covid-19-Inzidenz in den Stadt- und Landkreisen. Dafür nutzte das Team räumlich-epidemiologische statistische Verfahren. Im Ergebnis zeigt sich: Bei Landkreisen mit einem hohen Anteil von Menschen mit niedriger Bildung oder mit niedrigem Einkommen sind diese einem höheren Infektionsrisiko ausgesetzt. In Landkreisen mit einem höheren Beschäftigungsanteil gibt es hingegen ein umgekehrtes Muster: Hier geht der höhere Beschäftigungsanteil mit einem höherem Inzidenzrisiko einher. Laut Bozorgmehr deute dies auf die große Rolle arbeitsplatzbedingter Faktoren bei der Pandemiekontrolle hin.

Studienteam hat umfangreiche Datenbasis ausgewertet
Für die Studie haben die Forschenden neben dem Deprivationsindex weitere Datensätze miteinander verbunden. Dazu zählen die an das Robert Koch Institut (RKI) gemeldeten Infektionszahlen aus den Stadt- und Landkreisen, Populationsdaten (Anzahl der Einwohner*innen sowie der ausländischen Bevölkerung, jeweils nach Alter und Geschlecht), Informationen zur Siedlungsstruktur und Daten zu Impfungen des RKIs.

Das Studienteam leitet aus den Befunden Empfehlungen für Maßnahmen gegen die Verbreitung von Covid-19 ab: „Ganz grundlegend müssen die Politik und Behörden berücksichtigen, wie sozioökonomische Faktoren bei der Ausbreitung wirken. Nur so können Bevölkerungsgruppen gezielt adressiert werden, um die Pandemie zu bekämpfen“, sagt Bozorgmehr. In sozial benachteiligten Stadt- oder Landkreisen könne mit maßgeschneiderten Maßnahmen gearbeitet werden, zum Beispiel mit angepassten Aufklärungs- und Informationsmaßnahmen. „Außerdem muss das niedrige Einkommen berücksichtigt werden, wenn es um Schutzmaßnahmen geht“, so Bozorgmehr. „Deswegen ist es sinnvoll, in Stadtteilen mit geringem Einkommen kostenlose Tests oder auch kostenlose Masken zur Verfügung zu stellen.“

Ein Fazit: Schon in frühen Phasen von Epidemien mehrsprachige Maßnahmen nutzen
„Man sollte die Diversität in der Gesellschaft mehr berücksichtigen“, so der Gesundheitswissenschaftler. „Insbesondere in frühen Phasen einer Pandemie muss man auf migrationsbedingte Faktoren vorbereitet sein, damit mehrsprachige und zielgruppengerechte Maßnahmen etabliert werden können.“ Er wirft aber auch ein, dass das verwendete Maß des „Anteils der Personen mit ausländischer Staatsangehörigkeit“ sehr ungenau sei und es sich lediglich um eine Annährung an migrationsbedingte Faktoren in Stadt- und Landkreisen handle. Denn zu dieser Gruppe zählen von Personen aus EU-Nachbarländern über Wissenschaftler*innen aus anderen Ländern bis hin zu Geflüchteten alle, die einen Nicht-Deutschen-Pass besitzen. Es sei daher nicht zulässig, basierend auf den Ergebnissen der Studie ein höhere Infektionsrisiko für einzelne Gruppen abzuleiten.

Die aktuelle Veröffentlichung ist nur ein Teil der StopptCOVID-Studie. Im nächsten Schritt analysieren die Wissenschaftler*innen in dem Projekt, wie wirksam die Pandemiemaßnahmen in den Stadt- und Landkreisen waren. In diese Erhebung werden dann auch Daten der vierten Pandemiewelle einfließen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kayvan Bozorgmehr, Universität Bielefeld
Fakultät für Gesundheitswissenschaften
Telefon: 0521 106-6311 (Sekretariat: -6889)
E-Mail: kayvan.bozorgmehr@uni-bielefeld.de

Originalpublikation:
Sven Rohleder, Diogo Costa, Kayvan Bozorgmehr: Area-level socioeconomic deprivation, non-national residency, and Covid-19 incidence: a longitudinal spatiotemporal analysis in Germany. Lancet eClinicalMedicine, https://doi.org/10.1016/j.eclinm.2022.101485, erschienen am 13. Juni 2022.

Weitere Informationen:
https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Projekte_RKI/Stoppt… Website zur StopptCOVID-Studie
https://www.uni-bielefeld.de/fakultaeten/gesundheitswissenschaften/ag/ag2/index…. Website der Arbeitsgruppe Bevölkerungsmedizin und Versorgungsforschung

(nach oben)


Gewässer setzen Methan frei – auch wenn sie austrocknen

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Gewässer sind unterschätzte Quellen von Klimagasen. Nun haben Forschende unter Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) gezeigt, dass auch trockener Gewässerboden erhebliche Mengen Methan freisetzen kann. Ein Überblick über die Ursachen und Größenordnungen von Methanemissionen aus Gewässern und ein Ausblick auf die zukünftige Entwicklung im Klimawandel verdeutlichen: saubere Gewässer und mehr Moor, bitte.

Methan entsteht, wenn organisches Material in Abwesenheit von Sauerstoff zersetzt wird. Es kann beim Abbau, von Kohle, Erdöl oder Erdgas freigesetzt werden, wird in Kuhmägen gebildet – aber auch in Binnengewässern und Ozeanen.

Methan entsteht auf verschiedene Arten in Gewässern:
„Unter den verschiedenen Typen von Binnengewässern sind Stauseen und Seen die Hauptemittenten von Treibhausgasen“, erläutert IGB-Forscher Professor Hans-Peter Grossart. „Das liegt daran, dass organisches Material von abgestorbenen Pflanzen und Tieren dort in stärkerem Maße als in fließenden Gewässern auf den sauerstoffarmen Gewässergrund absinkt. Dieser Prozesse wird durch höhere Temperaturen verstärkt. In kleinen Gasbläschen steigt das Methan dann vom Grund bis an die Wasseroberfläche und gelangt so in die Atmosphäre.“

Lange gingen Forschende davon aus, dass Methan in Binnengewässern eben nur dort gebildet wird, wo kein Sauerstoff vorhanden ist. „Jüngste Studien zeigen, dass dieses Treibhausgas auch in der sauerstoffreichen Wassersäule entsteht: Verschiedene Phytoplankton-Arten – Cyanobakterien, Kieselalgen und Haptophyten – emittieren Methan während ihrer Photosynthese,“ sagt IGB-Forscherin Dr. Mina Bizic, die das Wissen über die Methanbildung durch Phytoplankton in einem wissenschaftlichen Artikel zusammengetragen hat.

Methan entsteht auch auf trockenfallenden Flächen:
Und selbst dort entsteht Methan, wo gar kein Wasser mehr ist: Trockenfallende Gewässer sind als Quelle für Klimagase wie Kohlendioxid bekannt. Allerdings wusste man bisher wenig, ob und wie viel über die Freisetzung von Methan aus diesen Flächen freisetzen. Ein Forschungsteam unter Leitung der niederländischen Radboud University hat die globalen Methanemissionen für trockenfallende Flächen von Seen, Teichen, Stauseen und Flüssen in verschiedenen Klimazonen abgeschätzt. Außerdem bestimmten die Forschenden die Umweltfaktoren, welche diese Emissionen steuern.

Hans-Peter Grossart war an der Studie beteiligt: „Die Methanemissionen aus trockenen Binnengewässern waren in allen Klimazonen und in allen aquatischen Systemen mit Ausnahme von Bächen durchweg höher als die Emissionen, die in den angrenzenden Böden in Hanglage gemessen wurden“. Weltweit emittieren trockene Binnengewässer laut den Hochrechnungen 2,7 Millionen Tonnen Methan pro Jahr.

Der Gewässertyp an sich und die Klimazone hatten keinen Einfluss auf die Menge an freigesetztem Methan. Der Gehalt an organischer Substanz im Gewässerboden in Wechselwirkung mit der lokalen Temperatur und die Feuchtigkeit waren die maßgeblichen Einflussfaktoren. Besonders viel Methan entsteht vor allem zu Beginn der Austrocknung und im Laufe des sogenannten First-Flush – also dem Moment, wenn auf die die trockengefallene Fläche wieder Wasser trifft, durch einen Starkregen zum Beispiel.

Mehr Methanfreisetzung durch die Folgen des Klimawandels:
Prozesse im Klimawandel könnten die Emission von Methan weiter antreiben. Zum einen werden Gewässer wärmer. Außerdem sinkt in Seen weltweit der Sauerstoffgehalt. Hans-Peter Grossart war an einer Nature-Studie beteiligt, die den Sauerstoffschwund für 400 Seen verschiedener Klimazonen quantifiziert hat: Im Durchschnitt sank der Sauerstoffgehalt der untersuchten Gewässer in den letzten 40 Jahren um 5,5 Prozent an der Oberfläche und um 18,6 Prozent in der Tiefenzone.
„Auch Phytoplankton wird in Zukunft mehr Methan emittieren, einfach weil mehr davon in Gewässern vorhanden sein wird“, prognostiziert Mina Bizic. Denn zunehmende Nährstofflasten und Erwärmung von Gewässern gelten als Hauptursachen für die jüngsten Zunahmen von Phytoplanktonblüten. Darüber hinaus kann die Phytoplanktonblüte das Auftreten von sauerstofffreien, sogenannten toten Zonen verstärken. Das wiederum kurbelt die klassische Methanbildung unter Sauerstoffarmut an.
„Die Methanfreisetzungen aus ausgetrockneten Gewässerabschnitten werden durch häufigere extreme Wetterereignisse – Austrocknung und Starkregen – ebenfalls zunehmen, denn genau während dieser Wechsel werden besonders viele Treibhausgase emittiert“, ergänzt Hans-Peter Grossart.

Was kann man tun? Saubere Gewässer und mehr Moore, bitte!
Um die Methanbildungen aus Gewässern trotz des Klimawandels in Schach zu halten, helfen Maßnahmen zur Verbesserung der Gewässerqualität. „Wenn weniger Nährstoffe in Gewässer eingetragen werden, wird auch weniger organisches Material gebildet. Außerdem entsteht weniger Phytoplankton“, so Mina Bizic.
Auch Maßnahmen, die das Wasser in der Landschaft halten und das Grundwasser stabilisieren sind hilfreich, denn viele Seen speisen sich durch das Grundwasser. Austrocknende Gewässer haben also oft nicht nur mit einer erhöhten Verdunstung, sondern auch mit sinkenden Grundwasserständen zu tun. Die Schaffung von Feuchtgebieten und Mooren sorgt dafür, dass mehr Wasser in der Landschaft gespeichert wird und dadurch Wasserdefizite aber auch Wasserüberschuss ausgeglichen werden. Moore haben noch einen weiteren Vorteil: „Ein ökologisch intaktes Moor fungiert als langfristige Senke für Kohlenstoff. Trocknet es aus, werden hingegen verstärkt Treibhausgase freigesetzt. Ein trockengelegtes Moor setzt im Jahr durchschnittlich 15 Tonnen CO2 pro Hektar frei. In einem naturnahen Moor entsteht durchaus Methan. Die Methanfreisetzung aus einem entwässerten Mooren fällt in der Regel jedoch höher aus – auch durch die hohe Methanfreisetzung aus den zahlreichen Entwässerungsgräben. Moorschutz ist also immer auch Klimaschutz“, erläutert Dr. Dominik Zak, Gastwissenschaftler am IGB und Moorforscher an der Universität Aarhus in Dänemark.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
HansPeter.grossart@igb-berlin.de

Dr. Mina Bizic
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
mina.bizic@igb-berlin.de

Dr. Dominik Zak
Aarhus University, Department of Bioscience
doz@ecos.au.dk

Originalpublikation:
José R. Paranaíba, Ralf Aben, Nathan Barros, Gabrielle Quadra, Annika Linkhorst, André M. Amado, Soren Brothers, Núria Catalán, Jason Condon, Colin M. Finlayson, Hans-Peter Grossart, Julia Howitt, Ernandes S. Oliveira Junior, Philipp S. Keller, Matthias Koschorreck, Alo Laas, Catherine Leigh, Rafael Marcé, Raquel Mendonça, Claumir C. Muniz, Biel Obrador, Gabriela Onandia, Diego Raymundo, Florian Reverey, Fábio Roland, Eva-Ingrid Rõõm, Sebastian Sobek, Daniel von Schiller, Haijun Wang, Sarian Kosten: Cross-continental importance of CH4 emissions from dry inland-waters, Science of The Total Environment, Volume 814, 2022, 151925, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2021.151925.

Weitere Informationen:
https://www.igb-berlin.de/news/gewaesser-setzen-methan-frei-auch-wenn-sie-austro…

(nach oben)


Führende Klimaforscher*innen fordern globale Partnerschaft: Regenfälle vorhersagen und Klimawandel entgegentreten

Dr. Annette Kirk Kommunikation
Max-Planck-Institut für Meteorologie
Neun der weltweit führenden Klimawissenschaftler*innen rufen zu umfangreichen internationalen Investitionen auf, um eine neue Generation von Klimamodellen zu entwickeln, die grundlegende Fragen über die Vorhersagbarkeit zukünftiger Niederschläge und damit verbundenen Extremereignissen beantworten können.

Trotz jahrzehntelanger Forschung ist nicht bekannt, wie sich die Niederschläge in den kommenden Jahren entwickeln werden, und schwere Überschwemmungen sowie lang anhaltende Dürreperioden fallen bereits jetzt anders aus als erwartet. In einer Veröffentlichung, die heute in der Fachzeitschrift Nature Climate Change veröffentlicht wurde, argumentieren die Wissenschaftler*innen, dass Lösungen zwar vorhanden sind, aber eine verstärkte und strategische internationale Zusammenarbeit erforderlich ist, um Durchbrüche in der Datenverarbeitung wirksam einsetzen zu können und wesentlich fortschrittlichere Klimamodelle zu entwickeln.

Hauptautorin Dame Julia Slingo vom Cabot Institute for the Environment der Universität Bristol sagt: „Die Grundlage, auf der die Klimamodelle in den letzten 30 Jahren aufgebaut wurden, vereinfacht die wasserführenden Systeme stark und lässt einige grundlegende physikalische Aspekte außer Acht, von denen wir heute wissen, dass sie für zuverlässige Vorhersagen unerlässlich sind. Die Lösung liegt in greifbarer Nähe; wir müssen einen Quantensprung von unseren derzeitigen globalen Klimamodellen auf der 100-Kilometer-Skala zu Modellen auf der 1-Kilometer-Skala machen.“

Co-Autor Prof. Bjorn Stevens vom Max-Planck-Institut für Meteorologie in Hamburg, ein Pionier globaler Modelle im Kilometermaßstab, betont, dass die wissenschaftliche Grundlage hierfür unbestreitbar ist: „Auf diesen Skalen wird die komplexe Physik von regenführenden Systemen zum ersten Mal richtig dargestellt – mit Folgen, die weit über die Zukunft unseres Wassers hinausgehen und viele Aspekte des Klimawandels betreffen.“

Das internationale Team plädiert für die Schaffung und Bereitstellung von Mitteln für einen Zusammenschluss führender Modellierungszentren, die hochmoderne Exascale-Rechenkapazität nutzen können und eine passende Infrastruktur aufweisen, um die enormen Datenmengen weiterzuverarbeiten. Ziel ist es, ein einsatzfähiges Klimavorhersagesystem im Kilometermaßstab aufzubauen, das allen Nationen dient und ihnen zuverlässige Erkenntnisse über alle Aspekte des Klimawandels liefert.

„Die große Vision ist die Schaffung eines digitalen Zwillings der Erde, der sich auf diese Vorhersagen stützt. Die europäische Initiative Destination Earth (DestinE) weist hierfür den Weg, aber die Dringlichkeit und die internationale Dimension des Vorhabens erfordern eine noch größere Mobilisierung von Ressourcen und Kollaboration, um zu erreichen, was nötig ist“, sagt Co-Autor Dr. Peter Bauer, ein Leiter von DestinE und leitender Wissenschaftler am ECMWF.

Prof. Stephen Belcher, leitender Wissenschaftler des britischen Met Office und Co-Autor, stellt fest: „Die Aufgabe ist gewaltig. Auch wenn sich unser wissenschaftliches Verständnis und die technologischen Entwicklungen im Bereich der Datenverarbeitung und -speicherung weiterentwickelt haben, erfordert das Ausmaß dieses Unterfangens eine internationale Anstrengung.“

Überschwemmungen und Dürren gehören zu den kostspieligsten Auswirkungen des Klimawandels, und Veränderungen in der saisonalen Niederschlagsverteilung und natürlichen Variabilität der Niederschläge können tiefgreifende Auswirkungen auf viele Lebensräume haben, die wiederum unsere Ernährungssicherheit, Wassersicherheit, Gesundheit und Infrastrukturinvestitionen bedrohen. Wie wenig wir jedoch über die Zukunft unseres Wassers wissen, wurde im jüngsten Sachstandsbericht des Weltklimarats IPCC deutlich. Dieser zeigte einmal mehr, dass es erhebliche Unsicherheiten in Bezug auf die Veränderungen der Niederschläge gibt, insbesondere auf regionaler und lokaler Ebene.

Professor Tim Palmer, Co-Autor von der Universität Oxford, sagt: „Es ist dringend. Was wir jetzt brauchen, ist eine ‘Mission für den Planeten Erde’, die sich mit den Gefahren des Klimawandels befasst und entsprechend gefördert ist. Die Welt erlebt schon jetzt Extreme, die außerhalb dessen liegen, was uns die derzeitigen Modelle zeigen können, und unsere sozialen und wirtschaftlichen Strukturen sind bereits massiv gefährdet.“

Professor Thomas Stocker, Universität Bern, Co-Autor und ehemaliger Vorsitzender der Arbeitsgruppe I des Weltklimaberichts IPCC AR5, schließt sich dieser Ansicht an. „Die doppelte Zielsetzung von ‘Netto-Null’ und Klimaresilienz erfordert eine erhebliche Beschleunigung bei der Bereitstellung zuverlässiger und umsetzbarer Klimainformationen, insbesondere für die am stärksten gefährdeten Regionen. Die derzeitigen Klimamodelle können dies nicht leisten, aber durch weltweite Investitionen und wissenschaftliche Partnerschaften im Bereich der globalen Modellierung im Kilometermaßstab wird dies Realität werden.“

Co-Autor Prof. Georg Teutsch vom Helmholtz-Zentrum für Umweltforschung in Leipzig, der eine der größten Forschungsinitiativen zur Klimaanpassung in Europa leitet, ist sich dieser Problematik äußerst bewusst. „Wir verfügen heute über sehr detaillierte und ausgefeilte Klimafolgen-Modelle, aber uns fehlen die detaillierten Wetter- und Wasserinformationen, um sie anzutreiben. Solange diese Lücke nicht geschlossen ist, können wir keine verlässlichen Anpassungsentscheidungen treffen“, sagt Teutsch.

Der führende Hydrologe und Co-Autor Prof. Paul Bates, ebenfalls Cabot Institut, stellt fest: „Die vorgeschlagene Investition verblasst im Vergleich zu den klimabedingten Verlusten, die auch heute schon auftreten. Sie macht etwa 0,1 Prozent der geschätzten jährlichen Kosten hydrologischer Extremereignisse aus – ohne dabei die verlorenen Menschenleben zu berücksichtigen. Diese Kosten werden mit dem fortschreitenden Klimawandel noch weiter steigen.“

Autor*innenliste:
Dame Julia Slingo, Cabot Institute, University of Bristol
Prof. Paul Bates, Cabot Institute, University of Bristol, und Fathom, 17-18, Berkeley Square, Bristol
Dr. Peter Bauer, European Centre for Medium-Range Weather Forecasts, Reading
Prof. Stephen Belcher, Met Office, Exeter
Prof. Tim Palmer, University of Oxford
Dr. Graeme Stephens, NASA Jet Propulsion Laboratory, Caltech, Pasadena
Prof. Bjorn Stevens, Max-Planck-Institut für Meteorologie, Hamburg
Prof. Thomas F. Stocker, Oeschger-Zentrum für Klimaforschung, Universität Bern
Prof. Georg Teutsch, Helmholtz-Zentrum für Umweltforschung GmbH – UFZ, Leipzig

Wissenschaftliche Ansprechpartner:
Prof. Bjorn Stevens
Direktor Max-Planck-Institut für Meteorologie
Tel.: 040 41173 422 (Assistentin Angela Gruber)
E-Mail: bjorn.stevens@mpimet.mpg.de

Dr. Annette Kirk
Leitung Kommunikation
Max-Planck-Institut für Meteorologie
Tel.: 040 41173 374
E-Mail: annette.kirk@mpimet.mpg.de

Originalpublikation:
Slingo, J., P. Bates, P. Bauer, S. Belcher, T. Palmer, G. Stephens, B. Stevens, T. Stocker, G. Teutsch, 2022, Ambitious partnership needed for reliable climate prediction. Nature Climate Change, doi: 10.1038/s41558-022-01384-8

(nach oben)


Die Region als „Wasserschwamm“ – Wie muss Oberfranken auf den Klimawandel reagieren?

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Der Klimawandel und seine oft verheerenden Folgen sind weltweit allgegenwärtig. Ein Projekt an der Hochschule Hof widmet sich im kommenden Jahr nun den konkreten Folgen für den ländlichen Raum in der Region Oberfranken. Die Forscher des Instituts für Wasser- und Energiemanagement (iwe) möchten ein Konzept für regionale Klimaanpassung entwickeln, das durch die Einbindung digitaler Elemente unter anderem Trockenperioden und Starkregen im Wassermanagement ausgleichen kann – ein bislang einmaliges Projekt.

„Smart Sponge Region (SPORE)“ – zu Deutsch: „Intelligente Schwammregion“ – ist der Titel des Anfang Mai gestarteten Pilotprojektes, das bis Ende Oktober 2023 abgeschlossen sein soll. Der Name ist dabei Programm: Wie ein Schwamm soll die Region zukünftig mit ihren Wasserressourcen umgehen und so die Grundlage dafür legen, dass ein Ausgleich zwischen Trockenheitsperioden und den zunehmenden Starkregenereignissen erfolgen kann.

Sicherung der Grundlagen für Mensch und Tier
„Wir möchten herausfinden, welchen Anpassungsbedarf an den Klimawandel es bei uns gibt – im Hinblick auf Land- und Forstwirtschaft, aber auch mit Blick auf die Wasserwirtschaft für Siedlungen“, erläutert Projektleiter Dr. Stephan Wagner das Ziel der Forschenden. Unter anderem zusammen mit Kommunen und Unternehmen sollen anhand regionaler Prognosen für die Klimaveränderung Lösungen erarbeitet werden, um ökologische Grundfunktionen und einen nachhaltigen Umgang mit Wasserressourcen sicherzustellen. „Letztlich geht es dabei am Ende um nichts weniger als die Sicherung der wirtschaftlichen Entwicklung in der Region und um den Erhalt der Lebensqualität für Mensch und Tier“, so Dr. Wagner weiter.

Detaillierte Untersuchung des ländlichen Raums
Das Konzept der „Schwammregion“ fußt dabei auf einer systematischen Untersuchung der notwendigen Klimawandelanpassung des ländlichen Raums und seiner urbanen Zentren.

„Oberfranken wird auch zukünftig mit trockneren Sommern mit kurzen intensiven Niederschlägen konfrontiert. Das führt z.B. zu Trockenstress der Bäume und es kommt vermehrt zum Waldsterben beispielsweise durch Borkenkäferbefall. Weitere Auswirkungen des Klimawandels können auch Überflutungen infolge von Starkregenereignissen, die Absenkung des Grundwasserspiegels, Ernteausfall, Waldsterben sowie Wald- und Flächenbränden infolge langanhaltender Trockenheit sein“ so Dr. Stephan Wagner. Unbekannt sei bisher, wie stark die Region davon betroffen sein werde und wo demnach Anpassungsmaßnahmen besonders notwendig sind. „Für die Region Oberfranken sollen im Projekt SPORE deshalb zunächst die Auswirkungen des Klimawandels auf den Wasserhaushalt kleinstädtischer Strukturen sowie landwirtschaftlich genutzter Flächen und Wälder ermittelt werden. Für die am schwersten betroffenen Bereiche werden wegweisende und regionale Lösungen für Anpassungsmaßnahmen entwickelt. Dazu zählen z.B. die Wiedervernässung von Wäldern, die Gestaltung wasserresilienter Neubausiedlungen und die Wiederverwertung von Abwasser zur Bewässerung“, so Wagner.

Digitalisierung für eine bessere Vernetzung
„Unser Vorhaben ist in dieser Form bislang einmalig – auch, da bislang meist die Auswirkungen des Klimawandels auf Küstenregionen oder urbane Regionen untersucht wurden“, freut sich auch Prof. Günter Müller-Czygan, der die Leitung des Projektes ab Juli übernehmen wird. Der Stiftungsprofessor beleuchtet an der Hochschule Hof im Rahmen vieler Projekte die fortschreitende Digitalisierung der Wasserwirtschaft, die auch in Bezug auf den Klimawandel von Vorteil sein dürfte: „Die klimatische Veränderung ist bereits heute zum Teil nicht mehr zu stoppen. Darum bedarf es intelligenter und moderner Lösungen, um seine Folgen für die Menschheit so erträglich wie möglich zu machen. Die Digitalisierung schafft Vernetzung und versorgt uns mit vielen und schnellen Informationen, die wir nützen können“, so Prof. Müller-Czygan. So soll der Einbau digitaler Elemente in das Wassermanagement dazu führen, die „Schwammfunktion“ zu einer bestmöglichen Nutzung der Wasserressourcen zu stärken.

Entwicklung dreier konkreter Pilotvorhaben
Das Projekt selbst gliedert sich in zwei Phasen. In Phase eins entwickelt die Hochschule Hof das Konzept der Schwammregion und ermittelt den Bedarf an Anpassungsmaßnahmen an den Klimawandel. Das heimische Kompetenznetzwerk Wasser und Energie e.V., das auch die Projektidee entwickelte, unterstützt die Forschenden beim Aufbau des Netzwerks und bei der Bedarfsermittlung durch die Organisation und Durchführung von Wissenstransfer-Workshops. In der Phase zwei werden dann fünf Projektideen als Pilotvorhaben von Hochschule und ihren Partnern erarbeitet. Drei der Pilotvorhaben sollen so weit entwickelt werden, dass eine Umsetzung im Anschluss an das Projekt SPORE machbar wird.

Förderung
Die für die Realisierung des Forschungsprojektes erforderlichen Fördermittel wurden bei der Wilo Stiftung und bei der Hochschule Hof erfolgreich beantragt. Neben dem Kompetenznetzwerk Wasser und Energie e.V. aus Hof unterstützt auch die Fernwasserversorgung Kronach das Projekt.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof

Fon: +49 (0) 9281 / 409 4683
E-Mail: guenter.mueller-czygan@hof-university.de

Anhang
Die Region Oberfranken als Wasserschwamm

(nach oben)


Weitergeben, was wichtig ist

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Leistung und soziales Engagement sind den 46 Deutschlandstipendiat*innen der HWR Berlin gleichermaßen wichtig. Für Stipendiengeber*innen ist es eine Investition für die Gesellschaft und in die Zukunft.

Berlin, 22. Juni 2022 – Nina Schiller wollte beruflich eigentlich in eine ganz andere Richtung gehen. Nach dem Abitur machte sie eine Ausbildung und arbeitete als Rettungssanitäterin. Inzwischen studiert sie International Business Management an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin). Wenngleich der neuen Deutschlandstipendiatin neben dem Studium nur wenig Freizeit bleibt, sie nutzt diese auch, um sich weiter für andere Menschen einzusetzen.

„Ich habe die Chance und viele Möglichkeiten, aus meinem Leben das zu machen, was ich mir wünsche und vorgenommen habe. Das ist nicht allen Menschen vergönnt, das ist mir bewusst. Deshalb möchte ich etwas weitergeben und bin da für die, die Hilfe brauchen“, sagt die 20-Jährige. Und das tut sie, generationenübergreifend. Sie unterstützt ehrenamtlich den Freunde alter Menschen e. V. und telefoniert mehrmals pro Woche mit einer älteren Dame. Der Verein engagiert sich gegen Einsamkeit und Isolation im Alter. In einem anderen Altersspektrum hilft Nina Schiller im Rahmen des HWR-Buddy-Programms seit zwei Semestern einer Studentin aus der Ukraine, sich in Studium und Alltag besser zurechtzufinden und pflegt außerdem eine Sprachpartnerschaft mit einem amerikanischen Kommilitonen. Davon profitiert auch die Berliner Studentin, nicht nur, weil auf ihrem Studienplan schon bald Auslandssemester an den Partnerhochschulen der HWR Berlin im kalifornischen San Diego und Leeds in England stehen.

Helfen, Netzwerken, Türen öffnen. Neben der finanziellen Unterstützung steht die ideelle ebenso bei den Förderern im Fokus. Seit dem Programmstart im Jahr 2013 hat die HWR Berlin 378 Deutschlandstipendien an Studentinnen und Studenten für ihre Leistungsbereitschaft und ihr gesellschaftliches Engagement neben dem Studium vergeben. Die Ausgezeichneten erhalten monatlich 300 Euro, zur Hälfte finanziert vom Bund und zur Hälfte von Unternehmen, Stiftungen, Vereinen oder privaten Förderern. Die Ausgezeichneten erhalten Wertschätzung und werden Teil eines Netzwerkes aus gegenwärtigen und ehemaligen Stipendiaten und Stipendiatinnen. „Ein Stipendium ist eine Investition in die Zukunft, die jeder einzelnen Stipendiatin und jedem einzelnen Stipendiaten auf dem eigenen Bildungsweg hilft und auch unserer Gesellschaft, die Engagement braucht und Engagement auch würdigt“, sagt Prof. Dr. Andreas Zaby, Präsident der HWR Berlin, zur feierlichen Übergabe im historischen Schöneberger Rathaus.

Ein Gewinn für beide Seiten ist der Kontakt zwischen den Förderern und ihren Stipendiaten und Stipendiatinnen. Die Ziele und der Grundgedanke des Deutschlandstipendiums sowie die soziale Einstellung der studentischen Bewerberinnen und Bewerber decken sich mit dem internationalen Lions-Motto „We Serve“, betonen Vorsitzende Christine Steinmüller und Schatzmeisterin Marieta Frey. Seit 20 Jahren engagieren sich Damen des Lions Club Berlin-Glienicker Brücke für das Allgemeinwohl mit dem Schwerpunkt in der Kinder- und Jugendarbeit. Nun gehören auch drei Deutschlandstipendien an der HWR Berlin zu den vielseitigen Maßnahmen und Aktivitäten. Die erfahrenen Netzwerkerinnen voller Ideen und Tatendrang erleben immer wieder selbst, was möglich wird, wenn Menschen mit gleichen Visionen zusammenkommen und freuen sich auf den Austausch mit ihren Stipendiatinnen, die sie nun unterstützen.

Förderin Jenny Klann kennt das aus eigener Erfahrung, ist Alumna des dualen Studiengangs Bauingenieurwesen der HWR Berlin. Ihr ersparte das Stipendium damals einen Bildungskredit. Das Deutschlandstipendium berücksichtigt neben der Leistung persönliche Lebensumstände und Werdegänge der Bewerber*innen, denen eine finanzielle Unterstützung den erfolgreichen Abschluss ihres Studiums maßgeblich erleichtert. Klann kam auf dem zweiten Bildungsweg zum Studium, hat Durchhaltevermögen bewiesen und hart gearbeitet. Im Anschluss an das nachgeholte Fachabitur machte sie zunächst einen Berufsabschluss und sammelte Praxiserfahrung, ging dann zum Studium und arbeitet jetzt im Technischen Gebäude- und Baumanagement der Europa-Universität Viadrina. „Ohne das Stipendium hätte ich mein Studium wahrscheinlich nicht beenden können“, sagt die Berlinerin rückblickend. „Ich hatte mir damals vorgenommen, jemandem die gleiche Möglichkeit zu geben, sobald ich es mir leisten kann.“ Das kommt Sabrina Menz zugute, die in die Fußstapfen ihrer Förderin tritt, ebenfalls mit Begeisterung Bauingenieurin werden möchte. Die 20-Jährige aus Schwaben ist die Erste in ihrer Familie, die studiert und ist neben der finanziellen Hilfe vor allem dankbar, für den Kontakt zu ihrer neuen Mentorin und dafür, nun Teil des Netzwerks von Deutschlandstipendiaten und -stipendiatinnen zu sein.

Diese Verbindung zwischen fördernden Unternehmen und individuellen Unterstützern und Unterstützerinnen und besonders qualifizierten, engagierten Studierenden, die Verzahnung zwischen Hochschule und Praxis ist eines der Ziele, die das Bundesbildungsministerium mit der vor elf Jahren eingeführten Begabtenförderung verfolgt. Unternehmen nutzen das Deutschlandstipendium als Instrument zur Nachwuchsgewinnung, erhalten Einblicke in Forschung und Wissenschaft, stärken die Region und tragen zur Chancengleichheit in der Bildung bei. Damit sind die jährlich 1 800 Euro pro Deutschlandstipendium gut angelegt bei den Talenten von morgen.

Weitere Informationen zum Deutschlandstipendium an der HWR Berlin
https://www.hwr-berlin.de/kooperationen/unternehmen/deutschlandstipendium/

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Denise Gücker
Deutschlandstipendium@hwr-berlin.de

(nach oben)


Wie können Mikroorganismen unsere Welt retten?

Dr. Gabriele Neumann Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Wie können Mikroorganismen unsere Welt retten? Um nichts weniger als Varianten dieser existenziellen Frage geht es bei der Forschung des Zentrums für Synthetische Mikrobiologie (SYNMIKRO). Die Erforschung großer Fragen verlangt große Leistungen. Dass SYNMIKRO damit aufwarten kann, wurde beim Symposium zum zwölfjährigen Bestehen des Zentrums am 21. und 22. Juni 2022 deutlich. Rund 20 Kurzvorträge gaben einen Einblick in die Breite der Forschung.

Seit 2021 ist der Forschungsneubau von SYNMIKRO auf dem Campus Lahnberge in Betrieb. Unter einem Dach arbeiten dort etwa 250 Wissenschaftlerinnen und Wissenschaftler der Philipps-Universität Marburg (UMR) und des Max-Planck-Instituts für terrestrische Mikrobiologie (MPI) zusammen. Der Bau bietet moderne Infrastruktur für Forschung und Lehre und gleichzeitig eine gute Umgebung für das Arbeiten miteinander, von modernen Laboren bis zu gut ausgestatteten Seminarräumen und einem begrünten Innenhof als Begegnungsort. Die transdisziplinäre Zusammenarbeit ist auf allen Karriereebenen fruchtbar. So entstehen bei SYNMIKRO zahlreiche Spitzenpublikationen, aber auch erfolgreiche studentische Initiativen. Das Marburger iGEM-Team gewann zum Beispiel schon zweimal die „International Genetically Engineered Machine (iGEM) competition“, einen bedeutenden Wettbewerb für Studierende im Bereich synthetischer Biologie.

In SYNMIKRO werden die vielfältigen Interaktionen von Mikroorganismen mit ihrer Umwelt im molekularen Detail erforscht und neue Möglichkeiten geschaffen, die Fähigkeiten von Mikroorganismen gezielt nutzbar zu machen. Denn Mikroorganismen produzieren und konsumieren klimarelevante Treibhausgase, beeinflussen die Bodenfruchtbarkeit und die Biodiversität. Die Mechanismen, Konsequenzen und Lösungen mikrobieller Umwandlungen von Treibhausgasen stehen vor den aktuellen und künftigen Auswirkungen des Klimawandels besonders im Fokus der Forschung und der Lehre.
Dr. Jan Michael Schuller forscht seit Sommer 2020 bei SYNMIKRO an der Frage, wie Bakterien unter extremen Umweltbedingungen überleben können. Ein Schwerpunkt seiner Forschung ist die Frage, wie Bakterien Wasserstoff oder Licht nutzen können, um das Treibhausgas CO2 zu binden. Wichtige Erkenntnisse im Interesse des Klimaschutzes und für die Entwicklung potenziell wichtiger Zukunftstechnologien. Der Leiter einer Emmy Noether-Arbeitsgruppe und Träger des Heinz Maier-Leibnitz-Preises, sagt: „Ich fühle mich hier zu Hause, weil das Gesamtpaket stimmt. Von den technischen Voraussetzungen für die Forschung bis zu den Kolleginnen und Kollegen. Unter diesen Bedingungen kann man optimale Ergebnisse erzielen – und die Arbeit macht sehr viel Spaß.“

Den Erfolgsfaktor interdisziplinärer Zusammenarbeit und exzellenter technischer Ausstattung betont auch die geschäftsführende Direktorin von SYNMIKRO, Prof. Dr. Anke Becker. „In SYNMIKRO kommen Wissenschaftlerinnen und Wissenschaftler mit unterschiedlichen Erfahrungen und Expertenwissen zusammen. Neben dem geplanten Austausch bei wissenschaftlichen Veranstaltungen sind es gerade die zufälligen Begegnungen auf dem Weg oder in Pausen auf dem Campus und jetzt im neuen SYNMIKRO-Gebäude, die zu spannenden Diskussionen, neuen Ansätzen zur Problemlösung und neuen kreativen Ideen führen.“

„Zwölf Jahre SYNMIKRO haben in Wissenschaft und Lehre, in den Strukturen und in der Zusammenarbeit viel vorangebracht“, so die Hessische Wissenschaftsministerin Angela Dorn. „Hier wird unter einem Dach geforscht, in einem gelebten Geist der Gemeinsamkeit zwischen dem Max-Planck-Institut für terrestrische Mikrobiologie und der Philipps-Universität Marburg. Ermöglicht wurde diese intensive Kooperation durch die Förderung als LOEWE-Zentrum. Die Entwicklung von SYNMIKRO zeigt einmal mehr, dass wir mit Wissenschaft und Forschung den großen Herausforderungen unserer Zeit begegnen. Zum zwölfjährigen Bestehen gratuliere ich herzlich und wünsche weiterhin viel Erfolg und Elan bei der Entwicklung und Umsetzung der innovativen Ideen und bei der bedeutsamen Arbeit.“

Über SYNMIKRO
SYNMIKRO wurde 2010 als LOEWE-Zentrum gegründet und ging nach Ende der LOEWE-Förderung 2019 in die gemeinsame Trägerschaft der Philipps-Universität Marburg (UMR) und dem Max-Planck-Institut für terrestrische Mikrobiologie (MPI) über. SYNMIKRO ist heute ein international weithin sichtbares Zentrum, in dem mehr als 250 Wissenschaftlerinnen und Wissenschaftler aus 27 Nationen erfolgreich zusammen forschen und lehren. In den Reihen von SYNMIKRO gibt es zahlreiche Preise und Einzelförderungen, unter anderem drei Heinz Maier-Leibnitz-Preise, neun ERC Grants und fünf DFG Emmy Noether Gruppen.
Seit 2019 hat SYNMIKRO knapp 29 Millionen Euro an Drittmitteln eingeworben. In den zehn Jahren zuvor wurden neben der LOEWE-Förderung weitere 46 Millionen Euro an zusätzlichen Drittmitteln eingeworben.
Seit der Gründung hat SYNMIKRO 210 Promovierende zum Abschluss geführt (Stichtag 31.12.2020), davon 89 Frauen.

Weitere Informationen:
http://www.uni-marburg.de/synmikro

(nach oben)


KI im Unternehmen – Führungskräfte brauchen neue Kompetenzen

Christine Molketin Presse- und Öffentlichkeitsarbeit
ifaa – Institut für angewandte Arbeitswissenschaft
„Künstliche Intelligenz (KI) wird in den Medien oft sehr stark diskutiert. Bei Beschäftigten entsteht oft die Angst, durch Technologien ersetzt zu werden oder gar ihren Arbeitsplatz zu verlieren“, so Yannick Peifer, wissenschaftlicher Experte des ifaa – Institut für angewandte Arbeitswissenschaft. „KI dient eher als Unterstützung. Bei der Einführung und dem Einsatz von KI steht immer noch der Mensch im Mittelpunkt. Führungskräfte haben im Prozess eine große Verantwortung und besondere Rolle u. a. bei der Aufklärung und Anwendung. Diese Rolle haben wir im Rahmen des Forschungsprojektes humAIn work lab empirisch untersucht.“

Im Kern lässt sich sagen: Führungskräfte stehen sehr unterschiedlichen Anforderungen gegenüber. Sie benötigen zur Bewältigung vor allem Fach-, Methoden- und Führungskompetenzen mit Fokus auf Moderation und Coaching. Genaueres zum Projekt: https://www.arbeitswissenschaft.net/forschung-projekte/humain-work-lab/.
Welche Kompetenzen sind bei Führungskräften gefragt?

Fachkompetenzen:
– Die Führungskraft besitzt ein umfassendes Verständnis von KI und kennt die Bedeutung von Daten.
– Die Führungskraft besitzt umfangreiches Wissen über die Arbeitsprozesse, welche durch KI unterstützt werden sollen.
– Die Führungskraft besitzt ausreichend informationstechnologische Kompetenzen und kann die Zusammenhänge zur KI erklären.

Methodenkompetenzen:
– Die Führungskraft kann der benötigte Begleiter und Coach der Beschäftigten bei der KI-Einführung sein und diesen Veränderungsprozess erfolgreich gestalten.
– Die Führungskraft besitzt ausreichend Moderationsfähigkeiten.

Führungskompetenz: Moderation und Coaching
– Die Führungskraft agiert als Moderator im ganzen Veränderungsprozess, indem sie alle Beteiligten umfangreich einbindet und ihre individuellen Erfahrungen berücksichtigt.
– Mitarbeitende besitzen im Rahmen unterschiedlicher Formate die Möglichkeit, an der KI-Einführung teilzunehmen (Workshops, Einzelgespräche etc.).
– Die Führungskraft analysiert die Erwartungen der Mitarbeitenden an den Einsatz der KI-Anwendung.

Wo müssen Führungskräfte hinschauen?
Die Einführung von KI geht mit erheblichen und dabei sehr unterschiedlichen Anforderungen an Führungskräfte einher. Im Zentrum stehen die Handlungsfelder: Gestaltung des Einführungsprozesses, Auswirkungen auf die Beschäftigungen, Prozessauswirkungen, KI-Kompetenzentwicklung, KI-Qualifizierung, Führungssituation, Unternehmenskultur, Mensch-KI-Interaktion
Im Rahmen von humAIn work lab entwickelt das ifaa Empfehlungen, wie diese Anforderungen zu bewältigen sind.

Veränderung der Arbeit
In der Gesamtheit sind bereits heute starke Veränderungen zu erkennen, welche die Arbeit einer Führungskraft betreffen. „Führungskräfte nehmen bei der Einführung von KI unterschiedliche Rollen ein. Sie sind Multiplikatoren, Begleiter der Beschäftigten im Veränderungsprozess aber oftmals auch Projektverantwortliche. Auf Grund der Komplexität des Themas bedarf es praxisnaher Handlungsempfehlungen. Wir wollen Führungskräften wirksame Instrumente zur Verfügung stellen“, so Peifer.

Das Projekt
Das Projekt humAIn work (Laufzeit: 07.09.2020 bis 06.09.2023) wird im Rahmen der INQA Förderrichtlinie „Zukunftsfähige Unternehmen und Verwaltungen im digitalen Wandel (EXPKI)“ durch das Bundesministerium für Arbeit und Soziales (BMAS) unter dem Dach der Initiative Neue Qualität der Arbeit (INQA) gefördert. Unter Federführung des Instituts für Sozialwissenschaftliche Forschung e.V. (ISF) München beteiligen sich das ifaa – Institut für angewandte Arbeitswissenschaft, INPUT Consulting gGmbH, IBM Deutschland GmbH, Deutsche Telekom Service GmbH, MICARAA GmbH, Atruvia AG und die Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA) sowie ver.di – Vereinte Dienstleistungsgewerkschaft an dem Projekt.

Wissenschaftliche Ansprechpartner:
Yannick Peifer, M. Sc., B. Eng.
ifaa – Institut für angewandte Arbeitswissenschaft e. V.
Tel.: 0211 / 542263-22
E-Mail: y.peifer@ifaa-mail.de

(nach oben)


Wie künstliche Gehirne die Robotik der Zukunft prägen könnten

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der neuen Folge des Forschungspodcast „TUCscicast“ spricht Prof. Dr. Florian Gunter Röhrbein von der TU Chemnitz über das Human Brain Project und die Entwicklung Künstlicher Intelligenz

Forschung und Entwicklung in den Bereichen „Deep Learning“, „Quanten-Computing“ und „Künstliche Intelligenz“ gehen rasant voran und werden schon bald ganz neue Möglichkeiten für den Einsatz von unter anderem Robotern und weiteren interaktiven Technologien ermöglichen. Auch die Technische Universität Chemnitz forscht intensiv an dieser Schnittstelle der Mensch-Technik-Interaktion, unter anderem im Rahmen ihrer Kernkompetenz „Mensch und Technik“ sowie im Sonderforschungsbereich „Hybrid Societies“. Mit der Berufung von Prof. Dr. Florian Gunter Röhrbein an die TU Chemnitz ergibt sich ein weiteres Forschungsfeld im Bereich der Neurorobotik.

In der aktuellen Folge des Wissenschaftspodcast „TUCscicast“ der TU Chemnitz spricht Röhrbein, Inhaber der Professur Neurorobotik an der TU Chemnitz, über den aktuellen Forschungsstand in diesem Bereich sowie technologische Entwicklungslinien. Darüber hinaus spricht er über die Ziele des Human Brain Project, in dem im Auftrag der Europäischen Kommission der Wissensstand über das menschliche Gehirn zusammengefasst und in Computermodelle übertragen werden soll. Röhrbein ist selbst auch Forscher in dem Projekt, an dem über 150 Forschungseinrichtungen überwiegend aus Europa beteiligt sind.

Der Podcast kann auf verschiedenen Wegen gehört werden:
– im Web-Player der TU Chemnitz,
– in jeder Podcast-App über unseren RSS-Feed,
– auf Spotify, Deezer und Apple Podcast.

Hintergrund: TUCscicast – Forschung, die ins Ohr geht
Die TU Chemnitz präsentiert seit 2018 im Podcast „TUCscicast“ aktuelle Forschung an der TU Chemnitz. Zu Wort kommen Forscherinnen und Forscher, die im Gespräch über ihre Arbeit und ihre Erkenntnisse berichten. Die Themen sind dabei ebenso vielfältig wie die Wissensgebiete der Interviewten und decken das gesamte Spektrum von Forschung und Lehre an der Universität ab, wobei der Fokus auf aktuellen Themen und Entwicklungen in Wissenschaft, Politik, Wirtschaft und Gesellschaft liegt.

Es liegen aktuell drei Staffeln des „TUCscicast“ mit jeweils zehn Episoden sowie ein „Special“ zu Schwerpunkten des Sonderforschungsbereichs „Hybrid Societies“ der TU Chemnitz vor.

Produziert werden die Folgen von „Die Podcastproduzenten“ der BEBE Medien GmbH, die auch den Online-Radiosender „detektor.fm“ betreibt. Ausführender Redakteur ist Pascal Anselmi. Die Produktion an der TU Chemnitz übernehmen Dr. Andreas Bischof und Matthias Fejes.

Die Hörerinnen und Hörer sind herzlich dazu eingeladen, ihre Anmerkungen und Anregungen für die inhaltliche Gestaltung der Audio-Reihe an tucscicast@tu-chemnitz.de zu richten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Florian Gunter Röhrbein, Professur Neurorobotik der TU Chemnitz, Tel.
+49 371 531-37498, E-Mail florian.roehrbein@informatik.tu-chemnitz.de

Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php#s4

(nach oben)


Auf der Spur der lebensbedrohlichen und lebensverkürzenden Krankheiten

Kathrin Anna Kirstein Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
In einer empirischen Studie wird erstmals die Häufigkeit der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen bei Kindern und Jugendlichen in Deutschland erhoben

Wie viele Kinder und Jugendliche in Deutschland sind von lebensbedrohlichen und lebensverkürzenden Erkrankungen betroffen? Um dies zu berechnen, wurde bisher auf Studienergebnisse aus Großbritannien zurückgegriffen und diese auf Deutschland übertragen. Prof. Dr. Sven Jennessen und Dr. Nadja Melina Burgio vom Institut für Rehabilitationswissenschaften der Humboldt-Universität zu Berlin haben nun erstmals eine Studie dazu durchgeführt: Sie erhoben Daten zur Häufigkeit von Diagnosen lebensbedrohlicher und lebensverkürzender Erkrankungen bei Kindern und Jugendlichen im Alter bis 19 Jahren in Deutschland. Hierfür arbeiteten sie mit dem Spitzenverband Bund der Krankenkassen (GKV-Spitzenverband) und dem Institut für angewandte Gesundheitsforschung Berlin GmbH (InGef) zusammen. Die Studie entstand im Projekt „PraeKids“ in Kooperation mit der Stiftung des Kinderhospizes Regenbogenland in Düsseldorf, welche das Projekt maßgeblich gefördert hat.

Grundlage der Studie sind Behandlungsdiagnosen, die in den Abrechnungsdaten der Krankenkassen dokumentiert sind. Um diese auszuwerten, griffen die Wissenschaftler:innen auf sogenannte ICD-10-Kodierungen zurück, die der amtlichen Klassifikation für Diagnosen dienen. Gemeinsam mit Palliativmediziner:innen der Kinder- und Jugendmedizin erarbeiteten sie eine Liste an Kodierungen, anhand derer sie die Prävalenz bestimmten, also die Häufigkeit der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen.

Für das Jahr 2019 bewegt sich diese Prävalenz zwischen 354.748 (InGef) und 402.058 (GKV) Betroffenen. Berücksichtigt man zusätzlich die Code-Liste, die in den Studien in Großbritannien angewandt und im Zuge der Studie aktualisiert wurde, erweitern sich diese Zahlen auf einen Bereich zwischen 319.948 und 402.058 betroffenen Kindern und Jugendlichen.

Die nun mittels einer Studie erhobene Prävalenz der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen stellt eine wichtige Grundlage für weitere Untersuchungen wie die Erhebung gesundheitsbezogener Versorgungs- und Begleitungsangebote in Deutschland dar. Weitere Studien sind notwendig, um das Versorgungsangebot mit dem Versorgungsbedarf betroffener Kinder, Jugendlicher sowie deren Familien zu vergleichen und daraufhin konkrete Handlungsempfehlungen für die Gestaltung gesundheitsbezogener Versorgungs- und Begleitungsangebote zu erarbeiten, beispielsweise im Hospiz- und Palliativbereich.

Zum Forschungsbericht des Projekts „PraeKids”: https://edoc.hu-berlin.de/handle/18452/25451

Kontakt
Prof. Dr. Sven Jennessen
Leiter der Abteilung Pädagogik bei Beeinträchtigungen der körperlich-motorischen Entwicklung
Institut für Rehabilitationswissenschaften
Humboldt-Universität zu Berlin
E-Mail: sven.jennessen@hu-berlin.de

Dr. Nadja Melina Burgio
wissenschaftliche Mitarbeiterin
Institut für Rehabilitationswissenschaften
Humboldt-Universität zu Berlin
E-Mail: nadja.burgio@hu-berlin.de

(nach oben)


Wie Algen aus Abwässern zu Dünger werden

Jörg Heeren Medien und News
Universität Bielefeld
Bielefelder Forschende errichten Testanlage am Klärwerk in Lichtenau

Wenn Landwirt*innen ihre Felder düngen, versickert ein Teil des Düngemittels im Boden. Das belastet nicht nur das Grundwasser, auch wichtige Nährstoffe gehen verloren. Forschende der Universität Bielefeld und des Forschungszentrums Jülich untersuchen, wie sich diese Nährstoffe mit der Hilfe von Mikroalgen in den Düngekreislauf zurückführen lassen: Die mikroskopisch kleinen Algen nutzen Nährstoffreste in Abwässern, um zu wachsen – und können so selbst als Düngemittel verwendet werden.

Gemeinsam mit den Stadtwerken Lichtenau haben die Wissenschaftler*innen eine Testanlage zur Algenproduktion an einer Kläranlage in Lichtenau aufgebaut. Das Land NRW fördert das Projekt BiNäA mit rund 413.000 Euro. Medienvertreter*innen sind eingeladen, die Testanlage am 23. Juni bei einem Pressetermin zu besichtigen.

„Die Idee unseres Projekts ist, mithilfe von Algen ein Kreislaufsystem zu errichten“, sagt Professor Dr. Olaf Kruse, wissenschaftlicher Direktor am Zentrum für Biotechnologie (CeBiTec) der Universität Bielefeld. Er leitet die Arbeitsgruppe Algenbiotechnologie und Bioenergie und koordiniert BiNäA. „Wir versuchen, wichtige Nährstoffe zu recyceln und sie am Ende wieder als Düngemittel zu benutzen.“ BiNäA steht für „Biologischer Nährstofftransfer durch Mikroalgen“.

Pflanzen benötigen Nährstoffe wie Phosphor, Stickstoff und Kalium. Diese Elemente sind daher zentrale Bestandteile von Dünger. Weil aber ein Teil des Düngemittels im Boden versickert, gehen auch Nährstoffe verloren. „Es gibt zum Beispiel nur ein begrenztes Vorkommen an Phosphor. Bei solchen Stoffen ist es wichtig, möglichst nachhaltig mit ihnen umzugehen“, sagt Kruse. Auch Stickstoff ist ein Problem: Der Anteil, den die Pflanzen nicht verbrauchen, gelangt als Nitrat in das Grundwasser. Das kann negative Folgen für die Trinkwasserversorgung haben.

Mikroalgen lassen sich mit Nährstoffen anreichern
Algen sind in der Lage, Phosphor, Stickstoff und Kalium aus Abwässern zu verwerten. „Algen nutzen diese Stoffe, um zu wachsen – und das auf sehr nachhaltige Art und Weise: Sie brauchen außer einigen Mineralien nichts weiter als Sonnenlicht und Kohlenstoffdioxid aus der Atmosphäre“, sagt Kruse. Im BiNäA-Projekt versuchen die Wissenschaftler*innen, Mikroalgen, die bereits im Abwasser vorhanden sind, möglichst effizient zu vermehren und mit Nährstoffen anzureichern. Die so gewonnene Algen-Biomasse lässt sich trocknen und als Düngemittel verwenden.

Ein besonderer Fokus des Projekts liegt auf der Nährstoffgewinnung aus Klärwasser: Abwasser, das die Reinigungsstufen der Kläranlage schon durchlaufen hat und wieder zurück in den natürlichen Wasserkreislauf geleitet werden soll. Dieses Wasser enthält noch sehr viel Phosphor und Stickstoff. Zusammen mit den Stadtwerken Lichtenau haben die Wissenschaftler*innen eine Versuchsanlage neben der Kläranlage Altenautal in Lichtenau aufgebaut.

Algen helfen dabei, Abwasser besser zu filtern
In der Versuchsanlage wird das nährstoffreiche Wasser über eine geneigte Reaktorfläche geleitet, auf der dann ein natürlicher Algenteppich heranwächst. Die Algen binden Kohlendioxid aus der Luft und führen dem Wasser Sauerstoff zu. Somit produziert die Anlage nicht nur Algen, die Landwirt*innen als Düngemittel verwenden können, sondern hilft auch dabei, das Abwasser zu filtern und die Wasserqualität zu verbessern.

„Wir sind immer daran interessiert, unsere Kläranlagen zu optimieren. Für die Zukunft können sich so neue Möglichkeiten der biologischen Abwasserreinigung ergeben“, sagt Henning Suchanek, der technische Betriebsleiter Abwasserversorgung bei den Stadtwerken Lichtenau. „Der Nährstofftransfer aus den städtischen Abwässern in die Landwirtschaft ist gerade im ländlichen Bereich wichtig.“ Die Stadtwerke Lichtenau haben die Testanlage angeschafft und kümmern sich um Wartungs- und Reparaturarbeiten. Solche Systeme zur Wasseraufreinigung mittels Algenteppich gibt es bereits weltweit, oft werden sie als Algal Turf Scrubber (ATS, Algenteppichsysteme) bezeichnet.

Algendünger oft besser als Mineraldünger
Von Anfang an waren Wissenschaftler*innen des Forschungszentrums Jülich (FZJ) an dem Projekt BiNäA beteiligt. Sie unterstützen neben der Planung und dem Aufbau bei der Analyse von Algen-Biomasse und Nutzungskonzepten. „Wir forschen seit mehreren Jahren zum algenbasierten Nährstofftransfer vom Abwasser zur Kulturpflanze“, sagt Dr.-Ing. Diana Reinecke-Levi vom Bereich Pflanzenwissenschaften am Institut für Bio- und Geowissenschaften (IGB-2). „Unsere ATS-Anlagen zeichnen sich durch ihre einfache Handhabung, stabile Kultivierung, und geringere Kosten aus. Das macht sie für die dezentrale Abwasseraufbereitung und regionale Landwirtschaft so attraktiv.“

Mit der Versuchsanlage in Lichtenau prüfen und optimieren die Forschenden im Projekt das Verfahren zur Nährstoffgewinnung. Die Biotechnolog*innen vom Bielefelder CeBiTec untersuchen etwa, welche Algenarten dort heranwachsen und wie hoch der Anteil an Phosphor und Stickstoff ist. Wie der entstandene Algendünger im Vergleich abschneidet, testen die Wissenschaftler*innen am Jülicher IBG-2 derzeit an Weizenpflanzen. Erste Ergebnisse zeigen: Der Algendünger funktioniert – und zwar mindestens so gut wie herkömmlicher Mineraldünger, oft sogar besser. Darüber hinaus befasst sich das Projekt auch mit der Nachhaltigkeit des Algendüngers und erforscht, ob von ihm Risiken für Mensch und Umwelt ausgehen.

Enge Zusammenarbeit mit lokalen Akteur*innen
Eine Besonderheit des BiNäA-Projekts ist die enge Zusammenarbeit zwischen Wissenschaftler*innen und lokalen Akteur*innen. Neben den Stadtwerken Lichtenau sind mehrere Landwirte aus Ostwestfalen-Lippe als Projektpartner eingebunden. In einer weiteren Versuchsanlage wird das Verfahren für Abwässer getestet, die in landwirtschaftlichen Betrieben entstehen. „Das Ziel ist, ein möglichst einfaches und robustes Verfahren zu entwickeln, das die Rückgewinnung von Nährstoffen auf einer regionalen Ebene ermöglicht. Kommunen können so ihre eigenen Düngemittel produzieren“, sagt Kruse. Das Landesamt für Natur, Umwelt, und Verbraucherschutz NRW fördert BiNäA im Rahmen der Europäischen Innovationspartnerschaft EIP-Agrar. Das Projekt ist im März 2020 gestartet und läuft noch bis Dezember 2022.

Medienvertreter*innen können sich die Versuchsanlage in Lichtenau bei einem Pressetermin genauer anschauen. Es werden sowohl Wissenschaftler*innen der Universität Bielefeld und des Forschungszentrums Jülich vor Ort sein, als auch Vertreter aus der Landwirtschaft und von den Stadtwerke Lichtenau. Um Anmeldung per E-Mail bis zum 22. Juni an olaf.kruse@uni-bielefeld.de wird gebeten.

Der Pressetermin in Kürze:
Datum: Donnerstag, 23. Juni, 11 Uhr
Ort: Kläranlage Altenautal der Stadtwerke Lichtenau, Ettelner Straße, 33165 Lichtenau

Wissenschaftliche Ansprechpartner:
Prof. Dr. Olaf Kruse, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-12258
E-Mail: olaf.kruse@uni-bielefeld.de

Henning Suchanek, Stadtwerke Lichtenau GmbH
Abwasserentsorgung
Telefon: 05295 8070
E-Mail: suchanek@stadtwerke-lichtenau.de

(nach oben)


Hochwasserschutz für Mensch und Natur

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Mitte Juli jährt sich zum ersten Mal das katastrophale „Ahrtal-Hochwasser“, das in Westdeutschland mehr als 180 Menschen das Leben kostete sowie Schäden in Höhe von 29,2 Milliarden Euro verursachte. Wie ein kluger Hochwasserschutz der Zukunft aussehen sollte und welche Vorteile insbesondere „naturbasierte Lösungen“ bieten, haben deutsche Wissenschaftler*innen unter Federführung der Senckenberg Gesellschaft für Naturforschung (SGN) in einer Handlungsempfehlung zusammengefasst. Der „Policy Brief“ rät zu einem kombinierten Hochwasserschutz unter Einbeziehung der von der EU geforderten Erhöhung der Schutzgebietsflächen von aktuell 10 auf 30 Prozent.

Bei einem Wasserstand von 5,75 Metern brach am 14. Juli 2021 die Datenübermittlung des Pegels Altenahr an das zuständige Landesamt ab – Wassermassen hatten die Messstation mit sich gerissen. Modellierungen zeigen, dass das Ahrwasser einen Pegelstand von bis zu sieben Metern erreichte – im Normalfall liegt er in diesem Flussabschnitt unter einem Meter. „Hochwasser sind grundsätzlich natürliche Ereignisse, die in unseren Flusslandschaften über Jahrtausende eine einzigartige Biodiversität sowie widerstandsfähige Ökosysteme mit mannigfaltigen Leistungen geschaffen haben“, erklärt Senckenberg-Wissenschaftler Dr. Phillip Haubrock und fährt fort: „In den vergangenen Jahrzehnten sind die Frequenz, die Höhe und das Risiko von Hochwassern durch massive Eingriffe des Menschen wie Flussbegradigung, Abtrennung und Bebauung der Auen, Entwaldung, Bodenversiegelung und Drainage deutlich gestiegen. Mit dem Klimawandel verstärkt sich die Hochwassergefahr zusätzlich. Die Katastrophe im letzten Sommer hat uns dies unverkennbar vor Augen geführt.“

Überschwemmungen zählen weltweit zu den häufigsten und größten aller Naturgefahren: Zwischen 1994 und 2013 waren 43 Prozent aller registrierten Naturkatastrophen Hochwasser und betrafen fast 2,5 Milliarden Menschen. Im 20. Jahrhundert forderten Überschwemmungen von Flüssen etwa 7 Millionen Todesopfer. Weltweit wird der jährliche Schaden auf 104 Milliarden US-Dollar geschätzt. „Diese Zahlen zeigen die Grenzen eines vorwiegend technisch orientierten und dabei häufig nicht nachhaltigen Hochwasserschutzes, denn dieser verlagert das Risiko nur örtlich und schadet der Umwelt“, sagt Mitautorin Prof. Dr. Sonja Jähnig vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). Dringend notwendig sei daher ein umfassendes und integriertes Risikomanagement von Land und Wasser, das den Flüssen und ihren Auen mehr Raum gibt, die natürliche Speicherkapazität der Landschaft erhöht und damit auch naturnahe Lebensräume für mehr Artenvielfalt schafft.

Als Lösung schlägt das Forscher*innen-Team von Senckenberg, dem IGB, dem Helmholtz-Zentrum Potsdam Deutsches GeoForschungsZentrum GFZ und der Universitäten Duisburg-Essen, Kiel, Frankfurt, Osnabrück sowie der Technischen Hochschule Aachen in einem gemeinsamen „Policy Brief“ einen kombinierten Hochwasserschutz vor. Anstatt rein auf bauliche Maßnahmen wie Deiche oder künstliche Rückhaltebecken zu setzen, sollten verstärkt „naturbasierte Lösungen“ (NbS) zum Einsatz kommen, indem zum Beispiel Flüsse, Auen, Feuchtgebiete und Wälder renaturiert oder Flächen entsiegelt werden. Solche naturbasierten Lösungen erhöhen den Wasserrückhalt in der Landschaft und somit auch die Resilienz gegenüber Hochwasserereignissen. Ein wesentliches Ziel sei es, einen möglichst großen Anteil des Niederschlages am Ort des Auftretens versickern zu lassen oder dort zurückzuhalten. „Eine Erhöhung des Waldanteils kann zum Beispiel helfen, wenigstens einige Hochwasser abzumildern“, sagt Prof. Dr. Dörthe Tetzlaff vom IGB, die ebenfalls am „Policy Brief“ mitgewirkt hat. Neben dem Einsatz naturbasierter Lösungen fordern die Wissenschaftler*innen auch eine verstärkte Ausweisung von Überschwemmungsflächen bei der Erhöhung der Schutzgebietsfläche von derzeitigen 10 auf 30 Prozent, wie sie in der EU-Biodiversitätsstrategie für 2030 vorgesehen ist. Dies fördere die biologische Vielfalt und schütze zugleich die Menschen.

„Durch den globalen Klimawandel werden sich die Häufigkeit und Intensität von Starkniederschlägen weiter verstärken – die Folge sind weitere Überschwemmungen und Katastrophen. Wir brauchen ein grundlegendes Umdenken im Hochwasserschutz, in welchem naturbasierte Lösungen ein essenzielles Segment darstellen. Ein kombinierter Hochwasserschutz, der sowohl technische als auch naturbasierte Maßnahmen beinhaltet, befördert Ökosystemleistungen und die einzigartige biologische Vielfalt von Flusslandschaften und verbindet somit den Schutz von Mensch und Natur! Die Renaturierung von Flüssen und ihren angrenzenden Auenflächen, die Wiedervernässung von Mooren und die Umgestaltung des deutschen Forsts in einen vielfältigen Wald müssen mit Nachdruck vorangetrieben werden. Wir müssen mit und dürfen nicht gegen die Natur handeln“, schließt Senckenberg-Generaldirektor und Gewässerökologe Prof. Dr. Klement Tockner.

Wissenschaftliche Ansprechpartner:
Dr. Phillip J. Haubrock
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051- 61954 3125
phillip.haubrock@senckenberg.de

Weitere Informationen:
https://sgn.one/h3h Policy Brief

(nach oben)


„Bürger messen ihre Bäche selbst“ – Umwelt-Campus Birkenfeld unterstützt DRK – Modellprojekt an der Kyll

Tanja Loch-Horn Referat für Öffentlichkeitsarbeit Umwelt-Campus
Hochschule Trier
Am 14./15. Juli 2021 hat die Flutkatastrophe die Menschen an der Kyll überrascht und ihr Leben nachhaltig verändert. Um sie angesichts der zunehmenden Wahrscheinlichkeit von Starkregen und Hochwasser zu stärken, haben der Umwelt-Campus Birkenfeld der Hochschule Trier, der DRK-Kreisverband Vulkaneifel und engagierte Bürger*innen zusammen ein Selbsthilfeprojekt geplant und Anfang Mai 2022 umgesetzt. Seit einem Monat messen die Bewohner in Jünkerath nun selbst den Pegel der Kyll.

Vor fast einem Jahr wurde der Lebensraum und die Existenzgrundlage vieler Bürgerinnen und Bürger in der Vulkaneifel in Folge eines Unwetters und des dadurch ausgelösten Hochwassers nachhaltig beschädigt oder zerstört. Das wirkt immer noch nach: Bei jedem starken Regen mit Unwetter sind die Menschen im Alarmzustand, schlimme Erinnerungen kommen in ihnen hoch. In der Beratung der DRK-Hochwasserhilfe berichteten die Menschen immer wieder: „Ich höre den Regen ganz anders als früher, viel lauter, ich habe Angst“.

Wissenschaftliche Studien warnen
Die Studie der World Weather Attribution (WWA) zum Starkregen in Westeuropa im Juli 2021 kommt zu dem Schluss, dass die Wahrscheinlichkeit für solche extremen Regenfälle sich durch den bisherigen menschengemachten Temperaturanstieg um das 1,2 bis 9-Fache erhöht hat. Maarten van Aalst, Leiter des Klimazentrums des Internationalen Roten Kreuzes in Den Haag sagte im Deutschlandfunk: „Die Ergebnisse unserer Studie zeigen, dass es immer wichtiger wird, auch solche extremen und sehr seltenen Ereignisse zu berücksichtigen. Denn durch den Klimawandel werden sie künftig wahrscheinlicher.“ In diesem Kontext arbeiten auch Forschende am Umwelt-Campus z. B. im BMBF Projekt FLOREST an wissenschaftlichen Lösungen zur Beherrschung der Klimafolgen. Aber auch die Bürgerinnen und Bürger vor Ort können sich im Rahmen von Bürgerwissenschaften (Citizen-Science) aktiv an den Forschungen beteiligen.

Selbst die Bäche in der Vulkaneifel beobachten
Hochwasservorhersage und frühzeitige Warnungen ermöglichen rechtzeitige Schutzmaßnahmen und werden überlebenswichtig. Das aktuelle Messnetz überwacht allerdings nur die Pegelstände der großen Flüsse. Bei lokalen Starkregenereignissen sind es aber auch die kleinen Fließgewässer in der Nähe, die über die Ufer treten und Schaden anrichten. Vor diesem Hintergrund leistet das Projekt „Bürger messen ihre Bäche selbst“ einen wichtigen Beitrag zur Steigerung der Resilienz jedes Einzelnen und der Gemeinschaft.

Intelligente Technik zum Internet der Dinge (IoT) startet in Jünkerath
Mit einer von der IoT2-Werkstatt am Umwelt-Campus Birkenfeld (UCB) entwickelten Technik können die Menschen selbst tätig werden und den Bach in Nähe von Haus und Hof per Messstation überwachen. Dazu wurde ein Pegelsystem am Oberlauf der Kyll in Jünkerath eingerichtet. Gemessen wird mit einem Ultraschallsensor, der oberhalb der Wasseroberfläche an der Brücke befestigt ist und seine Informationen in das Internet sendet. Mit der Citizen-Science-Box wurde ein neuartiges Gerät mit wasserdichtem Gehäuse und einer autarken Energieversorgung entwickelt, welches sich per grafischer Tools fast spielerisch programmieren lässt. Professor Dr. Klaus-Uwe Gollmer vom Umwelt-Campus Birkenfeld zu dem von ihm mitentwickelten Projekt: „Der Pegel an der Glaadter Brücke ist ein tolles Beispiel für Hilfe zur Selbsthilfe und wurde in Kooperation des DRK Vulkaneifel, der IoT2-Werkstatt am UCB und engagierten Bürgern realisiert. Hier zeigt sich, wie wichtig MINT (Mathematik, Informatik, Naturwissenschaft und Technik) schon in der Schule für unsere Gesellschaft ist.“

Unterstützung von BBS Gerolstein und DRK Vulkaneifel
Viele Beteiligte arbeiten Hand in Hand: Die Kommunen gaben die Erlaubnis, das System in ihrer Infrastruktur zu montieren, das DRK-Reparatur-Café wartet die Technik, der Umwelt-Campus Birkenfeld und Ehrenamtliche vor Ort werten die Daten aus und stellen diese den Anliegern zur Verfügung. In Zukunft sollen auch die Schülerinnen und Schüler der Berufsbildenden Schule Vulkaneifel in den Bau weiterer Geräte einbezogen werden. So lernen sie im Unterricht, wie IoT und Algorithmen funktionieren und wie MINT uns bei der Beherrschung der Klimafolgen unterstützen kann. Trockene Theorie wird dabei anfassbar konkret und vermittelt den jungen Menschen das Gefühl, die Zukunft selbst gestalten zu können. Manfred Wientgen ist als Projektverantwortlicher des DRK-Kreisverbandes Vulkaneifel überzeugt vom Nutzen der eigenverantwortlichen Messungen: „Aus vielen Gesprächen mit Flutopfern weiß ich, dass es von großer Bedeutung ist, etwas tun zu können und das Projekt Hochwassernetzwerk ermöglicht den Menschen, durch eigene Messungen aktiv zu werden. Der erste Monat hat gezeigt, dass wir neben wichtigen Daten auch das Gefühl vermitteln konnten, den Ereignissen nicht hilflos ausgeliefert zu sein, sondern selbst das Wetter und mögliche Gefahren im Blick zu behalten.“
Die Pegelmessung und viele weitere spannende Forschungsprojekte können am Tag der offenen Tür (25.06.22) am Umwelt-Campus besichtigt werden.

Hintergrund
Der Umwelt-Campus Birkenfeld ist Teil der Hochschule Trier und bündelt Forschung und Lehre zu MINT-Themen mit Fokus auf Digitalisierung und Nachhaltigkeit. Hier arbeiten Studierende der Informatik und der Ingenieurwissenschaften gemeinsam mit den Lehrenden an der Lösung drängender gesellschaftlicher Fragestellungen. Der Umwelt-Campus belegt im internationalen Wettbewerb GreenMetric Platz 6 von über 900 Hochschulen und Universitäten und ist damit Deutschlands nachhaltigster Hochschulstandort.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Klaus-Uwe Gollmer | k.gollmer@umwelt-campus.de | 06782/17-1223

www.umwelt-campus.de

(nach oben)


Urbanen Wetterextremen begegnen: Vorhaben AMAREX erforscht, wie Städte im Umgang mit Regenwasser besser werden können

Julia Reichelt Universitätskommunikation
Technische Universität Kaiserslautern
Wetterextreme und ihre Folgen für die Menschen und ihr Lebensumfeld sind insbesondere in Städten spürbar. Versiegelte und dicht bebaute Flächen lassen bei Starkregen die Wassermassen nicht versickern und heizen sich im Sommer überproportional auf. Zudem schädigen längere Dürreperioden die urbane Vegetation, die im gesunden Zustand ausgleichend auf das Stadtklima wirkt. Deswegen arbeitet das Verbundvorhaben AMAREX (Anpassung des Managements von Regenwasser an Extremereignisse) jetzt an wissenschaftlichen Beiträgen, um die Folgen solcher Wetterextreme abzumildern. Forschende der Technischen Universität Kaiserslautern (TUK) sind im Projektkonsortium federführend.

„Im Zuge des Klimawandels werden sowohl Häufigkeit als auch Intensität von Wetterextremen wie Starkregen und Dürreperioden zunehmen – davon geht die Wissenschaft aus“, verdeutlicht Prof. Dr.-Ing. Ulrich Dittmer, der an der TUK das Fachgebiet Siedlungswasserwirtschaft leitet, die Relevanz des Verbundvorhabens. „Im Rahmen von AMAREX widmen wir uns den Beiträgen, die das städtische Regenwassermanagement zur Starkregen- und Dürrevorsorge leisten kann.

Mit unserer Forschung wollen wir insbesondere Antworten auf zwei zentrale Fragen liefern: Wie können Anlagen der Regenwasserbewirtschaftung (RWB) erweitert bzw. modifiziert werden, um Städte besser an Wetterextreme anzupassen? Wie lassen sich Umsetzungspotenziale und erreichbare Effekte im Bestand und bei Neuplanungen quantifizieren?“ Dabei hat das Projektkonsortium das gesamte blau-grüne System aus RWB-Anlagen, urbanen Grünflächen und städtischer Vegetation im Blick.

Das Projekt umfasst mehrere Teilaufgaben: Forschende der TUK untersuchen in Kooperation mit den Berliner Wasserbetrieben (BWB) Lösungen für die Überflutungsvorsorge und deren Effekte in Berliner Pilotgebieten. Dabei geht es ebenso um dezentrale Maßnahmen des Regenwasserrückhalts (z.B. auf Gründächern oder in Mulden wie den vorübergehenden Einstau von öffentlichen Freiflächen zum Schutz vor Überflutungsschäden. In einem weiteren Arbeitspaket erforscht die Universität Stuttgart zusammen mit den Stadtentwässerungsbetrieben Köln (StEB Köln) und der HELIX Pflanzensysteme GmbH das Potenzial der Regenwasserspeicherung zur Trockenheits- und Hitzevorsorge am Beispiel der Stadt Köln. Das Kompetenzzentrum Wasser Berlin überprüft anhand eines detaillierten Wasserhaushaltsmodells von Berlin, inwiefern die lokale Wasserbilanz sich als Indikator für die erfolgreiche Adaption an Wasserextreme im urbanen Raum eignet. Das Ecologic Institute entwickelt Methoden zur Bewertung sozialer, ökologischer und wirtschaftlicher Wirkungen von blau-grünen Infrastrukturen.

Der kontinuierliche Austausch zwischen Wissenschaft und Praxis, koordiniert von den Projektpartnern BWB und StEB Köln, erfasst die Anforderungen und Bedarfe der unterschiedlichen Stakeholder und Akteure im Bereich der RWB, wie etwa Wasserbehörden, Verbänden, Kommunal- und Bezirksverwaltungen, NGOs und Eigentümern. „Ebenso werden regelmäßige Rückmeldungen der kommunalen Ebene die Entwicklung der Methoden begleiten. Diese sollen letztlich anwendbar und übertragbar sein.“

Alle erarbeiteten Methoden fließen abschließend in eine Web-Applikation zur Entscheidungsunterstützung. Dieses Tool, das von der Technologiestiftung Berlin entwickelt wird, soll bereits in einer frühen Planungsphase die ganzheitliche Bewertung von Szenarien der RWB und damit eine wassersensible Stadtentwicklung ermöglichen.

Projektförderung und beteiligte Partner
Das Verbundvorhaben AMAREX (Förderkennzeichen 02WEE1624 A-H) wird gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme „WaX Wasser-Extremereignisse“ im Bundesprogramm „Wasser:N“ als Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Fördersumme beträgt rund 2,2 Mio. Euro. Das Verbundvorhaben wird vom Fachgebiet Siedlungswasserwirtschaft der TUK koordiniert und geleitet. Neben den genannten Forschungspartnern wirken die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz Berlin (SenUMVK) und die Senatsverwaltung für Stadtentwicklung, Bauen und Wohnen Berlin (SenSBW) als assoziierte Partner mit sowie das Amt für Landschaftspflege und Grünflächen, Grün- und Landschaftsplanung der Stadt Köln.

Fragen beatwortet:
Prof. Dr.-Ing. Ulrich Dittmer
Technische Universität Kaiserslautern
Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 631 205-3685
E-Mail: ulrich.dittmer@bauing.uni-kl.de

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Ulrich Dittmer
Technische Universität Kaiserslautern
Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 631 205-3685
E-Mail: ulrich.dittmer@bauing.uni-kl.de

Anhang
Informationen zur Projektförderung

(nach oben)


Die neue Website der Bundesanstalt für Wasserbau – informativ, vielseitig und spannend

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
„Die Website baw.de ist unsere zentrale digitale Kommunikationsplattform. Sie erfreut sich seit Jahren steigender Beliebtheit und wird monatlich fast 100.000 Mal aufgerufen“, kommentierte der Leiter der Bundesanstalt für Wasserbau (BAW), Prof. Dr.-Ing. Christoph Heinzelmann, den Start des grundlegend überarbeiteten Internetauftritts, der am heutigen Tag online gegangen ist. „Unser Webauftritt ist der erste Anlaufpunkt für Informationen über die BAW. Er präsentiert unsere vielfältigen digitalen Angebote sowie unsere umfangreichen Projekt- und Forschungsarbeiten und richtet sich an unsere Partner in Verwaltung, Wissenschaft und Unternehmen sowie an die interessierte Öffentlichkeit.“

Infrastruktur, Umwelt und Mobilität – diese drei Themenbereiche markieren die wesentlichen Aufgabenschwerpunkte der BAW und kommen daher in der neuen Struktur besonders zum Ausdruck. Anhand ausgewählter Beispielprojekte haben Besucherinnen und Besucher der Website die Möglichkeit, sich vertieft über die Arbeit der BAW zu informieren. Prof. Heinzelmann ergänzt: „Durch unsere Arbeit leisten wir einen wichtigen Beitrag dazu, dass die Wasserstraßen in Deutschland den wachsenden verkehrlichen, technischen und ökologischen Anforderungen gerecht werden.“

Die Startseite des neuen Internetauftritts bietet Schnellzugriff auf das große Spektrum sämtlicher Dienste und Informationsangebote der BAW. Die interessierte Öffentlichkeit findet dort beispielsweise das IZW-Medienarchiv mit derzeit mehr als 20.000 frei verfügbaren Bildern aus der langen Geschichte der Bundeswasserstraßen, den BAW-Flickr-Kanal mit aktuellen Bilddokumentationen, Erklärvideos zu wasserbaulichen Themen auf dem BAW-YouTube-Kanal und vieles mehr. Im BAWBlog berichten Beschäftigte der BAW direkt aus ihrem Arbeitsalltag.

Im Repositorium für den Wasserbau ‚HENRY‘ hält die BAW aktuell über 10.000 frei zugängliche wissenschaftliche Publikationen für die Fachöffentlichkeit bereit. Spezielle Fachinformationen zu verkehrswasserbaulichen Themen sind im BAWiki zu finden, das als breitgefächertes Nachschlagewerk fortlaufend erweitert wird und zunehmend an Bedeutung gewinnt, wie die Zugriffszahlen zeigen. Mit diesen und weiteren Onlineangeboten positioniert sich die BAW als eine der wichtigsten Fachinformationsquellen in Deutschland und Europa auf dem Gebiet des Verkehrswasserbaus.

Originalpublikation:
www.baw.de

Weitere Informationen:
http://www.bw.de

(nach oben)


Hubble-Weltraumteleskop nimmt größtes Nahinfrarotbild auf, um die seltensten Galaxien des Universums zu finden

Dr. Markus Nielbock (MPIA Presse- und Öffentlichkeitsarbeit) Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Ein internationales Team von Forschenden, darunter Ivelina Momcheva vom MPIA, hat heute das größte Nahinfrarotbild veröffentlicht, welches das Hubble-Weltraumteleskop, das von der NASA und der ESA betrieben wird, je aufgenommen hat. Es ermöglicht den Astronomen, die Sternentstehungsgebiete des Universums zu kartieren und zu lernen, wie die frühesten und entferntesten Galaxien entstanden sind. Diese hochauflösende Durchmusterung mit dem Namen 3D-DASH ist insbesondere dazu geeignet, seltene Objekte und Ziele für Folgebeobachtungen mit dem kürzlich gestarteten Weltraumteleskop James Webb (JWST) während dessen jahrzehntlanger Mission zu finden.

„Seit seinem Start vor mehr als 30 Jahren hat das Hubble-Weltraumteleskop eine Renaissance in der Erforschung der Entwicklung von Galaxien der letzten 10 Milliarden Jahre des Universums ausgelöst“, sagt Lamiya Mowla, Dunlap Fellow am Dunlap Institute for Astronomy & Astrophysics der Fakultät für Kunst und Wissenschaft der Universität Toronto und Hauptautorin der Studie. „Das 3D-DASH-Programm vergrößert das Erbe von Hubble im Hinblick auf Weitwinkelaufnahmen insofern, als dass wir damit beginnen können, die Geheimnisse der Galaxien jenseits unserer eigenen zu enträtseln.“

3D-DASH bietet den Forschern zum ersten Mal eine vollständige Nahinfrarot-Durchmusterung des gesamten COSMOS-Feldes, eines der reichhaltigsten Datensätze für extragalaktische Studien außerhalb der Milchstraße. Da das nahe Infrarot die längste und röteste Wellenlänge ist, die mit Hubble beobachtet werden kann – knapp jenseits dessen, was für das menschliche Auge sichtbar ist – können die Astronominnen und Astronomen die frühesten und am weitesten entfernten Galaxien besser erkennen.

Außerdem müssen sie einen großen Bereich des Himmels absuchen, um seltene Objekte im Universum zu finden. Bislang war ein so großes Bild nur vom Boden aus verfügbar und litt unter einer schlechten Auflösung, was die Beobachtungsmöglichkeiten einschränkte. 3D-DASH wird dazu beitragen, einzigartige Phänomene wie die massereichsten Galaxien des Universums, hochaktive schwarze Löcher und Galaxien zu identifizieren, die kurz davor stehen, miteinander zu kollidieren und zu verschmelzen.

„Ich bin neugierig auf Riesengalaxien, die massereichsten Galaxien im Universum, die durch die Verschmelzung anderer Galaxien entstanden sind. Wie haben sich ihre Strukturen entwickelt und was hat ihre Form verändert?“, sagt Mowla, die 2015 als Doktorandin an der Yale University mit dem Projekt begann. „Es war schwierig, diese extrem seltenen Ereignisse mit vorhandenen Aufnahmen zu untersuchen, und das war der Grund für die Konzeption dieser großen Durchmusterung.“

Um einen so ausgedehnten Himmelsbereich abzubilden, setzten die Forscher eine neue Technik mit Hubble ein, die als Drift And SHift (DASH) bekannt ist. DASH erzeugt ein Bild, das achtmal größer ist als das Standard-Sichtfeld von Hubble, indem mehrere Aufnahmen gemacht werden, die dann zu einem Gesamtmosaik zusammengefügt werden, ähnlich wie bei der Aufnahme eines Panoramabildes mit einem Smartphone.

DASH nimmt auch schneller Bilder auf als die übliche Methode, indem es acht Bilder pro Hubble-Umlaufbahn aufnimmt, anstatt eines einzigen Bildes, wodurch in 250 Stunden erreicht wird, was vorher 2.000 Stunden gedauert hätte.

„3D-DASH fügt dem COSMOS-Feld eine neue Ebene einzigartiger Beobachtungen hinzu und ist auch ein Sprungbrett für die Weltraumdurchmusterungen des nächsten Jahrzehnts“, sagt Ivelina Momcheva, Leiterin der Datenwissenschaft am Max-Planck-Institut für Astronomie in Heidelberg und Leitende Wissenschaflerin der Studie. „Sie gibt uns einen Vorgeschmack auf zukünftige wissenschaftliche Entdeckungen und ermöglicht uns die Entwicklung neuer Techniken zur Analyse dieser großen Datensätze.“

3D-DASH deckt eine Gesamtfläche ab, die von der Erde aus gesehen fast sechsmal so groß ist wie der Mond am Himmel. Dieser Rekord wird wahrscheinlich auch vom Hubble-Nachfolger JWST nicht gebrochen werden. Dieses wurde eher für empfindliche Nahaufnahmen gebaut, um feine Details eines kleinen Gebiets zu erfassen. Es ist das größte Nahinfrarotbild des Himmels, das Astronomen zur Verfügung steht, bis die nächste Generation von Teleskopen wie das Nancy Grace Roman Space Telescope und Euclid im nächsten Jahrzehnt in Betrieb gehen. Das MPIA ist beiden Projekten beteiligt, sowohl wissenschaftlich als auch in der Entwicklung von Messinstrumenten.

Bis dahin können professionelle Astronomen und Hobby-Sterngucker den Himmel mit einer interaktiven Online-Version des 3D-DASH-Bildes erkunden, die von Gabriel Brammer, Professor am Cosmic Dawn Center des Niels-Bohr-Instituts der Universität Kopenhagen, erstellt wurde.

Weitere Informationen
Das Hubble-Weltraumteleskop ist ein Projekt der internationalen Zusammenarbeit zwischen der NASA und der Europäischen Weltraumorganisation (ESA). Das Goddard Space Flight Center der NASA verwaltet das Teleskop in Greenbelt, Maryland. Das Space Telescope Science Institute (STScI) in Baltimore, Maryland, ist für den wissenschaftlichen Betrieb von Hubble zuständig. Das STScI wird im Auftrag der NASA von der Association of Universities for Research in Astronomy in Washington, D.C. betrieben.

Medienkontakt
Dr. Markus Nielbock
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Heidelberg, Deutschland
Tel.: +49 (0)6221 528-134
E-Mail: pr@mpia.de

Wissenschaftliche Ansprechpartner:
Dr. Ivelina Momcheva
Leiterin Datenwissenschaft
Max-Planck-Institut für Astronomie
Heidelberg, Deutschland
Tel.: +49 (0)6221 528-453
E-Mail: momcheva@mpia.de

Originalpublikation:
Lamiya A. Mowla, Sam E. Cutler, Gabriel B. Brammer, Ivelina G. Momcheva, et al., „3D-DASH: The Widest Near-Infrared Hubble Space Telescope Survey“ in The Astrophysical Journal (2022)
https://arxiv.org/abs/2206.01156

Weitere Informationen:
https://www.mpia.de/aktuelles/institutsmeldungen/2022-3d-dash – Mitteilung des MPIA mit Bildern zum Download

(nach oben)


Digitalisierung in den KMU schreitet nur langsam voran

Dr. Jutta Gröschl Presse- und Öffentlichkeitsarbeit
Institut für Mittelstandsforschung (IfM) Bonn
IKT-Know how findet sich weiterhin vorrangig in den Großunternehmen

Der Anteil der kleinen und mittleren Unternehmen (KMU), die mindestens ein Prozent ihres Umsatzes mit Online-Verkäufen erwirtschaften, ist im Vergleich zu 2020 um zwei Prozentpunkte (2021: 19 %) gestiegen. Damit bieten die KMU zwar weiterhin deutlich seltener als Großunternehmen ihre Produkte und Dienstsleistungen über das Internet an, gleichwohl liegen sie damit nun leicht über dem EU-Durchschnitt. Deutlich höher ist allerdings der Anteil der KMU in Dänemark (38 %), Irland (33 %), Schweden (33 %) und Litauen (32 %), die mindestens ein Prozent ihres Umsatzes mit Online-Verkäufen erwirtschaften.

Deutlicher Rückgang bei den IKT-Weiterbildungen
Kleine und mittlere Unternehmen beschäftigen weiterhin seltener Fachkräfte der Informations- und Kommunikationstechnologie (IKT) als Großunternehmen (78 %): Lediglich in 17 % aller KMU fand sich in 2020 IKT-Personal.

Im Vergleich zu 2019 (30 %) sank im ersten Pandemiejahr der Anteil der kleinen und mittleren Unternehmen, die ihren Mitarbeiterinnen und Mitarbeitern Fortbildungen im IKT-Bereich anboten, um 8 %. Gleichwohl lag damit der Anteil immer noch über dem EU-Durchschnitt (18 %) in 2020.

Niedrige digitale Intensität bei den KMU
Abhängig von der Unternehmensgröße ist auch der Grad der digitalen Intensität: Für diese wird erfasst, wie viele von 12 festgelegten Technologien in einem Unternehmen zu finden sind. Demnach weisen die kleinen und mittleren Unternehmen in Deutschland eine leicht niedrigere digitale Intensität als der EU-Durchschnitt auf. Die Großunternehmen in Deutschland liegen hingegen im EU-Durchschnitt.

Weitere Informationen:
https://www.ifm-bonn.org/statistiken/mittelstand-im-einzelnen/digitalisierung-de…

(nach oben)


Wohl dem, der Wärme liebt – Insekten im Klimawandel

Dr. Katharina Baumeister Corporate Communications Center
Technische Universität München
Wie sich der fortschreitende Klimawandel auf die Bestände heimischer Tierarten auswirkt, ist aufgrund lückenhafter Datensätze oft schwer zu verfolgen. In einer neuen Studie der Technischen Universität München (TUM) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) wurde nun das umfangreiche Datenbanksystem der Artenschutzkartierung (ASK) des Bayerischen Landesamts für Umwelt (LfU) zum Vorkommen von Schmetterlingen, Libellen und Heuschrecken in Bayern seit 1980 ausgewertet. Das Ergebnis: Wärmeliebende Arten zeigen positive Trends.

Der Klimawandel hat in Mitteleuropa längst Einzug gehalten. Dass er auch die Populationen und Verbreitungsgebiete von Tieren und Pflanzen beeinflusst, ist schon lange kein Geheimnis mehr. Wie sich die Bestände unserer heimischen Tierarten über Jahre und Jahrzehnte verändern, ist eine Fragestellung, mit der sich das BioChange Lab der TUM beschäftigt. „Dazu kommt, dass nicht nur das Klima sich wandelt, sondern auch die Art und Intensität der Landnutzung. Hierzu zählen Landwirtschaft, Forstwirtschaft, Besiedlung und Verkehr“, sagt Dr. Christian Hof, Leiter der Forschungsgruppe BioChange an der TUM.

Mögen Veränderungen in der Tier- und Pflanzenwelt in bestimmten Gebieten oder für einzelne Arten gut dokumentiert sein, so ist die flächendeckende Datenlage über viele Arten und vor allem über längere Zeiträume hinweg nur lückenhaft. Dies erschwert generelle Rückschlüsse darüber, wie sich Populationen heimischer Arten entwickeln und welche treibenden Faktoren für die Veränderung der biologischen Vielfalt eine Rolle spielen. Gerade Erkenntnisse zur Entwicklung des Artenbestandes über einen möglichst ausgedehnten Zeitraum in Zusammenhang mit Faktoren wie Landnutzung und Klima lassen valide Schlussfolgerungen zum Arten-, Biotop- und Klimaschutz zu.

Auswertung bestehender Datenschätze
Zahlreiche ehrenamtlich und hauptberuflich arbeitende Naturbeobachterinnen und -beobachter sind im unermüdlichen Einsatz. So existieren glücklicherweise Datenbestände zum Vorkommen verschiedener Arten. Hierzu gehört das Datenbanksystem der Artenschutzkartierung (ASK) am Bayerischen Landesamt für Umwelt. Die Artenschutzkartierung ist mit derzeit rund 3,1 Mio. Artnachweisen das landesweite Artenkataster für Tier- und Pflanzenarten in Bayern. Sie bildet eine zentrale Datengrundlage für die tägliche Arbeit der Naturschutzbehörden oder auch für die Erstellung Roter Listen gefährdeter Arten durch das LfU.

Anhand komplexer statistischer Verfahren gelang es Forscherinnen und Forschern des Lehrstuhls für Terrestrische Ökologie der TUM, diewertvollen Daten der ASK auszuwerten und die Bestandstrends von über 200 Insektenarten – rund 120 Schmetterlinge, 50 Heuschrecken und 60 Libellen – in Bayern zu analysieren. In Zusammenarbeit mit zahlreichen weiteren Expertinnen und Experten konnten sie in ihrer Studie zeigen, dass in allen untersuchten Insektengruppen wärmeliebende Arten in ihrem Bestand zunahmen, während das Vorkommen von Arten, die an kühlere Temperaturen angepasst sind, zurückging.

Arten wie die wärmeliebende Feuerlibelle profitieren vom Klimawandel
Die Unterteilung in Wärme und Kälte bevorzugende Insekten erfolgte aufgrund einer Berechnung anhand empirischer Daten. „Wir haben die Temperaturvorlieben der einzelnen Arten nach ihrem Verbreitungsgebiet innerhalb Europas ermittelt. Dazu verwendeten wir die mittlere darin vorherrschende Temperatur. Das heißt, Arten, die ein eher nördliches Verbreitungsgebiet haben, sind kälteangepasste Arten, und Arten, die eher ein südeuropäisches Verbreitungsgebiet haben, sind wärmeangepasste Arten“, sagt Eva Katharina Engelhardt, Doktorandin am TUM BioChange Lab.

Wärmeangepasst sind beispielsweise der Graublaue Bläuling (Schmetterling), das Weinhähnchen (Heuschrecke) und die Feuerlibelle. „Die Feuerlibelle ist einer der bekanntesten Profiteure der Klimaerwärmung. Die ursprünglich im mediterranen Raum verbreitete Großlibelle trat Anfang der 90er Jahre zum ersten Mal in Bayern auf und ist inzwischen großflächig verbreitet“, sagt Hof zu dem Ergebnis.

Zu den kälteangepassten Arten gehören der Alpen-Perlmutterfalter, die Alpine Gebirgsschrecke oder die Kleine Moosjungfer.

Bestände von Faltern, Heuschrecken und Libellen vom Klimawandel beeinflusst
„Unsere Vergleiche der verschiedenen Insektengruppen zeigten deutliche Unterschiede“, sagt Engelhardt. „Während bei Schmetterlingen und Heuschrecken mehr Bestandsabnahmen als -zunahmen zu verzeichnen waren, zeigten die Libellen überwiegend positive Trends.“ Ein möglicher Grund hierfür ist die Verbesserung der Gewässerqualität während der letzten Jahrzehnte, was insbesondere den auf Wasser-Lebensräume angewiesenen Libellen zu Gute kommt. Lebensraumspezialisten, also Arten, die an ganz bestimmte Ökosysteme angepasst sind, verzeichneten einen Rückgang der Population. Schmetterlinge, wie das Große Wiesenvögelchen oder der Hochmoor-Bläuling sind hierfür Beispiele, denn sie sind auf ihren ganz speziellen Lebensraum angewiesen.

„Unsere Studie belegt, dass die Auswirkungen des Klimawandels eindeutige Spuren auch in unserer heimischen Insektenfauna hinterlassen. Unsere Arbeit ist ein Beispiel dafür, wie man mit modernen wissenschaftlichen Verfahren spannende Ergebnisse aus vorhandenen Datensätzen gewinnen kann. Diese sind im ehrenamtlichen und behördlichen Naturschutz zwar oft vorhanden, aber kaum systematisch ausgewertet. Dies sollte, in Form von Kooperationen wie unserer, viel öfter passieren“, meint Dr. Diana Bowler vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv).

Johannes Voith, Entomologe am Bayerischen Artenschutzzentrum im LfU, fügt hinzu: „Im Rahmen der Kooperation insbesondere mit der TUM profitieren wir nicht nur von dem reinen Erkenntnisgewinn. So ist beispielsweise geplant, dynamische Verbreitungskarten zu einzelnen Arten zu erstellen.“

Mehr Informationen:
Die Studie ist Teil der Arbeit der Juniorforschungsgruppe „mintbio“ am BioChange Lab der TUM, welche vom Bayerischen Klimaforschungsnetzwerk bayklif gefördert wird. Für die Untersuchungen arbeiteten Doktorandin Eva Katharina Engelhardt und Dr. Christian Hof intensiv mit Diana Bowler vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig, der Friedrich-Schiller Universität Jena, des Helmholtz-Zentrums für Umweltforschung (UFZ), mit dem Bayerischen Landesamt für Umwelt sowie verschiedenen weiteren Wissenschaftlern und Wissenschaftlerinnen sowie Expertinnen und Experten für die untersuchten Insektengruppen zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Christian Hof
Junior Research Group Leader
www.toek.wzw.tum.de/index.php?id=271
Technische Universität München
Lehrstuhl für Terrestrische Ökologie
School of Life Sciences Weihenstephan
Tel.: +49 (0) 8161 71-2489
christian.hof@tum.de
www.professoren.tum.de/en/tum-junior-fellows/h/hof-christian/
https://www.biochange.de/dr-christian-hof/

Eva Katharina Engelhardt
Technische Universität München
Hans-Carl-von-Carlowitz-Platz 2
85354 Freising
Tel.: +49.8761.3019847
e.k.engelhardt@tum.de
https://www.biochange.de/e_k_engelhardt/
https://www3.ls.tum.de/toek/team/engelhardt-eva-katharina/

www.biochange.de
www.bayklif.de/juniorgruppen/mintbio/

Originalpublikation:
Eva Katharina Engelhardt, Matthias F. Biber, Matthias Dolek, Thomas Fartmann, Axel Hochkirch, Jan Leidinger, Franz Löffler, Stefan Pinkert, Dominik Poniatowski, Johannes Voith, Michael Winterholler, Dirk Zeuss, Diana E. Bowler, Christian Hof (2022): Consistent signals of a warming climate in occupancy changes of three insect taxa over 40 years in central Europe. In: Global Change Biology, URL: https://onlinelibrary.wiley.com/doi/10.1111/gcb.16200

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37448 (Pressemitteilung)
https://mediatum.ub.tum.de/1660497 (Bilder)

(nach oben)


Mit fortschreitender Erholung des Arbeitsmarkts arbeiten Beschäftigte wieder mehr Stunden

Sophia Koenen, Jana Bart, Inna Felde und Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das Arbeitsvolumen stieg im ersten Quartal 2022 aufgrund der Lockerungen der coronabedingten Einschränkungen gegenüber dem entsprechenden Vorjahresquartal 2021 um 3,3 Prozent auf 15,4 Milliarden Stunden. Dies geht aus der am Dienstag veröffentlichten Arbeitszeitrechnung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Die Zahl der Erwerbstätigen verzeichnete im ersten Quartal 2022 einen Anstieg von 690.000 Personen gegenüber dem Vorjahresquartal 2021 und übertraf mit 45,1 Millionen Personen erstmals wieder das Niveau vor Ausbruch der Covid-19-Pandemie im ersten Quartal 2020. Pro erwerbstätiger Person betrug die Arbeitszeit im ersten Quartal 2022 durchschnittlich 341,3 Stunden – das ist ein Anstieg von 1,7 Prozent im Vergleich zum entsprechenden Vorjahresquartal.

Nach ersten Hochrechnungen ging die Kurzarbeit im ersten Quartal 2022 gegenüber dem Vorjahresquartal um 2,4 Millionen Personen auf 1,1 Millionen Personen deutlich zurück. Während die coronabedingten Einschränkungen gelockert wurden, führten die verschärften Engpässe bei Rohstoffen und Vorleistungsgütern im Produzierenden Gewerbe infolge des russischen Kriegs gegen die Ukraine zu einem Anstieg der Kurzarbeit im Vergleich zum Vorquartal. „Der sinkende Trend bei der konjunkturellen Kurzarbeit würde sich aller Voraussicht nach umkehren, falls es kurzfristig zu einem Gas-Lieferstopp oder zu weiteren geopolitischen Verwerfungen kommt“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.

Der Krankenstand erreichte im ersten Quartal 2022 mit 6,4 Prozent einen historischen Höchststand und lag damit deutlich über dem Wert im Vorjahresquartal in Höhe von 4,4 Prozent. „Wegen der Kurzarbeit und des hohen Krankenstands infolge der Omikron-Welle lag das Arbeitsvolumen noch unter Vorkrisenniveau. Diese coronabedingten Effekte gehen aber derzeit weiter zurück“, so Weber. Im ersten Quartal hätten die Wirkungen der Covid-19-Pandemie das Arbeitsvolumen saison- und kalenderbereinigt jedoch noch um 1,0 Prozent gedämpft.

4,15 Millionen Beschäftigte gingen im ersten Quartal 2022 einer Nebentätigkeit nach. Das entspricht 6,8 Prozent mehr als noch im ersten Quartal 2021. „Ebenso wie bei geringfügigen Formen der Beschäftigung sind Nebenjobs häufig kurzfristig angelegt. Viele dieser Jobs sind während der Pandemie weggefallen und werden nun im Zuge der Lockerungen wieder nachgefragt“, erklärt IAB-Forscherin Susanne Wanger.

Weitere Informationen:
https://doku.iab.de/arbeitsmarktdaten/tab-az2021.xlsx
https://doku.iab.de/arbeitsmarktdaten/AZ_Komponenten.xlsx
https://doku.iab.de/aktuell/2014/aktueller_bericht_1407.pdf

(nach oben)


Polarstern II: Der Startschuss für den Neubau ist gefallen

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Bundestag macht den Weg frei für den Bau des neuen AWI-Forschungseisbrechers. Nächster Schritt ist ein Teilnahmewettbewerb, in dem sich Werften um den Auftrag bewerben können

Seit 40 Jahren fährt das Forschungsschiff Polarstern in die Arktis und Antarktis und gibt Menschen aus aller Welt die Chance, in den extremsten Regionen des Planeten sicher und effektiv zu forschen. Es hat wesentlich dazu beigetragen, dass die Bundesrepublik Deutschland rasch nach dem Beitritt zum Antarktisvertrag als Konsultativmitglied eine führende Rolle in der Polar- und Meeresforschung erreicht hat. Damit diese auch in Zukunft auf höchstem wissenschaftlichem und technischem Niveau möglich ist, hat das Bundesministerium für Bildung und Forschung (BMBF) das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in die Lage versetzt, den Bau eines modernen, leistungsfähigen und nachhaltigen Nachfolgeschiffs auszuschreiben und zu koordinieren. Mit dem Beschluss des Bundeshaushalts 2022 durch den Deutschen Bundestag am 3. Juni 2022 kann nun das Vergabeverfahren starten. Das AWI plant, die europaweite Ausschreibung für den Neubau umgehend zu veröffentlichen, sodass der Teilnahmewettbewerb als erster Schritt des Vergabeverfahrens zeitnah starten kann. Die Inbetriebnahme des neuen Schiffs ist für 2027 geplant. Für einen möglichst lückenlosen Übergang soll die notwendige Klassifikation – der so genannte Schiffs-TÜV – der Polarstern bis Ende 2027 verlängert werden.

Als Forschungs- und Versorgungsschiff der Neumayer-Station III in der Antarktis ist die Polarstern eine zentrale Säule der deutschen Polarforschung. Seit seiner Indienststellung am 09. Dezember 1982 hat das Forschungsflaggschiff der Bundesrepublik Deutschland mehr als 1,8 Millionen Seemeilen zurückgelegt – und damit rechnerisch mehr als 82-mal die Erde am Äquator umrundet. Seit 1981 gehört die Bundesrepublik Deutschland dem Antarktisvertrag als Konsultativstaat an. Das hohe Ansehen der deutschen Polarforschung und ihrer international herausragenden Forschungsplattform trägt wesentlich dazu bei, dass Deutschlands Engagement für Umwelt- und Klimaschutz in den Polarregionen unter den Vertragsstaaten Gewicht hat. Dank einer Generalüberholung von 1999 bis 2001 zählt die Polarstern auch nach 40-jähriger Dienstzeit noch immer zu den leistungsfähigsten Forschungsschiffen der Welt. Zuletzt hat sie bei extremen Wetter- und Eisbedingungen die einjährige Drift-Expedition MOSAiC am Nordpol absolviert.

Damit das AWI und die internationale Wissenschaftsgemeinde auch in den kommenden und für die Zukunft des Planeten entscheidenden Jahrzehnten Polar- und Meeresforschung auf höchstem Niveau betreiben können, hat das BMBF zugestimmt, dass das AWI das Vergabeverfahren für den Bau des multifunktionalen eisbrechenden Polarforschungs- und Versorgungsschiffs Polarstern II durchführt. Das AWI wird zudem die Bauaufsicht führen sowie die Inbetriebnahme der Polarstern II nach erfolgter Erprobung koordinieren. Danach soll der neue Forschungseisbrecher die derzeitige Polarstern vollständig ersetzen.

Dazu erklärt Bundesforschungsministerin Bettina Stark-Watzinger:
„Ich freue mich sehr, dass der Weg für den Bau der neuen Polarstern II nun frei ist. Damit kann die deutsche Meeres- und Polarforschung nahtlos an die Erfolge der Polarstern anknüpfen, wie die MOSAiC-Expedition in die Arktis. Die Polarregionen sind ein Frühwarnsystem für die Folgen des Klimawandels. Sie erlauben uns einen tiefen Blick hinein in die Zukunft unseres Klimas und Wetters. Es ist deshalb existenziell wichtig, dass wir die Vorgänge an den Polen noch besser verstehen. Denn gute Klimaforschung ist die Grundlage für besseren Klimaschutz. Die Polarstern II wird als leistungsfähiges und nachhaltiges Forschungsschiff einen wichtigen Beitrag dazu leisten.“

„Das Ziel des Neubauprojekts ist ganz klar: Wir wollen ein Forschungsschiff bauen, das wie sein Vorgänger der internationalen Wissenschaft eine Basis bietet und die Möglichkeit eröffnet, in den extremsten Umfeldern der Welt den Puls unseres Planeten zu fühlen“, sagt AWI-Direktorin Prof. Dr. Antje Boetius. „Das neue Schiff ist dabei auch ein wichtiger internationaler Beitrag Deutschlands zur UN-Dekade der Ozeanforschung für nachhaltige Entwicklung, um die globalen Nachhaltigkeitsziele der UN-Agenda 2030 zu erreichen. Außerdem soll die neue Polarstern dank modernster Ausstattung und klimafreundlicher Technik zu einer Botschafterin für Nachhaltigkeit in der Schifffahrt werden.“

Koordiniert wird der Bau des neuen Forschungs- und Versorgungsschiffes von einem neu gebildeten AWI-Projektteam unter Leitung des Luft- und Raumfahrtingenieurs Detlef Wilde. „Die einzigartige Polarstern hat in 40 Jahren hohe Maßstäbe gesetzt“, sagt Detlef Wilde. „Wir wollen diese Messlatte überspringen und der Wissenschaft mit der Polarstern II ein modernes, leistungsfähiges und nachhaltiges Schiff und damit eine mehr als würdige Nachfolgerin liefern.“ Der erste Schritt des Vergabeverfahrens sei nun der demnächst beginnende Teilnahmewettbewerb, erläutert Detlef Wilde. Dabei ist eine europaweite Ausschreibung vergaberechtlich vorgeschrieben. „Die geeigneten Bewerber werden wir nach erfolgreichem Abschluss des Teilnahmewettbewerbes zur Abgabe von Angeboten auffordern.“

Die Polarstern II wird Wissenschaftlerinnen und Wissenschaftlern aus der ganzen Welt die Möglichkeit geben, insbesondere aus den Polarregionen entscheidende Erkenntnisse zu dem tiefgreifenden Klimawandel zu gewinnen, in dem unser Planet steckt. Ziel ist es, Lösungen zu finden, um das ökologische Gleichgewicht der Polargebiete und Meere für künftige Generationen zu erhalten. In das Anforderungsprofil sind die Erfahrungen aus 40 Jahren Polarstern-Betrieb eingeflossen.

Die Polarstern II wird unter sich verändernden Eis- und Witterungsbedingungen einsetzbar sein, damit das AWI langfristig seinen Forschungsauftrag erfüllen kann, vor allem in den kalten und gemäßigten Regionen der Welt die komplexen Prozesse im System Erde zu entschlüsseln. So wird das Forschungsschiff, das wie sein Vorgänger weiterhin die Bundesdienstflagge führen wird, eine höhere Eisbrechleistung besitzen, damit es auch in die wenigen Gebiete vordringen kann, in denen das Eis für die heutige Polarstern zu dick ist, etwa das südliche Weddellmeer in der Antarktis. Die neue Polarstern soll eine Lebensdauer von mindestens 30 Jahren haben und auch im Eis überwintern können. Sie muss modernstes Großgerät für tiefe Sedimentbohrungen beherbergen können und wird über einen sogenannten „Moonpool“ verfügen, eine geschützte Rumpföffnung im Schiff, damit komplexe Tauchroboter auch unter dem Eis tauchen können.

„Wir brauchen ein leistungsfähiges Schiff, das unter allen Eisbedingungen in Arktis und Antarktis einsetzbar ist und Wissenschaftlerinnen und Wissenschaftlern die Möglichkeit gibt, Beobachtungen und Daten aus den am stärksten vom Klimawandel betroffenen Regionen zu liefern“, so Antje Boetius. „Dies sind Erkenntnisse, die unsere Gesellschaft dringend benötigt, um die richtigen Entscheidungen zu Klima-, Umwelt- und Naturschutz zu treffen – für die Zukunft der Polarregionen, der Lebensvielfalt an Land und im Meer und für kommende Generationen.“

Nicht zuletzt soll die Polarstern II für Innovation und Nachhaltigkeit in der Forschung stehen und muss dazu höchste Energieeffizienz- und Umweltstandards erfüllen – etwa durch eine deutliche Reduzierung der Stickstoffoxid-(NOx)- und Partikelemissionen durch den Einsatz von Abgasnachbehandlungsanlagen und Partikelfiltern. Dabei muss gewährleistet sein, dass die Polarstern II auch in extremen Regionen fernab jeder Versorgung sicher, effizient und verlässlich betrieben werden kann.

„Nach Abschluss des Ausschreibungsverfahrens und erfolgter Zuschlagserteilung sollte die Arbeit auf der ausgewählten Werft 2023 beginnen“, sagt Detlef Wilde. „Nach eingehenden Testfahrten auch im Eis ist die Inbetriebnahme des neuen Schiffs für 2027 geplant.“

Informationen zur Ausschreibung:
Über den Start des Vergabeverfahrens für den Neubau der Polarstern II wird das AWI auf seiner Website www.awi.de informieren. Mit Bekanntgabe im Supplement zum Amtsblatt der Europäischen Union wird die Ausschreibung auf dem elektronischen Vergabeinformationssystem subreport ELViS öffentlich zugänglich sein.

Informationen für Redaktionen
Druckbare Fotos finden Sie in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html

Ansprechpersonen:
Sebastian Grote, Abteilung Kommunikation und Medien des Alfred-Wegener-Instituts: Tel.: 0471 4831-2006, E-Mail: sebastian.grote@awi.de

Lavinia Meier-Ewert, Referentin für Öffentlichkeitsarbeit Polarstern II: Tel.: 0471 4831-1406, E-Mail: lavinia.meier-ewert@awi.de

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Weitere Informationen:
https://www.awi.de/ueber-uns/service/presse.html
https://www.awi.de/expedition/schiffe/polarstern-ii.html

(nach oben)


Effektive Auffrischung der Antikörperantwort gegen Omikron und andere Virusvarianten nach 3. und 4. COVID-19-Impfung

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Forschende des Paul-Ehrlich-Instituts (PEI) und der Main-Kinzig-Kliniken haben die Antikörperantwort nach COVID-19-mRNA (Comirnaty)-Impfungen gegenüber verschiedenen SARS-CoV-2-Virusvarianten im zeitlichen Verlauf untersucht. Nach zweifacher Impfung gegen COVID-19 sind die Antikörperspiegel gegenüber der derzeit in Deutschland dominierenden Omikron-Variante gering. mRNA-Auffrischimpfungen erhöhen die Antikörperspiegel gegen Omikron deutlich. Über die Ergebnisse berichtet Vaccines.

Die nach COVID-19-Impfung im zeitlichen Verlauf nachlassende Immunantwort gegen SARS-CoV-2 sowie das Auftreten von SARS-CoV-2-Varianten führen zu reduziertem Infektionsschutz und Unsicherheiten in der Vorhersage des Schutzes vor schweren Krankheitsverläufen insbesondere nach Infektion mit der Omikron-Variante des SARS-CoV-2.

Ein Forschungsteam der Abteilung Virologie und der Abteilung Sicherheit von Arzneimitteln und Medizinprodukten des Paul-Ehrlich-Instituts sowie der Main-Kinzig-Kliniken unter Leitung von Prof. Eberhard Hildt, Leiter der Abteilung Virologie des Paul-Ehrlich-Instituts, untersuchten die Antikörperantwort nach COVID-19-Impfungen. Dabei ermittelten sie den Anstieg der Blutspiegel (Titer) der Antikörper nach Auffrischimpfung(en) und die Abnahme der Titer gegenüber SARS-CoV-2-Varianten mit der Zeit nach Impfung. Zusätzlich zum Nachweis bindender und neutralisierender Titer wurde auch die Veränderung der Affinität – also die Stabilität – der Antikörperbindung an das Spikeprotein verschiedener Virusvarianten im Zeitverlauf untersucht.

Zwei Impfungen mit dem mRNA-Impfstoff Comirnaty führten nicht zur adäquaten Bildung neutralisierender Antikörper gegen die aktuell dominierende Omikron-Variante. Eine erste Auffrischungsimpfung (Booster) erhöhte dagegen die Spiegel von IgG- und IgA-Antikörpern, die gegen die Rezeptorbindungsdomäne der Virusvariante Omikron gerichtet sind, sowie deren Virus-neutralisierende Kapazität. Zwar waren fünf bis sechs Monate nach der dritten Impfung weiter Omikron-Spikeprotein-bindende Antikörper nachweisbar, aber in 36 Prozent der untersuchten Seren wurden keine Omikron-neutralisierenden Antikörper mehr detektiert. Dagegen konnten alle Seren die Delta-Variante, die im vergangenen Jahr in Deutschland weit verbreitet war, effizient neutralisieren.

Eine zweite Auffrischimpfung mit dem mRNA-Impfstoff Comirnaty – was der vierten COVID-19-Impfung entspricht – sorgte erneut für einen deutlich Anstieg Omikron-, Delta- und Wuhan-neutralisierender Antikörper.

Beim Vergleich der verschiedenen Impfstrategien bei der Grundimmunisierung (homologe Impfung mit ausschließlich Comirnaty oder Kombination Vaxzevria (AstraZeneca) und Comirnaty) zeigte sich kein Unterschied im Hinblick auf die Breite der Immunantwort nach Booster-Impfung.

Originalpublikation:
Hein S, Mhedhbi I, Zahn T, Sabino C, Benz NI, Husria Y, Renelt PM, Braun F, Oberle D, Maier TJ, Hildt C, Hildt E (2022): Quantitative and Qualitative Difference in Antibody Response against Omicron and Ancestral SARS‐CoV‐2 after Third
and Fourth Vaccination. Vaccines 2022, 10(5), 796
DOI:https://doi.org/10.3390/vaccines10050796

Weitere Informationen:
https://www.mdpi.com/2076-393X/10/5/796/htm – Volltext der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2022/12-antikoerperantwort-omikron-nach-d… Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

Anhang
ZItat Prof. Eberhard Hildt, Leiter Abteilung VIrologie des Paul-Ehrlich-Institut, zur Bedeutung der Boosterimpfung gegen COVID-19

(nach oben)


Neues Tool für Notfallplanung bei Extrem-Hochwassern

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Das Mobiliar Lab für Naturrisiken der Universität Bern zeigt, dass in der Schweiz weit grössere Hochwasser möglich sind als bisher angenommen. Diese Extremereignisse unterstreichen die Bedeutung einer überregionalen Notfallplanung. Ein neues Modellierungs-Tool soll bei der Bewältigung grosser Überschwemmungen helfen.

Auch Expertinnen und Experten konnten sich das Ausmass dieser Hochwasser nicht vorstellen: Mit den verheerenden Unwettern vom Sommer 2021 in Deutschland hatte schlicht niemand gerechnet. Dies zeigt, dass Hochwasser möglich sind, die den bisherigen Erfahrungsbereich massiv überschreiten – auch in der Schweiz. «Wir müssen das Undenkbare denken: extreme, noch nie so aufgetretene Niederschlagsszenarien sind möglich», sagt Olivia Romppainen, Professorin für Klimafolgenforschung und Co-Leiterin des Mobiliar Labs.

Nun hat das Mobiliar Lab Auswirkungen von extremen Hochwasserszenarien in der Schweiz mit Hilfe eines neuen Modellierungstools ermittelt. Die Berechnungen zeigen, dass es bei einem extremen Niederschlagszenario innert kürzester Zeit in sehr vielen Flüssen zu Überschwemmungen kommt. An unterschiedlichen Orten treten die Schäden praktisch gleichzeitig auf und schnellen sprunghaft in die Höhe. Die extremen Hochwasser hätten in einem solchen Worst-Case-Szenario Gebäudeschäden von knapp 6 Milliarden Franken zur Folge, was die gesamten ökonomischen Schäden von 3 Milliarden Franken des Jahrhunderthochwassers in der Schweiz von 2005 bei weitem übertrifft. Kommt dazu: Treten extreme Überschwemmungen simultan auf, werden die Rettungsorganisationen vor massive Herausforderungen gestellt. Es kann zu grossen logistischen und personellen Problemen kommen.

Neue Sicht auf die Dynamik von Naturgefahren
«Wir sind für unsere Berechnungen von Niederschlagsszenarien ausgegangen, die extrem, aber physikalisch plausibel sind», sagt Andreas Zischg, Professor für die Modellierung von Mensch-Umwelt-Systemen und Co-Leiter des Mobiliar Labs. «Sie haben sich zwar noch nie ereignet, könnten aber auftreten. Dann hätten wir es mit einem hydrologischen Erdbeben zu tun, also einem Ereignis mit grosser räumlicher Betroffenheit.» Dabei liegt der Fokus des Hochwasser-Tools nicht, wie bei der Betrachtung von Naturgefahren bisher üblich, auf Auswirkungen in einzelnen Gemeinden. Betrachtet werden erstmals die kombinierten Folgen für mehrere Flusseinzugsgebiete in weiten Teilen der Schweiz.

Wie die Untersuchung von neun extremen gesamtschweizerischen Niederschlags- und Hochwasserszenarien zeigen, liefert das Werkzeug Forschungsresultate von grosser gesellschaftlicher Relevanz. So zeigen die Simulationen des Mobiliar Labs etwa erstmals, welche indirekten Auswirkungen Überschwemmungen haben: Durch extreme Hochwasser werden unter anderem Verkehrsverbindungen unterbrochen. Im Worst Case-Szenario führt das zu Umleitungen in der Länge von 3’000 Kilometern – mit entsprechenden Folgen für Personen, die pendeln, und Lieferketten. Zu den erweiterten Präventionsmassnahmen im Hochwasserfall gehört deshalb die Planung möglicher Ausweichrouten bei Überschwemmungen.

«Treten grosse Schäden an vielen Orten gleichzeitig auf, führt dies innert Kürze zu einer komplexen und schwierig zu bewältigenden Situation», erklärt Andreas Zischg. Deshalb brauche es unbedingt eine koordinierte überregionale Notfallplanung, um auch auf Hochwasser von bisher undenkbaren Dimensionen vorbereitet zu sein. Das Tool soll nun als Übungstool für den Bevölkerungsschutz und für Blaulichtorganisationen dazu beitragen, die Notfallplanung zu verbessern und Schäden im Katastrophenfall zu mindern.

Das Mobiliar Lab für Naturrisiken an der Universität Bern
Das Mobiliar Lab für Naturrisiken ist eine gemeinsame Forschungsinitiative des Oeschger-Zentrums für Klimaforschung der Universität Bern und der Mobiliar. Untersucht werden in erster Linie die an Hagel, Hochwasser und Sturm beteiligten Prozesse und die Schäden, die daraus entstehen. Das Mobiliar Lab arbeitet an der Schnittstelle von Wissenschaft und Praxis und strebt Resultate mit hohem Nutzen für die Allgemeinheit an. Die Unterstützung durch die Mobiliar ist Teil des Gesellschaftsengagements der Mobiliar Genossenschaft.

Wissenschaftliche Ansprechpartner:
PROF. DR. ANDREAS ZISCHG
Mobiliar Lab für Naturrisiken, Universität Bern
Telefon: +41 31 684 88 39
E-Mail-Adresse: andreas.zischg@giub.unibe.ch

Originalpublikation:
https://hochwasserdynamik.hochwasserrisiko.ch/de/scenarios

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Vitamin D-Anreicherung von Lebensmitteln – Potenziale auch für die Krebsprävention

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Die systematische Anreicherung von Lebensmitteln mit Vitamin D könnte mehr als hunderttausend krebsbedingte Todesfälle pro Jahr in Europa verhindern. Das ermittelten Wissenschaftlerinnen und Wissenschaftler vom Deutschen Krebsforschungszentrum (DKFZ) mithilfe statistischer Modellrechnungen.

Vitamin D-Mangel wird nicht nur mit Knochen- und Muskelerkrankungen, sondern auch mit einer erhöhten Infektanfälligkeit und zahlreichen anderen Erkrankungen in Zusammenhang gebracht. Meta-Analysen großer randomisierter Studien haben gezeigt, dass die Einnahme von Vitamin D-Präparaten die Sterberaten an Krebs um circa 13 Prozent senkt. Die Anreicherung von Lebensmitteln mit Vitamin D kann die Vitamin D-Spiegel in ähnlicher Weise erhöhen wie die Einnahme von Vitamin D-Präparaten. Einige Länder wie die USA, Kanada und Finnland reichern Lebensmittel bereits seit längerem mit einer Extraportion Vitamin D an. Die meisten anderen Nationen tun das allerdings bislang nicht.

Epidemiologen am Deutschen Krebsforschungszentrum (DKFZ) unter Leitung von Hermann Brenner untersuchten nun den möglichen Einfluss einer gezielten Anreicherung von Lebensmitteln mit Vitamin D auf die Krebssterblichkeit in Europa. Brenners Team sammelte dazu zunächst Informationen über die Richtlinien zur Nahrungsmittelergänzung von Vitamin D aus 34 europäischen Ländern. Zudem ermittelten die Wissenschaftler aus Datenbanken die Anzahl krebsbedingter Todesfälle und die Lebenserwartung in den einzelnen Ländern. Diese Informationen verknüpften sie mit den Ergebnissen der Studien zum Einfluss der Vitamin D-Gabe auf die Krebssterberaten. Mit statistischen Methoden schätzten sie daraus die Anzahl der krebsbedingten Todesfälle, die in den Ländern mit Lebensmittelanreicherung bereits verhindert werden. Außerdem errechneten sie die Zahl der Todesfälle, die zusätzlich vermieden werden könnten, wenn alle europäischen Länder die Anreicherung von Vitamin D in Lebensmitteln einführen würden.

Die Forscher kamen zu dem Ergebnis, dass die Vitamin D-Anreicherung aktuell etwa 27.000 Krebstodesfälle in allen betrachteten europäischen Ländern pro Jahr verhindert. „Würden alle von uns betrachteten Länder Lebensmittel mit angemessenen Mengen Vitamin D anreichern, könnten nach unseren Modellrechnungen ca. 130.000 bzw. etwa neun Prozent aller Krebstodesfälle in Europa verhindert werden. Das entspricht einem Gewinn von fast 1,2 Millionen Lebensjahren“, so Brenner.

Die regelmäßige Gabe von Vitamin D bei Kindern ist zwischenzeitlich weltweit gängige Praxis. Sie hat die früher verbreitete Rachitis, die bekannteste Vitamin D-Mangelerkrankung, weitestgehend verschwinden lassen. Aber noch immer hat ein großer Teil der Bevölkerung, insbesondere der älteren Menschen, niedrige Vitamin D-Spiegel, die mit einem erhöhten Risiko zahlreicher anderer Erkrankungen in Verbindung stehen. „Die aktuellen Daten zur Senkung der Krebssterblichkeit zeigen das immense Potenzial, das eine Verbesserung der Vitamin D-Versorgung auch, aber nicht nur für die Krebsprävention, haben könnte“, erläutert Brenner. „Das sollten wir künftig besser nutzen.“

Neben der Zufuhr von Vitamin D über die Nahrung kann eine ausreichende Versorgung auch durch Sonnenbestrahlung sichergestellt werden: Der Krebsinformationsdienst des DKFZ empfiehlt, sich bei Sonnenschein im Freien zwei- bis dreimal pro Woche für etwa zwölf Minuten aufzuhalten. Gesicht, Hände und Teile von Armen und Beinen sollten für diese Zeitspanne unbedeckt und ohne Sonnenschutz sein.

Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, Jeroen Lakerveld, Wolfgang Ahrens, Hermann Brenner. Vitamin D food fortification in European countries: The underused potential to prevent cancer deaths.
European Journal of Epidemiology 2022, DOI: 10.1007/s10654-022-00867-4

(nach oben)


Wachgerüttelt – DGSM-Aktionstag am 21. Juni sensibilisiert für die Wichtigkeit von erholsamem Schlaf

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Das Motto des DGSM-Aktionstages Erholsamer Schlaf am 21. Juni 2022 lautet „Smarter schlafen“. Angesichts der weiten Verbreitung von Schlafstörungen möchte die DGSM Interessierte und Betroffene informieren, um die frühzeitige Erkennung von Schlafstörungen zu fördern.

Bei der Ein- und Durchschlafstörung (Insomnie) handelt es sich um eine der häufigsten Erkrankungen in unserem Gesundheitssystem. Studien zeigen, dass bis zu 10 % der Bevölkerung an einer behandlungsbedürftigen Insomnie leiden. Nach internationalen Studien leiden mehr als 70 % der Betroffenen länger als ein Jahr und fast 50 % länger als drei Jahre an dieser Erkrankung. Das sind mindestens 5 Millionen Bundesbürger. Viele Menschen erhoffen sich Hilfe auf dem breiten Markt für technische Schlafhilfen. Bei der Crowdfunding Plattform Kickstarter sind über 1400 Projekte mit dem Thema „Sleep“ gelistet. Das Marktforschungsinstitut Global Market Insights schätzt die weltweiten Ausgaben dafür auf bis zu 27 Milliarden in fünf Jahren. Schlafmediziner sprechen ihnen maximal eine unterstützende Funktion zu, warnen jedoch zugleich vor mehr Risiken als Nutzen. Was können sie also, die zahlreichen Sleep-Gadgets auf dem Markt? Das ist eines der Schwerpunktthemen des DGSM-Aktionstages Erholsamer Schlaf am 21. Juni 2022 – ein jährliches Datum zum Wachrütteln.

Die Gesellschaft bietet ganzjährig Informationen und Hilfestellung zum Thema Schlafstörungen und Schlaferkrankungen, nutzt aber jedes Jahr gezielt den 21. Juni, um die Botschaft, wie wichtig erholsamer Schlaf für die Gesundheit des Menschen ist, zusätzlich thematisch zu fokussieren. Jeweils am Vortag des Aktionstages lädt die DGSM zu einer Pressekonferenz mit Schlafexperten ein. Bitte merken Sie sich gern bereits dafür den 20.6. 2022 um 10.30 Uhr vor. Die Pressekonferenz findet digital statt. Bitte melden Sie sich dazu einfach bei Romy Held (romy.held@conventus.de) an und Sie erhalten die Zugangsdaten.

Weitere Schwerpunktthemen 2022 sind:
• Schlafstörungen in Krisenzeiten (Pandemie, Krieg in der Ukraine)
• Digitalisierung und Telemedizin
• Schlafmedizin in der hausärztlichen Praxis – ein Thema?!

Erste Informationen zu den Schwerpunktthemen bieten Ihnen die Videostatements unter https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2022.

Spezielle Angebote für Journalist:innen sowie weitere Informationen über den Schlaf finden sich unter https://www.dgsm.de/gesellschaft/aktionstag/informationen-zum-thema-schlaf.

Wir freuen uns über Ihr Interesse!

Kontakt für Rückfragen:
Conventus Congressmanagement
Presse- und Öffentlichkeitsarbeit
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 0173/5733326
E-Mail: romy.held@conventus.de

Weitere Informationen:
https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2022
https://www.dgsm.de/gesellschaft/aktionstag/informationen-zum-thema-schlaf

(nach oben)


Auf Spurensuche im Abwasser: Mikroplastik, Schwermetalle, Arzneimittel

Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Das Land Schleswig-Holstein unterstützt den Ausbau der Versuchs- und Ausbildungskläranlage der TH Lübeck in Reinfeld mit 700.000 Euro. Die geplante Investition in Erweiterung der Anlage ist zukunftsweisend für die Abwasserbehandlung in SH

Die TH Lübeck, Labor für Siedlungswasserwirtschaft und Abfalltechnik, betreibt seit 2005 auf dem Gelände der kommunalen Kläranlage der Stadt Reinfeld eine Versuchs- und Ausbildungskläranlage (VAK). Ziel der Anlage ist u.a. die Erprobung neuartiger Technologien, die eine verbesserte und effizientere Reinigung von (kommunalem) Abwasser ermöglicht. Die VAK dient überdies im Rahmen von Praktika, Bachelor-/Masterarbeiten und F&E-Projekten der Ausbildung des akademischen Nachwuchses im Bereich des technischen Gewässerschutzes.

Die derzeit auf der VAK vorhandene Anlagentechnik (Belebtschlammverfahren) entspricht dem Stand der Technik der 1990er Jahre. Sie erlaubt vorrangig die Minimierung des Nährstoffgehaltes zum Schutz der Gewässer gegenüber einer Eutrophierung oder einem akuten Sauerstoffdefizit. In den vergangenen Jahren wurden in der Fachwelt allerdings zunehmend weitergehende Probleme hinsichtlich des Umgangs mit Abwasser und der notwendigen Reinigungsleistung identifiziert. Hierzu zählen insbesondere folgende Themenfelder:
• Der Rückhalt von Spurenstoffen, die bisher nicht vollständig in der kommunalen Abwasserreinigung zurückgehalten werden und die nachweislich zu einer negativen Beeinflussung der Ökosysteme in den Gewässern führen können. Zu den Spurenstoffen gehören bspw. Pflanzenschutzmittel, Schwermetalle, Arzneimittel oder Putzmittel.
• Der Rückhalt von Mikroplastik, das als Quelle von Weichmachern (Phtalate etc.) oder als Träger weiterer Spurenstoffe, die sich an die Oberfläche der Partikel anlagern, problematisch für die aquatische Umwelt sein können.
• Der Rückhalt von (multiresistenten) Keimen, für die keine oder nur noch wenige Antibiotika zur Verfügung stehen und die aktuell zu gewissen Anteilen durch Kläranlagen in die Gewässer eingetragen werden.

„Es ist enorm wichtig, dass wir diese Stoffe zurückhalten, weil unser Abwassersystem ansonsten ein offenes System wäre. Das heißt: alle Stoffe, die aus der Stadt entwässert werden, können dann potenziell in die Gewässer gelangen“, sagt Prof. Matthias Grottker, Leiter des Labors für Siedlungswasserwirtschaft der TH Lübeck.

Zum gezielten Rückhalt von Spurenstoffen wurden bereits bspw. in Baden-Württemberg und Nordrhein-Westfalen kommunale Kläranlagen mit Verfahren der sog. 4. Reinigungsstufe erweitert, die notwendig sind, um Spurenstoffe gezielt aus dem Abwasser zu entfernen. Hierzu zählen die Aktivkohle-Behandlung und die Ozonung. Lösungsansätze wie Membranverfahren oder Verfahrenskombinationen der zuvor genannten Verfahrenstechniken wurden bislang nicht auf kommunalen Kläranlagen implementiert. Je nach gewähltem Verfahren werden ebenfalls Mikroplastik-Partikel und/oder (multiresistente) Keime aus dem Abwasser entfernt.

Das Land Schleswig-Holstein hat vor diesem Hintergrund einen Förderbescheid an die TH Lübeck übergeben, um die bestehende VAK um verschiedene Module der 4. Reinigungsstufe zu erweitern. Die geplante Investition ermöglicht eine zeitgemäße Bearbeitung abwassertechnischer Fragestellungen und ist somit zukunftsweisend für die Abwasserbehandlung in Schleswig-Holstein in den kommenden Jahrzehnten. Die VAK versteht sich dabei als zentrale Anlaufstelle für Fragestellungen bezüglich der 4. Reinigungsstufe auf kommunalen Kläranlagen im Land Schleswig-Holstein. Des Weiteren können die Kläranlagenbetreiber in Schleswig-Holstein die neuen innovativen Verfahren bzw. Verfahrenskombinationen kennenlernen und den Umgang mit der Technik erlernen. Zudem kann die mobile Lösung auf der VAK dazu genutzt werden, die einzelnen Verfahren oder auch Verfahrenskombinationen testweise auf kommunalen Kläranlagen in Schleswig-Holstein einzusetzen und mit deren spezifischen Abwasserzusammensetzung zu erproben. Dies betrifft vor allem Kläranlagen, die die Absicht haben, ihre Kläranlage mit einer 4. Reinigungsstufe nachzurüsten. Die Kläranlagenbetreiber können durch die VAK soweit unterstützt werden, dass eine möglichst effektive und wirtschaftliche Verfahrenslösung gefunden wird.

Die Bewilligung der Fördermittel i.H.v. 700.000 Euro für die Erweiterung der VAK erfolgt aus EU-Mitteln des Wiederaufbaufonds (EURI), die über das Landesprogramm für die Entwicklung des ländlichen Raums Schleswig-Holstein (LPLR) zur Verfügung gestellt wurden. Die Bewilligung erfolgt gemäß der „Richtlinie zur Förderung von Maßnahmen zur Abwasserbehandlung in Schleswig-Holstein“ vom 24. Oktober 2021.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Matthias Grottker
E-Mail: matthias.grottker@th-luebeck.de
Dr.-Ing. Kai Wellbrock
E-Mail: kai.wellbrock@th-luebeck.de

(nach oben)


7 Stunden Schlaf pro Nacht sind kein Garant für erholsamen Schlaf!

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) empfiehlt, die Schlafdauer dem individuellen Schlafbedürfnis anzupassen und nicht einer vermeintlichen Zeitvorgabe von 7 Stunden pro Nacht. Stellungnahme der DGSM zu einer aktuellen Studie, die einen Zusammenhang zwischen sieben Stunden Schlaf als Idealwert für die kognitive Leistungsfähigkeit, das allgemeine Wohlbefinden und die psychische Gesundheit von Menschen mittleren und höheren Alters nahe legt.

Die Ergebnisse einer aktuellen britisch/chinesischen Studie mit fast 500000 Erwachsenen zwischen 38 und 73 Jahren haben zur öffentlichen Diskussion über die optimale Schlafdauer bei Erwachsenen geführt. Daraus ist der Eindruck entstanden, dass 7 Stunden Schlaf pro Nacht bei Erwachsenen eine Notwendigkeit sei. Kürzerer oder längerer Schlaf sei mit erhöhten Risiken für psychische Erkrankungen und geistige Einschränkungen verbunden.

Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) nimmt hierzu wie folgt Stellung:
Eine ursächliche Verbindung zwischen kurzem bzw. langem Schlaf und den genannten Erkrankungen bzw. Einschränkungen kann mit dem Studiendesign nicht nachgewiesen werden und die Autorinnen und Autoren der Arbeit behaupten dies auch nicht in dem zitierten Artikel. Dementsprechend ist die Studie kein Hinweis darauf, dass der Versuch, genau 7 h zu schlafen, gesundheitsförderlich ist. Dies kann sich für Menschen mit einem geringeren oder längeren Schlafbedarf sogar eher gesundheitsschädlich auswirken. Der Schlafbedarf ist individuell sehr unterschiedlich und wird genetisch gesteuert von unserer inneren Uhr. Daraus resultiert, dass die meisten Erwachsenen eine durchschnittliche Schlafdauer von etwa 6 bis 8 Stunden haben. Einige Langschläfer brauchen regelmäßig mehr Schlaf, wohingegen Kurzschläfer mit deutlich weniger Schlaf auskommen, ohne dadurch krank zu werden. Hinzu kommt, dass für den Erholungswert des Schlafes nicht nur die Schlafdauer relevant ist, sondern auch die Schlafqualität. Und die kann, körperlich oder psychisch bedingt, beeinträchtigt sein. Insofern sind die Ergebnisse der Studie differenziert zu betrachten und es ist nicht ein statistisch gewonnener Mittelwert über 500000 Probanden auf einzelne Individuen zu verallgemeinern.

Unabhängig davon ist zu betonen, dass sowohl Menschen, die einen chronischen Schlafmangel haben als auch Menschen, die regelmäßig zu lange (über 9 Stunden pro 24h) schlafen, ein erhöhtes Risiko für körperliche Erkrankungen, insbesondere Herz-Kreislauf-Erkrankungen, psychische Störungen, insbesondere Depressionen und Angststörungen und kognitive Einschränkungen bis hin zu einem erhöhten Risiko für dementielle Erkrankungen im höheren Alter haben und dass zu kurze oder zu lange Schlafzeiten auch ein Hinweis zugrunde liegender Erkrankungen sein kann.

Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) wird anlässlich des DGSM-Aktionstages Erholsamer Schlaf am 21.6.2022 die Thematik ausführlich präsentieren.

Presserückfragen bitte an:
Conventus Congressmanagement
Presse- und Öffentlichkeitsarbeit
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 03641/3116280
E-Mail: romy.held@conventus.de

Originalpublikation:
Li, Y., Sahakian, B.J., Kang, J. et al. The brain structure and genetic mechanisms underlying the nonlinear association between sleep duration, cognition and mental health. Nat Aging (2022). https://doi.org/10.1038/s43587-022-00210-2

Weitere Informationen:
http://www.dgsm.de

(nach oben)


Aktuelle Studie – Rund zehn Prozent der Erwerbstätigen arbeiten „suchthaft“

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Rund ein Zehntel der Erwerbstätigen in Deutschland arbeitet suchthaft, ergibt eine von der Hans-Böckler-Stiftung geförderte Studie auf Basis repräsentativer Daten von 8000 Erwerbstätigen.*

Von suchthaftem Arbeiten Betroffene arbeiten nicht nur sehr lang, schnell und parallel an unterschiedlichen Aufgaben, sie können auch nur mit schlechtem Gewissen freinehmen und fühlen sich oft unfähig, am Feierabend abzuschalten und zu entspannen. Führungskräfte zeigen überdurchschnittlich oft Symptome suchthaften Arbeitens. In mitbestimmten Betrieben kommt suchthaftes Arbeiten seltener vor als in solchen ohne Mitbestimmung, so die Untersuchung von Forschenden des Bundesinstituts für Berufsbildung (BIBB) und der Technischen Universität Braunschweig, die über gut zwei Jahre mit Unterstützung der Hans-Böckler-Stiftung dem Thema nachgegangen sind. Betriebsräte helfen, Grenzen zu ziehen und könnten Beschäftigte so vor Selbstausbeutung schützen.

Frühmorgens ins Büro und spätabends wieder raus, zu Hause noch einmal die Mails checken, einfach nicht loslassen können: Suchthaftes Arbeiten ist kein Randphänomen, das nur eine kleine Gruppe von Führungskräften betrifft. Tatsächlich sind exzessives und zwanghaftes Arbeiten in allen Erwerbstätigengruppen verbreitet. Das Forschungsteam hat zu diesem Thema eine Auswertung auf Basis repräsentativer Daten für Erwerbstätige in Deutschland durchgeführt. Einige der Ergebnisse von Beatrice van Berk (BIBB), Prof. Dr. Christian Ebner (TU Braunschweig) und Dr. Daniela Rohrbach-Schmidt (BIBB) mögen auf den ersten Blick überraschen. Wer bei IT-Berufen etwa an Leute denkt, die bis spät in die Nacht beruflich bedingt vor dem Computer hocken und IT-Probleme lösen, sieht sich getäuscht: Tatsächlich ist der Berufsbereich Informatik, Naturwissenschaft, Geografie am wenigsten betroffen. Am häufigsten neigen Menschen in Land-, Forst-, Tierwirtschaft und Gartenbau zu suchthaftem Arbeiten. In der ersten Gruppe sind es 6 Prozent, in der zweiten 19 Prozent. In weiteren untersuchten Wirtschaftsbereichen, unter anderem Verkehr/Logistik, Produktion/Fertigung, Kaufmännische Dienstleistungen/Handel/Tourismus oder Gesundheit/Soziales/Erziehung liegen die Werte zwischen 8 und 11 Prozent (siehe auch Abbildung 4 in der in der Fachzeitschrift „Arbeit“ publizierten Studie; Link unten).

Wann werden aus engagierten Erwerbstätigen solche, deren Leben von der Arbeit dominiert wird? Dieser Frage haben sich Wissenschaftlerinnen und Wissenschaftler schon vor Jahrzehnten gewidmet. 1971 prägte der Psychologe Wayne Oates den Begriff Workaholic, um zu beschreiben, dass einige Menschen ein Verhältnis zu ihrer Arbeit haben wie Süchtige zum Alkohol. Heute arbeitet die Forschung mit verschiedenen Kriterienkatalogen. International verbreitet ist etwa die Dutch Work Addiction Scale, die auch van Berk, Ebner und Rohrbach-Schmidt als Befragungsinstrument in ihrer Erhebung genutzt haben. Suchthafte Arbeit lässt sich demnach anhand von zwei Dimensionen bestimmen. Erstens muss die jeweilige Person exzessiv arbeiten, das heißt: lange arbeiten, schnell arbeiten und verschiedene Aufgaben parallel erledigen. Der zweite Faktor als Voraussetzung für suchthaftes Arbeiten ist die „Getriebenheit“ der Erwerbstätigen: hart arbeiten, auch wenn es keinen Spaß macht, nur mit schlechtem Gewissen freinehmen, Unfähigkeit zur Entspannung am Feierabend, also „Entzugserscheinungen“ in der erwerbsarbeitsfreien Zeit.

Die Auswertung stützt sich auf eine Befragung von rund 8000 Erwerbstätigen in den Jahren 2017 und 2018. Zu jeder der beiden Dimensionen von Arbeitssucht wurden den Interviewten fünf Aussagen präsentiert, zu denen sie, mit mehreren Abstufungen, Zustimmung oder Ablehnung äußern konnten. Etwa „Ich bin stets beschäftigt und habe mehrere Eisen im Feuer“ oder „Ich spüre, dass mich etwas in mir dazu antreibt, hart zu arbeiten“.

Der Untersuchung zufolge arbeiten 9,8 Prozent der Erwerbstätigen suchthaft. Weitere 33 Prozent arbeiten exzessiv – aber nicht zwanghaft. 54,9 Prozent der Erwerbstätigen arbeiten dagegen „gelassen“. Und eine kleine Gruppe arbeitet zwar nicht viel, aber zwanghaft.

Mit rund 10 Prozent Arbeitssüchtigen erreicht Deutschland einen Wert, der nah an den Ergebnissen ähnlicher Studien aus anderen Ländern liegt. So kamen Forschende in den USA ebenfalls auf 10 Prozent und in Norwegen auf gut 8 Prozent. Aus dem Rahmen fällt Südkorea, wo eine Untersuchung einen Anteil von fast 40 Prozent ergab, allerdings mit einer etwas weiter gesteckten Definition von Arbeitssucht.

In einer weiteren Hinsicht fügen sich die Erkenntnisse von van Berk, Ebner und Rohrbach-Schmidt in den internationalen Forschungsstand: „Insgesamt deutet die Studienlage darauf hin, dass die Verbreitung von suchthaftem Arbeiten unter den Erwerbstätigen – wenn überhaupt – nur schwache Unterschiede bezüglich soziodemografischer Merkmale aufweist.“ So ist es auch in Deutschland. Schulabschluss und Familienstatus zeigen keine Zusammenhänge mit der Neigung zu suchthafter Arbeit. Einen kleinen, aber signifikanten Unterschied gibt es zwischen Frauen und Männern, die zu 10,8 beziehungsweise 9 Prozent betroffen sind. Deutlichere Unterschiede bestehen zwischen Altersgruppen: Bei den 15- bis 24-Jährigen beträgt die Quote 12,6 Prozent, bei den 55- bis 64-Jährigen 7,9 Prozent.

Wer eine lange vertragliche Wochenarbeitszeit hat, neigt leicht überdurchschnittlich zur Arbeitssucht; ob der Vertrag befristet ist oder nicht, spielt dagegen keine Rolle. Auch das Anforderungsniveau erweist sich als neutral. Starke Unterschiede zeigen sich dagegen im Hinblick auf Selbstständigkeit und Führungsverantwortung. Unter Selbstständigen liegt die Workaholic-Quote bei 13,9 Prozent. Dies könnte auch einer der Gründe für den hohen Anteil in landwirtschaftlichen Berufen sein, denn in dieser Branche sind viele Erwerbstätige selbstständig.

Zwischen suchthaftem Arbeiten und Führungsverantwortung besteht „ein statistisch höchst signifikanter Zusammenhang“. Führungskräfte sind zu 12,4 Prozent arbeitssüchtig, andere Erwerbstätige nur zu 8,7 Prozent. „Unter den Führungskräften ist suchthaftes Arbeiten zudem umso stärker ausgeprägt, je höher die Führungsebene ist.“ Die obere Ebene kommt auf einen Anteil von 16,6 Prozent. In vielen Betriebskulturen werden an Führungskräfte wahrscheinlich Anforderungen gestellt, die „Anreize für arbeitssüchtiges Verhalten“ setzen, vermuten die Wissenschaftlerinnen und der Wissenschaftler. Beispielsweise, wenn erwartet wird, dass sie als Erste kommen und als Letzte gehen.

Einen starken Zusammenhang mit suchthafter Arbeit haben schließlich Betriebsgröße und Mitbestimmung. In Großbetrieben ist Arbeitssucht weniger verbreitet als in kleinen Betrieben. Bei weniger als zehn Beschäftigten „fallen 12,3 Prozent in die Kategorie der suchthaft Arbeitenden“, bei mehr als 250 Beschäftigten 8,3 Prozent. Dies könnte an einer stärkeren Regulierung liegen. Beschäftigte in Großunternehmen bekommen Schwierigkeiten mit der Personalabteilung, wenn das Arbeitszeitkonto überquillt. Ähnliche Unterschiede treten beim Vergleich von Betrieben mit und ohne Betriebsrat zutage: Mit Mitbestimmung arbeiten 8,7 Prozent der Beschäftigten suchthaft, ohne Betriebsrat 11,9 Prozent. Eine besondere Rolle dürften in diesem Kontext Betriebsvereinbarungen spielen – „ein wichtiges Instrument der betrieblichen Regulierung, welches exzessivem und zwanghaftem Arbeiten entgegenwirken kann“, so die Forschenden.

Wissenschaftliche Ansprechpartner:
Dr. Eike Windscheid
Abteilung Forschungsförderung
Tel. 0211-7778-644
E-Mail: Eike-Windscheid@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Beatrice van Berk, Christian Ebner, Daniela Rohrbach-Schmidt: Wer hat nie richtig Feierabend? Eine Analyse zur Verbreitung von suchthaftem Arbeiten in Deutschland, Zeitschrift Arbeit 3/2022, April 2022. Download: https://www.degruyter.com/document/doi/10.1515/arbeit-2022-0015/html

(nach oben)


Kleine Wasserlinse – großes Potential für die Landwirtschaft | Rund 500.000 Euro für Praxis-Forschungsprojekt

Friedrich Schmidt Pressestelle
Universität Vechta
An Teichen und Gräben sieht man sie häufig – die Teich- oder Wasserlinsen, im Volksmund auch „Entengrütze“ genannt. Wasserlinsen können unter optimalen Bedingungen ihre Biomasse innerhalb eines Tages verdoppeln und gedeihen auch auf Schmutz- und Abwässern hervorragend. Wie (wirtschaftlich) praktikabel das funktioniert, ob die Abwässer auf diese Weise gereinigt werden können – sodass sie eventuell einleitfähig werden – und ob darüber hinaus ein natürliches Futtermittel enstehen kann, untersucht das Konsortium um das Forschungsprojekt ReWali.

Am 10. Mai 2022 fand das Kick-off-Meeting des Projektes „ReWali – Reduktion des Nährstoffeintrags in Gewässer sowie Produktion von Futtermittel durch Wasserlinsen“ bei der Firma NOVAgreen statt. Ziel des Projektes ist es, Kreislaufwirtschaft in der Landwirtschaft durch den Einsatz der Wasserlinse neu zu denken. Die Wasserlinse ist innerhalb kurzer Zeit in der Lage, dem Wasser Nährstoffe wie z.B. Nitrat und Phosphor zu entziehen und in erntefähige Biomasse zu binden. Diese Biomasse soll im Projekt als natürliches, proteinreiches Futtermittel eingesetzt werden. Dadurch kann die Linse in einem Kreislaufsystem direkt vor Ort wieder einer Nutzung zugeführt und die Nährstoffe somit „recycelt“ werden.

Im Projekt wird die bisher unterschätzte heimische Pflanze u.a. auf sogenanntem „Schlabberwasser“, d.h. einem mäßig nährstoffhaltigen Brauchwasser aus der Gänsehaltung angebaut und dann wieder direkt als Futter eingesetzt. Solche niedrig und mäßig belasteten Wasser wie das Schlabberwasser einzuleiten erfordert eine Genehmigung der Wasserbehörden und wird nach heutigen Standards immer schwieriger umzusetzen. Alternativ muss belastetes Oberflächen- und Brauchwasser gelagert werden, was Platz benötigt und zusätzliche Kosten aufwirft. Die Produktion von Wasserlinsen könnte die Problematik der Verwertung des Schlabberwassers lösen und gleichzeitig ein lokal produziertes Futter für die Gänsezucht darstellen, das im optimalen Fall z.B. Soja ersetzen könnte. Dieses Konzept der Kreislaufwirtschaft könnte zukünftig auch auf andere Tierarten, wie z.B. die Fischhaltung übertragen werden.

Technisches KnowHow für den Anbau liefert im Projekt die Firma NOVAgreen Projektmanagement GmbH aus Vechta-Langförden. Praktisch erprobt wird das Projekt auf dem Gänsehof der Familie Claßen aus Bakum, wo die Wasserlinse angebaut und verfüttert wird. Die Universität Göttingen untersucht die Fleischqualität, der mit Wasserlinsen gefütterten Gänse. Auch die Frage „ob Wasserlinsen ebenso an Fische verfüttert werden können und ob insbesondere Forellen (als Fleischfresser mit hohem Eiweißbedarf) die proteinreiche Wasserlinse gut vertragen“, versucht die Uni Göttingen in diesem Projekt zu beantworten. Außerdem sollen Wege ermittelt werden, wie die Wasserlinse lagerfähig und in Mischrationen eingesetzt werden kann. Die Projektkoordination und Öffentlichkeitsarbeit übernimmt der Verbund Transformationsforschung agrar Niedersachsen (trafo:agrar) bei der Universität Vechta.

Gefördert wird das Vorhaben über drei Jahre mit rund einer halben Millionen € von den Europäischen Innovations-Partnerschaften für Landwirtschaftliche Produktivität und Nachhaltigkeit.

Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Linda Armbrecht und Dr. Stefanie Retz
Verbund Transformationsforschung agrar Niedersachsen
E-Mail: linda.armbrecht@trafo-agrar.de, stefanie.retz@trafo-agrar.de
Tel.: +49. (0) 4441.15 442
https://www.trafo-agrar.de

Weitere Informationen:
https://www.uni-vechta.de/koordinierungsstelle-transformationsforschung-agrar

(nach oben)


Kompetent, kompakt und aktuell: diabetes zeitung feiert sechsjähriges Bestehen

Michaela Richter Pressestelle
Deutsche Diabetes Gesellschaft
Kompetent, kompakt und aktuell: Seit nunmehr sechs Jahren informiert die diabetes zeitung (dz) umfassend über Diabetes mellitus und präsentiert ihren Leser*innen in 10 Ausgaben pro Jahr komprimiert die wichtigsten wissenschaftlichen Erkenntnisse und Informationen rund um die Stoffwechselerkrankung. Sie wird von der Deutschen Diabetes Gesellschaft (DDG) in Kooperation mit der MedTrix Group herausgegeben, erscheint in einer Print-Auflage von 25.000 Exemplaren und kann zudem als e-Paper abgerufen werden.

Die Anzahl an Diabetespatientinnen und -patienten steigt und täglich gibt es neue Erkenntnisse und Informationen aus Wissenschaft, Therapie, Praxis und Gesundheitspolitik. „Es bleiben den Behandelnden im Praxisalltag immer weniger Zeitressourcen, um sich ausgiebig über aktuelle und wichtige Entwicklungen zu informieren“, erklärt DDG Mediensprecher Professor Dr. med. Baptist Gallwitz. „Die dz ist von vielen Schreibtischen in Klinik und Praxis nicht mehr wegzudenken. Sie ist als zuverlässige Quelle, die konzentriert und umfassend rund um Diabetes berichtet, inzwischen unverzichtbar.“

Monatlich fasst ein Redaktionsteam, bestehend aus Expertinnen und Experten der Diabetologie und angrenzender Fächer, alle wichtigen Ereignisse zusammen. Sie berichten über aktuelle Nachrichten, Kongresse, Kasuistiken, Weiterbildungsangebote, neue Therapieansätze, Leitlinien, medizintechnische Innovationen, Ergebnisse aus der Ernährungsforschung, Innovationen auf dem Diabetes-Arzneimittelmarkt und Nützliches für den Praxis- oder Klinikalltag. Aktuelle wissenschaftliche Publikationen werden in kurzen Übersichtsartikeln zusammengefasst. Einen besonderen Stellenwert nehmen auch versorgungsrelevante und gesundheitspolitische Themen in Interviews, Artikeln und Gastbeiträgen renommierter Expertinnen und Experten ein.

„Neben den umfassenden Inhalten möchten wir auch alle an Diabetes beteiligten Fachbereiche in die Berichterstattung einbeziehen, indem wir ihre – oft sehr verschiedenen – Bedürfnisse und Interessen bedienen“, führt Stephan Kröck, Geschäftsführer der MedTriX GmbH Deutschland, aus. „Bei der Gründung vor sechs Jahren war es uns wichtig, einen Titel für eine diabetologisch interessierte, diverse Zielgruppe zu publizieren, der nicht ausschließlich für Spezialistinnen und Spezialisten gedacht ist. Wir wollten nicht nur ein weiteres diabetologisches Fachjournal schaffen.“

So richtet sich die dz gleichwohl an Ärztinnen und Ärzte der Allgemeinmedizin, der inneren Medizin und der Diabetologie – sowohl in Klinik als auch in Praxis –, Expertinnen und Experten aus den Bereichen Diabetesberatung und -schulung, Pflege und Podologie. „Aber wir haben nicht nur die Behandelnden im Blick. Auch Entscheidungsträger aus Politik und Gesundheitswesen gehören zu unserem langjährigen Leserkreis. Denn bevor gesundheitspolitische Beschlüsse gefasst werden, müssen und wollen die Verantwortlichen optimal informiert sein“, erklärt Gallwitz. Dass die dz diese verschiedenen Disziplinen miteinander verbindet, mache sie einzigartig am Markt.

Rund 90 Prozent der Diabetespatientinnen und -patienten werden in Hausarztpraxen diagnostiziert und betreut. Hier ist aufgrund der Fülle und Vielfältigkeit der zu behandelnden Erkrankungen der Informationsbedarf zu aktuellen Neuerungen in der Diabetologie besonders hoch. „Die diabetes zeitung bildet die große Schnittmenge in der täglichen Arbeit von Hausärztinnen und Hausärzten sowie Diabetologinnen und Diabetologen aufgrund ihrer Themenvielfalt rund um den Diabetes gut ab. Dadurch leistet sie eine wichtige Informationsarbeit“, erläutert Dipl.-Med. Ingrid Dänschel, Vorstandsmitglied im Deutschen Hausärzteverband.

Die dz erscheint mit einer Auflage von 25.000 und ist als e-Paper auf der Website der DDG verfügbar https://www.deutsche-diabetes-gesellschaft.de/diabetes-zeitung sowie im Zeitungsformat hier zu abonnieren: https://shop.medical-tribune.de/diabetes-zeitung

(nach oben)


Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Landwirtschaft, Habitatverlust oder Abwässer – menschgemachte Stressoren wirken sich negativ auf die biologische Vielfalt in Bächen und Flüssen aus. In welchem Maße dabei auch ihr Vermögen zur Selbstreinigung und andere wichtige Ökosystemleistungen in Mitleidenschaft gezogen werden, darüber weiß man noch sehr wenig. Mit einer kürzlich im Fachjournal Global Change Biology veröffentlichten Metastudie hat ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) den weltweiten Stand der Forschung dazu erfasst – und gibt damit neue Impulse für ein verbessertes Gewässermanagement.

Fließgewässer sind die Lebensadern unserer Erde, Hotspots der Biodiversität und für den Menschen unverzichtbare Lebensgrundlage: Sie stellen Trinkwasser bereit, dienen dem Hochwasserschutz und werden zur Bewässerung landwirtschaftlicher Flächen genutzt. Doch der Mensch nimmt Einfluss auf Gewässersysteme und deren ökologische Funktionen – unter anderem durch Veränderung der natürlichen Gewässerstruktur, Landwirtschaft oder Einleitung von Abwässern. „Das alles geht natürlich nicht spurlos an den Fließgewässern vorüber“, sagt Dr. Mario Brauns, Wissenschaftler am UFZ-Department Fließgewässerökologie. „Die allermeisten Studien dazu befassen sich mit den Auswirkungen auf die Biodiversität – was aus unserer Sicht aber nur einen Teil des Problems erfasst. Denn ein Verlust der biologischen Vielfalt kann zwar anzeigen, dass etwas nicht stimmt in einem Gewässer, doch ob und inwieweit seine ökologischen Funktionen in Mitleidenschaft gezogen sind, bleibt unbeantwortet.“

Eine der wichtigsten Ökosystemleistungen von Fließgewässern ist ihre natürliche Reinigungsleistung. Sie kann über verschiedene ökologische Funktionen wie etwa die Nährstoffaufnahme oder die Zersetzung von Laub bewertet werden. Doch wie genau wirken sich menschliche Stressoren auf diese ökologischen Funktionen aus, die für die natürliche Selbstreinigungskraft eines Fließgewässers essenziell sind? „Für unsere Metastudie haben wir gemeinsam mit internationalen Kolleg:innen den aktuellen Stand der Forschung zu dieser Frage zusammentragen“, sagt Brauns. Das Forschungsteam wertete die Fachliteratur nach Studien aus, in denen die Auswirkungen menschlicher Stressoren auf die ökologischen Funktionen von Fließgewässern untersucht wurden. „Wir haben sämtliche weltweit verfügbaren Forschungsarbeiten recherchiert und fanden insgesamt 125 Studien – was im globalen Maßstab wirklich eine sehr geringe Ausbeute ist“, sagt Brauns. „Das hat noch einmal verdeutlicht, wie wenig hierzu bislang geforscht wurde. Und: Die gefundenen Studien wurden vor allem in Europa, Nordamerika oder Kanada durchgeführt. Über die Regionen Asien oder Afrika ist bislang fast nichts bekannt. Hier besteht aus unserer Sicht höchster Forschungs- und Handlungsbedarf.“

Die Auswertung der Studiendaten ergab, dass die Effizienz, mit der Fließgewässer Nitrat zurückhalten können, in Bächen, die durch landwirtschaftlich genutzte Gebiete fließen, fast fünfmal geringer ist als in Bächen mit natürlicher Umgebung. „Das ist wirklich enorm“, sagt Brauns und erklärt: „Landwirtschaftlich geprägte Fließgewässer sind durch hohe Nährstoffkonzentrationen und eine geschädigte Gewässerstruktur so stark belastet, dass sie ihre natürliche ökologische Rückhaltefunktion nicht mehr ausreichend erfüllen können und dadurch einen Großteil ihrer Reinigungsleistung einbüßen.“ Ein weiteres wichtiges Ergebnis der Studie ist die vergleichende Bewertung der Stressoren: Welcher Stressor hat über alle ökologischen Funktionen hinweg die stärksten Auswirkungen? Deutlich auf Platz eins liegt die Einleitung von Abwässern. Auf dem unrühmlichen zweiten Platz die Landwirtschaft und auf Platz drei die Urbanisierung. „Das sind alles Bereiche, in denen wir dringend tätig werden müssen“, sagt Brauns. „Um die Gewässergefährdung besser abschätzen und passende Managementmaßnahmen einleiten zu können, sind die ökologischen Funktionen von Fließgewässern sehr gute und aussagekräftige Indikatoren. Das konnten wir mit unserer Metastudie zeigen. Wir hoffen, dass es in Zukunft vermehrt Studienansätze geben wird, die die ökologischen Funktionen von Fließgewässern in den Fokus nehmen. Und das am besten auf breiter Ebene weltweit – denn es besteht rund um den Globus dringender Handlungsbedarf.“

Wissenschaftliche Ansprechpartner:
Dr. Mario Brauns
UFZ-Department Fließgewässerökologie
mario.brauns@ufz.de

Originalpublikation:
Mario Brauns, Daniel C. Allen, Iola G. Boëchat, Wyatt F. Cross, Verónica Ferreira, Daniel Graeber, Christopher J. Patrick, Marc Peipoch, Daniel von Schiller, Björn Gücker: A global synthesis of human impacts on the multifunctionality of streams and rivers, Global Change Biology, doi: 10.1111/gcb.16210
https://doi.org/10.1111/gcb.16210

(nach oben)


Studie untersucht Mikroplastikbelastung in der Rheinaue bei Langel in Köln

Gabriele Meseg-Rutzen Kommunikation und Marketing
Universität zu Köln
Mikroplastik sammelt sich in der Rheinaue Langel-Merkenich an / Topografie und Überflutung bestimmen die lokale Menge der Plastikpartikel im Boden

Mikroplastik kann sich in Flussauen ablagern und in tiefere Bodenbereiche transportiert werden. Die lokale Topografie, die Überschwemmungsfrequenz und die Bodenbeschaffenheit sind für die Menge der abgelagerten Plastikpartikel und deren mögliche Verlagerung in die Tiefe verantwortlich. Das ist das zentrale Ergebnis einer Studie von Forscher:innen der Universitäten Köln und Bayreuth unter der Leitung von Professorin Dr. Christina Bogner vom Geographischen Institut der Universität zu Köln und Dr. Martin Löder von der Universität Bayreuth. Das Forschungsteam untersuchte die Rheinaue Langel-Merkenich nördlich von Köln auf drei
Probenahmelinien in zunehmenden Abstand vom Fluss jeweils in zwei Bodentiefen auf die Mikroplastikbelastung. Das Forschungsteam ist Teil des DFG-Sonderforschungsbereichs 1357 Mikroplastik. Der aus den Untersuchungen resultierende Artikel „Flooding frequency and floodplain topography determine abundance of microplastics in an alluvial Rhine soil“ ist bei Science of the Total Environment erschienen.

Es ist bekannt, dass über Flüsse Mikroplastik in Richtung der Ozeane transportiert wird. Unklar ist, ob alle Partikel letztlich dort landen. Während des Weges in Richtung Meer interagieren Mikroplastikpartikel nicht nur mit Flusssedimenten, sondern können sich auch in den Uferbereichen ablagern. Forscher:innen der Universität zu Köln und der Universität Bayreuth untersuchten in Überflutungsbereichen des Rheins, ob bei größeren Überschwemmungen ein Teil des Mikroplastiks auf den überschwemmten Flächen verbleibt. Besonders interessierten sich die Wissenschaftler:innen dafür, wie sich das Mikroplastik in den überschwemmten Böden verteilt und ob es in tiefere Bodenhorizonte gelangt.

Um diese Frage anzugehen, sammelte das Team in der Rheinaue Bodenproben in zwei verschiedenen Tiefen (0-5 cm und 5-20 cm) entlang dreier Probenahmelinien mit Messpunkten mit zunehmendem Abstand zum Fluss und bestimmten die Häufigkeit von Mikroplastik mittels Mikro-Fourier-Transformations-Infrarot-Spektroskopie (mikroFTIR Spektroskopie). Dieses Verfahren ermöglicht eine eindeutige Charakterisierung der Plastiksorte jedes untersuchten Partikels bis zu einer minimalen Partikelgröße von 10 µm über die Messung seines chemischen Fingerabdrucks. Die Menge an Mikroplastik pro Kilogramm trockenen Bodens schwankte zwischen 25.502 und 51.119 Partikeln in den obersten 5 cm und zwischen 25.616 und 84.824 Partikeln im tieferen Boden (5-20 cm). Ungefähr 75 Prozent der Partikel waren kleiner als 150 µm.

Bei ihren Untersuchungen stellten die Forscher:innen fest, dass die Verteilung der Mikroplastikpartikel im Wesentlichen von zwei Faktoren abhängt: einerseits von der Beschaffenheit und dem Bewuchs der Bodenoberfläche und andererseits davon wie häufig die untersuchte Stelle überschwemmt wird. So können sich im Laufe der Überschwemmungen vor allem in den Senken Mikroplastikpartikel in den Rheinauen anreichern und werden an Stellen, die durch Grasbewuchs vor Erosion geschützt sind und in denen Regenwurmaktivität festgestellt wurde, auch in tiefere Schichten der Bodenhorizonte verlagert.
„Je kleiner das Mikroplastik ist, umso eher wird es von Bodenlebewesen aufgenommen und kann sie möglicherweise negativ beeinflussen. Wie genau und in welchen Mengen Mikroplastik für Bodenlebewesen schädlich sein kann, erforschen wir neben der Entstehung und dem Transportverhalten von Mikroplastik in der Umwelt im SFB Mikroplastik“, sagt Doktorand Markus Rolf. Professorin Dr. Bogner fügt hinzu: „Unser interdisziplinärer Ansatz kann auch auf andere Überschwemmungsgebiete übertragen werden, um die entsprechenden Prozesse aufzuklären. Informationen aus solchen Untersuchungen sind sowohl für die Lokalisierung potenzieller Mikroplastiksenken für Probenahmepläne als auch für die Identifizierung von Gebieten mit erhöhter Bioverfügbarkeit von Mikroplastik für eine angemessene ökologische Risikobewertung von wesentlicher Bedeutung.“

Inhaltlicher Kontakt:
Professorin Dr. Christina Bogner
Geographisches Institut der Universität zu Köln
+49 221 470 3966
christina.bogner@uni-koeln.de

Presse und Kommunikation:
Robert Hahn
+49 221 470 2396
r.hahn@verw.uni-koeln.de

Veröffentlichung:
https://www.sciencedirect.com/science/article/pii/S0048969722022343

(nach oben)


Gesunder Schlaf: Warum so wichtig fürs Herz?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Schlafmangel hat Folgen für den Organismus und schädigt dauerhaft Herz und Kreislauf. Was zum herzgesunden Schlaf gehört, erklären Herzspezialisten und Schlafmediziner in HERZ heute

Gesunder Schlaf wirkt wie ein Medikament: Während der Nachtruhe sinken Herzschlag und Blutdruck. Außerdem werden Fett- und Zuckerstoffwechsel optimiert, das Immunsystem gestärkt, die Wundheilung beschleunigt und zelulläre Reparaturprozesse angestoßen. Umgekehrt hat Schlafmangel gravierende Folgen für den Körper – insbesondere für das Herz: „Findet der erholsame Schlaf dauerhaft zur falschen Zeit oder regelmäßig zu kurz statt, können die Folgen für die Gesundheit gravierend und zahlreiche Krankheiten die Folge sein, darunter schwere Erkrankungen des Herz-Kreislauf-Systems”, warnt Herzspezialist Prof. Dr. med. Dr. phil. Anil-Martin Sinha vom Wissenschaftlichen Beirat der Deutschen Herzstiftung und Chefarzt der Abteilung für Kardiologie am Sana Klinikum Hof in der aktuellen Ausgabe von HERZ heute. Besonders ausgeprägt seien die negativen Auswirkungen auf Herz und Kreislauf bei den schlafbezogenen Atemstörungen, etwa der obstruktiven Schlafapnoe. Mehr Informationen zum Zusammenhang zwischen Schlaf und Herzgesundheit sowie neue Erkenntnisse aus der Schlafmedizin bietet die aktuelle Ausgabe von HERZ heute 2/2022 mit dem Titel „Herzgesund schlafen“. Renommierte Kardiologen und Schlafmediziner erklären unter anderem Ursachen und Behandlungsmöglichkeiten der Schlafapnoe und geben Tipps für einen besseren Schlaf. Ein Probeexemplar der Ausgabe kann kostenfrei bei der Herzstiftung angefordert werden unter Tel. 069 955128-400 oder unter www.herzstiftung.de/bestellung

Chronischer Schlafmangel: Warum schädlich für Herz und Gefäße?
Während wir schlafen, ist das Gehirn hochaktiv: „In den verschiedenen Schlafphasen formt und festigt sich das Gedächtnis“, erklärt Prof. Sinha. Erinnerungen würden gefestigt und Überflüssiges gelöscht. „Zwischen der Leistungsfähigkeit des Gehirns und der Qualität des Schlafes besteht ein enger Zusammenhang“, so der Kardiologe. Doch nicht nur für die kognitive, auch für die körperliche Regeneration ist ein erholsamer Schlaf extrem wichtig. Denn während wir schlafen, werden zelluläre Reparaturprozesse angeschaltet und bestimmte Stoffwechselprozesse aktiviert und optimiert – etwa der Fett- und Zuckerstoffwechsel. Zudem wird der Blutdruck langfristig konstant gehalten, was sich auf die Gesundheit von Herz und Kreislauf auswirkt. Umgekehrt kann chronischer Schlafmangel Entzündungsprozesse im Körper anstoßen: Es entstehen aggressive Sauerstoffmoleküle, sogenannte „freie Radikale“, die Zellen und Gewebe angreifen und unter anderem die Arteriosklerose begünstigen, eine der Hauptursachen für viele Herz-Kreislauf-Erkrankungen.

Nächtliche Atemaussetzer: Vorsicht bei Verdacht auf Schlafapnoe
Von einer Schlafstörung spricht man, wenn ein Mensch über einen Zeitraum von einem Monat oder länger mindestens dreimal pro Woche Schwierigkeiten mit dem Ein- oder Durchschlafen hat. Häufig stecken psychische, neurologische oder andere körperliche Erkrankungen hinter einer Schlafstörung. Zu einer der häufigsten Ursachen zählt die Schlafapnoe, bei der es während des Schlafs immer wieder zu Atemaussetzern kommt. Typische Symptome sind Schnarchen und Tagesmüdigkeit. Die Atemaussetzer in der Nacht haben gravierende Folgen: Zellen und Organe werden nicht mehr ausreichend mit Sauerstoff versorgt. „Der Körper gerät dann in einen Alarmzustand, Blutdruck und Herzfrequenz steigen“, erklärt Prof. Sinha. Bestehe der Verdacht auf eine Schlafapnoe, sollten Betroffene unbedingt einen Arzt aufsuchen, rät der Kardiologe und warnt: „Eine unbehandelte Schlafapnoe erhöht das Risiko für Herzinfarkt, Herzschwäche und Schlaganfall und verkürzt die Lebenserwartung.“

Tipps für einen besseren Schlaf
Neben körperlichen Ursachen können auch Stress, schwere Mahlzeiten am Abend oder generell ein ungesunder Lebensstil Schlafstörungen begünstigen. Wer schlecht ein- oder durchschläft, sollte daher abends nur leichte, proteinreiche Mahlzeiten zu sich nehmen und mindestens vier Stunden vor dem Schlafengehen keinen Kaffee mehr trinken. Weitere Tipps für einen gesunden Schlaf sind unter anderem:
– Gehen Sie abends etwa immer zur gleichen Zeit ins Bett. Einschlaf- und Aufstehzeit sollten jeweils nicht um mehr als 30 Minuten variieren.
– Das Schlafzimmer sollte kühl, ruhig und abgedunkelt sein – ideal sind 18 Grad. Frische Luft sorgt ebenfalls für besseren Schlaf.
– Regelmäßige Schlafrituale wie Atemübungen, das Anhören ruhiger Musik oder Meditation helfen dabei, zur Ruhe zu kommen und besser einzuschlafen.
– Meiden Sie am späten Abend elektronische Geräte wie Computer, Smartphone oder Tablet.
– Regelmäßiger Sport verbessert den Schlaf – allerdings nicht, wenn Sie spät abends aktiv sind. Verlegen Sie Ihre körperliche Aktivität daher auf die Zeit vor 18 Uhr.

Mehr Tipps für einen gesunden Schlaf sowie Informationen zu Ursachen und Folgen von Schlafstörungen erhalten Sie in der aktuellen Ausgabe der HERZ heute oder unter www.herzstiftung.de (Suchfunktion-Eingabe „Schlaf“)

(1) Literatur: Fox, H., Sinha A. et al.: Positionspapier „Schlafmedizin der Kardiologie“, Update 2021. DOI 10.1007/s12181-021-00506-4

Aktuelle HERZ heute: Jetzt Probeexemplar anfordern!
Die Zeitschrift HERZ heute erscheint viermal im Jahr. Sie wendet sich an Herz-Kreislauf-Patienten und deren Angehörige. Weitere Infos zum Thema bietet die aktuelle Zeitschrift HERZ heute 2/2022 „Herzgesund schlafen“. Ein kostenfreies Probeexemplar ist unter Tel. 069 955128-400 oder unter www.herzstiftung.de/bestellung erhältlich.

Neuer Video-Clip: Herzinfarkt-Forschung zum Schlafverhalten
Im Rahmen des von der Deutschen Herzstiftung geförderten Herzinfarkt-Forschungsprojekts „ACROSSS-Studie“ untersuchen Ärzte am Uniklinikum Essen den Zusammenhang zwischen Auftreten von Schlaganfällen und Herzinfarkten und den individuellen Schlafgewohnheiten: www.youtube.com/watch?v=9DLzCWOFl7c

Bild- und Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114.

Kontakt:
Deutsche Herzstiftung
Pressestelle: Michael Wichert (Ltg.) / Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
– Forschungs-Video-Clip „Gesund schlafen – Herzinfarkt vorbeugen?“
http://www.herzstiftung.de

Anhang
DHS_PM_Herzgesund Schlafen_2022-05-19-Fin

(nach oben)


Die Migration nach Deutschland ist während der Covid-19-Pandemie stark eingebrochen

Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Mit dem Ausbruch der Covid-19-Pandemie im Jahr 2020 ist der Saldo aus Zu- und Fortzügen von ausländischen Staatsangehörigen in Deutschland um 34 Prozent gegenüber dem Vorkrisenjahr 2019 gesunken. Besonders stark ist dabei die Migration aus Drittstaaten zurückgegangen. Das zeigt eine am Dienstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

Die Covid-19-Pandemie hat die Rahmenbedingungen für Migration nach Deutschland und in andere Zielländer verändert. Dabei haben sich die mit dem Infektionsgeschehen verbundenen Risiken, Mobilitätsbeschränkungen, sinkende Beschäftigungschancen und geringere Verdienste unterschiedlich auf die Ziel- und Herkunftsländer der Migration ausgewirkt. Der Wanderungssaldo in Deutschland belief sich im Jahr 2020 auf rund 245.000 Personen im Vergleich zu 371.000 Personen im Vorkrisenjahr 2019. In der ersten Jahreshälfte 2021 betrug die Nettozuwanderung rund 134.000 Personen, das entspricht einem Minus von 33 Prozent gegenüber dem ersten Halbjahr 2019. Damit ist die Migration nach Deutschland stärker eingebrochen als beispielsweise in Österreich, der Schweiz und den skandinavischen Ländern, wo sich die Wanderungszahlen im Jahresverlauf stärker erholten.

Die Covid-19-Pandemie wirkte sich zudem unterschiedlich auf die Migration nach Deutschland aus verschiedenen Herkunftsländergruppen aus. Mit einem Rückgang von 55 Prozent im Krisenjahr 2020 brach die Migration zu Erwerbszwecken aus Drittstaaten besonders stark ein. Demgegenüber waren die Wanderungsbewegungen im Jahresverlauf 2021 mit den Mitgliedsstaaten der EU weitgehend stabil. „Staatsangehörige aus dem Europäischen Wirtschaftsraum waren weniger von Mobilitätsbeschränkungen betroffen, auch mussten sie keine Visa und andere Dokumente beantragen“, so IAB-Forschungsbereichsleiter Herbert Brücker.

Die Politikmaßnahmen zur Eindämmung der Pandemie stehen statistisch in einem besonders starken Zusammenhang mit dem Rückgang der Wanderungszahlen. Weiter besteht auch ein enger Zusammenhang des Rückgangs mit der Inzidenz der Covid-19-Infektionen, dem Rückgang des BIP und dem Anstieg der Erwerbslosenquoten. „Weil die Migration auch das Infektionsgeschehen und die Maßnahmen zur Eindämmung der Pandemie beeinflusst haben könnte, sind diese Befunde nicht kausal zu interpretieren, sondern als deskriptiver Zusammenhang zwischen den verschiedenen Variablen“, erklärt IAB-Forscher Christoph Deuster.

Die Studie beruht auf den Daten nationaler Statistikämter in Deutschland, Österreich, der Schweiz, Finnland, Norwegen und Schweden, sowie Daten von Forscherinnen und Forschern der Universität Oxford.

Die IAB-Studie ist abrufbar unter: https://doku.iab.de/kurzber/2022/kb2022-10.pdf.

Originalpublikation:
https://doku.iab.de/kurzber/2022/kb2022-10.pdf

(nach oben)


Wasserwiederverwendung in der Landwirtschaft: Forschungsprojekt HypoWave+ auf der IFAT 2022

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Das im Forschungsprojekt HypoWave erfolgreich entwickelte Verfahren einer landwirtschaftlichen Lebensmittelproduktion mit recyceltem Wasser geht erstmals im großen Maßstab in die Anwendung. Im „kleinen Maßstab“ wird das Modell für die hydroponische Gemüseproduktion mit aufbereitetem Bewässerungswasser auf der IFAT in München zu sehen sein. Das Forschungsteam von HypoWave+ stellt das Projekt vom 30. Mai bis 3. Juni 2022 in Halle B2 am Stand des Bundesministeriums für Bildung und Forschung (BMBF) vor.

Die landwirtschaftliche Gemüseproduktion ist wasserintensiv. Doch Wasserknappheit ist inzwischen ein weltweites Problem, das durch den voranschreitenden Klimawandel noch verstärkt wird. Um möglichst ertragreiche Ernten zu sichern, werden neue, wassersparende Anbauverfahren gesucht. Mit dem Forschungsprojekt HypoWave+ unter der Leitung der Technischen Universität Braunschweig fördert das Bundesministerium für Bildung und Forschung (BMBF) die Umsetzung einer alternativen landwirtschaftlichen Anbauform in Kombination mit Wasserwiederverwendung im großtechnischen Maßstab. Das HypoWave-Verfahren ermöglicht einen regionalen, wasserschonenden und ganzjährigen Gemüseanbau im Gewächshaus und bietet damit eine Alternative zur herkömmlichen Gemüseproduktion. 

Regionale Lebensmittelerzeugung trotz Wasserknappheit
Das hydroponische Verfahren, bei dem Pflanzen in Gefäßen ohne Erde über eine Nährlösung unter Verwendung von recyceltem Wasser versorgt werden, wurde im Vorgängerprojekt im niedersächsischen Hattorf erfolgreich erprobt. Das Forschungsteam um Projektleiter Thomas Dockhorn von der TU Braunschweig und Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung stellt das Verfahren nun auf der Münchener IFAT vor. Am Messestand des BMBF präsentieren die Wissenschaftler*innen die Innovation im Modellmaßstab: Mit dem HypoWave-Verfahren kann zum einen eine Alternative zur Bewässerung mit Trink- und Grundwasser erschlossen werden. Die Anbauform bietet zudem eine optimierte Nährstoffversorgung, da den Pflanzen lebenswichtige Nährstoffe wie Stickstoff und Phosphor aus dem aufbereiteten Wasser zugeführt werden. 

Das HypoWave-Verfahren auf der IFAT 2022
Besuchen Sie das Forschungsteam von HypoWave+ auf der IFAT vom 30. Mai bis 3. Juni 2022 in Halle B2 auf dem Gemeinschaftsstand des Bundesministeriums für Bildung und Forschung (BMBF) mit der Standnummer 115/214. Wissenschaftler*innen der TU Braunschweig, des ISOE – Institut für sozial-ökologische Forschung, des Fraunhofer IGB und Vertreter*innen der Praxispartner Integar und Huber SE informieren Sie gerne über die Wasserwiederverwendung im hydroponischen Anbau und technische und nicht-technische Voraussetzungen für die Implementierung des Verfahrens. 

Das Forschungsprojekt HypoWave+
Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „HypoWave+ – Implementierung eines hydroponischen Systems als nachhaltige Innovation zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung“ zur Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ im Rahmen des Bundesprogramms „Wasser: N“. Wasser: N ist Teil der BMBF-Strategie Forschung für Nachhaltigkeit (FONA). Die Fördersumme beträgt 2,8 Millionen Euro. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), der Wasserverband Gifhorn (WVGF), IseBauern GmbH & Co. KG, aquatune GmbH (a Xylem brand), Ankermann GmbH & Co. KG, Huber SE und INTEGAR – Institut für Technologien im Gartenbau GmbH.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Martina Winker
– Projektkoordination –
ISOE – Institut für sozial-ökologische Forschung
Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen
Hamburger Allee 45
60486 Frankfurt am Main
Telefon: 49 69 707 6919-53
E-Mail: winker@isoe.de

Weitere Informationen:
http://www.hypowave.de

(nach oben)


Mehrheit der Deutschen setzt auf erneuerbare Energien

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Repräsentative forsa-Umfrage im Auftrag der DBU

Osnabrück. Russlands Angriffskrieg gegen die Ukraine hat nicht nur unermessliches menschliches Leid verursacht, sondern auch eine intensive Debatte um Energiewende, Versorgungssicherheit und künftige Energieträger ausgelöst. Ein Aspekt: Kernenergie schien trotz des in Deutschland beschlossenen Atomausstiegs an Zuspruch zu gewinnen. Eine überraschende Erkenntnis fördert vor diesem Hintergrund eine aktuelle – repräsentative – Umfrage des Meinungsforschungsinstituts „forsa Gesellschaft für Sozialforschung und statistische Analysen“ im Auftrag der Deutschen Bundesstiftung Umwelt (DBU) zutage: Laut forsa-Erhebung für den DBU-Umweltmonitor „Energiewende und Wohnen“ erteilt eine klare Mehrheit der Deutschen (75 Prozent) der Renaissance von Atomkraft eine Absage; breite Unterstützung (65 bis 75 Prozent) finden hingegen erneuerbare Energien (EE).

Unabhängiger von Energieimporten wie russisches Gas oder Öl
Lediglich ein Viertel der Befragten ist laut forsa dafür, künftig Kernenergie stärker zu nutzen, um Deutschland unabhängiger von Energieimporten wie russisches Gas oder Öl zu machen. „Die Zukunft der Energieversorgung gehört den erneuerbaren Energien. Dieses Signal vermittelt auch die jetzige forsa-Umfrage“, sagt DBU-Generalsekretär Alexander Bonde. „Wir müssen den Ausbau der Erneuerbaren beherzt vorantreiben. Das allein reicht aber nicht. Neben einem schnelleren EE-Ausbau brauchen wir zugleich mehr Energieeffizienz – also kluge Maßnahmen vom Dämmen bis zum Heizen, besonders im alten Gebäudebestand.“ Tatsächlich bestätigt die forsa-Erhebung einen starken Rückhalt in der Bevölkerung für ein solches strategisches Vorgehen: Eine überwältigende Mehrheit der Deutschen – insgesamt zwischen 65 und 75 Prozent – fordert, in Zukunft vor allem auf Solar- und Windenergie sowie Wasserstoff aus regenerativer Energie zu setzen, damit Deutschland nicht mehr wie bislang von Energieimporten abhängig ist. Energieträgern wie Gas (6 Prozent Zustimmung) und Kohle (5 Prozent) trauen nur noch wenige Deutsche eine Zukunft im Energiemix zu.

Lediglich 14 Prozent der 18- bis 29-Jährigen für Kernenergie
Bei der repräsentativen forsa-Erhebung zwischen dem 14. bis 30. April dieses Jahres wurden neben 1.000 Bürgerinnen und Bürger ab 18 Jahren auch 1.011 Hauseigentümerinnen und Hauseigentümer in Deutschland befragt. Die ermittelten Ergebnisse können sowohl auf die Gesamtheit der erwachsenen Bevölkerung als auch auf die Hauseigentümer in Deutschland übertragen werden. Auffallend in der aktuellen forsa-Umfrage zur Kernenergie als Option für größere Unabhängigkeit von Energieimporten bei gleichzeitiger Vermeidung von Versorgungsengpässen sind die Unterschiede zwischen den Altersgruppen: Unter den 18- bis 29-Jährigen sehen darin lediglich 14 Prozent eine Lösung für die Zukunft. Bei den 30- bis 44-Jährigen (28 Prozent), den 45- bis 59-Jährigen (27 Prozent) sowie den 60-Jährigen und Älteren (26 Prozent) liegt dieser Wert nahezu doppelt so hoch. In den genannten Altersgruppen ist hingegen die Zustimmung zur Solar- und Windenergie sowie Wasserstoff aus erneuerbaren Energien mit zwei Dritteln bis drei Vierteln der Befragten nahezu gleich groß.

„Enormes Einsparpotenzial für mehr Energieeffizienz“
Welche Herausforderung auf den Energiemarkt allein in Deutschland wartet, macht eine andere Erkenntnis der forsa-Umfrage deutlich: Denn noch heizen ihr Haus oder ihre Wohnung insgesamt 52 Prozent der Befragten mit Gas und 18 Prozent mit Öl. Luft-Wärmepumpe (3 Prozent), Erd-Wärmepumpe (2 Prozent) und Solarenergie (1 Prozent) verharren dagegen derzeit noch im unteren einstelligen Bereich. Etwas mehr genutzt wird im Moment lediglich Fernwärme; das gaben elf Prozent der Befragten an. Hausbesitzer, deren Haus vor 1978 gebaut wurde, nutzen weitaus häufiger (31 Prozent) eine Öl-Heizung als solche mit Häusern, die erst nach 1978 errichtet wurden (15 Prozent). Das Jahr markiert eine Zäsur in der bundesdeutschen Energiepolitik, denn Ende 1977 trat in Deutschland die erste Wärmeschutzverordnung in Kraft – mit der Folge, dass nicht nur das Dämmen von Dächern, Wänden und Decken an Bedeutung gewann, sondern auch effizientere Heizungstechniken. Hinzu trugen seinerzeit die noch spürbaren Auswirkungen der Ölkrise Anfang der 1970er-Jahre zu einem Umdenken bei. Dazu DBU-Generalsekretär Bonde: „Dieses forsa-Ergebnis ist als Appell für dringendes Handeln zu verstehen. Denn fast zwei Drittel der Gebäude in Deutschland sind vor der ersten Wärmeschutzverordnung gebaut worden. Das birgt enormes Einsparpotenzial für mehr Energieeffizienz.“

Weitere Informationen:
https://www.dbu.de/123artikel39392_2442.html Online-Pressemitteilung

(nach oben)


DGIM: Einrichtungsbezogene Impfpflicht greift zu kurz – Vorbereitung auf nächste Corona-Welle muss jetzt erfolgen

Dr. Andreas Mehdorn Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Das Bundesverfassungsgericht hat in seiner gestrigen Entscheidung die einrichtungsbezogene Impfpflicht für Beschäftigte in Pflege- und Gesundheitsberufen für rechtens erklärt. Die Richterinnen und Richter argumentieren, der Schutz vulnerabler Gruppen wiege in diesem Fall schwerer als das Grundrecht der körperlichen Unversehrtheit der einzelnen Gesundheits- und Pflegemitarbeitenden. Doch eine einrichtungsbezogene Impfpflicht reicht nicht aus, um besonders gefährdete Bevölkerungsgruppen vor einer Infektion und das Gesundheitssystem vor einer Überlastung zu schützen, betont die Deutsche Gesellschaft für Innere Medizin e. V. (DGIM).

Die DGIM fordert die Politik deshalb nach wie vor auf, mit Maßnahmen wie einer allgemeinen Impfpflicht die Impfquote in der gesamten Bevölkerung zu erhöhen, um für kommende Corona-Wellen gerüstet zu sein.

Seit fast zwei Jahren kümmern sich Ärztinnen und Ärzte, Pflegende und andere Mitarbeitende im Gesundheits- und Pflegesektor in Krankenhäusern, Arztpraxen und Pflegeeinrichtungen unermüdlich um Corona-Infizierte, Seniorinnen und Senioren und andere Menschen. „Die allermeisten Gesundheits- und Pflegebeschäftigten sind geimpft und kommen so ihrer Verantwortung nach, ihre Patientinnen und Patienten bestmöglich zu schützen“, sagt DGIM-Generalsekretär und Internist Professor Dr. med. Georg Ertl aus Würzburg.

Dagegen sei der Blick auf den allgemeinen Stand der Corona-Impfkampagne ernüchternd: Rund 25 Prozent der Bevölkerung sind bislang nicht geimpft. „Dass sich ein so großer Teil der Bevölkerung gegen die Impfung entschieden hat, ist bedenklich. Denn die Impfung hat sich als der wichtigste Schutz vor einem schweren Corona-Verlauf erwiesen, auch wenn sie das Risiko einer Ansteckung und Übertragung des Virus nicht komplett verhindern kann“, ergänzt Professor Dr. med. Ulf Müller-Ladner, Vorsitzender der DGIM, Rheumatologe und klinischer Immunologe. „Man möge bedenken, um wieviel schlimmer die Welt aussehen würde, wenn es durch vergleichbare frühere Impfaktionen nicht gelungen wäre, Infektionskrankheiten wie Pocken, Kinderlähmung und viele andere auszurotten oder zurückzudrängen – und genau das muss das jetzige Ziel auch sein.“

Das Bundesverfassungsgericht hat die einrichtungsbezogene Impfpflicht in seiner gestrigen Entscheidung nun für rechtens erklärt und dies mit dem Schutz vulnerabler Gruppen vor einer Erkrankung begründet. „Die Urteilsbegründung geht am Problem vorbei. Die Impfung schützt vor allem vor schweren Verläufen und damit unser Gesundheitssystem vor Überlastung – aber nur, wenn möglichst alle geimpft sind“, so DGIM-Generalsekretär Ertl. Jedes Bett, das nicht für einen Ungeimpften benötigt wird, kann das Leben eines anderen retten. Umso wichtiger wäre aus Sicht der Experten eine allgemeine Impflicht, die im vergangenen April im Bundestag jedoch nicht einmal zur Abstimmung stand. Für den Schutz vulnerabler Gruppen könnten nicht allein die Mitarbeitenden im Gesundheits- und Pflegesektor verantwortlich sein. Diese Verantwortung trage die gesamte Bevölkerung gleichermaßen, betont Ertl.

Da es höchst wahrscheinlich ist, dass im kommenden Herbst und Winter die Infektionszahlen wieder in die Höhe schnellen und die Krankenhäuser viele Corona-Infizierte versorgen müssen, ist es nach Meinung der Fachgesellschaft jetzt an der Zeit, Maßnahmen zu ergreifen, um die Impfquote zu erhöhen. „Wenn die Politik das Gesundheitssystem ernsthaft unterstützen und die Mitarbeitenden im Gesundheits- und Pflegebereich entlasten will, muss sie weiter an einer allgemeinen Impfpflicht arbeiten“, fordert der DGIM-Generalsekretär.

Ihr Kontakt für Rückfragen:
DGIM Pressestelle
Dr. Andreas Mehdorn
Postfach 30 11 20
70451 Stuttgart
Tel.: +49 711 8931-313
Fax: +49 711 8931-167
E-Mail: mehdorn@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev

(nach oben)


Wenn Mikroben übers Essen streiten

Susanne Héjja Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
Man sieht sie mit bloßem Auge nicht, aber unser Waldboden ist übersät mit Mikroorganismen. Sie zersetzen herabfallendes Laub und verbessern damit die Bodenqualität und wirken dem Klimawandel entgegen. Doch wie stimmen diese Einzeller sich über ihre Aufgabenverteilung ab? Diesem bisher wenig verstandenen Prozess ist ein internationales Forschungsteam auf den Grund gegangen. Die Forschenden konnten zeigen, dass Bakterien beim Abbau von Laub chemische Verbindungen herstellen, die die Konkurrenten kontrollieren.

Durch diesen Wettbewerb wird die Aufgabenverteilung in der Gemeinschaft optimiert: nur die Mikroorganismen, die andere Mitstreiter abwehren können und gleichzeitig gut an das Nahrungsangebot angepasst sind, setzen sich durch. Die Ergebnisse der Studie wurden kürzlich in Scientific Reports veröffentlicht.

Kleine Moleküle mit großer Wirkung
In Wiesen und Wäldern wird der Kohlenstoffkreislauf dadurch angetrieben, dass mikrobielle Gemeinschaften das jährlich fallende Laub zersetzen und verwerten. Hierfür müssen viele verschiedene Schritte des Abbaus durchlaufen werden. Verschiedene Mikroorganismen können dabei ähnliche Funktionen übernehmen. Dieses Konzept der funktionellen Überlappungen basiert auf gene-tisch angelegten Eigenschaften, die aktiv werden können, aber auch ungenutzt bleiben können. Die aktiven Wechselwirkungen zwischen Mikroorganismen und ihrer Nahrungsquelle, aber auch untereinander, werden durch eine Vielzahl kleiner Moleküle vermittelt. Wenn es im Wald auf die Laubschicht regnet, vermengen sich diese Moleküle mit Naturstoffen aus der Umwelt. Es entsteht eine komplexe Mischung, die in den Geowissenschaften als gelöste organische Materie bezeichnet wird. Da sie auch Moleküle der Mikroorganismen enthält, gibt die chemische Analyse ihrer Zusammensetzung auch Auskunft über den aktiven mikrobiellen Stoffwechsel. Die Forscher*innen untersuchten über 6000 organische Moleküle, die in gelöster organischer Materie von vier verschiedenen Laubarten und zwei unterschiedlichen geographischen Standorten vorkamen.

„Obwohl uns die genaue Struktur der einzelnen Moleküle noch weitgehend unbekannt war, gelang es, sie mit einer Netzwerkanalyse nach ihrer möglichen Herkunft gruppieren“, erklärt der Erstautor der Studie, Dr. Simon Schroeter vom Max-Planck-Institut für Biogeochemie. Den so gefundenen Molekülgruppen konnten dann mit Hilfe biochemischer Datenbanken Funktionen in verschiedenen Stoffwechselwegen zugeschrieben werden. Obwohl die mikrobiellen Gemeinschaften wie erwartet ähnliche Funktionen aufwiesen, passten sie sich innerhalb weniger Tage an das unterschiedliche Laub an. Es scheint, dass die Aufgabenverteilung weniger davon abhängt, wer welche Funktion erledigen kann, denn das unterscheidet sich kaum, sondern vielmehr davon, wer sich am besten an die Gesamtsituation anpasst und gleichzeitig durchsetzungsstark ist. „Unsere Untersuchungen ergeben eine neue Sichtweise auf die gelöste organische Materie, besonders bezogen auf ihre ho-he Bedeutung für den mikrobiellen Stoffwechsel“, so Schroeter weiter, „ein Konzept das man als Meta-Metabolom bezeichnen kann“.

Interdisziplinäre Forschung als Schlüssel zu einem ganzheitlichen Verständnis von Umweltprozessen
Bei der Frage, wie sich Mikroorganismen bei bestimmten Nahrungsangeboten verhalten, liegt die besondere Herausforderung darin, die aktiven Stoffwechselprozesse der gesamten mikrobiellen Gemeinschaft nachvollziehen zu können. Die genetische Ausstattung einer Art beantwortet diese Frage allein nicht. In der Studie wurden daher neben DNA-Sequenzierungen auch die Zusammensetzung der Proteine und die Zwischen- und Endprodukte des Stoffwechsels analysiert. Hierbei zeigte sich, dass auch molekulare Stoffwechselpfade aktiv sind, die zur Biosynthese von Antibiotika führen. Die Freisetzung von hemmenden oder gar tödlichen Antibiotika verschafft deren Produzenten einen starken Wettbewerbsvorteil in der Konkurrenz um das Nahrungsangebot. Die For-scher*innen sehen darin, dass der Wettbewerb die Anpassung der mikrobiellen Gemeinschaft vorantreibt und sie optimiert. Der mikrobielle Streit ums Essen könnte also durchaus konstruktiv sein und diejenigen Spezies unterstützen, deren Fähigkeiten sehr gut an das Nahrungsangebot angepasst sind.

„Die Funktionsweise mikrobieller Gemeinschaften in der Umwelt ganzheitlich zu verstehen, ist eine Aufgabe, die wir nur interdisziplinär lösen können.“, stellt der Initiator der Studie Prof. Dr. Gerd Gleixner fest. Er verweist dabei auf die nationalen und internationalen Partner des Projekts, mit ihren unterschiedlichen aber sich ergänzenden wissenschaftlichen Kompetenzen. „Auch das Austauschprogramm für Nachwuchswissenschaftler*innen unserer Graduiertenschule (IMPRS-gBGC) hat uns dabei enorm geholfen“, so Gleixner weiter.

Die veröffentlichten Ergebnisse wurden im DFG-geförderten Sonderforschungsbereich (SFB 1076) AquaDiva erarbeitet. Die Probennahmen erfolgten an der AquaDiva-Forschungsstation im Hainich Nationalpark (Thüringen) und an der Forschungsstation Gut Linde der Zwillenberg-Tietz-Stiftung (Brandenburg). An der Studie beteiligt waren neben dem Max-Planck-Institut für Biogeochemie auch Arbeitsgruppen der Friedrich-Schiller-Universität Jena (Prof. Küsel, Prof. Pohnert), des Helmholtz Zentrum für Umweltforschung (Prof. von Bergen) und der Universität Nantes (Prof. Eveillard).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerd Gleixner
Forschungsgruppenleiter Molekulare Biogeochemie
Max-Planck-Institut für Biogeochemie
gerd.gleixner@bgc-jena.mpg.de

Dr. Simon A. Schroeter
Max-Planck-Institut für Biogeochemie
simon.schroeter@bgc-jena.mpg.de

Originalpublikation:
Schroeter, S.A., Eveillard, D., Chaffron, S. et al. Microbial community functioning during plant litter decomposition. Sci Rep 12, 7451 (2022). doi: 10.1038/s41598-022-11485-1

(nach oben)


Herzinsuffizienz: Verheiratete leben länger

Kirstin Linkamp Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg
Fabian Kerwagen vom Universitätsklinikum Würzburg hat beim Heart Failure Kongress 2022 seine Forschungsergebnisse vorgestellt: Unverheiratet zu sein ist mit einem höheren Sterberisiko bei PatientInnen mit Herzinsuffizienz verbunden.

Unverheiratete Patientinnen und Patienten mit Herzinsuffizienz haben weniger Vertrauen in den Umgang mit ihrer Erkrankung und sind in ihrer sozialen Teilhabe stärker eingeschränkt als Verheiratete. „Diese Unterschiede könnten zu der beobachteten schlechteren Langzeitüberlebensrate bei unverheirateten Patientinnen und Patienten beitragen“, erklärt Dr. Fabian Kerwagen vom Deutschen Zentrum für Herzinsuffizienz Würzburg (DZHI). Seine Forschungsergebnisse hat der angehende Kardiologe und Nachwuchswissenschaftler heute auf der Heart Failure 2022, einem wissenschaftlichen Kongress der Europäischen Gesellschaft für Kardiologie (ESC), vorgestellt. Soziale Unterstützung helfe Menschen bei der Bewältigung von Langzeiterkrankungen. Fabian Kerwagen nennt Beispiele: „Ehepartner können bei der korrekten und regelmäßigen Einnahme der Medikamente unterstützen, Motivation spenden und eine Vorbildfunktion bei der Entwicklung gesunder Verhaltensweisen einnehmen, was sich alles auf die Lebenserwartung auswirken kann.“

Unverheirateten fehlt es häufiger an Selbstwirksamkeit und sozialer Interaktion
Frühere Studien haben gezeigt, dass unverheiratete Personen sowohl in der Allgemeinbevölkerung als auch beim Vorliegen einer koronaren Herzkrankheit eine schlechtere Überlebensprognose haben. Fabian Kerwagen wollte wissen, wie sich der Familienstand bei einer chronischen Herzinsuffizienz auswirkt und analysierte Daten aus der erweiterten INH-Studie (E-INH = Extended Interdisciplinary Network Heart Failure). An der vom Bundesministerium für Bildung und Forschung (BMBF) geförderten E-INH-Studie nahmen 1.022 Personen teil, die zwischen den Jahren 2004 und 2007 aufgrund einer dekompensierten Herzinsuffizienz ins Krankenhaus eingeliefert wurden. Von den 1.008 Betroffenen, die Angaben zum Familienstand machten, waren 633 (63 %) verheiratet und 375 (37 %) unverheiratet, davon 195 verwitwet, 96 nie verheiratet und 84 getrennt lebend oder geschieden.

Zu Beginn der Studie wurden die Lebensqualität, die sozialen Einschränkungen und die sogenannte Selbstwirksamkeit mit dem Kansas City Cardiomyopathy Questionnaire erhoben. Dieser Fragebogen wurde speziell für Patientinnen und Patienten mit Herzinsuffizienz entwickelt. Soziale Einschränkungen beziehen sich auf das Ausmaß, in dem die Folgen einer Herzinsuffizienz die Teilhabe am gesellschaftlichen Leben beeinträchtigen, wie zum Beispiel die Ausübung von Hobbys und Freizeitaktivitäten oder die Interaktion mit Freunden und Familie. Selbstwirksamkeit beschreibt die Einschätzung der Betroffenen, inwiefern sie sich in der Lage fühlen, eine Verschlechterung der Herzinsuffizienz zu verhindern und Komplikationen zu bewältigen. Es gab keine Unterschiede zwischen verheirateten und unverheirateten Patientinnen und Patienten hinsichtlich der allgemeinen Lebensqualität. Allerdings schnitt die unverheiratete Gruppe bei den sozialen Einschränkungen und der Selbstwirksamkeit schlechter ab als die verheiratete Gruppe.

Während der zehnjährigen Nachbeobachtungszeit starben insgesamt 67% der Patientinnen und Patienten. Unverheiratete hatten dabei im Vergleich zu Verheirateten ein um ca. 60 Prozent höheres Todesrisiko, wobei verwitwete Probandinnen und Probanden das höchste Risiko aufwiesen.

Gesundheits-App soll Betroffene unterstützen
Fabian Kerwagen resümiert: „Der Zusammenhang zwischen Ehe und Langlebigkeit illustriert, wie wichtig soziale Unterstützung für Patientinnen und Patienten mit Herzinsuffizienz ist – ein Thema, das durch die soziale Distanzierung während der COVID-19 Pandemie noch an Bedeutung gewonnen hat.“ Seine Empfehlung: „Das soziale Umfeld sollte bei der Behandlung von Patientinnen und Patienten mit Herzinsuffizienz berücksichtigt und einbezogen werden. Strukturierte Behandlungsprogramme mit spezialisierten Herzinsuffizienz-Pflegekräften oder Selbsthilfegruppen für Herzinsuffizienz können dabei helfen, um mögliche Lücken zu schließen.“ Aufklärung über das Leben mit einer Herzinsuffizienz sei von entscheidender Bedeutung, gleichzeitig aber müsse auch das Vertrauen der Patientinnen und Patienten in ihre Fähigkeiten zur Selbstversorgung gestärkt werden. Sein Blick in die Zukunft: „Wir arbeiten an einer digitalen Gesundheitsanwendung für das Smartphone, die Patientinnen und Patienten mit Herzinsuffizienz weitere Unterstützung beim täglichen Umgang mit ihrer Erkrankung bieten soll.“

Fabian Kerwagen hat die Analysen im Rahmen seines Clinician Scientist Programms „UNION-CVD“ (Understanding InterOrgan Networks in Cardiac and Vascular Diseases) durchgeführt. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Stipendium bietet eine strukturierte wissenschaftliche Ausbildung für Ärztinnen und Ärzte unter dem Dach des Interdisziplinären Zentrums für Klinische Forschung (IZKF) der Universität Würzburg.

Wissenschaftliche Ansprechpartner:
Fabian Kerwagen, kerwagen_f@ukw.de

(nach oben)


Entspannen und verdienen: So wählen unternehmenserfahrene Bachelorstudierende der Generation Z ihren Arbeitgeber aus

Therese Bartusch-Ruhl M. A. Pressestelle Fachbereich Wirtschaft
Hochschule Mainz
Eine Kurzstudie von Prof. Dr. Norbert Rohleder an der Hochschule Mainz

Entspannen und verdienen – bei der Wahl ihres Arbeitgebers legen praxiserfahrene Bachelorstudierende der Generation Z den Fokus sowohl auf eine ausgewogene Work-Life-Balance als auch auf die Vergütung. Das geht aus einer Kurzstudie hervor, die von Professor Dr. Norbert Rohleder am Fachbereich Wirtschaft der Hochschule Mainz im Mai 2022 durchgeführt wurde.

Demnach sind für knapp 77 Prozent der Befragten die Möglichkeiten, ihr Arbeits- und Privatleben in Einklang zu bringen, die wichtigste Eigenschaft, die einen attraktiven Arbeitgeber ausmachen; nahezu 70 Prozent der zwischen 1995 und 2010 Geborenen betrachten das Entgelt als präferiertes Attribut. Schließt man bei den Befragten auch Studierende mit ein, deren praktische Erfahrungen sich auf Ferienjobs und Praktika beziehen, steht der Verdienst sogar an erster Stelle. Nur etwas mehr als die Hälfte der berufserfahrenen „Gen Z“ erachten Aufstiegs- und Entwicklungsmöglichkeiten als wichtige Eigenschaft, die ihnen Unternehmen bieten müssen. Internationalität, Attraktivität der Produkte und Freizeitangebote charakterisieren aus Sicht der berufserfahrenen Befragten am wenigsten einen attraktiven Arbeitgeber.

Wissenschaftliche Ansprechpartner:
Die detaillierten Ergebnisse der Kurzstudie können kostenfrei beim Studienautor, Prof. Dr. Norbert Rohleder (norbert.rohleder@hs-mainz.de) angefragt werden.

(nach oben)


Dem Insektensterben auf der Spur: Landnutzung und Klima stören Kolonieentwicklung der Steinhummel

Annika Bingman Presse- und Öffentlichkeitsarbeit
Universität Ulm
Bestäubende Insekten sind für die Biodiversität und die landwirtschaftliche Produktion unersetzlich. Doch seit Jahren geht der Bestand an Bienen, Hummeln und weiteren Insekten stark zurück. Mögliche Gründe reichen vom Klimawandel über den Einsatz von Pestiziden bis zum Verlust von Lebensraum. Nun haben Biologinnen und Biologen der Universität Ulm erstmals nachgewiesen, dass die Landnutzungsintensität und klimatische Veränderungen das chemische Duftprofil und die Körpergröße von Steinhummeln beeinflussen. Beide Faktoren könnten mitursächlich für den Insekten-Rückgang sein. Die Forschungsergebnisse sind im Fachjournal PLOS ONE erschienen.

Die große Mehrzahl der Wild- und Kulturpflanzen wird von Insekten bestäubt. Umso beunruhigender sind Ergebnisse der Forschungsplattform Biodiversitäts-Exploratorien: In einem Zeitraum von zehn Jahren ist die Anzahl der Insektenarten um ein Drittel zurückgegangen. Nun haben sich Ulmer Forschende auf Ursachensuche begeben: In den Exploratorien Schwäbische Alb, Hainich-Dün und Schorfheide-Chorin analysierten sie, wie sich Umweltbedingungen auf Arbeiterinnen der Steinhummel (Bombus lapidarius) auswirken. Die untersuchten Gebiete in Nord-, Mittel- und Süddeutschland sind in verschieden stark genutzte landwirtschaftliche Flächen eingebettet. Im Rahmen der Forschungsplattform werden zum Beispiel regelmäßig Klima-Daten aufgezeichnet und die Landnutzungsintensität erhoben – festgemacht an Beweidung, Mahd und Düngung.

Professor Manfred Ayasse, Seniorautor der jetzt veröffentlichten Publikation in PLOS ONE, ist Experte für die chemische Kommunikation von Insekten. Der Ulmer Biologe weiß: Eine Störung der Pheromonproduktion – etwa durch Umwelteinflüsse – kann den Fortbestand ganzer Kolonien gefährden. Daher stehen Oberflächenduftstoffe der Steinhummel im Zentrum der aktuellen Studie.
Alle benötigten Steinhummeln wurden im Sommer 2018 auf 42 Experimentierflächen der Biodiversitäts-Exploratorien eingesammelt und im Labor untersucht. „Mithilfe von chemischen Analysen haben wir die Menge und Zusammensetzung der Oberflächenduftstoffe von 307 Hummeln analysiert. Zudem wurde die Größe jedes Insekts gemessen; und letztlich haben wir unsere Ergebnisse mit der Bewirtschaftungsintensität der Untersuchungsflächen aus den drei Exploratorien korreliert“, erklärt Erstautor Florian Straub, Wissenschaftlicher Mitarbeiter am Ulmer Institut für Evolutionsökologie und Naturschutzgenomik.

Die Untersuchungen zwischen Feld und Labor belegen den Einfluss der Umweltfaktoren und insbesondere der landwirtschaftlichen Nutzung. Tatsächlich verändert sich das Duftprofil der Steinhummel in Abhängigkeit von der Temperatur und Bewirtschaftungsintensität am Standort. Im Exploratorium Schorfheide-Chorin konnten die Forschenden zudem zeigen, dass die Gesamtduftstoffmenge durch eine steigende Landnutzungsintensität zunimmt. Sowohl die Veränderung des Duftprofils als auch der Duftstoffmenge birgt das Risiko, die chemische Insekten-Kommunikation zu stören.
Von einer solchen Modifikation ist auch das Königinnenpheromon betroffen, das eine Schlüsselrolle beim Insektensterben spielen könnte. Dieses Pheromon erfüllt nämlich eine wichtige Funktion bei der Arbeitsteilung und der sozialen Interaktion im Nest. Eine Störung dieser chemischen Kommunikation hat somit Auswirkungen auf die Fortpflanzung und die weitere Entwicklung der Kolonie.

Für die abnehmende Körpergröße der Insekten fanden die Forschenden ebenfalls eine Erklärung: Ursächlich ist wohl die Wechselwirkung zwischen Landnutzungsintensität und Untersuchungsregion, die beispielsweise das Futterangebot beeinflusst. Die Wissenschaftlerinnen und Wissenschaftler vermuten, dass weniger Futter einen nachteiligen Effekt auf die Larven-Entwicklung hat. Eine geringere Körpergröße gefährdet wiederum den Steinhummel-Bestand, indem kleinere Insekten weniger Nahrung transportieren und nicht so lange Strecken bei der Futtersuche zurücklegen können.

„Offenbar wirken sich eine intensive landwirtschaftliche Nutzung und Temperatur-Änderungen nachteilig auf die Fortpflanzung und Kolonieentwicklung der Steinhummel aus. Dies könnte eine Ursache für den dramatischen Insekten-Rückgang sein“, resümiert Professor Manfred Ayasse von der Universität Ulm. Allerdings sei der Effekt der Landnutzung oft erst in Verbindung mit klimatischen Veränderungen relevant gewesen.
Zukünftige Studien sollten die verschiedenen Einflussfaktoren – insbesondere rund um die landwirtschaftliche Nutzung – stärker differenzieren und die Mobilität der Insekten berücksichtigen.

Die Forschenden der Universität Ulm (Institut für Evolutionsökologie und Naturschutzgenomik), der TU München und der drei Exploratorien wurden von der Deutschen Forschungsgemeinschaft (DFG) im Zuge des Langzeit-Projekts „Biodiversitäts-Exploratorien“ unterstützt.

Zu den Biodiversitäts-Exploratorien
Die drei Biodiversitäts-Exploratorien Schwäbische Alb, Hainich-Dün und Schorfheide-Chorin sind Teil einer Forschungsplattform, die seit 2006 von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird. Auf real bewirtschafteten Untersuchungsflächen erforschen Wissenschaftlerinnen und Wissenschaftler, wie sich unterschiedliche land- und forstwirtschaftliche Bewirtschaftungsformen auf die Biodiversität auswirken. Die Leitung des Exploratoriums Schwäbische Alb hat Professor Manfred Ayasse von der Universität Ulm.
http://www.biodiversity-exploratories.de/de/

Wissenschaftliche Ansprechpartner:
Florian Straub: Tel.: 0731-5022696, florian.straub@uni-ulm.de
Prof. Dr. Manfred Ayasse: Tel.: 0731-5022663, manfred.ayasse@uni-ulm.de

Originalpublikation:
Straub F, Kuppler J, Fellendorf M, Teuscher M, Vogt J, Ayasse M (2022) Land-use stress alters cuticular chemical surface profile and morphology in the bumble bee Bombus lapidarius. PLoS ONE 17(5): e0268474. https://doi.org/10.1371/journal.pone.0268474

(nach oben)


Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Landwirtschaft, Habitatverlust oder Abwässer – menschgemachte Stressoren wirken sich negativ auf die biologische Vielfalt in Bächen und Flüssen aus. In welchem Maße dabei auch ihr Vermögen zur Selbstreinigung und andere wichtige Ökosystemleistungen in Mitleidenschaft gezogen werden, darüber weiß man noch sehr wenig. Mit einer kürzlich im Fachjournal Global Change Biology veröffentlichten Metastudie hat ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) den weltweiten Stand der Forschung dazu erfasst – und gibt damit neue Impulse für ein verbessertes Gewässermanagement.

Fließgewässer sind die Lebensadern unserer Erde, Hotspots der Biodiversität und für den Menschen unverzichtbare Lebensgrundlage: Sie stellen Trinkwasser bereit, dienen dem Hochwasserschutz und werden zur Bewässerung landwirtschaftlicher Flächen genutzt. Doch der Mensch nimmt Einfluss auf Gewässersysteme und deren ökologische Funktionen – unter anderem durch Veränderung der natürlichen Gewässerstruktur, Landwirtschaft oder Einleitung von Abwässern. „Das alles geht natürlich nicht spurlos an den Fließgewässern vorüber“, sagt Dr. Mario Brauns, Wissenschaftler am UFZ-Department Fließgewässerökologie. „Die allermeisten Studien dazu befassen sich mit den Auswirkungen auf die Biodiversität – was aus unserer Sicht aber nur einen Teil des Problems erfasst. Denn ein Verlust der biologischen Vielfalt kann zwar anzeigen, dass etwas nicht stimmt in einem Gewässer, doch ob und inwieweit seine ökologischen Funktionen in Mitleidenschaft gezogen sind, bleibt unbeantwortet.“

Eine der wichtigsten Ökosystemleistungen von Fließgewässern ist ihre natürliche Reinigungsleistung. Sie kann über verschiedene ökologische Funktionen wie etwa die Nährstoffaufnahme oder die Zersetzung von Laub bewertet werden. Doch wie genau wirken sich menschliche Stressoren auf diese ökologischen Funktionen aus, die für die natürliche Selbstreinigungskraft eines Fließgewässers essenziell sind? „Für unsere Metastudie haben wir gemeinsam mit internationalen Kolleg:innen den aktuellen Stand der Forschung zu dieser Frage zusammentragen“, sagt Brauns. Das Forschungsteam wertete die Fachliteratur nach Studien aus, in denen die Auswirkungen menschlicher Stressoren auf die ökologischen Funktionen von Fließgewässern untersucht wurden. „Wir haben sämtliche weltweit verfügbaren Forschungsarbeiten recherchiert und fanden insgesamt 125 Studien – was im globalen Maßstab wirklich eine sehr geringe Ausbeute ist“, sagt Brauns. „Das hat noch einmal verdeutlicht, wie wenig hierzu bislang geforscht wurde. Und: Die gefundenen Studien wurden vor allem in Europa, Nordamerika oder Kanada durchgeführt. Über die Regionen Asien oder Afrika ist bislang fast nichts bekannt. Hier besteht aus unserer Sicht höchster Forschungs- und Handlungsbedarf.“

Die Auswertung der Studiendaten ergab, dass die Effizienz, mit der Fließgewässer Nitrat zurückhalten können, in Bächen, die durch landwirtschaftlich genutzte Gebiete fließen, fast fünfmal geringer ist als in Bächen mit natürlicher Umgebung. „Das ist wirklich enorm“, sagt Brauns und erklärt: „Landwirtschaftlich geprägte Fließgewässer sind durch hohe Nährstoffkonzentrationen und eine geschädigte Gewässerstruktur so stark belastet, dass sie ihre natürliche ökologische Rückhaltefunktion nicht mehr ausreichend erfüllen können und dadurch einen Großteil ihrer Reinigungsleistung einbüßen.“ Ein weiteres wichtiges Ergebnis der Studie ist die vergleichende Bewertung der Stressoren: Welcher Stressor hat über alle ökologischen Funktionen hinweg die stärksten Auswirkungen? Deutlich auf Platz eins liegt die Einleitung von Abwässern. Auf dem unrühmlichen zweiten Platz die Landwirtschaft und auf Platz drei die Urbanisierung. „Das sind alles Bereiche, in denen wir dringend tätig werden müssen“, sagt Brauns. „Um die Gewässergefährdung besser abschätzen und passende Managementmaßnahmen einleiten zu können, sind die ökologischen Funktionen von Fließgewässern sehr gute und aussagekräftige Indikatoren. Das konnten wir mit unserer Metastudie zeigen. Wir hoffen, dass es in Zukunft vermehrt Studienansätze geben wird, die die ökologischen Funktionen von Fließgewässern in den Fokus nehmen. Und das am besten auf breiter Ebene weltweit – denn es besteht rund um den Globus dringender Handlungsbedarf.“

Wissenschaftliche Ansprechpartner:
Dr. Mario Brauns
UFZ-Department Fließgewässerökologie
mario.brauns@ufz.de

Originalpublikation:
Mario Brauns, Daniel C. Allen, Iola G. Boëchat, Wyatt F. Cross, Verónica Ferreira, Daniel Graeber, Christopher J. Patrick, Marc Peipoch, Daniel von Schiller, Björn Gücker: A global synthesis of human impacts on the multifunctionality of streams and rivers, Global Change Biology, doi: 10.1111/gcb.16210
https://doi.org/10.1111/gcb.16210

(nach oben)


3D-Metalldruck – Der Schlüssel zu einer effektiven Instandhaltung im Maschinenbau

Kristin Ebert Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Kick-off für neues Verbundprojekt von BTU Cottbus-Senftenberg und LEAG im Rahmen der WIR!-Initiative. Effektive Lösungen für die Instandhaltung von großen Baumaschinen sparen Zeit und Material.

Individuelle Verfügbarkeit, Passfähigkeit, flexible Fertigung in kleinen Stückzahlen sowie eine hohe Freiheit in Form und Gestalt – das sind die Komponenten, die eine effektive und auf die Zukunft gerichtete Fertigung von Bauteilen im Maschinenbau ausmachen. Der plötzliche Defekt eines Bauteils oder einer Baugruppe kann ganze Produktionsabläufe ins Stocken bringen. Vertragliche Zusagen, Termin- und Lieferketten sind gefährdet. Was vor nicht allzu langer Zeit zu erheblichen Produktionsunterbrechungen führte, ist Gegenstand eines neuen Projektes, in dem die BTU Cottbus-Senftenberg und die MCR Engineering Lausitz GmbH eng zusammenarbeiten. Unter dem Namen MCR Engineering Lausitz vermarktet die LEAG seit Kurzem die Instandhaltung von Schienenfahrzeugen und großen Maschinenbaugruppen.

Das Verbundprojekt „Additive Fertigung großdimensionaler Maschinenbaugruppen für kurzfristige Ersatzbereitstellungen als Bestandteil eines integrierten Instandhaltungskonzepts (AFiin)“ wird für den Zeitraum von zwei Jahren mit 450.000 Euro im Rahmen der WIR!-Initiative „Lausitz – Life & Technology“ aus Mitteln des Bundesministeriums für Bildung und Forschung gefördert.

Kick-off-Veranstaltung
Datum: Mittwoch, 18. Mai 2022, 9:30-11.30 Uhr
Ort: MCR Engineering Lausitz im Industriepark Schwarze Pumpe, An der Heide 1, 03130 Spremberg (Anfahrtsskizze siehe unten)

Die Projektpartner präsentieren Ziele und Arbeitspakete von AFiin sowie die Vorteile der Additiven Fertigung. Diese reichen von einer Verringerung von Beschaffungszeiten, Lagerhaltung bis hin zur Reduzierung von Stillstandzeiten und Reparaturzeiten.

Ablauf der Veranstaltung
9.30 Uhr bis 9.45 Uhr – Begrüßung
9.45 Uhr bis 10.00 Uhr – Projekteinführung
10.00 Uhr bis 10.30 Uhr – 10-Minuten-Kurzvorträge
• Mit innovativer Forschung & Entwicklung gemeinsam für eine starke und dynamische Lausitz – Leonie Liemich, Projektkoordinatorin Lausitz – Life & Technology
• Wire Arc Additive Manufacturing: Potentiale der Schweißtechnik für die additive Fertigung – Sebastian Fritzsche, BTU Cottbus-Senftenberg, Lehrstuhl Füge- und Schweißtechnik
• Chancen der additiven Fertigung in der Instandhaltung – Ronny Sembol, MCR Engineering Lausitz
10.30 Uhr bis 11.30 Uhr – Diskussion und Interviews

Medienvertreter*innen sind herzlich eingeladen.
Die Zielstellung des Projekts liegt in der Technologieentwicklung der additiven Fertigung für großdimensionale Maschinenbaugruppen, der Integration dieser in digitale Werkstattprozesse und Implementierung zeiteffizienter Instandhaltungsprozesse. Als weiteres Teilziel werden die Entwicklung und Fertigung eines Demonstrators mit ingenieurtypischen Eigenschaften in diesem Bereich gesteckt.

Das Projekt „Additive Fertigung großdimensionaler Maschinenbaugruppen“ setzt die erfolgreiche Kooperation der MCR Engineering Lausitz mit dem Lehrstuhl Füge- und Schweißtechnik der BTU in den neuen Entwicklungsbereich der additiven Fertigung für Großbauteile fort. Die Vorteile der lichtbogenbasierten additiven Fertigung (WAAM – Wire Arc Additive Manufacturing), verglichen mit den bekannten Techniken des Gießens und Verbindungsschweißens, liegen in einer sehr kurzfristigen Bereitstellung von Bauteilen und höchster Passgenauigkeit. Das Verfahren ermöglicht zudem eine ressourcenschonende Bauteiloptimierung. So können durch eine Aufwertung des Materials die Einsatzzeiten von Bauteilen deutlich verlängert werden. Diese Vorteile des WAAM-Verfahrens werden als innovativer Ansatz im Vorhaben genutzt, um 3D-gedruckte Ersatzteile für die Industrie zu fertigen, welche die Eigenschaften des Originalteils sogar übertreffen können und in sehr kurzen Lieferzeiten bereitgestellt werden können.

Kontakte
Ronny Sembol
MCR Engineering Lausitz
E ronny.sembol@leag.de
T 03564 693806
www.mcr-engineering.de

Sebastian Fritzsche
Lehrstuhl Füge- und Schweißtechnik
BTU Cottbus-Senftenberg
T +49 (0) 355 69 4992
E s.fritzsche@b-tu.de
www.b-tu.de

Kristin Ebert
Referentin Forschungs-PR
BTU Cottbus-Senftenberg
T +49 (0)355 69 2115
E kristin.ebert@b-tu.de
www.b-tu.de

Leonie Liemich
L&T Projektkoordinatorin
E Leonie.Liemich@hszg.de
T 03583-612-4801
www.life-and-technology.eu

Weitere Informationen:
http://www.b-tu.de/news/artikel/21145-3d-metalldruck-der-schluessel-zu-einer-eff…

(nach oben)


Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt

Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.

Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.

Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.

„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“

Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.

Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“

Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.

Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.

Link zur Fördermaßnahme: https://www.bmbf-wax.de/

Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de

Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de

Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla

Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse

(nach oben)


COVID-19: Wie Impfung und frühere Infektionen auch gegen Omikron helfen

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Immunzellen gegen frühere Sars-CoV-2-Varianten erkennen auch Omikron gut und können so vor schwerer Krankheit schützen / Impfung kann Immunantwort auch nach einer Infektion verbessern / Studie in Nature Microbiology veröffentlicht

Die Omikron-Variante von SARS-CoV-2 hat weltweit eine weitere große Infektionswelle verursacht. Denn auch geimpfte Personen oder solche, die sich mit einer vorherigen Virusvariante infiziert hatten, können sich mit Omikron anstecken. Trotzdem sind schwere Verläufe relativ selten. Wissenschaftler*innen des Universitätsklinikums Freiburg haben jetzt detailliert aufgeschlüsselt, wie der variantenübergreifende Schutz vor Infektion beziehungsweise schwerem Krankheitsverlauf entsteht. Ihre Ergebnisse haben die Forscher*innen am 28. April 2022 in der Online-Ausgabe der renommierten Fachzeitschrift Nature Microbiology veröffentlicht.

„Wir konnten in unserer Studie zeigen, dass Gedächtnis-T-Zellen, die nach Impfung oder Infektion mit einer früheren Sars-CoV-2-Variante gebildet wurden, auch die Omikron-Variante sehr gut erkennen und vor einem schweren Verlauf einer Infektion schützen können“, erklärt Ko-Studienleiterin Dr. Maike Hofmann, die in der Klinik für Innere Medizin II des Universitätsklinikums Freiburg eine Forschungsgruppe leitet. An Hofmann wird nächste Woche der Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft für ihre Forschung übergeben. „Die Bindungsfähigkeit der Antikörper an die Omikron-Variante ist stark reduziert. Daher schützen sie auch nach einem Impf-Booster nur recht kurz vor einer Infektion mit der Omikron-Variante“, so Hofmann weiter.

Immunantwort unterscheidet sich bei Geimpften und Genesenen
Die Wissenschaftler*innen untersuchten auch mögliche Unterschiede der Immunantworten von Genesenen und Geimpften. „Beide Gruppen haben eine breite T-Zell-Antwort: Bei Genesenen erkennen die T-Zellen mehrere Virus-Eiweiße. Bei Geimpften richtet sich die Immunantwort im Wesentlichen gegen das Spike-Eiweiß, das ja aus dem mRNA-Impfstoff im Körper hergestellt wird und dann die Immunantwort hervorruft. Die T-Zell-Antwort gegen das Spike-Eiweiß ist bei Geimpften breiter und stärker als bei Genesenen“, berichtet Ko-Studienleiter Prof. Dr. Christoph Neumann-Haefelin, Leiter des Gerok-Leberzentrums am Universitätsklinikum Freiburg. „Werden Genesene geimpft, fallen die T-Zell-Antworten ebenfalls vielfältiger aus und somit steigt der Schutz vor schweren Krankheitsverläufen bei zukünftigen Infektionen“, so Neumann-Haefelin.

Zwei der Erstautoren dieser Arbeiten sind die beiden jungen wissenschaftlich tätigen Ärzt*innen Dr. Julia Lang-Meli und Dr. Hendrik Luxenburger. Sie werden unter anderem durch das von der Deutschen Forschungsgemeinschaft geförderte “Clinician Scientist” Programm IMM-PACT am Universitätsklinikum Freiburg unterstützt. Es erlaubt eine Freistellung von jungen Ärzt*innen für die Forschung. „Diese wichtigen Ergebnisse sind nur dank der engen Vernetzung von Klinik und Forschung möglich gewesen“, betont Prof. Dr. Robert Thimme, Ärztlicher Direktor der Klinik für Innere Medizin II am Universitätsklinikum Freiburg.

„In der öffentlichen Wahrnehmung wird die Immunantwort gegen SARS-CoV-2 oft auf die Bildung von Antikörpern reduziert. Die jetzt veröffentlichte Studie trägt wesentlich dazu bei, ein vollständigeres Bild des Immunschutzes im Zusammenhang mit Sars-CoV-2 zu erhalten“, sagt Prof. Dr. Lutz Hein, Dekan der Medizinischen Fakultät der Universität Freiburg.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Neumann-Haefelin
Leiter Gerok-Leberzentrum
Klinik für Innere Medizin II (Schwerpunkt: Gastroenterologie, Hepatologie, Endokrinologie und Infektiologie)
Universitätsklinikum Freiburg
Telefon: 0761 270-32800
christoph.neumann-haefelin@uniklinik-freiburg.de

Originalpublikation:
Original-Titel der Studie: SARS-CoV-2-specific T-cell epitope repertoire in convalescent and mRNA-vaccinated individuals
DOI: 10.1038/s41564-022-01106-y
Link zur Studie: https://www.nature.com/articles/s41564-022-01106-y

(nach oben)


Fraunhofer UMSICHT auf IFAT 2022: Kreislaufführung von Wasser und Nutzungskonzepte für Biomasse

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Wasser als Ressource wird durch die Herausforderungen des Klimawandels immer weiter in den Fokus rücken. Gleichzeitig bieten Ansätze zur Verwertung von Biomasse künftig Möglichkeiten, CO2-Emissionen signifikant zu verringern und fossile Rohstoffe einzusparen. Auf der IFAT 2022 in München präsentieren Forschende des Fraunhofer UMSICHT innovative Konzepte und Technologien zur nachhaltigen Bewirtschaftung von Wasser, zur Kreislaufführung von Wertstoffen und zur Bereitstellung klimaneutraler Energie.

Wasserverfügbarkeit sichern
Wasser wird weltweit zu einer immer kritischeren Ressource. Angesichts zunehmender Dürreperioden wird es auch in manchen Regionen Deutschlands immer schwieriger, den Wasserhaushalt zu sichern. Hinzu kommen wasserintensive Industrien. »Eine nachhaltige, sichere und wirtschaftlich tragfähige Wasserversorgung setzt daher zunehmend eine lokale Kreislaufführung voraus«, erklärt Lukas Rüller vom Fraunhofer UMSICHT. »Die Sicherung der Wasserverfügbarkeit zur Versorgung der Industrie und zur kommunalen Trinkwasserversorgung ist weltweit eine notwendige Voraussetzung für eine nachhaltige Zukunft.«

Konzeptansätze des Fraunhofer-Instituts hierzu sind die Kreislaufführung von Prozesswasserströmen in der Industrie, ein zielgerichtetes Regenwassermanagement und die Aufbereitung von Kläranlagenabläufen zur Bewässerung von landwirtschaftlichen Flächen. Das Potenzial der Ansätze ist dabei längst noch nicht ausgeschöpft – innovative Techniken bieten vielversprechende Lösungsansätze.

Zu den Technologien für die Behandlung und Aufbereitung zählen die Vorwärtsosmose, die Hochdruck-Nanofiltration, die Umkehrosmose und Adsorbertechniken. Forschende des Fraunhofer UMSICHT entwickeln hierfür neue Komponenten, Verfahren und Betriebsführungsstrategien mit dem Ziel, die selektive Stofftrennung zu optimieren und gleichzeitig den Energiebedarf gering zu halten. Durch membranbasierte Konzentrationsvorgänge ist es z. B. gelungen, industrielle Abwasserströme auf bis zu 60 Prozent Trockensubstanz an der Grenze ihrer Pumpfähigkeit zu konzentrieren (Vorwärtsosmose).

Großes Potenzial für ungenutzte Biomasse
Im Zuge von CO2-Minderungsstrategien wächst die Bedeutung von Biomasse für die stoffliche und thermische Nutzung stetig. Das Fraunhofer UMSICHT erschließt neue Stoffströme, indem es bisher ungenutzte Biomasse einer effizienten Verwertung zuführt. Zu diesen Rohstoffen können künftig auch feuchte und/oder lignocellulosehaltige Biomasse wie Gras- und Grünschnitt, Ernterückstände wie Spelzen, Verarbeitungsreste aus land- und forstwirtschaftlicher Produktion oder Bioabfälle zählen. Zum einen werden aktuell die Aufbereitung und die Verarbeitung der biogenen Reststoffe optimiert, zum anderen werden die Biogasprozesse und die Verbrennungstechnik angepasst. Besonders interessant sind diese Ansätze für Kommunen, das Handwerk und die Industrie.

Ein Beispiel dazu ist das Projekt LaubCycle, in dem die Beheizung von kommunalen Einrichtungen wie Schwimmbäder oder Schulen durch aufbereitetes Laub geschehen soll. Voraussetzung ist die gezielte technische Aufbereitung des Materials, um gute Verbrennungseigenschaften sicherzustellen.

Auch die klassischen Biogasprozesse werden durch die Fraunhofer-Forschenden weiterentwickelt. Dazu zählen die biologische Methanisierung, die Aufbereitung und Nutzung der Gärreste sowie die Erstellung von Einspeisekonzepten als Beitrag zur Reduktion der Abhängigkeit von fossilen Energieträgern.

IFAT 2022
Besuchen Sie uns im Rahmen der IFAT vom 30. Mai bis 3. Juni 2022 in Halle B2/Stand 215/314 auf dem Gemeinschaftsstand der Fraunhofer-Gesellschaft. Informieren Sie sich über die Kreislaufführung von Wasser und neuartige Nutzungskonzepte von Biomassen. Unsere Fachkontakte beantworten gerne Ihre Fragen zu den Forschungsschwerpunkten, Angeboten und Dienstleistungen des Fraunhofer UMSICHT.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2020/care…. Mehr zur Nutzung von Reisschalen als Energielieferant
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/laubc… Mehr zur nachhaltigen Verwertung von Laub
https://www.umsicht.fraunhofer.de/de/kompetenzen/verfahrenstechnik.html Kompetenz Verfahrenstechnik

(nach oben)


Grauer Star: Beide Augen am selben Tag operieren? Neuer Cochrane Review wertet Evidenz aus.

Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Sollte man beide Augen-OPs gegen einen Grauen Star am gleichen Tag machen lassen oder dazwischen besser eine längere Pause einlegen? Ein aktueller Cochrane Review geht dieser für Patient*innen und Augenärzt*innen wichtigen Frage nach.

Der Graue Star (Katarakt) ist eine altersbedingte Trübung der Augenlinse. Die einzige Möglichkeit, diese häufige Augenerkrankung zu behandeln, ist eine Operation. Dabei wird die getrübte Linse entfernt und durch eine künstliche Linse ersetzt.

Gegenwärtig unterziehen sich die meisten Menschen einer Kataraktoperation an beiden Augen an zwei verschiedenen Tagen, wobei zwischen den Eingriffen Tage, Wochen oder Monate liegen können. Es ist jedoch auch möglich, beide Augen am selben Tag zu operieren. Zu den möglichen Vorteilen dieser Methode gehören weniger Krankenhausaufenthalte, eine schnellere Erholung der Sehkraft und geringere Kosten. Es gibt jedoch auch potenzielle Risiken, wie das gleichzeitige Auftreten von Komplikationen in beiden Augen.

Die Vor- und Nachteile beider Ansätze sind unter Fachleuten seit langem umstritten. Aus diesem Grund werteten die Autor*innen dieses neuen Cochrane Review die Evidenz aus Studien zu diesem Thema aus.

Kernaussagen des Reviews:
Die derzeitige Evidenz auf Basis von 14 Studien mit 276 260 Teilnehmenden spricht dafür, dass es keinen wesentlichen Unterschied zwischen einer Operation beider Augen am selben Tag gegenüber einer Operation an verschiedenen Tagen in Bezug auf die folgenden klinischen Ergebnisse gibt: Augeninfektion (Endophthalmitis, eine schwere, sichtbedrohende, aber seltene Komplikation), Notwendigkeit einer Brillenkorrektur nach der Operation, Komplikationen, Sehvermögen mit Brille und von den Patienten berichtete Ergebnisse. Zudem bestätigt die Evidenz, dass die Kosten einer OP an einem Tag niedriger ausfallen.

Insgesamt war die Zahl und Qualität der Studien begrenzt, die Vertrauenswürdigkeit der Evidenz nach GRADE lag je nach Endpunkt zwischen sehr gering und moderat.

Originalpublikation:
Dickman MM, Spekreijse LS, Winkens B, Schouten JSAG, Simons RWP, Dirksen CD, Nuijts RMMA. Immediate sequential bilateral surgery versus delayed sequential bilateral surgery for cataracts. Cochrane Database of Systematic Reviews 2022, Issue 4. Art. No.: CD013270. DOI: 10.1002/14651858.CD013270.pub2

Weitere Informationen:
https://www.cochrane.de/news/grauer-star-beide-augen-am-selben-tag-operieren

(nach oben)


Hochwasserschutz mit Mehrfachnutzen: Mehr Raum für Flüsse

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Ökologischer Hochwasserschutz – der Auen wiederherstellt – ist sinnvoll, technisch möglich und wirtschaftlich effizient. Und doch wird dieser Ansatz weltweit noch nicht konsequent umgesetzt, weil die administrativen und rechtlichen Hürden hoch sind. Das zeigt eine Studie von Wissenschaftler*innen des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), die gemeinsam mit anderen Forschenden vier Projekte zur Renaturierung von Flussauen in Deutschland und den USA analysiert haben. Die Forschenden empfehlen, dem ökologischen Hochwasserschutz Vorrang zu geben und die nötigen Flächen verfügbar zu machen. So ließen sich auch nationale und europäische Umweltziele besser erreichen.

„Der konventionelle technische Hochwasserschutz greift stark in die Gewässerstruktur ein, ist teuer, in der Regel starr und lässt sich nicht ohne Weiteres an die im Klimawandel zunehmenden Überschwemmungen anpassen. Die technischen Maßnahmen schränken auch die natürlichen Funktionen von Überschwemmungsgebieten ein, zu denen etwa die Wasserspeicherung und die Verbesserung der Wasserqualität gehören. Außerdem gehen Lebensräume für viele Tier- und Pflanzenarten in und am Wasser verloren – und mit ihnen eine Vielzahl von Vorteilen für uns Menschen. Deshalb brauchen wir weltweit deutlich mehr Hochwasserschutzkonzepte mit Mehrfachnutzen für Bevölkerung und Umwelt“, sagt die IGB-Forscherin Sonja Jähnig, Autorin der Studie.

Konventioneller Hochwasserschutz kann falsches Sicherheitsgefühl vermitteln:
Bauliche Maßnahmen wie Deiche, Dämme und künstliche Kanäle fördern die städtische und landwirtschaftliche Entwicklung in Gebieten, die eigentlich natürliche Überschwemmungsgebiete sind – den Flussauen. Die dadurch gewonnene Fläche ist durch diese baulichen Maßnahmen seltener von kleinen und mittleren Hochwassern betroffen. Das erweckt häufig den Eindruck, das Hochwasserrisiko sei gebannt. Infolge dieses falschen Sicherheitsgefühls unterschätzt die Bevölkerung vor Ort die Gefahr von seltenen großflächigen Überschwemmungen und ist umso anfälliger für deren Folgen. Dieser sogenannte „Deich-Effekt“ (Englisch: levee-effect) steht beispielhaft dafür, dass einige kurzfristig wirksame menschliche Eingriffe in die Landschaft in Wirklichkeit die langfristige Anfälligkeit des gesamten Systems erhöhen.

Hochwasserschutz mit Mehrfachnutzen wissenschaftlich untersucht:
Zwar gibt es weltweit mittlerweile Projekte zur Renaturierung von Flüssen und Auen. Doch nur wenige davon werden so geplant, dass sie gleich mehrere Verbesserungen erzielen, also zum Beispiel das Hochwasserrisiko verringern, Lebensräume wiederherstellen und die Anpassungsfähigkeit an den Klimawandel erhöhen. Das Forschungsteam hat deshalb vier „Multi-Benefit-Projekte“ in Deutschland und in Kalifornien (USA) untersucht und ihre Triebkräfte, die Chronologie sowie die durchgeführten Maßnahmen und Hindernisse charakterisiert. Außerdem analysierten die Forschenden die politischen Rahmenbedingungen, die solche Projekte fördern, ermöglichen und manchmal auch behindern.

Beispiele Deutschland: Deichrückverlegung an der Elbe und große Kiesbänke für die Isar:
Als Beispiel für Deutschland untersuchte das Team zum einen die Deichrückverlegung an der Mittelelbe bei Lenzen. Die wissenschaftliche Bestätigung, dass sich der Hochwasserscheitelpunkt lokal um fast 50 Zentimeter verringerte und die nachgewiesene, weitreichende räumliche Schutzwirkung vor Hochwasser trugen sogar dazu bei, die Akzeptanz von Deichrückverlegungen zu steigern: „Das ist so deutlich bis dato nicht gemessen worden und hat die Position widerlegt, dass Deichrückverlegungen nichts für den Hochwasserschutz bringen. Seitdem sind in anderen Flüssen Deutschlands ähnliche Projekte umgesetzt worden“, sagt Dr. Christian Damm vom Karlsruher Institut für Technologie, ebenfalls Autor der Studie. Der ökologische Erfolg des Projekts ließ sich an der raschen Rückkehr zahlreicher Wasser- und anderer Vogelarten sowie einer Vielfalt an wiederhergestellten Lebensraumtypen ablesen.

Als zweites Projekt untersuchten die Forschenden eine acht Kilometer lange Flussrenaturierung der Isar, die von der südlichen Stadtgrenze Münchens bis zur Innenstadt reicht – der sogenannte Isarplan. Das Projekt zeigt, dass Fluss- und Auenrenaturierungen auch in dicht besiedelten, urbanen Gebieten möglich sind. Der Isarplan hatte drei Hauptziele: Minimierung des Hochwasserrisikos, Wiederherstellung von Lebensräumen im Fluss und Verbesserung des Freizeitnutzens. „Der Isarplan veranschaulicht den Mehrfachnutzen-Ansatz und sticht durch einen sehr kooperativen Planungsprozess hervor, in den auch die Bevölkerung aktiv mit eingebunden wurde“, sagt Jürgen Geist, Forscher an der Technischen Universität München und auch Autor der Studie. Das Hochwasserrisiko wurde vor allem dadurch verringert, dass dem Fluss mit mindestens 90 statt vorher 50 Metern mehr Raum gegeben wurde. So erhöhte sich auch die Kapazität im Stadtgebiet, größere Wassermengen abzupuffern. Ufersicherungen aus Beton wurden entfernt und durch Kiesufer ersetzt, wodurch sich Kiesbänke bilden konnten – und damit Laichplätze und Lebensräume für den Huchen (Donaulachs) und andere gefährdete Fischarten.

Beispiele USA: Wiederherstellung von Ökosystemen waren eigentlich Nebeneffekte:
In den USA analysierten die Forschenden die Hochwasser-Bypässe im Sacramento-Flussgebiet. Der Yolo-Bypass ist ein „Auen-Bypass“, eine Art der Hochwasserumleitung mit großer Fläche, langen Verweilzeiten und hohem ökologischem Potenzial. Der größte Teil der 240 Quadratkilometer großen Fläche befindet sich in Privatbesitz und wird in der Trockenzeit, wenn das Überschwemmungsgebiet weitgehend entwässert ist, landwirtschaftlich genutzt, beispielsweise zum Anbau von Mais, Sonnenblumen und Reis, als Weide- oder Brachland. Die verbleibenden 65 Quadratkilometer sind ein Schutzgebiet, vor allem für Vögel und Fische. „Der Yolo-Bypass gilt als Modell für ein gut verwaltetes sozial-ökologisches System. Die öffentlich-private Partnerschaft funktioniert gut. Artenschutz, Hochwasserschutz und Landwirtschaft lassen sich in Einklang bringen – und all das in direkter Nähe zu einer Großstadt“, erläutert Sonja Jähnig. Erfolgreich umgesetzt wurden auch der Deichrückbau und die Auenrenaturierung am Bear und am Feather River, um den lokalen Hochwasserschutz zu erhöhen. Ein zusätzliches niedriges Feuchtgebiet – eine Auenmulde – schaffte zusätzlich überfluteten Lebensraum für heimische Fische und andere wassergebundene Arten.
In beiden amerikanischen Fällen war die Verringerung des Überschwemmungsrisikos jeweils der wichtigste Antrieb für das Projekt – und die Wiederherstellung natürlicher Ökosysteme folgte in einem Fall unbeabsichtigt, im anderen als Voraussetzung für den Erhalt einer öffentlichen Förderung.

Erkenntnisse aus dem Projektvergleich: 7 Faktoren, auf die es ankommt:
Anhand der vier Fallstudien identifizierten die Forschenden sieben Faktoren, die je nach Ausprägung fördernd oder hemmend für Mehrfachnutzen-Projekte sein können. Dazu zählt Offensichtliches, wie die Verfügbarkeit von (unbebauter) Fläche, die Integration von Forschungswissen in Planungen und Entscheidungsprozesse, passende politische und regulatorische Rahmenbedingungen und ausreichend Finanzmittel. Aber auch gesellschaftliche Faktoren sind entscheidend – beispielsweise die Wahrnehmung von Überschwemmungen nicht nur als Bedrohung, sondern als positives Element und wichtige Eigenschaft natürlicher Gewässer. Als unabdingbar für den Projekterfolg stellte sich auch die zielorientierte Projektführung und konstruktive Einbindung und Zusammenarbeit aller Beteiligten heraus. Auch wenn diese Projekte heute als sehr gute Beispiele erscheinen, so waren sie doch erst das Ergebnis eines Zusammenspiels mehrerer begünstigender Faktoren und erforderten allesamt engagierte Beharrlichkeit, um letztendlich realisiert zu werden, urteilen die Forschenden. „Dies hängt auch damit zusammen, dass es noch vergleichsweise wenig praktisches Erfahrungswissen aus solchen Mehrfachnutzen-Projekten gibt und man mit relativ großen administrativen und rechtlichen Hindernissen konfrontiert ist. Deshalb ist es wichtig, gelungene Beispiele genau zu analysieren und die Erfolgs- und Risikofaktoren für andere Akteure aufzubereiten, die solche Projekte ebenfalls realisieren wollen“, erläutert Jürgen Geist.

Empfehlungen für Politik und Behörden:
Insgesamt kommen die Wissenschaftlerinnen und Wissenschaftler zu dem Schluss, dass ökologischer Hochwasserschutz kosteneffizienter als bisherige Ansätze ist, großes Synergiepotenzial hat und solche Mehrfachnutzen-Ansätze von Politik und Verwaltung daher verstärkt in Betracht gezogen werden sollten. „Gerade in Deutschland werden Überschwemmungen schnell negativ oder als Risiko gesehen – ihr Wert für Natur und Bevölkerung aber übersehen. In diesem Kontext sind mangelnde Überflutungsflächen häufig ein Diskussionspunkt. Es wäre wünschenswert, wenn die zuständigen politischen und administrativen Ebenen von Bund, Ländern und Kommunen effiziente Ansätze entwickeln würden, um die dafür notwendigen Flächen bereitzustellen“, unterstreicht Sonja Jähnig.

Diese Bemühungen würden auch auf die europäischen und nationalen Umweltziele einzahlen, wie die europäische Hochwasserrisikomanagementrichtlinie, die Wasserrahmenrichtlinie, die Fauna-Flora-Habitat-Richtlinie sowie die EU-Biodiversitätsstrategie — letztere sieht beispielsweise vor, 25.000 Kilometer Flüsse in Europa zu renaturieren. Das kürzlich vom Bundesumwelt- und Verbraucherschutzministerium vorgestellte Eckpunktepapier zum „Aktionsprogramm Natürlicher Klimaschutz“ weise mit den beiden erstgenannten Handlungsfeldern „Schutz intakter Moore und Wiedervernässungen“ sowie „Naturnaher Wasserhaushalt mit lebendigen Flüssen, Seen und Auen“ in die richtige Richtung. Entscheidend sei es laut Sonja Jähnig nun, das Programm so auszugestalten, dass möglichst viele Synergieeffekte erzielt werden können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de
https://www.igb-berlin.de/profile/sonja-jaehnig

Originalpublikation:
Serra-Llobet Anna, Jähnig Sonja C., Geist Juergen, Kondolf G. Mathias, Damm Christian, Scholz Mathias, Lund Jay, Opperman Jeff J., Yarnell Sarah M., Pawley Anitra, Shader Eileen, Cain John, Zingraff-Hamed Aude, Grantham Theodore E., Eisenstein William, Schmitt Rafael (2022): Restoring Rivers and Floodplains for Habitat and Flood Risk Reduction: Experiences in Multi-Benefit Floodplain Management From California and Germany. Frontiers in Environmental Science, VOLUME 9, DOI=10.3389/fenvs.2021.778568

Weitere Informationen:
https://www.igb-berlin.de/news/hochwasserschutz-mit-mehrfachnutzen-mehr-raum-fue…

(nach oben)


Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.

Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.

„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.

„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“

Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.

„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“

Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“

Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.

Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“

Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]

(nach oben)


Wasseraufbereitung: Licht hilft beim Abbau von Hormonen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)

Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“

Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.

Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.

Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu

Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8

Abstract unter https://www.nature.com/articles/s41565-022-01074-8

Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…

(nach oben)


Neue Studie: Fließgewässer an Ackerflächen senken Schadstoffe im Wasserkreislauf

Christian Wißler Pressestelle
Universität Bayreuth
Wassergräben und kleine Bäche am Rand von landwirtschaftlichen Flächen tragen erheblich dazu bei, die aus der Landwirtschaft stammenden Schadstoffe im Wasser zu verringern. Sie fördern vor allem den Nitrat-Abbau durch Mikroorganismen und haben so einen wichtigen Einfluss auf den Stickstoffgehalt in Flüssen und Seen. Dies hat ein Forschungsteam unter der Leitung von Prof. Dr. Tillmann Lüders an der Universität Bayreuth jetzt erstmals nachgewiesen. Die Wissenschaftler konnten zeigen, dass das Bachwasser in einem intensiven Austausch mit dem umgebenden Grundwasser steht, wodurch die Mikroben stimuliert werden. In der Zeitschrift „Water Research“ stellen sie ihre Forschungsergebnisse vor.

Die Studie bietet wichtige Anknüpfungspunkte für eine nachhaltigere Gestaltung von Agrarlandschaften: Die Randgebiete landwirtschaftlich genutzter Flächen mit ihren charakteristischen Wassergräben können möglicherweise gezielt so gestaltet werden, dass Schadstoffbelastungen aus der Landwirtschaft effizienter eliminiert werden. Fließgewässer und auch das Grund- und Trinkwasser werden dadurch besser geschützt.

Die häufig vom Menschen neu geschaffenen oder umgestalteten Wassergräben und Bäche am Rand von Äckern sammeln bis zu 70 Prozent des Wassers in landwirtschaftlichen Einzugsgebieten ein. „Der Anteil, den diese Bäche an der Reinigung des Wassers haben, ist von der Forschung bisher deutlich unterschätzt worden. Man hat diese kleinen Fließgewässer bislang hauptsächlich als reine Drainagen angesehen, die das aus landwirtschaftlichen Nutzflächen stammende Wasser auffangen und abfließen lassen, ohne die Wasserqualität nennenswert zu beeinflussen. Unsere Studie widerlegt nun diese Sichtweise. Wie wir zeigen konnten, ist das Bachbett dieser Gewässer dicht mit Mikroorganismen besiedelt, die Nitrat abbauen: Sie reduzieren umweltschädliches Nitrat zu gasförmigem Stickstoff. Überraschenderweise haben wir dabei lokal grundlegende Unterschiede in der Besiedlung gefunden: In einigen Abschnitten des Bachbetts fanden sich klassische Denitrifizierer, in anderen Abschnitten dagegen noch weniger bekannte, sogenannte chemolithoautotrophe Nitratreduzierer“, erklärt Prof. Dr. Tillmann Lüders, der an der Universität Bayreuth den Lehrstuhl für Ökologische Mikrobiologie innehat.

Die Besiedlung der Wassergräben mit Organismen, die schädliches Nitrat abbauen, steht in engem Zusammenhang mit einem weiteren Phänomen, das die Forscher jetzt in interdisziplinärer Zusammenarbeit aufzeigen konnten: Die kleinen Fließgewässer nehmen nicht nur Wasser aus der Landschaft auf, sondern geben gleichzeitig auch wieder Wasser an das umgebende Grundwasser ab. Umgekehrt kann dieses Grundwasser stromabwärts auch wieder dem Bach zuströmen. Dadurch können auf einer Fließstrecke von wenigen 100 Metern mehr als 80 Prozent des im Graben fließenden Wassers ausgetauscht werden. Alle diese Prozesse sind abhängig von den lokalen Geländeeigenschaften und beeinflussen ihrerseits die Besiedlung des Bachbetts durch nitratreduzierende Mikroorganismen.

„Wir sind hier auf ein bisher unbekanntes Ineinandergreifen von Hydrologie und Mikrobiologie gestoßen, dem die ökologische Landschaftsgestaltung künftig mehr Aufmerksamkeit schenken sollte. Der sehr viel bessere Erkenntnisstand zu größeren Fließgewässern darf nicht zu einer nachrangigen Betrachtung solch kleiner, landwirtschaftlich geprägter Bäche und Gräben führen. Diese haben einen nicht zu unterschätzenden Anteil an den Selbstreinigungskräften eines gesamten Wassereinzugsgebietes“, sagt Zhe Wang, Erstautor der Studie und wissenschaftlicher Mitarbeiter am Lehrstuhl für Ökologische Mikrobiologie.

Die Forschungsarbeiten, die zu der jetzt in „Water Research“ veröffentlichten Studie geführt haben, wurden exemplarisch in Schwaben, bei Tübingen, durchgeführt. Sie waren eingebettet in den DFG-Sonderforschungsbereich CAMPOS der Universität Tübingen, an dem Prof. Lüders als externer Partner beteiligt war. Sie wurden ebenso begleitet und gefördert durch das Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER) der Universität Bayreuth. Darüber hinaus waren Forscher des Helmholtz-Zentrums für Umweltforschung UFZ in Leipzig, des Helmholtz-Zentrums München – Deutsches Zentrum für Gesundheit und Umwelt in Neuherberg sowie der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (BGR) an der Studie beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tillmann Lüders
Lehrstuhl für Ökologische Mikrobiologie
Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER)
Universität Bayreuth
Tel: +49 (0)921 55-5640
E-Mail: tillmann.lueders@uni-bayreuth.de

Originalpublikation:
Zhe Wang, Oscar Jimenez-Fernandez, Karsten Osenbrück, Marc Schwientek, Michael Schloter, Jan H.Fleckenstein, Tillmann Lueders: Streambed microbial communities in the transition zone between groundwater and a first-order stream as impacted by bidirectional water exchange. Water Research (2022), DOI: https://dx.doi.org/10.1016/j.watres.2022.118334

(nach oben)


Der Wald als Schutzraum für Insekten in wärmeren Klimazonen?

Kristian Lozina Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die Insektenvielfalt in Bayern geht zurück. Grund dafür ist unter anderem die Landnutzung, doch die Auswirkungen des Klimawandels sind noch weitgehend unbekannt. Eine Studie der Universität Würzburg hat nun näher untersucht, wie beide Faktoren bei der Entwicklung der Insektenvielfalt zusammenwirken und was gegen den Rückgang getan werden kann.

Etwa 75 Prozent unserer Nutzpflanzen und mehr als 80 Prozent der Wildpflanzen sind auf die Bestäubung durch Insekten angewiesen. Der Wert dieser Bestäubung wird weltweit auf bis zu 577 Milliarden US-Dollar pro Jahr geschätzt. Die bekanntesten Bestäuber sind Bienen, aber diese sind bei weitem nicht die einzigen Insekten, die diesen Dienst für den Menschen und die Natur erbringen – Fliegen, Käfer, Schmetterlinge und Motten spielen ebenfalls eine wichtige Rolle.

Mehrere Studien haben in den vergangenen Jahrzehnten einen deutlichen Rückgang der Insektenpopulationen festgestellt – auch in Deutschland. Im Fokus stand bisher der Verlust geeigneter Lebensräume für die Insekten, zum Beispiel durch die Umwandlung von Naturgebieten in landwirtschaftliche oder städtische Flächen. Doch welche Folgen hat die Landnutzung in Kombination mit einem wärmeren und trockeneren Klima, speziell für bestäubende Insekten? Und was könnte getan werden, um mögliche negative Folgen abzumildern? Das hat eine neue Studie der Julius-Maximilians-Universität (JMU) Würzburg untersucht.

Die zentralen Ergebnisse der Studie
Das Forscherteam der JMU und Kollegen zeigen zum ersten Mal, wie Klima und Landnutzung zusammen die Vielfalt bestäubender Insekten auf lokaler und landschaftlicher Ebene in Bayern beeinflussen. Auf der Grundlage von mehr als 3200 identifizierten Bestäuberarten von 179 Standorten in Wäldern, Grünland, Ackerland und städtischen Lebensräumen stellen sie eine Homogenisierung der Bestäubergemeinschaften in wärmeren Klimazonen fest. Dies deutet auf einen allgemeinen Verlust der Bestäubervielfalt unter zukünftigen Klimabedingungen hin.

Einzelne Taxa wie Bienen, Fliegen, Käfer, Schmetterlinge und Motten reagierten unterschiedlich auf wärmeres und trockeneres Klima, aber das allgemeine Muster zeigt, dass Landschaften mit einem höheren Waldanteil vielfältigere Bestäubergemeinschaften beheimaten. „Unsere wichtigste Erkenntnis ist, dass der Wald in der Landschaft die Auswirkungen der Klimaerwärmung bis zu einem gewissen Grad abfedern kann“, erklärt Cristina Ganuza, Doktorandin in der Arbeitsgruppe von Professor Ingolf Steffan-Dewenter am Lehrstuhl für Tierökologie und Tropenbiologie der JMU und Hauptautorin der Studie.

„Die Studie unterstreicht, dass neben der Bedeutung der Blühressourcen und den negativen Auswirkungen der intensiven Landnutzung auch die klimatischen Bedingungen eine zunehmend wichtige Rolle für den Erhalt der Bestäubervielfalt spielen. So wirkte sich beispielsweise die Kombination aus hohen Temperaturen und geringen Niederschlägen negativ auf die gesamte Bestäubervielfalt aus, während der Bienenreichtum in städtischen Gebieten durch höhere Durchschnittstemperaturen negativ beeinflusst wurde“, erklärt Steffan-Dewenter.

Besondere Relevanz für Natur und Mensch
Für eine hohe Bestäuberleistung brauche es eine hohe Bestäubervielfalt, so Ganuza. „Die Kombination aus fortschreitendem Klimawandel und aktueller Landnutzung wird es aber nur bestimmten Bestäuberarten ermöglichen, in den verschiedenen Lebensraumtypen zu überleben.“

„Wir kommen zu dem Schluss, dass ein großer Anteil an Waldfläche in der Landschaft als Zufluchtsort für Insekten vor der Klimaerwärmung dienen könnte“, so Ganuza. „Dies liegt wahrscheinlich daran, dass Wälder und Waldränder weitgehend natürliche Bedingungen bieten, die extreme Hitze und Trockenheit im Vergleich zu stärker vom Menschen beeinflussten Lebensräumen abpuffern.“

Ein weiterer Vorschlag der Forschenden wäre die Senkung der Lufttemperatur in Städten, zum Beispiel durch Begrünung. „Das könnte dazu führen, dass mehr Bienenarten in städtischen Gebieten leben können“, erklärt die Biologin. Kurzum: Insekten mögen es vielfältig. Und möglichst unterschiedliche Blütenpflanzen sind für die kleinen Tiere auf allen Flächen unerlässlich.

Kooperationspartner und Förderung
Die Würzburger Studie erschien kürzlich in der Fachzeitschrift Science Advances. Sie entstand in Kooperation mit der Universität Bayreuth, der Technischen Universität München und der Hochschule Weihenstephan-Triesdorf. Sie wurde gefördert durch das Bayerische Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks im Forschungscluster „LandKlif – Auswirkungen des Klimawandels auf Artenvielfalt und Ökosystemleistungen in naturnahen, agrarischen und urbanen Landschaften und Strategien zum Management des Klimawandels“.

Wissenschaftliche Ansprechpartner:
Cristina Ganuza, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86893, cristina.ganuza_vallejo@uni-wuerzburg.de

Sarah Redlich, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 821290, sarah.redlich@uni-wuerzburg.de

Ingolf Steffan-Dewenter, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86947, ingolf.steffan@uni-wuerzburg.de

Originalpublikation:
Ganuza et al: “Interactive effects of climate and land use on pollinator diversity differ among taxa and scales”; in: Science Advances; doi: 10.1126/sciadv.abm9359

Weitere Informationen:
https://www.biozentrum.uni-wuerzburg.de/zoo3/forschung/verbundprojekte/landklif/

(nach oben)


Lachgas – alles andere als träge

Sarah-Lena Gombert Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kohlenforschung
Kohlenforscher Josep Cornellà entwickelt Methode, Treibhausgas unschädlich zu machen, und veröffentlicht seine Ergebnisse in der Zeitschrift „Nature“.

Der Ausstoß diverser Treibhausgase stellt eine globale Umweltbedrohung dar. Wissenschaftler weltweit beschäftigen sich mehr und mehr mit der Lösung dieses Problems. Während sich viele Forschungsgruppen auf den Umgang mit Kohlenstoffdioxid (C02) oder Methan (CH4) konzentrieren, hat sich jetzt ein Team um Chemiker Josep Cornellà vom Max-Planck-Institut für Kohlenforschung um ein anderes Gas gekümmert, das maßgeblich zur Erderwärmung beiträgt: Distickstoffmonoxid (N2O), vielen auch als Lachgas bekannt.

Lachgas hat ein Erderwärmungspotenzial, das etwa 300 Mal so hoch ist wie das von Kohlenstoffdioxid. Menschliche Aktivität auf diesem Planeten hat dafür gesorgt, dass die Emission von Lachgas in den vergangenen Jahrzehnten um etwa zwei Prozent gestiegen ist. Außerdem ist mittlerweile bekannt, dass Lachgas die Ozonschicht schädigt.

Dabei ist das Molekül viel zu schade, um es einfach in die Luft zu pusten, findet Josep Cornellà: Denn N2O, so erklärt er, ist eine exzellente Quelle für das Sauerstoffatom O. Was übrig bleibt, N2, ist molekularer Stickstoff – denkbar ungefährlich.

Lange galt N2O als „inertes“ Gas, also als träge und wenig reaktionsfreudig. Die Wissenschaftlerinnen und Wissenschaftler aus der Kohlenforschung haben in ihrer Arbeit, die jetzt bei „Nature“ publiziert worden ist, jedoch gezeigt, dass das nicht unbedingt stimmt. Sie beschreiben, wie man N2O unter milden Bedingungen so reagieren lässt, dass aus dem unliebsamen Gas für die Industrie wertvolle Phenole sowie harmloser Stickstoff entstehen. Gelungen ist dieser neuartige Schritt durch Katalysatoren, also feine molekulare Werkzeuge, die bei der Reaktion selbst nicht verbraucht werden.

Der 37-jährige Spanier Josep Cornella arbeitet seit 2017 am Max-Planck-Institut für Kohlenforschung. In seiner jungen Karriere hat er bereits zahlreiche Preise erhalten, unter anderem ist er mit einem ERC Starting Grant gefördert und mit dem Bayer Early Excellence in Science Award ausgezeichnet worden. Jüngst hat er den „Organometallics’ 2022 Distinguished Author Award“ erhalten. Mit diesem Preis zeichnet die American Chemical Society solche Wissenschaftlerinnen und Wissenschaftler aus, die in den vergangenen zwei Jahren mit außergewöhnlich guten Artikeln im Bereich der Organometallischen Chemie auf sich aufmerksam gemacht haben.

Seit mehr als 100 Jahren betreibt das Max-Planck-Institut für Kohlenforschung in Mülheim an der Ruhr chemische Grundlagenforschung und hat seit seiner Eröffnung als Kaiser-Wilhelm-Institut 1914 zahlreiche chemische Entdeckungen von historischer Tragweite gemacht. Es war das erste Kaiser-Wilhelm-Institut außerhalb Berlins und die erste wissenschaftliche Einrichtung im Ruhrgebiet überhaupt.

Zu den wichtigsten Errungenschaften gehört die Entdeckung der Fischer-Tropsch-Synthese in den 1920er Jahren, ein Verfahren zur Herstellung synthetischen Benzins, seinerzeit auf der Basis von Kohle, das aber auch andere Kohlenstoffquellen, wie das Kohlendioxid aus Abgasen oder sogar aus der Luft nutzen kann.

Wirtschaftlich und wissenschaftlich sehr bedeutend – und ebenfalls mit dem Chemienobelpreis ausgezeichnet – war das Niederdruckpolyethylenverfahren von Karl Ziegler, das die wirtschaftliche Produktion von hochwertigen Kunststoffen ermöglichte. Aber auch ein Verfahren zur Entkoffeinierung von Kaffeebohnen wurde am MPI für Kohlenforschung entwickelt. Heute besteht das Institut aus fünf wissenschaftlichen Abteilungen, die jeweils von einem Direktor geleitet werden. Rund 400 Beschäftigte aus aller Welt widmen sich der chemischen Grundlagenforschung mit Fokus auf die Katalyse.

Wissenschaftliche Ansprechpartner:
Dr. Josep Cornellà
cornella@kofo.mpg.de

Originalpublikation:
„Catalytic synthesis of phenols with nitrous oxide“
https://www.nature.com/articles/s41586-022-04516-4

Anhang
Pressemitteilung im PDF Format

(nach oben)


Sonnenschutzkampagne will Hautkrebsrisiko im Sport senken

Dr. Anna Kraft Presse- und Öffentlichkeitsarbeit
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Sportlerinnen und Sportler – vom Breiten- bis zum Spitzensport – verbringen häufig viel Zeit im Freien. Wenn sie wiederholt und lange der UV-Strahlung der Sonne ausgesetzt sind, erhöht sich ihr Risiko an Hautkrebs zu erkranken. Zu viel UV-Strahlung kann zudem das Immunsystem und die Leistungsfähigkeit der Athletinnen und Athleten schwächen. Die Deutsche Krebshilfe startet daher gemeinsam mit dem Deutschen Olympischen Sportbund und den Partnern des Präventionsprogramms „Clever in Sonne und Schatten“ der Deutschen Krebshilfe eine deutschlandweite Kampagne unter dem Motto „Wir machen UV-Schutz im Sport zum Thema“.

Die Kampagne vermittelt zielgruppengerecht wichtige Tipps für den Sonnenschutz: beispielsweise die Mittagssonne zu meiden, schützende Kleidung zu tragen und Sonnencreme zu benutzen. Bei einer Auftaktveranstaltung an der Sportoberschule Dresden bekräftigten Vertreterinnen und Vertreter aus Sport und Medizin – darunter die SG Dynamo Dresden als mitgliedsstärkster Sportverein Sachsens – das gemeinsame Engagement. Die Kampagne wurde vom Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) entwickelt. Alle Informations- und Arbeitsmaterialien für die Eliteschulen des Sports, sportbetonte Schulen und Vereine sind kostenfrei erhältlich.

Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät Carl Gustav Carus der TU Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).

In Deutschland erkranken derzeit pro Jahr mehr als 300.000 Menschen neu an Hautkrebs, mehr als 40.000 Menschen davon am Malignen Melanom, dem sehr gefährlichen schwarzen Hautkrebs. Der wichtigste äußere Risikofaktor für Hautkrebs ist eine starke Belastung der Haut mit ultra­violetten (UV-) Strahlen. Sportlerinnen und Sportler sowie ihre Trainerinnen und Trainer sind oft viel und lange in der Sonne. Deshalb ist ein geeigneter Sonnenschutz zur Hautkrebsprävention – etwa durch möglichst lange Kleidung, Kopfbedeckung, Sonnencreme und Trainingszeiten außerhalb der Mittagszeit – für sie besonders wichtig. Mit einer deutschlandweiten Kampagne wollen die Deutsche Krebshilfe, der Deutsche Olympische Sportbund (DOSB) sowie die Partner des Programms „Clever in Sonne und Schatten“ die Aufmerksamkeit für das Thema erhöhen und richtigen Sonnenschutz nachhaltig in sportbetonten Schulen, Vereinen und Verbänden etablieren.

„Die Deutsche Krebshilfe macht sich angesichts steigender Erkrankungszahlen seit Jahren für die Hautkrebsprävention stark, etwa mit gezielten Programmen für Schulen und Kitas. Wir freuen uns, gemeinsam mit starken Partnern künftig einen weiteren Schwerpunkt im Bereich des Sports legen zu können“, sagt Gerd Nettekoven, Vorstandsvorsitzender der Deutschen Krebshilfe. „Zu viel UV-Strahlung kann auch das Immunsystem schwächen und die Gefahr für Infektionen verstärken. Auch deshalb ist es uns wichtig, unsere Sportlerinnen und Sportler möglichst gut vor einer wiederkehrenden intensiven Sonnenbelastung zu schützen“, ergänzt Dr. Sven Baumgarten vom DOSB.

Um das Bewusstsein für die Bedeutung des UV-Schutzes im Sport zu stärken, hat das Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) spezielle Projektpakete für sportbetonte Schulen entwickelt. Diese enthalten unter anderem Videospots und Präsentationen für den Unterricht sowie für Elternabende, Poster mit Sonnenschutzregeln und ein Handbuch für Lehrkräfte. Seit Jahresbeginn wurden die deutschlandweit 43 DOSB-Eliteschulen des Sports über das Projekt informiert, die rund 11.500 junge Sportlerinnen und Sportler fördern. „Jetzt begleiten wir die Schulen dabei, das Projekt umzusetzen und Sonnenschutz nachhaltig in den Schulalltag zu integrieren. Nach erfolgreicher Umsetzung können sich die Schulen im Herbst für ihr Engagement auszeichnen lassen“, sagt Dr. Friederike Stölzel, Co-Leiterin des NCT/UCC-Präventionszentrums.

Darüber hinaus entwickelt das NCT/UCC Materialien, um einen adäquaten UV-Schutz in Sportvereinen und -verbänden zu verankern. Aktuell werden diese im Dresdner Sportclub 1898 e.V. auf Praxistauglichkeit und Akzeptanz getestet, auch die SG Dynamo Dresden ist eng eingebunden. Ab nächstem Jahr stehen die kostenfreien Informations- und Aktionspakete dann allen Vereinen und Verbänden deutschlandweit zur Verfügung. „Im Sommer trainieren wir oft mehrere Stunden am Tag in der Sonne, mit T-Shirts und kurzen Hosen. Da sollte es selbstverständlich sein, auch an die Sonnencreme zu denken. Es ist wichtig, dass wir uns über die Risiken und die einfachen Schutz-Möglichkeiten besser bewusst werden“, sagt Sebastian Mai, Spieler von Dynamo Dresden. „Vorbeugung und Früherkennung sind beim Kampf gegen Hautkrebs das A und O. Mit eigentlich einfachen Regeln könnten sich die Hautkrebszahlen senken und die Heilungsraten erhöhen lassen“, betont Prof. Friedegund Meier, Leiterin des Hauttumorzentrums am NCT/UCC. „Nach meiner eigenen Hautkrebserkrankung ist es mir ein großes Anliegen, andere für dieses Thema zu sensibilisieren. Wir freuen uns, Eliteschulen des Sports, sportbetonte Schulen und Vereine hierbei künftig gezielt unterstützen zu können“, ergänzt Susanne Klehn, Botschafterin für Hautkrebsprävention der Deutschen Krebshilfe.

Clever in Sonne und Schatten
Das Programm „Clever in Sonne und Schatten“ der Deutschen Krebshilfe richtet sich – neben dem neuen Fokus auf sportbetonten Schulen und Sportvereine – vor allem an Kitas und Grundschulen. „Kinderhaut ist ganz besonders empfindlich. Die in der Kindheit und Jugend erworbenen UV-Schäden der Haut sind maßgeblich für das spätere Entstehen von Hautkrebs verantwortlich. Daher müssen wir schon bei den Kleinsten mit dem richtigen Sonnenschutz beginnen“, sagt Prof. Eckhard Breitbart, Vorsitzender der Arbeitsgemeinschaft Dermatologische Prävention, Hamburg. In den vergangenen Jahren konnten deutschlandweit 5.500 Projektpakete versandt und mehr als 350 Kitas und Grundschulen für ihr Engagement zum Sonnenschutz ausgezeichnet werden. Partner des Programms sind die Arbeitsgemeinschaft Dermatologische Prävention e.V. und das Projekt „Die Sonne und Wir“ an der Universität zu Köln – Uniklinik Köln.

Ansprechpartner für die Presse:
Dr. Anna Kraft
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)351 458-5548
E-Mail: anna.kraft@nct-dresden.de
www.nct-dresden.de

Dr. Sibylle Kohlstädt
Deutsches Krebsforschungszentrum (DKFZ)
Strategische Kommunikation und Öffentlichkeitsarbeit
Tel.: +49 (0)6221 42-2854
Fax: +49 (0)6221 42-2968
E-Mail: s.kohlstaedt@dkfz.de
www.dkfz.de

Stephan Wiegand
Stabsstelle Öffentlichkeitsarbeit & Marketing
Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Tel.: +49 (0) 351 458-19389
Fax: +49 (0) 351 458-885486
E-Mail: stephan.wiegand@tu-dresden.de
www.tu-dresden.de/med

Holger Ostermeyer
Universitätsklinikum Carl Gustav Carus Dresden Pressestelle
Tel.: +49 (0)351 458-4162
Fax: +49 (0)351 449210505
E-Mail: Pressestelle@uniklinikum-dresden.de www.uniklinikum-dresden.de

Simon Schmitt
Kommunikation und Medien | Leitung und Pressesprecher
Helmholtz-Zentrum Dresden-Rossendorf
E-Mail: s.schmitt@hzdr.de
Tel.: +49 351 260-3400
www.hzdr.de

NCT/UCC Dresden
Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät der Technischen Universität Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).
Das NCT hat es sich zur Aufgabe gemacht, Forschung und Krankenversorgung so eng wie möglich zu verknüpfen. Damit können Krebspatienten an den NCT-Standorten auf dem jeweils neuesten Stand der wissenschaftlichen Erkenntnisse behandelt werden. Gleichzeitig erhalten die Wissenschaftler durch die Nähe von Labor und Klinik wichtige Impulse für ihre praxisnahe Forschung. Gemeinsamer Anspruch der NCT-Standorte ist es, das NCT zu einem internationalen Spitzenzentrum der patientennahen Krebsforschung zu entwickeln. Das Dresdner Zentrum baut auf den Strukturen des Universitäts KrebsCentrums Dresden (UCC) auf, das 2003 als eines der ersten Comprehensive Cancer Center (CCC) in Deutschland gegründet wurde. Seit 2007 wurde das UCC von der Deutschen Krebshilfe e.V. (DKH) kontinuierlich als „Onkologisches Spitzenzentrum“ ausgezeichnet.

Deutsches Krebsforschungszentrum (DKFZ)
Das DKFZ ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden bietet medizinische Betreuung auf höchstem Versorgungsniveau. Als Krankenhaus der Maximalversorgung deckt es das gesamte Spektrum der modernen Medizin ab. Das Universitätsklinikum vereint 20 Kliniken und Polikliniken, vier Institute und zehn interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten.
Mit 1.295 Betten und 160 Plätzen für die tagesklinische Behandlung von Patienten ist das Dresdner Uniklinikum das größte Krankenhaus der Stadt und zugleich das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 860 Ärzte decken das gesamte Spektrum der modernen Medizin ab. 1.860 Schwestern und Pfleger kümmern sich um das Wohl der Patienten. Wichtige Behandlungsschwerpunkte des Uniklinikums sind die Versorgung von Patienten, die an Krebs, an Stoffwechsel- und an neurodegenerativen Erkrankungen.
Deutschlands größter Krankenhausvergleich des Nachrichtenmagazins „Focus“ bescheinigt dem Universitätsklinikum Carl Gustav Dresden eine hervorragende Behandlungsqualität. Die Dresdner Hochschulmedizin belegt deshalb Platz zwei im deutschlandweiten Ranking.

Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Die Hochschulmedizin Dresden, bestehend aus der Medizinischen Fakultät Carl Gustav Carus und dem gleichnamigen Universitätsklinikum, hat sich in der Forschung auf die Bereiche Onkologie, metabolische sowie neurologische und psychiatrische Erkrankungen spezialisiert. Bei diesen Schwerpunkten sind übergreifend die Themenkomplexe Degeneration und Regeneration, Imaging und Technologieentwicklung, Immunologie und Inflammation sowie Prävention und Versorgungsforschung von besonderem Interesse. Internationaler Austausch ist Voraussetzung für Spitzenforschung – die Hochschulmedizin Dresden lebt diesen Gedanken mit Mitarbeiterinnen und Mitarbeitern aus 73 Nationen sowie zahlreichen Kooperationen mit Forschern und Teams in aller Welt.

Helmholtz-Zentrum Dresden-Rossendorf (HZDR)
Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?
Zur Beantwortung dieser wissenschaftlichen Fragen betreibt das HZDR große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Das HZDR ist Mitglied der Helmholtz-Gemeinschaft, hat fünf Standorte (Dresden, Freiberg, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt knapp 1.200 Mitarbeiter – davon etwa 500 Wissenschaftler inklusive 170 Dok

(nach oben)


Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.

Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.

„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.

„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“

Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.

„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“

Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“

Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.

Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“

Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]

(nach oben)


Coronaviren auf Glas: Handelsübliche Spülmittel und manuelle Gläserspülgeräte entfernen Viren effektiv

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Studie liefert Daten zur Stabilität von Coronaviren auf Glasoberflä-chen und ihrer Inaktivierung durch herkömmliche Spülverfahren

Ob zuhause, in der Kantine oder im Restaurant – immer wieder steht die Frage im Raum, ob das neuartige Coronavirus SARS-CoV-2 auch über Geschirr oder Trinkgläser übertragen werden kann. In der Regel werden Infektionen mit Coronaviren über Tröpfchen und Aerosole direkt von Mensch zu Mensch weitergegeben. Auch wenn Schmierinfektionen nicht ausgeschlossen werden können, gibt es für die indirekte Übertragung des Virus durch kontaminierte Gegenstände und Oberflächen bislang keine belastbaren Belege. Dennoch nehmen Trinkgläser bei diesen Überlegungen eine besondere Stellung ein, da sie in direkten Kontakt mit dem Mund und der Mundhöhle kommen. Ein Forschungsprojekt des Bundesinstituts für Risikobewertung (BfR) liefert nun neue Erkenntnisse. „Coronaviren sind auf Glas relativ stabil – das bestätigen unsere Untersuchungen. Eine ausreichende Reinigung von Trinkgläsern ist daher wichtig,“ so BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Unsere Daten zeigen, dass handelsübliche Spülmittel und manuelle Gläserspülgeräte Coronaviren effektiv von Trinkgläsern entfernen können.“

Die Studie wurde am 6. April 2022 in dem wissenschaftlichen Fachjournal Food Microbiology veröffentlicht:
https://doi.org/10.1016/j.fm.2022.104036

Für die Untersuchungen wurde das dem SARS-CoV-2 verwandte humane Coronavirus 229E, das beim Menschen zu milden Atemwegserkrankungen führen kann und oft als Modellvirus für humane Coronaviren eingesetzt wird, verwendet. Die Ergebnisse zeigen, dass Coronaviren nach dem Trocknen auf Glas für Tage bis Wochen infektiös bleiben können. Dabei hat die Lichteinwirkung einen großen Einfluss. Bei Lagerung bei Tageslicht konnten infektiöse Coronaviren bis zu sieben Tage und bei Dunkelheit bis zu 21 Tage nachgewiesen werden. Als behüllte Viren, deren Erbgut von einer Fettschicht umgeben ist, reagieren Coronaviren empfindlich auf fettlösende Substanzen wie Alkohole und Tenside, die als Fettlöser in Seifen und Geschirrspülmitteln enthalten sind. Die Untersuchungen des BfR zeigten, dass die meisten handelsüblichen Spülmittel Coronaviren in Spülwasser mit einer Temperatur von 23 Grad Celsius innerhalb von 15 Sekunden ausreichend inaktivieren. Lediglich bei einem Spülmittel mit einem geringeren Gesamtgehalt an Tensiden war dafür eine höhere Temperatur von 43 Grad Celsius und eine längere Einwirkzeit von 60 Sekunden nötig. Mit einem manuellen Gläserspülgerät nach DIN 6653-3 konnten Coronaviren auch bei der Verwendung kalten Wassers effektiv von den Gläsern entfernt werden.

Die Ergebnisse der BfR-Studie zeigen, dass sich sowohl beim Handspülen als auch bei der Nutzung manueller Gläserspülgeräte Coronaviren ausreichend von Trinkgläsern entfernen lassen. Voraussetzung hierfür ist die ordnungsgemäße Durchführung des Spülens, die unter anderem einen ausreichend häufigen Wasserwechsel, die Verwendung der vom Hersteller empfohlenen Spülmittelkonzentrationen und eine ausreichende manuelle Schmutzbeseitigung beinhaltet.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt

Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.

Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.

Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.

„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“

Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.

Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“

Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.

Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.

Link zur Fördermaßnahme: https://www.bmbf-wax.de/

Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de

Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de

Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla

Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse

(nach oben)


Girls’Day und Boys’Day 2022: mehr als 115.000 Schülerinnen und Schüler machten mit

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Für Mädchen und Jungen war es ein spannender Einblick in für sie bislang ungewohnte Berufe, für die Unternehmen und Institutionen eine sehr gute Möglichkeit, praxisnah den Nachwuchs zu fördern: Endlich war es Jugendlichen in diesem Jahr wieder möglich, live und in Farbe am Girls’Day und Boys’Day Berufe kennen zu lernen, die sie sonst eher selten in Betracht ziehen.

Denn es gibt sie noch immer: Berufe mit geringem Frauen- oder Männeranteil sowie den Einfluss von Geschlechterstereotypen auf die Berufs- und Studienwahl. Dagegen setzten am 28. April bundesweit mehr als 115.000 Schülerinnen und Schüler aus ganz Deutschland einen Impuls. Sie konnten zwischen mehr als 11.000 Angeboten in Unternehmen und Institutionen wählen.

Auch die Bundesministerien, die die beiden Projekte fördern, waren live dabei: Die Parlamentarische Staatssekretärin bei der Bundesjugendministerin, Frau Ekin Deligöz, besuchte in Berlin das Boys’Day-Angebot der Waldkita Fila sowie das Girls’Day Angebot beim ICE Werk der Deutschen Bahn in Rummelsburg Dr. Jens Brandenburg, Parlamentarischer Staatssekretär beim Bundesbildungsministerium, war beim Girls’Day-Angebot der Eurovia GmbH auf einer Baustelle am Berliner Stadtschloss dabei.

In unsicheren Zeiten sind Angebote für Schülerinnen und Schüler zur Berufs- und Studienwahl eine wichtige und zukunftsweisende Komponente. Gerade im Handwerk, Mathematik, Informatik, Naturwissenschaft und Technik, aber auch in den sozialen und pflegerischen Berufen herrscht ein gravierender Fachkräftemangel. Obwohl es mehr als 330 duale Ausbildungsberufe gibt, entscheiden sich noch immer mehr als die Hälfte der Mädchen für einen von zehn Ausbildungsberufen. Darunter ist kein gewerblich-technischer. Bei den Jungen verhält es sich ähnlich, hier entscheiden sich mehr als die Hälfte für einen von zwanzig Ausbildungsberufen.

„Wir sind froh, dass die Schülerinnen und Schüler nach zwei Jahren Pandemie endlich auch wieder vor Ort am Girls’Day und Boys’Day teilnehmen konnten“, sagt Romy Stühmeier Leiterin der Bundeskoordinierungsstellen Girls’Day und Boys’Day. „Es ist gerade in Zeiten des akuten Fachkräftemangels im MINT-Bereich sowie in den Sozialen- und Gesundheitsberufen dringend geboten, die Potenziale aller zu nutzen. Das Schöne an den Aktionstagen ist doch: Es profitieren die Jugendlichen und die Betriebe.“

Weitere Informationen:
http://www.girls-day.de
http://www.boys-day.de

(nach oben)


Belastungen in der modernen Arbeitswelt – Herausforderung für den Arbeitsschutz?

Prof. Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Arbeitswelt hat sich in den letzten Jahren tiefgreifend verändert. Digitale Umgebungen und neue Arbeitsformen wie z.B. ortsflexibles Arbeiten sind auf dem Vormarsch und werden die Arbeitswelt in Zukunft prägen. Durch diesen Wandel sind auch „neue“ Belastungsformen wie psychosoziale Arbeitsbelastungen oder Belastungen durch die Digitalisierung in den Vordergrund gerückt. Wie der betriebliche Arbeitsschutz mit diesen Anforderungen umgeht, erforscht das Institut für Sozialforschung und Sozialwirtschaft (iso) Saarbrücken gemeinsam mit dem Universitätsklinikum Düsseldorf in einer europaweiten Studie. Auftraggeber der Studie ist die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA).

In den letzten Jahrzehnten hat sich die Arbeitswelt fundamental verändert. Globalisierung, neue Arbeitsorganisationen – insbesondere die Flexibilisierung der Arbeit wie z.B. ortsflexibles Arbeiten – und Digitalisierungsprozesse führen auch zu neuen Risiken im Arbeitsleben. Durch die Erforschung dieser Veränderungen sollen Unternehmen unterstützt werden, präventiv zu handeln und die Gesundheit der Beschäftigten zu fördern. Im Rahmen der Studie soll insbesondere die Frage untersucht werden, inwiefern „neue und aufkommende Risiken“ wie psychosoziale Arbeitsbelastungen, Belastungen durch mobiles Arbeiten und digitalisierte Arbeitsplätze in der betrieblichen Präventionspraxis angemessen berücksichtigt werden können.
Um die Wissensbasis zur betrieblichen Präventionspraxis zu erweitern, wurden das iso-Institut und die Universitätsklinik Düsseldorf beauftragt, die Daten der „Europäischen Unternehmenserhebung über neue und aufkommende Risiken“ (ESENER) auszuwerten. Die Daten aus den ESENER Erhebungen liegen mittlerweile aus drei Wellen vor. Maßnahmen und betriebliche Umsetzungsbedingungen können daher im Zeitvergleich analysiert und etwaige Trends und Zusammenhänge identifiziert werden. Zudem erlauben die ESENER-Daten auch EU-vergleichende Analysen, so dass Befunde für Deutschland auch im Vergleich mit Befunden aus anderen EU-Ländern bewertet und diskutiert werden können.
Mit den Ergebnissen der Analysen zum Umgang mit psychosozialen Risiken der Arbeit und zu Einflussgrößen auf Arbeitsschutzmaßnahmen bei ortsflexiblen und digitalisierten Arbeitsplätzen können Empfehlungen zur Weiterentwicklung des Arbeitsschutzsystems umfassender und integrierter ausgerichtet werden. Das übergeordnete Ziel dieses Projekts ist es daher, den bisherigen, insbesondere auf empirischer Ebene noch unzureichenden Wissenstand im Bereich des betrieblichen Gesundheitsschutzes zu erweitern.

Wissenschaftliche Ansprechpartner:
Dr. Thorsten Lunau (lunau@iso-institut.de)

(nach oben)


Zukunft der Innenstädte und Ortsmitten – Studierende zeigen Arbeiten in Galerie der Schader-Stiftung

Simon Colin Hochschulkommunikation
Hochschule Darmstadt
Innenstädte und Orts(teil)mitten stehen vor einem Strukturwandel. Wie könnten sie sich zukunftsfähig und nachhaltig entwickeln? Mehr als 200 Studierende der Hochschule Darmstadt (h_da) haben hierzu Ideen und Konzepte für Darmstadt und umliegende kleinere Städte und Gemeinden wie Michelstadt und Fischbachtal entworfen. Ausgewählte Arbeiten sind bis zum 21.05. in einer ambitionierten Ausstellung in der Schader-Galerie zu sehen (Goethestraße 2, 64285 Darmstadt).

Für die Ausstellung „Der Donut-Effekt – Zur Zukunft von Innenstädten und Orts(teil)mitten“ haben sich Studierende aus den Studiengängen Architektur, Bau- und Umweltingenieurwesen und Wirtschaft Gedanken zur Gestaltungen neuer Mitten gemacht. In insgesamt mehr als 40 Arbeiten beschäftigen sie sich mit Themen wie Klimaanpassung, Stadt der kurzen Wege, Einkaufen, Wohnen und Freizeit, der Gestaltung des öffentlichen Raums sowie alternativer Mobilität. Ziel der Ausstellung ist es, neue Impulse für eine nachhaltige Stadtentwicklung zu geben und den Austausch mit kommunalen Akteurinnen und Akteuren anzustoßen.

Die h_da-Studierenden zeigen in der Schader-Galerie nicht nur ihre Arbeiten, sie zeichnen auch für das komplette Ausstellungskonzept und für das Design der teils interaktiven Ausstellung verantwortlich. Ein ausgeklügeltes (Farb-)Leitsystem gibt dem Publikum Orientierung und nimmt hierbei Bezug auf das den Arbeiten zugrundeliegende planerische Raumkonzept, das in Oberzentrum (Darmstadt), Mittelzentrum (Michelstadt) und Grundzentrum (Fischbachtal) unterteilt.

Für Darmstadts Mitte steht das Luisencenter. In den Entwürfen der Studierenden wird es räumlich neu strukturiert, so dass hier künftig auch Platz sein kann für Kurz-zeitwohnen oder neue Arbeitsformen. Zugleich begrünen die Studierenden die zum Luisenplatz ausgerichtete Fassade und finden auch für innen Möglichkeiten der Bepflanzung. Auf diese Weise könnte das Luisencenter eine kleine Klima-Oase in der Hitzeinsel Innenstadt sein, die dem Gebäude zudem eine angenehmere Anmutung gibt.

Mehrere Arbeiten beschäftigen sich auch mit Michelstadts Mitte, etwa das „Marktviertel Michelstadt“. Es soll eine Brachfläche am Bienenmarkt zwischen Bahnhof und Innenstadt aufwerten und eine neues und attraktives Altstadt-Entree schaffen. Das neue Wohngebiet wird durchzogen von einer autoarmen, dafür fahrrad- und fußgängerfreundlichen Straße, zahlreiche entsiegelte Flächen könnten die Klimaresilienz Michelstadts stärken. Eine Mehrzeckhalle soll die Menschen in Verbindung bringen.

Im Fischbachtaler Ortsteil Niedernhausen könnte nach den Entwürfen der Studieren-den eine neue multifunktionale Ortsmitte entstehen, direkt an der Hauptstraße gelegen. Eine der studentischen Arbeiten sieht als Kern ein flexibel nutzbares Gemeinschaftshaus in Form einer modernen Hofreite vor, mit Begegnungs- und Wohnangeboten für jung wie alt, ergänzt um Gemeinschaftsgärten und einen kleinen Markt.

„Viele Städte und Gemeinden haben erkannt, dass gesellschaftliche und klimatische Entwicklungen ihre Innenstädte und Ortskerne verändern werden“, sagt Prof. Astrid Schmeing vom Fachbereich Architektur der h_da, die gemeinsam mit Michèle Bernhard von der Schader-Stiftung die Ausstellung kuratiert. „In unserer Schau zeigen wir am Beispiel einer Stadt wie Darmstadt und auch für den ländlich geprägten Raum, wie Mitten sich attraktiv und nachhaltig verändern können. Die Arbeiten stoßen Gedanken an und bieten neue Ideen an, die im Idealfall von der Praxis aufgegriffen werden.“

Die Ausstellung läuft in Kooperation mit dem Projekt „Systeminnovation für Nachhaltige Entwicklung“ (s:ne) der h_da. Die gezeigten Arbeiten sind überwiegend im Kontext des dortigen Handlungsfeldes „Zukunft von Innenstädten“ entstanden. Darin haben sich die h_da, die Schader-Stiftung und die IHK Darmstadt Rhein Main Neckar mit den vier südhessischen Mittelzentren Bensheim, Dieburg, Erbach und Michelstadt auf den Weg gemacht, zusammen Szenarien für zukunftsfähige Innenstädte zu entwickeln.

Geöffnet ist die Ausstellung, die sich an ein breites Publikum richtet, bis Samstag, 21.05., dienstags und freitags von jeweils 17-20 Uhr und samstags von 15-18 Uhr. Ort: Galerie der Schader-Stiftung (Goethestraße 2, 64285 Darmstadt).

Beteiligte aus dem Fachbereich Architektur der h_da führen an vier Tagen durch die Ausstellung:
Freitag, 06.05., 17-18 Uhr
Samstag, 14.05., 15-16 Uhr
Freitag, 20.05., 17-18 Uhr

Der Eintritt ist frei. In der Schader-Stiftung gilt die 2G-plus-Regel und eine FFP2-Maskenpflicht.

(nach oben)


Erste weltweite Analyse der Bedrohung aller Reptilienarten

Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Zum ersten Mal überhaupt wurden Schildkröten, Krokodile, Schlangen, Echsen und Brückenechsen in Hinblick auf ihre Bedrohung umfassend bewertet. Die Studie, die in der Fachzeitschrift Nature mit Beteiligung des Museums für Naturkunde Berlin publiziert wurde, hat hierzu Daten von über 900 Wissenschaftler:innen ausgewertet, die in der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengestellt wurden. Sie kommt zu dem Ergebnis, dass 21% der erfassten 10196 Reptilienarten bedroht sind. Davon besonders gefährdet sind vor allem Schildkröten und Krokodile.

Die Gruppe der Schildkröten, Krokodile, Echsen (inklusive der Schlangen) und Brückenechsen, oftmals als Reptilien bezeichnet, ist die artenreichste Gruppe unter den Landwirbeltieren. Erstmals wurden diese jetzt umfassend (10196 von mindestens 11690 Arten) mit Hinblick auf ihre Bedrohung untersucht und die Ergebnisse in der Fachzeitschrift Nature publiziert. Insgesamt sind Daten von über 900 Wissenschaftler:innen in die Studie eingeflossen, die im Rahmen der Bewertungen der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengetragen wurden. Das Ergebnis ist, dass 21% aller erfassten Arten als bedroht gelten. Einer der Hauptgründe ist die immer weiter voranschreitende Zerstörung und Veränderung von Habitaten. „Es ist deshalb besonders wichtig nach Lösungen zu suchen, um intakte Lebensräume, insbesondere Wälder, in ihrem natürlichen Zustand zu erhalten oder, falls möglich, allenfalls nachhaltig zu nutzen,“ betont Dr. Mark-Oliver Rödel vom Museum für Naturkunde Berlin, einer der Ko-Autoren der Studie.

„Zudem muss man die Gefährdungsursachen differenziert sehen,“ ergänzt Dr. Philipp Wagner, Kurator für Forschung & Artenschutz am Allwetterzoo in Münster und ebenfalls Ko-Autor, „denn einzelne Gruppen innerhalb dieser Reptilien sind deutlich stärker bedroht als andere. Die Studie zeigt nämlich auch, dass 58% aller Schildkrötenarten und 50% aller Krokodilarten von der Ausrottung bedroht sind – und zwar nicht etwa an erster Stelle durch Lebensraumverlust, sondern vor allem durch die illegale Jagd und Handel.“ Zusammen mit den Amphibien gehören diese beiden Gruppen so zu den am stärksten bedrohten Landwirbeltieren weltweit.

Ein weiteres wichtiges Ergebnis der Studie ist, dass für 1500 der insgesamt 10196 Arten nicht genügend Daten vorliegen, um sie aus Sicht des Artenschutzes bewerten zu können. Da es sich dabei meist um Arten mit einem kleinen Verbreitungsgebiet handelt, kann man davon ausgehen, dass die meisten von ihnen ebenfalls stark bedroht sind. „So ist leider davon auszugehen, dass die Bewertungen, wie sie in der Studie vorgenommen wurden, in der Regel sehr konservativ sind. Das heißt, man unterschätzt den Bedrohungsgrad für viele Arten. Oftmals erkennt man zu spät, wie schlecht es um viele Arten steht, vor allem bei den Reptilien,“ ergänzt Ko-Autor Dr. Johannes Penner, Kurator für Forschung und Zoologie bei Frogs and Friends. „Es muss daher noch viel getan werden, um dem Verlust der Biodiversität Einhalt zu gebieten“.

Zusatzinformationen
Am Museum für Naturkunde Berlin wird untersucht, inwieweit sich Lebensraumveränderungen auf Arten und Artengemeinschaften auswirken, sowohl im Laufe der Erdgeschichte, als auch derzeit in Folge menschlicher Aktivitäten. Unter andrem wird beispielweise erforscht ob die selektive Nutzung von Tropenholz nachhaltig möglich ist und ob beziehungsweise wie lange es dauert, bis sich Regenwaldgemeinschaften wieder regenerieren.

Der Allwetterzoo in Münster hat sich dem Artenschutz verschrieben und trägt in Kooperation mit der Zoologischen Gesellschaft für Arten- und Populationsschutz (ZGAP) und der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) das Internationale Zentrum für Schildkrötenschutz (IZS). Hier züchtet man zusammen mit Privathaltern kritisch von der Ausrottung bedrohte asiatische Schildkrötenarten. Zudem verantwortet der Allwetterzoo das Angkor Centre for Conservation of Biodiversity (ACCB) in Kambodscha, das ebenfalls einen Schwerpunkt in der Haltung, Zucht und Auswilderung kritisch bedrohter Schildkröten hat. Zusätzlich engagiert sich der Allwetterzoo im Artenschutzprojekt Citizen Conservation.

Citizen Conservation ist ein gemeinschaftliches Produkt von Frogs and Friends, der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) und des Verbands der zoologischen Gärten (VdZ). Ziel ist es sich mit koordinierten Erhaltungszuchtprogrammen dem Artensterben und damit dem Rückgang der Biodiversität entgegen zu stemmen. Dabei arbeiten Bürger:innen mit professionellen Institutionen Hand in Hand, um Wissen zu bedrohten Arten zu generieren und zu sammeln, bestehende Kapazitäten zum Artenschutz auszubauen und Reserven zu schaffen, damit Arten langfristig erhalten werden können.

Veröffentlicht in: Cox, N. and Young, B. E., et al. Global reptile assessment shows commonality of tetrapod conservation needs. Nature (2022). https://doi.org/10.1038/s41586-022-04664-7.

(nach oben)


Energieträger der Zukunft auf Schiffen – Deutsches Maritimes Zentrum stellt Kraftstoff-Portfolio vor

Dr. Regine Klose-Wolf Kommunikation und Veranstaltungen
Deutsches Maritimes Zentrum e. V.
Von fossilen zu regenerativen Energieträgern. Erste Gesamtübersicht zur Transformation der deutschen maritimen Industrie.

Mit welchem Kraftstoff kann man heute, in zehn und in 25 Jahren ein Schiff möglichst klimaneutral fahren?
Die Beantwortung dieser Frage ist zentral, um zu Investitionsentscheidungen für neue Schiffe oder den Umbau von vorhandener Tonnage zu kommen, egal, ob Binnenschiff, Küstenfrachter oder 22.000 TEU-Containerschiff.

„Wir müssen wissen, welche Kraftstoffe und Energieträger (einschließlich Verträglichkeit, Verfügbarkeit, Emissionspotenziale nach Schiffssegmenten) für die Schifffahrt verfügbar sind. Hierzu hat das Deutsche Maritime Zentrum 2021 eine Studie bei der Ramboll GmbH beauftragt“ erläutert Claus Brandt, Geschäftsführer des Deutschen Maritimen Zentrums.

Die Ergebnisse der Studie wurden am 27. April auf einer Fachveranstaltung vorgestellt.

Mit Fokus auf eine Flottenanalyse mit engem Bezug zur deutschen maritimen Wirtschaft liefert die Studie einen Überblick über die alternativen Kraftstoffe und Energieträger, die perspektivisch regenerativ erzeugbar sind. Typenabhängige Schiffsdesigns, Versorgungspotenziale weltweit, erforderliche und vorhandenen Regelwerke bis hin zu Handlungsempfehlungen für Entscheidungsträger werden in einem Zusammenhang dargestellt.

„In der Studie wird die Erzeugung dieser Kraftstoffe einschließlich der Energieeffizienzen ebenso betrachtet, wie die Kosten für die Energieträger der Zukunft, sowie für den Neu- und Umbau der Schiffe. Lücken in der Regulative wurden identifiziert und Vorschläge für das zukünftige Regelwerk benannt“, so Thomas Rust von Ramboll.

Die Studie zeigt:
– In der untersuchten Flotte werden bisher kaum alternative Kraftstoffe eingesetzt. Zur Minderung der Treibhausgas-Emissionen werden nahezu ausschließlich die entsprechenden Energieeffizienz-Ziele erfüllt. Ein Einsatz von regenerativen Energieträgern ist bisher nur äußerst selten vorgesehen.
– Das weltweite aktuelle Orderbuch für Neubauten zeigt ein analoges Bild. Der überwiegende Anteil der Schiffe ist auf die Erfüllung der gültigen IMO-Regeln zur Minderung der Schadstoffemissionen (Schwefel- und Stickoxide) ausgelegt, unter Verwendung der etablierten (fossilen) Schiffskraftstoffe.
-Es ist bisher nicht eindeutig absehbar, wie die technischen Lösungen in 30 Jahren aussehen werden.
-Ein genereller Trend, zu nur einem bestimmten regenerativ erzeugbaren Kraftstoff, mit dem sich Versorgung und Speicherung an Bord sowie die Umsetzung in Propulsionsleistung realisieren ließe, ist bisher nicht erkennbar.
-Es fehlt ein gültiges internationales Regelwerk um die CO2-Emissionen der regenerativ erzeugten Kraftstoffe, (auch für fuel blends).
In der Studie werden Handlungsempfehlungen vorgestellt, wie sich der Übergang in die CO2-Neutralität in der Schifffahrt gestalten lässt und welche flankierenden Maßnahmen, Gesetze und Regularien dafür notwendig sind bzw. angepasst werden müssen.

„Wesentlich wird in Zukunft sein, eine tragfähige Aussage über die CO2-Emission der alternativen Energieträger von der Herstellung bis zum Tank an Bord machen zu können,“ erläutert der Projektleiter Ralf Plump, Referent Schiffs- und Meerestechnik im DMZ.

Dieses Problem betrifft nicht nur die Schifffahrt, sondern die Umstellung der globalen Energieversorgung insgesamt. Das Deutsche Maritime Zentrum wird sich auch zukünftig mit Fragen der Dekarbonisierung und Emissionsreduktion befassen.

Für Rückfragen stehen wir gerne zur Verfügung.
Dr. Regine Klose-Wolf
Leiterin Kommunikation
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
+49 40 9999 698 -51
+49 1590 189 1929
Klose-Wolf@dmz-maritim.de

Wissenschaftliche Ansprechpartner:
Ralf Plump, Referent Schiffs- und Meerestechnik
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
Telefon: +49 40 9999 698 – 81
E-Mail: Plump@dmz-maritim.de

Weitere Informationen:
https://t1p.de/bz8jv
http://Hier finden sie demnächst die vollständige Studie

(nach oben)


Klimaneutral heizen statt Erdgas verbrennen: So schaffen Städte die Wärmewende

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Alternative Wärmequellen wie Abwasserwärme konsequent erschließen
► Öffentliche Gebäude auf erneuerbare Wärme umrüsten und Quartierswärmenetze bilden
► Auch in Milieuschutzgebieten ambitioniert energetisch sanieren, damit Warmmieten bezahlbar bleiben
► BMBF-Projekt „Urbane Wärmewende“ von Institut für ökologische Wirtschaftsforschung, Kanzlei Becker Büttner Held und Berliner Wasserbetrieben legt Empfehlungen vor

Berlin, 26. April 2022 – Die voranschreitende Klimakrise, der Krieg in der Ukraine, die damit verbundenen Unsicherheiten und Preissteigerungen – es gibt viele Gründe, bei der Wärmeversorgung schnellstmöglich aus Öl und Erdgas auszusteigen. Damit die Wärmewende in Städten schneller und effektiver vorankommt, empfehlen Energieexpert*innen des Projekts „Urbane Wärmewende“ einen Maßnahmenmix: Städte sollten eine räumliche Wärmeplanung entwickeln und alle nachhaltigen Wärmepotenziale wie etwa Abwasserwärme erschließen. Zudem sollten sie die Fernwärme ausbauen, Quartierswärmenetze bilden – vor allem rund um öffentliche Gebäude – und faire energetische Sanierungen in Milieuschutzgebieten unterstützen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickelte das Institut für ökologische Wirtschaftsforschung (IÖW) mit der Wirtschaftskanzlei Becker Büttner Held (BBH) und den Berliner Wasserbetrieben sowie mit Vertreter*innen der Berliner Senats- und Bezirksverwaltung Empfehlungen für Länder, Städte, Kommunen und Quartiersmanager*innen.

Am Beispiel Berlins untersuchte das Forschungsvorhaben zentrale Aspekte einer klimaneutralen Wärmeversorgung. Bisher hängt die Hauptstadt im Wärmebereich noch zu zwei Dritteln von Erdgas, zu 17 Prozent von Heizöl und zu fünf Prozent von Kohle ab. „Berlin steht bei der Wärmewende vor Herausforderungen, die auch andere Städte kennen: Steigende Mieten schüren Angst vor teuren Sanierungsprojekten, der Wandel kommt trotz Fördertöpfen noch nicht in den Quartieren an und Technologien wie die Nutzung der Abwasserwärme kommen nur langsam in die Umsetzung“, erklärt Projektleiterin Dr. Elisa Dunkelberg vom IÖW. „In zweieinhalb Jahren praxisnaher Forschung haben wir Lösungsstrategien zusammengestellt, die in keiner städtischen Wärmeplanung fehlen sollten.“

Höhere Wärmedämmstandards auch in Milieuschutzgebieten
Auf der nächsten Heizkostenabrechnung bekommen die Mieter*innen zu spüren, wie teuer die Abhängigkeit von fossilen Rohstoffen derzeit ist. Selbst wenn sich die Märkte beruhigen – der CO2-Preis wird steigen. Darum kann sich eine energetische Sanierung, die über die gesetzlichen Mindeststandards hinausgeht, auch aus Sicht der Mieter*innen lohnen: Wenn die Vermieter*innen Fördermittel nutzen und die Modernisierungskosten fair umlegen, bleibt die Warmmiete stabil oder kann sogar sinken, wie die Forscherinnen berechnet haben.

Gerade in Milieuschutzgebieten sollten Kommunen daher ambitionierte Sanierungen stärker als bislang ermöglichen: „In den gut 70 sozialen Erhaltungsgebieten Berlins werden ambitionierte energetische Sanierungen bisher selten genehmigt. Gleiches gilt für einen Wechsel von Gasetagenheizungen zu erneuerbaren Energien oder Fernwärme“, so Charlotta Maiworm von BBH. „Um die Mieten langfristig günstig zu halten, sollten diese Projekte genehmigt werden – allerdings nur unter bestimmten Auflagen oder Bedingungen, etwa dass die Kosten für Mieter*innen nicht höher sein dürfen als die Maßnahmen nach dem ordnungsrechtlichen Mindeststandard.“ Worauf Kommunen und Quartiersmanager*innen dabei achten sollten, fasst das Forschungsteam in einem Leitfaden zusammen.

Alternative Wärmequellen: Abwasserwärme & Co.
Um Ressourcen effizient einzusetzen und Energieimporte zu minimieren, müssen lokale Wärmequellen umfassend genutzt werden. Während manche Städte in einzelnen Bereichen große Potenziale haben, wie München bei der Geothermie und Hamburg bei der industriellen Abwärme, müssen andere Städte wie Berlin alle Potenziale ausschöpfen und einen breiten Mix aus Umweltwärmepumpen, gewerblicher Abwärme, Direktstromnutzung und Biomasse anstreben.

Eine Wärmequelle, die in allen Städten ganzjährig zur Verfügung steht und nur noch „angezapft“ werden muss, ist die Abwasserwärme: Sie könnte ein wichtiger Baustein im künftigen Energiemix sein und zum Beispiel in Berlin zukünftig bis zu fünf Prozent des Wärmebedarfs decken. „Für ihre kommunale Wärmeplanung brauchen Städte Informationen darüber, wo und in welchem Umfang Abwasserwärme zur Verfügung steht und wie sie genutzt werden könnte“, sagt Michel Gunkel von den Berliner Wasserbetrieben. „Im Projekt ‚Urbane Wärmewende‘ haben wir diese Daten daher in einem geobasierten Tool – dem Abwasserwärmeatlas – aufbereitet, den wir derzeit in einer internen Testphase erproben.“

Wärmeplanung und Quartierswärmenetze
Die Informationen aus dem Abwasserwärmeatlas müssen für die Wärmeplanung mit anderen Daten wie etwa der Wärmenachfrage zusammengeführt werden. Ziel der Wärmeplanung ist es herauszufinden, wo mit welcher zukünftigen Wärmeversorgung Klimaneutralität am besten und kosteneffizientesten erreicht werden kann. Quartierswärme ist dort sinnvoll, wo erneuerbare Wärme und Abwärmepotenziale die Bedarfe einzelner Gebäude überschreiten. „Um lokale Wärmequellen zu erschießen, spielen öffentliche Gebäude eine zentrale Rolle“, betont Elisa Dunkelberg. „Wenn dort zum Beispiel eine große Abwasserwärmepumpe installiert wird, kann diese über ein Quartierswärmenetz auch umliegende Häuser mitversorgen.“ Wann immer bei öffentlichen Gebäuden Heizungswechsel oder Sanierungen anstehen, sollte daher geprüft werden, ob ein Quartierswärmesystem möglich ist. Beispielberechnungen zeigen, dass mit der geplanten Bundesförderung für effiziente Wärmenetze Quartierswärme in der Nachbarschaft zu wettbewerbsfähigen Preisen angeboten werden kann. Die Forschenden schlagen zudem Maßnahmen für eine erleichterte Umsetzung vor – etwa Musterverträge und Kriterienkataloge.

Auf der Tagung „Urbane Wärmewende – Wie Städte sich klimaneutral mit Wärme versorgen können“ informierten sich Ende März über 300 Verwaltungsmitarbeitende und Quartiersmanager*innen aus verschiedenen Städten über den aktuellen Forschungsstand zur urbanen Wärmewende. Leitfäden, Infografiken, Publikationen und Materialien zur Tagung: http://www.urbane-waermewende.de.

Mehr Informationen
► Leitfaden: Energetisch sanieren in Berliner Milieuschutzgebieten: So gehen Mieter*innen- und Klimaschutz zusammen (https://www.urbane-waermewende.de/publikationen-1)
► Forschungsbericht: Dunkelberg et al. (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme (ebd.)
► Infografiken des Projekts: https://www.urbane-waermewende.de/publikationen/infografiken

Über das Projekt
Das Projekt Urbane Wärmewende wurde vom Institut für ökologische Wirtschaftsforschung (IÖW) koordiniert. Verbundpartner waren die Berliner Wasserbetriebe sowie die Wirtschaftskanzlei Becker Büttner Held (BBH). Als Kommunalpartner waren die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, der Bezirk Charlottenburg-Wilmersdorf und der Bezirk Neukölln beteiligt. Das Projekt wurde vom Bundesministerium für Bildung und Forschung (BMBF) in der Förderinitiative „Nachhaltige Transformation urbaner Räume“ des Förderschwerpunkts Sozial-ökologische Forschung (SÖF) gefördert.
http://www.urbane-waermewende.de

Pressekontakt
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
http://www.ioew.de

Aktuelles aus dem IÖW: http://twitter.com/ioew_de | http://www.ioew.de/newsletter

Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-36
elisa.dunkelberg@ioew.de

Originalpublikation:
Dunkelberg, Elisa; Kaspers, Juliane; Maiworm, Charlotta; Torliene, Lukas; von Gayling-Westphal, Barbara (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme: Empfehlungen für die Erschließung öffentlicher Gebäude als Keimzellen für die Umsetzung von Quartierswärmekonzepten am Beispiel von Berlin. https://www.urbane-waermewende.de/publikationen-1

(nach oben)


Fleischkonsum muss um mindestens 75 Prozent sinken

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Damit die Erde uns auch in Zukunft ernähren kann, müssen die Industrienationen den Verzehr von Fleisch deutlich reduzieren – im Idealfall um mindestens 75 Prozent. Zu diesem Schluss kommt eine neue Studie der Universität Bonn. Die Übersichtsarbeit wertet den aktuellen Stand der Forschung zu verschiedenen Aspekten des Fleischkonsums aus. Dazu zählen neben den Auswirkungen auf Umwelt und Klima auch Gesundheits- und wirtschaftliche Effekte. Ein Fazit der Forscher: In geringen Mengen Fleisch zu essen, kann durchaus nachhaltig sein. Die Ergebnisse erscheinen in der Zeitschrift Annual Review of Resource Economics.

Rund 80 Kilogramm Fleisch nimmt jede Bürgerin und jeder Bürger der EU im Jahr zu sich. Doch jedes leckere Steak, jede knackige Grillwurst hat einen Preis, den wir nicht an der Ladentheke bezahlen. Denn die Nutztierhaltung schädigt Klima und Umwelt. Beispielsweise erzeugen Wiederkäuer Methan, das die Erderwärmung beschleunigt. Tiere setzen zudem nur einen Teil der verfütterten Kalorien in Fleisch um. Um dieselbe Zahl an Menschen zu ernähren, braucht man bei Fleisch daher entsprechend mehr Fläche. Das geht zu Lasten der Ökosysteme, da weniger Raum für den natürlichen Artenschutz bleibt. Wer zu viel Fleisch isst, lebt zudem gefährlich – Fleisch in Übermengen ist nicht gesund und kann chronische Krankheiten begünstigen.

Es gibt also gute Argumente, den Konsum tierischer Lebensmittel stark einzuschränken. „Würden alle Menschen so viel Fleisch verzehren wie die Europäer oder die Nordamerikaner, würden wir die Klimaziele weit verfehlen, und viele Ökosysteme würden kollabieren“, erklärt Studienautor Prof. Dr. Matin Qaim vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn. „Wir müssen unseren Konsum daher deutlich senken, idealerweise auf 20 Kilogramm oder weniger jährlich. Der Krieg in der Ukraine und die dadurch entstehenden Engpässe für Getreide auf dem Weltmarkt zeigen zudem sehr deutlich, dass weniger Getreide an Tiere verfüttert werden sollte, um die globale Ernährung sicherzustellen.“ Derzeit wandere rund die Hälfte der weltweiten Getreideproduktion in den Futtertrog.

Massen-Vegetarismus ist nicht die beste Lösung
Sollte die Menschheit nicht besser komplett auf vegetarische oder noch besser vegane Kost umschwenken? Laut Studie wäre das die falsche Konsequenz. Einerseits gibt es viele Regionen, in denen sich keine pflanzlichen Lebensmittel anbauen lassen. „Wir können uns nicht von Gras ernähren, Wiederkäuer aber sehr wohl“, verdeutlicht Qaims Kollege und Koautor Dr. Martin Parlasca. „Wenn sich Grasland nicht anders nutzen lässt, ist es daher durchaus sinnvoll, darauf Vieh zu halten.“ Gegen eine schonende Weidehaltung mit nicht zu vielen Tieren sei auch aus Umweltsicht wenig einzuwenden.

Gerade in ärmeren Regionen fehlt es zudem an pflanzlichen Quellen für hochwertige Proteine und Mikronährstoffe. So lassen sich Gemüse und Hülsenfrüchte nicht überall anbauen und zudem nur zu bestimmten Zeiten ernten. „In solchen Fällen sind Tiere oft ein zentrales Element für eine gesunde Ernährung“, betont Parlasca. „Für viele Menschen sind sie außerdem eine wichtige Einnahmequelle. Wenn die Einkünfte aus Milch, Eiern oder auch Fleisch wegfallen, kann das für sie existenzbedrohend sein.“ Ohnehin seien nicht die ärmeren Länder das Problem, verdeutlichen die Autoren. Bei ihren Bewohnern steht Fleisch meist viel seltener auf dem Speiseplan als in den Industrienationen. Vor allem die reichen Länder müssen daher den Fleischkonsum reduzieren.

Steuer auf Fleischprodukte sinnvoll
Im Moment ist davon wenig zu spüren. Obwohl es mehr Vegetarier gibt als früher, stagniert der Fleischkonsum europaweit gesehen. Am höchsten ist er jedoch in Nordamerika und Australien. Qaim hält es für wichtig, auch über höhere Steuern auf tierische Lebensmittel nachzudenken. „Das ist sicher unpopulär, zumal es mit einem zehn- oder zwanzigprozentigen Aufschlag wahrscheinlich nicht getan wäre, falls er eine Lenkungswirkung entfalten soll“, sagt er. „Fleisch verursacht jedoch hohe Umweltkosten, die sich in den aktuellen Preisen nicht widerspiegeln. Es wäre durchaus sinnvoll und gerecht, die Konsumentinnen und Konsumenten stärker an diesen Kosten zu beteiligen.“

Die Autoren fordern zudem, das Thema „nachhaltiger Konsum“ verstärkt in die schulischen Curricula zu integrieren. Auch in der Ausbildung zukünftiger Lehrkräfte müssten diese Inhalte besser berücksichtigt werden. „Wir müssen sensibler für die globalen Auswirkungen unserer Entscheidungen werden“, betont Qaim, der auch Mitglied im Exzellenzcluster PhenoRob sowie (wie sein Kollege Martin Parlasca) im Transdisziplinären Forschungsbereich „Sustainable Futures“ der Universität Bonn ist. „Das gilt nicht nur beim Essen, sondern auch für das T-Shirt, das wir beim Discounter kaufen, um es einen einzigen Abend auf einer Party zu tragen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matin Qaim
Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn
Tel. +49-228-73-1847
E-Mail: mqaim@uni-bonn.de

Originalpublikation:
Martin C. Parlasca & Matin Qaim: Meat consumption and sustainability; Annual Review of Resource Economics, https://doi.org/10.1146/annurev-resource-111820-032340

https://www.annualreviews.org/doi/abs/10.1146/annurev-resource-111820-032340

(nach oben)


Mit Herzerkrankungen leben – Tipps von Kardiologie-Experten

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Mit der ersten Diagnose ändert sich für die meisten Patient*innen mit Herz-Kreislauf-Erkrankungen das Leben schlagartig. Drei Experten der Deutschen Gesellschaft für Kardiologie geben Tipps für den Alltag: Wie viel Sport wann angebracht ist, welchen Einfluss elektromagnetische Felder auf Herzschrittmacher und Defibrillatoren haben und wie Smartphone & Co. den Betroffenen helfen können.

Sport oder besser nicht? Die Frage stellen sich viele Patient*innen, nachdem sie von ihrer Herzerkrankung erfahren haben. Ob und wann Sport gesundheitsfördernd oder -schädlich ist, beantwortete Prof. Dr. Ulrich Laufs aus Leipzig heute während einer Pressekonferenz der Deutschen Gesellschaft für Kardiologie (DGK): „Grundsätzlich hat sich die Sichtweise der modernen Kardiologie im Zeitverlauf der vergangenen 20 Jahre hinsichtlich des Nutzens von körperlicher Aktivität weiterentwickelt. Wurde früher bei (schwerwiegenden) Herzerkrankungen eher auf Schonung denn auf Belastung gesetzt, hat sich der Ansatz nahezu völlig umgekehrt. Inzwischen gilt es, generell die enormen gesundheitlich positiven Effekte von körperlicher Aktivität zu nutzen.“ Die europäischen Behandlungsleitlinien empfehlen sowohl Geschicklichkeits-, Kraft- und Gewichts- als auch Ausdauersport, wobei letzterer gerade für Herzpatient*innen am vor-teilhaftesten zu sein scheint. Doch welche Sportart von den Patient*innen gewählt wird, steht für den Kardiologen Laufs letztlich gar nicht an erster Stelle: „Es ist vor allem wichtig, eine Aktivität zu finden, die der persönlichen Neigung entspricht und die auch über längere Zeit ausgeübt werden kann.“

Nur in seltenen Ausnahmen wird Sport nicht empfohlen
Trotz der grundsätzlich kaum zu unterschätzenden Vorteile von körperlicher Aktivität bei Herzerkrankungen, gibt es einige wenige Ausnahmen, in denen Sport eher schädlich sein kann. Bei Herzmuskelentzündungen – die im Zuge der vielen COVID-Erkrankungen derzeit häufiger auftreten als früher – muss Sport unbedingt vermieden werden, um dauerhafte Schädigungen des Herzmuskels zu vermeiden. Ebenso keinen Sport machen sollten Patient*innen mit schweren Formen von Herzklappenerkrankungen und unbehandeltem Bluthochdruck oder nicht therapierten Herzrhythmusstörungen. „Bei schwerwiegenden kardiovaskulären Krankheiten lautet die Reihenfolge: erst um die Erkrankung kümmern, dann die körperliche Aktivität aufbauen“, so Laufs.

Trotz Herzschrittmacher ins Elektroauto, durch den Metalldetektor und ins MRT?
Patient*innen, die so genannte aktive Implantate tragen, beispielsweise Herzschrittmacher oder im-plantierbare Defibrillatoren, machen sich häufig Sorgen, ob elektromagnetische Felder die Funktion ihrer Implantate stören oder sogar unterbrechen können. Die Frage ist von Relevanz, da im Prinzip jedes elektrische Gerät mit seinem elektromagnetischen Feld auf einen Schrittmacher oder implantierten Defibrillator Einfluss nehmen kann.
PD Dr. Carsten Israel gibt im Rahmen der Pressekonferenz jedoch Entwarnung: Moderne Implantate sind deutlich besser vor elektromagnetischen Einflüssen abgeschirmt als ältere Modelle – wobei dies schon für Geräte gilt, die seit dem Jahr 2002 hergestellt wurden. „Heute sind praktisch nur noch Geräte implantiert, die jünger als 20 Jahre sind“, sagt der DGK-Experte. Magnetische Bauteile in Schrittmachern und implantierbaren Defibrillatoren wurden in den neueren Geräten durch nicht-magnetische ersetzt.

Implantatträger*innen können sich auch gefahrlos einer MRT-Untersuchung unterziehen, selbst wenn ihre Geräte nicht ausdrücklich für eine MRT-Untersuchung zugelassen sind. Bereits 2017 konnte das durch zwei Studien belegt werden. Das Fazit der Studien: Bei keinen Patient*innen war es während der MRT-Untersuchung aus technischen Gründen zu einem Problem mit den Implantaten gekommen.

Smarte Geräte im Alltag
Im Alltag übernehmen digitale Geräte durch immer neue Funktionen vielfältige Aufgaben. Im Be-reich der medizinischen Versorgung ist das nicht anders. Smartwatches verfügen teilweise über di-agnostischen Anwendungen, die im Alltag genutzt werden können. Ein aktuelles Beispiel ist die Aufdeckung von Vorhofflimmern-Episoden. Mit Hilfe geeigneter Smartwatches können zum Beispiel 1-Kanal-EKG abgeleitet werden, die einen Nachweis der Herzrhythmusstörung ermöglichen.
„Mit Hilfe solcher und ähnlicher Messungen kann die Wahrscheinlichkeit für ein Vorhofflimmern berechnet werden“, erklärte Prof. Dr. Peter Radke, Experte der DGK für Mobile Devices, während der Pressekonferenz am Freitag. „Diese Technologie reicht aber alleinig nicht aus, um die Diagnose definitiv stellen zu können. Hier muss eine Verifizierung durch Ärztin oder Arzt erfolgen.“

Medienkontakt:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Michael Böhm (Homburg/Saar)
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org. Wichtige Informationen für Nicht-Mediziner*innen stellt die DGK auf den Seiten ihres Magazins „HerzFitmacher“ zusammen: www.herzfitmacher.de

Weitere Informationen:
http://www.dgk.org/presse

Anhang
Mit Herzerkrankung leben – Tipps von Experten

(nach oben)


Quantencomputing: Neue Potenziale für automatisiertes maschinelles Lernen

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO und industrielle Partner entwickeln erste quantengestützte Cloudlösung für das automatisierte maschinelle Lernen.

Quantencomputing ermöglicht es, rechenintensive Technologien wie das maschinelle Lernen (ML) weiterzubringen. Im Projekt »AutoQML« entwickeln acht Partner aus Forschung und Industrie Lösungsansätze, die Quantencomputing und ML verknüpfen. Eine Open-Source-Plattform soll Entwickler*innen befähigen, Algorithmen des Quanten-Machine-Learnings ohne tiefgehendes Fachwissen nutzen zu können.

Wie gelingt es Unternehmen, die Potenziale der Digitalisierung zu nutzen und wettbewerbsfähig zu bleiben? Der Einsatz von Technologien wie Künstlicher Intelligenz kann dabei helfen, von der digitalen Transformation bestmöglich zu profitieren. Vor allem maschinelles Lernen (ML) spielt in der Digitalisierungsstrategie vieler Unternehmen bereits eine große Rolle und ermöglicht unter anderem effizientere Prozesse sowie neue Geschäftsmodelle. Allerdings fehlt es oft an Fachkräften. So ist die Implementierung von ML-Lösungen bisher noch häufig mit hohem Arbeitsaufwand verbunden. Von der Datenakquisition über die Wahl der passenden Algorithmen bis hin zur Optimierung des Trainings ist ein detailliertes Fachwissen in ML notwendig.

Der Ansatz des automatisierten maschinellen Lernens (AutoML) wirkt diesen Herausforderungen entgegen und erleichtert Entwickler*innen den Einsatz von Künstlicher Intelligenz. Dabei wird insbesondere die Wahl der konkreten ML-Algorithmen automatisiert. Anwender*innen müssen sich somit weniger mit ML beschäftigen und auskennen und können sich mehr auf ihre eigentlichen Prozesse konzentrieren. In diesem Zusammenhang markiert Quantencomputing den Durchbruch in eine neue technologische Ära, denn damit lässt sich der AutoML-Ansatz signifikant verbessern. Zudem bietet Quantencomputing die für AutoML oftmals nötige Rechenpower.

Neuer Ansatz: Quantencomputing bringt maschinelles Lernen auf neues Niveau
Das Verbundprojekt »AutoQML« setzt an dieser Innovation an und verfolgt zwei wesentliche Ziele: Zum einen wird der neue Ansatz AutoQML entwickelt. Dieser wird um neu entwickelte Quanten-ML-Algorithmen erweitert. Zum anderen hebt Quantencomputing den AutoML-Ansatz auf ein neues Niveau, denn bestimmte Probleme lassen sich mithilfe von Quantencomputing schneller lösen als mit konventionellen Algorithmen.

Unter Leitung des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO ermöglicht das Projekt Entwickler*innen einen vereinfachten Zugang zu konventionellen und Quanten-ML-Algorithmen über eine Open-Source-Plattform. Neben dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA beteiligen sich die Unternehmen GFT Integrated Systems, USU Software AG, IAV GmbH Ingenieursgesellschaft Auto und Verkehr, KEB Automation KG, TRUMPF Werkzeugmaschinen GmbH + Co. KG und die Zeppelin GmbH am Projekt. Die entwickelten Lösungen werden anhand von konkreten Anwendungsfällen aus dem Automotive- und Produktionsbereich erprobt.

Das Beste aus beiden Welten: Softwarebibliothek für hybride Gesamtlösungen
Das Projektkonsortium wird Komponenten des Quantencomputings in heutige Lösungsansätze des maschinellen Lernens integrieren, um die Performance-, Geschwindigkeits- und Komplexitätsvorteile von Quanten-Algorithmen im industriellen Kontext nutzen zu können. In der sogenannten AutoQML-Developer Suite – einer Softwarebibliothek – sollen entwickelte Quanten-ML-Komponenten und Methoden in Form eines Werkzeugkastens zusammengeführt und den Entwickler*innen in einer Open-Source-Plattform zur Verfügung gestellt werden. Dies befähigt Anwender*innen, maschinelles Lernen und Quanten-Machine-Learning einzusetzen und hybride Gesamtlösungen entwickeln zu können.

Die Laufzeit des Projekts beträgt drei Jahre. Die weiterführende Marktverbreitung durch die Unternehmenspartner ermöglicht den Transfer von forschungsnaher Hochtechnologie in ein breites, industrielles Umfeld mit dem Ziel, den Industriestandort Deutschland signifikant zu stärken. Das Projekt wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.

Ansprechpartnerin:
Yeama Bangali
Quantencomputing
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5196
Email yeama.bangali@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr. Christian Tutschku
Leiter Team Quantencomputing
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-5115
Email christian.tutschku@iao.fraunhofer.de

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/quantencomputing-ne…

(nach oben)


Nach der Kirschblüte lauert die Essigfliege

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
„Der Frühling ist da und die blühenden Obstbäume und -sträucher machen schon jetzt Lust auf frische Früchte wie Kirschen, Pfirsiche oder Pflaumen“, so Roger Waldmann vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL). Doch er weist auf den richtigen Schutz der Obstbäume vor der Kirschessigfliege hin: „Denn die Larven der Drosophila suzukii entwickeln sich in manchen Jahren lokal so schnell, dass die komplette Ernte innerhalb von weniger als 14 Tagen ausfallen kann.“

Die Besonderheit der Kirschessigfliege ist ihre Vorliebe für reifende und reife Früchte. Dorthinein legt das rund drei Millimeter große Schadinsekt seine Eier, also auch in Kirschen, die noch am Baum hängen und kurz vor der Ernte stehen. Dies macht die Bekämpfung des Schädlings mit Insektiziden schwierig, da nur ein kleines Zeitfenster bis zur Ernte verbleibt. Pflanzenschutzmittel gegen die Kirschessigfliege stehen für den Hausgarten nicht zur Verfügung. Selbst beruflich Anwendende mit Pflanzenschutz-Sachkundenachweis können nur befristet zugelassene Insektizide anwenden.

Wie man die Obsternte im heimischen Garten schützen kann:

• Das „Einnetzen“ der Pflanzen. Diese Methode dient der Vermeidung des Befalls. Hierbei werden die zu schützenden Bäume und Sträucher in feinmaschige Netze eingehüllt, sodass die Schadinsekten die Früchte gar nicht erst erreichen können. Eine Maschenweite von 0,8 bis maximal 1,0 Millimetern verspricht die besten Ergebnisse. Der richtige Zeitpunkt: Um die Bestäuber nicht zu beeinträchtigen, wird damit erst beim Farbumschlag (Reifung) der Früchte begonnen.

• Ein trockenes, besonntes Bestandsklima sicherstellen, da die Kirschessigfliege feuchte und kühle Bedingungen bevorzugt. Hierbei helfen geeignete Schnittmaßnahmen und das Entfernen der Blätter um die Früchte herum, um ein schnelles Abtrocknen des Baums zu ermöglichen.

• Verzicht auf eine Überkopfbewässerung und das Kurzhalten des Rasens unter den Obstbäumen, um schattige, kühle Rückzugsbereiche für die Kirschessigfliegen zu vermeiden.

• Ein naturnaher Garten. Hierdurch werden die natürlichen Feinde der Kirschessigfliege, wie Schlupfwespen, Vögel, Spinnen oder Ameisen, gefördert.
Seit 2011 hat sich die aus Asien stammende Kirschessigfliege in Deutschland ausgebreitet. Neben Süß- und Sauerkirschen befällt sie zahlreiche Obstarten wie Brombeeren, Himbeeren, Heidelbeeren, Pflaumen, seltener Erdbeeren und lokal einige rote Traubensorten. Die Pflanzenschutzorganisation für Europa und den Mittelmeerraum EPPO stuft die Kirschessigfliege als eine große Gefahr ein, denn:

• die Klimabedingungen in Europa sind optimal für ihre Vermehrung,
• die Vielzahl an nutzbaren, in zeitlicher Abfolge reifenden Obstkulturen stehen während der gesamten Wachstums- und Vermehrungsphase zur Verfügung,
• der kurze Generationswechsel sorgt, in Abhängigkeit von den jährlichen Klimabedingungen, für eine rasche Ausbreitung und sehr schnell ansteigende Zahlen mit entsprechendem Befall der Wirtsfrüchte.

Kommt es zum Befall, so sollte dieser durch eine frühzeitige und komplette (bei Kirschen) beziehungsweise kontinuierliche Ernte (bei Himbeeren) reifer Früchte reduziert werden. Auf die Kompostierung der befallenen Früchte im eigenen Garten sollte verzichtet werden. Um Eier und Maden abzutöten, sollten befallene Früchte zunächst in einem luftdicht geschlossenen Behälter oder einer Plastiktüte mehrere Tage der Sonne ausgesetzt werden, in reichlich Wasser mit etwas Spülmittel mehrere Stunden stehen gelassen oder mit kochendem Wasser überbrüht werden. Danach können die Früchte entsorgt werden. Abgefallene, auf dem Boden liegende Früchte sollten schnell entfernt werden, denn die gesamte Bestandshygiene ist sehr wichtig, um den Befall der Früchte gering zu halten.

Quellen und weitere Informationen finden Sie hier:
Bundesministerium für Ernährung und Landwirtschaft
(https://www.bmel.de/DE/themen/landwirtschaft/pflanzenbau/pflanzenschutz/kirsches…)

Wissensportal des Julius Kühn-Instituts
(https://drosophila.julius-kuehn.de/)

Bundesanstalt für Landwirtschaft und Ernährung
(https://www.ble.de/DE/Projektfoerderung/Foerderungen-Auftraege/Modellvorhaben/Pf…)

Bayerische Landesanstalt für Landwirtschaft
(https://www.lfl.bayern.de/ips/obstbau/096383/index.php)

Hintergrund:
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist die zuständige Behörde für die Zulassung von Pflanzenschutzmitteln. An den nationalen Verfahren sind weitere Behörden beteiligt:

Das Bundesinstitut für Risikobewertung (BfR) bewertet die Auswirkungen auf die Gesundheit von Mensch und Tier und die Analysemethoden zum Nachweis möglicher Rückstände.

Das Julius Kühn-Institut (JKI) bewertet die Wirksamkeit, die Pflanzenverträglichkeit, den Einfluss auf die Nachhaltigkeit und mögliche Auswirkungen auf Honigbienen.

Das Umweltbundesamt (UBA) bewertet mögliche Auswirkungen auf den Naturhaushalt.

(nach oben)


Der Himmel benötigt Schutz genau wie die Erde

Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Astronomische Gesellschaft
Einer aktuellen Studie zufolge benötigt der Weltraum zum Schutz seiner empfindlichen Umwelt dringend einen ähnlichen rechtlichen Schutz wie die Erde, das Meer und die Atmosphäre.

Die Zunahme von Weltraummüll im erdnahen Orbit – etwa 100 Kilometer über der Erdoberfläche -, der durch das rasche Ansteigen von so genannten Mega-Satelliten-Konstellationen verursacht wird, gefährdet dieses wertvolle Ökosystem, so die Forscherinnen und Forscher.

Die Installation dieser riesigen Hardware-Cluster umfasst bis zu Zehntausende einzelner Satelliten, die Breitbandverbindungen für die Erde liefern. Das führt zu einer Überlastung des Weltraums, und die Raketenstarts verschmutzen darüber hinaus die Atmosphäre.
Bruchstücke von zerbrochenen Satelliten, die mit enormer Geschwindigkeit durch den Weltraum fliegen, bedrohen laut der Studie auch andere Satelliten in ihrer Umlaufbahn.
Ebenso stören die Satelliten, die Lichtstreifen am Himmel und damit eine signifikante Lichtverschmutzung verursachen, in zunehmendem Maße die Forschung im optischen Wellenlängenbereich. Das Vera-C.-Rubin-Observatorium in Chile, das über einen Zeitraum von 10 Jahren den Himmel vermessen soll, ist beispielsweise schon stark beeinträchtigt.
Die Zeitschrift „Nature Astronomy“ veröffentlichte nun eine Studie, in der gezeigt wird, dass der Weltraum ein wichtiges Umfeld für die professionelle Astronomie, Amateurastronomie und indigene Völker darstellt und dass der wissenschaftliche, wirtschaftliche und kulturelle Nutzen des Weltraums sorgfältig gegen diese schädlichen Umweltauswirkungen abgewogen werden sollten.

Die unter Leitung der Universität Edinburgh entstandene Forschungsarbeit steht im Zusammenhang mit einem Rechtsfall, der derzeit vor dem US-Berufungsgericht verhandelt wird und einen wichtigen Präzedenzfall in der wachsenden Kampagne für die Ausdehnung des Umweltschutzes auf den Weltraum darstellen wird.
Die Lösung des Problems erfordert einen ganzheitlichen Ansatz, der den Weltraum als Teil der Umwelt und als schützenswertes Gut auf nationaler und internationaler Ebene betrachtet, so die Experten.

Die Forscherinnen und Forscher fordern die politischen Entscheidungsträger auf, die Umweltauswirkungen aller Aspekte von Satellitenkonstellationen – einschließlich ihres Starts, ihres Betriebs und ihres Wiedereintritts aus dem Orbit – zu berücksichtigen und zusammen an einem gemeinsamen, ethischen und nachhaltigen Ansatz für den Weltraum zu arbeiten.
Andy Lawrence, Professor für Astronomie am Institut für Astronomie der Universität Edinburgh und Hauptautor der Studie, sagt: „Wir stehen an einem Wendepunkt in der Geschichte. Wir können eine große Anzahl von Satelliten kostengünstig starten und sie zum Nutzen des Lebens auf der Erde einsetzen – aber das hat seinen Preis. Die Raumfahrtindustrie schadet nicht nur der Sternbeobachtung, sondern könnte sich so auch selbst ins Bein schießen.“

Professor Lawrence machte die Öffentlichkeit mit seinem Buch „Losing The Sky“ auf diese Probleme aufmerksam. Die Veröffentlichung führte dazu, dass er eine Expertenaussage für einen Rechtsfall verfasste, der derzeit vor dem US-Berufungsgericht verhandelt wird und in dem argumentiert wird, dass die US-Umweltvorschriften auch für die Genehmigung von Weltraumstarts gelten sollten.

Professor Michael Kramer, Präsident der Astronomischen Gesellschaft, weist darauf hin, dass die Vielzahl von Satelliten nicht nur optische sondern auch radioastronomische Beobachtungen stören. Insbesondere aber sagt er, „Wir brauchen Regeln, die sicherstellen, dass unsere Kinder und Enkel immer noch in der Lage sein werden, das Wunder Sternenhimmel zu bestaunen. Schon jetzt ist es in Deutschland schwierig, diese Erfahrung zu machen. Mit den Mega-Konstellationen besteht die Gefahr, dass es überall auf der Welt unmöglich sein wird.”

Professor Moriba Jah, Mitautor der Studie und außerordentlicher Professor für Luft- und Raumfahrttechnik und technische Mechanik an der University of Texas in Austin, sagt: „Wir glauben, dass alle Dinge miteinander verbunden sind und dass wir Verantwortung übernehmen müssen, als ob unser Leben davon abhinge. Traditionelles ökologisches Wissen ist der Schlüssel zur Lösung dieses schwierigen Problems.“
„Die größte Herausforderung besteht darin, Empathie und Mitgefühl für die Lösung dieser Umweltkrisen zu wecken. Wenn es uns gelingt, innovative Wege zu finden, die es der breiten Öffentlichkeit ermöglichen, sich in diese katastrophale Situation hineinzuversetzen und dagegen angehen zu müssen, dann wird die Erde und alles Leben, das sie erhält, dadurch gewinnen“, ergänzt er.

Professor Jah hat kürzlich zusammen mit dem Apple-Mitbegründer Steve Wozniak und dem CEO von Ripcord, Alex Fielding, das Start-up-Unternehmen „Privateer Space“ gegründet. Das Unternehmen verfolgt einen neuartigen Ansatz zur genauen Kartierung von Objekten in der Erdumlaufbahn in nahezu Echtzeit, um die nachhaltige Nutzung des Weltraums durch eine wachsende Zahl von Betreibern zu ermöglichen.

Dr. Meredith Rawls, Mitautorin und Forscherin an der Universität von Washington, sagt: „Das Rubin-Observatorium wird aufgrund seines großen Spiegels und seines weiten Sichtfeldes eine der am stärksten von einer großen Anzahl heller Satelliten betroffenen astronomischen Einrichtungen sein – das sind dieselben Eigenschaften, die es zu einem so bemerkenswerten Motor für Entdeckungen machen. Ich mache mir viele Gedanken darüber, wie sich Satellitenstreifen auf die Wissenschaft auswirken, aber das Anliegen eines dunklen und ruhigen Himmels ist sehr viel umfangreicher.“

„Wir müssen alle an einem Strang ziehen, um die sich rasch verändernde Satellitensituation zu bewältigen, wenn wir hoffen wollen, eine Zukunft mit einem dunklen und ruhigen Himmel für alle zu schaffen“, schließt sie.

Dr. Rawls ist eine Hauptakteurin des neuen Zentrums der Internationalen Astronomischen Union (IAU) für den Schutz des dunklen und ruhigen Himmels vor Störungen durch Satellitenkonstellationen, das die Interessengruppen für Himmelsbeobachtungen zusammenbringen soll, um gemeinsam die Auswirkungen von Satelliten zu quantifizieren und zu deren Abschwächung beizutragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Kramer
Präsident, Astronomische Gesellschaft
Telefon: +49 228 525 278
praesident@astronomische-gesellschaft.de

Originalpublikation:
Nature Astronomy Artikel: https://www.nature.com/articles/s41550-022-01655-6

Weitere Informationen:
https://www.iau.org/science/scientific_bodies/centres/CPS/
https://mission.privateer.com/

(nach oben)


COVID-19-Therapie: Zusammen ist besser als allein

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie ein altbekannter Wirkstoff zum Gamechanger werden kann

Gemeinsame Pressemitteilung von Charité, MDC und FU Berlin
Zur Behandlung von COVID-19 stehen immer mehr Medikamente zur Verfügung. Forschende der Charité – Universitätsmedizin Berlin, des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) und der Freien Universität (FU) Berlin haben die Wirkmechanismen von antiviralen und antientzündlichen Substanzen genauer untersucht. Im Fachjournal Molecular Therapy* beschreiben sie, dass eine Kombination aus beiden am besten funktioniert und das Zeitfenster für den Einsatz einer Antikörpertherapie verlängert.

Noch immer führen Infektionen mit SARS-CoV-2 auch zu Aufnahmen in ein Krankenhaus. Derzeit werden laut Robert-Koch-Institut innerhalb einer Woche pro 100.000 Einwohner etwa sechs bis sieben Menschen mit COVID-19 eingewiesen. Bei der stationären Behandlung von COVID-19-Patient:innen gibt es mittlerweile eine Reihe von Medikamenten, die den Krankheitsverlauf abmildern oder bei Schwerkranken das Risiko eines tödlichen Verlaufs verringern. Einige bekämpfen das Virus, andere die Entzündung, die es hervorruft.

Besonders werden monoklonale Antikörper und das stark entzündungshemmende Medikament Dexamethason eingesetzt. Antikörper fangen das Virus ab, heften sich an die Oberfläche des Spikeproteins und verhindern so, dass es in die menschlichen Zellen eintritt. Diese Therapie wird bis zum siebten Tag nach Beginn der Symptome angewandt. Sauerstoffpflichtige COVID-19-Patient:innen im Krankenaus erhalten in der Regel Dexamethason. Das Glukokortikoid hat sich seit etwa 60 Jahren bei einigen, auf einer übermäßigen Aktivierung des Immunsystems beruhenden Entzündungen bewährt. Auch bei COVID-19 dämpft es die Entzündungsreaktion des Körpers zuverlässig. Allerdings geht der Wirkstoff mit verschiedenen Nebenwirkungen einher, so kann er beispielsweise Pilzinfektionen nach sich ziehen. Deshalb sollte das Mittel nur sehr gezielt eingesetzt werden.

Wissenschaftler:innen der Charité, des Berliner Instituts für Medizinische Systembiologie (BIMSB) am MDC und der FU Berlin haben die Wirkmechanismen beider Therapien untersucht. „Dabei haben wir Hinweise dafür gefunden, dass eine Kombination aus Antikörper- und Dexamethason-Therapie besser wirkt als die einzelnen Therapien für sich genommen“, sagt Dr. Emanuel Wyler, Wissenschaftler der Arbeitsgruppe RNA Biologie und Posttranscriptionale Regulation unter Leitung von Prof. Dr. Markus Landthaler am BIMSB, und Erstautor der Studie.


Da nicht alle Lungenareale anhand von Proben von Patient:innen untersucht werden können, suchten die Forschungsteams im vergangenen Jahr zunächst nach einem geeigneten Modell. Co-Letztautor Dr. Jakob Trimpert, Tiermediziner und Arbeitsgruppenleiter am Institut für Virologie der Freien Universität Berlin, entwickelte in diesem Zuge COVID-19-Hamstermodelle. Die Tiere sind derzeit der wichtigste nicht transgene Modellorganismus für COVID-19, da sie sich mit denselben Virusvarianten wie Menschen infizieren und ähnliche Krankheitssymptome entwickeln. Die Erkrankung läuft bei den einzelnen Arten unterschiedlich ab: Goldhamster erkranken nur moderat, während Roborovski-Zwerghamster einen schweren Verlauf zeigen, der dem von COVID-19-Patient:innen auf Intensivstationen ähnelt.

„In der aktuellen Studie haben wir die Auswirkungen von separaten und kombinierten antiviralen und entzündungshemmenden Behandlungen für COVID-19, also mit monoklonalen Antikörpern, Dexamethason oder einer Kombination aus beiden Therapien, in den vorhandenen Modellen geprüft“, erklärt Dr. Trimpert. Um das Ausmaß der Schädigung des Lungengewebes zu analysieren, untersuchten die Veterinärpathologen der FU Berlin infiziertes Lungengewebe unter dem Mikroskop. Außerdem bestimmte das Team um Dr. Trimpert zu verschiedenen Zeitpunkten der Behandlung die Menge an infektiösen Viren und Virus-RNA. So konnten die Wissenschaftler:innen überprüfen, ob und wie sich die Virenaktivität im Lauf der Therapie veränderte. „Mithilfe von detaillierten Analysen verschiedener Parameter einer COVID-19-Erkrankung, die so nur im Tiermodell möglich sind, ist es uns gelungen, nicht nur die Grundlagen der Wirkungsweise von zwei besonders wichtigen COVID-19-Medikamenten besser zu verstehen, wir fanden auch deutliche Hinweise auf mögliche Vorteile einer Kombinationstherapie aus monoklonalen Antikörpern und Dexamethason“, sagt Dr. Trimpert.

Den Einfluss der Medikamente auf das komplexe Zusammenspiel der Signalwege innerhalb der Gewebezellen und auf die Anzahl der Immunzellen haben Einzelzellanalysen gezeigt. Dabei lassen die Forschenden die einzelnen Zellen einer Probe über einen Chip laufen. Dort werden sie zusammen mit einem Barcode in kleine wässrige Tröpfchen verpackt. Auf diese Weise kann die RNA – der Teil des Erbgutes, den die Zelle gerade abgelesen hatte – sequenziert und später der Zelle wieder zugeordnet werden. Aus den gewonnenen Daten lässt sich mit hoher Präzision auf die Funktion der Zelle schließen. „So konnten wir beobachten, dass die Antikörper die Virusmenge effizient reduzieren konnten“, erläutert Dr. Wyler. „Im Modell half das jedoch nicht viel.“ Denn nicht die Viren schädigen das Lungengewebe, sondern die starke Entzündungsreaktion, die sie auslösen. Die Immunzellen, die die Eindringlinge bekämpfen, schütten Botenstoffe aus, um Verstärkung herbeizurufen. Die Massen an Abwehrkämpfern, die herbeiströmen, können die Lunge regelrecht verstopfen. „Verschlossene Blutgefäße und instabile Gefäßwände können dann zu einem akuten Lungenversagen führen“, erklärt der Wissenschaftler.

Für eine Überraschung sorgte das altbekannte Dexamethason. „Der Entzündungshemmer wirkt ganz besonders stark auf eine bestimmte Art von Immunzellen, die Neutrophilen“, sagt Co-Letztautorin Dr. Geraldine Nouailles, wissenschaftliche Arbeitsgruppenleiterin an der Medizinischen Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité. Die Neutrophilen gehören zu den weißen Blutkörperchen und treten bei Infektionen mit Viren und Bakterien sehr schnell auf den Plan. „Das Kortison-Präparat unterdrückt das Immunsystem und hindert die Neutrophilen daran, Botenstoffe zu produzieren, die andere Immunzellen anlocken“, führt Dr. Nouailles aus. „So verhindert das Medikament sehr effektiv eine Eskalation der Immunabwehr.“

Die besten Behandlungsergebnisse erreichten die Forschenden, als sie die antivirale mit der antientzündlichen Therapie kombinierten. „Eine solche Kombinationstherapie sehen die medizinischen Leitlinien bislang nicht vor“, betont Dr. Nouailles. „Hinzu kommt, dass eine Antikörpertherapie bislang nur bis zum maximal siebten Tag nach Symptombeginn bei Hochrisikopatient:innen verabreicht werden darf. Dexamethason wird in der Praxis erst verabreicht, wenn die Patient:innen sauerstoffpflichtig werden, also ihre Erkrankung bereits weit fortgeschritten ist. In der Kombination hingegen eröffnen sich ganz neue Zeitfenster der Behandlung.“ Ein Ansatz, der nun in klinischen Studien überprüft werden muss, bevor er für die Behandlung von Patient:innen infrage kommt.

*Emanuel Wyler et al (2022): „Key benefits of dexamethasone and antibody treatment in COVID-19 hamster models revealed by single cell transcriptomics “, in: Molecular Therapy, DOI: https://doi.org/10.1016/j.ymthe.2022.03.014

Über die Studie
:
Gefördert wurden die Arbeiten unter anderem durch die Deutsche Forschungsgemeinschaft (DFG) im Sonderforschungsbereich SFB-TR84, das Bundesministerium für Bildung und Forschung (BMBF) mit den Projekten CAPSyS-COVID sowie PROVID und das Berlin Institute of Health (BIH) in der Charité mit CM-COVID. Ebenfalls ermöglicht hat die Studie das BMBF-geförderte Nationale Forschungsnetzwerk der Universitätsmedizin zu Covid-19 (NUM), im Teilvorhaben Organostrat.


Wissenschaftliche Ansprechpartner:
Dr. Geraldine Nouailles
Arbeitsgruppenleiterin
Medizinische Klinik mit Schwerpunkt Infektiologie und Pneumologie
Charité – Universitätsmedizin Berlin
Tel.: +49 (0)30 450 653 474
geraldine.nouailles@charite.de

Dr. Jakob Trimpert
Arbeitsgruppenleiter / Leiter der Diagnostik
Institut für Virologie
Freie Universität Berlin
Tel.: +49 (0) 30 838 65028
Jakob.Trimpert@fu-berlin.de

Dr. Emanuel Wyler

AG RNA Biologie und Posttranscriptionale Regulation

Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)

Tel.: +49 (0)30 9406-3009

emanuel.wyler@mdc-berlin.de

Originalpublikation:
https://www.cell.com/molecular-therapy-family/molecular-therapy/fulltext/S1525-0…

Weitere Informationen:
https://infektiologie-pneumologie.charite.de/
https://www.vetmed.fu-berlin.de/index.html
https://www.mdc-berlin.de/de/landthaler
https://www.charite.de/service/pressemitteilung/artikel/detail/lungenschaeden_be…

(nach oben)


Welchen Fußball wollen wir?

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Im Sommersemester 2022 geht an der Universität Würzburg ein Seminar in die nächste Runde, das den Lieblingssport der Deutschen aus unterschiedlichen Perspektiven beleuchtet – den Fußball.

Unter dem Schirm des Lehrstuhls für Sportwissenschaft der Julius-Maximilians-Universität (JMU) Würzburg lädt Lehrstuhlinhaber Professor Harald Lange „Studierende aller Fächer und Fakultäten und auch aller Hochschulstandorte im deutschsprachigen Raum“ dazu ein, am wissenschaftlichen Austausch rund um den Fußball teilzunehmen.

Bereits 2020 war das Seminar erstmals mit dem Titel „Welchen Fußball wollen wir?“ als experimentelle hochschuldidaktische Reaktion auf die Coronapandemie via Zoom angelaufen und wurde von Studierenden verschiedener Fachbereiche aus ganz Deutschland sehr gut angenommen.

Studien wecken Interesse
Durch die mediale Aufmerksamkeit, die Lange zuletzt mit zwei großangelegten Forschungsprojekten, der DFB-Basis-Studie und der Fanrückkehr-Studie, generiert hatte, sieht er nun die passende Gelegenheit, die Veranstaltung nochmals zu bewerben: „Der Erfolg der Studien hat viel angestoßen und große Resonanz ausgelöst.“

Da die ersten Teilnehmerinnen und Teilnehmer des Seminars nun ihre Masterarbeiten schreiben oder auch Promotionsprojekte auf den Weg bringen, gelte es, den Austausch auch für weitere Interessierte zu öffnen. Auch diesmal soll es möglich sein, Interessierte in Forschungsprojekten einzubinden.

„Studentischer Thinktank zur Zukunft des Fußballs“
Gerade der interdisziplinäre Ansatz macht für Lange den besonderen Wert des Seminars aus: „Juristinnen und Juristen haben ihren eigenen Zugang zum Thema Fußball, Fachleute aus der Wirtschafts-, Medien-, Sport- oder Politikwissenschaft wieder einen anderen, und die aus Soziologie, Geschichte oder Linguistik ebenso.“

Angesprochen werden Studierende und wissenschaftlicher Nachwuchs, die den Fußball nicht nur als Hobby oder persönliches Fanthema sehen, sondern ihn auch in ihrem Studium zum Thema interdisziplinärer Lehre und Forschung machen möchten. Als „studentischer Thinktank zur Zukunft des Fußballs“ diene das Seminar als Drehscheibe für den Austausch und biete viele Möglichkeiten zur Netzwerkbildung.

Ausbau ist möglich
Aufgrund des offenen Charakters findet die Veranstaltung weiterhin online über Zoom statt. Der Umfang könne von den bisherigen zwölf Teilnehmern und Teilnehmerinnen auf bis zu 20 erweitert werden. Bei einzelnen komplett offenen Sitzungen mit Gastvorträgen erreichte die Veranstaltung in der Vergangenheit um die 80 Personen.

Dabei sieht Harald Lange das Potential längst nicht ausgeschöpft: „Das Seminar ist eine zarte aber sehr nachhaltig wirkende Pflanze, die ich perspektivisch an einen innovativen Studiengang anbinden möchte.“ Dabei strebt er auch Kooperationen mit bestehenden Studiengängen beziehungsweise Hochschulen aus ganz Deutschland an. Seit dem Start im Mai 2020 seien die Fragestellungen und Themen, die sich von kulturtheoretischen Grundlagen, über sportpolitische Fragestellungen bis hin zum Spannungsfeld zwischen Kommerz und Ethik im Fußball erstrecken, schließlich noch relevanter geworden, so Lange.

Zwischen Mai und Juli werden insgesamt 14 Sitzungen stattfinden. Termin ist immer mittwochs um 18:30 Uhr.
Interessierte können sich direkt bei Harald Lange melden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Harald Lange, Lehrstuhl für Sportwissenschaft, Universität Würzburg, T. +49 151 – 10388104, harald.lange@uni-wuerzburg.de

(nach oben)


Wasseraufbereitung: Licht hilft beim Abbau von Hormonen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)

Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“

Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.

Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.

Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu

Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8

Abstract unter https://www.nature.com/articles/s41565-022-01074-8

Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…

(nach oben)


Ein Schwarm von 85.000 Erdbeben am antarktischen Unterwasservulkan Orca

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
In der abgelegenen Gegend identifiziert ein Mix geophysikalischer Methoden Magmatransfer unter dem Meeresboden als Ursache

Auch vor der Küste der Antarktis gibt es Vulkane. Am Tiefseevulkan Orca, der seit langem inaktiv ist, wurde 2020 eine Folge von mehr als 85.000 Erdbeben registriert, ein Schwarmbeben, das bis dahin für diese Region nicht beobachtete Ausmaße erreichte. Dass solche Ereignisse auch in derart abgelegenen und daher schlecht instrumentierten Gebieten sehr detailliert untersucht und beschrieben werden können, zeigt nun die Studie eines internationalen Teams, die in der Fachzeitschrift „Communications Earth and Environment“ veröffentlicht wurde. Unter Leitung von Simone Cesca vom Deutschen GeoForschungsZentrum Potsdam (GFZ) waren Forschende aus Deutschland, Italien, Polen und den Vereinigten Staaten beteiligt. Mit der kombinierten Anwendung von seismologischen, geodätischen und Fernerkundungs-Techniken konnten sie ermitteln, wie der schnelle Transfer von Magma vom Erdmantel nahe der Krusten-Mantel-Grenze bis fast zur Oberfläche zu dem Schwarmbeben führte.

Der Orca-Vulkan zwischen Südamerikas Spitze und der Antarktis
Schwarmbeben treten hauptsächlich in vulkanisch aktiven Regionen auf. Als Ursache wird daher die Bewegung von Fluiden in der Erdkruste vermutet. Der Orca-Seamount ist ein großer submariner Schildvulkan mit einer Höhe von etwa 900 Metern über dem Meeresboden und einem Basisdurchmesser von rund 11 Kilometern. Er liegt in der Bransfield-Straße, einem Meereskanal zwischen der Antarktischen Halbinsel und den Süd-Shetland-Inseln, südwestlich der Südspitze von Argentinien.

„In der Vergangenheit war die Seismizität in dieser Region mäßig. Im August 2020 begann dort allerdings ein intensiver seismischer Schwarm mit mehr als 85.000 Erdbeben innerhalb eines halben Jahres. Er stellt die größte seismische Unruhe dar, die dort jemals aufgezeichnet wurde“, berichtet Simone Cesca, Wissenschaftler in der Sektion 2.1 Erdbeben- und Vulkanphysik des GFZ und Leiter der jetzt veröffentlichten Studie. Gleichzeitig mit dem Schwarm wurde auf dem benachbarten King George Island eine seitliche Bodenverschiebung von mehr als zehn Zentimetern und einer geringen Hebung von etwa einem Zentimeter aufgezeichnet.

Cesca hat diese Ereignisse mit Kolleg:innen vom National Institute of Oceanography and Applied Geophysics – OGS und der Universität Bologna (Italien), der Polnischen Akademie der Wissenschaften, der Leibniz-Universität Hannover, des Deutschen Luft- und Raumfahrtzentrums (DLR) und der Universität Potsdam untersucht. Dabei standen sie vor der Herausforderung, dass es in der abgelegenen Gegend nur wenige konventionelle seismologische Instrumente gibt, nämlich nur zwei seismische Stationen und zwei GNSS-Stationen (Bodenstationen des Globalen Navigations-Satelliten-Systems, die Bodenverschiebungen messen). Um die Chronologie und Entwicklung der Unruhen zu rekonstruieren und ihre Ursache zu ermitteln, hat das Team daher zusätzlich Daten von entfernteren seismischen Stationen und Daten von InSAR-Satelliten, die mittels Radarinterferometrie Bodenverschiebungen messen, ausgewertet. Ein wichtiger Schritt war dabei die Modellierung der Ereignisse mit einer Reihe geophysikalischer Methoden, um die Daten richtig zu interpretieren.

Die Rekonstruktion der seismischen Ereignisse
Die Forschenden haben den Beginn der Unruhen auf den 10. August 2020 zurückdatiert und den ursprünglichen globalen seismischen Katalog, der nur 128 Erdbeben enthielt, auf mehr als 85.000 Ereignisse erweitert. Der Schwarm erreichte seinen Höhepunkt mit zwei großen Erdbeben am 2. Oktober (Mw 5,9) und am 6. November (Mw 6,0) 2020, bevor er abflaute. Bis Februar 2021 war die seismische Aktivität deutlich zurückgegangen.

Als Hauptursache für das Scharmbeben identifizieren die Forschenden eine Magma-Intrusion, die Ausbreitung eines größeren Magma-Volumens. Denn seismische Prozesse allein können die beobachtete starke Oberflächendeformation auf King George Island nicht erklären. Die Magma-Intrusion wird unabhängig von geodätischen Daten bestätigt.

Die Seismizität wanderte von ihrem Ursprungsort zunächst nach oben und dann seitlich: Tiefere, gebündelte Erdbeben werden als Reaktion auf die vertikale Ausbreitung von Magma aus einem Reservoir im oberen Erdmantel oder an der Grenze zwischen Kruste und Erdmantel interpretiert. Flachere sogenannte Krustenbeben breiteten sich von Nordost nach Südwest aus. Sie wurden durch den sich seitlich ausbreitenden Magmadamm ausgelöst, der eine Länge von etwa 20 km erreicht.

Die Seismizität nahm Mitte November, nach rund drei Monaten anhaltender Aktivität, abrupt ab. Das fällt mit dem Auftreten des größten Erdbebens der Serie mit einer Magnitude von Mw 6,0 zusammen. Das Ende des Schwarms lässt sich durch den Druckverlust im Magmastollen erklären, der mit dem Abrutschen einer großen Verwerfung einhergeht. Das könnte den Zeitpunkt eines Ausbruchs am Meeresboden markieren, der aber bislang nicht durch andere Messungen bestätigt werden konnte.

Die Forschenden schließen durch Modellierung von GNSS- und InSAR-Daten, dass das Volumen der Magma-Intrusion von Bransfield eine Größenordnung von 0,26-0,56 Kubikkilometer aufweist. Das macht diese Episode auch zur größten magmatischen Unruhe, die jemals in der Antarktis geophysikalisch überwacht wurde.

Résumé
Simone Cesca resümiert: „Unsere Studie stellt die erfolgreiche Untersuchung einer seismo-vulkanischen Unruhe an einem abgelegenen Ort der Erde dar, bei der uns die kombinierte Anwendung von Seismologie, Geodäsie und Fernerkundungstechniken ein Verständnis von Erdbebenprozessen und Magmatransport in schlecht instrumentierten Gebieten ermöglicht hat. Dies ist einer der wenigen Fälle, in denen wir mit geophysikalischen Mitteln ein Eindringen von Magma aus dem oberen Mantel oder der Krusten-Mantel-Grenze in die flache Kruste beobachten können – einen schnellen, nur wenige Tage dauernden Magmatransfer vom Mantel bis fast zur Oberfläche.“

Wissenschaftliche Ansprechpartner:
Dr. Simone Cesca
Sektion 2.1 Erdbeben- und Vulkanphysik
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28794
E-Mail: simone.cesca@gfz-potsdam.de

Originalpublikation:
Cesca, S., Sugan, M., Rudzinski, Ł., Vajedian, S., Niemz, P., Plank, S., Petersen, G., Deng, Z., Rivalta, E., Vuan, A., Plasencia Linares, M. P., Heimann, S., and Dahm, T., 2022. Massive earthquake swarm driven by magmatic intrusion at the Bransfield Strait, Antarctica, Communications Earth & Environment, doi: 10.1038/s43247-022-00418-5
https://www.nature.com/articles/s43247-022-00418-5

(nach oben)


Neues Sinnesorgan entdeckt

Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt und in The Royal Society Biology Letters publiziert. Die Entdeckung dieses neuen Organes bietet zahlreiche neue Forschungsansätze, da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen. Zur Biologischen Schädlingsbekämpfung könnte mittels Störsignal die Paarung der Insekten unterbunden und somit deren Ausbreitung eingedämmt werden.

Die großen Singzikaden sind bekannt für ihre ohrenbetäubenden Gesänge. Jede der über 3000 Arten besitzt einen individuellen Gesang, der sogar zur Artbestimmung genutzt werden kann. Im Mittelmeerraum, den Tropen und den Subtropen sind ihre Paarungssignale prägend für die Geräuschkulisse zahlreicher Regionen.
Weniger bekannt, obwohl mit fast 40000 Spezies weitaus artenreicher, sind die nah verwandten Kleinzikaden, die man zuhauf in unseren heimischen Parks und Gärten finden kann. Trotz ihres oft sehr farbenfrohen Aussehens sind diese hübschen Insekten aufgrund der geringen Größe – manche sind nur wenige Millimeter groß – wenig bekannt. Auch ihre Kommunikationsweise zieht kaum Aufmerksamkeit auf sich. Zwar besitzen Singzikaden und Kleinzikaden ein ähnliches Organ zur Signalerzeugung, aber während die Singzikaden dies zur Schallerzeugung nutzen, werden die Signale der Kleinzikaden als Vibrationen über die Pflanzen zu den Artgenossen gesendet.

Zur Wahrnehmung der Signale besitzen Singzikaden ein sogenanntes Tympanalorgan. Dies ist eine Art Ohr, das die eingehenden Schallwellen mit ca. 2000 Sinneszellen registriert. Bei den Kleinzikaden nahm man bisher an, dass diese die Vibrationssignale zur Kommunikation mit recht simplen, aus nur wenigen Sinneszellen aufgebauten Organen in den Beinen wahrnehmen, wie sie fast alle Insekten besitzen.

Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben kürzlich ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt. „In unserer neuesten Studie haben wir herausgefunden, dass Kleinzikaden ein Sinnesorgan im vorderen Bereich des Hinterleibs besitzen, welches im Verhältnis zu solch kleinen Insekten außergewöhnlich groß ist und aus bis zu 400 Sinneszellen besteht“, so die Erstautorin Sarah Ehlers vom Zentrum für Integrative Biodiversitätsentdeckung des Museums für Naturkunde in Berlin. Dass dieses Organ bisher unentdeckt geblieben ist, ist mehr als erstaunlich, da das gleich danebenliegende Organ zur Signalerzeugung vielfach untersucht und beschrieben wurde.

Durch die Kombination klassischer histologischer Methoden mit modernsten bildgebenden Verfahren ist es gelungen, ein 3D-Modell des Sinnesorganes zu generieren. Das Sinnesorgan der Kleinzikaden ist ein ausgeklügeltes System aus feinen Membranen und verstärkten Teilen des Exoskeletts. Aufgrund der Lage und Struktur dieses Organes ist anzunehmen, dass sich aus einem ähnlichen Vorläuferorgan das komplizierte Tympanalorgan der Zikaden entwickelt hat.

Da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen, stehen sie im Fokus vieler Studien zur biologischen Schädlingsbekämpfung. Untersucht wurde zum Beispiel das Paarungsverhalten und die Art und Weise der Signalerzeugung. So existieren schon erfolgreiche Versuche, mittels Störsignalen die Paarung der Insekten zu unterbinden und somit deren Ausbreitung einzudämmen.
Die Entdeckung dieses neuen Organes bietet somit Spielraum für zahlreiche neue Forschungsansätze. Nun gilt es Untersuchungen zu seiner genauen Funktionsweise anzustellen. Damit könnten die Methoden der biologischen Schädlingsbekämpfung weiterentwickelt und optimiert werden. Ein weiteres spannendes Feld stellt die Evolution von Kommunikationssystemen innerhalb der Insekten dar. Anhand dem Beispiel der Zikaden ist es möglich zu erforschen, wie der Übergang von der entwicklungsgeschichtlich älteren Kommunikation über Vibrationssignale, hin zur Kommunikation durch Schallwellen erfolgte.

Publikation:
Sarah Ehlers et. al., Large abdominal mechanoreceptive sense organs in small plant-dwelling insects, Royal Society Publishing, DOI: 10.1098/rsbl.2022.0078

(nach oben)


Social-Media-Workshop „Digitale Zukunft mit Dir!“ am 21. April 2022

Julia Reichelt Universitätskommunikation
Technische Universität Kaiserslautern
Digitalexperte Dr. Michael Gebert führt am 21.04.22 von 14 bis 18 Uhr durch den kostenfreien Onlineworkshop „Digitale Zukunft mit Dir!“, der Social Media aus der Perspektive der Gesellschaft und der Content-Verantwortlichen betrachtet. Ziel des Workshops ist es, gemeinsam das Handeln in den sozialen Medien zu diskutieren und einen selbstreflektierten Blick auf Herausforderungen und Chancen zu entwickeln. Der Workshop findet im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen.“ der Offenen Digitalisierungsallianz Pfalz statt. Zur Einleitung ins Thema steht die Aufzeichnung eines Impulsvortrags parat.

Welchen Einfluss haben soziale Netzwerke auf unsere Gesellschaft? Dieser zentralen Frage geht steht der Online-Workshop auf den Grund. Dabei wird Digitalexperte Gebert viele Aspekte diskutieren – darunter die Handlungsmöglichkeiten, Werkzeuge und Instrumente im eigenen Alltag, aber auch den sinnstiftenden Umgang im Hinblick auf soziale und gesellschaftliche Zwecke.

Im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen. – Digitale Zukunft mit Dir!“ möchte die Offene Digitalisierungsallianz Pfalz mit Interessierten in den Diskurs treten.
Dafür konnten die Verantwortlichen an der Technischen Universität Kaiserslautern für das laufende Sommersemester Dr. Michael Gebert, Vorsitzender der European Blockchain Association, Geschäftsführer der CrowdSourcing Association und des German CrowdFunding Network, als Gastdozenten gewinnen. Der international agierende Experte für digitale Transformation und Blockchain kommt für diese Veranstaltungsreihe vor Ort nach Kaiserslautern, um Impulse zu setzen und neue Denkanstöße zu geben.

Weitere Informationen inklusive Link zur Anmeldung sind auf den Webseiten der Offenen Digitalisierungsallianz Pfalz zu finden: https://www.offenedigitalisierungsallianzpfalz.de/workshop-zu-social-media-digit…

„Social Media ist das Instrument, das die Menschen weltweit zusammenbringt und ebenso teilt. Neue Beziehungen werden begonnen oder wieder getrennt, Gesinnungen geteilt. Es ist wichtig zu verstehen, warum wir an diesem Punkt angelangt sind und was wir daraus, auch für uns selbst machen können“, so Gebert. Der Onlineworkshop richtet sich somit an alle, die ihre Rolle in der Gesellschaft diskutieren und Social-Media-Strategien kennenlernen möchten. Teilnehmende erhalten einen Einblick in Handlungsempfehlungen, Instrumente und Werkzeuge, die bei der Gestaltung der eigenen Social-Media-Welt unterstützen.

Ein Zugang zur Aufzeichnung des Impulsvortrages von Gebert, in dem er einen Überblick über die Entwicklung und Wirkung von Social Media gibt, wird den Teilnehmenden nach der Anmeldung zugesandt. Dieser dient als Vorbereitung bzw. Ergänzung für den Workshop.

Über die Offene Digitalisierungsallianz Pfalz
Die Veranstaltungsreihe Heute. Morgen. Übermorgen. findet im Rahmen des Teilprojekts zur gesellschaftlichen Teilhabe am digitalen Wandel im Vorhaben Offenen Digitalisierungsallianz Pfalz statt. Die Offene Digitalisierungsallianz Pfalz ist ein Verbundvorhaben der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik (ITWM). Das Vorhaben stärkt den Ideen-, Wissens- und Technologietransfer mit Wirtschaft und Gesellschaft und basiert auf einer gemeinsamen Kooperationsstrategie der beiden Hochschulen. Die Offene Digitalisierungsallianz Pfalz wird vom Bundesministerium für Bildung und Forschung im Rahmen der Bund-Länder-Initiative „Innovative Hochschule“ gefördert.

Fragen beantwortet:
Nadine Wermke
Koordinatorin der Offenen Digitalisierungsallianz Pfalz
Referat Technologie und Innovation
TU Kaiserslautern
E-Mail: wermke@rti.uni-kl.de
Tel.: 0631 205-5342

(nach oben)


Wie viel „Ich“ steckt im eigenen Avatar?

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der zweiten Folge der neuen Staffel des Podcast-Specials zum Sonderforschungsbereich „Hybrid Societies“ geht es um die Verbindung von „Ich“ und „Avatar“, verschiedene Gangarten und unterschiedliche Typen verkörperten Technologien

Durch die Corona-Pandemie sind Online-Plattformen, auf denen man sich zum Beispiel in Form von Avataren – also digitalen Abbildern seiner selbst – begegnen kann, alltäglich geworden. Mit einem solchen Avatars wird es möglich, sich „körperlich“ in Online-Räumen zu treffen, während man eigentlich woanders auf der Welt an einem Computer sitzt. Und jetzt die Frage: Würde Ihr Avatar Ihnen ähnlich sehen? Haben Sie überhaupt schon mal darüber nachgedacht, ob der Avatar Ihnen ähnlich sehen soll? In der zweiten Folge der aktuellen Staffel von „Mensch – Maschine – Miteinander“ sprechen Sabrina Bräuer, Wissenschaftliche Mitarbeiterin an der Professur Bewegungswissenschaft (Prof. Dr. Thomas Milani) und Sarah Mandl, Wissenschaftliche Mitarbeiterin an der Professur für Persönlichkeitspsychologie und Diagnostik (Prof. Dr. Anja Strobel) unter anderem über diese Fragen. Beide sind Doktorandinnen am Sonderforschungsbereich „Hybrid Societies“ der Technischen Universität Chemnitz. Darüber hinaus sprechen die Forscherinnen mit Podcast-Moderator Johannes Schmidt über die vielfältigen Anwendungsmöglichkeiten von Avataren. Zudem ordnen sie ein, welche Wahrnehmungs- und Zuschreibungsprozesse sich auf das digitale Konterfei auswirken.

Im Rahmen des „TUCscicast“-Special zum SFB „Hybrid Societies“ soll zum einen die Breite des Forschungsfeldes des SFB sichtbar werden; zum anderen geht es um die Diskussion aktueller Untersuchungen der beteiligten Teil-Projekte. So sprechen die beiden Wissenschaftlerinnen in der aktuellen Folge unter anderem auch über die kürzlich erschienene Studie zur sozialen und rechtlichen Wahrnehmung von Robotern sowie von Nutzerinnen und Nutzern bionischer Prothesen.

Etabliertes Format der Wissenschaftskommunikation
Damit die Arbeit des Sonderforschungsbereichs mehr Menschen erreicht – und auch die Menschen hinter der Forschung Gelegenheit zum Erklären und Einordnen erhalten, erscheint seit dem 9. Oktober 2020 das Podcast-Special „Mensch – Maschine – Miteinander“. Special deswegen, weil dieser Podcast kein neues Format innerhalb des Kommunikations-Portfolios der TU Chemnitz ist, sondern als Mini-Serie die Reihe „TUCscicast“ ergänzt – nunmehr bereits in der zweiten Staffel.

„Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB Hybrid Societies“ wird gemeinsam produziert vom SFB „Hybrid Societies“, der TU Chemnitz und podcastproduzenten.de, Schwester-Firma des Online-Radios detektor.fm, das seit 2009 hochwertige Podcasts für Wirtschaft, Gesellschaft und Forschung produziert. Redakteur des Podcasts ist Johannes Schmidt.

Der Podcast kann auf verschiedenen Wegen gehört werden:
im Web-Player der TU Chemnitz,
in jeder Podcast-App über unseren RSS-Feed,
auf Spotify, Deezer, Apple Podcast und überall dort, wo es gute Podcasts gibt.
Neues aus dem SFB „Hybrid Societies“ gibt es, außer im Podcast, vierteljährlich auch im Newsletter.

Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php

(nach oben)


Energiewende: Solarzellen der nächsten Generation werden immer effizienter

Eva Schissler Kommunikation und Marketing
Universität zu Köln
Ein Forschungsteam hat eine Tandem-Solarzelle aus Perowskit und organischen Absorberschichten mit hoher Effizienz entwickelt, die kostengünstiger herzustellen ist als herkömmliche Solarzellen aus Silizium. Die Weiterentwicklung dieser Technologie soll eine noch nachhaltigere Gewinnung von Solarenergie ermöglichen / Veröffentlichung in „Nature“

Ein deutsches Forschungsteam hat eine Tandem-Solarzelle entwickelt, die einen Wirkungsgrad von 24 Prozent erreicht – gemessen anhand des Anteils der in Strom (Elektronen) umgewandelten Photonen. Damit stellt das Team einen neuen Weltrekord auf: Es ist der höchste Wirkungsgrad, der bislang durch die Kombination von organischen und Perowskit-basierten Absorbern erzielt werden konnte. Die Solarzelle wurde in der Arbeitsgruppe von Professor Dr. Thomas Riedl an der Universität Wuppertal zusammen mit Forscher:innen vom Institut für Physikalische Chemie der Universität zu Köln und weiteren Projektpartner:innen von den Universitäten Potsdam und Tübingen sowie dem Helmholtz-Zentrum Berlin und dem Max-Planck-Institut für Eisenforschung in Düsseldorf entwickelt. Die Ergebnisse wurden unter dem Titel „Perovskite/organic tandem solar cells with indium oxide interconnect“ in der Fachzeitschrift Nature veröffentlicht.

Herkömmliche Solarzellentechnologien basieren überwiegend auf dem Halbleiter Silizium und gelten inzwischen als so gut wie „ausoptimiert“. Signifikante Verbesserungen ihres Wirkungsgrades – das heißt, mehr Watt elektrischer Leistung pro Watt eingesammelter Sonnenstrahlung – sind kaum noch zu erwarten. Vor diesem Hintergrund ist die Entwicklung neuer Solartechnologien, die im Kontext der Energiewende einen entscheidenden Beitrag leisten können, dringend erforderlich. Zwei solcher alternativen Absorbermaterialien wurden in der vorliegenden Arbeit kombiniert. Zum einen kamen organische Halbleiter zum Einsatz, also Kohlenstoffverbindungen die unter bestimmten Bedingungen elektrischen Strom leiten können. Diese wurden mit Perowskit-Halbleitern kombiniert, welche auf einer Blei-Halogen-Verbindung basieren und hervorragende halbleitende Eigenschaften besitzen. Zur Herstellung beider Technologien ist der Bedarf an Material und Energie bedeutend geringer als bei konventionellen Siliziumzellen, was die Möglichkeit eröffnet, noch nachhaltigere Solarzellen zu entwickeln.

Da Sonnenlicht aus verschiedenen Spektralanteilen, sprich Farben, besteht, müssen effiziente Solarzellen einen möglichst großen Anteil dieses Sonnenlichtes in Strom umwandeln. Dies kann mit sogenannten Tandem-Zellen erreicht werden, bei denen in der Solarzelle verschiedene Halbleitermaterialien kombiniert werden, welche jeweils unterschiedliche Bereiche des Sonnenspektrums absorbieren. In der aktuellen Studie kamen organische Halbleiter für den ultravioletten und sichtbaren Teil des Lichtes zum Einsatz, während Perowskit den nahen Infrarotbereich effizient absorbieren kann. An ähnlichen Materialkombinationen wurde schon in der Vergangenheit geforscht, doch dem Forschungsteam gelang es nun, deren Leistungsfähigkeit entscheidend zu steigern.

Zu Projektbeginn hatten die weltweit besten Perowskit/Organik-Tandemzellen einen Wirkungsgrad von circa 20 Prozent. Unter Federführung der Universität Wuppertal konnten die Kölner Forscher:innen zusammen mit den weiteren Projektpartnern den neuen Bestwert von 24 Prozent erzielen. „Um solch hohe Effizienz zu erreichen, mussten innerhalb der Solarzelle die Verluste an den Grenzflächen zwischen den Materialien minimiert werden“, erklärt Dr. Selina Olthof vom Institut für Physikalische Chemie der Uni Köln. „Hierzu entwickelten die Wuppertaler Forscher einen sogenannten Interconnect, der die organische Subzelle mit der Perowskitzelle elektrisch und optisch verbindet.“

Um Verluste so gering wie möglich zu halten, wurde als Interconnect eine nur 1,5 Nanometer dünne Schicht aus Indiumoxid in die Solarzelle integriert. Die Forscher:innen aus Köln trugen hier maßgeblich dazu bei, die Grenzflächen sowie den Interconnect elektrisch und energetisch zu untersuchen, um Verlustprozesse zu identifizieren und eine weitere Optimierung der Bauteile zu ermöglichen. Simulationen der Wuppertaler Arbeitsgruppe zeigen, dass mit diesem Ansatz in Zukunft Tandemzellen mit einem Wirkungsgrad jenseits der 30 Prozent erreichbar sind.

Wissenschaftliche Ansprechpartner:
Dr. Selina Olthof
Institut für Physikalische Chemie
selina.olthof@uni-koeln.de

Originalpublikation:
„Perovskite/organic tandem solar cells with indium oxide interconnect“, Nature, https://www.nature.com/articles/s41586-022-04455-0

(nach oben)


Mikroplastik – Erforschen und Aufklären

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Zwischen 18 und 21 Millionen Tonnen Plastikmüll gelangen jährlich in die Gewässer dieser Welt. Die Tendenz: steigend. Um der Herausforderung zu begegnen, ist es nötig, ein breites gesellschaftliches Bewusstsein für die Verschmutzung der Umwelt mit Plastikabfall und dem daraus resultierenden Mikroplastik zu schaffen. Deshalb hat das Helmholtz-Zentrum Hereon nun eine digitale englischsprachige Informationsplattform zur Plastikverschmutzung entwickelt.

Unter Federführung des Instituts für Umweltchemie des Küstenraumes wollen Forschende verschiedener Disziplinen am Helmholtz-Zentrum Hereon dazu beitragen, das öffentliche Bewusstsein für die Plastik- und Mikroplastikkrise zu stärken. Zusätzlich konnten anerkannte Spezialistinnen und Spezialisten aus anderen Zentren der Helmholtz-Gemeinschaft und Universitäten für weitere Beiträge zu ausgewählten Themen gewonnen werden.

Daher wurde kürzlich das sogenannte „Microplastic Compendium“ online veröffentlicht. Die digitale Anwendung in englischer Sprache ist eine Informationsplattform rund um das Thema Plastik- und Mikroplastikverschmutzung sowie deren Gefahren, Verbreitung und zugrundeliegende wissenschaftliche Untersuchungen. Das Kompendium, kurz MPC, ist für eine breite Leserschaft angelegt und enthält komprimierte Informationen zu vielen wissenschaftlichen Studien aus dem Bereich Mikroplastik. Etwa auch zu Themen wie Trinkwasser, Lebensmitteln, Transportpfaden, verschiedenen Ökosystemen, politischen Initiativen, Forschungsprojekten, aber auch Lösungsansätze und verwandte Themen wie Reifenabrieb werden diskutiert.

Das MPC ist Teil der Coastal Pollution Toolbox, einer zentralen Anlaufstelle für Forschende und alle, die an der Bewältigung von Verschmutzung in Küstengebieten und der marinen Umwelt beteiligt sind. Ganz egal, ob die Verschmutzung organischer oder anorganischer, traditioneller oder neuartiger Natur ist oder durch die Dynamik von Nährstoffen und Kohlenstoff beeinflusst wird. Ziel ist, eine dynamisch-lebendige Plattform zu erschaffen, die aktuelle Erkenntnisse integriert und auf hieraus abgeleitete Anforderungen reagiert. Das MPC wird künftig ausgebaut und um Beiträge zu anderen Schwerpunktbereichen globaler Umweltveränderungen erweitert: „Wir laden Wissenschaftlerinnen und Wissenschaftler unseres wachsenden Partnernetzwerkes unterschiedlicher Fachbereiche der Schadstoffforschung ein, Beiträge aus ihren Arbeiten zu unserem Kompendium beizutragen“, sagt Dr. Marcus Lange, Koordinator vom Hereon-Institut für Umweltchemie des Küstenraumes. Das MPC ist damit ein Meilenstein für die betreffende Forschung und die Information darüber.

Hintergrund
Einmal in die marine Umwelt eingetragen, kann Plastikmüll viele Jahre in unseren Gewässern verbleiben. Der World Wide Fund For Nature (WWF) vermutet, dass Meereslebewesen in erheblichem Maße durch Plastikmüll beeinträchtigt sein können. Nach Schätzungen kanadischer Wissenschaftlerinnen und Wissenschaftler nehmen Menschen jährlich zwischen 74.000 und 121.000 Mikroplastikpartikel und –fasern im Größenbereich von 0.001 – 5 Millimeter über die Nahrung und die Atemluft auf. Wegen dieser erschreckenden Zahlen sprechen Umweltschützerinnen und Umweltschützer auch von einer „Plastikkrise“. Dabei geht eine erhöhte Gefahr von Mikroplastik aus, da es wegen seiner Größe leicht von Organismen aufgenommen werden kann.

Die weltweiten Ströme von Mikroplastik kennen dabei keine Ländergrenzen. Flüsse funktionieren als Transportwege. Experten gehen davon aus, dass ein großer Teil des Plastikmülls durch unkontrollierte und zum Teil auch illegale Entsorgung oder Wetterereignisse vom Land in die Meere gelangen. Daher kann die Plastikkrise nur durch globales Handeln bekämpft werden. Eine Vielzahl von Initiativen auf nationaler wie internationaler Ebene kümmern sich bereits um diese Problematik. Erst jüngst erteilte die fünfte Umweltversammlung der Vereinten Nationen (UNEA) in Nairobi das Mandat zur Verhandlung für ein globales Plastikabkommen. Es sieht vor, alle Bereiche der Umwelt entlang des gesamten Lebenszyklus von Plastik – von der Produktion über den Konsum bis zur Entsorgung – zu betrachten und verbindlich zu regulieren.

Kleinsten Plastikpartikeln auf der Spur
Am Helmholtz-Zentrum Hereon wird sowohl zur Existenz von Mikroplastik in der Umwelt als auch den Wechselwirkungen zwischen Mikroplastik und Co-Schadstoffen umfangreich geforscht. Prof. Ralf Ebinghaus, Leiter des Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Hereon, sagt hierzu: „Mikroplastik-Partikel enthalten je nach Art, Größe und Verweildauer in der Umwelt einen vielfältigen Mix an Chemikalien. Darunter sind solche, die bei der Herstellung absichtlich zugesetzt worden sind und andere, die sich am Partikel später anreichern. In beiden Fällen können es auch für den Menschen gesundheitsschädigende Stoffe sein, die wie mit einem trojanischen Pferd in den menschlichen Organismus gelangen. Ich halte es für zentral, dass solchen Risiken in einem globalen Plastikabkommen oder im Rahmen der Einrichtung eines wissenschaftspolitischen Gremiums zu Chemikalien und Mikroplastik Rechnung getragen wird.“

Wissenschaftliche Ansprechpartner:
Prof. Ralf Ebinghaus I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-2354 I ralf.ebinghaus@hereon.de I www.hereon.de

Dr. Lars Hildebrandt I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-1813 I lars.hildebrandt@hereon.de I www.hereon.de

Weitere Informationen:
https://www.microplastic-compendium.eu

(nach oben)


Was machen Vulkane mit unserem Klima?

Jan Meßerschmidt Hochschulkommunikation
Universität Greifswald
Das Forschungsprojekt VolImpact zu den Einflüssen von Vulkanaktivitäten auf Atmosphäre und Klima geht in eine weitere Runde. Der Hauptausschuss der Deutschen Forschungsgemeinschaft (DFG) hat im März 2022 die zweite Förderphase der Forschungsgruppe FOR 2820 „Revisiting the volcanic impact on atmosphere and climate – preparations for the next big volcanic eruption“ (VolImpact) bewilligt. In dem Verbundprojekt arbeiten Wissenschaftler*innen der Universitäten Bremen, Greifswald, Hamburg und Leipzig sowie dem Karlsruher Institut für Technologie (KIT) und dem Max-Planck-Institut für Meteorologie in Hamburg zusammen. Insgesamt stehen für die zweite Phase 3,2 Millionen Euro zur Verfügung.

Vulkanausbrüche sind eine der wichtigsten Ursachen für natürliche Klimavariationen auf Zeitskalen von einigen Jahren bis zu einem Jahrzehnt. Obwohl sich die Forschung bereits seit Jahrzehnten mit vulkanischen Einflüssen auf die Atmosphäre befasst, sind viele grundlegende Prozesse nicht oder nur unzureichend verstanden. Die fünf wissenschaftlichen Teilprojekte der Forschungsgruppe befassen sich beispielsweise mit der Ausbildung der initialen Vulkanwolke in den ersten Stunden und Tagen, dem Einfluss von Vulkanausbrüchen auf die Strahlungsbilanz der Atmosphäre, der Wechselwirkung zwischen vulkanischen Aerosolen und troposphärischen Wolken oder dem Einfluss auf die Winde in der mittleren und oberen Atmosphäre, über den nur wenig bekannt ist.

Ein zentraler Aspekt der Forschungsgruppe ist die Synergie aus globalen Satellitenmessungen relevanter atmosphärischer Parameter und der globalen Modellierung vulkanischer Effekte mithilfe von Atmosphären- und Klimamodellen. Die Verwendung von Satellitenmessungen basiert in weiten Teilen auf numerischen Analyseverfahren, die im Rahmen der Projekte entwickelt werden, beispielsweise um die Größe stratosphärischer vulkanischer Aerosole oder die vertikale Ausdehnung einer Vulkanwolke zu bestimmen. Die Forschungsaktivitäten sind im Wesentlichen auf Vulkaneruptionen der vergangenen vier Jahrzehnte begrenzt, für welche Satellitenmessungen verfügbar sind. Dabei sind nicht nur stärkere Vulkanausbrüche, wie der des Mount Pinatubo 1991 von Interesse. Auch die kleinen und moderaten Ausbrüche der vergangenen 20 Jahre stellen wichtige Beispiele für Fallstudien dar und erlauben es, die Qualität von Modellsimulationen zu überprüfen.
Die DFG-Forschungsgruppe VolImpact trägt dazu bei, wesentliche physikalische und chemische Prozesse von Vulkanausbrüchen auf Atmosphäre und Klima besser zu verstehen und die Modellier- und Beobachtungsmöglichkeiten für zukünftige Vulkaneruptionen zu optimieren.

Weitere Informationen
VolImpact http://volimpact.org/

Ansprechpartner an der Universität Greifswald
Prof. Dr. Christian von Savigny
Institut für Physik | Umweltphysik
Felix-Hausdorff-Straße 6, 17489 Greifswald
Telefon +49 3834 420 4720
csavigny@physik.uni-greifswald.de

(nach oben)


Hohe Erwartungen, unklarer Nutzen: Industrie 4.0 und der Wandel zu nachhaltigem Wirtschaften

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Unternehmensvertreterinnen und -vertreter erwarten, dass die Digitalisierung zu einer besseren Umweltbilanz ihres Unternehmens beiträgt. Ihre konkreten Erfahrungen zeichnen jedoch ein weniger positives Bild: Bislang helfen die neuen Technologien kaum bei der Verbesserung der Ressourceneffizienz. Um das Potenzial der Industrie 4.0 zu nutzen, braucht es laut Forschenden auch politische Unterstützung.

Die industrielle Produktion muss grundlegend verändert werden, wenn die UN-Nachhaltigkeitsziele erreicht werden sollen. Zwei Hauptziele stehen dabei im Vordergrund: Dekarbonisierung und Dematerialisierung. Ziel der Dekarbonisierung ist die Reduktion von klimaschädlichen Gasen, vor allem CO2. Bei der Dematerialisierung geht es darum, wirtschaftliche Produkte und Dienstleistungen mit einem Minimum an Materialeinsatz zu erzeugen und so weit wie möglich auf umweltverträgliche Materialien oder Prozesse zu setzen. Ein internationales Team um IASS-Forschungsgruppenleiter Grischa Beier untersuchte die Potenziale von Industrie 4.0 für diese beiden Ziele per Online-Umfrage unter Unternehmensvertreterinnen und -vertretern in China, Brasilien und Deutschland, in einer Vielzahl von Industriesektoren und in Unternehmen unterschiedlicher Größe.

Mit größerer Erfahrung sinken die Erwartungen
Die Mehrheit der Industrievertreterinnen und -vertreter – 53 Prozent in Deutschland, 82 Prozent in Brasilien und 67 Prozent in China – erwarten eine Verbesserung der Umweltwirkung ihres Unternehmens durch den Einsatz von Industrie-4.0-Technologien. Besonders hoch ist dieser Anteil bei Unternehmen mit mehr als 5000 Mitarbeitenden in Deutschland und Brasilien.

Große Unterschiede beobachteten die Forschenden in einigen Ländern zwischen den Sektoren: In Brasilien sind die Erwartungen für den Maschinen- und Anlagenbau besonders optimistisch (100 Pro-zent), in Deutschland für den Elektronik-Sektor (75 Prozent) und den Automobilbereich (58 Prozent). In China gibt es hingegen keine großen Unterschiede zwischen den Sektoren.

Die bisherigen Erfahrungen, etwa in Bezug auf Ressourceneffizienz und Energieverbrauch, stützen die hoffnungsvollen Erwartungen jedoch nur zum Teil. „Unsere Ergebnisse deuten darauf hin, dass es eine zu hohe Erwartungshaltung bei den Unternehmen gibt, die noch wenig Erfahrung mit Industrie 4.0 haben. Je weiter das jeweilige Unternehmen mit der Umsetzung war, umso moderater waren beispielsweise die Erwartungen für die tatsächlichen Energieeinsparungen“, sagt Erstautor Grischa Beier. Auch frühere Studien hätten wenig Hinweise darauf ergeben, dass es hier zu erheblichen systematischen Einsparungen kommen würde.

Industrie 4.0 hilft, die Produktion an der Nachfrage auszurichten
Ein erfreuliches Ergebnis der Studie ist, dass Unternehmen mit einem hohen Digitalisierungsniveau durchaus positive Potenziale für ihre Ökobilanz verzeichnen: Je höher das derzeitige Industrie-4.0-Niveau der Unternehmen ist, desto größer ist ihre Fähigkeit, ihre Produktivität an der Nachfrage auszurichten. Zudem steigt ihre Bereitschaft, ihre Produktionszeiten flexibel an die Verfügbarkeit von erneuerbarem Strom anzupassen. Dies ist laut den Forschenden eine wichtige Voraussetzung für die Stabilisierung und effiziente Nutzung künftiger erneuerbarer Energiesysteme.

Ihre Schlussfolgerung ist, dass Industrie 4.0 nur mit politischer Unterstützung zu Umweltverbesserungen führen wird. „Unsere Studie zeigt, dass die Umsetzung des Konzepts Industrie 4.0 vor dem Hintergrund der UN-Nachhaltigkeitsziele kritisch hinterfragt werden sollte: Die reine Digitalisierung von Unternehmensprozessen wird für einen Übergang zu einer nachhaltigen Wirtschaft nicht reichen. Damit das volle Potenzial der Digitalisierung für die Nachhaltigkeit genutzt wird, braucht es ergänzend eine Kombination aus Regulierung und Anreizen, wozu auch die Festlegung verbindlicher Ziele für die Einsparung von Energie und Material gehört“, erklärt Grischa Beier. Auch wenn die Ergebnisse ein gemischtes Bild zeichnen, werde doch deutlich, dass die breite Umsetzung von Industrie 4.0 Chancen für mehr ökologische Nachhaltigkeit von Unternehmen bietet.

Wissenschaftliche Ansprechpartner:
Dr. Grischa Beier
Telefon: +49 331 28822 380
E-Mail: grischa.beier@iass-potsdam.de

Originalpublikation:
Beier, G., Matthess, M., Guan, T., Grudzien, D. I. d. O. P., Xue, B., Lima, E. P. d., Chen, L. (2022): Impact of Industry 4.0 on corporate environmental sustainability: Comparing practitioners’ percep-tions from China, Brazil and Germany. – Sustainable production and consumption, 31, 287-300.
https://doi.org/10.1016/j.spc.2022.02.017

(nach oben)


Mit dem Laser gegen Mikroplastik

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Bislang sind Kläranlagen kaum in der Lage, die winzigen Mikroplastikteile im Abwasser ausreichend herauszufiltern. Nun wird der erste lasergebohrte Mikroplastikfilter in einem Klärwerk getestet. Er enthält Bleche mit extrem kleinen Löchern von nur zehn Mikrometern Durchmesser. Die Technologie, um Millionen von Löchern effizient zu bohren, wurde am Fraunhofer-Institut für Lasertechnik ILT entwickelt. Dort arbeitet man jetzt an der Skalierung der Ultrakurzpuls-Lasertechnologie im kW-Bereich. Auf dem Fraunhofer-Stand A6.441 der LASER World of PHOTONICS erfahren Besucher mehr über den Mikroplastikfilter und die Ultrakurzpuls-Laser.

Nachhaltigkeit ist heute keine Option, sondern eine Pflicht für jede Technologieentwicklung. Dementsprechend werden auch in der Laserbranche viele Projekte vorangetrieben, um diese Technologie für nachhaltige Zwecke zu nutzen. Schon heute ermöglichen Laser höhere Wirkungsgrade in der Wasserstofftechnologie ebenso wie absolut dichte Batteriegehäuse in der Elektromobilität.

Im BMBF-geförderten Projekt »SimConDrill« hat sich das Fraunhofer ILT mit Industriepartnern zusammengeschlossen, um erstmals einen Abwasserfilter für Mikroplastik zu bauen. »Im Kern ging es darum, möglichst viele möglichst kleine Löcher in kürzester Zeit in eine Stahlfolie zu bohren« erklärt Andrea Lanfermann, Projektleiterin am Fraunhofer ILT, die Herausforderung.

Mobile Filteranlage im Klärwerk
Das ist gelungen. Im Rahmen des Projekts bohrten nach der Prozessentwicklung am Fraunhofer ILT die Expertinnen und Experten der LaserJob GmbH 59 Millionen Löcher mit zehn Mikrometern Durchmesser in ein Filterblech und schufen so einen Filter-Prototypen. Für das ambitionierte Projekt arbeiten die Fraunhofer-Forschenden noch mit drei weiteren Firmen zusammen. Neben dem Projektkoordinator KLASS Filter GmbH sind außerdem die LUNOVU GmbH und die OptiY GmbH beteiligt. Inzwischen wurden die lasergebohrten Metallfolien in den patentierten Zyklonfilter der KLASS Filter GmbH eingebaut und umfangreichen Tests unterzogen. Im ersten Versuch wurde mit dem feinen Pulver von 3D-Druckern verunreinigtes Wasser filtriert. Der Aufbau wird jetzt unter realen Bedingungen in einem Klärwerk getestet.

Prozesswissen ist der Schlüssel
Millionen Löcher nacheinander zu bohren, dauert seine Zeit. Schneller geht es mit dem Multistrahlverfahren, bei dem aus einem Laserstrahl über eine spezielle Optik eine Matrix von identischen Strahlen erzeugt wird. Am Fraunhofer ILT hat man so mit einem Ultrakurzpulslaser (TruMicro 5280 Femto Edition) mit 144 Strahlen gleichzeitig gebohrt. Die Basis für solche Anwendungen ist ein detailliertes Prozesswissen. Das wurde am Fraunhofer ILT über Jahrzehnte gesammelt und in entsprechende Modelle und Software umgesetzt. Damit lassen sich alle Parameter am Computer variieren, und optimale Prozessparameter werden schnell gefunden. Auch die Robustheit des Prozesses lässt sich so vor dem Applikationsversuch analysieren.

Parallel zu dieser Bohranwendung arbeitet ein Konsortium aus sechs Partnern an der Umsetzung einer industriellen Maschine zur Multistrahlbearbeitung. Im EU-Projekt »MutiFlex« erhöhen Forschende unter Industriebeteiligung die Produktivität der scannerbasierten Lasermaterialbearbeitung mittels Multistrahlverfahren. Das Besondere besteht bei diesem Vorhaben darin, dass alle Teilstrahlen individuell angesteuert und somit für die Herstellung beliebiger Oberflächenstrukturen genutzt werden können. Ziel ist es, die Geschwindigkeit des Prozesses um das Zwanzig- bis Fünfzigfache zu steigern und somit die Wirtschaftlichkeit des gesamten Verfahrens signifikant zu erhöhen.
CAPS: Skalierung in den kW-Bereich

Das Prozesswissen ist auch ein entscheidender Faktor bei der weiteren Skalierung der Materialbearbeitung mit ultrakurzen (UKP) Laserpulsen mit oder ohne Multistrahloptik. Wenn die Leistung in den Kilowattbereich erhöht wird, kann es zu einer thermischen Schädigung des Werkstücks kommen. Solche Effekte werden durch komplexe Simulationen erforscht, die Prozesse können entsprechend angepasst werden.

Die Laser für solche Versuche stehen im Applikationslabor am Fraunhofer ILT in Aachen zur Verfügung. Sie gehören zum Fraunhofer Cluster of Excellence Advanced Photon Sources CAPS, in dem 13 Fraunhofer-Institute gemeinsam Laserstrahlquellen, Prozesstechnik und Anwendungen für UKP-Laserleistungen bis 20 kW entwickeln. Ein zweites CAPS-Labor wird am Fraunhofer IOF in Jena betrieben.

Fraunhofer Know-how auf der LASER World of PHOTONICS
Auf der Photonik-Weltleitmesse LASER World of PHOTONICS in München werden neben dem lasergebohrten Mikroplastikfilter weitere Highlights des Fraunhofer Clusters ausgestellt. Vom 26. bis zum 29. April 2022 stehen Expertinnen und Experten auf den Fraunhofer-Ständen B4.239 und A6.441 für Auskünfte rund um die Ultrakurzpuls-Lasertechnologie, die Erzeugung von Sekundärstrahlung von THz bis Röntgen und die wegweisenden Anwendungen dieser Technologien zur Verfügung.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/mit-dem-…

(nach oben)


Ein einziges Gen steuert die Artenvielfalt in einem Ökosystem

Kurt Bodenmüller Kommunikation
Universität Zürich
Ein einzelnes Gen kann ein ganzes Ökosystem beeinflussen. Das zeigt ein Forscherteam der Universität Zürich in einem Laborexperiment mit einer Pflanze und dem dazugehörigen Ökosystem von Insekten. So fördern Pflanzen mit einer Mutation in einem bestimmten Gen Ökosysteme mit mehr Insektenarten. Die Entdeckung eines solchen «Schlüsselgens» könnte die derzeitigen Strategien zur Erhaltung der biologischen Vielfalt verändern.

Vor mehr als fünfzig Jahren entdeckte der amerikanische Ökologe Robert Paine an der Küste eines felsigen Gezeitenbeckens, dass Struktur und Funktion eines Ökosystems dramatisch verändert werden können, wenn eine einzige Art entfernt wird. Paine hatte herausgefunden, dass Seesterne als Schlüsselart fungieren, da ihre Anwesenheit und ihre Rolle als Raubtier zuoberst in der Nahrungskette die Koexistenz verschiedener Arten im felsigen Ökosystem aufrechterhalten.

Pflanzen-Abwehrgene in vereinfachtem Labor-Ökosystem getestet
Nun berichtet ein Team von Ökologen und Genetikern der Universität Zürich (UZH) und der University of California in Science, dass auch eine Mutation in einem einzigen Gen die Struktur und Funktion eines Ökosystems dramatisch verändern kann. Ein Gen enthält somit nicht nur Informationen, die für die Fitness eines Organismus entscheidend sind, sondern kann auch das Fortbestehen von interagierenden Arten in einer ökologischen Gemeinschaft beeinflussen. Die Entdeckung von Jordi Bascompte, UZH-Professor am Departement für Evolutionsbiologie und Umweltwissenschaften, und seinem Team wurde anhand eines experimentellen Ökosystems im Labor mit einem Räuber (einer parasitären Wespe), zwei Pflanzenfressern (Blattläusen) und der Pflanze Arabidopsis thaliana – einem genetischen Modellorganismus – gemacht.

Schlüsselgen bewahrt Ökosystem vor Zusammenbruch
Die Wissenschaftler testeten die Wirkung von drei Pflanzengenen, die das natürliche Arsenal der chemischen Abwehrkräfte der Pflanze gegen Frassinsekten steuern. Sie fanden heraus, dass die Pflanzenfresser und Raubtiere in ihrer Versuchsgemeinschaft eher auf Pflanzen mit einer Mutation an einem einzigen Gen namens AOP2 überlebten. «Diese natürliche Mutation im AOP2-Gen beeinflusste nicht nur die Chemie der Pflanze, sondern liess sie auch schneller wachsen. Das wiederum förderte die Koexistenz von Pflanzenfressern und Raubtieren und verhinderte so den Zusammenbruch des Ökosystems», sagt UZH-Wissenschaftler und Erstautor Matt Barbour. Ähnlich wie bei einer Schlüsselart wie dem Seestern fungiert AOP2 als «Schlüsselgen», das für das Überleben des experimentellen Ökosystems unerlässlich ist.

Auswirkungen auf Schutz der biologischen Vielfalt
Die Entdeckung eines solchen Schlüsselgens dürfte Auswirkungen darauf haben, wie die biologische Vielfalt in einer sich verändernden Welt erhalten werden kann. «Insbesondere sollte das Wissen aus der Genetik und den ökologischen Netzwerken integriert werden, um die Folgen genetischer Veränderungen für den Fortbestand der biologischen Vielfalt auf verschiedenen Ebenen vorherzusagen», sagt Barbour. Einerseits könnten Individuen mit verschiedenen Varianten eines Gens oder sogar genetisch veränderte Organismen zu bestehenden Populationen hinzugefügt werden, um vielfältigere und widerstandsfähigere Ökosysteme zu fördern. Andererseits könnte eine scheinbar kleine genetische Veränderung eine Kaskade unbeabsichtigter Folgen für die Ökosysteme auslösen, wenn diese nicht vorher eingehend untersucht werden.

«Wir fangen gerade erst an zu verstehen, welche Folgen genetische Veränderungen für das Zusammenspiel und die Koexistenz von Arten haben. Unsere Ergebnisse zeigen, dass der derzeitige Verlust der genetischen Vielfalt kaskadenartige Auswirkungen haben kann, die zu abrupten und katastrophalen Veränderungen im Fortbestand und in der Funktionsweise von Land-Ökosystemem führen können», so Barbour.

Wissenschaftliche Ansprechpartner:
Dr. Matt Barbour
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 78 696 34 74
E-Mail: matthew.barbour@ieu.uzh.ch

Prof. Dr. Jordi Bascompte
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 44 635 61 26
E-Mail: jordi.bascompte@ieu.uzh.ch

Originalpublikation:
Matthew A. Barbour, Daniel J. Kliebenstein, Jordi Bascompte. A keystone gene underlies the persistence of an experimental food web. Science. March 31, 2022. DOI: 10.1126/science.abf2232

Weitere Informationen:
https://www.media.uzh.ch/de/medienmitteilungen/2022/Schlüsselgen.html

(nach oben)


Studie zeigt: Fische können rechnen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Buntbarsche und Stachelrochen können im Zahlenraum bis Fünf einfache Additionen und Subtraktionen durchführen. Das zeigt eine aktuelle Studie der Universität Bonn, die nun in der Zeitschrift Scientific Reports erschienen ist. Wozu die Tiere ihre mathematischen Fähigkeiten benötigen, ist nicht bekannt.

Mal angenommen, auf der Tischplatte vor Ihnen liegen einige Münzen. Bei einer kleinen Anzahl können Sie auf Anhieb sagen, wieviele es genau sind. Sie müssen sie dazu nicht einmal zählen – ein einziger Blick reicht Ihnen. Buntbarsche und Stachelrochen sind uns in diesem Punkt erstaunlich ähnlich: Auch sie sind dazu in der Lage, kleine Mengen exakt zu erfassen – und zwar vermutlich ebenfalls ohne zu zählen. Sie lassen sich zum Beispiel so trainieren, dass sie zuverlässig Dreier- von Vierermengen unterscheiden.

Diese Tatsache ist schon seit einiger Zeit bekannt. Die Arbeitsgruppe um Prof. Dr. Vera Schlüssel vom Institut für Zoologie der Universität Bonn hat nun aber gezeigt, dass beide Arten sogar rechnen können. „Wir haben den Tieren beigebracht, einfache Additionen und Subtraktionen durchzuführen“, erklärt Schlüssel. „Dabei mussten sie einen Ausgangswert um eins erhöhen oder vermindern.“

Blau heißt „addiere eins“, gelb „ziehe eins ab“
Doch wie fragt man einen Buntbarsch nach dem Ergebnis von „2+1“ oder „5-1“? Die Forschenden nutzten dazu eine Methode, mit der andere Arbeitsgruppen bereits erfolgreich die mathematischen Fähigkeiten von Bienen getestet hatten: Sie zeigten den Fischen eine Ansammlung geometrischer Formen – zum Beispiel vier Quadrate. Waren diese Objekte blau gefärbt, bedeutete das „addiere eins“. Gelb hieß dagegen „subtrahiere eins“.

Danach wurde die Aufgabe ausgeblendet. Stattdessen bekamen die Tiere zwei neue Abbildungen zu sehen – eine mit fünf und eine mit drei Quadraten. Schwammen sie zu dem richtigen Bild (also bei der „blauen“ Rechenaufgabe zu den fünf Quadraten), wurden sie mit Futter belohnt. Bei der falschen Antwort gingen sie leer aus. Mit der Zeit lernten sie so, die blaue Farbe mit der Erhöhung der anfangs gezeigten Menge um eins zu assoziieren, die gelbe Zahl dagegen mit ihrer Verminderung.

Doch konnten die Fische diese Erkenntnis auch auf neue Aufgaben anwenden? Hatten sie also tatsächlich die mathematische Regel hinter den Farben verinnerlicht? „Um das zu überprüfen, hatten wir beim Training einige Berechnungen absichtlich ausgelassen“, erklärt Schlüssel. „Und zwar 3+1 und 3-1. Nach der Lernphase bekamen die Tiere diese beiden Aufgaben zum ersten Mal zu sehen. Und auch in diesen Fällen schwammen sie meistens zu den korrekten Ergebnissen.“ Das galt sogar dann, wenn sie sich nach der Aufgabe „3+1“ zwischen vier und fünf Objekten entscheiden mussten – also zwei Resultaten, die beide größer waren als der Ausgangswert.

Rechnen ohne Großhirnrinde
Diese Leistung hat die Forschenden selbst überrascht – zumal die gestellten Aufgaben in der Realität sogar noch ein Stück schwieriger waren als eben geschildert. So bekamen die Fische nicht Objekte derselben Form gezeigt (also etwa vier Quadrate), sondern eine Kombination unterschiedlicher Formen. Eine „Vier“ konnte zum Beispiel durch einen kleinen und einen größeren Kreis, ein Quadrat und ein Dreieck repräsentiert werden, in einer anderen Berechnung dagegen durch drei unterschiedlich große Dreiecke und ein Quadrat.

„Die Tiere mussten also die Menge der abgebildeten Objekte erkennen und zugleich aus ihrer Farbe auf die Rechenvorschrift schließen“, sagt Schlüssel. „Sie mussten beides im Arbeitsgedächtnis behalten, als das ursprüngliche Bild gegen die beiden Ergebnisbilder ausgetauscht wurde. Und sie mussten sich danach für das richtige Resultat entscheiden. Insgesamt ist das eine Leistung, die komplexe Denkfähigkeiten erfordert.“

Das ist auch deshalb erstaunlich, weil Fische keinen Neocortex besitzen – den Teil des Gehirns, der auch als „Großhirnrinde“ bekannt ist und bei uns für die meisten komplexen kognitiven Aufgaben zuständig ist. Zudem ist von beiden Fischarten nicht bekannt, dass sie in ihrer ökologischen Nische ein besonders gutes Zahlenverständnis benötigen würden. Andere Arten mögen auf die Streifenzahl ihrer Sexualpartner achten oder die Menge der Eier in ihrem Gelege. „Von Stachelrochen und Buntbarsche kennt man das jedoch nicht“, betont die Zoologie-Professorin der Universität Bonn.

Sie sieht in dem Ergebnis der Experimente auch eine Bestätigung dafür, dass wir Menschen dazu neigen, andere Spezies zu unterschätzen – insbesondere solche, die nicht zu unserer engeren Verwandtschaft zählen. Fische sind zudem nicht besonders niedlich und haben auch kein kuschliges Fell oder Gefieder. „Entsprechend weit unten stehen sie in unserer Gunst – und entsprechend wenig scheren wir uns darum, wenn sie etwa im industriellen Fischfang qualvoll verenden“, sagt Vera Schlüssel.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Vera Schlüssel
Institut für Zoologie der Universität Bonn
Tel. +49 228 735476
E-Mail: vschlu@uni-bonn.de

Originalpublikation:
V. Schluessel, N. Kreuter, I. M. Gosemann & E. Schmidt: Cichlids and stingrays can add and subtract ‘one’ in the number space from one to five; Scientific Reports; https://doi.org/10.1038/s41598-022-07552-2

(nach oben)


Einfluss von Handystrahlung auf die Nahrungsaufnahme nachgewiesen

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Wissenschaftlerinnen der Universität zu Lübeck decken Einfluss von Handystrahlung auf Gehirnstoffwechsel und Nahrungsaufnahme auf

Handys sind aus der heutigen Zeit nicht mehr wegzudenken. Insbesondere bei Kindern und Jugendlichen kann die vermehrte Nutzung des beliebten Kommunikations- und Spielgerätes auf mehreren Ebenen problematisch sein. Die von Handys ausgesandte Strahlung wird zu großen Teilen vom Kopf absorbiert und kann dadurch u.a. Auswirkungen auf Stoffwechsel und Verarbeitungsprozesse im Gehirn haben. Ob es einen direkten Zusammenhang zwischen Handystrahlung und Nahrungsaufnahme geben könnte, hat Frau Prof. Dr. Kerstin Oltmanns, Leitern der Sektion für Psychoneurobiologie der Universität zu Lübeck, mit ihrem Forschungsteam in einer Studie untersucht.

Aus früheren Studien war bereits bekannt, dass elektromagnetische Strahlung bei Ratten zu einer erhöhten Nahrungsaufnahme führt. Ob ein solcher Zusammenhang möglicherweise auch für Handystrahlung beim Menschen besteht, untersuchte Prof. Kerstin Oltmanns zusammen mit Diplompsychologin Ewelina Wardzinski, Leiterin der Studie, im Rahmen einer DFG-geförderten Beobachtungsstudie, die in der Fachzeitschrift Nutrients veröffentlicht wurde.

Durchdachtes Versuchsdesign
15 junge Männer wurden mit einem Abstand von zwei Wochen insgesamt dreimal einbestellt. Im Experiment wurden die Probanden dann mit zwei verschiedenen Handys als Strahlungsquelle bestrahlt bzw. einer Scheinbestrahlung als Kontrolle ausgesetzt. Im Anschluss durften sich die Probanden für eine definierte Zeit an einem Buffet bedienen. Gemessen wurde die spontane Nahrungsaufnahme, der Energiestoffwechsel des Gehirns anhand von Phosphor-Magnetresonanz-Spektroskopie (MRS) sowie verschiedene Blutwerte vor und nach Bestrahlung.

Erstaunliches Ergebnis
Das Forschungsteam kam zu überraschend deutlichen Ergebnissen: Die Strahlung führte bei fast allen Probanden zu einer Erhöhung der Gesamtkalorienzufuhr um 22 Prozent bzw. 27 Prozent durch die jeweiligen Versuchshandys. Die Blutanalysen zeigten, dass dies vor allem durch eine vermehrte Kohlenhydrat-Aufnahme verursacht wurde. Die MRS-Messungen ergaben eine Steigerung des Energieumsatzes im Gehirn unter Einfluss der Handystrahlung.

Neues Licht auf den Umgang mit Handys
Das Forschungsteam schließt aus diesen Ergebnissen, dass Handystrahlen nicht nur einen potenziellen Faktor für übermäßiges Essen beim Menschen darstellen, sondern dass sie auch die Energiehomöostase des Gehirns beeinflussen. Diese Erkenntnisse könnten neue Wege für die Adipositas- und andere neurobiologische Forschung eröffnen. Insbesondere in Bezug auf Kinder und Jugendliche wird der hier nachgewiesene Einfluss von Handystrahlung auf das Gehirn und das Essverhalten die Forschung auf diesem Gebiet zukünftig mehr in den Fokus rücken.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Dipl.-Päd. Kerstin M. Oltmanns
Universität zu Lübeck
Sektion für Psychoneurobiologie
Email: oltmanns@pnb.uni-luebeck.de

Originalpublikation:
Wardzinski EK, Jauch-Chara K, Haars S, Melchert UH, Scholand-Engler HG, Oltmanns KM, (2022): Mobile Phone Radiation Deflects Brain Energy Homeostasis and Prompts Human Food Ingestion. Nutrients 14, 339
https://www.mdpi.com/2072-6643/14/2/339

Weitere Informationen:
https://www.uni-luebeck.de/aktuelles/pressemitteilung/artikel/einfluss-von-handy…

(nach oben)


Detektion von Wasserstoff durch Glasfasersensoren

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Wasserstoff spielt in der deutschen Energie- und Klimapolitik eine zentrale Rolle. Kommt er zum Einsatz, sind Sicherheitsmaßnahmen von entscheidender Bedeutung. Denn im Unterschied zu anderen gasförmigen oder flüssigen Energieträgern besteht bei Wasserstoff neben einer erhöhten Brandgefahr durch Leckagen unter bestimmten Bedingungen auch Explosionsgefahr. Um die Sicherheit im Umgang mit Wasserstoff noch weiter zu erhöhen, arbeiten Forschende am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI an Glasfaser-basierten Sensoren zu dessen Detektion, die herkömmlichen Sensoren in vielerlei Hinsicht überlegen sind.

Um die gesetzten Klimaziele zu erreichen und die globale Erwärmung einzudämmen, müssen alle Staaten den Anteil an fossilen Energieträgern schnellstmöglich auf ein Minimum reduzieren. Als nachhaltige Alternative wird verstärkt auf Wasserstofftechnologien gesetzt – vor allem im Produktions- und Mobilitätssektor. Überall wo mit Wasserstoff gearbeitet wird, er gelagert, transportiert und weitergeleitet wird, dürfen entsprechende Sicherheitsvorkehrungen nicht fehlen. Denn obwohl Wasserstoff nicht giftig ist, er weniger wiegt als Luft und somit nach oben steigt, kann es zu gefährlichen Situationen kommen: Überschreitet nämlich die Wasserstoffkonzentration in der Luft einen Schwellenwert von vier Prozent, was bei ausreichend Druck in einem Wasserstofftank oder bei mangelnder Belüftung eines Raumes schnell erreicht werden kann, genügt eine kleine Zündquelle, ein einzelner Funken, um eine Explosion auszulösen.

Klein, gut integrierbar und ohne immanentes Sicherheitsrisiko
Dies gilt es vorausschauend zu verhindern und Dr. Günter Flachenecker, Senior Scientist am Fraunhofer HHI, weiß, wie. An der Außenstelle Abteilung Faseroptische Sensorsysteme des Fraunhofer HHI in Goslar forscht der promovierte Physiker zusammen mit seinem Team an Möglichkeiten zur Wasserstoffdetektion mithilfe von Sensoren aus Glasfasern: »Herkömmliche Sicherheitssensoren, die zur Erfassung von Wasserstoff derzeit kommerziell verfügbar sind – das sind in der Regel katalytische Wärmetönungssensoren oder elektrochemische Zellen –, benötigen eine elektrische Stromversorgung. Beide Varianten könnten so, wenn das Gerät oder die elektrischen Zuleitungen einen Defekt aufweisen, im schlimmsten Fall selbst als Zündquelle die Explosion auslösen, die sie eigentlich verhindern sollten«, erklärt Flachenecker. »Bei unseren Glasfasersensoren besteht diese Gefahr nicht. Gleichzeitig müssen sie nicht aufwändig verkabelt werden, sind klein und lassen sich gut in verschiedenste Strukturen der zu überwachenden Anlage oder des Fahrzeugs integrieren.«

Lichtleitende Glasfasern sind aufgrund ihres geringen Durchmessers von etwa einem Viertel Millimeter und ihrer Robustheit geradezu prädestiniert für sensorische Applikationen in einer sicherheitsrelevanten Umgebung. Damit eine Glasfaser zum Wasserstoffsensor wird, muss sie an verschiedenen Stellen modifiziert werden. Hierfür werden zunächst mit einem Laser bestimmte Strukturen in den Glasfaserkern eingeprägt, sodass ein sogenanntes Faser-Bragg-Gitter entsteht – eine periodische Brechungsindexmodulation, die dafür sorgt, dass Licht bei einer bestimmten Wellenlänge reflektiert wird.

Dass die Glasfaser nun speziell auf Wasserstoff reagiert, wird erreicht, indem rund um den Glasfasermantel eine spezifische funktionelle Beschichtung aufgetragen wird: »Wir arbeiten mit katalytischen Schichten, zum Beispiel Palladium oder Palladiumlegierungen«, so Flachenecker. »Palladium hat die Eigenschaft, dass es Wasserstoff aufsaugt, ähnlich wie ein Schwamm. Sobald die beiden Stoffe aufeinandertreffen, zerfällt der Wasserstoff in seine atomaren Fragmente und die freigesetzten Wasserstoffatome dringen in das Kristallgerüst des Palladiums ein. Dies führt zu einer Dehnung in der Glasfaser, die sich über das eingebaute Faser-Bragg-Gitter augenblicklich als Veränderung in den rückgemeldeten Lichtimpulsen messen lässt. Sobald die Wasserstoffkonzentration in der Luft dann wieder abnimmt, löst sich der Wasserstoff auch wieder aus dem Palladium.« Die Beschichtung trägt dadurch also keinen Schaden davon und der Sensor kann wiederverwendet werden. Gleichzeitig funktioniere der beschriebene Vorgang nur, weil Wasserstoffatome sehr klein sind, betont Flachenecker. Andere Stoffe können auf diesem Wege nicht in die Palladiumschicht eindringen.

Potenzial in vielen verschiedenen Anwendungskontexten
Doch das ist nicht die einzige Methode, die von den Forschenden getestet wurde. So ist eine Wasserstoffdetektion auch mit Glasfasern möglich, deren Mantel weggeätzt wurde, oder mit einer sehr dünnen Schicht aus Nanopartikeln, die auf den Glasfasermantel aufgetragen werden. »Das ist eine große Spielwiese und es gibt einiges, was wir noch ausprobieren wollen«, sagt Flachenecker. »Entscheidend ist es für uns, Möglichkeiten zur Wasserstoffdetektion zu finden, die schnell genug sind, um Unfälle zu verhindern, und die zuverlässig im benötigten Empfindlichkeitsbereich reagieren. Und da sind wir aktuell auf einem sehr guten Weg.«

In der Praxis könnten die neuen Glasfasersensoren zum Beispiel integraler Bestanteil von Fahrzeugen mit Wasserstoffantrieb werden und zur Überwachung von Wasserstofftankstellen, Autowerkstätten oder Elektrolyseuren eingesetzt werden. Auch der Aufbau eines größeren Sensornetzwerks, das eine Wasserstoff-Infrastruktur an vielen Stellen gleichzeitig überwacht, ließe sich leicht umsetzen. Die Elektronik für die Messdatenaufnahme, also zum Beispiel ein Spektrometer für die optische Auswertung der Glasfasersensoren, kann räumlich beliebig weit entfernt an einem sicheren Ort installiert sein. Wird eine bestimmte Wasserstoffkonzentration überschritten und der Sensor schlägt an, so wird das je nach konkretem Anwendungsfall angebundene Alarmmanagement ausgelöst und spezifische Maßnahmen, zum Beispiel ein akustisches Warnsignal, das Schließen von Ventilen oder das Öffnen von Fenstern können in Sekundenschnelle eingeleitet werden.

Das derzeitige Forschungsprojekt unter der Leitung von Günter Flachenecker wird vom Bundesministerium für Wirtschaft und Klimaschutz gefördert und findet in Kooperation mit einem lokalen Brandschutzunternehmen statt. Es startete vor zwei Jahren und endet nach einem derzeit noch nicht abgeschlossenen Praxistest, bei dem die Glasfasersensoren in LKWs eingebaut werden, im Sommer. Anschließend ist ein Folgeprojekt geplant, in dem die neuen Sensoren noch ausführlicher getestet und weitere vorbereitende Schritte in Richtung Zertifizierung und Kommerzialisierung unternommen werden sollen. Das Ziel ist klar: Ein noch sichereres und unfallfreies Arbeiten mit Wasserstoff.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/detektio…

(nach oben)


H2Wood – BlackForest: Biowasserstoff aus Holz | BMBF fördert Vorhaben zur Einsparung von CO2 mit 12 Millionen Euro

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Eine klimaneutrale Kreislaufwirtschaft auf der Basis von Holz ist das Ziel des Verbundprojekts »H2Wood – BlackForest«, das vom BMBF mit 12 Millionen Euro gefördert wird. Hierfür entwickelt das Fraunhofer IGB ein biotechnologisches Verfahren, um aus Holzabfällen Wasserstoff und biobasierte Koppelprodukte herzustellen. Beim Projektpartner Campus Schwarzwald in Freudenstadt wird das Verfahren in einer eigens dafür ausgelegten Anlage demonstriert. Um aufzuzeigen, wie der regenerative Energieträger durch lokale Betriebe und Energieversorger genutzt werden kann, erstellen Fraunhofer IPA und die Universität Stuttgart im Projekt eine Wasserstoff-Roadmap für die Schwarzwaldregion.

Holz ist das wichtigste Wirtschaftsgut des Schwarzwalds. Bei der Verarbeitung zu Möbeln und Baustoffen, aber auch beim Abbruch von Gebäuden fallen regional beachtliche Mengen an Holzabfällen an. Diese werden derzeit zum Teil kostenintensiv entsorgt und in Holzverbrennungsanlagen allenfalls energetisch genutzt.

Auf der anderen Seite gilt »grüner« Wasserstoff (H2), der mittels Elektrolyse von Wasser mit erneuerbaren Energien hergestellt wird, als Schlüsselelement der Energiewende. Der Bedarf an regenerativ erzeugtem Wasserstoff für eine klimafreundliche Wirtschaft in Industrie, Verkehr und Wärmeversorgung ist enorm. Deutschland und Europa setzen daher vor allem auf Wasserstoffimporte aus südlichen Ländern mit ganzjährig ausreichender Sonneneinstrahlung.

Seit August 2021 schlägt die Region Schwarzwald einen neuen Weg ein, der die Nutzung regionaler Holzabfälle mit der Herstellung von regenerativem Wasserstoff verbindet. »Nach dem Ansatz der Bioökonomie wollen wir mithilfe biotechnologischer Prozesse klimaneutralen Biowasserstoff sowie zusätzlich verwertbare Stoffe wie Carotinoide oder Proteine aus Altholz und Holzabfällen herstellen«, erläutert Dr. Ursula Schließmann vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die das Verbundvorhaben »H2Wood – BlackForest« koordiniert. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt zur Kreislaufwirtschaft regionaler Ressourcen in der Region Schwarzwald bis Mitte 2024 mit rund 12 Millionen Euro. Partner im Forschungsverbund sind neben dem Fraunhofer IGB auch das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, das Institut für industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart sowie das Centrum für Digitalisierung, Führung und Nachhaltigkeit Schwarzwald gGmbH (Campus Schwarzwald).

Kaskadennutzung von Holz ermöglicht Klimaneutralität
»Ziel der Initiative ist es, mithilfe eines umfassenden Konzepts für eine nachhaltige und innovative Versorgung des Schwarzwalds mit Biowasserstoff CO2-Emissionen einzusparen und die Region bei der Erreichung ihrer Klimaziele zu unterstützen«, führt Stefan Bogenrieder, Geschäftsführer von Campus Schwarzwald, aus. Kohlenstoffdioxid wird dabei auf zweierlei Wegen eingespart: Zum einen ersetzt der regenerative Biowasserstoff bisherige fossile Energieträger, zum anderen werden Rest- und Altholz nicht nur Wasserstoff liefern. Durch den neuen biotechnologischen Ansatz wird die energetische Verwertung der Holzabfälle zu Wasserstoff mit einer stofflichen Nutzung verknüpft. »Das aus dem Holz freigesetzte CO2 wird in Form von kohlenstoffbasierten Koppelprodukten gebunden und damit zurück in den natürlichen Kohlenstoffkreislauf geführt«, erläutert Umweltexpertin Schließmann.

Eine Wasserstoff-Roadmap für die Region Schwarzwald
Welche Mengen an Rest- und Altholz fallen im holzverarbeitenden Gewerbe und den Kommunen überhaupt an, wieviel Wasserstoff ließe sich daraus erzeugen und wie groß wäre das Einsparpotenzial an CO2-Emissionen? Diesen Fragen geht das Projektteam in Potenzialanalysen auf den Grund. Zugleich untersuchen die Partner, wie der erzeugte Wasserstoff am besten gespeichert, transportiert und genutzt werden kann. Denn Wasserstoff ist nicht nur flexibler Energiespeicher, sondern auch als Kraftstoff für Fahrzeuge, Brennstoff für Hochöfen und Brennstoffzellen sowie als Grundstoff für zahlreiche industrielle Prozesse und chemische Folgeprodukte einsetzbar.

»Hierzu analysieren und bewerten wir den Energieverbrauch der Industrie, der Haushalte sowie des Nah- und Fernverkehrs und leiten daraus Potenziale einer dezentralen Wasserstofferzeugung und -nutzung innerhalb der Region Schwarzwald ab«, sagt Dr. Erwin Groß vom Fraunhofer IPA. »Die Ergebnisse aller Erhebungen und Berechnungen fassen wir in einer Wasserstoff-Roadmap für die Region Schwarzwald zusammen«, so Groß.

Verfahren und Demonstrationsanlage zur Produktion von Biowasserstoff
Bislang existiert keine Anlage, die Biowasserstoff in größerem Maßstab herstellt. Am Fraunhofer IGB werden daher die dazu notwendigen Prozesse entwickelt und experimentell untersucht, bevor sie in einer integrierten Anlage am Campus Schwarzwald in Freudenstadt umgesetzt werden können. Der erste Schritt und Voraussetzung für die biotechnologische Umwandlung ist die Vorbehandlung des Alt- und Restholzes.

»Wir stehen hier vor einer ziemlichen Herausforderung, denn Holzabfälle aus Hausabbruch, Möbelbau und Baustoffproduktion, darunter Span- oder MDF-Platten, enthalten Klebstoffe wie Harze und Phenole oder auch Lacke. Diese chemischen Bestandteile müssen wir zunächst entfernen, damit die Bakterien und Mikroalgen, also die Akteure der biotechnologischen Wasserstoffproduktion, ihre Arbeit erledigen können«, erläutert Schließmann. Zudem muss das Holz noch in seine Bausteine zerlegt und die hierbei gewonnene Cellulose in einzelne Zuckermoleküle gespalten werden, welche den wasserstoffproduzierenden Mikroorganismen als Futter dienen.

Für die biotechnologische Umwandlung der Holzzucker werden am Fraunhofer IGB zwei Fermentationsverfahren etabliert und miteinander verknüpft. Das eine setzt auf wasserstoffproduzierende Bakterien, welche die Zuckerarten zu CO2, organischen Säuren und Ethanol verstoffwechseln. Die Stoffwechselprodukte der Bakterien stellen die Nahrung für die Mikroalgen dar. Diese synthetisieren daraus Carotinoide oder Proteine als Koppelprodukte und setzen dabei ebenfalls Wasserstoff frei.

Zum Projekt
Das Projekt H2Wood – BlackForest wird vom 1. August 2021 bis zum 31. Juli 2024 mit einer Gesamtsumme von 12 Millionen Euro durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Ideenwettbewerbs »Wasserstoffrepublik Deutschland« gefördert.

Projektpartner
Campus Schwarzwald

Der Campus Schwarzwald ist in der Region Schwarzwald der Ansprechpartner für Lehre, Forschung und Technologietransfer der Maschinenbau- und produzierenden Industrie mit Kompetenzen im Bereich der Digitalisierung, Führung und Nachhaltigkeit. Gemeinsam mit der Universität Stuttgart führt der Campus die Experteninterviews zur Datenerhe-bung der Wasserstoffkreislaufwirtschaft im Schwarzwald durch. Diese Interviews bilden die Basis für weitere Konzepte der technischen Realisierung zur Erzeugung von grünem Wasserstoff sowie deren wirtschaftlichen Verwertung. Das im Projekt H2Wood – BlackFo-rest entstehende Umsetzungskonzept sieht den Aufbau und den Verbundbetrieb der vom Fraunhofer IGB konzipierten Anlage zur Erzeugung von Biowasserstoff zentral am Campus Schwarzwald in Freudenstadt vor.

Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, Stuttgart
Das Fraunhofer IGB entwickelt Verfahren, Technologien und Produkte für Gesundheit, nachhaltige Chemie und Umwelt. Mit der Kombination biologischer und verfahrenstech-nischer Kompetenzen und dem Systemansatz der Bioökonomie trägt das Institut zu einer nachhaltigen Kreislaufwirtschaft und intakten Umwelt bei. Im Projekt ist das Institut für die Entwicklung und Realisierung der Demonstratoren zur Fraktionierung und Verzucke-rung von Holz sowie zur biotechnologischen Konversion zu Wasserstoff und CO2-basierten Koppelprodukten zuständig.

Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart
Organisatorische und technologische Aufgaben aus der Produktion sind Forschungs-schwerpunkte des Fraunhofer IPA. Methoden, Komponenten und Geräte bis hin zu kompletten Maschinen und Anlagen werden entwickelt, erprobt und umgesetzt. Ziel der Forschung des Instituts ist die wirtschaftliche Produktion nachhaltiger und personalisierter Produkte. 16 Fachabteilungen arbeiten interdisziplinär, koordiniert durch sechs Ge-schäftsfelder, vor allem mit den Branchen Automotive, Maschinen- und Anlagenbau, Elektronik und Mikrosystemtechnik, Energie, Medizin- und Biotechnik sowie Prozessin-dustrie zusammen.

Universität Stuttgart, Institut für Industrielle Fertigung und Fabrikbetrieb IFF
Das IFF ist eng mit dem Fraunhofer IPA verbunden und arbeitet in gemeinsamen Projek-ten institutsübergreifend zusammen. Zudem lehrt und forscht das IFF u. a. im Bereich der industriellen Produktion und betrachtet hier verschiedene Energiesysteme. Hierbei spielen Produktionsstrategien sowie Wertschöpfungsnetze eine ebenso große Rolle wie neue Methoden der KI zur Flexibilisierung der Produktion und wie KI im Produktionsum-feld flächendeckend zum Einsatz kommen kann. Das Projektportfolio des IFF erstreckt sich dabei von der Erarbeitung konkreter technologischer Lösungen über Simulationen und Konzeptstudien bis zu Stakeholderprozessen und der Politikberatung.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Ursula Schließmann
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Nobelstr. 12; 70569 Stuttgart
Funktion am IGB: Koordinatorin Geschäftsfeld Umwelt
E-Mail: ursula.schliessmann@igb.fraunhofer.de
Telefon: +49 711 970-4222

Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/h2wood-b…

Weitere Informationen:
http://Link zur Projektseite H2Wood:
https://www.igb.fraunhofer.de/de/referenzprojekte/h2wood.html

(nach oben)


Fraunhofer-Projekt ML4P optimiert Effizienz der Industrieproduktion

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Verfahren der Künstlichen Intelligenz werden bisher verstärkt in Bereichen wie der Bildanalyse oder der Spracherkennung eingesetzt. Im Bereich der industriellen Produktion sind sie noch Mangelware. Mehrere Fraunhofer-Institute haben im Leitprojekt »ML4P – Machine Learning for Production« eine Lösung entwickelt, mit der die Industrieproduktion durch maschinelles Lernen deutlich effizienter wird. Die darauf basierende Software-Suite ist sehr flexibel und auch mit älteren Maschinen kompatibel.

Das produzierende Gewerbe ist eine der tragenden Säulen der deutschen Wirtschaft. Nach Angaben des Statistischen Bundesamts gab es 2017 mehr als 700 000 produzierende Unternehmen mit etwa 7,4 Millionen Beschäftigten und einem Umsatz von über 2 Billionen Euro. Zu dieser wirtschaftlichen Stärke tragen Unternehmen aus Branchen wie Automobilbau, Elektrotechnik, Maschinenbau, Nahrungsmittelproduktion, Kunststoff oder Chemie bei. Viele dieser Unternehmen nutzen große Geräteparks und komplexe Produktionsanlagen. Moderne Maschinen, ausgestattet mit umfangreicher Sensorik, liefern immer mehr Daten. Hierdurch ist ein großes Potenzial entstanden, die Produktion durch Analyse der Daten mithilfe von Künstlicher Intelligenz (KI) und Machine Learning (ML) zu optimieren

Ein Konsortium aus mehreren Fraunhofer-Instituten will nun das bisher weitgehend ungenutzte Potenzial für die Industrie nutzbar machen. Unter Federführung des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB haben sie im vierjährigen Leitprojekt »ML4P – Machine Learning for Production« eine leistungsfähige Lösung erstellt, mit der Unternehmen ihre Produktion auf Basis von ML-Technologien optimieren können. Der ML4P-Ansatz ist eine Kombination aus einem wissenschaftlich fundierten Vorgehensmodell und darauf aufbauenden Software-Tools. Ziel ist es, die Produktion schneller, energieeffizienter und ressourcenschonender zu gestalten. Die ML-basierten Software-Tools können beispielsweise durch die Analyse der Maschinendaten versteckte Zusammenhänge entdecken und damit eine Optimierung des Fertigungsprozesses initiieren. Durch ihre Lernfähigkeit sind sie zudem in der Lage, die Produktion kontinuierlich zu verbessern. Das kommt auch der Produktqualität zugute.

Vorgehensmodell in mehreren Phasen
Die Software ist dabei nur ein Teil des ML4P-Ansatzes. Eine entscheidende Grundlage ist das so genannte Vorgehensmodell. Christian Frey, Abteilungsleiter Mess-, Regelungs- und Diagnosesysteme am Fraunhofer IOSB und ML4P-Projektleiter, erklärt: »Wir überfallen die Unternehmen nicht mit einer fertigen Software-Lösung, sondern gehen mit unserem Vorgehensmodell gemeinsam mit dem Unternehmen methodisch und schrittweise vor.« Erster Schritt ist die Analyse des Ist-Zustands des Produktionsprozesses. Auf dieser Basis identifizieren die Experten mögliche Optimierungspotenziale, legen Ziele fest und erarbeiten ein Konzept für den Einsatz von ML4P. In einem nächsten Schritt überprüfen sie, ob das Konzept auf Grundlage der vorhandenen Maschinen und Daten wirklich funktioniert und wie das zu den Unternehmenszielen passt.

»Das Vorgehensmodell ist in mehrere, aufeinander aufbauende Phasen gegliedert. Die Entscheidung, ob ein Unternehmen sich wirklich für den Einsatz von ML4P entscheidet, fällt erst dann, wenn sicher ist, dass das Konzept funktioniert, gut umsetzbar und betriebswirtschaftlich sinnvoll ist«, sagt Lars Wessels, stellvertretender ML4P-Projektleiter.

Im nächsten Schritt werden die Prozessdaten der Anlagen und Maschinen in ein umfassendes, digitales Informationsmodell überführt. Ebenso wichtig wie die Daten ist dabei das Expertenwissen. Hier bringen Ingenieurinnen und Ingenieure ihre Kenntnisse über alle Prozessschritte, die Funktion und das Zusammenspiel aller Maschinen ein. Das Expertenwissen fließt in digitaler Form in eine ML4P-Verarbeitungspipeline zum Erlernen eines Prozessmodells ein. Erst danach folgen die Implementierung und der Probebetrieb. Am Schluss stehen die Übergabe und der Start in den Produktionsalltag.

Flexible Tools und Industriestandards
Für die Implementierung einer ML-optimierten Produktion stellt die Software-Suite eine Reihe Tools zur Verfügung, darunter auch generische Tools für typische Aufgaben wie die Überwachung des Betriebsstatus einer Maschine. Diese sind kompatibel zu einer Vielzahl industrieller Kommunikationsschnittstellen wie beispielsweise OPC UA (Open Platform Communications Unified Architecture). Wo immer möglich verzichten die Fraunhofer-Forschenden auf proprietäre Softwareprotokolle und setzen auf etablierte Standards und Programmierschnittstellen.

Skalierbarkeit und Flexibilität sind weitere Stärken des Konzepts. Nach der Inbetriebnahme sind die einzelnen Module jederzeit anpassbar, lernen mithilfe der eingehenden Maschinendaten laufend dazu und können so Optimierungspotenziale aufzeigen. Neue Anlagen lassen sich problemlos integrieren, ebenso wie die meisten älteren Maschinen, auch solche, die vielleicht schon 30 oder gar 40 Jahre alt sind. »Es kommt weniger auf die Maschine an als darauf, ob sie geeignete Daten liefern kann, etwa wenn sie mit Sensorik ausgestattet ist«, sagt Wessels. Auch kleinere Betriebe können ML4P einsetzen, selbst wenn sie nur bestimmte Abschnitte einer Fertigung optimieren wollen.

»Viele Unternehmen stehen dem Einsatz von Künstlicher Intelligenz oder ML noch skeptisch gegenüber, weil sie das enorme Potenzial von maschinellem Lernen für die Produktion noch nicht erkannt haben. Aber die modular aufgebaute Fraunhofer-Plattform bietet Eigenschaften wie Transparenz, Flexibilität und Skalierbarkeit. Dadurch sinken die Einstiegshürden«, sagt Frey.

Das ML4P-Team hat das Konzept bereits in verschiedenen Anwendungsdomänen erprobt. Am Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU wurden Lösungen für die Blechumformung entwickelt. Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF hat die Fertigung von Membranfiltern optimiert, und das Fraunhofer-Institut für Werkstoffmechanik IWM testete das Konzept bei einer Anlage zum Biegen von Glas. Viele Software-Tools wurden auf Basis dieser Praxistests bereits entwickelt.

»Wir sind sehr froh, dass das ambitionierte Projekt ML4P nach vier Jahren Arbeit erfolgreich abgeschlossen ist. Damit steht Unternehmen des produzierenden Gewerbes erstmals die Möglichkeit offen, das Optimierungspotenzial des maschinellen Lernens für die Produktion voll auszuschöpfen«, sagt Frey.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/fraunhof…

(nach oben)


Entstehung von Smog

Maren Mielck Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Ruß als überraschende Quelle für smogbildende Hydroxylradikale

Industriedunst oder Smog bildet sich, wenn ein Cocktail von Industrieabgasen zu aggressiven, Feinstäuben oxidiert wird, die das Sonnenlicht verdunkeln. Treibende Kraft sind Hydroxylradikale – und für deren Bildung hat nun ein Forschungsteam eine neue Quelle gefunden. Der neu entdeckte Entstehungsmechanismus zeigt auch neue Perspektiven zur Luftreinigung und Energiegewinnung auf, zeigt eine in der Zeitschrift Angewandte Chemie veröffentlichte Studie.

Die Dunstglocke über Städten besteht aus rußhaltigem Feinstaub und entsteht, wenn Abgase aus Industrie, Verkehr und Landwirtschaft zu Schwebteilchen kondensieren. „Hydroxylradikale beschleunigen diese Kondensation erheblich,“ sagt Joseph S. Francisco von der University of Pennsylvania in Philadelphia (USA), einer der Hauptautoren der Studie. Als deren Quellen gelten vor allem Stickoxide und Ozon. Allerdings erklärt diese Entstehung nicht vollständig, wie sich immer wieder ein derartig massiver Feinstaubdunst formieren kann, wie er vor allem in smoggeplagten Regionen in Südostasien regelmäßig auftritt.

Die Forschungsgruppen um Joseph S. Francisco von der University of Pennsylvania (USA) und Hong He von der Chinesischen Akademie der Wissenschaften in Beijing, haben nun in einer Zusammenarbeit die chemische Aktivität von Rußteilchen genauer unter die Lupe genommen. Ruß besteht aus unverbranntem Kohlenstoff und stammt aus den Abgasen von Dieselmotoren oder wird durch Brandrodung und Waldbrände verbreitet. Bislang galten Rußteilchen eher als Senke für Hydroxylradikale.

In ihren Experimenten beobachteten Francisco und sein Team jedoch, dass Rußteilchen Hydroxylradikale abgeben, wenn unter Lichteinstrahlung wasserdampfhaltige Luft darüber geleitet wird.

Allerdings hätten die Forschenden erwartet, dass die entstandenen Hydroxylradikale die Rußoberfläche gar nicht verlassen, sondern gleich weiterreagieren. Energetische Berechnungen zeigten jedoch, dass ein Hydroxylmolekül, sobald es entstanden ist, zwar an die Kohlenstoffatome auf der Oberfläche bindet, sich aber auch schnell fortbewegt. „Das geschieht ähnlich wie beim Roaming“, erklären die Autor:innen. Demnach huschten die Teilchen über die Oberfläche und entfernen sich schließlich ganz.

Aus ihren Ergebnissen schließt das Team, dass Rußteilchen aktiv zur Dunst- und Smogbildung beitragen. Ihre Ergebnisse denken die Forschenden aber noch weiter. Da nämlich offenbar Licht ausreicht, um auf Ruß stabile Wassermoleküle zu zersetzen, könnte dieses Material vielleicht zu metallfreien Kohlenstoffkatalysatoren weiterentwickelt werden. Solche Ruß-basierten Katalysatoren könnten Stickoxide und flüchtige organischen Verbindungen (VOCs) aus der Luft entfernen helfen, oder in einer umweltfreundlichen künstlichen Photosynthese aus Lichtenergie chemische Energie erzeugen.

Angewandte Chemie: Presseinfo 06/2022
Autor/-in: Joseph S. Francisco, University of Pennsylvania (USA), https://www.chem.upenn.edu/profile/joseph-s-francisco

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202201638

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Corona macht Frauen unglücklicher als Männer

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Eine Studie der Universität Freiburg im Rahmen des „SKL Glücksatlas“ unter Leitung von Pro-fessor Bernd Raffelhüschen zeigt ein »Happiness Gap der Frauen«. Die Pandemie kehrt den früheren Glücksvorsprung der Frauen ins Gegenteil: Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste.

In Sachen Glück hatten Frauen bis 65 bislang immer einen Vorsprung vor den Männern. Gemes-sen auf einer Skala von null bis zehn lagen sie in den Zeiten vor Corona um 0,04 Punkte vorn. In der Coronakrise verlieren alle Deutschen an Lebenszufriedenheit – aber Frauen deutlich mehr als Männer. Der »Happiness Gap« beträgt 0,19 Punkte. Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste. In Lockdown-Phasen betrug der Glücksabstand zu den Männern bis zu 0,4 Punkte (Mai 2021). Die Pandemie wendet den früheren kleinen Glücksvorsprung der Frauen ins Gegenteil. Zu diesem Ergebnis kommt eine Studie des For-schungszentrums Generationenverträge an der Universität Freiburg mit Unterstützung der Süd-deutschen Klassenlotterie. Im Rahmen des „SKL Glücksatlas“ hat der wissenschaftliche Leiter Prof. Bernd Raffelhüschen vom Institut für Finanzwissenschaft und Sozialpolitik an der Albert-Ludwigs-Universität das Ausmaß der Einbußen an Lebenszufriedenheit der Geschlechter unter-sucht. Insgesamt wurden seit Januar 2020 15.200 Deutsche repräsentativ befragt, zuletzt im De-zember 2021 und Januar 2022 insgesamt 2.075 Personen vom Institut für Demoskopie Allens-bach.

Vor der Pandemie waren junge Frauen zufriedener als junge Männer, jetzt sind sie unglücklicher
„Überraschend sind die großen Glückseinbußen von jungen Frauen bis 25 Jahre“, sagt Raffelhü-schen. Diese jungen Frauen waren vor Corona nicht nur die glücklichsten Menschen der Repub-lik, sie waren auch zufriedener als gleichaltrige junge Männer, ihr Glücksvorsprung betrug 0,2 Punkte. Während der Coronakrise verloren sie 0,6 Punkte, die jungen Männer aber nur 0,3 Punkte. Corona bewirkt bei jungen Frauen einen Kipp-Effekt: Vor der Pandemie waren sie zu-friedener als die Männer, in der Pandemie sind sie eindeutig unglücklicher geworden.

Ähnlich sieht es bei Studentinnen und alleinlebenden jungen Frauen (bis 35) aus. Studentinnen verlieren in der Pandemie 0,8 Punkte, Studenten „nur“ 0,2 Punkte. Alleinlebende junge Frauen verlieren 0,9 Punkte, alleinlebende Männer im gleichen Alter „nur“ 0,6 Punkte. Als Hauptgründe ihrer Unzufriedenheit geben beide Frauengruppen Einsamkeit und Kontaktbeschränkungen an. 55 Prozent geben an, ihre wöchentlichen Treffen auf mindestens monatlich reduziert zu haben. Im Unterschied zu ihren männlichen Pendants leiden diese beiden Frauengruppen deshalb be-sonders stark unter den fehlenden sozialen Kontakten.

Vollzeitarbeitende Mütter mit Kindern verlieren am meisten an Lebensglück
Dass Mütter mit Kindern durch die Corona-Maßnahmen besonders belastet sind und sich das negativ auf ihre Glücksbilanz auswirkt, war zu erwarten. In Vollzeit erwerbstätige Mütter verlie-ren 1,0 Punkte in der Pandemie, ihre Männer »nur« 0,4. Mütter sitzen in der »Multitasking Fal-le«, denn bei ihnen schlagen sowohl das Homeschooling als auch die vermehrte Hausarbeit und hier auch das Homeoffice negativ auf die Lebenszufriedenheit zu Buche. Ihren familiären Zeit-aufwand weiten zwar Mütter und Väter aus, Frauen hatten aber schon vor Corona mehr zu tun. Kontaktreduktionen betreffen sie hingegen kaum. Bei erwerbstätigen Müttern in Teilzeit sind die Glückseinbußen schwächer. Sie verlieren 0,7 Punkte, ihre (in Vollzeit arbeitenden) Männer 0,3.

Weibliche Selbständige büßen während der Pandemie deutlich mehr an Lebenszufriedenheit ein als männliche Selbständige. Sie verlieren 0,8 Punkte, selbstständige Männer dagegen nur 0,4 Punkte. Eine wichtige Rolle für die hohe Unzufriedenheit der weiblichen Selbständigen spielen wirtschaftliche Sorgen: Die Corona-Maßnahmen trafen besonders weiblich dominierte Branchen wie körpernahe Dienstleistungen, Floristen, Kitabetreiber, Innenausstatter, Einzelhandel oder das Reinigungsgewerbe. Männlich dominierte Branchen wie das produzierende Gewerbe waren da-gegen kaum von Einschränkungen und finanziellen Einbußen betroffen.

Ein Sonderfall sind die Rentnerinnen (über 65). Sie waren schon vor Corona etwas unzufriedener (0,1 Punkte) mit ihrem Leben als gleichaltrige Rentner. In der Coronakrise hat sich dieser Abstand vergrößert. Sie sind nunmehr 0,2 Punkte unzufriedener als Rentner.

Der SKL Glücksatlas
Die Studie „Happiness Gap der Frauen in der Coronakrise“ erscheint im Rahmen des SKL Glücksatlas, der aktuellsten regelmäßigen Studie zur Lebenszufriedenheit der Deutschen. Die wissenschaftliche Leitung hat Prof. Bernd Raffelhüschen von der Universität Freiburg. Der Glücksatlas wurde bis Ende 2021 von der Deutschen Post herausgegeben. Als neuer Partner ist seit 2022 die Süddeutsche Klassenlotterie (SKL) an Bord. „Mit unserem Engagement für den Glücksatlas wollen wir die Forschung über Zufriedenheit und Wohlbefinden in Deutschland erweitern und die Ergebnisse der Glücksforschung einer breiteren Öffentlichkeit zugänglich ma-chen“, sagt Dr. Bettina Rothärmel – Vorständin der GKL Gemeinsame Klassenlotterie der Län-der AöR, Veranstalterin der SKL-Lotterien.

Mit Beginn der Partnerschaft initiiert die SKL zudem erstmals eine wissenschaftliche Glücksda-tenbank für Journalistinnen, Journalisten und Interessierte: Unter skl-gluecksatlas.de werden kontinuierlich aktuelle Daten, Analysen und Sonderstudien über die Entwicklung der Lebenszu-friedenheit in Deutschland bereitgestellt und damit einer breiten Öffentlichkeit zugänglich gemacht.

Näheres zur Vorgehensweise und Methodik findet sich in der Langfassung der Sonderstudie: https://www.skl-gluecksatlas.de/info/presse.html

Wissenschaftliche Ansprechpartner:
Max Höfer
T + 49 (0) 172 9243939
E info@skl-gluecksatlas.de

Cornelia Friedrich
T + 49 (0) 89 67903-8086
E info@skl-gluecksatlas.de

(nach oben)


Freiwillige untersuchen die Stickstoffbelastung von Gewässern

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Citizen-Science-Projekts der Universitäten Oldenburg und Osnabrück zeigt, dass Fließgewässer im Weser-Ems-Gebiet stark mit Nitrat belastet sind

Genau 8754 Gewässerproben sammelten die 800 Teilnehmerinnen und Teilnehmer eines von den Universitäten Oldenburg und Osnabrück koordinierten Bürgerwissenschaftsprojekts von September 2019 bis März 2021. An mehr als 540 Standorten in den Landkreisen Osnabrück, Vechta, Emsland und Cloppenburg sowie der Stadt Osnabrück untersuchten die Freiwilligen mit speziellen Teststäbchen Brunnenwasser, Quellenwasser, Fließgewässer, Standgewässer und Regenwasser, um anhand von Farbschattierungen einen Überblick über den Nitratgehalt zu bekommen. Ein großer Teil der beprobten Fließgewässer weist den Ergebnissen zufolge zu hohe Nitratbelastungen auf, berichtete das Projektteam heute auf einer Veranstaltung in der Katholischen Akademie Stapelfeld in Cloppenburg. Die Wissenschaftlerinnen und Wissenschaftler der Universität Osnabrück stuften drei Viertel der beprobten Fließgewässer als hoch oder sehr hoch belastet ein und bestätigten damit Ergebnisse früherer Untersuchungen. Eine interaktive Online-Karte mit Messstandorten und Messwerten findet sich auf der Webseite www.nitrat.uos.de.

„Eine hohe Nitratbelastung ist sowohl für die Gewässerökologie als auch für die menschliche Gesundheit bedenklich“, sagt Melanie Vogelpohl, Referentin für Umweltinformationsvermittlung bei der Deutschen Bundesstiftung Umwelt (DBU). „Die Problematik ist durch das hohe Engagement von Bürgerinnen und Bürger stärker ins Bewusstsein gerückt.“

Im Mittelpunkt des von der Stiftung geförderten Projekts stand der Citizen Science-Ansatz: Die Forschenden haben Bürgerinnen und Bürger an naturwissenschaftlicher Forschung beteiligt. „Die Ergebnisse zeigen, dass Freiwillige einen wichtigen Beitrag zur Forschung zum Thema Gewässerschutz leisten können“, betonte Prof. Dr. Marco Beeken von der Universität Osnabrück. Der Chemiedidaktiker hatte das Projekt gemeinsam geleitet mit Prof. Dr. Verena Pietzner – bis Ende letzten Jahres Chemiedidaktikerin an der Universität Oldenburg, heute Präsidentin der Universität Vechta. Der Ansatz, Freiwillige zu beteiligen, habe sich bewährt, betonte Pietzner: „Die hohe Zahl von 800 Teilnehmerinnen und Teilnehmern zeigt, dass in der Region ein großes Interesse an Umweltthemen besteht.“

Interessierte konnten innerhalb des Projekts nicht nur Messwerte beisteuern, sondern auch weitere Angebote wie beispielsweise Schülerlabore, eine Online-Ausstellung oder eine von der Universität Oldenburg konzipierte Stickstoffbox mit Experimenten nutzen, um Einblicke in das Thema Stickstoffbelastung zu erlangen. In einer Begleitstudie untersucht die Universität Osnabrück aktuell, inwieweit die Teilnahme an dem Citizen Science-Projekt Einstellungen und Kenntnisse zum Thema Gewässerschutz verändert.

Unter den Freiwilligen, die sich im Projekt engagierten, waren auch 200 Schülerinnen und Schüler gemeinsam mit ihren Lehrkräften. „Ohne das großartige Engagement und so viele Teilnehmerinnen und Teilnehmer hätten wir weder diese Datenmenge erheben noch das Projekt so erfolgreich durchführen können“, sagt Mientje Lüsse, von der Universität Oldenburg, Wissenschaftliche Mitarbeiterin im Projekt. Der Citizen-Science-Ansatz könne eine innovative Rolle in der wissenschaftlichen Forschung spielen und gleichzeitig Bildung vermitteln.

Die Messergebnisse zeigten eine hohe Übereinstimmung mit den Resultaten anderer Messinitiativen wie beispielsweise den Brunnenwassermessungen des Umweltvereins VSR-Gewässerschutz. Beeken zeigte sich mit der Qualität der Ergebnisse zufrieden: „Die verwendeten Teststäbchen sind zuverlässig genug, um einen Überblick über die Nitratbelastung zu gewinnen und räumliche und zeitliche Entwicklungen zu verfolgen. Um in weiteren Projekten genauere Messungen durchzuführen, entwickeln wir gerade eine Messmethode mit einem Farbsensor und Elementen aus dem 3D-Drucker.“

Anhand der Daten untersuchte das Team, welche Faktoren die Nitratbelastung beeinflussen. „Die Messungen der Bürgerinnen und Bürger zeigen, dass schmale Bäche wie der Bornbach in der Nähe von Damme besonders gefährdet sind, da bereits ein geringer Nitrateintrag zu hohen Konzentrationen führt“, erläutert Projektmitarbeiterin und Doktorandin Frauke Brockhage von der Universität Osnabrück. Stehende Gewässer wie Seen weisen der Auswertung zufolge eine geringere Belastung auf als Fließgewässer, doch auch hier zeigten sich bei einem knappen Viertel der Messstellen hohe oder sehr hohe Nitratbelastungen. Unter den beprobten Brunnen überschritt etwa ein Sechstel den gesetzlichen Grenzwert von 50 Milligramm pro Liter. Insbesondere die Zusammensetzung des Bodens spielt der Analyse zufolge bei der Belastung des Grundwassers eine große Rolle: So traten in Geestgebieten mit sandigen Böden besonders hohe Nitratkonzentrationen auf.

Die Nitratbelastung der beprobten Fließgewässer ist, so Brockhage, in städtischen und landwirtschaftlich genutzten Flächen höher als in Wäldern und naturnahen Flächen. Über die konkreten Ursachen dafür können die Forschenden anhand der Daten jedoch keine Aussagen machen. Bekannt ist, dass Düngemittel aus der Landwirtschaft eine große Quelle von Nitrat in Gewässern sind. Aber auch Industrie, Verkehr und Abwässer tragen zur Belastung bei. Hohe Nitratwerte führen zu einer Überdüngung von Gewässern mit Algenblüten und Sauerstoffmangel und erhöhen die Kosten für die Trinkwassergewinnung und -aufbereitung. In Folgeprojekten will das Team die Frage nach den Ursachen genauer untersuchen.

Das Projekt wurde durch einen Beirat begleitet, in dem unter anderem der Niedersächsische Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) sowie der Kreislandvolkverband Cloppenburg vertreten waren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marco Beeken, Universität Osnabrück, Tel.: 0541/969-3378, E-Mail: marco.beeken@uos.de

Weitere Informationen:
http://uol.de/chemie/chemiedidaktik
http://www.nitrat.uos.de

Anhang
Freiwillige bestimmten die Nitratkonzentration mit Hilfe von Teststäbchen.

(nach oben)


Zurück in den Kreislauf: Menschlicher Urin wird zu Recyclingdünger für Berliner Gemeinschaftsgärten

Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
„Urban Cycles“, ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasiertem Recyclingdünger in Berliner Gemeinschaftsgärten, ist als eine von 15 partizipativen Projektideen im Hochschulwettbewerb ausgezeichnet worden.
In teilnehmenden Berliner Gemeinschaftsgärten wird ein Recyclingdünger aus künstlichem Urin getestet – das Besondere daran ist, dass die Experimente von den Gärtnernden selbst durchgeführt und die Ergebnisse gemeinsam mit Forschenden ausgewertet werden. Ziel des Projekts ist es, Gärtnernden interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden.

Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) im Rahmen des Wissenschaftsjahres ausgerufen. In diesem Jahr lautet das Thema „Nachgefragt“ und passend dazu wurden 15 partizipative Projektideen ausgezeichnet. Zu den diesjährigen Gewinner*innen gehört auch das Projekt „Urban Cycles: ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasierten Recyclingdüngern in Berliner Gemeinschaftsgärten“, koordiniert vom Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) in Großbeeren.

Für die sozial-ökologische Transformation ist eine zirkuläre Betrachtung der Dünger- und Nahrungsproduktion zentral. Eine wichtige Nährstoffressource ist menschlicher Urin, der sich in einen sicheren, schadstofffreien und wirksamen Recyclingdünger umwandeln lässt. Im Projekt „Urban Cycles“ soll in Berliner Gemeinschaftsgärten ein Recyclingdünger aus künstlichem Urin getestet werden. Den teilnehmenden Gemeinschaftsgärten wird dafür kostenlos der vom Deutschen Luft- und Raumfahrtzentrum (DLR) entwickelte C.R.O.P®-Dünger (Combined Regenerative Organic Food Production) zur Verfügung gestellt. Der neue Recyclingdünger stammt aus Forschungsanlage des DLR, die aktuell noch mit künstlichem Urin betrieben werden. Die Gärtner*innen führen dann mit dem C.R.O.P®-Dünger selbst Experimente durch und dokumentieren ihre Ergebnisse. In Dialogrunden werten sie ihre Beobachtungen gemeinsam mit Forschenden aus. Ziel des Projekts ist es, Gärtner*innen interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden. Durch offene Formate und das Prinzip “von Gärtnernden für Gärtnernde” soll das gemeinsam erarbeitete Wissen möglichst vielen weiteren Interessierten zugänglich gemacht werden.

Das „Urban Cycles“-Projektteam am IGZ ist eine Kooperation zwischen der Forschungsgruppe „Gartenbausysteme der Zukunft“ und dem Wissenschaftsmanagement. Unterstützt wird das Projekt außerdem vom DLR in Köln.
Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) in Kooperation mit dem Bundesverband Hochschulkommunikation und der Hochschulrektorenkonferenz ausgerufen und vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres gefördert. Im Hochschulwettbewerb 2022 – Wissenschaftsjahr „Nachgefragt!“ laden junge Forschende Bürger*innen dazu ein, sich aktiv am Forschungsprozess zu beteiligen und gemeinsam den Herausforderungen der Zukunft zu begegnen. Aus 270 Einreichungen hat die Jury nun die besten 15 Projektideen gekürt. Die Gewinnerteams erhalten jeweils 10.000 Euro, um damit bis Ende des Jahres ihre Ideen in die Praxis umzusetzen.

Für das Urban Cycles-Projektteam und die 14 andere Gewinner*innenteams geht es nun direkt weiter: Im März nehmen sie an einem Auftakt-Workshop von Wissenschaft im Dialog zum Thema Wissenschaftskommunikation teil, im Laufe des Jahres folgen weitere Schulungen und Veranstaltungen, bei denen sich die Teams auch untereinander vernetzen können.
Die Fortschritte, Erfahrungen und Ergebnisse des Projekts können über die Projektwebsite, die sozialen Medien und den Blog des Hochschulwettbewerbs verfolgt werden. Genaue Einzelheiten dazu werden in einer separaten Pressemitteilung bekannt gegeben, sobald das Projektteam die ersten Schritte unternommen hat.

Weitere Informationen:
https://www.igzev.de/aktuelles/aktuelles/neuigkeiten/ Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) e.V.
http://www.dlr.de Deutsches Zentrum für Luft- und Raumfahrt (DLR) e.V.
http://www.wissenschaft-im-dialog.de/projekte/hochschulwettbewerb-mitforschen-er… Wissenschaft im Dialog: Hochschulwettbewerb 2022 – Die Gewinner*innen
http://www.hochschulwettbewerb.net/2022 Hochschulwettbewerb: Blog

(nach oben)


KIT: Bundesweites Pilotprojekt zum Corona-Nachweis im Abwasser

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Mehrere Tage bevor die ersten Krankheitssymptome auftreten, sind Coronaviren bereits im Abwasser nachweisbar. Dies bietet die Möglichkeit, die Fallzahlen schneller erheben, das Infektionsgeschehen präziser abbilden sowie neue COVID-19-Varianten und deren Verbreitung früher erkennen zu können. Der am Karlsruher Institut für Technologie (KIT) koordinierte Projektverbund „Systematische Überwachung von SARS-CoV-2 im Abwasser“ will diese Potenziale heben und prüfen, ob und gegebenenfalls wie in Deutschland ein abwasserbasiertes COVID-19-Frühwarnsystem umgesetzt werden kann. Die Europäische Union fördert das Vorhaben mit rund 3,7 Millionen Euro.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…

„Dieses ressortübergreifende Forschungsvorhaben bietet die Chance, das wissenschaftliche Know-how und bisherige Erfahrungen im Abwassermonitoring deutschlandweit zu bündeln und bei der Eindämmung der COVID-19-Pandemie systematisch zu nutzen“, sagt Dr. Verena Höckele, Projektkoordinatorin beim Projektträger Karlsruhe (PTKA) am KIT.

In das im Februar gestartete und ein Jahr laufende Pilotprojekt steigen sukzessive bundesweit 20 Standorte ein. An diesen werden zweimal pro Woche und über einen Zeitraum von jeweils 24 Stunden Mischwasserproben aus dem Zulauf der Kläranlagen entnommen, aufbereitet und mittels eines PCR-Tests analysiert. Anschließend sollen die Ergebnisse mit den Pandemiedaten der örtlichen Gesundheitsämter verknüpft werden und nach Möglichkeit in die pandemische Lagebeurteilung einfließen.

Virusvarianten mit Abwassermonitoring schneller erkennen
„Das Verfahren, die Häufigkeit und Dynamik von SARS-CoV-2 Viren über das kommunale Abwasser zu bestimmen, wurde in Deutschland bereits im Zuge einzelner Forschungsprojekte erfolgreich erprobt“, so Professor Harald Horn, Leiter des Bereichs Wasserchemie und Wassertechnologie am Engler-Bunte-Institut des KIT. Es könne nicht nur dazu beitragen, die Dunkelziffer von Infizierten besser abzuschätzen, sondern auch die Verbreitung von Varianten und Mutationen schneller zu erkennen als es durch die Testung einzelner Personen möglich sei, ist Horn überzeugt.

Im Projekt wollen die Forschenden nun auf der Basis vergleichbarer Ergebnisse analysieren, welche Methoden sich für ein flächendeckendes Monitoring eignen könnten und welche Daten hierfür erhoben werden müssen, um Coronaviren im komplex zusammengesetzten Abwasser nachweisen zu können. Dies zeigt sich aktuell bei der Erfassung der Omikron-Variante, deren Virenfragmente vorwiegend über die oberen Atemwege ausgeschieden werden und im Vergleich zur Delta-Variante nur zu einem Drittel ins Abwasser gelangen. Eine besondere Herausforderung für die Wissenschaftlerinnen und Wissenschaftler ist es deswegen, die Qualität der Probenentnahme, der Laboranalyse und der Datenauswertung weiter zu verbessern.

Am Ende der Pilotphase steht die Entscheidung, ob für Deutschland ein flächendeckendes Abwassermonitoring oder eher ein repräsentatives Monitoring empfohlen werden soll. Ein solches flächendeckendes Frühwarnsystem gegen COVID-19, das sich perspektivisch auch für andere Krankheitserreger wie zum Beispiel Polio oder Grippeviren eignen würde, ist bereits in den Niederlanden, Kanada und Australien im Einsatz.

ESI-CorA: Förderung und Projektpartner
Das Projekt „Systematische Überwachung von SARS-CoV-2 im Abwasser“ (ESI-CorA) fördert die Europäische Union im Rahmen des Soforthilfeinstruments ESI (Emergency Support Instrument) mit rund 3,7 Millionen Euro. Initiiert wurde es vom Bundesministerium für Gesundheit, dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz sowie dem Bundesministerium für Bildung und Forschung. Der Projektträger Karlsruhe (PTKA) am KIT koordiniert das Projekt, Partner sind neben dem KIT die Technische Universität Darmstadt, das Umweltbundesamt und das Robert Koch-Institut. Ein Steuerungsgremium aus Vertreterinnen und Vertretern von Bund, Ländern und Verbänden soll nach Ende des Pilotierungsvorhabens im Februar 2023 über die Verstetigung der Ergebnisse entscheiden. (sur)

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Margarete Lehné, stellv. Pressesprecherin, Tel.: +49 721 608-41157, E-Mail: margarete.lehne@kit.edu

Weitere Informationen:
https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…

(nach oben)


Pressemitteilung – Windparks verändern die Nordsee

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Ein Team um Nils Christiansen vom Helmholtz-Zentrum Hereon hat eine Studie zu den Einflüssen von Offshore Windparks auf die Ozeandynamik veröffentlicht. Im Fokus stand eine Abschwächung des Windes und einhergehende Veränderungen der physikalischen Bedingungen der betroffenen Nordseegebiete. Denn die Windkraftanlagen stellen Hindernisse für Wasser und Luft dar. Die Effekte sind im Hinblick auf die Planung zukünftiger Offshore Windparks von großer Bedeutung. Die Studie erschien im Fachmedium Frontiers in Marine Science.

Die imposanten Aufnahmen der Offshore Windparks in der Nordsee mit Blick auf das glitzernde Wasser haben sich fest in den Köpfen eingebrannt. Sie gehören bereits wie der Wattwurm zum Bild der Nordsee. Doch welche nicht sichtbaren Zusammenspiele und Auswirkungen gehen mit dem wichtigen Baustein deutscher Energiewende einher?

Die Studie des Hereon-Instituts für Küstensysteme – Analyse und Modellierung simuliert eine Abschwächung der Windgeschwindigkeit auf der windabgewandten Seite (Lee-Seite) der Parks. Belegt wurde das Phänomen kürzlich von einem Hereon-Team, dessen Studie im Journal Nature erschien (Akthar et al., 2021). Auslöser für die Abschwächung des Windes sind die Turbinen. Für die Stromerzeugung entziehen sie dem Windfeld kinetische Energie. In Lee der Windräder entstehenden sogenannte atmosphärische Wirbelschleppen. Diese sind charakterisiert durch verringerte Windgeschwindigkeit sowie durch spezielle Druckverhältnisse und erhöhte Luftturbulenz. Unter stabilen atmosphärischen Bedingungen breiten sich die Defizite der Windgeschwindigkeit bis zu 70 km hinter den Windparks aus.

Wenn der Wind abflaut
Mithilfe hochauflösender, hydrodynamischen Computersimulationen hat das Team die Effekte auf die südliche Nordsee für den Sommer 2013 (Mai bis September) analysiert.
Die Analyse zeigt einen Zusammenhang von Wirbelschleppen und Änderung des impulsgetriebenen Austauschs zwischen Atmosphäre und Wasser. Hierdurch könnten wiederum die horizontalen Strömungen und die Schichtung des Wassers beeinflusst werden.

Die Effekte der Wirbelschleppen sind stark genug, um die vorhandenen Strömungen umzulenken. Was eine Verschiebung der mittleren Temperatur- und Salzgehaltsverteilung in den Gebieten der Windparks zur Folge hat. „Die auftretenden Änderungen bleiben im Rahmen der interannuellen Variabilität. Dennoch, zeigen sie ähnliche Größenordnungen auf, wie die vermuteten mittleren Änderungen aufgrund des Klimawandels oder der Variabilität von Jahr zu Jahr“, so Nils Christiansen, vom Hereon Institut für Küstensysteme, der federführender Autor bei der Studie war.

Es wird neu geschichtet
Eine weitere Konsequenz der Wirbelschleppen ist die Minderung von scherungsbedingten Prozessen an der Meeresoberfläche. In anderen Worten: Die vom Winden hervorgerufene turbulente Durchmischung der Wasseroberfläche wird dutzende Kilometer um den Windpark reduziert. Wasser ist meist geschichtet, so liegt z.B. eine Schicht mit wärmerem Wasser auf einer Schicht mit kaltem. Durch die Windparks wird die natürliche Schichtung gestört. Aufgrund der reduzierten Durchmischung wird eine stabilere Schichtung des Wassers begünstigt. Besonders auffällig war das während des Rückgangs der Sommerschichtung.
Die natürliche Sichtung des Wassers ist im Sommer besonders markant und nimmt zum Herbst hin ab. Im Gebiet der Windparks wurde jedoch eine stabilere Schichtung außerhalb der jahreszeitlichen Schwankung berechnet.

Was bedeuten die Ergebnisse für die Nordsee?
„Die Größenordnung der induzierten mittleren Veränderungen deutet nicht auf schwerwiegende lokale Auswirkungen hin, allerdings treten weitreichende strukturelle Veränderungen im System auf“, sagt Christiansen. „Die Veränderungen in der Strömung und Durchmischung beeinflussen voraussichtlich die Planktonproduktion und die Struktur des Nahrungsnetzes und können die Wirkungsweise von Schutzgebieten beeinflussen. Es ist also wichtig diese Folgen bei der Entwicklung von Meeresschutzkonzepten zu berücksichtigen“, sagt die Hereon-Institutsleiterin Prof. Corinna Schrum und gibt einen Ausblick für die Implementierung der Ergebnisse. Es seien aber weitere Untersuchungen erforderlich, um mögliche Rückkopplungen auf den Luft-Meer-Austausch zu analysieren. Eine Änderung dieses Austausches wirke sich potenziell auf regionale atmosphärische Bedingungen und die Ökosystemdynamik aus und wird Gegenstand weiterführender Studien sein.

Wissenschaftliche Ansprechpartner:
Nils Christiansen I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-2132 I nils.christiansen@hereon.de 
www.hereon.de

Originalpublikation:
https://www.frontiersin.org/articles/10.3389/fmars.2022.818501/full

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de

(nach oben)


SARS-CoV-2 geht ins Auge

Dr. Jeanine Müller-Keuker Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für molekulare Biomedizin
SARS-CoV-2 verursacht nicht nur Infektionen der Atemwege. Es kann auch in die Netzhaut gelangen und Schäden anrichten. Unklar ist, welche Netzhautstrukturen infiziert werden und ob die Schäden direkt oder indirekt Folge einer Infektion sind. Ein Team um Thomas Rauen und Hans Schöler vom Max-Planck-Institut für molekulare Biomedizin und dem Virologen Stephan Ludwig der Westfälischen Wilhelms-Universität hat nun menschliche Netzhaut-Organoide verwendet, um die SARS-CoV-2 Infektion der Netzhaut zu untersuchen. Demnach werden vor allem retinale Ganglienzellen, aber auch Lichtsinneszellen infiziert. Zudem zeigen die Forscher, dass sich Coronaviren in diesen Zelltypen sogar vermehren können.

Dass das von Yotam Menuchin-Lasowski am münsterschen Max-Planck-Institut etablierte menschliche Organoidmodell der Netzhaut in der Erforschung von SARS-CoV-2 Anwendung finden würde, hätte der Wissenschaftler vor gut drei Jahren nicht gedacht. Damals begann der Wissenschaftler mit der Arbeit an dem Modellsystem, das auf menschlichen reprogrammierten Stammzellen basiert, als Teil des von der Max-Planck-Gesellschaft geförderten White Paper Projektes “Brain Organoids: Alternatives to Animal Testing”.

Als immer mehr Fälle von neurologischen Beeinträchtigungen und auch Sehstörungen während oder nach einer Corona-Infektion durch die Medien gingen, schien es den Max-Planck-Forschern nur logisch, Netzhautorganoide für Untersuchungen zu SARS-CoV-2 in der Netzhaut einzusetzen. Denn verschiedene Studien an Retina-Biopsien von mehreren Patienten, die an COVID-19 gestorben waren, konnten das Virus in der Netzhaut nachweisen.

Tatsächlich erweist sich nun das Retina-Organoid-Modell als relevante Alternative zu Tierversuchen, da sich SARS-CoV-2-Infektionen beim Menschen nicht oder nur unzulänglich im Tiermodell nachbilden lassen. „Unser Retina-Organoidsystem bildet die anatomisch komplexe Struktur der menschlichen Netzhaut erstaunlich gut nach“, sagt Yotam Menuchin-Lasowski.

Als Ausgangszelltyp für die Netzhautorganoide wurden menschliche iPS-Zellen verwendet. Das sind Zellen, die aus Biopsien gewonnen und zu künstlich induzierten Stammzellen umprogrammiert wurden. „In vier bis fünf Monaten entstehen aus den iPS-Zellen unter geeigneten Kulturbedingungen ausgereifte Retina-Organoide, in denen sich die verschiedenen Zelltypen in Netzhaut-typischer Weise anordnen“, sagt Menuchin-Lasowski.

Die ausgereiften Netzhautorganoide wurden von André Schreiber und Stephan Ludwig vom Institut für Molekulare Virologie der Westfälischen Wilhelms-Universität Münster in einem Sicherheitslabor der Schutzstufe 3 mit SARS-CoV-2 Viren inkubiert und anschließend nach festgelegten Inkubationszeiten analysiert. So gelang den Forschern mittels quantitativer PCR-Analyse der Nachweis von SARS-CoV-2 mRNA in den Organoiden, was darauf hindeutet, dass Zellen in den Organoiden tatsächlich vom Virus infiziert wurden.

Um darüber hinaus die aktiven Viruskonzentrationen zu messen, die von den infizierten Organoiden nach verschiedenen Inkubationszeiten produziert wurden, verwendeten die Wissenschaftler einen sogenannten viralen Plaque-Assay. Und tatsächlich: dieser Test zeigte, dass sich in den Retina-Organoiden neue Virusnachkommen gebildet hatten.

„Dies ist der erste Nachweis, dass sich SARS-CoV-2 in menschlichen Netzhautzellen repliziert“, sagt Thomas Rauen, der mit Hans Schöler die White Paper Projektgruppe “Brain Organoids: Alternatives to Animal Testing” leitet. „Unser von der MPG gefördertes Projekt hat jetzt Früchte getragen“, freut sich Thomas Rauen.

Um zu erfahren, welche Zellen in den Retina-Organoiden betroffen sind, analysierten die Forscher die Organoide im Fluoreszenzmikroskop. Mithilfe verschiedener Immunmarker für die unterschiedlichen Zelltypen der Netzhaut und mit einem fluoreszierenden Antikörper gegen das Nucleoprotein (N-Protein) von SARS-CoV-2 zeigte sich, dass hauptsächlich zwei Zellschichten der Retina-Organoide infiziert wurden.

„Zum einen befanden sich viele der N-Protein-angefärbten Zellen in der äußeren Körnerschicht der Organoide,“ sagt Yotam Menuchin-Lasowski. Das ist die Zellschicht, in der sich die Photorezeptoren befinden – also die Zapfen und Stäbchen, die das eintreffende Licht in Nervenimpulse umwandeln. „Einige dieser Zellen mit dem N-Protein wiesen tatsächlich das typische Aussehen der Lichtsinneszellen auf“, ergänzt er.

„Der Zelltyp, in dem wir jedoch am häufigsten das N-Protein von SARS-CoV-2 nachweisen konnten, sind retinale Ganglienzellen“, sagt Menuchin-Lasowski. Diese Zellen befinden sich in der innersten Schicht der Retina und geben alle Signale von der Netzhaut über den Sehnerv ins Gehirn weiter.

Interessanterweise hängen viele der mit COVID-19 assoziierten Netzhautsymptome mit retinalen Ganglienzellen zusammen, die bisher allerdings vorwiegend mit sekundären Auswirkungen anderer SARS-CoV-2-verursachter Krankheitssymptome in Verbindung gebracht wurden, wie z. B. Schäden an den Blutgefäßen oder einer Erhöhung des Augendrucks.

„Unsere aktuelle Retina-Organoid Studie zeigt jedoch, dass eine Infektion mit SARS-CoV-2 direkte pathologische Folgen für die retinalen Ganglienzellen haben kann, auch wenn Sehbehinderungen bei Patienten mit COVID-19 nicht häufig vorkommen“, sagt Thomas Rauen. „Doch unsere Daten geben uns Grund zur Annahme, dass sogenannte Long-COVID-Symptome degenerative Erkrankungen der Netzhaut einschließen können.“

Hans Schöler, der als Emeritus die MPG White Paper Forschungsgruppe zusammen mit Thomas Rauen leitet, sagt: „Hier zeigt sich das volle Potential der Organoidforschung: Retina-Organoide eignen sich besonders gut für die Untersuchung von Netzhautpathologien. Durch die fruchtbare interdisziplinäre Zusammenarbeit mit der Abteilung von Stephan Ludwig konnten wir Einblicke in die Netzhautbeteiligung bei COVID-19 und möglicherweise auch bei Long-COVID gewinnen.“

Wissenschaftliche Ansprechpartner:
Dr. Thomas Rauen
thomas.rauen@mpi-muenster.mpg.de

Originalpublikation:
Yotam Menuchin-Lasowski*, André Schreiber*, Aarón Lecanda, Angeles Mecate-Zambrano, Linda Brunotte, Olympia E. Psathaki, Stephan Ludwig, Thomas Rauen#, Hans R. Schöler#.
SARS-CoV-2 infects and replicates in photoreceptor and retinal ganglion cells of human retinal organoids.
Stem Cell Reports, April 12, 2022, online advance publication March 24, 2022.
* joint first authors and # corresponding authors.

Weitere Informationen:
https://www.mpi-muenster.mpg.de/690849/20220324-sars-cov-2-retina-organoid

(nach oben)


Mikrobiologen zeigen, wie wichtig Ammonium-oxidierende Mikroorganismen für Deutschlands größten See sind

PhDr. Sven-David Müller Stabsstelle Presse und Kommunikation
Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Eine neue weltweit verbreitete Art von Archaea setzt Tonnen von Ammonium in einem der größten Seen Europas um. Damit tragen die Mikroorganismen zur Sicherheit der Trinkwasserversorgung von über fünf Millionen Menschen bei. Das konnten Wissenschaftler*innen aus Braunschweig, Bremen und Konstanz nachweisen. Ihre Ergebnisse haben sie jetzt in der Fachzeitschrift „The ISME Journal“ der Nature Publishing Group veröffentlicht.

Pressemitteilung der Technischen Universität Braunschweig und des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH

Seen sind wichtig für die Trinkwasserversorgung, Binnenfischerei und als Naherholungsgebiete. Eine Anreicherung von Ammonium würde diese Ökosystemdienstleistungen gefährden. Gleichzeitig ist Ammonium ein wichtiger Bestandteil landwirtschaftlicher Düngemittel, weshalb seine Konzentrationen in der Umwelt dramatisch zugenommen hat und der globale Stickstoffkreislauf als Ganzes aus dem Gleichgewicht geraten ist. Die Überversorgung mit Nährstoffen (zum Beispiel Stickstoff) in Gewässern führt beispielsweise zu einer Steigerung des Algenwachstums, somit auch zu Sauerstoffmangel und in der Folge zu lebensfeindlichen Bedingungen für die Pflanzen- und Tierwelt.

Nährstoffarme Seen mit großen Wasserkörpern – wie der Bodensee und viele andere voralpine Seen – beherbergen in ihrer Tiefe große Populationen von Archaea, einer speziellen Gruppe von Mikroorganismen. Man nahm bisher nur an, dass diese Archaea an der Umwandlung von Ammonium zu Nitrat beteiligt sind, das in Sedimenten und anderen sauerstoffarmen Habitaten weiter in harmlosen Stickstoff (N2) – ein Hauptbestandteil der Luft – umgewandelt wird.

Ein Team von Umweltmikrobiologen der Technischen Universität Braunschweig, des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, des Max-Planck-Instituts für marine Mikrobiologie und der Universität Konstanz konnte erstmalig nachweisen, dass diese Archaea tatsächlich an der Ammoniumoxidation beteiligt sind. Sie konnten diese Aktivität in einem der größten Seen Europas, dem Bodensee, quantifizieren.

Wie Mikroben den Stickstoffgehalt in Süßwasserökosystemen regulieren
Unser Planet ist zu einem Großteil mit Wasser bedeckt, jedoch sind davon nur 2,5 Prozent Süßwasser. Rund 80 Prozent dieses Süßwassers stehen dem Menschen nicht zur Verfügung, da es in Gletschern und den Polkappen gespeichert ist. In der Europäischen Union stammen etwa 36 Prozent des Trinkwassers aus Oberflächengewässern. Daher ist es wichtig zu verstehen, wie diese Ökosystemleistung durch Umweltprozesse wie die sogenannte mikrobielle Nitrifikation aufrechterhalten wird. Die Nitrifikation verhindert eine Anreicherung von Ammonium und wandelt es über Nitrit zu Nitrat um. Obwohl die Nitrifikation die Menge an anorganischem Stickstoff (N) in Süßwasserökosystemen nicht direkt verändert, stellt sie eine entscheidende Verbindung zwischen der Mineralisierung von organischem Stickstoff oder der Ammoniumverschmutzung und seiner letztendlichen Umwandlung zu harmlosem Stickstoff (N2) durch anaerobe Prozesse dar.

Die nun publizierten Ergebnisse zeigen, dass im Bodensee eine einzelne Art von Archaea bis zu 1760 Tonnen N-Ammonium pro Jahr umsetzt. Das entspricht elf Prozent der jährlichen von Algen produzierten Stickstoff-Biomasse. Dabei bauen die neu entdeckten Archaea eine enorme Biomasse in der Tiefe auf, die zwölf Prozent des jährlich vom pflanzlichen Plankton produzierten organischen Kohlenstoffs entspricht.

Neuartige Archaea-Art für Ammoniumumwandlung verantwortlich
Mit Hilfe modernster Methoden aus der Umweltmikrobiologie und Biogeochemie identifizierten die Wissenschaftler*innen eine neuartige Archaea-Art, Candidatus Nitrosopumilus limneticus, die für die Ökosystemdienstleistung der Ammoniumoxidation im Bodensee verantwortlich ist. Diese Art bildet mit bis zu 39 Prozent aller Mikroorganismen riesige Populationen im Tiefenwasser dieses großen Sees mit einer Fläche von 536 Quadratkilometern aus.

Mittels Metagenomik und Metatranskriptomik konnte das Genom dieses neuartigen Mikroorganismus aus der Umwelt gewonnen und seine Aktivität über die Jahreszeiten verfolgt werden. Auf stabilen Isotopen basierende Aktivitätsmessungen ergaben, dass diese einzelne Art für die Umwandlung von Ammonium im Bereich von über 1000 Tonnen verantwortlich ist. Derzeit bleibt noch ungeklärt, wie dieser neu entdeckte und in großen Binnengewässern weitverbreitete Mikroorganismus auf Veränderungen durch die Klimaerwärmung reagieren wird.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Pester
Technische Universität Braunschweig/Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Inhoffenstraße 7B
38124 Braunschweig
E-Mail: Michael.Pester@dsmz.de

Originalpublikation:
Klotz F, Kitzinger K, Ngugi DK, Büsing P, Littmann S, Kuypers MMM, Schink B, Pester M. 2022. Quantification of archaea-driven freshwater nitrification from single cell to ecosystem levels. The ISME Journal doi:10.1038/s41396-022-01216-9.
https://www.nature.com/articles/s41396-022-01216-9

(nach oben)


Umdenken bei der Bekämpfung von Infektionskrankheiten durch gezielte Strategien für den Arbeitsplatz

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Maßnahmen zur räumlichen Distanzierung und insbesondere Homeoffice-Regelungen können erwiesenermaßen helfen, die Ausbreitung des Coronavirus einzudämmen. Diese Maßnahmen hatten jedoch auch zahlreiche unerwünschte Folgen, darunter einen dramatischen Rückgang der wirtschaftlichen Produktivität. Gibt es alternative Maßnahmen, mit denen die Pandemie eingedämmt und gleichzeitig die negativen wirtschaftlichen Auswirkungen minimiert werden können? Forschende des Max-Planck-Instituts für Bildungsforschung untersuchten diese Frage anhand von Daten und Methoden, die üblicherweise nicht zur Pandemiebekämpfung herangezogen werden. Ihre Ergebnisse wurden im Fachjournal Scientific Reports veröffentlicht.

Während der gesamten COVID-19-Pandemie zählte die räumliche Distanzierung, einschließlich der Kontaktreduzierung am Arbeitsplatz und soweit möglich die Verlagerung auf das mobile Arbeiten zu den wirksamsten nicht-pharmazeutischen Maßnahmen zur Pandemiebekämpfung. Diese Maßnahmen belasten nicht nur Arbeitnehmende, gefährden Arbeitsplätze und die Wirtschaft, sondern werden wahrscheinlich auch langfristige Verschiebungen in den Arbeitsmodellen bewirken. Die wirtschaftlichen Folgen sind beträchtlich, einschließlich des Verlusts an Arbeitsstunden und eines Rückgangs des weltweiten Bruttoinlandsprodukts (BIP), dessen ganzes Ausmaß erst nach Ende der Pandemie ermessen werden kann.

Forschende des Max-Planck-Instituts für Bildungsforschung haben die Wirksamkeit verschiedener Maßnahmen zur Pandemieeindämmung anhand datenbasierter Simulationen untersucht. Indem sie sich auf berufsbezogene Maßnahmen fokussierten und detaillierte Daten über die Verteilung der Arbeitskräfte über Berufe, Löhne und ihrer physischen Nähe zum Arbeitsplatz verwendeten, konnten sie die wirtschaftlichen und epidemiologischen Auswirkungen bestimmter Eindämmungsstrategien modellieren.

„Wir haben simuliert, wie sich Krankheiten wie COVID-19 über die Gruppe von Erwerbstätigen ausbreiten und nicht nur über die gesamte Bevölkerung hinweg. Das ist eine Vereinfachung, die sonst oft gemacht wird, erklärt Co-Autor der Studie Alex Rutherford. Er ist Senior Research Scientist und Principal Investigator am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. „Wir konnten feststellen, dass sich die Art der Arbeit stark auf den Ausgang der Pandemie auswirkt.“

Die Forschungsgruppe nutzte öffentlich zugängliche Daten über Arbeitsplätze, um jedem Beruf einen „Proximitätswert“ zuzuordnen. Diese Zahl gibt an, mit wie vielen Personen ein Arbeitnehmender wahrscheinlich in Kontakt kommen wird. Daraus erstellten sie ein „Kontaktnetzwerk“, anhand dessen ersichtlich wird, wie sich eine Infektionskrankheit wie COVID-19 von Mensch zu Mensch ausbreitet.

Die Daten stammen aus der Stadt New York, die als modellhaftes, urbanes Umfeld betrachtet wird, und umfassen sowohl berufliche Angaben als auch Daten aus öffentlichen Datenbanken, wie dem „Occupational Information Network“ (O*NET), das Berufsdaten sowie statistische und wirtschaftliche Informationen aus den USA erfasst. Solche Datenkategorien spielen bei der Konzeption von Maßnahmen zur Pandemiebekämpfung nur selten eine Rolle. Anhand von Daten zu Gehältern, der Anzahl der Personen einer bestimmten Berufsgruppe in New York und deren Möglichkeit von zu Hause aus zu arbeiten, ermittelte das Team die sozialen und wirtschaftlichen Auswirkungen einzelner Maßnahmen zur Pandemiebekämpfung. Die sozialen Auswirkungen messen sich an der Anzahl der Menschen, die infiziert wurden. Die wirtschaftlichen Kosten ergeben sich daraus, wie viele Menschen beurlaubt werden und ihr Gehalt nicht beziehen können, weil sie nicht von zu Hause arbeiten können.

Die Forschenden verglichen, wie effektiv verschiedene Maßnahmen zur Kontaktreduzierung waren, um die Auswirkungen der Epidemie zu verringern – sozial wie wirtschaftlich. Diese reichten von keiner Intervention bis hin zu sehr komplexen Maßnahmen auf Basis der Struktur des Kontaktnetzwerks der jeweiligen Berufsgruppe.

„Unsere Ergebnisse zeigen, dass die Struktur des Kontaktnetzwerks die Krankheitsdynamik auf nicht unerhebliche Weise stark beeinflusst“, sagt Demetris Avraam, Hauptautor der Studie und Postdoktorand am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Beispielsweise kann die Beurlaubung eines kleinen Teils der Arbeitnehmenden dazu führen, dass das Kontaktnetzwerk so beschnitten wird, dass die Infektionszahlen auf niedrigem Niveau über einen längeren Zeitraum stagnieren. Dies kann perspektivisch kostspieliger sein, da die Pandemie länger andauert. Intuitive Strategien wie Beurlaubung von Arbeitnehmenden auf der Grundlage ihrer Notwendigkeit, nach Lohn oder nach dem Zufallsprinzip schnitten auf dieser Grundlage schlecht ab. Im Gegensatz dazu sind netzwerkbasierte Metriken wie Grad und Zentralität in der Lage, den Höhepunkt der Infektion zu reduzieren (Abflachung der Kurve) und auch die Epidemie zu verkürzen.

Die Forschenden fanden heraus, dass die grundlegende Strategie der Entfernung von Arbeitnehmenden entsprechend der Anzahl ihrer engen persönlichen Kontakte ungefähr die gleiche Leistung erbringt wie komplexere Metriken, die auf der vollständigen Netzwerkstruktur oder anderen beruflichen Merkmalen basieren.

„In der Praxis ließe sich die Anzahl der Kontakte einfach mit einer Smartphone-App abschätzen, die die Bluetooth-Nähe zu anderen Endgeräten schätzt, ohne die IDs zurückzuverfolgen,“ sagt Manuel Cebrian, Mitautor der Studie und Leiter der Gruppe Digitale Mobilisierung am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Er hat unter anderem erforscht, wie Smartphone-Daten und Tracing-Apps zur Pandemiebekämpfung eingesetzt werden können.

Die COVID-19-Pandemie hat viele tiefgreifende gesellschaftliche Veränderungen verursacht, die auch nach deren Abklingen wahrscheinlich nicht rückgängig gemacht werden können. Dazu gehören enorme Veränderungen in der Nachfrage in allen Sektoren, die großflächige Einführung von Fernarbeit und das Infragestellen tief verwurzelter Verständnisse von Arbeitsplätzen. Dies hat auch Auswirkungen auf die zukünftige Automatisierung von Arbeitsplätzen. Automatisierungsprozesse werden zunehmend in Berufen eingesetzt, die mit einer großen Anzahl an Kontakten einhergehen. Zum Beispiel sind Online-Konsultationen mit Ärzt*innen oder Online-Trainings in Sport und Bildung auf dem Vormarsch.

Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Avraam, D., Obradovich, N., Pescetelli, N., Cebrian, M., & Rutherford, A. (2021). The network limits of infectious disease control via occupation-based targeting. Scientific Reports, 11, Article 22855. https://doi.org/10.1038/s41598-021-02226-x

Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/umdenken-bei-der-bekaempfung-von-…

(nach oben)


Entscheidende Phase für erfolgreichen Wasserstoff-Markthochlauf

Simone Angster Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Wie stellen sich Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung die künftige Wasserstoffwirtschaft in Deutschland vor? Eine neue Umfrage von acatech – Deutsche Akademie der Technikwissenschaften und der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. gibt nun Antworten. Die beiden Projektpartner präsentierten heute erste Ergebnisse der Öffentlichkeit – und gaben eine Prognose ab: Laut einer wissenschaftlichen Metaanalyse wird der Wasserstoffbedarf im Jahr 2030 um ein Vielfaches höher sein als die inländischen Erzeugungskapazitäten.

Herkunftsnachweise für klimaverträglichen Wasserstoff sind laut Aussage einer Mehrheit von Expertinnen und Experten ein zentraler fördernder Faktor für den Hochlauf der Wasserstoffwirtschaft in Deutschland. Das geht aus der Umfrage „Wasserstoffwirtschaft 2030/2050: Ziele und Wege“ von acatech und DECHEMA unter knapp 600 Vertreterinnen und Vertretern aus Wissenschaft, Wirtschaft, NGOs und öffentlicher Verwaltung hervor. Die Studie ist Teil des Kooperationsprojekts „Wasserstoff-Kompass“. Erste Ergebnisse stellten die Projektpartner schon heute in einer Online-Konferenz vor, bevor im März die Publikation aller Umfrageergebnisse erfolgt.

Als Keynote zu Beginn der Konferenz sprachen Judith Pirscher, Staatssekretärin im Bundesministerium für Bildung und Forschung, und Patrick Graichen, Staatsekretär im Bundesministerium für Wirtschaft und Klimaschutz. Sie machten deutlich: Die aktuelle Legislaturperiode ist entscheidend, um die Rahmenbedingungen für eine wettbewerbsfähige Wasserstoffwirtschaft in Deutschland zu schaffen. Staatssekretärin Pirscher betonte: „Wir setzen beim Klimaschutz auf Technologien, nicht auf Verzicht. Grüner Wasserstoff ist deshalb ein Schlüsselelement für das Erreichen unserer ambitionierten Klimaziele. Gleichzeitig bieten Wasserstofftechnologien enorme Chancen für neues Wachstum und Exportmärkte und für gute Jobs. Um diese Chancen zu nutzen, brauchen wir einen massiven Innovationsschub. Das Bundesministerium für Bildung und Forschung steht mit seiner technologieoffenen Forschungsförderung für diesen Innovationsschub.“ Staatssekretär Graichen unterstrich: „Forschung und Innovation für die Energiewende und den Klimaschutz sind ein strategisches Element unserer Klima- und Energiepolitik. Wir brauchen einen Hochlauf von Wasserstoff in den No-regret-Anwendungen. Dafür müssen wir wissen, wie eine klug ausgerichtete und anwendungsorientierte Energieforschung aussieht, die dazu beiträgt, Technologiekosten zu senken.“

Wasserstoff-Markthochlauf: Unzureichende Flächen für erneuerbare Energien als Hemmnis
Um den Markthochlauf anzustoßen, sind aus Sicht der Befragten neben Herkunftsnachweisen für klimaverträglichen Wasserstoff weitere Maßnahmen notwendig. Unter anderem solle der für die Wasserstofferzeugung eingesetzte Strom von staatlichen Preisbestandteilen weitestgehend befreit werden. Überdies sind nach Meinung der Befragten staatliche Zuschüsse für Wasserstoffprojekte vonnöten. Die Umfrageergebnisse weisen außerdem auf zentrale Hemmnisse für eine großskalige Erzeugung von klimaneutralem Wasserstoff in Deutschland hin: 59 Prozent der Befragten sehen die hohen Investitions- und Unterhaltskosten als hinderlich für die Wirtschaftlichkeit von Produktionsanlagen. Ebenfalls 59 Prozent der Befragten betrachten die unzureichenden Flächen für Erneuerbare-Energien-Anlagen als zentralen Hemmschuh. Um Wasserstoff als Energieträger zu etablieren, braucht es aus Sicht der Befragten auch akzeptanzfördernde Maßnahmen, insbesondere für den Ausbau erneuerbarer Energien, in Bezug auf das Thema Sicherheit bei der Wasserstofferzeugung und -nutzung sowie für neue Wasserstoff-Transport-Infrastrukturen.

„Unsere Umfrageergebnisse verdeutlichen, dass Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung einen sehr ähnlichen Blick auf Treiber und Hemmnisse für den Wasserstoff-Markthochlauf haben“, resümierte Prof. Dr.-Ing. Jan Wörner, acatech-Präsident. „Diese Ergebnisse sind ein wichtiger Anhaltspunkt bei der Erstellung einer Wasserstoff-Roadmap auf Basis der demnächst überarbeiteten Nationalen Wasserstoff-Strategie. Diese Wasserstoff-Roadmap kann nur erfolgreich sein, wenn sie auf einen ebenso koordinierten wie flexiblen Instrumenten-Mix abzielt. So können zeitgleich und schnell Erzeugung, Transport- und Speicherinfrastrukturen wie auch Anwendungsbereiche entstehen.“

Wasserstoffmarkt 2030: große Differenz zwischen inländischer Erzeugung und Nachfrage
acatech und DECHEMA erarbeiten derzeit eine Metaanalyse, in der sie fortlaufend Studien und Strategiepapiere zum Thema Wasserstoff auswerten. Heute präsentierten sie einen ersten Zwischenstand zu den Bereichen Mobilität, Stahlindustrie, chemische Industrie sowie zur Wasserstoff-Erzeugungskapazität in Deutschland. Die Auswertung weist bislang Elektrolyseprojekte aus, die 2030 eine Gesamtkapazität von ca. fünf Gigawatt haben werden. Im Koalitionsvertrag hat sich die neue Bundesregierung auf ein Elektrolysekapazitätsziel von 10 Gigawatt bis 2030 verständigt. Allerdings zeigt die Metaanalyse des Wasserstoff-Kompasses: Selbst bei optimistischen Annahmen der Laststunden und bei Erreichen der politischen Zielsetzung, werden die bis 2030 aufgebauten heimischen Kapazitäten nicht ausreichen, um den Minimalbedarf von etwa 50 Terawattstunden zu decken. „Nachhaltiger Wasserstoff wird in den nächsten Jahren eine knappe Ressource bleiben, die einem wachsenden Bedarf gegenübersteht“, folgerte Klaus Schäfer, Vorstandsvorsitzender der DECHEMA. „Um zukünftig Nachfrage und Angebot in Einklang zu bringen, ist es unverzüglich notwendig, die richtigen politischen Weichen zu stellen. Dabei stehen der Politik verschiedene Handlungsoptionen zur Verfügung. Mit dem Projekt Wasserstoff-Kompass tragen wir dazu bei, die ökologischen, ökonomischen und gesellschaftlichen Aspekte der verschiedenen politischen Handlungsoptionen aufzuzeigen.“

Über das Projekt Wasserstoff-Kompass
acatech und DECHEMA führen seit Juni 2021 das zweijährige Projekt Wasserstoff-Kompass durch. Gemeinsam erarbeiten sie mithilfe einer Metaanalyse einen Überblick über verschiedene Entwicklungspfade für den Markthochlauf sowie entsprechende Handlungsoptionen mit ihren jeweiligen Vor- und Nachteilen. Weiterhin organisiert der Wasserstoff-Kompass einen Dialog mit Stakeholdern aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft, um deren Sichtweisen einzuholen und auf ein gemeinsames Zielbild einer deutschen Wasserstoffwirtschaft hinzuwirken. Die Projektergebnisse kann die Politik für die Erarbeitung ihrer Wasserstoff-Roadmap nutzen. Das Projekt Wasserstoff-Kompass wird vom Bundesministerium für Bildung und Forschung sowie vom Bundesministerium für Wirtschaft und Klimaschutz gefördert.

Im März 2022 veröffentlichen acatech und DECHEMA ihren vollständigen Bericht zu den Umfrageergebnissen. Ausgewählte Ergebnisse der Umfrage stellen acatech und DECHEMA Ende Februar 2022 als Kurz-Dossier auf wasserstoff-kompass.de zum Download bereit.

Kontakt für weitere Informationen:
Alena Müller, Referentin Presse- und Öffentlichkeitsarbeit
acatech – Deutsche Akademie der Technikwissenschaften
Tel.: 030/2 06 30 96-33
mueller@acatech.de

Simone Angster, Leitung Kommunikation
DECHEMA e.V.
Tel. +49 69 7564-540
simone.angster@dechema.de

Weitere Informationen:
https://www.wasserstoff-kompass.de/

(nach oben)


Blutfette geben neue Einblicke in den Zusammenhang von Ernährung mit Diabetes und Herz-Kreislauf-Erkrankungen

Birgit Niesing Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung
Typ-2-Diabetes und Erkrankungen des Herzkreislaufsystems gehen Veränderungen im Stoffwechsel voraus. Eine aktuelle Studie des DZD und DIfE deutet darauf hin, dass bestimmte Fettmoleküle (Ceramide), die im Stoffwechsel gebildet werden, an der Entstehung von Typ-2-Diabetes und CVD beteiligt sind. Die Studie stellt ausserdem einen Zusammenhang zwischen ungesunder Ernährung und nachteiligen Ceramidwerten im Blut her. Das könnte zum Beispiel erklären, warum das Diabetesrisiko durch häufigen Verzehr von rotem und verarbeitetem Fleisch erhöht. Als potenzielle Biomarker könnten Ceramide präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.

Ungesundes Essen kann zur Entstehung von Herzinfarkten, Schlaganfällen und Typ-2-Diabetes (kardiometabolische Erkrankungen) beitragen. Doch welche biochemischen Prozesse hier zugrunde liegen, ist bisher nicht genau bekannt. Moderne Messverfahren ermöglichen es, gleichzeitig eine große Anzahl von Stoffwechselprodukten im Blut zu messen und liefern dadurch umfassende Stoffwechselprofile in großen Studiengruppen. Dabei zeigt sich, dass bestimmte Fettmoleküle, die Ceramide und Dihydroceramiden, kritische Faktoren für die langfristige kardiometabolische Gesundheit sein könnten. Ausserdem beeinflusst die Ernährung die Zusammensetzung der Ceramide und Dihydroceramide.
Umfassende Untersuchungen zum Einfluss der Ernährung auf die Ceramidwerte im Blut und moögliche Auswirkung auf die Entstehung von kardiometabolischen Erkrankungen im Menschen fehlten bislang. Die Forschenden haben daher mehrere Tausend Teilnehmer:innen der EPIC-Potsdam-Studie** über mehrere Jahre beobachtet, um zu prüfen, ob man anhand von bestimmten, durch die Ernährung beeinflusste Ceramiden das Auftreten von kardiometabolischen Erkrankungen vorhersagen kann. Die Studie wurde unter Leitung des Deutschen Instituts für Ernährungsforschung (DIfE) durchgeführt und vom Deutschen Zentrum für Diabetesforschung (DZD) und dem BMBF-geförderten Projekt „FAME“*** unterstützt. Die Studienergebnisse zeigen, dass Ceramidprofile Einblicke in die Entwicklung von kardiometabolischen Erkrankungen bieten und das Verständnis vom Einfluss der Ernährung auf das Krankheitsrisiko verbessern können.

Erstellen von Ceramid-Profilen
Zu Beginn der Studie gaben alle Teilnehmer:innen Auskunft über ihre Ernährung und stellten Blutproben zur Verfügung. Die Probanden hatten weder Typ-2-Diabetes noch Herz-Kreislauf-Erkrankungen. In den folgenden Jahren entwickelten etwa 550 Proband:innen Herzkreislauferkrankungen und knapp 800 erkranketen an Typ-2-Diabetes. Mithilfe einer neuartigen analytischen Plattform – s.g. Lipidomics – erstellten die Forschenden Profile der Ceramide und Dihydroceramide im Blut der EPIC-Potsdam-Teilnehmer:innen.

Bestimmte Ceramide vermitteln nachteilige Auswirkung von ungesundem Essen
Die Forschenden untersuchten darüber hinaus, ob krankheitsrelevante Ceramide und Dihydroceramide auch mit dem Verzehr von Lebensmitteln in Verbindung stehen. „Menschen, die viel Fleisch essen, haben ein höheres Diabetesrisiko. Wir konnten jetzt erstmals zeigen, dass ein hoher Verzehr von rotem und verarbeitetem Fleisch mit ungünstigen Spiegeln diabetesbezogener Ceramide verbunden war. Unsere Ergebnisse legen nahe, dass der Zusammenhang von Fleischverzehr und Diabetesrisiko durch den Einfluss auf Ceramidspiegel im Blut vermittelt werden könnte“, berichtet Erstautor Clemens Wittenbecher, Mitarbeiter der Abteilung Molekulare Epidemiologie am DIfE und der Harvard T.H. Chan School of Public Health. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE und Letztautor der Studie ergänzt: „Detaillierte Stoffwechselprofile in grossen Kohortenstudien helfen uns, den Zusammenhang zwischen Ernährung und Krankheitsrisiko besser zu verstehen. Das trägt letzendlich zu evidenzbasierten und genaueren Ernährungsempfehlungen bei.“

Studie eröffnet neue Präventionsansätze
Kardiometabolische Erkrankungen wie Herzinfarkt, Schlaganfall und Typ-2-Diabetes sind weltweit für mehr als ein Drittel der Todesfälle verantwortlich. Die Ergebnisse der aktuellen Studie identifizierten bestimmte Ceramide als potenzielle Biomarker für den Zusammenhang zwischen Ernährung und Krankheitsrisiko und könnten so präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.

Original-Publikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1

*Ceramide sind eine Untergruppe der Sphingolipide, die wichtige Bestandteile von Zellmembranen sind und als Signalmolekuele wirken. Sie beeinflussen verschiedene Stoffwechselprozesse, darunter auch die Insulinempfindlichkeit und Entzuendungsreaktionen. Ceramide könnten an der Pathogenese von Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen beteiligt sein.

Die EPIC-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie und Teil der internationalen EPIC-Studie. Sie umfasst ca. 27.500 Teilnehmende. Zu Beginn der Studie im Jahr 1994 waren die Frauen im Alter von 35 bis 64 Jahren und die Männer im Alter von 40 bis 64 Jahren. Die EPIC-Potsdam-Studie dient mit ihrer umfangreichen Datenbasis als Grundlage für bevölkerungsbasierte epidemiologische Forschung am DIfE. Die Forschungsergebnisse tragen dazu bei, die wissenschaftliche Grundlage für mögliche Präventionsmaßnahmen zu schaffen und die Gesundheit der Bevölkerung zu verbessern. https://www.dife.de/forschung/kooperationen/epic-studie/

Das Verbundprojekt FAME („Fettsäuremetabolismus als Marker für Ernährung und kardiometabolische Gesundheit“) wurde im Rahmen der europäischen Programminitiative „Eine gesunde Ernährung für ein gesundes Leben“ (JPI HDHL) durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert. In dieser Initiative arbeiten EU-Mitgliedsstaaten, assoziierte Staaten sowie Kanada und Neuseeland zusammen, um die Ernährungsforschung über Ländergrenzen hinweg zu bündeln und zu stärken. Ziel der transnationalen Fördermaßnahme „Biomarker für Ernährung und Gesundheit“ der JPI HDHL ist es, neue Biomarker zu identifizieren, die den Ernährungszustand erfassen und damit zur Aufklärung der Zusammenhänge zwischen Ernährung und Gesundheit beitragen können. Neben dem DIfE sind die Universitäten Navarra und Cordoba (Spanien) sowie Reading und East Anglia (Großbritannien) am FAME-Verbund beteiligt.
https://fame.dife.de/

Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner.

Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Schulze
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Leiter der Abteilung Molekulare Epidemiologie

Tel.: + 49 33 200 88 – 2434
E-Mail: mschulze@dife.de

Originalpublikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1

(nach oben)


Weltwassertag am 22. März – Genug trinken: Reicht der Durst als Signalgeber?

Dr. Andreas Mehdorn Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Ausreichend Wasser zu trinken, regt den Stoffwechsel an, sorgt für eine funktionierende Verdauung und kann hohen Blutdruck senken. Der tägliche Flüssigkeitsbedarf ist individuell unterschiedlich und hängt von Faktoren wie dem Körpergewicht, Alter, Gesundheitszustand und der physischen Belastung ab. Gerade wer an Erkrankungen wie Diabetes, Gicht oder Herzschwäche leidet, sollte gut auf eine angemessene Trinkmenge achten, rät die Deutsche Gesellschaft für Innere Medizin e.V. (DGIM) anlässlich des Weltwassertags am 22. März.

Eine zu geringe wie auch eine zu hohe Flüssigkeitszufuhr können – je nach Gesundheitszustand – gleichermaßen schädlich sein, warnen die Experten der Fachgesellschaft, die Ende April 2022 in Wiesbaden ihren Kongress abhalten, bei dem sie das dort derzeit gefeierte „Jahr des Wassers“ aufgreifen.

Der menschliche Körper besteht zu rund 70 Prozent aus Wasser, das Blut sogar zu über 90 Prozent. Aufwändige Regelmechanismen sorgen dafür, dass diese Werte auch bei wechselnden Temperaturen und unterschiedlichen körperlichen Belastungen weitgehend konstant bleiben. Die augenscheinlichsten: Die produzierte Harnmenge – erkennbar am Harndrang – und das Durstgefühl. „Bei gesunden Menschen spricht nichts dagegen, sich im Großen und Ganzen auf das Durstgefühl zu verlassen“, sagt der Gastroenterologe und DGIM-Vorsitzende Professor Dr. med. Markus M. Lerch. So ergeben sich meist von selbst Trinkmengen von eineinhalb bis zwei Litern täglich – wobei feuchte Nahrungsmittel wie Suppen, Obst und Gemüse durchaus mitgerechnet werden dürfen, erläutert Lerch, der zugleich Ärztlicher Direktor am LMU Klinikum München ist.

Einige Faktoren können jedoch dafür sorgen, dass auf den Durst als Ratgeber nicht mehr uneingeschränkt Verlass ist. Einer davon ist das Alter. „Bei älteren Menschen lässt das Durstempfinden deutlich nach“, so Lerch. Ältere blieben daher oft unter der Zielmarke von eineinhalb Litern und sollten sich ab und zu bewusst ein Glas Wasser einschenken. Auch Menschen mit Diabetes wird eher zu einer leicht erhöhten Trinkmenge geraten, um die Zuckerausscheidung über die Niere zu unterstützen. Und nicht zuletzt sollten Menschen, die Medikamente zur Entwässerung einnehmen und daher besonders viel Harn bilden, auf eine ausreichende Trinkmenge achten.

Warnzeichen für einen Flüssigkeitsmangel ist zunächst eine Dunkelfärbung des Urins, der konzentriert und in geringerer Menge ausgeschieden wird. Auch der Stuhl kann fester werden und Verstopfungsbeschwerden auslösen. „Gerade an heißen Tagen kann sich der Flüssigkeitsmangel verschärfen und kritisch werden, was sich durch Herzrasen, Verwirrtheit und Kreislaufschwäche bis hin zur Ohnmacht äußert“, erklärt Professor Dr. med. Georg Ertl, Internist, Kardiologe und Generalsekretär der DGIM. Unter Dehydrierung leiden auch die Nieren, im schlimmsten Fall kommt es zum akuten Nierenversagen.

Lebt man also umso gesünder, je mehr man trinkt? „Diesen Umkehrschluss darf man nicht ziehen“, mahnt DGIM-Experte Ertl. Bei gewissen Krankheiten können große Trinkmengen sogar schädlich sein. „Das ist etwa bei Patienten mit fortgeschrittener Herzschwäche der Fall, bei denen zu viel Flüssigkeit das Herz über Gebühr belastet“, so Kardiologe Ertl. Auch Nierenerkrankungen wie die chronische Niereninsuffizienz können es erforderlich machen, die Trinkmenge zu verringern. Der Flüssigkeitshaushalt ist zudem untrennbar verwoben mit dem Mineralhaushalt des Körpers. Und auch hier gilt: Wer zu viel trinkt, riskiert unter Umständen einen Mangel an Elektrolyten. Diese Gefahr besteht besonders dann, wenn gleichzeitig wenig oder gar nichts gegessen wird – wie es bei manchen Fastenkuren oder bei einer Essstörung der Fall sein kann. „Auch Sportler oder Menschen, die körperlich arbeiten und mit dem Schweiß viele Elektrolyte verlieren, können ihren Mineralhaushalt durch große Trinkmengen in Schieflage bringen“, sagt Ertl. Statt Leitungswasser sollte der Durst dann lieber mit einer Saftschorle oder einem alkoholfreien Bier gestillt werden.

Ihr Kontakt für Rückfragen:
DGIM Pressestelle
Dr. Andreas Mehdorn
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-313
Fax: 0711 8931-167
E-Mail: mehdorn@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev

(nach oben)


Tippen mit beiden Händen beugt dem Handydaumen vor

Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.
Tag der Hand am 1. März: Macht uns das Handy krank?
Häufiges Tippen auf dem Smartphone kann zu einem schmerzhaften Handydaumen führen. Um das zu vermeiden, empfehlen Orthopäden und Unfallchirurgen beide Daumen beim Tippen zu verwenden. „Für die meisten ist das Handy nicht mehr aus dem Alltag wegzudenken. Immer wieder führt das viele Schreiben von Nachrichten zu schmerzhaften Entzündungen der Sehnen am Daumen.

Die Beachtung einiger Regeln beugt chronischem Schmerz vor“, sagt Prof. Dr. Andreas Halder, stellvertretender Präsident der Deutschen Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) sowie Ärztlicher Direktor und Chefarzt der Klinik für Operative Orthopädie der Sana Kliniken Sommerfeld anlässlich des Tags der Hand am 1. März.

Knapp vier Stunden beträgt die durchschnittliche tägliche Handyzeit aller Nutzer in Deutschland. Der Daumen fliegt dabei pausenlos auf dem Display hin und her. Dass die Hand das mitmacht, erscheint uns selbstverständlich. Der Daumen ist jedoch von der Natur dafür gemacht, das Zugreifen der Hand zu unterstützen und das Umschließen zu ermöglichen. „Eine kräftige Beugung des Daumens ist dabei natürlich, eine Streck- oder Abspreizbewegung wie bei der Handy-Nutzung auf Dauer jedoch nicht“, sagt Halder. Der Zusammenhang zwischen dem Vieltexten auf dem Mobiltelefon und Entzündungen der Sehnenscheiden des langen Daumenstreckers und -spreizers ist wissenschaftlich belegt. So ist das Entzündungsrisiko bei intensiver Nutzung fast siebenfach erhöht. Wird der Daumen dann nicht geschont, wird der Schmerz chronisch und dehnt sich auf Greifbewegungen mit der ganzen Hand aus. Selbst das Auf- und Zuknöpfen von Kleidung kann dann Probleme bereiten.

Orthopäden und Unfallchirurgen geben 5 Tipps zur Vermeidung eines Handydaumens:
1) besser beide Daumen als nur einen verwenden, um die Belastung zu mindern
2) bei langer Smartphone-Nutzung Pausen und Dehnübungen einbauen
3) ab und an im Stehen zu tippen, denn das ist für den Daumen weniger anstrengend als im Sitzen
4) zur Abwechslung Sprachnachrichten schicken, statt zu schreiben
5) beim Schreiben im Sitzen möglichst den Unterarm auflegen

Was passiert aus orthopädischer Sicht genau, wenn es zu einem Handydaumen kommt? Generell gilt: Je schneller wir tippen, desto eher überlasten wir die Gelenke und Sehnen. Benutzen wir nur eine Hand, muss sich der Daumen oft quer über das ganze Display strecken, um Buchstaben und Zahlen zu erreichen. Je größer das Display, desto anstrengender wird es für den Daumen. Deshalb haben es Menschen mit kleinen Händen schwerer. Sie müssen das Handy häufiger kippen und zeigen beim Tippen mehr Muskelaktivität im Daumenstrecker. Sind die Tasten auf dem Display zudem klein, muss der Daumen steiler gehalten werden. Das heißt, er muss mehr gebeugt werden, um genau zu treffen, was wiederum die Daumenbeuger stärker beansprucht. Interessanterweise ist das Tippen im Stehen für den Daumen weniger anstrengend als im Sitzen, wahrscheinlich weil das Handgelenk mehr Bewegungsfreiheit hat. Im Sitzen wird das Tippen für den Daumen erst leichter, wenn der Unterarm aufliegen kann. Jugendliche halten das Handy lockerer in der Hand als Ältere und erlauben so mehr Bewegungsspiel in den Daumengelenken.

Doch wie macht sich ein Handydaumen bemerkbar? „Eine Überbelastung durch zu häufiges Strecken und Abspreizen des Daumens verursacht Schmerzen auf der Daumenseite des Handgelenks. Diese entstehen durch eine Sehnenscheidenentzündung und sind vor allem bei der Tippbewegung des Daumens spürbar“, sagt Dr. Thomas Brockamp aus der Sektion Prävention der DGOU, er ist Handchirurg in Münster. Ein einfacher Selbsttest, der sogenannte Finkelstein-Test, gibt einen Hinweis: Typischerweise wird der Schmerz verstärkt, wenn man den Daumen in die Handfläche legt und die Hand in Richtung Kleinfinger beugt. Der Arzt kann in schweren Fällen zusätzlich eine Ultraschall- oder MRT-Untersuchung veranlassen.

Doch was tun, wenn es zu Schmerzen im Daumen kommt? „Die gute Nachricht ist, dass in den allermeisten Fällen keine Operation nötig ist. Der Arzt kann Physiotherapie verordnen, ein Schmerzmittel oder eine Kortisoninjektion geben“, sagt Brockamp. Oftmals reicht es aber schon aus, das eigene Verhalten am Handy zu ändern, was aber gerade für intensive Handynutzer nicht leicht ist. Die wichtigste Maßnahme ist die Schonung des Daumens und der Hand, indem die Handynutzung reduziert wird. Pausen zwischendurch sind daher ebenso wichtig wie bewusst die Tippgeschwindigkeit zu verringern. Dabei sollten besser beide Daumen als nur einer verwendet werden, um die Belastung des einzelnen zu mindern. Schließlich kann es helfen, den Daumen und das Handgelenk zu dehnen, um die Sehnen zu lockern.

Hintergrund
Mehr als 62 Millionen Handys gibt es in Deutschland und fast 98 Prozente der Haushalte besitzen eins. Und die Nutzung fängt früh an: 94,2 Prozent der 14- bis 19-jährigen Jugendlichen haben bereits ein Smartphone, bei Erwachsenen sind es sogar mehr. Schon vor der Corona-Pandemie nutzten deutsche Jugendliche zwischen 16 und 18 Jahren das Handy im Schnitt knapp 36 Stunden pro Woche. Die durchschnittliche tägliche Handyzeit aller Nutzer liegt bei 229 Minuten, also knapp vier Stunden.

Referenzen:
• Ali, M., Asim, M., Danish, S. H., Ahmad, F., Iqbal, A., & Hasan, S. D. (2014). Frequency of De Quervain’s tenosynovitis and its association with SMS texting. Muscles Ligaments Tendons J, 4, 74-78.
• Gustafsson, E., Johnson, P. W., & Hagberg, M. (2010). Thumb postures and physical loads during mobile phone use – a comparison of young adults with and without musculoskeletal symptoms. Journal of Electromyography and Kinesiology, 20, 127-135.
• Gustafsson, E., Johnson, P. W., Lindegård, A., & Hagberg, M. (2011). Technique, muscle activity and kinematic differences in young adults texting on mobile phones. Ergonomics, 54, 477-487. Otten, E. W., Karn, K. S., & Parsons, K. S. (2013). Defining thumb reach envelopes for handheld devices. Hum Factors, 55, 48-60.
• Park, Y. S., & Han, S. H. (2010b). Touch key design for one-handed thumb interaction with a mobile phone: Effects of touch key size and touch key location. International Journal of Industrial Ergonomics, 40, 68-76.
• Xiong, J., & Muraki, S. (2014). An ergonomics study of thumb movements on smartphone touch screen. Ergonomics, 57, 943-955.
• Xiong, J., & Muraki, S. (2016). Effects of age, thumb length and screen size on thumb movement coverage on smartphone touchscreens. International Journal of Industrial Ergonomics, 53, 140-148.
• Postbank Jugend-Digitalstudie 2019

Kontakt für Rückfragen:
Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -16 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Weitere Informationen:
http://www.dgou.de

(nach oben)


Praxiseinstieg in digitale Ökosysteme am Beispiel Gaia-X

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO bietet Orientierungshilfe für Anbieter von Produkten und Dienstleistungen

Anbietern von Produkten und Dienstleistungen fehlt es an Wissen, praktischen Werkzeugen und etablierten Standards zu einem sicheren, vertrauensvollen und interoperablen Datenaustausch und der Bereitstellung digitaler Services. Das Fraunhofer IAO gibt in einer Publikation mit einem Anwendungsfall einen methodischen Einstieg sowie Handlungsoptionen für eine strategische Positionierung in digitalen Ökosystemen.

Im Zeitalter der Digitalisierung und Plattformökonomie haben sich in den letzten Jahren neue digitale, datenbasierte Wertschöpfungsnetzwerke gebildet. Daten und ihre ökonomischen Auswirkungen durchdringen alle Bereiche der Wirtschaft und bis 2025 rechnet die Europäische Kommission mit einer weltweiten Zunahme des Datenvolumens um mehr als das Fünffache. Dadurch steigt auch für Anbieter von Produkten und Dienstleistungen die Bedeutung einer Teilhabe an digitalen Daten- und Serviceplattformökosystemen. Vielen Anbieterunternehmen fehlen jedoch noch die notwendigen Ressourcen und das entsprechende Know-how zu Digitalisierung und Daten.

Lösungskonzepte, Normen und Standards führender Initiativen können eine gute Grundlage zur wettbewerbsfähigen Teilhabe sein
Das Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg will diese Wissenslücken nun schließen. Es fördert deshalb die nun erschienene Publikation »Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke Gaia-X«, die gemeinsam von Wissenschaftler*innen des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO, des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA, des Fraunhofer-Instituts für Software- und Systemtechnik ISST, dem Institut für Enterprise Systems (InES) an der Universität Mannheim, der bwcon research gGmbH, der Virtual Fort Knox AG sowie der incontext.technology GmbH erstellt wurde. Die Publikation entstand im Ergänzungsprojekt des Förderprojekts Cloud Mall BW mit dem Fokus auf digitale Daten- und Serviceökosysteme.

»Gerade für Service-Anbieter gibt es aktuell enorme Herausforderungen mit dem Umgang und der strategischen Positionierung hinsichtlich digitaler Wertschöpfungsnetzwerke. Viele Fragen bezüglich Datensouveränität, Interoperabilität, Vertrauen und Sicherheit sind derzeit noch ungeklärt«, sagt Sandra Frings, Projektleiterin Cloud Mall BW am Fraunhofer IAO und Mitautorin der Publikation. Führende Initiativen und Leuchtturmprojekte wie beispielsweise Gaia-X oder die International Data Space Association haben sich in den vergangenen Jahren gebildet mit dem Ziel, Lösungskonzepte, Normen und Standards zu erarbeiten, auf denen Unternehmen zukunftsfähige Produkte aufbauen können. In der Publikation hat das Expert*innenteam am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion (KIEP)« im Rahmen von Workshops einen kooperativen Geschäftsmodellansatz, ein Wertschöpfungsnetzwerk und eine IT-Architektur unter Berücksichtigung der Gaia-X-Spezifikationen konzipiert. Die gewonnenen Erkenntnisse und daraus abgeleitete Handlungsoptionen sowie eine Übersicht über wesentliche Initiativen sollen Anbieterunternehmen als Orientierungshilfe im Aufbau von digitalen Ökosystemen als Werkzeuge an die Hand gegeben werden.

Handlungsempfehlungen für den Praxistransfer: Entwicklung eines Nutzenszenarios und fundierte Einarbeitung
Um einen erfolgreichen Transfer in die Praxis zu ermöglichen, ist laut den Expert*innen die gemeinsame Entwicklung eines Nutzenszenarios mit einem schlagkräftigen Kern an Partnerunternehmern ein Erfolgsfaktor und wesentliche Grundlage für die Konzeptentwicklung. Die klare Herausarbeitung von Zielgruppen vereinfache die Identifizierung konkreter und entscheidender Nutzenvorteile für alle Stakeholder im Ökosystem. Ökosysteme auf föderativer Basis stellten in diesem Zusammenhang eine große Herausforderung dar, aber ermöglichten eine aktive und gleichberechtigte Partizipation insbesondere von kleinen und mittleren Anbietern von Produkten und Dienstleistungen an digitalen Wertschöpfungsnetzen. »Neulinge« in Daten- und Serviceökosystemen sollten Zeit zur Einarbeitung in die Thematik mitbringen. Denn eine gründliche Einarbeitung in die Dokumentationen und Terminologien wird dringend empfohlen, auf deren Basis eine gemeinsame Vision und Verständnis für technische Grundlagen entwickelt werden könne. So könnten auch die Möglichkeiten für eine Umsetzung der Strategien und Visionen von Ökosystemen realistisch eingeschätzt werden. Die nationalen und domänenspezifischen Gaia-X Hubs bieten eine Anlaufstelle, um die Einarbeitung und den Austausch mit anderen Interessierten zu erleichtern.

Im Rahmen der Arbeiten am Praxispilot stellten die Beteiligten fest, dass die Rollenverteilung und rollenspezifische Mechanismen in der Gaia-X-Spezifikation weiter detailliert und ausgebaut werden sollten. Insbesondere sollte mehr Transparenz für kleine und mittlere Unternehmen (KMU) bei der Umsetzung von Gaia-X-Netzwerken geschaffen werden. Ebenso sei es wichtig, dass die Inhalte der Gaia-X-Dokumente und Aktivitäten vor allem noch KMU-orientierter gestaltet werden. Gaia-X solle auch KMU-freundlichere Technologien und Methoden berücksichtigen. In diesem Zusammenhang sollte insbesondere die Partizipation und Zusammenarbeit der beteiligten Stakeholder überdacht und optimiert werden. Begleitend sei es mit diesem Hintergrund hilfreich, vielleicht sogar notwendig, dass Transferinitiativen des Mittelstands die Inhalte niederschwellig für KMU aufbereiten und vermitteln, um sie so besser auf eine Beteiligung vorzubereiten und die möglichen Vorteile zu verdeutlichen. Auf diese Weise könne Gaia-X auch bei KMU als strategische Option weiterentwickelt werden.

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Holger Kett
Leiter Team Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2415
holger.kett@iao.fraunhofer.de

Sandra Frings
Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2460
sandra.frings@iao.fraunhofer.de

Originalpublikation:
http://publica.fraunhofer.de/dokumente/N-645791.html

Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke
Gaia-X am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion«

Autor(en): Frings, Sandra; Kett, Holger; Härle, Julia; Meyer, Olga; Schel, Daniel; Himmelsbach, Timo; Halckenhäußer, André; Schleimer, Anna Maria; Spiekermann, Markus; Tordy, Robert; Junge, Jörg; Mordvinova, Olga; Waguet, Cyrille; Mietzner, Rudolf

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/praxiseinstieg-in-d…
https://cloud-mall-bw.de/

(nach oben)


Kohlenstoffspeicherung in Küstenökosystemen verbessern

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund sea4soCiety unter Beteiligung der LUH untersucht innovative Ansätze zur klimaregulierenden Wirkung in Deutschland und in den Tropen

Küstenökosysteme wie Mangrovenwälder, Seegraswiesen oder Algenwälder speichern riesige Mengen an Treibhausgasen aus der Atmosphäre. Das natürliche Potenzial der Kohlenstoffspeicherung in diesen vegetationsreichen Küstenökosystemen kann aber noch stark verbessert werden: Das ist das Ziel des Forschungsverbundes sea4soCiety, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Durch die Aufnahme von Kohlenstoff leisten diese Küstenbereiche einen entscheidenden Beitrag dafür, den Klimawandel zu bremsen. Maritime Ökosysteme können deutlich mehr Kohlenstoff speichern als Wälder an Land. Der gesamte Kohlenstoff, der in küstennahen Ökosystemen gespeichert ist, wird als blauer Kohlenstoff bezeichnet.

sea4soCiety will untersuchen, wie das Potenzial der Kohlenstoffspeicherung in diesen Küstenbereichen vergrößert werden kann, etwa durch Flächenerweiterungen. Dafür sollen in der dreijährigen Förderphase bis 2024 innovative und gesellschaftlich akzeptierte Ansätze entwickelt werden. Zusammengetan haben sich neun Forschungsinstitute (Koordination: Prof. Dr. Martin Zimmer, Leibniz-Zentrum für Marine Tropenforschung – ZMT). Die Leibniz Universität Hannover (LUH) ist mit dem Ludwig-Franzius-Institut für Wasserbau und Ästuar- und Küsteningenieurwesen beteiligt. Der Forschungsverbund wird die Speicherkapazität für blauen Kohlenstoff in vier verschiedenen Arten von Küstenökosystemen – Seegraswiesen, Mangroven, Algenwälder und Salzmarschen – an den deutschen Nord- und Ostseeküsten, in der Karibik und an indonesischen Küsten untersuchen und bewerten.

Die Wissenschaftlerinnen und Wissenschaftler des Ludwig-Franzius-Instituts untersuchen im Projekt schwerpunktmäßig, wie stabil diese Ökosysteme sind, wenn klimawandelbedingt häufigere und stärkere Stürme und Wellen auftreten werden. Wie beständig bleibt diese Ressource in der Zukunft? Zudem forschen sie an Co-Nutzungen, also ob etwa Algenwälder oder Seegraswiesen zuverlässig als Wellenbrecher fungieren können. „Wir planen Feldkampagnen in Deutschland und in den Tropen, holen aber auch Pflanzen ins Labor“, erläutert PhD Maike Paul vom Ludwig-Franzius-Institut.

Der Schwerpunkt der hannoverschen Forschenden liegt auf den Braunalgen und dem tropischen Seegras, das im Gegensatz zum europäischen Seegras noch recht unerforscht ist. „Wir schauen uns unter anderem die Strömungsverhältnisse an“, sagt Paul. Diese Messungen können Aufschluss darüber geben, welche Strömungen diese Pflanzen überstehen. Wichtig für Neuansiedlungen sei zum Beispiel, zu verstehen, unter welchen Bedingungen kleine Pflanzen überleben. „Diese Belastungsgrenzen wollen wir im Labor untersuchen.“ Die Pflanzen werden hier experimentell an zukünftig eintretende klimatische Bedingungen akklimatisiert. Für Sommer 2022 ist aber auch die erste Feldkampagne in Braunalgenwäldern bei Helgoland unter Beteiligung der Universität Bremen und der Universität Kiel mit ihrem Forschungsschiff geplant.

Andere Partner im Projekt sea4soCiety untersuchen weitere Teilaspekte der Verbesserung des natürlichen Potenzials der blauen Kohlenstoffspeicherung. So forscht die Universität Hamburg etwa partizipativ an der gesellschaftlichen Akzeptanz von Maßnahmen in den Küstenökosystemen.

sea4soCiety ist Teil der Forschungsmission „Marine Kohlenstoffsenken in Dekabonisierungspfaden (CDRmare)“ der Deutschen Allianz Meeresforschung (DAM). Ziel ist es, die Meere als Kohlenstoffspeicher weiter zu erforschen. Insgesamt untersuchen rund 200 Forschende in sechs Verbundprojekten, wie die klimaregulierende Bremswirkung des Ozeans in Zukunft verstärkt werden kann. sea4soCiety ist eines der sechs seit August 2021 geförderten Projekte. Mehr Informationen zur Forschungsmission unter http://www.allianz-meeresforschung.de/news/klimawandel-mit-ozean-effektiver-begrenzen/ und unter https://cdrmare.de/

Für weitere Informationen steht Ihnen PhD Maike Paul, Ludwig-Franzius-Institut, unter Telefon +49 511 762 2584 oder per E-Mail unter paul@lufi.uni-hannover.de gern zur Verfügung.

(nach oben)


Übergewicht vorbeugen

SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Dorothea Portius von der SRH Hochschule für Gesundheit klärt über Ursachen von Übergewicht und Adipositas auf.

Fettleibigkeit, auch als Adipositas bezeichnet, stellt heutzutage eine große gesundheitliche Herausforderung dar – eine, die in den letzten Jahrzehnten stetig gewachsen ist. Allein in Deutschland sind rund zwei Drittel der Männer und die Hälfte der Frauen übergewichtig (BMI über 25) bzw. adipös (BMI über 30), wie eine Studie des Robert-Koch-Instituts ergab. Die Weltgesundheitsorganisation spricht sogar von einer Adipositas-Epidemie in Europa. Prof. Dr. Dorothea Portius, Studiengangsleiterin im Bachelor-Studiengang Ernährungstherapie und -beratung am Campus Gera der SRH Hochschule für Gesundheit, erklärt: „Man nahm an bzw. so denken immer noch einige Wissenschaftler:innen und Ärzt:innen, dass die Ursache der Epidemie sehr einfach sei: Konsum zu vieler Kalorien + bewegungsarmer Lebensstil = Übergewicht. Doch die Forschung der letzten Jahre hat gezeigt, dass die Gründe für Übergewicht viel komplizierter sind. Natürlich spielen die Nahrungsaufnahme und Bewegung eine entscheidende Rolle, aber der Vorgang ist viel komplexer als nur ‚Energie rein‘ versus ‚Energie raus‘.“

Demnach tragen Umweltfaktoren, der Lebensstil und die Nahrungsmittelindustrie wesentlich zu dem Problem bei. Konkret verweist Prof. Portius auf fünf hauptsächliche Ursachen: Diäten, chronischen Stress, Schlafmangel, das Darmmikrobiom sowie Umweltgifte. So kann etwa der Kampf gegen die Gewichtszunahme für viele Übergewichtige zu einem Teufelskreis werden, wenn sie die Kalorienzufuhr für eine Weile einschränken und dann den Jo-Jo-Effekt erleben: Gewichtsabnahme gefolgt von Gewichtszunahme, und das immer wieder. Dieser stetige Gewichtswechsel kann zu einer Verringerung der Stoffwechselrate führen, einer erheblichen Hürde, wenn man versucht, Pfunde loszuwerden. Extreme Crash-Diäten mit einer enormen Drosselung der Kalorienzufuhr führen letztendlich dazu, dass der Körper den Stoffwechsel lahmlegt. Dies wiederum begünstigt, dass man nach einer Diät wieder leichter an Gewicht zulegt.

Der Zusammenhang zwischen Stress und Übergewicht liegt vor allem in Hormonen, insbesondere dem Stresshormon Cortisol. Stetig hohe Cortisolwerte steigern den Appetit. Emotionales Essen – sich bei Anspannung, Stress, Angstzuständen und Depressionen an Komfortnahrung zu bedienen – kann ebenfalls Teil dieses Musters werden. Prof. Portius empfiehlt daher, durch tägliche Bewegung und andere Anti-Stress-Methoden wie Meditation zur Ruhe zu kommen und dem Körper eine Auszeit zu geben. Untersuchungen haben auch gezeigt, dass es einen klaren Zusammenhang zwischen Schlafmangel und Fettleibigkeit gibt. Personen, die sechs oder weniger Stunden schlafen, haben demnach ein größeres Risiko für Fettleibigkeit. Doch nicht nur die Schlafdauer, auch die Schlafqualität spielt hier eine wichtige Rolle. Alkohol, schwere späte Mahlzeiten, langes Fernsehen, Arbeiten bis kurz vor das Schlafengehen oder zu wenig Bewegung können Ursachen für eine verminderte Schlafqualität sein.

Darüber hinaus zeigen neuere Studien, dass Veränderungen des Mikrobioms, d. h. der Population von Bakterien und anderen Mikroorganismen in und auf unserem Körper, eine Rolle bei der Entwicklung von Übergewicht spielen. Eine Ernährung bestehend aus wenig Ballaststoffen, vielen Einfachzuckern, ungesunden Fetten und Zusatzstoffen, schädigt unsere Darmflora und Darmbarriere. Daher sollte häufiger zu präbiotischen Lebensmitteln wie Hülsenfrüchten, Rohkost und Vollkorngetreide sowie probiotischen Lebensmitteln wie Sauerkraut und Naturjoghurt gegriffen werden. Weiterhin kommen wir täglich mit Hunderten von Chemikalien in Kontakt, darunter etwa Shampoo, Baumaterialien und Haushaltsreiniger. Die Chemikalien Bisphenol A und Phthalate zählen zur Gruppe der endokrinen Disruptoren, welche häufig mit Fettleibigkeit in Verbindung gebracht werden. Es gibt jedoch einige Möglichkeiten, wie der Kontakt mit diesen Chemikalien minimiert werden kann, z. B. die Verwendung von Glas- und Edelstahlbehältern anstelle von Kunststoff sowie natürliche Schönheitsprodukte.

Mehr zum Thema Ernährung erfahren Interessierte im März im Rahmen des Themenmonats „Food and Mood – Wie Ernährung unser Wohlbefinden beeinflusst“ an der SRH Hochschule für Gesundheit.
Alle Veranstaltungen unter https://www.srh-gesundheitshochschule.de/srh/events/

Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/dorothe…

(nach oben)


Starke Kooperation von Universität in Koblenz, Hochschule Koblenz und Bundesanstalt für Gewässerkunde vereinbart

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Die Universität Koblenz-Landau, die Hochschule Koblenz und die Bundesanstalt für Gewässerkunde wollen noch enger im Bereich Wasser zusammenarbeiten. Dazu schlossen die drei Einrichtungen nun ein Kooperationsabkommen.

In diesem Kooperationsabkommen vereinbaren die drei Institutionen eine engere Zusammenarbeit auf verschiedenen wissenschaftlichen Gebieten. Mit dem Abkommen sollen unter anderem der freie Austausch von Erkenntnissen sowie Daten gefördert und gemeinsame wissenschaftliche Projekte unterstützt werden. Studierende und Mitarbeitende der drei Einrichtungen profitieren unmittelbar: So wollen die drei Einrichtungen zukünftig vermehrt gemeinsame Bachelor-, Master- und Doktorarbeiten ermöglichen und den Zugang zu den jeweiligen Bibliotheken vereinfachen. Die Kooperationsvereinbarung beinhaltet zudem die gegenseitige Nutzung von Groß- und Laborgeräten.

Neuer Studiengang „Gewässerkunde und Wasserwirtschaft“
Herzstück der Kooperation sind Vereinbarungen, die Lehrangebote für gemeinsame Studiengänge ermöglichen. Die Planungen für einen von der Universität in Koblenz, Hochschule Koblenz und der Bundesanstalt für Gewässerkunde getragenen Bachelor- sowie Master-Studiengang sind bereits weit fortgeschritten. Der Studiengang „Gewässerkunde und Wasserwirtschaft“ soll voraussichtlich im Wintersemester 2023/2024 starten.

Der Studiengang beinhaltet aktuelle Themen: Der Klimawandel, der Eintrag von Spurenstoffen in Gewässer, eine alternde Wasserverkehrs-Infrastruktur und veränderte gesellschaftliche Ansprüche stellen die Gewässer-Ökosysteme überall und die Wasserstraßen vor große Herausforderungen. Zur Bewältigung und Lösung der drängenden Aufgaben wird eine neue Generation interdisziplinär ausgebildeter Wasser-Expert/-innen benötigt. Der Koblenzer Wasserstudiengang ist durch die Beteiligung der Bundesanstalt für Gewässerkunde, einer Ressortforschungseinrichtung des Bundes, etwas Besonderes und kombiniert die Wasser-Expertise der drei beteiligten Einrichtungen.

„Der neue Studiengang erweitert das attraktive Studien-Angebot der Universität in Koblenz um ein innovatives, zukunftsweisendes Fach mit exzellenten beruflichen Perspektiven. Unsere Kooperation stellt eine Bereicherung für die im Bereich Wasser Forschenden, die Studierenden sowie Absolventen der Gewässerkunde und Wasserwirtschaft dar. Darüber hinaus bilden wir Fachkräfte aus, die dem Klimawandel entgegenwirken können“, betont Prof. Dr. Stefan Wehner, Vizepräsident für Koblenz der Universität Koblenz-Landau.

„Die Kooperation ist eine großartige Möglichkeit, den Wissenschaftsstandort Koblenz im Bereich der Hydrologie, der Gewässerkunde und Wasserwirtschaft zu positionieren und die fachliche Expertise der drei Einrichtungen zu bündeln“, erklärt der scheidende Präsident der Hochschule Koblenz, Prof. Dr. Kristian Bosselmann-Cyran.

„Wir engagieren uns seit Jahren mit zwei Professuren in der Lehre der Universität Koblenz-Landau und haben ausgezeichnete Erfahrungen mit in unserem Haus betreuten Absolventen gesammelt. Durch die Kooperation bauen wir zudem unsere Beratungskompetenz rund um die Bundeswasserstraßen weiter aus. Der geplante Studiengang ist eine große Chance für uns, hervorragend ausgebildete Fachkräfte zu gewinnen“, sagt die Leiterin der BfG, Direktorin und Professorin Dr. Birgit Esser.

Weitere Informationen:
http://Dr. Sebastian Kofalk, Pressesprecher, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5000, E-Mail: presse@bafg.de

(nach oben)


Zwei Extreme zur gleichen Zeit: Niederschläge entscheiden, wie oft Dürren u. Hitzewellen gemeinsam auftreten werden

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Langanhaltende Dürren und Hitzewellen haben negative Folgen für Mensch und Umwelt. Treten beide Extreme zur gleichen Zeit auf, können die Auswirkungen zum Beispiel in Form von Waldbränden, Baumschäden und Ernteverlusten noch gravierender ausfallen. Klimaforscher des UFZ haben nun herausgefunden, dass unter Annahme eines globalen Temperaturanstiegs von zwei Grad im Zuge der Erderwärmung die Häufigkeit dieser gleichzeitig auftretenden Extremereignisse vor allem durch lokale Niederschlagstrends bestimmt wird. Das zu wissen ist wichtig, weil man so die Risikoanpassung an den Klimawandel und die Abschätzung seiner Folgen verbessern kann, schreiben sie in der Fachzeitschrift Nature Climate Change.

Dass sich infolge der globalen Erwärmung über den Landmassen die Temperaturen erhöhen werden und dies die Häufigkeit von Dürreperioden und Hitzewellen zunehmen lässt, gilt als gesichert – genauso wie die Tatsache, dass sich durch den Klimawandel die durchschnittliche Niederschlagsmenge an Land verändert. Unklar war aber bislang, unter welchen Konstellationen beide Extremereignisse gemeinsam auftreten, als sogenannte „compound hot-dry-events“. Als solche Ereignisse definierten die UFZ-Forscher Sommer, in denen die Durchschnittstemperatur höher war als in 90 Prozent der Sommer zwischen den Jahren 1950 und 1980 und der Niederschlag gleichzeitig geringer ausfiel als in 90 Prozent der Fälle im selben Vergleichszeitraum. „In der Vergangenheit wurden Dürreperioden und Hitzewellen oft separat betrachtet, doch tatsächlich sind beide Ereignisse stark korreliert, was man zum Beispiel an den beiden Extremjahren 2003 und 2018 sehen kann. Die negativen Folgen dieser kombinierten Extreme sind dann oft größer als nur bei einem Extrem“, sagt der UFZ-Klimaforscher Dr. Jakob Zscheischler, Letztautor der Studie. Doch wovon das gleichzeitige Auftreten dieser Extreme in der Zukunft genau abhängt, war bislang nicht bekannt – zu groß waren die Unsicherheiten, die die Forschung bei der Simulation bisheriger Klimamodelle in Kauf nehmen musste, um zu robusten Aussagen zu kommen.

Die Forscher nutzten nun ein neues, aus sieben Klimamodellen bestehendes Modellensemble, um diese Unsicherheiten zu reduzieren. Darin wurde jede Modellsimulation bis zu 100 Mal durchgeführt, um die natürliche Klimavariabilität abzudecken. Sie betrachteten den historischen Zeitraum der Jahre 1950 bis 1980 und verglichen die Ergebnisse mit denen eines potenziellen um zwei Grad wärmeren Klimas (im Vergleich zum vorindustriellen Niveau). „Der Vorteil dieser Mehrfachsimulationen besteht darin, dass wir einen viel größeren Datenumfang als bei herkömmlichen Modellensemblen haben und daher kombinierte Extreme besser abschätzen können“, erklärt Dr. Emanuele Bevacqua, Erstautor und ebenfalls Klimaforscher am UFZ. Bestätigen konnten die Forscher mit der Modellierung die bisherige Annahme, dass die durchschnittliche Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse künftig zunimmt: Lag diese zwischen 1950 und 1980 noch bei 3 Prozent, was statistisch gesehen alle 33 Jahre auftritt, wird sie in einem zwei Grad wärmeren Klima rund 12 Prozent betragen. Das wäre eine Vervierfachung im Vergleich zum historischen Zeitraum.

Neu ist nun, dass die Klimaforscher durch die Simulationen feststellen konnten, dass es nicht Temperatur-, sondern Niederschlagstrends sind, die über die Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse in Zukunft entscheiden. Der Grund: Selbst bei einer moderaten Erwärmung von zwei Grad wird der lokale Temperaturanstieg so groß sein, dass künftig alle Dürren überall auf der Welt mit Hitzewellen einhergehen, unabhängig, um wie viel Grad genau sich lokal die Temperatur verändert. Die Unsicherheit in der Häufigkeitsvorhersage lag nur bei 1,5 Prozent. Damit scheidet die Temperatur als entscheidende Dimension für die Unsicherheit aus. Anders der Niederschlag, für den die Forscher eine Unsicherheit von bis zu 48 Prozent berechneten: „Damit entscheidet die lokale Niederschlagsmenge, ob gleichzeitig Dürreperioden und Hitzewellen auftreten werden“, bilanziert Emanuele Bevacqua. Für Zentraleuropa bedeutet das zum Beispiel in der Prognose, dass im Fall eines „feucht“- Szenarios mit Zunahme des Niederschlags im Schnitt alle zehn Jahre gleichzeitige Dürreperioden und Hitzewellen auftreten, im Falle eines „trocken“-Szenarios bei abnehmenden Niederschlägen dagegen mindestens alle vier Jahre. Für Zentral-Nordamerika würden solche Ereignisse alle neun Jahre („feucht“-Szenario) und sechs Jahre („trocken“-Szenario) erwartet. Diese regionalen Szenarien der Niederschlagstrends können als Grundlage für Anpassungsentscheidungen genutzt werden, um zum Beispiel Best- und Worst-Case-Szenarien zu evaluieren.

Doch auch wenn man weiß, dass Niederschlagstrends maßgebend sind für das Auftreten von gleichzeitigen Dürren und Hitzewellen, ist es immer noch schwierig, sie sicherer vorherzusagen: „Durch den Klimawandel kann sich die Verteilung von Niederschlägen in bestimmten Regionen verschieben. Das Niederschlagsregime hängt von der atmosphärischen Zirkulation ab, die durch Wechselwirkungen über große Teile des Erdballs die regionale Wetterdynamik bestimmt “, sagt Emanuele Bevacqua. Weil die Dynamik vieler dieser Prozesse noch nicht vollständig verstanden ist, ist es schwer, diese Unsicherheiten weiter zu reduzieren.

Die Erkenntnis, dass ein Trend einer Variablen das künftige Auftreten von zwei gleichzeitigen Extremereignissen bei einem globalen Temperaturanstieg von zwei Grad bestimmt, lässt sich auch bei anderen kombinierten Extremen nutzen. Das gilt zum Beispiel für das Zusammenwirken von tropischen Stürmen und Hitzewellen oder in den Ozeanen von marinen Hitzewellen und der Versauerung. „Dort ist jeweils der Trend in der Sturmfrequenz oder der Ozeanversauerung der entscheidende Faktor, der über das gleichzeitige Auftreten der beiden Extremereignisse in Zukunft entscheidet“, sagt Jakob Zscheischler.

Wissenschaftliche Ansprechpartner:
Dr. Jakob Zscheischler
UFZ-Department Hydrosystemmodellierung
jakob.zscheischler@ufz.de

Originalpublikation:
Emanuele Bevacqua, Giuseppe Zappa, Flavio Lehner, and Jakob Zscheischler: Precipitation trends determine future occurrences of compound hot-dry events; Nature Climate Change,
https://doi.org/10.1038/s41558-022-01309-5

(nach oben)


Zwischen Datenschutz und Vertrauen – wenn das Auto zu viel weiß

Sandra Sieraad Medien und News
Universität Bielefeld
Chatbots, intelligente Staubsauger, autonome Fahrzeuge: Smarte Produkte können das Leben in vielen Bereichen leichter machen und sind dabei, sich zu einem Milliarden-Markt zu entwickeln. Doch wo diese Technik im Einsatz ist, sammelt sie Daten – über Lebensgewohnheiten, Wohnungsgröße, Fahrstil und vieles mehr. Wer bekommt diese Daten? Und was wird mit ihnen gemacht? Können Nutzer*innen solchen Produkten vertrauen? Diese Fragen stehen im Mittelpunkt der Tagung „Smart Products, Privacy and Trust“ (Smarte Produkte, Privatsphäre und Vertrauen) vom 14. bis zum 16. März am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Veranstalter ist die interdisziplinäre Forschungsgruppe „Ökonomische und rechtliche Herausforderungen im Kontext intelligenter Produkte“. Die Tagung wird in hybrider Form abgehalten.

Die Forschenden bearbeiten das Thema aus verschiedenen Perspektiven. „Die Frage nach dem Vertrauen in diese relativ neue Technik muss aus dem Blickwinkel der technischen Möglichkeiten, des Marktes, aber auch der rechtlichen Bedingungen und der Psychologie angegangen werden“, sagt der Ökonom Professor Dr. Herbert Dawid (Universität Bielefeld). Er leitet die ZiF-Forschungsgruppe zusammen mit der Juristin Professorin Dr. Sabine Gless (Universität Basel) und dem Ökonom Professor Dr. Gerd Muehlheusser (Universität Hamburg).

Wie Systeme technisch sicher und datensparsam eingerichtet werden können, wird in den Vorträgen der Tagung ebenso diskutiert wie Zertifizierungsmöglichkeiten. „Schon die Frage, wieviel Transparenz nötig ist, um bei Nutzer*innen Vertrauen zu erzeugen, ist nicht leicht zu beantworten“, erklärt Sabine Gless. „Manche nehmen die Datenspeicherung für mehr Bedienungsfreundlichkeit in Kauf und bei ihnen müsste erst einmal das Bewusstsein dafür geweckt werden, dass es hier Probleme gibt. Andere sind sehr misstrauisch und verlangen strikte Regelungen.“

Zudem gibt es große Unterschiede zwischen den Geräten und Verfahren, die als „smart“ bezeichnet werden. „Ein Auto, das selbst die Spur halten kann und Daten über den individuellen Fahrstil sammelt, ist etwas ganz anderes als ein Algorithmus, der bei Gerichtsverhandlungen zum Einsatz kommen könnte“, so Gerd Muehlheusser. „Noch einmal eine ganz andere Herausforderung ist es, Firmen zu ermöglichen, untereinander Daten zu teilen, um ihre Produkte zu verbessern, ohne Datenschutz und Firmengeheimnisse zu vernachlässigen.“

Sicher ist nach Ansicht der Forschenden: Auf die Dauer werden sich smarte Produkte nur etablieren können, wenn diese Fragen geklärt werden und Nutzer*innen darauf vertrauen können, sich mit der intelligenten Technik keine digitalen Spione ins Haus zu holen oder am Arbeitsplatz mit heimlichen digitalen Aufpassern konfrontiert zu sein. „Mit dieser Tagung möchten wir Wege aufzuzeigen, wie ein vertrauenswürdiger Umgang mit den Daten, die smarte Produkte generieren und sammeln, aussehen könnte“, sagt Herbert Dawid.

Die Tagung findet im hybriden Format in englischer Sprache statt. Journalist*innen sind herzlich eingeladen, über die Veranstaltung zu berichten. Eine Anmeldung ist erforderlich bei: smart-products@uni-bielefeld.de. Die Tagungsleiter*innen stehen für Medienanfragen zur Verfügung.

Wissenschaftliche Ansprechpartner:
Nadine Sutmöller, Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF)
Telefon 0521 106-12836
E-Mail: smart-products@uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/(de)/ZiF/FG/2021SmartProducts/Events/03-14-Dawid.ht… Website der Forschungsgruppe
https://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/wenn_die_kaffeemasch… Pressemitteilung zum Start der Arbeitsgruppe

(nach oben)


Pandemiegefahren sicher simulieren

Elena Hungerland Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Studie testet Verhaltensinterventionen in einem Spiel-Experiment

Kann risikoreiches Verhalten in der Pandemie untersucht werden, ohne Proband*innen zu gefährden? Um gefahrlos die Wirksamkeit von Gesundheitsmaßnahmen untersuchen zu können und die Übertragunsdynamik von Viren zu simulieren, entwickelten Wissenschaftler*innen der University of Plymouth, UK, der IESE Business School in Spanien und des Max-Planck-Instituts für Bildunsgforschung ein spielerisches Online-Experiment. Ihre Befunde sind im Fachjournal Science Advances erschienen.

Seit Ausbruch der Corona-Pandemie muss man sich weltweit auf die Akzeptanz nicht-pharmazeutischer Interventionen verlassen, wie das Tragen von Masken oder Abstand Halten, die während der gesamten Pandemie unsere Sicherheit erhöhen konnten. Diese Maßnahmen spielen selbst nach dem Einsatz von Impfstoffen weiterhin eine wichtige Rolle. Wissenschaftlich ist belegt, dass Masken und körperliche Distanz die Verbreitung des Virus eindämmen können. Bei diesen Maßnahmen stehen jedoch individuelle Eigeninteressen – der Wunsch nach einem sozialen Leben, die Unannehmlichkeit des Tragens einer Maske – dem Gemeinwohl entgegen.

Eine internationale Studie aus Deutschland, Großbritannien und Spanien konnte zeigen, dass es möglich ist, die Effektivität von Maßnahmen zur Pandemiebekämpfung zu testen. Insgesamt 700 US-Amerikaner*innen spielten Varianten eines Online-Spiels für jeweils 100 Mitspieler*innen, in denen die Übertragung eines Virus simuliert wurde. Die Forschenden entwickelten einen neutralen Forschungsrahmen, ohne die Erwähnung von Masken, Maßnahmen oder medizinischen Begriffen. Sie entwickelten ein Spiel, das drei zentrale Elemente einer Pandemie umsetzt: das schwierig vorherzusehende Potenzial für exponentielles Wachstum in Fallzahlen, das soziale Dilemma zwischen Eigennutz und kollektivem Risiko und die Akkumulation von kleinen Übertragungsrisiken.

100 Spielende starten dieses Spiel im blauen Zustand (gesund), bevor acht Spieler*innen zufällig ausgewählt werden und sich in einem ersten Ausbruch violett (infiziert) verfärben. Im gesamten Spielverlauf kennen die Spielenden ihre eigene Farbe nicht. In 25 Runden wählen sie jeweils zwischen zwei möglichen Handlungen: G (die sicherere Alternative mit einer möglichen Belohnung von acht Punkten, stellvertretend für das Tragen von Masken oder Abstand Halten) und H (die riskantere Alternative mit einer möglichen Belohnung von 40 Punkten). Die mögliche Belohnung steht stellvertretend für das persönliche Wohlbefinden, beziehungsweise das eigennützige Interesse.

Spielende, die zufällig mit einem violetten Spielenden gepaart werden, laufen Gefahr, selbst violett zu werden, mit einer Übertragungswahrscheinlichkeit zwischen 0,05 und 0,25. Das bedeutet, dass bei 20 Begegnungen im Schnitt zwischen einer und fünf Übertragungen passieren, je nach gewählter sicherheitsvorkehrender Aktion. Dieser Wahrscheinlichkeitswert wird von der Wahl der Handlungsalternativen (G oder H) von beiden Spielenden bestimmt. Nach 25 Runden erhalten nur jene Spielenden eine finanzielle Belohnung, die bis zum Ende blau, also „gesund“ geblieben sind. Wenn mehr Spielende also „infiziert“ werden, erhalten weniger Spielende eine Bezahlung. Die Höhe der Bezahlung steigt mit den gesammelten Punkten.

In der Studie wurde die Wirksamkeit von fünf Interventionen zur Verringerung von Risikoverhalten im Vergleich zu einer Situation ohne Intervention getestet. Die Interventionen, die mit einer moralischen Botschaft verbreitet wurden, erwiesen sich als am effektivsten. Die Durchführung von zahlreichen Spieldurchläufen mittels Computersimulation oder die Darstellung der möglichen Konsequenzen einer anfänglichen Infektion zeigten ebenfalls Erfolg. Hingegen erwies sich die Präsentation von erwarteten Fallzahlen für die aktuelle Runde als ineffektiv: Teilnehmende schienen nicht in der Lage, das exponentielle Wachstum der Übertragungen vorauszuahnen. Es mag überraschen, dass Informationen über die Handlungen anderer (beispielsweise die Beschreibung, wie oft andere Masken trugen) im Experiment sogar zu einer höheren Risikobereitschaft und zu damit verbundenen negativen Konsequenzen führte. An dieser Stelle ist es wichtig zu betonen, dass der neutrale Kontext hier verhindern konnte, dass dieses Ergebnis realweltliche Gesundheitskonsequenzen haben konnte.

Die Ergebnisse zeigen, dass nichts so effektiv ist, wie die Kommunikation einer klaren Regel in Kombination mit einer überzeugenden moralischen Begründung. Sie deuten auch darauf hin, dass manche Personen sich selbst und andere trotz allem immer aus eigennützigem Interesse einem Risiko aussetzen. Gleichzeitig gibt es aber eine deutliche Anzahl von Menschen, die mit der richtigen Intervention davon überzeugt werden können, weniger Risiken einzugehen. Das erlangte Wissen aus dem beobachteten Verhalten während des Simulations-Experiments kann Konsequenzen für reale Bedingungen haben: die Verlangsamung der Übertragung des Virus sowie die Entlastung von Gesundheitssystemen.

„Nichtpharmazeutische Interventionen – so wie das Tragen von Masken, das Einhalten von Abstand oder die Reduzierung von Kontakten – benötigen weitreichende Verhaltensänderungen. Die Verhaltenswissenschaften bieten Hilfsmittel an, um die inviduelle Akzeptanz der Maßnahmen zu verbessern. Die relative Effektivität dieser Methoden wurde hingegen selten in kontrollierten, experimentellen Szenarios getestet, die die Dynamik von Virusausbrüchen reflektieren. Was an diesem Forschungsrahmen besonders hervorzuheben ist, ist die Tatsache, dass er es ermöglicht, Interventionen auf sichere Weise zu testen, bevor sie mit möglichen gesundheitlichen Folgen für die Teilnehmenden tatsächlich umgesetzt werden“, erklärt Jan Woike, Associate Research Scientist am Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und Erstautor der Studie.

„Die nächste Corona-Variante oder die nächste Pandemie warten möglicherweise in der Zukunft. Politische Entscheider*innen müssen wissen, welche Interventionen am effektivsten sind, um sozial vorteilhaftes Verhalten zu verstärken. Dieses Forschungsprojekt ist ein Schritt in die Richtung, diese Frage ohne Gefährdung der Teilnehmenden zu beantworten“, so Jan Woike weiter.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Woike, J.K., Hafenbrädl, S., Kanngiesser, P., & Hertwig, R. (2022). The Transmission Game: Testing behavioral interventions in a pandemic-like simulation. Science Advances. doi: 10.1126/sciadv.abk0428 https://www.science.org/doi/10.1126/sciadv.abk0428

Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/pandemiegefahren-sicher-simuliere…

(nach oben)


Energiekrise: „Japan kann ein Vorbild sein“

Klaus Becker Corporate Communications Center
Technische Universität München
Der Krieg in der Ukraine hat enorme Auswirkungen auf die deutsche Energiepolitik und -wirtschaft. Im Interview erklären die Ökonomin Prof. Svetlana Ikonnikova und die Politologin Prof. Miranda Schreurs, an wem sich Deutschland in der Krise orientieren kann, wie der Einsatz von Flüssigerdgas und Wasserstoff zusammenhängen und welche Rolle eine geplante Pipeline zwischen Russland und China spielt.

Der politische Druck steigt, den Import von Gas, Öl und Kohle aus Russland zu stoppen. Es scheint nahezu unmöglich, dass Deutschland dies kurzfristig verkraften könnte. Gibt es Vorbilder, die einen plötzlichen Ausfall großer Teile der Energieversorgung bewältigt haben?

Miranda Schreurs: Nach dem Reaktorunfall von Fukushima hat Japan 2011 aus Sicherheitsgründen zunächst sämtliche Atomkraftwerke heruntergefahren, die rund 30 Prozent der Stromversorgung des Landes ausmachten. Japan kann ein Vorbild sein, weil es in dieser Situation unglaublich gut geschafft hat, Energie zu sparen. Es gab nicht nur einen Appell an die Privathaushalte, sondern auch Anordnungen und kreative Lösungen für Unternehmen und die öffentliche Infrastruktur: Firmen haben ihre Produktion in Tageszeiten mit geringem Stromverbrauch verlegt, Angestellte bekamen Anreize, Vorschläge für Effizienzsteigerungen zu machen, die Geschwindigkeit des Zugverkehrs wurde leicht gedrosselt. Alle haben angenommen, dass die 15 bis 20 Prozent des Stromverbrauchs, die so eingespart wurden, nur ein kurzfristiger Effekt sein würden, bis sich die Lage beruhigt hat. Aber Japan hat auch in den Folgejahren weiterhin rund 10 Prozent weniger verbraucht. Manche Maßnahmen wäre in Deutschland schwer umsetzbar, aber wir haben ja eigene Möglichkeiten, wie etwa ein Tempolimit auf Autobahnen. Genauso wichtig ist natürlich der schnelle Ausbau der erneuerbaren Energien.

Um zumindest einen Teil russischen Erdgases ersetzen zu können, will Deutschland LNG, also verflüssigtes Erdgas, importieren. Andere Länder setzen allerdings schon länger auf LNG. Kann Deutschland überhaupt größere Mengen beschaffen?

Svetlana Ikonnikova: Produktionskapazitäten sind weltweit in ausreichender Menge vorhanden, in den USA, in Australien, in mehreren afrikanischen Ländern, in Katar. Der größere Flaschenhals sind die Logistik und die Frage, ob es genügend Anlagen für die Verflüssigung und die Rückumwandlung gibt. Sprich, in welchem Zeitrahmen können wir dieses Gas in unsere Netze einspeisen, wenn wir es gekauft haben? Für die EU zeigt ein Modell, das wir am Center for Energy Markets der TUM errechnet haben, dass das russische Erdgas binnen sieben bis zehn Jahren ersetzt werden könnte, abhängig von der Dynamik des globalen Marktes – wobei Länder wie Frankreich und Spanien bereits deutlich weniger abhängig sind als Deutschland.

Die Bundesregierung hat angekündigt, Milliarden für LNG auszugeben. Investiert Deutschland damit in einen Energieträger, der eigentlich nur als Brückentechnologie für relativ wenige Jahre gedacht war?

Ikonnikova: Diese Frage wird sich am sogenannten blauen Wasserstoff, der mit der Spaltung von Erdgas gewonnen wird, entscheiden. Unser Modell prognostiziert, dass blauer Wasserstoff bis 2050 eine wichtige Rolle in der Industrieproduktion und als Energiespeicher spielen wird. Zum einen, weil er längere Zeit günstiger sein wird als grüner Wasserstoff, der mit Elektrolyse aus Wasser erzeugt wird, betrieben von erneuerbaren Energien. Zum anderen, weil für den grünen Wasserstoff die Infrastruktur und Logistik größtenteils erst noch aufgebaut werden muss. Auch hier wird Deutschland nicht um Importe herumkommen, wenn es Wasserstoff in großem Maßstab einsetzen will. Aber die Voraussetzungen sind gegeben, unter anderem weil Wasserstoff beispielsweise in Form von Ammoniak gespeichert werden kann, bei dem wir Erfahrung beim Transport haben.

Der Einsatz von Wasserstoff galt bislang als wenig rentabel.
Ikonnikova: Die Wirtschaftlichkeit einer Wasserstoffproduktion hängt davon ab, wo und wie der Wasserstoff genutzt wird und wie hoch der Preis für erneuerbare Energien ist, wenn wir von grünem Wasserstoff sprechen. Zum Beispiel wird ein Unternehmen, das eine Stahlproduktion mit Windkraft plant, den Wert von Wasserstoff als Energiespeicher berechnen wie auch dessen ökonomische Vorteile als Carbon-arme Quelle für die Erzeugung von Elektrizität oder Wärme. Bislang wurden diese Vorteile zumeist nicht als groß genug gesehen, um umzusteigen. Aber nach den jetzigen Erfahrungen ist es wahrscheinlich, dass Unternehmen eher bereit sind, in teurere, aber saubere Lösungen mit geringen geopolitischen Risiken zu investieren.

Schreurs: Nicht nur auf den Preis zu schauen, ist eine Lehre, die die Energiepolitik ziehen muss. Wasserstoff könnten wir theoretisch auch ausschließlich aus demokratischen Staaten beziehen, wenn wir bereit sind, höhere Kosten zu tragen. Aber es ist schon viel gewonnen, wenn wir uns nicht mehr dermaßen abhängig von einem einzelnen Staat machen, sondern jederzeit den Spielraum haben, auf einen Anbieter zu verzichten. Das ist möglich, wenn wir nicht mehr als 15 Prozent unserer Energie aus einem Land importieren.

Höhere Kosten kommen auch auf die Verbraucherinnen und Verbraucher zu, die Akzeptanz für die Energiewende könnte sinken. Wie kann die Politik zwischen Zwängen und Druck agieren?

Schreurs: Für viele Menschen war die Energiewende eine Frage des Klimawandels. Jetzt sehen wir, dass sie auch eine Frage von Freiheit und Demokratie ist. Wollen wir tatsächlich unser Geld in die Hände von Autokraten legen, die bereit sind, ein Atomkraftwerk zu bombardieren? Diesen Preis für Energie muss die Politik jetzt benennen, die Kommunikation über die Zusammenhänge stärker prägen. Darüber hinaus muss sie Armut aufgrund höherer Energiekosten verhindern. Schwieriger als bei den Strompreisen wird dies bei den Heizkosten. Möglich wäre, dass die Gebäudesanierung in Vierteln mit einkommensschwächerer Bevölkerung gezielter vorangetrieben wird.

Könnten diese Schritte das kurzfristige Ziel gegenüber Russland erreichen? Sprich, würde Russland ein Importstopp überhaupt treffen oder würden andere Handelspartner einspringen?

Ikonnikova: Vor rund zwei Jahren hat Russland den Bau einer weiteren Gaspipeline nach China beschlossen, die „Power of Siberia 2“. Die Besonderheit der Verbindung ist, dass sie das Yamal-Gasfeld mit China verbindet, aus dem Europa versorgt wird. Nach 2030 laufen viele Verträge europäischer Staaten mit Russland aus, weshalb Russland plante, seine Märkte breiter aufzustellen, um eine bessere Verhandlungsposition zu haben. Wenn jetzt der europäische Markt wegfällt, kann Russland mehr in asiatische Länder liefern, sobald die Pipeline einsatzbereit ist, was ab 2025 geplant ist. Betrachtet man die derzeitige ökonomische Entwicklung, gäbe es in Asien auch genug Bedarf, um das gesamte russische Gasangebot abzunehmen. Aber die große Frage ist, wie viel China und andere Länder überhaupt kaufen werden. Besonders China hat nämlich im Gegensatz zu vielen europäischen Staaten sehr genau darauf geachtet, sein Energie-Portfolio zu diversifizieren und kauft auch in den USA, Australien und Afrika, um eine Abhängigkeit von einem Exporteur zu vermeiden.

Wie kann die EU strategisch auf diese Entwicklungen reagieren?
Schreurs: In der Europäischen Union haben wir zwar gemeinsame Klimaziele, aber nur eine begrenzte Zusammenarbeit in der Energiepolitik. Die Staaten sollten sich dringend koordinieren, um eine EU-weite Infrastruktur zu entwickeln. Das umfasst Stromnetze und LNG-Terminals – aber beginnt an ganz praktischen Stellen: Wenn ich im Nachbarland mein Elektroauto nicht laden kann, wird die Verkehrswende nicht gelingen.

Zu den Personen:
Prof. Svetlana Ikonnikova, PhD, ist seit 2019 Professorin für Ressourcenökonomie an der TUM School of Management. Ein Schwerpunkt ihrer Forschung sind Modelle für die Energiewende und den Einsatz von Wasserstoff-Technologien, Gas- und Öl-Ressourcen und erneuerbaren Energien. Ikonnikova hat am Moskauer Institut für Physik und Technologie Angewandte Physik und Mathematik studiert und an der Berliner Humboldt-Universität in Wirtschaftswissenschaften promoviert. Neben ihrer Professur an der TUM ist sie Senior Energy Economist an der University of Texas, wo sie seit 2008 forscht.

Prof. Dr. Miranda Schreurs ist Professorin für Umwelt- und Klimapolitik an der TUM School of Social Sciences and Technology sowie an der Hochschule für Politik München (HfP). Sie forscht unter anderem zur Energiewende in Europa, den USA und Asien. Schreurs studierte an der University of Washington, promovierte an der University of Michigan und arbeitete an der Keio Universität in Japan, der Harvard University und der Freien Universität Berlin. Schreurs hat in mehreren Gremien die Bundesregierung beraten. Derzeit ist sie Co-Vorsitzende des Nationalen Begleitgremiums für das Standortauswahlverfahren eines Endlagers für hoch radioaktive Abfälle.

Wissenschaftliche Ansprechpartner:
Prof. Svetlana Ikonnikova, PhD
Technische Universität München
Professur für Ressourcenökonomie
Tel.: +49 89 289 28820
svetlana.ikonnikova@tum.de
https://www.ep.mgt.tum.de/cem/team/staff/ikonnikova/

Prof. Dr. Miranda Schreurs
Technische Universität München
Lehrstuhl für Umwelt- und Klimapolitik
Tel.: +49 89 907793 220
miranda.schreurs@hfp.tum.de
https://www.hfp.tum.de/environmentalpolicy

(nach oben)


Wie kann die Digitalisierung des Gesundheitssystems beschleunigt werden?

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Das Fraunhofer ISI hat im Auftrag der Expertenkommission Forschung und Innovation (EFI) das Voranschreiten der Digitalisierung im deutschen Gesundheitssystem untersucht und daraus Handlungsempfehlungen für die weitere Gestaltung abgeleitet. Im Fokus standen etwa der Umsetzungsstand von Gesetzesinitiativen, Datenschutz- und Cybersicherheitsaspekte sowie die Identifizierung von Innovationspotenzialen – unter anderem durch Vergleiche mit Dänemark, Estland, Spanien und Österreich, die bei der Digitalisierung ihrer Gesundheitssysteme allesamt besser abschneiden als Deutschland.

Nach vielversprechenden Anfängen fiel Deutschland seit der Jahrtausendwende bei der Digitalisierung seines Gesundheitssystems immer weiter zurück und zählte laut internationaler Studien zuletzt eher zu den Schlusslichtern im europäischen Vergleich. Als Ursachen für die verzögerte Digitalisierung gelten neben Interessenskonflikten der vielen beteiligten Akteursgruppen insbesondere Bürokratie, hohe Technologiekosten, Sicherheitsbedenken und regulatorische Unsicherheiten sowie fehlende Zuverlässigkeit der technischen Lösungen. Auf die nur mäßig fortschrittlichen Strukturen traf im Frühjahr 2020 die Corona-Pandemie, die eklatante Schwachstellen der digitalen Kommunikation zwischen den Akteursgruppen des Gesundheitswesens offenlegte und besondere finanzielle, zeitliche und personelle Ressourcen abverlangte – andererseits aber auch einen gewissen Handlungsdruck auslöste, um bei der Digitalisierung schneller als bisher voranzukommen.

Die aktuelle Studie setzt sich vor diesem Hintergrund mit den Ursachen der verzögerten Digitalisierung auseinander und erarbeitet Handlungsempfehlungen für die weitere Gestaltung. Methodisch basiert sie auf intensiven Literatur- und Internetrecherchen sowie auf Interviews mit 15 Vertreter:innen der zentralen Akteursgruppen des Gesundheitssystems. Um den Untersuchungsgegenstand besser zu erfassen, werden in der Studie fünf zentrale digitale Anwendungen betrachtet: die Telematikinfrastruktur und Telemedizin, die elektronische Patientenakte, digitale Gesundheitsanwendungen (sogenannte »Apps auf Rezept«) sowie das elektronische Rezept.

Gesetzesinitiativen zur Digitalisierung des Gesundheitswesens
Wie die Analyse zur Umsetzung von Gesetzesinitiativen zeigt, befassen sich allein sechs Gesetze des Bundesministeriums für Gesundheit (BMG) in der 19. Legislaturperiode mit der Digitalisierung des Gesundheitswesens und schafften Rahmenbedingungen für die Nutzung von Telemedizin, E-Patientenakte, E-Rezept oder Apps. So wurden mit dem Terminservice- und Versorgungsgesetz (TSVG) neben dem Ausbau von Terminservicestellen auch die Inhalte der elektronischen Patientenakte definiert und das BMG erhielt 51 Prozent der Gesellschafteranteile der gematik, der 2005 gegründeten Gesellschaft für Telematikanwendungen der Gesundheitskarte mbH, um schnellere und effektivere Entscheidungen herbeizuführen. Das Digitale-Versorgung-Gesetz (DVG) regelt unter anderem die Rechtsgrundlage für den Anspruch der Bürger:innen auf Versorgung mit digitalen Gesundheitsanwendungen. Mit den umfangreichen Investitionsprogrammen des Krankenhauszukunftsgesetzes (KHZG) soll die Digitalisierung der Krankenhäuser gefördert werden.

Eine weitere Untersuchung der Positionen zentraler Akteursgruppen des deutschen Gesundheitswesens zeigte, dass diese die Digitalisierung begrüßen, wenn dadurch nicht eigene Interessen gefährdet sind. In den Vergleichsländern Estland, Dänemark, Spanien und Österreich werden relevante Stakeholder:innen von Beginn an stärker bei der Implementierung von E-Health-Prozessen eingebunden – wodurch ihre Ansichten frühzeitig besser verstanden und ihre Mitarbeit, Unterstützung und Zustimmung zu den Ergebnissen des E-Health-Planungsprozesses besser gewährleistet wird.

Mehr Datenverarbeitung erfordert mehr Datenschutz und Datensicherheit
Die Studienautor:innen weisen zudem daraufhin, dass mit dem Ausbau der Telematikinfrastruktur und weiteren Anwendungen – etwa Videosprechstunden, digitalen zahnärztlichen Bonusheften oder digitalen Impfpässen – auch die Datenverarbeitung und damit der Datenschutz und die Datensicherheit an Bedeutung gewinnen. Allerdings wurden bisher kaum Möglichkeiten zur Vereinheitlichung und Konkretisierungen des Datenschutzes wahrgenommen. Zudem sind bei IT-Sicherheits- und Datenschutzfragen Verantwortlichkeiten teilweise unklar und wenig nachvollziehbar geregelt – etwa definiert die gematik als zentrale Instanz die Anforderungen an die Telematikinfrastruktur und kontrolliert auch deren Einhaltung, sie ist aber nicht für den Datenschutz verantwortlich. Umgekehrt sind die Regelungen für Apps tendenziell zu ambitioniert geregelt, denn diese müssen anhand eines umfangreichen Kriterienkatalogs auf Datenschutz und Sicherheit überprüft werden, was dazu führen kann, dass viele Apps die Anforderungen nicht erfüllen oder die Entwickler:innen den entsprechenden Aufwand scheuen.

Dr. Tanja Bratan, die am Fraunhofer ISI die Forschung im Rahmen des EFI-Berichts »E-Health in Deutschland: Entwicklungsperspektiven und internationaler Vergleich« koordinierte, äußert sich wie folgt zur weiteren Gestaltung der digitalen Transformation des deutschen Gesundheitssystems: »Nach langem Stillstand wurde mit den Gesetzesinitiativen der vergangenen Legislaturperiode eine wichtige Grundlage für die Beschleunigung der Digitalisierung des deutschen Gesundheitssystems gelegt. Um sie nun voranzutreiben, braucht es weitere politische Initiativen und Maßnahmen auf Ebene der Bundesländer, des Bundes und der EU, die zum Beispiel digitale Anwendungen in der Breite verfügbar machen und spürbare Mehrwerte der Digitalisierung in der Versorgung schaffen. Auf Basis unserer Studienergebnisse sehen wir unter anderem besonderen Handlungsbedarf beim Ausbau einer leistungsfähigen Breitbandinfrastruktur als Grundlage für die Digitalisierung, der Entwicklung einer E-Health-Strategie für Deutschland, einer besseren Vernetzung im gesamten Gesundheitssystem sowie einer deutlichen Verbesserung der IT-Sicherheit in Gesundheitseinrichtungen. Darüber hinaus sollte ein stetiges Monitoring die Umsetzung der Digitalisierung begleiten und in Reallaboren E-Health-Anwendungen erprobt werden. Aber auch die Aufklärung der Bevölkerung und die Verbesserung der digitalen Kompetenzen der Gesundheitsberufe sollte eine absolute Priorität zukommen.«

Wissenschaftliche Ansprechpartner:
Dr. Tanja Bratan
Leiterin des Geschäftsfelds Innovationen im Gesundheitssystem am Fraunhofer ISI
Telefon +49 721 6809-182
Mail: tanja.bratan@isi.fraunhofer.de

Originalpublikation:
„E-Health in Deutschland – Entwicklungsperspektiven und internationaler Vergleich“: https://www.e-fi.de/fileadmin/Assets/Studien/2022/StuDIS_12_2022.pdf

(nach oben)


Millionenförderung für Cybersicherheit

Hannah Fischer Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg
Universität Bamberg beteiligt sich an neuem Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“.

„Der Cybersicherheit kommt für unsere freiheitliche Gesellschaft eine Schlüsselrolle zu. Die Digitalisierung durchdringt alle Lebensbereiche. Zugleich wächst die Bedrohung krimineller Angriffe auf die digitale Infrastruktur dramatisch“, erklärte Wissenschaftsminister Markus Blume anlässlich der Förderzugsage für den neuen Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“. Das Bayerische Wissenschaftsministerium fördert den Verbund von April 2022 bis März 2026 mit etwa 3,3 Millionen Euro.

Zielgerichtete Erforschung technischer Verfahren für die Cybersicherheit
Der neue Forschungsverbund will bestehende Aktivitäten im Bereich der Cybersicherheit stärker zusammenführen und vernetzen. Durch eine enge Zusammenarbeit beispielsweise mit Unternehmen oder Industrie- und Handelskammern wird außerdem der Transfer der Forschungsergebnisse in die Praxis gestärkt. Das Alleinstellungsmerkmal von „ForDaySec“ ist die zielgerichtete, interdisziplinäre Erforschung neuartiger technischer Verfahren für die Cybersicherheit privater Haushalte, kleiner und mittlerer Unternehmen (KMU) sowie der öffentlichen Verwaltung. Forscherinnen und Forscher aus Informatik, Soziologie und Rechtswissenschaft erarbeiten gemeinsam Technologien für die Absicherung des digitalen Alltags. Mit diesem Ziel erforscht „ForDaySec“ neben Lösungen zur Erhöhung der Sicherheit für Hard- und Software spezielle Sicherheitskonzepte, die ohne Spezialwissen leicht einsetzbar sein sollen und zugleich die Aspekte des technischen Datenschutzes beachten. Bestandteil der Forschung sind dabei auch rechtswissenschaftliche Arbeiten zu Update-Pflichten sowie soziologische Untersuchungen zur Nutzung von Technik in der alltagspraktischen Anwendung.

Dominik Herrmann von der Universität Bamberg ist am Projekt beteiligt.
Prof. Dr. Stefan Katzenbeisser, Inhaber des Lehrstuhls für Technische Informatik an der Universität Passau, koordiniert das Verbundprojekt. Von der Universität Bamberg ist Prof. Dr. Dominik Herrmann, Inhaber des Lehrstuhls für Privatsphäre und Sicherheit in Informationssystemen, beteiligt. Herrmann beschreibt die Ziele des Projekts: „Es gibt wirklich viel Forschung zur Verbesserung der IT-Sicherheit und zum Datenschutz – im Alltag kommt davon aber bisher nur wenig an. Mit ‚ForDaySec‘ wollen wir dabei helfen, diese Lücke ein Stück weit zu schließen.“ Herrmanns Lehrstuhl befasst sich im Projekt mit Erklärungen von Datenschutztechniken: „Es gibt etliche Schutzmechanismen, mit denen sich unnötige Datensammlungen vermeiden lassen. Wir beobachten, dass sich viele Unternehmen aber schwertun, solche Mechanismen einzusetzen. Ein Grund dafür ist, dass sie die Mechanismen nicht gut verstehen. Wir wollen uns daher genau anschauen, wie wir Datenschutz und Schutzmechanismen besser erklären können, nicht nur in Textform, sondern auch mit Code-Beispielen und interaktiven Trainingsumgebungen am Rechner. Wir werden dazu verschiedene Erklärformen ausprobieren und sie Entwicklerinnen und Entwicklern, aber auch unseren Studierenden vorlegen, um herauszufinden, welche Varianten gut funktionieren. Dadurch wollen wir die Hürden senken, solche Techniken einzusetzen, was letzten Endes zur Verbesserung der Alltagsdigitalisierung beiträgt.“

Neben den Universitäten Passau und Bamberg sind darüber hinaus die Friedrich-Alexander-Universität Erlangen-Nürnberg, die Technische Universität München sowie die Universität der Bundeswehr München beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dominik Herrmann
Lehrstuhl für Privatsphäre und Sicherheit in Informationssystemen
Tel.: 0951/863-2661
dominik.herrmann@uni-bamberg.de
https://www.uni-bamberg.de/psi

Weitere Informationen:
https://www.stmwk.bayern.de/pressemitteilung/12481/nr-043-vom-09-03-2022.html (Pressemitteilung des Bayerischen Wissenschaftsministeriums)

(nach oben)


Alle Lebewesen bilden Methan

Virginia Geisel Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für terrestrische Mikrobiologie
Bekannt ist, dass das Treibhausgas Methan von speziellen Mikroorganismen produziert wird, zum Beispiel im Magen von Kühen oder in Reisfeldern. Seit einigen Jahren beobachtete man auch seine Entstehung in Pflanzen und Pilzen, ohne eine Erklärung dafür zu finden. Nun haben Forscher aus Heidelberg und dem Max-Planck-Institut für terrestrische Mikrobiologie in Marburg den zu Grunde liegenden Mechanismus aufgeklärt. Ihre Ergebnisse legen nahe, dass alle Organismen Methan freisetzen.

Methan ist ein starkes Treibhausgas, und die Erforschung seiner natürlichen und anthropogenen biogeochemischen Quellen und Senken ist von enormem Interesse. Lange dachte man, dass Methan nur durch bestimmte Mikroorganismen bei der Zersetzung organischer Substanz unter Ausschluss von Sauerstoff (anaerob) entsteht.

Wie nun eine gemeinsame Studie von Geo- und Lebenswissenschaften unter Leitung von Frank Keppler und Ilka Bischofs zeigen konnte, ist ein Enzym für die Methanbildung nicht unbedingt notwendig, denn der Prozess kann auch über einen rein chemischen Mechanismus ablaufen.

„Diese durch reaktive Sauerstoffverbindungen (ROS) ausgelöste Methanbildung findet höchstwahrscheinlich in allen Organismen statt“, erklärt Leonard Ernst, ein interdisziplinär ausgebildeter Nachwuchsforscher, der die Studie anführte, die aktuell im Fachblatt „Nature“ erschienen ist. Die Forscherinnen und Forscher wiesen die ROS-getriebene Bildung von Methan in über 30 Modellorganismen nach, von Bakterien und Archaeen über Hefen, Pflanzenzellen bis hin zu menschlichen Zelllinien.

Es war eine Sensation, als Max-Planck-Forscher vor 16 Jahren erstmals entdeckten, dass Pflanzen in Gegenwart von Sauerstoff (aerob) Methan freisetzten. Die Ergebnisse wurden zunächst angezweifelt, da die Methanbildung mit dem damaligen Wissen über Pflanzen nicht zu erklären war. Als man feststellte, dass auch Pilze, Algen und Cyanobakterien (früher „Blaualgen“) unter aeroben Bedingungen Methan bildeten, vermutete man enzymatische Aktivitäten als Ursache. Jedoch wurde in keinem der Organismen ein entsprechendes Enzym entdeckt.

„Diese Studie ist daher ein Meilenstein in unserem Verständnis der aeroben Methanbildung in der Umwelt“, sagt Prof. Frank Keppler, Geowissenschaftler an der Universität Heidelberg. „Der universelle Mechanismus erklärt auch die früheren Beobachtungen zur Freisetzung von Methan aus Pflanzen.“

Je aktiver die Zelle, desto mehr Methan
Wie nun anhand des Bakteriums Bacillus subtilis gezeigt werden konnte, besteht ein enger Zusammenhang zwischen der Stoffwechselaktivität und dem Ausmaß der Methanbildung. Stoffwechselaktivität, insbesondere unter Sauerstoffeinfluss, führt in allen Zellen zur Bildung sogenannter reaktiver Sauerstoffverbindungen (ROS), zu denen auch Wasserstoffperoxid und Hydroxyl-Radikale gehören. In Zusammenspiel mit Eisen, einem essentiellen Element, findet deshalb in sämtlichen Organismen die sogenannte Fenton-Reaktion statt – eine Reaktion von reduziertem Eisen mit Wasserstoffperoxid. Sie führt zur Bildung von hochreaktiven vierwertigen Eisen-Verbindungen und Hydroxyl-Radikalen. Diese Moleküle treiben die Abspaltung eines Methylradikals von methylierten Schwefel- und Stickstoffverbindungen voran, z. B. aus der Aminosäure Methionin. Durch die anschließende Reaktion des Methylradikals mit einem Wasserstoffatom entsteht schließlich Methan. Die Reaktion kann unter normalen physiologischen Bedingungen im Reagenzglas ablaufen und wird durch Biomoleküle wie ATP und NADH, die mit Stoffwechselaktivität einhergehen, erheblich verstärkt.

Auch oxidativer Stress kurbelt die Bildung von Methan an
Auch zusätzlicher oxidativer Stress, ausgelöst durch physikalische und chemische Faktoren, z.B. höhere Umgebungstemperaturen oder die Zugabe von ROS-bildenden Substanzen, steigerte die Methanproduktion in den untersuchten Organismen. Andererseits konnte sie durch die Zugabe von Antioxidantien und das Abfangen freier Radikale reduziert werden – ein Zusammenspiel, das vermutlich die Methanbildung in Organismen steuert. Die Studie erklärt daher auch, warum die Methanfreisetzungen innerhalb eines Organismus um mehrere Größenordnungen variieren können und besonders von Stressfaktoren abhängen.
Die sich im Rahmen des Klimawandels ändernden Umwelt- und Temperaturbedingungen könnten möglicherweise das Stressniveau vieler Lebewesen und damit deren atmosphärischen Methanemissionen beeinflussen. Umgekehrt könnten Schwankungen im Methangehalt der Atemluft auf alters- oder stressbedingte Veränderungen des zellulären Stoffwechsels hinweisen.

Wissenschaftliche Ansprechpartner:
Leonard Ernst
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
leonard.ernst@mpi-marburg.mpg.de
+49 6421 178 532

Dr. Ilka Bischofs
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
ilka.bischofs@mpi-marburg.mpg.de
+49 6221 54-51365

Prof. Dr. Frank Keppler
Institute of Earth Sciences, Heidelberg University
+49 6221 54-6009
frank.keppler@geow.uni-heidelberg.de

Originalpublikation:
L. Ernst, B. Steinfeld, U. Barayeu, T. Klintzsch, M. Kurth, D. Grimm, T. P. Dick, J. G. Rebelein, I. B. Bischofs, F. Keppler: Methane formation driven by reactive oxygen species across all living organisms. Nature (9 March 2022), DOI: 10.1038/s41586-022-04511-9

(nach oben)


Neues Tool ermittelt betrieblichen Klimafußabdruck

Axel Grehl Pressestelle
Hochschule Pforzheim
Kostenlose Berechnung des Beitrags durch die Lieferketten

Das Institut für Industrial Ecology (INEC) der Hochschule Pforzheim hat in Kooperation mit dem Thinktank für industrielle Ressourcenstrategien in Karlsruhe ein Tool konzipiert, mit dem die Treibhausgas-Emissionen von Unternehmen einfach ermittelt werden können. Der sogenannte scope3analyzer wurde nun auf der Webseite des Thinktanks freigeschaltet und ist öffentlich und kostenlos zugänglich. Zuvor wurde das Tool, das zusammen mit der Hamburger Firma Systain Consulting GmbH weiterentwickelt wurde, ausgiebig mit Praxispartnern aus der Industrie getestet. Unmittelbar in das Projekt eingebunden waren die ZEISS Gruppe und die Robert Bosch GmbH. Gefördert wurde die Entwicklung vom Umweltministerium Baden-Württemberg.

Die Ermittlung eines betrieblichen Carbon Footprint ist der erste wichtige Schritt auf dem Weg zum Klimaschutz in Unternehmen. Wo sind die größten Beiträge zu den Emissionen und wo sollten die Maßnahmen zuerst ansetzen? „Wir wissen heute, dass die vorgelagerten Emissionen in der Lieferkette der Unternehmen einen wesentlichen Beitrag liefern, oft sogar den größten,“ sagt der Projektleiter Professor Mario Schmidt. Doch die Erhebung dieser Emissionen, in der Fachsprache wird immer von Scope-3-Emissionen gesprochen, stellen eine große Herausforderung dar. Große Unternehmen haben oft Tausende von Lieferanten und Vorprodukte, aus dem In- und Ausland, und fragen sich, woher sie die Zahlen bekommen können und wie belastbar sie sind.

Der scope3analyzer stellt für Unternehmen einen sehr einfachen Einstieg in die Klimabilanzierung dar: Das Tool ist kostenfrei, webbasiert, arbeitet völlig anonymisiert und kann die Emissionen unmittelbar auf Basis bereits vorliegender Einkaufs- und Verbrauchsdaten des Unternehmens berechnen. Das Tool ist außerdem berichtskonform – gängige internationale Standards wie das Greenhouse Gas Protocol, das Carbon Disclosure Project sowie die Science Based Targets Initiative akzeptieren die angewandte Methodik.

Der Emissionsbeitrag der Lieferkette wird mit volkswirtschaftlichen Daten abgeschätzt. Dabei können dann sogar die Emissionen der Vor-Vorprodukte, die aus Asien oder anderen Weltregionen kommen, einbezogen werden. Dies führt zu einem umfassenden Bild des unternehmerischen Handelns und ermöglicht die Identifikation der Hot-Spots von Treibhausgasemissionen. Zusätzlich werden auch die direkten Emissionen vor Ort und die indirekten Emissionen aus eingekaufter Energie mit errechnet.

Professor Schmidt: „Der scope3analyzer entfaltet sein Potential, je mehr Lieferanten ein Unternehmen hat und je schwieriger es wird, einzelne Zahlen zu recherchieren. Vor allem aber sollen die Daten nach der gleichen Methode erhoben und somit vergleichbar sein. Das wird durch die von uns eingesetzte Methode sichergestellt.“

Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mario Schmidt
mario.schmidt@hs-pforzheim.de

Weitere Informationen:
http://Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/

(nach oben)


Vernetzungskonferenz: Klimaanpassungsmaßnahmen – erfolgreich durch Dialog

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Die Anpassung an die Folgen des Klimawandels stellt Kommunen vor große Herausforderungen. Das Zentrum KlimaAnpassung lädt am 24. und 25.3. zur ersten digitalen Vernetzungskonferenz. Information und Austausch über verschiedene Maßnahmen der Klimaanpassung und Vorsorge stehen dabei im Fokus.

Am 24. und 25. März 2022 veranstaltet das vom Deutschen Institut für Urbanistik und adelphi im Auftrag des Bundesministeriums für Umwelt Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) betriebene Zentrum KlimaAnpassung erstmalig die Vernetzungskonferenz „Kommunale Klimaanpassung im Dialog“. Die Veranstaltung findet online statt und eine Teilnahme ist kostenlos.

Bundesumweltministerin Steffi Lemke wird die Veranstaltung eröffnen. Im Rahmen einer Podiumsdiskussion äußern sich Vertreter*innen aus den Ministerien der Bundes- und Landesebene und der kommunalen Spitzenverbände zu aktuellen Fragen der Anpassung an die Folgen des Klimawandels sowie zu den Herausforderungen und Bedarfen der Kommunen. Nach einem Expert*innen-Vortrag zu „Natur als Partner: Klimaschutz und Klimaanpassung durch naturbasierte Lösungen“ werden in acht parallel stattfindenden Workshops Einzelthemen der kommunalen Klimaanpassung vertieft und Erfahrungen der Teilnehmenden ausgetauscht.

Der zweite Konferenztag richtet sich direkt an Kommunen und ist nicht öffentlich.

Die Vernetzungskonferenz bietet viele Angebote zur Information und Vernetzung: So werden Institutionen und Verbände ihre Beratungsangebote und Projekte auf virtuellen Informationsständen vorstellen und für Gespräche zur Verfügung stehen. Weitere Details sind online zu finden.

Anmeldung für den 24. März: https://www.zentrum-klimaanpassung.de/anmeldeformular-24032022

Anmeldung für den 25. März: https://zentrum-klimaanpassung.de/anmeldeformular-25032022
(Die Teilnahme an diesem Tag ist Vertreterinnen und Vertretern der Kommunalverwaltungen vorbehalten.)

Zum Hintergrund: Das Zentrum KlimaAnpassung richtet sich mit seinen Angeboten und Dienstleistungen speziell an Kommunen und Träger sozialer Einrichtungen, um sie bei der Planung, Umsetzung und Finanzierung von Maßnahmen zur Klimaanpassung zu unterstützen. Das Beratungszentrum wurde als Bestandteil der Deutschen Anpassungsstrategie (DAS) durch das Bundesumweltministerium und den kommunalen Spitzenverbänden im gemeinsamen 3-Punkte-Plan für Klimaanpassung in Kommunen vereinbart. Die Einrichtung des Zentrums Klimaanpassung erfolgt im Auftrag des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) durch das Deutsche Institut für Urbanistik (Difu) und adelphi. Die Leitung des Zentrums verantwortet das Difu.

Organisation:
Philipp Reiß
+49 30 39001-186
reiss@difu.de
Service-Hotline: 030-39001 201
E-Mail: beratung@zentrum-klimaanpassung.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Weitere Informationen:
http://difu.de/17208 (weitere Informationen & kostenlose Anmeldung)
http://www.zentrum-klimaanpassung.de/sites/zentrum-klimaanpassung.de/files/docum… (gesamtes Programm als PDF)

(nach oben)


Kollateralschaden: das Ende von SWIFT?

Markus Kurz IESE Business School München
IESE Business School München
SWIFT, ausgeschrieben „Society for Worldwide Interbank Financial Telecommunication“ ist ein globales Nachrichtensystem, das Tausende Finanzinstitute auf der ganzen Welt miteinander verbindet. Eine Reihe amerikanischer und europäischer Banken erschuf 1973 gemeinsam SWIFT, um einen Standard zu setzen – und zu verhindern, dass eine einzelne Bank ihr eigenes System errichtet.

Ein Beitrag von Sandra Sieber, Professorin im Information Systems Department der weltweit renommierten IESE Business School. Sieber ist Expertin für Digital Transformation.

Das System SWIFT arbeitet seit 1977, angeschlossen sind derzeit über 11.000 Finanzinstitute in über 200 Ländern und Gebieten. Mehr als 40 Millionen Nachrichten am Tag ermöglichen den Transfer von Billionen Euro zwischen Unternehmen und Staaten weltweit. SWIFT informiert die Banken über ausgeführte Transaktionen. Das System bewegt kein Geld, sondern Informationen über Geld. Und das mit minimalen Provisionen und Gebühren, wodurch mehr Transaktionen ermöglicht werden, als sie jedes private System erreichen könnte.

Ließe man die Banken ohne SWIFT zurück, wäre das so, als würde man uns das Internet nehmen – oder der Generation Z ihre sozialen Netzwerke. Die Abkopplung einer Bank von SWIFT bedeutet, dass sie nicht mehr kommunizieren kann und auch nichts mehr mitbekommt. Theoretisch wären Geldströme möglich. Aber ohne ergänzende Informationen, woher sie kommen, wohin sie gehen, wofür sie bestimmt sind, wäre eine Bank nicht in der Lage zu arbeiten. Deshalb ist es für die Banken in aller Welt so bedeutend, auf ein unabhängiges und sicheres System setzen zu können, dem sie angehören, egal was kommt.

SWIFT hat sein Headquarter in Belgien und befindet sich im gemeinsamen Besitz von mehr als 2.000 Banken und Finanzinstituten. Verwaltet wird SWIFT von der belgischen Nationalbank in Zusammenarbeit mit den Zentralbanken von Kanada, Frankreich, Deutschland, Italien, Japan, den Niederlanden, Schweden, der Schweiz, des Vereinigten Königreichs und der Vereinigten Staaten. SWIFT ermöglicht seit seinem Bestehen jeder Bank sichere internationale Transaktionen. SWIFT war stets um Neutralität bemüht, zu zeigen, dass es in keinem Streitfall Partei ergreift. Diese Regel wurde in ihrer Geschichte nur ein einziges Mal gebrochen, als sie 2012 iranische Banken wegen des Atomprogramms ihres Landes ausschloss.

Wegen des Krieges wurden nun die meisten russischen Banken aus SWIFT ausgeschlossen. Mit dieser Maßnahme hofft man, der russischen Wirtschaft schweren Schaden zuzufügen – erinnern wir uns daran, dass der Iran durch die gleiche Maßnahme fast die Hälfte seiner Einnahmen aus dem Ölexport sowie 30 % seines Außenhandels verloren hat.

Wir sollten uns jedoch der mittel-und langfristigen Kollateralschäden bewusst sein. Im Jahr 2012, zeitgleich mit den Maßnahmen gegen den Iran, schuf China ein System namens CIPS (Cross-border Interbank Payment System). An den Start gegangen 2015, wird es von der People’s Bank of China verwaltet und wird hauptsächlich für Transaktionen zwischen Banken in China, innerhalb des chinesischen Festlandes und zwischen Hongkong und China genutzt.

Im Jahr 2014 begann die russische Zentralbank zeitgleich mit der Drohung, Russland aufgrund der Krim-Krise aus SWIFT auszuschließen, mit der Entwicklung ihres eigenen Systems, SPFS (Financial Message Transfer System). Es wurde 2017 eingeführt und genießt lokal eine hohe Akzeptanz. Erst kürzlich traten einige internationale Finanzinstitute im russischen Einflussbereich bei, Tochtergesellschaften der großen russischen Banken in Deutschland und der Schweiz erhielten Zugang.

In absoluten Zahlen betrachtet hält sich die internationale Ausdehnung beider Systeme noch sehr in Grenzen. Wir können nur darüber spekulieren, wie schnell diese Systeme mit anderen Systemen oder wie leicht beide untereinander verbunden werden könnten. In jedem Fall wird der aktuelle Bann die Entwicklung dieser und wahrscheinlich auch anderer Systeme beschleunigen – neben den Auswirkungen auf Blockchain und die Welt der Kryptowährungen.

Die universelle Nutzung von SWIFT, wie wir sie seit 45 Jahren kennen, ist vorbei – ein Kollateralschaden des Krieges in der Welt der Finanzdienstleistungen. Bedauerlicherweise ist ein globales System, mit offener Technologie, unter privater glaubwürdiger Verwaltung, extrem schwierig zu etablieren – und noch schwieriger zu erhalten. Neutralität – die Einbeziehung aller – ist der Schlüssel zu Glaubwürdigkeit und Dauerhaftigkeit. Jede Ausnahme gibt Anstoß zur Entwicklung alternativer Systeme. Während wir also der EU noch applaudieren und die Verhängung eine der härtesten Wirtschaftssanktionen unterstützen, sollten wir uns Gedanken darüber machen, was als Nächstes kommen soll. Wie soll die Welt der internationalen Geldströme aussehen, welche wirtschaftlichen Folgen sehen sich Industrie, Unternehmen und die Nutzer im Allgemeinen gegenüber.

Wissenschaftliche Ansprechpartner:
Sandra Sieber, Professorin im Information Systems Department der IESE Business School, siehe https://www.iese.edu/faculty-research/faculty/sandra-sieber/

(nach oben)


Energiesparen mit Magnonen: Magnetische Anregungen übertragen Informationen ohne Wärmeverlust

Dr. Andreas Battenberg Corporate Communications Center
Technische Universität München
So wie Elektronen durch einen elektrischen Leiter fließen, können auch magnetische Anregungen durch bestimmte Materialien wandern. Solche, in der Physik analog zum Elektron auch „Magnonen“ genannten Anregungen könnten Informationen sehr viel leichter transportieren als elektrische Leiter. Auf dem Weg zu solchen Bauteilen, die deutlich energiesparender und erheblich kompakter wären, hat ein internationales Forschungsteam nun eine wichtige Entdeckung gemacht.

Aktuell beruht die Funktion der Mehrheit elektronischer Bauteile auf dem Transport und der Kontrolle elektrischer Ladungen. Ein großer Nachteil dieser Technik ist, dass der Stromfluss aufgrund des elektrischen Widerstands immer auch Wärme erzeugt – angesichts der immensen Zahl elektronischer Bauteile weltweit, ein gigantischer Energieverlust.

Eine energieeffiziente Alternative besteht darin, magnetische Wellen für Transport und Verarbeitung von Informationen zu verwenden. Denn sie produzieren nicht annährend so viel unnütze Wärme. Solche Bauteile könnten auch wesentlich kompakter sein. Weltweit suchen daher Wissenschaftlerinnen und Wissenschaftler nach Materialien, in denen magnetische Spin-Wellen für den Informationstransport genutzt werden können.

Ein internationales Forschungskonsortium unter maßgeblicher Beteiligung der Technischen Universität München (TUM) ist nun auf dieser Suche einen wichtigen Schritt vorwärts gekommen. Ihre Beobachtungen von Spinwellen auf Kreisbahnen in bestimmten magnetischen Materialien könnten auch für diejenigen Quanten-Technologien einen Durchbruch bedeuten, die Wellen dazu benutzen, um Informationen zu transportieren.

Ausbreitung magnetischer Wellen in Materialien
Wirft man einen Stein ins Wasser, so bringt man die Wassermoleküle aus ihrer Ruhelage. Sie fangen an zu schwingen; eine kreisförmige Welle breitet sich aus. Ganz ähnlich kann man die magnetischen Momente in manchen Materialien zu einer Schwingung anregen. Dabei führt das magnetische Moment eine Kreiselbewegung um seine ursprüngliche Ruhelage aus. Die Schwingung eines Atoms stößt eine Schwingung des nächsten an, und so pflanzt sich die Welle fort.

Für Anwendungen ist es hierbei wichtig, die Eigenschaften dieser magnetischen Wellen, wie beispielsweise ihre Wellenlänge oder Richtung, kontrollieren zu können. In konventionellen Ferromagneten, in welchen die magnetischen Momente alle in dieselbe Richtung zeigen, breiten sich magnetische Wellen grundsätzlich geradlinig aus.

Ganz anders verhält sich die Ausbreitung solcher Wellen in einer neuen Klasse magnetischer Materialien, die einem Paket ungekochter Spagetti vergleichbar, aus einer engen Anordnung magnetischer Wirbelschläuche bestehen. Entdeckt wurde sie vor knapp fünfzehn Jahren von einem Team um Christian Pfleiderer und Peter Böni an der TU München mit Hilfe von Neutronenexperimenten.

Aufgrund ihrer nicht-trivialen topologischen Eigenschaften und in Anerkennung der theoretisch-mathematischen Entwicklungen des britischen Kernphysikers Tony Skyrme werden die Wirbelschläuche als Skyrmionen bezeichnet.

Ausbreitung der magnetischen Welle auf einer Kreisbahn
Da Neutronen selbst ein magnetisches Moment tragen, eignen sie sich besonders gut zur Erforschung magnetischer Materialien, da sie wie eine Kompassnadel hochempfindlich auf magnetische Felder reagieren. Für den Nachweis der Spinwellen auf Kreisbahnen erwies sich die Neutronenstreuung sogar als alternativlos, da nur sie die erforderliche Auflösung über sehr große Längen- und Zeitskalen ermöglichte.

Wie das Team um Tobias Weber vom Institut Laue Langevin im französischen Grenoble nun mittels polarisierter Neutronenstreuung nachweisen konnte, erfolgt die Ausbreitung einer magnetischen Welle senkrecht zu solchen Skyrmionen nicht geradlinig sondern auf einer Kreisbahn.

Grund hierfür ist, dass die Richtung benachbarter magnetischer Momente und damit die Richtung der Achse, um die die Kreiselbewegung erfolgt, sich kontinuierlich ändert. Analog dazu ändert sich bei der Fortpflanzung der Kreiselbewegung von einem magnetischen Moment zum nächsten senkrecht zu einem magnetischen Wirbelschlauch auch die Ausbreitungsrichtung kontinuierlich. Der Radius und die Richtung der Kreisbahn der Ausbreitungsrichtung hängt dabei von der Stärke und der Richtung der Verkippung der magnetischen Momente ab.

Quantisierung der Kreisbahnen
„Damit jedoch nicht genug“, sagt Markus Garst vom Karlsruher Institut für Technologie, der die theoretische Beschreibung der magnetischen Wellenbewegung und ihre Kopplung an Neutronen schon vor länger Zeit ausgearbeitet hatte. „Es gibt eine enge Analogie zwischen der kreisförmigen Ausbreitung von Spinwellen in einem Skyrmionengitter und der Bewegung eines Elektrons aufgrund der Lorentzkraft senkrecht zu einem Magnetfeld.“

Bei sehr tiefen Temperaturen, wenn die Kreisbahnen geschlossen sind, ist ihre Energie quantisiert. Vor fast hundert Jahren vom russischen Physiker Lev Landau vorhergesagt, ist dieses Phänomen für Elektronen seit langem als Landau-Quantisierung gut bekannt. Dabei lässt sich der Einfluss der Wirbelstruktur auf die Spinwellen elegant durch ein fiktives Magnetfeld interpretieren. Das heißt, das sehr komplizierte Wechselspiel der Spinwellen mit der Skyrmionenstruktur ist letztlich genauso einfach wie die Bewegung von Elektronen in einem echten Magnetfeld zu verstehen.

Auch die Ausbreitung der Spinwellen senkrecht zu den Skyrmionen zeigt eine solche Quantisierung der Kreisbahnen. Die charakteristische Energie der Spinwelle ist damit ebenfalls quantisiert, was völlig neue Anwendungen verspricht. Zusätzlich ist die Kreisbahn aber auch noch in sich verdrillt, ähnlich wie bei einem sogenannten Möbiusband. Sie ist topologisch nicht-trivial: Nur durch Zerschneiden und neu Zusammenfügen ließe sich die Verdrillung entfernen. All dies führt zu einer besonders stabilen Bewegung der Welle.

Internationale Kooperation
„Die experimentelle Bestimmung der Spinwellen in Skyrmionengittern erforderte sowohl eine Kombination weltweit führender Neutronenspektrometer als auch eine massive Weiterentwicklung der Software zur Deutung der Daten“, erläutert TUM-Physiker Peter Böni.

Das Forschungsteam nutzte Instrumente des Institut Laue-Langevin (ILL) in Frankreich, der Spallationsquelle SINQ am Schweizer Paul-Scherrer-Institut, der britischen Neutronen- und Myonenquelle ISIS und der Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II) der TU München. Weitere Arbeiten zur Theorie und Datenanalyse wurden am US-amerikanischen Los Alamos National Laboratory und am Karlsruher Institut für Technologie (KIT) durchgeführt.

Marc Janoschek, der inzwischen am Paul Scherrer Institut arbeitet, schwärmt: „Es ist einfach genial, dass sich mit dem mikroskopischen Nachweis der Landau-Quantisierung an der weltweit einzigartigen Beamline RESEDA am FRM II der TUM in Garching nach zahllosen Experimenten an weltweit führenden Spektrometern und der Klärung großer experimenteller und theoretischer Herausforderungen während meiner Zeit in Los Alamos ein Kreis schließt, der vor fast fünfzehn Jahren mit meinen ersten Messungen am Heinz Maier-Leibnitz Zentrum begann.“

Die Bewegung von Spinwellen auf Kreisbahnen, die noch dazu quantisiert sind, ist jedoch nicht nur aus Sicht der Grundlagenforschung ein Durchbruch. So betont Christian Pfleiderer, geschäftsführender Direktor des neu geschaffenen Zentrums für QuantenEngineering der TUM: „Die spontane Bewegung von Spinwellen auf Kreisbahnen, deren Radius und Richtung durch Skyrmionen-Wirbelstrukturen entsteht, eröffnet eine neue Perspektive, um funktionelle Bauteile für die Informationsverarbeitung in den Quantentechnologien zu realisieren, wie beispielsweise einfache Koppler zwischen Qubits in Quantencomputern.“

An den Messungen waren Forschende des Instituts Laue-Langevin in Frankreich, des Paul Scherrer Instituts, der Universität Zürich und der Ecole Polytechnique Fédérale de Lausanne in der Schweiz, der Spallationsquelle ISIS und der Universität London in Großbritannien, der Oak Ridge und Los Alamos National Laboratories in USA, der Technischen Universität Dresden, der Universität zu Köln, des Karlsruher Instituts für Technologie und der Technischen Universität München und dem Heinz Maier-Leibnitz Zentrum in Garching beteiligt.

Die Forschung wurde gefördert vom Europäischen Forschungsrat durch die ERC Advanced Grants „TOPFIT“ und „ExQuiSid“, von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs TRR80, des Sonderforschungsbereichs SFB 1143, des Schwerpunktprogramms SPP 2137 „Skyrmionics“ und des Exzellenzclusters „Munich Center for Quantum Science and Technology“ (MCQST) im Rahmen der Exzellenzinitiative des Bundes und der Länder sowie durch das Directed Research and Development Programm des Los Alamos National Laboratory und des Institute for Materials Science in Los Alamos, USA.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Pfleiderer
Technische Universität München
Lehrstuhl für Topologie korrelierter Systeme (E51)
James-Franck-Str. 1, 85748 Garching
Tel.: +49 89 289 14720 – E-Mail: christian.pfleiderer@ph.tum.de

Prof. Dr. Markus Garst
Institut für Theoretische Festkörperphysik
Karlsruher Institut für Technologie (KIT)
Wolfgang-Gaede-Str. 1, 76131 Karlsruhe
Tel.: +49 721 608 43361
E-Mail: markus.garst@kit.edu

Originalpublikation:
Publikation:
T. Weber, D. M. Fobes, J. Waizner, P. Steffens, G. S. Tucker, M. Böhm, L. Beddrich, C. Franz, H. Gabold, R. Bewley, D. Voneshen, M. Skoulatos, R. Georgii, G. Ehlers, A. Bauer, C. Pfleiderer, P. Böni, M. Janoschek, M. Garst
Topological magnon band structure of emergent Landau levels in a skyrmion lattice
Science, 04.03.2022 – DOI: 10.1126/science.abe4441

Weitere Informationen:
https://www.science.org/doi/10.1126/science.abe4441 Originalpublikation
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37241 Presseinformation auf der TUM-Website
https://www.groups.ph.tum.de/sces/ Website der Arbeitsgruppe Pfleiderer
https://www.tfp.kit.edu/1091.php Website der Arbeitsgruppe Garst
https://www.frm2.tum.de/ Link zur Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II)
https://mlz-garching.de/ Link zum Heinz Maier-Leibnitz Zentrum (MLZ)

(nach oben)


Gesundheitsdaten handlungsfähig machen und patientenorientierte Gesundheitsversorgung sicherstellen

Dr. Cornelius Wittal Presse- und Öffentlichkeitsarbeit
Roche Pharma AG
Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Welches Potential hier durch internationale Zusammenarbeit entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird am 24.03.2022 ab 16:00 bis 19:00 Uhr in einer Webkonferenz diskutiert.

Datengestützte Medizin und Wissensaustausch sind unerlässlich, um medizinischen Fortschritt und Innovation zu beschleunigen und ein personalisiertes Gesundheitssystem zu ermöglichen. Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Digitale Infrastrukturen sind für die Verfügbarkeit von Daten aus Versorgung und Forschung zwingend erforderlich. Welches Potential durch internationale Zusammenarbeit und durch gemeinsame Nutzung von Gesundheitsdaten entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird gemeinsam mit Ärzten, Forschern, Kostenträgern, politische Entscheidungsträgern und Patientenvertretern diskutiert.

Dieses Fachsymposium erfolgt in einer Kooperation von Springer Medizin und Roche Pharma AG, unter Schirmherrschaft der Fraunhofer Gesellschaft mit Unterstützung der Deutschen Krebsgesellschaft (DKG) und Data Saves Lives. Simultanübersetzung in englisch.

Veranstalter:
Das Fraunhofer Institut für Angewandte Informationstechnik FIT ist exzellenter Partner für die menschzentrierte Gestaltung unserer digitalen Zukunft. Als Innovationstreiber bietet es nicht nur Orientierung, sondern gestaltet auch den digitalen Wandel in Wirtschaft, Umwelt und Gesellschaft. (fit.fraunhofer.de)
Die Deutsche Krebsgesellschaft ist die größte wissenschaftlich-onkologische Fachgesellschaft in Deutschland und engagiert sich für eine Krebsversorgung auf Basis evidenzbasierter Medizin und Interdisziplinarität für eine hohe Qualität der onkologischen Versorgung. (krebsgesellschaft.de)

Data Saves Lives ist eine Multi-Stakeholder-Initiative mit dem Ziel, Patienten und die Öffentlichkeit für die Bedeutung von Gesundheitsdaten zu sensibilisieren, das Verständnis für deren Nutzung zu verbessern und ein vertrauenswürdiges Umfeld für den Multi-Stakeholder-Dialog über verantwortungsvolle Nutzung und gute Praktiken in ganz Europa zu schaffen. Die Vision von Data Saves Lives ist ein Europa, in dem ein vertrauenswürdiger Datenaustausch die Gesundheit und die wissenschaftliche Forschung unterstützt, um den Bedürfnissen der Patienten gerecht zu werden und die Herausforderungen unserer Gesundheitssysteme zu bewältigen. (datasaveslives.eu)

Roche (weltweit) ist ein globales Unternehmen mit Vorreiterrolle in der Erforschung und Entwicklung von Medikamenten und Diagnostika und ist darauf fokussiert, Menschen durch wissenschaftlichen Fortschritt ein besseres, längeres Leben zu ermöglichen. Dank der Kombination von Pharma und Diagnostika unter einem Dach ist Roche führend in der personalisierten Medizin – einer Strategie mit dem Ziel, jeder Patientin und jedem Patienten die bestmögliche Behandlung zukommen zu lassen.
Roche ist das größte Biotech-Unternehmen weltweit mit differenzierten Medikamenten für die Onkologie, Immunologie, Infektionskrankheiten, Augenheilkunde und Erkrankungen des Zentralnervensystems. Roche ist auch der bedeutendste Anbieter von In-vitro-Diagnostika und gewebebasierten Krebstests und ein Pionier im Diabetesmanagement.
Seit der Gründung im Jahr 1896 erforscht Roche bessere Wege, um Krankheiten zu verhindern, zu erkennen und zu behandeln und leistet einen nachhaltigen Beitrag zur gesellschaftlichen Entwicklung. Zum Ziel des Unternehmens gehört es durch Kooperationen mit allen relevanten Partnern den Zugang von Patienten zu medizinischen Innovationen zu verbessern. Auf der Liste der unentbehrlichen Arzneimittel der Weltgesundheitsorganisation stehen heute 30 von Roche entwickelte Medikamente, darunter lebensrettende Antibiotika, Malariamittel und Krebsmedikamente. Ausgezeichnet wurde Roche zudem bereits das elfte Jahr in Folge als eines der nachhaltigsten Unternehmen innerhalb der Pharmabranche im Dow Jones Sustainability Index (DJSI).
Die Roche-Gruppe mit Hauptsitz in Basel, Schweiz ist in über 100 Ländern tätig und beschäftigt weltweit mehr als 100.000 Mitarbeitende. Im Jahr 2021 investierte Roche CHF 13,7 Milliarden in Forschung und Entwicklung und erzielte einen Umsatz von CHF 62,8 Milliarden. Genentech in den USA gehört vollständig zur Roche-Gruppe. Roche ist Mehrheitsaktionär von Chugai Pharmaceutical, Japan. Weitere Informationen finden Sie unter www.roche.com.

Roche in Deutschland
Roche beschäftigt in Deutschland rund 17.500 Mitarbeiterinnen und Mitarbeiter in den Bereichen Pharma und Diagnostik. Das Unternehmen ist an den drei Standorten in Grenzach-Wyhlen (Roche Pharma AG), Mannheim (Roche Diagnostics GmbH, Roche Diagnostics Deutschland GmbH, Roche Diabetes Care GmbH sowie Roche Diabetes Care Deutschland GmbH) und Penzberg (Biotechnologie-Kompetenzzentrum, Roche Diagnostics GmbH) sowie in der Metropolregion Stuttgart (Roche Diagnostics Automation Solutions GmbH) vertreten. Die Schwerpunkte erstrecken sich über die gesamte Wertschöpfungskette der beiden Geschäftsbereiche Pharma und Diagnostics: von Forschung und Entwicklung über Produktion, Logistik bis hin zu Marketing und Vertrieb, wobei jeder Standort neben dem Deutschland-Geschäft auch globale Aufgaben wahrnimmt. Roche bekennt sich klar zu den deutschen Standorten und hat in den letzten fünf Jahren in diese rund 2,6 Milliarden Euro investiert.

Roche Pharma AG
Die Roche Pharma AG im südbadischen Grenzach-Wyhlen verantwortet mit über 1.300 Mitarbeiterinnen und Mitarbeitern das deutsche Pharmageschäft. Dazu gehören die Zulassung und Überwachung, das Marketing und der Vertrieb von Roche Medikamenten in Deutschland sowie der Austausch mit Wissenschaftlern, Forschern und Ärzten in Praxen und Krankenhäusern. Von hier aus werden alle zulassungsrelevanten Studien für Deutschland koordiniert sowie Studien für bereits zugelassene Arzneimittel durchgeführt. Der Standort ist außerdem dafür zuständig, permanent zu überprüfen, ob die Produkte im gesamten europäischen Raum internen und externen Qualitätsrichtlinien entsprechen.

Wissenschaftliche Ansprechpartner:
erika.schirghuber@roche.com

Weitere Informationen:
http://go.roche.de/publichealth Informationen und Anmeldung
http://go.roche.de/flyer-public-health Programm (deutsch)
http://go.roche.de/datasharing_flyer_e Program (english)

Anhang
Programm (Flyer)

(nach oben)


Wegweisendes Pilotprojekt RoKKa erzeugt Dünger und Rohstoffe aus Abwasser

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg finanziert das neue Forschungs- und Demonstrationsprojekt RoKKa (Rohstoffquelle Klärschlamm und Klimaschutz auf Kläranlagen), das das Leistungsspektrum von Kläranlagen um eine entscheidende Funktion erweitert: die Möglichkeit der Rohstoffrückgewinnung aus dem Abwasser. Zusammen mit den Betreibern der Kläranlagen in Erbach und Neu-Ulm demonstriert das Konsortium unter der Leitung des Fraunhofer IGB den positiven Beitrag zu Rohstoffsicherheit und zum Klimaschutz, da die erhaltenen Produkte fossile Rohstoffe und energieintensive Verfahren ersetzen können.

»Bisher lag die Aufgabe einer Kläranlage vor allem darin, Abwasser zu reinigen«, so Dr.-Ing. Marius Mohr, Projektleiter am Fraunhofer IGB zum Projektstart. »Wir richten unseren Blick nun auch auf die im Abwasser enthaltenen Rohstoffe.« An der nachhaltigen Bioraffinerie arbeiten Wissenschaftler:innen aus den Forschungseinrichtungen des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB, der Universität Stuttgart, der Universität Kassel und der Technischen Universität Kaiserslautern gemeinsam mit den Unternehmen SolarSpring GmbH, Deukum GmbH, Nanoscience for life GmbH, Umwelttechnik-BW GmbH, der Stadt Erbach sowie dem Zweckverband Klärwerk Steinhäule.

Mit Mikroalgen und Elektrosynthese Rohstoffe sichern
Die Wissenschaftler:innen erproben Verfahren, um aus dem Abwasser Phosphor- und Stickstoffverbindungen für Düngemittel zu gewinnen. Daneben werden mit Mikroalgen Pflanzenstärkungsmittel und Bodenverbesserer für die Landwirtschaft erzeugt. Selbst das CO2, das bei der Herstellung von Biogas anfällt, wird abgetrennt und wieder zu einem Rohstoff für die chemische Industrie verarbeitet. »So können Prinzipien der Bioökonomie umgesetzt werden und Kläranlagen zu einer nachhaltigen Rohstoffquelle werden. Die Rückgewinnung von Phosphor und Stickstoff als Dünger schließt den Nährstoffkreislauf und ist für das Klima sehr positiv,« so Dr.-Ing. Anette Zimmermann, Leitung Umwelttechnik und Bioökonomie bei Umwelttechnik BW.

Das ePhos-Verfahren ermöglicht die Rückgewinnung von Phosphor. Mit Hilfe einer Opferanode aus Magnesium wird das Phosphor elektrochemisch als Struvit gefällt. Zwei Pilotanlagen trennen den Ammonium-Stickstoff aus dem Schlammwasser ab. Eine Anlage verfolgt das Prinzip der Membran-Gasabsorption mit Membrankontaktoren (AmmoRe), die andere arbeitet nach dem Prinzip der Membrandestillation.

Im Pilotprojekt RoKKa wird gemessen, wie stark sich eine Stickstoffrückgewinnung auf die Klimabilanz der Kläranlagen auswirkt. Beim konventionellen Abbau von Stickstoffverbindungen auf Kläranlagen entsteht eine erhebliche Menge des Treibhausgases N2O, auch Lachgas genannt. Weiter wird erprobt, inwieweit die im Abwasser enthaltenen Nährstoffe Mikroalgen als Nahrung dienen. Algen benötigen zur Photosynthese neben Licht auch CO2. Dieses stammt aus der Biogasfaulung und wird mit Hilfe einer Aminosäurelösung abgetrennt. Parallel wird ein weiterer Verwertungsweg für das CO2 erprobt. Einen Teil des CO2 wandelt eine Elektrosynthese-Anlage in Formiat um. Formiat ist eine Grundchemikalie, die in der chemischen Industrie verwendet wird. Damit zeigt das Projekt die Möglichkeit einer Kreislaufführung von CO2 auf.

Bioraffinerie in den Kläranlagen Erbach und Neu-Ulm
Die Pilotanlagen werden auf bestehenden Kläranlagen in Erbach und Neu-Ulm integriert und mit realem Abwasser getestet. »Wir freuen uns, als Partner dieses Projekt zu ermöglichen«, so Thomas Schniertshauer vom Stadtbauamt Erbach. »Wir sind 2016 mit dem Bau einer Hochlastfaulung auf unserer Kläranlage bereits den ersten Schritt Richtung Bioökonomie gegangen. Nun sind wir stolz darauf, unsere Kläranlage zu einer nachhaltigen Bioraffinerie auszubauen.«

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/wegweise… Presseinfo auf der Website des Fraunhofer IGB

(nach oben)


Methan: Leckagen an Biogasanlagen verhindern – Strategien zur Verhinderung des Methanschlupfs vorgelegt

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Forscher des Deutschen Biomasseforschungszentrums GmbH (DBFZ) und der Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) haben in einem internationalen Verbundvorhaben Emissionsmessungen an Biogasanlagen durchgeführt. Ziel war die Bewertung verschiedener Biogasanlagenkonzepte in Europa hinsichtlich ihrer Methanemissionen. Die Kooperationspartneraus Deutschland, Österreich, Schweden, Dänemark und der Schweiz haben Daten zur Identifizierung der wichtigsten Methanleckagen an Biogasanlagen und deren Quantifizierung erhoben und Strategien zur Verhinderung dieser Methanemissionen erarbeitet.

Das Verbundvorhaben „Bewertung und Minderung von Methanemissionen aus verschiedenen europäischen Biogasanlagenkonzepten (EvEmBi)“ wurde durch das Bundesministerium für Ernährung und Landwirtschaft sowie durch ERA-NET Bioenergy gefördert.

Die Ergebnisse des Vorhabens zeigen, dass sich der sogenannte Methan-Schlupf vor allem durch gasdichte Abdeckung von Gärproduktlagern, geeignete Füllstandsregelungen der Gasspeicher sowie regelmäßige Überprüfung von Leckagen verhindern lässt.

Die meisten Leckagen traten an der Folienanbindung zur Behälterwand, an der Seildurchführung der Tauchmotorrührwerke sowie an Festdachbehältern auf. Zudem entweicht Methan betriebsbedingt über die Überdrucksicherungen der Gasspeicher, aber auch durch offene Kugelhähne oder fehlende Wasservorlagen. Durch geeignete Betriebsweise der Anlage, ausgerichtet auf den Füllstand des Gasspeichers, kann das Auslösen der Überdrucksicherung im Normalbetrieb verringert werden.

Für die Analyse der Methan-Minderungspotenziale wurden durch den Kooperationsverbund Emissionsmessungen an 37 unterschiedlichen Biogasanlagen in Deutschland, Österreich, Schweden und der Schweiz durchgeführt. Auf dieser Grundlage wurden Optimierungsvorschläge erarbeitet. Dabei handelt es sich in erster Linie um Maßnahmen wie die Reparatur von Leckagen, die Behebung von Fehlfunktionen, z. B. das Schließen von Kugelhähnen, das Auffüllen der Wasservorlage oder das Schließen der Ventile bei Über-/Unterdrucksicherungen, aber auch um konstruktive Maßnahmen, wie z. B. die gasdichte Abdeckung des Gärproduktlagers.

Mit Blick auf den Wissenstransfer und zur Sensibilisierung der Anlagenbetreiber wurde in Zusammenarbeit mit dem Fachverband Biogas e. V. das Hintergrundpapier H-011 „Methanemissionen an Biogasanlagen“ mit Informationen zu den wichtigsten Methanemissionsminderungsmaßnahmen veröffentlicht.

Hintergrund:
Methan – das Produkt der Biogaserzeugung – wird auf vielfältige Weise z. B. zur Strom- und Wärmeerzeugung verwertet und ist ausschlaggebend für die Wirtschaftlichkeit einer Biogasanlage. Durch Leckagen entweichende Methanemissionen wirken sich nicht nur negativ auf die Wirtschaftlichkeit der Biogasanlage aus, sondern auch auf das Klima, denn Methan ist rund 25-mal klimaschädlicher als Kohlenstoffdioxid. Zudem können sich durch größere Methanleckagen lokale Ansammlungen explosiver Gasgemische bilden und die Sicherheit des Anlagenbetriebes gefährden. Methanleckagen an Biogasanlagen sollten deshalb aufgespürt und vermieden werden.

Förderhinweis:
In der landwirtschaftlichen Tierhaltung fallen enorme Mengen an Wirtschaftsdüngern an, deren Lagerung und Ausbringung Methanemissionen verursachen. Um sie zu mindern, unterstützt das Bundesministerium für Ernährung und Landwirtschaft Investitionen in Maßnahmen zur verstärkten Vergärung von Wirtschaftsdüngern. Nähere Informationen zur Fördermaßnahme finden Sie unter: https://wirtschaftsduenger.fnr.de/

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Anja Engel
Tel.: +49 3843 6930-374
Mail: a.engel@fnr.de

Weitere Informationen:
https://www.biogas.org/edcom/webfvb.nsf/id/DE-H-011/$file/20-10-06_H-011_Hinterg…

(nach oben)


„klimafit“ – Wissen für den Klimawandel vor der Haustür

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Bundesweites Kursangebot für soziale Handlungskompetenz im Klimaschutz startet unter dem Schirm der Nationalen Klimaschutzinitiative

Steigende Temperaturen, extreme Wetterereignisse wie Starkregen und Stürme – der Klimawandel zeigt sich auch in Deutschland immer deutlicher. Dabei steht jede Region vor ihren ganz eigenen Herausforderungen. Mit dem Kurs „klimafit“ wollen der Helmholtz-Forschungsverbund REKLIM, der WWF Deutschland und die Universität Hamburg Bürgerinnen und Bürger auf die Auswirkung des Klimawandels direkt vor ihrer Haustür vorbereiten. Das Bildungsangebot wird mit 2,2 Millionen Euro für drei Jahre in der Nationalen Klimaschutzinitiative gefördert. Im März 2022 startet der nächste Kursdurchlauf an 128 Volkshochschulen in ganz Deutschland.

Wie wirkt sich der Klimawandel auf den privaten oder beruflichen Alltag aus? Auf welche Folgen müssen sich Bürgerinnen und Bürger in einzelnen Regionen einstellen? Wie können Kommunen gemeinsam ins Handeln kommen? Der Kurs „klimafit“ spricht Fragen wie diese direkt an. Der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM), der WWF Deutschland und die Universität Hamburg wollen so Wissen zum Klimawandel vermitteln, Menschen in den Regionen miteinander vernetzen und konkrete Handlungsmöglichkeiten aufzeigen. Die Kurse tragen so aktiv und nachhaltig zum notwendigen Wandel der Gesellschaft bei, um das Klimaproblem als gemeinschaftliche Aufgabe zu verankern.

Die Kurse
Mit ihrem Leuchtturmprojekt „klimafit“ wollen REKLIM, der WWF Deutschland und die Universität Hamburg die Bildung für nachhaltige Entwicklung durch direkte Bürger:innenbeteiligung fördern und den Wissenstransfer zwischen Forschung und Gesellschaft aktiv umsetzen.

Das Kurskonzept besteht aus sechs Abenden mit Präsens- und Onlineterminen. In Expertenvorträgen, Gruppendiskussionen und digitalen Lernangeboten erfahren die Teilnehmenden, was die Ursachen und Folgen der Klimakrise sind und welche Faktoren diese verstärken. Dabei haben sie die Möglichkeit, mit führenden Forschenden sowie lokalen Fachleuten und Initiativen zu sprechen. Die Kurse stellen die regionalen Veränderungen der Veranstaltungsorte in den Mittelpunkt. Deshalb informieren die Klimaschutzbeauftragten der entsprechenden Kommunen, wie ihre Schutz- und Anpassungskonzepte aussehen.
Nach dem Kurs kennen die Teilnehmenden die wichtigsten wissenschaftlichen Grundlagen zum Thema Klima und Klimawandel. Sie haben einen Überblick über Veränderungen direkt vor ihrer Haustür und darüber, was sie tun können, um diesen Folgen zu begegnen.

Das sagen die Initiator:innen
„Mit den Teilnehmenden des klimafit Kurses haben Städte und Gemeinden neue Multiplikatorinnen und Multiplikatoren für den kommunalen Klimaschutz gewonnen, die wissen, wie sich der Klimawandel in der Region auswirkt, welche Maßnahmen die Kommune zur Klimaanpassung plant und was sie selbst zum Klimaschutz beitragen können“, sagt Bettina Münch-Epple, Leitung Bildung, WWF Deutschland.

„Es wird immer wichtiger, über die Folgen und die Möglichkeiten der Klimaanpassung Bescheid zu wissen. Extremwetterereignisse wie Starkregen und lange Hitzeperioden sind hier schon lange keine Seltenheit mehr. Deshalb brauchen wir Menschen, die Klimaschutz in ihre Region bringen. Und genau hier setzt klimafit an“, berichtet Dr. Klaus Grosfeld, Geschäftsführer REKLIM, Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung, Bremerhaven.

„Klimawandel geht uns alle an und wir sollten uns nicht nur betroffen fühlen, sondern auch ins Handeln kommen. Gemeinsam fällt das leichter, als jeder für sich alleine. Gemeinsam lassen sich neue Routinen entwickeln und ein notwendiger Gestaltungswille kooperativ und solidarisch umsetzen“, erläutert Prof. Dr. Beate Ratter, Professorin für Integrative Geographie, Universität Hamburg.

Mehr zu „klimafit“
Der WWF Deutschland und der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM) haben den Kurs „klimafit“ 2016 gemeinsam entwickelt. Die Universität Hamburg führt Begleitforschung durch. Seitdem haben bereits etwa 2000 Menschen an den Kursen teilgenommen. Sie bewerten besonders positiv das neue Wissen über den Klimawandel und die regionalen Veränderungen, die Teil des Kurses sind.

Der Transfer wissenschaftlicher Erkenntnisse und innovativer Technologien in die Gesellschaft ist ein wichtiges Element im Forschungsprogramm „Erde und Umwelt“ der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Das Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz fördert das „klimafit“-Projekt seit Januar 2022 als Teil der Nationalen Klimaschutzinitiative. Bis 2024 soll das Kursangebot an 170 Standorten bundesweit angeboten und langfristig etabliert werden und somit einen konkreten Beitrag zum Klimaschutzprogramm 2030 der Bundesregierung leisten.

Weitere Informationen zum Projekt, zu den bundesweiten Standorten und zur Anmeldung auf https://www.klimafit-kurs.de/ und https://www.reklim.de/ .

Ihre Ansprechpartner:innen sind
Wissenschaft:
Dr. Klaus Grosfeld, Klaus.Grosfeld@awi.de, +49(471)4831-1765
Dr. Renate Treffeisen, Renate.Treffeisen@awi.de, +49(471)4831-2145

AWI-Pressestelle:
Sarah Werner, sarah.werner@awi.de, +49(471)4831-2008

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

(nach oben)


Chatbot oder Mensch – Wer entscheidet besser bei der Rekrutierung? FAU-Team legt Studie zur KI im Personalwesen vor

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Eine offene Stelle, 1000 Bewerbungen: Immer häufiger setzen vor allem große Unternehmen Künstliche Intelligenz (KI) ein, um im Bereich Human Resources (HR) effizienter arbeiten, insbesondere geeignetes Personal finden zu können. Beispielsweise kann für Bewerberinnen und Bewerber bei der Jobsuche ein Chatbot nützlich sein, etwa um sich vorab ein Bild vom Tätigkeitsprofil zu machen und die eigenen Chancen einzuschätzen. An der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wurde finanziert durch die Adecco Stiftung für Arbeit und soziales Leben ein dreijähriges Projekt zum Thema „Künstliche Intelligenz, Chatbots und Rekrutierung“ abgeschlossen.

Untersucht wurde das Verhältnis von Mensch und Maschine im Personalwesen, unter anderem wurden so wertvolle Erkenntnisse über die Akzeptanz sowie ethische Aspekte dieser digitalen Systeme gewonnen. Dazu führten die Forscherinnen und Forscher am Lehrstuhl für Wirtschaftsinformatik, insbesondere Digitalisierung in Wirtschaft und Gesellschaft (Stiftungslehrstuhl) Interviews mit potenziellen Nutzer/-innen und Akteur/-innen im Personalbereich, aber auch mit KI-Expertinnen und -Experten. Das Nürnberger Forschungsteam um Prof. Dr. Sven Laumer hat die Ergebnisse jetzt in einem Bericht zusammengefasst, der sowohl für die Praxis als auch für die Wissenschaft von Relevanz ist. Die Wissenschaftlerinnen und Wissenschaftler halten Chatbots für geeignete Dialogsysteme, um Prozesse im Bereich HR effizienter zu gestalten, geben jedoch zu bedenken, dass Chatbots intelligenter werden und individueller auf die Nutzerinnen und Nutzer eingehen müssen. Auch wenn Algorithmen in Personalabteilungen bei der Entscheidungsfindung unterstützen können, so sind Recruiter mitunter skeptisch, sich auf die reine Datenlage zu verlassen. Laut der Studie bevorzugen Nutzerinnen und Nutzer bei sensiblen Themen mit personenbezogenen Daten sowie bei zukunftsrelevanten Empfehlungen den Mensch gegenüber der Maschine. Eine weitere Erkenntnis: KI wird vor allem dann akzeptiert, wenn Entscheidungen als fair empfunden werden. In diesem Zusammenhang wurde ein mehrdimensionales Fairnessmodell entwickelt und getestet. Überdies können Unternehmen, die eine digitale Rekrutierung anbieten, von Bewerberinnen und Bewerbern als innovativ und somit als attraktiv wahrgenommen werden.

Weiterhin zeigt sich, dass die aktive Vermeidung von Diskriminierung adressiert werden muss. Häufig finden diskriminierende Merkmale (z. B. die Beurteilung nach demographischen Merkmalen) in Modellen Anwendung, auf deren Grundlage Empfehlungen generiert werden. Deshalb ist ein hoher Grad an Transparenz wichtig, der die KI-gestützte Personalgewinnung erklärbar macht.

Gefördert wurde das Projekt von der in Düsseldorf ansässigen Adecco Stiftung, die sich dem Themenfeld „Neue Wege für Arbeit und soziales Leben“ verschrieben hat. „Die Zukunft der Arbeit ist seit jeher eines unserer Kernthemen“, sagt die Geschäftsführerin der Adecco Stiftung Janine Bischoff. „Deshalb war es für uns direkt ein spannendes Themenfeld, das wir gerne fördern wollten.“ Um die Forschung zur Digitalisierung an der FAU weiterzuführen und an das Adecco-geförderte Projekt anzuknüpfen, fördert die Dr. Theo und Friedl Schöller-Stiftung ab Februar 2022 unter anderem den Aufbau eines Forschungslabors zur Zukunft der Arbeit.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sven Laumer | Jessica Ochmann, M.Sc.
Schöller-Stiftungslehrstuhl für Wirtschaftsinformatik,
insb. Digitalisierung in Wirtschaft und Gesellschaft
Institut für Wirtschaftsinformatik des Fachbereichs
wiso-wi-dwg@fau.de

Originalpublikation:
https://www.adecco.de/adecco-stiftung/publikationen/

(nach oben)


PFH sucht Teilnehmende für wissenschaftliche Studie zur Belastung durch Covid-19-Pandemie

Susanne Boll Presse- und Öffentlichkeitsarbeit
PFH Private Hochschule Göttingen
Bisherige Studien zu den Auswirkungen der COVID-19-Pandemie zeigen, dass die globale Krisensituation viele Menschen belastet. Ergebnisse einer internationalen Studie unter Leitung der PFH Private Hochschule Göttingen lassen vermuten, dass die psychische Belastung mit zunehmender Dauer der COVID-19-Pandemie steigt. Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, startet die Abteilung Klinische Psychologie des Fachbereiches Psychologie der PFH jetzt eine vierte Befragung, für die noch Teilnehmende gesucht werden.

Die ca. zwanzigminütige, wissenschaftlich fundierte Umfrage ist unter dem Link: https://umfragen.pfh.de/umfragen/index.php/814951?lang=de verfügbar. „Wir erhoffen uns durch die nun vierte Befragung weitere Erkenntnisse darüber, inwiefern die Pandemie und die bundesweiten Maßnahmen die Entwicklung psychischer Krankheiten über die Jahre hinweg beeinflussen“, so Prof. Dr. Youssef Shiban, Leiter des internationalen Forschungsprojekts und Professor für Klinische Psychologie an der PFH. „Bereits vor der Pandemie gab es mehr Menschen mit hoher psychischer Belastung als das Gesundheitssystem aufnehmen konnte. Diesen Missstand wird die Pandemie nach vielen bisherigen Erkenntnissen weiter anfachen“, so Shiban.

Die Auswertungen der im Rahmen des internationalen Forschungsprojektes durchgeführten ersten drei Befragungen, die vom ersten Lockdown Anfang 2020 bis zum dritten Lockdown Anfang 2021 stattfanden, ergaben eine alarmierend hohe Belastung in Bezug auf Depressionssymptomatik. „Der Anteil an Personen, die schwere Belastungen durch depressive Symptome berichten, war zum zweiten Lockdown mehr als doppelt so hoch als im ersten Lockdown“, berichtet Shiban. Auch in den Kategorien Angst-, Zwangs- und Somatisierungssymptomatik zeigten sich Verschlechterungen. „Diese Befunde lassen vermuten, dass die anhaltenden Beschränkungsmaßnahmen die Wahrscheinlichkeit einer verstärkten Belastung insbesondere bei schweren Symptomen erhöhen“, sagt Shiban. Zwar könne die Studie keine Aussagen über Diagnosen liefern, sondern lediglich über Symptombelastungen, laut Prof. Shiban belegt vergangene Forschung jedoch, dass nicht-klinische Symptome einen erheblichen Risikofaktor für die Entstehung psychischer Krankheiten darstellen.

Teilnehmer:innen für Online-Studie gesucht
Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, führt die Forschergruppe jetzt eine weitere Umfrage durch. „Es erscheint wichtig zu untersuchen, wie der Belastungsgrad sich während und nach Lockdowns verändert, um Belastungsfaktoren isolieren zu können und zukünftigen Versorgungsbedarf abzuschätzen“, so Shiban. Freiwillige, die das 18 Lebensjahr vollendet haben, können unter https://umfragen.pfh.de/umfragen/index.php/814951?lang=de an der Umfrage teilnehmen. Die Bearbeitungszeit beträgt ca. 20 Minuten. „Diese Umfrage ähnelt den vorigen Umfragen sehr, sodass sie dem ein oder anderen bekannt vorkommen wird. Dies sollte jedoch niemanden zurückschrecken, da es unser Ziel ist, die gleichen Informationen zu verschiedenen Zeitpunkten zu erheben“, so Shiban. ”Es wäre deshalb schön, wenn möglichst viele Menschen teilnehmen können, um möglichst verlässliche Ergebnisse zu erhalten.”

Die publizierten Ergebnisse der bisherigen Studien sind zu finden unter:
https://www.researchgate.net/publication/342912733_Depression_symptoms_during_th…
und
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8453152/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Youssef Shiban, shiban@pfh.de

Anhang
Presseinformation Studie PFH Göttingen

(nach oben)


Skepsis gegenüber Zuwanderung nimmt in Deutschland weiter ab

Hendrik Baumann Pressestelle
Bertelsmann Stiftung
Optimistische Einstellungen zur Migration haben in der Bundesrepublik weiter zugenommen. Die Skepsis geht langsam, aber kontinuierlich zurück. Zugleich wachsen die Erwartungen an die deutsche Gesellschaft, Hindernisse für die Integration abzubauen sowie Staats-, Verwaltungs- und Bildungswesen stärker für Zugewanderte zu öffnen.

Gütersloh, 16. Februar 2022. Die Beurteilung von Migration und Integration in Deutschland hat sich erneut leicht verbessert. Dabei spielen insbesondere die Chancen, welche die Zuwanderung der Wirtschaft bietet, eine Rolle. Das geht aus einer neuen Studie der Bertelsmann Stiftung zur Willkommenskultur hervor. Demnach sind 68 Prozent der Befragten der Ansicht, Zuwanderung bringe Vorteile für die Ansiedlung internationaler Firmen. 65 Prozent erwarten eine geringere Überalterung der Gesellschaft, 55 Prozent einen Ausgleich für den Fachkräftemangel und 48 Prozent Mehreinnahmen für die Rentenversicherung.

Die Werte fallen höher aus als bei den vorhergehenden Befragungen in den Jahren 2017 und 2019. Analog dazu sind die Sorgen vor möglichen negativen Effekten von Zuwanderung weiter zurückgegangen, auch wenn diese nach wie vor von einer Mehrheit geteilt werden. Befürchtungen im Hinblick auf Belastungen für den Sozialstaat äußern 67 Prozent der Befragten, 2019 waren es noch 71 Prozent. Konflikte zwischen Eingewanderten und Einheimischen erwarten noch 66 Prozent (2019: 69 Prozent). Mit Problemen in Schulen rechnen nur noch 56 Prozent (2019: 64 Prozent). Ungebrochen ist die Sorge vor Wohnungsnot in Ballungsräumen, die mit 59 Prozent auf demselben Niveau liegt wie vor drei Jahren.

„Die Chancen von Zuwanderung rücken mehr in den Fokus“
„Das Verhältnis der deutschen Bevölkerung zur Migration hat sich seit dem Höhepunkt der ‚Fluchtkrise‘ 2015 kontinuierlich verbessert und die Chancen von Zuwanderung rücken immer mehr in den Fokus. Das dürfte auch an den Erfahrungen aus der Corona-Krise liegen. Viele Menschen haben konkreter erfahren, wie wichtig es ist, dass die kritische Infrastruktur funktioniert und dass wir hierfür auch auf Zuwanderung angewiesen sind, von der Pflege, über den Dienstleistungssektor bis hin zur Landwirtschaft. Allerdings ist auch klar zu erkennen, dass der Umgang mit Vielfalt Zeit braucht. Sorgen und Zweifel sind noch immer verbreitet und erfordern gesamtgesellschaftliche Antworten“, sagt Orkan Kösemen, Projektleiter bei der Bertelsmann Stiftung.

Wie die Studie zeigt, ist die Sicht auf die Willkommenskultur in Deutschland nach wie vor differenziert: Menschen, die zum Arbeiten oder Studieren einwandern, werden nach Einschätzung einer großen Mehrheit der Befragten von den staatlichen Stellen ihrer Kommune (78 Prozent) wie auch von der Bevölkerung vor Ort (71 Prozent) eher oder sehr willkommen geheißen. Zwar sehen die Befragten das für die Gruppe der Geflüchteten mehrheitlich ebenso, allerdings fallen die Werte hier mit 68 und 59 Prozent deutlich geringer aus. Andererseits ist die Aufnahmebereitschaft gegenüber geflüchteten Menschen gestiegen und steht erstmals wieder an einem ähnlichen Punkt wie vor 2015. Nur noch 36 Prozent vertreten aktuell die Meinung, Deutschland könne nicht mehr Geflüchtete aufnehmen, weil es an seiner Belastungsgrenze sei. 2017 äußerten sich noch 54 Prozent so. Auch die Ansicht, dass die Bundesrepublik aus humanitären Gründen mehr Geflüchtete aufnehmen sollte, wird inzwischen von fast jedem zweiten Befragten (48 Prozent) geteilt.

Mangelnde Chancengleichheit und Diskriminierung behindern die Integration
Schon die zurückliegenden Studien zur Willkommenskultur haben ergeben, dass Integration nicht als Einbahnstraße wahrgenommen wird, sondern als ein Prozess, der sowohl den Zu-gewanderten als auch dem Aufnahmeland Anstrengungen abverlangt. In der aktuellen Befragung fällt auf, dass die Erwartungen an die Aufnahmegesellschaft stärker ins Blickfeld rücken. So sehen mehr Menschen als noch 2019 mangelnde Chancengleichheit für Zugewanderte auf dem Arbeitsmarkt und Diskriminierung aufgrund der Herkunft als größte Hindernisse für Integration. Dazu passt, dass sich auch mehr Befragte für neue Antidiskriminierungsgesetze aussprechen, vor allem in Bezug auf den Umgang mit Behörden. Zudem herrscht die Auffassung vor, dass Menschen mit Migrationshintergrund in wichtigen gesellschaftlichen Bereichen nur ungenügend vertreten sind. Das gilt vor allem für Politik, Verwaltung und Polizei sowie Kitas, Schulen und Universitäten. Weiterhin finden viele Befragte, dass die Leistungen von Zugewanderten nicht ausreichend gewürdigt werden. Die Migrant:innen selbst bewerten die Situation noch kritischer. Im Vergleich zum Durchschnitt der Befragten sehen mehr von ihnen mangelnde Chancengleichheit und Diskriminierung als größte Integrationshindernisse. Auch ihre Zustimmungswerte zur Frage nach angemessener Vertretung in gesellschaftlichen Schlüsselbereichen fallen teilweise niedriger aus.

Voraussetzungen für gesellschaftliche Teilhabe verbessern
Die Bertelsmann Stiftung empfiehlt daher, strukturelle Benachteiligungen für Zugewanderte weiter abzubauen und so die Voraussetzungen für ihre gesellschaftliche Teilhabe zu verbessern. Neue gesetzliche Regelungen zur Antidiskriminierung sollten dafür ebenso geprüft wer-den wie rechtliche Maßnahmen zur Förderung von Migrant:innen bei der Besetzung von Stellen in Verwaltung und öffentlichem Dienst. Doch auch symbolische Anlässe und Orte, wie Einbürgerungsfeiern oder das geplante „Haus der Einwanderungsgesellschaft“ in Köln, spielen eine wichtige Rolle: „Projekte, die Wertschätzung und Anerkennung gegenüber zugewanderten Mitbürger:innen zum Ausdruck bringen, fördern das Zusammenwachsen sowie das Selbstverständnis als Einwanderungsgesellschaft. Darüber hinaus können sie dazu beitragen, Deutschland als weltoffenes Land für ausländische Fachkräfte attraktiver zu machen, was angesichts des demografischen Wandels dringend nötig ist“, sagt Ulrike Wieland, Integrationsexpertin der Bertelsmann Stiftung. Um mehr qualifizierte Arbeitskräfte aus dem Ausland zu gewinnen, sollten zudem die Bestimmungen des Fachkräfteeinwanderungsgesetzes konsequent angewendet werden, insbesondere im Bereich der beruflichen Ausbildung.

Zusatzinformationen
Für die Studie „Willkommenskultur zwischen Stabilität und Aufbruch. Aktuelle Perspektiven der Bevölkerung auf Migration und Integration in Deutschland“ hat das Meinungsforschungsinstitut Kantar EMNID 2.013 Menschen in Deutschland ab 14 Jahren repräsentativ befragt. Die Befragung fand zwischen dem 3. und 10. November 2021 statt. Die Daten erlauben Vergleiche zu den vorhergehenden Studien zur Willkommenskultur, welche die Bertelsmann Stiftung im Oktober 2012, Januar 2015, Januar 2017 und April 2019 durchgeführt hat.

Unsere Expert:innen:
Dr. Orkan Kösemen, Telefon: 0 52 41 / 81 81 429
E-Mail: orkan.koesemen@bertelsmann-stiftung.de

Dr. Ulrike Wieland, Telefon: 0 52 41 / 81 81 398
E-Mail: ulrike.wieland@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


Studie: Umweltfachleute unterstützen Umweltpolitik jenseits des Wirtschaftswachstums

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

► Befragung unter Mitarbeitenden des Umweltbundesamtes zeigt Skepsis, dass „grünes“ Wachstum Umweltprobleme lösen kann
► Expert*innen halten wachstumskritische Konzepte für zielführender
► Artikel in Fachzeitschrift „Journal of Cleaner Production“ erschienen

Damit die Wirtschaft klimaschonender und nachhaltiger wird, setzen die meisten Politikansätze auf die Strategie eines „grünen Wachstums“. Doch Umweltfachleute stehen diesem Konzept, das auf weiteres Wirtschaftswachstum abzielt, kritisch gegenüber, wie eine neue Studie zeigt. Eine Befragung von Mitarbeitenden des Umweltbundesamtes – Deutschlands zentraler Umweltbehörde – ergab, dass die Expert*innen wachstumskritische Konzepte für zielführender halten. Die Studienautor*innen vom Institut für ökologische Wirtschaftsforschung (IÖW) und der ESCP Business School haben ihre Ergebnisse im Journal of Cleaner Production vorgestellt. Sie sehen die Befunde als Unterstützung für eine Umweltpolitik jenseits des Wachstums.

Mehrheit der Befragten zeigt sich wachstumskritisch
„Bei einer Auswahlfrage, welche Strategie sie am geeignetsten finden, um Umweltprobleme zu lösen, wählten drei Viertel der Befragten solche Wirtschaftskonzepte, die nicht auf Wachstum setzen. Nur ein Viertel entschied sich für grünes Wachstum“, so Cathérine Lehmann, IÖW-Hauptautorin der Studie. Bei weiteren Fragen, die die Zustimmung implizit über Aussagen zu ökonomischem Wachstum und Umweltbelangen erhoben, ist das Bild sogar noch deutlicher: Fast 99 Prozent der befragten Umweltfachleute stimmten in der Summe eher wachstumskritischen Standpunkten zu.

„Grünes Wachstum setzt darauf, dass die Emissionen und Ressourcenverbräuche vom Wirtschaftswachstum entkoppelt werden, damit die Umwelt entlastet wird“, erklärt IÖW-Ökonom Steffen Lange. „Ob dies allerdings eintreffen und ausreichend sein wird, ist überaus umstritten.“ Längst werden daher alternative Konzepte diskutiert. Der Ansatz „Degrowth“ etwa argumentiert, dass eine Nachhaltigkeitstransformation, die den ökologischen Herausforderungen gerecht wird, in den wohlhabenden Ländern mit einer deutlichen Reduktion des Bruttoinlandsprodukts pro Kopf einhergehen würde. Eine Mittelposition zwischen grünem Wachstum und Degrowth ist „A-Growth“. Dieser Ansatz geht davon aus, dass es nicht vorab abzusehen ist, ob das Bruttoinlandsprodukt steigen oder fallen wird.

Die Befragten bewerteten auch die „vorsorgeorientierte Postwachstumsposition“ als sehr gut, die 2018 vom IÖW, dem RWI – Leibniz-Institut für Wirtschaftsforschung und dem Wuppertal-Institut entwickelt wurde. Sie zielt vor dem Hintergrund der großen Unsicherheit der Möglichkeit einer weitreichenden Entkopplung von Wirtschaftswachstum und Umweltbelastungen darauf ab, dass gesellschaftliche Systeme wachstumsunabhängig(er) gestaltet werden sollten.

Je mehr Fachwissen zu Wachstumskonzepten, umso wachstumskritischer
„Um Umweltprobleme zu lösen, halten unserer Erhebung zufolge die Mitarbeiter*innen im Umweltbundesamt Ansätze wie Degrowth, A-Growth oder die vorsorgeorientierte Postwachstumsposition für geeigneter, als auf weiteres Wachstum zu setzen“, so Lehmann. „Unsere Befragung zeigt, dass diese Sichtweise bei Fachleuten mit größerer Expertise zu den genannten Wachstumskonzepten sogar besonders stark ausgeprägt ist. Viele Befragte scheinen also eher skeptisch zu sein, dass politische Strategien für grünes Wachstum wie der European Green Deal zur erforderlichen Entkopplung von Ressourcenverbrauch und Wachstum führen werden.“

Über 250 Teilnehmende an Befragung
Die Wissenschaftler*innen hatten alle Beschäftigten des Umweltbundesamts eingeladen, an der 20-minütigen Onlinebefragung teilzunehmen. 259 Mitarbeitende der Bundesoberbehörde haben sich im Jahr 2020 an der Befragung beteiligt.

Download Journal-Artikel:
Cathérine Lehmann, Olivier Delbard, Steffen Lange (2022): Green growth, a-growth or degrowth? Investigating the attitudes of environmental protection specialists at the German Environment Agency. Journal of Cleaner Production, https://doi.org/10.1016/j.jclepro.2021.130306

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.

Das IÖW forscht seit vielen Jahren zum Thema Wachstum in der Nachhaltigkeitsdebatte. Um eine verantwortliche Wirtschafts- und Umweltpolitik gestalten zu können, kommt es weniger auf Wachsen versus Schrumpfen an, so die Umweltökonom*innen um IÖW-Volkswirt Ulrich Petschow. Vielmehr müsse auf Vorsorge gesetzt werden: Die Gesellschaft sollte unabhängiger vom Wachstum werden, damit ambitionierte umweltpolitische Vorschläge nicht länger wegen eines Wachstumsvorbehalts ausgebremst werden können, so die „Vorsorgeorientierte Postwachstumsposition“ (https://www.ioew.de/publikation/gesellschaftliches_wohlergehen_innerhalb_planeta…).

http://www.ioew.de | http://twitter.com/ioew_de | http://www.ioew.de/newsletter

Wissenschaftliche Ansprechpartner:
Fachliche Ansprechpersonen:
Cathérine Lehmann, Dr. Steffen Lange
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-0
catherine.lehmann@ioew.de
steffen.lange@ioew.de

(nach oben)


Hilfe für Meer und Küste

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Mit dem Kick-off-Meeting am 17. und 18. Februar erfolgt jetzt der offizielle Start für die zweite Forschungsmission sustainMare „Schutz und nachhaltige Nutzung mariner Räume“ der Deutschen Allianz Meeresforschung (DAM). Sie analysiert unsere Nutzung von Meer und Küste. Meeresspiegelanstieg, Erwärmung und Versauerung der Meere sorgen zusammen mit der Verschmutzung und Übernutzung der Ökosysteme für tiefgreifende Probleme. Zwei Pilotvorhaben und fünf Verbundprojekte untersuchen die ökologischen, ökonomischen und sozialen Auswirkungen der Nutzung und Belastung von Nord- und Ostsee. Das Ziel: Handlungsempfehlungen für Nutzerinnen und Nutzer, Entscheiderinnen und Entscheider liefern.

Nahrungsgeber, Energielieferant, Rohstoffträger, Urlaubsziel und Transportweg. Meer und Küste werden vielgestaltig gebraucht und genutzt. Gleichzeitig beherbergen sie eine einzigartige biologische Vielfalt, die für das Ökosystem Küste essentiell ist. SustainMare, die zweite DAM-Forschungsmission, ist Anfang Dezember 2021 gestartet, um diesen Themenkomplex zu untersuchen. Über 200 Wissenschaftlerinnen und Wissenschaftler werden dazu ihren Beitrag leisten. Der Fokus liegt auf Konzepten und Implementierungen für eine am Gemeinwohl orientierte, den Wohlstand sichernde und umweltschonende Nutzung von Meeres- und Küstengebieten. Außerdem will die DAM-Mission Artenvielfalt und natürliche Lebensräume schützen helfen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Mission mit rund 25 Millionen Euro über einen ersten Zeitraum von drei Jahren.

Küste und Meere im Blick
Die Effekte von Nutzung und Übernutzung können sich gegenseitig verstärken und zu ökologischen, aber auch zu gesellschaftlichen Krisen führen. „Die Mission will die Nutzung und Belastung mariner Räume analysieren und einordnen. Unsere fundierte wissenschaftliche Beratung soll eine Grundlage für Entscheider aus Politik, Behörden und Wirtschaft sein“, sagt Professor Corinna Schrum, Leiterin des Hereon-Instituts für Küstensysteme – Analyse und Modellierung und Sprecherin der Mission. Die Mission will ferner gesellschaftliche Optionen entwickeln für eine ausgewogene Nutzung und einen nachhaltigen Schutz, die nur unter Einbeziehung der verschiedenen Stakeholder, Nutzergruppen und der Öffentlichkeit entwickelt werden können.

SustainMare fokussiert drei Themenbereiche. Erstens: Konzepte zur Verminderung der Auswirkungen der Nutzung und menschengemachter Belastungen auf marine Ökosysteme und Biodiversität. Zweitens: Konzepte zur Vermeidung und Verminderung von Meeresverschmutzung. Und drittens: Modellgestützte Untersuchungen zukünftiger Nutzungsszenarien und Analysen möglicher Management Optionen. Inbegriffen sind aktuelle Probleme wie die Nutzung alternativer Energiequellen, die Belastung durch Munitionsaltlasten oder die Krise in der Fischerei. Die fünf Projekte CREATE, iSEAL, SpaCeParti, CONMAR und CoastalFutures bilden zusammen mit den beiden Pilotprojekten MGF Nordsee und MGF Ostsee die Forschungsmission in Gänze. Neben der Koordination der Mission verantwortet das Helmholtz-Zentrum Hereon auch das Projekt CoastalFutures.

Die weiteren Projekte werden durch das Alfred-Wegener-Institut – Helmholtz Zentrum für Polar- und Meeresforschung (MGF-Nordsee), das Leibniz-Institut für Ostseeforschung Warnemünde (MGF-Ostsee), den Landesbetrieb für Küstenschutz, Nationalpark und Meeresschutz Schleswig-Holstein (iSeal), die Christian-Albrechts-Universität Kiel (SpaCeParti), die Carl von Ossietzky Universität Oldenburg (CREATE) und das GEOMAR Helmholtz Zentrum für Ozeanforschung Kiel (CONMAR) koordiniert. In der sustainMare Forschungsmission arbeiten verschiedene wissenschaftliche Fachdisziplinen und Fachleute aus insgesamt mehr als 40 Instituten, Behörden, NGOs etc. eng zusammen.

Wissenschaftliche Ansprechpartner:
Kai Hoppe I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-1830 I kai.hoppe@hereon.de I www.hereon.de

Weitere Informationen:
https://www.allianz-meeresforschung.de/kernbereiche/forschung/meere-schuetzen-un…

(nach oben)


Die Millionen-Frage: Wie lösen wir komplexe Probleme?

Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Prof. Dr. Carolin Häussler, Innovationsforscherin an der Universität Passau, hat gemeinsam mit ihrer ehemaligen Promovendin Dr. Sabrina Vieth untersucht, wann Menschen im digitalen Zeitalter zu welchen Problemlösungsstrategien greifen – und zwar anhand von Daten der Quiz-Sendung „Wer wird Millionär?“.

Ein Joker bei der 300-Euro-Frage? So ärgerlich das für manche Kandidatinnen und Kandidaten des beliebten RTL-Formats „Wer wird Millionär?“ ist, doch der eine oder die andere braucht bereits zu Beginn des Spiels Hilfe von außen. Nehmen sie diese dann auch in Anspruch? Oder hält sie die Sorge vor der öffentlichen Schmach zurück?

Es sind solche Konstellationen, die in die Studie der Innovationsforscherinnen Prof. Dr. Carolin Häussler (Universität Passau) und Dr. Sabrina Vieth (Coventry University London) eingeflossen sind. Insgesamt untersuchten die Wissenschaftlerinnen anhand der Daten der Quiz-Sendung, wie 4.556 Probleme von 398 Personen gelöst wurden. Dazu kodierten sie 243 Episoden der Show im Zeitraum von Oktober 2009 bis Juni 2013. „Wir wollten wissen: Wann lösen Menschen Probleme selbst, wann greifen sie auf das Spezialwissen individueller Expertinnen und Experten zurück, und wann auf das aggregierte Wissen des Publikums?“, erklärt Prof. Dr. Häussler.

Lösungsstrategien im digitalen Zeitalter
Was klingt, als wäre es lediglich eine unterhaltsame Studie, hat einen ernsthaften Hintergrund. Zwar konzentrierten sich die Forscherinnen in ihrer Analyse auf die Quiz-Sendung, denn: „Um die Effekte auch statistisch sauber zu analysieren, mussten wir ein Setting finden, in dem Menschen mit Problemen konfrontiert wurden, die sie sich nicht selbst ausgesucht haben.“ Doch die Erkenntnisse lassen nicht nur wichtige Schlüsse auf Lösungsstrategien im digitalen Zeitalter zu, in dem Möglichkeiten wie Suchmaschinen oder die Befragung der Crowd frei verfügbar sind. Die Studie liefert auch für die Innovationsfähigkeit von Unternehmen und der Gesellschaft wichtige Erkenntnisse.

Die Ergebnisse im Überblick:
• Soziale Normen, die einen offenen Austausch befürworten, erhöhen die Wahrscheinlichkeit, dass sich die Kandidatinnen und Kandidaten Hilfe von außen holen.
• Eine hohe Komplexität der Probleme motiviert die Spielerinnen und Spieler, Probleme extern zu lösen. In einer Kultur des offenen Austauschs nehmen sie auch bei weniger komplexen Problemen externe Hilfe in Anspruch.
• Bei sehr komplexen Problemen bevorzugen die Teilnehmenden das Spezialwissen einzelner Expertinnen und Experten; bei weniger komplexen Problemen befragen sie das Publikum.
• Ältere Teilnehmende nehmen seltener Hilfe in Anspruch als jüngere. Teilnehmende aus Großstädten waren offener für Hilfe von außen. Letzteres gilt auch für Teilnehmerinnen im Vergleich zu männlichen Spielern.

„Mit unserer Studie zeigen wir, dass dem Faktor der sozialen Normen bislang zu wenig Aufmerksamkeit geschenkt wurde“, sagt Prof. Dr. Häussler. In der Quiz-Sendung verkörpere Moderator Günther Jauch diese soziale Komponente. „Wenn er erinnert und signalisiert, dass es völlig legitim ist, sich Hilfe von außen zu holen, dann tun das die Kandidatinnen und Kandidaten auch.“

Soziale Normen als Schlüssel zur Problemlösung
Starke Normen des offenen Austauschs könnten den Forscherinnen zufolge eine andere Herangehensweise an Probleme fördern – „hin zu einer chancenorientierten Wahl der Problemlösung, die den Wert interner und externer Lösungen unabhängig von der Problemkomplexität anerkennt“. Gerade in einer Zeit mit immer größer werdenden Herausforderungen werde die Kompetenz, externe Lösungen einzuholen und zu koordinieren, immer wichtiger. Wenn also Unternehmen offene Innovationsstrategien auf institutioneller Ebene umsetzen wollen, dann liege es an den Führungskräften, Umgebungen zu schaffen, „in denen positive Einstellungen zu Offenheit und offenem Wissensaustausch verstärkt werden können“, schreiben die Forscherinnen.

Die Studie „A question worth a million: The expert, the crowd, or myself? An investigation of problem solving“ erscheint im April 2022 in dem renommierten Journal „Research Policy“. Es handelt sich dabei um eine der prominentesten Fachzeitschriften im Bereich der Innovationsforschung. Online ist die Studie bereits abrufbar unter: https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…

Über die Autorinnen
Prof. Dr. Carolin Häussler ist seit 2011 Inhaberin des Lehrstuhls für Organisation, Technologiemanagement und Entrepreneurship und DFG-Vertrauensdozentin an der Universität Passau. Sie ist außerdem Projektleiterin im DFG-Graduiertenkolleg 2720: „Digital Platform Ecosystems (DPE)“ an der Universität Passau. Als Mitglied der Expertenkommission Forschung und Innovation (EFI) berät sie die Bundesregierung. Am 23. Februar 2022 übergibt sie Bundeskanzler Olaf Scholz das diesjährige EFI-Jahresgutachten. Mit dem International Center for Economics and Business Studies lockt Prof. Dr. Häussler Forscherinnen und Forscher aus aller Welt nach Passau.

Dr. Sabrina Vieth lehrt und forscht zu Entrepreneurship und Innovation an der Coventry University London. Sie promovierte an der Universität Passau mit dem Schwerpunkt Open Innovation und Crowdsourcing. Ihre Forschungsinteressen drehen sich um die Analyse von Problemlösungen und Wissensaustausch, sowohl im beruflichen als auch im Bildungskontext.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Carolin Häussler
Lehrstuhl für BWL mit Schwerpunkt Organisation, Technologiemanagement und Entrepreneurship
Innstraße 27
94032 Passau
Carolin.Haeussler@Uni-Passau.De

Originalpublikation:
https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…

(nach oben)


Darmkrebs-Screening: Welche Strategie ist am wirksamsten?

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wissenschaftlerinnen und Wissenschaftler vom Deutschen Krebsforschungszentrum (DKFZ) verglichen die Langzeiteffekte der derzeit in Deutschland angebotenen Strategien zur Darmkrebsvorsorge mit möglichen Alternativen. Mithilfe eines Simulationsmodells fanden sie heraus, dass sich das Darmkrebsrisiko zwar mit dem aktuellen Vorsorge-Angebot deutlich senken lässt, es aber ein erhebliches Potenzial gibt, die Vorsorge zu optimieren.

So könnten neben Männern auch Frauen stark davon profitieren, wenn das Anspruchsalter für die Vorsorge-Darmspiegelung von 55 auf 50 Jahre herabgesetzt würde. Außerdem könnten ergänzende Vorsorge-Angebote in höherem Alter erheblich dazu beitragen, die Zahl der Neuerkrankungen und der Sterbefälle zu senken.

Vorsorgeuntersuchungen reduzieren nachweislich das Risiko, an Darmkrebs zu erkranken oder daran zu versterben. In Deutschland werden derzeit verschiedene Möglichkeiten zur Darmkrebsvorsorge angeboten: die alleinige Verwendung fäkaler immunologischer Stuhltests (FITs), eine Kombination aus FITs und nachfolgender Darmspiegelung (Koloskopie), sowie die alleinige Koloskopie. FITs sind für beide Geschlechter ab dem 50. Lebensjahr verfügbar. Männer haben ab dem Alter von 50 Jahren auch Anspruch auf eine Darmspiegelung, Frauen ab 55 Jahren.

Bisher war jedoch nicht klar, welche der möglichen Vorsorgestrategien – auch mit Blick auf Geschlecht und Alter der betreffenden Personen – langfristig das Risiko für Darmkrebs am stärksten senkt. „Sowohl für Frauen und Männer, die an der Vorsorge interessiert sind, als auch für involvierte Ärzte ist es von großem Interesse zu wissen, welche der Strategien zur Darmkrebsvorsorge über einen längeren Zeitraum die effektivste ist“, erklärt der Epidemiologe Hermann Brenner vom Deutschen Krebsforschungszentrum (DKFZ).

Ein Wissenschaftler-Team um Brenner ging dieser Fragestellung nach und analysierte die Langzeiteffekte verschiedener Vorsorgestrategien anhand eines speziellen Simulationsmodells, das auf Grundlage umfangreicher Daten zur Darmkrebsvorsorge in der deutschen Bevölkerung entwickelt worden war.

Dabei fanden die Epidemiologen heraus, dass das Darmkrebsrisiko besonders stark mit Strategien reduziert werden könnte, die derzeit in Deutschland nicht angeboten werden. Beispielsweise würde eine dritte Vorsorgekoloskopie ab dem Alter von 70 Jahren bei Männern das Risiko, an Darmkrebs zu sterben, um weitere neun Prozent verringern. Ähnlich starke Effekte zeigen sich bei einer Erweiterung des Angebots um zusätzliche Stuhltests in höherem Alter. Für Frauen wäre ein alternatives Vorsorgeangebot mit drei Koloskopien alle zehn Jahre ab dem Alter von 50 Jahren wirksamer als alle aktuell verfügbaren Angebote.

„Das aktuelle Angebot leistet bereits einen enormen Beitrag zur Krebsprävention und Senkung der Darmkrebsmortalität“, so Thomas Heisser, Forscher am DKFZ und Erstautor der aktuellen Studie. „Doch unsere Ergebnisse zeigen, dass noch viel Optimierungspotenzial besteht. Beispielsweise sollten auch Frauen die Vorsorgekoloskopie schon ab 50 Jahren nutzen können. Vor dem Hintergrund des demographischen Wandels wäre es außerdem besonders wichtig, zusätzliche Angebote für ältere Menschen zu schaffen, zum Beispiel auf Grundlage immunologischer Stuhltests.“

In Deutschland sterben jedes Jahr etwa 25.000 Menschen an Darmkrebs. „Die meisten dieser Todesfälle wären durch die Darmkrebsvorsorge vermeidbar“, sagt Brenner. „Deshalb arbeiten wir daran, die Möglichkeiten der potenziell lebensrettenden Früherkennungsuntersuchungen weiter zu optimieren.“

Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894

(nach oben)


Mikrobielle Saubermänner räumen Kläranlagen auf

Anette Hartkopf Presse und Kommunikation
Universität zu Köln
Forscher:innen entschlüsseln, wie die mikrobiellen Bewohner von Kläranlagen dabei helfen, Darmparasiten zu beseitigen / Artikel in „Microbiome“ erschienen

Wimperntierchen und Rädertierchen sind die „Saubermänner“ in Kläranlagen. Das ergab eine Studie von Jule Freudenthal und Dr. Kenneth Dumack in der Arbeitsgruppe von Professor Dr. Michael Bonkowski am Institut für Zoologie der Universität zu Köln gemeinsam mit ihren Schweizer Kollegen Dr. Feng Ju und Dr. Helmut Bürgmann vom Eawag – das Wasserforschungsinstitut des ETH-Bereichs. Die Wimperntierchen und Rädertierchen jagen Krankheitserreger wie Giardia oder Entamoeba, Parasiten, die den Darm von Mensch und Tier befallen können. Die Forschenden analysierten in ihren Untersuchungen die Zusammensetzung von DNA und RNA der Abwässer während der Aufreinigung in Klärwerken und erstellten dabei Netzwerkanalysen der mikrobiellen Lebensgemeinschaften. Die Ergebnisse wurden im Artikel „Microeukaryotic gut parasites in wastewater treatment plants: diversity, activity, and removal“ in der Fachzeitschrift Microbiome veröffentlicht.

Die Forschenden erlangten neue Erkenntnisse zu einer der wichtigsten, jedoch wenig erforschten Funktion von Kläranlagen: die Entfernung von Parasiten. Klärwerke verfügen über komplexe Gemeinschaften von Mikroorganismen, bestehend aus nützlichen Wasseraufreinigern, aber auch schädlichen Parasiten, die durch unsere Abwässer eingeschwemmt werden. Obwohl allgemein bekannt ist, dass Kläranlagen gut funktionieren, wissen wir noch erstaunlich wenig darüber, wie sie funktionieren. Insbesondere das Schicksal von Darmparasiten während der Abwasserbehandlung ist kaum erforscht. Die Studie kann somit helfen, in Zukunft Risiken für die öffentliche Gesundheit zu vermeiden.

Anhand der untersuchten DNA- und RNA-Daten aus Kläranlagen entdeckte das Team eine überraschende Vielfalt an vorhanden (DNA) und auch aktiven (RNA) Parasiten im Zulauf der Kläranlagen. Dabei fanden sie auch einen großen Anteil an Parasiten der sogenannten „komplexen Einzeller“, den Protisten, wie zum Beispiel Giardia, der Giardiasis, eine Infektion des Dünndarms, verursacht, oder Entamoeba, den Verursacher der Amöbenruhr. Außerdem fanden sie Blastocystis, einen weltweit verbreiteten Darmparasiten. „Wir konnten bestätigen, dass die Parasiten im Laufe der Abwasserbehandlung reduziert werden und führen dies auf Räuber-Beute Interaktionen in den Klärbecken zurück“, sagt die Doktorandin Jule Freudenthal, die führende Forscherin dieser Studie.

Die Forschung zeigt eine beeindruckende Aktivität von Rosculus, einer kleinen Amöbe, die man hauptsächlich daher kennt, dass sie sich explosionsartig in Kuhdung vermehrt. „Wie wir hier zeigen, trifft das auch auf den Einlauf von Kläranlagen zu“, sagt Studienleiter Dr. Kenneth Dumack. Sogenannte Netzwerkanalysen, die das gemeinsame Vorkommen von Mikroorganismen in Bezug zueinander setzen, haben weiterhin gezeigt, dass Ciliaten und Rädertiere wichtige „Saubermänner“ sind, die Klärwasser von Parasiten befreien und so eine sichere Nutzung von aufgereinigtem Wasser ermöglichen.

Ein vollständiges Monitoring sowie die Forschung an den Mechanismen zur Reduzierung von Parasiten in Kläranlagen helfen, den Klärprozess zu optimieren. Zukünftige Forschungen, die sowohl DNA- als auch RNA-Daten einbeziehen, können helfen, die Risiken für die öffentliche Gesundheit zu verringern, die mit unzureichend behandelten Abwässern verbunden sind.

Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de

Wissenschaftliche Ansprechpartner:
Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49-221-470-8242
kenneth.dumack@uni-koeln.de

Originalpublikation:
https://rdcu.be/cGIwb

(nach oben)


Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
In großen Teilen der Welt wird Wasser aus Grund- oder Oberflächengewässern gewonnen, um den Wasserbedarf der Bevölkerung zu decken. Diese Wasserressourcen stehen jedoch nicht unbegrenzt zur Verfügung. Der steigende Bedarf an Wasser ist mit der zunehmenden Bevölkerungszahl und der damit einhergehenden steigenden Nachfrage nach landwirtschaftlichen Erzeugnissen, Energie und Industrieprodukten zu erklären. Außerdem nehmen zusätzlich Dürrephasen klimawandelbedingt immer weiter zu. Es ist deshalb dringend notwendig, die bisherigen Wassermanagementansätze zu überdenken. Ein Projekt zur Abwasserwiederverwendung an der Hochschule Hof nimmt sich dieser Problematik an.

Besonders für die Landwirtschaft haben die Zeiträume mit Wasserknappheit negative Auswirkungen. Da durch den Mangel an Wasser das Pflanzenwachstum eingeschränkt ist, ist die Ertragssicherheit gefährdet. Um ein nachhaltiges Wassermanagement in allen Lebensbereichen zu gewährleisten, rückt deshalb die Abwasserwiederverwendung immer weiter in den Fokus. „Abwasserwiederverwendung bedeutet, dass Abwasser so aufbereitet wird, dass es an den späteren Nutzen und dem daraus resultierenden Qualitätsanspruch angepasst sein muss“, sagt Prof. Günter Müller-Czygan, Stiftungsprofessor an der Hochschule Hof und Leiter der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.

Kommunales Abwasser für Abwasserwiederverwendung interessant
Da kommunales Abwasser mengenmäßig die größte zur Verfügung stehende Wasserquelle ist, sie gleichzeitig aber stets stark verschmutzt ist, muss moderne Technik zum Einsatz kommen. Diese macht es heutzutage möglich, dass wiederaufbereitetes Abwasser eine deutlich höhere Qualität aufweist als manch eine „natürliche“ Wasserquelle. „Die Aufbereitung des Wassers von kommunalen Quellen ist mittlerweile meist unkompliziert, aber je nach Verschmutzungsgrad technisch aufwendig und kostenintensiv“, so Prof. Günter Müller-Czygan. Technologien und notwendige Systeme sind aber verfügbar und bereits etabliert. Die Nutzung dieser Wasserquelle bietet somit erhebliche Vorteile: Neben der Schonung und damit nachhaltigeren Nutzung natürlicher Wasserressourcen sind durch die Aufbereitungsschritte auch der Eintrag von Schadstoffen in die Umwelt geringer und Temperaturveränderungen und Versalzung, die ebenfalls für einen gestörten Stoffhaushalt von Gewässern verantwortlich sein können, können minimiert werden. „Die Nutzung von wiederaufbereitetem Abwasser könnte also ein wirksamer Lösungsbaustein für die zunehmende Wasserknappheit darstellen“, so der Forschungsgruppenleiter.

Abwasserwiederverwendung scheitert nicht an Technik, sondern an Akzeptanz
Ziel des Vorhabens FlexTreat (Flexible and reliable concepts for sustainable water reuse in agriculture) an der Hochschule Hof ist es daher, durch die Entwicklung und Demonstration flexibler und an die landwirtschaftlichen Bedürfnisse angepasster technischer und naturnaher Aufbereitungssysteme die sichere Abwasserwiederverwendung in der Landwirtschaft zu fördern. „Viele Projekte zur Abwasserwiederverwendung scheitern aber nicht an Fragen zur Aufbereitungstechnik, sondern am Mangel eines rechtlichen Rahmens sowie an der Akzeptanz auf Nutzerseite“, erklärt Prof. Müller-Czygan.

International etabliert – in Deutschland noch in den Kinderschuhen
International ist die Abwasserwiederverwendung bereits etabliert und wird vielfach eingesetzt. In Deutschland hemmen unterschiedliche Rahmenbedingungen, fehlendes Wissen oder nicht bekannte Erwartungshaltungen auf Nutzerseite deren möglichen Einsatz. Ein konstruktiver Austausch zwischen Wasseranbietern, Behörden und Nutzern wie zum Beispiel Landwirten und Anwohnern ist für die Akzeptanz einer Wiederverwendung von gereinigtem Abwasser zwingend notwendig. „Die Darstellung der Nutzervorteile wie auch die Sicherstellung eines geeigneten Risikomanagements inkl. Monitoring spielen hier eine wichtige Rolle. Vor dem Hintergrund des sich vollziehenden Klimawandels und einer zu erwartenden Verringerung der Wasserverfügbarkeit ist für die Abwasserwiederverwendung zukünftig eine erhöhte Akzeptanz notwendig. Diese stellt sich allerdings nicht von selbst ein, sondern ist neben der Bereitstellung ausgereifter Technik auch das Ergebnis einer zielgerichteten Kommunikation und Informationspolitik“, so Stiftungsprofessor Müller-Czygan. Um Maßnahmen zur Akzeptanzerhöhung definieren zu können, übernimmt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ als Unterauftragnehmer der Pegasys Gesellschaft für Automation und Datensysteme mbH die Akzeptanzuntersuchung im Projekt FlexTreat.

Die Akzeptanz für wiederaufbereitetes Wasser von Emotionen abhängig
Allgemein ist die Akzeptanz in der Bevölkerung von verschiedenen Faktoren abhängig, die regional und kulturell sehr unterschiedlich sind. Somit lassen sich keine generellen Schlüsse ziehen. Jeder Einzelfall müsste zu Beginn auf die verschiedenen Faktoren überprüft werden. Je häufiger die Wiederverwendung in Zukunft erfolgt, desto eher werden sich allgemein übertragbare Akzeptanzmuster finden und übertragen lassen. In der internationalen Literatur gibt es bereits identifizierte und wissenschaftlich abgesicherte Faktoren, die häufig als Grund für eine ablehnende Haltung gegenüber wiederaufbereitetem Wasser genannt wurden. Deren Übertragbarkeit auf Deutschland werden wir prüfen“, erklärt Dr. Julia Frank, wissenschaftliche Mitarbeiterin in der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.Sie ist für die Durchführung des Projektes verantwortlich.

Der „yuck factor“
Hier sind soziotechnische, demographische, psychologische, ökologische, ökonomische und kulturelle Faktoren zu nennen, die die Akzeptanz für die Abwasserwiederverwendung beeinflussen. Der bestuntersuchte Faktor ist psychologischer Natur, und wird in der Literatur als „yuck factor“ bezeichnet. Er drückt den Grad der Ablehnung, bzw. des Ekels aus, und geht mit einer geringen Akzeptanz einher. „Der Grad der Ablehnung wird mit einem vermeintlichen persönlichen Gesundheitsrisiko in Verbindung gebracht“, so Frank.

Die kulturelle Prägung erschwert die Übertragbarkeit von regionalen Studien
Aber auch Faktoren wie Alter, Erziehung, Religionszugehörigkeit, Einstellung zum Umweltschutz oder auch das Vertrauen in die Politik spielen beim Thema Abwasserwiederverwendung eine große Rolle. Sie sind so individuell, kulturell und regional unterschiedlich, so dass Studien nur beim „yuck factor“ einen klaren Zusammenhang mit der Akzeptanz erkennen lassen. Bei den Strategien, die Akzeptanz in der Bevölkerung hinsichtlich des Themas Abwasserwiederverwendung zu erhöhen, werden meist Aufklärungskampagnen durchgeführt. In der Bevölkerung fehlt häufig das Wissen generell um die Abwasserreinigung und das Thema ist ohne ausreichend Hintergrundwissen umso emotionaler behaftet. Wichtig in diesem Zusammenhang ist hier, die Bevölkerung über den Prozess der Abwasserreinigung zu informieren. Die Terminologie, die in Informationsveranstaltungen oder Aufklärungskampagnen verwendet wird, ist dabei wichtig zu beachten. Um die Voraussetzungen für eine hohe Nutzerakzeptanz zu schaffen, bedarf es eigener Untersuchungen und eines gezielten Stakeholder-Dialogs auf regionaler Ebene. Genau dafür legt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ mit ihrer Forschung in FlexTreat den Grundstein.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4683
E-Mail: guenter.mueller-czygan@hof-university.de

Anhang
Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?

(nach oben)


Salmonellengefahr für Hundebesitzer

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Bundesamt erinnert am Welt-Haustiertag an notwendige Hygiene

Anlässlich des Welt-Haustiertags weist das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) auf das Risiko einer Übertragung von Salmonellen und ggf. anderen potenziell gefährlichen Mikroorganismen beim Füttern von Hunden hin. „Das Bewusstsein für den richtigen Umgang mit Futtermitteln ist nicht nur für die Gesundheit der Tiere, sondern auch ihrer Halter wichtig“, betont BVL-Präsident Friedel Cramer. Die richtige Hygiene gilt für die Hände genauso wie für die eingesetzten Haushaltsgeräte.

Krankmachende Bakterien können nicht nur bei Kontakt mit dem Hund oder über Hundekot, sondern auch bei der Futterzubereitung und über Hundekauartikel übertragen werden. Die Folge können schwere Magen-Darm-Infektionen sein. Besonders für Kinder und ältere Menschen ist es gefährlich, sich beispielsweise mit Salmonellen zu infizieren und zu erkranken, warnt das BVL.

Beim Zubereiten von rohen Futtermitteln, insbesondere Fleischerzeugnissen, gilt erhöhte Sorgfalt. Denn dort ist eine bakterielle Kontamination möglich. Durch das Übertragen der Keime von solchen Futtermitteln auf die Hände, auf Haushaltsgeräte und Küchenoberflächen können auch Speisen mit Krankheitserregern kontaminiert werden. Deshalb sollte alles nach der Benutzung unbedingt sorgfältig gereinigt sowie die Hände gründlich gewaschen werden.

Auch Hundekauartikel können Krankheitserreger verbreiten: Im Europäischen Schnellwarnsystem (RASFF) warnten die deutschen Überwachungsbehörden im Jahr 2020 in etwa 10 % der Meldungen zu Salmonellen im Futtermittelsektor vor Salmonellen in Hundekauartikeln. Für Hundebesitzer kann auch der Kontakt mit den Kauartikeln und die Verbreitung der Krankheitserreger auf diesem Wege ein Infektionsrisiko darstellen.

Hintergrund:
Über das RASFF informieren sich die EU-Mitgliedstaaten und assoziierte Staaten gegenseitig über mögliche gesundheitsgefährdende Lebensmittel, Futtermittel und Lebensmittelkontaktmaterialien wie Verpackungen, Geschirr oder Besteck. Die entsprechenden Produkte können so schnellstmöglich vom Markt genommen und die Verbraucher geschützt werden.

Anhang
2022_02_18_ PM Salmonellengefahr für Hundebesitzer_ fin

(nach oben)


Neuer Omikron-Subtyp auf dem Vormarsch

Jana Ehrhardt-Joswig Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Ähnlich wie zuvor in Dänemark breitet sich in Berlin ein weiterer Subtyp der Omikron-Variante aus: BA.2. Das ergab die Auswertung von Abwasserproben am MDC in Kooperation mit den Berliner Wasserbetrieben und dem Berliner Labor der amedes-Gruppe. Durch BA.2 könnte sich die derzeitige Corona-Welle verlängern.

Das Coronavirus mutiert ständig. Nach Alpha und Beta kam Delta, auch Gamma, Lambda, Epsilon und Iota kursieren in Teilen der Welt. Seit Omikron auf den Plan getreten ist, ist Delta in Deutschland fast vollständig verschwunden. Von Omikron sind zwei Subtypen bekannt, BA.1 und BA.2. In Berlin dominiert bislang BA.1. Doch Wissenschaftler*innen des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC), der Berliner Wasserbetriebe (BWB) und des Laborunternehmens amedes konnten nun im Berliner Abwasser die Omikron-Untervariante BA.2 nachweisen: Anfang Januar war der Anteil kaum sichtbar, doch bereits am 13. Januar ungefähr machte BA.2 sechs und am 20. Januar ungefähr zwölf Prozent aus. Er wächst also schnell an.

Die beiden Subtypen unterscheiden sich in etwa 20 Mutationen voneinander. In Dänemark und in Südafrika hat BA.2 den Subtyp BA.1 nahezu verdrängt, in Großbritannien nimmt der Anteil von BA.2 seit Anfang Januar ebenfalls schnell zu. Eine Untersuchung dänischer Forscher*innen zeigt, dass BA.2 sich offenbar noch schneller verbreitet als BA.1. „Es ist möglich, dass BA.2 die derzeitige Omikron-Welle etwas verlängert“, sagt der MDC-Molekularbiologe Dr. Emanuel Wyler aus der Arbeitsgruppe „RNA-Biologie und Posttranscriptionale Regulation“ von Professor Markus Landthaler. „Die bisherigen Daten aus Großbritannien und Dänemark deuten aber eher darauf hin, dass bezüglich Krankheitsschwere und Wirkung der Impfung BA.1 und BA.2 vergleichbar sind.“

Computer-Tool sagt voraus, ob Inzidenz zu- oder abnimmt
Bei ihrer Vorhersage stützen sich die MDC-Wissenschaftler*innen auf ein computergestütztes Tool, das Vic-Fabienne Schumann und Dr. Rafael Cuadrat von der Technologie-Plattform „Bioinformatics and Omics Data Science“ von Dr. Altuna Akalin am Berliner Institut für Medizinische Systembiologie (BIMSB) des MDC zusammen mit Kolleg*innen entwickelt haben. Mit „PiGx SARS-CoV-2“ können sie die Ausbreitung von SARS-CoV-2 sowie die Häufigkeit von Mutationen oder Virusvarianten aufdecken. Es funktioniert unabhängig von der Anzahl der Coronatests und den Krankheitsverläufen.
Ihre Ergebnisse decken sich mit denen der Berliner Wasserbetriebe, die in Kooperation mit dem Berliner Labor der amedes-Gruppe unter der Leitung von Dr. Martin Meixner ein eigenes Nachweis-Modell inklusive der Sequenzierung der Virusvarianten sowie eine App für die Visualisierung der Daten entwickelt haben. MDC und die Berliner Wasserbetriebe teilen sich die Arbeit auf: Während der Fokus der Wasserbetriebe auf der schnellen Bestimmung und Übermittlung der Viruslast liegt, analysiert das MDC vorrangig Untertypen und Mutationen.

Seit mehr als einem Jahr suchen die Forschenden im Berliner Abwasser nach dem Erbgut des Coronavirus. Einmal wöchentlich bereiten die Berliner Wasserbetriebe, die aktuell eine eigene Virus-Sequenzierung in ihrem Labor einrichten, Abwasserproben auf und senden diese ans BIMSB sowie an amedes. Die Wissenschaftler*innen reichern die Viruspartikel an und vervielfältigten das Virus-Erbgut mithilfe der PCR. In einem nächsten Schritt können sie mit Hochdurchsatz-Sequenzierungen sehen, welchen Anteil die einzelnen Virusvarianten unter den gefundenen Coronaviren ausmachen. Für die Abwasser-Sequenzierung am BIMSB ist insbesondere die Arbeitsgruppe von Markus Landthaler sowie die Genomik-Plattform unter der Leitung von Dr. Janine Altmüller verantwortlich.

Werden Proben aus dem Hals-Rachenraum sequenziert, wird bislang nicht zwischen Virusvarianten unterschieden. Abwasseranalysen machen das leichter: „Für ein aussagekräftiges Ergebnis über die Verbreitung neuer Virusvarianten müssen deutlich weniger Proben untersucht werden als bei der Analyse von Nasen-Rachenabstrichen“, sagt Markus Landthaler. „Außerdem können sie zur Frühwarnung dienen, da sie mit einigen Tagen Vorsprung zeigen, welche Variante im Umlauf ist. Die Daten zu BA.2 zeigen, wie empfindlich und effizient das Abwasser-Monitoring ist beim Bestimmen von Krankheitserregern. Das ist auch über SARS-CoV-2 hinaus von Bedeutung.“

Untersuchungen des Abwassers sind in Deutschland noch nicht als Teil eines Corona-Frühwarnsystems etabliert – weder für bekannte noch für ganz neue Virusvarianten. Das könnte sich jetzt ändern: Berlin ist einer von 20 Pilotstandorten im Abwasser-Monitoring-Programm, das die Bundesministerien für Umwelt, Naturschutz und nukleare Sicherheit (BMU), für Gesundheit (BMG) sowie für Bildung und Forschung (BMBF) mithilfe von EU-Mitteln fördern. Projektpartner sind die Berliner Wasserbetriebe und das Landesamt für Gesundheit und Soziales. Ziel ist ein nationales Abwasserüberwachungssystem. Es soll Daten über SARS-CoV-2 und insbesondere seine Varianten im Abwasser erheben und an die zuständigen Gesundheitsbehörden sowie an eine europäische Austauschplattform übermitteln.

Max-Delbrück-Centrum für Molekulare Medizin (MDC)
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den MDC-Standorten in Berlin-Buch und Mitte analysieren Forscher*innen aus rund 60 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organübergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patient*innen zugutekommen. Das MDC fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am MDC arbeiten 1600 Menschen. Finanziert wird das 1992 gegründete MDC zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin.

Wissenschaftliche Ansprechpartner:
Dr. Emanuel Wyler
AG Landthaler, RNA-Biologie und Posttranscriptionale Regulation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)
Telefon: +49 30 9406-3009
E-Mail: emanuel.wyler@mdc-berlin.de

Originalpublikation:
Vic-Fabienne Schumann, Rafael Ricardo de Castro Cuadrat, Emanuel Wyler et al. (2021): „COVID-19 infection dynamics revealed by SARS-CoV-2 wastewater sequencing analysis and deconvolution“. MedRxiv, DOI: 10.1101/2021.11.30.21266952

Hinweis: Es handelt sich um Zwischenergebnisse und ein Manuskript, das auf einem Preprint-Server der Wissenschaft zur Verfügung steht. Bislang gab es noch keine wissenschaftliche Begutachtung der Methode (Peer Review). Bis zur offiziellen Veröffentlichung kann noch einige Zeit vergehen, möglicherweise müssen die Autor*innen das Manuskript anpassen und / oder erweitern.

(nach oben)


SUSKULT: Regionaler Gemüseanbau auf der Kläranlage

Theresa von Bischopink Presse- und Öffentlichkeitsarbeit/ Wissenstransfer
Institut für Landes- und Stadtentwicklungsforschung gGmbH
Gemüseanbau direkt auf der Kläranlage – im Verbundprojekt „SUSKULT“ werden die Grundlagen für eine urbane und zirkuläre Agrarproduktion für das Jahr 2050 entwickelt. Das aktuelle ILS-TRENDS „Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt“ von Ann-Kristin Steines und Marcel Haberland stellt das Projekt näher vor.

Bis Mitte des Jahrhunderts werden rund zwei Drittel der Weltbevölkerung in Städten leben. „Die Anbauflächen und die Ressourcen sind jedoch begrenzt“, erläutert ILS-Wissenschaftlerin Ann-Kristin Steines. „Bei SUSKULT erforschen wir ein neuartiges Agrarsystem, das zur Nahrungsmittelversorgung in urbanen Räumen beitragen soll.“ Entwickelt wird ein Bausteinsystem, mit dem die agrarwirtschaftliche Produktion auf dem Kläranlagengelände realisiert werden kann. In sogenannten NEWtrient®-Centern werden für den Anbau benötigte Ressourcen aus dem kommunalen Abwasser zurückgewonnen und aufbereitet, die dann direkt vor Ort für die Produktion eingesetzt werden können. Die Aufzucht der Pflanzen soll in sogenannten hydroponischen Systemen erfolgen. Die Pflanzen wachsen dort erdlos unter Einsatz der zuvor gewonnenen Nährstofflösung.

Das ILS – Institut für Landes- und Stadtentwicklungsforschung ist im Projekt für die Analyse und Abschätzung gesellschaftlicher und räumlicher Entwicklungstrends zuständig. „Gemeinsam mit anderen Stakeholdern ent-wickeln wir Szenarien und untersuchen die Wirkungsmechanismen, die sich von Produktionsstandorten auf die Stadtentwicklung und umgekehrt ergeben. Wir arbeiten daran, die Vorteile des Anbaus, etwa die Nähe zum Absatzmarkt oder die ressourcensparende Anbauweise, für die Bevölkerung transparent zu machen“, erläutert Steines.

Das Verbundprojekt steht nun vor einem nächsten großen Schritt: Noch in diesem Frühjahr soll die Fertigstellung einer Pilotanlage auf der Kläranlage Emschermündung erfolgen.

Unter der Koordination des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT arbeiten 15 Partnerinnen und Partner im Verbundprojekt „SUSKULT – Entwicklung eines nachhaltigen Kultivierungssystems für Nahrungsmittel resilienter Metropolregionen“ zusammen. Das Vorhaben wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:
Ann-Kristin Steines, E-Mail: ann-Kristin.steines@ils-forschung.de

Originalpublikation:
ILS-TRENDS. Ausgabe 1/2022: Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt von Ann-Kristin Steines und Marcel Haberland. https://www.ils-forschung.de/files_publikationen/pdfs/TRENDS-1.22_SUSKULT_ONLINE…

(nach oben)


FH-Forscher entwickelt Sensor zur Überwachung von Biogasanlagen

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen
Dr. Shahriar Dantism forscht am Institut für Nano- und Biotechnologien (INB) der FH Aachen an neuester Sensortechnologie zur Untersuchung von Biogasprozessen. Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.

„Ich wollte den Dingen schon immer auf den Grund gehen“, sagt Dr. Shahriar Dantism, „als Kind wollte ich Archäologe werden.“ Der Weg von dem Jungen, der mit einer kleinen Schaufel im Iran nach Relikten vergangener Zeiten suchte, hin zum erfolgreichen Wissenschaftler, der am Institut für Nano- und Biotechnologien (INB) in Jülich an neuester Sensortechnologie zur Untersuchung von Biogasprozessen forscht, war steinig. Aber die Arbeit hat sich gelohnt: Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.
Nach seiner Schulausbildung im Iran fasste Shahriar Dantism den Entschluss, für ein Studium nach Deutschland zu kommen. „Ich wollte die Welt sehen“, erinnert er sich. Ein Teil seiner Familie lebte in den USA, aber ihn zog es ins Land der Dichter und Denker: „Die deutsche Sprache ist die Sprache der Philosophie.“ Er lernte Deutsch am Goethe-Institut in Teheran, 2003 schaffte er die Prüfungen und bekam die Zulassung für den Besuch eines Studienkollegs in Gießen. Auch dieses absolvierte er mit Bestnoten und nahm schließlich ein Elektrotechnikstudium an der RWTH Aachen auf. „Am Anfang war es schwer für mich“, erinnert er sich. Er musste sich nicht nur in einem fremden Land zurechtfinden und seinen Lebensunterhalt bestreiten, auch seine Familie im Iran benötigte Unterstützung: „Meine Eltern sind krank geworden, ich musste immer wieder nach Hause fliegen, um mich um sie zu kümmern.“ Er wechselte schließlich den Studiengang und schrieb sich für Biomedizintechnik am Campus Jülich der FH Aachen ein. „Die Bachelorarbeit habe ich in Teheran am Krankenbett meiner Mutter geschrieben“, erinnert er sich.
Shahriar Dantism bewältigte diese Herausforderungen, und sein Forschergeist war geweckt: In nur einem Jahr absolvierte er das Masterstudium – Abschlussnote 1,3 – und entschied sich anschließend zu promovieren. In Prof. Schöning, dem Direktor des INB, fand er einen Betreuer, mit dem er gemeinsam ein interessantes und zukunftsträchtiges Forschungsfeld identifizierte: die Überwachung von biochemischen Abläufen in der Biogasproduktion.
„Der Biogasprozess ist sehr komplex“, erläutert Prof. Schöning. Dieser Prozess könne effizienter und sicherer gesteuert werden, wenn präzise Informationen zu den Abläufen innerhalb der Anlagen vorlägen. Konkret geht es um Mikroorganismen, die den Metabolismus – also den Stoffwechsel – des Substrats beeinflussen. Deshalb hat sich Shahriar Dantism mit der Realisierung einer Multi-Sensoranordnung beschäftigt, mit der er unterschiedliche Bakterien gleichzeitig studieren kann. „Ich habe drei verschiedene Bakterientypen als Modellsysteme untersucht“, sagt Dr. Dantism, „die mittels des Sensorarrays eine Simultanmessung ermöglichen.“ Hierbei handelt es sich um die Bakterien Escherichia coli, Corynebacterium glutamicum und Lactobacillus brevis.
Konkret sieht der experimentelle Ansatz so aus, dass auf der Oberseite der Sensoranordnung ein Aufsatz mit vier Kammern angebracht ist. In drei der Kammern wird dem Substrat je eins der drei Bakterien zugegeben, in die vierte kommt nur das Substrat als Referenz. Auf der Unterseite des Chips wird durch Licht ein elektrisches Feld erzeugt – je nach Stoffwechselaktivität in den Kammern ändert sich dessen Stärke. „Dadurch können wir genau analysieren, welche Auswirkung die Zugabe von Mikroorganismen auf das Substrat hat“, erklärt Prof. Schöning. Bei der Entwicklung der Versuchsanordnung konnte der Nachwuchswissenschaftler auf die 3-D-Drucktechnik am Campus Jülich zurückgreifen. Und auch die interdisziplinäre Zusammenarbeit war wichtig: Die Kolleginnen und Kollegen vom Institut NOWUM-Energy ermöglichten den Zugang zu Proben aus ihrem Laborreaktor, mit dem unter anderem die Biogasgewinnung aus Altpapierresten erforscht wird. „Die Modellbakterien können dabei helfen, den sensorischen Ansatz zu justieren“, so Dr. Dantism, „der nächste Schritt sieht dann den Einsatz im Biogasreaktor mit prozessrelevanten Mikroorganismen vor.“
Die Biogasproduktion gilt als ein wichtiger Baustein zur Energiewende. Nach Angaben des Statistischen Bundesamts werden in Deutschland knapp 10.000 Biogasanlagen betrieben. Rund 18 Prozent der erzeugten Strommenge aus Erneuerbaren Energien entstand in Deutschland durch Biomasse. „Wenn wir die Prozesse innerhalb der Anlagen besser verstehen, können wir bei Störungen auch schneller reagieren“, sagt Prof. Schöning. Wenn etwa eine große Biogasanlage „umkippe“, müsse sie für bis zu drei Monate vom Netz genommen werden, und die Aufreinigung sei mit hohen Kosten verbunden.
Dr. Shariar Dantism ist dankbar für die Unterstützung, die er in seiner Zeit am INB erfahren hat. „Das Institut ist sehr gut vernetzt“, berichtet er, er habe die Gelegenheit bekommen, seine Forschungsergebnisse in sechs Publikationen zu veröffentlichen und bei 14 Konferenzen mit Fachleuten aus dem In- und Ausland zu diskutieren. Die Promotionsprüfung wurde hybrid durchgeführt: Drei belgische Kolleginnen und Kollegen waren in Leuven zugegen, ein belgischer Kollege und drei deutsche Kollegen sowie der Kandidat waren live vor Ort in Jülich unter 2G+-Bedingungen dabei. „Ich bin glücklich und dankbar, dass ich an einer so renommierten Hochschule promovieren konnte“, sagt der 39-Jährige. Es sei ein anstrengender Weg gewesen, „aber am Ende erntet man die Früchte.“
Unterstützt wurde das Forschungsvorhaben von Dr. Dantism vom Bundesministerium für Ernährung und Landwirtschaft (Projekt-Nr. 2200613).

(nach oben)


Corona-Impfung: Zweitimpfung mit Biontech steigert Immunantwort effektiver als mit Astra

Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität
Forscher*innen der Universitätsmedizin Göttingen haben die Reaktionen des Immunsystems auf unterschiedliche Kombinationen von Erst- und Zweitimpfungen gegen Sars-Cov-2 genauer untersucht. Veröffentlicht wurden die Daten in der renommierten Fachzeitschrift „Allergy“.

(umg) Weltweit wurden in verhältnismäßig kurzer Zeit verschiedene Impfstoffe mit zum Teil neuartigen Technologien gegen das Corona-Virus Sars-Cov-2 entwickelt. Dennoch gibt es noch offene Fragen zu der optimalen Kombination von Impfstoffen und der durch die Impfung hervorgerufenen Immunantwort. Ein Team von Forscher*innen der Universitätsmedizin Göttingen (UMG) hat nun die komplexe Immunantwort nach unterschiedlichen Impf-Regimen untersucht. Die Ergebnisse der COV-ADAPT-Studie („Humorale und zelluläre Immunantwort des adaptiven Immunsystems nach Impfung oder natürlicher COVID-Infektion“) sind am 6. Februar 2022 in der renommierten europäischen Fachzeitschrift „Allergy“ (Europan Journal of Allergy and Clinical Immunlogy) erschienen.

Die Göttinger Wissenschaftler*innen fanden in Untersuchungen an einem Kollektiv von mehr als 400 Proband*innen, alle Mitarbeiter*innen der UMG, heraus: Die Zweitimpfung mit dem mRNA-Impfstoff von Biontech (BNT162b2) steigert sehr wirksam die Immunantwort. „Dabei war es unwichtig, ob die Probanden zuvor bei der Erstimpfung den Impfstoff von AstraZeneca (ChAdOx1 nCoV-19) oder von Biontech erhalten hatten. Hingegen konnte eine Zweitimpfung mit AstraZeneca die Immunantwort kaum verbessern“, sagt Prof. Dr. Luise Erpenbeck, eine der Senior-Autor*innen der Publikation, ehemals Klinik für Dermatologie, Venerologie und Allergologie der UMG und inzwischen Professorin an der Klinik für Hautkrankheiten des Universitätsklinikums Münster (UKM). Die Studie COV-ADAPT wurde durch die Deutsche Forschungsgemeinschaft (DFG) gefördert.

In dem untersuchten Personen-Kollektiv haben die Göttinger Forscher*innen drei unterschiedliche Kombinationen von Erst- und Zweitimpfungen im Zeitraum von Mai bis Juli 2021 genauer auf ihre Wirkung hin betrachtet. Darunter waren Impfregime mit nur einem Impfstoff (Erst- und Zweitimpfung mit Astra bzw. Biontech) und die Kombination aus Astra als Erstimpfung und Biontech als Zweitimpfung.

Das Team untersuchte nicht nur die Antikörper-Bildung nach der Impfung, sondern auch die Aktivität bestimmter Abwehrzellen (T-Zellen), die besonders wichtig für die Abwehr von Virusinfektionen sind. Dabei zeigte sich, dass die Antikörper-Entwicklung (die so genannte „humorale Immunantwort“) und die T-Zell-Aktivität (die „zelluläre Immunantwort“) voneinander abhängig waren. „Man kann daher nicht davon ausgehen, dass ein niedriger Antikörper-Spiegel nach Impfung durch eine hohe T-Zell-Antwort ausgeglichen wird“, sagt Priv.-Doz. Dr. Dr. Moritz Schnelle, ebenfalls Senior-Autor der Publikation aus dem Institut für Klinische Chemie der UMG.

Für die Studie arbeiteten Wissenschaftler*innen der Klinik für Dermatologie, Allergologie und Venerologie, des Instituts für Klinische Chemie und des Instituts für Medizinische Mikrobiologie und Virologie der UMG zusammen. „Es war für uns alle eine großartige Erfahrung, gemeinsam mit so vielen enthusiastischen Forscher*innen an diesem wichtigen Thema zu arbeiten“, sagt Dr. Moritz Hollstein, Erst-Autor der Publikation aus der Klinik für Dermatologie, Venerologie und Allergologie der UMG. Das Forscherteam plant, die Immunantworten der Proband*innen über die Zeit hinweg weiter zu verfolgen, um auch Langzeit-Erkenntnisse über die Immunantwort zu erlangen. „Wir bedanken uns herzlich bei den über 400 freiwilligen Probanden aus der UMG. Sie haben die Studie überhaupt erst möglich gemacht und nehmen auch weiterhin zuverlässig an ihr teil“, so Hollstein für das gesamte Forscherteam.

Wissenschaftliche Ansprechpartner:
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Klinische Chemie
Priv.-Doz. Dr. Dr. Moritz Schnelle
Telefon 0551 / 39- 65510
moritz.schnelle@med.uni-goettingen.de
www.umg.eu

Universitätsklinikum Münster (UKM)
Klinik für Hautkrankheiten
Prof. Dr. Luise Erpenbeck
Von-Esmarch-Str. 58, 48149 Münster
Telefon 0251 / 83-59526
luise.erpenbeck@ukmuenster.de
www.ukm.de

Originalpublikation:
Originalveröffentlichung: Interdependencies of cellular and humoral immune responses in heterologous and homologous SARS-CoV-2 vaccination. Moritz M. Hollstein, Lennart Münsterkötter, Michael P. Schön, Armin Bergmann, Thea M. Husar, Anna Abratis, Abass Eidizadeh, Meike Schaffrinski, Karolin Zachmann, Anne Schmitz, Jason S. Holsapple, Hedwig Stanisz-Bogeski, Julie Schanz, Andreas Fischer, Uwe Groß, Andreas Leha, Andreas E. Zautner, Moritz Schnelle, Luise Erpenbeck. Allergy. First Published: 06 February 2022. https://doi.org/10.1111/all.15247

(nach oben)


Vergleich mit Verbrenner: Elektrofahrzeuge haben beste CO2-Bilanz

Michael Brauns Pressestelle
Universität der Bundeswehr München
Forschende der Universität der Bundeswehr München zeigen in Untersuchungen, dass die gesamten Pkw-Lebenszyklusemissionen durch die Elektrifizierung von Fahrzeugen um bis zu 89% gesenkt werden können. Benzin- und Dieselfahrzeuge weisen im Vergleich die höchste Menge an Treibhausgas-Emissionen aus.

Der weltweite Fahrzeugmarkt befindet sich in der größten Transformation seit der Erfindung des Automobils. Um die Auswirkungen des Transport-sektors auf die Umwelt und das Klima zu reduzieren, treiben Politik und Wirtschaft den Übergang von konventionellen Fahrzeugen mit Verbrennungsmotoren hin zu Hybrid- und Elektrofahrzeugen voran. Ein vielfach diskutiertes Thema dabei ist die Treibhausgas-Bilanz von Fahrzeugen über ihren gesamten Lebenszyklus hinweg, also die Menge an Schadstoffen, die von der Produktion eines Fahrzeuges, über die Nutzung und die Verschrottung insgesamt ausgestoßen werden. Diese Bilanz macht Fahrzeugemissionen über den reinen Verbrauch im Straßenverkehr hinaus ganzheitlich vergleichbar.

In einer neuen, hochrangig veröffentlichten Publikation haben Forschende der Universität der Bundeswehr München (UniBw M), im Rahmen ihrer Projekte am Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr (dtec.bw) über 790 aktuelle Pkw-Fahrzeugvarianten miteinander verglichen und zeigen: mit Plug-in-Hybrid- und vollelektrischen Fahr-zeugen können Gesamtemissionen erheblich reduziert werden.

Die Gesamtemissionen sind entscheidend
Die Ergebnisse machen deutlich, dass das Nebeneinanderstellen einzelner Emissionsabschnitte innerhalb der gesamten Produktlebensdauer wenig aussagekräftig ist, wenn man über die Klimaverträglichkeit unterschiedlicher Fahrzeuge argumentieren möchte. So weisen beispielsweise batterie-elektrische Fahrzeuge im Vergleich die höchsten Emissionen bei der Produktion aus, in der Gesamtbetrachtung mit Nutzung und Recycling hingegen schneiden sie besser ab als klassische Verbrenner. Die Emissionen durch die Batterieproduktion eines aktuellen Tesla Model 3 (Standard Range Plus-Modell) sind vergleichbar mit den Nutzungsemissionen eines Volkswagen Passat (2.0 TSI-Modell) über eine Strecke von 18.000 km – nur einem Bruchteil der Nutzungsdauer. Konventionelle Benzin- und Dieselfahrzeuge sorgen insgesamt für die höchste Menge an Treibhausgasemissionen über ihren gesamten Lebenszyklus.

Bei der Verwendung von Ökostrom können Plug-in-Hybrid- und vollelektrische Fahrzeuge die Gesamtemissionen im Vergleich zu Verbrennern um 73% bzw. 89% reduzieren. Alternativ können Brennstoffzellenfahrzeuge die Treibhausgasemissionen in ähnlichem Maße wie Elektrofahrzeuge (die mit herkömmlichem Strom betrieben werden) reduzieren, wenn sie derzeitig handelsüblichen grauen Wasserstoff verwenden (60%). Ganz generell führen erneuerbare Kraftstoffe und Energie zu den niedrigsten Emissionen über die Lebensdauer von Fahrzeugen hinweg.

790 aktuelle Fahrzeuge als Datenbasis
Die Publikation basiert auf einer umfassenden Datenbank, die 790 aktuelle Pkw-Modelle und -Varianten listet und durch Analysemodelle vergleichbar macht. „Herstellerangaben und Einzelanalysen greifen oft zu kurz und verfälschen bei Verbrauchern die wirklichen Klimaauswirkungen ihrer Kaufentscheidungen bei Pkw. Darum haben wir seit Anfang 2020 um-fassend Daten gesammelt, um unabhängig zu zeigen, wie sich die CO2-Bilanz unterschiedlicher Antriebsarten wirklich darstellt“, so Johannes Buberger von der Fakultät für Elektrotechnik und Informationstechnik der Universität der Bundeswehr München, der die Analyse maßgeblich voran-getrieben hat. Bislang gibt es wenig vergleichbare Analysen, die Treibhausgas-Emissionen im Transportsektor im selben Umfang analysieren und vergleichbar machen.

Das Paper wird im „Renewable and Sustainable Energy Reviews“ veröffentlicht, einer der international renommiertesten Fachzeitschriften für nachhaltige Energieversorgung und erneuerbare Energien. Der Impact-Faktor des Journals beträgt 15, was bedeutet, dass es auf Platz 1 von insgesamt 44 Journals in der Kategorie Green & Sustainable Science & Technology liegt. „Die Veröffentlichungen in einer so hoch bewerteten Fachzeitschrift zeigt die Qualität der Forschung und der Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München und unsere Expertise bei Mobilitätsthemen“, so Prof. Thomas Weyh, der die Professur für Elektrische Energieversorgung an der Universität der Bundeswehr München innehat und Johannes Buberger als Doktorand betreut.

Die Universität der Bundeswehr München forscht umfangreich zu Themen der Mobilität. Ganz aktuell wird im dtec.bw-Projekt „MORE – Munich Mobility Research Campus“ die Zukunft der digitalisierten und vernetzten Mobilität erforscht und am Campus der Universität der Bundeswehr München als Modellstadt aufgebaut. Die Erkenntnisse der Publikation fließen auch in die Forschung von MORE ein.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Weyh

(nach oben)


Der schwierige Weg zur Diagnose: COVID-19 als Berufskrankheit

Robin Jopp M.A. Presse- und Öffentlichkeitsarbeit
Klinikum der Ruhr-Universität Bochum – Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Bergmannsheil startet Online-Fortbildungsreihe für Beschäftigte der Unfallversicherungsträger

„COVID-19 ist eine Multiorgankrankheit – bei der Bewertung von Folgeschäden ist deshalb die interdisziplinäre Sichtweise so immens wichtig“, so das Credo von Prof. Dr. Martin Tegenthoff. Der Direktor der Neurologischen Klinik am BG Universitätsklinikum Bergmannsheil war einer von sechs Referentinnen und Referenten bei einer bundesweit beachteten Fachveranstaltung zum Thema COVID-19 als Berufskrankheit. Sie richtete sich an Expertinnen und Experten der gesetzlichen Unfallversicherung und spannte einen weiten thematischen Bogen: Von der Anerkennung von Post-COVID als Versicherungsfall der gesetzlichen Unfallversicherung über neurologische, pneumologische, kardiologische und psychologische Aspekte bis zur Versorgung und Behandlung betroffener Menschen im Rahmen des BG Rehabilitationsverfahrens.

Rund 200 Teilnehmerinnen und Teilnehmer aus ganz Deutschland hatten sich bei der Tagung am 1. Februar 2022 online zugeschaltet. Eingeladen hatten die Deutsche Gesetzliche Unfallversicherung (DGUV) und das Bergmannsheil. Wegen der großen Nachfrage haben die Veranstalter bereits mehrere Folgetermine geplant, bei denen es bereits rund 1.600 weitere Anmeldungen aus ganz Deutschland gibt.

Tausende von Betroffenen
Corona überstanden und trotzdem nicht gesund: So geht es derzeit vielen tausenden Menschen, die noch Wochen nach einer COVID-19 Erkrankung mehr oder minder schwere Beschwerden und Einschränkungen verspüren. Die vielfältigen Symptome, die sich hiermit verbinden, werden als Long- oder Post-COVID-Syndrom bezeichnet.

Über die Anerkennung von COVID-19 als Versicherungsfall, die Fallsteuerung und das Reha-Management referierte Markus Taddicken: Der Geschäftsführer der Bezirksverwaltung Bochum der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege (BGW) erläuterte die enormen Herausforderungen, die die große Zahl von betroffenen Beschäftigten beispielsweise in Krankenhäusern, Pflegeheimen oder Gesundheitseinrichtungen mit sich brächten. Eigens für die profunde und sachgerechte Begutachtung der Betroffenen habe man daher in Kooperation mit den BG Kliniken spezielle Sprechstunden sowie ambulante und stationäre Diagnostikprogramme etabliert.

Beschwerdebild oft unspezifisch
Prof. Tegenthoff ging auf die komplexen diagnostischen Herausforderungen ein, die sich den Medizinerinnen und Medizinern im klinischen Alltag stellen. Denn die Beschwerden bei mutmaßlich von Post-COVID betroffenen Menschen seien oft sehr unspezifisch und vielfältig. Sie reichten von Müdigkeit und Erschöpfung, eingeschränkter Belastbarkeit, Geruchs- und Geschmacksverlust, Kopfschmerzen und kognitiven Problemen über Atembeschwerden, Luftnot und Störungen des Herz-Kreislauf-Systems bis hin zu psychischen Problemen wie Angst- oder depressiven Störungen. Bei manchen reiche eine ambulante Vorstellung, bei anderen sei ein stationärer Post-COVID-Check unabdingbar: „Die Betroffenen werden hier in einem intensiven Programm interdisziplinär untersucht: Lunge, Herz, Hirn, Nerven, Psyche – all das bieten wir im Bergmannsheil im Rahmen unseres umfassenden Post-COVID-Checks unter einem Dach.“

Von Lunge über Herz und Nerven bis zur Psyche: viele Organe und Systeme betroffen
Die breite Interdisziplinarität spiegelte sich wider in der Programmgestaltung der Tagung: Neben Prof. Tegenthoff, der speziell auf die neurologischen Symptome von Post-COVID einging, sprachen Expertinnen der Pneumologischen Klinik (Dr. Juliane Kronsbein, Leitende Oberärztin), der Kardiologischen Klinik (Dr. Aydan Ewers, Leitende Oberärztin) und der Neurologischen Klinik am Bergmannsheil (Dr. Jule Frettlöh, Leitende Psychologin) und berichteten aus ihren konkreten klinischen Erfahrungen, die sie in der Begutachtung und Behandlung vieler betroffener Menschen gesammelt haben.

Dr. Sven Jung, Chefarzt der Abteilung für BG Rehabilitation, berichtete, wie eine gezielte therapeutische Begleitung von Patientinnen und Patienten eingeleitet und organisiert werden sollte: „Sinnvoll ist, die Rehabilitation sehr zielgenau am organischen Krankheitsbild auszurichten.“ Oder, wie Markus Taddicken (BGW) hervorhob: „Long-COVID oder Post-COVID sind Sammelbezeichnungen für eine Vielzahl möglicher Problemstellungen. Für eine erfolgreiche Heilbehandlung und Teilhabe am Arbeitsleben im Rahmen unseres Reha-Verfahrens brauchen wir ein Vorgehen, dass sich möglichst spezifisch auf die individuellen jeweiligen Symptome und deren Auswirkungen auf die Teilhabe fokussiert.“

Über das Bergmannsheil
Das BG Universitätsklinikum Bergmannsheil zählt zu den größten Akutkliniken der Maximalversorgung im Ruhrgebiet. 1890 als erste Unfallklinik der Welt zur Versorgung verunglückter Bergleute begründet, vereint das Bergmannsheil heute 23 hochspezialisierte Kliniken und Fachabteilungen unter einem Dach. Rund 2.200 Mitarbeiter stellen die qualifizierte Versorgung von rund 84.000 Patienten pro Jahr sicher.

Das BG Universitätsklinikum Bergmannsheil gehört zur Unternehmensgruppe der BG Kliniken. Die BG Kliniken sind spezialisiert auf die Akutversorgung und Rehabilitation schwerverletzter und berufserkrankter Menschen. An 13 Standorten versorgen über 14.000 Beschäftigte mehr als 560.000 Fälle pro Jahr. Damit sind die BG Kliniken der größte öffentlich-rechtliche Krankenhauskonzern in Deutschland. Träger der BG Kliniken sind die gewerblichen Berufsgenossenschaften und Unfallkassen.

Weitere Informationen: www.bergmannsheil.de, www.bg-kliniken.de

Fachlicher Ansprechpartner:
Dr. med. Sven Jung
Chefarzt
Abteilung BG Rehabilitation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
E-Mail: sven.jung@bergmannsheil.de

Medienkontakt:
Robin Jopp
Leitung Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-6125
E-Mail: robin.jopp@bergmannsheil.de

Melina Jasmine Kalwey
Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-3597
E-Mail: melina.kalwey@bergmannsheil.de

(nach oben)


Große politische Veränderungen beeinflussen das Wohlbefinden von Beschäftigten

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Arbeit in Zeiten des Brexits: Neue Studie zeigt Zusammenhänge zwischen makropolitischen Ereignissen und dem Wohlergehen von Beschäftigten auf

Große gesellschaftliche und politische Umwälzungen wie beispielsweise der Brexit wirken sich auch auf das Wohlbefinden von Beschäftigten aus – allerdings nicht unbedingt so, wie man vielleicht erwarten würde. Forschende der Johannes Gutenberg-Universität Mainz (JGU), des Leibniz-Instituts für Resilienzforschung, der Loughborough University sowie der Medical School Hamburg haben britische Wissenschaftlerinnen und Wissenschaftler dazu befragt, wie sie den Ausstieg Großbritanniens aus der EU bewerten. Die Studie ergab, dass sie den Brexit eher als bedrohlich und weniger als eine positive Herausforderung empfinden. „Dies wirkte sich wiederum auf die wahrgenommene Arbeitsplatzsicherheit sowie die Beziehungsqualität mit Kollegen und Kolleginnen aus“, teilt Miriam Schilbach, Doktorandin bei Prof. Dr. Thomas Rigotti am Psychologischen Institut der JGU sowie wissenschaftliche Mitarbeiterin am Leibniz-Institut für Resilienzforschung mit. Sie ist Erstautorin der Studie, die nun im European Journal of Work and Organizational Psychology veröffentlicht wurde.

Arbeitsplatzsicherheit und Beziehungsqualität zu Kolleginnen und Kollegen ist für Wohlergehen entscheidend
Bisher liegen nur wenige Untersuchungen vor, die sich mit den Auswirkungen von wichtigen politischen Ereignissen auf das persönliche Wohlergehen im Arbeitskontext beschäftigen. Das Forschungsteam hat den Brexit daher als eine Chance betrachtet, um eine stressige Situation untersuchen zu können, die alle Menschen in Großbritannien gleichermaßen betrifft. Das Team wandte sich an Beschäftigte britischer Universitäten und bat sie zu drei Zeitpunkten, einen Fragebogen zu beantworten: im September und Dezember 2019 sowie im Februar 2020 – also rund drei Jahre nach dem Brexit-Referendum, aber noch vor dem endgültigen Ausscheiden aus der EU. 115 Probanden waren bis zum Schluss dabei und nahmen an allen drei Umfragen teil. Das Durchschnittsalter betrug knapp 44 Jahre, rund 37 Prozent waren Frauen. Sie sollten beispielsweise Aussagen bewerten wie „Während der letzten drei Monate fühlte ich mich emotional ausgelaugt“ oder „Ich muss auch zu Hause an Schwierigkeiten bei der Arbeit denken“.

„Wir sind bei unserer Untersuchung davon ausgegangen, dass sowohl die Arbeitsplatzsicherheit als auch die Zugehörigkeit beziehungsweise die Qualität der Beziehung zu den Arbeitskolleginnen und -kollegen fundamentale menschliche Bedürfnisse sind und eng mit dem persönlichen Wohlergehen zusammenhängen“, erklärt Miriam Schilbach die Ausgangslage der Untersuchung. Angesichts der wachsenden Unsicherheit etwa aufgrund von wirtschaftlicher Instabilität oder zunehmender Globalisierung sei es besonders wichtig, die Mechanismen besser zu verstehen, die von Großereignissen auf das individuelle Befinden ausgehen. Arbeitnehmerinnen und Arbeitnehmer werden, so die Erwartungen, auch in Zukunft davon betroffen sein.

Hinzu kommt für die Autorengruppe noch die Frage, ob die individuelle Einschätzung eines solchen Ereignisses der sozialen Norm entspricht oder davon abweicht – das heißt, ob jemand im Einklang mit der Mehrheitsgesellschaft das Geschehen als bedrohlich oder als Herausforderung erlebt. „Wir stellen mit dieser Frage eine vorherrschende und weithin akzeptierte Ansicht auf den Prüfstand, nämlich dass die Beurteilung einer Situation als eine Herausforderung generell zu positiven und die Beurteilung als eine Bedrohung generell zu negativen Ergebnissen führt“, so Schilbach. Die Überlegungen sind nicht nur im Hinblick auf den Brexit relevant. Auch wenn sich die jetzige Studie darauf bezieht, gehen die Verantwortlichen davon aus, dass andere kontroverse Ereignisse ähnliche Effekte haben, zum Beispiel eine umstrittene Fusion von Unternehmen.

Gemeinsam erlebte Stresssituationen können zusammenschweißen
Die Ergebnisse der Studie zeigen, dass die Akademikerinnen und Akademiker in dieser Stichprobe den Brexit überwiegend als Bedrohung und weniger als eine Herausforderung bewerten. „Die Einschätzung als Bedrohung geht erwartungsgemäß mit einer größeren Unsicherheit über den eigenen Arbeitsplatz einher, aber auch mit einer besseren Beziehung zu den Arbeitskollegen“, sagt Schilbach. Sie vermutet, dass die Beschäftigten eine solche Stresssituation als „unser Problem“ betrachten und der gemeinschaftliche Austausch unter den Kolleginnen und Kollegen zusammenschweißt. Wird der Ausstieg Großbritanniens aus der EU als eine Herausforderung betrachtet, ergibt sich für diese kleinere Gruppe der Stichprobe das umgekehrte Szenario, somit eine schlechtere Beziehung zu den Kollegen – was wiederum das Wohlbefinden schmälert.

Nur wenige Studien haben bisher versucht, die Mechanismen zu identifizieren, die von einem politischen Ereignis auf das persönliche Wohlbefinden von Erwerbstätigen ausstrahlen. „Hier zeigen wir, wie wichtig es für die Befindlichkeit ist, ob die Betroffenen das Ereignis ähnlich bewerten oder nicht“, fasst Schilbach zusammen.

Weitere Links:
https://www.aow.psychologie.uni-mainz.de/ – Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie an der JGU
https://lir-mainz.de/home – Leibniz-Institut für Resilienzforschung

Lesen Sie mehr:
https://www.uni-mainz.de/presse/aktuell/12344_DEU_HTML.php – Pressemitteilung „Effekte eines Arbeitsplatzwechsels auf die Gesundheit: Worauf Arbeitgeber und Jobwechsler achten sollten“ (21.10.2020)

Wissenschaftliche Ansprechpartner:
Miriam Schilbach
Leibniz-Institut für Resilienzforschung und
Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie
Psychologisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 (6131) 8944829
E-Mail: miriam.schilbach@lir-mainz.de
https://www.aow.psychologie.uni-mainz.de/miriam-schilbach/

Originalpublikation:
Miriam Schilbach et al.
Work in times of Brexit: explanatory mechanisms linking macropolitical events with employee well-being
European Journal of Work and Organizational Psychology, 5. Januar 2022
DOI: 10.1080/1359432X.2021.2019709
https://www.tandfonline.com/doi/full/10.1080/1359432X.2021.2019709

(nach oben)


Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“

Marion Hartmann Presse- und Öffentlichkeitsarbeit
Daimler und Benz Stiftung
Wer wird wie viel Wasser bekommen?

Ein von der Daimler und Benz Stiftung geförderter Forschungsverbund soll Zielkonflikte der künftigen Wasserverteilung bearbeiten

Die Daimler und Benz Stiftung nimmt in ihrem neu ausgerichteten Förderformat „Ladenburger Kolleg“ aktuell gesellschaftliche Zielkonflikte in den Fokus – zum Thema „Zukünftige Wasserkonflikte in Deutschland“. Nach erfolgtem Auswahlverfahren stehen dem Forschungsverbund rund 1,3 Millionen Euro für einen Zeitraum von drei Jahren zur Verfügung. Die interdisziplinäre Wissenschaftlergruppe soll Interessenskonflikte bei der künftigen Wasserverteilung in Deutschland aufspüren und mögliche Lösungsansätze aufzeigen. Dies geschieht mithilfe von Modellierungen und Planspielen, die für eine breite Nutzbarkeit der Ergebnisse heute und in Zukunft sorgen sollen.

Von den Vereinten Nationen wurde im Jahr 2010 das Menschenrecht auf Wasser und Sanitärversorgung anerkannt. Wasser zählt zu den wichtigsten Rohstoffen der Erde und soll allen Menschen flächendeckend in ausreichender Menge zur Verfügung stehen. Was aber, wenn es angesichts des Klimawandels und künftiger Wetterextreme – Hitze, Starkregen, Überschwemmungen oder anhaltende Trockenheit – immer knapper wird? Lokaler Wasserstress könnte künftig auch im eigentlich wasserreichen Deutschland zu verstärkten Verteilungskonflikten führen, etwa zwischen Landwirt-schaft, Industrie, Energie- und Wasserwirtschaft sowie dem Schutz von Grundwasser und Ökosystemen.

Wasserkonflikte, die sich künftig in Deutschland abzeichnen könnten, sind das erste große Themenfeld, das Wissenschaftler im Rahmen des neu ausgerichteten Förderformats erforschen. „Das Format ‚Ladenburger Kolleg‘ haben wir so modifiziert, dass relevante gesellschaftliche Entwicklungen an der Schnittstelle von Mensch, Technik und Umwelt aufgegriffen werden und die Stiftung in unregelmäßigen Abständen thematisch fokussierte Ausschreibungen veröffentlicht“, erklärt Prof. Dr. Julia Arlinghaus, die gemeinsam mit Prof. Dr. Lutz H. Gade den Vorstand der Daimler und Benz Stiftung bildet. Dies soll jeweils in einem interdisziplinären bzw. auch länderübergreifenden Forschungsnetzwerk erfolgen.

„Wir wollen zu einem tiefgreifenden Verständnis möglicher künftiger Wasserkonflikte in Deutschland beitragen“, so Dr. Wolfgang Weimer-Jehle vom fakultätsübergreifenden Zentrum für interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) der Universität Stuttgart. Er ist zugleich wissenschaftlicher Koordinator und Sprecher des neuen Ladenburger Kollegs der Daimler und Benz Stiftung. „Gemeinsam mit Kollegen der Technischen Universität Bergakademie Freiberg und dem Forschungszentrum Jülich setzen wir auf die interdisziplinäre System- und Szenarioanalyse.“

Die Forscher wollen Wechselwirkungen zwischen den einzelnen Sektoren und Interessengruppen transparent machen und eventuelle Zielkonflikte bei der Wassernutzung aufdecken. Dabei analysieren sie die jeweiligen Handlungsoptionen verschiedener Akteure und berücksichtigen den Einfluss möglicher – durch den Klimawandel bedingten – Wetterextreme. Beteiligte aus der Praxis, unter anderem aus der Wasserwirtschaft, werden beim Design und bei der Erstellung und Auswertung der Modellierungen aktiv eingebunden. Mit der Werkstattversion einer Webanwendung wol-len die Forscher schließlich das Konfliktfeld Wasser für alle Protagonisten erlebbar machen.

Dabei sollen drei Konfliktfelder mit besonderer Relevanz für Deutschland exemplarisch untersucht werden: Zielkonflikte in einem Flusseinzugsgebiet, Konflikte der Bewässerung, Wasserkonflikte bei Großprojekten. Klares Ziel des Ladenburger Kollegs: Für die genannten Konfliktfälle sollen Modelle entwickelt werden, durch die die Beteiligten in Planspielen die Folgen eigener und fremder Entscheidungen erfahren können. Sie sollen befähigt werden, zielkonforme und zugleich konfliktmindernde Strategien zu finden – und nicht zuletzt wertvolle Materialien für den Bildungssektor zu erstellen.

Das Förderformat legt einen besonderen Schwerpunkt auf den Aspekt der Planspiele. Sie sollen auch nach Abschluss des Projekts für eine breite und vor allem praktische Nutzung der erarbeiteten Ergebnisse sorgen. Gade von der Daimler und Benz Stiftung fasst zusammen: „Gerade mit Blick auf die Herausforderungen, die der Klimawandel und sich verändernde demografische Verhältnisse mit sich bringen, bedarf es eines verantwortungsbewussten Umgangs mit dem kostbaren Gut Wasser. Mit unserem Ladenburger Kolleg wollen wir einen gesellschaftlichen Beitrag dazu leisten.“

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Anhang
Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“

(nach oben)


Wie das Leben auf die Erde kam

Dr. Marco Körner Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie belegt möglichen außerirdischen Ursprung von Peptiden

Forscher der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie haben auf der Suche nach dem Ursprung des Lebens eine neue Spur entdeckt: Sie konnten zeigen, dass unter Bedingungen, wie sie im Weltall herrschen, Peptide auf Staub entstehen können. Diese Moleküle, die einer der Grundbausteine allen Lebens sind, sind also vielleicht gar nicht auf unserem Planeten entstanden, sondern womöglich in kosmischen molekularen Wolken.

Ketten aus Aminosäuren
Alles Leben, wie wir es kennen, besteht aus den gleichen chemischen Bausteinen. Dazu gehören Peptide, die im Körper völlig unterschiedliche Funktionen übernehmen: Sei es, um Stoffe zu transportieren, Reaktionen zu beschleunigen oder um in Zellen stabilisierende Gerüste zu bilden. Peptide bestehen aus einzelnen Aminosäuren, die in einer bestimmten Reihenfolge angeordnet sind. Die genaue Reihenfolge entscheidet darüber, welche Eigenschaften das Peptid am Ende besitzt.

Wie diese vielseitigen Biomoleküle entstanden sind, ist eine der Fragen nach dem Ursprung des Lebens. Dass dieser Ursprung außerirdischer Natur sein kann, zeigen Aminosäuren, Nukleobasen und verschiedene Zucker, die etwa in Meteoriten gefunden wurden. Damit aber aus einzelnen Aminosäure-Molekülen ein Peptid entsteht, braucht es ganz spezielle Bedingungen, die bislang eher auf der Erde vermutet wurden.

Für den ersten Schritt muss Wasser da sein, für den zweiten Schritt darf kein Wasser da sein.
„Bei dem herkömmlichen Weg, auf dem Peptide entstehen, spielt Wasser eine wichtige Rolle,“ erklärt Dr. Serge Krasnokutski vom Astrophysikalischen Labor des Max-Planck-Instituts für Astronomie an der Universität Jena. Hierbei verbinden sich einzelne Aminosäuren zu einer Kette. Damit das geschieht, muss jeweils ein Wassermolekül entfernt werden. „Unsere quantenchemischen Berechnungen zeigten nun, dass die Aminosäure Glycin entstehen kann, indem sich eine chemische Vorstufe – ein sogenanntes Aminoketen – mit einem Wassermolekül verbindet. Vereinfacht zusammengefasst: In diesem Fall muss für den ersten Reaktionsschritt Wasser dazugegeben werden, für den zweiten muss Wasser entfernt werden.“

Mit dieser Erkenntnis konnte das Team um den Jenaer Wissenschaftler nun einen Reaktionsweg nachweisen, der unter kosmischen Bedingungen ablaufen kann und dabei ohne Wasser auskommt. „Anstatt den chemischen Umweg zu gehen, in dem die Aminosäuren gebildet werden, wollten wir herausfinden, ob nicht stattdessen die Aminoketen-Moleküle entstehen und diese sich direkt zu Peptiden verbinden können“, beschreibt der Physiker die Grundidee der Arbeit, die nun im Fachjournal Nature Astronomy veröffentlicht wurde. Er ergänzt: „Und zwar unter den Bedingungen, wie sie in kosmischen molekularen Wolken herrschen: Also auf Staubpartikeln im Vakuum, bei denen die entsprechenden Chemikalien anwesend sind und dort reichlich vorkommen: Kohlenstoff, Ammoniak und Kohlenstoffmonoxid.“

In einer Ultrahochvakuum-Kammer wurden Substrate, die als Modell für die Oberfläche von Staubpartikeln dienen zusammen mit Kohlenstoff, Ammoniak und Kohlenmonoxid bei etwa einem Billiardstel des normalen Luftdrucks und Minus 263 Grad Celsius zusammengebracht. „Untersuchungen zeigten, dass unter diesen Bedingungen aus den einfachen Chemikalien das Peptid Polyglycin entstanden ist“, fasst Krasnokutski das Ergebnis zusammen. „Hierbei handelt es sich also um Ketten aus der sehr einfachen Aminosäure Glycin, wobei wir verschiedene Längen beobachtet haben. Die längsten Exemplare bestanden aus elf Einheiten der Aminosäure.“

Auch das vermutete Aminoketen konnte das Team in diesem Experiment nachweisen. „Dass die Reaktion bei derart niedrigen Temperaturen überhaupt ablaufen kann, liegt daran, dass die Aminoketen-Moleküle extrem reaktiv sind. Sie verbinden sich miteinander in einer effektiven Polymerisation. Das Produkt ist dann Polyglycin.“

Quantenmechanischer Tunneleffekt könnte eine Rolle spielen
„Dass die Polymerisation von Aminoketen unter solchen Bedingungen so einfach passieren kann, war dennoch überraschend für uns“, sagt Krasnokutski. „Denn dazu muss eigentlich eine Energiebarriere überwunden werden. Allerdings kann es sein, dass uns ein besonderer Effekt der Quantenmechanik dabei zugutekommt. Denn in diesem speziellen Reaktionsschritt wechselt ein Wasserstoffatom seinen Platz. Dieses ist jedoch so klein, dass es als Quantenteilchen die Barriere nicht überwinden, sondern durch den Tunneleffekt gewissermaßen einfach durchqueren könnte.“

Jetzt wo klar ist, dass nicht nur Aminosäuren, sondern auch Peptidketten unter kosmischen Bedingungen entstehen können, müssen wir also bei der Erforschung des Ursprungs des Lebens möglicherweise nicht nur auf die Erde, sondern auch mehr ins Weltall blicken.

Wissenschaftliche Ansprechpartner:
Dr. Serge Krasnokutski
Laboratory Astrophysics and Cluster Physics Group of the Max Planck Institute for Astronomy at the Friedrich Schiller University Jena
Institut für Festkörperphysik
Helmholtzweg 3
07743 Jena
Tel.: 03641 / 947306
E-Mail: sergiy.krasnokutskiy@uni-jena.de

Originalpublikation:
S. A. Krasnokutski, K.-J. Chuang, C. Jäger, N. Ueberschaar, Th. Henning, „A pathway to peptides in space through the condensation of atomic carbon“, Nature Astronomy (2022), DOI: 10.1038/s41550-021-01577-9

(nach oben)


Untersuchung von Feinstaub unterschiedlicher Emissionen

Michael Brauns Pressestelle
Universität der Bundeswehr München
Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München untersuchen die gesundheitsschädliche Wirkung des sogenannten Ultrafeinstaubs der im Flugbetrieb entsteht und vergleichen dies mit Emissionen im Straßen- und Schiffs- und Bahnverkehr.

Luftverschmutzung stellt ein großes Gesundheitsrisiko mit weltweit mind. 5 Millionen Todesfällen pro Jahr dar. Besonders der Ultafeinstaub, das sind Partikel mit einem Durchmesser von kleiner als 100 Nanometern und damit tausendmal kleiner als ein menschliches Haar, wird für schwerwiegende Atemwegserkrankungen verantwortlich gemacht. Der Straßenverkehr hat am Entstehen von Ultrafeinstaub einen hohen Anteil, da er vorwiegend bei Verbrennungsprozessen entsteht.

Ziel des von der EU finanzierten Forschungsvorhabens Ultrhas („ULtrafine particles from TRansportation – Health Assessment of Sources“) ist es, die gesundheitlichen Risiken des Ultrafeinstaubs von verschiedenen verkehrs-bedingten Verursachern gegenüber zu stellen und eine Risikobewertung vorzunehmen. Darüber hinaus finden Untersuchungen zu Alterungsprozessen der Partikel in der Atmosphäre statt um deren Einfluss auf das Klima besser zu verstehen. Neben Abgasen von Diesel- und Benzinmotoren aus Pkw und Lkw werden Emissionen von Schiffsmotoren und Flugzeugantrieben sowie metallische Abriebe aus Bremsen und Bahn-Oberleitungen betrachtet.

Realitätsnahe Untersuchungen im Labor
Die Forschungsarbeiten an den Flugantrieben werden dabei von Prof. Andreas Hupfer vom Institut für Aeronautical Engineering und Prof. Thomas Adam vom Institut für Chemie und Umwelttechnik durchgeführt. In aufwendigen Voruntersuchungen an realen Triebwerken und im Labor wird versucht das chemisch-physikalische Emissionsmuster von echten Flugantrieben möglichst realitätsnah auf einem selbst entwickelten Modellprüfstand abzubilden.

Im Anschluss werden in einer mehrwöchigen Messkampagne die umfangreichen toxikologischen Studien in Kooperation mit den Projektpartnern aus Deutschland, Norwegen, Finnland und der Schweiz durchgeführt. Unterstützt wird das Vorhaben zusätzlich durch die Forschungsgruppe „Small Aero Engines“, einem Gemeinschaftsprojekt der Universität der Bundeswehr München und der Technischen Universität München. Gefördert durch das Forschungsnetzwerk Munich Aerospace untersucht „Small Aero Engines“ die Eigenschaften alternativer Kraftstoffe für die Luftfahrt.

Das Projekt Ultrhas startete am 1. September 2021 und hat eine Laufzeit von vier Jahren. Gefördert wird es innerhalb des EU Förderprogramms Horizon 2020.

Kooperationspartner sind das Helmholtz Zentrum München, die Universität Rostock, das Norwegian Institute of Public Health, die University of Eastern Finland, das Finnish Institute for Health and Welfare und die Universität Fribourg.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Adam, Prof. Andreas Hupfer

Weitere Informationen:
http://www.ultrhas.eu

(nach oben)


Vom Tagebau zum Pumpspeicherkraftwerk

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Bergbauregionen im Wandel: Sechs internationale Partner im EU-Projekt ATLANTIS untersuchen, koordiniert vom Deutschen GeoForschungsZentrum GFZ, die Folgenutzungspotenziale ehemaliger Bergbauregionen zur Energiespeicherung.

Die geplante Stilllegung des Braunkohlebergbaus in Europa erfordert innovative, wirtschaftliche und klimafreundliche Strategien, um den Strukturwandel für Bergbauregionen nachhaltig zu gestalten. Darüber hinaus spielt die effiziente Speicherung regenerativer Energien eine zentrale Rolle bei der zukünftigen Energiesystem- und Versorgungssicherheit in Europa. Das EU-Projekt ATLANTIS verknüpft diese beiden Aspekte und untersucht die Machbarkeit einer Folgenutzung von stillgelegten Braunkohletagebauen in Form von hybriden Energiespeichern. Koordiniert vom Deutschen GeoForschungsZentrum GFZ vereint es sechs Forschungseinrichtungen und Energieversorgungsunternehmen aus Griechenland, Polen und Deutschland. Die Europäische Union fördert das Vorhaben für die kommenden drei Jahre mit einem Gesamtbudget von rund 2,7 Millionen Euro über den Forschungsfonds für Kohle und Stahl (RFCS).

Oberirdisch angelegte Pumpspeicherwerke erlauben eine flexible und effiziente Speicherung von Überschussenergie aus der Solar- und Windenergieerzeugung sowie dem Stromnetz. Pumpspeicherwerke arbeiten in der Regel mit mindestens zwei Wasserreservoiren, welche sich auf unterschiedlichen Höhenniveaus befinden. Mit der Überschussenergie betriebene Pumpen befördern das Wasser in das Oberbecken. Dort wird es in Form von potenzieller Energie gespeichert, welche durch das Ablassen des Wassers in das Unterbecken mittels Turbinen wieder in elektrische Energie umgewandelt werden kann.

„Das Hauptziel von ATLANTIS ist die Ausarbeitung einer integrierten technischen und wirtschaftlichen Machbarkeitsstudie zur hybriden Energiespeicherung von Überschussenergie in ehemaligen Braunkohletagebauen im Einklang mit den Vorgaben des europäischen Green Deal zum Klima- und Naturschutz“, sagt Thomas Kempka, Leiter des Projektes und Leiter der Arbeitsgruppe Prozesssimulation in der Sektion Fluidsystemmodellierung am GFZ. Hybrid heißt es deshalb, weil Überschussenergie aus dem Stromnetz ebenso wie Energie aus regionalen erneuerbaren Quellen gespeichert werden kann. Im Fokus stehen zwei repräsentative europäische Bergbauregionen in Griechenland und Polen, die sich im Wandel befinden.

Kempka weiter: „Das im ATLANTIS-Projekt anvisierte Folgenutzungskonzept leistet durch die Integration von Energiespeichertechnologien mit der Energieerzeugung und dem Energietransport einen wesentlichen Beitrag zum European Green Deal und unterstützt gleichzeitig die Wirtschaftsförderung und Arbeitsmarktstabilisierung der jeweiligen Region.“

Weitere Informationen auf der Projektwebsite (www.atlantis-project.eu) und dem Twitteraccount des Projekts (https://twitter.com/ATLANTIS_EU).

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Thomas Kempka
Leiter Arbeitsgruppe Prozesssimulation
Sektion 3.4 Fluidsystemmodellierung
Email: kempka@gfz-potsdam.de

Weitere Informationen:
http://www.atlantis-project.eu (Projektwebseite)

(nach oben)


Fehlverhalten von Führungskräften kann Unternehmen Milliarden kosten

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Die 2017 entstandene #MeToo-Bewegung beschäftigt seit einigen Jahren auch Unternehmen, die sich vermehrt mit dem Thema sexuelle Belästigung am Arbeitsplatz auseinandersetzen. Das kann auch wirtschaftlich von Bedeutung sein, denn das Fehlverhalten einzelner Personen kann die Aktienrenditen von Unternehmen erheblich beeinträchtigen. Zu diesem Ergebnis kommen Professor Dr. Rainer Lueg und Yassin Denis Bouzzine vom Institut für Management, Accounting & Finance der Leuphana Universität Lüneburg in einer jetzt im Scandinavian Journal of Management veröffentlichten Studie.

Die Wissenschaftler haben untersucht, wie sich das Thema sexuelle Belästigung durch Führungskräfte auf die Aktienrenditen von Unternehmen auswirkt. Dafür betrachteten sie knapp 100 solcher Fälle aus den Jahren 2016 – 2019 und ermittelten die wirtschaftlichen Folgen der entstandenen Reputationsschäden. In 25 der untersuchten Fälle richteten sich die Anschuldigungen direkt gegen Führungskräfte.

Die Forscher identifizierten mit der sogenannten Ereignisstudien-Methode abnormale Aktienreaktionen auf entsprechende Vorkommnisse. Ihre Ergebnisse zeigen, dass solches Fehlverhalten die Aktienrenditen einer Organisation erheblich beeinträchtigen kann, auch dann, wenn die Belästigung nur von einer einzigen Person ausging. Marktwertverluste von bis zu 5 Mrd. Dollar waren demnach für mit dem Thema sexuelle Belästigung durch Führungskräfte konfrontierte Unternehmen zu verzeichnen.

Signifikante Ergebnisse gab es immer dann, wenn die beschuldigten Führungskräfte in einer leitenden Position bei der Mutterorganisation eines Unternehmens beschäftigt waren. Insofern kann die Studie belegen, dass das Fehlverhalten von Einzelpersonen für den kostenträchtigen Reputationsverlust von Bedeutung ist.

Die Studie steht im Scandinavian Journal of Management online zur Verfügung:
https://www.sciencedirect.com/science/article/abs/pii/S0956522122000033

(nach oben)


Warum altern wir? Die Rolle der natürlichen Selektion

Maren Lehmann Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Evolutionsbiologie
Die Evolution des Alterns ist in der theoretischen Evolutionsforschung ein besonders spannendes Feld. Wissenschaftler versuchen herauszufinden, warum und wann sich das Phänomen des Alterns im Laufe der Evolution entwickelt hat. Dabei können mathematische Modelle helfen, Theorien zum besseren Verständnis des Alterns zu entwickeln. Auch am Max-Planck-Institut für Evolutionsbiologie in Plön wurde in der Abteilung Evolutionstheorie hieran in den letzten Jahren intensiv geforscht.

Jahre vergehen für alle: Menschen, Tiere und Pflanzen. Und doch tritt der Laufe der Zeit nicht bei allen Lebewesen gleichermaßen in Erscheinung. Manche altern sehr früh, anderen scheint eine lange Lebenszeit kaum etwas anzuhaben. Der Nacktmull beispielweise ist bekannt dafür, dass ausgewachsene Tiere so gut wie keine Alterungserscheinungen zeigen. Ihr Tod ist gewöhnlich die Folge von Gewalteinwirkung durch ihre Artgenossen.

Mathematische Modellierer sind der Theorie hinter der Evolution des Alterns auf der Spur
Bis vor nicht allzu langer Zeit wurde allgemein angenommen, dass alle Organismen irgendwann altern würden. Der Biologe William D. Hamilton hat diese Zwangsläufigkeit des Alterns vor über 50 Jahren in eine mathematische Formel gegossen. Nach seinen Modellrechnungen entwickelt sich das Altern, weil die Selektion auf bestimmte Merkmale im Laufe der Fortpflanzungszeit abnimmt. Altern wäre dann eine Konsequenz der sinkenden Selektionskraft unter älteren Organismen.
Vor 17 Jahren hat allerdings die Demografin Annette Baudisch (damals Max-Planck-Institut für demographische Forschung, jetzt Professorin in Odense, Dänemark) gezeigt, dass diese scheinbare Zwangsläufigkeit von bestimmten Grundannahmen abhängt, die keineswegs immer gegeben sein müssen. Wenn man diese Parameter in mathematischen Modellen leicht ändert, zeigt sich, dass Fortpflanzungsrate und Selektionskraft nicht mehr kontinuierlich sinken. Ist das Altern also doch nicht so zwangsläufig, wie es schien?

Mit dieser Frage haben sich die Evolutionstheoretiker Stefano Giaimo und Arne Traulsen vom Max-Planck-Institut für Evolutionsbiologie beschäftigt. Sie entwickelten dafür ein dynamisches mathematisches Modell, das nicht mehr auf der Voraussetzung bestimmter Vorannahmen beruht. Die Forscher ließen ihr Modell immer und immer wieder den Entwicklungsprozess von Lebewesen nachvollziehen. Dabei fanden sie mit theoretischen Methoden heraus, dass sich auch unter diesen dynamischen Bedingungen die Evolution des Alterns immer wieder stabil entwickelt. Sie fanden außerdem, dass als eine Folge des Alterns die Selektionskraft mit dem reproduktiven Alter sinkt.
Sie konnten damit also die klassische mathematische Theorie des Alterns, die von Hamilton aufgestellt wurde, einerseits bestätigen: Die Selektionskraft nimmt mit dem Alter ab. Andererseits aber zeigten sie, dass deren Logik umgekehrt werden muss: Die Selektionskraft schwächt sich mit dem Alter ab, weil sich das Altern entwickelt, und nicht, wie von Hamilton vertreten, umgekehrt.

Die Forschungen werden in dieser Woche im wissenschaftlichen Journal Nature Communications veröffentlicht.

Wissenschaftliche Ansprechpartner:
Stefano Giamo, Postdoc Abteilung Evolutionstheorie, Max-Planck-Institut für Evolutionsbiologie, giaimo@evolbio.mpg.de

Originalpublikation:
Stefano Giaimo, Arne Traulsen
The selection force weakens with age because ageing evolves and not vice versa
Nature Communications volume 13, Article number: 686 (2022)
doi: 10.1038/s41467-022-28254-3

(nach oben)


Neuer Geist in alter Hardware – Vermeidung von Elektroschrott durch Freie Software

Dorothea Hoppe-Dörwald Presse- und Öffentlichkeitsarbeit
Hochschule Worms
Das schicke Design und die gute Technik von Geräten der Firma Apple hat sich längst rumgesprochen.

Umso mehr schmerzt es, wenn das Gerät in die Jahre gekommen ist und nicht sicher weiter betrieben werden kann, weil aufgrund des Alters keine Sicherheits-Updates für die Software geliefert werden. Die alten Geräte sind nicht mehr kompatibel mit neuen Betriebssystem-Versionen des Herstellers. Und – ja, zugegeben: Abgesehen von weiter gewachsenen Anforderungen der aktuellen Software kommen auch über 10 Jahre alte Rechner aus der Mode, auch wenn es sich um optisch immer noch formschöne iMacs älterer Bauart handelt.

Alt bedeutet nicht gleich Schrottplatz
So ließen sich also etliche alte iMacs, die jahrelang am Fachbereich Informatik der Hochschule Worms im Labor von Studierenden genutzt wurden, nicht mehr zu Lehrzwecken einsetzen: Keine sichere Software, zu langsam, inkompatibel mit den aktuellen Betriebssystemversionen. Wird wirklich nur noch Alu- und Elektroschrott daraus?
Um das zu vermeiden, veranstaltete Prof. Dr. Herbert Thielen mit interessierten Erstsemester-Studierenden des Bachelor-Studiengangs Angewandte Informatik einen „iMac Upcycling Workshop“: Mit einer flotten SSD („Solid State Disk“) als Ersatz für die langsame Festplatte lässt sich auch alten Rechnern mit wenig Investition neuer Schwung verleihen. Als Ersatz für ein nicht mehr aktualisierbares kommerzielles Betriebssystem kann häufig Freie Software der alten Hardware einen neuen Geist einhauchen.
„Ein Projekt, das wir so bei neuen Geräten wohl eher nicht gewagt hätten,“ sagt Thielen. „Schließlich dauert es seine Zeit, bis so ein iMac zerlegt ist, um die Festplatte auszutauschen. Die Studierenden fanden das aber spannend und investierten gerne ihre Zeit, um durch den Umbau neues Tempo zu gewinnen“, ergänzt der engagierte Professor.

Mit etwas Know-how und Zeit mehr Upcycling
Jeder wieder „quicklebendige“ iMac wurde mit Freier Software in Form von Debian GNU/Linux Version 11 auch sicherheitstechnisch auf den Stand der Zeit gebracht. So erfüllt die alte Hardware zumindest wieder die Voraussetzungen für Standard-Aufgaben wie Textverarbeitung und Video-Konferenzen. Und für die eine oder andere Programmierübung reicht die begrenzte Rechenleistung auch noch aus.

Die Umwelt freut sich, dass Elektromüll vorerst vermieden werden konnte – und die Studierenden freuen sich, dass sie sich selbst ein Übungsgerät umrüsten konnten, das ihnen weiterhin gute Dienste im Studium leisten wird.

Das Projekt zeigt, dass alte PCs nicht weggeworfen werden müssen, nur weil die neuen Betriebssysteme nicht mehr darauf installierbar sind. Mit etwas zeitlichem Aufwand lassen sie sich oft noch soweit beschleunigen, dass sie beim Einsatz Freier Software noch für viele Zwecke brauchbar sind.

(nach oben)


KIT: Landnutzung: Plädoyer für einen gerechten Artenschutz

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Große Landflächen radikal für Tiere und Pflanzen reservieren – das könnte die Menschheit in den nächsten Jahrzehnten vor einem Kollaps der Artenvielfalt bewahren. Doch in einigen Ländern, insbesondere des globalen Südens, könnte das die Versorgung mit Nahrungsmitteln gefährden. Auf diesen Zielkonflikt machen jetzt Forschende des Karlsruher Instituts für Technologie (KIT) gemeinsam mit Partnern aus Großbritannien und Österreich in einer Studie in der Fachzeitschrift Nature Sustainability aufmerksam und plädieren für ein umsichtiges Vorgehen. (DOI: 10.1038/s41893-021-00844-x)

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…

Dass ein weiterer ungebremster Verlust der Biodiversität durch menschliche Einwirkung langfristig die Bewohnbarkeit des Planeten einschränkt, wurde in vielen wissenschaftlichen Studien belegt. Gegensteuern könnte die Menschheit, indem sie große Flächen unter Schutz stellt, sagt Professorin Almut Arneth vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT in Garmisch-Partenkirchen: „Damit ließen sich die Auswirkungen zumindest abschwächen. Allerdings ist der Flächenbedarf enorm. Einige Forscherinnen und Forscher argumentieren, dass die Hälfte der Landoberfläche von einer menschlichen Nutzung ausgeschlossen werden müsste.“ Zwei Teams des Campus Alpin sowie Partnern an der Universität Aberdeen, der Universität Edinburgh und dem Internationalen Institut für Angewandte Systemanalyse (IIASA) in Österreich haben nun genauer untersucht, was die Folgen wären.

Die Studie zeigt mit Hilfe von gekoppelten sozio-ökologische Modellen, wie sich ein potenziell strikter Schutz von 30 Prozent und 50 Prozent der terrestrischen Landfläche auf Landnutzung und Ernährungssicherheit auswirken könnte. Festgestellt haben die Forschenden dabei, dass diese Maßnahme vermutlich zu einer Intensivierung landwirtschaftlicher Produktion auf den verbleibenden Flächen führen würde, um die Weltbevölkerung mit Nahrungsmitteln zu versorgen, was steigende Lebensmittelpreise zur Folge hätte. Der Verzehr von Obst und Gemüse würde sich verringern und insgesamt würde die Zahl der untergewichtigen Menschen in verschiedenen Regionen der Welt ansteigen. Damit verbunden wäre wiederum ein erhöhtes Risiko für ernährungsbedingte Krankheiten und Mortalität.

Ungleich verteilte Auswirkungen von extremen Maßnahmen
Die Untersuchungen ergaben außerdem, dass Länder des globalen Südens am stärksten von der Nahrungsmittelknappheit als Folge eines strikten Naturschutzes auf großen Flächen betroffen wären, da sie schon zuvor weniger Nahrung zur Verfügung hatten. Umgekehrt würden wohlhabendere Länder weitgehend von den negativen Auswirkungen verschont bleiben. Hier würde eine Verringerung des Kalorienverbrauchs durch höhere Nahrungsmittelpreise im Gegenteil sogar zu einer Reduktion der negativen Auswirkungen von Übergewicht und Fettleibigkeit führen.

Die Erstautorin Dr. Roslyn Henry von der Universität Aberdeen betont, dass sich aus der Studie keinesfalls ableiten lasse, dass von großen Naturschutzflächen Abstand genommen werden sollte: „Die Ausweisung von Schutzgebieten gehört zu den wichtigsten Instrumenten zum Erreichen der Biodiversitätsziele. Sie muss aber mit Bedacht umgesetzt werden, um sicherzustellen, dass sie die Ernährungssicherheit und Gesundheit der Bevölkerung nicht gefährdet, insbesondere in den ärmeren Regionen der Welt.“ Professor Mark Rounsevell, Forscher am IMK-IFU und ebenfalls Autor der Studie, fügt hinzu: „Die Untersuchung zeigt, wie wichtig es ist, die mit der Vergrößerung von Schutzgebieten für den Naturschutz verbundenen Kompromisse zu berücksichtigen. Der Schutz der Natur ist für das Wohlergehen der Menschheit natürlich von entscheidender Bedeutung. Aber Naturschutz muss so umgesetzt werden, dass er sich nicht negativ auf die Nahrungsmittelversorgung auswirkt. Beispielsweise indem die Effizienz der bestehenden Schutzgebiete verbessert wird.“

Studie soll für ungewollte Effekte sensibilisieren
Es sei insgesamt wenig wahrscheinlich, dass viele Länder sich dafür entscheiden, 30Prozent oder gar die Hälfte ihres Territoriums radikal schützen zu wollen, betonen Arneth und Rounsevell: „In Anbetracht der aktuellen Debatte und der Ungewissheit über die Form, die Schutzgebiete annehmen sollten, spürt die Modellstudie dem extremen Ende der Erhaltungsmaßnahmen nach und gibt Aufschluss über mögliche Kompromisse, die gefunden werden müssen – und die auch existieren.“ Die Quantifizierung solcher Zielkonflikte soll die Planung, Verhandlung und Umsetzung von Schutzmaßnahmen unterstützen, und so dabei helfen, unerwünschte, negative Nebeneffekte zu vermeiden. (mhe)

Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Kontakt für diese Presseinformation:
Dr. Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu

Originalpublikation:
https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…

Weitere Informationen:
Originalpublikation
Roslyn C. Henry, Almut Arneth, Martin Jung, Sam S. Rabin, Mark D. Rounsevell, Frances Warren, Peter Alexander: Global and regional health and food security under strict conservation scenarios; Nature Sustainability, 2022. DOI: 10.1038/s41893-021-00844-x
https://www.nature.com/articles/s41893-021-00844-x
Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu

(nach oben)


Gesünderes Licht für Schichtarbeit

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Künstliches Licht in der Nacht und Mangel an Tageslicht verschlechtern die Gesundheit und das Wohlbefinden von Schichtarbeitern. Ein HM-Forschungsteam entwickelte ein Beleuchtungs- und Automatisierungssystem für gesündere Lichtverhältnisse in der industriellen Produktion.

Natürliches Tageslicht synchronisiert als Zeitgeber täglich die innere Uhr und beeinflusst unter anderem über das Hormon Melatonin die Schlafqualität. Durch den Einsatz künstlichen Lichts nimmt die Notwendigkeit ab, den natürlichen Schlaf-Wach-Rhythmus einzuhalten. Eine mögliche Folge: Die innere Uhr kommt „aus dem Takt“, was man auch als Chronodisruption bezeichnet. Insbesondere Langzeit-Nachtschichtarbeiter sind vermehrt künstlichen Lichtquellen zu ungünstigen Tageszeiten ausgesetzt und tragen dadurch ein erhöhtes Risiko für Chronodisruption. Die Folgen können unter anderem Störungen der Leistungsfähigkeit, des Stoffwechsels, und des Herz-Kreislauf-Systems sein. Für gesündere Lichtverhältnisse entwarfen die HM-Wissenschaftler Johannes Zauner und Prof. Dr. Herbert Plischke von der Fakultät für angewandte Naturwissenschaften und Mechatronik mit dem Lichtplanungsbüro 3lpi ein Lichtsystem für Schichtarbeiter in der industriellen Produktion.

Berücksichtigung der Effekte nicht-visuellen Lichts am Schichtarbeitsplatz
Neben den Wirkungen des visuell wahrnehmbaren Lichts, hat auch nicht-visuelle Strahlung gesundheitliche Effekte, wie etwa die Steuerung des zirkadianen, das heißt des tageszeitabhängigen Rhythmus und des Schlaf-Wach-Rhythmus. Jene beeinflusst auch die kognitive Leistungsfähigkeit. Verantwortlich für die Aufnahme nicht-visueller Strahlung sind lichtsensible Ganglienzellen in der Retina des Auges, die für blaues Licht empfindliches Melanopsin enthalten. Bei der Entwicklung eines neuen Beleuchtungssystems für Schichtarbeitende integrierte das HM-Team den aktuellen Wissensstand über diese nicht-visuellen Strahlungseffekte: Zunächst erfassten die Forscher die Beleuchtung einer Produktionsstätte in einer etwa 130 Quadratmeter großen Industriehalle auf nicht-visuelle sowie grundlegende, visuelle Aspekte. Dazu gehören die nicht-visuellen Reizstärke in Augenhöhe der Arbeitnehmer (MEDI) sowie die horizontale Beleuchtungsstärke in ihrem Arbeitsbereich, ein Maß für die Arbeitsplatzhelligkeit.

3lpi- und HM-Team entwickeln Leuchte „Drosa“ mit dosierbarem Licht
Auf Basis ihrer Untersuchungen entwickelten die Projektpartner die Zwei-Komponenten-Leuchte „Drosa“, eine Kombination von zwei blendfreien LED-Leuchten mit, in ihrem Winkel verstellbaren, Flügeln. Ein individuell programmiertes Automatisierungssystem steuert bei Drosa die Lichtdosierung und den zeitlichen Ablauf des Strahlungsspektrums während des Tages und der Nacht. Durch die Automation wird das Lichtspektrum, die Bestrahlungsstärke und der Raum- und Einfallswinkel durch die Relation der Komponenten zueinander aufeinander abgestimmt – diese sind alle Einflussfaktoren für die nichtvisuelle Reizstärke. Die Leuchtenflügel können frei in jedem Winkel zwischen Null und 90 Grad verstellt werden.

Weniger Anstrengung beim Arbeiten
Drosa verringert die kognitive Anstrengung beim Arbeiten. Ist der nichtvisuelle Reiz am Morgen hoch, wird die innere Uhr auf den normalen Tagesablauf synchronisiert und Mitarbeiter werden schneller wach und aufmerksam. Das erfolgt durch einen hohen Blauanteil im kalt-weißen Licht der LED-Strahler. Am Abend wird der nichtvisuelle Reiz auf den Mitarbeiter hingegen minimiert, während das Werkstück dagegen heller beleuchtet wird als es bei der Bestandsbeleuchtung der Fall war. Im Ergebnis wird die innere Uhr des Menschen und damit auch seine hormonellen Rhythmen durch Langzeitnachtschicht nur noch minimal verschoben. Das trägt zu einem guten Schlaf nach der Arbeit und einer erhöhten Langzeitgesundheit bei.

Lichtsystem Drosa in vielfältigen Branchen mit Schichtarbeit anwendbar
„Das wichtige Ziel ist es, den zirkadianen Rhythmus von Arbeitnehmern in den Schichten zu stärken und zu stabilisieren und somit der Chronodisruption entgegenzuwirken“, so Zauner und Plischke. Das Prinzip der Leuchte Drosa und des nicht-visuellen Simulationsverfahren könnten aber nicht nur für die Schichtarbeit in der Industrie zur Anwendung kommen, sondern auch bei nächtlicher Büroarbeit, in Pflegeheimen und anderen Arbeitsbereichen, in denen die negativen Folgen von Schichtarbeit für die Nutzer gemildert werden sollen.

Realisiert wurde das Forschungsprojekt der HM im Zeitraum 2018-2021, initiiert von der Verwaltungs-Berufsgenossenschaft (VBG), in Kooperation mit dem Unternehmen RHI Magnesita und dem Lichtplanungs- und Ingenieurbüro 3lpi lichtplaner + beratende Ingenieure.

Johannes Zauner
Johannes Zauner ist seit 2015 wissenschaftlicher Mitarbeiter der Hochschule München und promoviert seit 2018 in Kooperation mit der LMU in Humanbiologie mit dem Fokus „Licht und Gesundheit“. Darüber hinaus ist er freier Partner des Münchner Lichtplanungs- und Ingenieurbüros 3lpi, Mitglied und Sprecher des technisch-wissenschaftlichen Ausschuss (TWA) der Deutschen Lichttechnischen Gesellschaft (LiTG) für melanopische Lichtwirkungen, sowie Mitglied des Expertenforum Innenbeleuchtung (EFI).

Prof. Dr. Herbert Plischke
Herbert Plischke ist seit 2013 Professor an der Fakultät für Angewandte Naturwissenschaften und Mechatronik der Hochschule München mit dem Fachgebiet „Licht und Gesundheit“ und Medizintechnik, seit 2021 ist er Lehrbeauftragter der HM. Plischke ist außerdem Mitglied im Normungsausschuss DIN FNL 27 „Licht und Gesundheit“, im Ethikbeirat eines Demenzzentrums, Fellow im Netzwerk „Ageing Research“ der Universität Heidelberg sowie im Beirat des Instituts für Qualität in der Pflege (IQP).

Wissenschaftliche Ansprechpartner:
Johannes Zauner
E-Mail: johannes.zauner@hm.edu

Prof. Dr. Herbert Plischke
E-Mail: herbert.plischke@hm.edu

Originalpublikation:
Zauner, J.; Plischke, H. Designing Light for Night Shift Workers: Application of Nonvisual Lighting Design Principles in an Industrial Production Line. Appl. Sci. 2021, 11, 10896. https://doi.org/10.3390/app112210896

Weitere Informationen:
https://zenodo.org/record/5789009#.YfwRAt8xlaR Preprint der Studie

(nach oben)


Wasser in Berlin: Gewässer- und Flächenmanagement gemeinsam betrachten

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Viele Städte müssen sich auf zwei Herausforderungen einstellen: Der Wasserbedarf steigt, die Verfügbarkeit sinkt. Konflikte bei der Wasserverteilung betreffen nicht nur die menschliche Nutzung, sondern auch die blaue und grüne Infrastruktur – denn die Gewässer und Grünflächen in der Stadt benötigen Wasser. Die Forschungsgruppe von Professorin Dörthe Tetzlaff vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) untersucht die Wasserflüsse einer Stadt am Beispiel Berlin. Das Team nahm die große Trockenheit der Sommer 2018, 2019 und 2020 in den Fokus.

„Brl“ kommt aus dem Altpolabischen – eine slawische Sprache, die bis etwa zum 12. Jahrhundert in Nordostdeutschland weit verbreitet, aber nie eine Schriftsprache war. Trotzdem sind einige Worte bis heute erhalten geblieben, in Städtenamen wie Berlin beispielsweise. Brl steht für Sumpf oder Morast. Und richtig, Berlin ist auf sandigem Boden gebaut und der Grundwasserspiegel ist in vielen Bezirken hoch. Insbesondere in den Bereichen des Urstromtals wie im südlichen Mahlsdorf und Kaulsdorf, in Johannisthal, in Rudow, in der Rummelsburger Bucht, im Regierungsviertel, am Schloss Charlottenburg, in Siemensstadt und in Wittenau. Aufgrund der eiszeitliche Landschaftsformung ist Berlin sehr gewässerreich.

Eine „Sumpfstadt“ mit wenig Regen:
Andererseits gehört die Region Berlin-Brandenburg zu den niederschlagsärmsten Gegenden Deutschlands. Dies wird sich im Klimawandel noch verschärfen. „Es erscheint als eine etwas paradoxe Situation. Teils sumpfiger Boden durch hohes Grundwasser, viele Gewässer – und trotzdem haben Berlin und Brandenburg mit Wassermangel zu kämpfen“, sagt Dörthe Tetzlaff. Ein Städtevergleich: München hat im langjährigen Jahresmittel 944 mm Niederschlag, Köln 839 mm, Hamburg 793 mm und Berlin 591 mm. Im Jahr 2018 waren es in Berlin sogar nur 312 mm Niederschlag, ein Allzeit-Negativrekord.

Dörthe Tetzlaffs Team hat verschiedene Komponenten des Wasserhaushalts in Berlin in den Trockenjahren 2018 bis 2020 untersucht. Dabei betrachteten die Forschenden die Wasserflüsse von der Atmosphäre, der Vegetation, des Grundwassers, des Bodenwassers und der Oberflächengewässer in hoher räumlicher und zeitlicher Auflösung mittels stabiler Wasserisotope. Mit dieser Herangehensweise kann man den „Fingerabdruck“ von Wasser, und damit dessen Herkunft, das Alter und den Verbleib in der Landschaft detailliert bestimmen.

Grünflächen-Mosaik: Sträucher stabilisieren das Grundwasser, Bäume bringen Verdunstungskühle:
Pflanzen spielen eine wichtige Rolle im Wasserkreislauf. In Berlin machen Grünflächen mit etwa 30 Prozent einen bedeutenden Anteil der Stadtfläche aus. Das Team untersuchte, welche Art der Vegetation den Rückhalt von Wasser im Boden fördert und somit den Grundwasserspiegel stabilisiert. „Bäume spielen natürlich eine wichtige Rolle für das Stadtklima – sie spenden Schatten, produzieren Sauerstoff und bringen im Sommer einen Kühlungseffekt, weil Wasser über die Blattflächen verdunstet. Wichtig ist, dass Verdunstung und Grundwasserneubildung in enger Wechselwirkung stehen. Große Bäume verdunsten oft mehr Wasser, daher der große Kühlungseffekt. Es steht aber weniger Wasser zur Grundwasserneubildung zur Verfügung. Wir konnten zeigen, dass ein ,Grünflächen-Mosaik‘ aus Sträuchern – die in Trockenzeiten das Wasser besser im Boden halten – und Bäumen am besten gegen extreme Trockenheit gewappnet ist“, erläutert Dörthe Tetzlaff.

In den Untersuchungen gaben große Bäume nämlich mehr Feuchtigkeit über die Blätter ab und zogen auch mehr Wasser aus den tiefen Bodenschichten, sodass Niederschlag dort kaum zur Neubildung von Grundwasser führte. Grünflächen mit Sträuchern gaben etwa 17 Prozent weniger Feuchtigkeit durch Verdunstung über ihre Blätter an die Atmosphäre ab. Sie bezogen auch kein Wasser aus den tieferen Bodenschichten, da sie flacher wurzeln. Über Rasen verdunstete etwa die gleiche Menge Wasser wie bei Bäumen, trotz geringerer Wurzeltiefe und Blättermasse.

Außerdem zeigte sich, dass Berlins Grünflächen während Trockenzeiten einen geringen Austausch mit Oberflächengewässern und dem Grundwasser haben. „Grüne Wasserflüsse“, wie Verdunstung, sind also die dominanten Komponenten der Wasserbilanz. Das muss bei einem nachhaltigen Management beachtet werden, um zukünftig urbane Grünflächen zu erhalten und gleichzeitig Wasserressourcen zu schonen.

Die Erpe führt in Trockenperioden vor allem gereinigte Abwässer – die Panke ebenfalls:
Aber wie wichtig ist das Grundwasser für diese Stadt? Die Berliner Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz (SenUVK) hat den Grundwasserstand immer im Blick – schließlich gilt es sowohl wichtige Feuchtbiotope zu erhalten und gleichzeitig zu verhindern, dass es zu nassen Kellern und Grundbruch kommt. Außerdem wird das gesamte Wasser für die öffentliche Wasserversorgung und der größte Teil des Brauchwassers aus dem Grundwasser des Stadtgebietes gewonnen.

Auch die Flüsse Berlins speisen sich aus dem Grundwasser – aber vorwiegend im Winterhalbjahr, wie die IGB-Nachwuchsforscherin Lena-Marie Kuhlemann herausgefunden hat. Die Doktorandin aus der Forschungsgruppe von Dörthe Tetzlaff untersuchte im 220 Quadratkilometer großen Einzugsgebiet der Erpe die Rolle von Grundwasser, Niederschlag, geklärten Abwässern und städtischem Abfluss für die trockenen Jahre 2018 und 2019.

Im Winter vor allem durch Grundwasser gespeist, führt die Erpe in Trockenperioden im Sommer hauptsächlich geklärte Abwässer durch die Einleitungen der zwei kommunalen Kläranlagen. Wasser aus Niederschlägen und städtischen Wassereinträgen machten weniger als 10 Prozent des Abflusses der Erpe aus, obwohl das Einzugsgebiet zu etwa 20 Prozent städtisch ist. Der hohe Anteil an geklärtem Abwasser kann Auswirkungen auf die Umweltqualität und die Ökosystemleistungen haben und ist damit auch ein wichtiger Aspekt für die Behandlung von kommunalem Abwasser. „Wenn gereinigte Abwässer in ein Oberflächengewässer eingeleitet werden, können Spurenstoffe und Nährstoffe eingetragen werden. Dies beeinflusst die Gewässerqualität insbesondere, wenn gleichzeitig wenig ‚natürliches Wasser´ ins Gewässer gelangt“, erläutert Lena-Marie Kuhlemann.

Überarbeitung der EU-Richtlinie über die Behandlung von kommunalen Abwässern:
Christian Marx, ebenfalls ein Nachwuchswissenschaftler im Forschungsteam, ist für die Panke zu ähnlichen Ergebnissen gekommen. Die Panke ist nach Spree und Havel der drittlängste Fluss im Berliner Stadtgebiet. Der obere Teil des Einzugsgebiets wird zu rund 75 Prozent von Grundwasser aus Kiesgrundwasserleitern gespeist. Bei starkem Regen ist dieser die Hauptquelle für das Wasser der Panke. Insgesamt macht das Wasser aus Niederschlägen allerdings nur 10 bis 15 Prozent des jährlichen Wasserflusses aus. Flussabwärts wird der Fluss von verschiedenen Nebenflüssen beeinflusst. Die Abwässer einer Kläranlage prägen jedoch mit 90 Prozent den Wasserfluss im unteren Einzugsgebiet, wo die Auswirkungen der Verstädterung am stärksten sind. Die damit verbundene Zunahme der versiegelten Flächen flussabwärts verringert auch den relativen Beitrag des Grundwassers.

Die Europäische Kommission führte im letzten Jahr eine Konsultation zur Überarbeitung der EU-Richtlinie über die Behandlung von kommunalem Abwasser (UWWTD) durch. „Der zunehmende Anteil von geklärten Abwässern in Oberflächengewässern durch Trockenheit und Versiegelung ist ein wichtiger Aspekt für die Anpassung dieser EU-Richtlinie“, resümiert Dörthe Tetzlaff.

Spree, Dahme, Havel: Verdunstungsverluste in flussaufwärts gelegenen Einzugsgebieten:
Bei den drei großen Flüssen in Berlin – Spree, Dahme, Havel – ist weniger der Anteil an geklärtem Abwasser problematisch; sie haben mit anderen Herausforderungen zu kämpfen: Bevor die Flüsse im Stadtgebiet von Berlin ankommen, ist bereits viel Wasser verdunstet, wie Isotopenanalysen ergaben. Insbesondere mit Blick auf das Ende des Tagebaus in der Lausitz im oberen Einzugsgebiet der Spree und den Klimaänderungen wird es wichtig sein, den Wasserhaushalt der stromaufwärts gelegenen Einzugsgebiete mit einzubeziehen, um durch nachhaltige Nutzungsstrategien Wasserverluste zu minimieren und den Zufluss in der Spree nach Berlin aufrechtzuerhalten. „Einfache Messprogramme mittels Isotopen können in Zukunft helfen, die Verdunstungsverluste auch über größere Gebiete hinweg besser zu quantifizieren“, sagt Dörthe Tetzlaff.

Ein Blick nach Brandenburg zeigt „Dürre-Gedächtniseffekte“:
Das Team betreibt auch ein Freiland-Observatorium im Demnitzer Mühlenfließ im Osten Brandenburgs. Im Dürrejahr 2018 fielen dort im Vergleich zum langjährigen Mittel 30 Prozent weniger Niederschlag. In den beiden darauffolgenden, ebenfalls trockenen Jahren 2019 und 2020 waren es jeweils noch 10 bis 15 Prozent weniger als die langjährigen Mittel. Auch in der ersten Jahreshälfte in 2021 regnete es noch zu wenig. Doch wie wirken sich solche Trockenphasen auf die Wasserressourcen aus? Und wie viel Niederschlag wäre nötig, um den Mangel auszugleichen? Die Messdaten zeigen, dass die Grundwasserneubildung zeitversetzt geschieht. So erreichte der Grundwasserspiegel erst 2020 seinen tiefsten Wert nach dem Dürresommer 2018. Er lag mehr als 20 Prozent – das heißt 40 Zentimeter – unter dem normalen Grundwasserstand. Auch heute, Anfang 2022, ist trotz der erhöhten Niederschläge der letzten Wochen, immer noch zu wenig Grundwasser vorhanden. Ähnlich ist es bei der Feuchte des Oberbodens: Die jüngsten Regenfälle haben nicht dazu geführt, dass die Böden genug Wasser aufnehmen konnten. Im Vergleich zum Mittel der letzten 13 Jahre fehlen noch etwa 15 Prozent.

„Unsere integrierten Messungen und Modellierungen zeigen, dass wir mindestens vier Jahre an durchschnittlichen Regenmengen bräuchten, also in dieser Region etwa 600 mm pro Jahr, damit sich die Grundwasserspiegel auf Vor-Dürre-Niveau erholen könnten, und ein Jahr, um die Bodenwasserspeicher wieder aufzufüllen“, prognostiziert Dörthe Tetzlaff. Zunehmende Extremereignisse wie Dürren erfordern daher sowohl in der Stadt, als auch im Umland Strategien, die an die Wasserverfügbarkeit angepasst sind und die Widerstandsfähigkeit gegenüber dem Klimawandel erhöhen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
doerthe.tetzlaff@igb-berlin.de

Originalpublikation:
Lena-Marie Kuhlemann, Doerthe Tetzlaff, Chris Soulsby (2021). Spatio-temporal variations in stable isotopes in peri-urban catchments: A preliminary assessment of potential and challenges in assessing streamflow sources, Journal of Hydrology, Volume 600, 2021, 126685, ISSN 0022-1694. https://doi.org/10.1016/j.jhydrol.2021.126685.

Weitere Informationen:
https://www.igb-berlin.de/news/wasser-berlin

(nach oben)


Blutdruck im Alter: Je höher – desto besser? Höhere Zielwerte bei gebrechlichen Personen können vorteilhaft sein

Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm kommen in einer neuen Studie zu dem Schluss, dass das Sterberisiko von älteren Personen mit Bluthochdruck stark von dem Faktor „Gebrechlichkeit“ abhängt. Bei stark gebrechlichen Personen könnte ein höherer Blutdruck sogar von Vorteil sein.

In einer neuen Studienarbeit haben Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm die Sterblichkeit von älteren Personen im Zusammenhang mit dem systolischen Blutdruck und dem Faktor „Gebrechlichkeit“ untersucht. Das Ergebnis: Das durch einen höheren systolischen Blutdruck bedingte Sterberisiko im Alter unterscheidet sich stark je nach der individuellen Fitness der Personen. Erschienen ist die Untersuchung in „Hypertension“, einem kardiovaskulären Fachjournal, das von der American Heart Association herausgegeben wird.

Mit zunehmendem Lebensalter nimmt das Risiko für Bluthochdruck (Hypertonie) zu, da unter anderem die Gefäße an Elastizität verlieren. Mit dem Blutdruck steigt das Risiko für Herz-Kreislauf-Erkrankungen wie Schlaganfall oder Herzinfarkt. Deshalb zählt Hypertonie zu den großen vier Risikofaktoren. Rund dreiviertel aller 75-Jährigen leiden an Bluthochdruck. Deshalb gilt die Empfehlung, den systolischen Blutdruck meist medikamentös auf unter 140 mmHg zu senken. Jedoch kann eine starke Absenkung des Blutdrucks im Alter mit negativen Ereignissen wie Stürzen zusammenhängen. Dies ist auf die zunehmende autonome Dysregulation zurückzuführen. Das heißt, dass das körpereigene Kontrollsystem aus dem Gleichgewicht geraten ist. Dies kann im Zusammenspiel mit Störungen der venösen Durchblutung zu einem langanhaltenden Blutdruckabfall nach dem Aufstehen führen. Gleichzeitig gibt es Hinweise auf eine Verschlechterung der kognitiven Fähigkeiten, wenn der systolische Blutdruck bei Älteren deutlich unter 130 mmHg gesenkt wird. Auch andere Nebenwirkungen von blutdrucksenkenden Medikamenten wie Reizhusten, Allergien und Verdauungsprobleme sind bekannt.

„Heutzutage wird der Nutzen der intensiven Behandlung der arteriellen Hypertonie, also des Bluthochdrucks im höheren Alter, kontrovers diskutiert. Noch existieren keine einheitlichen Empfehlungen in den vorhandenen Leitlinien. Mit unserer Untersuchung wollen wir einen Beitrag leisten und die Datenlage verbessern“, erklärt PD Dr. Dhayana Dallmeier, Leiterin der Forschungsabteilung an der Agaplesion Bethesda Klinik Ulm. Aus diesem Grund haben Dallmeier und das Team rund um Erstautor Kaj-Marko Kremer die Sterblichkeit von Älteren in Bezug mit dem Blutdruck und der Gebrechlichkeit gesetzt. In der Untersuchung griffen die Forschenden auf die Daten von über 1100 Teilnehmenden (mittleres Alter 73,9 Jahre, 41,6 Prozent Frauen) der ActiFE-Studie Ulm zurück, die vor allem die körperliche Aktivität bei Personen über 65 Jahren erfasst. Die Wissenschaftlerinnen und Wissenschaftler konnten feststellen, dass die Gebrechlichkeit das Sterberisiko stark beeinflusst. So lag bei „fitteren“ Personen das geringste Sterberisiko bei einem systolischen Blutdruck von 130 mmHg, wie auch in den aktuellen Leitlinien angegeben. Weiterhin zeigte die Untersuchung, dass bei stark gebrechlichen Älteren das Sterberisiko mit einem höheren Blutdruck tendenziell sogar sank. Das geringste Risiko verzeichneten gebrechlichen Personen mit einem Blutdruck von 160 mmHg oder höher. „Wie wir beobachten können, verläuft das Altern von Mensch zu Mensch sehr unterschiedlich. Neben den fitten und sportlich aktiven Über-80-Jährigen gibt es gebrechliche und wenig belastbare 70-Jährige. Unsere Untersuchung bestätigt, wie wichtig dieser Umstand im Alter, beispielsweise in Bezug auf die Anwendung differenzierter Behandlungsansätzen, sein kann“, so Erstautor Kaj-Marko Kremer. Die Autorinnen und Autoren der Studienarbeit raten dazu, die körperliche und kognitive Fitness im Alter bei der patientenspezifischen Behandlung der arteriellen Hypertonie zu beachten und bei der Erarbeitung von neuen Richtlinien einfließen zu lassen.

Für ihre Untersuchung griffen die Forschenden auf Daten der ActiFE-Studie (Activity and Function in the Elderly in Ulm) zurück, die an der Agaplesion Bethesda Klinik Ulm in Zusammenarbeit mit dem Institut für Epidemiologie und Medizinische Biometrie an der Universität Ulm seit 2009 durchgeführt wird. Diese Studie wurde teilweise mit Mitteln der Deutschen Forschungsgemeinschaft (DFG) finanziert.

Wissenschaftliche Ansprechpartner:
PD Dr. Dhayana Dallmeier Ph.D., Leiterin der Forschungsabteilung, Agaplesion Bethesda Klinik Ulm, Tel.: 0731/1897190, dhayana.dallmeier@agaplesion.de

Originalpublikation:
Systolic Blood Pressure and Mortality in Community-Dwelling Older Adults: Frailty as an Effect Modifier; Kaj-Marko Kremer, Ulrike Braisch, Dietrich Rothenbacher, Michael Denkinger, Dhayana Dallmeier and for the ActiFE Study Group; Hypertension. 2022;79:24–32
https://doi.org/10.1161/HYPERTENSIONAHA.121.17530

(nach oben)


Wie Menschen lernen, sich beim Denken gerne anzustrengen

Anne-Stephanie Vetter Pressestelle
Technische Universität Dresden
Menschen gehen gerne den Weg des geringsten Widerstands, wenn es um kognitive Anstrengung geht – eine gängige Lehrmeinung in der Kognitionspsychologie. Forschende der Universität Wien und der Technischen Universität Dresden kommen nun zu einem diametral anderen Fazit: Bekommen Personen einmal eine Belohnung für ihre Denkleistung, wählen sie später auch dann herausfordernde Aufgaben, wenn sie keine Belohnung für ihre kognitiven Anstrengung mehr erhalten. Die Studie ist aktuell in der Fachzeitschrift Proceedings of the National Academy of Science (PNAS) erschienen.

Viele außergewöhnliche menschliche Fähigkeiten wie das Lesen, das Beherrschen eines Musikinstruments oder das Programmieren komplexer Software erfordern tausende Stunden des Übens und ständige kognitive Anstrengung. In den vorherrschenden wissenschaftlichen Theorien wird die Meinung vertreten, dass kognitive Anstrengung als unangenehm erlebt wird und Menschen versuchen, wann immer möglich diese zu vermeiden.

Allerdings gibt es im Alltag viele Situationen, in denen sich Menschen scheinbar freiwillig anstrengen, selbst wenn es keine offensichtliche äußere Belohnung dafür gibt. So macht es vielen Menschen Spaß, Sudokus zu lösen, Studierende werden oft durch anspruchsvolle intellektuelle Aufgaben motiviert und Amateurpianist:innen können sich stundenlang um Perfektion bemühen, ohne dass sie, von außen betrachtet, dafür belohnt werden. In jüngster Zeit haben einige Wissenschafter:innen kritisch hinterfragt, ob kognitive Anstrengung wirklich immer etwas Negatives ist und argumentieren stattdessen, dass herausfordernde kognitive Tätigkeiten unter bestimmten Umständen als lohnend und wertvoll erlebt werden. Studien dazu fehlten bislang.

In einem aktuellen Projekt des Sonderforschungsbereichs (SFB) 940 „Volition und kognitive Kontrolle“ widmeten sich nun Forschende der Universität Wien und der Technischen Universität Dresden dieser Frage. Unter der Leitung von Veronika Job, Thomas Goschke und Franziska Korb haben die Teams erstmals unter kontrollierten Bedingungen untersucht, ob Menschen, die die Erfahrung machen, dass sich Anstrengung lohnt (d.h. die in einer kognitiven Aufgabe für ihre Anstrengungsbereitschaft belohnt wurden), auch bei anderen neuen Aufgaben bereit sind, sich stärker anzustrengen und von sich aus schwierigere Aufgaben wählen als Personen einer Vergleichsgruppe – selbst wenn sie wussten, dass sie dabei keinerlei weitere Belohnung erhalten werden.

Schon nach einmaliger Belohnung steigt die Bereitschaft zur Anstrengung
Im einem ersten Experiment mit 121 Testpersonen erhoben Georgia Clay und Christopher Mlynski mit Hilfe von kardiovaskulären Messungen (Aktivität des Herzens), wie sehr sich jemand bei verschiedenen kognitiven Aufgaben in einer Trainingsphase anstrengt. Die Belohnung wurde dabei direkt durch die Anstrengung bestimmt: Wenn sich eine Person bei schwierigen Aufgaben mehr angestrengt hatte, erhielt sie eine höhere Belohnung als bei einfachen Aufgaben, in denen sie sich nur wenig angestrengt hatte. In der Vergleichsgruppe wurde die Belohnung zufällig zugeteilt und war unabhängig davon, wie sehr sich jemand angestrengt hatte. Beide Gruppen erhielten gleich viel Belohnung, aber nur die eine wurde gezielt für die Anstrengung belohnt, die anderen nicht. Im Anschluss bearbeiteten alle Testpersonen Mathematikaufgaben, bei denen sie selbst die Schwierigkeitsstufe der Aufgaben auswählen konnten, die sie bearbeiten wollten. Fazit: „Personen, die zuvor für Anstrengung belohnt worden waren, wählten im Anschuss schwierigere Aufgaben als Personen der Vergleichsgruppe, obwohl ihnen bewusst war, dass sie keine externe Belohnung mehr erhalten würden“, erklärt Prof. Veronika Job von der Fakultät für Psychologie der Universität Wien.

Weitere Experimente bestätigen Ergebnisse
Um zu untersuchen, ob sich die Effekte einer anstrengungsabhängigen Belohnung erneut zeigen und verallgemeinern lassen, wurden fünf weitere Experimente mit insgesamt 1.457 Testpersonen online durchgeführt. Dabei erhielten die Personen in der Experimentalgruppe für schwierige Aufgaben eine höhere Belohnung als für leichte Aufgaben, unabhängig davon, wie gut sie die Aufgaben gelöst hatten. Die Belohnung hing also wieder von der notwendigen kognitiven Anstrengung und nicht von der Leistung der Teilnehmenden ab. Es zeigte sich erneut, dass eine anstrengungsabhängige Belohnung dazu führte, dass die Personen in einer nachfolgenden Testphase, in der sie Aufgaben wieder frei wählen konnte, die schwierigeren Aufgaben bevorzugten, die mehr kognitive Anstrengung erforderten.

Diese Ergebnisse stellen die weit verbreitete Auffassung in aktuellen Theorien der Kognitiven Psychologie und der Neurowissenschaften in Frage, dass Anstrengung stets als unangenehm und kostspielig erlebt wird. „Dass Menschen den Weg des geringsten Widerstands gehen möchten, ist also möglicherweise keine universelle Eigenschaft menschlicher Motivation. Die Neigung, anspruchsvolle Aufgaben zu vermeiden, könnte vielmehr das Ergebnis individueller Lerngeschichten sein, die sich je nach Belohnungsmuster unterscheiden: wurde vor allem die Leistung oder aber die Anstrengung belohnt“, schließt Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden und Sprecher des SFB 940.

Der Sonderforschungsbereich 940 „Volition und kognitive Kontrolle“
Der Sonderforschungsbereich (SFB) 940 „Volition und kognitive Kontrolle“ wurde im Jahr 2012 eingerichtet und befindet sich aktuell in seiner 3. Förderperiode. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Zentrum bündelt Kompetenzen aus den Feldern Experimentelle Psychologie, Kognitiv-Affektive Neurowissenschaften und Neuroimaging, Klinische Psychologie, Psychiatrie und Neurologie, um Mechanismen, Modulatoren und Dysfunktionen der Willenskontrolle auf psychologischer und neuronaler Analyse-Ebene zu untersuchen. Basierend auf einem interdisziplinären Netzwerk ist der SFB 940 bestrebt, nicht nur das Verständnis der grundlegenden Mechanismen der willentlichen Handlungssteuerung zu erweitern, sondern langfristig die Grundlagen für eine verbesserte Prävention und Therapie von Beeinträchtigungen willentlicher Handlungssteuerung bei psychischen Störungen zu schaffen. Sprecher ist Prof. Dr. Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden. https://tu-dresden.de/bereichsuebergreifendes/sfb940

Wissenschaftliche Ansprechpartner:
Prof. Thomas Goschke
Sprecher des SFB 940
Professor für Allgemeine Psychologie
TU Dresden
Email: thomas.goschke@tu-dresden.de

Prof. Veronika Job
Fakultät für Psychologie
Universität Wien
Email: veronika.job@univie.ac.at

Originalpublikation:
Georgia Clay, Christopher Mlynski, Franziska Korb, Thomas Goschke und Veronika Job: Rewarding cognitive effort increases the intrinsic value of mental labor,
In: Proceedings of the National Academy of Science (2022). Veröffentlichungsdatum: 28. Januar 2022.

(nach oben)


Morgensport vs. Abendsport: Forschende entschlüsseln die unterschiedlichen Auswirkungen auf unsere Gesundheit

Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Bewegen wir unseren Körper, sendet dieser Hunderte verschiedener Signale aus, die unsere Gesundheit in vielerlei Hinsicht fördern. Forschende haben nun am Mausmodell untersucht, welchen Einfluss die Tageszeit auf die Freisetzung organspezifischer Signale nach körperlicher Betätigung hat. Die Ergebnisse haben sie in einem „Atlas des Bewegungsstoffwechsels“ zusammengefasst – ein wichtiger Schritt für wirksamere Sporttherapien, die auf unsere innere Uhr abgestimmt sind.

Dass Bewegung die Gesundheit fördert, ist allgemein bekannt. Jüngste Forschungsergebnisse haben gezeigt, dass die Auswirkungen von Bewegung auf den Körper je nach Tageszeit unterschiedlich sind. Warum dies so ist, wurde noch nicht vollständig erforscht. Ein internationales Forschungsteam unter Leitung von Helmholtz Munich und dem Karolsinka-Institut in Schweden veröffentliche nun eine umfassende Studie zu diesem Thema in der Fachzeitschrift Cell Metabolism. Ihre Forschungen zeigen, wie der Körper nach dem Sport je nach Tageszeit und organabhängig unterschiedliche gesundheitsfördernde Signale produziert. Diese Signale haben weitreichende Auswirkungen auf die Gesundheit und beeinflussen den Schlaf, das Gedächtnis, die körperliche Leistungsfähigkeit und das Gleichgewicht unseres Stoffwechsels.

„Wenn wir besser verstehen, wie sich Bewegung zu verschiedenen Tageszeiten auf den Körper auswirkt, könnte dies Menschen mit einem erhöhten Risiko für Krankheiten wie Adipositas und Typ-2-Diabetes zugutekommen“, so Juleen R. Zierath vom Karolinska-Institut und dem Novo Nordisk Foundation Center for Basic Metabolic Research an der Universität Kopenhagen.

Atlas des Bewegungsstoffwechsels
Fast alle Zellen regulieren ihre biologischen Prozesse über einen Zeitraum von 24 Stunden, in der Wissenschaft bekannt als zirkadianer Rhythmus. Das bedeutet, dass sich die Empfindlichkeit der verschiedenen Gewebe gegenüber den Auswirkungen von Bewegung je nach Tageszeit ändert. Frühere Forschungsarbeiten haben bestätigt, dass die gesundheitsfördernde Wirkung von Bewegung optimiert werden kann, wenn sie zeitlich auf unseren zirkadianen Rhythmus abgestimmt ist.

Das internationale Forschungsteam wollte diesen Effekt genauer verstehen und führte daher eine Reihe von Untersuchungen an Mäusen durch, die entweder am frühen Morgen oder am späten Abend trainierten. Die Forschenden sammelten und analysierten Blutproben und verschiedene Gewebeproben von Hirn, Herz, Muskel, Leber und Fett. Auf diese Weise konnten sie Hunderte verschiedener Stoffwechselprodukte und Hormonsignalmoleküle in jedem Gewebe nachweisen und verfolgen, wie sie sich durch das Training zu unterschiedlichen Tageszeiten veränderten.

Das Ergebnis ist ein „Atlas des Bewegungsstoffwechsels“ – eine umfassende Karte von Signalmolekülen, die in unterschiedlichen Geweben nach körperlicher Belastung zu verschiedenen Tageszeiten vorhanden sind.

„Dies ist die erste Studie, die den Stoffwechsel in Abhängigkeit von Bewegung und Tageszeit über mehrere Gewebe hinweg beschreibt. Wir verstehen jetzt besser, wie Bewegung gestörte zirkadiane Rhythmen, die mit Adipositas und Typ-2-Diabetes in Verbindung stehen, neu ausrichten kann. Unsere Ergebnisse werden neue Studien ermöglichen, die den richtigen Zeitpunkt körperlicher Belastung für Therapien und die Prävention von Krankheiten erforschen“, sagt Dominik Lutter, der die Studie seitens Helmholtz Munich leitete und sowohl am Helmholtz Diabetes Center als auch beim Deutschen Zentrum für Diabetesforschung (DZD) forscht.

Die Studie ist das Ergebnis einer Zusammenarbeit zwischen der Universität Kopenhagen, dem Karolinska-Institut, der Texas A&M University, der University of California-Irvine und Helmholtz Munich.

Einschränkungen der Studie
Da die Studie an Mäusen durchgeführt wurde, unterliegt sie gewissen Einschränkungen. Mäuse und Menschen teilen zwar viele genetische, physiologische und verhaltensbezogene Merkmale, dennoch gibt es Unterschiede. Mäuse sind beispielsweise von Natur aus nachtaktiv. Außerdem bewegten sich die Mäuse für die Studie nur auf einem Laufband, was zu anderen Ergebnissen führen kann als ein hochintensives Training. Weitere Studien müssen zudem den Einfluss von Geschlecht, Alter und Krankheit auf die Signalproduktion klären.

Originalpublikation
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.

Über Helmholtz Munich
Helmholtz Munich ist ein biomedizinisches Spitzenforschungszentrum. Seine Mission ist, bahnbrechende Lösungen für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Interdisziplinäre Forschungsteams fokussieren umweltbedingte Krankheiten, insbesondere die Therapie und die Prävention von Diabetes, Adipositas, Allergien und chronischen Lungenerkrankungen. Mittels künstlicher Intelligenz und Bioengineering transferieren die Forschenden ihre Erkenntnisse schneller zu den Patient:innen. Helmholtz Munich zählt mehr als 2.500 Mitarbeitende und hat seinen Sitz in München/Neuherberg. Es ist Mitglied der Helmholtz-Gemeinschaft, mit mehr als 43.000 Mitarbeitenden und 18 Forschungszentren die größte Wissenschaftsorganisation in Deutschland. Mehr über Helmholtz Munich (Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH): www.helmholtz-muenchen.de

Wissenschaftliche Ansprechpartner:
Helmholtz Munich
Dominik Lutter
Email: dominik.lutter@helmholtz-munich.de

Originalpublikation:
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.
https://www.cell.com/cell-metabolism/fulltext/S1550-4131(21)00635-5

(nach oben)


Mikroplastik in der Umwelt: Daten reichen nicht aus

Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Misst man nur zu einem einzigen Zeitpunkt, wieviel Mikroplastik sich in der Umwelt befindet, so lassen sich daraus keine Rückschlüsse auf den Zerfall und die künftige Verbreitung des Kunststoffs ziehen. Dazu sind vielmehr Zeitreihen der Partikelverteilung erforderlich, wie Physiker der Philipps-Universität Marburg mit Modellrechnungen herausgefunden haben. Die Forscher berichten im Wissenschaftsmagazin „Scientific Reports“ über ihre Ergebnisse.

Messen, messen und wieder messen: Marburger Physiker zeigen, wie sich der Abbau von Kunststoffpartikeln erforschen lässt.

Die weltweite Kunststoffproduktion erreichte im Jahr 2019 einen Umfang von 368 Millionen Tonnen, rechnet der Weltverband der Plastikhersteller vor. Ein großer Teil des Materials gelangt in die Umwelt. Wie der Kunststoff sich dort im Lauf der Zeit verteilt, hängt unter anderem vom Zerfall der Partikel ab. „Bisher weiß man wenig über den Abbau von Mikroplastik“, sagt der Marburger Physiker Professor Dr. Peter Lenz, der die aktuelle Studie leitete.

Messen Kunststoffpartikel weniger als fünf Millimeter im Umfang, nennt man sie Mikroplastik. „Sie werden durch Kosmetika oder andere Gebrauchsprodukte in die Umwelt eingetragen oder entstehen durch die Zersetzung von Plastikmüll“, führt Lenz aus. Die Wissenschaftler nutzten ausgeklügelte Berechnungsverfahren, um herauszufinden, ob aus den derzeit verfügbaren Daten nützliche Informationen über den Zerfall von Mikroplastikpartikeln gewonnen werden können. Lässt sich der Zerfallsprozess erklären, wenn man die Ergebnisse nutzt, die im Gelände gewonnen werden?

„Derzeit liegen meist Daten von Größenverteilungen vor, die zu einzelnen Zeitpunkten gemessen wurden“, berichtet Mitverfasser Timo Metz, der seine Bachelorarbeit in der Arbeitsgruppe von Lenz anfertigte. „Wir haben zunächst mit einem sehr einfachen Modell für den Zerfall von Mikroplastik gearbeitet.“ Mit diesem Modell zeigen die Wissenschaftler, dass es unmöglich ist, alle wichtigen Faktoren für den Zerfall des Kunststoffs aus einer einzigen Größenverteilung zu gewinnen. Denn zerkleinerte Partikel unterscheiden sich in der Größe nicht unbedingt von Plastikteilchen, die neu in die Umwelt gelangen.

Wie müssen die Daten beschaffen sein, um aussagekräftiger zu sein? Das Team ging dieser Frage nach, indem es künstliche, komplexere Daten erzeugte, auf die es das Berechnungsmodell anwendete. „Unsere Analyse ergab einige Mindestanforderungen, die experimentell gewonnene Daten erfüllen müssen“, legt der dritte Koautor dar, der Marburger Physiker Professor Dr. Martin Koch: Die Daten sollten zu mehreren Zeitpunkten an identischen Stellen gesammelt werden, um eine Zeitreihe zu bilden. Außerdem reichen Größenmessungen alleine nicht aus, sie sollten mit der Bestimmung der Massen kombiniert werden.

Das Team gibt außerdem noch weitere Anregungen, wie sich das Vorkommen von Kunststoffteilchen besser als bisher erheben lässt. Unter anderem empfehlen die Forscher, zusätzliche Größenkategorien einzuführen, Messungen an verschiedenen Orten vorzunehmen und Eigenschaften wie Material und Form einzubeziehen, die den Abbauprozess beeinflussen. Alle Daten sollten in Zeitreihen erhoben werden.

Peter Lenz leitet eine Arbeitsgruppe im Fachgebiet „Komplexe Systeme“ des Fachbereichs Physik der Philipps-Universität. Professor Dr. Martin Koch lehrt Physik an der Philipps-Universität Marburg und leitet die Arbeitsgruppe Halbleiterphotonik. Das Land Hessen unterstützte die zugrunde liegende wissenschaftliche Arbeit durch eine LOEWE-Exploration-Förderung.

Originalveröffentlichung:
Timo Metz, Martin Koch & Peter Lenz: Extracting microplastic decay rates from field data, Scientific Reports 2022, DOI: https://doi.org/10.1038/s41598-022-04912-w

Weitere Informationen:
Ansprechpartner: Professor Dr. Peter Lenz,
Fachgebiet Komplexe Systeme
Tel.: 06421 28-24326
E-Mail: peter.lenz@Physik.Uni-Marburg.de
Internet: http://www.uni-marburg.de/de/fb13/komplexe-systeme

(nach oben)


Wasserstofftechnologie: Elektrolyseure sollen Massenware werden

Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Wer Wasserstoff als Energiequelle nutzen will, braucht Elektrolyseure. Doch die sind rar und teuer, weil sie bisher noch weitgehend von Hand gefertigt werden. Damit sie künftig im industriellen Maßstab produziert werden können, entwickelt ein Forschungsteam vom Fraunhofer IPA derzeit eine durchgängig automatisierte Elektrolyseurfabrik.

Wasserstoff ist auf der Erde reichlich vorhanden. Allerdings ist er sehr reaktionsfreudig und daher in Molekülen gebunden, in Wasser (H2O) zum Beispiel. Wer das gasförmige Element als emissionsfreie Energiequelle nutzen möchte, muss den Wasserstoff also zunächst aus dem Wassermolekül herauslösen. Dafür gibt es sogenannte Elektrolyseure. Sie spalten Wasser in seine Bestandteile Wasserstoff (H2) und Sauerstoff (O) auf. Brennstoffzellen können den Wasserstoff wieder in elektrischen Strom umwandeln, der dann Motoren antreibt. Oder der Wasserstoff wird in Hochöfen direkt verbrannt.

Da Wasserstoff bei der Energie- und Verkehrswende eine wichtige Rolle spielt, braucht die Welt in absehbarer Zeit massenhaft neue Elektrolyseure. Doch die werden bisher noch weitgehend in Handarbeit gefertigt, was sehr viel Zeit braucht, teuer und fehleranfällig ist. Wissenschaftlerinnen und Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA wollen deshalb zusammen mit Partnern aus Forschung und Industrie die Fertigung von Elektrolyseuren durchgängig automatisieren. »Ziel ist eine automatisierte Elektrolyseurfabrik im Gigawatt-Maßstab«, sagt Friedrich-Wilhelm Speckmann vom Zentrum für digitalisierte Batteriezellenproduktion (ZDB) am Fraunhofer IPA. »Die hier innerhalb eines Jahres produzierten Elektrolyseure sollen also eine aufaddierte Nominalleistung von mindestens einem Gigawatt haben.«

Roboter sollen künftig das Stacking übernehmen
Ein Elektrolyseur besteht aus zwei Elektroden – der positiv geladenen Anode und der negativ geladenen Kathode – und einem Separator, in diesem Fall einer Protonen-Austausch-Membran (PEM). Um die Leistung zu erhöhen, werden viele Elektrolysezellen zu einem sogenannten Stack gestapelt. Dieses Stacking geschieht bisher noch größtenteils in Handarbeit, könnte in Zukunft aber von Robotern erledigt werden.

Weil aber nicht nur das Stacking, sondern die gesamte Produktionslinie automatisiert werden soll, müssen die Forscherinnen und Forscher auch sämtliche vor- und nachgelagerte Prozesse, bis zum Einfahren der Gesamtsysteme, berücksichtigen. Dabei reichen die Aufgaben von der Fabrik- und Produktionsplanung, über die Bauteiltests bis hin zu den End-of-Line-Prüfständen. Zusätzlich werden im Konsortium auch neuartige Stackdesigns entwickelt, die zukünftige Produktionsverfahren vereinfachen und somit beschleunigen.

Fertigungssystemplanung, Roboter und Sensoren für die Elektrolyseurfabrik
Um die automatisierte Elektrolyseurfabrik verwirklichen zu können, bauen die Projektpartner zunächst eine Fertigungslinie nach dem aktuellen Stand der Technik auf. Diese wird dann Stück für Stück modular angepasst und erweitert, damit die einzelnen Prozesse besser als bisher ineinandergreifen und automatisiert ablaufen. Dabei klären die Wissenschaftlerinnen und Wissenschaftler eine ganze Reihe offener Fragestellungen, zum Beispiel: Welche Robotertopologie eignet sich für das Stacking am besten? Wie muss ein Roboter die Bauteile greifen und wie schnell darf er sich dabei maximal bewegen, um die sensiblen Komponenten nicht zu beschädigen? Welche optischen Sensoren sollen zur Qualitätssicherung in die Anlage integriert werden? Welche Fertigungstechnologien ermöglichen eine Skalierung der Elektrolyseurproduktion? Wie muss eine vollkommen automatisierte Elektrolyseurfabrik aussehen und aufgebaut sein?

Antworten auf diese und viele weitere Fragen will das Forschungsteam bis 31. März 2025 gefunden haben. Dann nämlich läuft das Forschungsprojekt »Industrialisierung der PEM-Elektrolyse-Produktion« (PEP.IN) aus, welches das Bundesministerium für Bildung und Forschung (BMBF) mit über 20 Millionen Euro fördert. Beteiligt sind an dem Verbundprojekt neben dem Fraunhofer IPA auch das Fraunhofer-Institut für Solare Energiesysteme ISE, das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, die MAN Energy Solutions SE, die H-TEC Systems GmbH, die Audi AG, die VAF GmbH, das Zentrum für Brennstoffzellen-Technik GmbH und das Forschungszentrum Jülich GmbH. PEP.IN ist Teil des Leitprojekts »H2Giga«, einem von drei Wasserstoff-Leitprojekten, die einen zentralen Beitrag des BMBF zur Umsetzung der Nationalen Wasserstoffstrategie bilden.

Weitere H2Giga-Projekte mit Beteiligung des Fraunhofer IPA

Degrad-EL3-Q: Im Forschungsprojekt »Degrad-EL3-Q« untersucht ein Forschungsteam vom Zentrum für Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA, inwiefern Degradationsanalysen, die mit einem Quantencomputer durchgeführt werden, klare Vorteile gegenüber klassischen Computertechnologien bieten. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/Degrad-EL3-Q.html

FRHY: Im H2Giga-Projekt »Referenzfabrik für hochratenfähige Elektrolyseur-Produktion« (FRHY) bildet ein Forschungsteam vom Kompetenzzentrum DigITools am Fraunhofer IPA die einzelnen Produktionsmodule der Referenzfabrik als Digitale Zwillinge ab und vernetzt sie virtuell zu einer kompletten Produktionslinie. Dazu baut es eine standortübergreifende, serviceorientierte Produktions-IT-Plattform auf. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/FRHY.html

IREKA: Im Forschungsprojekt »Iridium-reduzierte Anodenkatalysatoren für die PEM-Wasserelektrolyse« (IREKA) verfolgt ein Forschungsteam von der Abteilung Galvanotechnik am Fraunhofer IPA und vom Leibniz-Institut für Katalyse das Ziel, den Bedarf des seltenen Elements Iridium für PEM-Elektrolyseure zu reduzieren. Dazu untersucht es drei mögliche Ansätze. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/IREKA.html

ReNaRe: Im H2Giga-Projekt »Recycling – Nachhaltige Ressourcennutzung« (ReNaRe) arbeitet ein Forschungsteam von der Abteilung Roboter- und Assistenzsysteme am Fraunhofer IPA an der automatisierten Demontage von Elektrolyseuren. Dazu werden erhältliche Systeme erfasst und die Anforderungen hinsichtlich modularer Roboterwerkzeuge und notwendiger KI-Algorithmen für die Roboterprogrammierung definiert. Ein Digitaler Zwilling flankiert die Demontage, um die einzelnen Schritte virtuell zu optimieren. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/ReNaRe.html

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Friedrich-Wilhelm Speckmann | Telefon +49 711 970-3690 | friedrich-wilhelm.speckmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

(nach oben)


Bergische Uni untersucht Ausdauer und Leistungsfähigkeit beim Tragen von FFP2-Masken

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Welcher Maskentyp bietet einen optimalen Schutz, aber auch guten Tragekomfort? Da OP- oder anderweitige Gesichtsmasken Gesicht und Atemstrom nicht ausreichend abdichten, wurden in den letzten Wochen immer häufiger FFP-Atemschutzmasken vorgeschrieben. Im Labor für Bewegungs- und Trainingswissenschaft haben Experten der Bergischen Universität in einem studentischen Projekt den Einfluss dieser Atemschutzmasken auf Herz-Kreislauf, Atmung und Stoffwechsel sowie auf psychologische Parameter untersucht. 12 Männer im Alter von 24 ± 2 Jahren absolvierten im Abstand von sieben Tagen auf einem Fahrradergometer zwei Ausbelastungstest mit Atem-Gasanalyse sowohl mit als auch ohne FFP-Atemschutzmaske.

Obwohl während dem Testverfahren hohe Atemleistungen erforderlich waren, hatte das Tragen der Atemschutzmaske keinen Einfluss auf die Ausdauerleistungsfähigkeit. Auch Herzfrequenz und weitere medizinische Parameter zeigten keine bedeutsamen Unterschiede, obwohl der Atemwiderstand mit Maske signifikant zugenommen und die forcierte Ausatmung signifikant abgenommen hat.

Es zeigten sich keine Einschränkung der körperlichen Ausdauerleistungsfähigkeit – trotz des durch den höheren Atemwiderstand subjektiv unangenehmen Empfindens beim Tragen der Maske.

Die Ergebnisse deuten darauf hin, dass durch das Tragen von FFP-Atemschutzmasken im Arbeitsalltag und der Schule keine körperlichen Leistungsminderungen zu erwarten sind. Das oft postulierte Argument, beim Tragen von Atemmasken erfolge eine Rückatmung von Kohlenstoffdioxid, konnte durch die Studie an der Bergischen Universität nicht bestätigt werden. Ob diese Ergebnisse auch für die geistige Fähigkeiten – etwa kognitive Leistungs- oder Konzentrationsfähigkeit gelten – ist weiteren Untersuchungen vorbehalten.

Gesunde Menschen können den durch die Atemmaske erhöhten Atemwiderstand problemlos kompensieren, die Atemmuskulatur erfährt einen zusätzlichen Trainingsreiz, was bei Herz-Kreislaufpatienten und bei eingeschränkter Lungenfunktionsfähigkeit berücksichtigt werden muss.

Bislang wenig beachtet ist die Arbeitsschutz-Empfehlung der Deutschen Gesetzlichen Unfallversicherung von 75 Minuten als maximale Tragedauer, was knapp einer Doppelstunde im Schulunterricht entspricht. Bei Umsetzung dieser Empfehlung müssten Schulkinder und Arbeitnehmer mit mehreren Masken pro Tag ausgerüstet sein.

Den Gesamttext und die Studienergebnisse finden Interessierte in dieser Pressemeldung: https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au…

Wissenschaftliche Ansprechpartner:
Dipl.-Sporting. Dr. Christian Baumgart
E-Mail: baumgart@uni-wuppertal.de

Prof. Dr. Jürgen Freiwald
E-Mail: freiwald@uni-wuppertal.de

Weitere Informationen:
https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au… – Link zur Pressemeldung inkl. der Langfassung

(nach oben)


Covid-19-bedingte Fehlzeiten erreichten im November 2021 vorläufigen Höchststand

Peter Willenborg Presse & Kommunikation
Wissenschaftliches Institut der AOK
Berlin. Eine aktuelle Auswertung des Wissenschaftlichen Instituts der AOK (WIdO) zeigt, dass im Pandemie-Zeitraum von März 2020 bis November 2021 von den 13,4 Millionen bei der AOK versicherten Erwerbstätigen knapp 700.000 Beschäftigte mindestens eine Krankschreibung aufgrund einer Covid-19-Diagnose erhielten. Damit sind in den ersten 21 Monaten seit Beginn der Pandemie 5,1 Prozent der AOK-Mitglieder im Zusammenhang mit Covid-19 krankheitsbedingt an ihrem Arbeitsplatz ausgefallen.

Die besondere Dynamik des Covid-19-Geschehens in der vierten Welle wird im November 2021 deutlich: Mehr als 20 Prozent aller bisher von Covid-19 betroffenen AOK-Mitglieder (142.786 Beschäftigte) haben eine Arbeitsunfähigkeit allein in diesem Monat erhalten. „Es ist zu erwarten, dass die Fehlzeiten im November 2021 nur einen vorläufigen Höchststand erreicht haben. Mit der zunehmenden Verbreitung der Omikron-Variante in Deutschland wird es eine Herausforderung sein zu gewährleisten, dass die Beschäftigten gerade in der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder, stellvertretender Geschäftsführer des WIdO.

Vor allem Beschäftigte in den Branchen Erziehung und Altenpflege waren von Krankschreibungen im Zusammenhang mit Covid-19 betroffen: So gab es im bisherigen Verlauf der Pandemie 8.141 Krankschreibungen je 100.000 AOK-Mitglieder in den Berufen der Erziehung, Sozialarbeit und Heilerziehungspflege und 7.515 Krankschreibungen je 100.000 AOK-Mitglieder in der Altenpflege. Aber auch Berufe in der „nicht-ärztlichen Therapie und Heilkunde“, zu denen beispielsweise Physio- oder Ergotherapeuten gehören (7.438 je 100.000 AOK-Mitglieder), in Arzt- und Praxishilfe (7.323 je 100.000 AOK-Mitglieder) sowie in Gesundheits- und Kranken-pflege, Rettungsdienst und Geburtshilfe (7.248 je 100.000 AOK-Mitglieder) hatten auffallend hohe Fehlzeiten im Zusammenhang mit Covid-19. Die niedrigsten Covid-19-bedingten Fehlzeiten wiesen dagegen die Berufe in der Landwirtschaft (1.270 je 100.000 AOK-Mitglieder), der Gastronomie (2.184 je 100.000 AOK-Mitglieder) und der Hotellerie (2.641 je 100.000 AOK-Mitglieder) auf.

Bei 65 Prozent der betroffenen Beschäftigten wurde der gesicherte Nachweis der Infektion auf der Arbeitsunfähigkeitsbescheinigung dokumentiert (ICD-10 GM: U07.1!). Bei den übrigen Fällen ist SARS-CoV-2 nicht durch einen Labortest nachgewiesen worden, sondern aufgrund eines klinischen Kriteriums (zum Beispiel typische Symptome für Covid-19) und eines epidemiologischen Kriteriums (zum Beispiel enger Kontakt zu einer Person mit bestätigter Infektion) als Verdachtsfall dokumentiert (ICD-10 GM: U07.2!).

Im Durchschnitt waren 5.144 je 100.000 AOK-Mitglieder im Zusammenhang mit Covid-19 mindestens einmal im gesamten Pandemiezeitraum krankgeschrieben.

Die isolierte Betrachtung des Monats November 2021 macht eine Verschiebung bei den betroffenen Berufsgruppen deutlich: In den „Top 20“ finden sich nun nicht nur die Berufe der Erziehung und der Altenpflege, sondern auch Beschäftigte aus den Berufen der Fahrzeug-, Luft-, Raumfahrt- und Schiffbautechnik (1.561 Erkrankte je 100.000 AOK-Mitglieder), der Metallverarbeitung (1.546 Erkrankte je 100.000 AOK-Mitglieder) sowie aus Maschinenbau und Betriebstechnik (1.522 Erkrankte je 100.000 AOK-Mitglieder). Auch Berufe der Ver- und Entsorgung sind mit 1.303 Erkrankten je 100.000 AOK-Mitglieder relativ stark betroffen. „Die Daten aus dem November 2021 zeigen, dass infolge der aktuellen Omikron-Welle eine flächendeckende Betroffenheit in einer Vielzahl von verschiedenen Berufsgruppen zu erwarten ist. Auch in den technischen Berufen sind die Fehlzeiten stark angestiegen. Es sind gemeinsame Anstrengungen notwendig, damit die Beschäftigten gerade auch in diesen Teilen der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder.

Vorläufiger Höhepunkt der Covid19-bedingten Krankmeldungen im November 2021
Der wellenartige Verlauf der Prävalenz von Covid-19-Infektionen in der Bevölkerung spiegelt sich auch in den krankheitsbedingten Fehlzeiten der AOK-versicherten Beschäftigten wider. Im April 2020 gab es mit 281 Erkrankten je 100.000 AOK-Mitglieder einen ersten Höhepunkt der Krankschreibungen aufgrund einer im Labor bestätigten Covid-19-Diagnose (ICD U07.1). Im Dezember 2020 erreichte die Anzahl der Erkrankten – nach einem deutlichen Rückgang im Sommer 2020 – den Spitzenwert in der zweiten Welle mit 486 je 100.000 AOK-Mitglieder. In der dritten Pandemiewelle lag der Spitzenwert im April 2021 mit 467 Erkrankten je 100.000 Beschäftigten. Ihren vorläufigen Höhepunkt erreichte die Covid-19-Pandemie im November 2021 (918 Erkrankte je 100.000 Beschäftigte). „Die Befürchtung, dass die Omikron-Variante auch Auswirkungen auf die Covid-19-bedingten Fehlzeiten bei Beschäftigten in der kritischen Infrastruktur haben wird, ist angesichts des zuletzt sehr deutlichen Anstiegs der Fehlzeiten in den relevanten Berufsgruppen durchaus berechtigt,“ so die Einschätzung von WIdO-Geschäftsführer Helmut Schröder.

Weitere Informationen:
https://wido.de

(nach oben)


Bestätigt: Wird Klärschlamm auf Äcker gegeben, kann Mikroplastik tief in den Boden und auf angrenzende Felder geraten

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Dass Klärschlamm aus städtischen Anlagen einen hohen Anteil an Mikroplastik enthält, konnte schon in früheren Studien gezeigt werden. Der Verdacht lag nahe, dass die Nutzung solcher Schlämme zur Düngung von Feldern auch den unkontrollierten Eintrag von Mikroplastik in die weitere Umwelt fördern könnte. Nun bestätigen Studien im Rahmen des BMBF-Projektes MicroCatch_Balt diese Annahme.

Als Mikroplastik werden Kunststoff-Partikel bezeichnet, die kleiner als 5 mm sind. Mittlerweile findet die Wissenschaft sie überall auf der Welt, auch an solch abgeschiedenen Orten wie Arktis und Antarktis. Im Vergleich zu dieser Omnipräsenz ist der Kenntnisstand zu den Quellen dieser Belastung gering. Aber nur, wenn die Quellen bekannt sind, kann effizient gegen den Eintrag von MP in der Umwelt vorgegangen werden. In den letzten Jahren wurden daher überall auf der Welt Forschungsanstrengungen unternommen, um die Wissenslücken zu schließen.

Als eine mögliche Quelle stehen seit geraumer Zeit Klärschlämme im Visier. Sie enthalten häufig große Mengen an Mikroplastik und werden in einigen Ländern als Dünger in der Landwirtschaft genutzt. Umweltforscher:innen vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW), dem Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei in Braunschweig sowie dem Leibniz-Institut für Polymerforschung Dresden untersuchten an einem Testfeld der Landwirtschaftlichen Untersuchungs- und Forschungsanstalt Speyer, das seit den 1980er Jahren regelmäßig mit Klärschlamm gedüngt wurde, wie die MP-Belastung im Pflug-Bereich, in dem darunterliegenden Boden und im benachbarten, unbehandelten Feld aussah. Ihre Ergebnisse stellte das Autorenteam um Alexander Tagg (IOW) nun in der internationalen Fachzeitschrift Science of the total environment vor.

„Auf dem Testfeld fanden wir erwartungsgemäß relativ viele Mikroplastik-Partikel. Aber auf dem unbehandelten Acker in der Nachbarschaft wurden wir ebenfalls fündig. Die Menge entsprach 44 % dessen, was wir im Oberflächenbereich des Testfeldes gefunden haben“, berichtet Alexander Tagg. Dieser Befund alleine hätte für den Nachweis einer Verbindung noch nicht gereicht. „Das Polymer-Spektrum des Mikroplastiks zeigt aber an beiden Orten ein fast identisches Profil. Unserer Meinung nach lässt sich das nur mit dem Transport aus dem Testfeld erklären.“

Darüber hinaus wurde in dem mit Klärschlamm behandelten Boden des Testfeldes Mikroplastik bis in einer Tiefe von 60-90 cm nachgewiesen, was darauf hindeutet, dass MP auch tief genug eindringen kann, um landwirtschaftliche Entwässerungssysteme zu erreichen. Allerdings waren die MP-Mengen in der Tiefe nur sehr gering (1,6 % der Oberflächenbelastung) und die kontrollierte langjährige und intensive Behandlung des untersuchten Testfeldes mit Klärschlamm lag weit über dem, was im Rahmen der Klärschlammverordnung in der Landwirtschaft zulässig ist.

„Es sind nicht die aktuellen Mengen an Mikroplastik, die uns Sorgen machen, sondern der Umstand, dass diese Kunststoffe immer wieder in die Umwelt gelangen und dort persistent sind. Sie werden nicht mehr verschwinden und sich immer weiter anreichern, wenn wir die Quellen nicht schließen“, kommentiert Matthias Labrenz, Leiter des BMBF geförderten Projektes MicroCatch_Balt (Untersuchung der Mikroplastik-Senken und -Quellen von einem typischen Einzugsgebiet bis in die offene Ostsee) die Werte. Und er kommt zu dem Schluss: „Die Ausbringung von kommunalem Klärschlamm auf landwirtschaftlichen Flächen kann zu weiteren unkontrollierten Verunreinigungen führen.“ Klärschlamm ist jedoch nur eine von vielen Quellen von Mikroplastik. Um seine Bedeutung im Vergleich mit anderen bekannten Einträgen, z.B. durch Reifenabrieb oder Ablagerung von Staub aus der Luft einordnen zu können, ist weitere Forschung dringend notwendig.

Wissenschaftliche Ansprechpartner:
Dr. Alexander Tagg | Tel.: 0381 5197 315 | alexander.tagg@io-warnemuende.de
Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde

Prof. Dr. Matthias Labrenz | Tel.: 0381 5197 378 | matthias.labrenz@io-warnemuende.de, Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde

Originalpublikation:
Tagg, A. S., E. Brandes, F. Fischer, D. Fischer, J. Brandt and M. Labrenz (2022). Agricultural application of microplastic-rich sewage sludge leads to further uncontrolled contamination. Sci. Total Environ.: 150611, doi: https://doi.org/10.1016/j.scitotenv.2021.150611

(nach oben)


Online-Studie: Was bedeutende Lebensereignisse bewirken

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Keine anderen Lebensphase ist so sehr von Umbrüchen geprägt wie das junge Erwachsenenalter. Wie stellen sich junge Menschen bedeutende Lebensereignisse vor? Wie erleben sie diese Ereignisse wirklich, und welchen Einfluss haben sie auf das Wohlbefinden? Das will ein Team der Psychologie der Ruhr-Universität Bochum (RUB) wissen. Die Forschenden um Peter Hähner und Prof. Dr. Maike Luhmann laden Menschen dieser Altersgruppe daher zu einer Online-Umfrage ein. Alle Infos gibt es online: http://www.hype-studie.de/.

Auswirkungen auf Wohlbefinden und Persönlichkeit
Die Studie namens HYPE, kurz für hypothetische und erlebte Ereignisse, umfasst drei einzelne Befragungen über insgesamt neun Monate. „Mit der Studie wollen wir einen genaueren Einblick in die Wahrnehmung von bedeutenden Lebensereignissen erhalten“, erklärt Peter Hähner. „Außerdem wollen wir untersuchen, wie sich junge Erwachsene bedeutende Lebensereignisse vorstellen und unter welchen Umständen es möglicherweise zu Abweichungen zwischen unserer Erwartung an Lebensereignisse und dem tatsächlichen Erleben dieser Ereignisse kommt.“ Die Erkenntnisse sollen dazu beitragen, die Auswirkungen von Lebensereignissen auf das Wohlbefinden und die Persönlichkeit im jungen Erwachsenenalter besser zu verstehen.

Teilnehmen können alle bis etwa 35 Jahre. Die erste Befragung startet gleich nach der Anmeldung und dauert etwa 30 Minuten. Teilnehmende werden dann per Mail zur zweiten und dritten Befragung eingeladen, die nach sechs und neun Monaten stattfinden. Diese Befragungen dauern etwa 15 bis 25 Minuten. Wer mitmacht, kann Informationen über sein Persönlichkeitsprofil erhalten und an Verlosungen für Gutscheine im Gesamtwert von 700 Euro teilnehmen.

Wissenschaftliche Ansprechpartner:
Peter Hähner
Psychologische Methodenlehre
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 27986
E-Mail: peter.haehner@rub.de

Weitere Informationen:
http://www.hype-studie.de/

(nach oben)


Klimawandel und Waldbrände könnten Ozonloch vergrößern

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Rauch aus Waldbränden könnte den Ozonabbau in den oberen Schichten der Atmosphäre verstärken und so das Ozonloch über der Arktis zusätzlich vergrößern. Das geht aus Daten der internationalen MOSAiC-Expedition hervor, die 2019/20 die Region um dem Nordpol untersucht hatte. Ein Zusammenhang zwischen ungewöhnlich hohen Temperaturen, starken Dürren und zunehmenden Waldbränden mit viel Rauch in der unteren Stratosphäre und starkem Ozonabbau über den Polarregionen sei wahrscheinlich.

Sollte sich diese Annahme bestätigen, dann werde die Debatte zu den Folgen des Klimawandels um einen neuen Aspekt erweitert, schreibt ein internationales Forschungsteam unter Leitung des Leibniz-Instituts für Troposphärenforschung (TROPOS) im Fachjournal Atmospheric Chemistry and Physics (ACP).

Als Ursache für die jüngsten Rekordtiefstwerte an Ozon über der Arktis galten bisher Veränderungen in den vorherrschenden Windsystemen, die zu niedrigeren Temperaturen im Polarwirbel führen, einem Tiefdruckgebiet in der arktischen Stratosphäre in 15 bis 50 Kilometern Höhe. Mit dem Rauch aus Waldbränden in den borealen Nadelwäldern kommt durch die neue Hypothese jetzt noch ein weiterer Faktor des Klimawandels hinzu, der über komplexe Rückkopplungsmechanismen auch Gesundheitsauswirkungen in den angrenzenden Regionen Europas, Nordamerikas und Asiens haben könnte.

Basis für die neue Hypothese sind umfangreiche Auswertungen von Messungen zu Aerosolen an verschiedenen Orten: Eine zentrale Rolle spielten die Messungen während der internationalen MOSAiC-Expedition, als der deutsche Eisbrecher Polarstern von Herbst 2019 an ein Jahr lang durch das Eis des Arktischen Ozeans am Nordpol driftete. Teil der größten Polarexpedition der Geschichte mit über 80 Forschungsinstituten aus über 20 Nationen unter Leitung des Alfred-Wegener-Instituts, dem Helmholtz-Zentrum für Polar- und Meeresforschung, (AWI) waren auch umfangreiche Untersuchungen der Atmosphäre. Dabei entstand erstmals ein zusammenhängender, vertikal aufgelöster Blick auf die Aerosole und Wolken in der zentralen Arktis während des Winterhalbjahres bis in 30 km Höhe. Dafür hatte ein Mehrwellenlängen-Lidar des TROPOS die Luftschichten von Bord des Forschungseisbrechers aus ausgemessen. In 369 Tagen gingen dabei 640 Millionen Laserpulse in den Himmel und es kamen 112 Gigabyte Daten zusammen. Die Daten aus der zentralen Arktis um den Nordpol wurden ergänzt durch Lidar-Daten vom Koldewey Aerosol Raman Lidar (KARL) des AWI in Ny-Ålesund auf Spitzbergen sowie des Erdbeobachtungssatelliten CALIPSO von NASA und CNES.

Wo kommt der Rauch über dem Nordpol her?
Die Atmosphäre über dem Nordpol galt lange als sehr sauber, weil die Region nördlich des Polarkreises nur dünn besiedelt ist. Die Überwinterung des Forschungseisbrechers Polarstern 2019/20 ermöglichte erstmals Einblick in eine Welt, die der Forschung bisher unzugänglich war und auch die Atmosphärenforschung überraschte: „Vom ersten Tag der MOSAiC-Messungen Ende September 2019 an beobachteten wir eine auffällige Aerosolschicht mit einem breiten Maximum in etwa 10 km Höhe, direkt über der lokalen Tropopause. Nach unseren Raman-Lidar-Beobachtungen wies die Schicht klare Signaturen von Waldbrandrauch bis in etwa 12-13 km Höhe auf. Ein Vergleich mit kontinuierlichen Lidar-Messungen in Leipzig und Ny-Ålesund zeigte, dass bereits seit August 2019 viele Partikel in dieser Höhe schwebten, die nicht allein durch den Ausbruch des Vulkans Raikoke im Pazifik im Sommer 2019 zu erklären waren“, berichtet Dr. Ronny Engelmann, der als erster von fünf TROPOS-Forschenden die Lidarmessungen auf der Polarstern betreut hat. Rauchpartikel reflektieren das Laserlicht des Lidars anders als Partikel aus Vulkanausbrüchen. Analysen der Luftströmung mittels sogenannter Rückwärtstrajektorien deuteten auf die außergewöhnlich starken und lang anhaltenden Waldbrände in Mittel- und Ostsibirien im Juli und August 2019. Zu dieser Zeit brannten große Wälder am Baikalsee in einem Gebiet von etwa 1000 km × 2000 km. Auswertungen von Satellitenaufnahmen zeigten später, dass die Feuersaison 2019 in Sibirien zu den stärksten der letzten zwei Jahrzehnte gehörte.
Die Waldbrände im Sommer in Sibirien sorgten also dafür, dass die Aerosolkonzentration in der unteren Stratosphäre der zentralen Arktis im Winterhalbjahr um das Zehnfache erhöht war. Die genauen Auswirkungen der Rauchpartikel in der Stratosphäre auf das Klimasystem sind noch weitgehend unerforscht. Einerseits könnten sich Strahlungsflüsse verändern, andererseits könnten die Aerosole als Eisnukleationskeime dienen und dadurch Zirruswolken bilden.

Wie gelangen die Rauchpartikel bis in Höhen von 10 km, der typischen Reisehöhe von Interkontinentalflügen?
Aus wärmeren Regionen sind sogenannte Feuerwolken (Pyrocumulus, kurz: PyroCb) bekannt, bei denen die Hitze durch das Feuer am Boden so stark ist, dass die Luft wie in einem Fahrstuhl nach oben transportiert wird und dabei den Rauch bis in die Stratosphäre trägt. Bei den katastrophalen Bränden in Australien 2019 oder an der Westküste Nordamerikas 2020 wurden diese „Fahrstuhlwolken“ ebenfalls beobachtet. Im Sommer 2019 entwickelten sich jedoch keine kräftigen Gewitter über den Brandgebieten in Sibirien. „Wir vermuten daher, dass sich die dunklen, kohlenstoffhaltigen Rauchpartikel durch das Sonnenlicht so stark erwärmten, dass ihre Umgebungsluft langsam aufstieg. Dies ist die einzige plausible Erklärung für einen effizienten vertikalen Transport über mehrere Kilometer“, erklärt Kevin Ohneiser vom TROPOS, der in seiner Doktorarbeit den Einfluss von Waldbränden auf die Atmosphäre untersucht. „Über sogenannte Selbstauftriebsprozesse wurde mehrfach nach großen Waldbränden berichtet – allerdings nur für Rauchschichten in der Stratosphäre, also oberhalb von ca. 10 km Höhe. Nach unserem besten Wissen gibt es in der Literatur keinen Bericht über Selbstauftriebsprozesse in der Troposphäre, also unterhalb von 10 km Höhe. Ruhige Wetterbedingungen ohne starke Winde könnten eine der wichtigsten Voraussetzungen für dieses Phänomen in der Troposphäre sein, welches wir wahrscheinlich zum allerersten Mal registriert haben, wenn sich unsere Beobachtungen bestätigen sollten.“

Was hat der Rauch mit dem Ozonloch zu tun?
Bereits bekannt ist, dass ein kräftiger, lang anhaltender Polarwirbel für starken Ozonabbau sorgt: Der Polarwirbel ist ein großes Tiefdruckgebiet in der Stratosphäre in Höhen von 15 bis 50 km, das für sehr tiefe Temperaturen sorgt. Bei Temperaturen unter -78°C bilden sich polare Stratosphärenwolken (PSC) mit Eiskristallen, an deren Oberfläche chemische Reaktionen ablaufen, bei denen Chlorverbindungen entstehen, die zusammen mit Brom bei Sonneneinstrahlung Ozon abbauen. Auch an der Oberfläche von Sulfatpartikeln können solche Reaktionen ablaufen. Sie können bei Vulkanausbrüchen entstehen, die Schwefeldioxid bis in die Stratosphäre transportieren: Bereits Anfang der 1990er Jahre konnte ein Ozonverlust von bis zu 30 Prozent über Mitteleuropa während des ersten Winters nach dem großen Vulkanausbruch des Pinatubo nachgewiesen werden.
Der starke, kalte und anhaltende Polarwirbel prägte während der MOSAiC-Expedition die Atmosphäre der Arktis ab 15 km Höhe über der Polarstern von Januar bis April 2020. Der arktische Frühling 2020 zeichnete sich durch sehr kalte Temperaturen und den stärksten arktischen Polarwirbel der letzten 40 Jahre aus, der in der unteren Stratosphäre zu Rekordwerten bei den polaren Stratosphärenwolken und einem extremen Ozonabbau führte: Eine Auswertung von Ozonsonden vom März/April 2020 aus verschiedenen Teilen der Arktis hatte einen extremen Rückgang in 18 km Höhe ergeben. Ohne das Montrealer Protokoll hätten die bereits extremen Ozonverluste in der Arktis 2020 wahrscheinlich ein noch deutlich größeres Ozonloch wie in der Antarktis hervorgerufen, so Simulationen anderer Forscher, die zeitgleich im Fachjournal ACP erschienen sind.
Die regelmäßig durchgeführten Ozonprofilmessungen zeigten nicht nur eine Schicht mit extrem niedriger Ozonkonzentration in 15 bis 20 km Höhe an, sondern auch deutlich unterdurchschnittliche Ozonwerte in Höhen von 10 bis 15 km. „Wir stellen einen klaren Zusammenhang zwischen dem Auftreten von Waldbrandrauch im untersten Bereich der Stratosphäre und dem anomal starken Ozonabbau fest“, betont Dr. Albert Ansmann vom TROPOS..
Die jetzt veröffentlichen Daten der MOSAiC-Expedition zeigen, dass sich Rauch in der Atmosphäre der Polargebiete lange halten kann und bereits kleine Mengen das empfindliche System stören können. Menschliche Aktivitäten können auch in großer Entfernung einen massiven Einfluss auf die oberen Schichten der Atmosphäre und damit das Klima in der Arktis haben. Die Ergebnisse sind von besonderer Bedeutung, weil Waldbrände zunehmend als Klimarisiko begriffen werden: Der neueste Bericht des Weltklimarates IPCC hat im August 2021 festgestellt, dass Wetterbedingungen, die Waldbrände begünstigen, im letzten Jahrhundert wahrscheinlicher geworden sind und rechnet damit, dass die Häufigkeit von Bränden mit der globalen Erwärmung weiter zunehmen wird. Tilo Arnhold

Publikationen:
Ohneiser, K., Ansmann, A., Chudnovsky, A., Engelmann, R., Ritter, C., Veselovskii, I., Baars, H., Gebauer, H., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., and Maturilli, M.: The unexpected smoke layer in the High Arctic winter stratosphere during MOSAiC 2019–2020 , Atmos. Chem. Phys., 21, 15783–15808, https://doi.org/10.5194/acp-21-15783-2021, 2021. <Published: 22 Oct 2021>

Engelmann, R., Ansmann, A., Ohneiser, K., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., Maturilli, M., Veselovskii, I., Jimenez, C., Wiesen, R., Baars, H., Bühl, J., Gebauer, H., Haarig, M., Seifert, P., Wandinger, U., and Macke, A.: Wildfire smoke, Arctic haze, and aerosol effects on mixed-phase and cirrus clouds over the North Pole region during MOSAiC: an introduction, Atmos. Chem. Phys., 21, 13397–13423, https://doi.org/10.5194/acp-21-13397-2021, 2021. <Published: 09 Sep 2021>

Die Daten wurden im Rahmen des internationalen Expedition MOSAiC (Multidisciplinary drifting Observatory for the Study of the Arctic Climate erstellt (#MOSAiC20192020 & #AWI_PS122_00). Die Studien wurde gefördert durch die Europäischen Union (Horizon 2020 (#H2020-INFRAIA-2014-2015) & ACTRIS-2 Integrating Activities (#654109) und die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs „ArctiC Amplification: Climate Relevant Atmospheric and SurfaCe Processes, and Feedback Mechanisms (AC)3“ (#268020496 – TRR 172). Die Entwicklung des Lidar-Inversionsalgorithmus zur Analyse der Polly-Daten wurde von der Russischen Wissenschaftsstiftung unterstützt (#16-17-10241).

Kontakte für die Medien:
Dr. Albert Ansmann
Leiter der Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7064
https://www.tropos.de/institut/ueber-uns/mitarbeitende/albert-ansmann
und
Kevin Ohneiser
Doktorand, Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7413
https://www.tropos.de/institut/ueber-uns/mitarbeitende/kevin-ohneiser
und
Dr. Ronny Engelmann/ Hannes Griesche/ Martin Radenz/ Dr. Julian Hofer/ Dr. Dietrich Althausen
TROPOS-Lidar-Team der MOSAiC-Expedition, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7315, -7401, -7369, -7336, -7063
https://www.tropos.de/institut/ueber-uns/mitarbeitende/ronny-engelmann
https://mosaic-expedition.org/profile/hannes-griesche/
https://dacapo.tropos.de/index.php/team/9-tropos/3-martin-radenz
https://www.tropos.de/institut/ueber-uns/mitarbeitende/julian-hofer
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dietrich-althausen
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49 341 2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Weitere Informationen und Links:
Einmaliger Blick in die „neue Arktis“: Internationale MOSAiC-Expedition erfolgreich beendet (Pressemitteilung, 12.10.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/einmaliger-blick-in-d…

Leipziger Beteiligung an MOSAiC
https://www.tropos.de/mosaic/

MOSAiC-Expedition (auf Englisch)
https://www.mosaic-expedition.org/
MOSAiC-Expedition (auf Deutsch)
https://www.awi.de/im-fokus/mosaic-expedition.html

DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Englisch)
http://www.ac3-tr.de/
DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Deutsch)
http://www.ac3-tr.de/wp-content/uploads/2016/06/flyer_de_web.pdf

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 97 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler.
Der Gesamtetat der Institute liegt bei 2 Milliarden Euro. Finanziert werden sie von Bund und Ländern gemeinsam. Die Grundfinanzierung des Leibniz-Instituts für Troposphärenforschung (TROPOS) wird vom Bundesministerium für Bildung und Forschung (BMBF) und dem Sächsischen Staatsministerium für Wissenschaft und Kunst (SMWK) getragen. Das Institut wird mitfinanziert aus Steuermitteln auf Grundlage des vom Sächsischen Landtag beschlossenen Haushaltes.
http://www.leibniz-gemeinschaft.de
https://www.bmbf.de/
https://www.smwk.sachsen.de/

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/klimawandel-und-waldb…

(nach oben)


Antikörper nach SARS-CoV-2-Infektion – neue Erkenntnisse über die Sensitivität und Nachweisdauer von Antikörpertests

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Das Paul-Ehrlich-Institut hat in Zusammenarbeit mit der Universität Frankfurt am Main die Langzeit-Antikörperreaktion nach SARS-CoV-2-Infektion bei 828 Personen mit verschiedenen COVID-19-Schweregraden untersucht. Gemessen wurden bindende Antikörper gegen unterschiedliche SARS-CoV-2-Zielantigene, neutralisierende Antikörper und die Stärke der Antikörperbindung (Antikörperavidität). Sensitivität, Kinetik und Dauer des Antikörpernachweises waren abhängig von detektierter Antikörperklasse, Testdesign, Zielantigen des Anti-SARS-CoV-2-Antikörpertests sowie von Antikörperavidität und COVID-19-Schweregrad. Über die Ergebnisse berichtet das Journal of Clinical Virology, Onlineausgabe vom 4.12.2021.

Durch Nachweis virusspezifischer Antikörper mittels Antikörpertests kann eine akute oder frühere SARS-CoV-2-Infektion diagnostiziert werden, wobei akute Infektionen bekanntlich symptomfrei oder mit Krankheitszeichen (COVID-19) verlaufen können. Antikörpertests auf SARS-CoV-2 können Personen identifizieren, die einige Zeit zuvor mit SARS-CoV-2 infiziert waren und so dazu beitragen, das Ausmaß der SARS-CoV-2-Infektionen in der Bevölkerung zu erkennen und die Dunkelziffer nicht erkannter Infektionen abzuschätzen.

Die Interpretation von SARS-CoV-2-Antikörpertestergebnissen ist jedoch schwierig, da zum einen die Testergebnisse von Person zu Person sehr unterschiedlich ausfallen können. Zudem variieren die SARS-CoV-2-Antikörpertestergebnisse auch methodisch stark. Unklar ist bisher außerdem, wie lange nach einer Infektion spezifische Antikörper noch nachweisbar sind. Daher erfordert der Einsatz von Antikörpertests gegen SARS-CoV-2 ein eingehendes Verständnis der Variabilitäten der Testsensitivität sowie der Zeitabhängigkeit und Dauer des Antikörpernachweises. Dies war der Gegenstand der vorliegenden Untersuchung.

Das In-vitro-Diagnostika(IVD)-Prüflabor des Paul-Ehrlich-Instituts unter Leitung von Dr. Heinrich Scheiblauer hat in Kooperation mit dem Universitätsklinikum Frankfurt am Main die Antikörperreaktionen über einen Zeitraum von mehr als 430 Tagen nach SARS-CoV-2-Infektion bestimmt. Dabei wurden 828 Proben von 390 Patientinnen und Patienten mit unterschiedlichen COVID-19-Schweregraden in zwölf verschiedenen Tests untersucht. Erfasst und gemessen wurden verschiedene Antikörperklassen (Gesamtantikörper, IgG, IgA, IgM), unterschiedliche SARS-CoV-2-Zielantigene (Rezeptorbindungs-domäne (RBD), Spike- (S) und Nukleoprotein (N)), neutralisierende Antikörper und die Bindungsstärke von Antikörpern an Antigen (Antikörperavidität). Die Testspezifität wurde an 676 präpandemischen Proben bestimmt.

Die Ergebnisse zeigen, dass die Sensitivität und Nachweisdauer von Anti-SARS-CoV-2-Antikörpertests ein bestimmtes Muster zeigen. Dieses war abhängig vom Testdesign, dem Zielantigen der Tests, der Antikörperbindungsstärke und dem Schweregrad von COVID-19 im betrachteten Zeitraum. Ein charakteristisches Merkmal bei den meisten Patientinnen und Patienten war eine mit der Zeit zunehmende Antikörperbindungsstärke (Antikörperavidität) für die immunogenen SARS-CoV-2-Antigene RBD und Spikeprotein. Die Avidität ist ein Korrelat (Maß) für die Antikörperreifung und die Bildung eines Immungedächtnisses. Gesamtantikörpertests, die aufgrund ihres Testdesigns eine höhere Antikörperbindungsstärke messen können, und die auf RBD oder Spikeprotein basieren, zeigten daher mit zunehmender Antikörperavidität eine hohe Sensitivität und lange Nachweiszeit. Antikörper konnten dabei über mehr als 430 Tage nach der Infektion nachgewiesen werden, ohne dass ein Endpunkt absehbar war. Surrogat-Virusneutralisierungstests zur Bestimmung neutralisierender Antikörper, die die Bindung von RBD (das auch in den bisher zugelassenen Impfstoffen verwendet wird) an die ACE2-Rezeptoren inhibieren, zeigten ebenfalls eine lange Nachweisdauer neutralisierender Antikörpern über 430 Tage.

Im Vergleich dazu zeigten RBD- oder Spike-basierte Antikörpertests, die jeweils nur die Antikörperklassen IgG, IgA und IgM nachweisen, eine geringere Ausgangssensitivität und im Laufe der Zeit abnehmende Antikörpertiter, obwohl IgG- und IgA-Tests bis 430 Tage eine relativ hohe Sensitivität (Testpositivität) beibehielten.

Nukleoprotein-basierte Tests zeigten demgegenüber bereits nach 120 Tagen einen Abfall der Antikörperspiegel, was bei den N-basierten IgG- und IgM-Tests auch zu einem Verlust der Sensitivität führte. Es zeigte sich, dass dies mit einer entsprechenden Abnahme der Avidität für das nicht immunogene Nukleoprotein zusammenhing.

Die Spezifität der Antikörpertests war dabei mit Ausnahme von IgA-Antikörpertests (96 %) für alle Tests mit >99 % hoch und es gab keine Kreuzreaktivität mit endemischen humanen Coronaviren.

Diese Daten können einen Beitrag dazu leisten, die Antikörpertests gezielter einzusetzen und SARS-CoV-2-Antikörperbefunde in der täglichen diagnostischen Arbeit richtig zu interpretieren. Darüber hinaus können sie helfen, die Dauer eines möglichen Immunschutzes gegen SARS-CoV-2 zu bestimmen.

Originalpublikation:
Scheiblauer S, Nübling CM, Wolf T, Khodamoradi Y, Bellinghausen C, Sonntagbauer M, Esser-Nobis K, Filomena A, Mahler V, Maier TJ, Stephan C (2022): Antibody response to SARS-CoV-2 for more than one year − kinetics and persistence of detection are predominantly determined by avidity progression and test design.
J Clin Virol 146: 105052.
DOI: https://doi.org/10.1016/j.jcv.2021.105052

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S138665322100319X?via%3Dihub – Open Access Zugang zu der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2022/03-antikoerper-sars-cov-2-infektion-… – Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

(nach oben)


GBP-Monitor: Fast zwei Drittel der Unternehmen plant Preiserhöhungen – und 3G am Arbeitsplatz ist sehr umstritten

Linda Schädler Abteilung Kommunikation
Universität Mannheim
Mit der sich nähernden Omikron-Welle wachsen die Sorgen der Unternehmen wieder: Ihre Gewinne brechen ein, in den Krisenbranchen befürchtet jedes vierte Unternehmen, aufgeben zu müssen. 65 Prozent der befragten Unternehmen versuchen, ihre Verluste durch höhere Preise auszugleichen, und sorgen damit für noch höhere Inflation. Das belegt der Januar-Bericht des German Business Panel (GBP). Dieser zeigt auch, dass die Meinungen der Unternehmen über die 3G-Regel am Arbeitsplatz deutschlandweit beträchtlich auseinandergehen.

Noch im Oktober 2021 schien der langanhaltende Rückgang der Unternehmensgewinne während der Pandemie zunächst beendet. Nur zwei Monate später schwächte sich die Wachstumdynamik deutlich ab: Angesichts der vierten Coronawelle, anhaltender Lieferengpässe und der politischen Forderungen nach weiteren Lockdowns rutschten die Unternehmensgewinne deutlich ab und erreichten im Dezember 2021 sogar einen niedrigeren Stand als im ersten Jahr der Pandemie (-3,42 Prozent im Vergleich zum Vorjahresmonat).

Die erhobenen Daten belegen, dass für viele Unternehmen die Lage existenzbedrohend ist. Die erwartete Ausfallwahrscheinlichkeit – also das Risiko einer möglichen Geschäftsaufgabe – wuchs zum dritten Mal in Folge. „Besonders kritisch ist die Lage in den schon 2020 stark gebeutelten Krisenbranchen wie Gastronomie, Tourismus oder Unterhaltung. Diese leiden unter dem sanften Lockdown mit Maßnahmen wie 2G-Plus noch mehr als im Vorjahr“, berichtet Prof. Dr. Jannis Bischof, Inhaber des Lehrstuhls für ABWL und Unternehmensrechnung an der Universität Mannheim und wissenschaftlicher Projektleiter des GBP. In diesen Branchen stieg die Ausfallwahrscheinlichkeit auf 22,5 Prozent (plus 2,0 Punkte). Die Entwicklung ist jedoch nicht einheitlich und in anderen Branchen bleibt die Stimmung optimistisch. Das Baugewerbe oder das verarbeitende Gewerbe blieben zum Beispiel von solchen Bedrohungen weitgehend unberührt.

Die Unternehmenslenker gaben an, die rückläufige Entwicklung teilweise durch Preiserhöhungen wettmachen zu wollen: Fast zwei Drittel von ihnen (64,9 Prozent) plant, im neuen Jahr von Kunden und Lieferanten höhere Preise zu verlangen. „Insbesondere im Einzelhandel und in der Industrie wollen Unternehmen ihre Preise heben und damit gestiegene Kosten in der Beschaffung ausgleichen. Energieträger wie Öl, aber auch beispielsweise Holz verteuerten sich in den letzten Monaten massiv. Diese Inflation reichen die Unternehmen nun weiter“, berichtet Dr. Davud Rostam-Afschar, der akademische Leiter des GBP.

Zufriedenheit mit der 3G-Regel am Arbeitsplatz
Thema der aktuellen Umfrage war auch die neue 3G-Regel am Arbeitsplatz und die daraus resultierenden finanziellen Belastungen. Hier sind die Meinungen sehr gespalten: Während mehr als 40 Prozent der befragten Unternehmen die neue Vorschrift für sehr positiv halten, lehnt ein beträchtlicher Anteil (15 Prozent) die 3G-Regel vollständig ab. Dazu gehören vor allem kleine und durch die notwendigen Kontrollen auch finanziell belastete Unternehmen.

Auffällig ist der überdurchschnittlich hohe Anteil an Unternehmen des Baugewerbes und des Handels, welche die 3G-Regel als sehr negativ betrachten. Hotels, Restaurants und Eventfirmen zeigen sich dagegen überdurchschnittlich zufrieden damit. Diese Regel scheint für sie eine akzeptable Lösung zur Vermeidung eines erneuten Lockdowns zu sein.

Bemerkenswert scheint zudem, dass die Vorschrift vor allem in den Bundesländern schlecht ankommt, die im Dezember die höchsten Inzidenzen aufwiesen – also im Osten Deutschlands, wo die Ablehnung bei bis zu 51 Prozent liegt, wie in Thüringen. „Gerade dort, wo die 3G-Regel Mitarbeitende und Betriebe im besonderen Maße schützen soll, kommt sie auffallend schlecht an. Es entsteht die Wahrnehmung, als wälze die Politik die Verantwortung für die Impfung auf die Unternehmen ab. Dadurch kommt es zu einem Akzeptanzproblem“, konstatiert Bischof.

Weitere Informationen zum GBP-Monitor
Das German Business Panel befragt monatlich mehr als 800 Unternehmen zur Unternehmenslage in Deutschland und erhebt dabei Daten zu 1) erwarteten Umsatz-, Gewinn- und Investitionsänderungen, 2) unternehmerischen Entscheidungen, 3) der erwarteten Ausfallwahrscheinlichkeit in der Branche und 4) der Zufriedenheit mit der Wirtschafspolitik. Zudem wird jeden Monat zu besonders aktuellen Fragen berichtet. In diesem Monat haben wir gefragt wie Unternehmen die 3G-Regel bewerten und inwiefern sie durch die Verpflichtung finanziell belastet werden.

Hintergrundinformationen zum German Business Panel
Das German Business Panel ist ein langfristiges Befragungspanel des DFG-geförderten überregionalen Projektes „Accounting for Transparency“ (www.accounting-for-transparency.de).

Der Sonderforschungsbereich (SFB) „TRR 266 Accounting for Transparency“ startete im Juli 2019 und wird von der Deutschen Forschungsgemeinschaft (DFG) für zunächst vier Jahre gefördert. Er ist der erste SFB mit betriebswirtschaftlichem Schwerpunkt. Am SFB sind rund 80 Wissenschaftlerinnen und Wissenschaftler von neun Universitäten beteiligt: Universität Paderborn (Sprecherhochschule), Humboldt-Universität zu Berlin und Universität Mannheim, zudem Forscherinnen und Forscher von der Ludwig-Maximilians-Universität München sowie der ESMT Berlin, Frankfurt School of Finance & Management, Goethe-Universität Frankfurt am Main, WHU – Otto Beisheim School of Management, und Carl von Ossietzky Universität Oldenburg. Die Forscherinnen und Forscher untersuchen, wie Rechnungswesen und Besteuerung die Transparenz von Unternehmen beeinflussen und wie sich Regulierungen und Unternehmenstransparenz auf Wirtschaft und Gesellschaft auswirken. Das Fördervolumen des SFBs beträgt rund 12 Millionen Euro.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jannis Bischof
Lehrstuhl für ABWL und Unternehmensrechnung
Universität Mannheim
Tel: +49 621 181-1630
E-Mail: jbischof@uni-mannheim.de

Yvonne Kaul
Forschungskommunikation
Universität Mannheim
Tel: +49 621 181-1266
E-Mail: kaul@uni-mannheim.de

Weitere Informationen:
http://Den „GBP-Monitor: Unternehmenstrends im Januar 2022“ finden Sie hier: https://www.accounting-for-transparency.de/wp-content/uploads/2022/01/gbp_monito…

(nach oben)


Mit Remote Attestation gegen Hacker: Schutz für sicherheitskritische Systeme

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Vertrauen ist die Basis jeder guten Zusammenarbeit. Das gilt auch für vernetzte Maschinen wie Airbags oder medizinische Apparate. Professor Lucas Davi und sein Team vom Softwaretechnik-Institut paluno an der Universität Duisburg-Essen (UDE) haben eine Lösung entwickelt, um die Integrität von eingebetteten Geräten zu prüfen, ohne ihr Laufzeitverhalten zu beeinträchtigen.

Eingebettete Systeme sind in einen größeren technischen Kontext integriert und übernehmen dort – meist unbemerkt vom Nutzer – Steuerungs-, Regelungs- und Datenverarbeitungsaufgaben. Sie arbeiten oft in Netzwerken mit zahlreichen anderen Systemen, z.B. in Autos, Flugzeugen, Haushaltsgeräten und medizinischen Geräten.
„Obwohl eingebettete Systeme in vielen kritischen Bereichen eingesetzt werden, sind sie bezüglich ihrer IT-Sicherheit selten auf dem aktuellsten Stand der Technik“, sagt Professor Davi. „Das liegt unter anderem an den Echtzeitanforderungen, die sie erfüllen müssen.“ Echtzeit bedeutet, dass ein System seine Aufgabe innerhalb einer festgelegten Zeit abarbeiten muss. Sie garantiert, dass z.B. eine Airbag-Steuerung bei einem Crash exakt zum richtigen Zeitpunkt auslöst. „Diese strengen Zeitvorgaben machen es schwierig, Sicherheitsmechanismen in die Software zu integrieren, weil sie das Laufzeitverhalten der Systeme beeinflussen könnten.“

Mit dem Framework RealSWATT hat das paluno-Team von Professor Davi eine Lösung entwickelt. Sie basiert auf der Technik der Remote Attestation. Bei dieser Methode kann die Vertrauenswürdigkeit eines Geräts aus der Ferne, d.h. vor einer Vernetzung, geprüft werden: Ein Prüfer sendet dem Gerät eine Anfrage, die eine Messung des Softwarezustands veranlasst. Liefert die Messung einen unerwarteten Wert zurück, kann das ein Hinweis für einen Schadcode sein, und eine Vernetzung wird vermieden. Im Gegensatz zu anderen Remote-Attestation-Ansätzen benötigt die Lösung der UDE-Sicherheitsforscher dafür keine Hardware-Erweiterungen oder spezielle Sicherheitschips. Sie kann deshalb auf handelsüblichen eingebetteten Geräten eingesetzt werden. Die Attestierung läuft kontinuierlich im Hintergrund auf einem sonst ungenutzten Prozessorkern.

Anhand einer Infusionspumpe wurde RealSWATT eingehend evaluiert. Manipulationen durch einen simulierten Hackerangriff wurden zuverlässig erkannt, und der Echtzeitbetrieb wurde in keiner Weise gestört. Das zeigten auch Tests mit kommerziellen Smart-Home-Geräten. „Eingebettete Systeme sind oft viele Jahre im Betrieb, und Hackerangriffe können fatale Konsequenzen haben.“ Professor Davi ist sich sicher: „RealSWATT ist ein praktikabler Ansatz, um mit einfachen Mitteln die Sicherheit zu verbessern.“

Das paluno-Team hat über RealSWATT publiziert. Der Aufsatz „Remote Software-based Attestation for Embedded Devices under Realtime Constraints“ und eine kurze Präsentation stehen hier zur Verfügung: https://dl.acm.org/doi/10.1145/3460120.3484788

Weitere Informationen und Redaktion:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de

Wissenschaftliche Ansprechpartner:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de

Originalpublikation:
https://dl.acm.org/doi/10.1145/3460120.3484788

(nach oben)


Psychische Gesundheit in der Arbeitswelt stärken

SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Sabine Rehmer startet mit Unterstützung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) zum 01.01.2022 ein Forschungsprojekt zur psychosozialen Notfallversorgung in Unternehmen.

„Es gibt viele Faktoren, die die psychische Gesundheit am Arbeitsplatz beeinflussen. Gerade in Folge von plötzlich auftretenden Notfallsituationen wie Unfällen oder anderen unerwarteten Extremsituationen kann die psychische Stabilität der Betroffenen gefährdet sein. In diesem Fall ist es ratsam, seitens der Unternehmen eine psychosoziale Notfallversorgung anzubieten“, erläutert Prof. Dr. Sabine Rehmer, Studiengangsleiterin und Professorin im Master-Studiengang Arbeits- und Organisationspsychologie. Sie leitet das 39-monatige Forschungsprojekt „Psychosoziale Notfallversorgung in Unternehmen – eine Ist-Analyse zur betrieblichen Umsetzung in Deutschland“ an der SRH Hochschule für Gesundheit.

Aktuell ist es auf Grundlage der wissenschaftlichen Literatur und des bisherigen Erkenntnisstands nicht möglich, eine fundierte Aussage über die von den Unternehmen gewählten Modelle und Vorgehensweisen bei der psychosozialen Notfallversorgung (PSNV) ihrer Beschäftigten zu treffen. Genau hier setzt das Forschungsprojekt an. Mit einem Team von 5 wissenschaftlichen Mitarbeiter:innen führt Prof. Dr. Sabine Rehmer eine Bestandsaufnahme zur Psychosozialen Notfallversorgung in Unternehmen als Querschnittsuntersuchung mit verschiedenen qualitativen und quantitativen Befragungen durch. Fokussiert werden unterschiedliche Zielgruppen wie Unternehmen/Betriebe, Unfallversicherungsträger, ehrenamtliche PSNV-Teams sowie externe Dienstleister:innen. Mit den Befragungen sollen zum einen betriebliche Umsetzungen der psychosozialen Betreuung nach plötzlich auftretenden Notfallsituationen erfasst und beschrieben werden, zum anderen auch betriebliche Faktoren und Maßnahmen, die diese positiv oder negativ beeinflussen.

Das Forschungsprojekt wird von der Forschungsförderung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) unterstützt. Assoziierter Partner für das Forschungsprojekt ist das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK), Abteilung I – Krisenmanagement, Referat I.3 – Psychosoziales Krisenmanagement (PsychKM). Wissenschaftlicher Kooperationspartner ist die Ludwig-Maximilians-Universität (LMU) München in Vertretung durch Prof. Dr. Thomas Ehring, Geschäftsführender Direktor, Department Psychologie & Lehrstuhl für Klinische Psychologie und Psychotherapie. Weiterführend wird das Projekt von Vertreter:innen der DGUV, Praxivertreter:innen für den Bereich PSNV und der Fachgruppe Notfallpsychologie des BDP im Forschungsbegleitkreis unterstützt.

Prof. Dr. habil. Claudia Luck-Sikorski, Präsidentin der SRH Hochschule für Gesundheit, freut sich über das neue Projekt: „Was unsere Hochschule auszeichnet, ist eine vielseitige Forschungslandschaft. Praktische Probleme werden in der Lehre auf Grundlage der aktuellen Erkenntnisse analysiert und gelöst. Gleichzeitig treten wir mit unserer Forschung auch unmittelbar für eine gesündere Gesellschaft ein. Im Zuge einer stärkeren Fokussierung auf die psychische Gesundheit in der Arbeitswelt wollen wir mit unserem neuen Projekt einen Beitrag dazu leisten, dass Unternehmen ihre Beschäftigten in Notfallsituationen optimal unterstützen.“

Mehr zur Forschung an der SRH Hochschule für Gesundheit erfahren Interessierte unter www.srh-gesundheitshochschule.de/forschung/

Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/sabine-…

(nach oben)


Bodenversalzung gefährdet unsere Umwelt: Klimawandel verschärft das Problem der Bodendegradation

Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Etwa 16 Prozent aller landwirtschaftlichen Flächen weltweit werden künstlich bewässert und stark gedüngt. Wenn dieses Wasser verdunstet, reichern sich in den oberen Bodenschichten Salze an. In der Folge droht der Boden zu versalzen und unfruchtbar zu werden. Mit der Zunahme von extremen Wetterereignissen wie Sommerhitze und Starkregen wird dieser Prozess noch verstärkt.

Durch die Kombination einer umfassenden Reihe von Klima-, Boden- und Fernerkundungsdaten sowie Algorithmen des maschinellen Lernens ist es Professor Nima Shokri vom Institut für Geoinformatik der Technischen Universität Hamburg gelungen, erstmals eine Vorhersage über die Zukunft der Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimaszenarien zu erstellen. Seine Ergebnisse wurden jetzt in der renommierten Fachzeitschrift Nature Communications veröffentlicht.

Analysen der Bodenversalzung auf globaler Ebene
Um Aussagen darüber treffen zu können, wie die Bodenversalzung künftig fortschreitet, verwendete Shokri mehr als 40.000 Messwerte des Bodensalzgehalts auf der ganzen Welt. Darüber hinaus ermittelten der Wissenschaftler und sein Team mehrere klimatische und bodenbezogene Parameter wie Niederschlag, Verdunstung und Bodenart, die den Salzgehalt des Bodens beeinflussen. Auf dieser Grundlage trainierten die TU-Forschenden Modelle mit Algorithmen des maschinellen Lernens, um eine Beziehung zwischen dem Salzgehalt und diesen Parametern herzustellen. Diese trainierten Modelle wurden verwendet, um die Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimawandelszenarien vorherzusagen. „Mithilfe von Big-Data-Analysen und Algorithmen des maschinellen Lernens konnten wir den Salzgehalt des Bodens weltweit mit einer hohen räumlichen und zeitlichen Auflösung bestimmen“, so der Wissenschaftler. Laut Shokris Forschung könnten die Veränderungen bis zum Jahr 2100 unausweichlich sein, wenn wir nicht die notwendigen Maßnahmen ergreifen: „Ohne nachhaltiges Ressourcenmanagement und mit der Business-as-usual-Haltung gegenüber dem Klimawandel wären eine weitere Versalzung und Verschlechterung der Böden und ein möglicher ‚Kipppunkt‘, an dem das System zusammenbricht, unvermeidlich“.

Auch Apfelplantagen im Alten Land sind gefährdet
Die Versalzung der Böden könnte auch in Deutschland zu einem Problem werden, wenn auch aus ganz anderen Gründen als in den trockenen Gebieten. Der steigende Meeresspiegel wirkt sich auf die Küstenregionen aus. Wenn salzhaltiges Meerwasser eindringt und in Zukunft das Grundwasser erreicht, könnte es dieses verseuchen. Für Hamburg und Umgebung wären vielleicht die Apfelplantagen im Alten Land in Gefahr, wenn Landwirte ihre Bäume dann mit salzhaltigem Wasser bewässern.

Mehr Informationen:
https://www.tuhh.de/spektrum/2110/
https://www.nature.com/articles/s41467-021-26907-3

Originalpublikation:
https://www.nature.com/articles/s41467-021-26907-3

Weitere Informationen:
https://www.tuhh.de/spektrum/2110/

(nach oben)


Weltweit größtes Fischbrutgebiet in der Antarktis entdeckt

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Forschende weisen etwa 60 Millionen Nester antarktischer Eisfische auf 240 Quadratkilometern im Weddellmeer nach

Nahe dem Filchner-Schelfeis im Süden des antarktischen Weddellmeers hat ein Forschungsteam das weltweit größte bislang bekannte Fischbrutgebiet gefunden. Ein Kamerasystem fotografierte und filmte tausende Nester von Eisfischen der Art Neopagetopsis ionah am Meeresboden. Die Dichte der Nester und die Größe des gesamten Brutgebiets lassen auf eine Gesamtzahl von etwa 60 Millionen Eisfischen schließen, die während der Untersuchungen dort nisteten. Dies unterstützt den Vorschlag, ein Meeresschutzgebiet im atlantischen Sektor des Südlichen Ozeans einzurichten. Ihre Ergebnisse veröffentlichen Autun Purser vom Alfred-Wegener-Institut und sein Team in der aktuellen Ausgabe der Fachzeitschrift Current Biology.

Die Freude war groß, als Forschende im Februar 2021 auf den Monitoren an Bord des Forschungsschiffs Polarstern unzählige Fischnester sahen, die ihr geschlepptes Kamerasystem vom Meeresboden in 535 bis 420 Metern Wassertiefe des antarktischen Weddellmeeres live an Bord übermittelte. Je länger der Einsatz dauerte, desto mehr wuchs die Begeisterung und endete schließlich in Ungläubigkeit: Nest reihte sich an Nest, und die spätere genaue Auswertung zeigte, dass es durchschnittlich eine Brutstätte pro drei Quadratmeter gab, maximal fand das Team sogar ein bis zwei aktive Nester pro Quadratmeter.

Die Kartierung des Gebietes lässt auf eine Gesamtausdehnung von 240 Quadratkilometern schließen, das entspricht ungefähr der Größe der Insel Malta. Hochgerechnet auf diese Gebietsgröße ergibt sich eine geschätzte Gesamtzahl von etwa 60 Millionen Fischnestern. „Die Vorstellung, dass ein solch riesiges Brutgebiet von Eisfischen im Weddellmeer bisher unentdeckt war, ist total faszinierend“, sagt Dr. Autun Purser, Tiefseebiologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und Hauptautor der aktuellen Veröffentlichung. Schließlich erforscht das Alfred-Wegener-Institut mit seinem Eisbrecher Polarstern das Gebiet bereits seit Anfang der 1980er Jahre. Bislang konnten hier nur einzelne Neopagetopsis ionah oder kleinere Ansammlungen von deren Nestern nachgewiesen werden.

Die einzigartigen Beobachtungen gelangen mit einem sogenannten OFOBS. Die Abkürzung steht für Ocean Floor Observation and Bathymetry System, also Ozeanboden Beobachtungs- und Bathymetriesystem. Dieser Kameraschlitten wurde entwickelt, um den Meeresboden in Extremumgebungen wie eisbedeckten Regionen zu untersuchen. Dazu wird das System an einem speziellen Glasfaser- und Stromkabel normalerweise mit einer Geschwindigkeit von einem halben bis einem Knoten (0,9 bis 1,8 Stundenkilometer) etwa eineinhalb Meter über dem Meeresboden geschleppt. „Nach der spektakulären Entdeckung der vielen Fischnester haben wir uns an Bord eine Strategie überlegt, wie wir am besten herausfinden können, wie groß die Ausmaße des Brutgebiets sind – es war ja im wahrsten Wortsinn kein Ende abzusehen. Die Nester hatten einen Durchmesser von einem dreiviertel Meter – sind also viel größer als die teils nur zentimetergroßen Strukturen und Lebewesen, die wir normalerweise mit dem OFOBS aufspüren“, berichtet Autun Purser. „Deshalb konnten wir die Höhe über Grund auf etwa drei Meter und die Schleppgeschwindigkeit auf maximal drei Knoten heraufsetzen und so die untersuchte Fläche vervielfachen. Wir haben eine Fläche von 45.600 Quadratmetern abgefahren und dabei unfassbare 16.160 Fischnester auf dem Foto- und Videomaterial gezählt“, berichtet Autun Purser.

Anhand der Aufnahmen konnte das Team die runden, etwa 15 Zentimeter tiefen und 75 Zentimeter im Durchmesser großen Fischnester eindeutig identifizieren, die sich durch eine runde zentrale Fläche aus kleinen Steinen vom ansonsten schlammigen Meeresboden abhoben. Es wurde zwischen mehreren Arten von Fischnestern unterschieden: aktive Nester, in denen zwischen 1500 und 2500 Eier lagen und die in dreiviertel der Fälle ein erwachsenerer Eisfisch der Art Neopagetopsis ionah bewachte oder die unbewachte Eier enthielten; außerdem gab es ungenutzte Nester, in deren Nähe entweder nur ein Fisch ohne Eier zu sehen war oder ein toter Fisch. Die Verteilung und Dichte der Nester erfassten die Forschenden mithilfe der weiter reichenden aber weniger hochauflösenden Seiten-Sonare des OFOBS, die über 100.000 Nester aufzeichneten.

Kombiniert haben die Wissenschaftlerinnen und Wissenschaftler ihre Ergebnisse mit ozeanographischen und biologischen Daten. Ergebnis: Das Brutgebiet stimmt räumlich mit dem Einstrom von warmem Tiefenwasser aus dem Weddellmeer auf den höher gelegenen Schelf überein. Mithilfe besenderter Robben gelang es dem multidisziplinären Team außerdem nachzuweisen, dass die Region auch ein beliebtes Ziel von Weddellrobben ist. 90 Prozent der Robben-Tauchaktivitäten fanden in der Region aktiver Fischnester statt, wo sie vermutlich auf Nahrungssuche gingen. Kein Wunder, kalkulieren die Forschenden die Biomasse der Eisfischkolonie dort auf 60 Tausend Tonnen.

Dieses riesige Brutgebiet ist mit seiner Biomasse ein äußerst wichtiges Ökosystem für das Weddellmeer und nach aktuellem Stand der Forschung wahrscheinlich die räumlich umfangreichste zusammenhängende Fischbrutkolonie, die bisher weltweit entdeckt wurde, berichten die Experten in der Veröffentlichung in Current Biology.

Hierzu erklärt Bundesforschungsministerin Bettina Stark-Watzinger: „Ich gratuliere den beteiligten Forscherinnen und Forschern zu ihrem faszinierenden Fund. Die deutsche Meeres- und Polarforschung hat damit nach der MOSAIC-Expedition einmal mehr ihre herausragende Bedeutung unter Beweis gestellt. Die deutschen Forschungsschiffe sind schwimmende Labore der Umweltforschung. Sie sind in den Polargebieten und auf den Ozeanen fast pausenlos als Plattformen für die Wissenschaft unterwegs, um wichtige Erkenntnisse für den Umwelt- und Klimaschutz zu gewinnen. Durch die Förderung des Bundesforschungsministeriums verfügt die deutsche Meeres- und Polarforschung über eine der modernsten Forschungsflotten weltweit. Der Fund kann einen wichtigen Beitrag für die Umweltschutzaufgaben in der Antarktis leisten. Hierfür wird sich das BMBF auch im Rahmen der UN-Dekade der Ozeanforschung für nachhaltige Entwicklung, die noch bis 2030 läuft, weiter einsetzen.“

Für AWI-Direktorin und Tiefseebiologin Prof. Antje Boetius ist die aktuelle Studie ein Zeichen dafür, wie dringend die Einrichtung von Meeresschutzgebieten in der Antarktis ist. „Diese erstaunliche Entdeckung wurde durch eine spezielle Untersuchungstechnologie unter dem Eis ermöglicht, die wir im Rahmen meines ERC Forschungsprojektes entwickelt haben. Sie zeigt, wie wichtig es ist, unbekannte Ökosysteme untersuchen zu können, bevor wir sie stören. Wenn man bedenkt, wie wenig wir über das Leben im antarktischen Weddellmeer wissen, unterstreicht dies um so mehr die Notwendigkeit internationaler Bemühungen, ein Meeresschutzgebiet (MPA) einzurichten“, ordnet Antje Boetius die Ergebnisse der Studie ein, an der sie nicht direkt beteiligt war. Ein Vorschlag für ein MPA wurde unter der Leitung des Alfred-Wegener-Instituts erarbeitet und seit 2016 von der Europäischen Union und ihren Mitgliedsstaaten sowie weiteren unterstützenden Ländern in der internationalen Kommission zur Erhaltung der lebenden Meeresschätze der Antarktis (CCAMLR) vertreten.

Antje Boetius ergänzt: „Leider ist das MPA im Weddellmeer immer noch nicht einstimmig von der CCAMLR verabschiedet worden. Aber jetzt, da der Standort dieser außergewöhnlichen Brutkolonie bekannt ist, sollten Deutschland und andere CCAMLR-Mitglieder dafür sorgen, dass dort auch in Zukunft keine Fischerei und ausschließlich nicht-invasive Forschung stattfindet. Bisher haben die Abgeschiedenheit und die schwierigen Meereisbedingungen in diesem südlichsten Bereich des Weddellmeeres das Gebiet geschützt, aber angesichts des zunehmenden Drucks auf die Ozeane und die Polarregionen sollten wir beim Meeresschutz viel ehrgeiziger sein.“

Originalpublikation:
Autun Purser, Laura Hehemann, Lilian Boehringer, Sandra Tippenhauer, Mia Wege, Horst Bornemann, Santiago E. A. Pineda-Metz, Clara M. Flintrop, Florian Koch, Hartmut H. Hellmer, Patricia Burkhardt-Holm, Markus Janout, Ellen Werner, Barbara Glemser, Jenna Balaguer, Andreas Rogge, Moritz Holtappels, Frank Wenzhoefer: Icefish Metropole: Vast breeding colony discovered in the southern Weddell Sea, Current Biology (2022). DOI: 10.1016/j.cub.2021.12.022 (https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5)

Weitere Infos:
Expeditionsbericht PS124 (2021): https://epic.awi.de/id/eprint/54545/1/BzPM_0755_2021.pdf
PS124 Wochenbericht: https://www.awi.de/expedition/schiffe/polarstern/wochenberichte-polarstern/woche…

Informationsmaterial zum Meeresschutzgebiet im Weddellmeer: https://www.awi.de/ueber-uns/service/presse/presse-detailansicht/default-11d138e…

Hinweise für Redaktionen:
Videomaterial vom Meeresboden sowie druckbare Bilder finden Sie hier: https://we.tl/t-77acNZ88J3
Ihr wissenschaftlicher Ansprechpartner ist Dr. Autun Purser, E-Mail: autun.purser@awi.de.
Ihre Ansprechpartnerin in der AWI-Pressestelle ist Dr. Folke Mehrtens, Tel. 0471 4831-2007 (E-Mail: medien@awi.de).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5

(nach oben)


Coronapandemie dämpft Anstieg – Entwicklung der tariflichen Ausbildungsvergütungen 2021

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)
Die tariflichen Ausbildungsvergütungen in Deutschland sind 2021 im Vergleich zum Vorjahr im bundesweiten Durchschnitt um 2,5 % gestiegen. Der Vergütungsanstieg lag damit in etwa auf dem Vorjahresniveau (2,6 %), fiel aber deutlich schwächer aus als in den Jahren vor Beginn der Coronapandemie.

Die Auszubildenden erhielten 2021 im Durchschnitt über alle Ausbildungsjahre tarifliche Vergütungen in Höhe von 987 € brutto im Monat. Für Auszubildende in Westdeutschland ergab sich mit 989 € ein leicht höherer Durchschnittswert als für ostdeutsche Auszubildende mit 965 €. In Ostdeutschland wurden somit 98 Prozent der westdeutschen Vergütungshöhe erreicht. Dies sind die zentralen Ergebnisse der Auswertung der tariflichen Ausbildungsvergütungen für das Jahr 2021 durch das Bundesinstitut für Berufsbildung (BIBB).

Seit 1976 wertet das BIBB die tariflichen Ausbildungsvergütungen jährlich zum Stichtag 1. Oktober aus. In die Berechnung der Durchschnittswerte für Gesamtdeutschland sowie für Ost- und Westdeutschland fließen alle Ausbildungsberufe ein, für die Daten zu tariflichen Ausbildungsvergütungen vorliegen. In der BIBB-Datenbank „Tarifliche Ausbildungsvergütungen“ (http://www.bibb.de/ausbildungsverguetung) werden Durchschnittswerte für 173 Berufe in West- und 115 Berufe in Ostdeutschland ausgewiesen.

Zwischen 2012 und 2019 waren mit Ausnahme des Jahres 2017 stets Anstiege von deutlich über drei Prozent zu verzeichnen. Während der Coronapandemie wurden Tarifverhandlungen teilweise verschoben. Häufig standen auch die Beschäftigungssicherung und die Abmilderung der Folgen der wirtschaftlichen Einschränkungen stärker im Blickpunkt als Lohnsteigerungen. Dies hatte eine dämpfende Wirkung auf die Höhe der Tarifabschlüsse. Zugleich kam es durch den Rückgang bei der Zahl der Neuabschlüsse von Ausbildungsverträgen 2020 zu Verschiebungen in der Zahl der Auszubildenden in den einzelnen Ausbildungsjahren sowie zwischen weniger und stärker von der Pandemie betroffenen Branchen. Bei der Durchschnittsberechnung über alle Ausbildungsjahre haben daher zum Beispiel Auszubildende im zweiten bis vierten Ausbildungsjahr ein höheres Gewicht als in den Vorjahren.

Je nach Ausbildungsberuf zeigen sich erhebliche Unterschiede in der Vergütungshöhe. Die im gesamtdeutschen Durchschnitt höchsten tariflichen Ausbildungsvergütungen wurden im Beruf Zimmerer/Zimmerin mit monatlich 1.251 € gezahlt. In insgesamt 17 Berufen lagen die tariflichen Vergütungen im Durchschnitt über alle Ausbildungsjahre über 1.100 €. Hier finden sich vor allem Berufe aus dem Baugewerbe wie Maurer/-in (1.196 €) oder Straßenbauer/ in (1.177 €), aber auch kaufmännische Berufe wie Bankkaufmann/-frau (1.138 €) oder Kaufmann/ frau für Versicherungen und Finanzen (1.135 €). Insgesamt erhielt rund die Hälfte der Auszubildenden, die in einem tarifgebundenen Betrieb lernten, 2021 eine Ausbildungsvergütung von mehr als 1.000 Euro, sieben Prozent sogar mehr als 1.200 €.

Bei 16 Prozent der Auszubildenden lagen die tariflichen Ausbildungsvergütungen 2021 unterhalb von 800 €. Für 22 Berufe wurde ein bundesweiter Durchschnittswert von weniger als 800 € ermittelt. Die meisten dieser Berufe gehörten zum Handwerk wie Tischler/-in (786 €), Glaser/-in (777 €), Bäcker/-in (744 €) und Friseur/-in (650 €). Die insgesamt niedrigsten tariflichen Ausbildungsvergütungen gab es mit 637 € im Beruf Orthopädieschuhmacher/-in.

Zwischen den Ausbildungsbereichen unterschieden sich die Ausbildungsvergütungen ebenfalls deutlich. Über dem gesamtdeutschen Durchschnitt von 987 € lagen die tariflichen Ausbildungsvergütungen im öffentlichen Dienst (1.095 €) sowie in Industrie und Handel (1.039 €), darunter in der Landwirtschaft (936 €), im Bereich der freien Berufe (911 €) und im Handwerk (882 €). Im Vergleich zum Jahr 2020 stiegen im Handwerk (+3,8 %) und in der Landwirtschaft (+4,2 %) die Ausbildungsvergütungen stärker an als im Gesamtdurchschnitt (+2,5 %).

Eine ausführliche Darstellung der Ergebnisse sowie die Möglichkeit zum Download von elf Abbildungen finden Sie im Beitrag „Tarifliche Ausbildungsvergütungen 2021 – Anstieg von 2,5 %“ im Internetangebot des BIBB unter http://www.bibb.de/ausbildungsverguetung-2021.
Eine tabellarische Gesamtübersicht über die für 2021 ermittelten Vergütungsdurchschnitte in den erfassten Berufen ist abrufbar unter http://www.bibb.de/ausbildungsverguetung.

(nach oben)


Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Forschende des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof wollen den Arbeits- und Materialeinsatz unter anderem bei der Bewirtschaftung von Teichanlagen senken. Gelingen soll dies mit Hilfe biologisch abbaubarer, sogenannter „Aufwuchskörper“ zur Wasserreinigung. Diese könnten konventionelle Reinigungselemente aus Plastik schon bald ersetzen und somit auch Mikroplastik in Wasser und Fischen reduzieren. Das Forschungsprojekt dazu läuft seit April 2021.

Die Aquakultur gehört zu dem am schnellst wachsendem Lebensmittelsektor mit einer jährlichen Produktion im Wert von 250 Milliarden US-Dollar. Aufwuchskörper sind dabei nicht wegzudenken: Durch ihre große Oberfläche auf welcher Bakterien siedeln, helfen sie giftiges Ammonium und Nitrit in weniger schädliches Nitrat umzuwandeln. Gleichzeitig wird so Wasser gespart und die Umwelt geschützt. Doch bestehen Aufwuchskörper in der Regel aus Plastik oder anderen erdölbasierten Kunststoffen. „Ihr Recycling ist aufwändig und Plastik in den Weltmeeren und Gewässern stellt die Menschheit vor eine große Herausforderung – aus Plastik kann schließlich Mikroplastik entstehen, das wir über unser Essen selbst wieder zu uns nehmen und das in jedem Fall schädlich auf die Umwelt und ihre Organismen einwirkt“, erklärt Dr. Harvey Harbach, Verantwortlicher für den Forschungsbereich Aquaponik an der Hochschule Hof.

Biokunststoff statt Plastik
Generell gilt es deshalb Stoffe zu finden, welche konventionelles Plastik ersetzen können. Im Fall der Aufwuchskörper bietet sich als Werkstoff der Einsatz von Biokunststoff an. Ein Forscherteam des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof um Projektleiter und Ideengeber Dr. Harvey Harbach beschäftigt sich genau damit: In Zusammenarbeit mit dem ebenfalls an der Hochschule Hof ansässigen Institut für Biopolymerforschung (ibp) und einem Wirtschaftsunternehmen aus Franken werden seit Anfang April 2021 unter dem Projektnamen „BioBioCarrier“ vollständig biologisch abbaubare Aufwuchskörper für die biologische Wasseraufbereitung entwickelt. Gefördert wird das bis 2023 laufende Projekt durch das Bundesministerium für Wirtschaft und Energie im Rahmen des zentralen Innovationsprogrammes Mittelstand (ZIM).

Test verschiedener Materialien
„Die Schwierigkeiten im Projekt liegen bei der richtigen Auswahl der Biopolymere und der damit verbundenen Abbaubarkeit im Wasser. Der neue Aufwuchskörper darf sich nicht zu schnell im Süßwasser abbauen“, erklärt Projektmitarbeiterin Frau Christin Baumgart. Durch die Kombination von verschiedenen Polymeren miteinander sollen neue Eigenschaften generiert werden: „Das bedeutet, dass die biologische Abbaubarkeit in Wasser angepasst werden kann.“ Die bisherigen Ergebnisse sehen jedoch vielversprechend aus. Entsprechend konnten bereits Fortschritte erzielt und Lösungswege identifiziert werden. Bis zur Marktreife müssen jedoch noch einige Hürden genommen werden: “Bei der Auswahl der Stoffe wird darauf geachtet, dass diese nicht gesundheitsschädlich sind. Da die Anwendung in der Aquaponik stattfindet, müssen die Stoffe auch für die Fische und Pflanzen geeignet sein. Das bedeutet, dass hier ein großes Augenmerk auf die Unbedenklichkeit der Stoffe gelegt wird, alle biologisch abbaubar und sogar biobasiert sein sollten“. Ferner müsste „aber auch die biologische Abbaubarkeit noch ausführlich betrachtet werden, damit diese sich in dem vorgegebenen Zeitrahmen zersetzen.“

Neuentwicklung winkt
Eine entscheidende Herausforderung im Projekt, die aber einen Durchbruch innerhalb der betroffenen Industrie bedeuten könnte, könnte letztlich eine Neuentwicklung liefern, an der man derzeit in Hof arbeitet: „In aquaponischen Systemen müssen in regelmäßigen Abständen Nährstoffe zugegeben werden, ohne die Pflanzen nicht oder nur schlecht wachsen können. Unsere Idee ist es, den biologischen Abbau von des Produktes mit dem Freisetzen der für die Pflanzen benötigten Stoffe zu kombinieren. Dies würde folglich die Arbeitszeit reduzieren und die Wirtschaftlichkeit verbessern“, so Dr. Harbach. Und weiter: „Zurzeit sind keine vergleichbaren Produkte auf dem Markt. Hier würde es sich um eine echte Innovation handeln. Wir arbeiten auf Hochtouren und rechnen schon bald weiteren Ergebnissen“.

Wissenschaftliche Ansprechpartner:
Dr. Harvey Harbach
Institut für Wasser- und Energiemanagement (iwe)
Wissenschaftlicher Mitarbeiter
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4591
E-Mail: harvey.harbach@hof-university.de

Anhang
Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!

(nach oben)


Mehr Regentage schaden der Wirtschaft

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Das Wirtschaftswachstum geht zurück, wenn die Zahl der Regentage und der Tage mit extremen Regenfällen zunimmt. Das hat jetzt ein Team Potsdamer Wissenschaftler herausgefunden. Am stärksten betroffen sind reiche Länder und hier die Sektoren Industrie und Dienstleistung, so die als Titelthema der renommierten wissenschaftlichen Zeitschrift ‚Nature‘ veröffentlichte Studie. Die Analyse von Daten aus den letzten 40 Jahren und von mehr 1.500 Regionen zeigt einen klaren Zusammenhang und legt nahe, dass infolge des Klimawandels verstärkte tägliche Regenfälle der Weltwirtschaft schaden werden.

„Hier geht es um unseren Wohlstand, und letztlich um Arbeitsplätze. Die Wirtschaft wird weltweit durch mehr Regentage und extreme tägliche Niederschläge gebremst – eine wichtige Erkenntnis, die zu unserem wachsenden Verständnis der wahren Kosten des Klimawandels beiträgt“, sagt Leonie Wenz vom Potsdam-Institut für Klimafolgenforschung (PIK) und dem Mercator Research Institute on Global Commons and Climate Change (MCC), die die Studie geleitet hat.

„Makroökonomische Abschätzungen der Klimafolgen haben sich bisher hauptsächlich auf die Temperatur konzentriert und – wenn überhaupt – Veränderungen der Niederschlagsmenge nur über längere Zeiträume wie Jahre oder Monate betrachtet, was leider ein unvollständiges Bild bot“, so Wenz. „Während mehr Jahresniederschlag im Allgemeinen gut für eine Volkswirtschaft sind, insbesondere wenn diese stark von der Landwirtschaft abhängt, ist eine entscheidende Frage auch, wie sich der Regen über die Tage des Jahres verteilt. Verstärkte extreme Regenfälle erweisen sich als schlecht, besonders für reiche Industrieländer wie die USA, Japan oder Deutschland.“

In ihrer Art erstmalige globale Analyse
„Wir haben eine Reihe verschiedener Effekte auf die wirtschaftliche Produktion ermittelt, aber der wichtigste ist der von extremen täglichen Regenfällen“, sagt Maximilian Kotz, Erstautor der Studie und ebenfalls Forscher am Potsdam-Institut. „Bei den Niederschlagsextremen können wir den Einfluss des Klimawandels schon jetzt am deutlichsten sehen. Sie nehmen fast überall auf der Welt zu.“

Die Forschenden haben ihre Ergebnisse gewonnen durch eine statistische Auswertung von Daten zur subnationalen Wirtschaftsleistung für 1.554 Regionen weltweit im Zeitraum 1979-2019, die von MCC und PIK gesammelt und öffentlich zugänglich gemacht wurden. Das Team hat diese dann verknüpft mit detaillierten Daten zu Niederschlägen. Die Kombination von immer genaueren Klima- und Wirtschaftsdaten ist mit Blick auf den Faktor Regen, der meist ein sehr lokales Phänomen ist, von besonderer Bedeutung.

„Es ist der tägliche Niederschlag, der die Bedrohung ausmacht“
Die Menschheit heizt das Erdsystem auf, indem sie immer mehr Treibhausgase etwa aus fossilen Kraftwerken und Autos in der Atmosphäre ablagert. Wärmere Luft kann mehr Wasserdampf aufnehmen, der irgendwann zu Regen wird. Interessanterweise ist die Veränderung des mittleren Niederschlags von Region zu Region unterschiedlich, die täglichen Regenextreme hingegen nehmen aufgrund des Wasserdampfeffekts auf der ganzen Welt zu.
„Unsere Studie zeigt, dass der Fingerabdruck der globalen Erwärmung in den täglichen Niederschlägen erhebliche wirtschaftliche Auswirkungen hat. Diese sind bisher nicht berücksichtigt worden, aber extrem wichtig“, sagt Ko-Autor Anders Levermann, Leiter des Bereichs Komplexitätsforschung des Potsdam-Instituts, Professor an der Universität Potsdam und Forscher am Lamont Doherty Earth Observatory der Columbia University, New York. „Ein genauerer Blick auf kurze Zeitskalen anstelle von Jahresdurchschnitten zeigt: Es ist der tägliche Regen, der die Bedrohung darstellt. Es sind die Klimaschocks durch Wetterextreme, die unsere Lebensweise bedrohen, nicht die allmählichen Veränderungen. Indem wir unser Klima destabilisieren, schaden wir unserer Wirtschaft. Wir müssen dringend dafür sorgen, dass das Verfeuern fossiler Brennstoffe nicht auch unsere Gesellschaft destabilisiert.“

Originalpublikation:
Maximilian Kotz, Anders Levermann, Leonie Wenz (2022): The effect of rainfall changes on economic production. Nature [DOI:10.1038/s41586-021-04283-8]

(nach oben)


Corona in wastewater at record high

Press contact: Margareta G. Kubista, press@sahlgrenska.gu.se Kommunikationsavdelningen / Communications Department
Schwedischer Forschungsrat – The Swedish Research Council
In a week, the levels of the coronavirus in Gothenburg’s wastewater have skyrocketed and increased by about 250% compared to the concentration from the previous weekly survey and the highest measured value so far during the pandemic. University of Gothenburg researchers also say the delta variant has been almost eliminated by omicron.

Two weeks ago, a sharp rise in SARS-CoV-2 was reported in the wastewater of Gothenburg. It was the biggest increase a single week since the second wave of the pandemic about a year ago.

By last week the rise, though still under way, had slowed slightly. The level was then approaching the second wave’s peak in December 2020.

The level now measured means that a far larger number of people than ever before during the pandemic have now, simultaneously, become infected. SARS-CoV-2 concentrations in the Gothenburg wastewater are now between three and four times higher than the previous week’s level and the earlier peak in December 2020.

Impact on health care in a week’s time
Heléne Norder is an adjunct professor of microbiology at the Sahlgrenska Academy Department of Infectious Diseases, University of Gothenburg, and microbiologist at Sahlgrenska University Hospital. The results she and her colleagues have now announced are based on samples taken in the week from January 3rd to 9th.

“There must be a large number of infected now. Hopefully most of them are vaccinated and their illness is mild. But still, a certain percentage of them will be causing a burden on health care. Based on what we’ve seen before, that’s going to happen in about a week,” she says.

The share of the omicron virus variant has successively risen during December and January, while the relative level of the delta variant has decreased. The current results show a massive predominance of omicron, as expected.

Five delta to 10,000 omicron
Measured in virus levels in the samples — rather than the number of infected people — the ratio of delta to omicron is 5:10,000.
“Delta isn’t completely gone. It’s still there, but it’s a tiny proportion,” Norder says.

The SARS-CoV-2 surveys in the local wastewater have been underway since February 2020. They are carried out in collaboration with the municipally owned company Gryaab, which treats wastewater in Gothenburg and the surrounding municipalities. Gryaab sends one sample a week, composed of samples collected daily, to Norder’s research group.

The researchers regularly report their findings to care providers and the Infection Control Unit in Region Västra Götaland. The same applies to the levels of influenza viruses, norovirus (the “winter vomiting bug”), and respiratory syncytial (RS) viruses. Figures for these other viruses ​​are reported later in the week.

Wissenschaftliche Ansprechpartner:
Contact: Heléne Norder, tel. 46 702 791 999, email helene.norder@gu.se

Weitere Informationen:
https://www.expertsvar.se/wp-content/uploads/2021/08/Helene-Norder-Portrait.png
http://Images: Heléne Norder (photo: Elin Lindström)

(nach oben)


Neue Abteilungen der Gewässerforschung am IGB

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Der Jahresbeginn 2022 markiert für das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) eine besondere Zäsur, denn es ist einiges in Bewegung geraten: Die Abteilungen wurden neu strukturiert und zwei exzellente Köpfe für die Leitung hinzugewonnen. Die Professorin Sonja Jähnig leitet von nun an die neue Abteilung Ökologie der Lebensgemeinschaften und Ökosysteme. Professor Jonathan Jeschke leitet die neue Abteilung Evolutionäre und Integrative Ökologie.

Zum Neuen Jahr präsentieren sich die Forschungsabteilungen des IGB in einer veränderten Zusammensetzung und mit neuen Namen. „Mit vielen neuen Köpfen sind in den letzten Jahren erfreulicherweise auch neue Ideen, Expertisen und thematische Schwerpunkte ans IGB gekommen. Denen wollen wir nun einen angemessenen Platz einräumen, wobei die fünf Abteilungen die wichtigsten übergreifenden Disziplinen repräsentieren, für die das IGB steht“, begründet Luc De Meester, der das IGB seit zwei Jahren leitet. Zwei Abteilungen sind neu entstanden, die Abteilung für Ökologie der Lebensgemeinschaften und Ökosysteme unter Führung von Sonja Jähnig sowie die Abteilung für Evolutionäre und Integrative Ökologie, die Jonathan Jeschke leitet.

Darüber hinaus wurden die ehemaligen Abteilungen für Ökohydrologie und Chemische Analytik und Biogeochemie unter dem Namen Ökohydrologie und Biogeochemie und unter Leitung von Dörthe Tetzlaff zusammengeführt. Aus den beiden bisherigen Abteilungen für Biologie und Ökologie der Fische sowie Ökophysiologie und Aquakultur ist die neue Abteilung Biologie der Fische, Fischerei und Aquakultur entstanden, geleitet von Jens Krause und Werner Kloas. Das integriert die IGB-Forschung zur Binnenfischerei und Aquakultur mit der Grundlagenforschung zur Biologie der Fische. Die Abteilung Experimentelle Limnologie, die in Neuglobsow angesiedelt ist und von Mark Gessner geleitet wird, heißt jetzt Plankton- und mikrobielle Ökologie, um ihren einzigartigen Beitrag zum Forschungsportfolio des IGB besser widerzuspiegeln.

„Die Umstrukturierung ist ein wichtiger interner Prozess, der gleichzeitig die Empfehlungen unseres Wissenschaftlichen Beirats aufgreift sowie unsere neue inhaltliche Aufstellung zum Ausdruck bringt“, erläutert De Meester. „Wir bringen verschiedene Disziplinen zusammen, um ein tieferes Verständnis von Binnengewässern und ihrer Biota in all ihren Aspekten zu erlangen – von ihren abiotischen Merkmalen bis zu ihrem einzigartigen Leben, von der Physiologie und dem Verhalten von Individuen bis zu ganzen Ökosystemen und ihrer Bedeutung für die Gesellschaft. Denn Teiche, Seen, Bäche, Flüsse, ihre Auen und Feuchtgebiete sind nicht nur lebenswichtige Ressourcen und einzigartige Lebensräume. Sie sind auch stark von menschlichen Aktivitäten, von Klima- und Umweltwandel betroffen. Um globalen Herausforderungen wie der Erderwärmung, Fragen der Wasserverfügbarkeit, der fortschreitenden Urbanisierung oder dem Verlust von Lebensräumen, Arten und Genen zu begegnen, möchten wir Politik und Gesellschaft auf Basis exzellenter wissenschaftlicher Erkenntnisse beraten und eine praxisnahe Anwendung unterstützen“, fasst er die Zielstellung des IGB zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
 
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de

Prof. Dr. Jonathan Jeschke
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
jonathan.jeschke@igb-berlin.de

Weitere Informationen:
https://www.igb-berlin.de/news/wir-haben-das-grosse-bild-der-biologischen-vielfa…
https://www.igb-berlin.de/news/gute-wissenschaft-ist-meist-teamarbeit-bei-der-si…

(nach oben)


Arktische Küsten im Wandel

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Permafrost-Forschende analysieren die Triebkräfte für die schnellen Veränderungen arktischer Küsten und die Auswirkungen für Mensch und Umwelt

Arktische Küsten zeichnen sich durch Meereis, Permafrost und Bodeneis aus. Das macht sie besonders empfindlich für die Auswirkungen des Klimawandels, der die ohnehin schon sehr schnelle Küstenerosion noch weiter beschleunigt. Die steigende Erwärmung beeinflusst Uferstabilität, Sedimente, Kohlenstoffspeicher und Nährstoffmobilisierung. Um Prognosen und Anpassungsstrategien für die arktischen Küsten zu verbessern, ist es unabdingbar, die Wechselwirkungen zwischen diesen Veränderungen zu verstehen. In einer Sonderausgabe des Fachmagazins Nature Reviews Earth & Environment beschreiben Forschende des Alfred-Wegener-Instituts die Empfindlichkeit der arktischen Küsten gegenüber dem Klimawandel und vor welchen Herausforderungen Mensch und Natur stehen.

„Das Tempo der Veränderungen in der Arktis nimmt zu und führt zu einem beschleunigten Rückzug der Küsten“, sagt Dr. Anna Irrgang vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). „Das wirkt sich sowohl auf die natürliche als auch auf die menschliche Umwelt aus, zum Beispiel indem Kohlenstoff aus dem Boden in das Meer und in die Atmosphäre gelangt oder das Land abbricht, das Gemeinden und Infrastrukturen trägt.“ Wie genau und wie stark sich die Veränderungen zeigen, hängt vom Zusammenspiel der lokalen Beschaffenheit der Küste ab, wie dem Vorhandensein von Permafrost und Umweltfaktoren wie Luft- und Wassertemperatur. „Prognosen hierüber sind häufig mit großen Unsicherheiten behaftet, denn zuverlässige ozeanographische und Umweltdaten für die entlegenen Küstenzonen sind nur begrenzt verfügbar“, so Irrgang. Um das Verständnis zu verbessern und damit auch die Vorhersagen über künftige Entwicklungen, hat die AWI-Permafrostforscherin in einem Übersichtsartikel die wichtigsten Faktoren zusammengetragen, die auf die arktischen Küsten einwirken und die für die Entwicklung von Anpassungsstrategien an den Klimawandel entlang arktischer Küsten wichtig sind.

Umweltfaktoren und lokale Bedingungen treiben den Küstenwandel an
Je nach Region besitzen arktische Küsten unterschiedliche Strukturen. In Alaska, Kanada oder Sibirien sind sie beispielsweise besonders reich an Bodeneis mit bis zu 40 Meter hohen Permafrost-Steilküsten. In Grönland, auf Spitzbergen und dem kanadischen Archipel enthalten die Küsten dagegen in der Regel nur sporadisch Bodeneis, bestehen ansonsten größtenteils aus grobem Sediment, das aus dem Schmelzwasser von Gletschern stammt, oder sogar aus Festgestein. Diese regionalen geomorphologischen Unterschiede beeinflussen, wie sich andere Umweltvariablen auf die Küsten auswirken. Verändern sich zum Beispiel die Luft- und Wassertemperatur, beeinflusst das das gesamte Küstensystem. Eisreiche Permafrost-Steilküsten, die teils bis zu 80 Prozent aus Eis bestehen, sind beispielsweise recht widerstandsfähig gegenüber mechanischen Wellenaktivitäten. Wenn sie jedoch wegen erhöhter Luft- und Wassertemperaturen auftauen, werden sie besonders anfällig für die Zerstörung durch Wellen, was sich durch schnellen Küstenabtrag äußert.

Arktische Küsten sind somit besonders klimaempfindlich: Die globale Erwärmung führt dazu, dass Permafrostböden immer großflächiger auftauen, Bodeneis schmilzt und dadurch Landoberflächen einbrechen. Das beeinflusst wiederum die Verfügbarkeit und Qualität von Wasser, das Wachstum von Pflanzen und verstärkt das Abtragen von Böden (Erosion) und Überschwemmungen an der Küste. Zusätzlich steigt in weiten Teilen der Arktis die Temperatur der Meeresoberfläche an, was die meereisfreie Zeit verlängern kann. Küsten sind dann vor allem in der stürmischen Herbstzeit deutlich länger starken Wellen ausgesetzt.

Veränderungen an der arktischen Küste
Vergleicht man die Veränderungsraten arktischer Küstenlinien miteinander, zeigt sich, dass die überwältigende Mehrheit der Permafrostküsten durch Erosion zurückgehen. Die nordkanadische Herschel-Insel etwa verliert pro Jahr bis zu 22 Meter seiner Steilküste. Taut Permafrost ab, können dadurch organischer Kohlenstoff, Nährstoffe und Schadstoffe in die küstennahe Umwelt und in die Atmosphäre entweichen. Die Fachleute schätzen, dass durch Küstenerosion jährlich etwa 14 Megatonnen organischen Kohlenstoff in den Arktischen Ozean gelangen, und damit mehr als von den riesigen arktischen Flüssen eingespült wird. Das Auftauen bisher fester Böden wirkt sich auch auf die Menschen vor Ort aus. Rund 4,3 Millionen von ihnen werden mit den Folgen konfrontiert sein: Sie verlieren Gebäude und Straßen, traditionelle Jagdgebiete und auch Kulturstätten. In Alaska müssen ganze Siedlungen bereits jetzt aufgegeben werden und Menschen umziehen. Denn die Erosion gefrorener Flächen erhöht die Risiken für Permafrosttauen und gegenwärtig unkalkulierbare Umweltverschmutzungen durch industrielle Infrastrukturen. Erst langfristig könnten sich neue Chancen durch die Veränderungen auftun, weil der Zugang zu Ressourcen in bisher nicht erreichbare Regionen, neue landwirtschaftliche Flächen und auch Schifffahrtsrouten für Handel und Tourismus erschlossen werden könnten.

Genaue Daten für gute Lebensbedingungen an arktischen Küsten
„Unser derzeitiges Verständnis der arktischen Küstendynamik ist fragmentiert, da es zu wenige Daten über Umweltfaktoren und die Veränderung der Küstenlinien mit hoher räumlicher und zeitlicher Auflösung gibt“, sagt Anna Irrgang. „Zwar gibt es solche Datensätze bereits für einige Regionen wie Nordalaska, der größte Teil der arktischen Küste ist aber nur unzureichend erfasst.“ Dabei werden arktisweite Beobachtungen von Umweltfaktoren und Küstenveränderungen dringend benötigt, um Unsicherheiten bei Prognosen zu verringern. Diese würden lokale Gemeinden dabei unterstützen, sich mit neuen sozio-ökologischen Entwicklungen zu arrangieren. „Hierfür müssen wir Anpassungsmethoden entwickeln, die gute und nachhaltige Lebensbedingungen in arktischen Küstensiedlungen ermöglichen. Eine enge Zusammenarbeit mit den Menschen vor Ort ist dabei zentral“, sagt Anna Irrgang.

Die Analyse des arktischen Küstenwandels ist Teil der Sonderausgabe „Permafrost“ des Fachmagazins Nature Reviews Earth & Environment.

Die Sektion Permafrost des AWI ist zusätzlich noch mit zwei weiteren Beiträgen beteiligt: In einer Übersicht zeigen Forschende, wie in arktischen und borealen Tiefland-Gebieten Millionen von Tau-Seen und drainierten Seebecken durch das Schmelzen von eisreichem Permafrost entstanden und gewachsen sind. Diese Vorgänge beeinflussen Landschafts- und Ökosystemprozesse sowie die Lebensgrundlagen der Menschen in den riesigen arktischen Tiefland-Regionen. Ein dritter Beitrag stellt das Projekt „Permafrost-Comics“ vor, das Cartoons nutzt, um Wissen zum Thema Permafrost leichter für ein breites und vor allem auch junges Publikum zugänglich zu machen.

Originalpublikation:
Anna M. Irrgang, Mette Bendixen, Louise M. Farquharson, Alisa V. Baranskaya, Li H. Erikson, Ann E. Gibbs, Stanislav A. Ogorodov, Pier Paul Overduin, Hugues Lantuit, Mikhail N. Grigoriev, Benjamin M. Jones (2022): Drivers, dynamics and impacts of changing Arctic coasts. Nature Reviews Earth & Environment, DOI: 10.1038/s43017-021-00232-1

Druckbare Bilder finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html

Ihre wissenschaftliche Ansprechpartnerin ist Dr. Anna Irrgang, Tel. +49 331 288-2142
(E-Mail: anna.irrgang@awi.de).

Ihre Ansprechpartnerin in der Pressestelle ist Sarah Werner, Tel. +49 471 4831-2008
(E-Mail: sarah.werner@awi.de).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://doi.org/10.1038/s43017-021-00232-1

(nach oben)


Wie das Amazonasbecken die Atacama-Wüste bewässert

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Wasser aus dem Amazonasbecken ist die wichtigste Niederschlagsquelle in der Atacama-Wüste / Forschungsergebnisse helfen, die geologische Vergangenheit der Wüste zu rekonstruieren und Wetterbedingungen für astronomische Beobachtungen vorherzusagen

Neue Forschung hat gezeigt, dass das Amazonasbecken die wichtigste Ursprungsregion für Niederschlag in der Atacama-Wüste im Norden Chiles ist. Vom Regenwald aus wandert aufsteigender Wasserdampf mehr als 2.000 km nach Westen, überquert die Anden und wendet sich über dem Pazifik nach Südosten, um über der Atacama-Wüste Niederschlag zu bilden. Dr. Christoph Böhm vom Institut für Geophysik und Meteorologie der Universität zu Köln hat sogenannte Feuchtigkeitsförderbänder (moisture conveyor belts – MCBs) als Hauptmechanismus für Niederschläge identifiziert. Sie sind für 40 bis 80 Prozent des Gesamtniederschlags in der Atacama verantwortlich. Die Ergebnisse zeigen einen neuen Weg der Wasserversorgung für eine der trockensten Regionen der Erde, neben Sommerregen durch feuchte Ostwinde (Bolivianisches Hoch) und Winterregen im Zusammenhang mit westlichen Sturmzügen. Die Studie wurde in der Fachzeitschrift „Geophysical Research Letters“ veröffentlicht.

Abgesehen von den Polen ist die Atacama-Wüste mit einer jährlichen Niederschlagsmenge von weniger als 2 l/m² die trockenste Region der Erde. Zum Vergleich: in Köln fallen in einem durchschnittlichen Jahr etwa 800 l/m². Bisher wurden zwei unterschiedliche Niederschlagsmechanismen für die Atacama-Wüste beschrieben: Im Sommer verlagern episodische feuchte Ostwinde Sturmsysteme über die Andenkette, die in der Regel einen Transfer feuchter Luft aus dem Inneren des Kontinents behindert. Die damit verbundenen Niederschläge fallen vor allem im nordöstlichen Teil der Atacama-Wüste und nehmen zum tiefer gelegenen trockenen Kern der Wüste hin ab. Im Winter können Tiefdruckgebiete, die wir aus den gemäßigteren Regionen der mittleren Breiten gewohnt sind, auch subtropische Regionen erreichen und dort Wolken und Regen verursachen. Diese Systeme betreffen vor allem die südwestliche Atacama und haben ihren Ursprung über dem Pazifischen Ozean.

Böhm hat nun einen dritten Mechanismus entdeckt, der zu extremen Niederschlagsereignissen führt: „Mit einem Anteil von mehr als der Hälfte am Gesamtniederschlag in der Atacama-Wüste hat unsere Forschung Feuchtigkeitsförderbänder als Hauptniederschlagsquelle nachgewiesen. Das sind besondere Wetterphänomene, die sich durch einen starken Wasserdampftransport auszeichnen.“ Entlang der fadenförmigen Strukturen, die sich meist in Höhen zwischen 3.000 und 6.000 m über dem Meeresspiegel befinden, wird Wasser über weite Strecken transportiert, ohne dass es dabei zu einem großen Austausch mit der darunterliegenden feuchtereichen Pazifikluft kommt. Wenn das Band aus Wasserdampf aus dem Amazonasbecken von Nordwesten her die Atacama-Wüste erreicht, muss die Luftströmung das bis zu 2.500 m hohe Küstengebirge überqueren. Die Luft wird gezwungen, aufzusteigen, was zu einer Abkühlung und damit zur Niederschlagsbildung führt.

„Je heftiger das Niederschlagsereignis, desto eher ist es mit einem solchen Feuchteförderband verbunden“, sagt Böhm. „In einem konkreten Fall fielen in einer Region im trockensten Teil der Wüste mehr als 50 l/m² Regen, was das Zehnfache des Jahresdurchschnitts übersteigt. Für hoch angepasste Arten kann die plötzliche Wasserverfügbarkeit den Tod bedeuten.“ Gleichzeitig lösen solche Ereignisse biologische Explosionen wie die spektakuläre blühende Wüste aus. Darüber hinaus kann der durch starke Regenfälle verursachte Abfluss Schutt bewegen und die Landschaft umgestalten. Spuren solcher Aktivitäten, wie die Ablagerung von Pollen und organischem Kohlenstoff oder bewegtes Material unterschiedlicher Korngrößen, werden im Wüstenboden sichtbar und durch die anhaltende Trockenheit konserviert.

„Die Forschung nutzt geologische Archive wie solche Bodenproben, um die Klimageschichte zu rekonstruieren. Jetzt wissen wir, dass wir Hinweise auf Phasen häufigerer Starkregenereignisse in Anbetracht der Feuchtigkeitsförderbänder interpretierten müssen, die das Niederschlagssignal in diesen Archiven dominieren dürften“, erklärt Böhm. Zusätzlich können Wissenschaftler:innen aus verschiedenen Isotopen von Wasseratomen im Wüstenboden Informationen über die Feuchtigkeit in vergangenen geologischen Epochen gewinnen. Das Verhältnis von schwereren, neutronenhaltigen zu leichteren Wasserisotopen spiegelt die atmosphärische Wasserversorgung wider. Insbesondere in der Atacama-Wüste bewahrt der Gipsboden die Wasserisotopenzusammensetzung aus der Zeit, als er vor Millionen von Jahren gebildet wurde. „Um ein konsistentes Bild zu zeichnen, müssen die Quelle und der Weg des Wassers berücksichtigt werden, da sie die Fraktionierungsprozesse der Wasserisotope bestimmen. Die neuen Ergebnisse tragen dazu bei, die für eine solche Untersuchung erforderlichen Annahmen einzuschränken, und werden aussagekräftigere Ergebnisse ermöglichen.“

Situationen mit erhöhtem Wasserdampf oder sogar Niederschlägen wirken sich auch auf astronomische Forschungen aus, da die Atacama viele weltweit führende Observatorien beherbergt. Atmosphärischer Wasserdampf stört die klare Sicht in den Weltraum. „Das verbesserte Verständnis der Mechanismen des Wasserdampftransports wird es ermöglichen, bessere Vorhersagen über die geeigneten Bedingungen für diese anspruchsvollen Beobachtungen im Kontext eines sich wandelnden Klimas zu treffen“, resümiert Böhm.

Inhaltlicher Kontakt:
Dr. Christoph Böhm
Institut für Geophysik und Meteorologie
Universität zu Köln
+49 221 470 6112
c.boehm@uni-koeln.de

Presse und Kommunikation:
Robert Hahn
+49 221 470 2396
r.hahn@verw.uni-koeln.de

Link:
https://doi.org/10.1029/2021GL094372

(nach oben)


Bundesgesundheitsministerium fand niemanden für Studie zu Corona-Ausbrüchen in Pflegeeinrichtungen

Regina Rosenberg Geschäftsstelle
Deutsche Gesellschaft für Pflegewissenschaft e.V.
Warum konnte das BMG keine Pflegewissenschaftler:innen zur Beantwortung wichtiger Fragen zur SARS-CoV-2 Pandemie finden?

Stellungnahme der Deutschen Gesellschaft für Pflegewissenschaft.

Kurz vor Weihnachten berichtete die Tagesschau (https://www.tagesschau.de/investigativ/wdr/corona-studie-pflegeheime-101.html), dass wichtige Fragen zur pflegerischen Versorgung im Zusammenhang mit der SARS-CoV-2 Pandemie nicht beantwortet werden könnten, da sich keine geeigneten Wissenschaftler:innen finden ließen, die bereit wären im Auftrag des Bundesministerium für Gesundheit (BMG) zu forschen.

Für eine Ausschreibung zur „Analyse der Gründe für SARS-CoV-2-Ausbrüche in stationären Pflege-einrichtungen“ wurde, so der Pressetext, „dem Bundesministerium für Gesundheit kein geeignetes Angebot vorgelegt“ und somit „konnte diese Studie nicht vergeben werden“. Immerhin habe man den Auftrag für eine Literaturanalyse „direkt an einen externen Forschungsnehmer vergeben“ können.

Angesichts einer wachsenden Zahl pflegewissenschaftlicher Professuren und Institute in Deutschland sowie – mit der Deutschen Gesellschaft für Pflegewissenschaft – einer pflegewissenschaftlichen Fachgesellschaft, stellt sich natürlich die Frage, warum niemand für einen solchen Auftrag gefunden wurde.

Die Gründe hierfür liegen jedoch nicht am mangelndem Interesse von Pflegewissenschaftler:innen, sondern sind offensichtlich systemimmanent. Eine Nachfrage bei dem Journalisten ergab, dass es sich offenbar um eine begrenzte Ausschreibung im Sinne einer Auftragsvergabe handelte, die über https://verwaltung.bund.de zugänglich war. Auch wenn es sich um eine prinzipiell offene Ausschreibung handelt, wurde offenbar auf eine breite Streuung verzichtet und auch die DGP nicht einbezogen. Auch universitäre Standorte wurden unseres Wissens nach nicht angefragt. Auch hätte das Beratungsgremium des Pflegebeauftragten des BMG einbezogen werden können, um geeignete Forscher:innen zu benennen. Die Autor:innen der von der DGP initiierten Leitlinie „Soziale Teilhabe und Lebensqualität in der stationären Altenhilfe unter den Bedingungen der Covid-19 Pandemie“ hätten ohne Frage Hinweise geben können.

Diese erfolglose Ausschreibung zeigt daher nicht die Untätigkeit oder gar Unwilligkeit von Pflegewissenschaftler:innen in Deutschland, sondern wirft ein Schlaglicht auf die offensichtlich mangelnde Kenntnisnahme pflegewissenschaftlicher Kompetenzen, Strukturen und Kapazitäten in Deutschland (auch) in Zeiten der COVID-19-Krise.
Exemplarisch genannt seien hier nur im Vergleich die Förderung des Netzwerks Universitätsmedizin (https://www.netzwerk-universitaetsmedizin.de/finanzierung) im Umfang von 390 Millionen € bis 2024, die v.a. für medizinische Grundlagenforschung und nur in sehr geringem Umfang zur Erforschung der pflegerischen Versorgung verausgabt wurden sowie die Nichtbeachtung pflegewissenschaftlicher Expertise in entscheidenden Beratungsgremien wie der interdisziplinären Kommission für Pandemieforschung der DFG oder dem Expertenbeirat des BMG. Der hierzu von der Deutschen Gesellschaft für Pflegewissenschaft an Bundeskanzler Scholz gesendete Brief (https://dg-pflegewissenschaft.de/aktuelles/pressemitteilung-wissenschaftliches-e…) blieb bislang unbeantwortet.

Angesichts der überragenden Bedeutung einer angemessenen pflegerischen Versorgung und der besonderen Rolle professionell Pflegender im Rahmen von Infektionsschutz und -kontrolle muss dringend pflegewissenschaftliche Expertise einbezogen werden. Dies gelingt sicher nicht über begrenzte Ausschreibungen im Rahmen von Auftragsforschung, deren zeitlicher und finanzieller Um-fang darüber hinaus keine nennenswerte Forschung zulässt.

Wenn es zukünftig gelingen soll im Rahmen von Krisen, wie z.B. einer Pandemie, kurzfristig nötige Daten zur Verbesserung der Versorgung zu erhalten, braucht es etablierte Forschungsstrukturen. Krisenbezogene Ad-hoc-Programme reichen hier sicher nicht aus, wie an der sehr begrenzten Förderung pflegewissenschaftlicher Forschung seit Beginn der Pandemie deutlich zu erkennen ist. Die vorhandenen Ergebnisse stammen fast ausnahmslos aus Eigeninitiativen von Pflegeforscher:innen ohne spezifische Förderung.

Wir fordern daher das BMG und andere Fördergremien des Bundes auf, ein angemessen ausgestattetes Programm unter entsprechend qualifizierter pflegewissenschaftlicher Begutachtung zur Erforschung der pflegerischen Versorgung während der Pandemie aufzusetzen. Außerdem braucht es die Einbindung pflegewissenschaftlicher Expertise in Beratungsgremien zum Umgang mit der Pandemie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Inge Eberl, Vorstandsvorsitzende
Prof. Dr. Sascha Köpke, stellv. Vorstandsvorsitzender
Prof. Dr. Christa Büker, Vorstandsmitglied
Prof. Dr. Annegret Horbach, Vorstandsmitglied
Dr. Bernhard Holle, Vorstandsmitglied

Weitere Informationen:
https://dg-pflegewissenschaft.de/wp-content/uploads/2022/01/2022_01_07-Stellungn…

(nach oben)


Ungleicher Fahrradboom: Fahrrad wird immer mehr zum Statussymbol

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Radverkehr hat in Deutschland zwischen 1996 und 2018 um mehr als 40 Prozent zugenommen / Trend gilt in erster Linie für Menschen mit höherem Bildungsabschluss

Stadtbewohner:innen in Deutschland mit Abitur fuhren 2018 mit 70 Minuten pro Woche durchschnittlich doppelt so viel Fahrrad wie noch 1996. Bei Bewohner:innen weniger urbaner Gegenden ohne Abitur hat sich in diesem Zeitraum aber kaum etwas verändert. Stadtbewohner:innen mit Abitur fahren heute dreimal so lange Fahrrad wie Bewohner:innen ländlicher Gegenden ohne Abitur.
Der Soziologe Dr. Ansgar Hudde vom Institut für Soziologie und Sozialpsychologie (ISS) der Universität zu Köln hat zwei Studien zum Zusammenhang von Fahrradmobilität und Bildungsniveau erstellt, und dafür mehr als 800.000 Wege ausgewertet, die mehr als 55.000 Befragte zurückgelegt haben. Die Daten stammen aus dem deutschen Mobilitätspanel (MOP) und dem Sozioökonomischen Panel (SOEP) für die Jahre 1996 bis 2018 sowie der BMVI-Studie „Mobilität in Deutschland 2017“. Seine Ergebnisse sind in zwei Artikeln zusammengefasst, die in den Fachzeitschriften Journal of Transport Geography sowie Sociology veröffentlicht wurden.
Einen großen Teil des Fahrradbooms führt der Soziologe auf die Bildungsexpansion zurück. „Die Daten zeigen einen starken Zusammenhang zwischen Radmobilität und Bildungsniveau“, sagt Hudde. „Es gibt immer mehr Menschen mit höherer Bildung, und die fahren immer mehr Fahrrad. Beide Trends setzen sich aktuell ungebremst fort.“

Dr. Ansgar Hudde hat für Bewohner:innen von Städten auch untersucht, warum Menschen mit höherer Bildung das Fahrrad häufiger nutzen als Menschen mit niedrigerer Bildung. Eine Teilerklärung dafür ist, dass Personen mit Hochschulabschluss etwas häufiger in fahrradfreundlichen Städten und Stadtvierteln wohnen. Die Auswertung der statistischen Daten macht aber deutlich, dass sich die Bildungsunterschiede auch innerhalb von Städten und Stadtvierteln zeigen. „Personen mit Hochschulabschluss nutzen in der Stadt das Fahrrad fast 50 Prozent häufiger als Personen ohne Hochschulabschluss, wobei Faktoren wie Alter, Geschlecht und Wohnort bei der Untersuchung konstant gehalten wurden. Die Ergebnisse deuten insgesamt klar darauf hin, dass es der Bildungsstand selbst ist, der zu mehr Radfahren führt“, so Ansgar Hudde.

Daher ist Hudde der Frage nachgegangen, warum der Bildungsstand beeinflusst, ob und wie viel Menschen Fahrrad fahren. Die bisherige Forschung hat gezeigt, dass Menschen ihr Verkehrsmittel nicht nur nach den Kosten oder der Reisezeit auswählen. Vielmehr wählen sie das Verkehrsmittel auch danach, was es symbolisiert und welche Botschaft man damit an Dritte sendet. Tendenziell kann ein teures Auto viel Reichtum und beruflichen Erfolg, aber wenig Gesundheits- oder Umweltbewusstsein ausdrücken. „Beim Fahrrad ist es genau umgekehrt. Personen mit höheren Bildungsabschlüssen laufen meist nicht Gefahr, dass sie als arm oder beruflich erfolglos wahrgenommen werden – selbst dann, wenn sie mit einem günstigen Rad unterwegs sind. Sie können mit dem Fahrrad vielmehr an Status gewinnen, wenn sie sich als modern, gesundheits- und umweltbewusst zeigen“, erläutert Hudde. „Dagegen könnten Personen mit weniger hohen Bildungsabschlüssen ein teures Auto eher als Statussymbol nutzen, um zu zeigen, dass sie es zu Wohlstand gebracht haben.“

Die Befunde haben weitreichende gesellschaftliche Bedeutung. Menschen mit niedrigeren Bildungsabschlüssen verfügen häufiger über geringe finanzielle Ressourcen und haben im Durchschnitt einen schlechteren Gesundheitszustand. Das Fahrrad als kostengünstiges und gesundes Fortbewegungsmittel könnte solche Ungleichheiten mildern – aber das Gegenteil ist der Fall. Viele Städte fördern den Radverkehr und verteilen Straßenraum vom Auto- zum Radverkehr hin um. Im Moment kommen diese Maßnahmen aber in erster Linie den Höhergebildeten zugute. Dr. Ansgar Hudde resümiert: „Wenn es der Politik gelingt, das Radfahren für alle attraktiv zu machen, bedeutet das: lebenswertere Orte, bessere Gesundheit, mehr Umweltschutz und weniger soziale Ungleichheit.“

Inhaltlicher Kontakt:
Dr. Ansgar Hudde
Institut für Soziologie und Sozialpsychologie (ISS)
hudde@wiso.uni-koeln.de
Presse und Kommunikation:
Mathias Martin
+49 221 470-1705
m.martin@verw.uni-koeln.de

Publikationen:
„The unequal cycling boom in Germany“, Journal of Transport Geography, https://www.sciencedirect.com/science/article/pii/S0966692321002970
„Educational Differences in Cycling: Evidence from German Cities“, Sociology,
https://journals.sagepub.com/doi/10.1177/00380385211063366

Verantwortlich: Jürgen Rees – j.rees@verw.uni-koeln.de

(nach oben)


Leuphana informiert live über berufsbegleitende Studiengänge

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Online-Infotage der Professional School am 14. und 15. Januar 2022

Wer im Berufsleben steht und sich weiterbilden möchte, muss heute selbst für ein Studium nicht mehr aus dem Job ausscheiden. Immer mehr Studiengänge sind gezielt auf Berufstätige zugeschnitten und lassen sich neben dem Job absolvieren. Die Professional School der Leuphana Universität Lüneburg bietet bereits seit 2009 eine breit gefächerte Auswahl solcher Bachelor-, Master- und Zertifikatsprogramme. Interessierten stellt die Professional School diese Studienangebote am 14. und 15. Januar 2022 mit einem digitalen Infotag vor.

Die Veranstaltung startet am Freitagabend um 18.30 Uhr mit einer Warm-up-Session, die auf die Möglichkeiten des berufsbegleitenden Studiums einstimmen soll. Neben einem Vortrag zum Thema Stressbewältigung und Abschalten vom Arbeits- und Studienalltag gibt es auch einen interaktiven Workshop rund um das berufsbegleitende Studium. Das Warm-up endet mit einer Quizrunde für alle Teilnehmenden. Am Samstag stehen ab 10 Uhr weitere Vorträge und Online-Sprechstunden zu den Studienangeboten aus den Clustern Management & Entrepreneurship, Governance & Recht, Nachhaltigkeit sowie Bildung, Gesundheit & Soziales auf dem Programm.

Beratungsangebote gibt es auch zu Themen wie Studienorganisation und -finanzierung oder zu aktuellen und geplanten Studien- und Weiterbildungsformaten. Ergänzend finden die Interessierten auf der Infotagswebseite Video- und Informationsmaterial.

Die Nachfrage nach den Weiterbildungsangeboten der Leuphana ist in den vergangenen Jahren kontinuierlich gestiegen. Aktuell verzeichnet die Professional School bereits über 1.500 Studierende. Sie hat sich inzwischen zu einem der wichtigsten akademischen Weiterbildungsanbieter im norddeutschen Raum und einer der größten Weiterbildungseinrichtungen an deutschen Universitäten entwickelt.

Unter http://www.leuphana.de/ps-infotag stehen das Veranstaltungsprogramm, weitere Informationen sowie ein Online-Anmeldeformular zum Infotag zur Verfügung.

(nach oben)


Digitaler Vortrag: Wie gelingt die Energiewende? Soziale Innovationen als Motor der Transformation.

Stefanie Reiffert Corporate Communications Center
Technische Universität München
Die digitale Vortragsreihe „KlimaDiskurse“ startet am 11. Januar ins neue Jahr. Zu Gast ist dieses Mal die Politik-Analystin Dr. Arwen Colell. Sie spricht über die Gestaltungsmacht von Bürgern und Bürgerinnen bei der Umsetzung der Energiewende.

Colells Forschung zu europäischen Bürgerenergieprojekten zeigt: Gemeinsame Werte und gesellschaftliche Trägerschaft sind entscheidend für die erfolgreiche Umsetzung der Projekte vor Ort. Soziale Innovationen sind dabei mindestens genauso wichtig wie die technologischen und können bestehende Machtstrukturen in der Energiewirtschaft verändern. Dr. Claudia Hemmerle, bayklif-Juniorforschungsgruppenleiterin an der Technischen Universität München (TUM) diskutiert mit ihr und weiteren Experten und Expertinnen, wie die Politik Hemmnisse der Energiewende „von unten“ beseitigen und auch im großen Maßstab die Energiewende „von oben“ gestalten kann und muss.

Diskussionsrunde mit:
Dr. Arwen Colell, Prof. Dr. Miranda Schreurs (Lehrstuhl für Umwelt- und Klimapolitik, Hochschule für Politik München an der Technischen Universität München), Dr. Peter Moser (Zentrum für Umweltkommunikation, Deutsche Bundesstiftung Umwelt Osnabrück), Viola Theesfeld (Referentin Energiepolitik und -wirtschaft, BBEn Bündnis Bürgerenergie e.V. Berlin), Dr.-Ing. Claudia Hemmerle (bayklif CLEANVELOPE, Lehrstuhl für Gebäudetechnologie und klimagerechtes Bauen, Technische Universität München)

Über die Vortragsreihe „KlimaDiskurse“:
Der Klimawandel stellt die Menschheit vor komplexe Herausforderungen und erfordert Anstrengungen und Lösungen aus allen Lebensbereichen. Hierbei helfen neben wissenschaftlichen Erkenntnissen auch Menschen mit Kreativität, Mut und einer Prise Humor, die aufrütteln und inspirieren. In der Vortragsreihe „KlimaDiskurse“ wollen die fünf Juniorforschungsgruppen des Bayerischen Klimaforschungsnetzwerks bayklif mit solchen Menschen reden und ganz verschiedene Facetten des Klimawandels diskutieren.

Hinweise zur Teilnahme:
Die Vorträge finden jeweils ab 18 Uhr als ZOOM Veranstaltung statt. Den Link zur Anmeldung und weitere Informationen finden Interessierte unter www.bayklif.de/klimadiskurse. Eingeladen sind alle interessierten Bürgerinnen und Bürger.

(nach oben)


Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Analyse beleuchtet auch Entwicklung im Zeitverlauf

Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen – neue Studie liefert Daten für alle Städte und Landkreise

Der Anteil der Arbeitnehmerinnen und Arbeitnehmer, die trotz Vollzeitarbeit ein niedriges Monatsentgelt von weniger als zwei Dritteln des mittleren monatlichen Bruttoarbeitsentgeltes aller sozialversicherungspflichtig Vollzeitbeschäftigten bekommen, ist in den vergangenen Jahren zurückgegangen, vor allem in Ostdeutschland.

Trotzdem haben auch 2020 bundesweit noch knapp 19 Prozent der sozialversicherungspflichtig in Vollzeit Beschäftigten in diesem nach Definition der Bundesagentur für Arbeit (BA) „unteren Entgeltbereich“ gearbeitet. Dessen Obergrenze lag 2020 bei maximal 2284 Euro brutto monatlich. Das ergibt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung, die auch die neusten verfügbaren Daten für alle deutschen Landkreise und kreisfreien Städte liefert.* Die Auswertung zeigt große Unterschiede nach Regionen, Geschlechtern, Branchen und Qualifikation: Während 2020 in Wolfsburg oder Erlangen 6,4 bzw. 8,3 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiteten, galt das etwa in Görlitz oder dem Saale-Orla Kreis jeweils für spürbar mehr als 40 Prozent. Die höchste Quote weist der Erzgebirgskreis mit 43,2 Prozent auf (siehe auch die Tabelle in der pdf-Version dieser PM; Link unten). Unter den Frauen müssen bundesweit 25,4 Prozent mit einem niedrigen Monatseinkommen trotz Vollzeitarbeit auskommen, unter den Männern 15,4 Prozent. Überdurchschnittlich häufig betroffen sind auch junge Vollzeitbeschäftigte, solche mit ausländischer Staatsangehörigkeit und Personen ohne Berufsabschluss. Besonders ausgeprägt ist der untere Entgeltbereich in Branchen wie dem Gastgewerbe, der Leiharbeit oder der Land- und Forstwirtschaft.

Für die Studie werteten die WSI-Forscher Dr. Eric Seils und Dr. Helge Emmler die aktuellsten verfügbaren Entgelt-Daten der BA zur „Kerngruppe“ der Vollzeitbeschäftigten aus, in der die große Mehrheit der sozialversicherungspflichtig Beschäftigen erfasst ist, aber beispielsweise keine Auszubildenden. Die Daten stammen aus Meldungen von Arbeitgebern zur Sozialversicherung und kommen häufig direkt aus der betrieblichen Lohnbuchhaltungssoftware, daher dürften sie nach Einschätzung der Wissenschaftler auch für die Ebene von Stadt- und Landkreisen verlässlich sein. Seils und Emmler konzentrieren sich in ihrer Untersuchung auf Personen, die laut BA-Statistik Vollzeit arbeiten und trotzdem 2020 höchstens 2284 Euro monatliches Bruttoeinkommen erzielten. Bei diesem Wert setzt die Bundesagentur aktuell die bundesweite Obergrenze des unteren Entgeltbereichs an. Genaue Arbeitszeiten enthält die BA-Statistik nicht, so dass es nicht möglich ist, Stundenlöhne zu berechnen.

Deutschlandweit zählten 2020 nach der Abgrenzung der BA 18,7 Prozent der Vollzeitbeschäftigten zu den Geringverdienenden. Seit 2011 ist dieser Anteil in kleinen jährlichen Schritten von damals 21,1 Prozent kontinuierlich gesunken, gleichzeitig stieg die statistische Zwei-Drittel-Verdienstgrenze um rund 10 Prozent. Der Rückgang fiel in Ostdeutschland deutlich stärker aus als im Westen, allerdings auf einem viel höheren Ausgangs- und Endniveau (Rückgang von 39,3 auf 29,1 Prozent im Osten gegenüber 16,9 auf 16,4 Prozent im Westen; siehe auch Tabelle 2 in der Studie; Link unten). Da gleichzeitig bundesweit die sozialversicherungspflichtige Beschäftigung deutlich wuchs, haben sich die absoluten Zahlen der Betroffenen unterschiedlich entwickelt: Während im Osten die Zahl der Vollzeitbeschäftigten im unteren Entgeltbereich um gut 320.000 sank, stieg sie im Westen um mehr als 200.000 Personen an.

Obwohl sich der Abstand zwischen West und Ost somit verringerte, bleiben die regionalen Differenzen nach der WSI-Analyse weiterhin groß: Unter den ostdeutschen Stadt- und vor allem den Landkreisen sind Quoten von mehr als 30 Prozent weiterhin relativ häufig. Dagegen bleiben im Westen auch jene vorwiegend ländlich geprägten Regionen mit vergleichsweise hohen Anteilen unter dieser Marke, wenn auch in einigen Kreisen von Niedersachsen, Schleswig-Holstein, Rheinland-Pfalz und vereinzelt in Bayern nur relativ knapp. Generell ist Vollzeitarbeit im unteren Entgeltbereich in ländlichen Regionen, in denen es vor allem Kleinbetriebe und eher wenig Industrie gibt, stärker verbreitet.

Im bundesweiten Vergleich niedrige Quoten sind dementsprechend meist in Städten bzw. Ballungsräumen zu finden, in denen große Arbeitgeber im industriellen, im Finanz-, im Wissensbereich und der Verwaltung eine wichtige Rolle spielen. Das gilt neben Wolfsburg und Erlangen beispielsweise auch für Stuttgart, Ingolstadt, Darmstadt, Stadt und Landkreis München, den Kreis Böblingen und Städte wie Salzgitter, Ludwigshafen, Frankfurt am Main, Karlsruhe oder Bonn, wo zwischen rund neun und rund 11 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiten (siehe auch die detaillierten Daten im verlinkten Anhang der Studie). Ländlichere Regionen mit relativ niedrigen Quoten finden sich am ehesten in Baden-Württemberg. Unter den größten deutschen Städten weisen auch Köln, Düsseldorf und Hamburg Geringverdiener-Anteile deutlich unter dem bundesweiten Durchschnitt von 18,7 Prozent auf, während Berlin mit 19,2 Prozent knapp darüber liegt.

Diese regionale Verteilung korrespondiert mit weiteren Mustern, die Seils und Emmler bei der Datenanalyse beobachten: Der Anteil der Geringverdienste liegt bei Vollzeitbeschäftigten ohne Berufsabschluss bei 40,8 Prozent, bei Beschäftigten mit beruflichem Abschluss bei 17,8 und bei Personen mit Hochschulzertifikat bei lediglich 4,9 Prozent.

Auch die Branchenverteilung spielt eine wichtige Rolle: Im Gastgewerbe (68,9 Prozent), in Leiharbeit (67,9 %) und Land- und Forstwirtschaft (52,7 %) arbeiten mehr als die Hälfte der Vollzeitkräfte im unteren Entgeltbereich. Deutlich überdurchschnittliche Anteile weisen unter anderem auch der Bereich „Kunst und Unterhaltung“ sowie private Haushalte (33,2 %), die Logistik (28,3 %) oder der Handel (24,9 %) auf. Das Sozial- (19,5 %) und das Gesundheitswesen (17,8 %) liegen knapp über bzw. knapp unter dem allgemeinen Mittel. Im Verarbeitenden Gewerbe insgesamt sind 11,5 Prozent der Vollzeitkräfte im unteren Entgeltbereich beschäftigt, in der Metall- und Elektroindustrie 7,6 Prozent. In der Finanz- und Versicherungsbranche liegt der Anteil bei 4,2 Prozent und im öffentlichen Dienst bei 2,5 Prozent (siehe auch Tabelle 1 in der Studie).

Ein anderer statistischer Zusammenhang mag auf den ersten Blick irritieren: Stadt- und Landkreise mit hohen Wohnkosten weisen niedrigere Anteile von Vollzeitbeschäftigten im unteren Entgeltbereich auf. „In Regionen mit hohen Mieten sind zumeist auch die Löhne höher. Das bedeutet aber nicht unbedingt mehr Kaufkraft für die Beschäftigten, weil die Mieten und Preise den höheren Lohn gleichsam auffressen“, sagt WSI-Forscher Eric Seils.

„Unsere Analyse zeigt einerseits einige positive Tendenzen: In den letzten Jahren ist es gelungen, den unteren Entgeltbereich zurückzudrängen“, fasst sein Forscherkollege Helge Emmler die Befunde zusammen. Dies gelte insbesondere für Ostdeutschland. Allerdings sei vor allem dort der untere Entgeltbereich weiterhin stark verbreitet und zugleich die Tarifbindung weit niedriger als im Westen. „Die geplante Anhebung des Mindestlohnes auf 12 Euro ist sicherlich ein Schritt in die richtige Richtung. Um hier weiter zu kommen, ist darüber hinaus eine Stärkung der Tarifbindung erforderlich“, so Emmler.

Wissenschaftliche Ansprechpartner:
Dr. Eric Seils WSI-Sozialexperte
Tel.: 0211-7778-591
E-Mail: Eric-Seils@boeckler.de

Dr. Helge Emmler WSI-Datenexperte
Tel.: 0211-7778-603
E-Mail: Helge-Emmler@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Eric Seils, Helge Emmler: Der untere Entgeltbereich. WSI Policy Brief Nr. 65, Januar 2022. Download: https://www.wsi.de/de/faust-detail.htm?sync_id=HBS-008216

Die PM mit Tabelle (pdf): https://www.boeckler.de/pdf/pm_wsi_2022_01_06.pdf

(nach oben)


Frauen in der Digitalbranche: Der lange Weg der Drishti Maharjan

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Natürlich war das ein sehr emotionaler Moment für sie. Schließich war es für Drishti Maharjan nicht nur geographisch ein langer Weg von Nepal auf diese Bühne in Dresden. In ihrer Schule war sie oft das einzige Mädchen gewesen, das Neigungskurse in Naturwissenschaften besuchte. Und jetzt nahm sie den Preis für den 3. Platz beim Zeiss Women Award 2021 entgegen. Einem Wettbewerb, der herausragende weibliche Studierende in Fächern wie Informatik oder Computerwissenschaften auszeichnet.

Sogar eine Dankesrede hielt sie. „Es war mir wichtig, von meinem Hintergrund zu erzählen. Ich wollte deutlich machen, dass an meiner Stelle auch andere junge Frauen stehen könnten, wenn sie dieselben Chancen und Möglichkeiten bekommen hätten, wie ich sie bekommen habe“, erzählt die 22-Jährige.

Drishti wuchs in Lalitpur auf, einer 225.000 Einwohner-Stadt in der Nähe von Kathmandu, der Hauptstadt von Nepal. Ihr Vater starb als sie 13 Jahre alt war, ihre Mutter hat einen einfachen Schulabschluss. Die Familie gehört nicht zu den Reichen des Landes. Stipendien ermöglichten ihr den Besuch einer Privatschule in Nepal und das Studium an der Jacobs University. „Ohne die finanzielle Hilfe der Universität hätte ich nicht in Bremen studieren können.“

Unterstützung erhielt sie auch während ihrer Zeit an der Hochschule, etwa von Peter Zaspel, Professor für Computer Science, bei dem sie ihre mit dem Zeiss Women Award gewürdigte Bachelorarbeit schrieb. Zuvor war sie auf Vorschlag von Zaspel bereits mit dem Deans-Preis ausgezeichnet worden, mit dem die Jacobs University hervorragende Abschlussarbeiten ihrer Studierenden würdigt.

„Drishtis Arbeit hat ein Niveau, das oft nicht einmal in Masterarbeiten erreicht wird“, sagt Zaspel. „Sie öffnet die Tür in ein neues Feld für kommende Arbeiten zu datengetriebenen Methoden in der wissenschaftlichen Visualisierung.“ Dabei geht es um eine Software mit Namen „ParaView“, die Flüssigkeiten wie Blut oder Wasser visualisiert. Drishti führte neue Funktionen in ParaView ein, indem sie maschinelles Lernen in die Software integrierte.
Dass sie einmal eine ausgezeichnete Softwareentwicklerin werden würde, war in ihrer Schulzeit nicht absehbar. „Mathematische und naturwissenschaftliche Fächer haben mir immer Spaß gemacht, aber nicht ausschließlich.“ Sie hat vielseitige Interessen. Eine Besonderheit der Fächerwahl an der Jacobs University kam ihr deshalb entgegen. Um sich auszuprobieren können Studierende in ihrem ersten Jahr drei Fächer belegen. Erst im zweiten Jahr müssen sie sich auf ihr Abschlussfach festlegen. Drishti wählte Business Administration, Global Economics und Computer Science. „Mir war schnell klar: Computer Science ist das, was ich machen will.“

Was an dem Fach so spannend ist? „Nur mithilfe eines Laptops und ein paar Codes etwas Innovatives kreieren zu können, das ist wirklich faszinierend“, findet sie. An der Jacobs University entdeckte sie auch ihre Begeisterung für Hackathons. Das sind Wettbewerbe, in denen die Teilnehmenden innerhalb begrenzter Zeit eine kreative, technische Lösung für ein bestimmtes Problem finden müssen. „Da kommen oft erstaunliche Innovationen zustande“, sagt Drishti. Sie war so angetan, dass sie 2019 mit einigen Kommiliton:innen aus Nepal den ersten internationalen Hackathon ihres Landes auf die Beine stellte, den Everest-Hack. Das Event wurde ein großer Erfolg. Die Hackathon-Kultur wächst mittlerweile auch in Nepal.

Die meisten Teilnehmenden sind Männer, natürlich. „Als Kind wurde mir oft gesagt, bestimmte Fächer sind nur etwas für Jungs“, erinnert sich Drishti. Für Mädchen habe es an Unterstützung gefehlt, es gab auch keine Lehrerinnen in den entsprechenden Fächern, keine weiblichen Vorbilder. „In der Schule war ich in einigen Kursen das einzige Mädchen unter 40 Jungs. Das fühlte sich komisch an.“

Das änderte sich an der Jacobs University, zumindest ein wenig. „Ich war super glücklich als ich in meinen Kursen plötzlich Kommilitoninnen entdeckte.“ Ihre Freundinnen wiesen sie schnell darauf hin, dass auch in Deutschland Männer die mathematisch-naturwissenschaftlichen und technischen Fächer dominieren. „Es braucht einfach mehr Unterstützung für Frauen, nicht nur in Nepal, auch hier.“

Vor gut dreieinhalb Jahren, im Sommer 2018, kam Drishti nach Bremen. Sie war 18 Jahre alt, es war ihre erste Reise außerhalb ihres Landes. „Ich war wirklich sehr nervös und wusste nicht, was mich erwartet.“ Die Sprache, die Kultur, das Essen, das Wetter – alles war neu. „Ich wusste nicht einmal wie die Post funktioniert, ich hatte zuvor nie einen Brief bekommen.“

Eines der ersten Dinge, über die sie stolperte, war das deutsche Konzept der Pünktlichkeit. „Auf der Anzeigetafel für den Zug stand: Ankunft, 16:04 Uhr. Komische Zeit, dachte ich. Warum schreiben die nicht 16:00 Uhr? Zu meinem Erstaunen kam der Zug auf die Minute genau“, erinnert sie sich lachend. Sie lebte sich dann doch schnell ein, auch dank der Unterstützung der Jacobs University für Studierende. So gibt es in jeder studentischen Unterkunft auf dem Campus „Resident Mentors“ als Bezugspersonen für die Studierenden. „Dieses System ist ausgesprochen hilfreich.“

Im Mai 2021 beendete sie ihr Studium und arbeitet seitdem als Softwareentwicklerin für Polypoly, ein Start-up, das den Nutzer:innen die Hoheit über ihre Daten zurückgeben will. Derzeit ist Drishti in Nepal, zum ersten Mal seit Beginn ihres Studiums. Sie wird zurückkommen nach Deutschland, soviel ist sicher. Erst einmal möchte sie weitere Berufserfahrung sammeln und dann ihren Master machen. Ihr Weg von Nepal nach Bremen war zwar lang, aber er hat sich gelohnt.

Dieser Text ist Teil der Serie „Faces of Jacobs“, in der die Jacobs University Studierende, Alumni, Professor:innen und Mitarbeiter:innen vorstellt. Weitere Folgen sind unter www.jacobs-university.de/faces/de zu finden.

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de

(nach oben)


Bundesregierung sollte Atompläne der EU nicht rundheraus ablehnen

Guido Warlimont Kommunikation
Kiel Institut für Weltwirtschaft
Dr. Wilfried Rickels (https://www.ifw-kiel.de/de/experten/ifw/wilfried-rickels/), Direktor des Forschungszentrums Global Commons und Klimapolitik am Kiel Institut für Weltwirtschaft, kommentiert die Reaktion der Bundesregierung auf die strittigen Pläne der EU-Kommission, Kernkraft in die EU-Taxonomie für nachhaltige Energien aufzunehmen:

„Es könnte klimapolitisch ein Fehler sein, dass die Bundesregierung den EU-Vorschlag zur Kernenergie rundheraus ablehnt. Vielmehr sollte sie darauf dringen, dass im Gegenzug die Fitfor55-Klimaschutzpläne der EU weitreichend anerkannt werden. Insbesondere wäre es ein Gewinn für den Klimaschutz, wenn die im Rahmen des europäischen Emissionshandels erlaubte Maximalmenge wie von der EU vorgesehen über die nächsten Jahre stärker als bisher geplant linear sinkt. Dann kann die kontroverse Einstufung der Kernkraft unterm Strich einen wichtigen Beitrag für geringere CO2-Emissionen liefern, ohne dass es am Ende zu einer Renaissance der Kernenergie kommen wird.

Dass Gaskraftwerke, die dann auf Wasserstoff umgerüstet werden können beziehungsweise Kohlenstoffabscheidung und -lagerung (CCS) einsetzen, Teil der EU-Taxonomie sein sollen, ist richtig. Denn ein beschleunigter Ausbau wetterabhängiger erneuerbarer Energien braucht flankierend die regelbare Stromerzeugung. Diese kann zwar auch die Kernenergie CO2-arm liefern, aber unter wirtschaftlichen Gesichtspunkten ist es nicht effizient, dass sie einen großen Beitrag zur CO2-neutralen Stromerzeugung beiträgt. Gleichwohl besteht ein starkes Interesse von einer Gruppe europäischer Staaten, diese Technologie aufzunehmen. Dass die Bundesregierung dies anerkennt und im Gegenzug andere Zugeständnisse erreicht, wäre für den Klimaschutz am Ende wahrscheinlich nützlicher.“

Medienansprechpartner:
Guido Warlimont
Leiter Kommunikation
T +49 431 8814-629
guido.warlimont@ifw-kiel.de

Kiel Institut für Weltwirtschaft
Kiellinie 66 | 24105 Kiel
T +49 431 8814-774
F +49 431 8814-500
www.ifw-kiel.de

Wissenschaftliche Ansprechpartner:
Dr. Wilfried Rickels
Direktor Global Commons und Klimapolitik
T +49 431 8814-408
wilfried.rickels@ifw-kiel.de

(nach oben)


Untersuchung zur Wiederverwendbarkeit von FFP2-Masken: Hält die Schutzwirkung?

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Die Mehrfachverwendung von FFP2-Masken ist gang und gäbe. Aber schützen die als Einmalprodukte ausgelegten Masken bei mehrmaligem Gebrauch ebenso gut wie beim ersten Tragen? 15 handelsübliche FFP2-Masken testete ein HM-Forschungsteam auf Filterwirkung und Atemkomfort in einer 22-Stunden-Gebrauchssimulation.

FFP2-Masken sind eigentlich für den Einmalgebrauch vorgesehen, so steht es auch im Beipackzettel. Im Alltagsgebrauch sieht es aber meist ganz anders aus: ein Einkauf im Supermarkt, danach noch schnell zur Post, die Kinder von der Kita abholen: alles mit der gleichen Maske. Anschließend bleibt die Maske im Auto liegen, damit man sie am nächsten Tag gleich wiederverwenden kann. Das ist bequem und spart Kosten.

Aber funktioniert das eigentlich? Schützt eine mehrmals verwendete Maske ebenso gut vor einer Ansteckung mit dem Coronavirus SARS-CoV-2 wie beim ersten Tragen? Ein Forscherteam der Hochschule München (HM) ging dieser Frage auf den Grund: „Wir haben die Filterwirkung und den Atemwiderstand von 15 in Deutschland erhältlichen FFP2- Maskenmodellen vor und nach einer 22-stündigen Gebrauchssimulation untersucht,“ sagt der wissenschaftliche Projektleiter und Professor für Medizintechnik Christian Schwarzbauer.

Wirksamkeit bei mehrfachem Tragen gängiger FFP2-Masken simulieren
Für die Gebrauchssimulation hat der Ingenieur und Mechatroniker Hamid Azizi im Rahmen seiner Bachelorarbeit an der Fakultät für angewandte Naturwissenschaften und Mechatronik einen speziellen Beatmungssimulator entwickelt. Damit wurden Luftfeuchtigkeit, Temperatur, Druck und Atemzeitvolumen der menschlichen Atmung bei leichter körperlicher Belastung exakt nachgebildet.

Verfahren für Wirksamkeitstest mehrfach verwendeter FFP2-Masken
Für die Gebrauchssimulation wurde jede Maske zunächst für 12 Stunden mit dem Beatmungssimulator „beatmet“ und anschließend für 60 Minuten in einen Trockenofen bei 80°C gelegt. Die Wärmebehandlung im Backofen bei 80°C wurde als Hygienemaßnahme bei Wiederverwendung von FFP2-Masken von der FH Münster untersucht und empfohlen. Danach wurde die Maske noch einmal für zehn Stunden an den Beatmungssimulator angeschlossen und dann einer zweiten Wärmebehandlung im Trockenofen unterzogen. Die Prüfung der Masken auf Filterleistung und Atemwiderstand erfolgte in Zusammenarbeit mit der ift Rosenheim GmbH, einem international akkreditiertem und notifiziertem Prüflabor für FFP2-Masken.

Vielfach Abnahme der Filterleistung nach Gebrauchstest
Die Gebrauchssimulation führte bei 8 der 15 untersuchten FFP2-Masken-Modellen zu einer signifikanten Abnahme der Filterleistung (vgl. Abbildung 1). Die gemessen Werte lagen aber noch im vorgeschriebenen Normbereich gemäß DIN EN 149:2009-08. Ein Masken-Modell konnte weder im fabrikneuen Zustand, noch nach der Gebrauchssimulation die Norm bezüglich der Filterleistung erfüllen. „Solche Masken dürften eigentlich gar nicht erst in den Handel kommen“ kritisiert Schwarzbauer.

Atemwiderstand der FFP2-Masken verringert sich mit Mehrfachnutzung
Der Atemwiderstand der Maskenmodelle hat sich durch die Gebrauchssimulation bei den meisten Maskenmodellen tendenziell verringert. „Die Masken bieten dadurch etwas mehr Atemkomfort, ansonsten ist das aber unproblematisch, da die Schutzwirkung trotzdem gegeben ist,“ sagt Schwarzbauer. Ein Masken-Modell lag sowohl im fabrikneuen Zustand als auch nach der Gebrauchssimulation über dem maximal zulässigen Grenzwert für den Atemwiderstand. „Dieses Modell bietet zwar ausreichenden Infektionsschutz, der erhöhte Atemwiderstand beim Einatmen kann aber bei starker körperlicher Belastung oder für ältere Personen problematisch sein,“ erklärt Schwarzbauer. Bei einem weiteren Modell wurde der Grenzwert für den Atemwiderstand nach der Gebrauchssimulation überschritten.

Fast alle FFP-2 Masken bieten wirksamem Schutz auch bei mehrfachem Tragen
12 der 15 untersuchten FFP2-Masken-Modelle haben den Labortest bestanden – zwei erfüllten nicht einmal im fabrikneuen Zustand die Anforderungen der Norm (vgl. Abbildung 2). Durch die Gebrauchssimulation waren die Masken für insgesamt 22 Stunden einer Belastung ausgesetzt, die sich durch das Atmen bei leichter körperlicher Aktivität ergeben würde. „Wird eine FFP2- Maske nur für wenige Stunden am Tag bei moderater körperlicher Aktivität getragen, dann sehe ich hinsichtlich der Schutzwirkung und des Atemkomforts kein Problem, wenn diese Maske an mehreren Tagen wiederverwendet wird,“ sagt Schwarzbauer. „Aus hygienischen Gründen sollte man die Maske nach dem Tragen aber nicht einfach in die Tasche stecken, sondern zum Trocknen aufhängen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Schwarzbauer
E-Mail: christian.schwarzbauer@hm.edu

Weitere Informationen:
https://zenodo.org/record/5789009#.YcCu198xldh Preprint der Studie

(nach oben)


Herz-Kreislauf-Forschung lieferte Blaupause für universitäre COVID-19-Forschung

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.
Das Deutsche Zentrum für Herz-Kreislauf-Forschung hat Pionierarbeit für die klinische COVID-19-Forschung geleistet, indem es 2020 seine klinische Forschungsplattform dem bundesweiten Netzwerk Universitätsmedizin (NUM) zur Verfügung stellte. Ab Anfang 2022 betreibt das NUM eine eigene Forschungsplattform, die dem DZHK-Modell nachempfunden ist. Das DZHK beendet dann wie geplant die operative Mitarbeit. Die DZHK-Forschungsplattform dient somit als Blaupause für die zukünftige Forschungsinfrastruktur im NUM.

„Ohne das DZHK hätte die universitäre Corona-Forschung nicht innerhalb weniger Monate mit bundesweit angelegten Studien an den Start gehen können. Das DZHK war im April 2020 im Angesicht der Corona-Krise umstandslos bereit, seine Strukturen und sein Knowhow dem NUM zur Verfügung zu stellen“, sagt Prof. Heyo Kroemer, Vorstandsvorsitzender der Charité – Universitätsmedizin Berlin, der das NUM ins Leben gerufen hatte. Der Leiter der NUM-Koordinierungsstelle, Ralf Heyder, ergänzt: „Von der langjährigen Erfahrung der DZHK-Partner mit der Logistik für große multizentrische Studien haben wir enorm profitiert. Wir bedanken uns für die extrem erfolgreiche Zusammenarbeit der letzten eineinhalb Jahre.“

Eine schnelle Lösung musste her
Als im März 2020 das neuartige Corona-Virus bekannt wurde, war schnell klar: Die universitäre Forschung musste sich im Kampf gegen Sars-Cov2 zusammentun. Um Daten und Bioproben von Erkrankten und Infizierten deutschlandweit zu erfassen, benötigte das vom Bundesministerium für Bildung und Forschung ins Leben gerufene NUM schnell eine leistungsfähige Daten- und Bioproben-Infrastruktur.

Die Forschungsplattform des DZHK wurde damals ausgewählt, weil sie für die Erforschung von COVID-19 alle Voraussetzungen erfüllte. Mit ihr lassen sich klinische Daten, Patientenproben und diagnostische Bilder pseudonymisiert und komplett digital erfassen. „Wir mussten unsere Plattform, mit der wir normalerweise multizentrische klinische Studie aus dem Herz-Kreislauf-Bereich betreiben, nur an die Besonderheit der COVID-19-Forschung anpassen und Datenerfassungssysteme und Prozesse adaptieren“, sagt Dr. Julia Hoffmann, Projektleiterin an der DZHK-Geschäftsstelle.

Daten mit weltweit einzigartiger Detailtiefe
Seit November 2020 hat die Plattform Daten und Proben von 4500 Personen aus drei Kohorten des Nationalen Pandemienetzwerkes (NAPKON) erfasst, einem der Projekte des NUM. Die Daten zeichnen sich durch eine besondere Detailtiefe aus. „Die in der Forschungsplattform gesammelten Daten und geplanten molekularen Untersuchungen werden uns ein einmalig detailliertes Bild der COVID-Erkrankung und ihrer Langzeitfolgen ermöglichen“, sagt Prof. Janne Vehreschild, der mit seinem Team an den Uniklinika Frankfurt und Köln NAPKON koordiniert. „Das wird uns erlauben, die Ursachen für schwere Verläufe und Folgeschäden noch genauer aufzuschlüsseln und uns Hinweise geben, wie wir unsere Patientinnen und Patienten besser schützen und behandeln können”. Über 60 Forschungsprojekte sind bereits beantragt bzw. angelaufen.

NUM betreibt Plattform nach DZHK-Vorbild weiter
In Zukunft werden die Infrastrukturpartner des DZHK die Corona-Daten nach dem Vorbild des DZHK unter Regie des NUM erfassen. „Dass wir die Blaupause für eine NUM-Forschungsplattform geliefert haben, sehen wir als Zeichen für Qualität und höchsten Standard. Mit unserer Plattform konnte die Datenerfassung schnell anlaufen. Jetzt freuen wir uns, unseren Fokus wieder ganz auf die Herz-Kreislauf-Forschung richten zu können.“, sagt DZHK-Vorstandssprecherin Prof. Stefanie Dimmeler.

Hintergrund
Die klinische Forschungsplattform des DZHK ermöglicht den deutschlandweiten Betrieb multizentrischer klinischer Studien und die nachhaltige Verwertung der Forschungsdaten und -proben. An der Plattform sind mehrere Infrastrukturpartner an unterschiedlichen DZHK-Standorten beteiligt: Die Datenhaltung- und Herausgabe erfolgt in Göttingen, das Bilddatenmanagement wird an der Charité – Universitätsmedizin Berlin und der LMU Klinikum München koordiniert, das Bioprobendokumentationssystem wird von der Universitätsmedizin Greifswald verantwortet, die Ethik-Koordination erfolgt am Helmholtz Zentrum München. Eine unabhängige Treuhandstelle in Greifswald sorgt für die Pseudonymisierung der Daten und verwaltet die Patienten-Einwilligungen.

Wissenschaftliche Ansprechpartner:
Dr. Julia Hoffmann, Leiterin Bereich Forschungsplattform, DZHK-Geschäftsstelle, julia.hoffmann@dzhk.de

Weitere Informationen:
https://NAPKON powered by DZHK
https://dzhk.de/forschung/forschungskooperationen/napkon-powered-by-dzhk/

(nach oben)


Nano-Pralinen speichern Wasserstoff

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Ein innovativer Ansatz kann Nanoteilchen zu einfachen Speichern für Wasserstoff machen. Das leicht flüchtige Gas gilt als vielversprechender Energieträger der Zukunft und soll unter anderem Flugzeuge, Schiffe und Lastwagen klimaneutral antreiben sowie eine emissionsfreie Produktion von Stahl und Zement erlauben. Die Speicherung von Wasserstoff ist bislang allerdings aufwendig: Entweder wird das Gas in Drucktanks bei bis zu 700 bar aufbewahrt oder aber in flüssiger Form, wobei es bis auf minus 253 Grad Celsius abgekühlt werden muss – beide Verfahren kosten zusätzlich Energie.

Ein von DESY-Forscher Andreas Stierle geleitetes Team hat die Grundlage für eine neue Methode erarbeitet – die Speicherung mit winzigen, nur 1,2 Nanometer großen Nanoteilchen aus dem Edelmetall Palladium. Zwar ist schon länger bekannt, dass Palladium Wasserstoff aufsaugen kann wie ein Schwamm. „Allerdings ist es bislang ein Problem, den Wasserstoff wieder aus dem Material herauszubekommen“, erläutert Stierle. „Deshalb versuchen wir es mit Palladium-Teilchen, die lediglich rund einen Nanometer messen.“ Ein Nanometer ist ein millionstel Millimeter.

Damit die Winzlinge hinreichend stabil sind, werden sie durch einen Kern aus dem seltenen Edelmetall Iridium stabilisiert. Zusätzlich sind sie auf Graphen fixiert, einer extrem dünnen Lage aus Kohlenstoff. „Auf Graphen können wir die Palladiumteilchen in Abständen von nur zweieinhalb Nanometern verankern“, berichtet Stierle, der das DESY-NanoLab leitet. „Das Ergebnis ist eine regelmäßige, periodische Struktur.“ Das Team, zu dem auch Forscherinnen und Forscher der Universitäten Köln und Hamburg gehören, hat seine Arbeit im Fachblatt „ACS Nano“ der Amerikanischen Chemischen Gesellschaft (ACS) veröffentlicht.

An DESYs Röntgenlichtquelle PETRA III ließ sich verfolgen, was beim Kontakt der Palladium-Teilchen mit Wasserstoff passiert: Der Wasserstoff bleibt im Wesentlichen an ihren Oberflächen haften – in das Innere der Klümpchen dringt kaum etwas ein. Bildlich gesprochen ähneln diese Nanoteilchen einer Praline: In der Mitte befindet sich eine Iridium-Nuss, umhüllt von einer Marzipanschicht aus Palladium, ganz außen folgt als Schoko-Überzug der Wasserstoff. Zur Entladung des Speichers reicht eine leichte Erwärmung: Da die Gasmoleküle sich nicht den Weg aus dem Inneren bahnen müssen, löst sich der Wasserstoff rasch von der Teilchen-Oberfläche ab.

„Als nächstes wollen wir herausfinden, welche Speicherdichten wir mit der neuen Methode erreichen könnten“, sagt Stierle. Bevor jedoch an einen praktischen Einsatz zu denken ist, gibt es noch manche Herausforderung zu meistern. So dürften andere Formen von Kohlenstoffstrukturen besser als Graphen als Trägermaterial geeignet sein – hier denken die Fachleute über Kohlenstoffschwämme mit winzigen Poren nach. In ihnen sollten sich die Palladium-Nanoteilchen in nennenswerten Mengen unterbringen lassen.

Mit diesem und anderen innovativen Konzepten für die Wasserstoffwirtschaft und eine nachhaltige Energieversorgung befasst sich auch die neue Ausgabe von DESYs Forschungsmagazin „femto“. Das Heft zeigt, wie Grundlagenforschung zu Innovationen für die Energiewende beitragen kann. Dabei geht es nicht nur um den Energieträger Wasserstoff, sondern auch um nachhaltige Solarzellen und neuartige Formen der Energiegewinnung sowie um mehr Energieeffizienz in der Forschung selbst, beim Betrieb großer Teilchenbeschleuniger: www.desy.de/femto.

Das Deutsche Elektronen-Synchrotron DESY zählt mit seinen Standorten in Hamburg und Zeuthen zu den weltweit führenden Zentren in der Forschung an und mit Teilchenbeschleunigern. Die Mission des Forschungszentrums ist die Entschlüsselung von Struktur und Funktion der Materie, als Basis zur Lösung der großen Fragen und drängenden Herausforderungen von Wissenschaft, Gesellschaft und Wirtschaft. Dafür entwickelt, baut und betreibt DESY modernste Beschleuniger- und Experimentieranlagen für die Forschung mit hochbrillantem Röntgenlicht und unterhält internationale Kooperationen in der Teilchen- und Astroteilchenphysik und in der Forschung mit Photonen. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Prof. Andreas Stierle
DESY-NanoLab
andreas.stierle@desy.de

Originalpublikation:
Hydrogen Solubility and Atomic Structure of Graphene Supported Pd Nanoclusters; D. Franz, U. Schröder, R. Shayduk, B. Arndt, H. Noei, V. Vonk, T. Michely, A. Stierle; „ACS Nano“, 2021; DOI: https://dx.doi.org10.1021/acsnano.1c01997

Weitere Informationen:
https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2208 – Pressemitteilung im Web

(nach oben)

Spiel: Smart City Hauptklärwerk

0

Wer schon immer mal ein Klärwerk leiten wollte: Im Spiel Smart City Hauptklärwerk ist das möglich.

Ein Computerspiel in dem man eine Kläranlage leiten und die Energieeffizienz verbessern muss.
Das Spiel eignet sich auch für Berufseinsteiger, da man die Funktionsweise einer Kläranlage ganz gut erklärt bekommt.

Einfach Zip-Datei herunterladen, anleiten lesen und installieren.
Wir wünschen euch viel Spaß als Betriebsleiter des Trierer Hauptklärwerks.
mehr… https://www.swt.de/p/Abwasserreinigung-5-2829.html?_p_Menu.PK=2830

SPIEL: SMART CITY HAUPTKLÄRWERK (Stadtwerke Trier)

Abwasser-Recycling: Landwirtschaft für Design-Dünger grundsätzlich offen

0

Studie der Universität Hohenheim zeigt: Landwirt:innen akzeptieren aus Bioabfall und Siedlungsabwasser gewonnenen Mineraldünger – sofern er gewisse Bedingungen erfüllt

Landwirt:innen würden neuartigen Dünger aus Bioabfall und Haushalts-Abwasser einsetzen – wenn die Schadstofffreiheit garantiert ist. Denn die Sorge vor Kontaminationen stellt das wichtigste Hindernis dar. Bei einem Teil der Befragten würde ein Preisnachlass die Kaufbereitschaft fördern. Dieses vielschichtige Stimmungsbild ermittelten Forschende der Universität Hohenheim in Stuttgart. Unter Leitung des Agrarökonomen Prof. Dr. Christian Lippert befragten sie 206 Landwirt:innen, unter welchen Bedingungen sie bereit wären, Recycling-Dünger einzusetzen. Die Studie ist Teil des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft“. Dessen Ziel ist es, regionale Nährstoffkreisläufe zu schließen und Ressourcen nachhaltig zu nutzen.

Angesichts zunehmender Energie- und Ressourcenknappheit wird die künftige Landwirtschaft verstärkt auf Düngemittel zurückgreifen müssen, deren Herstellung keine fossilen Ressourcen benötigt. Die Erzeugung von mineralischen Recycling-Düngern aus häuslichem Abwasser und Küchenabfällen ist hierbei ein vielversprechender Ansatz. Denn elementare Pflanzennährstoffe wie Stickstoff und Phosphor können daraus zurückgewonnen werden.

Wie dieser Ansatz praktisch umgesetzt werden könnte, wird zur Zeit von Wissenschaftler:innen im Rahmen des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft “ unter Federführung der Universität Stuttgart untersucht. Das Kürzel RUN steht hierbei für Rural Urban Nutrient Partnership.

Online-Befragung erfasst Einstellung der Landwirtschaft zu Design-Düngern
Aus technischer und ökologischer Sicht gilt das Nährstoffrecycling aus häuslichen Abwässern gemeinsam mit Bioabfällen aus der Küche als vielversprechender Weg zur Gewinnung nachhaltig produzierter Mineraldünger. Da diese Dünger an die spezifischen Bedürfnisse der jeweiligen Betriebe angepasst werden könnten, werden sie von den Projektbeteiligten als „Design-Dünger“ bezeichnet.

Doch welche Eigenschaften sollten solche Dünger haben, um von den Landwirt:innen auf breiter Basis akzeptiert und gekauft zu werden? Dieser Frage sind Forschende der Universität Hohenheim vom Fachgebiet für Produktionstheorie und Ressourcenökonomik im Agrarbereich nachgegangen und haben in einer Online-Befragung die Einstellung deutscher Landwirt:innen zu diesen neuartigen Mineraldüngern ermittelt.

In einem sogenannten Auswahlexperiment mussten sich die 206 Befragten mehrfach jeweils für einen von drei beschriebenen Mineraldüngern mit unterschiedlichen Eigenschaften entscheiden. So konnten die Forschenden die Zahlungsbereitschaft für entsprechende Düngemittel erstmals auf breiter wissenschaftlicher Basis abschätzen.

Sehr unterschiedliche Akzeptanz wirkt sich auf Zahlungsbereitschaft aus
„Dabei hat sich gezeigt, dass die Einstellungen sehr unterschiedlich sind, was sich zum Teil mit den jeweiligen betrieblichen Gegebenheiten erklären lässt“, sagt Prof. Dr. Lippert. So stellten die Forschenden vor allem bei Betrieben, die ihre Erzeugnisse beispielsweise in Hofläden direkt vermarkten, deutlich größere Vorbehalte gegenüber Design-Düngern fest. Problem ist die Herkunft der Nährstoffe aus Siedlungsabwasser.

Bei Landwirt:innen, die ohne eine solche Direktvermarktung ihre Produkte absetzen, zeigten sich zwar im Durchschnitt auch leichte Vorbehalte gegenüber diesen neuartigen Düngern. Sie würden sie aber mit einem Preisnachlass von etwa zehn Prozent akzeptieren.

Allerdings erwarten nicht alle Landwirt:innen beim Kauf von Design-Düngern einen Preisnachlass: Betriebe, die auch Pflanzen anbauen, die als Futter oder zur Energieerzeugung verwendet werden, würden solche Düngemittel auch zu marktüblichen Preisen abnehmen. Bei ihnen hat die Herkunft der Nährstoffe keinen nennenswerten Einfluss auf die Zahlungsbereitschaft. Die anpassbare Nährstoffzusammensetzung der Design-Dünger und eine konstante Lieferbarkeit wirken zudem verkaufsfördernd.

Design-Dünger tendenziell geringer mit Schwermetallen belastet als konventioneller Dünger
„Es scheint sogar Landwirt:innen zu geben, die bereit sind, mehr zu zahlen als für entsprechend belastete konventionelle Dünger, falls die Schwermetallgehalte des Design-Düngers deutlich unter den gesetzlichen Grenzwerten für Düngemittel lägen“, so der Experte. Ein Pluspunkt für die aus Abwasser gewonnenen Phosphatdüngemittel: Sie sind tendenziell geringer mit Schwermetallen belastet als herkömmliche Mineraldünger auf Basis von Rohphosphat aus fossilen Lagerstätten.

„Andererseits sinkt die durchschnittliche Zahlungsbereitschaft für Düngemittel erheblich, wenn mit Medikamentenrückständen oder anderen organischen Schadstoffen gerechnet werden müsste“, fährt Prof. Dr. Lippert fort.

Sorge vor Kontaminationen stellt Hemmnis dar
„Insgesamt deuten unsere Ergebnisse darauf hin, dass eine negative Einstellung der deutschen Landwirt:innen gegenüber Design-Düngern vor allem durch ihre Sorge verursacht wird, dass recycelte Nährstoffe die Produktsicherheit ihrer Lebensmittelkulturen durch Kontaminationen, insbesondere mit organischen Schadstoffen, gefährden könnten“, fasst er zusammen.

Garantierte Schadstofffreiheit ist daher von entscheidender Bedeutung für die Akzeptanz und die Bereitschaft des Agrarsektors, in Zukunft aus Abwässern und Küchenabfällen gewonnene Düngemittel in großem Umfang einzusetzen. Forschende der Universität Stuttgart am Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) untersuchen daher gemeinsam mit ihren Hohenheimer Kolleg:innen vom Zentrum Ökologischer Landbau intensiv die Sicherheit (Schadstoffarmut) der Design-Düngemittel.

„Derzeit gibt es genügend Spielraum für die Einführung von maßgeschneidertem Recycling-Dünger, wenn die damit verbundenen technischen und hygienischen Herausforderungen bewältigt werden können“, so Prof. Dr. Lippert weiter.

Politik ist bei der Markteinführung gefragt
Ein kostendeckendes dezentrales Phosphor-Recycling aus Abwasser erscheint derzeit ohne zusätzliche finanzielle Unterstützung kaum möglich. Der Preisnachlass, den Landwirt:innen für Design-Dünger erwarten, deutet ebenfalls auf die Notwendigkeit von Subventionen hin, wenn Recycling-Dünger in der Praxis breit eingeführt werden sollen.

Andererseits haben Versorgungsengpässe und explodierende Energiepreise, insbesondere nach der russischen Invasion in der Ukraine, in der Europäischen Union ernsthafte Bedenken hinsichtlich der Versorgungssicherheit aufkommen lassen. Dies könnte in Zukunft Anreize für Recycling-Dünger schaffen.

Zudem könnten diese Düngemittel auch durch die Festlegung von Qualitätsstandards und die Schaffung eines vertrauenswürdigen Labels gefördert werden. „Auf diese Weise würden die politischen Entscheidungstragenden das Vertrauen der Landwirt:innen in ein Recycling-Produkt stärken, das das Potenzial habe, zu einem nachhaltigen und kreislauforientierten Landwirtschaftssystem beizutragen“, empfiehlt Prof. Dr. Lippert.

Expertenliste Bioökonomie: https://www.uni-hohenheim.de/expertenliste-biooekonomie

HINTERGRUND: Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft
RUN ist eines von acht Projekten des Forschungsvorhabens „Agrarsysteme der Zukunft“ im Rahmen der „Nationalen Forschungsstrategie BioÖkonomie 2030“. Es wird vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 5,95 Mio. Euro gefördert, davon über 680.000 Euro für die Universität Hohenheim. Projektstart war der 1. April 2019. Das Projekt war zunächst auf drei Jahre angelegt und wurde um weitere zwei Jahre bis August 2024 verlängert.

Die Koordination des Projekts liegt in der Hand von Dr.-Ing. Anna Fritzsche vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart (ISWA). Weitere Projektpartner sind die TU Kaiserslautern, die Universität Heidelberg, das Karlsruher Institut für Technologie (KIT), der Umweltcampus Birkenfeld der Hochschule Trier, die iat Ingenieurberatung für Abwassertechnik GmbH als Praxispartner sowie das Thünen-Institut in Braunschweig als assoziierter Partner.

Projektwebsite mit Erklär-Videos und Comic: https://www.run-projekt.de/

Meldungen zur Maschinentechnik

0
Maschinentechnik 2013 Maschinentechnik 2014 Maschinentechnik 2015 Maschinentechnik 2016
Maschinentechnik 2017 Maschinentechnik 2019    

 

2022
LFKW testet Pumpen­reinigungs­funk­tion des ACQ580
Pumpenreinigungsfunktion verhindert bei MWA Verzopfen von Pumpen

 


LFKW testet Pumpen­reinigungs­funk­tion des ACQ580

Ein ACQ580 mit Fernzustandsüberwachung ergänzt die Ausstattung des Lehr- und Forschungsklärwerks (LFKW) der Universität Stuttgart. Der ABB-Frequenzumrichter verfügt über eine Pumpenreinigungsfunktion, die den Ausfall einer Tauchpumpe verhindern soll.

Im Lehr- und Forschungsklärwerk (LFKW) des Instituts für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart können Wissenschaftlerinnen und Wissenschaftler neue Verfahren zur Abwasserreinigung umfassend und praxisnah testen. Seit Februar 2021 erweitert ein ACQ580 die technische Ausstattung des LFKW. Es handelt sich bei diesem Gerät um einen ABB-Frequenzumrichter speziell für den Wasser- und Abwasserbereich.

Verstopfungen werden verhindert
Besonders interessant für die Verantwortlichen des Klärwerks ist die integrierte Pumpenreinigungsfunktion des ACQ580. Sie soll verhindern, dass sich Festkörperpartikel in den Pumpenlaufrädern oder Rohrleitungen festsetzen. Der Frequenzumrichter regelt den Motor einer Tauchpumpe, die Rezirkulationswasser aus dem Belebungsbecken in das Denitrifikationsbecken pumpt. Die Zweikanalradpumpe hat sich in der Vergangenheit infolge von Verschmutzungen wiederholt festgesetzt, was zu Totalschäden der Pumpe führte.

Peter Maurer ist technischer Betriebsleiter des LFKW. Er erläutert: „An dieser Stelle sind innerhalb von zwei Jahren vier Pumpen kaputtgegangen, weil sich in der Spalte zwischen dem Kanalrad und dem Gehäuse Flusen, Fasern und Schlammreste eingetragen haben. Das hat eine erhöhte Stromaufnahme zur Folge, die schließlich den Motor beschädigt.“ Durch die Steigerung der Energieeffizienz von Tauchpumpen werde die Pumpenreinigungsfunktion von Frequenzumrichtern immer wichtiger, so Maurer.

Die Pumpenreinigungsfunktion des ACQ580 besteht aus einer programmierbaren Sequenz von Vorwärts- und Rückwärtsdrehungen, um Ablagerungen von den Pumpenrädern und Rohrleitungen zu lösen und zu entfernen. Sie verhindert Blockierungen und macht eine manuelle Reinigung weniger häufig erforderlich.

Nach knapp vier Monaten Betriebsdauer zieht Peter Maurer ein erstes positives Fazit:
„Man sieht deutlich, dass die Pumpe sich selbst wieder freispült. Der Volumenstrom geht bei konstanter Drehzahl über den Tagesverlauf leicht zurück und steigt nach der Reinigung wieder an, obwohl die Stromaufnahme sich nicht verändert hat.“
Peter Maurer, Technischer Betriebsleiter des LFKW

https://antriebstechnik-wasser.de.abb.com/pumpenreinigungsfunktion-acq580/

(nach oben)


Pumpenreinigungsfunktion verhindert bei MWA Verzopfen von Pumpen

Der wachsende Markt für Feuchttücher freut deren Hersteller, nicht so aber die Abwasserverbände. Denn anstatt sie in den Mülleimer zu werfen, wo sie hingehören, werden Feuchttücher häufig über die Toilette und damit über die Kanalisation entsorgt, wo sie und andere Hygieneartikel im Abwasser zu verzopften Pumpen führen können. Die integrierte Pumpenreinigungsfunktion der ABB-Frequenzumrichter für die Wasserbranche schafft hier Abhilfe. Die Mittelmärkische Wasser- und Abwasser GmbH (MWA) nutzt diese Funktion, um das Verzopfen von Pumpen zu verhindern.

Feuchttücher sind eine feine Sache. Rasch wird damit der Kinderpopo gesäubert, der Wasserhahn blank geputzt oder der Tisch abgewischt. Über die Kanalisation entsorgt, können sie dort jedoch für Ärger sorgen. Die wenigsten Verbraucher wissen nämlich, dass Feuchttücher Kunststofffasern enthalten. Das macht sie zwar sehr reißfest, dafür lösen sie sich im Gegensatz zu Toilettenpapier aber im Wasser nicht auf. Achtlos in die Toilette geworfene Vliesprodukte können meterlange, kiloschwere verfilzte Vlieszöpfe bilden, die sich um die Laufräder der Abwasserpumpen wickeln können. Fällt eine Pumpe aus, bildet sich ein Rückstau von Schmutzwasser im Abwasserkanal – mit oft übel riechenden Folgen. Verzopft eine Pumpe, muss die Verstopfung von Hand entfernt werden. Dafür muss die Pumpe ausgebaut, gereinigt und instand gesetzt werden. Das kann viel Zeit und damit auch Geld kosten. Massenhaft falsch entsorgte Feuchttücher entwickeln sich für die Abwasserentsorger zu einem wachsenden Problem. Diese suchen deshalb nach effektiven technischen Lösungsmöglichkeiten.

„Wir hatten in einer Pumpstation ständig Probleme mit einer verzopften Pumpe.“
Bernd Zindel, Meister für den Bereich Abwasser

Eine intelligente Lösung stellt hier die Pumpenreinigungsfunktion von Frequenzumrichtern dar, wie sie etwa der ACQ580 bietet. Dieser ABB-Frequenzumrichter für den Wasser- und Abwasserbereich beinhaltet Funktionen für Pumpenapplikationen, darunter die Pumpenreinigungsfunktion, die einen sicheren Durchfluss durch die Pumpen gewährleisten. Der robuste, kompakte und energieeffiziente Frequenzumrichter stellt eine kontinuierliche, zuverlässige Regelung von nahezu jedem Motortyp einschließlich der IE5-Synchronreluktanzmotoren in einem Leistungs- und Spannungsbereich von 0,75 bis 250 kW und 380 bis 480 V sicher. Er verfügt über Elektronikkarten mit Schutzlack. Die Schutzarten IP21 und IP55 ermöglichen die Installation an der Wand oder im Schaltschrank. Die Bedienungsfreundlichkeit des Gerätes wird durch das intuitive Bedienpanel für die Hand-Aus-Auto-Steuerung und das PC-Tool Drive Composer erhöht. Der eingebaute Energierechner zeigt an, wie viel Energie durch Verwendung des Frequenzumrichters eingespart wurde. Zahlreiche Feldbusprotokolle erleichtern die Konnektivität.

Integrierte Funktion für die Pumpenreinigung
Die Pumpenreinigungsfunktion des Frequenzumrichters wird hauptsächlich bei Abwasseranwendungen verwendet. Sie soll verhindern, dass sich Festkörperpartikel in den Pumpenlaufrädern festsetzen. Die Funktion besteht aus einer programmierbaren Sequenz von Vorwärts- und Rückwärtsdrehungen, um Ablagerungen von den Pumpenrädern zu lösen und zu entfernen. Blockaden werden verhindert und eine manuelle Reinigung ist seltener nötig. Die Pumpenreinigungsfunktion verlängert des Weiteren die Lebensdauer von Pumpe, Rohrleitungen und Laufrädern und verbessert die Energieeffizienz des Systems. Die Einstellungen für den Reinigungsbetrieb können frei gewählt werden. So lassen sich beispielsweise Funktionen für den Beginn des Reinigungsbetriebes, die Anzahl der Reinigungszyklen, Rampenzeiten, die Reinigungsdrehzahl und die Freigabe Rückwärtslauf einstellen.

Die brandenburgische Mittelmärkische Wasser- und Abwasser GmbH (MWA), Dienstleister für die Wasser- und Abwasserzweckverbände „Der Teltow“ und „Mittelgraben“, nutzt die Pumpenreinigungsfunktion von Frequenzumrichtern bereits seit 2014. Auch in ihrem Abwassernetz kommt es immer wieder zu Verstopfungen, wenn sich Hygieneartikel vor den Pumpen sammeln und verzopfen. Bernd Zindel ist bei der MWA als Meister für den Bereich Abwasser zuständig. Er erinnert sich: „Wir hatten in einer Pumpstation ständig Probleme mit einer verzopften Pumpe. Bei Recherchen sind wir auf den ABB-Frequenzumrichter mit Rückwärtslauf gestoßen. Wenn der Strom durch eine Verzopfung höher wird, sorgt der Umrichter dafür, dass die Pumpe kurz rückwärts oder schneller läuft. Seitdem hat es sehr wenige Verstopfungen gegeben. Wir sind mit der Reinigungsfunktion der Geräte äußerst zufrieden.“

„Mit der Reinigungsfunktion der Geräte sind wir äußerst zufrieden.“
Bernd Zindel, Meister für den Bereich Abwasser

Die Pumpenreinigung ist nicht die einzige Funktion des ACQ580, die bei der MWA genutzt wird. Bei sämtlichen Pumpwerken der beiden Wasser- und Abwasserzweckverbände kommt die Funktion „Sanfte Rohrfüllung“ zum Einsatz, um die Anlage zu schonen. Mit dieser Funktion kann eine Rohrleitung langsam gefüllt werden. Ein plötzlicher Wasserschwall und Druckanstieg vor einem Rückschlagventil oder einer Rückschlagklappe am Ende des Pumpensystems werden damit verhindert. Durch das drehzahlgeregelte Hoch- und Runterfahren der Pumpen können die Belastungen in den Rohrleitungen stark reduziert werden und das Problem der Druckstöße tritt nicht auf. Die Gefahr defekter Druckleitungen oder Armaturen wird dadurch ausgeschlossen. Bernd Zindel weist noch auf einen weiteren Aspekt hin: „Bei starkem Regenfall versuchen wir, die Netze aufzustauen, um die vorgelagerten Pumpwerke etwas zu entlasten. In einem solchen Fall steuern wir mithilfe der Frequenzumrichter die Förderung der Abwassermengen im Kanal.“

Exzellente Bedienerfreundlichkeit
Begeistert ist Bernd Zindel von der Bedienerfreundlichkeit der ABB-Frequenzumrichter. „Die ist wirklich top. Da wir verschiedene Rampen fahren, beispielsweise für den Normalbetrieb oder den Notbetrieb, muss die Frequenz jeweils entsprechend eingestellt werden. Das geht sehr einfach“, betont er. Die Energieersparnis, die durch die Drehzahlregelung der Pumpen erzielt werden kann, ist ein weiterer wichtiger Punkt für die MWA. Denn das Unternehmen betreibt erfolgreich ein Energiemanagementsystem nach DIN EN ISO 50001.

„Die Bedienerfreundlichkeit der ABB-Frequenzumrichter ist wirklich top.“
Bernd Zindel, Meister für den Bereich Abwasser

Über die MWA
Die Mittelmärkische Wasser- und Abwasser GmbH (MWA) mit Hauptsitz in Kleinmachnow ist seit 1994 betriebsführender Dienstleister für die Wasser- und Abwasserzweckverbände „Der Teltow“ und „Mittelgraben“. Von 147 Pumpwerken wird das Abwasser von über 85 000 Einwohnern zur Kläranlage Stahnsdorf abgeleitet. Dort wird es umweltschonend und sicher gereinigt und in den Naturkreislauf zurückgeführt. Die MWA sichert den Betrieb, die Unterhaltung und die Bauüberwachung der im Eigentum der Zweckverbände befindlichen Wasser- und Abwasseranlagen und sonstigen Einrichtungen zur Wasserlieferung und Schmutzwasserbeseitigung. Sie ist zudem für die Verwaltung und die kaufmännische Betriebsführung der Verbände verantwortlich.

ACQ580 Frequenzumrichter für Wasser und Abwasser: Pumpenreinigungsfunktion

https://antriebstechnik-wasser.de.abb.com/pumpenreinigungsfunktion-verhindert-bei-mwa-verzopfen-von-pumpen/

(nach oben)