Samstag, Oktober 12, 2024
StartAblageTägliche Meldungen 2020

Tägliche Meldungen 2020

Dezember 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.12.2020 Von Sonnenlicht zu Wasserstoff
29.12.2020 Klimakrise lässt Seen schrumpfen
28.12.2020 Globale Niederschlagsveränderungen infolge des Klimawandels zu erwarten
26.12.2020 Rekord-Rückgang der globalen CO2-Emissionen dank Corona
25.12.2020 Erstmals Glyphosat-Nachweis im Meer: IOW entwickelt neue Methode und führt erfolgreiche Messungen in der Ostsee durch
23.12.2020 10 Jahre PYREG GmbH – Wie aus Klärschlamm Dünger wird
22.12.2020 Wasser: Treibstoff des Lebens
21.12.2020 Unterwasser-Stromspeicher fürs Hambacher Loch
20.12.2020 Wie viel Trinkwasser brauchen die Städte?
17.12.2020 C/sells: Neue Lösungen für die Aktivierung von Flexibilitäten dezentraler Erzeuger und Verbraucher
12.12.2020 Brennstoffzellen-Flugzeug am Stuttgarter Airport präsentiert: Umweltschonender Antrieb erhält Testflugerlaubnis
10.12.2020 Klärwerke sollen Akteure am Energiemarkt werden
08.12.2020 Klimawandel erwärmt Grundwasser in Bayern
06.12.2020 Harzer Stausee drohen italienische Wassertemperaturen
04.12.2020 Internationales Projekt zur industriellen Wasserwirtschaft wird an der RWTH Aachen koordiniert
01.12.2020 Biobasierte Autokarosserie für die Straßenzulassung rückt in greifbare Nähe
Gesundheit
19.12.2020 Verständliche Informationen über Corona-Impfstoffe
15.12.2020 Startschuss für Pilotstudie zu Corona-Warnarmband
13.12.2020 Nanoforschung – Mit Nanopartikeln gegen Krebs
09.12.2020 Neuer Tabakatlas des Deutschen Krebsforschungszentrums erschienen – 13 Prozent aller Todesfälle als Folge des Rauchens
07.12.2020 Was verraten Bewegungsarmbänder über unsere Atmung und Gesundheit?
05.12.2020 Desinfektionsmittel in Schlagsahne und Pangasius-Fisch
03.12.2020 Ratgeber zum individuellen Stressmanagement
Gesellschaft
31.12.2020 Migration im Schulbuch – Wie Bildungsmedien Migration und Migrierende abbilden
27.12.2020 Podcast: Wer haftet beim Unfall des autonomen Autos?
24.12.2020 RWI-Studie: Kostenloser ÖPNV könnte Nutzung erheblich steigern
18.12.2020 Weiterbildung im Homeoffice-Alltag: Wie profitieren alle?
16.12.2020 Klimafolgen der Lebensmittelproduktion: Starke Preisverzerrungen – und Handlungsoptionen
14.12.2020 Vom Publikationsbias zur Datenflut
11.12.2020 Keine falsche Sicherheit: Deutsche wollen Kommunikation von Unsicherheit in der Corona-Pandemie
02.12.2020 Umfrageergebnisse zum Nutzen oder Nichtnutzen der Corona-Warn-App
November 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.11.2020 Der Nordatlantik verändert sich, aber die Zirkulation ist stabil
27.11.2020 Was Laubblätter im Herbst altern lässt
26.11.2020 Neues Bonner Netzwerk stärkt Kompetenzen für nachhaltige Lösungen der Wasserprobleme weltweit
23.11.2020 Grubenwasser und Grundwasser bleiben getrennt
20.11.2020 Grüner Wasserstoff: Auftrieb im Elektrolyten sorgt für Konvektionsströmung
19.11.2020 Abwasserreinigung mittels Sonnenlicht – Ozon als Reaktionspartner
17.11.2020 Biogasanlagen produzieren Strom flexibel und bedarfsgerecht-Stromeinspeisung folgt Residuallast und Strompreisen
13.11.2020 Mit Methan als Nahrungsquelle setzen Bakterien giftiges Arsen frei
11.11.2020 Von der Stickstoffkrise zur Phosphatkrise? Internationales Forschungsteam fordert europaweite Phosphatrichtlinie
09.11.2020 Mit Nelkenöl und Kupfermünzen gegen die Asiatische Buschmücke
06.11.2020 Archiv der Tierwanderungen in der Arktis
03.11.2020 Wissensreise durch die Welt des Wassers
01.11.2020 Erster deutscher Gezeitenrechner nimmt Betrieb auf
Gesundheit
30.11.2020 Diagnostik im Gesundheitssport
28.11.2020 Wo das Coronavirus im Darm andockt
22.11.2020 Darm-Hirn-Achse beeinflusst Multiple Sklerose
18.11.2020 Bayreuther Sportphysiologe entwickelt Leitlinien für Sport mit Diabetes-Typ-1
16.11.2020 Auch Ratten können Hantaviren übertragen: Infektion durch asiatische Virusart in Deutschland nachgewiesen
10.11.2020 Weltdiabetestag am 14. November: Neue Angebote auf http://www.diabinfo.de
07.11.2020 Schwangerschaft: Umgebungstemperatur beeinflusst den Stoffwechsel der Nachkommen
05.11.2020 COVID-19: Wie hängen Schweregrad der Erkrankung und die Antikörperantwort zusammen?
04.11.2020 Cholesterin im Blick behalten – Herzinfarktrisiko senken
02.11.2020 Mehr Infektionen als bekannt: Neue Studie zeigt Relevanz bevölkerungsweiter SARS-CoV-2-Antikörpertests auf
Gesellschaft
25.11.2020 Macht Angeln glücklich? – Europas größte Angelumfrage gestartet
24.11.2020 Hohe Mobilität verschlechtert die Work-Life-Balance
21.11.2020 Fahrstunden für die Künstliche Intelligenz
15.11.2020 Hunderte Exemplare von Newtons Philosophiae Naturalis Principia Mathematica in neuer Zählung gefunden
14.11.2020 Gutes Change-Management: Wie KI in Unternehmen erfolgreich wird
12.11.2020 Persönlicher Datenschutz in der Industrie 4.0: Sicherstellen der Mitarbeiter*innen-Privacy bei Tracking-Technologien
08.11.2020 Pressemeldung: „Arbeitswelt nicht nur punktuell reformieren, sondern umfassend nachhaltig transformieren!“
Oktober 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.10.2020 Die ungewisse Zukunft der Ozeane
28.10.2020 Leitfaden für mehr „Insektenschutz in der Kommune“
27.10.2020 Der Rest ist nicht alles – Für nachhaltige Biogaserzeugung ist mehr als Gärrestdüngung notwendig
25.10.2020 Größter CO2-Rückgang: Echtzeit-Daten zeigen die massiven Auswirkungen von Covid-19 auf die globalen Emissionen
24.10.2020 Auf die Wirkung kommt es an: Neues Verfahren spürt Schadstoffe anhand ihrer Effekte auf Organismen auf
23.10.2020 Kein Nachwuchs bei Dorsch und Hering – Wissenschaft alarmiert: Fischbeständen in der westlichen Ostsee droht Kollaps
22.10.2020 Korallenbleiche: Riff erholt sich schneller als gedacht
20.10.2020 Klimaschutz lässt sich sozialverträglich gestalten
19.10.2020 Künstliche Intelligenz zum Schutz des Grundwassers
16.10.2020 Im Meer schneit es Plastik
14.10.2020 Recycling von Klärschlamm 
12.10.2020 Exzellentes Bremer Wasser für piekfeine Bremer Getränke 
08.10.2020 Die globale Nahrungsmittelproduktion stellt eine zunehmende Bedrohung für das Weltklima dar 
07.10.2020 KI – Wegbereiter der Zukunft? 
06.10.2020 Arrokoth: Abflachen eines Schneemanns
04.10.2020 Energieumwandlung – Sonne tanken und im Dunkeln schwimmen
01.10.2020 Im Ostseeraum muss die Entsorgung nicht verwendeter Arzneimittel verbessert werden 
Gesundheit
30.10.2020 Wissen über Herzinfarkt-Vorboten rettet Leben
26.10.2020 Der Entstehung von Darmkrebs auf der Spur: Wie Häm-Eisen aus rotem Fleisch gesunde Darmzellen schädigt
17.10.2020 Kurzsichtigkeit: Kinderaugen brauchen mehr Sonnenlicht
13.10.2020 Wie spät ist es auf der biologischen Uhr? 
11.10.2020 TU Berlin: Intervallfasten auch im Alter wirksam
09.10.2020 Übertragung von COVID-19: Aerosole deutlich infektiöser alsTränenflüssigkeit oder Bindehaut 
03.10.2020 Bayreuther Forscher: Tropische Naturschutzgebiete sind besonders stark von künftigen Klimaänderungen betroffen
Gesellschaft
29.10.2020 Antwort auf Darwins Frage
21.10.2020 HU-Podcast: „Mose wurde viel kritisiert“
15.10.2020 HHL zeigt Meinungsbild zu umstrittener 50+1-Regel im Fußball 
10.10.2020 BMAS fördert interdisziplinäres Wissenschaftsteam 
05.10.2020 Hochschulmedizin Dresden erhält 7,5 Millionen Euro für COVID-19 Forschung
02.10.2020 Zufriedenheit im Homeoffice nimmt weiter zu
September 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.09.2020 Roboter auf der Blumenwiese und Gemüse von der Kläranlage
28.09.2020 Mit Bor und Bier Stickstoff reduziert
27.09.2020 Schwebstoffe in Bundeswasserstraßen: Neue Erkenntnisse zu Herkunft und Zusammensetzung 
24.09.2020 Laborstudie zu Toxizität: Produkte aus „Bioplastik“ keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
22.09.2020 Virtuelle Verleihung des UMSICHT-Wissenschaftspreis 2020 
20.09.2020 Indischer Monsun ist nach Vulkanausbrüchen besser vorhersagbar 
17.09.2020 EU-Förderung: 9 Millionen Euro für Meeresforschung 
16.09.2020 Bildung alleine reicht nicht: Der Naturschutzpolitik gelingt es zu selten, das Verhalten der Menschen zu ändern
14.09.2020 Bioabfälle als wertvoller Rohstoff für Hightech-Produkte 
12.09.2020 Abwasser aus dem Bergbau aus Ressource nutzen 
08.09.2020 Die (un)sichtbare Dürre: TU Bergakademie Freiberg untersucht Auswirkungen auf Grundwasser und Wasserqualität
07.09.2020 Künstliche Intelligenz lernt kontinentale Hydrologie
05.09.2020 Plastikpartikel gelangen tief in den Boden 
02.09.2020 Neues Verfahren: Steroidhormone effizient aus Wasser entfernen 
Gesundheit
29.09.2020 Verbindung aus Calcium und Phosphat löst starke Entzündung bei Rheumapatienten aus
26.09.2020 Neue Studie aus Bayreuth: Auch gekochte Karotten können allergische Reaktionen auslösen
23.09.2020 Bei schlechtem und zu kurzem Schlaf sollte man immer auf eine berufliche Überlastung schauen 
18.09.2020 Sensormatte beugt Haltungsschäden vor 
15.09.2020 Weizen & Bekömmlichkeit: Backwaren sind wesentlich besser als ihr Ruf 
13.09.2020 Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“ 
11.09.2020 Covid-19: Kläranlagen als Frühwarnsystem – TU Darmstadt analysiert das Erbmaterial von SARS-CoV-2 aus Abwasserproben 
10.09.2020 SARS-CoV-2-Viren im Abwasser: COVID-19 Überwachung und Abschätzung potenzieller Infektionsrisiken
09.09.2020 Küssen verboten: Abwehrmechanismus im Speichel stoppt Zika-Virus, aber nicht SARS-CoV-2
04.09.2020 Niedriger Blutdruck: Harmlos oder bedenklich für das Herz? 
03.09.2020 Veganismus: Vitamin B12 wird gut ergänzt, Jod ist das Sorgenkind 
Gesellschaft
25.09.2020 Wissen über Corona: Die Mehrheit der Bevölkerung hat sich gut informiert und ist dafür, „Fake News“ zu kennzeichnen 
21.09.2020 Das erste ägyptische Referenzgenom des Menschen
19.09.2020 UFZ-Modelle im Einsatz gegen die Afrikanische Schweinepest 
06.09.2020 TU intern: Ein Hundeleben und sein CO2-Fußabdruck
01.09.2020 Sicher musizieren in Zeiten von Corona 
August 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.08.2020 Volle Kraft voraus: Startschuss für die Integrierte WärmeWende Wilhelmsburg unter Beteiligung des CC4E der HAW Hamburg 
28.08.2020 Bessere Sicht für Tauchbojen
26.08.2020 Gärrückstände aus Biogasanlagen optimal verwerten – Jetzt zur Online-Fachtagung am 15.9.2020 anmelden! 
24.08.2020 Hitze und Starkregen – so passen sich Kommunen an den Klimawandel an
23.08.2020 Deutsches Hochwasserrisiko-Management ist nur selten naturbasiert 
21.08.2020 Wo ist das Wasser während einer Dürre? 
20.08.2020 Die Überdüngung der Ostsee beenden: Wirken die Maßnahmen? 
18.08.2020 Mit Biomarkern auf Zeitreise in Sachen „Blaualgen“: Ostsee-Sedimentarchive zeigen Auftreten und Häufigkeit seit 1860 
17.08.2020 Energieforschung für beste Spannung in den Stromnetzen 
13.08.2020 Hannoveraner Physikerteam entwickelt mobilen Schnelltest zur Erkennung von giftigen Blaualgen 
11.08.2020 Blaulichtschalter aus Algen steuert elektrische Erregung von Pflanzen 
07.08.2020 Klimawandel: Extreme Dürreperioden in Mitteleuropa werden voraussichtlich zunehmen
06.08.2020 Wie Auen das Wasser der Donau reinigen: Neues EU-Projekt unter Leitung der KU 
04.08.2020 Weltweiten Wasserbedarf effizienter decken: Wissenschaftler wollen Entsalzungstechnologien verbessern 
02.08.2020 Kalikokrebs: Erstmals Gewässer vollständig von invasiver Tierart befreit und erfolgreich saniert 
Gesundheit
31.08.2020 EAST – AFNET 4 Studie: Frühe rhythmuserhaltende Therapie verbessert Aussichten bei Vorhofflimmern
25.08.2020 TU Berlin: Coronavirus – Wissenschaftler*innen beantworten Fragen zu Aerosolen und richtigem Lüften von Innenräumen 
22.08.2020 Mundspülungen könnten Corona-Übertragungsrisiko senken 
19.08.2020 Überlastung der Sehnen im Sport – was ist zu tun? 
15.08.2020 Neue Erkenntnisse zur Evolution von bakteriellen Antibiotikaresistenzen 
12.08.2020 Wirkungsmechanismen von Antibiotikakombinationen entdeckt 
05.08.2020 Moderater Alkoholkonsum war mit besseren kognitiven Funktionen assoziiert 
03.08.2020 Können frühere Erkältungen die Schwere der SARS-CoV-2-Symptome beeinflussen? 
01.08.2020 Entzündungshemmer senken das Risiko für eine Infektion 
Gesellschaft
29.08.2020 Eigene Gesundheitsdaten souverän handhaben 
27.08.2020 Bundesweite Umfrage: Corona-Warn-App
16.08.2020 Technologien im Alltag von älteren Menschen 
14.08.2020 Rätselhafte Verdunklung von Beteigeuze: Der Staub lichtet sich 
10.08.2020 Vom städtischen Kanaldeckel bis zu monumentaler Architektur 
09.08.2020 Worst-case-scenario für den Katastrophenfall 
08.08.2020 Ältestes Enzym der Zellatmung isoliert 
Juli 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.07.2020 Debarking Heads stärken das Ökosystem Wald und tragen durch Borkenkäferprävention zur Entspannung am Holzmarkt bei 
29.07.2020 Wasser 4.0: Ein „Digitaler Zwilling“ für das Kanalsystem 
28.07.2020 Erste bundesweite Regenmessung mit dem Mobilfunknetz
27.07.2020 Forschungsprojekt entwickelt Lösungen gegen Nitrateinträge ins Grundwasser 
24.07.2020 Grundwasserveränderungen genauer verfolgen 
21.07.2020 Kreislaufwirtschaft: Wieviel Wiederverwertung wollen wir? 
19.07.2020 Mikroplastik in Gewässern charakterisieren: Neues Forschungsprojekt an der Jacobs University Bremen 
18.07.2020 Starkregen-Vorsorge in Sachsen und Europa – neue Website informiert zu geeigneten Maßnahmen
17.07.2020 Erste Bilder der Sonne von Solar Orbiter
15.07.2020 Wind trägt Mikroplastik in die Arktis 
14.07.2020 UN-Klimaziele sind ökonomisch sinnvoll: Ambitionierter Klimaschutz zahlt sich aus 
13.07.2020 Robuste Hochleistungs-Datenspeicher durch magnetische Anisotropie 
09.07.2020 Blick ins Innere einer Batterie 
08.07.2020 Direktbesteuerung von CO2 ermöglicht mehr freiwilliges Handeln im Klimaschutz 
07.07.2020 Neues Verfahren ermöglicht Lithiumabbau in Deutschland 
06.07.2020 Grundwasserschutz auf Spiekeroog – Erstinstallation eines Salzwasser-Überwachungssystems
03.07.2020 Steigende Wassertemperaturen bedrohen Vermehrung vieler Fischarten 
02.07.2020 Überlebenswichtige Signale: So verarbeiten Pflanzen Informationen 
Gesundheit
31.07.2020 Höhere COVID-19 Sterblichkeit nicht alleine durch enge familiäre Kontakte erklärbar 
25.07.2020 Die meisten würden sich impfen lassen, um andere zu schützen 
23.07.2020 Neue Testmethode kann das Coronavirus in stark verdünnten Gurgelproben erkennen 
12.07.2020 Virologe der Universität Leipzig: Haustiere können sich doch mit Coronavirus infizieren 
04.07.2020 „Es ist entscheidend, mit welcher Dynamik die Schwelle von Corona-Neuinfektionen durchbrochen wird“ 
Gesellschaft
26.07.2020 Das Geheimnis erfolgreicher Fußballmannschaften 
22.07.2020 Arbeit ist das halbe Leben 
20.07.2020 Wie das Coronavirus das Reiseverhalten der Deutschen verändert 
16.07.2020 Datenspuren auf dem Smartphone – Das persönlichste Gerät 
11.07.2020 Zukunftsperspektiven für den Güterverkehr 
09.07.2020 When is someone old? 
05.07.2020 Beziehungsgeschichten: Neues Großprojekt am Kilimandscharo erforscht Wert der Natur für den Menschen 
01.07.2020 Wenn Sprachassistenten zuhören, obwohl sie gar nicht sollen 
Juni 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.06.2020 Seegraswiesen am Limit 
29.06.2020 Digitale Wasserwirtschaft: Lücken in der Cybersicherheit 
27.06.2020 Studie zu Biodiversität in Grünanalgen: Natur ja, aber kein Wildwuchs 
25.06.2020 Können Viren ins Grund- und Trinkwasser gelangen? 
24.06.2020 Plastik in der Tiefsee: Nach einem Vierteljahrhundert noch wie neu 
23.06.2020 Wasserbakterien haben einen grünen Daumen 
21.06.2020 Kraftstoffe der Zukunft: Was werden wir tanken? 
20.06.2020 Neue Lösungen für textile Biogasspeichersysteme 
16.06.2020 Neuer Tagungsband zeigt Forschungsstand zu aktuellen Herausforderungen der Energiewende
15.06.2020 Projekt will Wasserstoff-Technologien in der Region Südlicher Oberrhein voranbringen 
12.06.2020 Baustart für Smartes Quartier Durlach: Wärmepumpen und Photovoltaik halbieren CO2-Emissionen in Bestandsgebäuden
11.06.2020 Bootsanstriche sollen Gewässer nicht mehr unnötig belasten 
08.06.2020 Flexible Strom- und Wasserkunden Das digitale Reallabor im Projekt „FLEXITILITY“ startet 
05.06.2020 Energiewende braucht Aufwind: Windräder sollen Kommunen und Bürgern finanziell nutzen 
03.06.2020 Mit KI in der Landwirtschaft Wasser sparen 
Gesundheit
28.06.2020 So wirkt die Temperatur auf Sars-Cov-2 
26.06.2020 Innovative Textilien für Gesichtsmasken können SARS-CoV-2 direkt inaktivieren, wie Forscher aus Berlin und Aachen zeigen 
17.06.2020 Durchfall- und Gelbsuchterreger in Schach halten 
14.06.2020 MCC: Städtische Umweltzonen senken Ausgaben für Herztabletten und Asthmasprays 
10.06.2020 Die Lebenszufriedenheit steigt nach Renteneintritt je nach Geschlecht und Erwerbsstatus 
07.06.2020 Wie finden Männer den Weg in die Krebsberatung? 
04.06.2020 Diabetes mellitus: Ein Risikofaktor für frühe Darmkrebserkrankungen 
02.06.2020 Drei Maßnahmen könnten eine Million Krebsfälle vermeiden 
Gesellschaft
22.06.2020 Toilettenpapier-Bevorratung könnte mit Persönlichkeitsmerkmalen in Verbindung stehen 
19.06.2020 Jung, weiblich und extravertierter? Studie identifiziert typische Nutzer von Facebook, Instagram und WhatsApp 
16.06.2020 Gesundheitsverhalten während der Covid-19-Pandemie: Online-Umfrage gibt rasch Einblicke 
13.06.2020 Trotz Beschäftigungszuwachs: Die Rentenanwartschaften von Frauen stagnieren vielfach aufgrund niedriger Einkommen
09.06.2020 Kommunen und Covid-19 – Herausforderungen und Strategien in Zeiten einer Pandemie 
06.06.2020 Arbeitsrecht: Recht auf Homeoffice – Pflicht oder Segen
01.06.2020 Europäer sind persönlich optimistisch, blicken aber pessimistisch auf das eigene Land 
Mai 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2020 „Schwarzer Stickstoff“: Bayreuther Forscher entdecken neues Hochdruck-Material und lösen ein Rätsel des Periodensystems 
29.05.2020 Studie: »Grüner« Wasserstoff oder »grüner« Strom für die Gebäudewärme? 
27.05.2020 Feste Wehre für Nebenwasserstraßen 
26.05.2020 Zucker macht Braunalgen zu guten Kohlenstoffspeichern 
21.05.2020 Pilotprojekt erfolgreich: Quartierspeicher wichtiger Baustein der Energiewende in Kommunen 
20.05.2020 Coronavirus: Globaler CO2-Ausstoß sinkt um 17 Prozent 
18.05.2020 Weniger Schnee in 78 Prozent der Berggebiete weltweit 
16.05.2020 Weltweit unterschätzt: CO2-Emissionen trockengefallener Gewässerbereiche 
14.05.2020 Energie der Zukunft: Photosynthetischer Wasserstoff aus Bakterien 
12.05.2020 TU Berlin: Salzwasser statt Trinkwasser: Die Gewinnung von Wasserstoff aus Meerwasser hat Zukunftspotenzial 
11.05.2020 Flurschau aus dem Weltall 
10.05.2020 Wasser reinigen, Strom speichern: INM-Autoren publizieren in High-Impact-Journal der Nature-Reihe 
09.05.2020 Hochleistungsspeicher für Biogas – Neues Konzept zur flexiblen Biogasbereitstellung 
08.05.2020 Springbrunnen bald kein Sprungbrett für Keime mehr? 
07.05.2020 Schaufenster Bioökonomie: Neues Anbausystem zieht Salat aus behandeltem kommunalem Abwasser 
05.05.2020 Lieferdrohnen statt Postautos? Studie zeigt: Bisher verbrauchen Drohnen noch zu viel Energie 
04.05.2020 RWI/Stiftung Mercator: Studie in „Nature“ – Autobesitzer unterschätzen Gesamtkosten des eigenen Autos massiv 
02.05.2020 Besser gewappnet bei Überflutungen in der Stadt 
Gesundheit
25.05.2020 Kein Nutzen von Hydroxychloroquin und Chloroquin
24.05.2020 Studie zum Infektionsgeschehen startet an Schulen 
23.05.2020 COVID-19 in Augsburg: Obduktionen zeigen schwere Lungenschädigungen 
22.05.2020 Spülschwamm-Mikrobiom: Was dich nicht umbringt, macht dich härter! 
17.05.2020 Trickreiche Erreger 
15.05.2020 Studie zu durch ACE-Hemmer ausgelösten Schwellungen – Teilnehmer gesucht 
13.05.2020 Wenn Neurodermitis ins Auge geht: Pollen können schwere Bindehautentzündung auslösen 
06.05.2020 Revolutionäres Händedesinfektionssystem für öffentliche Orte 
03.05.2020 Brillen-Flora: das Miniversum vor der Nase 
Gesellschaft
28.05.2020 Der Schwester wie aus dem Gesicht geschnitten 
19.05.2020 Studie: Personen in fester Partnerschaft und mit Kindern sind während der Coronakrise zufriedener 
01.05.2020 Wie viele Menschen wirklich Linkshänder sind 
April 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2020 TU Ilmenau: Pflanzenbestimmung mit Flora Incognita App im März verzehnfacht 
28.04.2020 Entwicklung von tragbaren Messgeräten: Bodenbelastungen sofort erkennen 
27.04.2020 Wie gut ist die weltweite Wasserqualität? Verbundprojekt „GlobeWQ“ startet 
25.04.2020 Elektrochemische Wasserentsalzung der dritten Generation: Saarbrücker Forscher stellen neuartiges Verfahren vor 
23.04.2020 Nachhaltiges Wassermanagement als Schlüssel zur Anpassung an Klimarisiken 
20.04.2020 Regelbare Biogasproduktion – Großtechnische ReBi-Pilotanlage erprobt 
19.04.2020 Algenbeobachtung per Satellit 
18.04.2020 Sonnenstrom für Fassaden 
17.04.2020 Optimierte Leitungsreinigung für Trinkwasserversorger 
14.04.2020 Forschende ermitteln mit neuer Methode, wie widerstandsfähig einzelne Gewässer gegenüber Trockenheit sind 
13.04.2020 Grüne Wasserstoffproduktion in Biogasanlagen 
12.04.2020 Innovative Lösung für Verwertung organischer Abfälle in Paris 
10.04.2020 Mehr als nur Strom: Mit den richtigen Rahmenbedingungen können Biogasanlagen eine Menge für die Gesellschaft leisten 
09.04.2020 Nachhaltige Nutzung von CO2 mittels eines modifizierten Bakteriums 
08.04.2020 Wie Grundwasser die Küstenökosysteme beeinflusst 
07.04.2020 Neue Methode zur Entfernung von Öl aus Gewässern 
05.04.2020 Umweltradioaktivität: Bundesanstalt für Gewässerkunde veröffentlicht einzigartigen Datensatz 
02.04.2020 Klima- und umweltschonende Technologie: Ammoniak als nachhaltiger Energieträger 
Gesundheit
29.04.2020 Die Widerstandskraft, nicht esssüchtig zu werden 
22.04.2020 Zu viel Salz hemmt die Immunabwehr 
16.04.2020 Überstunden erhöhen das Bluthochdruckrisiko 
15.04.2020 Ingwerextrakt hilft nicht zur Prophylaxe von Migräneanfällen 
11.04.2020 Antibiotika: Städter und Kinder nehmen am meisten 
06.04.2020 Stress für die Seele ist eine Strapaze fürs Herz 
04.04.2020 Kurzes, intensives Training verbessert Gesundheit von Kindern 
01.04.2020 Zucker und Süßungsmittel: Lieber weniger süß als Zucker-Ersatz 
Gesellschaft
26.04.2020 BodyMind – TU Dresden bietet Online-Programm zur Körperzufriedenheit erstmals auch für Männer 
24.04.2020 Neuer Forschungszweig iEcology: Was uns die Online-Welt über die natürliche Welt lehren kann 
21.04.2020 Kurzarbeitergeld: Tarifvertragliche Aufstockung auf bis zu 97 Prozent des Nettogehaltes 
03.04.2020 Wie sicher vier- und sechsstellige Handy-PINs sind 
März 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2020 Neuer Methanrechner zur Optimierung von Biogasanlagen jetzt online verfügbar 
27.03.2020 Rätsel um Recycling-Truppe im Meer gelöst 
25.03.2020 Der erste Tiny Forest Deutschlands entsteht in der Uckermark 
23.03.2020 Wasser ist ein knappes Gut 
22.03.2020 Der Antarktis-Faktor: Modellvergleich offenbart zukünftiges Meeresspiegelrisiko 
20.03.2020 DSM tritt der Deutschen Allianz Meeresforschung bei 
19.03.2020 Komplexe biologische Systeme können nicht ohne Chaos existieren 
17.03.2020 Neue Hauptdarsteller im Meeresboden: Eine bislang kaum beachtete Bakteriengruppe im Rampenlicht 
16.03.2020 Deutsche Allianz Meeresforschung stellt sich vor 
13.03.2020 Forschende entdecken eine neue biochemische Verbindung, die Umweltschadstoffe abbauen kann 
10.03.2020 Forschungsvorhaben analysieren Langfristperspektiven für Bioenergieanlagen nach 2020 
08.03.2020 Regenrückhaltebecken bringen Artenvielfalt in den besiedelten Raum 
07.03.2020 Lässt sich Biogas in kleinen Anlagen direkt in Biomethan umsetzen? 
04.03.2020 UV-Licht gegen störenden Unterwasserbewuchs – Innovatives Antifouling-System des IOW jetzt reif für Serienproduktion 
01.03.2020 Internationales Forscherteam stellt Maßnahmen zum Schutz der Tiefsee vor 
Gesundheit
30.03.2020 Ansteckung mit dem Coronavirus: Am meisten gefürchtet sind andere Menschen – und Türklinken 
28.03.2020 Wie lang Coronaviren auf Flächen überleben und wie man sie inaktiviert 
26.03.2020 Nach FSME-Höchststand 2018: Zahl der Erkrankungen gesunken – trotz hoher Zeckenaktivität 
24.03.2020 Was Statine mit den Muskeln machen 
18.03.2020 Studie zeigt: Grippeimpfung ist für Leistungssportler empfehlenswert – auch bei intensivem Training 
14.03.2020 „Dr. Google“: Online nach Krankheitssymptomen zu suchen, wirkt sich negativ auf Psyche aus 
12.03.2020 Diabetesrisiko „Arbeitsplatz“? Welche Berufsgruppen besonders gefährdet für Diabeteserkrankungen sind 
09.03.2020 Ein schwaches Herz schadet auch dem Gehirn 
06.03.2020 Beim Frühstück wird doppelt so viel Energie verbrannt wie beim Abendessen 
03.03.2020 IGF macht’s möglich: Lemgoer Forschungsteam entwickelt neues Verfahren zur Abwehr von Noroviren auf Obst und Gemüse 
Gesellschaft
29.03.2020 Experte des Karlsruher Instituts für Technologie zur Corona-Pandemie: Gesellschaftliche und technische Folgen der Krise 
21.03.2020 Die Abschaffung von Bargeld ist eine Illusion 
15.03.2020 Statement von Prof. Dr. Dr. h. c. Christoph M. Schmidt zum Corona-Maßnahmenkatalog der Bundesregierung 
11.03.2020 Tarifrunden: 2019 Kräftige Lohndynamik, neue Wahlmodelle bei Arbeitszeit, 2020 differenzierte Lage auf dem Arbeitsmarkt 
05.03.2020 Warum verzichten wir? Studie zum Fasten. 
02.03.2020 Das Fehlen von Fachkräften mit Berufsausbildung wird zum Innovationshemmnis 
Februar 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
23.02.2020 Expedition Anthropozän 
21.02.2020 KIT im Rathaus: Städte und Wetterextreme 
20.02.2020 Lasergebohrte Filter sorgen für sauberes Wasser: Projekt SimConDrill für Green Award nominiert 
17.02.2020 Neuer Profilschwerpunkt an der UDE: Wasserforschung 
15.02.2020 Hohe Gaskonzentrationen über dem Roten Meer 
13.02.2020 Mit Wertstoffrecycling die Klimabilanz von Klärwerken verbessern! 
09.02.2020 Wie genau Cyanobakterien CO2 so effizient umwandeln 
07.02.2020 Intelligentes Robotersystems an der TU Bergakademie Freiberg verbessert Trinkwasserkontrolle in Binnengewässern
06.02.2020 Bestäubung funktioniert in Städten besser als auf dem Land 
05.02.2020 Aktuelles aus der Analytik – analytica conference 2020 in München befasst sich mit aktuellen Entwicklungen der Analytik 
02.02.2020 Stromspeicher in der Stadt: Webseite und Erklärvideo zeigen Nutzen für die Energiewende 
Gesundheit
19.02.2020 Ist körperliche Fitness gut für den Kopf? 
16.02.2020 Verkehrslärm in der Nacht schädigt Herz mehr als am Tag 
14.02.2020 Typ-1-Diabetes: Neue Erkenntnisse beleben die Debatte um die Aufnahme von Früherkennungstests in die Regelvorsorge 
12.02.2020 Duftstoffe verbessern Lernen im Schlaf 
10.02.2020 Wetter als Gesundheitsrisiko: Wie sich der Klimawandel auf unseren Körper auswirkt 
08.02.2020 Diabetes-Strategie: Wer braucht Werbung für ungesunde Produkte? 
04.02.2020 Psychosozialen Risiken im Betrieb wirksam begegnen 
01.02.2020 Coronavirus: Berner Forscher berechnen die Ausbreitung 
Gesellschaft
29.02.2020 Networking von Jägern und Sammlern brachte die Menschheit voran 
24.02.2020 Ausgewandert 
18.02.2020 Wer würde einen Menschen opfern, um fünf zu retten? – Weltweite Unterschiede in moralischen Entscheidungen 
11.02.2020 Strafzettel wirken: Bußgelder lassen Temposünder nachhaltig langsamer fahren 
03.02.2020 Mehr im Portemonnaie – Tarifliche Ausbildungsvergütungen legen erneut deutlich zu 
Januar 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2020 Effiziente Nutzung von Abwärme 
30.01.2020 Weltrekord: Wirkungsgrad von Perowskit-Silizium-Tandemsolarzelle springt auf 29,15 Prozent 
29.01.2020 TU Berlin: Gefährliche Keime aus dem Schlamm 
28.01.2020 Gebäude können zu einer globalen CO2-Senke werden – mit dem Baustoff Holz statt Zement und Stahl 
25.01.2020 Von wegen Anglerlatein und Seemannsgarn: Gewässernutzer*innen im Kollektiv so schlau wie wissenschaftliche Expert*innen 
24.01.2020 Wiederverwenden statt Wegwerfen: Leitfaden für Kommunen und Abfallwirtschaft 
22.01.2020 Sieben Millionen Euro für energieproduzierende Kläranlage 
21.01.2020 Wissenschaftler der TU Freiberg entwickeln Verfahren zur Entfernung von Mikroplastik aus Abwasser 
20.01.2020 Blaualgen im Wasser und an Land als Quelle für Methan identifiziert 
18.01.2020 Nature-Publikation: Aquakultur verknappt Phosphor und gefährdet Nahrungssicherheit 
17.01.2020 Klimafaktor Wolken – Feldkampagne „EUREC4A“ gestartet, um Klimarätsel zu entschlüsseln 
15.01.2020 TU Graz-Forschende entschlüsseln Verhalten von Wassermolekülen 
13.01.2020 Grünere Frühlinge verursachen trockenere Sommer auf der Nordhalbkugel 
12.01.2020 Meeresspiegel-Anstieg oder Temperaturerhöhung: Klimaziel neu definiert 
10.01.2020 Die Wärmewende beginnt im Stadtteil – Konzepte für den urbanen Raum entwickelt 
07.01.2020 Dünger aus Klärschlamm 
06.01.2020 Klimafreundliche Energie aus Abwärme 
02.01.2020 Drehscheibe für Energie 
Gesundheit
27.01.2020 Mit dem eigenen Dicksein leben und umgehen 
26.01.2020 Mehr Menschen stehen Impfungen positiv gegenüber – Neue Studiendaten der BZgA 
23.01.2020 Waschmaschinen-Flora: Die Stinker sitzen im Bullauge 
16.01.2020 Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder 
08.01.2020 Nervenschmerzen frühzeitig verhindern 
05.01.2020 Neue Wirkstoffe gegen multiresistente Keime 
03.01.2020 Artemisinin-Resistenz bei Malariaparasiten entschlüsselt 
Gesellschaft
19.01.2020 Wie das Gehirn Ereignisse vorhersagt 
14.01.2020 Der Partner-Pay-Gap ist weiter vorherrschend – Männer bleiben die Haupt-Brotverdiener in Doppelverdienerhaushalten 
11.01.2020 Immer gegen den Uhrzeigersinn 
09.01.2020 Nicht Ost-West macht den Unterschied, sondern oben und unten 
04.01.2020 Neues Jahr, mehr Gehalt? Wann sich der kritische Blick auf die Gehaltsabrechnung auszahlt, welche Informationen helfen 
01.01.2020 IAB-Arbeitsmarktbarometer: Arbeitsmarkt geht stabil ins nächste Jahr 

Migration im Schulbuch – Wie Bildungsmedien Migration und Migrierende abbilden

Corina Härning Stabsstelle Kommunikation und Marketing
Universität Augsburg
„Migration und Bildungsmedien“ heißt ein neuer Tagungsband, den die Augsburger Pädagogin Prof. Dr. Eva Matthes herausgegeben hat. Interdisziplinär, international, historisch und aktuell beleuchtet er Entwicklung und Herstellung von Bildungsmedien, insbesondere Schulbüchern, für Lernende mit Migrationshintergrund.

Dass Bildungserfolg mit dem sozialen, familiären und gesellschaftlichen Umfeld direkt zusammenhängt, ist bekannt. Insbesondere Migrationserfahrungen – eigene und familiäre – sind prägend für den Lebenslauf und den Bildungsweg. Eva Matthes, Professorin für Pädagogik an der Philosophisch-Sozialwissenschaftlichen Fakultät hat nun mit Sylvia Schütze (Universität Bielefeld) einen Sammelband herausgegeben, der sich mit Bildungsmedien für und über Migranten und Migrantinnen befasst. Es geht um Integrationsbemühungen durch Bildungsmedien und förder-, aber auch hinderliche Unterrichts- und Lernbedingungen in diesem Zusammenhang.

Integrationshindernisse bewältigen
Namhafte Wissenschaftler und Wissenschaftlerinnen erläutern die Bedeutung des jeweiligen kulturellen Hintergrundes von Kindern für die schulische Integration und zeigen anhand von Beispielen aus anderen Ländern wie Bildungsmedien aussehen und Integrationshindernisse bewältigt werden können. Weitere Beiträge untersuchen inwieweit sich die Erstklass-Fibel an Kinder mit Migrationshintergrund richtet, was Sprachlern-Apps im Unterricht zur Integration beitragen können und wie Lehrkräften mit hoher Sensibilisierung die Balance gelingen kann, Vielfalt und „Anders-Sein“ zu integrieren ohne diese durch Überbetonung in stereotyper Form erst zu herzustellen (doing difference). Zwar werden hauptsächlich Materialien für den Schulunterricht als Bildungsmedien verstanden, zwei Beiträge widmen sich jedoch auch Bilderbüchern und Gesellschaftsspielen.

Vielfalt adäquat darstellen
Wer sich mit Bildungsmedien für Menschen mit Migrationshintergrund beschäftigt, ist schnell auch bei der ebenso relevanten Frage wie diese Menschen, ihre Hintergründe und Geschichten, inhaltlich dargestellt werden. Auch dieser Frage geht der Sammelband nach.

Eine Analyse von deutschen Englischbüchern wirft die Frage auf inwiefern die Lehrwerke Migranten und Migrantinnen als Andere oder als selbstverständlicher Teil einer Zuwanderungsgesellschaft darstellen und stellt fest, dass sie noch immer sehr vereinfacht, ja stereotyp dargestellt werden. Gerade Englisch bietet etliche landeskundliche Anlässe für das Thema Migration. Die komplexen und kontroversen Kontexte von Migration und ihren Hintergründen werden jedoch in den Lehrwerken vielfach ignoriert.

Die Darstellung von Migration in Schulbüchern, so ein weiterer Beitrag, habe immer auch eine diskursive Komponente, mit der Migrantinnen und Migranten sich ihrer bewusst werden und die Vorstellungen und Handlungen auslösen könne.

Eine hohe Verantwortung für den Einsatz der Bildungsmedien im Unterricht komme den Lehrkräften zu, die sie einsetzen und moderieren. Aber auch die Medien selbst sollten so gestaltet sein, dass sie auch im autodidaktischen Lernen funktioneren, z. B. in Homeschooling-Settings während der aktuellen Corona-Pandemie.

„Migration und Bildungsmedien – Migration and Educational Media“ ist bei Klinkhardt forschung erschienen. Die Beiträge wurden auf der Jahrestagung der Internationalen Gesellschaft für Schulbuch- und Bildungsmedienforschung (IGSBi) im Oktober in Chur (Schweiz) vorgestellt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Matthes
Pädagogik
Telefon: 0821 598 -5574
eva.matthes@phil.uni-augsburg.de

Originalpublikation:
https://www.klinkhardt.de/verlagsprogramm/2410.html

Quelle: IDW
(nach oben)


Von Sonnenlicht zu Wasserstoff

Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam aus Jena und Ulm produziert Wasserstoff mithilfe von Licht

Die Gewinnung von molekularem Wasserstoff als alternativer, erneuerbarer und sauberer Energieträger ausgehend von Wasser und Licht ist ein zentrales Element der solaren Energieumwandlung und -speicherung. Ein Team des Sonderforschungsbereichs „CataLight“ der Universitäten Jena und Ulm hat neuartige organische Farbstoffe mit edelmetallfreien Katalysatormolekülen kombiniert, die unter Lichtbestrahlung in Wasser gasförmigen Wasserstoff freisetzen. In der gerade veröffentlichten Studie heißt es, das Substitut habe einen bemerkenswerten Einfluss in Bezug auf Langlebigkeit und Wirkung nach der Anregung durch sichtbares Licht gezeigt.

Photosynthese als Inspiration
Die Forscher der Friedrich-Schiller-Universität, des Leibniz-Instituts für Photonische Technologien (Leibniz-IPHT) und der Universität Ulm haben sich hierfür von der Natur inspirieren lassen. Dort findet die effektivste Speicherung von Sonnenlicht in chemischen Bindungen in der Photosynthese statt. In den Chloroplasten sind die Lichtsammel- und Reaktionskomplexe in der Thylakoidmembran fest angeordnet. Eine solche Anordnung erreichen die Forscher der Arbeitsgruppe um Prof. Dr. Felix Schacher mithilfe von Polymeren, die sowohl mit hydrophilen als auch hydrophoben Stoffen interagieren. Diese geladenen Propfcopolymere werden künstlich hergestellt.

Organische Farbstoffe, mehr als eine Alternative
Während die meisten Ansätze künstlicher Photosynthese auf Edelmetallkomplexe als lichtabsorbierende Materialien setzen, wird in der Arbeitsgruppe von Prof. Dr. Kalina Peneva an metallfreien Farbstoffen gearbeitet. Die Jenaer Wissenschaftlerinnen und Wissenschaftler setzen auf Rylen-Farbstoffe, die besonders stabil gegenüber Licht und chemischen Prozessen sind.

„Die in der Forschung eingesetzten, lichtabsorbierenden Metallkomplexe enthalten oftmals Ruthenium oder Iridium. Diese Metalle machen am Massenanteil der Erdkruste allerdings weniger als 0,1 Millionstel Prozent aus und sind daher perspektivisch limitiert,“ erklärt Prof. Dr. Kalina Peneva. Der Einsatz von photoaktiven Verbindungen auf organisch-chemischer Basis sei deutlich nachhaltiger als die Verwendung von Schwermetallen.

Spektroskopie – eine molekulare Lupe
Mit der Absorption von Licht allein entsteht allerdings noch kein Wasserstoff. Hierzu müssen die Energieniveaus der Farbstoffe und Katalysatormoleküle nach der Absorption präzise zueinander passen. Um diese Energieniveaus zu ermitteln, bedienen sich die Forscher der Arbeitsgruppe um Prof. Dr. Benjamin Dietzek spektroskopischer Methoden, bei denen aus der Wechselwirkung von Materie mit definiertem Licht unter anderem Rückschlüsse auf die aufgenommene und im Molekül verbliebene Energie gezogen werden können.

Interdisziplinäre Kooperationen lösen die Probleme der Zukunft
Neben der wissenschaftlichen Erkenntnis zeigt sich auch, dass die Probleme der Zukunft am effektivsten mit interdisziplinärer Zusammenarbeit angegangen werden. Denn neben organischen Chemikern und Polymerforschern lieferten auch Physikochemiker des Leibniz-IPHT sowie anorganische Chemiker und Chemieingenieure der Universität Ulm wertvolle Beiträge und Erkenntnisse.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kalina Peneva
Chemisch-Geowissenschaftliche Fakultät der Friedrich-Schiller-Universität Jena
Technikum Optik, Lessingstraße 8, 07743 Jena
Tel.: 03641 / 948790
E-Mail: kalina.peneva@uni-jena.de

Originalpublikation:
D. Costabel, A. Skabeev, A. Nabiyan, Y. Luo, J. Max, A. Rajagopal, D. Kowalczyk, B. Dietzek, M. Wächtler, H. Görls, D. Ziegenbalg, Y. Zagranyarski, C. Streb, F. H. Schacher, K. Peneva: 1,7,9,10‐tetrasubstituted PMIs accessible via decarboxylative bromination: Synthesis, Characterization, Photophysical Studies and Hydrogen Evolution Catalysis. Chemistry – A European Journal (2020). DOI: 10.1002/chem.202004326

Quelle: IDW
(nach oben)


Klimakrise lässt Seen schrumpfen

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Autoren plädieren in Fachartikel für mehr Aufmerksamkeit für Regionen, in denen der Wasserpegel sinkt

Der Klimawandel wirkt sich nicht nur auf Ozeane aus, sondern auch auf große Seen im Binnenland. Das Kaspische Meer ist als weltgrößter See ein Musterbeispiel dafür, wie sich ein Gewässer verändern kann und wird. In einem Artikel in der Nature-Zeitschrift Communications Earth & Environment gehen Dr. Matthias Prange vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen und seine Kollegen auf die möglichen ökologischen, politischen und wirtschaftlichen Folgen sowie auf Lösungsansätze ein.

Während durch die Klimakrise weltweit die Meeresspiegel ansteigen und so die Infrastruktur in Küstennähe bedrohen, führen höhere Temperaturen andernorts zum genauen Gegenteil. Dort sinken Pegel und verursachen ebenfalls massive Probleme. Sinkende Pegel aber, zu diesem Schluss kommen Matthias Prange, Thomas Wilke von der Justus-Liebig-Universität Gießen und Frank P. Wesselingh von der Universität Utrecht und dem Naturalis Biodiversity Center Leiden (Niederlande), erfahren weniger Aufmerksamkeit, obwohl die Folgen ähnlich gravierend sind.

„Das Kaspische Meer steht repräsentativ für viele andere Seen auf der Welt. Dass laut unseren Modellen wegen des Klimawandels hier ein Binnengewässer dramatisch schrumpft, ist vielen Menschen gar nicht bewusst“, sagt Matthias Prange. Auch im Bericht des Weltklimarates (IPCC) fehlten Seen und blieben die sozialen, politischen und wirtschaftlichen Folgen für die betroffenen Regionen aufgrund der globalen Erwärmung unbeachtet. „Das muss sich ändern, wir brauchen mehr Studien und mehr Kenntnis über Folgen globaler Erwärmung in dieser Region.“ Ziel müsse es sein, sich der Klimawandel-Folgen für Binnengewässer bewusst zu werden, damit Anpassungsstrategien entwickelt werden können – auch für andere große Seen und Regionen, die vor ähnlichen Herausforderungen stehen.

Das Kaspische Meer trägt die Bezeichnung aufgrund seiner Größe – es ist der größte See der Welt – und wegen seines relativ hohen Salzgehalts von ungefähr einem Prozent, was in etwa einem Drittel der Salzkonzentration der Ozeane entspricht. Der größte Zufluss ist die Wolga, eine natürliche Verbindung zum Ozean hat das Kaspische Meer nicht. Der Wasserpegel basiert auf einem Gleichgewicht von Zufluss, Niederschlag und Verdunstung. Durch die globale Erwärmung nimmt die Verdunstung zu und der Wasserpegel fällt.

Regional ist das Kaspische Meer bedeutend als Wasserreservoir – und zwar trotz des Salzgehalts, als Lebensraum und als Wirtschaftsstandort. Zu den Anrainerstaaten gehören Kasachstan, Turkmenistan, Iran, Aserbaidschan und Russland. Künftig könnte der Wasserpegel je nach Grad der globalen Erwärmung um zwischen 9 und 18 Metern in diesem Jahrhundert sinken. „Das würde sich nicht nur auf die Biodiversität, verschiedene Arten und die Habitate auswirken, die dann verschwinden würden. Auch die Ökonomie – Häfen, die Fischerei und Fischzucht – aller Anrainerstaaten wäre betroffen.“ Aus diesem Grund plädieren die Autoren dafür, künftig am Beispiel des Kaspischen Meeres wissenschaftlich zu untersuchen und zu bewerten, wie anfällig bestimmte Regionen durch den sinkenden Wasserspiegel sind. Da keine Nation dadurch entstehende Konflikte allein lösen könne, schlagen sie eine globale Arbeitsgruppe vor, die Strategien entwickelt und koordiniert. „Internationale Klimafonds“, heißt es im Artikel, „können die Möglichkeit bieten, Projekte und Anpassungsmaßnahmen zu finanzieren, wenn Veränderungen des Seespiegels auf den Klimawandel zurückgeführt werden.“

Beteiligte Institute:
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Institut für Tierökologie und spezielle Zoologie, Justus-Liebig-Universität Gießen
Naturalis Biodiversity Center, Leiden (Niederlande)
Department Earth Sciences, Utrecht University (Niederlande)

Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.

Wissenschaftliche Ansprechpartner:
Dr. Matthias Prange
Geosystemmodellierung
Telefon: 0421 21865430
E-Mail: mprange@marum.de

Originalpublikation:
Matthias Prange, Thomas Wilke, Frank P. Wesselingh: The other side of sea level change. Communications Earth & Environment 2020. DOI: 10.1038/s43247-020-00075-6

Anhang
PDF Pressemitteilung

Quelle: IDW
(nach oben)


Globale Niederschlagsveränderungen infolge des Klimawandels zu erwarten

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Änderung der Temperaturunterschiede zwischen Tropen und polaren Regionen ist zentrales Steuerelement der atmosphärischen Zirkulation und in der Folge Ursache regionaler Klimaveränderungen

Das Klimasystem der Erde wird ganz wesentlich von den Temperaturunterschieden zwischen den Tropen und den Polen bestimmt. Die Erderwärmung dürfte zur Folge haben, dass sich die atmosphärische Zirkulation global verändert und sich nach und nach ein ähnlicher Modus wie vor 5.000 bis 10.000 Jahren einstellt. Zu diesem Ergebnis kommt eine Studie, die unter der Leitung von Dr. Michael Deininger erstellt und in Nature Communications veröffentlicht wurde.

Deininger, Mitarbeiter am Institut für Geowissenschaften der Johannes Gutenberg-Universität Mainz (JGU), ging der Frage nach, wie sich regionale Klimasysteme seit Beginn der jetzigen Warmzeit vor gut 10.000 Jahren verändert haben und welche Schlüsse daraus zu ziehen sind. Dazu hat der Paläoklimatologe Niederschlagszeitreihen von verschiedenen Klimaarchiven herangezogen. „So konnten wir die Sommerniederschläge in den Monsungebieten in Afrika und Südamerika präzise rekonstruieren und diese mit Niederschlagsveränderungen in den nördlichen Breiten vergleichen und sie zu Temperaturveränderungen in Relation setzen“, erklärt Deininger. An der Studie waren auch Wissenschaftlerinnen und Wissenschaftler aus Australien, Brasilien, Mexico, Irland, Österreich und Südafrika beteiligt.

Entwicklung regionaler Niederschläge ist während 10.000 Jahren synchron verlaufen

Durch die unterschiedlich starke Erwärmung der Erde am Äquator und an den Polen infolge der Verteilung der Sonneneinstrahlung kommt es zu einem Temperaturgefälle, das vereinfacht gesagt dazu führt, dass die atmosphärische Zirkulation Energie in Richtung der Pole transportiert. Veränderungen dieses Temperaturunterschieds durch Variationen der Sonneneinstrahlung beeinflussen im Gegenzug die atmosphärische Zirkulation und in weiterer Folge regionale Niederschlagsmuster.

Wie die neue Studie nun zeigt, hat sich das regionale Niederschlagsgeschehen in den nördlichen Breiten, Afrika und Südamerika während der vergangenen 10.000 Jahre praktisch synchron verändert. „Wir behaupten, dass diese regionalen Klimaveränderungen zusammenhängen und dass sie hauptsächlich durch die Veränderungen der solaren Einstrahlung und den damit einhergehenden Temperaturunterschieden zwischen den Tropen und polaren Regionen verursacht wurden“, so Deininger.

Aus der Vergangenheit für die Zukunft lernen

Die an der Studie beteiligten Wissenschaftlerinnen und Wissenschaftler hat insbesondere die Frage angetrieben, ob man aus der Vergangenheit für die Zukunft lernen kann. Durch die aktuelle globale Erwärmung der Erde verringert sich das Temperaturgefälle zwischen dem Äquator und den Polen – vor allem weil sich die Erwärmung an den Polen besonders stark auswirkt. Dies kann die Westwinde in den mittleren Breiten der Nordhalbkugel abschwächen, einen schwächeren südamerikanischen Monsun und einen stärkeren afrikanischen Monsun bewirken, während gleichzeitig die Niederschläge in der Sommerregenzone Südostafrikas zurückgehen. In der Folge werden sich regionale Niederschlagsmuster verändern und können so Wasserknappheit auf der einen Seite und Überschwemmungen auf der anderen Seite verursachen. „Wir müssen“, so das Fazit des Paläoklimatologen Michael Deininger, „die Änderung der Temperaturdifferenz als zentrales Steuerelement des Klimasystems künftig mehr in Betracht ziehen.“

Bildmaterial:
https://download.uni-mainz.de/presse/09_geowiss_klima_veraenderung.jpg
Klimaarchive, wie der abgebildete Bohrkern eines Sinterwalls (Speläothem), erlauben es Klimaforschern, vergangene Klimaveränderungen zu rekonstruieren und das Klimasystem besser zu verstehen.

Weiterführende Links:
https://www.geowiss.uni-mainz.de/isotopengeochemische-palaeoklimatologie-spelaeo… – Isotopengeochemische Paläoklimatologie/ Speläothemforschung
https://www.geowiss.uni-mainz.de/ – Institut für Geowissenschaften

Lesen Sie mehr:
https://www.uni-mainz.de/presse/aktuell/320_DEU_HTML.php – Pressemitteilung „Stalagmiten liefern Paläo-Klimadaten“ (02.02.2017)
https://www.magazin.uni-mainz.de/4445_DEU_HTML.php – JGU-Magazin-Beitrag „Tropfsteine werden zum Klimaarchiv“ (7. April 2016)
https://www.uni-mainz.de/presse/73407.php – Pressemitteilung „Geowissenschaftler Denis Scholz erhält Heisenberg-Professur der Deutschen Forschungsgemeinschaft“ (05.11.2015)

Wissenschaftliche Ansprechpartner:
Dr. Michael Deininger
Speläothemforschung
Institut für Geowissenschaften
Johannes Gutenberg-Universität Mainz
55099 Mainz
E-Mail: michael.deininger@uni-mainz.de
https://www.geowiss.uni-mainz.de/team/dr-michael-deininger/

Originalpublikation:
Michael Deininger et al.
Inter-hemispheric synchroneity of Holocene precipitation anomalies controlled by Earth’s latitudinal insolation gradients
Nature Communications, 28. Oktober 2020
DOI: 10.1038/s41467-020-19021-3
https://www.nature.com/articles/s41467-020-19021-3

Quelle: IDW
(nach oben)


Podcast: Wer haftet beim Unfall des autonomen Autos?

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der dritte Folge des Podcast-Specials zum SFB „Hybrid Societies“ geht es um die zunehmende Automatisierung von Maschinen im Alltag und welche Konsequenzen das für uns als Gesellschaft hat

Kommen Sie kurz mit und stellen Sie sich Folgendes vor: Sie steigen morgens in Ihren Wagen, geben Ihr Ziel ein und lehnen sich danach entspannt zurück oder arbeiten am Computer – den Weg zur Arbeit findet der Wagen allein. Rote Ampeln, Fußgängerinnen und Fußgänger oder Hindernisse sind kein Problem für Künstliche Intelligenz (KI) und Assistenzsysteme. Willkommen in der Zukunft.

Aber dann passiert es doch: Unfall. Wer haftet jetzt bei Sach- oder sogar Personenschaden? Die Fahrzeughersteller, die KI oder doch die Fahrerin oder der Fahrer? Und überhaupt – wer trägt die Verantwortung? Darum geht es in der neuen Folge „Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB „Hybrid Societies“ der Technischen Universität Chemnitz.

Redakteur und Moderator Thibaud Schremser spricht in der dritten Folge mit Prof. Dr. Josef Krems, Leiter der Forschergruppe Allgemeine Psychologie und Arbeitspsychologie, und Prof. Dr. Dagmar Gesmann-Nuissl, Inhaberin der Professur für Privatrecht und Recht des geistigen Eigentums. Beide forschen im Rahmen des Sonderforschungsbereichs „Hybrid Societies und bringen ihre Expertise unter anderem aus ihrer Forschung zum autonomen Fahren sowie aus dem Bereich Normung und Standardisierung bei „Ethik / Responsible AI“ und „IT-Sicherheit bei KI-Systemen ein.

Etabliertes Format der Wissenschaftskommunikation
Damit die Arbeit des Sonderforschungsbereichs mehr Menschen erreicht, erscheint seit dem 9. Oktober 2020 das Podcast-Special „Mensch – Maschine – Miteinander“. Special deswegen, weil dieser Podcast kein neues Format innerhalb des Kommunikations-Portfolios der TU Chemnitz ist, sondern als Mini-Serie die Reihe „TUCscicast“ ergänzt.

„Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB Hybrid Societies“ wird gemeinsam produziert vom SFB Hybrid Societies, der TU Chemnitz und podcastproduzenten.de, Schwester-Firma des Online-Radios detektor.fm, das seit 2009 hochwertige Podcasts für Wirtschaft, Gesellschaft und Forschung produziert. Redakteur des Podcasts ist Thibaud Schremser.

Der Podcast kann auf verschiedenen Wegen gehört werden:
– im Web-Player der TU Chemnitz (https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php),
– in jeder Podcast-App über unseren RSS-Feed,
auf Spotify, Deezer, Apple Podcast und überall dort, wo es gute Podcasts gibt.

Wissenschaftliche Ansprechpartner:
Produktion TU Chemnitz: Dr. Andreas Bischof & Matthias Fejes; Redaktion: Pascal Anselmi; Technische Produktion & Audio: podcastproduzenten.de

Kontakt: tucscicast@tu-chemnitz.de

Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php

Quelle: IDW
(nach oben)


Rekord-Rückgang der globalen CO2-Emissionen dank Corona

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
• LMU-Geografin Julia Pongratz analysiert zusammen mit dem Global Carbon Project den Emissionsrückgang in Zeiten von Corona – fossile CO2-Emissionen sanken 2020 um 7% im globalen Schnitt (EU27: -11%, USA: -12%). Treiber dieser Entwicklung ist vor allem der Transportsektor
• Keine deutliche Verbesserung zeigt sich hingegen in den Emissionen aus Landnutzung
• CO2-Emissionen insgesamt – aus fossilem CO2 und Landnutzung – werden 2020 bei etwa 39 Milliarden Tonnen CO2 liegen.

Die Corona-Pandemie hat zu einem deutlichen Rückgang der globalen Kohlendioxid-Emissionen geführt. Dies zeigt die jährliche Bilanz des Global Carbon Projects (GCP), eines weltweiten Zusammenschlusses von Klimaforschern, an dem die LMU-Geografin Julia Pongratz mit ihren Kolleginnen Selma Bultan und Kerstin Hartung maßgeblich beteiligt ist. Die Wissenschaftler analysieren, welche Mengen an Treibhausgasen jährlich freigesetzt beziehungsweise der Atmosphäre durch Aufnahme in Landvegetation und Ozeane entzogen werden.

Der neueste Bericht des GCP zeigt, dass es fünf Jahre nach dem Pariser Klimaabkommen gelungen ist, die Zunahme der globalen CO2-Emissionen zu verlangsamen: In der Dekade von 2010-2019 gingen die fossilen CO2-Emissionen bereits in 24 Ländern mit wachsenden Volkswirtschaften deutlich zurück, was auch auf ein Greifen von Klimapolitik zurückzuführen sein könnte. Im Jahr 2020 sanken die weltweiten fossilen Emissionen auch aufgrund der Einschränkungen durch die Corona-Pandemie um den Rekordwert von 7 Prozent oder umgerechnet etwa 2,4 Milliarden Tonnen CO2 auf 34 Milliarden Tonnen CO2. Dieser Rückgang ist erheblich größer als frühere signifikante Rückgänge von 0,5 (1981 und 2009), 0,7 (1992) und 0,9 (1945) Milliarden Tonnen CO2. Um die Pariser Klimaziele nicht zu überschreiten, müssen zwischen 2020 und 2030 im Durchschnitt jährlich 1 – 2 Milliarden Tonnen CO2 eingespart werden.

Besonders deutlich war der Rückgang der Emissionen in den USA (-12%) und in den EU-Mitgliedsstaaten (-11%). „Hier trafen verringerte Emissionen aus der Kohlenutzung und die Auswirkungen der pandemiebedingten Beschränkungen zusammen“, erklärt Pongratz. „Schon 2019 stiegen die CO2-Emissionen langsamer als in den Vorjahren. Mit der Corona-Pandemie sanken die Emissionen nun deutlich, deshalb ist 2020 ein zentrales Jahr. Ob dies einen Trend einläutet, hängt allerdings stark davon ab, wie sich die Maßnahmen in den Covid-19-Stimuluspaketen weltweit ausgestalten. Wir beobachten bereits, dass die Emissionen sich langsam wieder dem Niveau von 2019 annähern.“

Transportsektor bringt die größten Einsparungen
Für den größten Teil des Rückgangs der Emissionen im Jahr 2020 war der Transportsektor verantwortlich. Auch im Dezember 2020 lagen die Emissionen aus dem Straßen- und Luftverkehr aufgrund der anhaltenden Beschränkungen immer noch um etwa 10% bzw. 40% unter den Werten von 2019. Ob der 2020 auch Corona-bedingte Rückgang der Emissionen sich in der Zukunft fortsetzen wird, kann derzeit noch nicht abgeschätzt werden, warnen die Forscher. Nach dem Rückgang der Emissionen aufgrund der globalen Finanzkrise 2008, stiegen die Emissionen im Jahr 2010 sprungartig um 5% an als sich die Wirtschaft erholte. Es besteht die Befürchtung, dass ein sprunghafter Anstieg der CO2-Emissionen auch 2021 passiert.

Die CO2-Emissionen insgesamt – aus fossilem CO2 und aus Landnutzung – liegen 2020 bei etwa 39 Milliarden Tonnen CO2, trotz des Rückgangs also immer noch auf einem Niveau wie etwa 2012. Dies ließ den CO2-Gehalt in der Atmosphäre weiter ansteigen. Im Jahresmittel wird er voraussichtlich einen neuen Rekordwert von 412 ppm (parts per million) erreichen. Das entspricht einer Zunahme von 48 Prozent gegenüber dem vorindustriellen Wert. Stabilisieren wird sich der atmosphärische CO2-Gehalt und damit das Weltklima erst, wenn die globalen CO2-Emissionen sehr nahe bei Null liegen, so die Forscher.

Die Land- und Ozeansenken nehmen den Emissionen entsprechend kontinuierlich zu, und haben im Jahr 2020 etwa 54% der gesamten anthropogenen CO2-Emissionen aufgenommen.

Emissionen aus der Landnutzung bleiben unverändert
Julia Pongratz untersucht insbesondere, welchen Einfluss die Landnutzung durch den Menschen auf die globale Kohlenstoffbilanz – und damit auch das Klima – hat. Im Vergleich zu den ungewöhnlich hohen Emissionen durch Landnutzungsänderungen im Jahr 2019, die unter anderem durch außerordentlich trockene Bedingungen in Indonesien und die höchsten Entwaldungsraten im Amazonasgebiet seit 2008 verursacht waren, lagen die Werte 2020 niedriger und entsprachen dem Durchschnitt des letzten Jahrzehnts.

„Erstmals konnten wir für 2020 zudem auch Brutto-Werte für die Auswirkung von Landnutzungsänderungen auf das globale Kohlenstoffbudget abschätzen“, sagt die Geografin. Dabei fanden die Wissenschaftler, dass durch Landnutzungsänderungen – hauptsächlich durch Entwaldung – ungefähr 16 Milliarden Tonnen CO2 freigesetzt wurden. Dem gegenüber stehen knapp 11 Milliarden Tonnen, die hauptsächlich durch die Aufgabe landwirtschaftlicher Nutzflächen wieder aufgenommen wurden. Netto waren die Emissionen aus Landnutzungsänderungen mit etwa 6 Milliarden Tonnen CO2 ähnlich hoch wie im vergangenen Jahrzehnt. „Wir sehen also in diesem Bereich noch keine Reduktion. Die Entwaldung schreitet vor allem in tropischen Regionen immer noch stark fort, und im Schatten von Covid sind die Emissionen aus der Landnutzung in der öffentlichen Wahrnehmung zurückgetreten“, stellt Pongratz fest. „Maßnahmen zum besseren Landmanagement könnten sowohl der Entwaldung Einhalt gebieten, als auch dazu beitragen, die CO2-Senke durch Nachwachsen natürlicher Vegetation zu vergrößern.“

Das Team von 86 Klimaforschern aus aller Welt veröffentlicht die CO2-Bilanz 2020 in der Fachzeitschrift Earth System Science Data. Das Global Carbon Budget 2020 ist die 15. Ausgabe der jährlichen Gutachten. Aus Deutschland sind neben Julia Pongratz, Selma Bultan und Kerstin Hartung auch Wissenschaftlerinnen und Wissenschaftler des Alfred-Wegener-Instituts (Bremerhaven), des Max-Planck-Instituts für Meteorologie (Hamburg), des Max-Planck-Instituts für Biogeochemie (Jena), des Karlsruhe Institute of Technology, des GEOMAR Helmholtz-Zentrums für Ozeanforschung (Kiel) und des Leibniz-Instituts für Ostseeforschung (Warnemünde) beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Julia Pongratz
LMU
Lehrstuhl für Physische Geographie und Landnutzungssysteme
Tel.: +49 (0) 89 / 2180 – 6652
E-Mail: julia.pongratz@geographie.uni-muenchen.de

Originalpublikation:
Pierre Friedlingstein et al.:
Global Carbon Budget 2020.
Earth System Science Data 2020
DOI: 10.5194/essd-12-3269-2020
https://essd.copernicus.org/articles/12/3269/2020/

Weitere Informationen:
Daten und Abbildungen: http://www.globalcarbonproject.org/carbonbudget
Datenatlas: http://www.globalcarbonatlas.org
Tägliche Emissionen from Carbon Monitor https://carbonmonitor.org/

Quelle: IDW
(nach oben)


Erstmals Glyphosat-Nachweis im Meer: IOW entwickelt neue Methode und führt erfolgreiche Messungen in der Ostsee durch

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Glyphosat ist einer der weltweit meistgenutzten Unkrautvernichter. Das umstrittene Herbizid, das unter anderem im Verdacht steht, krebserregend zu sein, wird auch in Deutschland intensiv genutzt. Vom Land gelangt es in Flüsse, die es ins Meer spülen. Wie viel sich dort findet, war allerdings bisher unbekannt, denn in Salzwasser waren Glyphosat und sein Abbauprodukt Aminomethylphosphonsäure (AMPA) aus methodischen Gründen nicht nachweisbar. Marisa Wirth vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) hat nun eine neue Methode entwickelt, mit der beide Stoffe im Meer zuverlässig gemessen werden können. Damit konnte sie Glyphosat und AMPA erstmals in der Ostsee nachweisen.

Glyphosat, das als sogenanntes „Totalherbizid“ vor allem in Landwirtschaft, Gartenbau und Industrie genutzt wird, aber auch in Privathaushalten häufig zur Anwendung kommt, gelangt durch Regen- und Winderosion von den Einsatzflächen in Bäche, Flüsse und Seen. Dementsprechend kann es gemeinsam mit seinem durch biologische Prozesse entstehenden Abbauprodukt, der Aminomethylphosphonsäure (AMPA), weltweit im Süßwasser nachgewiesen werden. IOW-Forscher konnten beide Stoffe auch schon in Ästuaren nachweisen, die in die Ostsee münden, niemals jedoch im Meer selbst. Wie toxisch das Herbizid auf Meeresorganismen wirkt, ist nicht abschließend geklärt.

„Als Grundvoraussetzung, um das Gefahrenpotenzial einer Substanz für ein Ökosystem beurteilen zu können, muss man zu allererst herauszufinden, ob und in welchen Konzentrationen die Substanz dort nachgewiesen werden kann“, hebt Marisa Wirth hervor, die sich in ihrer Doktorarbeit am IOW auf den Nachweis von Glyphosat in Umweltproben spezialisiert hat. „Ausgangspunkt für unsere aktuelle Studie war daher die Frage, ob Glyphosat und AMPA tatsächlich nicht im Meer ankommen – etwa durch biologischen Abbau und Ablagerung in den Fließgewässern –, oder ob es schlichtweg methodische Schwierigkeiten sind, die bislang einen Nachweis in marinen Ökosystemen verhindert haben“, erläutert die Meereschemikerin weiter.

Eine aus den Ästuar-Studien bekannte Hürde für einen zuverlässigen Nachweis im Meer ist die starke Verdünnung der beiden Zielsubstanzen, je weiter man sich von den Flussmündungen entfernt und Proben im offenen Meer nimmt. „Bevor man Glyphosat und AMPA mit instrumentellen Mitteln – Flüssigchromatographie und Massenspektrometrie – überhaupt messen kann, werden die Proben so stark aufkonzentriert, dass die Geräte die Substanzen erfassen können“, schildert Wirth einen wichtigen Arbeitsschritt in der Glyphosat-Analytik. Bei Meerwasserproben erwies sich für diesen Schritt bislang das darin enthaltene Salz als Problem: Bei der Festphasenextraktion, mit der man die Aufkonzentration erreicht und bei der die Zielsubstanzen aus einer flüssigen Probe erst an ein festes Trägermaterial gebunden und danach wieder in ein sehr viel kleineres Flüssigkeitsvolumen überführt werden, verhindern die Salzionen die Bindung der Glyphosat- und AMPA-Moleküle an die feste Phase. „Unsere Zielsubstanzen ‚rauschen‘ also quasi ungehindert durch die Festphase durch und gehen verloren, weil das Salz alles blockiert“, so Wirth. Auch bei der eigentlichen Messung können die Salze Störeffekte hervorrufen und instrumentelle Signale verschieben oder unterdrücken, so dass keine zuverlässige Analyse möglich sei, führt die Chemikerin aus.

Um die Salz-Störeffekte bei der Probenaufkonzentration in den Griff zu bekommen, testete Wirth verschiedene Trägermaterialien für die Festphasenextraktion und konnte als geeignetes Material schließlich ein Polymer identifizieren, das durch sogenannte molekulare Prägung hochselektiv Glyphosat und AMPA bindet und zugleich unempfindlich gegenüber dem Salz der Meerwasserproben ist. Außerdem etablierte sie erfolgreich einen zusätzlichen Aufreinigungsschritt vor der instrumentellen Messung, der eine störungsfreie Analytik erlaubt.

Nach gründlicher Validierung der neuen Methode, auch für unterschiedliche Salzgehalte zwischen 5 und 20 bzw. 35, wie sie typischerweise in der Ostsee und in den offenen Ozeanen auftreten, wurde das Verfahren an natürlichen Umweltproben von sieben verschiedenen Beprobungsstellen in der Westlichen Ostsee getestet. Beide Substanzen, sowohl Glyphosat, als auch sein Abbauprodukt AMPA konnten nachgewiesen werden – damit erstmals im Meer. Die Glyphosatkonzentrationen zwischen 0,42 und 0,49 ng/l waren, unabhängig von der Entfernung zur Küste, recht konstant mit Ausnahme einer Messung von 1,22 ng/l in der inneren Lübecker Bucht. Die AMPA-Konzentrationen (maximal 1,47 ng/l) waren in der Nähe von Flussmündungen deutlich höher als weiter draußen im Meer, wo sie zum Teil unter die Nachweisgrenze der neuen Methode fielen.

„Mit der am IOW entwickelten Glyphosat- und AMPA-Analytik können wir erstmals in Konzentrationsbereichen unterhalb von 1 ng/l messen, wie sie in marinen Ökosystemen zu erwarten sind – und das störungsfrei bei allen Salzgehalten, die man in den unterschiedlichen Meeresgebieten der Welt findet“, sagt Marisa Wirth. Die jetzt in der Ostsee gemessenen Werte lägen weit unterhalb der Konzentrationen, die für Menschen oder Meeresorganismen als bedenklich diskutiert werden. Aber da bisher nur diese punktuellen Messungen vorliegen, sei noch keine Datenbasis für eine Einschätzung vorhanden, inwieweit die Ostsee durch diese Stoffe gefährdet ist, so Wirth weiter. „Wir haben jetzt aber eine hinreichend sensitive und zuverlässige Methode, mit der man ein aussagefähiges Umweltmonitoring im Meer für beide Substanzen durchführen kann. Auch sind jetzt Studien möglich, die sich mit aktuellen Forschungsfragen beschäftigen, beispielsweise mit Transport, Beständigkeit oder Abbau von Glyphosat und AMPA in der Meeresumwelt“, kommentiert die IOW-Forscherin abschließend.

Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungs-einrichtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Marisa Wirth | Tel.: +49 (0)381 5197 237 | marisa.wirth@io-warnemuende.de
Dr. Marion Kanwischer | Tel.: +49 (0)381 5197 382 | marion.kanwischer@io-warnemuende.de

Originalpublikation:
Marisa A. Wirth, Detlef E. Schulz-Bull, Marion Kanwischer: The challenge of detecting the herbicide glyphosate and its metabolite AMPA in seawater – Method development and application in the Baltic Sea. Chemosphere (2021);
doi.org/10.1016/j.chemosphere.2020.128327

Quelle: IDW
(nach oben)


RWI-Studie: Kostenloser ÖPNV könnte Nutzung erheblich steigern

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Kostenloser öffentlicher Nahverkehr findet in Deutschland breite Zustimmung. Zu diesem Ergebnis kommt eine von der Stiftung Mercator geförderte Studie des RWI – Leibniz-Institut für Wirtschaftsforschung. Demnach sprechen sich 72 Prozent der Befragten für einen kostenlosen ÖPNV aus. Damit findet diese Maßnahme deutlich mehr Zustimmung als viele andere Vorschläge zur Eindämmung des Autoverkehrs. Müssten sie dafür nichts bezahlen, würden die Befragten nach eigenen Angaben im Durchschnitt mehr als dreimal so häufig mit Bus und Bahn fahren. Dennoch sehen die Autoren der Studie auch gewichtige Argumente gegen die Einführung eines kostenlosen ÖPNV.

Das Wichtigste in Kürze:

• In einer Befragung unter knapp 7.000 Haushalten befürworten rund 72 Prozent der Befragten einen kostenlosen öffentlichen Personennahverkehr (ÖPNV), elf Prozent sind dagegen. Die Zustimmung ist bei Haushalten mit geringem Einkommen mit rund 83 Prozent am höchsten, mit steigendem Einkommen nimmt die Zustimmung tendenziell ab. In der höchsten Einkommensgruppe liegt sie noch bei knapp 67 Prozent.

• Die Zustimmung zu einem kostenlosen ÖPNV ist größer als zu anderen abgefragten Maßnahmen, etwa zum Ausbau von Fahrradwegen auf Kosten von Autoparkplätzen, zum Fahrverbot für Fahrzeuge, die Schadstoffgrenzwerte überschreiten, oder zu höheren Parkkosten in Innenstädten.

• Ein kostenloser ÖPNV würde nach Aussage der Befragten zu einer deutlich höheren Nutzung führen: Im Durchschnitt geben sie an, einen kostenlosen ÖPNV für rund 5,3 Fahrten pro Woche nutzen zu wollen. Der derzeitige Durchschnitt liegt, ebenfalls nach eigenen Angaben, bei 1,6 Fahrten.

• Haushalte aus städtischen Regionen geben an, ihre ÖPNV-Nutzung in absoluten Werten stärker erhöhen zu wollen als Haushalte auf dem Land. Bereits jetzt nutzen städtische Haushalte den ÖPNV häufiger. Relativ betrachtet würde die Nachfrage im ländlichen Raum nach Einführung eines kostenlosen ÖPNV allerdings stärker zunehmen.

• Da es sich um Antworten auf hypothetische Fragen handelt, sollten die Werte mit einer gewissen Vorsicht betrachtet werden. Allerdings decken sich die Ergebnisse im Wesentlichen mit den tatsächlich gemessenen Effekten in Orten, die bereits einen kostenlosen ÖPNV eingeführt haben, beispielsweise Hasselt, Tallinn und Templin.

• Diese Beispiele zeigen jedoch auch, dass ein kostenloser ÖPNV nicht automatisch zu einer umfassenden Verkehrswende führt: Nach den bisherigen Erfahrungen wird die Autonutzung kaum reduziert, stattdessen sinken die gelaufenen oder mit dem Fahrrad zurückgelegten Kilometer.

• Die in der Studie ausgewertete Befragung fand im Jahr 2018 statt. Eine erneute Befragung im Jahr 2019 unter gut 3.000 Haushalten kommt zu sehr ähnlichen Ergebnissen hinsichtlich der Einstellungen zu einem kostenlosen ÖPNV: In dieser Befragung befürworten 74 Prozent der Befragten einen kostenlosen ÖPNV, elf Prozent lehnen ihn ab.

„Die Befragung zeigt, dass ein kostenloser öffentlicher Nahverkehr vielen Menschen in Deutschland attraktiv erscheint und zu einer deutlich höheren Nutzung des ÖPNV führen könnte“, sagt RWI-Wissenschaftler Mark Andor, einer der Autoren der Studie. „Allerdings führt ein kostenloser ÖPNV voraussichtlich kaum zur Verringerung der Autonutzung und hat seinen Preis in Form entgangener Einnahmen. Für die Kosten müssten die Steuerzahler aufkommen.“

Ko-Autor Manuel Frondel, Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, ergänzt: „Aus ökonomischer Sicht ist ein kostenloser ÖPNV nicht die beste Maßnahme, um die Ziele der Verkehrswende – weniger Staus, Abgase und CO2-Emissionen – zu erreichen. Sinnvoller wäre zum Beispiel die Einführung einer Städte-Maut in Ballungsräumen, die den Autoverkehr reduzieren würde und deren Einnahmen für eine Preissenkung des ÖPNV für einkommensschwache Haushalte genutzt werden könnten.“ Die Städte-Maut könnte mit Informationskampagnen zu den Vorteilen der ÖPNV-Nutzung und zu den tatsächlichen Kosten des Autofahrens gepaart werden.

Die Befragung durch das Marktforschungsinstitut forsa fand vom 23. April bis zum 12. Juni 2018 statt. Befragt wurden die Haushaltsvorstände des forsa.omninet Haushaltspanels. Dieses Panel ist für die deutschsprachige Bevölkerung ab 14 Jahren repräsentativ. Die Befragten füllten die Fragebögen mehrheitlich via Internet aus. Insgesamt wurden 7.823 Haushaltsvorstände befragt, von denen 6.812 den Fragebogen vollständig ausgefüllt haben.

Ihre Ansprechpartner/in dazu:
Dr. Mark A. Andor, Tel.: 0201 8149-216
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204
Leonard Goebel (Kommunikation), Tel.: 0201 81 49-210

Dieser Pressemitteilung liegt die Studie „Kostenloser ÖPNV: Akzeptanz in der Bevölkerung und mögliche Auswirkungen auf das Mobilitätsverhalten” von Mark A. Andor, Lukas Fink, Manuel Frondel, Andreas Gerster und Marco Horvath zugrunde, die in der Fachzeitschrift „List Forum für Wirtschafts- und Finanzpolitik“ erschienen ist. Die Studie ist unter gleichem Titel als RWI Materialien 137 erschienen.

Wissenschaftliche Ansprechpartner:
Dr. Mark A. Andor, Tel.: 0201 8149-216
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204

Originalpublikation:
RWI Materialien 137, Andor, M. A., L. Fink, M. Frondel, A. Gerster und M. Horvath, Diskussionspapier: Kostenloser ÖPNV – Akzeptanz in der Bevölkerung und mögliche Auswirkungen auf das Mobilitätsverhalten

Weitere Informationen:
https://www.rwi-essen.de/presse/mitteilung/420/

Quelle: IDW
(nach oben)


10 Jahre PYREG GmbH – Wie aus Klärschlamm Dünger wird

Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen
Bei der Aufbereitung von biologischen Abfallstoffen zu Phosphordünger, Pflanzen- und Futterkohle nimmt die PYREG GmbH eine Vorreiterrolle ein. Als Ausgründung der TH Bingen arbeitet das Unternehmen bis heute eng mit Binger Forscherinnen und Forschern zusammen.

Eine Produktionsanlage, so groß wie eine Doppelgarage. Am Anfang steht unansehnlicher Klärschlamm, am Ende ein feines schwarzes Granulat, das als Dünger auf Feldern ausgebracht werden kann. Möglich macht das die PYREG GmbH aus Dörth im Rhein-Hunsrück-Kreis. Ihre Idee: Klärschlamm enthält das für alle Lebewesen wichtige Element Phosphor, das Bestandteil vieler Düngemittel ist. Der Abbau von Phosphor ist aufwendig und es gibt nur wenige natürliche Vorkommen. Daher ist es sinnvoll, bereits vorhandenen Phosphor aus Klärschlamm zu recyclen.

Ihren Ursprung hat die Geschäftsidee des Unternehmens vor über zehn Jahren in einem Forschungsprojekt an der Technischen Hochschule (TH) Bingen unter der Leitung von Prof. Dr. Winfried Sehn. Der Gründer und Geschäftsführer Helmut Gerber studierte an der TH Bingen und war wissenschaftlicher Mitarbeiter im Projekt. Mit ihm entwickelte Professor Sehn die erste Anlage zur Klärschlammbehandlung. Das gestaltete sich zwar schwierig, dafür war die so entstandene Kohle aber nährstoffreich und daher potentiell als Dünger geeignet. Prof. Dr. Thomas Appel, der als Experte für Pflanzenernährung hinzugezogen wurde, erkannte das Potential des Produkts und entwickelte es in einem Forschungsprojekt weiter. Nach über einer Dekade Forschungs- und Entwicklungszeit an der TH Bingen erfolgte die Gründung der PYREG GmbH als Spin-off der Hochschule.

Geschäftsführer Helmut Gerber verantwortet den Bereich Entwicklung, Anlagenbau und erneuerbare Energien. Mit der Entwicklung des Unternehmens ist er hochzufrieden: „Dankenswerterweise wurde unsere Pyrolyse-Technologie bereits frühzeitig von staatlicher Seite als förderwürdige und zukunftsweisende Lösung eingestuft. Die Fördergelder und die Unterstützung der TH Bingen haben es uns ermöglicht, in relativ kurzer Zeit international eine Pionierrolle in einem dringend notwendigen Klimaschutzsegment einzunehmen.“ Noch wartet die Firma jedoch darauf, dass das entstandene Granulat, dessen Entwicklung durch öffentliche Fördergelder finanziert wurde, in Deutschland auch als Düngemittel zugelassen wird. In Schweden, einem Vorreiter in Umwelt- und Klimaschutz ist dies bereits der Fall.

Prof. Dr. Klaus Becker, Präsident der TH Bingen, gratuliert zum 10-jährigen Firmenjubiläum und ist stolz auf die enge Verbindung zwischen Hochschule und Ausgründung: „Am Erfolg von PYREG sieht man deutlich, was angewandte Forschung schaffen kann. Die Geschichte des Unternehmens zeigt zudem die große Nähe zur Arbeitspraxis, von der Studierende in unseren Studiengängen auch heute noch profitieren. Es ist nur schade, dass dieser technologische Fortschritt, basierend auf der gemeinsamen wissenschaftlichen Arbeit, zumindest in Deutschland noch mit Hürden verbunden ist.“

Wie funktioniert das Verfahren?
Konkret hat das Unternehmen eine Technologie entwickelt, mit der Klärschlamm bei hohen Temperaturen und gezielter Sauerstoffzufuhr verkohlt werden kann. Die hohen Temperaturen sorgen dafür, dass im Klärschlamm enthaltene Giftstoffe zersetzt werden. Zudem wird im Endprodukt CO2 dauerhaft gebunden, sodass es nicht mehr in die Luft entweichen kann. Damit hilft die Technologie, dem Klimawandel entgegenzuwirken. Auf ähnliche Weise wird in einer zweiten Entwicklung des Unternehmens Biomasse zu Pflanzenkohle oder Futterkohle verarbeitet.

Quelle: IDW
(nach oben)


Wasser: Treibstoff des Lebens

Holger Gust M. A. Pressestelle
Hochschule Karlsruhe – Technik und Wirtschaft
Projektzusage für nachhaltige Abwasserbehandlung und Wiederverwendung für ein Krankenhaus in Kampala, Uganda

Krankenhausabwässer sind als besonders problematisch zu betrachten, da sie im Vergleich zu kommunalen Abwässern deutlich höher mit Arzneimittelrückständen, deren Metaboliten sowie pathogenen Keimen belastet sind. Dies stellt insbesondere in afrikanischen Ländern ein besonderes Problem dar, zumal Abwässer dort unbehandelt an die Umgebung eingeleitet werden. Die Folge ist eine unzureichende Reinigung in den zentralen kommunalen Kläranlagen. Beispielsweise werden in Kampala, der Hauptstadt Ugandas, derzeit nur etwa 7 % der Abwässer einer kommunalen Behandlungsanlage zugeführt.

Deshalb ist es das Ziel des nun angelaufenen Projekts, eine robuste und kostengünstige Technologie zu entwickeln und zu pilotieren, die eine dezentrale Behandlung von Krankenhausabwässern mit einem hohen Anteil an regenerativer Energie ermöglicht. Hierzu soll eine Kombination eines Membranbioreaktors (MBR) mit einer Aktivkohlebehandlung eingesetzt werden, die zu einem hohen Grad mittels photovoltaisch gewonnener Nutzenergie (PV) betrieben werden soll. In der MBR-Technologie werden anstatt Absetzbecken zur Abtrennung des Belebt-Schlamms Membranen mit feinen Poren (0,1–0,01 µm Porendurchmesser) eingesetzt, die in das Belebungsbecken eintauchen. Hierdurch können auch feinste Partikel und Keime zurückgehalten werden und es resultiert eine hohe Wasserqualität. Die nachgeschaltete Aktivkohlebehandlung soll zusätzlich Spuren von gelösten Arzneirückständen etc. zurückhalten. Dabei liegt die besondere Herausforderung des Projekts darin, diese Technologien einfach und kostengünstig zu gestalten, wobei möglichst viele Anlagenteile vor Ort in Afrika erhältlich sein sollten. Die Anlagenkombination soll beispielhaft im Lubaga Hospital in Kampala aufgebaut und pilotiert werden (Kapazität: ca. 10 m3/Tag).

Das Lubaga Krankenhaus in Kampala ist eines der größten Krankenhäuser in Uganda. Es wurde auf einer Delegationsreise mit dem Karlsruher Oberbürgermeister Frank Mentrup, dem Karlsruher EnergieForum sowie Prof. Jan Hoinkis von der Hochschule Karlsruhe – Technik und Wirtschaft im Januar 2019 besucht. Ziel der Delegationsreise war es, Projekte zu gestalten und Unternehmen sowie Institutionen zusammenzubringen, um innovative, aber auch sozialgerechte und umweltverträgliche Lösungen anzubieten. Aus dem Besuch des Krankenhauses im Rahmen der Reise hatte sich die nunmehr realisierte Projektidee entwickelt, da sich das Karlsruher Stadtoberhaupt, insbesondere im Gesundheitssektor, gestärkte Verbindungen wünscht.

Das Projekt wird federführend von Prof. Jan Hoinkis in Zusammenarbeit mit der Firma Equator Solar Systems Ltd. (EQS) und dem „Centre for Research in Energy and Energy Conservation“ der Makerere Universität in Kampala durchgeführt und von der Deutschen Bundesstiftung Umwelt (DBU) finanziell gefördert. Die EQS hat langjährige Erfahrung und Kompetenz im Bereich PV-Technologie vor Ort in Kampala und ist auch in der ganzen Region gut vernetzt. Die Firma hat bereits eine PV-Anlage im Lubaga Hospital installiert, welche seit mehreren Jahren erfolgreich betrieben wird. Ein neuer, innovativer Aspekt für das Projekt ist die Verwendung neuartiger, stationärer Energiespeicher aus sogenannten Superkondensatoren („Supercaps“), um die Probleme mit den derzeit üblichen Energiespeichern (Li-Ionen Batterien, Bleiakkus) zu verbessern. Supercaps haben eine große Leistungsdichte und sind charakterisiert durch sehr schnelle Be- und Entladungskurven. Dadurch können diese Systeme sehr zuverlässig gegen schnelle und starke Lastspitzen und Senken abgepuffert werden. Die Technologie der Superkondensatoren hat sich im Laufe der letzten Jahre erheblich verbessert, sodass jetzt auch relative große Kapazitäten zu akzeptablen Preisen auf dem Markt erhältlich sind. Im Rahmen des Projekts wird Sneha De, eine Masterabsolventin des Studiengangs Sensor Systems Technology der Fakultät Elektro- und Informationstechnik, eine Doktorarbeit anfertigen.

Die Pilotierung der photovoltaisch betriebenen Abwasserreinigung soll begleitet bzw. ergänzt werden durch Trainingskurse für die zukünftigen Betreiber. Die Demonstration des Lösungswegs im Rahmen einer Pilotierung im Lubaga Krankenhaus dient als Modell zur Abwasseraufbereitung und Wiederverwendung in Krankenhäusern Ugandas und anderen Ländern Ostafrikas.

Weitere Informationen:
https://www.hs-karlsruhe.de/presse/uganda

Quelle: IDW
(nach oben)


Unterwasser-Stromspeicher fürs Hambacher Loch

Dr. Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Bevor nach dem Ende des Braunkohletagebaus aus den riesigen Gruben Seen werden, könnten auf ihrem Grund Pumpspeicherkraftwerke installiert werden. Die Idee: Zwischenspeicher für Sonnen- und Windstrom zu schaffen, etwa im Hambacher Loch in Nordrhein-Westfalen. Wie es zu diesem Projekt kam, berichtet die aktuelle Ausgabe von Forschung Frankfurt. Unter dem Titel „Klimakrise“ versammelt das Wissenschaftsmagazin der Goethe-Universität ein facettenreiches Spektrum von Forschungsprojekten, Einschätzungen und Analysen von Forscherinnen und Forschern der Goethe-Universität.

Wenn ab 2038 Schluss sein wird mit dem Tagebau Hambach in Nordrhein-Westfalen, wird das Hambacher Loch geflutet werden und ein großer See entstehen. Geht es nach Horst Schmidt-Böcking, emeritierter Professor der Goethe-Universität, und seinem Saarbrücker Kollegen Gerhard Luther, soll dann auf dem Grund des Sees ein Unterwasser-Pumpspeicherkraftwerk überschüssige Sonnen- und Windenergie zwischenspeichern. Das Prinzip ist so einfach wie genial: Hohlkugeln auf dem Grund des Sees werden über elektrische Pumpen leergepumpt, wenn gerade zu viel Strom aus Wind und Sonne erzeugt wird. Bei Flaute oder nachts lässt man Wasser in die Hohlkugeln strömen und dabei Turbinen antreiben, die wieder Strom erzeugen. Bei entsprechender Größe könnte so Deutschlands gesamter Kurzspeicherbedarf für erneuerbare Energien gedeckt werden – und man könnte viel klimaschädliches CO2 einsparen.

In weiteren Beiträge der aktuellen Ausgabe von „Forschung Frankfurt“ berichten Wissenschaftlerinnen und Wissenschaftler der Goethe-Universität über ihre Forschungsprojekte rund um den Klimawandel, wie zum Beispiel die knappe Ressource Wasser bereits heute als Waffe in Konflikten eingesetzt wird, wie der Klimawandel zum dramatischen Artenschwund beiträgt oder wie Klimamodelle von Warmzeiten der Erdgeschichte präzisere Voraussagen unserer Klimazukunft erlauben. Sie gehen aber auch der Frage nach, warum es uns so schwerfällt, unsere Lebensweise zu verändern.

Die aktuelle Ausgabe von „Forschung Frankfurt“ (2/2020) kann von Journalisten kostenlos bestellt werden bei: presse@uni-frankfurt.de.

Alle Beiträge sind online erhältlich unter: https://www.forschung-frankfurt.uni-frankfurt.de .

Weitere Informationen:
https://www.forschung-frankfurt.uni-frankfurt.de/34831594/Aktuelle_Ausgaben___Fo…

Quelle: IDW
(nach oben)


Wie viel Trinkwasser brauchen die Städte?

Petra Dabelstein Marketing und Presse
Hochschule für Technik Stuttgart
Ein HFT-Forschungsteam hat erstmals den Trinkwasserbedarf von Wohngebäuden und Nichtwohngebäuden simuliert und dazu ein 3D-Datenmodell für deutsche Städte und Regionen benutzt. Dabei wurden geometrischen Gebäudedaten sowie meteorologische und sozio-ökonomische Daten integriert. Das Team zeigte, dass der Ansatz machbar und belastbar ist: Die Abweichung von realen Trinkwasserverbräuchen betrug weniger als sieben Prozent.

Das Forschungsteam hat damit ein methodisches Problem gelöst: Bislang gab es kein Werkzeug, mit dem man den Wasserbedarf für alle Gebäudetypen wie etwa Wohnhäuser, Büro-, Schul- und Industriegebäude auf der Grundlage eines speziellen 3D-Gebäudemodells, dem CityGML-Modell, simulieren kann. Die Studie im „International Journal of Geo-Information“ entstand innerhalb des Projektes IN-SOURCE. Sie wurde gefördert vom Bundesministerium für Bildung und Forschung sowie vom europäischen Programm Horizon 2020. Ziel ist es, digitale Lösungen zu entwickeln, um die lebenswichtigen Bereiche Lebensmittel, Wasser und Energie in verschiedenen Regionen zu analysieren. Insgesamt stehen urbane Regionen weltweit vor großen Herausforderungen bei der künftigen Versorgung mit Nahrungsmitteln, Wasser und Energie, auch in Zusammenhang mit dem Klimawandel.

Trinkwasserbedarf in einzelnen Gebäuden kann analysiert werden
„Mit dem neuen Ansatz können wir den Wasserbedarf auf der Ebene von einzelnen Gebäuden simulieren und analysieren. Bestehende Modelle fokussieren sich eher auf die Simulation von ganzen Kommunen“, erklären Prof. Dr. Bastian Schröter, HFT-Professor für Energietechnik, und Keyu Bao, Doktorand am Zentrum für nachhaltige Energietechnik (zafh.net) an der HFT. Das Team verwendete das bestehende Simulations-Tool SimStadt, das Energieanalysen erstellt und hat dieses Tool nun um die Funktion erweitert, den Trinkwasserbedarf zu analysieren.

Von solchen Analysen können insbesondere Kommunen profitieren: „Eine genaue Modellierung des städtischen Wasserbedarfs, die Wohn- und Nichtwohngebiete abdeckt, kann Kommunalverwaltungen oder Infrastrukturplanern helfen, lokale Wasserversorgungsinfrastrukturen besser zu gestalten und das Management lokaler Ressourcen zu verbessern“, erläutern die Forscher. Das Tool ist auch ideal, um den Wasserbedarf in einem künftigen Baugebiet zu simulieren. Der Wasserbedarf kann anhand verschiedener Skalen simuliert werden: auf Ebene des Gebäudes, des Stadtviertels, der Stadt oder des Landkreises. Bezugsgröße sind dabei die Gebäude. Anstatt den durchschnittlichen Pro-Kopf-Wert des Wasserbedarfs aus übergeordneten Skalen zu verwenden, zum Beispiel von einem Bundesland, können nun mit dem neuen Ansatz Daten wie der lokale Siedlungswasserbedarf pro Kopf sowie die lokalen klimatischen Bedingungen und sozioökonomische Faktoren im Gebiet berücksichtigt werden.

Machbarkeitstest mit Daten aus drei deutschen Regionen
Das Forschungsteam simulierte Szenarien in drei deutschen Landkreisen mit unterschiedlichen klimatischen und sozioökonomischen Bedingungen, um die Durchführbarkeit, Genauigkeit und Belastbarkeit des neuen Wasserbedarfs-Workflows zu testen: Ludwigsburg. Köln und Ilm-Kreis.

Der Landkreis Ludwigsburg repräsentiert ein typisches süddeutsches Vorstadtgebiet, die Stadt Köln ein dicht besiedeltes städtisches Gebiet und der Landkreis Ilm-Kreis eine eher ländliche Region. Jeder Mensch benötigt 90 bis 150 Liter pro Tag, je nach Bundesland, Alter, Haustyp und Einkommen in Wohngebäuden. Bei Nicht-Wohngebäuden hingegen schwankt der Wasserverbrauch extrem zwischen 0,05 Kubikmeter pro Quadratmeter pro Jahr und 96 Kubikmeter pro Quadratmeter pro Jahr. Unter anderem wurden auch in der Gemeinde Rainau im Ostalbkreis in Baden-Württemberg verschiedene Szenarien analysiert. Untersucht wurde speziell der Bedarf in Bezug auf den Wasserpreis, die Alterung der Bevölkerung und den Klimawandel. Die Ergebnisse: Es zeigte sich, dass der Wasserbedarf pro Person differiert. So steigt der Wasserbedarf pro Person um 3,6 %, wenn als Faktoren höheres Alter und höhere Temperaturen aufgrund des Klimawandels in die Berechnung einbezogen werden. Dies kann daran liegen, dass ältere Menschen eher zu Hause sind und einen Garten besitzen, den sie bewässern. Je wärmer die Temperaturen, desto mehr Wasser ist erforderlich. In einem anderen künftigen Szenario ist zu erwarten, dass der Wasserverbrauch pro Kopf zurückgeht, wenn die Wasserpreise steigen. Die industrielle Wassernachfrage steigt insgesamt um 46% aufgrund der wirtschaftlichen Entwicklung gemessen am Bruttoinlandsprodukt.

Simulation ist auch weltweit einsetzbar
Die Ermittlung des Wasserbedarfs mit dem CityGML-Modell umfasst einzelne Gebäude als Basiselement zur Berechnung. Enthalten sind Gebäudetypen (Wohnen, Hotel, Krankenhaus, Bildung, Büro, Einzelhandel, Sport und Ausstellungshalle sowie Industriegebäude), Baujahr und Gebäudegeometrie. Die Gebäudegeometrie wird zur Berechnung der Bodenfläche verwendet. In Kombination mit dem Baujahr kann die Anzahl der Bewohner in Wohngebäuden simuliert werden. Der Wasserbedarfswert pro Fläche oder pro Person wird auf der Grundlage von Gebäudetypen, Klima und sozioökonomischen Faktoren, wie zum Beispiel Einkommen ermittelt.

Die Simulation kann auch weltweit auf andere Regionen angewendet werden, vorausgesetzt das 3D-Gebäudemodell CityGML dient als Basis und die entsprechenden statistischen Daten sind verfügbar.

IN-SOURCE basiert auf drei Fallstudien in Ludwigsburg (Deutschland), New York (USA) und Wien (Österreich) und untersucht Szenarien für eine integrierte CO2-neutrale und nachhaltige Infrastrukturplanung, die sich als Prototyplösungen auch auf andere Städte übertragen lässt. Hintergrund: Fast 80% der Weltbevölkerung sind durch Wasserknappheit und eine unsichere Wasserversorgung bedroht.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bastian Schröter
E-Mail: bastian.schroeter@hft-stuttgart.de / Tel: +49 711 8926 2371
Keyu Bao
E-Mail: keyu.bao@hft-stuttgart.de / Tel: +49 711 8926 2939

Originalpublikation:
Artikel (Open-source):
Keyu Bao, Rushikesh Padsala, Daniela Thrän, Bastian Schröter: SPRS International Journal of Geo-Information. 2020, 9, 657. Urban Water Demand Simulation in Residential and Non-Residential Buildings Based on a CityGMLData Model.

Link: https://www.mdpi.com/2220-9964/9/11/642/htm
DOI: 10.3390/ijgi9110642

Weitere Informationen:
https://www.hft-stuttgart.de/forschung/news/wie-viel-trinkwasser-brauchen-die-st…

Quelle: IDW
(nach oben)


Verständliche Informationen über Corona-Impfstoffe

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Parallel zur jeweils laufenden europäischen Zulassung veröffentlicht das IQWiG Kurzinformationen über die Corona-Impfstoffkandidaten. Die ersten beiden Kurzinformationen sind jetzt online auf gesundheitsinformation.de.

Noch im Dezember 2020 soll es losgehen: Auch in Deutschland werden die ersten Bürgerinnen und Bürger gegen das neuartige Coronavirus SARS-CoV-2 geimpft. Doch wie wirken die neuen Impfstoffe, welche Nebenwirkungen haben sie und was wissen wir noch nicht über sie? Diese Fragen will das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) für die in Deutschland relevanten Impfstoffe gegen Corona beantworten: Jeweils wenige Tage, nachdem belastbare Daten zu den einzelnen Impfstoffkandidaten verfügbar sind, veröfffentlicht das Institut bereits allgemeinverständliche Zusammenfassungen der wichigsten Ergebnisse auf seiner Website gesundheitsinformation.de.

Die ersten beiden Kurzinfos über Impfstoffkandidaten, die voraussichtlich in Deutschland zur Impfung angeboten werden, sind bereits online: Der Impfstoff BNT162b2 (Hersteller: BioNTech / Pfizer) wurde in einer Phase-3-Studie mit 43.500 Teilnehmerinnen und Teilnehmern getestet, der Impfstoff mRNA-1273 (Hersteller: Moderna) in einer Phase-3-Studie mit 30.000 Teilnehmerinnen und Teilnehmern. In Phase-3-Studien wird die Wirksamkeit und Sicherheit von Impfstoffen unter Alltagsbedingungen an vielen Tausend Menschen erprobt. Diese Studien sind die tragende Säule für eine Zulassung. Für beide Impfstoffe berät die europäische Zulassungsbehörde (European Medicines Agency = EMA) derzeit, ob eine Zulassung für Europa empfohlen wird.

„Viele Bürgerinnen und Bürger sind mit dem Lesen der entsprechenden Fachinformationen überfordert“, sagt Klaus Koch, Leiter des Ressorts Gesundheitsinformation. „Das IQWiG bietet daher allgemein verständliche Informationen zu den Corona-Impfstoffen.“

Originalpublikation:
https://www.gesundheitsinformation.de/der-impfstoff-bnt162b2-biontech-pfizer-zur…
https://www.gesundheitsinformation.de/der-impfstoff-mrna-1273-moderna-zur-impfun…

Weitere Informationen:
https://www.iqwig.de/de/presse/pressemitteilungen/2020/verstaendliche-informatio…

Quelle: IDW
(nach oben)


Weiterbildung im Homeoffice-Alltag: Wie profitieren alle?

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Impulse zu chancengerechtem digitalen Arbeiten liefert die Analyse einer Erwerbstätigenbefragung im Jahr 2020 unter Genderaspekten // Im Fokus: Wissen & Qualifizierung

Welches Wissen und welche Qualifikationen benötigen Beschäftigte, wenn sie orts- und zeitflexibel arbeiten? Wie müssen Angebote für einen Auf- und Ausbau digitaler Kompetenzen aussehen, damit alle gleichermaßen profitieren? Im Diskurs um diese aktuellen Fragen gibt das Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V. (kompetenzz) Handlungsempfehlungen für Wirtschaft und Politik auf der Basis aktueller Studienergebnisse.

Um ein möglichst differenziertes Bild über Rahmenbedingungen, Einstellungen und Praktiken rund um Arbeit im Jahr 2020 zu erhalten, wurden alle Personen, die aktuell in Deutschland erwerbstätig sind, aufgerufen, ihre Erfahrungen zu Homeoffice, digitaler Ausstattung, Weiterbildung und Arbeitsteilung in der Partner*innenschaft zu teilen. Mehr als 1.000 Männer und Frauen haben vom 8. bis 30 Juni 2020 an der Befragung teilgenommen.

Die aktuell erschienene erste Publikation enthält ausgewählte Ergebnisse zu dem Schwerpunkt Qualifizierung und Weiterbildung bei der Arbeit von Zuhause aus. Die Ergebnisse zeigen: Die Zufriedenheit mit Fortbildungsangeboten im Bereich digitale Technologien und Anwendungen unter Beschäftigten im Homeoffice ist gering. Doch die Studie liefert auch wertvolle Hinweise darauf, welche Wege eingeschlagen werden können, um diesen Missstand zu beheben.

Kernergebnisse:
– Das Angebot an Fortbildungen im Bereich der digitalen Technologien und Anwendungen ist aus Sicht der Beschäftigten nicht zufriedenstellend.
– Weit verbreitet unter den Befragten ist der Wunsch nach einer Individualisierung und Veralltäglichung des Lernens in Organisationen.
– Inhaltliches Interesse – insbesondere unter Neueinsteiger*innen – gilt den Themen „Datensicherheit“ und „transparentes Regelsystem für die Arbeit von Zuhause aus“, insbesondere da letztere unmittelbar mit der Problematik der Abgrenzung von Erwerbs- und Privatleben verknüpft ist.
– Fortbildungen sind erwünscht…
…sowohl zu Problemlösungen im beruflichen Alltag als auch zu innovativen Anwendungen,
…in Form digitaler Formate (besonders als Option für Beschäftigte mit Kindern),
…innerhalb der regulären Arbeitszeit (besonders für Frauen in Teilzeit)
…mit integrierten kommunikativen Elementen.

„Beschäftigte dürfen, besonders im Homeoffice, nicht ihrer Eigeninitiative überlassen werden, wenn es um den Aufbau von arbeitsrelevanten Kompetenzen geht. Organisationen sollten einen guten Rahmen schaffen, der Lernprozesse fördert. Betriebliche Lernangebote müssen auf die Voraussetzungen und Bedürfnisse unterschiedlicher Geschlechter, Altersgruppen und Kulturen zugeschnitten sein, ohne Klischees zu bedienen“, so Prof. Barbara Schwarze, Vorsitzende des Kompetenzzentrums Technik-Diversity-Chancengleichheit e. V.

Lore Funk, die neben Prof. Barbara Schwarze Autorin der Studie ist, ergänzt: „Unser übergeordnetes Ziel ist es, aufzuzeigen, welche Folgen der digitalen Transformation heute bereits positiv erfahren werden und wo weitere Aushandlungsprozesse nötig sind. Wir möchten Impulse zur Reflexion dieser Fragestellungen geben und Wege zu einer chancengerechten Gesellschaft aufzeigen. Ein Puzzleteil dazu liefert unsere aktuelle Studie: Wir brauchen eine Veralltäglichung des Lernens – auch im Homeoffice!“

Weitere Studienergebnisse mit anderen Schwerpunkten werden 2021 veröffentlicht.
#arbeiten2020 #DigitalGenderGap

Wissenschaftliche Ansprechpartner:
Pressekontakt:
Britta Zachau
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Presse- und Öffentlichkeitsarbeit
Am Stadtholz 24, 33609 Bielefeld
Tel: +49 521 106 7321
Fax: +49 521 106 7171
presse@kompetenzz.de
Twitter: @kompetenzz_ev

Weitere Informationen:
https://www.kompetenzz.de/arbeiten2020

Quelle: IDW
(nach oben)


C/sells: Neue Lösungen für die Aktivierung von Flexibilitäten dezentraler Erzeuger und Verbraucher

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Photovoltaik-Anlagen, Wärmepumpen, Ladestationen, Speicher: Die Einbindung einer Vielzahl dezentraler Erzeuger und Verbraucher in die Netze gehört zu den zentralen Aufgaben der kommenden Phase der Energiewende. Dafür hat das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE jetzt im Rahmen des SINTEG-Förderprojektes »C/sells« neue Lösungen entwickelt – und diese zusammen mit Partnern in der Praxis erprobt. Netzbetreiber bekommen damit die zunehmende Komplexität bei Erzeugung und Verbrauch in den Griff, Anlagenbetreiber können ihre Flexibilitäten netzdienlich einsetzen. Die Ausgründung »Smartrplace« wird die neuen Energiemanagement-Lösungen des Fraunhofer IEE vermarkten.

»Im Rahmen von C/sells haben wir gemeinsam mit vielen Partnern die beiden Seiten der Aktivierung von Flexibilitäten betrachtet: deren Bereitstellung durch Anlagenbetreiber, Versorger und Dienstleister sowie deren Nutzung durch Netzbetreiber«, erklärt Alexander Dreher, Produktmanager Energiemanagementsysteme im Geschäftsfeld Digitales Portfoliomanagement des Fraunhofer IEE.

Besonderes Augenmerk haben die Forscher dabei auf das Rückgrat der Aktivierung gelegt – auf die informations- und kommunikationstechnologischen Infrastrukturen und das Smart Metering. »Mit entstandenen Lösungen wie dem EnergyPilot haben wir eine neue Energiemanagementsoftware zur Aktivierung der Flexibilitäten entwickelt, die im Zusammenspiel mit unserem Virtuellen Kraftwerk oder alternativen Leitsystemen genutzt werden kann«, sagt Dreher.

Energiemanagement für Netz- und Anlagenbetreiber
Mit dem Zubau dezentraler Erzeugungsanlagen und neuer Lasten gewinnt die Steuerbarkeit der Leistungsaufnahme im Verteilnetz für die Netzbetreiber stark an Bedeutung. Zugleich haben Anlagenbetreiber den Anspruch, ihr Photovoltaik-System, ihre Wärmepumpe oder ihre Ladestation wirtschaftlich optimal einzusetzen, ohne sich bei den Funktionalitäten einschränken zu müssen.

Mit dem EnergyPilot bringt das Fraunhofer IEE diese Anforderungen nun zusammen. Das Energiemanagement-System trägt dazu bei, kritische Situationen zu entschärfen, indem es Erzeuger und Verbraucher netzdienlich regelt. Damit können Netz- und Anlagenbetreiber die Chancen nutzen, die sich mit der anstehenden Neufassung des §14a Energiewirtschaftsgesetz (EnWG) eröffnen.

Pilotprojekte im Rahmen von C/sells
Wie sich die Energiemanagement-Software für die Flexibilisierung der Erzeugung nutzen lässt, haben die Fraunhofer-Forscher im Biomassezentrum Stausebach bei Marburg gezeigt. Mit dem neu entwickelten Auslegungstool microSCOPE wurden die Flexibilitätspotenziale untersucht und optimiert. Für die intelligente Optimierung des Anlagenportfolios haben die Wissenschaftler den EnergyPilot eingesetzt. Getestet wurde das System im neuen Virtual Lab des Fraunhofer IEE, in dem die Experten das Biomassezentrum digital abgebildet haben. Die Software ist jetzt bereits in operativem Einsatz bei einem Direktvermarkter.

In einem anderen C/sells-Teilprojekt haben die Wissenschaftler die Verbrauchsseite unter die Lupe genommen: In Leimen bei Heidelberg haben sie mit Partnern in einem Gebäude ein lokales Energiemanagement-System eingerichtet, das durch die Steuerung von dort installierten Anlagen und Geräten gewährleistet, dass am Netzanschluss die vom Netzbetreiber gewünschten Leistungswerte eingehalten werden – ohne dass dieser selbst auf die Verbraucher zugreifen muss.

»Im Rahmen von C/sells haben wir mit unseren Analysen und Praxistests viele wertvolle Erkenntnisse gewonnen, mit denen wir die digitale Zukunft der Energiewirtschaft gestalten können«, sagt Dr. Reinhard Mackensen, Leiter des Bereichs Energiewirtschaftliche Prozessintegration beim Fraunhofer IEE.

Gebäudeautomatisierung und Energiemanagement
Die Ausgründung Smartrplace hat zunächst eine Lösung für die Gebäudeautomatisierung auf den Markt gebracht, die eine bedarfsgerechte Einzelraum-Steuerung von Heizung, Lüftung und Klimatisierung ermöglicht. Mit dem EnergyPilot des Fraunhofer IEE lässt sie sich zu einem Energiemanagement-System erweitern, das die Flexibilität von Verbrauchern und Erzeugern im Gebäude für die Netze mobilisiert.

»Wir freuen uns sehr, dass unsere Mitarbeiter trotz pandemiebedingt schwieriger Zeiten die Ausgründung vorangetrieben haben«, sagt Mackensen. »Auf ihrem Weg freuen wir uns auf die weitere Zusammenarbeit.« Gemeinsame Basis dieser und weiterer Lösungen des Fraunhofer IEE ist ein eigenentwickeltes Framework – ein Betriebssystem für das Energiemanagement, mit dem sich einzelne Bausteine für spezifische Aufgaben zusammenführen lassen. Das Institut verfügt über besondere Kompetenz in der Energie-Informatik: Fast 100 IT-Experten sind am Fraunhofer IEE beschäftigt.

Netzzelle Kassel: Inselnetz bei Stromausfall und Blindleistung zur Netzstützung
Ebenfalls im Rahmen von C/sells hat das Fraunhofer IEE in Kassel zusammen mit der Städtische Werke Netz+Service GmbH und dem Steinbeis-Transferzentrum Regenerative Energiesysteme untersucht, wie Wind- und Photovoltaik-Anlagen mit Blick auf die Blindleistung optimal gefahren werden können – und so zu einem effizienten und sicheren Netzbetrieb beitragen. Dabei kam das Netzanalysewerkzeug pandapower zum Einsatz. Darüber hinaus haben die Partner erste Schritte unternommen, um das Stromnetz in Kassel bei einem großräumigen Stromausfall zumindest teilweise mit den Kraftwerken vor Ort versorgen zu können. Konkret haben die Experten zunächst in Machbarkeitsstudien die grundsätzliche Umsetzbarkeit geprüft.

Forschungsprojekt zu Regelungskaskaden
In einem weiteren C/sells-Teilprojekt hat das Fraunhofer IEE zusammen mit Industrie- und Forschungspartnern die Umsetzung der vertikalen und horizontalen Regelungskaskade über verschiedene Netzbetreiber auf allen Netzebenen untersucht. In der Kaskade können kritische Netzzustände durch gemeinsame Abstimmungen benachbarter Netzbetreiber effizienter gelöst werden. Damit sind regelbare Anlagen im Verteilnetz in der Lage, zur Behebung kritischer Zustände im Übertragungsnetz beizutragen.

Dies setzt jedoch voraus, dass geeignete Schnittstellen existieren und ein abgestimmter Austausch von Daten zwischen den Leitsystemen benachbarter Netzbetreiber stattfindet. Diese Grundsätze haben die Forschungspartner in diversen Feldtests erprobt und untersucht. So haben sie zum Beispiel ein Feldtest-Netzgebiet der Stadtwerke Schwäbisch Hall als Simulation in der Co-Simulationsumgebung OpSim nachgebildet und mit dem realen VIVAVIS-Netzleitsystem HIGH-LEIT der Demo-Zelle gekoppelt. In der Simulation wurden exakt dieselben Schnittstellen wie im Feldtest verwendet – die Simulation war aus Sicht des Leitsystems ein digitaler Zwilling des Feldtests, mit dem auch umfassende Abregelungen von Anlagen und kritische, im Feld nicht zulässige Netzzustände untersucht werden konnten. Diese Funktionalität haben die Wissenschaftler erfolgreich in einer Live-Demo erprobt.

»Der Betrieb von Netzzellen mit lokal verfügbaren flexibel steuerbaren Anlagen bietet neue Gestaltungsmöglichkeiten für einen sicheren zellularen Netzbetrieb. Zahlreiche Potenziale konnten wir durch Machbarkeitsstudien, neuen Betriebslösungen und unsere Testumgebung aufzeigen«, zeigt sich Professor Martin Braun, Bereichsleiter Netzplanung und Netzbetrieb, mit den Ergebnissen zufrieden.

Hintergrund zu SINTEG – Schaufenster intelligente Energie
Im Förderprogramm „Schaufenster intelligente Energie – Digitale Agenda für die Energiewende“ (SINTEG) werden in großflächigen Modellregionen übertragbare Musterlösungen für eine sichere, wirtschaftliche und umweltverträgliche Energieversorgung bei zeitweise 100% Stromerzeugung aus erneuerbaren Energien entwickelt und demonstriert.

Wissenschaftliche Ansprechpartner:
Alexander Dreher
Alexander.Dreher@iee.fraunhofer.de

microSCOPE:
Katharina Habbishaw
Katharina.Habbishaw@iee.fraunhofer.de

OpSim, pandapower:
Frank Marten
frank.marten@iee.fraunhofer.de
OpSim: https://opsim.net
pandapower: https://pandapower.pro

Smartrplace:
Dr. David Nestle
https://smartrplace.com

Weitere Informationen:
https://www.sinteg.de
https://www.csells.net
https://s.fhg.de/439

Quelle: IDW
(nach oben)


Klimafolgen der Lebensmittelproduktion: Starke Preisverzerrungen – und Handlungsoptionen

Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Die aus der Produktion von Lebensmitteln stammenden Umweltschäden schlagen sich derzeit nicht im Preis nieder. Werden die Folgekosten der emittierten Klimagase ermittelt und auf die aktuellen Lebensmittelpreise aufgerechnet, müssten tierische Erzeugnisse wie Milch, Käse und insbesondere Fleisch weit teurer werden. Auch würde der Preisunterschied zwischen konventionellen und biologisch hergestellten Produkten kleiner werden. Diese Ergebnisse veröffentlichte ein vom Augsburger Ökonomen Dr. Tobias Gaugler geleitetes Forscherteam im renommierten Fachjournal Nature Communications.

Mit einem globalen Emissionsanteil von 24% ist die Landwirtschaft eine der Hauptquellen der vom Menschen verursachten Treibhausgase. Bereits diese Zahl macht deutlich, wie groß der Anpassungsbedarf, aber auch das Potenzial des primären Sektors zur Erreichung des Klimaziels des ‚Paris Agreement‘ ist, die Erderwärmung auf einem Niveau von deutlich unter 2 °C zu halten. Auch der ‚European Green Deal‘, der vorsieht, die Netto-Emissionen von Treibhausgasen der Europäischen Union bis 2050 auf null zu reduzieren, lässt sich nur unter Einbeziehung der Landwirtschaft verwirklichen.

Eine neu erschienene Studie Augsburger Wissenschaftler zeichnet nun ein differenziertes Bild landwirtschaftlicher Treibhausgasemissionen. Für unterschiedliche Anbau- bzw. Haltungsformen ermittelt sie, an welchen Stellen der Lebensmittelproduktion welche Emissionen auftreten und ordnet diese unterschiedlichen Lebensmitteln verursachergerecht zu. Neben Kohlenstoffdioxid- beziehen die Autoren auch Lachgas- und Methanemissionen sowie die klimatischen Auswirkungen der Landnutzungsänderung in ihre Berechnungen ein. Aus der Landnutzungsänderung (engl. land use change) resultierende Klimafolgen ergeben sich primär aus der Trockenlegung von Mooren sowie der Abholzung von Regenwaldflächen, die dann zur Produktion von Tierfutter genutzt werden.

Um das Ausmaß dieser Klimaschäden zu verdeutlichen, erfolgt neben der Ermittlung der Emissionsmengen auch deren Monetarisierung, also eine Umrechnung in lebensmittelspezifische Folgekosten. In einem letzten Schritt setzen die Autoren diese Folgekosten in Bezug zu den aktuell am Markt beobachtbaren Lebensmittelpreisen.

Deutliche Unterschiede zwischen verschiedenen Lebensmittelgruppen
Sie weisen in ihrer Publikation nach, dass insbesondere konventionell hergestellte Lebensmittel tierischen Ursprungs deutlich teurer werden müssten, wenn die aus der Produktion resultierenden Klimafolgen verursachergerecht auf dem Preis aufgeschlagen werden würden. Eigentlich müssten Milchprodukte um 91% teurer sein, als dies heute der Fall ist. Fleischprodukte müssten –Klimakosten inklusive – sogar um 146% teurer werden. Beim Vergleich der Anbauformen zeigt sich, dass die Emissionsmengen der biologischen Landwirtschaft ertragsbereinigt leicht unter der konventionellen Produktionsweise liegen. Aufgrund des höheren Preisniveaus von Biolebensmitteln resultieren hieraus jedoch geringere Preisaufschläge von 40% für Biomilchprodukte und 71% für Bio-Fleisch. Lebensmittel pflanzlichen Ursprungs sind mit einem relativ geringen „Klimarucksack“ assoziiert, der sich in beiden Anbauformen im einstelligen Cent-Bereich bewegt.

„Uns selbst überrascht hat der große Unterschied zwischen den untersuchten Lebensmittelgruppen und die daraus resultierende Fehlbepreisung insbesondere tierischer Lebensmittel“, berichtet TobiasGaugler über die Ergebnisse. „Würden diese Marktfehler nicht mehr bestehen oder zumindest verringert, hätte dies große Auswirkungen auch auf die Nachfrage nach Lebensmitteln. Ein Lebensmittel, das deutlich teurer wird, wird auch deutlich weniger nachgefragt“, ergänzt Co-Autorin Amelie Michalke.

Implikationen für Konsumentinnen/Konsumenten und die Wirtschaftspolitik
Die aktuelle Studie bezieht sich primär auf Klimafolgen, die aus der Produktion und dem Konsum von Lebensmitteln resultieren. In weiteren Schritten wollen die AutorInnen nun weitere landwirtschaftliche Umweltfolgen untersuchen, die u.a. aus der Emission von reaktiven Stickstoffverbindungen oder dem Energiebedarf des Agrarsektors stammen. „Hierbei sehen wir unsere Aufgabe als WissenschaftlerInnen primär darin, Daten und Informationen über die Klimawirkung von Lebensmitteln zur Verfügung zu stellen. Auf dieser Basis können und – wenn ich es mit einem gewissen Normativitätsanspruch der Nachhaltigkeitswissenschaften so sagen darf – sollten sowohl BürgerInnen als auch ordnungspolitische Akteure ihr Handeln ausrichten“, resümiert Gaugler.

Das Autorenteam setzt sich aus den beiden Augsburger Wirtschaftsingenieuren Maximilian Pieper (studiert aktuell an der TU München) und Amelie Michalke (Gastwissenschaflerin an der Universität Augsburg sowie Doktorandin an der Universität Greifswald) sowie dem Wirtschaftswissenschaftler und Nachhaltigkeitsforscher Tobias Gaugler zusammen. Tobias Gaugler ist als wissenschaftlicher Assistent am Institut für Materials Resource Management (MRM) der Mathematisch-Naturwissenschaftlich-Technischen Fakultät der Universität Augsburg tätig.

Wissenschaftliche Ansprechpartner:
Dr. Tobias Gaugler
Institute for Materials Resource Management (MRM)
Tel.: +49 821 598 3050
E-Mail: tobias.gaugler@mrm.uni-augsburg.de

Originalpublikation:
Maximilian Pieper, Amelie Michalke und Tobias Gaugler: Calculation of external climate costs for food highlights inadequate pricing of animal products, Nat Commun 11 (2020), DOI: 10.1038 / s41467-020-19474-6

Weitere Informationen:
https://www.nature.com/articles/s41467-020-19474-6

Quelle: IDW
(nach oben)


Startschuss für Pilotstudie zu Corona-Warnarmband

Claudia Eulitz Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
1.000 Bluetooth-Armbänder mit CAU-Technologie gehen an Kieler Pflegeeinrichtungen

Das Corona-Warnarmband ist in eine neue Testphase gestartet: Seit Montag, 14. Dezember, läuft eine erste umfangreiche Studie zu der an der Christian-Albrechts-Universität zu Kiel (CAU) entwickelten Alternative zur Corona-Warn-App. In einem Pilotprojekt sollen 1.000 Kielerinnen und Kieler aus Pflegeinrichtungen die Warnarmbänder testen, die Studie läuft drei Monate. Den Anfang für die schrittweise Ausgabe an Probandinnen und Probanden machte in dieser Woche ein Treffpunkt der Anlaufstelle Nachbarschaft in Kiel. Weitere Einrichtungen städtischer und freier Träger sollen folgen. Auch der Arbeiter-Samariter-Bund (ASB) wird die Armbänder über seine mobilen Pflegedienste an ausgewählte Personen verteilen. Parallel laufen Befragungen der Teilnehmenden und die Auswertung der technischen Daten. „Ziel der Studie ist es natürlich, herauszufinden, ob die Corona-Warnarmbänder funktionieren, aber auch, ob sie akzeptiert werden. Ob die Nutzerinnen und Nutzer damit zurechtkommen und bereit sind, es jeden Tag zu tragen“, erklärt Professor Olaf Landsiedel, der die technische Entwicklung des Bluetooth-Armbands leitet. Im Frühjahr waren Benjamin Walczak, Vorsitzender des Kieler Vereins Groschendreher – Kieler Bündnis gegen Altersarmut e.V., und Björn Schwarze, Geschäftsführer des Kieler Softwareunternehmens ADDIX, wegen der technischen Umsetzung ihrer Idee an den CAU-Informatiker herangetreten.

Armband kompatibel mit Corona-Warn-App
Das Corona-Warnarmband funktioniert analog zu der von der Bundesregierung empfohlenen Corona-Warn-App. Via Bluetooth-Chip korrespondiert es sowohl mit anderen Warnarmbändern als auch mit Smartphones, auf denen die Anwendung installiert und aktiv ist. „Die App hat ja offene Standards, einen Programmcode, der dokumentiert ist und so von uns im Laufe des Sommers nachgebaut werden konnte“, erklärt Landsiedel, dem die Kompatibilität und die Integration in das bundesweite System ein großes Anliegen war. Deshalb gab es in den vergangenen Monaten auch einen Austausch mit den Entwicklern der Smartphone-App.

Über die Bluetooth-Datenübertragung hinaus hat das Armband aus Silikon keinerlei Funktionen, weder GPS noch mobile Daten oder WLAN können damit genutzt werden. Dabei gehe es laut Landsiedel nicht nur um den Datenschutz, sondern auch darum, das Gerät so kostengünstig und energieeffizient wie möglich zu gestalten. In den Einrichtungen werden sogenannte Basisstationen aufgebaut, die über eine Internetverbindung verfügen und die Kontaktverfolgung gewährleisten. Kommt der Träger oder die Trägerin mit dem Armband in die Nähe der Station, wird der Datenaustausch automatisch vorgenommen. Ist es zu einer Risiko-Begegnung gekommen, blinkt ein LED-Licht am Armband auf. Die Akku-Laufzeit liegt zwischen drei Tagen und einer Woche, geladen wird das Gerät über einen USB-Anschluss. „Wir empfehlen unseren Probandinnen und Probanden jedoch das Armband jeden Abend aufzuladen“, so Landsiedel. Gefördert wird das Pilotprojekt durch das Bundesgesundheitsministerium, das Land Schleswig-Holstein und die Stadt Kiel unter Beteiligung des ASB.

Alternative für gesundheitliche Chancengleichheit
Angestoßen wurde das Projekt kurz nach Beginn der Pandemie mit dem Ziel, eine kostengünstige und leicht bedienbare Alternative für Menschen zu schaffen, die kein Smartphone nutzen können oder wollen. Benjamin Walczak erklärt: „Relativ früh war klar, dass viele ältere Menschen und viele Menschen mit geringem Einkommen nicht die Corona-Warn-App werden nutzen können. Deshalb ist die erfolgreiche Zusammenarbeit mit der Uni Kiel und ADDIX aus unserer Sicht eine wichtige Möglichkeit, um gesundheitliche Chancengleichheit herzustellen. Denn wenn man durch die App oder das Armband schnell über eine mögliche Infektion informiert wird, erhöht das die Chancen auf eine frühe Behandlung. Gerade für Personen aus der Risikogruppe kann das entscheidend sein.“ Wie es nach der Studie für das Corona-Warnarmband weitergeht, hänge auch von politischen Entscheidungen ab, fügt ADDIX-Geschäftsführer Schwarze hinzu: „Die Chance für unser Unternehmen im Rahmen der Corona Krise etwas Digitales und Unterstützendes zu leisten ist unsere Hauptmotivation. Mit dem Armband komplettieren wir unsere digitale Infrastruktur und ermöglichen Teilhabe. Das Armband ist ein Massenprodukt, je größer die Stückzahl desto niedriger der Preis, eine Produktion in Deutschland hat andere Kosten als die Herstellung in China. Wenn wir die notwendige Unterstützung aus der Politik für die Masse erzielen, erwarten wir einen Abgabepreis von 20 bis 22 Euro.“

Wissenschaftliche Ansprechpartner:
Professor Dr. Olaf Landsiedel
Institut für Informatik
Telefon: 0431/880-4480
E-Mail: ol@informatik.uni-kiel.de

Weitere Informationen:
http://www.uni-kiel.de/de/detailansicht/news/315-corona-warnarmband

Quelle: IDW
(nach oben)


Vom Publikationsbias zur Datenflut

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
IQWiG-Autorinnen plädieren im BMJ Evidence-Based Medicine für ein zentrales, öffentliches und weltweites Portal für klinische Studien

Die Verfügbarkeit von Dokumenten zu klinischen Studien ist in den letzten Jahren immens gestiegen. So sind zu einer einzigen klinischen Studie oft mehrere Dokumente aus zahlreichen Quellen verfügbar – teilweise mit überlappenden, aber dennoch häufig unvollständigen Informationen.

Das Identifizieren und Verarbeiten dieser Informationen ist mit sehr großem Aufwand und Herausforderungen verbunden, wie Beate Wieseler aus dem Ressort Arzneimittel des IQWiG und Natalie McGauran aus dem Stabsbereich Kommunikation anhand eines Beispiels bei der Informationsbeschaffung für eine Evidenzsynthese in der aktuellen Ausgabe des BMJ Evidence-Based Medicine zeigen.

In dem Artikel „From publication bias to lost in information: Why we need a central public portal for clinical trial data“ plädieren die beiden Autorinnen für die Schaffung eines zentralen öffentlichen Informationsportals für Studiendokumente, um die extrem aufwändige Suche für ebendiese Dokumente zu vereinfachen und zu standardisieren. Primäres Ziel dabei ist die vollständige und zeitnahe Verfügbarkeit von „clinical study reports“, also der Dokumente, die eine klinischen Studie und ihre Ergebnisse umfassend beschreiben. Die Einrichtung eines solchen Portals würde zudem ein weiteres Ziel der wachsenden Bewegung für Datentransparenz unterstützen: die Verbesserung der Patientenversorgung.

Hauptnutzergruppe für das geforderte Portal sollten Forscherinnen und Forscher sein, die Evidenzsynthesen als Basis für die informierte Entscheidungsfindung erarbeiten, etwa bei der Entwicklung von Leitlinien oder von gesundheitspolitischen Richtlinien.

Originalpublikation:
https://ebm.bmj.com/content/early/2020/12/10/bmjebm-2020-111566

Weitere Informationen:
https://www.iqwig.de/de/presse/pressemitteilungen/2020/vom-publikationsbias-zur-…

Quelle: IDW
(nach oben)


Nanoforschung – Mit Nanopartikeln gegen Krebs

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
LMU-Wissenschaftler haben Nanopartikel entwickelt, die gezielt Krebszellen abtöten. Dies könnte der Tumorbekämpfung neue therapeutische Optionen eröffnen.

Chemotherapien gegen Krebs haben häufig schwere Nebenwirkungen, da die verabreichten Medikamente auch für gesunde Zellen toxisch sind. Calciumphosphat und Citrat werden bereits seit einiger Zeit als vielversprechende Alternativen diskutiert, da sie zwar zum Zelltod führen, wenn sie in hohen Konzentrationen ins Zellinnere gelangen, ansonsten aber für den Körper gut verträglich sind. Allerdings fehlten bisher Möglichkeiten, diese Stoffe an den strengen Kontrollmechanismen der Zellen vorbei ins Zellinnere zu schleusen. Jetzt haben Wissenschaftler um Dr. Constantin von Schirnding, Dr. Hanna Engelke und Prof. Thomas Bein vom Department Chemie der LMU neuartige amorphe Nanopartikel entwickelt, die aus genau jenen gewünschten Stoffen bestehen. Die Partikel können die Hindernisse nun überwinden und gezielt Krebszellen abtöten.

Calciumphosphat und Citrat sind an der Regulation vieler zellulärer Signalwege beteiligt. Um toxische Dosen im Zellinneren zu vermeiden, kontrollieren Zellen die Aufnahme dieser Stoffe streng. Die von den Wissenschaftlern entwickelten Nanoteilchen umgehen diese Kontrolle: „Wir haben amorphe, poröse Nanopartikel aus Calciumphosphat und Citrat hergestellt, die von einer Lipidschicht umgeben sind“, sagt von Schirnding. Durch die Beschichtung können die Teilchen in die Zelle eindringen, ohne dass deren Warnmechanismen anschlagen. Dort lösen sie sich sehr effizient auf und setzen große Mengen Calcium und Citrat frei.

Zellversuche zeigten, dass die Partikel in der Lage sind, Krebszellen selektiv abzutöten – gesunde Zellen dagegen überleben, obwohl sie die Partikel ebenfalls aufnehmen. „Offensichtlich können die Teilchen sehr toxisch sein, wenn sie es mit Krebszellen zu tun bekommen. Und je aggressiver der Tumor war, desto besser wirkten die Teilchen“, sagt Engelke.

Bei der Aufnahme in die Zellen werden die Nanoteilchen von einer zusätzlichen Membran überzogen. Die Wissenschaftler vermuten, dass es in den Krebszellen einen noch unbekannten Mechanismus gibt, der die zusätzliche Membran löchrig macht, sodass die Bestandteile der Partikel in das Zellinnere eindringen können. In den gesunden Zellen dagegen bleibt die Membran intakt und die Nanokügelchen werden als Ganzes wieder ausgeschieden.

„Die hochselektive Toxizität der Partikel ermöglichte es uns, zwei verschiedene aggressive pleurale Tumore bei Mäusen erfolgreich zu behandeln und ihre Größe nach nur zwei lokalen Anwendungen um etwa 40 bzw. 70 Prozent zu reduzieren“, sagt Engelke. Pleurale Tumore sind häufig Metastasen von Lungentumoren, die im sogenannten pleuralen Spalt zwischen Lunge und Brust angesiedelt sind. Übliche Chemotherapeutika haben hier keinen Zugang, weil der pleurale Raum nicht mit Blut versorgt wird. „Unsere Partikel dagegen können direkt in den pleuralen Spalt eingebracht werden“, sagt Bein. Dabei zeigten sich im Verlauf von zwei Monaten keine Anzeichen von gravierenden Nebenwirkungen. Die Forscher sind daher überzeugt, dass die neuen Nanopartikel großes Potenzial für die Entwicklung neuer Therapien gegen Krebs haben.

Wissenschaftliche Ansprechpartner:
Dr. Hanna Engelke
Department Chemie
Tel.: +49 (0)89 2180 77626
hanna.engelke@cup.uni-muenchen.de
https://www.cup.lmu.de/de/departments/chemie/personen/dr-hanna-engelke/

Prof. Thomas Bein
Department Chemie
Tel.: +49 (0)89 2180 77623
Thomas.bein@cup.uni-muenchen.de
https://www.cup.lmu.de/de/departments/chemie/personen/prof-dr-thomas-bein/

Originalpublikation:
Synergistic Combination of Calcium and Citrate in Mesoporous Nanoparticles Targets Pleural Tumors
Constantin von Schirnding, Ioanna Giopanou, Adam Hermawan, Lisa Wehl, Giannoula Ntaliarda, Bernhard Illes, Stefan Datz, Franz Geisslinger, Karin Bartel, Ann-Katrin Sommer, Marina Lianou, Veronika Weiß, Johann Feckl, Angelika M. Vollmar, Christoph Bräuchle, Georgios T. Stathopoulos, Ernst Wagner, Andreas Roidl, Thomas Bein, and Hanna Engelke
Chem 2020

Quelle: IDW
(nach oben)


Brennstoffzellen-Flugzeug am Stuttgarter Airport präsentiert: Umweltschonender Antrieb erhält Testflugerlaubnis

Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm
Heute ist die neueste Generation des klimafreundlichen Wasserstoff-Brennstoffzellen-Flugzeugs, Hy4, am Stuttgarter Flughafen vorgestellt worden. Der innovative Antrieb aus einem Batterie-Brennstoffzellensystem wurde allen voran von Professor Josef Kallo (Universität Ulm/DLR) entwickelt. Jetzt hat die sechste Antriebsgeneration die Testflugerlaubnis erhalten. Zu diesem Meilenstein auf dem Weg zum umweltschonenden, lautlosen Fliegen gratulierten Andreas Scheuer, Bundesminister für Verkehr und digitale Infrastruktur (Videobotschaft), sowie der baden-württembergische Verkehrsminister Winfried Hermann.

Klimafreundliches Fliegen könnte schon bald in ganz Europa alltäglich werden. Am Flughafen Stuttgart ist heute, 11. Dezember, die neueste Generation des weltweit ersten viersitzigen Wasserstoff-Brennstoffzellen-Flugzeugs Hy4 bei einer überwiegend virtuellen Veranstaltung vorgestellt worden. Federführend entwickelt wurde der alternative Antrieb aus einem Batterie-Brennstoffzellensystem von Professor Josef Kallo, der an der Universität Ulm sowie am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Stuttgart forscht. Erst kürzlich hat die neueste Antriebsgeneration von Hy4 die Testflugerlaubnis erhalten und kann somit am Stuttgarter Airport abheben.

Zu diesem wichtigen Schritt in Richtung umweltschonendes Fliegen gratulierte Andreas Scheuer, Bundesminister für Verkehr und digitale Infrastruktur, mit einer Videobotschaft.
„Das Wasserstoff-Flugzeug Hy4 ist innovativ, leise und klimafreundlich. Es zeigt, dass CO2-freie Luftfahrt schon heute möglich und machbar ist. Diese neue Art des Fliegens hat das Zeug dazu, die Mobilität nachhaltig zu verändern. Deutschland ist in diesem Hochtechnologiebereich Vorreiter: Hy4 ist weltweit das erste viersitzige Passagierflugzeug, das rein elektrisch mit Brennstoffzelle fliegt. Das ist Innovationskraft made in Germany und sichert Arbeitsplätze und Wertschöpfung in unserem Land.“

Der Erstflug des Wasserstoff-Passagierflugzeugs Hy4 am Stuttgarter Flughafen war 2016 eine kleine Sensation: Zuletzt ist der viersitzige Flieger im November lautlos und emissionsfrei im slowenischen Maribor zu Testflügen gestartet. Angetrieben wird Hy4 von einem Hybridsystem, das Batterie- und Brennstoffzellentechnologie miteinander verbindet. Sollte die so gewonnene Energie – etwa beim Start oder bei Steigflügen – nicht ausreichen, springt die Lithium-Ionen-Batterie ein. In der Brennstoffzelle werden Wasserstoff und Sauerstoff in elektrische Energie für den Propellerantrieb umgewandelt. Das umweltfreundliche Nebenprodukt ist Wasser. Bis dato konnte die Funktionalität des neuen Antriebssystems bei mehr als 30 Starts und Flügen von bis zu zwei Stunden erprobt sowie untersucht werden.
Der baden-württembergische Verkehrsminister Winfried Hermann würdigte bei der Präsentation am Flughafen die wissenschaftliche Leistung hinter Hy4: „Der Luftverkehr muss schnellstmöglich klimaschonender werden. Mit dem weltweit einzigartigen Wasserstoff-Brennstoffzellen-Flugzeug Hy4 stellt die Wissenschaft eine vielversprechende Technologie für emissionsfreies Fliegen vor. Mit dieser Expertise ist Baden-Württemberg auf dem Gebiet der Wasserstoff- und Brennstoffzellentechnologie Vorreiter im globalen Wettbewerb.“

Erster Meilenstein des Projekts Hy4 sollten regional einsetzbare Flugtaxis für einzelne Passagiere sein. Doch seit dem Erstflug eines Flugzeuges mit Brennstoffzelle im Jahr 2008 haben Kallo und seine Partner aus Forschung und Industrie die zukunftsweisende Antriebstechnologie massiv weiterentwickelt. „Die mittlerweile sechste Generation des Systems umfasst Redundanzkonzepte für Wasserstofftank, Brennstoffzelle, Energieverteilung und den elektrischen Antrieb. Durch die so gesteigerte Effizienz und eine verbesserte Sicherheitsarchitektur werden in den kommenden zehn Jahren wasserstoffbetriebene Flugzeuge für bis zu 40 Passagiere und mit Reichweiten von 2000 Kilometern möglich“, erklärt der Ulmer Institutsleiter Professor Kallo.

Am Institut für Energiewandlung und -speicherung der Universität Ulm wurden der elektrische Motor sowie die Energieverteilungseinheit von Hy4 entwickelt, unter Laborbedingungen getestet und in Betrieb genommen. Der Elektromotor hat eine Leistung von 120 Kilowatt und ermöglicht damit eine Maximalgeschwindigkeit von 200 Kilometer pro Stunde. Die grundlegende Brennstoffzellenforschung und die Zusammenschaltung der Komponenten erfolgten größtenteils am DLR. Die H2FLY GmbH verantwortet hingegen die Gesamtsystemarchitektur aus Wasserstofftank, Brennstoffzelle sowie Elektroantrieb. Außerdem ist H2FLY für die sichere Integration und den Betrieb im Flugzeug verantwortlich.
„Die Universität Ulm hat sich mit dem deutschlandweit einzigen Exzellenzcluster im Bereich Batterieforschung und starken Partnern in der Wissenschaftsstadt zu einem international führenden Zentrum der Energieforschung entwickelt. Das umweltfreundliche Flugzeug Hy4 vereint Batterie- mit Brennstoffzellentechnologie und ist somit ein hervorragendes Anwendungsbeispiel für innovative Antriebskonzepte und die Mobilität von morgen“, betonte Professor Michael Weber, Präsident der Universität Ulm.

Die Kooperationspartner glauben fest an die Zukunft des Wasserstoffantriebs in der Luftfahrt – und wurden jetzt mit dem Permit-to-fly bestätigt. Somit rückt emissionsfreies, effizientes und gleichzeitig geräuscharmes Fliegen im Passagierbereich in greifbare Nähe. Als Förderer der ersten Stunde freuen sich auch Vertreter des Stuttgarter Flughafens über diese Entwicklung: „Das emissionsfreie Fliegen der Zukunft macht mit diesem Projekt beachtliche Fortschritte. Im Sinne des Klimas müssen wir die Technologieentwicklung in der Luftfahrt und deren Markteinführung weiter mit Nachdruck verfolgen, “ so Walter Schoefer, Sprecher der Geschäftsführung der Flughafen Stuttgart GmbH. Die künftigen Tests in Stuttgart werden sich bis Mai auf das Zusammenspiel und die Kopplung von neuen, noch leistungsfähigeren Antriebskomponenten fokussieren.

Die Projektpartner Hy4
Im Projekt Hy4 bündeln die Universität Ulm, das DLR, H2FLY und Diehl Aerospace (Datenkommunikation und Controlhardware) ihre Expertise. Auf internationaler Ebene werden sie von Pipistrel (Flugzeug-Hardware) und den Forschungseinrichtungen Politecnica di Milano, TU Delft, Universität Maribor sowie Cummins Canada unterstützt. Zu den Förderern zählen die Nationale Organisation Wasserstoff- und Brennstoffzellentechnologie (NOW GmbH), das Bundeswirtschaftsministerium sowie das Bundesministerium für Verkehr und digitale Infrastruktur. Dazu kommen neben Mitteln aus der Industrie auch Mittel vom DLR, vom Flughafen Stuttgart und der Europäischen Kommission.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Josef Kallo: Tel.: 0731/50-25540, josef.kallo@uni-ulm.de

Weitere Informationen:
http://h2fly.de Aktuelles Foto- und Bewegtbildmaterial

Quelle: IDW
(nach oben)


Keine falsche Sicherheit: Deutsche wollen Kommunikation von Unsicherheit in der Corona-Pandemie

Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Die Covid-19-Pandemie zeigt uns einmal mehr, dass zu Wissenschaft auch Unsicherheit gehört. Dass die meisten Bürger*innen über diese Unsicherheit auch offen informiert werden wollen, zeigt eine bevölkerungsweite Befragung des Max-Planck-Instituts für Bildungsforschung und der Charité – Universitätsmedizin Berlin. Die Ergebnisse sind jetzt im Journal JAMA Network Open erschienen.

Seit der ersten Entdeckung des SARS-Cov-2-Virus im Dezember letzten Jahres, erreichen uns seit Monaten nahezu täglich neue wissenschaftliche Erkenntnisse zur Ausbreitung des Virus, zu Symptomen der Covid-19-Erkrankung oder zu neuen Behandlungsmethoden. Was heute noch gilt, kann morgen schon veraltet sein. Auch die Prognosen dazu, wie sich die Infiziertenzahlen bis Weihnachten entwickeln werden und welche Auswirkungen der Wellenbrecher-Shutdown haben wird genauso wie die Schätzung der aktuellen Reproduktionszahl (R-Wert) sind alles andere als sicher.

„Politiker und Gesundheitsexperten scheuen manchmal davor zurück, wissenschaftliche Unsicherheit zu kommunizieren, aus Angst, dass dies zu Misstrauen führen könnte. Wenn man aber vorgibt, dass eine Prognose zum weiteren Verlauf der Pandemie absolut sicher sei, riskiert man das Vertrauen der Bürger, wenn die Vorhersagen dann doch nicht so eintreffen“, sagt Odette Wegwarth, Erstautorin der Studie. Sie ist Senior Research Scientist im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und assoziierte Wissenschaftlerin am Institut für Medizinische Soziologie und Rehabilitationswissenschaft der Charité.

Um herauszufinden, wie die Kommunikation wissenschaftlicher Unsicherheit zur Corona-Pandemie bei den Menschen ankommt, hat das Forschungsteam vom Max-Planck-Institut für Bildungsforschung und der Charité in einer repräsentativen Online-Umfrage über 2000 Deutsche befragt. Den Teilnehmenden wurden vier verschiedene Versionen des künftigen Verlaufs der Pandemie präsentiert. Dabei wurde bei den Versionen unterschiedlich stark auf die Unsicherheiten der Vorhersage hingewiesen. Bei der Version, die am stärksten die Unsicherheit der wissenschaftlichen Prognose betonte, beschränkte sich die Kommunikation auf die Angabe von Spannen (von und bis-Werte) zu beispielsweise aktuell Infizierten, Todesfällen oder dem R-Wert und verzichtete auf die Angabe von festen Größen. Außerdem wurde darauf hingewiesen, dass „nicht mit Sicherheit gesagt werden [kann], ob es sich bei den beobachteten Unterschieden um eine zufällige Fluktuation handelt, oder um erste Anzeichen einer zweite Corona-Infektionswelle.“

Die Version dagegen, die am wenigsten auf die Unsicherheit der wissenschaftlichen Prognose einging, benannte stets feste Werte und betonte, dass „die gegenwärtig beobachtete Entwicklung der Zahlen keinen Zweifel daran lasse, dass eine zweite Infektionswelle bereits begonnen habe.“ Abgeschlossen wurde jede Version mit demselben Appell, nämlich zum Schutz der Risikogruppen präventive Maßnahmen wie das Tragen einer Maske im öffentlichen Raum fortzuführen.

Auf die anschließende Frage, welche der Versionen am besten geeignet wäre, um die Bevölkerung zukünftig über den Verlauf der Corona-Pandemie zu informieren, wählte die größte Gruppe der Befragten (32 Prozent) jenes Format, das die wissenschaftliche Unsicherheit rund um die Pandemie am deutlichsten darstellte. Diese Version galt unter den Befragten auch am ehesten geeignet, Menschen zu überzeugen, die gegenwärtigen Maßnahmen zur Eindämmung der Pandemie mitzutragen. Insgesamt zogen mehr als die Hälfte der Teilnehmenden (54 Prozent) die Formate, die numerische und/oder verbale Unsicherheit transportierten, den anderen vor. Am schlechtesten schnitt die Version ab, die die wissenschaftliche Unsicherheit unerwähnt ließ: Diese überzeugte nur 21 Prozent der Befragten. Auffallend ist, dass besonders die Menschen, die die gegenwärtigen Maßnahmen kritisch sehen, eher bereit zu sein scheinen, die Maßnahmen mit zu tragen, wenn Politiker*innen und Gesundheitsexpert*innen wissenschaftliche Unsicherheit in der Kommunikation klar benennen.

„Um diejenigen Menschen, die den Corona-Maßnahmen der Regierung skeptisch gegenüberstehen, besser zu erreichen, sollten Regierung und Medien den Mut haben stärker die Unsicherheiten zu kommunizieren“, empfiehlt Gert G. Wagner, Mitautor der Studie und Max Planck Fellow am MPI für Bildungsforschung.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Wegwarth, O., Wagner, G. G., Spies, C., Hertwig, R. (2020) Assessment of German Public Attitudes Toward Health Communications With Varying Degrees of Scientific Uncertainty Regarding COVID-19. JAMA Network Open. https://doi.org/10.1001/jamanetworkopen.2020.32335

Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/kommunikation-unsicherheit-corona…

Quelle: IDW
(nach oben)


Klärwerke sollen Akteure am Energiemarkt werden

Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Der Lehrstuhl für Energieverfahrenstechnik der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) koordiniert das Projekt „Kläffizient“, mit dem das Potential von Klärwerken als Strom- und Gasanbieter auf dem Energiemarkt simuliert und experimentell erforscht wird. Das dreijährige Projekt, an dem die Stadtentwässerung und Umweltanalytik Nürnberg (SUN) und die eta Energieberatung GmbH beteiligt sind, startete im Oktober 2020. Es wird vom Bundesministerium für Wirtschaft und Energie (BMWi) mit etwa 400.000 Euro gefördert.

Bei der Reinigung von Abwasser fällt Klärgas an, das zu zwei Dritteln aus Methan und zu einem Drittel aus Kohlendioxid besteht. Während der Methananteil des Klärgases in Blockheizkraftwerken zur Wärme-, bzw. Stromerzeugung genutzt wird, entweicht das klimaschädliche Kohlendioxid in die Atmosphäre. Aus dieser Not lässt sich jedoch eine Tugend machen: Bei hohen Temperaturen reagiert Kohlendioxid unter Zugabe von Wasserstoff zu Methan und Wasser. Dieses Verfahren wird Methanisierung genannt.

„Die Methanisierung ist eine Schlüsseltechnologie der Energiewende. Nur als Methan kann Wasserstoff aus erneuerbaren Energien einfach, jederzeit und überall genutzt werden. Gleichzeitig wird das CO2 aus unseren Kläranlagen klimawirksam gebunden“, erklärt Projektkoordinator Prof. Dr.-Ing. Jürgen Karl vom Lehrstuhl für Energieverfahrenstechnik der FAU. Der benötigte Wasserstoff stammt idealerweise aus der Elektrolyse von Wasser, die mit Strom aus erneuerbaren Energien betrieben wird. Bei der Elektrolyse entsteht Sauerstoff, den die Kläranlagen zur biologischen Reinigung des Schmutzwassers nutzen können. „Der Methanisierungsmodellanlage im Klärwerk Nürnberg wird allerdings keine Elektrolyse vorgeschaltet, der Wasserstoff kommt für den Versuchsbetrieb noch aus Flaschen“, erklärt Matthias Germeroth, Energiemanager bei SUN. Bei der Simulation des Energiesystems der Kläranlage im Modell werde die Elektrolyse jedoch berücksichtigt. Der „digitale Zwilling“ sei neben der Modellanlage die zweite tragende Säule des Projektes. Mit seiner Hilfe soll simuliert werden, wie sich eine Kläranlage flexibel auf die wechselnden Strom- und Gaspreise einstellen kann. Wenn der Strompreis im Winter steigt, weil die Photovoltaikanlagen weniger liefern, könnte die Kläranlage ihre Stromproduktion erhöhen. Im Sommer bietet sie dann Biomethan bzw. Bioerdgas an, das direkt zum Endverbraucher geleitet oder gespeichert wird. „Unser Ziel ist eine wirtschaftliche Betriebsweise von Klärwerken, die die Umwelt nicht belastet, sondern entlastet und dabei noch ‚grünes Gas‘ für unsere Wärme- und Stromversorgung gewinnt“, sagt Volkmar Schäfer von der eta Energieberatung GmbH.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Karl
Lehrstuhl für Energieverfahrenstechnik
Tel.: 0911/5302 9020
juergen.karl@fau.de

Quelle: IDW
(nach oben)


Neuer Tabakatlas des Deutschen Krebsforschungszentrums erschienen – 13 Prozent aller Todesfälle als Folge des Rauchens

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
gemeinsame Pressemitteilung des DKFZ und der Drogenbeauftragten der Bundesregierung

Das Deutsche Krebsforschungszentrum (DKFZ) legt mit der neuen Auflage des Tabakatlas zum dritten Mal eine Zusammenfassung aktueller Daten und Fakten rund um den Tabakkonsum sowie der damit verbundenen gesundheitlichen Risiken und gesellschaftlichen Folgen vor. Der Bericht verdeutlicht das enorme Potential der Krebsprävention und präventiver Gesundheitspolitik.

„Rauchen ist nach wie vor der wichtigste vermeidbare Krebsrisikofaktor, die Tabakkontrolle hat daher enormes Potenzial für die Krebsprävention. Mit der neuen Ausgabe des Tabakatlas wollen wir die Öffentlichkeit und die Medien auf den neuesten Stand der Wissenschaft bringen und gleichzeitig auf Basis dieser Informationen politische Entscheidungsträger zum Handeln veranlassen“, sagt Michael Baumann, Vorstandsvorsitzender des Deutschen Krebsforschungszentrums (DKFZ).

Daniela Ludwig, Drogenbeauftragte der Bundesregierung sagt: „Wir haben in den letzten Jahren bei der Tabakprävention viel erreicht! Dennoch müssen wir weiter aktiv daran arbeiten, Menschen vom Rauchen abzubringen. Durch gezielte und weitere Maßnahmen möchte ich erreichen, dass wir Raucher beim Rauchstopp noch besser unterstützen. Dazu muss auch die Politik das Thema Rauchentwöhnung höher auf die Agenda setzen und zur Selbstverständlichkeit eines jeden behandelnden Hausarztes oder Facharztes machen.”

Rauchen verursacht nach wie vor in besonderem Maße Krankheit und Tod: Allein in Deutschland waren im Jahr 2018 rund 85.000 Krebsfälle durch das Rauchen verursacht und etwa 127.000 Menschen starben an den Folgen der zahlreichen tabakbedingten Erkrankungen. Das entspricht 13,3 Prozent aller Todesfälle – diese Zahl ist seit der letzten Berechnung 2013 noch weiter gestiegen. Der Tabakatlas gibt einen umfassenden Überblick über das Ausmaß des Rauchens, die Folgen des Tabakkonsums sowie über Lösungsstrategien, um die Schäden zu verringern, die das Rauchen der Gesellschaft zufügt.

Immer noch rauchen 26,4 Prozent der Männer und 18,6 Prozent der Frauen sowie 6,0 Prozent der Jungen im Alter von 12 bis 17 Jahren und 5,2 Prozent der gleichaltrigen Mädchen. Dabei gibt es nach wie vor zwischen den einzelnen Bundesländern erhebliche Unterschiede im Raucheranteil.

Neben den gesundheitlichen Konsequenzen des Rauchens beleuchtet der Tabakatlas 2020 auch die immensen Folgen des Rauchens für Gesellschaft und Umwelt: Die Kosten, die das Rauchen verursacht, belaufen sich in Deutschland auf jährlich 97 Milliarden Euro. Die weltweite Tabakproduktion hat zusätzlich auch einen großen ökologischen Fußabdruck: Sie verursacht eine ähnliche Menge klimaschädlicher Gase wie das gesamte Industrieland Österreich.

Gleichzeitig zeigt der Atlas Lösungsansätze auf, über die vor allem die Politik dazu beitragen kann, den Tabakkonsum zu senken. Den Trend zum Nichtrauchen zu stärken, ist ein wichtiges Ziel der Krebsprävention. „Einige Länder – etwa Finnland und Irland – haben dazu bereits verpflichtende Strategien entwickelt. Auch Deutschland sollte sich als strategisches Ziel setzen, bis 2040 rauchfrei zu werden, d. h. den Raucheranteil in der Bevölkerung auf unter fünf Prozent zu senken“, sagt Katrin Schaller, kommissarische Leiterin der Stabsstelle Krebsprävention im DKFZ.

• Der „Tabakatlas Deutschland 2020“ ist als pdf-Datei unter http://www.tabakkontrolle.de abrufbar

• Journalisten erhalten das Handbuch kostenfrei bei der Pressestelle des Deutschen Krebsforschungszentrums unter presse@dkfz.de

• Der „Tabakatlas Deutschland 2020“ ist im Pabst-Verlag erschienen (ISBN: 978-3-95853-638-8) und im Buchhandel zum Preis von 19,95 Euro erhältlich und in den Nationalbibliotheken von Deutschland, der Schweiz und Österreich einsehbar.

Weitere Informationen auch unter http://www.drogenbeauftragte.de

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Quelle: IDW
(nach oben)


Klimawandel erwärmt Grundwasser in Bayern

Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Die Grundwasserreservoirs in Bayern haben sich innerhalb weniger Jahrzehnte deutlich erwärmt. Das zeigt eine neue Studie von Wissenschaftlern der Martin-Luther-Universität Halle-Wittenberg (MLU), die die Temperaturen an 35 Messstationen in unterschiedlichen Tiefen mit Daten aus den 1990er Jahren vergleicht. In einer Tiefe von 20 Metern ist das Wasser im Mittel fast ein Grad wärmer als vor 30 Jahren. Die Ergebnisse wurden in der Fachzeitschrift „Frontiers in Earth Science“ veröffentlicht.

Erwärmt sich die Luft, wird mit der Zeit auch der Boden wärmer – zuletzt erwärmt sich so auch das Grundwasser. Geologen nennen das thermische Kopplung. „Der Untergrund ist im Gegensatz zur Atmosphäre allerdings sehr träge“, sagt der Geowissenschaftler Prof. Dr. Peter Bayer von der MLU, einer der beiden Autoren der Studie. Das mache ihn zu einem guten Indikator für den Klimawandel, da der Untergrund nicht auf kurzfristige Temperaturschwankungen reagiert und somit eher langfristige Trends anzeigt.

„Dieser Effekt, dass sich der Boden aufwärmt, konnte bereits gezeigt werden, allerdings gibt es insgesamt noch wenige Daten“, erklärt Bayer. Für die neue Studie haben Bayer und sein Doktorand Hannes Hemmerle deswegen Messungen an 35 Messstationen in Grundwasserreservoirs in Bayern wiederholt, die in den 1990er Jahren durchgeführt wurden. Die Messpunkte sind im gesamten Bundesland verteilt, was einen seltenen Einblick in die Entwicklung einer ganzen Region liefert.

Die Geologen konnten zeigen, dass sich fast alle untersuchten Grundwasserspeicher über die Jahrzehnte ebenso erwärmt haben. „Ab ungefähr 15 Metern hat der Klimawandel einen ganz klaren Einfluss, kurzfristige lokale oder saisonale Schwankungen sind dann nicht mehr zu messen“, erklärt Hemmerle. Im Durchschnitt war das Grundwasser in einer Tiefe von 20 Metern fast 0,9 Grad Celsius wärmer als noch in den 1990er Jahren. In einer Tiefe von 60 Metern lag die Erwärmung noch bei etwa 0,3 Grad. In der gleichen Zeit stieg die durchschnittliche Lufttemperatur um 1,05 Grad Celsius.

„Man kann davon ausgehen, dass sich das Grundwasser in einer verspäteten Reaktion auf die Lufttemperaturen noch weiter erwärmt und auch in Zukunft auf steigende Atmosphären-Temperaturen reagieren wird“, so Hemmerle. Die Folgen der Erwärmung seien noch schwer abzuschätzen, so Bayer. Eine höhere Wassertemperatur habe Auswirkungen auf das Wachstum von Mikroben. Es setze aber auch unterirdische Ökosysteme unter Druck, die an sehr konstante Temperaturen angepasst sind.

Um ein Gefühl für die Dimensionen der Messungen zu bekommen, stellten Bayer und Hemmerle die Erwärmung ab einer Tiefe von 15 Metern zudem dem jährlichen Heizbedarf Bayerns gegenüber. Das Ergebnis: Der Temperaturanstieg entspricht etwa zehn Prozent des Bedarfs. „Wenigstens ein Teil der Wärme könnte möglicherweise mithilfe der Geothermie wieder genutzt werden“, so Bayer. Eins zu eins übertragen auf Gesamtdeutschland lassen sich die Ergebnisse jedoch nicht. „Es ist aber davon auszugehen, dass der Trend der gleiche ist“, so Hemmerle.

Die Studie wurde von der Deutschen Forschungsgemeinschaft gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Bayer
Institut für Geowissenschaften und Geographie / Angewandte Geologie
Telefon: +49 345 55-26134
E-Mail: peter.bayer@geo.uni-halle.de
Web: https://applied.geo.uni-halle.de/

Originalpublikation:
Hemmerle, H., Bayer, P. Climate Change Yields Groundwater Warming in Bavaria, Germany. Frontiers in Earth Science (2020). https://doi.org/10.3389/feart.2020.575894

Quelle: IDW
(nach oben)


Was verraten Bewegungsarmbänder über unsere Atmung und Gesundheit?

Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Mit Bewegungsarmbändern lässt sich die Atemfrequenz von schlafenden Menschen relativ genau bestimmen. Das zeigt eine neue Studie von Forscherinnen und Forschern der Martin-Luther-Universität Halle-Wittenberg (MLU) zusammen mit der Charité – Universitätsmedizin Berlin, die im Fachjournal „Scientific Reports“ veröffentlicht wurde. Die Armbänder könnten perspektivisch der Früherkennung von Krankheiten dienen, da sich über die Atemfrequenz Hinweise auf noch unerkannte medizinische Probleme finden lassen.

Die Atmung verrät viel über die Gesundheit von Patienten. Verschiedene Studien haben gezeigt, dass Abweichungen von der normalen Atemfrequenz von etwa 12 bis 18 Mal pro Minute sogar Hinweise auf ernsthafte Erkrankungen geben können. Atmen Patienten etwa weniger als sechs Mal pro Minute, ist das ein stärkerer Hinweis auf lebensgefährliche Probleme als ein abweichender Herzschlag. Eine besonders schnelle Atmung kann hingegen ein früher Hinweis auf Herzprobleme sein. „Die Relevanz der Atemfrequenz findet jedoch bisher wenig Beachtung bei der Früherkennung medizinischer Risiken“, so PD Dr. Jan Kantelhardt, Physiker an der MLU. Seine Arbeitsgruppe untersucht seit einigen Jahren, wie physikalische Daten von Messgeräten für eine bessere Diagnostik genutzt werden können.

Wirklich zuverlässig kann die Atemfrequenz über längere Zeiträume bisher nur in Kliniken mit entsprechender Ausstattung aufgezeichnet werden. Im Rahmen von Gesundheitsstudien mit mehreren Hunderttausenden Teilnehmerinnen und Teilnehmern beispielsweise werden jedoch weniger aufwendige Möglichkeiten benötigt. Bislang kommt dann häufig ein einfaches Elektrokardiogramm (EKG) zum Einsatz, das Herzfrequenz und -rhythmus misst und so Rückschlüsse auf die Atmung erlaubt. „Wir haben nach einer neuen Methode gesucht, um mit relativ günstigen Mitteln die Atmung zu messen“, sagt Kantelhardt.

Gemeinsam mit der Arbeitsgruppe von Prof. Dr. Thomas Penzel vom Interdisziplinären Schlafmedizinischen Zentrum der Charité wollte das Team aus Halle überprüfen, ob spezielle Bewegungsarmbänder eine verlässliche Alternative zum EKG sein könnten. Dafür legten die Mitarbeiterinnen und Mitarbeiter im Schlaflabor der Charité circa 400 Patienten neben den dort üblichen Geräten zusätzlich ein Armband an, das Bewegungen registrieren und außerdem über eine auf die Haut geklebte Elektrode ein einfaches EKG messen kann. „Die Armbänder sind vergleichbar mit Fitnessarmbändern, nur sind sie um einiges genauer. Außerdem können wir mit einer eigenen Software die Rohdaten analysieren“, so Kantelhardt. So können die Forschenden bereits leichteste Bewegungen erkennen – also auch, wenn sich der Arm beim Atmen im Schlaf leicht dreht.

Im Abgleich mit den Daten des Schlaflabors zeigte sich, dass diese minimalen Bewegungen genauere Rückschlüsse auf die Atmung erlauben als das gleichzeitig gemessene EKG. „Bei zu viel Bewegung lässt sich die Atmung mit den Armbändern nicht mehr messen. Wir finden aber immer einige Abschnitte in der Nacht, wo wir die Atmung sehr zuverlässig beobachten können“, so Kantelhardt. Die Armbänder könnten dem Forscher zufolge beispielsweise zur Diagnostik vor dem Aufenthalt in einem Schlaflabor genutzt werden.

Die neue Methode soll aber zunächst dazu dienen, einen Teil der Daten der sogenannten NAKO-Gesundheitsstudie auszuwerten. Im Rahmen der 2014 gestarteten bundesweiten Studie werden circa 200.000 Menschen über viele Jahre zu ihren Lebensumständen und ihrer Krankheitsgeschichte befragt und medizinisch untersucht. Ein Teil der Teilnehmerinnen und Teilnehmer erhielt außerdem die gleichen Bewegungsarmbänder wie in der aktuellen Studie. Ziel des Projekts insgesamt ist es, die Entstehung von Volkskrankheiten wie Krebs, Diabetes oder Herz-Rhythmus-Störungen besser zu verstehen, um Vorbeugung, Früherkennung und Behandlung in Deutschland zu verbessern.

Die Untersuchung wurde durch die Deutsch-Israelische Stiftung für Wissenschaftliche Forschung und Entwicklung (GIF) sowie im Rahmen der NAKO-Gesundheitsstudie durch das Bundesministerium für Bildung und Forschung und die Helmholtz-Gemeinschaft unterstützt.

Wissenschaftliche Ansprechpartner:
PD Dr. Jan W. Kantelhardt
Institut für Physik / MLU
Telefon: +49 345 55-25433
E-Mail: jan.kantelhardt@physik.uni-halle.de

Originalpublikation:
Leube, J. et al. Reconstruction of the respiratory signal through ECG and wrist accelerometer data. Scientific Reports (2020). https://doi.org/10.1038/s41598-020-71539-0

Quelle: IDW
(nach oben)


Harzer Stausee drohen italienische Wassertemperaturen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Die Rappbodetalsperre im Harz ist die größte Trinkwassertalsperre in Deutschland und beliefert rund 1 Mio. Menschen mit Trinkwasser. Der Klimawandel könnte nun dafür sorgen, dass die Wassertemperaturen in dem Stausee deutlich steigen. Sollte die durchschnittliche Erderwärmung bis zum Jahr 2100 zwischen 4 und 6 Grad liegen, was der aktuellen Entwicklung entspricht, wird die Rappbodetalsperre Temperaturverhältnisse bekommen, die vergleichbar sind mit denen des Gardasees.

Die Rappbodetalsperre im Harz ist die größte Trinkwassertalsperre in Deutschland und beliefert rund 1 Mio. Menschen mit Trinkwasser, unter anderem in den Regionen Halle und dem südlichen Sachsen-Anhalt. Der Klimawandel könnte nun dafür sorgen, dass die Wassertemperaturen in dem Stausee deutlich steigen. Sollte die durchschnittliche Erderwärmung bis zum Jahr 2100 zwischen 4 und 6 Grad liegen, was der aktuellen Entwicklung entspricht, wird die Rappbodetalsperre Temperaturverhältnisse bekommen, die vergleichbar sind mit denen des Gardasees und anderer Seen südlich der Alpen. Die Talsperrenbetreiber könnten die Auswirkungen auf die Trinkwasserversorgung teilweise auffangen, schreibt ein vom Helmholtz-Zentrum für Umweltforschung (UFZ) geführtes Forscherteam in der Zeitschrift Science of the Total Environment. Dafür müssten sie die Bewirtschaftung ändern.

Schon jetzt wirkt sich der Klimawandel auf die Rappbodetalsperre aus: Um rund 4 Grad hat sich die Temperatur in den vergangenen 40 Jahren an der Wasseroberfläche des Stausees in den Sommermonaten erwärmt. Diese Entwicklung könnte sich weiter fortsetzen, wie ein vom UFZ-Seenforscher Dr. Karsten Rinke geleitetes Forscherteam nun zeigen konnte. Auf Basis eines von US-Forschern entwickelten Seenmodells prognostizierten sie unter Berücksichtigung möglicher Strategien zur Talsperrenbewirtschaftung die Auswirkungen des Klimawandels auf die Wassertemperatur und auf die physikalische Struktur, die die Schichtung und die jahreszeitliche Durchmischung des Wasserkörpers steuern. Sie bezogen sich dabei auf drei Szenarien künftiger Treibhausgasemissionen. Die sogenannten „Repräsentativen Konzentrationspfade“ (RCPs) beschreiben, ob der Ausstoß von Treibhausgasen bis zum Jahr 2100 gestoppt wird (RCP 2.6), weiter ansteigt (RCP 6.0) oder sich gar ungebremst fortsetzt (RCP 8.5). Im letzten Fall würde laut des Weltklimarats IPCC bis Ende des Jahrhunderts die Erwärmung im weltweiten Durchschnitt mehr als vier Grad betragen.

Für das RCP 2.6- und das RCP 6.0-Szenario modellierten die Autoren der Studie, dass sich an der Rappbodetalsperre die Durchschnittstemperatur an der Wasseroberfläche bis zum Jahr 2100 um 0,09 Grad beziehungsweise um 0,32 Grad pro Jahrzehnt erhöht. Dies würde bis zum Ende des Jahrhunderts ein Anstieg um insgesamt rund 0,7 Grad (RCP 2.6) und rund 2,6 Grad (RCP 6.0) bedeuten. Am höchsten fällt erwartungsgemäß der Temperaturanstieg beim RCP 8.5-Szenario aus: Dabei steigt die Wassertemperatur um 0,5 Grad pro Jahrzehnt, also um rund 4 Grad bis zum Jahr 2100.
Gravierender für die Trinkwassernutzung ist aber, was in tieferen Schichten des Stausees, also in 50 Meter Tiefe und darunter passiert, da hier das Rohwasser für die Trinkwasseraufbereitung entnommen wird. Zwar bleiben beim RCP 2.6- und beim RCP 6.0-Szenario bis zum Jahr 2100 die Auswirkungen verhältnismäßig gering, da die Wassertemperatur weiterhin ganzjährig rund 5 Grad Celsius beträgt. Allerdings werden die Wassertemperaturen beim RCP 8.5-Szenario deutlich zulegen – und zwar um nahezu 3 Grad bis zum Ende des Jahrhunderts. Dadurch erwärmt sich das Tiefenwasser der Talsperre auf rund 8 Grad Celsius. „Damit wird aus einem Stausee im nördlichsten Mittelgebirge Deutschlands ein Gewässer vergleichbar dem Lago Maggiore oder dem Gardasee“, sagt UFZ-Wissenschaftler Karsten Rinke. Diese Temperaturerhöhung hat Folgen, weil sich dadurch die Geschwindigkeit biologischer Stoffumsetzungen stark beschleunigt. „Bei einer Temperaturzunahme auf 8 Grad Celsius verdoppelt sich nahezu die Sauerstoffzehrung, also der Sauerstoffverbrauch durch Atmungs- und Abbauprozesse von Organismen“, sagt Erstautor Chenxi Mi, der am UFZ über die Klimaauswirkungen auf die Rappbodetalsperre promoviert. Weil sich die Dauer der Sommerstagnation – das ist die Phase der stabilen Temperaturschichtung der Seen, in denen das Tiefenwasser von der Sauerstoffversorgung aus der Atmosphäre abgeschlossen ist – durch den Klimawandel ohnehin verlängert, bedeutet die erhöhte Sauerstoffzehrung eine zusätzliche Belastung für den Sauerstoffhaushalt des Gewässers. Hinzu kommt, dass wärmeres Wasser auch weniger Sauerstoff aufnehmen kann. Eine verstärkte Rücklösung von Nährstoffen und gelösten Metallen aus dem Sediment, Algenwachstum und die Zunahme von Blaualgen wären mögliche Folgen.

Das Eintreten des 8.5-Szenarios hätte somit Auswirkungen auf die Trinkwasserversorgung. Die Talsperrenbetreiber entnehmen das Rohwasser aus guten Gründen aus der untersten Schicht, da das Wasser dort kalt ist und einen geringen Gehalt an Trübstoffen, gelösten Metallen, Algen, Bakterien und potenziell pathogenen Mikroorganismen aufweist. Nimmt nun dort aufgrund zunehmender Wassertemperatur der Sauerstoffanteil schneller ab, erhöht das die Gefahr von Verunreinigungen, etwa durch Rücklösungen aus dem Sediment und einem verstärktem Bakterienwachstum. Für die Betreiber würde dies den Aufbereitungsaufwand erhöhen und sie vor höhere Ansprüche an die vorzuhaltende Aufbereitungskapazität stellen. „Es lohnt sich daher auch mit Blick auf die Trinkwasserversorgung, die Erwärmung des Tiefenwassers zu vermeiden, idealerweise durch eine ambitionierte Klimapolitik, welche die Erwärmung begrenzt“, sagt Rinke.

Ganz machtlos stehen die Talsperrenbetreiber der Erwärmung des Tiefenwassers aber nicht gegenüber. Die Modellsimulationen des Teams um Karsten Rinke zeigen, dass ein Teil der Wärme durch ein geschicktes Wasserentnahmeregime abgeführt werden könnte. Dies betrifft die Wasserabgabe an den Unterlauf, also die Wasserentnahme, die in das darunter liegende Fließgewässer entwässert, um dort die Abflussverhältnisse stabil zu halten. Diese sogenannte Unterwasser-Abgabe müsste nicht wie bisher aus den tieferen Schichten, sondern oberflächennah entnommen werden. „Damit wird die zusätzliche Wärme, die durch den Klimawandel verursacht wird, wieder abgegeben“, sagt Rinke. Bei einer Erwärmung der Luft über 6 Grad hinaus lasse sich allerdings das Aufheizen des Tiefenwassers nicht mehr verhindern. „Auch wenn die Betreiber infolge der sehr trockenen Jahre in jüngster Vergangenheit eher mit dem Wassermangel zu kämpfen haben, ist es genauso wichtig, sich Gedanken um die Wasserqualität zu machen. Wir haben durchaus Potenziale in der Talsperrenbewirtschaftung, auf die Veränderungen durch den Klimawandel zu reagieren und somit bestimmte negative Auswirkungen im Sinne einer Klimaanpassung abzupuffern.“

Die Betreiber der Rappbodetalsperre im Talsperrenbetrieb Sachsen-Anhalt sind sich dessen bewusst. Sie stehen mit den UFZ-Forschern um Karsten Rinke seit etlichen Jahren in engem Austausch, um die Auswirkungen des Klimawandels gemeinsam zu bewerten und Möglichkeiten der Anpassung an der Rappbodetalsperre auszuloten. So hat der Talsperrenbetrieb bereits neue Infrastrukturen in der Planung, welche die Implementation der neuen Bewirtschaftungsstrategien erlauben werden.

Wissenschaftliche Ansprechpartner:
Dr. Karsten Rinke
Leiter UFZ-Department Seenforschung
karsten.rinke@ufz.de

Originalpublikation:
Chenxi Mi, Tom Shatwell, Jun Ma,Yaqian Xu, Fangli Su, Karsten Rinke: Ensemble warming projections in Germany’s largest drinking water reservoir and potential adaptation strategies. Science of the Total Environment https://doi.org/10.1016/j.scitotenv.2020.141366

Quelle: IDW
(nach oben)


Desinfektionsmittel in Schlagsahne und Pangasius-Fisch

Harald Händel Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
BVL stellt Ergebnisse der Lebensmittelüberwachung 2019 vor

Schlagsahne gehört für viele Menschen zu Eis und Kuchen dazu. In Eisdielen und Bäckereien werden häufig Sahneaufschlagmaschinen zur Herstellung der eigenen Schlagsahne verwendet. Allerdings werden bei der Reinigung und Desinfektion der Maschinen oft Fehler gemacht. So vergaßen 41 % der 2019 kontrollierten Betriebe das anschließende Nachspülen mit heißem Trinkwasser. Dies kann zu einer Verunreinigung der Sahne mit dem Desinfektionsmittel führen.

Auch in Pangasius-Fisch fanden die Untersuchungsämter im vergangenen Jahr häufig Rückstände von Desinfektionsmitteln. Bei 10 % der Fischproben bestand sogar eine akute Gesundheitsgefahr, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) bei seiner heutigen Pressekonferenz in Berlin mitteilte.

Im Jahr 2019 wurden Sahneaufschlagmaschinen in insgesamt 1.818 Betrieben kontrolliert. Dies waren überwiegend Eisdielen, aber auch Bäckereien und andere Gastronomiebetriebe. Am häufigsten bemängelten die Kontrollbehörden der Bundesländer das fehlende Nachspülen der Maschinen mit heißem Trinkwasser. In 41 % der Betriebe blieb dies aus.

„Es ist gut, dass die meisten Betriebe ihre Sahneaufschlagmaschinen regelmäßig und gründlich reinigen,“ sagte Prof. Dr. Michael Kühne von der Länderarbeitsgemeinschaft Verbraucherschutz (LAV) bei der Vorstellung der Ergebnisse ausgewählter Schwerpunktprogramme der Lebensmittelüberwachung. „Zur richtigen Reinigung der Maschinen gehört aber auch das Nachspülen mit Trinkwasser. Ansonsten besteht die Gefahr, dass Reste von Reinigungs- und Desinfektionsmitteln in die Sahne übergehen.“

Zudem wurden in fast allen Betrieben (94 %) keine Eigenkontrollen auf Rückstände von Reinigungs- und Desinfektionsmitteln durchgeführt. Auch Eigenkontrollergebnisse zu mikrobiologischen Untersuchungen konnte lediglich ein Viertel der Betriebe vorzeigen. Der allgemeine Reinigungszustand und die Hygiene der Umgebung der Maschinen wurde hingegen von den Kontrolleuren nur sehr selten beanstandet.

Rückstände von Desinfektionsmitteln in Pangasius-Fisch
Bei der Verarbeitung eines leicht verderblichen Lebensmittels wie Fisch sind besondere Hygienemaßnahmen erforderlich. So ist es üblich, beim Enthäuten, Ausnehmen oder Filetieren Prozesswasser zu verwenden, dem Desinfektionsmittel zugesetzt werden. Auch alle mit dem Fisch in Kontakt kommenden Flächen oder Schneidegeräte werden in der Regel mit Desinfektionsmitteln gereinigt. Die Mittel enthalten häufig Chlorat oder Quartäre Ammoniumverbindungen (QAV) wie Benzalkoniumchlorid (BAC).

Chlorat hemmt die Aufnahme von Jod in die Schilddrüse. Dies kann besonders bei empfindlichen Personen wie Kindern, Schwangeren oder Personen mit Schilddrüsenfunktionsstörungen unerwünschte gesundheitliche Effekte verursachen. BAC kann zu Reizungen im Magen-Darm-Trakt führen.

Etwaige Rückstände an Chlorat und BAC müssen daher durch sorgfältiges Nachspülen mit Wasser vom Fisch sowie von den Arbeitsflächen und Schneidegeräten entfernt werden.

Im vergangenen Jahr wurden in einem Monitoring-Projekt 80 Proben Pangasius auf Rückstände von Chlorat und BAC untersucht. Der Fisch stammte überwiegend aus vietnamesischer Aquazucht und lag in Form von glasierten Tiefkühl-Filets vor.

Bei 79 % der Proben konnte Chlorat quantifiziert werden. 39 % enthielten BAC. Bei 10 % der Proben waren die gemessenen Rückstände an Chlorat (drei Proben) bzw. BAC (fünf Proben) so hoch, dass ein akutes gesundheitliches Risiko beim Verzehr des Pangasius bestand.

Dazu erklärte Dr. Georg Schreiber, Leiter der Abteilung „Lebensmittelsicherheit“ im BVL: „Es ist absolut inakzeptabel, dass hier Lebensmittel auf den Markt gebracht werden, von denen eine Gesundheitsgefahr für die Verbraucherinnen und Verbraucher ausgeht. Bei der Verarbeitung des Pangasius muss deutlich sorgfältiger gearbeitet werden.“

Krankheitserreger in Schweinehackfleisch
Shiga-Toxin bildende E. coli (STEC) sind Bakterien, die akute Darmentzündungen hervorrufen können. Diese können zum Teil einen schweren Verlauf nehmen, wie bei den EHEC-Infektionen im Jahr 2011. Insbesondere bei Kindern kann eine Infektion mit STEC zur Ausbildung eines hämolytisch-urämischen Syndroms (HUS) führen, das u. a. mit einer schwerwiegenden Nierenfunktionsstörung einhergeht.

2019 wurden im Rahmen des Zoonosen-Monitorings 420 Proben Schweinhackfleisch auf STEC untersucht. 7,4 % der Proben enthielten STEC-Keime. Bei der letzten vergleichbaren Untersuchung zehn Jahre zuvor waren nur 0,8 % der Proben positiv getestet worden. Auch Salmonellen wurden erneut im Hackfleisch nachgewiesen (1,9 % positive Proben).

„Die Ergebnisse zeigen einmal mehr, dass rohes Schweinehackfleisch, wie Mett, kein geeignetes Lebensmittel für empfindliche Verbrauchergruppen ist,“ sagte der Präsident des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit Friedel Cramer. „Kleinkinder, ältere und immungeschwächte Menschen sowie Schwangere sollten am besten ganz auf den Verzehr von rohem Hackfleisch verzichten.“

Fälschung bei Oregano
Lebensmittelbetrug kennt viele Formen. Eine davon kann die Verunreinigung von Gewürzen mit fremden Pflanzenteilen sein. So wurde in den vergangenen Jahren von den deutschen Überwachungsbehörden Oregano gefunden, der zum Teil in erheblichem Umfang mit klein gehackten Olivenblättern vermischt wurde. Ein möglicher Grund für die Verfälschung sind die gestiegenen Großhandelspreise für Gewürze. Um Oregano dennoch preiswert anbieten zu können, wird es mit Fremdbestandteilen gestreckt.

„Die Verbraucherinnen und Verbraucher haben ein Recht darauf, das zu bekommen, was auf der Packung draufsteht“, erklärte Prof. Dr. Michael Kühne von der Länderarbeitsgemeinschaft Verbraucherschutz (LAV). „Deshalb schauen wir bei allen Arten von Lebensmitteln gezielt nach etwaigen Verfälschungen.“

2019 wurden im Rahmen des Bundesweiten Überwachungsplans (BÜp) 61 Proben Oregano untersucht. Dabei enthielten 13 % der Proben Reste von Olivenblättern. Insgesamt wurden in jedem fünften Gewürz pflanzliche Fremdbestandteile nachgewiesen, darunter auch Holzteile. Tierische Fremdbestandteile, wie Insektenteile, waren in keiner Probe enthalten.

Blausäure in Aprikosenkernen
Aprikosenkerne befinden sich im Inneren der Aprikosensteine und haben rein äußerlich eine Ähnlichkeit mit Mandeln. Im Internet werden sie oft als gesundheitsfördernder Snack oder teilweise sogar als Heilmittel gegen Krebs angeboten. Dabei enthalten Aprikosenkerne hohe Mengen an Blausäure, die beim Menschen zu Vergiftungen bis hin zum Tod führen können.

Die meisten Onlinehändler kennen das Gesundheitsrisiko, das von Aprikosenkernen ausgeht. Um ihre Waren dennoch verkaufen zu können, platzieren sie entweder Warnhinweise bei dem Angebot oder deklarieren die Kerne als Saatgut. Gleichzeitig werden die Aprikosenkerne aber in der Produktkategorie „Lebensmittel“ bei den Onlinemarktplätzen eingestellt.

2019 haben die Überwachungsbehörden in einem weiteren BÜp-Programm 43 Proben süße und bittere Aprikosenkerne untersucht. 79 % überschritten den für Blausäure zulässigen EU-Höchstgehalt von 20 mg/kg. Besonders bittere Aprikosenkerne, die von Wildaprikosen gewonnen werden, lagen im Durchschnitt um mehr als das 100-fache über dem Grenzwert. Bereits beim Verzehr von mehr als ein bis zwei bitteren Aprikosenkernen pro Tag kann ein gesundheitliches Risiko nicht mehr ausgeschlossen werden.

„Aprikosenkerne sind als Lebensmittel ungeeignet“, stellt der BVL-Abteilungsleiter Dr. Georg Schreiber klar. „Der extrem hohe Blausäuregehalt ist eine echte Gefahr für die Gesundheit der Verbraucherinnen und Verbraucher.“

Die Lebensmittelüberwachungsbehörden gehen deshalb gegen unzulässige Angebote von Aprikosenkernen vor. So wurden im vergangenen Jahr insgesamt elf Meldungen zu gesundheitsgefährdenden Aprikosenkernen in das Europäische Schnellwarnsystem RASFF eingestellt. Drei Rückrufe wurden zudem über das deutsche Internetportal www.lebensmittelwarnung.de veröffentlicht.

Weiterführende Informationen
Monitoring 2019:
https://www.bvl.bund.de/monitoring
Bundesweiter Überwachungsplan (BÜp) 2019:
https://www.bvl.bund.de/buep
Zoonosen-Monitoring 2019:
https://www.bvl.bund.de/zoonosenmonitoring
Präsentation „Lebensmittelsicherheit in Deutschland“:
https://www.bvl.bund.de/lebensmittelueberwachung2019_praesentation
Internetportal
https://www.lebensmittelwarnung.de
Schnellwarnsysteme:
https://www.bvl.bund.de/schnellwarnsysteme

Quelle: IDW
(nach oben)


Internationales Projekt zur industriellen Wasserwirtschaft wird an der RWTH Aachen koordiniert

Angelika Hamacher Dezernat 3.0 – Presse und Kommunikation
Rheinisch-Westfälische Technische Hochschule Aachen
Europäische Union finanziert „AquaSPICE“ mit elf Millionen Euro

Am 1. Dezember 2020 startet das internationale Projekt „AquaSPICE – Advancing Sustainability of Process Industries through Digital and Circular Water Use Innovations“, das von Professor Thomas Wintgens vom RWTH-Institut für Siedlungswasserwirtschaft koordiniert wird. Die Europäische Union finanziert die Forschungsarbeiten zur industriellen Wasserwirtschaft in den nächsten 3,5 Jahren im Rahmen des Forschungs- und Innovationsprogramms H2020 mit elf Millionen Euro. Beteiligt sind 29 Partner aus zwölf Ländern.

Die Industrie ist einer der großen Wassernutzer in Europa. Abhängig vom Produktionsprozess unterscheiden sich die Ansprüche an Wasserqualität und -menge. Zur Sicherstellung der Versorgung ist die Wiederverwendung von bereits genutztem Wasser von wachsender Bedeutung. Dies gilt insbesondere für Standorte, die aufgrund der klimatischen Veränderungen bereits mit begrenzten regionalen Ressourcen auskommen müssen. Im Projekt soll durch die Verbindung von Aufbereitungsverfahren, Sensortechnologien und digitalen Prozessen die Schließung der Wasserkreisläufe vorangetrieben werden. Hierbei engagieren sich auch mittlere und große Industriebetriebe aus den Bereichen Nahrungsmittelherstellung, Chemie, Mineralölverarbeitung sowie Abfallverwertung ebenso wie Forschungsinstitutionen und Softwareanbieter.

In sechs Fallstudien werden Wasserströme für die Produktionsprozesse mit Ansätzen der Kreislaufwirtschaft betrachtet und mit verschiedenen Behandlungsverfahren im Pilotmaßstab aufbereitet, um die Anforderungen der nachgeschalteten Prozesse zu erfüllen. Eingesetzt werden biologische und physikalisch-chemische Verfahren, unter anderem auch Membranprozesse. Das RWTH-Institut für Siedlungswasserwirtschaft übernimmt die wissenschaftliche Begleitung der Fallstudien, die Aufbereitungsprozesse werden bewertet und die Einhaltung der Qualitätskriterien durch umfassende Analytik unterstützt. Der Zustand von Wasserressourcen und Aufbereitungsprozessen soll mit Sensorsystemen in Echtzeit erfasst und mit Hilfe einer digitalen Plattform optimiert werden. Die Fallstudien erfolgen an Chemie-Industriestandorte der niederländischen Provinz Zeeland, im Hafen von Antwerpen, in Mitteldeutschland sowie in Italien.

Kontakt:
Univ.-Prof. Dr.-Ing. Thomas Wintgens
Institut für Siedlungswasserwirtschaft
Telefon 0241/8025207
E-Mail sekretariat@isa.rwth-aachen.de

Quelle: IDW
(nach oben)


Ratgeber zum individuellen Stressmanagement

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
In einem neuen Ratgeber bündeln Experten aus Freiburg und Trier wissenschaftlich erprobte Tipps zur Stressbewältigung

Wie können Menschen am besten mit hohen Belastungen, Stress und stressbedingten Erkrankungen umgehen? Gemeinsam haben Forscher und Psychotherapeuten der Universitäten Freiburg und Trier den neuen „Ratgeber Stress und Stressbewältigung“ veröffentlicht. Der Guide stellt anschaulich wissenschaftlich erprobte Techniken anhand unterschiedlicher Fallbeispiele sowie praktischer Übungen vor. „Nach 25 Jahren Stressforschung können wir Betroffenen so viel mehr als klassische Entspannungstrainings anbieten – von Techniken zur Verbesserung der Regenerationsfähigkeit über eine aktive Veränderung von Stressauslösern bis zu schnell wirksamen Atemtechniken“, sagt Prof. Dr. Markus Heinrichs, der zusammen mit Dr. Tobias Stächele die „Ambulanz für stressbedingte Erkrankungen“ an der Universität Freiburg leitet. Ihr Kollege Prof. Dr. Gregor Domes hat die Leitung der „Forschungsambulanz für Stress“ an der Universität Trier inne.

Vor einigen Jahren haben die Autoren ein Handbuch über Stressbewältigung verfasst, das Fachleuten aus Psychotherapie und Medizin eine Hilfestellung für die Behandlung von Patientinnen und Patienten gibt. Mit dem neuen Ratgeber suchen Heinrichs, Stächele und Domes den direkten Weg zu Betroffenen und deren Angehörigen. „Durch den Einsatz erprobter, aktiver Strategien haben alle die Möglichkeit, die eigene Stressbewältigung zu verbessern. Das gilt auch für Personen mit hoher Stressbelastung “, erläutert Stächele. Im Zentrum des Ratgebers stehen sowohl Hilfestellungen für den Umgang mit akuten Stressauslösern als auch Tipps für den Aufbau von Kompetenzen für eine Verbesserung der langfristigen Stressbalance. „Patienten profitieren erheblich davon, individuelle Signale frühzeitig wahrzunehmen und hohe alltägliche Belastungen durch gezielte Maßnahmen positiv zu beeinflussen“, sagt Stächele. Dabei haben die Fachleute beobachtet, dass eine mangelnde Stressbewältigung selten auf nur eine Ursache zurückzuführen sei, betont Heinrichs: „Es geht um ein breites diagnostisches Verständnis und eine auf den Einzelnen zugeschnittene Zusammenstellung wirksamer Maßnahmen.“ Wichtig ist den Autoren, dass die Leserinnen und Leser schnell und gezielt aktive Übungen als individuelles Stressmanagement umsetzen können und auch vor zukünftigen Stressbelastungen wirksam geschützt sind.

Buchveröffentlichung:
T. Stächele, M. Heinrichs, G. Domes (2020). Ratgeber Stress und Stressbewältigung. Broschiert, 103 Seiten.

Kontakt:
Prof. Dr. Markus Heinrichs, Dr. Tobias Stächele
Institut für Psychologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3029
E-Mail: heinrichs@psychologie.uni-freiburg.de, staechele@psychologie.uni-freiburg.de

Originalpublikation:
https://www.pr.uni-freiburg.de/pm/2020/stress-kompetent-managen

Quelle: IDW
(nach oben)


Umfrageergebnisse zum Nutzen oder Nichtnutzen der Corona-Warn-App

Marlon Taddigs Marketing und Kommunikation
OFFIS – Institut für Informatik
Die deutsche Corona-Warn-App hat derzeit laut dem Robert-Koch-Institut (RKI) knapp 23 Millionen Downloads in Deutschland zu verzeichnen. Das Informatikforschungsinstitut OFFIS hat von Mitte August bis Ende September 2020 eine bundesweite Online-Umfrage zur Nutzung – oder auch Nichtnutzung – der deutschen Corona-Warn-App durchgeführt. Erste Ergebnisse sind nun als Vorabveröffentlichung verfügbar.

Die bundesweite Umfrage enthielt Fragen wie: Nutzen Sie die Corona‐Warn‐App? Warum nutzen Sie die App, beziehungsweise warum nutzen Sie sie nicht oder nicht mehr? oder auch: Wie regelmäßig nehmen Sie Ihr Handy mit, wenn Sie das Haus verlassen?

An der OFFIS Umfrage beteiligten sich insgesamt mehr als 1.300 Teilnehmer*innen. Ein parallel vom renommierten Marktforschungsinstitut infas 360 durchgeführtes, größeres Panel hat einen Teil der Studien-Fragen unverändert übernommen. Dort wurden die Fragen von mehr als 10.000 Personen beantwortet. Die nun vorabveröffentlichten Ergebnisse der OFFIS-Studie basieren daher auf insgesamt 11.862 Antworten aus diesen zwei bundesweiten Umfragen.

Nutzung der Corona-Warn-App
Bei denjenigen, die die Corona‐Warn‐App nutzen, ist sie in der Regel aktuell und das Handy wird meistens oder immer mitgeführt, so dass das grundsätzliche Funktionieren im Wesentlichen sichergestellt scheint. Die Nutzenden öffnen die App regelmäßig, oft mindestens wöchentlich. Hauptgründe sind dabei das Überprüfen des eigenen Status, und das Sicherstellen der Funktion, obwohl das technisch nicht oder nicht mehr notwendig ist beziehungsweise zum Zeitpunkt der Umfrage nicht ausdrücklich empfohlen wurde. Beides ist zudem bei Personen mit höherer Corona‐Sorge stärker ausgeprägt und nimmt insgesamt zu, wenn in räumlicher oder sozialer Nähe das Risiko steigt.

Altruistische Gründe bei der Nutzung
Die Gründe für die Nutzung der App sind vor allen Dingen altruistisch: Die Nutzenden wollen einen Beitrag dazu liefern, die Pandemie zu beenden. Nachgeordnet, aber noch deutlich erkennbar ist der Grund, das eigene Umfeld zu schützen. Deutlich geringer, aber ebenfalls noch zustimmend ist der Selbstschutz angegeben worden, obwohl dies objektiv keine Funktion der App ist. Die Wirkweise der App wird möglicherweise – auch wenn sie vielen im Grundsatz klar ist – von einem deutlichen Anteil der Nutzenden nicht vollständig verstanden.

Nicht-Nutzung der Corona-Warn-App
Die Forscher konnten vier Hauptgründe für das Nicht‐Nutzen der Corona‐Warn‐App ermitteln. An erster Stelle stehen Datenschutzbedenken. Nahezu gleichauf sind Zweifel am Sinn der App sowie technische Probleme. Schließlich werden auch Probleme genannt, die sich allgemein unter User Experience zusammenfassen lassen, und die widerspiegeln, dass die Nutzenden den Umgang mit der App nicht angenehm finden. Weniger relevant, aber doch sichtbar in den Ergebnissen, waren Gleichgültigkeit sowie grundsätzliche Zweifel an der Gefahr durch Corona.

Eingeben eines positiven Testergebnisses
Auffallend ist, dass ein deutlicher Anteil der Nutzenden unsicher war, ob sie die App zum Eingeben von Testergebnissen öffnen würden. Unklar bleibt hier, ob lediglich eine Unkenntnis darüber herrscht, ob und wie Testergebnisse in der App eingegeben werden, oder ob es ein Misstrauen darüber ist, ein Testergebnis eingeben zu wollen.

Folgerungen aus der Studie
Aus der Studie kann man zwei mögliche, sich ergänzende Folgerungen ziehen:

1. Zum einen lässt sich vermuten, dass die Nutzenden mit der Corona‐Warn‐App interagieren wollen, und sie nicht ausschließlich als rein passive Hintergrund‐App auf dem
Handy laufen lassen wollen.

2. Zum anderen wird möglicherweise die Funktion der App nicht ausreichend verstanden, so dass es zu Zweifeln an der Sinnhaftigkeit und an ihrem Datenschutzkonzept kommt.

In einer nun folgenden, detaillierten Analyse untersucht OFFIS, welche Zusammenhänge es zwischen den verschiedenen Ansichten gibt. Die Wissenschaftler*innen hoffen, so Hinweise zu erhalten, wie die Corona-Warn-App so gestaltet werden kann, dass sie auf eine höhere Akzeptanz und sinnvollere Nutzung trifft.

Die komplette Dokumentation der Studienergebnisse wurde von OFFIS vorab auf arxiv.org veröffentlicht und ist hier verfügbar: http://arxiv.org/abs/2011.11317

Weiterführende Informationen
Diese Studie wurde im Rahmen des Projektes PANDIA (http://www.pandia-projekt.de/), einem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt durchgeführt (FKZ: 16SV8397). Die Studie ist unabhängig von den Herausgebern der Corona Warn‐App, insbesondere dem Robert‐Koch‐Institut, der SAP AG, und der Telekom.

Die Wissenschaftler*innen des Informatikinstituts OFFIS arbeiten seit vielen Jahren an vielfältigen technischen Lösungen im Gesundheitsweisen. Ein großer Bereich sind dabei sogenannte intelligente Nutzungsschnittstellen, denn aus Sicht der OFFIS Forscher*innen sollen neuste Technologie möglichst leicht nutzbar sein.

Die komplette Dokumentation der Studienergebnisse wurde von OFFIS vorab auf arxiv.org veröffentlicht und ist hier verfügbar. http://arxiv.org/abs/2011.11317

Über: OFFIS – Institut für Informatik
OFFIS ist ein 1991 gegründetes, international ausgerichtetes, anwendungsorientiertes Forschungs- und Entwicklungsinstitut für Informatik mit Sitz im niedersächsischen Oldenburg. In durchschnittlich 70 laufenden Projekten leistet OFFIS mit seinen über 300 Mitarbeiterinnen und Mitarbeitern aus rund 25 Nationen Forschung und prototypische Entwicklungsarbeit auf höchstem internationalem Niveau in den Forschungsbereichen Energie, Gesundheit, Produktion und Verkehr. Dabei kooperiert OFFIS mit weltweit über 700 Partnern aus Wirtschaft und Wissenschaft.

In allen Forschungsbereichen des OFFIS wirken unsere Wissenschaftler*innen mit in unterschiedlichsten Gremien, Ethik-Kommissionen, erarbeiten Studien, Roadmaps und geben Empfehlungen aus – auf nationaler und internationaler Ebene.

Der Forschungsbereich Gesundheit des OFFIS ist heute die größte außerklinische Gesundheitsinformatik in Deutschland und trägt maßgeblich zur Stärkung der Gesundheitswirtschaft im Nordwesten bei. Informationstechnologien für das Gesundheitswesen und die Medizin, wie das Epidemiologische Krebsregister Niedersachsen und die maßgebliche Beteiligung an der Entwicklung des internationalen medizinischen Bildkommunikationsstandards DICOM sind nur zwei der zahlreichen Beispiele für erfolgreiche Arbeiten des Bereichs.
http://www.offis.de

Über infas 360:
infas 360 ist eine Tochtergesellschaft der infas Holding AG. Ziel des Unternehmens ist die Erfassung, Analyse und Aufbereitung von Daten aus verschiedenen Quellen. Dazu gehören Geodaten, frei verfügbare Marktdaten, Kundendaten von Auftraggebern und Daten aus eigenen Marktforschungsprojekten.

infas 360 besteht aus einem Team von interdisziplinär arbeitenden Experten aus den Gebieten der Marktforschung und Statistik, der Geoinformatik und der Betriebswirtschaftslehre. Das Team verfügt über ein jahrelang gewachsenes Know-how bei der Beschaffung und Bewertung von amtlichen sowie gewerblichen Daten, in der empirischen Marktforschung, dem Handling umfassender Datenmengen und der Anwendung komplexer Analyseverfahren zur Datenstrukturierung, -komprimierung und -auswertung. Darüber hinaus besteht innerhalb der infas Holding AG eine enge Zusammenarbeit mit dem infas Institut für angewandte Sozialwissenschaft.

Kontakt infas 360:
Julia Kroth
Consultant, Research & Analytics
E-Mail: J.Kroth@infas360.de
Telefon: +49 (0)228/74887-376
infas 360 GmbH, Ollenhauerstraße 1, D-53113 Bonn
https://infas360.de/

Wissenschaftliche Ansprechpartner:
Dr. Jochen Meyer, Bereichsleiter Gesundheit

OFFIS – Institut für Informatik, Escherweg 2, 26121 Oldenburg
E-Mail: meyer@offis.de, Tel. 0441-9722-185

Originalpublikation:
http://arxiv.org/abs/2011.11317

Quelle: IDW
(nach oben)


Biobasierte Autokarosserie für die Straßenzulassung rückt in greifbare Nähe

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Biowerkstoffe sind ein wichtiger Baustein bei der Umsetzung der Nationalen Bioökonomiestrategie

Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert seit Oktober die Entwicklung einer Auto-Karosserie mit einem hohen Anteil nachwachsender Rohstoffe. Forscher des Fraunhofer-Instituts für Holzforschung, Wilhelm-Klauditz-Institut WKI und der HOBUM Oleochemicals GmbH wollen einen Bioverbundwerkstoff aus Pflanzenfasern und pflanzenölbasierten Harzsystemen entwickeln, der industriell zu Karosseriebauteilen verarbeitet werden kann. Mit dem Bioconcept-Car als Testmodul optimieren sie die technische Performance der Bauteile bis zur serienreifen Straßenzulassung.

Über das Förderprogramm Nachwachsende Rohstoffe unterstützt das BMEL seit einigen Jahren die Entwicklung biobasierter Werkstoffe im Karosseriebau. Jetzt startete das dreijährige Verbundprojekt „Biobasierte Harze für die serielle Verarbeitung faserverstärkter Bauteile (BioResinProcess)“. Lag der Fokus der Förderung bisher vor allem auf den Naturfasern, richtet sich der Blick nun verstärkt auf biobasierte Harzsysteme.

BioResinProcess knüpft nahtlos an das im Sommer 2020 abgeschlossene Förderprojekt „Nachhaltiger Biohybrid-Leichtbau für eine zukunftweisende Mobilität“ an. Dort ist erstmals die Serienfertigung eines Karosseriebauteils aus naturfaserverstärkten Werkstoffen gelungen. Im Folgeprojekt soll der Bioanteil der Bauteile auf mindestens 85 % erhöht und ihre Verarbeitung mit dem RTM (Resin-Transfer-Moulding)-Verfahren optimiert werden. Weitere Stationen in der industriellen Fertigung sind die Oberflächenbearbeitung und die abschließende Lackierung. Für beide Schritte werden geeignete biobasierte Lösungen gesucht.

Das Ziel ist, ein Serienbauteil aus biobasierten Verbundwerkstoffen im Hinblick auf die Anforderungen einer Straßenzulassung zu konzipieren. Ein besonderer Reiz dieses Projekts liegt in der Zusammensetzung der Partner. Mit dem Fraunhofer WKI und mit der HOBUM GmbH sind für die Werkstoffseite die anwendungsnahe Forschung und ein industrieller Partner vertreten. Die Automobilbranche ist mit der Porsche AG, die als assoziierter Partner ihr technisches Knowhow einbringt, direkt beteiligt. Eine hohe Aufmerksamkeit sowohl in der Automobilbranche als auch der breiten Öffentlichkeit entsteht durch das Rennteam Four Motors, das die entwickelten Karosseriebauteile unter realen Bedingungen testet und mit seinem Promifahrer, dem Musiker Smudo, die mediale Berichterstattung befeuert.

Parallel zum Ziel einer Straßenzulassung arbeiten die Partner an der Steigerung des Anwendungspotenzials von Bioverbundwerkstoffen. Bioverbundwerkstoffe sind nicht nur im Automobilbau gefragt, vielmehr setzen verschiedene Industriebereiche große Hoffnung auf diese innovativen Materialien, die einen preisgünstigen Leichtbau ermöglichen.

Damit knüpft das Forschungsprojekt BioResinProcess an die Nationale Bioökonomiestrategie der Bundesregierung an. Mit Karosseriebauteilen aus nachwachsenden Rohstoffen lässt sich anschaulich darstellen, wie der Umbau zu einer nachhaltigen, kreislauforientierten Wirtschaft auf Basis biogener Rohstoffe funktionieren kann. Darüber hinaus verdeutlicht der Einsatz von Pflanzenfasern und Pflanzenölen für die Herstellung von Bioverbundwerkstoffen die wichtige Rolle der Land- und Forstwirtschaft als Rohstoffproduzent und –lieferant. Um die Potenziale biogener Rohstoffe erschließen können, wird allerdings noch eine Forschungsförderung, wie sie das Förderprogramm Nachwachsende Rohstoffe des BMEL leistet, gebraucht.

Zugehörige Links:
Verbundvorhaben: Biobasierte Harze für die serielle Verarbeitung faserverstärkter Bauteile (BioResinProcess)

Teilvorhaben 1: Materialentwicklung und Prozessanpassung (https://www.fnr.de/index.php?id=11150&fkz=2220NR094A)

Teilvorhaben 2: Entwicklung biobasierter Härter für Epoxidharze auf Basis von pflanzlichen Ölen (https://www.fnr.de/index.php?id=11150&fkz=2220NR094B)

Nationale Bioökonomiestrategie (https://www.bmel.de/SharedDocs/Downloads/DE/Broschueren/nationale-biooekonomiest…)

BMEL-Pressemeldung Nationale Bioökonomiestrategie (https://www.bmel.de/SharedDocs/Pressemitteilungen/DE/2020/006_biooekonomiepoliti…)

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Dr. Gabriele Peterek
Tel.: +49 3843 6930-119
Mail: g.peterek@fnr.de

Quelle: IDW
(nach oben)


Diagnostik im Gesundheitssport

SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. habil. Michael Tiemann der SRH Hochschule für Gesundheit publiziert Beitrag zu diagnostischen Verfahren im Bereich des vereinsbezogenen Gesundheitssports.

Seit Jahren finden diagnostische Verfahren vor allem im Leistungs- und Hochleistungssport und Trainingssteuerung Anwendung. Seit einiger Zeit haben sich solche Verfahren jedoch auch zunehmend im Gesundheits- und Fitnesssport etabliert. „Durch ihren Einsatz sollen insbesondere vermeidbare individuelle Gesundheitsrisiken ausgeschlossen, die Belastungssteuerung optimiert und die Erreichung der anvisierten Gesundheits- und Verhaltenswirkungen überprüft werden. Der zunehmende Einsatz von Maßnahmen zur Diagnostik und Qualitätssicherung steht dabei auch in engem Zusammenhang mit den gestiegenen Qualitätsanforderungen an Gesundheitssportprogramme als förderungswürdige Leistung nach § 20 SGB V durch die gesetzlichen Krankenkassen“, weiß Prof. Dr. habil. Michael Tiemann, Professor für Sportwissenschaften, dessen Publikation mit dem Titel „Diagnostik im Bereich des Gesundheitssports im Setting Sportverein“ nun in der Zeitschrift „B&G Bewegungstherapie und Gesundheitssport“ (Ausgabe 5 / 2020) erschienen ist. Seitens des Deutschen Turner Bundes (DTB) wird den Vereinen insbesondere die Durchführung eines Risikochecks (PAR-Q) sowie der Einsatz von motorischen Tests wie der „2 km-Walking Test“ oder das „European Test Profile“ empfohlen. Diese beiden Verfahren werden in dem Beitrag näher betrachtet und im Hinblick auf ihre Anwendbarkeit in der Vereinspraxis überprüft.

Prof. Dr. habil. Michael Tiemann kommt abschließend zu dem Ergebnis, dass Sportvereine routinemäßig Eingangsdiagnosen und Verlaufskontrollen durchführen sollten. Hierzu bedarf es der Entwicklung und Einführung eines ohne größere Hürden einsetzbaren (Basis-)Assessments sowie der Erstellung praxistauglicher Arbeits- und Umsetzungshilfen für Vereine und Übungsleiter*innen“, ergänzt Prof. Dr. habil. Michael Tiemann.

Prof. Dr. habil. Michael Tiemann ist seit Januar 2016 Professor für Sportwissenschaften im ausbildungsintegrierenden Bachelorstudiengang Physiotherapie am Campus Leverkusen der SRH Hochschule für Gesundheit. Weiterhin ist er seit 2018 Beisitzer im Vorstand des Deutschen Walking Instituts (DWI) sowie Mitglied des Exekutivkomitees
der International Sport and Culture Association (ISCA).

Wissenschaftliche Ansprechpartner:
Prof. Dr. habil. Michael Tiemann
Professor für Sportwissenschaften,
Studiengang Physiotherapie, B. Sc.
E-Mail: michael.tiemann@srh.de
Campus Leverkusen
Telefon: + 49 2171 74382-01

Originalpublikation:
„B&G Bewegungstherapie und Gesundheitssport“ (Ausgabe 5 / 2020)

Quelle: IDW
(nach oben)


Der Nordatlantik verändert sich, aber die Zirkulation ist stabil

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Im Zuge des Klimawandels verändern sich auch Eigenschaften des Nordatlantiks wie Sauerstoffgehalte, Temperaturen oder Salzgehalte – und zwar bis in große Tiefen. Doch ändert sich damit auch die Ozeanzirkulation? Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zeigen in einer neuen Studie, dass trotz tiefgreifender Veränderungen der inneren Eigenschaften des Ozeans die Zirkulation seit den 1990er Jahren stabil geblieben ist. Diese Ergebnisse wurden jetzt in der internationalen Zeitschrift Science Advances veröffentlicht.

Der Golfstrom wird oft als Fernheizung Europas bezeichnet, weil er Wärmeenergie quer über den Atlantik bis vor die britischen Inseln und in die Norwegische See transportiert. Streng genommen ist der Golfstrom aber nur Teil eines größeren Strömungssystems, das in der Fachsprache als Atlantische Meridionale Umwälzzirkulation (Atlantic Meridional Overturning Circulation, AMOC) bezeichnet wird. Sie besteht hauptsächlich aus einem an der Oberfläche nach Norden fließenden Abschnitt, der warm und salzhaltig ist und zu dem der Golfstrom gehört, und einem in der Tiefe des Nordatlantiks nach Süden fließenden Abschnitt, der relativ kalt und salzarm ist.

Messungen im Nordatlantik ergeben schon seit Jahren deutliche Veränderungen der Wassereigenschaften, zum Beispiel eine Erwärmung des oberen Ozeans, eine rekordverdächtige Versüßung des subpolaren Nordatlantiks sowie Schwankungen des Sauerstoffgehalts. Bisher ging die Forschung davon aus, dass diese Veränderungen eng mit Änderungen in der AMOC verbunden sein müssten.

Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel haben diese Annahme nun in einer umfassenden Datenstudie überprüft. „Die Ergebnisse deuten darauf hin, dass Zirkulationsänderungen und Veränderungen der Eigenschaften des Ozeaninneren möglicherweise in sehr unterschiedlichem Tempo ablaufen“, fasst der Ozeanograph Dr. Johannes Karstensen vom GEOMAR die Ergebnisse zusammen. Sie sind heute in der internationalen Fachzeitschrift Science Advances erschienen.

Aussagen zu Veränderungen der AMOC über mehrere Jahrzehnte hinweg sind bislang schwierig. Es gibt Netze fest installierter Ozeanobservatorien an Schlüsselpositionen der Zirkulation. Doch ihre Messreihen reichen nicht weit genug in die Vergangenheit zurück, um robuste Aussagen über Langzeit-Veränderungen zu treffen. Es existieren aber Einzelaufnahmen der Zirkulation und der hydrographischen Eigenschaften des Meerwassers, die mit Forschungsschiffen bei Atlantiküberquerungen erfasst wurden. „Diese schiffsbasierten Daten bieten uns die einzigartige Gelegenheit, gleichzeitig hydrographische und AMOC-Änderungen im Nordatlantik in den letzten drei Jahrzehnten zu untersuchen“, erklärt Dr. Karstensen. Hydrographische Erhebungen messen im Wesentlichen Meerwassereigenschaften wie Temperatur und Salzgehalt sowie gelösten Sauerstoff.

Für die aktuelle Studie haben die Beteiligten Daten von Forschungsreisen aus dem subtropischen und dem subpolaren Nordatlantik zusammen mit Satellitendaten, beckenweiten Messnetz-Beobachtungen und Modelldaten verwendet. Sie stellten fest, dass nicht nur die Wassermassen von der Oberfläche bis etwa 2000 Meter Wassertiefe über den Untersuchungszeitraum deutliche Schwankungen der Temperatur, des Salzgehalts und des gelösten Sauerstoffs erfahren haben, sondern dass auch das Wasser in größerer Tiefe im vergangenen Jahrzehnt eine signifikante Versalzung, Anzeichen einer Erwärmung und größtenteils eine Abnahme des Sauerstoffs aufweist. Gleichzeitig sind aber keine Veränderungen des AMOC-Zustands sowohl im subpolaren als auch im subtropischen Nordatlantik zwischen den 1990er und 2010er Jahren zu erkennen. „Offenbar verändern sich Wassereigenschaften und die Umwälzzirkulation also unterschiedlich“, sagt Dr. Karstensen.

Neben dem eigentlichen Ergebnis unterstreiche die Studie die Notwendigkeit kontinuierlicher und kombinierter hydrographischer Datenerhebung über ganze Ozeanbecken, die langfristige Ozeanbeobachtung mit Messnetzen und die Verbesserung von Modellen, betont der Kieler Ozeanograph: „Nur so können wir die Zusammenhänge zwischen hydrographischen und Zirkulationsveränderungen in der Zukunft umfassend erfassen. Insbesondere sind wir dem globalen GO-SHIP Programm dankbar, das die von Forschungsschiffen erhobenen Daten in nachvollziehbarer Qualität für alle Interessierten öffentlich zur Verfügung stellt.“

Originalpublikation:
Fu, Y., F. Li, J. Karstensen und C. Wang (2020): A stable Atlantic Meridional Overturning Circulation in a changing North Atlantic Ocean since the 1990s. Science Advances, 6, https://doi.org/10.1126/sciadv.abc7836.

Quelle: IDW
(nach oben)


Wo das Coronavirus im Darm andockt

Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Weltweit haben sich bereits mehr als 55 Millionen Menschen mit dem Coronavirus infiziert, das bislang 1,3 Millionen Todesopfer gefordert hat. Bei den meisten an COVID-19 erkrankten Patienten stehen zwar respiratorische Symptome im Vordergrund, kann aber auch andere Organe in Mitleidenschaft ziehen. Häufig handelt es sich dann um den Magen-Darm-Trakt. Ein Team um Prof. Dr. Christoph Becker von der Medizinischen Klinik 1 – Gastroenterologie, Pneumologie und Endokrinologie des Universitätsklinikums Erlangen hat gemeinsam mit Kollegen der Charité – Universitätsmedizin Berlin herausgefunden, dass sich die Andockstellen des Coronavirus in besonders hoher Dichte auf der Darmoberfläche befinden.

Bei einer Infektion mit Sars-CoV-2 heften sich die Viren an die Oberfläche der Wirtszellen an. Dies geschieht über bestimmte Oberflächenmerkmale, sogenannte Rezeptoren. Nach der Bindung der Virushülle an den ACE2-Rezeptor spaltet das körpereigenes Enzym TMPRSS2 ein virales Protein, wodurch der Eintritt in die Wirtszelle erfolgen kann. Diese wird daraufhin vom Virus dazu verwendet, die Bestandteile für weitere Viren zu produzieren. Sind sie in ausreichender Menge hergestellt worden, können die Viren aus der Wirtszelle ausbrechen und wiederum andere Zellen infizieren. Aufgrund der Bedeutung von ACE2 und TMPRSS2 für das Eindringen von Sars-CoV-2 in die Zelle stellen die beiden Moleküle potenzielle Ansatzpunkte für ein wirksames Medikament gegen das Coronavirus dar.

Darmschleimhaut als Zielscheibe
Die Erlanger und Berliner Forscher haben nun entdeckt, dass bestimmte Zellen der Darmschleimhaut, sogenannte Enterozyten, bei gesunden Menschen hohe Konzentrationen von ACE2 und TMPRSS2 aufweisen und somit Zielzellen des Coronavirus sein können. Die Wissenschaftler fanden außerdem heraus, dass Patienten mit Darmentzündungen weniger ACE2-Rezeptoren besitzen und dass sowohl ACE2 als auch TMPRSS2 ihre Lokalisation in den Enterozyten verändern. Das könnte bedeuten, dass der Darm von Patienten mit chronisch-entzündlichen Darmerkrankungen wie Morbus Crohn resistenter gegenüber Sars-CoV-2 ist als der Darm gesunder Menschen. „Allerdings stehen groß angelegte Studien zur Bedeutung der Infektion des Darms mit dem Coronavirus noch aus“, sagt Prof. Becker.

Die Forschungen ergaben zudem, dass die Bildung von ACE2 und TMPRSS2 auf der Zelloberfläche von außen beeinflusst werden kann. So führt etwa eine Stimulation der Zellen über bestimmte mikrobielle Signale und Botenstoffe des Immunsystems zu einer geringeren Ausschüttung von ACE2 im Darmepithel. „Unsere Erkenntnisse zeigen, dass die für eine Infektion mit Sars-CoV-2 notwendigen Moleküle auf der Zelloberfläche möglicherweise therapeutisch beeinflussbar sind“, so Dr. Jay Patankar, Erlanger Mitautor der Studie. Als Nächstes planen die Forscher Infektionsexperimente an Zellen, um diese These zu überprüfen.

Möglich wurde die Studie durch ein Forschungsnetzwerk zwischen der Friedrich-Alexander-Universität Erlangen-Nürnberg und der Charité – Universitätsmedizin Berlin. Beide Standorte sind deutschlandweit führend auf dem Gebiet der Darmforschung. In einem Sonderforschungsbereich untersuchen Wissenschaftler beider Städte gemeinsam entzündliche Erkrankungen des Darms. Herzstück des Sonderforschungsbereichs ist die gemeinsame Gewebebank „IBDome“, in der Proben des Darms von gesunden Probanden und Patienten mit Darmentzündungen gesammelt und analysiert werden. „Dank IBDome konnten wir in kürzester Zeit auf eine sehr große Zahl biologischer Proben zugreifen“, freut sich Prof. Becker. Die Forscher wollen nun gemeinsam herausfinden, welchen Einfluss das Coronavirus konkret auf den Darm und die Funktionen der dort vorhandenen Zellen hat.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Becker
Tel.: 09131 85-35886
christoph.becker@uk-erlangen.de

Originalpublikation:
10.1053/j.gastro.2020.10.021

Quelle: IDW
(nach oben)


Was Laubblätter im Herbst altern lässt

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Forschende der ETH Zürich weisen bei europäischen Laubbäumen einen selbstregulierenden Mechanismus nach, der ihre Wachstumsphase begrenzt: Bäume, die im Frühling und Sommer mehr Photosynthese betreiben, werfen ihre Blätter im Herbst früher ab.

An seinem Lebensende leuchtet das Laub in prächtigen gelb-​roten Farben: Es ist Herbst. Laubbäume in den gemässigten Zonen bereiten sich auf den nahenden Winter vor. Sie stellen das Wachstum ein und entziehen dem Laub die Nährstoffe. Die Blätter fallen allmählich ab und sterben. Dieser Alterungsprozess der Blätter wird Seneszenz genannt. Er markiert im phänologischen Zyklus der Bäume das Ende der Vegetationsperiode, in der sie CO2 aufnehmen und Photosynthese betreiben.

Mit der Klimaerwärmung hat sich die Vegetationsperiode in den vergangenen Jahrzehnten verlängert: Europäische Bäume treiben im Frühling rund zwei Wochen früher aus als noch vor hundert Jahren. Im Herbst fallen die Blätter heute gut sechs Tage später. Es wird allgemein erwartet, dass sich die Seneszenz in einem künftig wärmeren Klima weiter verspätet. Bäume könnten so mehr CO2 aus der Atmosphäre aufnehmen.

Forschende der ETH Zürich gelangen nun zu einem gegenteiligen Befund: In einer Studie im Fachmagazin Science weisen sie bei Laubbäumen einen selbstregulierenden Mechanismus nach, der die Vegetationsperiode begrenzt: Eine erhöhte Photosynthese im Frühjahr und Sommer lässt die Blätter im Herbst früher altern. Damit dürfte sich der herbstliche Blattfall in Zukunft wider Erwarten verfrühen – und nicht weiter verspäten.

Limitierte Senken als Seneszenztreiber
«Präzise Prognosen über die Wachstumssaison von Bäumen waren bislang kaum möglich, weil man die Ursachen der Blattseneszenz nicht genügend verstand», sagt Constantin Zohner, Studienleiter und Senior Scientist am Crowther Lab der ETH Zürich.

Bislang ging die Wissenschaft generell davon aus, dass hauptsächlich die abnehmende Temperatur und Tageslänge im Herbst den Zeitpunkt der Blattseneszenz bestimmen. Zwar gab es bereits verschiedene Hinweise, dass der Blattaustrieb im Frühling mit dem Blattfall im Herbst verbunden sein muss. «Weil die Mechanismen aber unklar waren, berücksichtigen phänologische Modelle solche Effekte bestenfalls teilweise», sagt der Biologe.

Zohner vermutete, dass das Bindeglied zwischen Frühling und Herbst mit der saisonalen Photosynthese zu tun haben könnte – genauer: mit dem Phänomen der limitierten Kohlenstoffsenke. Dabei begrenzen unter anderem knappe Bodennährstoffe wie etwa Stickstoff die CO2-​Menge, die eine Pflanze während der Saison aufnehmen kann. Ist die maximale CO2-​Menge erreicht, setzt die Blattalterung entsprechend früher ein.

Diese Rolle der Photosynthese bei der Steuerung der Blattseneszenz ist beispielsweise bei Getreide seit langem bekannt, wurde aber nie an Bäumen getestet. So machten sich die ETH-​Forschenden daran, die Treiber des herbstlichen Blattfalls mit einem kombinierten Ansatz von Feldbeobachtungen, Laborversuchen und Modellierung zu ergründen.

Deutlicher Effekt detektiert
Die Basis der Studie bildeten Langzeitbeobachtungen von sechs europäischen Laubbaumarten während der letzten sechs Jahrzehnte. Anhand der Daten testete Zohners Team den relativen Einfluss verschiedener Faktoren auf den Zeitpunkt der Herbstseneszenz, darunter den Blattaustrieb im Frühling, die saisonale Photosynthese, CO2-​Konzentration, Temperatur und Niederschlag.

Ergänzend führten die Forschenden eine Reihe von Experimenten mit jungen Bäumen in Klimakammern und im Freien durch. So konnten sie Temperatur, Tageslicht und CO2-​Gehalt variieren und die jeweiligen Effekte auf Photosynthese und Blattseneszenz untersuchen.

Tatsächlich offenbarten die Baumbeobachtungen einen deutlichen Einfluss der saisonalen Photosynthese: Bei allen untersuchten Arten trat in den Jahren mit erhöhter Photosynthese im Frühjahr und Sommer auch die Seneszenz im Herbst früher ein, wobei eine zehn Prozent höhere Aktivität die Blattalterung um acht Tage vorzog. Die Experimente stützten den Befund aus den Beobachtungen.

Mechanik des Herbstes modelliert
«Unsere Analysen legen nahe, dass die saisonale Photosynthese, die Herbsttemperatur und die Tageslänge primäre Treiber der Seneszenz sind», sagt Erstautorin Deborah Zani. Anders die restlichen Faktoren: «CO2-​Gehalt, Sommertemperaturen, Lichtstärke und Niederschlag beeinflussen zwar die Photosynthese ganz direkt, wirken sich aber nur indirekt auf die Herbstseneszenz aus», erklärt sie das Zusammenspiel der Kräfte.

Wärmere Herbste verzögern die Seneszenz tendenziell. Doch steigende CO2-​Konzentration, wärmere Sommerperioden und ein früherer Blattaustrieb erhöhen zusehends die Photosynthese im Frühling und Sommer. Dadurch füllen sich die limitierten Kohlenstoffspeicher – sind sie vorzeitig gesättigt, verfrüht das die Seneszenz, was der Verzögerungstendenz aufgrund höherer Herbsttemperaturen entgegen wirkt.

Zani und Zohner entwickelten ein neues Modell der Herbstphänologie, das alle Faktoren nach ihrem relativen Gewicht berücksichtigt. Dieses vermag den Zeitpunkt der Seneszenz der letzten sechs Jahrzehnte um bis zu 42 Prozent präziser zu datieren als frühere Modelle.

Zudem kehrt es deren Prognosen um: Bis anhin erwartete man, dass die Seneszenz bis Ende Jahrhundert zwei bis drei Wochen später auftritt. «Unser neues Modell legt das Gegenteil nahe: Wenn die Photosynthese weiter steigt, werden die Blätter im Lauf des Jahrhunderts um drei bis sechs Tage früher als heute altern – und nicht später», erklärt Zani. Das bedeutet, dass sich die Wachstumssaison bis Ende des Jahrhunderts nur um 8 bis 12 Tage verlängern wird. «Das ist rund zwei bis drei Mal weniger als bisher gedacht», ergänzt Zani. Sie war im Rahmen ihrer Masterarbeit am Crowhter Lab massgeblich an Datenanalyse und Modellierung beteiligt.

Saisondauer beeinflusst Kohlenstoffbilanz
Für ihre Forschung verwendeten die Wissenschaftler Daten des Pan European Phenology Project. Insgesamt werteten sie 434’000 phänologische Beobachtungen an 3800 Standorten in Mitteleuropa im Zeitraum von 1948 bis 2015 aus. Untersucht wurden sechs repräsentative Arten: Gewöhnliche Rosskastanie, Hänge-​Birke, Rotbuche, Europäische Lärche, Stieleiche und Vogelbeerbaum.

Die Autoren verstehen ihre Studie als weiteren Hinweis darauf, dass Wälder der gemässigten Zone begrenzt CO2 aufnehmen könnten: «Die CO2-​Aufnahme wird mit steigenden Temperaturen wahrscheinlich weniger stark ansteigen, als ältere Modelle voraussagten», sagt Zohner. Die Forschenden wollen nun besser verstehen, wie verbreitet limitierte Kohlenstoffsenken in den Wäldern der Erde sind.

Wissenschaftliche Ansprechpartner:
Constantin Zohner (constantin.zohner@usys.ethz.ch)

Originalpublikation:
https://ethz.ch/de/news-and-events/eth-news/news/2020/11/was-laubblaetter-im-her…

Quelle: IDW
(nach oben)


Neues Bonner Netzwerk stärkt Kompetenzen für nachhaltige Lösungen der Wasserprobleme weltweit

Tanja Vogel Stabsstelle Kommunikation
Deutsches Institut für Entwicklungspolitik (DIE)
Gemeinsame Pressemitteilung des Internationalen Konversionszentrums Bonn (BICC), des German Development Institute/ Deutsches Institut für Entwicklungspolitik (DIE), des Geographischen Instituts der Universität Bonn (GIUB), des Zentrums für Entwicklungsforschung (ZEF), der Universität Bonn, des International Water Management Institute (IWMI), des Instituts der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und des Sekretariats der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD) zum Start des Bonn Water Network am 17. November 2020.

Digitale Launch-Veranstaltung am 17. November 2020
2,1 Milliarden Menschen haben keinen Zugang zu sauberem Trinkwasser und mehr als 4,5 Milliarden haben keine sicheren sanitären Einrichtungen. In vielen Ländern bedroht die zunehmende Wasserknappheit die Ernährungssicherheit und die Energieproduktion, oder führt zu Konflikten. Seit 15 Jahren teilen sieben in Bonn ansässige Organisationen im Rahmen ihrer Vortragsreihe „Water Lecture“ ihre Erkenntnisse zu Lösungsansätzen für Wasserprobleme.

Heute gehen diese Institutionen noch einen Schritt weiter und gründen das „Bonn Water Network“, um ihre Bemühungen um eine nachhaltige Wasserzukunft zu koordinieren und zu intensivieren. Stefan Wagner, Leiter des Amts für Internationales und globale Nachhaltigkeit der Stadt Bonn, zeigt sich erfreut über die Gründung: „Das Bonn Water Network trägt dazu bei, Bonns Status als Drehscheibe für internationale Zusammenarbeit, nachhaltige Entwicklung und Innovation zu stärken und wird auch selbst davon profitieren.“

Das Netzwerk besteht aus sieben renommierten Institutionen mit langjähriger Erfahrung zu Wasser und verwandten Themen: dem Internationalen Konversionszentrum Bonn (BICC); dem Deutschen Institut für Entwicklungspolitik (DIE), der Universität Bonn mit dem Geographischen Institut (GIUB), das den UNESCO-Lehrstuhl ‚Human Water Systems‘ innehat, und dem Zentrum für Entwicklungsforschung (ZEF); dem International Water Management Institute, (IWMI) und zwei UN-Institutionen, dem Institut der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und dem Sekretariat der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD).

Die Mitglieder des Netzwerks befassen sich weltweit mit unterschiedlichen Herausforderungen zum Thema Wasser und tragen gemeinsam mit Partnern in Wissenschaft und Praxis dazu bei, umweltfreundliche und sozial angemessene Lösungen zu finden. „So untersuchen wir beispielsweise, wie grenzüberschreitende Zusammenarbeit in Afrika zu einer besseren Nutzung von Wasser für Energie und Landwirtschaft beitragen kann. Wir unterstützen politische Entscheidungsträger und Interessenvertreter weltweit bei der Minderung des Dürrerisikos, und unsere Modelle simulieren, wie und wo sich der Klimawandel auf die Wasserressourcen in Nepal und Indien auswirkt. Das Netzwerk trägt auch dazu bei, Lösungen für Konflikte um Wasser und für nachhaltiges Wassermanagement in Jordanien, Marokko und der Mongolei, sowie klimasensitive Anpassungsstrategien zur Verringerung der Überschwemmungsrisiken in Togo und Benin zu entwickeln“, sagt Dr. Annabelle Houdret, Sprecherin des Bonn Water Network.

Die Online-Veranstaltung am 17. November 2020 umfasste die folgenden Beiträge:
Einführung in das Bonn Water Network, Dr. Annabelle Houdret, DIE, Sprecherin des Bonn Water Network
Begrüßungsworte von Stefan Wagner, Leiter des Referats für Internationale Angelegenheiten und Globale Nachhaltigkeit der Stadt Bonn
Kurze Videobotschaften der Mitgliedsinstitutionen des Bonn Water Network
Begrüßung durch Prof. Dr. Jakob Rhyner, Wissenschaftlicher Direktor der Bonner Allianz für Nachhaltigkeitsforschung/ Innovations- Campus Bonn (ICB).
PPodiumsdiskussion und öffentliche Debatte: ‚Das Bonner Water Network: Kompetenzen für eine nachhaltige Wasserzukunft‘.
Mitglieder des Netzwerks stellen ihre Beiträge zur Lösung von Wasserproblemen vor: Zu grenzüberschreitendem Wassermanagement in Togo und Benin, zu nachhaltigem Wasser- und Landmanagement in Subsahara und Nordafrika, zur Umsetzung von Ziel 6 der globalen Ziele für Nachhaltige Entwicklung (Sauberes Wasser und sanitäre Einrichtungen) vor dem Hintergrund des Wettbewerbs um Grundwasser in Jordanien und zur Klimaresilienz in Asien.
Moderatorin: Dr. Luna Bharati, IWMI und ZEF, Co-Sprecherin des Netzwerks.
Schlusswort von Dr. Luna Bharati.

Wir freuen uns darauf, Sie online begrüßen zu dürfen!

Anmeldung:
Bitte melden Sie sich für die Veranstaltung per E-Mail bei Frau Claudia Klama an. Nach Ihrer Anmeldung erhalten Sie den Link zur Veranstaltung: claudia.klama@die-gdi.de

Wissenschaftliche Ansprechpartner:
Sprecherin des Bonn Water Network: Dr. Annabelle Houdret (DIE): Annabelle.houdret@die-gdi.de

Stellv. Sprecherin: Dr. Luna Bharati (IWMI/ZEF): L.bharati@CGIAR.ORG

Originalpublikation:
https://www.die-gdi.de/presse/pressemitteilungen/2020/neues-bonner-netzwerk-stae…

Weitere Informationen:
https://www.die-gdi.de/en/events/details/connecting-competences-for-sustainable-…

Quelle: IDW
(nach oben)


Macht Angeln glücklich? – Europas größte Angelumfrage gestartet

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Das Rostocker Thünen-Institut für Ostseefischerei hat im Auftrag des Bundesministeriums für Ernährung und Landwirtschaft eine deutschlandweite Studie zum Thema Angeln gestartet. Hierfür werden 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt. Die Studie soll dabei helfen, die Nutzung der Fischbestände, die Rolle des Angelns in der Gesellschaft und seine wirtschaftliche Bedeutung besser zu verstehen.

Gehen Sie Angeln? Diese Frage könnte Ihnen in den nächsten Monaten am Telefon gestellt werden. Weltweit angeln über 220 Millionen Menschen in ihrer Freizeit. Auch in Deutschland ist das Angeln beliebt: Gerade in der heutigen Zeit scheinen viele Deutsche sich nach einem naturnahen Hobby zu sehnen, um dem Alltagsstress zu entfliehen. Doch bisher ist sehr wenig über das Angeln in Deutschland bekannt. Dabei gehören Anglerinnen und Angler zur größten Nutzergruppe von Seen, Flüssen und Meeren.

Was macht den Reiz des Angelns aus? Wie viele Anglerinnen und Angler gibt es in Deutschland? Welche Fische fangen sie und wie viele? Diese und weitere Fragen will das Forschungsteam um Dr. Harry Strehlow vom Rostocker Thünen-Institut für Ostseefischerei im Rahmen der Studie „Angeln in Deutschland“ beantworten. Zusammen mit dem Berliner Markt- und Sozialforschungsinstitut USUMA werden hierfür in den nächsten Monaten 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt, um ein repräsentatives Abbild der Anglerinnen und Angler in der deutschen Bevölkerung zu erstellen. Damit ist dies die bisher größte Befragung ihrer Art in Europa und eine der größten weltweit.

Die während des Telefoninterviews angetroffenen Anglerinnen und Angler werden zunächst zu verschiedenen Aspekten des Angelns befragt. Anschließend werden alle interviewten Personen dazu eingeladen, an einer Tagebuch-Studie teilzunehmen. Für die kommenden zwölf Monate sollen sie ihre Angelerlebnisse dokumentieren, um den Forschern Einblicke in ihr Angelverhalten zu gewähren.

Ziel der Studie ist, die Nutzung der Gewässer und Fischbestände besser zu verstehen, sowie die wirtschaftliche und gesellschaftliche Bedeutung des Angelns in Deutschland nachzuvollziehen. Die gewonnenen Erkenntnisse sollen als Grundlage für die Entwicklung einer nachhaltigen Angelfischerei in Binnen- und Meeresgewässern dienen. Mit ersten Zwischenergebnissen rechnet das Team um Harry Strehlow Ende 2021.

Die Teilnahme an der Befragung ist freiwillig und anonym. Die Studie verfolgt keine kommerziellen Ziele, sondern dient ausschließlich dem wissenschaftlichen Erkenntnisgewinn.

Weitere Informationen: http://www.thuenen.de/dmap

Wissenschaftliche Ansprechpartner:
Dr. Harry Strehlow
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 107
E-Mail: harry.strehlow@thuenen.de

Weitere Informationen:
http://www.thuenen.de/dmap – Infos zum Deutschen Meeresangelprogramm

Quelle: IDW
(nach oben)


Hohe Mobilität verschlechtert die Work-Life-Balance

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Der Fernpendler, die Übersetzerin im Homeoffice, die Handlungsreisende oder der Paketbote haben eines gemeinsam: Sie verbringen einen großen Teil ihrer arbeitsbezogenen Zeit nicht in ihrem Unternehmen. Der Bericht „BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin veröffentlicht hat, nimmt die verschiedenen Aspekte arbeitsbezogener räumlicher Mobilität unter die Lupe. Dabei sind die untersuchten Formen der Mobilität mit zum Teil sehr unterschiedlichen Chancen und Risiken verbunden. Alle zeigen jedoch, dass sich bei hoher Mobilität die Vereinbarkeit von Beruf und Privatem erschwert.

Arbeitszeitbefragung 2017 zu arbeitsbedingter Mobilität ausgewertet
Auf Datenbasis der BAuA-Arbeitszeitbefragung 2017 skizziert der Bericht die Verbreitung von vier unterschiedlichen Mobilitätsformen „Pendeln“, „Telearbeit“, „Dienstreisen“ sowie „wechselnde und mobile Arbeitsorte“. Zudem betrachtet er potenziell beeinträchtigende und förderliche Arbeitsbedingungen, die damit einhergehen. Zusätzlich werden Zusammenhänge der Mobilitätsformen mit Aspekten von Work-Life-Balance, Erholung und Gesundheit beleuchtet.

Die Anforderungen an die Flexibilität steigt für die Beschäftigten in Deutschland, zeigt auch der Stressreport 2019 der BAuA. Immerhin verbringen rund 7 Prozent der Beschäftigten täglich mehr als zwei Stunden auf dem Weg zwischen ihrem Arbeitsplatz und ihrem Zuhause. 36 Prozent der Beschäftigten machen Dienstreisen und 28 Prozent übernachten berufsbedingt auswärts. Bei 25 Prozent der Beschäftigten ist Mobilität Teil der Arbeitstätigkeit. Sie arbeiten hauptsächlich an wechselnden oder mobilen Arbeitsorten. Dazu gehören beispielsweise Monteure im Handwerk oder das Fahrpersonal in Bus und Bahn. Darüber hinaus weisen etwa 10 Prozent der Beschäftigten eine Kombination von mindestens zwei extremen Ausprägungen von Mobilität auf, wie zum Beispiel der Bauarbeiter auf Montage oder das fliegende Personal.

Die untersuchten Mobilitätsformen weisen kein einheitliches Bild bezüglich der psychischen Belastung auf. Häufig lässt sich eine höhere Arbeitsintensität beziehungsweise zeitliche Entgrenzung bei arbeitsbezogener Mobilität beobachten, wie zum Beispiel bei der Arbeit von zuhause. Einige Mobilitätsformen gehen häufig mit einem hohen zeitlichen Handlungsspielraum einher, zum Beispiel Dienstreisen und Auswärtsübernachtungen. Die Abwesenheit vom betrieblichen Arbeitsort kann auch zu einem geringeren Gemeinschaftsgefühl und geringerer sozialer Unterstützung bei der Arbeit führen.

Vielfach entscheiden die beruflichen Tätigkeiten darüber, ob beziehungsweise inwiefern sich die verschiedenen Formen arbeitsbezogener Mobilität auf die Work-Life-Balance, Erholung und Gesundheit der Beschäftigten auswirken. Insgesamt zeigen sich aber bei jeder hoch ausgeprägten Form Auswirkungen auf die Work-Life-Balance. Der Bericht gibt jedoch Ansatzpunkte, um Mobilität so zu gestalten, dass sich Sicherheit und Gesundheit bei der Arbeit sowie die Vereinbarkeit der Arbeit mit dem Privatleben verbessern lassen.

„BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“; Anne Marit Wöhrmann, Nils Backhaus, Anita Tisch, Alexandra Michel; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 233 Seiten; ISBN 978-3-88261-292-9; doi:10.21934/baua:bericht20200713. Den Bericht gibt es im PDF-Format unter http://www.baua.de/dok/8840504.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Quelle: IDW
(nach oben)


Grubenwasser und Grundwasser bleiben getrennt

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Kohle wird im Ruhrgebiet zwar seit 2018 keine mehr gefördert. Aber Grubenwasser muss weiter abgepumpt werden, und zwar für immer. Da kann man das warme Wasser aus der Tiefe auch gleich zum Heizen nutzen. Wo und wie hat das Team des Projekts „Grubenwasser-Ruhr“ um Prof. Dr. Hermann-Josef Wagner vom Lehrstuhl Energiesysteme und Energiewirtschaft der Ruhr-Universität Bochum (RUB) gezeigt: In Bochum, Kamen-Bergkamen und Essen stimmen alle Bedingungen. Neben dem klimafreundlichen Heizen noch ein kleines Umweltplus: Nachdem das Wasser seine Wärme an Gebäude abgegeben hat, fließt es kälter in die Ruhr ab. Das Team hat zu dem dreieinhalbjährigen Projekt den Abschlussbericht online veröffentlicht.

Grubenwasser und Grundwasser bleiben getrennt
Dort, wo früher Kohle unter Tage abgebaut wurde, befinden sich heute viele Hohlräume. Die ehemalige Ruhrkohle AG (RAG) pumpt an 13 Standorten heute jährlich rund 70 Millionen Kubikmeter Wasser heraus, damit es sich nicht mit dem Grundwasser mischt. Dieses Wasser ist rund 20 bis 30 Grad warm und wird bisher ungenutzt in Lippe, Ruhr und Rhein geleitet.

Langfristig sollen nur noch sechs Standorte im Ruhrgebiet Grubenwasser fördern. Um es zum Heizen nutzen zu können, muss es eine Bebauung oder Pläne geben, die eine neue Wärmeversorgung notwendig machen. Drei Standorte, auf die das zutrifft, haben Wagner und seine Mitarbeiterinnen und Mitarbeiter ausgemacht: die Wasserstadt Aden, Bergkamen (Schacht 2, Haus Aden), den Gewerbepark Robert Müser, Bochum (Schacht Arnold) und Essen 51, Essen (Schacht Marie). Dass Bochum geeignet ist, war schon länger bekannt. Dort wird schon die zentrale Feuerwehr mit Grubenwasserwärme versorgt. Jetzt soll diese Versorgung auf Quartiersebene erweitert werden.

Betriebskosten unter denen von Gas
„Die Temperatur des Grubenwassers reicht für viele Gebäude in Gewerbegebieten aus, zum Beispiel Lager“, erklärt Wagner. Theoretisch könnte man noch weitaus mehr Gebäude beheizen: Die Mengen an Grubenwasser, die hochgepumpt werden müssen, könnten ganze Quartiere versorgen. Allerdings lassen sich wegen der Temperaturen realistisch nur Gebäude in einem Umkreis von rund fünf Kilometern versorgen. Am günstigsten dafür sind Niedertemperaturflächenheizungen, die im Altbau aber nicht verbreitet sind. Kombiniert mit einer Wärmepumpe könnte das Wasser eine größere Heizleistung liefern.

Das Forschungsteam hat auch die Kosten für solche Fälle berechnet. „Wir sind noch über den Gaspreisen“, erklärt Hermann-Josef Wagner, „aber die steigenden CO2-Kosten können das schnell ändern.“ Die Betriebskosten lägen dann unter denen von Gas. Problematisch sei eher, dass Investoren noch Berührungsängste mit innovativen Wärmeversorgungsarten zeigen.

Zwei weitere Projektphasen
An die abgeschlossene erste Projektphase schließt sich eine vierjährige Umsetzungsphase an. Darin wird ein wissenschaftliches Monitoring geplant und in die Umsetzung integriert. In einer dritten Phase folgt die Auswertung des Monitorings für einen langfristigen Erfahrungstransfer. „Im Grunde ist Grubenwasser weltweit interessant“, erklärt Hermann-Josef Wagner. Gerade bei Neubauten könnte sich die Nutzung auch in anderen ehemaligen Bergbaustaaten lohnen. Darüber hinaus lasse sich die Technologie auch auf andere Grund- und Abwasserarten anwenden.

Kontakt
Die Leitung und Koordination des Projekts hat der Lehrstuhl Energiesysteme und Energiewirtschaft der RUB. Das Unternehmen Eimer Projekt Consulting verantwortet die strategische Kontaktanbahnung sowie den dauerhaften Einbezug der potenziellen Wärmeabnehmer. Die RAG als Standorteigner wird die Umsetzungs- und Investitionsplanungen unterstützen, während die Deutsche Montantechnologie mit der RUB für die technischen Planungsarbeiten zuständig ist.

Pressekontakt
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de

Originalpublikation:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)

Weitere Informationen:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)
https://www.gw-ruhr.rub.de/ – Projektwebseite

Quelle: IDW
(nach oben)


Darm-Hirn-Achse beeinflusst Multiple Sklerose

Dr. Angelika Jacobs Kommunikation & Marketing
Universität Basel
Ein internationales Forschungsteam unter Basler Leitung hat eine Verbindung zwischen der Darmflora und Entzündungsherden im zentralen Nervensystem bei Multipler Sklerose entdeckt. Bei dieser neu identifizierten Darm-Hirn-Achse spielt eine bestimmte Klasse von Immunzellen eine zentrale Rolle. Die Entdeckung könnte den Weg zu neuen Therapien gegen MS weisen, die auf die Darmflora abzielen.

Was tun, wenn das eigene Immunsystem das Nervensystem angreift? Neuere Therapien gegen die Autoimmunerkrankung Multiple Sklerose (MS) setzen darauf, bestimmte Immunzellen (die B-Zellen) aus dem Blut der Betroffenen zu entfernen. Allerdings entdeckten Forschende von Universität und Universitätsspital Basel bereits vor einigen Jahren, dass man dabei besser kein zu breites Spektrum der verschiedenen B-Zellen entfernen sollte, da dies die Erkrankung sogar noch verschlimmern kann.

Eine neue Studie im Fachblatt «Science Immunology» wirft nun ein neues Licht auf diese Beobachtung: Ein internationales Forschungsteam um PD Dr. Anne-Katrin Pröbstel von der Universität Basel und vom Universitätsspital Basel hat entdeckt, dass bestimmte B-Zellen eine Art Brücke zwischen der Darmflora und den Entzündungsherden im zentralen Nervensystem schlagen und hier entzündungshemmend wirken.

«Aus früheren Studien wissen wir, dass die Zusammensetzung der Darmflora eine Rolle bei MS spielt. Aber wie genau sich Darmbakterien und Immunzellen gegenseitig beeinflussen, war bisher unbekannt», erklärt Pröbstel.

Immunzellen für Darm und Hirn
Im Mittelpunkt der neuen Studie standen sogenannte IgA-produzierende B-Zellen, kurz IgA-B-Zellen. Bei Immunglobulin A (IgA) handelt es sich um eine Klasse von Antikörpern, die insbesondere die Immunabwehr der Schleimhäute sicherstellt. Die IgA-B-Zellen sind damit beispielsweise für die Darmgesundheit zentral.

Durch Analysen von Stuhlproben von MS-Patientinnen und -Patienten sowie gesunden Personen stellten die Forschenden fest, dass MS-Betroffene im Darm IgA-B-Zellen tragen, die sich insbesondere gegen MS-typische Darmbakterien richten – also solche, die gehäuft bei MS-Betroffenen vorkommen.

In einem weiteren Schritt analysierten die Forschenden die Rolle dieser Immunzellen im Krankheitsverlauf bei insgesamt 56 MS-Patientinnen und -Patienten. Demnach häuften sich die IgA-B-Zellen bei MS-Betroffenen mit akuten Entzündungsherden in der Hirn-Rückenmarks-Flüssigkeit und im Hirngewebe.

«Offenbar wandern diese Immunzellen aus dem Darm zu den Entzündungsherden im zentralen Nervensystem und schütten dort einen entzündungshemmenden Botenstoff aus», fasst Pröbstel die Ergebnisse zusammen. «Das erklärt, warum sich die Erkrankung verschlimmert, wenn man diese Immunzellen mit Medikamenten aus dem Blut entfernt.»

Auslöser noch unbekannt
Was genau die IgA-B-Zellen als Helfer gegen MS aktiviert und dazu anregt, vom Darm ins zentrale Nervensystem zu wandern, wird weiter untersucht. «Wenn wir den Auslöser dafür finden, könnten wir dies therapeutisch zur Behandlung von MS nutzen», so Pröbstel. Denkbar wäre beispielsweise, die Zusammensetzung der Darmflora von Betroffenen gezielt zu verändern, um die IgA-B-Zellen als Helfer gegen die Entzündungen im Nervensystem zu mobilisieren.

Neben der Universität Basel waren an der Studie auch die University of California San Francisco, die Technische Universität München, die Universitäten Heidelberg, Umeå (Schweden) und Toronto (Kanada) sowie das Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam beteiligt. Finanziert wurde die Studie unter anderem durch die National Multiple Sclerosis Society und den Schweizerischen Nationalfonds.

Wissenschaftliche Ansprechpartner:
PD Dr. Anne-Katrin Pröbstel, Universität Basel, Departement Biomedizin, Tel. +41 61 556 57 98, E-Mail: anne-katrin.proebstel@unibas.ch

Originalpublikation:
Anne-Katrin Pröbstel et al.
Gut microbiota-specific IgA+ B cells traffic to the CNS in active multiple sclerosis
Science Immunology (2020), doi: 10.1126/sciimmunol.abc7191

Quelle: IDW
(nach oben)


Fahrstunden für die Künstliche Intelligenz

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Forschende der Universität Stuttgart an Konsortium „KI Delta Learning“ zur Weiterentwicklung des autonomen Fahrens beteiligt.

Automatisierten und autonomen Fahrzeugen soll die Zukunft gehören, doch ihr Kernstück, die künstliche Intelligenz (KI), kommt mit wechselnden Verkehrssituationen bisher schlecht zurecht. Wissenschaftler der Universität Stuttgart erforschen jetzt im Rahmen des Projekts „KI Delta Learning“ (Konsortialführer Mercedes-Benz AG) neue Methoden des maschinellen Lernens, um die KI-Module für ein besseres Verständnis der Umwelt zu trainieren. Ziel ist es, bereits vorhandenes Wissen aus bekannten Domänen mit wenig Aufwand auf sich ändernde oder neue Verkehrssituationen zu übertragen und autonome Fahrzeuge zur Serienreife weiterzuentwickeln.

Tag – Nacht, Sonne – Regen, Wald – Feld: Wer Auto fährt, muss sich, oft in schneller Folge, auf sehr unterschiedliche Umfeldbedingungen einstellen. Was der Mensch jedoch intuitiv bewältigt, muss einem KI-Modul bisher für jede einzelne Situation antrainiert werden. „Mit den bisherigen Methoden beim Training von künstlicher Intelligenz kann diese kein echtes Verständnis für die Umwelt entwickeln und spezialisiert sich zu stark“, erklären Prof. Bin Yang und Robert Marsden vom Institut für Signalverarbeitung und Systemtheorie (ISS), die den im Fachbereich Elektrotechnik und Informationstechnik angesiedelten Projektanteil der Universität Stuttgart koordinieren. „Dadurch haben die neuronalen Netze, auf denen die KI basiert, Schwierigkeiten mit Situationen, die im Trainingsdatensatz nicht abgebildet wurden.“ Ein Modell, das zum Beispiel auf das Erkennen eines Autos bei Tag trainiert ist, kann Fahrzeuge, die bei Nacht unterwegs sind, deutlich schlechter erkennen.

Lernen auf Basis der Unterschiede
Um KI zum Generalisten zu machen, sind bisher enorm große Trainingsdatensätze erforderlich – ein kostspieliges und zeitaufwändiges Unterfangen. Daher suchen die Forschenden im Projekt KI Delta Learning nach Wegen, um vorhandene KI-Module autonomer Fahrzeuge zu erweitern und so zu transformieren, dass sie auch außerhalb von vorgegebenen Szenarien zuverlässig reagieren. Im Mittelpunkt steht die Entwicklung von Methoden zur effizienten Übertragung bereits vorhandenen Wissens aus bekannten Domänen auf neue Zieldomänen. Mithilfe dieser Methoden soll die KI zukünftig aufbauend auf existierendem Wissen lediglich die Unterschiede – die Deltas – zu unbekannten Zieldomänen Erlernen müssen. Diese Deltas lassen sich in sechs Anwendungsfälle unterteilen. Hierzu zählt beispielsweise der Umgang mit Weiterentwicklungen im Bereich der Fahrzeugsensoren oder mit langfristigen Veränderungen in der Verkehrswelt. Die Berücksichtigung von kurzfristigen Änderungen, wie unterschiedliche Tageszeiten oder Wetterverhältnisse sowie die Erweiterung des Einsatzes der KI-Methoden auf weitere Länder sind ebenfalls im Umfang enthalten, um nur einige Aspekte zu nennen.

Das bereits Gelernte soll bei der Überbrückung des Deltas nicht verworfen, sondern darauf aufbauend genutzt werden. „Nur so können autonome Systeme langfristig die gesamte Komplexität der Verkehrswelt zuverlässig abdecken und mit den immer kürzeren Innovationszyklen und der sich ständig ändernden Mobilität Schritt halten“, betont Dr. Mohsen Sefati (Mercedes Benz AG), der Gesamtleiter des Projekts KI Delta Learning.
Dabei konzentriert sich das Projekt auf drei Hauptbereiche für das Delta Learning: Transfer Learning, Didaktik und Automotive Tauglichkeit. Der Stand der Technik wird in allen drei Bereichen so weit vorangetrieben, dass die nächste Generation der KI-Algorithmen für einen uneingeschränkten Einsatz im autonomen Fahrzeug gewappnet ist.

Training mit simulierten Daten
Das ISS der Universität Stuttgart geht innerhalb des Projekts der Frage nach, wie man das Modell beim Erlernen einer generelleren Repräsentation unterstützen kann. Dabei sollen simulierte Daten für Kamerabilder von Fahrszenen, generiert aus der Computerspiel- und Filmindustrie, für das Training verwendet werden. Die Forschenden untersuchen unter anderem einen Ansatz, bei dem simulierte Bilder so in ihrem Aussehen verändert werden, dass sie nicht mehr von echten zu unterscheiden sind. Darüber hinaus arbeiten sie auch an Methoden für kontinuierliches Lernen, bei dem neues Wissen in das Modell integriert werden soll, ohne dass altes wieder vergessen wird.

Über KI Delta Learning
Das Projekt KI Delta Learning besteht aus 19 Konsortialpartnern von namhaften Universitäten und Forschungseinrichtungen sowie Automobilherstellern, -zulieferern und Technologieprovidern. Das von der VDA Leitinitiative „Autonomes und Vernetztes Fahren“ als Teil der KI-Familie initiierte und entwickelte Projekt wird durch das Bundesministerium für Wirtschaft und Energie gefördert und hat eine Laufzeit von drei Jahren.

Wissenschaftliche Ansprechpartner:
Prof. Bin Yang, Universität Stuttgart, Institut für Signalverarbeitung und Systemtheorie, E-Mail: bin.yang@iss.uni-stuttgart.de,
Tel.: +49 (0)711/685 67330

Weitere Informationen:
http://www.ki-deltalearning.de

Quelle: IDW
(nach oben)


Grüner Wasserstoff: Auftrieb im Elektrolyten sorgt für Konvektionsströmung

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Wasserstoff lässt sich klimaneutral mit Sonnenlicht produzieren. Aber auf dem Weg vom Labormaßstab zu einer großtechnischen Umsetzung gibt es noch Hürden. Nun hat ein Team am HZB eine Methode vorgestellt, um Strömungsprozesse im Elektrolyten sichtbar zu machen und mit einem Modell vorab zuverlässig zu simulieren. Die Ergebnisse sind hilfreich, um Design und Aufskalierung dieser Technologie zu unterstützen und wurden in der renommierten Zeitschrift Energy and Environmental Science veröffentlicht.

„Grüner“ Wasserstoff, der mit erneuerbaren Energien klimaneutral hergestellt wird, könnte einen wesentlichen Beitrag zum Energiesystem der Zukunft leisten. Eine Option ist die Nutzung von Sonnenlicht zur elektrolytischen Wasserspaltung, entweder indirekt durch Kopplung einer Solarzelle mit einem Elektrolyseur oder direkt in einer photoelektrochemischen (PEC) Zelle. Als Photoelektroden dienen lichtabsorbierende Halbleiter. Sie werden in eine Elektrolytlösung aus Wasser eingetaucht, das mit starken Säuren oder Basen vermischt ist. Dies erhöht die Konzentration von Protonen bzw. Hydroxidionen und sorgt so für eine effiziente Elektrolyse.

In einer Großanlage wäre es jedoch aus Sicherheitsgründen sinnvoll, eine Elektrolytlösung mit einem nahezu neutralen pH-Wert zu verwenden. Eine solche Lösung hat eine niedrige Konzentration von Protonen und Hydroxidionen, was zu Einschränkungen beim Massentransport und zu schlechter Leistung führt. Diese Einschränkungen genauer zu verstehen hilft bei der Konstruktion einer sicheren und skalierbaren PEC-Wasserspaltungsanlage.

Ein Team um Dr. Fatwa Abdi vom HZB-Institut für Solare Brennstoffe hat nun zum ersten Mal untersucht, wie sich der flüssige Elektrolyt in der Zelle während der Elektrolyse verhält: Mit Hilfe fluoreszierender pH-Sensorfolien bestimmte Dr. Keisuke Obata, Postdoc in Abdis Team, den lokalen pH-Wert in PEC-Zellen zwischen Anode und Kathode im Verlauf der Elektrolyse. Die PEC-Zellen wurden mit nahezu neutralen pH-Elektrolyten gefüllt. In Bereichen nahe der Anode nahm der pH-Wert im Verlauf der Elektrolyse ab, während er nahe der Kathode zunahm. Interessanterweise bewegte sich der Elektrolyt während der Elektrolyse im Uhrzeigersinn.

Die Beobachtung lässt sich durch Auftrieb aufgrund von Änderungen der Elektrolytdichte während der elektrochemischen Reaktion erklären, die zur Konvektion führt. „Es war überraschend zu sehen, dass winzige Änderungen der Elektrolytdichte (~0,1%) diesen Auftriebseffekt verursachen“, sagt Abdi.
Modell ermöglicht Simulation

Parallel dazu entwickelten Abdi und sein Team ein multiphysikalisches Modell zur Berechnung der Konvektionsströmung, die durch die elektrochemischen Reaktionen ausgelöst werden. „Wir haben dieses Modell gründlich getestet und können nun ein leistungsfähiges Werkzeug zur Verfügung stellen, um die natürliche Konvektion in einer elektrochemischen Zelle mit verschiedenen Elektrolyten im Voraus zu simulieren“, sagt Abdi.

Für das Projekt hat Abdi ein neues Labor, das „Solar Fuel Devices Facility“, am HZB aufgebaut. Dieses Labor ist Teil der Helmholtz Energy Materials Foundry (HEMF), einer großen Infrastruktur, die auch Messgäste aus aller Welt nutzen können. Die Studie wurde in Zusammenarbeit mit der TU Berlin im Rahmen des Exzellenzclusters UniSysCat durchgeführt.

„Mit dieser Arbeit erweitern wir unsere materialwissenschaftliche Expertise um neue Einblicke auf dem Gebiet der photoelektrochemischen Reaktionstechnik. Das ist ein wesentlicher Schritt auf dem Weg zur Aufskalierung von Solarbrennstoffanlagen“, sagt Prof. Dr. Roel van de Krol, der das HZB-Institut für Solare Brennstoffe leitet.

Wissenschaftliche Ansprechpartner:
Dr. Fatwa Firdaus Abdi
HZB_Institut Solare Brennstoffe
(030) 8062 – 42927
fatwa.abdi@helmholtz-berlin.de

Originalpublikation:
Energy&Environmental Science (2020): In-situ Observation of pH Change during Water Splitting in Neutral pH Conditions: Impact of Natural Convection Driven by Buoyancy Effects

Keisuke Obata, Roel van de Krol, Michael Schwarze, Reinhard Schomäcker, and Fatwa F. Abdi

Doi: 10.1039/D0EE01760D

Quelle: IDW
(nach oben)


Abwasserreinigung mittels Sonnenlicht – Ozon als Reaktionspartner

Leibniz-Institut für Katalyse
Am Leibniz-Institut für Katalyse in Rostock deckten Chemiker:innen den molekularen Mechanismus eines Fotokatalysators auf, der mit Hilfe von Sonnenlicht organische Verunreinigungen im Abwasser vollständig abbaut. Weltweit gelangen z.B. immer mehr Rückstände von Arzneien, wie Entzündungshemmern, Antibiotika oder Verhütungsmitteln, in die Aufbereitungssysteme, wo sie sich nur schwer entfernen lassen. Labore arbeiten verstärkt an fotokatalytischen Lösungen, doch das Wissen über die Wirkprinzipien ist lückenhaft. Forschende um Angelika Brückner und Jabor Rabeah am LIKAT haben deshalb Fotokatalysatoren gewissermaßen live bei der Arbeit beobachtet und Grundlagen ihrer Funktionsweise aufgeklärt.

Dies eröffnet der Entwicklung von Fotokatalysatoren für die Abwasserbehandlung neue Wege, wie Prof. Dr. Brückner, Bereichsleiterin am LIKAT, sagt. Kollegen aus China waren an sie mit der Bitte um Kooperation herangetreten. In bevölkerungsreichen Regionen Asiens sind organische Verunreinigungen, etwa durch stabile Abbauprodukte von Medikamenten, ein dringliches Problem.
Die chinesischen Kolleg:innen hatten neue Katalysatoren entwickelt und brauchten die Expertise des LIKAT für spezielle Untersuchungen, um ihre Katalysatoren optimal präparieren zu können. Brückner und ihr Team sind Spezialisten auf dem Gebiet der sogenannten In-situ-Spektroskopie. Damit können sie die Funktion eines Katalysators während der chemischen Reaktion (in situ) verfolgen und seine molekulare Wirkweise dokumentieren.

Carbonitrid statt Titanoxid
Gängige Fotokatalysatoren, wie Titandioxid, mit dem z. B. selbstreinigende Fensterscheiben beschichtet werden, um Schmutzpartikel zu zersetzen, arbeiten am effektivsten mit energiereicher UV-Strahlung. Allerdings beträgt der UV-Anteil im Sonnenlicht nur 5 bis 8 Prozent. Die chinesischen Chemiker:innen nutzen deshalb eine neue Generation von Fotokatalysatoren: Carbonitrid, das im sichtbarem Licht aktiviert wird. Es entsteht durch thermische Behandlung von Melamin, das auch als Ausgangsstoff für farbenfrohes Geschirr aus Duroplast dient.
Die Kolleg:innen in China konnten ihren Katalysator erfolgreich testen, und zwar mit verschiedenen Substanzen, die beim Abbau von Medikamenten entstehen und ins Abwasser gelangen. Der pulverförmige Fotokatalysator wird dabei im Wasser verrührt und verrichtet als Schwebeteilchen seine Arbeit. Als Oxidationsmittel testeten die Kollegen Sauerstoff und Ozon. „Ozon erwies sich als außergewöhnlich effektiv“, erläutert Prof. Brückner. „Doch seine Aktivität schwankte, und das schien abhängig von den Präparationsbedingungen des Katalysators zu sein.“
Warum das so ist und welches die optimalen Bedingungen für das Präparieren des Katalysators darstellten, sollte Jiadong Xiao, ein junger Chemiker von der Universität Peking, am LIKAT in seiner Dissertation erkunden. Diese Forschungen liefen unter der Ägide von Dr. Jabor Rabeah, Themenleiter am LIKAT und Betreuer des Doktoranden.

Radikale einfangen und identifizieren
Die Messungen ergaben, dass für die eigentliche Abbaureaktion eine Spezies von Radikalen verantwortlich ist. Angelika Brückner: „Das sind äußerst reaktionsfreudige Moleküle, die die Schadstoffe im Wasser sofort angreifen und abbauen. Und das Zusammenspiel von Sonnenlicht, Fotokatalysator und Ozon befördert diese Bildung von Radikalen.“ Tatsächlich waren die Radikale so kurzlebig, dass es zunächst selbst mit der modernen Analysentechnik am LIKAT nicht gelang, sie zu identifizieren.
Für solche Fälle nutzen die Chemiker einen Trick, den sie Spin-Trap nennen: Die Radikale werden mit einem neutralen Molekül eingefangen, das dadurch selbst zum Radikal wird, allerdings zu einem, dass kaum reaktiv ist und deshalb lange genug „lebt“, um analysiert zu werden. So war es möglich, die hocheffektiven Teilchen als Hydroxyl-Radikale zu identifizieren, Moleküle, die aus einem Wasserstoff- und einem Sauerstoff-Atom bestehen. Die hohe Wirksamkeit der Kombination Fotokatalysator – Sonnenlicht – Ozon bei der Abwasserreinigung ließ sich durch die extrem rasche Bildung enorm vieler reaktionsfreudiger Radikale erklären.
Ergebnis der Forschungsarbeiten ist „ein neues mechanistisches Konzept“ für diese Art von Reaktionen, wie Angelika Brückner sagt. Die Forscher:innen gehen davon aus, dass die Methode mit diesem Hintergrundwissen bald ihren Weg in die Praxis findet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Angelika Brückner
Angelika.Brueckner@catalysis.de
doi.org/10.1021/acs.accounts.9b00624

Originalpublikation:
J. Xiao, Y. Xie, J. Rabeah, A. Brückner, H. Cao, Acc. Chem. Res. 2020, 53, 1024-1033.

Weitere Informationen:
https://www.catalysis.de/forschung/katalytische-in-situ-studien/

Quelle: IDW
(nach oben)


Bayreuther Sportphysiologe entwickelt Leitlinien für Sport mit Diabetes-Typ-1

Christian Wißler Pressestelle
Universität Bayreuth
Ein internationales Forschungsteam unter der Leitung von Prof. Dr. Othmar Moser, Professor für Exercise Physiology & Metabolism an der Universität Bayreuth, hat Leitlinien für Glukosemanagement beim Sport entwickelt. Die in den Zeitschriften „Diabetologia“ und „Pediatric Diabetes“ veröffentlichten Empfehlungen sollen Menschen mit Diabetes-Typ-1 vor Unter- und Überzuckerungen schützen.

Menschen mit Diabetes-Typ-1 können trotz ihrer Erkrankung körperlich aktiv sein. Sie sollten aber beim Sport ein besonders wachsames Auge auf ihre Blutzuckerwerte haben. Denn weil ihr Körper nicht in der Lage ist, Insulin selbst zu produzieren und dieses somit gespritzt werden muss, um die Glukosekonzentration stabil zu halten, müssen sie mit Unterzuckerung rechnen. Die Insulintherapie, die den Blutzuckerspiegel künstlich auf möglichst optimalem Niveau halten soll, ist jedoch bei körperlicher Belastung nicht einfach zu handhaben. Deshalb hat das von Prof. Dr. Othmar Moser koordinierte internationale Team neue Empfehlungen für Menschen mit Diabetes-Typ-1 ausgearbeitet. Die Empfehlungen basieren auf den Möglichkeiten neuartiger Blutzuckermess-Systeme. Sie sollen Sportlerinnen und Sportlern sichere körperliche Aktivitäten ohne gefährliche Blutzuckerschwankungen ermöglichen.

Die Leitlinien zeigen im Detail, ab welchem Glukosewert es notwendig ist, während sportlicher Betätigung zusätzliches Insulin zuzuführen. Ebenso wird dargelegt, bei welchem Blutzuckerwert welche Menge an Kohlenhydraten – abhängig von ihrem Glukosewert – eingenommen werden soll. Dieses Blutzuckermanagement während sportlicher Aktivitäten soll künftig über eine App erleichtert werden, das derzeit gemeinsam mit dem King’s College in London entwickelt wird. Damit soll ein smartes Glukosemanagement zur Verfügung stehen. „Wie bei den meisten chronischen Erkrankungen ist ein aktiver Lebensstil wichtig, um ein langes und nahezu gesundes Leben ermöglichen zu können. Mit unseren Empfehlungen wollen wir Menschen mit Diabetes mellitus Typ 1 dabei unterstützen, sportliche Aktivität als festen Bestandteil in ihren jeweiligen Therapieplan zu integrieren“, sagt Moser, der seit dem 1. November 2020 die Professur für Exercise Physiology & Metabolism an der Universität Bayreuth innehat.

Zentraler Bestandteil der Leitlinien sind neuartige Zuckermessgeräte, die permanent die aktuellen Glukosewerte zur Verfügung stellen. Dabei wird der Glukosewert nicht-invasiv – also ohne Blutabnahme – mit einem winzigen, unter der Haut angebrachten Sender permanent gemessen. Ein Sender übermittelt mehrmals pro Tag den jeweils aktuellen Wert an die Empfänger. „Diesen medizintechnischen Fortschritt nutzen die Leitlinien, um ein unkompliziertes und wirklich verlässliches Glukosemanagement zu ermöglichen. Bisher wurden alle Therapieempfehlungen bei Sport und Diabetes mellitus Typ 1 auf der Basis von invasiven Blutzuckermessungen von der Fingerbeere erstellt“, sagt Moser.

Bereits in früheren Studien haben er und sein Team gezeigt, dass es zur Vermeidung lebensbedrohlicher Unterzuckerungen notwendig ist, dass Patientinnen und Patienten mit Typ-1-Diabetes während sportlicher Aktivitäten den Glukosespiegel stabil halten – sei es, indem sie die Insulindosis abhängig von der Dauer und Intensität der Belastung verringern, sei es, dass sie zusätzliche Kohlenhydrate zuführen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Othmar Moser
Exercise Physiology and Metabolism
Universität Bayreuth
Telefon: +49 (0)921 / 55-3464
E-Mail: othmar.moser@uni-bayreuth.de

Originalpublikation:
Othmar Moser et al.: Glucose management for exercise using continuous glucose monitoring (CGM) and intermittently scanned CGM (isCGM) systems in type 1 diabetes: position statement of the European Association for the Study of Diabetes (EASD) and of the International Society for Pediatric and Adolescent Diabetes (ISPAD) endorsed by JDRF and supported by the American Diabetes Association (ADA). Diabetologia (2020). DOI: https://dx.doi.org/10.1007/s00125-020-05263-9

Quelle: IDW
(nach oben)


Biogasanlagen produzieren Strom flexibel und bedarfsgerecht-Stromeinspeisung folgt Residuallast und Strompreisen

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Ca. 150 Biogasanlagen produzieren schon heute flexibel Strom und werden markt- und systemdienlich betrieben. Dies zeigt eine Analyse im Auftrag der Fachagentur Nachwachsende Rohstoffe e. V. (FNR), die von der Agrarservice Lass GmbH mit Hilfe des Flexperten-Netzwerkes durchgeführt wurde. Darin wird deutlich, dass die Einspeisesummen ausgewählter, zukunftsweisend flexibilisierter Biogasanlagen sehr genau den Strompreisen und der Residuallast folgen. Bei hoher Netzbelastung ruhen die Biogas-BHKWs und machen das Netz frei für Wind- und Solarstrom. Biogas-Rohstoffe und die Biogas-Speicher werden so zu „Batterien“ für die Stromversorgung in Engpasszeiten.

Ziel der Bundesregierung ist es, den Anteil erneuerbarer Energien am Gesamtenergieverbrauch bis 2030 auf 65 % zu erhöhen. Zudem werden durch den Kohle- und Atomausstieg bereits in den nächsten Jahren erhebliche Strom-Erzeugungskapazitäten abgestellt und durch erneuerbare, vorwiegend fluktuierende Energien wie Sonne und Wind ersetzt. Diese können die stetige Stromversorgung aber nicht allein sicherstellen. Es gibt Zeiten, in denen mehr Strom eingespeist als gleichzeitig genutzt wird. In sogenannten Dunkelflauten –in denen Sonne und Wind nicht oder nur eingeschränkt verfügbar sind – sind hingegen Lücken zu füllen. Daher sollten alle regelbaren Stromerzeuger in naher Zukunft verstärkt residuallastabhängig betrieben werden.

Biogas- bzw. Biomethan-Blockheizkraftwerke werden bisher überwiegend in Grundlast gefahren. Für einen wirtschaftlichen Betrieb ist der Großteil der Anlagen auf die Festvergütung für den eingespeisten Strom aus dem Erneuerbaren Energien-Gesetzt (EEG) angewiesen. Dabei hat Biogas einen erheblichen Vorteil gegenüber anderen erneuerbaren Energien: es ist speicherbar und kann somit Spitzenstrom liefern. Bestehende Biogasanlagen mit Stromerzeugung müssen dafür jedoch vom Grundlastbetrieb auf die bedarfsorientierte Betriebsweise umgestellt werden. Dies erfordert erhebliche Investitionen in die Anlagen. Mit der Direktvermarktung und der Flexibilitätsprämie des EEG fördert die Bundesregierung die Anpassung von Biogasanlagen an das Stromnetz der Zukunft. Laut einer Studie des Deutschen Biomasseforschungszentrum (DBFZ) erhalten aktuell ca. 3.300 Biogas- und Biomethan-BHKW mit einer installierten elektrischen Leistung von ca. 2,2 GWel die sogenannte Flexprämie. Obwohl die Stromeinspeisung zu Hochpreisphasen Mehrerlöse verspricht, fahren die meisten dieser Anlagen trotzdem bislang nicht marktpreisorientiert.

Mit dem Projekt „Visualisierung der Netz-/Systemdienlichkeit flexibilisierter Biogasanlagen – VisuFlex“ zeigen die Projektbearbeiter, dass die Strompreise sehr genau der Residuallast folgen und somit eine geeignete Steuerungsgröße darstellen. Unter Einbindung von Direktvermarktern wurden anhand definierter Kriterien zukunftsweisend flexibilisierte Anlagen identifiziert und deren aufsummierte Stromeinspeisung den Strompreisen sowie der Residuallast gegenübergestellt. Die Auswertung erfolgte rückwirkend für den Zeitraum 01.01.2019 – 30.06.2020. Das Ergebnis zeigt, dass die ausgewählten Biogasanlagen sehr zuverlässig zu Zeiten von Last- und Preisspitzen einspeisen und somit optimal markt- und systemdienlich betrieben werden

Die Anzahl der zukunftsweisend flexibilisierten Anlagen ist noch sehr gering und wird auf ca. 150 Anlagen geschätzt. Daher bleiben die Effekte der Flexibilisierung bislang unsichtbar und der Wert real existierender Biogas-Speicherkraftwerke wird für den Strommarkt nicht wahrgenommen. „Die Bedeutung von Stromlieferanten, die in der Lage sind, auf Strompreisschwankungen flexibel zu reagieren, wird insbesondere vor dem Hintergrund der zunehmenden fluktuierenden Einspeisung aus Photovoltaik und Windkraft in den nächsten Jahren weiter zunehmen“, so Martin Lass, Geschäftsführer der Agrarservice Lass GmbH. „Dann werden flexible Speicherkraftwerke gebraucht, was sich auch in den zu erzielenden Strompreisen widerspiegeln wird.“

Um die Effekte der Flexibilisierung für die Öffentlichkeit, die Politik, aber auch als Vorbild für andere Biogasanlagenbetreiber deutlich sichtbar zu machen, wird in einer geplanten zweiten Projektphase die Visualisierung der Stromeinspeisung zukunftsweisend flexibilisierter Biogasanlagen auf einer separaten Plattform in Echtzeit angestrebt. Daraus ließe sich über die Zeit auch der Zuwachs fahrplanoptimierter Biogasanlagen ableiten.

Weitere Informationen unter: https://biogas.fnr.de/biogas-nutzung/stromerzeugung/stand-der-flexibilisierung-v…

Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e. V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de

Quelle: IDW
(nach oben)


Auch Ratten können Hantaviren übertragen: Infektion durch asiatische Virusart in Deutschland nachgewiesen

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Eine Forschungsgruppe der Charité – Universitätsmedizin Berlin konnte erstmals in Deutschland die Übertragung einer bestimmten Virusspezies – des Seoulvirus – von einem Tier auf den Menschen belegen. In Zusammenarbeit mit dem Friedrich-Loeffler-Institut wurde der Krankheitserreger bei einer jungen Patientin und ihrer Heimratte nachgewiesen. Das könnte Auswirkungen auf den Umgang mit Wild- und Heimratten haben, wie jetzt im Fachmagazin Emerging Infectious Diseases* beschrieben ist.

Nach mehreren Ausbrüchen im 21. Jahrhundert stehen Hantavirus-Erkrankungen stärker im öffentlichen Fokus und sind in Deutschland seit 2001 meldepflichtig. Durch verschiedene Mausarten können beispielsweise die in Mitteleuropa verbreiteten Puumala- und Dobrava-Belgrad-Viren übertragen werden. Diese führen meist zu fiebrigen Erkrankungen, in einigen Fällen jedoch auch zu einem HFRS-Syndrom, das mit Fieber, Blutdruckabfall und akutem Nierenversagen einhergeht. Hingegen kommt das hauptsächlich in Asien verbreitete Seoulvirus, welches weit häufiger zu schweren Verläufen führt, ausschließlich in Ratten vor. Übertragungen des hochvirulenten Seoulvirus von Ratten auf Menschen sind bereits in mehreren Fällen auch außerhalb Asiens dokumentiert worden.

Das Team um Prof. Dr. Jörg Hofmann, Leiter des Nationalen Konsiliarlabors für Hantaviren am Institut für Virologie der Charité, konnte nun erstmals eine sogenannte autochthone – also in Deutschland erworbene – Infektion durch das Seoulvirus aufzeigen, deren Ursprung eine Ratte war. In enger Zusammenarbeit mit der Forschungsgruppe von Prof. Dr. Rainer G. Ulrich am Friedrich-Loeffler-Institut (FLI) in Greifswald sowie lokalen und regionalen Gesundheitsbehörden haben die Forschenden das Virus bei einer jungen Patientin aus Niedersachsen und einer ihrer Heimratten nachgewiesen. „Dieses Virus kommt ursprünglich aus Asien und ist wahrscheinlich durch infizierte Wildratten auf Schiffen nach Europa gelangt, konnte in Deutschland bisher aber noch nie beobachtet werden“, sagt Prof. Hofmann, Erstautor der Studie. Die infizierte Zuchtratte der Patientin ist vermutlich aus einem anderen Land nach Deutschland importiert worden.

Die junge Patientin musste mehrere Tage intensivmedizinisch versorgt werden, nachdem sie Symptome eines akuten Nierenversagens zeigte. Serologische Laboruntersuchungen konnten schnell den Verdacht einer Hantavirus-Infektion bestätigen – um welchen Virustyp es sich handelte, war allerdings nicht klar.

Das Team um Prof. Hofmann an der Charité hat eine molekulare Spezialdiagnostik entwickelt, mit deren Hilfe das Seoulvirus bei der Patientin identifiziert werden konnte. Bei der betroffenen Heimratte konnten die Experten am Friedrich-Loeffler-Institut mit dem Test dasselbe Virus nachweisen. Prof. Hofmann erklärt: „Beide Virussequenzen, die der Patientin und die der Ratte, waren identisch. Dies bestätigt eine Erkrankung durch Übertragung des Erregers vom Tier auf den Menschen – eine sogenannte Zoonose.“

„Bislang dachte man nur bei Mäusekontakt an Hantavirus-Infektionen. Jetzt muss man die Möglichkeit einer Infektion auch bei Kontakt zu Wild- oder Heimratten in Betracht ziehen“, warnen die Autoren. „Der Nachweis in einer Heimratte bedeutet außerdem, dass über den Verkauf dieser Tiere das Virus praktisch überallhin exportiert werden kann.“ Vorsicht ist daher bei der Rattenhaltung geboten.

*Hofmann J et al. Autochthonous ratborne Seoul virus infection in woman with acute kidney injury. Emerg Infect Dis (2020), DOI: 10.3201/eid2612.200708

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Hofmann
Institut für Virologie
Campus Charité Mitte
t: +49 30 450 525 141
E-Mail: joerg.hofmann@charite.de

Originalpublikation:
https://wwwnc.cdc.gov/eid/article/26/12/20-0708_article

Quelle: IDW
(nach oben)


Hunderte Exemplare von Newtons Philosophiae Naturalis Principia Mathematica in neuer Zählung gefunden

Linda Schädler Abteilung Kommunikation
Universität Mannheim
Dr. Andrej Svorenčík, Postdoktorand an der Universität Mannheim, und Professor Mordechai Feingold vom California Institute of Technology (Caltech) haben in jahrelanger Suche bisher unbekannte Exemplare von Isaac Newtons bahnbrechendem Wissenschaftsbuch aufgespürt.

Die Ergebnisse der Zählung deuten darauf hin, dass Isaac Newtons Meisterwerk aus dem 17. Jahrhundert, umgangssprachlich Principia genannt, einer breiteren Öffentlichkeit zugänglich war als bisher angenommen. Durch die neue Zählung hat sich die Zahl der bekannten Exemplare der berühmten Erstausgabe, die 1687 veröffentlicht wurde, mehr als verdoppelt. Die letzte Exemplarzählung dieser Art, die 1953 veröffentlicht wurde, hatte 189 Exemplare identifiziert, während die neue Suche 386 Exemplare hervorbrachte.

Die Suche von Dr. Andrej Svorenčík, Postdoktorand für Geschichte der Wirtschaftswissenschaften an der Universität Mannheim und seinem ehemaligen Professor für Wissenschaftsgeschichte am Caltech, Mordechai Feingold, dauerte mehr als ein Jahrzehnt. Dennoch vermuten die beiden Wissenschaftler, dass wahrscheinlich bis zu 200 weitere Bücher immer noch undokumentiert in öffentlichen und privaten Sammlungen lagern. Sie schätzen, dass im Jahr 1687 etwa 600, möglicherweise sogar 750 Exemplare der Erstausgabe des Buches gedruckt wurden.

Neben unbekannten Exemplaren fanden die Forscher Belege dafür, dass die Principia, von der man einst annahm, sie sei nur einer ausgewählten Gruppe von Mathematikexperten vorbehalten, umfassender gelesen und verstanden wurde als zuvor angenommen. „Wenn Sie die Exemplare durchsehen, finden Sie kleine Notizen oder Anmerkungen, die Hinweise darauf geben, wie sie verwendet wurden“, sagt Svorenčík, der etwa 10 Prozent der in der Zählung dokumentierten Exemplare persönlich inspiziert hat.

Wenn Svorenčík zu Konferenzen in verschiedene Länder reiste, nahm er sich Zeit, lokale Bibliotheken zu besuchen. „Man schaut sich die Eigentumsmerkmale an, den Zustand des Einbands, die Druckunterschiede und vieles andere“, so der Wissenschaftler. Auch ohne die Bücher aus der Nähe zu inspizieren, konnten die Historiker anhand von Bibliotheksaufzeichnungen und anderen Briefen und Dokumenten herausfinden, wem sie gehörten und wie die Exemplare weitergegeben wurden.

Funde hinter dem Eisernen Vorhang
Das Forschungsprojekt ist aus einer Arbeit hervorgegangen, die Svorenčík als Student für einen von Feingold unterrichteten Kurs geschrieben hat. Svorenčík, der ursprünglich aus der Slowakei stammt, hatte eine Semesterarbeit über die Verbreitung der Principia in Mitteleuropa verfasst. „Mich interessierte, ob es Exemplare des Buches gab, die sich bis in meine Heimatregion zurückverfolgen ließen. Die in den 1950er Jahren durchgeführte Zählung führte keine Exemplare aus der Slowakei, der Tschechischen Republik, Polen oder Ungarn auf. Dies ist verständlich, da die Exemplarzählung nach dem Fall des Eisernen Vorhangs durchgeführt wurde, was die Rückverfolgung von Kopien sehr schwierig machte.“

Zur Überraschung von Svorenčík fand er viel mehr Exemplare, als Feingold erwartet hatte. Nach Semesterende schlug Feingold Svorenčík vor, sein Projekt in die allererste vollständige und systematische Suche nach Kopien der ersten Principia-Ausgabe umzuwandeln. Die anschließende Detektivarbeit auf der ganzen Welt ergab etwa 200 bisher nicht identifizierte Exemplare in 27 Ländern, darunter 21 Exemplare in Deutschland.

Svorenčík und Feingold stießen sogar auf verlorene oder gestohlene Exemplare des Meisterwerks. So wurde beispielsweise bei einem Buchhändler in Italien ein Exemplar entdeckt, das ein halbes Jahrhundert zuvor aus einer Bibliothek in Deutschland gestohlen worden war. Die deutsche Bibliothek benötigte aber zu lange, um das Exemplar zurückzukaufen oder es zu beschlagnahmen, so dass es wieder auf dem Markt landete. Nach Angaben der Historiker werden Erstausgaben der Principia heute für 300.000 bis 3 Millionen Dollar über Auktionshäuser wie Christie’s und Sotheby’s sowie auf dem Schwarzmarkt verkauft.

Svorenčík und Feingold haben nun gemeinsam einen Artikel über die Zählung in der Zeitschrift „Annals of Science“ veröffentlicht. Der Artikel ist unter https://www.tandfonline.com/doi/full/10.1080/00033790.2020.1808700 erhältlich.

Als Fortführung des Forschungsprojekts planen sie, das Verständnis darüber weiter zu verfeinern, wie die Principia die Wissenschaft des 18. Jahrhunderts geprägt hat.

Isaac Newtons Philosophiae Naturalis Principia Mathematica
In der Principia führte Newton die Grundgesetze der Bewegung und der universellen Gravitation ein, „indem er die irdische und die himmlische Welt in einem einzigen Gesetz vereinte“, so Svorenčík. Forschende in anderen Bereichen hofften, ein ähnliches Gesetz zu finden, um ihre eigenen Bereiche zu vereinheitlichen. Newtons Theorien, genau wie die von Charles Darwin und Albert Einstein, übten beträchtlichen Einfluss auf viele andere Aspekte des Lebens aus, was ihn zu einer so kanonischen Figur des 18. Jahrhunderts machte.

Ein Pressefoto von Dr. Svorenčík finden Sie unter: https://www.uni-mannheim.de/newsroom/presse/pressefotos/

Kontakt:
Dr. Andrej Svorenčík
Postdoktorand für Wirtschaftsgeschichte
Abteilung Volkswirtschaftslehre
Universität Mannheim
E-Mail: svorencik@uni-mannheim.de

Dr. Maartje Koschorreck
Stellvertretende Pressesprecherin
Universität Mannheim
Tel. +49 621-1080
E-Mail: koschorreck@uni-mannheim.de

Quelle: IDW
(nach oben)


Gutes Change-Management: Wie KI in Unternehmen erfolgreich wird

Linda Treugut Geschäftsstelle
Lernende Systeme – Die Plattform für Künstliche Intelligenz
Künstliche Intelligenz (KI) wird den Arbeitsalltag von vielen Beschäftigten verändern. Der Einsatz von KI-Systemen in Betrieben bietet vielfältige Chancen für die Mitarbeiterinnen und Mitarbeiter wie auch die Unternehmen. Gleichzeitig stellt die Einführung von KI alle Beteiligten vor Herausforderungen – wie etwa beim Umgang mit persönlichen Daten oder der menschengerechten Gestaltung der Arbeitsbedingungen. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt anhand konkreter Lösungswege und Praxisbeispielen, wie Unternehmen KI-Systeme sowohl im Sinne der Beschäftigten als auch des wirtschaftlichen Erfolgs einführen und wie Change-Prozesse gelingen können.

KI-Systeme können die Mitarbeiterinnen und Mitarbeiter bei ihren Aufgaben entlasten, Arbeitsprozesse effizienter machen und neue KI-basierte Geschäftsmodelle ermöglichen. Gleichwohl setzt ihre Einführung einen Wandel im Unternehmen in Gang, der gestaltet sein will. Der entscheidende Faktor für den Erfolg von KI-Systemen ist das Change-Management. Ein gutes Change-Management fördere die Akzeptanz von KI-Systemen bei den Mitarbeiterinnen und Mitarbeitern, sodass die Potenziale der neuen Technologien für alle Beteiligten gemeinsam genutzt und sowohl die Beschäftigten als auch ihre Interessenvertretungen zu Gestaltern des technologischen Wandels gemacht werden können, heißt es in dem Whitepaper.

„Die Einführung von KI-Systemen ist in Unternehmen oft mit Unsicherheiten verbunden. Viele Beschäftigten sorgen sich um ihren Arbeitsplatz oder fürchten, von Maschinen fremdgesteuert und überwacht zu werden. Deshalb ist es wichtig, dass volle Transparenz herrscht und die Beschäftigten von Anfang an in die Ausgestaltung des KI-Einsatzes einbezogen sind“, sagt Mitautor Oliver Suchy, Mitglied des Bundesvorstands des Deutschen Gewerkschaftsbundes DGB und der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme.

Die Einführung von KI steht in vielen Unternehmen noch am Anfang. „Natürlich haben Unternehmen Erfahrung darin, neuen Technologien einzuführen und können sich auf ein vertrautes Instrumentarium zur Gestaltung der Change-Prozesse stützen“, so Mitautor Sascha Stowasser, Direktor des Instituts für angewandte Arbeitswissenschaft ifaa und Mitglied der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion. „Doch beim Einsatz von Künstlicher Intelligenz gibt es einige Besonderheiten zu berücksichtigen. KI-Systeme nutzen große Datenmengen – auch persönliche Daten – und agieren zum Teil sehr autonom. Hier stellen sich ganz neue Fragen, ob etwa Persönlichkeitsrechte beschnitten werden oder wem im Falle eines Fehlers des KI-Systems die Verantwortung dafür zugeschrieben werden kann.“

Vier Phasen einer erfolgreichen Einführung von KI
Damit der Übergang zum KI-unterstützen Arbeiten gelingt, beschreiben die Autoren im Whitepaper vier Phasen, die ein erfolgreiches Change-Management durchlaufen muss. In der Startphase sollten Unternehmen gemeinsam mit den Beschäftigten die Ziele und den Zweck der geplanten KI-Anwendungen festlegen und die möglichen Auswirkungen beispielsweise auf die Vereinbarkeit von Privat- und Berufsleben in den Blick nehmen. Wichtig ist es in dieser Phase auch, die Beschäftigten über die Funktionsweise des KI-Systems aufzuklären, denn ein Grundverständnis der Technologie ist die Basis, um Vertrauen aufzubauen. In der zweiten Phase steht das Design der KI-Systeme selbst im Vordergrund. Hier geht es darum, gemeinsam die Zusammenarbeit mit der KI zu gestalten – von Sicherheit und Datenschutz über die Arbeitsteilung bis hin zur Nachvollziehbarkeit der KI-Entscheidungen.

Die Vorbereitung der KI-Einführung und Implementierung der Systeme sind Teil der dritten Phase. Zentral in dieser Phase ist die Qualifizierung der Mitarbeiterinnen und Mitarbeiter für die neuen Anforderungen. Zudem müssen Organisationsstrukturen und Aufgabenverteilungen im Betrieb angepasst werden. Die Autoren des Whitepapers raten, die KI-Systeme in Pilotprojekten und Experimentierphasen zu testen und Erfahrungen unter Realbedingungen zu sammeln, bevor die Anwendungen flächendeckend realisiert werden. Nach der Einführung der KI-Systeme muss deren Einsatz kontinuierlich überprüft, evaluiert und gegebenenfalls angepasst werden. In dieser letzten Phase des Change-Managements ist es besonders wichtig, die Erfahrungen der Beschäftigten einzubeziehen. Um die Mitwirkung der Beschäftigten langfristig sicherzustellen, schlagen die Autoren einen paritätisch besetzten KI-Rat vor, der die Change-Prozesse dauerhaft begleitet.

Über das Whitepaper
Das Whitepaper „Einführung von KI-Systemen in Unternehmen. Gestaltungsansätze für das Change-Management“ wurde von der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung unter https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…

Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme des Hightech-Forums und acatech gegründet. Sie vereint Expertinnen und Experten aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft aus dem Bereich Künstliche Intelligenz. In Arbeitsgruppen entwickeln sie Handlungsoptionen und Empfehlungen für den verantwortlichen Einsatz von Lernenden Systemen. Ziel der Plattform ist es, als unabhängiger Makler den gesellschaftlichen Dialog zu fördern, Kooperationen in Forschung und Entwicklung anzuregen und Deutschland als führenden Technologieanbieter für Lernende Systeme zu positionieren. Die Leitung der Plattform liegt bei Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident acatech).

Weitere Informationen:
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…

Quelle: IDW
(nach oben)


Mit Methan als Nahrungsquelle setzen Bakterien giftiges Arsen frei

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam der Universität Tübingen entdeckt bisher unbekannten Mechanismus, der in Vietnam eine wichtige Rolle bei der natürlichen Verunreinigung des Grundwassers spielt

Giftiges Arsen belastet großflächig Flüsse und Grundwasser in vielen südostasiatischen Ländern wie Bangladesch und Vietnam. Es wird durch die Aktivität von Mikroorganismen freigesetzt, über deren Nahrungsquellen jedoch bisher wenig bekannt war. Ein Team aus der Geomikrobiologie der Universität Tübingen unter der Leitung von Professor Andreas Kappler wies kürzlich nach, dass die Arsen freisetzenden Bakterien ihre Nahrung in den tieferen Bodenschichten finden und nicht von der Wasseroberfläche zum Beispiel aus Algen oder Pflanzen beziehen. Nun entdeckte das Team, dass neben den an Sedimenten abgelagerten organischen Stoffen Methangas als Nahrungsquelle eine wichtige Rolle bei der Freisetzung des Arsens durch Bakterien spielt. Damit lässt sich die hohe Ar-senkonzentration des Wassers in vielen Gebieten Südostasiens besser als bisher erklären. Die neue Studie erscheint in der Fachzeitschrift Nature Communications Earth & Environment.

Arsenhaltige Eisenminerale, die ursprünglich aus den Bergen des Himalajas stammen, finden sich heute in den Sedimenten unter der Oberfläche vieler Flussdeltas in Südostasien. Diese Grundwassersedimente beherbergen verschiedene Verbände von Mikroorganismen, die das giftige Arsen durch Auflösung der Eisenminerale abgeben. „Nach unserer vorherigen Studie gingen wir davon aus, dass sie Stoffwechsel und Wachstum durch organische Ablagerungen an den Sedimenten aufrechterhalten“, sagt die Doktorandin Martyna Glodowska.

Hohe natürliche Gaskonzentration
Versuchsgebiet ist ein mit Arsen verseuchtes Grundwassersystem in Van Phuc, einem Dorf 15 Kilometer südöstlich von Hanoi in Vietnam. „Dort konnten wir eine hohe Konzentration von Methan beobachten, das von Mikroorganismen produziert wird. An manchen Stellen ist die Methankonzentration so hoch, dass das Gas aus dem Wasser an die Oberfläche sprudelt“, berichtet Andreas Kappler. Methan bildet den Hauptbestandteil von Erdgas und wird als Biogas in Industrie und Haushalten vielfach zur Energiegewinnung eingesetzt. „Das brachte uns auf die Idee, dass auch die Arsen freisetzenden Mikroorganismen es nutzen könnten“, berichtet Glodowska, die Erstautorin der neuen Studie.

Mithilfe von Experimenten im Tübinger Labor, bei denen dem Sediment aus Vietnam Methan zugesetzt wurde, konnte das Forschungsteam diese Annahmen bestätigen. „Damit haben wir einen Mechanismus entdeckt, über den es zur Arsenanhäufung kommen kann“, sagt Kappler. „Unter der Wasseroberfläche produzieren Mikroorganismen Methan, das anderen Mikroben, sogenannten Methanfressern, die Energie liefert, um die Eisenminerale aufzulösen und dabei Arsen abzuscheiden.“

Eine vergleichende Analyse von Wassersystemen weltweit offenbarte, dass viele von ihnen große Mengen Methan wie auch eine weite Verbreitung von Methan erzeugenden und verbrauchenden Mikroorganismen aufweisen. „Daher könnte die Mobilisierung von Arsen durch Methan fressende Bakterien ein wichtiger Mechanismus für die Arsenverseuchung zahlreicher Gebiete sein“, sagt der Wissenschaftler. Ein wichtiger Schritt sei getan mit der Identifizierung von Methan als Nahrungsquelle, meint auch Glodowska. Nun müsse erhoben werden, welchen Umfang dieser Weg der Ar-senanhäufung unter natürlichen Bedingungen annimmt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Kappler
Universität Tübingen
Mathematisch-Naturwissenschaftliche Fakultät
Zentrum für Angewandte Geowissenschaften
Telefon +49 7071 29-74992
andreas.kappler@uni-tuebingen.de

Originalpublikation:
Glodowska, M., Stopelli, E., Schneider, M., Rathi, B., Straub, D., Lightfoot, A., Kipfer, R., Berg, M., Advects, Jetten, M., Kleindienst, S., Kappler, A. (2020) Arsenic mobilization in groundwater driven by microbial iron-dependent anaerobic oxidation of methane. Nature Communications Earth & Envi-ronment, https://doi.org.10.1038/s43247-020-00037-y.

Quelle: IDW
(nach oben)


Persönlicher Datenschutz in der Industrie 4.0: Sicherstellen der Mitarbeiter*innen-Privacy bei Tracking-Technologien

Mag. Mark Hammer Marketing und Unternehmenskommunikation
Fachhochschule St. Pölten
Immer mehr Unternehmen verfolgen in der digitalisierten Produktion automatisch die Position und die Zustände von Produktionsmitteln im Betrieb – und können mit der Technik auch die Position der Mitarbeiter*innen erfassen. Das kann die Arbeitssicherheit erhöhen, wirft aber auch Fragen zum Umgang mit persönlichen Daten auf. Ein von der Arbeiterkammer Niederösterreich finanziertes Projekt der Fachhochschule St. Pölten gemeinsam mit der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA untersucht, wie die Privatsphäre der Mitarbeiter*innen beim Einsatz von solchen Systemen geschützt werden kann.

Im Zuge der digitalen Vernetzung in der Industrie 4.0 werden Tracking-Systeme immer bedeutender. Sie erfassen mittels Funktechnologien wie WLAN, Bluetooth oder RFID die Position von Gegenständen im Betrieb, etwa von Transportmitteln, Werkzeugen und Ladungsträgern wie Paletten und Gitterboxen. Damit lassen sich Produktionsabläufe besser nachverfolgen.

„Das Aufzeichnen und Nutzen echtzeitnaher Positions- und Zustandsdaten – sogenanntes ‚Asset Tracking‘ – ist in vielen Industriezweigen bereits Standard. Der Einsatz dieser Nachverfolgungssysteme wird in Zukunft sicher noch häufiger werden“, erklärt Christian Jandl, Forscher am Institut für Creative\Media/Technologies der FH St. Pölten.

Die eingesetzte Technik ermöglicht aber auch neue Wege zum Erfassen und Auswerten des zeitlichen Positionsverlaufes von Mitarbeiter*innen, sogenanntes Mitarbeiter*innen-Tracking. Das kann einerseits aktiv geschehen, um die Arbeitssicherheit an gefährlichen Arbeitsplätzen zu erhöhen oder um Mitarbeiter*innen im Falle eines Unfalls zu lokalisieren. Die Systeme könnten aber auch passiv Positionsdaten von mobilen Geräten der Mitarbeiter*innen wie Smartphones und Smartwatches ohne deren Zustimmung ermitteln.

Private Daten schützten und nur mit Zustimmung abfragen

„Daten zum Standort der Mitarbeiterinnen und Mitarbeiter sind sensible Informationen. Aus Sicht der Privacy sollten die Informationen nur bei Zustimmung durch und Mehrwert für die betroffenen Personen erhoben werden“, sagt Thomas Moser, Leiter der Forschungsgruppe Digital Technologies am Institut für Creative\Media/Technologies der FH St. Pölten.

Das Forschungsprojekt „SensiTrack – Tracking vs. Privacy in der Arbeitswelt 4.0“ untersucht vor allem zwei Fragen: Wie kann gewährleistet werden, dass die Nutzung von Lokalisierungsdiensten keine Datenschutzprobleme verursacht, und welche Maßnahmen ermöglichen, die positiven Aspekte der neuen Technologie sinnbringend für Arbeitgeber*innen und Arbeitnehmer*innen einzusetzen.

Test in Pilotfabrik und Workshops für Unternehmen und Betriebsräte

Das Projekt entwickelt Maßnahmen, die es ermöglichen sollen, die positiven Aspekte der Technologie hinsichtlich der Arbeitssicherheit zu unterstützen, aber das Potenzial zur Überwachung der Arbeitnehmer*innen bewusst einzuschränken. Das betrifft Maßnahmen im Bereich der Speicherung und Verarbeitung von Daten, aber auch die Einführung neuer Prozesse in den Betrieben.

„Mitarbeiter*innen-Tracking ist als Balanceakt zu sehen und erfordert großes Vertrauen seitens der Mitarbeiter*innen und größtmögliche Transparenz auf Seiten der Arbeitgeber*innen“, bemerkt Martina Hartner-Tiefenthaler vom Institut für Managementwissenschaften an der TU Wien. Daher untersucht das Projektteam, welche Einflussfaktoren es auf die Akzeptanz der Mitarbeiter*innen beim Einsatz von Trackingsystemen gibt und wie vertrauenswürdige Tracking-Systeme aussehen können. So können Richtlinien für Unternehmen formuliert werden, die Arbeitgeber*innen und Arbeitnehmer*innen für das Thema sensibilisieren.

Vor Kurzem nahmen 80 Testpersonen an einem Experiment in der Pilotfabrik der TU Wien in der Seestadt Aspern im Rahmen des Projekts teil. Die Ergebnisse des Tests werden nach der Auswertung der Arbeiterkammer Niederösterreich zur Verfügung gestellt, zum Beispiel in Workshops mit Betriebsräten. Geplant sind die Workshops im Frühjahr 2021.

Projekt Sensitrack
Die FH St. Pölten führt das Projekt gemeinsam mit dem Institut für Managementwissenschaften der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA durch. Finanziert wird das Projekt von der AK Niederösterreich über den Projektfonds Arbeit 4.0.
https://research.fhstp.ac.at/projekte/sensitrack-tracking-vs-privacy-in-der-arbe…

Über die Fachhochschule St. Pölten
Die Fachhochschule St. Pölten ist Anbieterin praxisbezogener und leistungsorientierter Hochschulausbildung in den sechs Themengebieten Medien & Wirtschaft, Medien & Digitale Technologien, Informatik & Security, Bahntechnologie & Mobilität, Gesundheit und Soziales. 25 Studiengänge und zahlreiche Weiterbildungslehrgänge bieten ca. 3400 Studierenden eine zukunftsweisende Ausbildung. Neben der Lehre widmet sich die FH St. Pölten intensiv der Forschung. Die wissenschaftliche Arbeit erfolgt zu den oben genannten Themen sowie institutsübergreifend und interdisziplinär. Die Studiengänge stehen in stetigem Austausch mit den Instituten, die laufend praxisnahe und anwendungsorientierte Forschungsprojekte entwickeln und umsetzen.

Informationen und Rückfragen:
Mag. Mark Hammer
Fachverantwortlicher Presse
Marketing und Unternehmenskommunikation
T: +43/2742/313 228 269
M: +43/676/847 228 269
E: mark.hammer@fhstp.ac.at
I: https://www.fhstp.ac.at/de/presse

Pressetext und Fotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse.
Allgemeine Pressefotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse/pressefotos-logos.

Die FH St. Pölten hält ausdrücklich fest, dass sie Inhaberin aller Nutzungsrechte der mitgesendeten Fotografien ist. Der Empfänger/die Empfängerin dieser Nachricht darf die mitgesendeten Fotografien nur im Zusammenhang mit der Presseaussendung unter Nennung der FH St. Pölten und des Urhebers/der Urheberin nutzen. Jede weitere Nutzung der mitgesendeten Fotografien ist nur nach ausdrücklicher schriftlicher Zustimmung (Mail reicht aus) durch die FH St. Pölten erlaubt.

Natürlich finden Sie uns auch auf Facebook und Twitter:
https://www.facebook.com/fhstp, https://twitter.com/FH_StPoelten.

Quelle: IDW
(nach oben)


Von der Stickstoffkrise zur Phosphatkrise? Internationales Forschungsteam fordert europaweite Phosphatrichtlinie

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Durch eine europaweite Nitrat-Richtlinie will die EU Stickstoffemissionen in der Umwelt reduzieren. Es wird angenommen, dass dies gleichzeitig viele gefährdete Pflanzenarten schützen könnte, von denen viele unter hohen Nährstoffkonzentrationen in der Umwelt leiden. Aber gerade die Nitrat-Richtlinie der EU könnte dazu führen, dass viele der seltenen und bedrohten Pflanzenarten besonders leiden. Das hat ein internationales Forschungsteam der Universitäten Göttingen, Utrecht und Zürich herausgefunden. Ihre Studie wurde in der internationalen Zeitschrift Nature Ecology and Evolution veröffentlicht.

(pug) Stickstoff ist ein wichtiger Nährstoff für Pflanzenarten, aber ein Übermaß an Stickstoff kann schädlich für die Artenvielfalt sein. Das liegt daran, dass die Pflanzenarten, die mit viel Stickstoff gedeihen können, andere Arten verdrängen können, die an niedrige Stickstoffkonzentrationen angepasst sind. „Aber es reicht nicht aus, nur den Stickstoff zu reduzieren“, sagt Koautor Julian Schrader, wissenschaftlicher Mitarbeiter in der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen. „Eine solche Politik kann sogar kontraproduktiv für den Schutz bedrohter Pflanzenarten sein, wenn man nicht auch andere Nährstoffe mit einbezieht.“

Neben Stickstoff benötigen Pflanzen für ihr Wachstum unter anderem auch Phosphor und Kalium. Entscheidend dafür sind die Proportionen dieser Nährstoffe im Boden. Die Forscher stellten fest, dass, wenn die Stickstoffkonzentration im Boden reduziert wird, ohne die Phosphorkonzentration zu verringern, genau die Pflanzenarten nicht mehr vorkommen, die bedroht sind.

„Viele gefährdete Pflanzenarten in Europa kommen an Orten vor, an denen die Phosphorkonzentration niedrig ist“, erläutert Schrader. Aufgrund der Tatsache, dass die relative Konzentration von Phosphor zunimmt, wenn die Stickstoffkonzentrationen infolge einer wirksamen Politik abnehmen, geraten diese Arten unter Druck. Die gefährdeten Arten reagieren besonders empfindlich auf Veränderungen der Nährstoffkonzentrationen und sollten nach Ansicht der Forscher stärker geschützt werden.

Die Ergebnisse dieser Forschung haben erhebliche Konsequenzen für die aktuelle Stickstoffpolitik: Die Autoren plädieren daher für die Einführung einer europäischen Phosphat-Richtlinie zusätzlich zur bereits bestehenden Nitrat-Richtlinie.

Wissenschaftliche Ansprechpartner:
Julian Schrader
Georg-August-Universität Göttingen
Abteilung Biodiversität, Makroökologie und Biogeographie
E-Mail: jschrad@uni-goettingen.de
Internet: http://www.uni-goettingen.de/en/128741.html

Originalpublikation:
Wassen, M. J., Schrader, J., Van Dijk, J., Eppinga, M. B. (2020) Phosphorus fertilization is eradicating the niche of northern Eurasia’s threatened plant species. Nature Ecology and Evo-lution (2020). doi: 10.1038/s41559-020-01323-w

Quelle: IDW
(nach oben)


Weltdiabetestag am 14. November: Neue Angebote auf http://www.diabinfo.de

Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
In Deutschland leben rund sieben Millionen Menschen mit Diabetes mellitus. Im Jahr 2040 könnten sogar bis zu 12 Millionen Menschen von Typ-2-Diabetes betroffen sein. Die Erkrankung entsteht meist schleichend und kann über Jahre völlig symptomlos bleiben. Umso wichtiger ist es, die Bevölkerung über Risiken und Präventionspotenziale zu informieren. Das durch die BZgA initiierte unabhängige Diabetesinformationsportal http://www.diabinfo.de bietet qualitätsgesicherte und wissenschaftlich fundierte Informationen – und dies nun auch in türkischer Sprache. Angebote in weiteren Sprachen sind in Vorbereitung.

Prof. Heidrun Thaiss, Leiterin der Bundeszentrale für gesundheitliche Aufklärung: „Diabetes Typ 2 ist eine schleichende Erkrankung mit hohem präventivem Potenzial, das man kennen sollte. Deshalb freuen wir uns, unser Internetangebot stetig zu erweitern. Typ-2-Diabetes trifft viele Menschen oft wie aus dem Nichts. Neben Übergewicht, Bewegungsmangel und ungesunder Ernährung als Risikofaktoren kann Typ-2-Diabetes auch eine genetische Komponente haben. Anlässlich des Weltdiabetestages machen wir deshalb bundesweit über Anzeigenmotive auf die Krankheit aufmerksam und ermutigen dazu, das eigene Diabetes-Risiko mithilfe eines Online-Tests auf diabinfo zu ermitteln und im Verdachtsfall ärztlichen Rat einzuholen.“

Das Portal enthält zudem umfassende Informationen rund um das Coronavirus mit Relevanz für Menschen mit Diabetes und deren Angehörige. In einem neuen Unterportal finden nun auch Diabetesberaterinnen und -berater praxisnahe Inhalte zu Bewegung, Ernährung, Diabetes in verschiedenen Lebensabschnitten und anderen Kulturkreisen. Weitere Informationen wie Adressen von Fachärzten und Fachärztinnen, Fachkliniken, Ernährungsberatung, Selbsthilfegruppen und Präsentationsvorlagen bieten Unterstützung für die tägliche Beratungsarbeit.

Prof. Matthias Tschöp, Wissenschaftlicher Geschäftsführer des Helmholtz Zentrums München: „Wir forschen für eine Welt ohne Diabetes. Dafür müssen Krankenversorgung, Prävention und Forschung Hand in Hand gehen. Als eines der weltweit größten Diabetesforschungszentren stellen wir uns mit diabinfo unserer gesellschaftlichen Aufgabe und unterstützen mit unserem Wissen Menschen im eigenverantwortlichen Umgang mit ihrer Erkrankung.“

Prof. Michael Roden, Wissenschaftlicher Direktor des Deutschen Diabetes-Zentrums und Vorstand des Deutschen Zentrums für Diabetesforschung: „Wir haben zum Ziel, die Vorsorge und Versorgung bei Diabetes an die individuellen Bedürfnisse der Betroffenen, ihrer Angehörigen, aber auch aller Interessierten anzupassen. Das bedarf nicht nur modernster klinischer Forschung, für die wir am DDZ stehen, sondern auch gezielter Information mit neuen Formaten wie diabinfo, das die Kommunikation in der Gesellschaft zu Diabetes weiter erleichtern wird.“

Prof. Martin Hrabě de Angelis, Vorstand und Sprecher des Deutschen Zentrums für Diabetesforschung: „Im nächsten Schritt werden wir im Fachkreiseportal auch fachspezifische Angebote für Ärztinnen und Ärzte bereitstellen und werden die aktuellen Ergebnisse aus der Forschung miteinbinden.“

Die Informationen auf http://www.diabinfo.de richten sich an Menschen mit Diabetes, an Menschen mit einem besonderen Diabetes-Risiko sowie an deren Angehörige, Diabetesberatende und an thematisch Interessierte. Neben Basiswissen, aktuellen Meldungen, Hintergrundartikeln und häufig gestellten Fragen beinhaltet das Onlineportal Erklärvideos, Podcasts, Infografiken und Quiz. Für Lehrkräfte stehen Unterrichtsmaterialien zum kostenlosen Download bereit. Zudem besteht die Möglichkeit, persönliche Fragen zu stellen, die von Expertinnen und Experten individuell beantwortet werden. diabinfo wird maßgeblich durch die BZgA finanziert und von den führenden Zentren der Diabetesforschung in Deutschland angeboten und regelmäßig aktualisiert – dem Helmholtz Zentrum München, dem Deutschen Diabetes-Zentrum (DDZ) und dem Deutschen Zentrum für Diabetesforschung (DZD).

Weitere Informationen: http://www.diabinfo.de

Quelle: IDW
(nach oben)


Mit Nelkenöl und Kupfermünzen gegen die Asiatische Buschmücke

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Immer öfter finden sich exotische Stechmücken in Deutschland, die potentiell Krankheiten übertragen. In Zukunft werden daher mehr Kontrollmittel gegen die potentiellen Krankheitsüberträger notwendig sein. Experimente von Senckenberg-Wissenschaftler*innen zeigen, dass ätherisches Nelkenöl und Kupfermünzen sich dazu eignen könnten. Eine Befragung durch Forscher*innen des ISOE-Institut für sozialökologische Forschung ergab, dass potenzielle Nutzer*innen diese Mittel lieber verwenden würden als ein herkömmliches Insektizid. In der Entwicklung neuer Insektizide sollte die Ansicht potentieller Anwender*innen unbedingt beachtet werden, schreibt das Team aktuell im Fachmagazin ‚Scientific Reports‘.

Stechmücken sind selten beliebt. Insbesondere exotische Vertreter dieser Insektenart sind hierzulande unerwünscht. Solche Stechmücken breiten sich aber zunehmend durch Globalisierung und Klimawandel in Deutschland aus – und zusätzlich werden auch durch Stechmücken übertragene Viren häufiger. Die Asiatische Buschmücke Aedes japonicus japonicus beispielsweise kommt als Überträgerin der Japanischen Enzephalitis-Viren und des West-Nil-Virus sowie der Erreger des Dengue-Fiebers und des Chikungunya-Fiebers infrage.

„Um zu verhindern, dass diese Stechmücken Krankheiten übertragen, kann es in Zukunft notwendig sein, sie zu kontrollieren, also ihre Anzahl zu verringern. Für die Kontrolle der Larven, ist für Privatleute bisher nur der Wirkstoff Bacillus thuriengiensis israelensis (Bti) verfügbar. Er gilt als spezifisch, ist aber umstritten, da es Anzeichen gibt, dass damit andere Tiere, zum Beispiel für die Nahrungskette wichtige Mücken, ebenfalls abgetötet werden. Zusätzliche Mittel sind daher dringend notwendig“, so Dr. Friederike Reuss, Senckenberg Biodiversität und Klima Forschungszentrum.

Ein Team um Reuss testete daher in einem Freilandexperiment, wie gut ätherisches Nelkenöl und Kupfer in Form von Kupferband gegen die Eiablage der Asiatischen Buschmücke in stehenden Gewässern wirkt. Zusätzlich prüften die Forscher*innen im Labor, wie giftig kupferhaltige Ein-, Zwei- und Fünf-Cent Stücke und Nelkenöl für die Larven der Stechmücken sind.

Reuss erläutert: „Nelkenöl verhindert die Eiablage von Aedes japonicus – die deutschlandweit am großflächigsten verbreitete exotische Stechmücke – beträchtlich. Ein Gramm Nelkenöl in einem Becher reicht aus, um die Eiablage darin auf ein Zehntel zu reduzieren. Zudem ist Nelkenöl giftig und tötet die Larven vollständig ab. Aus Eurocent-Münzen gelöstes Kupfer ist etwas weniger effizient gegen die Larven, aber dennoch wirksam. Die beiden natürlichen Mittel würden sich daher zur Eindämmung einer Population Asiatischer Buschmücken eignen.“

Die Asiatische Buschmücke brütet bevorzugt in der Nähe von Siedlungen. Dort bieten selbst kleine Wasserflächen in Regentonnen, Untersetzern und Vasen in Privatgärten und auf Friedhöfen den Stechmücken beste Bedingungen. „Um die Stechmücken kontrollieren zu können, ist es deshalb wichtig, dass die Bevölkerung aktiv mithilft und die Mittel auch wirklich im eigenen Garten anwendet“, sagt Dr. Marion Mehring vom ISOE-Institut für sozial-ökologische Forschung.

ISOE-Forscher*innen unter der Leitung von Mehring haben mehr als 400 Gartennutzer*innen und Grabpfleger*innen aus Hessen, Baden-Württemberg und Rheinland-Pfalz telefonisch zu diesem Thema befragt. Überraschenderweise lehnt die Mehrheit der Befragten den gut etablierten Wirkstoff Bti ab. „Potenzielle Anwender*innen würden bevorzugt kupferhaltige Eurocent-Münzen und ätherische Öle zur Eindämmung von Stechmücken anstelle von Bti anwenden. Am liebsten würden die Befragten Kupfermünzen, die praktisch alle besitzen, benutzen“, so Mehring. Sehr viele der Befragten sind zudem bereit, präventive Maßnahmen, wie das Abdecken von Regentonnen in ihrem Alltag umzusetzen.

Die interdisziplinäre Zusammenarbeit mit der Kombination ökologischer und sozialwissenschaftlicher Forschung hat sich gelohnt: Mit Nelkenöl und Kupfermünzen konnten die Forscher*innen zwei von Anwender*innen akzeptierte Mittel zur Kontrolle von Asiatischen Buschmücken identifizieren, die nun weiterentwickelt werden können.

Die Studie ist Teil des Forschungsprojektes AJAP II zur Entwicklung umweltfreundlicher Maßnahmen zur Kontrolle der Asiatischen Buschmücke. Dazu kooperieren das Senckenberg Biodiversität und Klima Forschungszentrum, das ISOE-Institut für sozial-ökologische Forschung und das Institut für Arbeitsmedizin, Sozialmedizin und Umweltmedizin der Goethe-Universität Frankfurt am Main. Das Projekt wird vom Fachzentrum Klimawandel und Anpassung des Hessischen Landesamtes für Naturschutz, Umwelt und Geologie (HLNUG) gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Friederike Reuss
Senckenberg Biodiversität und Klima Forschungszentrum
friederike.reuss@senckenberg.de

Dr. Marion Mehring
ISOE-Institut für sozialökologische Forschung &
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69 7076919 39
mehring@isoe.de

Originalpublikation:
Reuss, F. et al (2020): Knowledge on exotic mosquitoes in Germany, and public acceptance and effectiveness of Bti and two self prepared insecticides against Aedes japonicus japonicus. Scientific Reports, doi: 10.1038/s41598-020-75780-5

Quelle: IDW
(nach oben)


Pressemeldung: „Arbeitswelt nicht nur punktuell reformieren, sondern umfassend nachhaltig transformieren!“

Bastian Strauch Presse- und Öffentlichkeitsarbeit
Wissenschaftsplattform Nachhaltigkeit 2030
Die Wissenschaftsplattform Nachhaltigkeit 2030 (wpn2030) hat ein Empfehlungspapier an die Bundesregierung zur Förderung nachhaltiger Arbeit veröffentlicht.

„Auch in Sachen Arbeitswelt stehen wir vor gewaltigen Gestaltungsaufgaben, damit eine nachhaltigen Entwicklung gelingt – und die Corona-Krise führt uns einmal mehr die Dringlichkeit vor Augen“, betonen Univ.-Prof. Marion A. Weissenberger-Eibl (Fraunhofer ISI & KIT) und Prof. Stephan Lessenich (LMU München), die eine transdisziplinäre Arbeitsgruppe zur Erstellung des Papiers geleitet haben. „Wichtig wird dabei insbesondere sein, die Arbeitswelt nicht nur punktuell zu reformieren, sondern umfassend und nachhaltig zu transformieren – so dass das Soziale, Wirtschaftliche und Ökologische zukünftig wie selbstverständlich zusammen gedacht und gestaltet werden.“

Eine Transformation hin zu einer nachhaltigen Arbeitswelt sei dringend geboten, um sozialen, wirtschaftlichen und ökologischen Schieflagen und der Überausbeutung von Arbeit und Natur langfristig und global entgegenwirken zu können. Der Weg dorthin sei aber noch weit, denn: „Punktuelle Ansätze sind zwar vielerorts vorhanden und auch teilweise erfolgreich. Für weitreichende Effekte allerdings mangelt es an umfassenden konzeptionellen Grundlagen zur Gestaltung einer nachhaltigen Arbeitswelt“, so Marion A. Weissenberger-Eibl.

In ihrem Papier beleuchtet die Arbeitsgruppe der wpn2030 unter anderem den Status von Arbeit und langfristige Trends in der Arbeitswelt. „In gewisser Hinsicht leben wir mitunter noch im 19. Jahrhundert“, so Stephan Lessenich, „denn unsere Vorstellungen und Konzepte davon, was ‚gute Arbeit‘ ausmachen sollte, hängen noch stark an den klassischen industriellen Arbeitsverhältnissen und passen nur noch unzureichend zu den Realitäten, Tendenzen und Anforderungen des 21. Jahrhunderts.“ Unterbelichtet seien insbesondere neue Arbeitsformen und Trends wie etwa Solo-Selbständige, Sub-Unternehmer*innen oder digital arbeitende Click- und Crowdworker*innen. Ebenso die engen globalen Zusammenhänge wie etwa der Zugriff auf billige Arbeit in anderen Weltregionen, oftmals mit zerstörerischen sozialen und ökologischen Folgen, und nicht zuletzt die anhaltende und sich verschärfende Ausbeutung und nicht-nachhaltige Nutzung natürlicher Ressourcen. Lessenich: „All das sind sehr wirkmächtige, längst existente und miteinander verbundene Faktoren unserer heutigen Arbeitswelt, die wir mit einbeziehen müssen, um zu einem zeitgemäßen Bild von guter – und eben nachhaltiger – Arbeit zu kommen. Und das brauchen wir, damit es gesellschaftliche Gestaltung und politische Entscheidungen anleiten kann.“ Falls dies ausbleibe, laufe man Gefahr, dass sich soziale, wirtschaftliche und ökologische Schieflagen weiter verschärfen.

In ihrem Impulspapier präsentiert die wpn2030 erste Vorschläge für Gütekriterien nachhaltiger Arbeit, die in einem gesamtgesellschaftlichen Dialog aufgegriffen und weiter konkretisiert werden sollten. Diese Gütekriterien zielen auf die engere Verzahnung der Arbeitswelt mit Zielen nachhaltiger Entwicklung: „Innovationen werden bei all dem eine zentrale Rolle spielen. Ihre Beiträge für nachhaltige Entwicklung und ihr nachhaltiger Einsatz werden dabei entscheidend sein“, so Weissenberger-Eibl. Digitale Technologien können einerseits zu einer Entgrenzung von Arbeit beitragen, bergen aber auch große Chancen für beispielsweise soziale Innovationen, die zu nachhaltigeren Arbeitswelten beitragen können.

Neben konzeptionellen Weiterentwicklungen bedürfe es dringend auch struktureller Veränderungen. „Nachhaltige Arbeit muss zu einem politischen Querschnittsthema gemacht werden – mehr Ressorts als bisher müssen für die Gestaltung zusammenkommen“, so Lessenich. Mit der Deutschen Nachhaltigkeitsstrategie liege auch bereits ein Rahmen vor, in dem dies stärker als bislang politisch zusammengedacht werden könne. Dieser Rahmen müsse aber deutlich intensiver genutzt werden.

„Auch müssen wir in Deutschland den gesellschaftlichen Dialog zu Arbeit und Nachhaltigkeit intensiver führen“, so Weissenberger-Eibl. „Die Aufgabe, zu einer nachhaltigen Arbeitswelt zu kommen, ist riesig und sie betrifft uns alle – auf unterschiedlichsten Ebenen. Wir müssen also endlich zusammenkommen und darüber sprechen. Wir dürfen das Möglichkeitsfenster, das uns die Erfahrungen aus der Corona-Krise eröffnet, nicht ungenutzt lassen.“

Die wpn2030 ist ein zentraler Ort der Wissenschaft, an dem sie drängende Fragen der Nachhaltigkeitspolitik diskutiert – im Austausch mit Politik, Wirtschaft und Gesellschaft.

Das Empfehlungspapier zum Download: https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…

Weitere Informationen: http://www.wpn2030.de

Kontakt:
Bastian Strauch, Pressereferent wpn2030
bastian.strauch@iass-potsdam.de
0331 2882 2319

Weitere Informationen:
https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…
http://www.wpn2030.de

Anhang
Wege zu einer nachhaltigen Arbeitswelt
https://idw-online.de/de/attachment81179

Quelle: IDW
(nach oben)


Schwangerschaft: Umgebungstemperatur beeinflusst den Stoffwechsel der Nachkommen

Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck
Studie mit hoher Relevanz angesichts des bevorstehenden Klimawandels – Verändertes Muskelwachstum durch epigenetische Modifikationen an der fötalen DNA – Wahrscheinlich durch spätere Lifestyle-Änderungen wie Sport und Bewegung reversibel

Bereits geringe Veränderungen der Außentemperatur während der Schwangerschaft können den Stoffwechsel (Metabolismus) der Nachkommen nachhaltig verändern – diesen bislang nicht bestätigten Zusammenhang hat ein Lübecker Forscherteam um Dr. Rebecca Ölkrug und Prof. Jens Mittag nun genauer untersucht.

Es ist schon lange etabliert, dass bereits im Mutterleib der Grundstein dafür gelegt wird, ob man später eine erhöhte Prädisposition für eine metabolische oder endokrinologische Erkrankung aufweist. Dies geschieht über sogenannte epigenetische Veränderungen am fötalen Erbgut, welche maßgeblich über Lifestylefaktoren und Umwelteinflüsse während der Schwangerschaft programmiert werden. Natürlicherweise ermöglicht dieser Mechanismus es Säugetieren, flexibel auf ihre Umwelt zu reagieren und je nach Bedarf z.B. Stoffwechselwege in der nachfolgenden Generation zu optimieren.

Im Menschen sind diese Einflüsse aber oft von den tatsächlichen Bedingungen entkoppelt, so dass die Nachkommen nicht optimal an ihre Umweltbedingungen angepasst sind und daher für metabolische Erkrankungen anfälliger werden. Ein prominentes Beispiel dafür ist, dass übergewichtige Mütter oft Kinder bekommen, die ebenfalls anfällig für die Entwicklung von Übergewicht werden. Die vorliegende Studie, die nun in der renommierten Zeitschrift Cell Reports veröffentlich wurde, untersucht zum ersten Mal, inwieweit die Umgebungstemperatur in der Schwangerschaft Einfluss auf diese fötale metabolische Programmierung der Nachkommen hat.

„Erstaunlicherweise hatte eine kältere Außentemperatur in der Schwangerschaft nicht nur Einfluss auf die spätere Größe der Nachkommen, sondern reduzierte auch ihr Muskelwachstum und könnte somit die Entstehung von Typ II Diabetes begünstigen“, erklärt Prof. Jens Mittag, einer von zwei Direktoren des neu gegründeten Instituts für Endokrinologie und Diabetes der Universität zu Lübeck. Aber laut der Erstautorin der Studie, Dr. Rebecca Ölkrug, die gerade selbst im achten Monat schwanger ist, besteht kein Grund zur Panik. „Die von uns dokumentierten Veränderungen im Muskelwachstum und Stoffwechsel bei den Nachkommen konnten durch ausreichend Bewegung im Erwachsenenalter rückgängig gemacht werden.“

Die Forscher gehen davon aus, dass epigenetische Modifikationen an der fötalen DNA diese Veränderungen im Muskelwachstum hervorgerufen haben und diese durch spätere Lifestyle-Veränderungen wie Sport und Bewegung reversibel sind. „Uns geht es primär darum, mit unserer Forschung Risikofaktoren während der Schwangerschaft aufzudecken. Damit können wir dazu beitragen, die Versorgung von schwangeren Frauen und ihrer ungeborenen Babys so optimal wie möglich zu gestalten“, so Dr. Ölkrug. Da diese Studien im Tiermodell durchgeführt wurden, sind jedoch zunächst größere epidemiologische Langzeitstudien an schwangeren Müttern und ihren Kindern notwendig, um die Übertragbarkeit dieser Beobachtung auf den Menschen zu bestätigen. Angesichts des bevorstehenden Klimawandels dürften diese Studien allerdings von höchster Relevanz sein, nicht nur was metabolische Erkrankungen im Menschen angeht, sondern auch für möglichen Veränderungen in freilebenden oder domestizierten Säugetieren in Freilufthaltung.

Welche Stoffwechselwege oder Hormone sich nun genau bei der Mutter durch die Außentemperatur verändern und zu der epigenetischen Umprogrammierung der Nachkommen beitragen, das wollen die Forscher nun in einer Folgestudie untersuchen, die wie auch die vorliegende Studie von der Deutschen Forschungsgemeinschaft DFG mit einer umfangreichen Sachbeihilfe finanziert wird.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jens Mittag
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 3101 7826
E-Mail: jens.mittag@uni-luebeck.de
http://www.innere1.uni-luebeck.de

Dr. Rebecca Ölkrug
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 31017833
E-Mail: Rebecca.Oelkrug@uksh.de

Originalpublikation:
https://www.cell.com/cell-reports/fulltext/S2211-1247(20)31340-1

Quelle: IDW
(nach oben)


Archiv der Tierwanderungen in der Arktis

Dr. Harald Rösch Abteilung Kommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Ein globales Archiv mit Bewegungsdaten aus über drei Jahrzehnten protokolliert Veränderungen im Verhalten arktischer Tiere

Wärmere Winter, frühere Frühlinge, schrumpfendes Eis und mehr menschliche Aktivitäten – die Arktis durchläuft dramatische Veränderungen, die sich auch auf die einheimische Tierwelt auswirken. Forschende aus der ganzen Welt haben jetzt ein Datenarchiv zur Dokumentation von Tierbewegungen in der Arktis und Subarktis aufgebaut. Das Archiv läuft auf der Movebank-Plattform am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, Deutschland. Mit dem „Arctic Animal Movement Archive“ können Wissenschaftler ihr Wissen austauschen und gemeinsam untersuchen, wie Tiere auf eine sich verändernde Arktis reagieren. Drei neue Studien aus dem Archiv zeigen großräumige Änderungen im Verhalten von Steinadlern, Bären, Karibus, Elchen und Wölfen in der Region. Sie veranschaulichen, wie das Archiv genutzt werden kann, um größere Veränderungen des Ökosystems zu erkennen.

Wissenschaftlerinnen und Wissenschaftler beobachten seit langem die Bewegungen und das Verhalten von Tieren in der Arktis. Es war jedoch schwierig, die Studien dazu ausfindig zu machen und auf sie zuzugreifen. Ein internationales Team unter der Leitung von Sarah Davidson, Datenkuratorin am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, und Gil Bohrer von der Ohio State University haben deshalb ein von der NASA finanziertes globales Datenarchiv für Studien zur Tierwanderung in der Arktis und Subarktis aufgebaut.

Das Arctic Animal Movement Archive soll Wissenschaftler und Wissenschaftlerinnen miteinander vernetzen und ihre Zusammenarbeit fördern. Forschende von über 100 Universitäten, Regierungsbehörden und Naturschutzgruppen aus 17 Ländern sind daran beteiligt. „Mit dem Archiv wollen wir eine globale Forschungsgemeinschaft über Institutionen und politische Grenzen hinweg aufbauen“, sagt Martin Wikelski vom Max-Planck-Institut für Verhaltensbiologie, der die Forschungsplattform Movebank entwickelt hat. Das Archiv enthält derzeit über 200 Forschungsprojekte mit den Bewegungsdaten von mehr als 8.000 Meeres- und Landtieren von 1991 bis heute.

Zugverhalten der Steinadler
Forschende haben nun verschiedene Studien veröffentlicht, die Daten und Fachwissen mithilfe des Archivs zusammenführen. So stellten Wissenschaftler beim Vergleich der Bewegungen von mehr als 100 Steinadlern von 1993 bis 2017 fest, dass junge Adler, die nach milden Wintern nach Norden ziehen, früher in ihren Brutgebieten eintreffen. Die Ankunftszeit der ausgewachsenen Vögel ist jedoch unabhängig von den Bedingungen an ihren Brutplätzen ziemlich konstant geblieben. Dies beeinflusst das Brutgeschäft und das Überleben der Küken. „Unsere Ergebnisse zeigen, dass wir Klimadaten berücksichtigen müssen, die Jahrzehnte umfassen“, sagt Scott LaPoint, Wissenschaftler bei Black Rock Forest.

Eine zweite Studie mit mehr als 900 weiblichen Karibu-Weibchen aus den Jahren 2000 bis 2017 hat ergeben, dass Herden weiter im Norden früher im Frühling gebären, während sich die Geburten der südlicheren Populationen weniger stark verändert haben. „Dass wir die Geburt in einem so großen Maßstab, über Populationen und Unterarten hinweg und über Millionen von Quadratkilometern untersuchen können, ist für eine Tierart in einer so abgelegenen und rauen Umgebung wirklich beispiellos“, erklärt Elie Gurarie von der Universität Maryland.

Unterschiedliche Reaktionen auf den Klimawandel
Eine dritte Analyse, die sich mit den Wanderungsgeschwindigkeiten von Bären, Karibus, Elchen und Wölfen von 1998 bis 2019 befasst, kommt zu dem Schluss, dass die Arten unterschiedlich auf jahreszeitliche Temperaturen und winterliche Schneebedingungen reagieren. „Wie Tiere mit ihren Wanderungen auf veränderliche Wetterbedingungen reagieren, wirkt sich auf den Konkurrenzkampf der Arten und die Räuber-Beute-Dynamik aus“, sagt Peter Mahoney, der seine Untersuchungen an der Universität Washington durchgeführt hat.

Zu den Hunderten von Studien, die bereits im Archiv enthalten sind, kommen immer weitere hinzu. Dies dürfte dazu beitragen, Veränderungen im Verhalten der Tiere und im arktischen Ökosystem zu erkennen. „Darüber hinaus liefern wir eine dringend benötigte Datenbasis früherer Verhaltensweisen und Wanderungen“, sagt Davidson. „Damit lassen sich das Wildtiermanagement verbessern, neue Forschungsfragen beantworten und Veränderungen in der Arktis für zukünftige Generationen dokumentieren.“

Wissenschaftliche Ansprechpartner:
Sarah Davidson
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sdavidson@ab.mpg.de

Prof. Dr. Martin Wikelski
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sknopf@ab.mpg.de

Originalpublikation:
Sarah C. Davidson et al.
Ecological insights from three decades of animal movement tracking across a changing Arctic.
Science; 5 November, 2020 (DOI: 10.1126/science.abb7080)

Weitere Informationen:
https://www.movebank.org/cms/movebank-content/arctic-animal-movement-archive Das Arctic Animal Movement Archive

Quelle: IDW
(nach oben)


COVID-19: Wie hängen Schweregrad der Erkrankung und die Antikörperantwort zusammen?

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Forschungsteams des Paul-Ehrlich-Instituts haben gemeinsam mit Teams des Universitätsklinikums Frankfurt/Main und des Leibniz-Instituts für Primatenforschung, Göttingen, die Antikörperantwort von COVID-19-Patienten in Deutschland untersucht. Ziel war es, neue Erkenntnisse über den Zusammenhang zwischen dem Krankheitsverlauf und der Immunreaktion zu gewinnen und mögliche Schutzkorrelate zu identifizieren, die für die Entwicklung von Impfstoffen und therapeutischen Antikörpern benötigt werden. Die Zeitschrift The Journal of Infectious Diseases berichtet in seiner Online-Ausgabe vom 31.10.2020 über die Ergebnisse der Untersuchung.

Bereits mehr als 47 Millionen Personen haben sich weltweit mit dem Coronavirus SARS-CoV-2 infiziert und rund 1,2 Millionen Todesfälle stehen im Zusammenhang mit einer SARS-CoV-2-Infektion. Die Infektion mit SARS-CoV-2 verläuft bei Betroffenen sehr unterschiedlich. Während ein Teil der Infizierten überhaupt keine Krankheitszeichen entwickelt, erkrankt ein anderer Teil unter Beteiligung unterschiedlicher Organsysteme schwer. Bei knapp zwei Prozent der bestätigten Fälle in Deutschland verläuft die Erkrankung tödlich. Für die Entwicklung wirksamer therapeutischer Maßnahmen ist ein umfassendes Verständnis der Pathogenese von SARS-CoV-2 und der immunologischen Prozesse erforderlich, wodurch auch die unterschiedlichen Krankheitsverläufe erklärbar werden könnten. Neben Prozessen der angeborenen Immunantwort sind vor allem zwei Säulen der erworbenen Immunität von zentraler Bedeutung für die Immunabwehr des Coronavirus SARS-CoV-2: Zum einen die Bildung von spezifischen Antikörpern (Immunglobulinen), die das Virus neutralisieren und inaktivieren können. Diese Immunantwort wird als humorale Immunantwort bezeichnet. Eine weitere Säule ist die Bildung spezifischer Immunzellen (T-Zellen), die zelluläre Immunantwort, die infizierte Zellen abtöten kann.

Forschungsteams des Paul-Ehrlich-Instituts um Prof. Barbara Schnierle, Leiterin des Fachgebiets „AIDS, neue und neuartige Erreger“, und Dr. Heinrich Scheiblauer, stellv. Leiter des Prüflabors für In-vitro-Diagnostika haben gemeinsam mit Wissenschaftlern und Wissenschaftlerinnen des Universitätsklinikums Frankfurt/Main und des Leibniz-Institut für Primatenforschung, Göttingen, die humorale Immunantwort – die Antikörperbildung – in einer Kohorte von 143 COVID-19-Patienten des Universitätsklinikums Frankfurt/Main charakterisiert. Sie wiesen SARS-CoV-2-spezifische Antikörper mittels Enzym-linked Immunosorbent-Assay (ELISA) nach. Die Neutralisierungsaktivität –also die Fähigkeit der Antikörper, die Anbindung des Virus SARS-CoV-2 an die zellulären ACE2-Rezeptoren und damit die Infektion neuer Zellen zu neutralisieren – wurde mit sogenannten pseudotypisierten lentiviralen Vektoren analysiert. Dabei handelt es sich um vermehrungsunfähige Viruspartikel, die mit dem Spikeprotein des SARS-CoV-2-Virus bestückt sind und wie CoV-2 an die ACE2-Rezeptoren binden können.

Rund drei Viertel der 143 COVID-19-Patienten hatten eine leichte Erkrankung. Bei älteren Patienten, insbesondere bei Männern, traten jedoch häufiger schwere Fälle auf. Der klinische Schweregrad der Erkrankung war positiv korreliert mit dem Spiegel (Titer) SARS-CoV-2-neutralisierender Antikörper in den Serumproben der Patienten. Darüber hinaus korrelierten die Spiegel bestimmter Antikörper, die Immunglobuline (Ig) IgG und IgA, die gegen das SARS-CoV-2-Spikeprotein oder die Rezeptorbindungsdomäne (RBD) im Spikeprotein gerichtet waren, mit der Schwere der Erkrankung. Bei den Patienten mit einem klinisch weniger schweren Verlauf wurde eine Abnahme der IgG-Antikörper-Spiegel in später entnommenen Blutproben festgestellt.

Insgesamt waren die neutralisierenden Antikörpertiter von Patientinnen und Patienten mit leichter Erkrankung sehr niedrig. Höhere Titer wurden nur bei Patientinnen und Patienten mit schwerer Erkrankung festgestellt. Dies bestätigt früher berichtete Beobachtungen, dass die meisten rekonvaleszenten Plasmaproben von Personen, die sich von COVID-19 erholt haben, keine hohe neutralisierende Aktivität aufweisen.

Immer wieder wird die Möglichkeit einer Kreuzprotektivität diskutiert: Gemeint ist, dass ein früherer Kontakt mit verwandten harmloseren Coronaviren des Menschen dafür sorgen könnten, dass das Immunsystem besser für eine SARS-CoV-2-Infektion gewappnet sein könnte. Das humane Coronavirus NL63 (HCoV-NL63) wurde erstmalig 2004 beschrieben und verursacht leichte bis mittelschwere Atemwegsinfektionen. Serologische Daten über NL63-Infektionen liegen hauptsächlich von Kindern vor und weisen darauf hin, dass HCoV-NL63-Infektionen in der Kindheit häufig auftreten. Es könnte spekuliert werden, dass eine bereits bestehende Immunität gegen HCoV-NL63 oder andere gewöhnliche Erkältungs-Coronaviren das Risiko einer schweren Erkrankung verringern könnte. In der aktuellen Untersuchung gab es Hinweise auf eine Korrelation zwischen einem schweren COVID-19-Krankheitsverlauf und einer niedrigen HCoV-NL63-neutralisierenden Aktivität, allerdings bei geringer Datenmenge. Dieser Hinweis wird sicher Anlass für weiterführende Untersuchungen sein.

Originalpublikation:
Henss L, Scholz T, von Rhein C, Wieters I, Borgans F, Eberhardt FJ, Zacharowski K, Ciesek S, Rohde G, Vehreschild M, Stephan C, Wolf T, Hofmann-Winkler H, Scheiblauer H, Schnierle BS (2020): Analysis of humoral immune responses in SARS-CoV-2 infected patients.
J Infect Dis Oct 31 [Epub ahead of print].
DOI: 10.1093/infdis/jiaa680

Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/33128369/ – Online-Abstract
https://www.pei.de/DE/newsroom/pm/jahr/2020/19-covid-19-wie-haengen-schweregrad-… – Diese Pressemitteilung auf den Internetseiten des PEI

Quelle: IDW
(nach oben)


Cholesterin im Blick behalten – Herzinfarktrisiko senken

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Herzstiftung informiert über Risiken zu hoher Cholesterinwerte und gibt Tipps zur Senkung

Hohe Cholesterinwerte zählen zu den größten Risikofaktoren für Herz-Kreislauf-Erkrankungen. Insbesondere hohe LDL-Werte steigern das Risiko, einen Herzinfarkt oder Schlaganfall zu erleiden. Umgekehrt können niedrige Werte Herz und Gefäße schützen. Studien haben die günstigen Effekte sehr niedriger LDL-Werte belegt und zu neuen Therapieempfehlungen geführt (1). Wie hoch die Cholesterinwerte sein dürfen, hängt von verschiedenen Faktoren ab. „Entscheidend ist, wie hoch das gesamte Risiko für Herz-Kreislauf-Erkrankungen ist“, betont der Herzspezialist Prof. Dr. med. Ulrich Laufs vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. „Dies wird neben dem Lebensalter und dem Geschlecht durch Rauchen, Bluthochdruck, Diabetes und andere Faktoren beeinflusst“, betont der Direktor der Klinik und Poliklinik für Kardiologie am Universitätsklinikum Leipzig. Die Herzstiftung bietet Experten-Informationen über Ursachen und Folgen hoher Cholesterinwerte für Betroffene in dem kostenfreien Ratgeber „Hohes Cholesterin: Was tun?“ an, anzufordern unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de Infos für Betroffene rund um das Thema Cholesterin bietet die Herzstiftungs-Homepage www.herzstiftung.de/cholesterin

Wie Cholesterin den Gefäßen schadet
Grundsätzlich ist Cholesterin kein Giftstoff, sondern ein lebenswichtiger, fettähnlicher Baustein für Zellwände sowie Ausgangsstoff für die Bildung von Gallensäuren und verschiedenen Hormonen. Das Problem entsteht, wenn zu viel Cholesterin an der falschen Stelle ist. Cholesterin ist in Wasser oder Blut nicht löslich und wird daher mittels verschiedener Eiweißstoffe „verpackt“ transportiert. Besondere Bedeutung kommt dabei dem LDL (Low Density Lipoprotein) zu. Ist zu viel LDL-Cholesterin (LDL-C) vorhanden, gelangt LDL-Cholesterin aus dem Blut in die Gefäßwand. Dort verursacht es Gefäßverkalkungen, die Arteriosklerose. Je mehr Ablagerungen (Plaques) sich an den Gefäßwänden bilden, desto stärker verengen sie sich. Dadurch steigt das Risiko, dass sich Gefäße im Herzen und Gehirn verschließen und einen Herzinfarkt oder Schlaganfall auslösen. Eine regelmäßige Kontrolle der Cholesterinwerte im Rahmen des Gesundheits-Check-Ups beim Hausarzt zählt daher zu den wichtigsten Maßnahmen der Herzvorsorge.

Neue Zielwerte für LDL-Cholesterin
Prinzipiell gilt: Je niedriger die LDL-Cholesterinwerte, desto niedriger ist das Risiko für Herz und Gefäße. „Es ist sehr gut dokumentiert, dass eine medikamentöse Senkung des LDL-Cholesterins zu einer Senkung des Herz-Kreislauf-Risikos führt“, erklärt Laufs. Auch die Senkung der Werte ohne Medikamente könne das Risiko reduzieren. Entsprechend den neuen Therapieempfehlungen werden folgende LDL-Werte angestrebt:

– Für gesunde Menschen ohne Risikofaktoren gilt ein LDL-Cholesterinwert unter 115 mg/dl (<3,0 mmol/l) als Zielwert.
– Bei gesunden Menschen mit einzelnen Risikofaktoren, beispielsweise Übergewicht oder leicht erhöhtem Blutdruck, sollte der LDL-Cholesterinwert unter 100 mg/dl (<2,6 mmol/l) liegen.
– Für Patienten mit Diabetes oder mehreren Risikofaktoren sollte ein LDL-Cholesterin von unter 70 mg/dl (<1,8 mmol/l) angestrebt werden.
– Bei Patienten mit bekannten Gefäßverkalkungen, z. B. mit einem Stent in den Herzkranzgefäßen oder Patienten nach Herzinfarkt oder Schlaganfall und anderen Personen mit sehr hohem Risiko liegt der LDL-C-Zielwert unter 55 mg/dl (1,4 mmol/l). Bei besonderen Risiko-Konstellationen kann es sinnvoll sein das Cholesterin noch weiter zu senken.

Hohe Cholesterinwerte senken
Liegen die Werte des LDL-Cholesterins oberhalb der empfohlenen Grenze, rät die Herzstiftung zunächst zu einer Veränderung des Lebensstils. Eine gesunde Ernährung sowie – bei Übergewicht – eine Gewichtsreduzierung können deutliche Effekte auf den Cholesterinspiegel haben. „Allerdings wird die Bedeutung der Ernährung häufig überschätzt, weil hohe Cholesterinwerte im Wesentlichen genetisch bedingt sind“, gibt der Herzspezialist zu bedenken. Zu einem herzgesunden Lebensstil gehören zudem der Verzicht auf Nikotin sowie regelmäßige Bewegung. „Gut geeignet sind Ausdauersportarten wie Wandern, Laufen oder Schwimmen“, rät Laufs. Diese Maßnahmen dienen der Herz- und Gefäßgesundheit insgesamt. Zur Senkung von stark erhöhten Cholesterinspiegeln stehen gut untersuchte Medikamente zur Verfügung. Die Gruppe der Statine ist dabei die erste Wahl. „Für Statine ist in großen wissenschaftlichen Studien bewiesen, dass sie das Risiko für Herzinfarkt und Schlaganfall senken, und ihre Einnahme über viele Jahrzehnte gilt als sicher“, unterstreicht Laufs. Lässt sich der Cholesterinspiegel mit Statinen nicht ausreichend senken, kann eine Kombinationstherapie mit neueren Wirkstoffgruppen sinnvoll sein.

Tipp: Ausführliche Informationen zu den Ursachen und Folgen hoher Cholesterinwerte sowie zu den neuen Therapieempfehlungen finden Sie im Ratgeber „Hohes Cholesterin: was tun?“, den Sie unter 069 955128-400 oder bestellung@herzstiftung.de kostenfrei bestellen können sowie auf unserer Homepage im Online-Beitrag www.herzstiftung.de/cholesterin

Informieren Sie sich über die bundesweiten Herzwochen zur Volkskrankheit Herzschwäche: www.herzstiftung.de/herzwochen2020

Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

(1) Wissenschaftliche Literatur:
European Heart Journal, Vol. 41, Issue 1, 1 January 2020, Pages 111–188, https://doi.org/10.1093/eurheartj/ehz455 : 2019 ESC/EAS Guidelines for the management of dyslipidaemias: lipid modification to reduce cardiovascular risk: The Task Force for the management of dyslipidaemias of the European Society of Cardiology (ESC) and European Atherosclerosis Society (EAS)

Cholesterol Treatment Trialists C. Efficacy and safety of statin therapy in older people: a meta-analysis of individual participant data from 28 randomised controlled trials. Lancet 2019;393:407–415.

Bhatt DL et al.; REDUCE-IT Investigators. Cardiovascular risk reduction with icosapent ethyl for hypertriglyceridemia. N Engl J Med 2019;380:11–22.

O‘ Donoghue ML et al. Lipoprotein(a), PCSK9 inhibition, and cardiovascular risk. Circulation 2019;139:1483–1492.

Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung

Weitere Informationen:
http://www.herzstiftung.de/herzwochen2020
http://www.herzstiftung.de/cholesterin
https://www.herzstiftung.de/risiko

Anhang
PM_DHS_Cholesterinsenkung_Herzinfarkt-Vorbeugung_2020-10-29

Quelle: IDW
(nach oben)


Wissensreise durch die Welt des Wassers

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundesweite multimediale Show für Schulen – Start in Osnabrück

Osnabrück/Mülheim. Die Fortschreibung der Deutschen Nachhaltigkeitsstrategie läuft derzeit auf Hochtouren. Alle sollen ein Wörtchen mitreden können, von jung bis alt. Der schonende Umgang mit (Trink-)Wasser spielt dabei eine zentrale Rolle. Dazu passt eine nun startende bundesweite multimediale Show für rund 100 Schulen. „Lernerlebnis Trinkwasserschutz“ ist für Dritt- bis Sechstklässler konzipiert, spricht mit Bewegung, Bildern und Musik spielerisch die Sinne an und lädt zu einer Wissensreise durch die Welt des Wassers ein. Start ist am 6. Oktober in Osnabrück, die Deutsche Bundesstiftung Umwelt (DBU) fördert das Vorhaben fachlich und finanziell mit 125.000 Euro.

Kinder sind die Entscheidungsträger von morgen
„Die Dürresommer der vergangenen drei Jahre haben uns vor Augen gehalten, dass wir anders mit der Ressource Wasser umgehen müssen“, sagt Franz-Peter Heidenreich, DBU-Referatsleiter für Kreislaufführung und Bautechnik. Jede und jeder Einzelne könne zu mehr Wasserschutz beitragen – sei es privat, in der Familie, auf der Arbeit oder im täglichen Zusammenleben. Gefragt seien aber eben nicht nur die Erwachsenen. „Wir können gar nicht früh genug damit anfangen, unser Wissen über den Wert von Ressourcenschutz an die jungen Generationen weiterzugeben“, sagt der DBU-Referent. „Kinder sind die Entscheidungsträger der Zukunft. Wir müssen sie schon früh für den richtigen Umgang mit wertvollen Ressourcen wie Wasser sensibilisieren“, so Heidenreich.

Ohne erhobenen Zeigefinger
„Lernerlebnis Trinkwasserschutz“ dauert so lange wie eine Doppelstunde Unterricht. Und langweilig soll es auf keinen Fall werden, verspricht Projektleiter Friedhelm Susok von F.S. Infotainment aus Mülheim, das die multimediale Show entwickelt hat. „In sechs Schritten erzählen wir den Mädchen und Jungen von der Vielfalt des Trinkwassers – von der Urquelle bis zum Trinkwasserschutz“, so Susok. Alles zwar mit Einschränkungen und Hygienevorgaben wegen der Coronavirus-Pandemie, aber „garantiert ohne erhobenen Zeigefinger“, sagt der Projektleiter.

Über den Kreislauf des Wassers
Ziel sei vielmehr, „miteinander überhaupt ein Bewusstsein für die Thematik zu wecken, vielleicht sogar einen Bewusstseinswandel zu bewirken“, sagt Susok. Aufgelockert wird die Präsentation durch Bild- und Filmelemente ebenso wie durch Quiz-Aufgaben und Fragen wie: Auf welche Weise werden eigentlich am besten Putzmittel, Lacke und Medikamente entsorgt? Was kann ich zu Hause für mehr Trinkwasserschutz tun? „Es geht auch darum, wie der Kreislauf des Wassers funktioniert und welche unterschiedlichen Arten von Wasser es auf der Erde gibt“, so Susok. Auch Produktion und Vertrieb von Trinkwasser sollen erarbeitet werden.
Der Auftakt für das „Lernerlebnis Trinkwasserschutz“ findet am 6. Oktober in Zusammenarbeit mit den Stadtwerken Osnabrück unter den gegebenen Hygiene- und Coronaauflagen in der Gesamtschule Schinkel statt. Danach geht es in der Diesterwegschule weiter. Mit einem breiten Netzwerk in der Trinkwasser-Branche sollen deutschlandweit Auftritte folgen.

Weitere Informationen:
https://www.dbu.de/123artikel38796_2442.html Online-Pressemitteilung

Quelle: IDW
(nach oben)


Mehr Infektionen als bekannt: Neue Studie zeigt Relevanz bevölkerungsweiter SARS-CoV-2-Antikörpertests auf

Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Eine neue Studie des Helmholtz Zentrums München kommt zu dem Ergebnis, dass sechsmal mehr Kinder in Bayern mit dem Coronavirus SARS-CoV-2 infiziert waren als gemeldet. Dies verdeutlicht die Relevanz bevölkerungsweiter Antikörper-Screenings zur Überwachung des Pandemieverlaufs. Die Studie beschreibt außerdem einen neuen Ansatz, um Antikörper gegen SARS-CoV-2 mit besonders hoher Genauigkeit zu messen.

Neuer Ansatz zur Messung von Antikörpern gegen SARS-CoV-2
Derzeitige Antikörpertests weisen eine mangelnde Spezifität auf, was zu einem großen Anteil falsch-positiver Ergebnisse führt. Unter der Leitung von Prof. Anette-G. Ziegler entwickelten Wissenschaftlerinnen und Wissenschaftler am Helmholtz Zentrum München nun einen neuen Ansatz zur Messung von Antikörpern gegen SARS-CoV-2. Dieser zeichnet sich dadurch aus, dass das Testergebnis erst dann als Antikörper-positiv gilt, wenn sowohl gegen die Rezeptor-Bindungsdomäne als auch gegen Nukleokapsid-Proteine des Virus positiv getestet wurde. Dieser zweistufige und zweifach-positive Ansatz führt zu besonders genauen Ergebnissen mit einer Spezifität von 100 Prozent und einer Sensitivität von mehr als 95 Prozent.

Da Ziegler und ihre Forschungsgruppe bereits eine große, bayernweit angelegte Bevölkerungsstudie namens „Fr1da“ zur Früherkennung von präsymptomatischem Typ-1-Diabetes bei Kindern durchführten, konnten sie schnell und einfach die bestehende Test-Infrastruktur um den neuen Ansatz für SARS-CoV-2-Antikörper erweitern.

Ergebnisse des SARS-CoV-2-Antikörper-Screenings
Zwischen Januar 2020 und Juli 2020 untersuchten die Wissenschaftlerinnen und Wissenschaftler knapp 12.000 Blutproben von Kindern in Bayern im Alter zwischen 1 und 18 Jahren (Teilnehmende der Fr1da-Studie) auf SARS-CoV-2-Antikörper. Zwischen April und Juli wiesen im Schnitt 0,87 Prozent der Kinder Antikörper auf (zweifach-positiv). Im Vergleich zu den vom Bayerischen Landesamt für Gesundheit und Ernährung (LGL) gemeldeten Fällen von Kindern in Bayern (zwischen 0 und 18 Jahren), die zwischen April und Juli positiv auf das Virus getestet wurden, war die Antikörperhäufigkeit damit sechsmal höher.

Die Ergebnisse machten keine Unterschiede zwischen den Geschlechtern sichtbar. Knapp die Hälfte (47 Prozent) der Kinder mit Antikörpern waren asymptomatisch. Rund ein Drittel (35 Prozent) der Kinder, die mit einem auf das Virus positiv getestetem Familienmitglied zusammenlebten, wiesen Antikörper auf. Dies deutet auf eine höhere Übertragungsrate hin als in bisherigen Studien beschrieben. Zudem zeigten die Ergebnisse innerhalb Bayerns deutliche geographische Unterschiede („Hot-Spots“). Am meisten positive Antikörpertests gab es im Süden Bayerns.

Darüber hinaus wurden die Kinder auch auf Typ-1-Diabetes-Autoantikörper getestet. Diese dienen als Früherkennungsmerkmal für präsymptomatischen Typ-1-Diabetes. Die Wissenschaftlerinnen und Wissenschaftler konnten keine Zunahme dieser Antikörper feststellen. Dies lässt darauf schließen, dass COVID-19 und Typ-1-Diabetes bei Kindern nicht miteinander assoziiert sind.

Bedeutung für COVID-19-Maßnahmen
„Unsere Studie liefert wichtige Ergebnisse, die die Diskrepanz zwischen gemeldeten Virusinfektionen und Antikörperaufkommen offenlegen“, sagt Markus Hippich, Erstautor der Studie und Postdoc am Helmholtz Zentrum München. „Da viele Personen, bei Kindern knapp die Hälfte, keine COVID-19-typischen Symptome entwickeln, werden sie nicht getestet. Um verlässliche Daten über die Ausbreitung des Virus zu bekommen, reicht es also nicht aus, nur auf das Virus selbst zu testen.“

Studienleiterin Prof. Anette-G. Ziegler ergänzt: „Nationale Programme, die mit hoher Spezifität und Sensitivität auf Antikörper testen, könnten den Ländern zuverlässige Daten liefern, um sich auf die Zukunft vorzubereiten. Sie könnten ihnen dabei helfen, die Ausbreitung des Virus einzudämmen und die Auswirkungen regionaler und landesweiter COVID-19-Maßnahmen zu überprüfen.“

Dashboard
Die Studienergebnisse sind gemeinsam mit einer Übersicht zur geografischen Verteilung der Antikörperhäufigkeit in einem Online-Dashboard verfügbar: https://covid-dashboard.fr1da-studie.de/app_direct/covid-dashboard/. Die Zahlen werden monatlich aktualisiert.

Einschränkungen der Studie
Antikörper gegen SARS-CoV-2 sind erst nach einer bis vier Wochen nachweisbar. Deshalb können diese Messwerte nicht dafür genutzt werden, um Aussagen über das aktuelle Infektionsgeschehen zu treffen. Bisher gibt es keine Belege dafür, dass SARS-CoV-2-Antikörper zu einer Immunität gegen das Virus führen. Falls dies belegt werden sollte, könnten die Ergebnisse wichtige Informationen zur Immunitätslage der Kinder in Bayern liefern.

Über die Studie
Diese Studie wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) und des Deutschen Zentrums für Diabetesforschung (DZD) unterstützt. Förderer der Fr1da-Studie sind die LifeScience-Stiftung, JDRF und The Helmsley Charitable Trust.

Mehr zu Fr1da: https://www.helmholtz-muenchen.de/en/aktuelles/latest-news/press-information-new…

Helmholtz Zentrum München
Das Helmholtz Zentrum München verfolgt als Forschungszentrum die Mission, personalisierte medizinische Lösungen zur Prävention und Therapie umweltbedingter Krankheiten für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Es erforscht das Entstehen von Volkskrankheiten im Kontext von Umweltfaktoren, Lebensstil und individueller genetischer Disposition. Besonderen Fokus legt das Zentrum auf die Erforschung des Diabetes mellitus, Allergien und chronischer Lungenerkrankungen. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.500 Mitarbeitende und ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands mit mehr als 40.000 Mitarbeitenden in 19 Forschungszentren.

Wissenschaftliche Ansprechpartner:
Prof. Anette-G. Ziegler
Helmholtz Zentrum München
Institut für Diabetesforschung
E-Mail: anette-g.ziegler@helmholtz-muenchen.de

Originalpublikation:
Hippich et al., 2020: Public health antibody screening indicates a six-fold higher SARS-CoV-2 exposure rate than reported cases in children. Med, DOI: 10.1016/j.medj.2020.10.003

Quelle: IDW
(nach oben)


Erster deutscher Gezeitenrechner nimmt Betrieb auf

Deutsches Schifffahrtsmuseum Kommunikation
Deutsches Schifffahrtsmuseum – Leibniz-Institut für Maritime Geschichte
Die Restaurierung des ersten deutschen Gezeitenrechners ist abgeschlossen. Dank modernster Methodik funktioniert das 105-jährige Meisterwerk der Mechanik aus der Kaiserzeit wieder und soll regelmäßig öffentlich in Betrieb gesetzt werden.

Es ist ein Exponat der Superlative – der Gezeitenrechner: Er ist der älteste seiner Art in Deutschland und kann ebenso als einer der ersten analogen Computer bezeichnet werden. Nur drei stationäre Gezeitenrechner wurden überhaupt in Deutschland gefertigt. Insgesamt wurden weltweit über einen Zeitraum von fast 100 Jahren weniger als dreißig jemals gebaut. Von denen, die erhalten blieben, sind nur wenige öffentlich zugänglich. Umso mehr freut sich das DSM, dass gleich zwei dieser Schätze zur Sammlung gehören – das Modell aus dem Jahr 1915 und ein weiteres aus der DDR.

Mit seinen vielen Zahnrädchen und kreisrunden Tidengetrieben behauptet sich der Gezeitenrechner als imposante Erscheinung inmitten der übrigen Objekte der SEA CHANGES-Ausstellung. Die Silber- und Messingkomponenten lassen auf eine lange Historie schließen. Doch nicht nur die Optik ist ein Highlight, die aufwändige Methode, die Restaurator Tim Lücke erstmals nutzte, passt ebenfalls in die Kategorie „besonders“. Lücke, der im Mai 2019 mit den Arbeiten begann, griff auf die Trockeneisstrahlung zurück, um das Innere des Geräts zu säubern. Es handelt sich um eine schonende und gleichzeitig zeitsparende Methode, die in der Restaurierung bisher selten angewandt wurde. Mithilfe von Pellets aus gefrorenem Kohlenstoffdioxid konnten selbst Kleinstteile im Inneren der Maschine gereinigt werden, ohne dass größere Ausbauten nötig waren. Dazu musste die Maschine kurzzeitig in den Außenbereich des Museums gebracht werden. Beim Arbeitsprozess in der Ausstellungshalle konnten interessierte Museumsgäste Tim Lücke über die Schulter schauen. Ein online verfügbarer Film dokumentiert die Restaurierung im Museum im Zeitraffer.

„Weil es sich um eine bisher selten angewandte Methode handelt, ist das Projekt auch aus restauratorischer Perspektive sehr spannend, wir sind froh, dass wir mit Tim Lücke einen erfahrenen Experten fanden, der die Trockeneisreinigung im DSM erstmalig in dieser Form anwandte“, sagt Martin Weiss, Wissenschaftlicher Mitarbeiter am DSM. Der Gezeitenrechner werde in Zukunft regelmäßig in Betrieb gesetzt, damit die Getriebe nicht wieder verharzen. Im kommenden Jahr passiere das auch öffentlich unter den Blicken des Publikums. Eine eigens dafür in Auftrag gegebene Vitrine, hinter der die Schauvorführungen perspektivisch stattfinden, wird bis Anfang nächsten Jahres angefertigt.

Möglich wurde die Restaurierung durch großzügige Unterstützung der Kulturstiftung der Länder, des Deutschen Stiftungszentrums, des Fördervereins Deutsches Schifffahrtsmuseum e.V. und privaten Spender*Innen.

Geschichte des Gezeitenrechners
Als im 19. Jahrhundert die Dampfschifffahrt aufkam und Fahrtzeiten dadurch viel weniger vom Wetter abhängig waren, wurde es unerlässlich, Wasserstände in Häfen genau vorhersagen zu können. Der Engländer William Thomson, später bekannt als Lord Kelvin, konstruierte 1872 den Prototyp eines Gezeitenrechners. In den folgenden Jahrzehnten wurde das Grundprinzip nie verändert, aber optimiert. Als der Erste Weltkrieg begann, sahen sich die deutschen Hydrographen gezwungen, das erste eigene Modell zu bauen, das 1915 am Marineobservatorium in Wilhelmshaven in Betrieb ging.

Nachdem dieser Prototyp in den 1930ern mit einem elektrischen Druckwerk ausgestattet wurde, gelangte er im Zweiten Weltkrieg vermutlich nach Greifswald und von dort aus an das Deutsche Hydrographische Institut in Hamburg. 1975 wurde er dem damals neu gegründeten Deutschen Schifffahrtsmuseum in Bremerhaven übergeben, wo er seitdem in der Ausstellung zu sehen ist – und nun zum ersten Mal auch in Betrieb.

Wissenschaftliche Ansprechpartner:
Martin Weiss
weiss@dsm.museum

Quelle: IDW
(nach oben)


Die ungewisse Zukunft der Ozeane

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Marine Nahrungsnetze und biogeochemische Kreisläufe reagieren sehr empfindlich auf die Zunahme von Kohlendioxid (CO2) – jedoch sind die Auswirkungen weitaus komplexer als bislang gedacht. Das zeigt eine Studie, die ein Team von Forschern und Forscherinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der Fachzeitschrift Nature Climate Change veröffentlicht hat. Dafür wurden Daten von fünf groß angelegten Feldexperimenten zusammenfasst, die untersucht haben, wie der Kohlenstoffkreislauf innerhalb von Planktongemeinschaften auf die Zunahme von CO2 reagiert.

Der Ozean spielt eine Schlüsselrolle im gegenwärtigen Klimawandel, da er einen beträchtlichen Teil des von der Menschheit ausgestoßenen atmosphärischen Kohlendioxids aufnimmt. Dadurch wird einerseits die Aufheizung des Klimas verlangsamt, andererseits führt die Lösung von CO2 im Meerwasser zur Versauerung der Ozeane. Dies hat weitreichende Konsequenzen für viele Meereslebewesen und dadurch auch für den ozeanischen Kohlenstoffkreislauf. Einer der wichtigsten Mechanismen hierbei ist die biologische Kohlenstoffpumpe: Ein Teil der Biomasse, die pflanzliches Plankton an der Ozeanoberfläche durch Photosynthese bildet, sinkt in Form kleiner, kohlenstoffhaltiger Partikel in die Tiefe. Dadurch wird der Kohlenstoff für lange Zeit in der Tiefsee gespeichert. Der Ozean wirkt somit als Kohlenstoffsenke im Klimasystem. Wie stark diese biologische Pumpe wirkt, ist regional sehr unterschiedlich und hängt von der Artenzusammensetzung des Ökosystems ab.

Die Studie, die jetzt in der Fachzeitschrift Nature Climate Change veröffentlicht wurde, ist eine der bislang umfassendsten Untersuchungen zu den Auswirkungen der Ozeanversauerung auf marine Ökosysteme. Wissenschaftler und Wissenschaftlerinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel konnten nun erstmals zeigen, dass Ozeanversauerung den Kohlenstoffgehalt von sinkendem organischem Material, und somit die biologische Pumpe, beeinflusst. Überraschenderweise waren die beobachteten Änderungen sehr variabel. Der Kohlenstoffgehalt der sinkenden Partikel nahm bei steigendem CO2 deutlich zu oder ab, je nachdem was für eine Zusammensetzung von Arten vorlag und wie das Nahrungsnetz strukturiert war. Da die zugrundeliegenden Daten verschiedenste Ozeanregionen abdecken, scheint es sich dabei um ein globales Phänomen zu handeln. Diese Erkenntnisse ermöglichen eine völlig neue Einschätzung der Auswirkungen von Ozeanversauerung.

Dr. Jan Taucher, Meeresbiologe und Erstautor der Studie, sagt hierzu: „Interessanterweise fanden wir heraus, dass bakterielles und tierisches Plankton, wie zum Beispiel Ruderfußkrebse, eine Schlüsselrolle dabei spielen, wie der Kohlenstoffkreislauf und die biologische Pumpe auf Ozeanversauerung reagieren. Bislang war die Ansicht verbreitet, dass biogeochemische Änderungen hauptsächlich durch Reaktionen des pflanzlichen Planktons getrieben werden. Deshalb berücksichtigen nicht einmal moderne Erdsystemmodelle die von uns beobachteten Wechselwirkungen zwischen dem marinen Nahrungsnetz und dem Kohlenstoffkreislauf. Unsere Erkenntnisse helfen somit, Klimamodelle realistischer zu gestalten und Klimaprojektionen zu verbessern“.

Bislang basierten die meisten Erkenntnisse zu diesem Thema auf idealisierten Laborexperimenten, die ökologische Wechselwirkungen und die Dynamik des komplexen marinen Nahrungsnetzes nur stark vereinfacht darstellen. Dadurch können solche Ergebnisse nur schwer auf Bedingungen im realen Ozean übertragen und in die Zukunft projiziert werden. Um einen realistischeren Einblick zu erhalten, fasst die Studie mehrere Feldexperimente zusammen, die mit großvolumigen Testanlagen, sogenannten Mesokosmen, in verschiedenen Ozeanregionen, von arktischen bis subtropischen Gewässern, durchgeführt wurden.

Mesokosmen sind sozusagen überdimensionale Reagenzgläser im Ozean, in denen Veränderungen der Umweltbedingungen in einem abgeschlossenen, aber ansonsten natürlichen Ökosystem untersucht werden können. Für die vorliegende Studie wurde eine Vielzahl an Daten aus fünf Mesokosmen-Experimenten zusammengetragen, um somit ein genaues Bild der Planktongemeinschaften und der biogeochemischen Prozesse innerhalb des Ökosystems zu liefern. Insgesamt flossen über zehntausend Datenpunkte in die Analyse ein.

Die neu gewonnenen Erkenntnisse können nun dazu genutzt werden, die komplexen ökologischen Wechselwirkungen in Erdsystemmodelle zu implementieren, um somit zur weiteren Verbesserung von Klimaprojektionen beizutragen.

Originalpublikation:
Taucher, J., T. Boxhammer, L.T. Bach, A. J. Paul, M. Schartau, P. Stange and U. Riebesell, 2020: Changing carbon-to-nitrogen ratios of organic-matter export under ocean acidification. Nat. Clim. Change, https://doi.org/10.1038/s41558-020-00915-5

Quelle: IDW
(nach oben)


Wissen über Herzinfarkt-Vorboten rettet Leben

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Unvorhersehbar, aber nicht aus heiterem Himmel: Herzstiftung sensibilisiert zum Weltherztag für Vorgeschichte und Warnzeichen des Herzinfarkts

Der Herzinfarkt kommt plötzlich, aber nicht aus heiterem Himmel. Umso tragischer ist, dass jedes Jahr fast 49.000 Herzinfarkttote in Deutschland zu beklagen sind. Viele der Sterbefälle wären zu verhindern, weil etwa 30 Prozent der Patienten am akuten Herzinfarkt versterben, noch bevor sie die Klinik erreichen. „Diese hohe Infarktsterblichkeit außerhalb der Klinik hat mehrere Gründe: In den ersten Minuten und Stunden nach Verstopfung der Herzkranzarterie ist das Sterberisiko besonders hoch. Fatalerweise zögern Betroffene bei einem Herzinfarkt immer noch zu lange, den Notruf 112 abzusetzen, damit ein Rettungswagen mit Notarzt kommt“, betont der Kardiologe Prof. Dr. med. Thomas Voigtländer, stellvertretender Vorstandsvorsitzender der Deutschen Herzstiftung. Ein Grund für dieses Zögern dürfte mangelndes Wissen in der Bevölkerung über die Bedrohlichkeit des Herzinfarkts sein. „Beim Herzinfarkt zählt aber jede Minute, sobald der sich mit Symptomen bemerkbar macht. Sonst drohen schwerwiegende Schädigungen des Herzmuskels bis hin zu Herzschwäche oder gar plötzlichem Herztod“, so der Ärztliche Direktor des Agaplesion-Bethanien-Krankenhauses und Cardioangiologischen Centrums Bethanien (CCB) Frankfurt am Main. Durch Sensibilisierung der Bevölkerung für die Warnzeichen eines Herzinfarkts und seiner Vorgeschichte, der chronischen Verengung der Herzkranzgefäße über viele Jahre (koronare Herzkrankheit), will die Herzstiftung dazu beitragen, die Infarktsterblichkeit außerhalb der Klinik zu senken. Dazu bietet die Herzstiftung zum Weltherztag für Betroffene und Interessierte den Experten-Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ kostenfrei unter Tel. 069 955128-400 oder unter www.herzstiftung.de (Mail bestellung@herzstiftung.de) an.

Bei Herzinfarkt immer sofort die 112 – auch in Zeiten der Corona-Pandemie
Zeitverluste beim Herzinfarkt durch zögerliches Verhalten von Betroffenen und Angehörigen sind fatal, weil der Infarkt jederzeit in bösartige Herzrhythmusstörungen übergehen kann. Dieses Kammerflimmern, bei dem das Herz über 300 Mal pro Minute schlägt, führt innerhalb weniger Sekunden zum Herzstillstand. „Herzinfarkte ereignen sich meistens zu Hause, daher kann nur ein über den Notruf 112 herbeigerufenes Rettungsteam mit einem Defibrillator das flimmernde Herz wieder in seinen normalen Rhythmus und den Patienten anschließend sofort in die nächstgelegene Klinik zur Infarktversorgung bringen“, warnt der Herzspezialist. Beim Herzinfarkt gilt die Formel: Zeit ist Herzmuskel. „Je weniger Zeit zwischen Auftreten der ersten Symptome und dem Erreichen der Klinik mit dem Herzkatheterlabor verstreicht, wo das verstopfte Herzkranzgefäß vom Blutgerinnsel befreit wird, desto weniger Schaden erleidet der Herzmuskel“, erklärt Voigtländer. Herzmediziner sprechen von der „Golden Hour“, innerhalb der die Infarktversorgung eine Schädigung des Herzens abwenden kann. Schon nach mehreren Stunden, die nach Auftreten der ersten Symptome verstreichen, steigt die Gefahr von Herzmuskelverlusten und einer Herzschwäche. Fatal sind Zeitverluste von Stunden oder gar Tagen aufgrund vermeidbarer Fehler der Betroffenen im Notfall, z. B. Scheu vor Fehlalarm besonders am Wochenende oder an Feiertagen („Belästigung der Ärzte“) oder die Einnahme von Schmerzmedikamenten. Wichtig: Auch in Zeiten der Corona-Pandemie und im Falle steigender Infektionsraten besteht keinerlei Grund, vor dem Notruf 112 bei Infarktverdacht oder sonstigen notfallartigen Herzereignissen zu zögern. „Eine Notfallversorgung für diese Patienten ist stets gewährleistet, auch in Corona-Zeiten.“ Deutschlands Kliniken verfügen mittlerweile über sehr gute Hygienekonzepte, die eine strikte Trennung der Versorgungsbereiche für Covid-19-Patienten von anderen Klinikbereichen und Notfallambulanzen in aller Regel garantieren.

Die Herzinfarkt-Alarmzeichen
Die Infarkt-Alarmzeichen sind oft leicht zu erkennen: Schwere Schmerzen, die länger als fünf Minuten andauern. Die Schmerzen sind typisch im Brustkorb, häufig hinter dem Brustbein. Zusätzlich können Schmerzen im Rücken (zwischen den Schulterblättern) oder im Oberbauch (Verwechslung mit „Magenschmerzen“ möglich) ein Alarmzeichen sein. Die Schmerzen können in Arm, Hals oder Oberbauch ausstrahlen, sie sind flächenhaft und werden als brennend und drückend mit Engegefühl in der Brust beschrieben. Je älter die Person mit Herzinfarkt ist, desto weniger ausgeprägt kann der typische Brustschmerz sein.
Bei Frauen häufiger als bei Männern können – zusätzlich zu den oben genannten Schmerzen oder auch alleine – weitere Symptome wie Atemnot, Übelkeit oder Erbrechen, Schwitzen, Benommenheit oder Schwindel sowie unerklärliche Müdigkeit ein Alarmzeichen sein. Da die Symptomatik bei Frauen nicht immer klar ist, werden ihre Symptome oftmals fehlgedeutet. Dies führt dazu, dass Frauen häufig deutlich später in die Klinik eingeliefert werden als Männer.

Herzinfarkt-Vorboten: Brustschmerzen und/oder Atemnot
Dem Herzinfarkt geht oft jahrzehntelang unbemerkt die KHK voraus. Die KHK ist durch Brustschmerzen und/oder Atemnot charakterisiert, die bei körperlicher Belastung (Treppensteigen, Getränkekisten tragen) oder seelischer Erregung auftreten. Endet die Belastung, verschwindet der Schmerz in wenigen Minuten wieder (stabile Angina pectoris). Die KHK kann jahrelang stabil bleiben, kann aber gefährlich werden, weil sie die Grundlage für den Herzinfarkt darstellt. Besonders alarmierend ist es, wenn Brustschmerz und/oder Atemnot bei kleinsten Belastungen oder in Ruhe (instabile Angina pectoris) auftreten. „Dann muss sofort der Rettungsdienst mit der 112 angerufen werden, weil sich daraus jederzeit ein Herzinfarkt entwickeln kann. Der Übergang zwischen instabiler Angina pectoris und Herzinfarkt ist fließend“, warnt der Intensivmediziner Voigtländer. Bei der instabilen Form verschließt ein Blutgerinnsel ein Herzkranzgefäß teilweise, beim Herzinfarkt vollständig.

Tipp: Experten-Ratgeber
Der neue Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ der Deutschen Herzstiftung informiert über Ursachen, Diagnose und Behandlung der Koronaren Herzkrankheit und des Herzinfarkts. Der Band (160 S.) kann kostenfrei per Tel. 069 955128-400 oder per E-Mail unter bestellung@herzstiftung.de angefordert werden. Infos zur KHK und Herzinfarkt bietet die Homepage der Herzstiftung www.herzstiftung.de

Infos zum Weltherztag unter: www.herzstiftung.de/weltherztag
Druckfähiges Bildmaterial zu den Herzinfarkt-Alarmzeichen und zum KHK-Ratgeber eine erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de

Kontakt zur Pressestelle:
Deutsche Herzstiftung e.V.
Pressestelle: Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Deutsche Herzstiftung (Hg.), Koronare Herzkrankheit und Herzinfarkt, Frankfurt am Main 2020.

Weitere Informationen:
https://www.herzstiftung.de
https://www.herzstiftung.de/infos-zu-herzerkrankungen/herzinfarkt/anzeichen
https://www.herzstiftung.de/infos-zu-herzerkrankungen/angina-pectoris/was-ist-an…

Anhang
PM_DHS-Herzinfarkt-Vorboten_2020-09-28
https://idw-online.de/de/attachment80825

Quelle: IDW
(nach oben)


Antwort auf Darwins Frage

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz
In einem „Nature“-Artikel beantwortet der Evolutionsbiologe Axel Meyer von der Universität Konstanz mit Hilfe der Analyse von fast 500 Genomen Fragen zur genetischen Basis von Anpassungen, Unterschieden zwischen Arten und den Mechanismen der Artenbildung

Wie und wie schnell entstehen neue Arten? Der Beantwortung dieser fundamentalen Fragen in der Biologie ist der Evolutionsbiologe Prof. Axel Meyer, Ph.D., von der Universität Konstanz mit seinem Team einen entscheidenden Schritt nähergekommen. Nach Auswertung eines umfangreichen genetischen Datensatzes, der in jahrelanger Forschung an extrem jungen Arten von Buntbarschen in Kraterseen Nicaraguas gesammelt wurde, zeigt sich, dass die evolutionäre Diversifizierung einer Population im selben geografischen Gebiet zu einer neuen Art wahrscheinlicher ist, wenn viele Gene im gesamten Genom daran beteiligt sind, artunterscheidende Anpassungen hervorzubringen. Was seit Darwin nicht bekannt war: Neue Arten können innerhalb von nur wenigen hundert Jahren entstehen. Dies widerspricht der bislang gängigen Theorie, dass Artentstehung langsam ist und ökologisch wichtige Artunterschiede mit einfacher genetischer Architektur im Sinne nur einzelner oder weniger beteiligter Gene zwangsläufiger zur Bildung einer neuen Art führen als auf polygenischer Basis, bei der viele Gene mit je kleinem Effekt zusammenwirken. Letztendlich geht es um die Frage, die sich Darwin schon gestellt hat: Was ist eine Art, und wie, warum und wie schnell entstehen neue Arten? Die Ergebnisse dieser großangelegten, multidisziplinären Studie sind ab dem 28. Oktober 2020 im Wissenschaftsjournal Nature online unter https://www.nature.com/articles/s41586-020-2845-0 veröffentlicht.

Welche und wie viele Gene sind an der Entstehung neuer Arten beteiligt?
Die Frage nach der Entstehung neuer Arten wird in der Genetik übersetzt in: Wie sieht das Muster der Veränderungen im Genom aus, das dazu führt, dass neue Arten entstehen? Was passiert genetisch während des Kontinuums von anfänglich keinen Unterschieden innerhalb einer Population bis hin zu der abgeschlossenen Artbildung von fortpflanzlich getrennten Arten? Axel Meyer forscht seit seiner Doktorarbeit in den 1980er Jahren an der University of California, Berkeley, USA, und seit Ende der 1990er Jahre an der Universität Konstanz an der Frage, welche und wie viele Gene oder Genloci – das sind Regionen auf dem Genom – an der Entstehung von Adaptationen (Anpassungen) und neuen Arten beteiligt sind.

Der Fokus liegt dabei auf der Studie von sehr jungen Arten von Buntbarschen, die oft nur wenige hundert Generationen alt sind und in Kraterseen in Nicaragua leben. Obwohl alle Fische von denselben älteren Ursprungspopulationen aus den beiden großen Seen Nicaraguas abstammen, dem Managua- und dem Nicaraguasee, gibt es in jedem einzelnen der Kraterseen Fischpopulationen oder gar kleinere Artenkomplexe von mehreren Arten, die ausschließlich in einem der kleinen Kraterseen leben, mit speziellen äußerlichen Unterschieden, die sich teilweise in mehreren Seen sehr ähnlich finden, also mehrfach unabhängig entstanden zu sein scheinen.

Verschiedene Phänotypen im selben Kratersee
Es gibt Fische mit ausgeprägten Lippen und solche ohne Lippen, goldfarbene und schwarzweiße Fische, Fische, die sich von anderen durch besonders schlanke Körper oder durch bestimmte zarte oder robuste Zahnformen unterscheiden. Diese Phänotypen sind innerhalb der Kraterseen, somit im selben geografischen Gebiet entstanden („sympatrische Artbildung“), ohne dass äußere Barrieren wie Flüsse oder Berge dies durch Begrenzung des Genflusses aufgrund von Genaustausch durch Fortpflanzung begünstigt hätten. Es handelt sich somit um keine „allopatrische Artbildung“.

Die Variationen mit den Lippen, der Farbe, der Körper- sowie der Zahnform im Schlundkiefer der Fische sind bereits in der Ursprungspopulation genetisch angelegt, wie Axel Meyer und sein Team (insbesondere Dr. Andreas Kautt, Dr. Claudius Kratochwil und Dr. Alexander Nater) zeigen konnten, nachdem sie aus jedem der kleinen Seen komplette Genome von insgesamt fast 500 Fischen analysiert hatten. Damit handelt es sich um keine unabhängig entstandenen neuen Mutationen, sondern um das Aussortieren und die selektive Auswahl von denselben Ursprungs-Genvarianten, die sich in den verschiedenen Seen wieder neu aussortiert haben. Bislang war man sich dabei nicht sicher, ob es sich um jeweils neue Arten handelt, die sich durch Anpassung an neue ökologische Umstände herausgebildet haben. Tatsächlich paaren sich die äußerlich unterschiedlichen Populationen in den Seen auch vorzugsweise jeweils untereinander.

Viele Gene bewirken viel
Für Ernst Mayr – den nach dem Urteil von Fachkollegen „Darwin des 20. Jahrhunderts“, der das biologische Artkonzept mit entwickelt hat, wäre das ein Indiz dafür gewesen, dass es sich um eine eigenständige Art handelt. (Der 2005 verstorbene Mentor Axel Meyers von der Harvard University erhielt 1994 von der Universität Konstanz eine Ehrendoktorwürde.) Die neuen Ergebnisse der Genomsequenzierung legen jedoch anderes nahe. Es stellte sich nach der Sequenzierung von über 450 Fischgenomen, Kreuzungsexperimenten und sogenannter Genomweiter Assoziationsanalyse (GWA) heraus, dass die auffälligen Unterschiede, wie etwa die Lippengröße und die Farbe, im Genom dieser Populationen durch nur ein bis zwei lokal sehr begrenzte Genom-Regionen nach den Mendelschen Regeln bedingt werden. Fische mit gleichem Lippen- oder Farbentyp pflanzen sich auch fast ausschließlich untereinander fort. Dennoch hat dies nicht zu genomweiten Unterschieden, die man zwischen Arten erwarten würde, geführt. Dagegen sind überraschenderweise die anderen sympatrischen Arten mit den phänotypisch weit weniger auffälligen Unterschieden in Körperform und spezieller Zahnform durch vielfach höhere genomweite genetische Unterschiede gekennzeichnet.

Das bedeutet, dass viele Gene an vielen Stellen des Genoms jeweils nur einen kleinen Beitrag zur genetischen Ausdifferenzierung leisten, deren Effekte sich aber über das gesamte Genom aufaddieren und zur Artentstehung führen. Die Anzahl der genetischen Unterschiede im gesamten Genom zwischen diesen jungen Arten ist zehnmal höher als beispielsweise zwischen den äußerlich sehr unterschiedlichen Polymorphismen der großlippigen oder goldenen gegenüber schwarz-weiß gestreiften Fischen, die deshalb auch keine Arten darstellen. Der vereinte Effekt vieler Gene bewirkt somit insgesamt stärker, neue Arten entstehen zu lassen. „Das hatten wir nicht erwartet. Es widerspricht auch großen Teilen der Theorie, nach der einzelne Loci mit großem Effekt auf das Äußere von Arten wie ausgeprägte Lippen oder Färbung schneller neue Arten entstehen lassen sollten“, sagt Axel Meyer. Es ist insbesondere überraschend, wenn sich die Loci ungewöhnlicherweise hier sowohl auf die Ökologie als auch auf die Partnerwahl auswirken. „Zumindest nach dem Kriterium des durchschnittlichen Unterschieds im gesamten Genom sind Fische, die sich äußerlich so auffällig unterscheiden, trotzdem keine unterschiedlichen Arten, sondern bleiben auf dem Kontinuum der Artbildung lediglich auf dem Niveau eines Polymorphismus (Vielgestaltigkeit) stehen.“

Kraterseen bieten sich als natürliches Experiment an
Die geographische Situation macht die untersuchten Kraterseen zu einem „natürlichen Experiment“. Die ursprünglichen Fischpopulationen stammen aus zwei viel älteren benachbarten Seen, zu denen es keinerlei Verbindung gibt, haben aber unabhängig voneinander diese Kette von Kraterseen besiedelt. Wann und wie Exemplare der Ursprungspopulation jeweils in die sieben kleineren Seen gelangten, lässt sich nur durch Simulationen errechnen. Es passierte aber vor nur wenigen hundert bis wenigen tausend Generationen, und es waren nicht sehr viele Fische, die die Kraterseen besiedelten. Die Entstehung von Arten kann sich also, wie hier gezeigt wurde, sehr viel schneller vollziehen als bisher gedacht. Der Evolutionsbiologe Meyer vergleicht die Seen mit Petrischalen, alle mit derselben genetischen Ausgangssituation geimpft, die über Generationen unabhängig evolvieren: „Es gibt nur ganz wenige Systeme in der Welt, wie die Galapagosinseln oder eben die Kraterseen in Nicaragua, die sich der Evolutionsforschung als natürliche Experimente anbieten.“

Förderung durch einen ERC Advanced Grant
Die umfangreichen Untersuchungen und aufwändigen Sequenzierungen wurde durch einen ERC Advanced Grant des European Research Council (ERC) ermöglicht. Für sein Projekt „Comparative genomics of parallel evolution in repeated adaptive radiations“ erhielt Axel Meyer von 2012 bis 2017 eine Förderung von 2,5 Millionen Euro. Kooperationspartner der Publikation sind außer dem Konstanzer Team auch Prof. Eugene Myers, Ph.D., und sein Mitarbeiter Dr. Martin Pippel am Max-Planck-Institut für molekulare Zellbiologie und Genetik in Dresden und am Zentrum für Systembiologie Dresden.

Faktenübersicht:
• Originalpublikation: Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0
• Sperrfrist bis 28. Oktober 2020, 17 Uhr (MEZ)
• Forschungsprojekt zur Frage, was eine Art ist und wie, warum und wie schnell neue Arten entstehen
• Artbildung im selben geografischen Gebiet (sympatrische Artbildung) zu neuen Arten bei polygenischer Basis wahrscheinlicher als bei begrenzter genetischer Basis (mendelischen vererbten Merkmalen)
• Gefördert von 2012 bis 2017 durch einen ERC Advanced Grant des European Research Council (ERC) (“GenAdap” #293700) mit 2,5 Millionen Euro
• Förderung mehrerer Teilprojekte, die auch in diese Publikation einflossen, durch die Deutsche Forschungsgemeinschaft (DFG). Mehr Informationen dazu: https://gepris.dfg.de/gepris/person/1621603?context=person&task=showDetail&a…;

Hinweis an die Redaktionen:
Fotos von Buntbarschen können im Folgenden heruntergeladen werden:
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
Fotos: Ad Konings

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Originalpublikation:
Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0

Quelle: IDW
(nach oben)


Leitfaden für mehr „Insektenschutz in der Kommune“

Ruth Birkhölzer Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz
Wie können Städte und Gemeinden konkret zum Schutz von Insekten beitragen? Welche Maßnahmen können sie auf kommunalen Flächen umsetzen? Und wie lässt sich der Insektenschutz in kommunalen Plänen und Satzungen verankern, wie in die Umweltbildung vor Ort integrieren? Antworten auf diese Fragen gibt eine Publikation, die in einer Kooperation des Deutschen Städte- und Gemeindebundes (DStGB) mit dem Bundesamt für Naturschutz (BfN) entstanden ist. Die Broschüre „Insektenschutz in der Kommune“ umfasst nicht nur Empfehlungen, sondern stellt auch Beispiele aus der Praxis vor.

„Der Rückgang der Vielfalt und der Häufigkeit von Insekten hat eine Vielzahl von Ursachen, neben qualitativen Veränderungen und der Zerstörung von Lebensräumen etwa Beeinträchtigungen durch Pflanzenschutzmittel oder durch künstliche Lichtquellen“, sagt Prof. Dr. Beate Jessel, Präsidentin des Bundesamtes für Naturschutz (BfN). „Städte und Gemeinden sind wichtige Akteure, um dieser Entwicklung entgegen zu wirken, denn sie haben einen entscheidenden Einfluss darauf, wie öffentliche Grünflächen, Wald in kommunalem Eigentum, Weg- und Straßenränder, Gewässer und Gräben gepflegt und bewirtschaftet werden. Oft lassen sich schon mit einfachen Maßnahmen neue Lebensräume für Insekten schaffen, zum Beispiel mit dem Anlegen von Blühstreifen, blüten- und damit artenreichen Wiesen oder auch Brachflächen und Staudenfluren.“

„Der dramatische Rückgang der Insektenarten in den letzten Jahrzehnten bringt die Natur aus dem Gleichgewicht. Den Artenrückgang aufzuhalten, ist daher eine wichtige gesamtgesellschaftliche Herausforderung“, sagt Dr. Gerd Landsberg, Hauptgeschäftsführer des Deutschen Städte- und Gemeindebundes (DStGB). Städte und Gemeinden spielen dabei eine zentrale Rolle, denn die Menschen erleben die Veränderung in der Natur in ihrem unmittelbaren Lebensumfeld. Neben Aktivitäten im Klimaschutz und zur Anpassung an die Folgen des Klimawandels haben Städte und Gemeinden auch zahlreiche Maßnahmen wie die naturnahe Pflege und Gestaltung der öffentlichen Grünflächen, die Renaturierung von verbauten Gewässern, die Schaffung grüner Straßenräume aber auch Bildungsmaßnahmen in Kindertagesstätten und Schulen umgesetzt. Dies zeigt, dass Belange der Biodiversität und des Insektenschutzes längst auf der kommunalpolitischen Agenda stehen“, betont Dr. Landsberg.

Die Dokumentation „Insektenschutz in der Kommune“ liefert konkrete Anregungen, wie Insekten im kommunalen Bereich geschützt und neue Lebensräume für Schmetterlinge, Wildbienen oder Laufkäfer geschaffen werden können. Neben der Bewirtschaftung von Flächen im Eigentum der Gemeinde umfasst dies auch Möglichkeiten der Bauleit- und Landschaftsplanung so-wie kommunaler Satzungen, wie beispielsweise zur Eindämmung von Schottergärten. Um bei Bürgerinnen und Bürgern mehr Bewusstsein für den Schutz von Insekten zu wecken, gibt die Broschüre auch Hinweise zur Umweltbildung. Sie enthält eine Fülle von Maßnahmenvorschlägen, die außerdem jeweils mit Praxisbeispielen und weitergehenden Hinweisen zu Ansprechpartnerinnen und Ansprechpartnern sowie Literatur untersetzt werden. Insgesamt werden so die sehr weitreichenden Potenziale deutlich, die die Gestaltung und Pflege der kommunalen Grünflächen für den Insektenschutz bietet.

Bezug:
Mewes, M. & Stahmer, J. (2020): Insektenschutz in der Kommune. Deutscher Städte- und Gemeindebund (Hrsg.). DStGB-Dokumentation No. 155.

Die Dokumentation steht kostenfrei zum Download zur Verfügung unter:
https://www.dstgb.de/dstgb/Homepage/Publikationen/Dokumentationen/

Gedruckte Exemplare können kostenfrei bestellt werden bei:
Bundesamt für Naturschutz, Außenstelle Leipzig, Alte Messe 6, 04013 Leipzig
E-Mail: PBox-BfN-Leipzig@BfN.de

Quelle: IDW
(nach oben)


Der Rest ist nicht alles – Für nachhaltige Biogaserzeugung ist mehr als Gärrestdüngung notwendig

Ulrich Eidenschink Presse- und Öffentlichkeitsarbeit
Technologie- und Förderzentrum im Kompetenzzentrum für Nachwachsende Rohstoffe (TFZ)
Reststoffe der Biogasvergärung werden als sogenannte Gärreste auf den Acker zurückgeführt. Ihr Einfluss auf die Bodeneigenschaften kann jedoch nur in großen Zeiträumen festgestellt werden. In einem zehnjährigen Forschungsprojekt haben das Technologie- und Förderzentrum (TFZ) und die Bayerische Landesanstalt für Landwirtschaft (LfL) untersucht, ob die Düngung mit Gärresten langfristig zur Nachhaltigkeit im Nutzungspfad Biogas beiträgt. Insgesamt wirkte sich die organische Düngung zwar positiv auf verschiedene Parameter aus. Die Rückführung von Gärresten reicht allerdings in intensiven Fruchtfolgen nicht aus, um einen ausgeglichenen Humushaushalt zu erreichen.

Zur Untersuchung von Humushaushalt, Bodenphysik und Bodenleben wurden an vier bayerischen Standorten Feldversuche mit Silomais und Winterweizen im jährlichen Wechsel durchgeführt.
Mit der Abfolge von Silomais und Winterweizen ohne Zwischenfruchtanbau wurde dabei eine intensive Bodenbewirtschaftung gewählt, um Einflussfaktoren von außen gering zu halten. Die rückgeführten Gärreste stammten aus Praxis-Biogasanlagen. In einer Versuchsvariante wurde repräsentativ für eine Silomaisverfütterung die Düngung mit Rindergülle untersucht.

Im Ergebnis war festzustellen, dass die Dichte und Vielfalt der Bodenlebewesen, wie z.B. Springschwänze und Milben, durch Gärrestdüngung nicht verringert wird. Eine Gärrestdüngung in angemessener Höhe ließ auch eine positive Wirkung auf die Regenwurmfauna erkennen. Allerdings profitierten Regenwürmer stärker von der Düngung mit Rindergülle, die mehr leicht verwertbare Kohlenstoffverbindungen enthält. Ebenso lässt die Düngung mit Gärresten keine Verschlechterung der Bodeneigenschaften erkennen: Die Stabilität der Bodenstruktur blieb erhalten, wie auch das Aufnahmevermögen für Niederschläge. Eine erhöhte Anfälligkeit für Verschlämmung und damit ein erhöhtes Erosionsrisiko waren nicht festzustellen.
Insgesamt zeigte sich allerdings ein genereller Rückgang der Humusgehalte, der vor allem der einseitigen und humuszehrenden Fruchtfolge aus Silomais und Winterweizen zuzuschreiben ist. Die Gärrestdüngung kann diesen Rückgang mindern und trägt bezogen auf die ausgebrachte Menge organischer Substanz zur Humusversorgung bei. Hinsichtlich der Humuswirkung führte die Düngung mit Gärresten und Rindergülle zu vergleichbaren Ergebnissen. In intensiven Fruchtfolgen reichen Gärreste allein jedoch nicht für eine nachhaltige Bodenbewirtschaftung aus.
Dr. Maendy Fritz, Projektkoordinatorin am TFZ, zieht als Fazit: „Das Gesamtsystem muss stimmen. Für eine nachhaltige Biogaserzeugung brauchen wir eine Fruchtfolge, die zu Betrieb und Standort passt. Diese sollte mit humusmehrenden Kulturen, Zwischenfrüchten oder Untersaaten ergänzt werden, um die Bodenfruchtbarkeit zu erhalten.“

Das Projekt wurde vom Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten gefördert. Als Projektpartner waren das Institut für Ökologischen Landbau, Bodenkultur und Ressourcenschutz und die Abteilung Qualitätssicherung und Untersuchungswesen von der Bayerischen Landesanstalt für Landwirtschaft beteiligt sowie das Amt für Ernährung, Landwirtschaft und Forsten Ansbach.

Der Forschungsbericht „Gärrest Bayern“ kann unter www.tfz.bayern.de kostenlos heruntergeladen werden.

Wissenschaftliche Ansprechpartner:
Dr. Maendy Fritz, Abteilungsleiterin Rohstoffpflanzen und Stoffflüsse am TFZ, Tel.: 09421 300 210

Originalpublikation:
https://www.tfz.bayern.de/mam/cms08/rohstoffpflanzen/dateien/tfz_bericht_67_gaerrest_geschuetzt.pdf

Quelle: IDW
(nach oben)


Der Entstehung von Darmkrebs auf der Spur: Wie Häm-Eisen aus rotem Fleisch gesunde Darmzellen schädigt

TU Kaiserslautern Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Dass ein übermäßiger Verzehr von rotem Fleisch das Risiko erhöht, an Darmkrebs zu erkranken, ist bekannt. Die organische Verbindung „Häm-Eisen“ steht im Verdacht, für die krebsfördernde Wirkung verantwortlich zu sein. Ein Forscherteam der TU Kaiserslautern um Professor Jörg Fahrer ist es jetzt gelungen, die toxische Wirkung von Häm-Eisen in gesunden Darmzellen zu beschreiben. Dabei haben die Wissenschaftler*innen das Protein Hämoxygenase-1 (HO-1) als wichtigen Schutzfaktor identifiziert. Das Enzym baut freies Häm in der Zelle ab und verhindert so dessen schädigenden Effekt. Die Forschungsergebnisse sind kürzlich in der namhaften Fachzeitschrift Cell Death & Disease veröffentlicht worden.

Darmkrebs zählt zu den drei häufigsten Krebsarten weltweit. Gerade bei Menschen im jungen und mittleren Alter von 20 bis 50 Jahren ist in letzter Zeit ein kontinuierlicher Anstieg bei den Neuerkrankungen zu verzeichnen. Dies wird mit veränderten Ernährungsgewohnheiten in Zusammenhang gebracht – unter anderem dem übermäßigen Verzehr von rotem Fleisch.

Um zu verstehen, welche Rolle Häm-Eisen in diesem Kontext spielt, hat ein Team unter Leitung von Professor Fahrer aus der Lebensmittelchemie und Toxikologie an der TUK sowie am Institut für Toxikologie der Universitätsmedizin Mainz die Effekte der organischen Eisenverbindung auf gesunde Darmzellen und entartete Darmkrebszellen analysiert. Zudem haben sie untersucht, inwieweit sich das organische Häm-Eisen von anorganischen Eisenformen wie zum Beispiel Eisenchlorid in der möglichen toxischen Wirkung unterscheidet. Die Studie wurde in Zusammenarbeit mit Wissenschaftler*innen der Universität Konstanz und der Universität Potsdam durchgeführt und durch die Deutsche Forschungsgemeinschaft finanziell unterstützt.

Die Forscher*innen konnten zunächst zeigen, dass Häm-Eisen in physiologisch relevanten Konzentrationen, wie sie in unserem Darm auftreten können, die Bildung von reaktiven Sauerstoffspezies fördert und Schäden an unserem Erbgut, der DNA, verursacht (siehe Abbildung 1A). „Diese Effekte waren bei den anorganischen Eisenverbindungen nur gering ausgeprägt“, wie Dr. Nina Seiwert, Erstautorin der Studie und Postdoktorandin in der Arbeitsgruppe Fahrer, ergänzt. So führte Häm-Eisen, aber nicht das anorganische Eisen, zum Absterben der normalen Darmzellen, was auch in sogenannten Organoiden aus gesundem Darmgewebe bestätigt werden konnte. „Hierbei handelt es sich quasi um ein Miniorgan, das in Kulturschalen eingebettet in einer Matrix mit speziellem Nährmedium wächst“, wie Dr. Seiwert erläutert. Interessanterweise zeigten die Darmkrebszellen jedoch eine geringere Empfindlichkeit gegenüber Häm-Eisen und überlebten trotz der Schäden.

Im weiteren Verlauf erforschte das Team die Antwort auf zellulärer Ebene und konnte zeigen, dass Häm-Eisen einen zellulären Sensor für oxidativen Stress aktiviert und dadurch in Darmzellen das Enzym HO-1 produziert wird (siehe Abbildung 1B). „HO-1 ist verantwortlich für den Abbau von Häm-Eisen zu anorganischem Eisen und weiteren Produkten“, wie Professor Fahrer erklärt. Um die Rolle der HO-1 genauer zu ergründen, bedienten sich die Wissenschaftler*innen pharmakologischer und molekulargenetischer Methoden. War die Produktion von HO-1 entsprechend deaktiviert, stieg die Konzentration reaktiver Sauerstoffspezies stark an, was zu vermehrten oxidativen DNA-Schäden und schlussendlich Zelltod führte.

„Zusammengenommen illustrieren diese Befunde, dass freies Häm-Eisen in Zellen toxisch wirkt und HO-1 eine ganz wichtige Schutzfunktion einnimmt“, so Professor Fahrer. Die Studie liefert so einen wichtigen Beitrag zum Verständnis der toxischen Wirkung von Häm-Eisen in Darmzellen und zeigt auf, wie es als Bestandteil von rotem Fleisch die Entstehung von Darmkrebs begünstigen kann.

Publikation
Seiwert N, Wecklein S, Demuth P, Hasselwander S, Kemper TA, Schwerdtle T, Brunner T, Fahrer J. Heme oxygenase 1 protects human colonocytes against ROS formation, oxidative DNA damage and cytotoxicity induced by heme iron, but not inorganic iron. Cell Death Dis. 2020; 11(9):787.
doi: 10.1038/s41419-020-02950-8.
https://www.nature.com/articles/s41419-020-02950-8

Fragen beantwortet:
Prof. Dr. Jörg Fahrer
Lebensmittelchemie und Toxikologie
Fachbereich Chemie der TU Kaiserslautern
Tel.: 0631 205-2974
E-Mail: fahrer@chemie.uni-kl.de

Quelle: IDW
(nach oben)


Größter CO2-Rückgang: Echtzeit-Daten zeigen die massiven Auswirkungen von Covid-19 auf die globalen Emissionen

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Während der andauernden Corona-Pandemie konnte in der ersten Jahreshälfte 2020 ein beispielloser Rückgang der CO2-Emissionen festgestellt werden – stärker als während der Finanzkrise von 2008, der Ölkrise von 1979 oder sogar während des Zweiten Weltkriegs.

Ein internationales Forscherteam hat herausgefunden, dass in den ersten sechs Monaten dieses Jahres 8,8 Prozent weniger Kohlendioxid ausgestoßen wurden als im gleichen Zeitraum im Jahr 2019 – ein Rückgang von insgesamt 1551 Millionen Tonnen. Die bahnbrechende Studie bietet nicht nur einen viel genaueren Blick auf die Auswirkungen von COVID-19 auf den globalen Energieverbrauch als frühere Analysen. Sie macht auch Vorschläge, welche grundlegenden Schritte unternommen werden könnten, um das globale Klima nach der Pandemie dauerhaft zu stabilisieren.

„Was unsere Studie einzigartig macht, sind die akribisch, nahezu in Echtzeit gemessener Daten“, erklärt Hauptautor Zhu Liu vom Department of Earth System Science an der Tsinghua-Universität in Peking. „Durch die Berücksichtigung täglicher Zahlen, die die Forschungsinitiative Carbon Monitor gesammelt hat, konnten wir uns einen viel schnelleren und präziseren Überblick verschaffen – einschließlich Zeitreihen, die zeigen, wie der Emissionsrückgang mit den Lockdowns in den einzelnen Ländern korrespondiert hat. Im April, auf dem Höhepunkt der ersten Welle von Corona-Infektionen, als die meisten Länder ihr öffentliches Leben erheblich zurückfuhren, gingen die Emissionen sogar um 16,9 % zurück. Insgesamt führten die verschiedenen Ausbrüche zu Emissionssenkungen, die wir normalerweise nur kurzfristig an Feiertagen wie Weihnachten oder dem chinesischen Frühlingsfest erleben.“

Die Studie, veröffentlicht in der neuesten Ausgabe von Nature Communications, zeigt, welche Teile der Weltwirtschaft am stärksten betroffen waren. „Die größte Emissionsreduktion fand im Bereich des Landverkehrs statt“, erklärt Daniel Kammen, Professor und Vorsitzender der Energy and Resources Group sowie Professor an der Goldman School of Public Policy, University of California, Berkeley. „Vor allem aufgrund des weit verbreiteten Arbeitens von Zuhause gingen die CO2-Emissionen im Verkehr weltweit um 40% zurück. Im Gegensatz dazu trugen der Energie- und der Industriesektor mit -22 %, bzw. -17 % weniger zu diesem Rückgang bei, ebenso wie der Luft- und der Schifffahrtssektor. Überraschenderweise verzeichnete sogar der Wohnsektor einen kleinen Emissionsrückgang um 3 %: Das lag daran, dass aufgrund eines ungewöhnlich warmen Winters auf der Nordhalbkugel der Heizverbrauch zurückging, obwohl die meisten Menschen während des Lockdowns viel mehr zu Hause waren.“

Um dieses umfassende Bild zu zeichnen, stützten sich die Forscher bei ihren Schätzungen auf eine möglichst breite Palette von Daten: präzise, stündliche Datensätze der Stromerzeugung in 31 Ländern, täglicher Fahrzeugverkehr in mehr als 400 Städten weltweit, tägliche Passagierflüge, monatliche Produktionsdaten für die Industrie in 62 Ländern sowie Brennstoffverbrauchsdaten für Gebäudeemissionen in mehr als 200 Ländern.

Die Forscher ermittelten jedoch auch starke Rebound-Effekte. Mit Ausnahme eines anhaltenden Rückgangs der Emissionen aus dem Verkehrssektor erreichten die meisten Volkswirtschaften im Juli 2020, sobald die Sperrmaßnahmen aufgehoben wurden, wieder ihr gewohntes CO2-Niveau. Doch selbst wenn sie auf ihren historisch niedrigen Level verharrten, würde sich dies nur geringfügig auf die langfristige CO2-Konzentration in der Atmosphäre auswirken.

Daher betonen die Autoren, dass die einzig effektive Strategie zur Stabilisierung des Klimas nur eine Transformation des Industrie- und Handelssektors sein kann. „Dieser CO2-Rückgang ist zwar beispiellos, doch ein Rückgang menschlicher Aktivitäten kann nicht die Antwort sein“, sagt Ko-Autor Hans Joachim Schellnhuber, Gründungsdirektor des Potsdam-Instituts für Klimafolgenforschung. „Stattdessen brauchen wir umfassende strukturelle Veränderungen in unseren Energieproduktions- und -verbrauchssystemen. Individuelles Verhalten ist sicherlich wichtig, aber worauf wir uns wirklich konzentrieren müssen, ist die Verringerung der CO2-Intensität unserer globalen Wirtschaft.“

Artikel: Zhu Liu, Philippe Ciais, Zhu Deng, Ruixue Lei, Steven J. Davis, Sha Feng, Bo Zheng, Duo Cui, Xinyu Dou, Biqing Zhu, Rui Guo, Piyu Ke, Taochun Sun, Chenxi Lu, Pan He, Yuan Wang, Xu Yue, Yilong Wang, Yadong Lei, Hao Zhou, Zhaonan Cai, Yuhui Wu, Runtao Guo, Tingxuan Han, Jinjun Xue, Olivier Boucher, Eulalie Boucher, Frédéric Chevallier, Katsumasa Tanaka, Yimin Wei, Haiwang Zhong, Chongqing Kang, Ning Zhang, Bin Chen, Fengming Xi, Miaomiao Liu, François-Marie Bréon, Yonglong Lu, Qiang Zhang, Dabo Guan, Peng Gong, Daniel M. Kammen, Kebin He & Hans Joachim Schellnhuber (2020): Near-real-time monitoring of global CO2 emissions reveals the effects of the COVID-19 pandemic. Nature Communications. DOI: 10.1038/s41467-020-18922-7.

Wissenschaftliche Ansprechpartner:
Jonas Viering, presse@pik-potsdam.de

Originalpublikation:
https://doi.org/10.1038/s41467-020-18922-7

Weitere Informationen:
https://carbonmonitor.org

Quelle: IDW
(nach oben)


Auf die Wirkung kommt es an: Neues Verfahren spürt Schadstoffe anhand ihrer Effekte auf Organismen auf

Dominik Rösch Referat
Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Arzneimittel, Pflanzenschutzmittel, Biozide, Wasch- und Reinigungsmittel: Die Vielfalt an schädlichen Stoffen ist enorm. Dementsprechend aufwändig und teuer ist deren Nachweis. Im Rahmen des gemeinsamen Forschungsprojektes TREES analysierten Forscher der Bundesanstalt für Gewässerkunde und der Hebräischen Universität in Jerusalem die Wirkungen von Mikroverunreinigungen in der Umwelt. Der Clou: Über die negativen Effekte auf die im Wasser lebenden Organismen werden die verantwortlichen Schadstoffe ermittelt. So können auch Schadstoffe und deren Abbauprodukte erkannt werden, die in der Umwelt bisher nicht als solche bekannt waren.

Die Zahl der industriell hergestellten Chemikalien hat sich in den letzten 20 Jahren mehr als verdreifacht und liegt heute bei mehr als 350.000 Substanzen. Gewässer werden in Europa standardmäßig auf ausgewählte Stoffe untersucht, die für Mensch und Umwelt gefährlich sind, wenn festgelegte Konzentrationen überschritten werden. Neben diesen sogenannten prioritären Stoffen gibt es aber noch viele weitere, zum Teil bislang unbekannte Schadstoffe, die unsere Gewässer gefährden. Zwischen Juni 2016 und Dezember 2019 entwickelten Forscher in dem vom Bundesministerium für Bildung und Forschung (BMBF) und dem israelischen Wirtschaftsministerium (MOST) geförderten Projekt TREES (Tracking Effects of Environmental organic micro-pollutants in the Subsurface; FKZ: 02WIL1387) daher ein neues Verfahren zur effektbasierten Bestimmung organischer Schadstoffe.

Auf die Wirkung kommt es an
Der entscheidende Vorteil des Ansatzes im Projekt TREES besteht darin, dass sich problematische Substanzen anhand ihrer unerwünschten biologischen Effekte bestimmen lassen. Bisher wird in Umweltproben nach bekannten, in Listen festgelegten Schadstoffen gesucht („Ziel- oder target-Analytik“), um dann im nächsten Schritt auf das Gefahrenpotenzial einer Belastung zu schließen. Und so funktioniert die Innovation: Proben, die oft einen Cocktail bekannter und unbekannter Substanzen enthalten, werden durch ein spezielles Verfahren – die Dünnschichtchromatographie – getrennt. Nach der Trennung untersucht man die Oberfläche der Dünnschichtplatte mit verschiedenen biologischen Testverfahren. Getestet wird, ob die Probe gentoxische, dioxinähnliche, pflanzentoxische und eine Reihe verschiedener hormoneller Wirkungen hervorruft. Wenn der Test positiv verläuft, also die unerwünschten Effekte eintreten, kommen entsprechend wirkende Chemikalien in einer Probe vor. Auf Basis der verschiedenen Tests erzeugen die Forscher sogenannte Aktivitätsprofile. Diese lassen die Wissenschaftler gezielt auf die auslösende Stoffgruppe schließen – selbst wenn diese in der Umwelt zunächst noch gar nicht bekannt oder gelistet ist. Mit nachgeschalteten Analysen identifiziert man dann gezielt die verantwortlichen Schadstoffe. Das ist wesentlich effizienter, als grundsätzlich eine große Bandbreite von Schadstoffen zu messen.

Innovation für intensiv genutzte Wasserressourcen
„Die Ergebnisse haben vor allem für trockene Regionen einen hohen gesellschaftlichen Wert. Dort werden die Frischwasserressourcen knapper und künftig noch intensiver genutzt“, sagt Dr. Sebastian Buchinger, der TREES-Projektleiter an der BfG. „Das Vorgehen bietet die Chance, die Effizienz neuer Abwasserbehandlungsmethoden, wie zum Beispiel von Retentionsbodenfiltern zu optimieren oder die Gefährdung des Grundwassers,
z. B. im Einflussbereich einer Deponie, besser als bisher einzuschätzen“, erklärt Buchinger weiter. Die neu entwickelten Verfahren besitzen das Potenzial, die Wasserversorgung in Israel und seinen Nachbarstaaten, aber auch in Deutschland zu verbessern. Die Entwicklungen sind darüber hinaus ein wichtiger Beitrag zur Weiterentwicklung der EU-Wasserrahmenrichtlinie.

Wissenschaftliche Ansprechpartner:
Dr. Georg Reifferscheid, Referat Biochemie, Ökotoxikologie, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1. 56068 Koblenz, Fon: 0261/1306 5176, E-Mail: reifferscheid@bafg.de

Weitere Informationen:
https://www.bafg.de/DE/Service/presse/2020-10-07_TREES_Bericht
Joint Final Report: TREES – Tracking Effects of Environmental organic micro-pollutants in the Subsurface

Quelle: IDW
(nach oben)


Kein Nachwuchs bei Dorsch und Hering – Wissenschaft alarmiert: Fischbeständen in der westlichen Ostsee droht Kollaps

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz Zentrums für Ozeanforschung in Kiel haben zusammen mit mehreren Berufsfischern in der Kieler Förde Untersuchungen zum Zustand und Laicherfolg von Dorsch und Hering im Frühjahr 2020 durchgeführt. Das Ergebnis ist erschreckend und alarmierend.

Nach Jahrzehnten der Überfischung sind die Bestände von Dorsch und Hering in der westlichen Ostsee so klein, dass sie während der Laichzeit nicht mehr ihr ganzes Laichgebiet mit Eiern versorgen können. Beim Hering liegt der Nachwuchs seit 2005 weit unter dem Mittel der vorherigen Jahre und nimmt kontinuierlich weiter ab. Seit 2018 empfiehlt deshalb der Internationale Rat für Meeresforschung (ICES) eine Einstellung der Heringsfischerei, dieser Rat wurde aber bisher von den politisch Handelnden nicht befolgt. Beim Dorsch ist in vier der letzten fünf Jahre der Nachwuchs ganz oder fast ganz ausgeblieben. Der Bestand besteht daher fast nur noch aus jetzt vierjährigen Dorschen, die sich noch nicht erfolgreich fortgepflanzt haben und die Hauptlast der Dorschfischerei tragen. „Wenn wir diesen Jahrgang ohne Ersatz verlieren, dann haben wir den Bestand verloren“ sagt Dr. Rainer Froese, Meeresökologe und Experte für Fischereiwissenschaft am GEOMAR.

Die zu kleinen Bestände sind zudem extrem schlecht auf den Klimawandel vorbereitet. Das zeigte sich in diesem Frühjahr, wo der ungewöhnlich warme Winter die meisten Fische dazu veranlasst hat, zu früh abzulaichen, bevor genügend Nahrung für die Larven vorhanden war. Aufgrund der zu kleinen Bestandsgrößen haben nur sehr wenige Fische zur richtigen Zeit am richtigen Ort abgelaicht. Die Larven dieser Fische hatten mit dem zusätzlichen Problem zu kämpfen, dass sich eingeschleppte Rippenquallen im warmen Wasser massiv vermehrt haben und mit den Fischlarven um das Plankton als Futter konkurrieren. „Wir hatten noch in keinem Jahr so viele Rippenquallen in unseren Proben wie jetzt“ sagt Meeresbiologin und Expertin für Heringslarven, Dr. Catriona Clemmesen vom GEOMAR. „Alle Anzeichen deuten daher darauf hin, dass es in diesem Jahr bei Dorsch und Hering keinen Nachwuchs geben wird.“

Auch die Fischer haben die Änderungen im Ökosystem bemerkt: „Um diese Jahreszeit müsste es eigentlich massenhaft Ohrenquallen und Feuerquallen geben“, sagt Erik Meyer, Berufsfischer aus Schönberg. „Stattdessen haben wir glasklares Wasser und Quallen gibt es nicht.“ Auch Oliver Eggerland, Berufsfischer aus Laboe, hat noch nie so wenig Jungfische gesehen wie in diesem Jahr. „Normalerweise sehe ich um diese Jahreszeit Schwärme von Jungheringen im Flachwasser. Jetzt ist nichts da.“

Aus Sicht der Fischer und der GEOMAR Wissenschaftler muss dringend gehandelt werden, um eine Katastrophe abzuwenden. Sie schlagen eine völlige Einstellung jeglicher Fischerei auf Dorsch und Hering vor, bis mehrfache erfolgreiche Fortpflanzung die Bestände dauerhaft abgesichert hat. „Es kann nicht angehen, dass wir jetzt die letzten Dorsche und Heringe wegfangen,“ sagt Thorsten Reusch, Professor am GEOMAR und Experte für evolutionäre Genetik. „Die wenigen Jungfische, die trotz der widrigen Bedingungen überlebt haben, besitzen offenbar solche Erbanlagen, die wir für die Zukunft der Bestände brauchen. Sie stammen von Eltern, die erst bei höheren Temperaturen zum Laichen kommen und deren Gene müssen unbedingt an die nächsten Generationen weitergegeben werden“, fügt er hinzu.

Die Fischer und Wissenschaftler haben sich mit ihren Beobachtungen an den Umweltminister von Schleswig-Holstein, Jan Philipp Albrecht, und an die Bundesministerin für Landwirtschaft, Julia Klöckner gewandt. In ihrem Appell weisen sie deutlich darauf hin, dass die Fischer in dieser Situation nicht allein gelassen werden können. Sie schlagen angemessene Abfindung vor für Fischer, die aussteigen wollen, und angemessene Unterstützung für Fischer, die im Beruf bleiben wollen. Fischerei auf Plattfische (Scholle, Flunder, Kliesche, Steinbutt, Glattbutt) ist weiterhin möglich, Beifang von Hering und Dorsch muss dabei aber strikt vermieden oder gering halten werden.

Auch ist es aus ihrer Sicht unbedingt erforderlich, die Auswirkungen der eingeschleppten Rippenquallen auf das natürliche Nahrungsnetz der Ostsee eingehend zu untersuchen. Vielleicht gibt es ja Möglichkeiten, einheimische Räuber oder Nahrungskonkurrenten der ungebetenen Gäste so zu fördern, dass die Ausbreitung der Rippenquallen eingedämmt werden kann.

Die Zeit für Maßnahmen zur Begrenzung der Fischerei auf Dorsch und Hering ist knapp: schon am 19. und 20. Oktober treffen sich die Landwirtschaftsminister der EU und beschließen die Fangquoten für das nächste Jahr.

Wissenschaftliche Ansprechpartner:
Dr. Rainer Froese rfroese@geomar.de
Prof. Dr. Thorsten Reusch treusch@geomar.de

Quelle: IDW
(nach oben)


Korallenbleiche: Riff erholt sich schneller als gedacht

Sarah Batelka Hochschulkommunikation und -marketing
Universität Bremen

Wie schnell kann sich ein Riff von einer Korallenbleiche erholen? Schneller als gedacht – wenn der Mensch es in Ruhe lässt. So lautet das Fazit eines internationalen Forschungsprojekts unter Leitung der Abteilung Marine Ökologie der Universität Bremen in Partnerschaft mit der Seychelles Islands Foundation (SIF). Nur vier Jahre, nachdem bis zu zwei Drittel eines Riffs im Indischen Ozean beschädigt worden waren, entdeckten die Forschenden Erstaunliches: Große Teile der Korallen hatten sich erholt.

„Diese Erholungsgeschwindigkeit gehört zu den schnellsten, die jemals für Riffe beobachtet wurde“, sagt Christian Wild, Leiter der Arbeitsgruppe „Marine Ökologie“. Anna Koester, Doktorandin der Arbeitsgruppe, ist Erstautorin einer Studie, die kürzlich in der Fachzeitschrift „Scientific Reports“ veröffentlicht wurde. Die Meeresökologin geht davon aus, dass die überraschend schnelle Erholung vor allem mit der besonderen Lage des Riffs zu tun hat: Das Forschungsteam untersuchte den Zustand der Korallen im Aldabra Atoll, einer kaum besiedelten und weit draußen im Indischen Ozean gelegenen Inselgruppe. „Dort spielen menschgemachte lokale Faktoren wie der Eintrag von Nährstoffen, die Meeresverschmutzung und die Überfischung so gut wie keine Rolle“, erläutert die Wissenschaftlerin. Das ideale Gebiet also, um herauszufinden, wie sich der Zustand geschädigter Riffe verändert, wenn sie keinen menschengemachten Stressfaktoren ausgesetzt sind.

Die Untersuchung der Wissenschaftlerinnen und Wissenschaftler zeigte: Die Riffe, die in der ausgedehnten Lagune des Aldabra Atolls liegen, erholten sich in weniger als vier Jahren von der globalen Korallenbleiche der Jahre 2015/2016. Damals waren bis zu zwei Drittel der Korallen beschädigt worden. Auch die Korallen auf der dem offenen Meer zugewandten Seite regenerierten sich schnell, wenn auch nicht ganz so rasch wie in der geschützten Lagune. „Sie sind der Strömung und den Wellen ausgesetzt, das scheint eine Rolle zu spielen“, sagt Koester. Deutlich langsamer ging es in tieferen Regionen voran: Im Gegensatz zu den Riffen im flachen Gewässer erholten sich die tiefer gelegenen Korallen nur schleppend.

Das Fazit von Koester und Wild: Wenn es gelingt, lokale Stressfaktoren wie den Eintrag von Nährstoffen entscheidend zu reduzieren, dann können sich Korallenriffe gut und schnell von einer Bleiche erholen und haben eine Chance, weiterzuleben. Trotzdem sei es essentiell, die Auslöser von Korallenbleichen, vor allem die Ozeanerwärmung, zu reduzieren. Denn nicht jedes Riff regeneriere sich gleich gut – vor allem in weniger geschützter Umgebung werde mehr Zeit benötigt. „Alle Modelle sagen voraus, dass die Frequenz von Korallenbleichen in Zukunft zunehmen wird“, betont Wild. Dann würden auch für die bis jetzt privilegierten Korallenriffe in der Lagune von Aldabra harte Zeiten anbrechen.

Wissenschaftliche Ansprechpartner:
https://www.uni-bremen.de/marine-ecology

Originalpublikation:
Koester A, Migani V, Bunbury N, Ford A, Sanchez C, Wild C (in press): Early trajectories of benthic coral reef communities following the 2015/16 coral bleaching event at remote Aldabra Atoll, Seychelles. Scientific Reports
https://doi.org/10.1038/s41598-020-74077-x

Quelle: IDW
(nach oben)


HU-Podcast: „Mose wurde viel kritisiert“

Cordula de Pous Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin

Ein Gespräch mit HU-Professorin Katharina Pyschny über Führungskonzepte im Alten Testament und ihre heutige Relevanz
Das Alte Testament kennt eine unglaubliche Bandbreite an Führungspersönlichkeiten und Führungskonzepten, sagt die Juniorprofessorin Katharina Pyschny vom Zentralinstitut für Katholische Theologie an der Humboldt-Universität zu Berlin. Das Institut feiert dieses Wintersemester seinen ersten Geburtstag. Anlass genug für Radiojournalistin Cora Knoblauch, um mit Prof. Katharina Pyschny über ihre Forschung zu sprechen.

Prof. Pyschny forscht zu Führungskonzepten im Alten Testament, wie diese literarisch legitimiert werden, wie sie sich zu realgeschichtlichen Institutionalisierungsprozessen im antiken Israel verhalten und welche Rolle sie für die heutige Zeit spielen könnten. In der neuen Podcastfolge beschreibt die Forscherin die Stärken und Schwächen im Führungsstil von Mose: „Der Schwiegervater von Mose erkennt, dass Mose total überfordert ist mit der Führungsaufgabe von morgens bis abends Recht zu sprechen“, so Pyschny.

Dabei liefere das AT ein konkretes Beispiel für Delegation – eines der vielen Dinge, die wir von Mose zum Thema Führung lernen können. Die Professorin erklärt auch, warum im Alten Testament eine Führungsperson nicht unbedingt steinalt sein musste. Dass das Ringen um Führung zum Volk Israel auf seinem Weg durch die Wüste dazugehört, ist eine weitere Einsicht aus dem Podcast, der dieses Mal vor dem Deutschen Bundestag aufgenommen wurde.

Dynamisches Konzept
Überrascht hat Prof. Pyschny die Erkenntnis, dass die alttestamentlichen Texte viele verschiedene Führungskonzepte miteinander in einen literarischen Diskurs bringen, ohne ein ideales Modell normativ vorzugeben.

Das Alte Testament sei nur eine von vielen (antiken) Quellen zum Thema Führung und man müsse bei der Überlegung nach der Anwendbarkeit auf die Gegenwart den historischen Kontext berücksichtigen, betont Pyschny. Allerdings werde schon in antiker Traditionsliteratur wie dem Alten Testament deutlich, dass „Führung ein dynamisches Konzept ist, es verändert die Führungsperson und die Personen, die geführt werden,“ so die Forscherin.

Mehr zu diesem Thema hören Sie auf der Podcast-Seite der HU: https://www.hu-berlin.de/de/podcampus

Dort finden sich auch alle bisherigen Folgen von „Humboldt Hören“ von „Licht, Atomen und Geheimdiensten“ bis „Was ist oder war der Islam?“.

Sie finden die Podcasts der Humboldt-Universität auch auf Spotify und Apple Podcasts.

Kontakt:
Hans-Christoph Keller
Pressesprecher der Humboldt-Universität zu Berlin
Tel.: 030 2093-12710
pr@hu-berlin.de

Quelle: IDW
(nach oben)


Klimaschutz lässt sich sozialverträglich gestalten

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Die Klima- und Energiepolitik war bisher oft nicht optimal, was die sozialen Folgen angeht – also etwa die Lebensqualität des Einzelnen, die Verteilung des Wohlstands und der lokale Zusammenhalt. Das liegt nicht in der Natur der Sache, sondern lässt sich vermeiden, wie jetzt eine aufwendige Metastudie unter Leitung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) belegt. Demnach gibt es inzwischen soziale Erfolgsstories für alle wichtigen Politikinstrumente, sowohl in Industrie- als auch in Entwicklungsländern. Die Studie wurde jetzt in der renommierten Fachzeitschrift Environmental Research Letters veröffentlicht.

Mit einer systematischen Methode der Suche, Auswahl und Durchsicht der gesamten Forschung zu umgesetzter Klimapolitik untersuchten die Autoren, inwieweit Regierungen mit Klimaschutz zugleich positive soziale Ergebnisse erzielt haben. „Schlecht konzipierte Klimapolitik, die soziale Probleme verschärft, ist ein Geschenk für die Kohle- und Ölindustrie“, sagt William Lamb, Forscher in der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung und Leitautor der Studie. „Dies gilt es unbedingt zu vermeiden – sonst nutzen deren Lobbyisten solche Fehlleistungen, um die Klimapolitik zurückzudrehen und die eigenen Folgekosten gering zu halten.“

Die Studie untersucht verschiedene Formen der Klimapolitik, wie etwa höhere Spritsteuern, CO2-Bepreisung im Energiesektor, Subventionen für Solarzellen, Hilfsprogramme für die Verbesserung von Energieeffizienz, Einspeisevergütungen für Grünstrom sowie Staudammbauten und andere Großprojekte. Für jedes Politikinstrument gibt es Beispiele für sozial unbedenkliche Umsetzung – etwa das „Warm Front Home Energy Efficiency Scheme“ in Großbritannien, das die Brennstoffkosten für Haushalte mit niedrigem Einkommen senkte. Aber auch von gescheiterten Projekten – etwa große Wasserkraft-Installationen in Südostasien mit schwerwiegenden Auswirkungen auf Lebensgrundlagen und Armut.

„Insgesamt ist unsere Studie Anlass zur Zuversicht“, bilanziert MCC-Forscher Lamb. „Denn wo der Kampf gegen die Erderwärmung nicht nur gut gemeint, sondern auch gut gemacht ist, lassen sich die vielzitierten Co-Benefits der Klimapolitik gut nachweisen. Wir können also ambitionierte Klima-Maßnahmen unterstützen, die auch soziale Fragen direkt angehen.“ Der Metastudie zufolge steckt die Forschung zu den umgesetzten Politik-Ansätzen allerdings noch in den Kinderschuhen. Insgesamt gibt es bislang relativ wenig relevante Literatur, der Großteil konzentriert sich auf die westlichen Industrieländer, und zudem liegt der Schwerpunkt eher auf Einzelmaßnahmen als auf der Politik insgesamt.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/lamb-william.html

Originalpublikation:
Lamb, W., Antal, M., Bohnenberger, K., Brand-Correa, L., Müller-Hansen, F., Jakob, M., Minx, J., Raiser, K., Williams, L., Sovacool, B., 2020, What are the social outcomes of climate policies? A systematic map and review of the ex-post literature, Environment Research Letters
https://iopscience.iop.org/article/10.1088/1748-9326/abc11f

Weitere Informationen:
http://www.mcc-berlin.net

Quelle: IDW
(nach oben)


Künstliche Intelligenz zum Schutz des Grundwassers

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Mit einem Modell für Vorhersagen will ein Forscherverbund aus Karlsruhe, an dem auch das Karlsruher Institut für Technologie (KIT) beteiligt ist, effizient und nachhaltig Nitrat im Grundwasser reduzieren. Dabei wird auf Künstliche Intelligenz (KI) gesetzt. So soll eine intelligente Entscheidungsunterstützung erreicht werden, bei der Rechner selbstständig lernen können – um entsprechende Maßnahmen zu ergreifen. Das Bundesumweltministerium (BMU) fördert im Rahmen der KI-Strategie Projekte, die mit Künstlicher Intelligenz ökologische Herausforderungen bewältigen (KI-Leuchttürme). Die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter hat nun den Förderbescheid überreicht.

Hohe Nitratkonzentrationen im Grundwasser und ihre Konsequenzen für Mensch und Umwelt rücken in den letzten Jahren immer stärker ins Bewusstsein der Öffentlichkeit. Werden die auf den Feldern angebauten Kulturen nicht pflanzenbedarfsgerecht gedüngt, gelangt mehr Stickstoff in den Boden, als die Pflanzen aufnehmen können. Dadurch sickert der im Wasser gelöste Stickstoff als Nitrat bis ins Grundwasser. Etwa 70 Prozent des deutschen Trinkwassers werden aus Grundwasser gewonnen. Zu hohe Nitratwerte im Trinkwasser können zu gesundheitlichen Beeinträchtigungen führen, sodass die Versorgungsunternehmen aufwändige Maßnahmen zur Nitratminderung ergreifen müssen. Die Überwachung der Wasserbeschaffenheit zeigt, dass der Zustand des Grundwassers vielerorts gefährdet ist.

Im Verbundprojekt „Nitrat-Monitoring 4.0 – Intelligente Systeme zur nachhaltigen Reduzierung von Nitrat im Grundwasser“ (NiMo 4.0) entwickeln Wissenschaftlerinnen und Wissenschaftler, unter anderem des KIT, ein intelligentes System, um mit wenigen Messstellen die räumliche und zeitliche Verteilung des Nitrats im Grundwasser besser verstehen und vorhersagen zu können. Mithilfe solcher Vorhersagen, die auf Verfahren des Maschinellen Lernens beruhen, soll eine intelligente Entscheidungsunterstützung erreicht werden, um optimale Standorte für zusätzliche Messungen zu finden und Programme zum Grundwasserschutz zielgerichtet zu gestalten. NiMo 4.0 wird im Rahmen der Initiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) als eines von bundesweit 28 Projekten mit insgesamt 2,478 Millionen Euro gefördert.

„Das BMU hat sich für die Förderung dieses Projektes entschieden, weil die Nitratproblematik für das Grundwasser in Deutschland eine ökologische Herausforderung darstellt“, erläutert die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter (BMU) die Bewilligung bei der Übergabe des Zuwendungsbescheids an die Verbundpartner. „Der Einsatz intelligenter Software kann dabei helfen, ökologische und ökonomische Interessen der Gesellschaft, der Wasserversorgungsunternehmen sowie der Landwirtschaft miteinander zu vereinbaren. Dadurch sollen wegweisende Beispiele für intelligente Umwelttechnologien entstehen, die später eine große Breitenwirkung entfalten können.“

Interdisziplinäres Konsortium entwickelt Nitrat-Monitoring 4.0
Für dieses BMU-Verbundprojekt bündelt ein interdisziplinäres Konsortium mit Partnern aus der Grundlagen- und der anwendungsorientierten Forschung, aus Technologietransfer und Wirtschaft seine Kompetenzen: die Disy Informationssysteme GmbH (Projektleitung), eine Ausgründung des FZI Forschungszentrum Informatik und der Universität Karlsruhe, dem heutigen Karlsruher Institut für Technologie (KIT), die Abteilung Hydrogeologie des Instituts für Angewandte Geowissenschaften (AGW) des KIT, das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB mit seinen Standorten Karlsruhe und Ilmenau und das DVGW-Technologiezentrum Wasser (TZW) mit seinen Standorten Karlsruhe und Dresden. Die entwickelten Lösungsansätze werden in zwei wasserwirtschaftlich bedeutenden Pilotregionen prototypisch implementiert und demonstriert: in den Einzugsgebieten des Zweckverbands Landeswasserversorgung in Baden-Württemberg und des Wasser- und Abwasser-Zweckverbands Niedergrafschaft in Niedersachsen.

Das AGW am KIT ist in Deutschland führend in der Forschung zur Anwendung Künstlicher Intelligenz für hydrogeologische Fragestellungen und verfügt über langjährige Erfahrung in der Analyse und Beurteilung von Schadstoffen im Grundwasser. Im Projekt bringt das AGW seine Expertise vor allem bei der KI-gestützten Modellierung der Nitratverteilung im Grundwasser mit neuronalen Netzen ein. Zudem übernimmt es die fachlich-wissenschaftliche Gesamtkoordination des Projekts.

Das Fraunhofer IOSB unterstützt die KI-gestützte Datenauswertung im Projekt insbesondere mit einem Vorgehensmodell zum systematischen Einsatz von Maschinellen Lernverfahren sowie einem Vorhersagemodell für die Nitratgehalte im Grundwasser, um Auffälligkeiten in Messwerten frühzeitig zu entdecken. Außerdem hat das IOSB einen Arbeitsschwerpunkt bei der Gestaltung einer intelligenten Sensordateninfrastruktur. Hier soll speziell der vom IOSB mitgestaltete, leichtgewichtige Standard SensorThings API des Open Geospatial Consortium (OGC) eingesetzt und weiterentwickelt werden, der sowohl die Anbindung neuer Sensoren als auch die Integration bestehender Datenbanken erleichtert.

Das TZW verbindet Forschung und Praxis in Form von Expertisen, Studien und Prüfungsleistungen für die gesamte Wasserbranche. Ein Schwerpunkt der Aktivitäten liegt auf der wissenschaftlichen Beratung von Wasserversorgungsunternehmen. Hierbei spielen das Ressourcenmanagement und das Problemfeld „Grundwasserschutz und Landwirtschaft“ eine zentrale Rolle. Am TZW liegen umfassende Praxiserfahrungen mit Grundwassermonitoring, mit der Analyse von großen Datenmengen und Datenbeständen zur Nitratbelastung in den deutschen Rohwasserressourcen vor. Über ein Online-Portal, das das TZW in Zusammenarbeit mit Disy aufgebaut hat, können Wasserversorger Daten zur Grund- und Rohwasserbeschaffenheit für regionale und überregionale Auswertungen bereitstellen. Im Projekt NiMo 4.0 bearbeitet das TZW die Themen Optimierung von Grundwassermessnetzen und Werkzeuge zur Überwachung der Grundwasserbeschaffenheit im täglichen Betrieb.

Die Disy Informationssysteme GmbH, die das Verbundprojekt koordiniert, führt die verschiedenen wissenschaftlich-technischen Lösungsbeiträge in prototypischen Softwarelösungen zur intelligenten Datenanalyse und zu benutzerfreundlichen Entscheidungsunterstützungssystemen zusammen. Entwicklungsschwerpunkte sind hier effiziente Datenvisualisierungen und effektive Benutzerschnittstellen für Endanwender sowie moderne Dateninfrastrukturen, die sich in die existierende Softwarelandschaft der Anwender gut einbetten lassen. „Wir freuen uns sehr auf dieses anspruchsvolle Projekt zu einem Thema mit großer ökologischer Bedeutung“, ist Disy-Geschäftsführer Claus Hofmann stolz auf das Gewinnen dieser Förderung in einem stark umkämpften Ideenwettbewerb. „NiMo 4.0 wird auch Disy dabei helfen, modernste Methoden der Data Science und der Künstlichen Intelligenz für den Umweltschutz einzusetzen und weiterzuentwickeln.“

Weitere Informationen: https://nimo-projekt.de/

Weitere Pressekontakte:
KIT: Johannes Wagner, Pressereferent, Tel.: +49 721 608-41175,
E-Mail: johannes.wagner@kit.edu
Disy: Dr. Wassilios Kazakos, Leiter Marketing, Business Development, Tel.: +49 721 1 6006-000,
E-Mail: presse@disy.net
Fraunhofer IOSB: Ulrich Pontes, Presse und Kommunikation, Tel.: +49 721 6091-301
E-Mail: ulrich.pontes@iosb.fraunhofer.de
TZW: Dagmar Uhl, Öffentlichkeitsarbeit, Tel: +49 721 9678-233,
E-Mail: dagmar.uhl@tzw.de

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und
Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwor-tungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissen-schaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Anhang:
Künstliche Intelligenz zum Schutz des Grundwassers

Quelle: IDW
(nach oben)


Kurzsichtigkeit: Kinderaugen brauchen mehr Sonnenlicht

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Stiftung Kindergesundheit informiert über die Zunahme von Sehproblemen und über Möglichkeiten der Vorbeugung Das Tragen einer Brille gehört zum Alltag vieler Kinder in Deutschland. Die Mehrzahl von ihnen benötigt die Sehhilfe wegen einer Kurzsichtigkeit, berichtet die Stiftung Kindergesundheit in einer aktuellen Stellungnahme. Bis zum Ende der Grundschulzeit werden in Deutschland heute rund 15 Prozent aller Kinder kurzsichtig. Der Anteil der Kurzsichtigen steigt bis zum Alter von 25 Jahren auf rund 45 Prozent. Während die Kurzsichtigkeit in vielen Regionen Ostasiens in den letzten Jahren stark zugenommen hat, ist die Rate in Deutschland nach Erhebungen augenärztlicher Fachgesellschaften in den letzten 15 Jahren unter den Jugendlichen zumindest vorerst konstant geblieben.

Dabei gibt es jedoch einen klaren Trend: Je länger ein Kind eine Schule besucht, desto größer ist die Wahrscheinlichkeit, kurzsichtig zu werden. Damit nicht genug: Je höher der Abschluss der Ausbildung in Schule, Studium und Beruf, desto kurzsichtiger werden die Menschen.

„Bei der Geburt sind Kinderaugen in der Regel weitsichtig“, berichtet Kinder- und Jugendarzt Professor Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit. „Das ändert sich dann im Laufe des Größenwachstums des Augapfels. Dieses Wachstum endet bei der sogenannten Normalsichtigkeit um das sechste bis neunte Lebensjahr. Wächst das Auge aber weiter in die Länge, kommt es zur Kurzsichtigkeit, fachlich Myopie genannt“.

Wenn das Kind oft die Augen zukneift
Ist der Augapfel zu lang, schneiden sich die Strahlen, die aus der Ferne kommen, dann nicht auf, sondern schon vor der Netzhaut und werden als verschwommenes Bild ins Gehirn weiter gemeldet. Kurzsichtige Kinder versuchen deshalb, die unscharfen Bilder, die ihre Augen ihnen liefern, mit einem einfachen Kunstgriff zu verbessern: Sie kneifen die Augen zum besseren Sehen zu.

Der Grund: Durch die zugekniffenen Lider verkleinert sich die Pupille und die Trennschärfe steigt an, etwa so wie beim Fotografieren die Tiefenschärfe durch Verkleinerung der Blende erhöht wird. Dieser typischen Angewohnheit verdankt die Kurzsichtigkeit übrigens ihren medizinischen Namen: Das dabei entstehende Blinzelgesicht nannten die alten Griechen Myops, daher der Fachterminus Myopie.

Probleme beim Lesen und Rechnen
Eine Kurzsichtigkeit fällt meistens erst dann auf, wenn ein Kind Gegenstände oder Personen in der Ferne immer später als andere erkennt. Es schreibt zum Beispiel falsch von der Wandtafel ab, verwechselt Zahlen oder Buchstaben, reibt sich oft die Augen und klagt über Kopfschmerzen. Professor Berthold Koletzko: „Man sollte sich hüten, ein Kind als unaufmerksam, unterdurchschnittlich begabt oder dumm anzusehen, bevor seine Sehfähigkeit genau untersucht worden ist“.

Kurzsichtigkeit liegt oft in der Familie: Sind die Eltern selbst kurzsichtig, besteht auch für das Kind das Risiko, kurzsichtig zu werden. Ist nur ein Elternteil kurzsichtig, liegt dieses Risiko bei etwa 30 Prozent, bei zwei kurzsichtigen Eltern bei 60 Prozent. Allerdings können auch normalsichtige Eltern stark kurzsichtige Kinder bekommen.

Wichtiger jedoch als die genetische Veranlagung erweisen sich Umwelteinflüsse wie Bildung, Beruf und Freizeitgestaltung auf die Entwicklung von Kurzsichtigkeit, betont die Stiftung Kindergesundheit. Es ist mittlerweile unstrittig, dass Sehgewohnheiten einen Einfluss auf das Wachstum des Auges ausüben können. Menschen, die im Kindesalter und als junge Heranwachsende über Jahre hinweg viel lesen, haben ein größeres Risiko, kurzsichtig zu werden. Dabei spielen sowohl die Lesedauer, als auch der Leseabstand und die Beleuchtung beim Lesen eine Rolle. Als ungünstig gelten das ununterbrochene Lesen über 30 Minuten hinweg und das „Lesen mit der Nase“ mit einem Abstand der Augen vom Text unter 30 Zentimeter.

Täglich hinaus ins Freie!
Eine besondere Rolle bei der Entstehung und Fortschreiten der Kurzsichtigkeit spielt das Tageslicht, hebt die Stiftung Kindergesundheit hervor. Eine Reihe von Untersuchungen belegt, dass Kinder umso seltener kurzsichtig werden, je mehr sie im Freien spielen. Beim längeren Aufenthalt an der frischen Luft schaut das Auge meist in die Ferne und nicht auf Objekte in der Nähe.

Eine Metaanalyse bisheriger Studien ergab, dass schon zwei Stunden tägliche Aktivitäten bei Tageslicht das Auftreten der Kurzsichtigkeit halbieren. 40 Minuten zusätzlicher Aufenthalt im Freien minderten die Zunahme der Kurzsichtigkeit um etwa 20 Prozent.

Dabei spielt weniger die Intensität der Sonnenstrahlung eine Rolle als die Dauer des Aufenthalts unter freiem Himmel, betonen augenärztliche Experten. Schon relativ geringe Intensitäten des Lichts um 1000 Lux und darüber, die etwa der Umgebungshelligkeit unter Bäumen entsprechen, zeigen einen Effekt. Auch der Anteil der ultravioletten Strahlen scheint keine besondere Bedeutung zu haben.

Nach 30 Minuten Lesen 10 Minuten Pause
Aufgrund dieser Erkenntnisse haben die Erziehungsbehörden des chinesischen Inselstaates Taiwan bereits vor zehn Jahren besondere Regeln für Schulkinder eingeführt. Eine der dortigen Richtlinien lautet „Tien Tien 120“ und empfiehlt jeden Tag zwei Stunden Aufenthalt im Freien. Die zweite sogenannte „30-10-Regel“ besagt, dass das Lesen alle 30 Minuten für zehn Minuten unterbrochen werden sollte. Das Befolgen dieser zwei einfachen Regeln konnte die Häufigkeit der Kurzsichtigkeit bei taiwanesischen Kindern tatsächlich nachweislich verringern.

Für eine weitere Studie in Taiwan wurden 693 Erstklässler rekrutiert. 267 von ihnen sollten sich ein Jahr lang mindestens elf Stunden pro Woche im Freien aufhalten. Die restlichen Kinder behielten ihre Lebensgewohnheiten bei. Das Ergebnis nach einem Jahr: Die Kinder der Frischluft-Gruppe benötigten schwächere Brillen als die Kinder der Kontrollgruppe und hatten ein um 54 Prozent niedrigeres Risiko für eine rasch fortschreitende Kurzsichtigkeit.

Der Einfluss von Lichtmangel auf die Entstehung von Kurzsichtigkeit wurde auch bei Kindern westlicher Länder eindeutig belegt. So zeigte eine US-amerikanische Studie, dass jede Stunde Aufenthalt pro Woche bei Tageslicht das Risiko um circa zehn Prozent senkt. Eine australische Studie mit über 1.300 Teilnehmern ergab dagegen, dass sich die Wahrscheinlichkeit für Kurzsichtigkeit verdoppelt, wenn man weniger als 30 Minuten täglich dem Tageslicht ausgesetzt ist.

„Heilen“ lässt sich eine Kurzsichtigkeit nicht, betont die Stiftung Kindergesundheit: Ist der Augapfel zu lang, schrumpft er nicht wieder. Ist Kurzsichtigkeit einmal vorhanden, bleibt sie bestehen und nimmt sogar bis ins Erwachsenenalter zu. Kurzsichtigkeit lässt sich aber mit Brillen oder Kontaktlinsen gut korrigieren und kann in einem gewissen Umfang auch eingedämmt werden.

Genaue Diagnose durch den Augenarzt
Entdeckt der Kinder- und Jugendarzt bei einer der Vorsorge-Untersuchungen Hinweise auf Augenfehler oder Sehstörungen, wird er das Kind zur genauen Abklärung der Diagnose zum Augenarzt schicken. Dieser leitet die notwendige Behandlung ein. Zum Ausgleich der Kurzsichtigkeit bekommt das Kind eine Brille mit Zerstreuungslinsen (Konkav- oder Minusgläsern) verordnet. Diese Gläser sind in der Mitte dünner als am Rand und bewirken, dass sich die Lichtstrahlen erst weiter hinten auf der Netzhautebene vereinigen.

Kinder und Jugendliche haben bis zum 18. Lebensjahr Anspruch auf eine Brille auf Kosten der gesetzlichen Krankenkassen. Voraussetzung ist die Verordnung durch einen Augenarzt. Ab dem 14 Lebensjahr besteht ein erneuter Anspruch nur dann, wenn sich die Sehstärke um mehr als 0,5 Dioptrien verändert. Kindern stehen Kunststoffgläser zu, wenn sie im Vorschulalter sind oder jünger als 14 Jahre sind und die Sehfähigkeit um mehr als plus oder minus fünf Dioptrien beeinträchtigt ist. Wenn die Kunststoffgläser notwendig sind, um am Schulsport teilnehmen zu können, kommt die gesetzliche Krankenversicherung ebenfalls für die Kosten auf.

Eltern sollten das Kind stets zum Tragen der Brille ermuntern, empfiehlt die Stiftung Kindergesundheit: Es kann mit der Brille erwiesenermaßen konzentrierter Arbeiten und ermüdet weniger schnell, wenn es gut sieht.

Eine Kinderbrille sollte leicht, klein und lustig sein
Weil Kinder ihre Brille ständig tragen sollten, kommt es besonders auf den bequemen und korrekten Sitz an. Die Brille darf also nicht rutschen, damit sie exakt zentriert bleibt. Je kleiner die Fassung ist, desto weniger schränkt die Brille die Bewegungsfreiheit ein. Eine Kinderbrille sollte nicht breiter sein als das Gesicht. Besonders wichtig: Die Glasmitte gehört vor die Pupillenmitte.

Bei der Auswahl der Brille für ihr Kind sollten sich die Eltern nicht von den Modevorstellungen von Erwachsenen leiten lassen, empfiehlt die Stiftung Kindergesundheit. „Die Brille muss dem Kind gefallen, damit sie auch gern getragen wird“, sagt Professor Berthold Koletzko. Kinderbrillen müssen stabil sein, gut sitzen und nicht rutschen. Die richtige Kinderbrille hat Kunststoffgläser, sitzt richtig fest vor den Augen auf der Nase und ist leicht, klein und lustig.

Quelle: IDW

(nach oben)


Im Meer schneit es Plastik

Jan Steffen Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Jedes Jahr landen rund vier Prozent des an Land anfallenden Plastikmülls im Meer. Während die Wege der größeren Plastikstücke bereits gut nachvollzogen werden können, gibt das Schicksal des Mikroplastiks im Meer der Wissenschaft noch Rätsel auf. Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel konnten jetzt erstmals in einer Studie modellieren, wie und wo biologische Prozesse Mikroplastik von der Oberfläche in tiefere Schichten des Wassers transportieren. Diese Prozesse könnten für den Großteil des Mikroplastiktransports verantwortlich sein, so die Studie, die jetzt in der internationalen Fachzeitschrift Scientific Reports erschienen ist.

Die Verschmutzung unserer Meere durch Plastikmüll ist ein Problem, das mittlerweile viel Beachtung erhält. Um es lösen zu können, ist es wichtig, genau nachzuverfolgen, wie viel Plastik sich in den Ozeanen befindet und wie es sich bewegt. Doch bei Untersuchungen dazu fiel Wissenschaftlerinnen und Wissenschaftlern auf, dass ein Teil des Plastiks zu verschwinden schien: Die Menge an Kunststoff, die tatsächlich an der Meeresoberfläche gefunden wurde, war deutlich geringer als erwartet. Das gilt vor allem für Mikroplastik. Es hat maximal einen Durchmesser von fünf Millimetern, manchmal sind es aber auch nur einige Mikrometer. Es gelangt entweder durch direkten Eintrag ins Meer, zum Beispiel über den Wind, Flüsse oder Schiffe, oder es entsteht, wenn größere Plastikteile im Wasser durch Umwelteinflüsse zerfallen.

Während sich an der Meeresoberfläche weniger Mikroplastik als erwartet findet, konnte es schon in der Arktis und im Marianengraben, dem tiefsten bekannten Punkt der Erde, nachgewiesen werden. Es bleibt allerdings die Frage, wie es dort hingelangt. Forscherinnen und Forscher vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel haben versucht, diese Frage zu beantworten. Dafür haben sie erstmals modelliert, wie biologische Prozesse, Mikroplastik in die Tiefe tragen, zum Beispiel über den sogenannten Meeresschnee. Die Forschungsgruppe simulierte dafür die Bewegungen von Mikroplastik in den Ozeanen innerhalb eines Erdsystemmodells. Die Ergebnisse wurden jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht.

Es gibt verschiedenen Wege, wie Mikroplastik in die tieferen Schichten des Ozeans gelangen kann. Der wohl offensichtlichste Grund ist der Auftrieb: Hat das Plastik keinen Auftrieb, sinkt es zum Meeresboden. Die Wissenschaftlerinnen und Wissenschaftler fanden nun aber heraus, dass eine große Menge des Mikroplastiks auch aufgrund biologischer Prozesse von der Oberfläche nach unten befördert wird.

Dafür verantwortlich ist vor allem das Plankton, das nah an der Oberfläche lebt. Seine Ausscheidungen, abgestorbene Zellen oder ganze Organismen und anderes organisches Material verbinden sich mit dem Mikroplastik und sinken wie Schneeflocken langsam in die Tiefe. Dort dienen sie Bakterien als Futter. So wird das Plastik von seinem Transportmittel befreit und treibt entweder in der Tiefe weiter oder steigt wieder zur Oberfläche auf. „Auf den ersten Blick scheint dieser Transportweg also ziemlich ineffektiv zu sein. Unsere Studie zeigt, dass von zwei, in manchen Regionen sogar von drei auf diesem Weg gebundenen Plastikteilen nur eines in wirklich die Tiefe sinkt, der Rest verbleibt an der Oberfläche“, sagt Dr. Karin Kvale vom GEOMAR, Hauptautorin der Studie. Der Prozess ist jedoch so weit verbreitet, dass er genug Plastik aus den oberen Schichten des Wassers entfernt, um das fehlende Plastik dort zu erklären. „Der sogenannte ‚Marine Schnee‘ hat so also einen großen Einfluss auf die globale Mikroplastikverteilung“, erklärt die Modelliererin weiter.

Genaue Modellierungen der biologischen Prozesse mit Mikroplastik in einem Erdsystemmodell bieten außerdem die Möglichkeit, Prognosen darüber zu treffen, wie sich diese Zusammenhänge in Zukunft ändern könnten, wenn der Klimawandel Ozeanzirkulation und Ökosysteme beeinflusst. Dr. Kvale betont: „Zu verstehen, wie Plastik sich durch unsere Ozeane bewegt, ist grundlegend wichtig, um mit der zunehmenden Verschmutzung der Meere umzugehen und die Auswirkungen von Mikroplastik auf marine Ökosysteme auf einer globalen Ebene zu begreifen.“

Originalpublikation:
Kvale K, AEF Prowe, C-T Chien, A Landolfi, A Oschlies (2020): The global biological microplastic particle sink. Scientific Reports. DOI: https://doi.org/10.1038/s41598-020-72898-4

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Quelle: IDW

(nach oben)


HHL zeigt Meinungsbild zu umstrittener 50+1-Regel im Fußball

Eva Echterhoff Media Relations
HHL Leipzig Graduate School of Management

Die 50+1-Regel ist eine der umstrittensten Regelungen im deutschen Fußball. Professor Dr. Henning Zülch von der Handelshochschule Leipzig (HHL) sieht sie als einen Grundpfeiler der Erfolgsgeschichte des deutschen Fußballs und seiner Fankultur. In einem Arbeitspapier zeichnet die HHL ein Bild der öffentlichen Meinung zu dem deutschen Sonderweg 50+1.

Prof. Dr. Henning Zülch (HHL):
„In der öffentlichen Meinung zeigt sich, dass es ein klares Votum für den Erhalt der 50+1-Regel in Deutschland gibt. Indes muss die Regelung ihre Gestalt wechseln. Sie muss modifiziert werden, um der Realität und den finanziellen Bedürfnissen der Klubs gerecht zu werden.“

Basierend auf diesem Meinungsbild und vor dem Hintergrund der aktuellen Entwicklungen werden Handlungsempfehlungen erarbeitet.

Prof. Dr. Henning Zülch (HHL):
„Ich sehe die aktuellen Entwicklungen im europäischen Fußball in diesem Zusammen-hang als besorgniserregend an. Wer die hohen Ablösesummen nicht zahlen kann, wird langfristig nicht wettbewerbsfähig sein. So wird der Ruf nach einer Öffnung der Bundesli-ga für strategische Investoren immer lauter werden – auch oder gerade während der Corona-Krise.“

Die 50+1-Regel
Sie besagt (vereinfacht), dass ein strategischer Investor die Mehrheit der Kapitalanteile an einem Fußballklub erlangen kann, aber nie die Stimmrechtsmehrheit. Die Mehrheit der Stimmrechte – und damit die Kontrolle – liegt ausschließlich in den Händen der Mitglieder des Vereins selbst. Primäres Ziel ist es, durch die Regel, die sportlichen Interessen der Vereine und ihrer Mitglieder zu stärken gegenüber dem Wirtschafts-Interesse der Investoren. Gerade mit Blick auf den Umgang mit seiner wichtigsten Stakeholdergruppe, den Fans, ist diese Regel einzigartig, da sie das Fanwohl als eines der höchsten Güter behandelt, die die Marke Bundesliga besitzt.

Fragen an Professor Dr. Henning Zülch (HHL)
1. Warum muss sich die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel verfolgt das Ziel, dass ein Investor zwar die Mehrheit der Kapi-talanteile an einer Fußball-Kapitalgesellschaft erlangen kann, indes nicht die Stimmrechtsmehrheit und damit die Kontrolle über den Klub. Diese soll weiterhin in den Händen des e.V. liegen und damit bei den Mitgliedern. Indes gibt es zahlreiche Ausnahmen von der 50+1-Regel, welche die Regel als solche immer unglaubwürdiger mit Blick auf die o.g. Zielsetzung machen. So wird z.T. von der „Lex Wolfsburg“ und „Lex Leverkusen“ gesprochen. RB Leipzig und dessen Gründung sowie Namensgebung werden in diesem Zusammenhang auch stets angeführt (vgl. Abschnitt II.3.).

2. Wie sollte die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel sollte in ihrer Idee beibehalten aber modifiziert werden. Die Kinderkrankheiten, also die etablierten Ausnahmeregelungen, müssen abgeschafft werden. Konkret ergeben sich vier Handlungsfelder bzw. Ansatzpunkte zur Veränderung. Das sind: die Verringerung der Mindestförderdauer von 20 Jahren, die Verringerung der Sperr-Anteile, eine striktere Anlegerkontrolle und die Stärkung der Mitgliedermitbestimmung (vgl. hierzu Abschnitt IV.).

3. Was fürchten die Fans bei unbeschränkter Macht eines Investors?
HZ: Die Fans fürchten bei Kontrollausübung eines Investors, dass er nicht im Einklang mit den Idealen und Werten des Klubs die Geschicke lenkt. Der deutsche Fußball lebt von seiner Fankultur und der Stadionatmosphäre wie kein anderes Land. Diese Kultur ist gewachsen, kultiviert und imagebildend durch ihre Fans. Einem Investor wird zunächst abgesprochen, dass er diese Kultur bewahren will. Vielmehr wird er als Bedrohung angesehen, so dass Kontrollausübung durch einen Investor um jeden Preis zu vermeiden sei. Indes wird sich der Erfolg eines Klubs künftig nicht ohne strategische Investoren einstellen; sie sind eine Grundvoraussetzung und müssen mit den Grundwerten und der Strategie des Klubs im Einklang stehen. Hierfür gilt es, Akzeptanz durch Dialog zu schaffen. Die 50+1-Regel bzw. ihre modifizierte Fassung kann als Kompromiss zwischen Fanwohlmaximierung und wirtschaftlicher Professionalisierung angesehen werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henning Zülch, Lehrstuhl für Rechnungswesen, Wirtschaftsprüfung und Controlling

Originalpublikation:
Das Arbeitspapier erhalten Sie als Download unter
https://www.hhl.de/app/uploads/2020/06/hhlap0186.pdf

Weitere Informationen:
http://www.hhl.de
https://www.hhl.de/de/fakultaet-forschung/prof-dr-henning-zuelch/

Quelle: IDW

(nach oben)


Recycling von Klärschlamm

Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal

Das Bundesforschungsministerium fördert das innovative Verbundprojekt „KlimaPhoNds“, das maßgeblich vom Clausthaler Umwelttechnik Forschungszentrum (CUTEC) der TU Clausthal umgesetzt wird, mit 4,6 Millionen Euro. Beginn des Forschungsvorhabens ist in diesem Oktober.

Klärschlamm ist ein wertvoller Energie- und Rohstoffträger. Im Sinne einer nachhaltigen Kreislaufwirtschaft muss es das Ziel sein, sämtliche Ressourcen aus dem Klärschlamm zu nutzen. Hierzu gehört nicht nur Phosphor, sondern zum Beispiel auch Stickstoff, Metalle und Mineralstoffe, aber auch die im Klärschlamm gebundene Energie. Das Projekt „KlimaPhoNds“ zielt auf eine vollständige energetische und rohstoffliche Klärschlammverwertung und der Realisierung von Stoffkreisläufen für Magnesium, Stickstoff und insbesondere Phosphor.

„Wir werden dazu mehrere Innovationen im großtechnischen Maßstab umsetzen, um die Klimaneutralität und Ressourceneffizienz des entwickelten Konzeptes nachzuweisen“, sagt Professor Michael Sievers. Der Leiter der Abteilung Abwasserverfahrenstechnik im Forschungszentrum CUTEC der TU Clausthal wird das Projekt koordinieren, das am 1. Oktober beginnt und auf fünf Jahre ausgelegt ist. Auch die CUTEC-Abteilungen Thermische Prozesstechnik sowie Ressourcentechnik und -systeme bringen sich in das Vorhaben ein. An der TU Clausthal passt das Vorhaben ideal zum neuen Leitthema Circular Economy – nachhaltige Kreislaufwirtschaft. Industriepartner sind die Parforce Engineering & Consulting GmbH, Lukson AG und Knoke-Industrie-Montage GmbH.

Im Hinblick auf eine zukunftsweisende Industriegesellschaft wird das neue klimafreundliche, rohstoffeffiziente Konzept am Beispiel der Kläranlage Northeim – auch die Stadt Northeim ist Projektpartner – entwickelt und umgesetzt. „Die Klimafreundlichkeit beruht auf einer innovativen, nahezu wärmeneutralen Trocknung von Klärschlamm und dessen energetischer Verwertung“, so Professor Sievers. Zur verbesserten Ressourceneffizienz tragen die stoffliche, reststofffreie Nutzung des getrockneten Klärschlamms sowie mehrere Materialkreisläufe für Phosphor, Stickstoff und Magnesium bei. Voraussetzung für das Konzept ist eine vermehrte biologische Phosphorelimination bei der Abwasserbehandlung.

Das als Magnesium-Ammonium-Phosphat anfallende Fällungsprodukt wird zentral mit einer thermischen Behandlung (Kalzinierung) und Zugabe von Säure nahezu reststofffrei in die drei Wertstoffe Ammoniakwasser, Magnesiumchlorid und Phosphorsäure veredelt. Phosphorsäure soll in hochwertiger Qualität der chemischen Industrie insbesondere für die Düngemittelherstellung zur Verfügung gestellt werden. Das beim Parforce-Verfahren anfallende Nebenprodukt Magnesiumchlorid geht zur Kläranlage Northeim zurück und wird anhand von Vergleichsversuchen mit kommerziellen Produkten bewertet. Das Ammoniakwasser wird auf dessen Nutzung zur Düngemittelherstellung oder zur Entstickung von Verbrennungsabgasen untersucht.

Die Produktion phosphatarmen Klärschlamms ermöglicht eine flexible energetische und auch stoffliche Verwertung, die meist mit niedrigeren Kosten verbunden ist. Dank dem erstmaligen Einsatz einer sogenannten Wirbelschichtverdampfungstrocknung, das heißt einer Klärschlammtrocknung bei Überdruck und unter reiner Wasserdampfatmosphäre, erfolgt eine besonders effiziente Wärmerückgewinnung und eine nahezu wärmebilanzneutrale Volltrocknung. Um trotz des Zusatzaufwandes für die Ressourcenschonung eine Emissionsminderung des gesamten CO2 zu erreichen, kann der getrocknete Klärschlamm als Brenn- und Zuschlagstoff in der Zementindustrie verwertet oder als Zusatzbrennstoff in Kraftwerken genutzt werden.

Gefördert wird das Projekt durch die Maßnahme „RePhoR – Regionales Phosphor Recycling“ vom Bundesministerium für Bildung und Forschung. Die Maßnahme ist Teil des Programms „Forschung für Nachhaltige Entwicklung“ (FONA).

Wissenschaftliche Ansprechpartner:

Prof. Dr.-Ing. Michael Sievers
Clausthaler Umwelttechnik Forschungszentrum der TU Clausthal
Abteilung Abwasserverfahrenstechnik
E-Mail: michael.sievers@cutec.de

Weitere Informationen:
https://www.klimaphonds.de/

Quelle: IDW

(nach oben)


Wie spät ist es auf der biologischen Uhr?

Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena

Interdisziplinäres Forschungsteam der Friedrich-Schiller-Universität Jena, des Leibniz-Instituts für Alternsforschung – Fritz-Lipmann-Institut – und des Universitätsklinikums Jena wird mit 4,5 Millionen Euro von der Carl-Zeiss-Stiftung gefördert

„Man ist so alt wie man sich fühlt.“ Wie diese häufig gebrauchte Redensart deutlich macht, bestimmt nicht allein die Spanne der bisher verstrichenen Lebenszeit das Alter eines Menschen. Vielmehr hängt das biologische Alter von zahlreichen Faktoren ab und unterliegt dabei – so wie es die Redensart sagt – auch psychologischen Einflüssen. Daher kann es durchaus sein, dass sich Alternsgenossen im körperlichen und geistigen Altersempfinden unterscheiden: Nicht gar so selten wirkt ein jung gebliebener Geist positiv auf die körperliche Fitness und umgekehrt.

Wie sich das biologische Alter definiert und exakt bestimmen lässt und welche Faktoren die komplexen Alternsprozesse von Menschen beeinflussen, das herauszufinden ist das Ziel des neuen Forschungsprojekts IMPULS der Friedrich-Schiller-Universität Jena. Das Projektteam wird bei seinem Forschungsvorhaben in den kommenden fünf Jahren von der Carl-Zeiss-Stiftung im Rahmen des Förderprogramms „Durchbrüche“ mit rund 4,5 Mio. Euro unterstützt. Das gab die Stiftung heute (8. Oktober) bekannt.

Ganzheitlicher Blick auf den Alternsprozess
IMPULS steht für „Identifizierung und Manipulation der physiologischen und psychologischen Uhren der Lebensspanne“. In ihrem Projekt wollen die Forschenden also nicht nur herausfinden, wie „spät“ es auf der biologischen Uhr eines Menschen aktuell ist. „Wir wollen auch wissen, ob und wie sich durch Manipulation der biologischen Uhr das Altern insgesamt verzögern lässt“, erläutert Christoph Englert, Sprecher des Verbundprojekts. Der Professor für Molekulare Genetik der Universität Jena und Forschungsgruppenleiter am Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI) – sagt, dass Alternsprozesse durch individuelle Faktoren moduliert werden, wie Ernährung, Lebensstil und persönliche Altersbilder. „Wir wollen durch die Verknüpfung von Physiologie und Psychologie einen neuen Blickwinkel auf das Altern entwickeln.“

Konkret wollen die Projektpartner in Studien am Menschen aber auch an verschiedenen Modellorganismen neue Kriterien auf molekularer und neurobiologischer Ebene für die Altersbestimmung ermitteln. Zudem sollen die Auswirkungen physiologischer Faktoren auf das Altern untersucht werden, beispielsweise der Einfluss von Sport auf die Gehirnalterung oder von Ernährung auf alternsbedingte Entzündungen. Ob sich psychologischer Stress oder das persönliche Alternserleben auf die biologische Uhr auswirken, wollen die Forschenden u. a. mit Hirnstrukturmessungen aufklären. Und nicht zuletzt sind ethische Implikationen der möglichen Ergebnisse Teil des Forschungsprojekts: Was bedeutet es, wenn sich Lebenserwartung und alternsbedingte Krankheiten künftig präziser vorhersagen lassen? Wie verändert sich der gesellschaftliche Blick aufs Alter, wenn wir es zukünftig auch biologisch und nicht rein chronologisch definieren können?

Zum Projektteam gehören neben Alternsforschern auch Expertinnen und Experten aus Biochemie und Epigenetik, Medizin, Neuro- und Ernährungswissenschaft, Pharmazie, Epidemiologie, Bioinformatik, Biostatistik, Psychologie und Sozialwissenschaften.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Englert
Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI)
Beutenbergstraße 11, 07745 Jena
Tel.: 03641 656042
E-Mail: christoph.englert@leibniz-fli.de

Quelle: IDW

(nach oben)


Exzellentes Bremer Wasser für piekfeine Bremer Getränke

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Normalerweise werden in der Abteilung für Rohstoff und Umweltforschung der Jacobs University Bremen kritische Hochtechnologie-Metalle in Gesteinen, Lagerstätten und verschiedensten Umweltproben untersucht. Diese Grundlagenforschung ermöglicht es nun der Getränkemittelindustrie, die Qualität des verwendeten Wassers in Bezug auf Spuren von Arzneimittelrückständen und anderen Schadstoffen zu beurteilen.

Im Rahmen einer Kooperation mit der Bremer Brennerei „Piekfeine Brände“, einem Hersteller von Spirituosen wie Edelbränden, Gin und Whisky, wurde das Wasser, das in den verschiedenen Produktionsschritten verwendet wird und das letztlich im fertigen Produkt steckt, auf seine Gehalte an Seltenen Erden hin untersucht. Das Wasser, so das Ergebnis, ist von allerbester Qualität.

„Gibt es im verwendeten Wasser Rückstände von Arzneimitteln, Körperpflegeprodukten oder Zuckerersatzstoffen, die über Kläranlagen in die Umwelt gelangt sind, dann enthält dieses Wasser immer auch Spuren des Hochtechnologie-Metalls Gadolinium, das als Kontrastmittel bei MRT-Untersuchungen verwendet wird,“ erklärt Michael Bau, Professor für Geowissenschaften an der Jacobs University, der mit seiner Arbeitsgruppe diese Methode entwickelt hat. Ungewöhnlich hohe Konzentrationen von Gadolinium im Vergleich zu den anderen Seltenen Erden sind ein Beleg für die Anwesenheit sogenannter „abwasserbürtiger“ Stoffe. Dies sind Substanzen, die in den Klärwerken nicht aus dem Abwasser entfernt werden können und selbst im gereinigten Abwasser noch vorhanden sind. Neben Gadolinium-Kontrastmitteln sind dies auch Arzneimittelrückstände, illegale Drogen und chemische Verbindungen, die in Körperpflegeprodukten und Nahrungsmitteln verwendet werden.

„Nachdem wir die sehr empfindliche Methode an Cola-Getränken aus Schnellrestaurants erfolgreich erprobt hatten, ergab sich durch die Kooperation mit den Bremer `Piekfeinen Bränden` nun die Gelegenheit, diese neue High-Tech Methode auch in einem anderen Bereich der Nahrungsmittelindustrie anzuwenden“, sagt Dr. Dennis Krämer, Postdoktorand im Bereich der Geowissenschaften an der Jacobs University.

„Wir freuen uns natürlich sehr über die erstklassige Qualität unseres Bremer Wassers und danken Professor Bau und seinem Team der Jacobs University für die intensive Arbeit und aufschlussreichen Ergebnisse“, führt die Gründerin und Inhaberin der Brennerei Piekfeine Brände, Birgitta Schulze van Loon, weiter aus.

Und Michael Bau ergänzt: „Dass die Qualität des Bremer Wassers hinsichtlich Mikroverunreinigungen deutlich besser ist, als die des Wassers in anderen deutschen Städten und Regionen wie zum Beispiel Berlin, München oder Düsseldorf, zeigt, dass die Bremer sauberes Leitungswasser bekommen, das sie bedenkenlos trinken können. Es bestätigt auch, dass Bremen ein exzellenter Produktionsstandort für die Nahrungs- und Getränkemittelindustrie ist. Und dass ein Hersteller seine Produkte freiwillig auf chemische Fremdstoffe hin untersuchen lässt, ist natürlich ein schönes Beispiel für proaktiven Verbraucherschutz.“

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1.500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Facebook | Youtube | Twitter | Instagram | Weibo

Wissenschaftliche Ansprechpartner:
Fragen beantwortet:
Prof. Dr. Michael Bau
Professor of Geosciences
Email: m.bau@jacobs-university.de

Anhang
Erläuterungen
https://idw-online.de/de/attachment80952

Quelle: IDW

(nach oben)


TU Berlin: Intervallfasten auch im Alter wirksam

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Kurzzeitfasten führt auch bei älteren Menschen zu einer bedeutsamen Abnahme von Körpergewicht und Bauchumfang
Ob Esspausen von mindestens 16 Stunden täglich, das sogenannte „Intervallfasten“, wirklich zu einer Gewichtabnahme führen, wollten Studierende des TU-Gasthörerstudiums BANA wissen – und führten eine wissenschaftliche Pilot-Studie unter Real-Life-Bedingungen durch. Resultat: Die Hälfte der 74 Teilnehmer*innen hatte nach vier Wochen bis zu sechs Kilo abgenommen. Die Ergebnisse wurden nun in der Fachzeitschrift Ernährung & Medizin veröffentlicht. Außerdem wurden die BANA-Forschenden eingeladen, ein Poster auf der Jahrestagung der Deutschen Adipositas-Gesellschaft e. V. vom 8. – 10. Oktober in Leipzig zu präsentieren.

Intervallfasten werden heute verschiedene Fastenvarianten genannt, vom stundenweisen Fasten innerhalb eines Tages bis zum tageweisen Fasten innerhalb einer Woche. Allen ist eine mittlerweile nachgewiesene gesundheitsfördernde Wirkung gemeinsam, von der Gewichtsabnahme über eine Stoffwechsel-Umstellung bis hin zur sogenannten Autophagie, einem intrazellulären Selbstreinigungsprozess, für dessen umfassende Beschreibung der Japaner Yoshinori Ohsumi 2016 mit dem Medizin-Nobelpreis ausgezeichnet wurde.

Ohne Aufwand und ohne Kosten abnehmen bietet langfristigen Erfolg
„Bei jungen Erwachsenen ist derzeit die 16:8-Methode sehr populär“, erklärt Dr. Franz-Werner Dippel, einer der Autoren der Studie. „Wir wollten prüfen, ob sich das Intervallfasten auch für ältere Menschen eignet, was bisher nicht untersucht ist.“ Ganz wichtig war dem Team ein pragmatischer Ansatz für die Durchführung des Fastens, denn, so Dippel, ausschlaggebend für den langfristigen Erfolg einer Ernährungs- beziehungsweise Fastenintervention sei die möglichst niedrigschwellige Einbindungsmöglichkeit des Fastenmaßnahme in den Alltag. „Sie sollte keine Kosten verursachen, keinen besonderen Aufwand darstellen oder invasive Maßnahmen beinhalten und sich gut in den Tagesablauf integrieren lassen. Auch haben wir auf die Erfassung von Energiegehalt und Zusammensetzung der Nahrung sowie auf die Dokumentation des Bewegungsverhaltens verzichtet.“ Erfasst wurden während der Studie auch Parameter wie Blutdruck, Puls oder Urinzusammensetzung.

Fastenzeiten von mehr als 14 Stunden an 97 Prozent aller Studientage
Insgesamt 74 Probanden mit einem Durchschnittsalter von 64,3 Jahren, sowohl normal- als auch übergewichtige Personen, nahmen an der Studie teil. Die Fastentagebücher zeigten: An 97 Prozent aller Studientage wurden Fastenzeiten von mehr als 14 Stunden oder mehr erreicht. Die Gewichtsdifferenzen lagen schließlich zwischen minus sechs bis plus ein Kilogramm. Eine Gewichtsreduktion von ein bis zwei Kilogramm monatlich gilt gemäß den Leitlinien der Deutschen Adipositas-Gesellschaft als gesundheitlich unbedenklich und ist auch aus medizinischer Sicht von Bedeutung. „Das Studienergebnis erfüllt damit die allgemeinen Anforderungen an eine erfolgreiche Ernährungsintervention und kann deshalb als guter Abnehmerfolg für die untersuchte Altersgruppe gewertet werden“, freut sich Franz-Werner Dippel, der selbst promovierter Medizinbiologe ist und in der Industrie und der klinischen Forschung tätig war. Er und das achtköpfige Autorenteam der Ernährungsstudie hatte sich im letzten der vier regulären BANA-Semester mit dem Thema „Entzündungen“ beschäftigt und den Einfluss verschiedener Faktoren auf Entzündungsprozesse untersucht, wie zum Beispiel Schlaf, Stress, Bewegung, Ernährung und Fasten.

BANA-Studium an der TU Berlin – lebenslanges Lernen und bürgerschaftliches Engagement
Die Autor*innen der Studie sind Studierende des Gasthörerstudiums BANA an der TU Berlin (Berliner Modell: Ausbildung für nachberufliche Aktivitäten). Es handelt sich um ein viersemestriges Weiterbildungsangebot für Menschen ab 45 Jahren, das einen unmittelbaren Zugang zu neuesten wissenschaftlichen Erkenntnissen ermöglicht. BANA ist nicht nur ein Angebot für lebenslanges Lernen, sondern fördert auch mit seinen Projekten bürgerschaftliches Engagement und bietet die drei Schwerpunkte „Stadt“, „Umwelt“ sowie „Gesundheit und Ernährung“. Angesiedelt ist es in der Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation der TU Berlin (ZEWK) und wird geleitet von Dr. Gabriele Schaepers-Feese.

Die Veröffentlichung in Ernährung & Medizin (Thieme-Verlag) ist zu finden unter:
https://doi.org/10.1055/a-1115-9709

Das informative Poster auf der Website der Deutschen Adipositas-Gesellschaft e. V.:
https://dag-kongress.de/poster/

Weitere Informationen erteilen Ihnen gern:
Dr. Franz-Werner Dippel
Sprecher des Autorenteams zur BANA-Studie „Intervallfasten“
E-Mail: franz-werner.dippel@t-online.de
Tel.: 0172 6501845

Dr. Gabriele Schaepers-Feese
Technische Universität Berlin
Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation (ZEWK)
Wissenschaftliche Leitung BANA
E-Mail: g.schaepers-feese@tu-berlin.de
Tel.: 030 314-22034

Quelle: IDW

(nach oben)


BMAS fördert interdisziplinäres Wissenschaftsteam

Martina Diehl Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Resilienzforschung gGmbH

Forscherteam untersucht finanzielle Schocks durch Corona für private Haushalte
Neben starken Einschnitten im gesellschaftlichen und wirtschaftlichen Leben birgt die Corona-Pandemie für viele Menschen auch finanzielle Schwierigkeiten. Das gilt vor allem für einkommensschwache Bevölkerungsgruppen oder für Personen, die durch ihre Berufswahl ökonomisch besonders von der Pandemie betroffen sind. Wie die Menschen in Deutschland mit finanziellen Schocks durch die Corona-Pandemie umgehen, untersucht nun ein interdisziplinäres Forscherteam der Universität Mannheim, des ZEW Mannheim und des Leibniz-Instituts für Resilienzforschung Mainz. Die Projektpartner vereinen dabei die Perspektiven der Wirtschaftspädagogik (Prof. Dr. Carmela Aprea, Universität Mannheim), der Haushaltsökonomie (Prof. Dr. Tabea Bucher-Koenen, ZEW Mannheim) sowie der psychologischen Resilienzforschung (Prof. Dr. Klaus Lieb und Dr. Donya Gilan, Leibniz-Institut für Resilienzforschung Mainz).

„Uns interessiert besonders, wie Menschen Entscheidungen unter hoher Unsicherheit und Komplexität treffen, nachdem sie von einem finanziellen Schock erfasst wurden. Denn daraus lässt sich ableiten, mit welchen sozial- und bildungspolitischen Maßnahmen sich die betroffenen Haushalte effektiv und nachhaltig unterstützen lassen“, erklärt Prof. Dr. Carmela Aprea, Universität Mannheim.

„Zu den allgemeinen psychischen und gesellschaftlichen Folgen der Corona-Pandemie wird bereits geforscht. Doch gibt es bisher nur sehr wenige Forschungsdaten zu den finanziellen Herausforderungen und deren mittel- bis langfristigen Folgen für Haushalte und Gesamtwirtschaft“, sagt Prof. Dr. Tabea Bucher-Koenen, Leiterin des Forschungsbereichs „Internationale Finanzmärkte und Finanzmanagement“ am ZEW Mannheim und Professorin an der Universität Mannheim.

„Für uns besteht eine zentrale Aufgabe darin, individuelle und strukturelle Handlungsempfehlungen zu entwickeln, um Bürgerinnen und Bürger in solchen Situationen gezielt stärken und unterstützen zu können“, erklärt Prof. Dr. Klaus Lieb, wissenschaftlicher Geschäftsführer des Leibniz-Instituts für Resilienzforschung. „Denn die Betroffenen sind einem erhöhten Armutsrisiko ausgesetzt, das sie an den Rand der Gesellschaft drängen kann.“ Und Dr. Donya Gilan, Leibniz-Instituts für Resilienzforschung Mainz, ergänzt: „Psychische Gesundheit ist stark von der psychosozialen Lage eines Menschen abhängig. Gerade finanzielle Nöte treiben Menschen in psychische Erkrankungen wie beispielsweise Angsterkrankungen, Depressionen oder auch Suchterkrankungen, weil oft psychische Bewältigungsstrategien im Umgang mit solchen Sorgen fehlen. Dauerstress ist dann vorprogrammiert und soziale Stigmata die Folge“.

Finanziert wird das Forschungsvorhaben aus Mitteln des Bundesministeriums für Arbeit und Soziales (BMAS) in einem Projektzeitraum von 1. September 2020 bis 31. August 2021. Das Ministerium hat es als eines von zwölf Projekten mit Corona-Fokus in das Fördernetzwerk Interdisziplinäre Sozialpolitikforschung (FIS) aufgenommen. Ausgewählt wurden die Vorhaben hinsichtlich ihrer Eignung, auf wissenschaftlicher Basis die Grundlage zur Bewältigung der Corona-Pandemie zu schaffen.

Kontakt
Univ.-Prof. Dr. Klaus Lieb
Leibniz-Institut für Resilienzforschung (LIR) gGmbH

Tel.: +49 6131 8944824
E-Mail: klaus.lieb@lir-mainz.de

Martina Diehl
Kommunikation & Presse
Leibniz-Institut für Resilienzforschung (LIR) gGmbH

Tel.: +49 6131 89448-06
E-Mail: martina.diehl@lir-mainz.de
https://www.lir-mainz.de

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Klaus Lieb, Leibniz-Institut für Resilienzforschung

Quelle: IDW

(nach oben)


Übertragung von COVID-19: Aerosole deutlich infektiöser alsTränenflüssigkeit oder Bindehaut

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft

SARS-CoV-2 ist hochgradig infektiös und wird hauptsächlich durch das Einatmen von Tröpfchen oder Aerosolen übertragen. Können sich Menschen aber auch über die Augen mit dem Virus infizieren? Einige Berichte weisen darauf hin, dass eine Ansteckung über die Schleimhäute, einschließlich der Bindehaut, möglich sei. Auf der heutigen Kongress-Pressekonferenz zum Kongress der DOG Deutsche Ophthalmologische Gesellschaft (DOG) diskutierten Experten, ob die Bindehaut oder der Tränenfilm Eintritts- oder Austrittspforten für das Virus sein können. Der DOG Kongress findet bis 11. Oktober 2020 online statt.

Können sich Menschen auch über die Bindehaut oder Tränenflüssigkeit mit SARS-CoV-2 infizieren? Und inwiefern könnten mit dem Coronavirus infizierte Patienten andere Menschen über ihre Tränen anstecken? „Derartige Übertragungswege würden erhebliche Auswirkungen auf die öffentliche Gesundheit haben und weitere Schutzmaßnahmen notwendig machen“, sagt Professor Dr. Dr. med. Clemens Lange, Klinik für Augenheilkunde am Universitätsklinikum Freiburg. Es gebe vereinzelt Studien, die auf eine solche Übertragungskette hinweisen.

So hatten in Untersuchungen etwa sieben Prozent der COVID-19-Patienten subjektive Augenbeschwerden. Bei etwa einem Prozent wurden Zeichen einer Bindehautentzündung (Konjunktivitis) beobachtet. „Einige Studien postulieren, dass das Virus in diesen Fällen das Auge als Eintrittspforte genutzt habe“, so Lange. Auch wird der Tränenfilm als ein möglicher Überträger diskutiert. „Reibt man sich beispielsweise die Augen mit COVID-19-kontaminierten Händen, wäre eine Übertragung auf die Nasenschleimhaut oder die Atemwege denkbar“, so Lange. Umgekehrt könnten infizierte Patienten das Virus über ihre Tränenflüssigkeit auf gesunde Menschen übertragen.

„Betrachtet man abschließend die derzeitige Studienlage, weist jedoch nichts darauf hin, dass wir die Augen als bedeutsame Eintritts- oder Austrittspforte des Virus betrachten müssen“, stellt Lange fest. Ein Zusammenhang zwischen der in Studien beobachteten Bindehautentzündung bei der COVID-19-Erkrankung kann bislang nicht eindeutig ermittelt werden. „Es könnte sich auch um ein SARS-CoV-2 unabhängiges Phänomen handeln, das zum Beispiel im Zuge einer intensivmedizinischen Behandlung oder der generalisierten Entzündungsreaktion im Körper von COVID19 Patienten auftritt“, erklärt Lange. Darüber hinaus sei noch nicht eindeutig geklärt, ob die Zellen der Augenoberfläche, wie zum Beispiel die der Bindehaut, den SARS-CoV-2-Rezeptor ACE2 in klinisch relevantem Maße exprimieren und damit für eine Infektion anfällig sind. Eine aktuelle Untersuchung an der Universitäts-Augenklinik Freiburg sowie histologische Untersuchungen anderer Kliniken haben weder eine wesentliche Expression von ACE2 in der Bindehaut noch einen Zusammenhang zwischen einer COVID-19-Infektion und einer Bindehautentzündung nachweisen können.

Auch sei der Übertragungsweg über die Tränenflüssigkeit eher unwahrscheinlich. „Der regelmäßige Lidschlag des Auges sowie die geringe Augenoberfläche dürften verhindern, dass ausreichend Viren ins Auge gelangen können“, so Lange. Und dazu, ob Infizierte über ihre Tränen gesunde Menschen anstecken könnten, gibt es auch keine eindeutigen Hinweise: „Bei Patienten mit COVID-19-Erkrankung enthält der Tränenfilm nur sehr selten Virus-RNA“, erklärt Lange. Eine Ansteckung über die Tränenflüssigkeit sei daher auch erst einmal auszuschließen.

„Obwohl wir derzeit eher keine Infektion über das Auge befürchten müssen, sind weitere Untersuchungen notwendig, um Aufschluss über die tatsächliche Infektiosität und mögliche Orte der Virusvermehrung zu erhalten“, betont Professor Dr. med. Hans Hoerauf, Präsident der DOG und Direktor der Augenklinik der Universitätsmedizin Göttingen. Es sei Klinikpersonal trotz des offenbar geringen Risikos dringend anzuraten, bei einer intensivmedizinischen Versorgung von an COVID-19 Erkrankten mit einer In- oder Extubation die Augen durch eine Brille vor einer Übertragung des Coronavirus zu schützen.

„Alles in allem betrachtet, dürfte bei augenärztlichen Untersuchungen von Aerosolen aus den Atemwegen ein deutlich höheres Infektionsrisiko mit COVID-19 ausgehen als von Tränenfilm und Augenoberfläche der Patienten“, resümiert DOG-Experte Lange.

Quelle: IDW

(nach oben)


Die globale Nahrungsmittelproduktion stellt eine zunehmende Bedrohung für das Weltklima dar

Ansa Heyl Presse- und Öffentlichkeitsarbeit
International Institute for Applied Systems Analysis (IIASA)

Laut den Autoren einer neuen Studie, die in der Fachzeitschrift „Nature“ veröffentlicht wurde, gefährden die steigenden Lachgasemissionen die Erreichung der Klimaziele und der Ziele des Pariser Abkommens.

Der weltweit zunehmende Einsatz von Stickstoffdüngemitteln bei der Nahrungsmittelproduktion erhöht die Konzentration von Lachgas in der Atmosphäre – eines Treibhausgases, das 300-mal wirksamer ist als Kohlendioxid und länger als ein Menschenleben in der Atmosphäre verbleibt.

Die Studie, die von einem internationalen Konsortium von 57 Wissenschaftlern aus 14 Ländern und 48 Forschungseinrichtungen durchgeführt wurde, wobei dem IIASA eine Schlüsselrolle zukam, wurde von der Auburn University (Alabama, USA) im Rahmen des Global Carbon Project und der International Nitrogen Initiative koordiniert. Ziel der Forscher war es, die bisher umfassendste Bewertung aller Quellen und Senken des potenten Treibhausgases Distickstoffmonoxid (Lachgas) zu erstellen.

Die Ergebnisse weisen auf einen alarmierenden Trend hin, der sich auf den Klimawandel auswirkt: Distickstoffmonoxid ist gegenüber dem vorindustriellen Niveau um 20% angestiegen, und sein Wachstum hat sich in den letzten Jahrzehnten aufgrund von Emissionen aus verschiedenen menschlichen Aktivitäten beschleunigt.

„Die dominierende Triebkraft für den Anstieg des atmosphärischen Lachgas kommt aus der Landwirtschaft, und die wachsende Nachfrage nach Nahrungs- und Futtermitteln für Tiere wird die globalen Lachgasemissionen weiter erhöhen“, erklärt der Erstautor der Studie, Hanqin Tian, Direktor des International Center for Climate and Global Change Research an der School of Forestry and Wildlife Sciences der Auburn University und Andrew Carnegie Fellow. „Es besteht ein Konflikt zwischen der Art und Weise, wie wir die Menschen ernähren, und unserem Ziel, das Klima zu stabilisieren“.

Die Studie stellte auch fest, dass die größten Beiträge zu den globalen Lachgasemissionen aus Ostasien, Südasien, Afrika und Südamerika stammen. Emissionen infolge der Verwendung von Kunstdünger dominieren die Freisetzungen in China, Indien und den USA, während Emissionen aus der Ausbringung von Viehdung für die Freisetzungen in Afrika und Südamerika verantwortlich sind, so die Studie. Die höchsten Wachstumsraten bei den Emissionen finden sich in den Schwellenländern, insbesondere in Brasilien, China und Indien, wo die Pflanzenproduktion und der Viehbestand zugenommen haben. Das überraschendste Ergebnis der Studie war jedoch, dass die derzeitigen Trends bei den Lachgasemissionen nicht mit den Klimazielen des Pariser Abkommens vereinbar sind.

„Die gegenwärtigen Emissionen entsprechen einem globalen Temperaturanstieg über 3°C, das ist das Doppelte des Temperaturziels des Pariser Abkommens“, erklärt Robert Jackson, Professor und Koautor an der Stanford University und Vorsitzender des Global Carbon Project.

Laut dem Koautor der Studie, Wilfried Winiwarter, Senior Research Scholar im IIASA Air Quality and Greenhouse Gases Program und ehemaliger Direktor des europäischen Zentrums der International Nitrogen Initiative, gibt es jedoch Möglichkeiten, diese Emissionen zu verringern.

„Europa ist die einzige Region in der Welt, die in den letzten zwei Jahrzehnten die Lachgasemissionen erfolgreich reduziert hat“, erklärt Winiwarter. „Strategien zur Reduzierung von Treibhausgasen und Luftverschmutzung in Industrie- und Landwirtschaft und zur Optimierung der Effizienz des Düngemitteleinsatzes haben sich als wirksam erwiesen. Dennoch werden weitere Anstrengungen erforderlich sein, sowohl in Europa als auch weltweit“.

„Diese Studie zeigt, dass wir jetzt ein umfassendes Verständnis des Lachgashaushalts einschließlich der Klimaauswirkungen haben“, fügt die Studienleiterin Rona Thompson, eine leitende Wissenschaftlerin des norwegischen Instituts für Luftforschung, hinzu. „Wir sind in der Lage, Maßnahmen zur Reduzierung der Lachgasemissionen zu bewerten und zu quantifizieren, und viele dieser Maßnahmen werden auch die Wasser- und Luftqualität verbessern, was sowohl der menschlichen Gesundheit als auch den Ökosystemen zugutekommt.“

Der Co-Leiter der Studie, Josep „Pep“ Canadell, leitender Wissenschaftler im Climate Science Center der in Australien ansässigen Commonwealth Scientific and Industrial Research Organisation und geschäftsführender Direktor des Global Carbon Project, stimmt zu, dass die Forschung bedeutend und dringend ist.

„Diese neue Analyse fordert ein umfassendes Überdenken der Art und Weise, wie wir Stickstoffdünger weltweit verwenden und verschwenden, und drängt uns zu nachhaltigeren Praktiken in der Art und Weise, wie wir Lebensmittel produzieren, einschließlich der Reduzierung von Lebensmittelabfällen“, stellt er fest. „Diese Ergebnisse unterstreichen die Dringlichkeit und zeigen die Möglichkeiten, globale Lachgasemissionen zu verringern, um die schlimmsten Klimaauswirkungen zu vermeiden“.

Referenz
Tian H, Xu R, Canadell JG, Thompson RL, Winiwarter W, Suntharalingam P, Davidson EA, Ciais P, et al. (2020). A comprehensive quantification of global nitrous oxide sources and sinks. Nature DOI: 10.1038/s41586-020-2780-0

IIASA Kontakte:
Mitautor
Wilfried Winiwarter
IIASA Air Quality and Greenhouse Gases Program
Tel: +43 2236 807 479
winiwart@iiasa.ac.at

Presseabteilung
Ansa Heyl
IIASA Press Office
Tel: +43 2236 807 574
Mob: +43 676 83 807 574
heyl@iiasa.ac.at

Quelle: IDW

(nach oben)


KI – Wegbereiter der Zukunft?

Susanne Just Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg

Künstliche Intelligenz in der Medizin: Mit diesem Thema beschäftigt sich eine öffentliche Veranstaltung des Uniklinikums Würzburg und der Akademie Domschule Würzburg. Sie findet statt am Freitag, 16. Oktober 2020. Interessenten können wahlweise persönlich oder online teilnehmen.

Das Thema „Künstliche Intelligenz“ ist omnipräsent: Hoffnungsträger für eine sicherere Medizin und gleichzeitig mit einer tiefen Verunsicherung in der Gesellschaft verbunden. Diese resultiert nicht selten aus mangelnden Informationsangeboten über die Chancen und Risiken der neuen Informationstechnologie.

Hier setzt die Veranstaltung an: Gemeinsam mit der Akademie Domschule Würzburg richtet das Uniklinikum Würzburg den Blick auf die Möglichkeiten, die Künstliche Intelligenz für die Versorgung von Patienten bereithält: zum einen aus medizinischer Sicht, zum anderen aus ethischer. Welchen Stellenwert wird die Künstliche Intelligenz künftig im medizinischen Alltag einnehmen und wie kann sie verantwortungsvoll im Sinne von Patienten und Ärzten eingesetzt werden?

Eingeladen sind Alle, die sich für die Medizin der Zukunft interessieren. Vorkenntnisse sind nicht erforderlich.
Aufgrund der aktuellen Bedingungen findet das Format als Hybrid-Veranstaltung statt: Interessenten können persönlich teilnehmen (bis zu 27 Personen) oder online.

Referentinnen und Referenten sind:
Prof. Dr. Prof. h.c. Andreas Dengel (Deutsches Forschungszentrum für Künstliche Intelligenz)
Prof. Dr. Elisabeth Gräb-Schmidt (Eberhard Karls Universität Tübingen, Mitglied im Deutschen Ethikrat)
Dr. Markus Krebs (UKW, Comprehensive Cancer Center Mainfranken)
Prof. Dr. Thorsten Bley (UKW, Institut für Diagnostische und Interventionelle Radiologie)
Prof. Dr. Laura Schreiber (UKW, Deutsches Zentrum für Herzinsuffizienz)
Dr. Martin Reich (UKW, Neurologische Klinik und Poliklinik).

Grußworte sprechen die Bayerische Ministerin für Digitales Jutta Gerlach, der Ärztliche Direktor des UKW Prof. Dr. Georg Ertl sowie Oberbürgermeister Christian Schuchardt.

Nach den Impulsvorträgen findet eine Podiumsdiskussion statt, an der sich die Teilnehmer persönlich oder online über einen Chat beteiligen können.

Termin: Freitag, 16. Oktober 2020, 17:00 bis 20:00 Uhr, Deutsches Zentrum für Herzinsuffizienz (DZHI) am UKW

Anmeldung: für eine Teilnahme (persönlich oder online) bei der Akademie Domschule Würzburg
Telefon 0931 386-43 111
info@domschule-wuerzburg.de
www.domschule-wuerzburg.de

Anmeldeschluss: 15.10.2020, 12 Uhr
Nach Eingang der Anmeldung erhalten Online-Teilnehmer einen Zugangslink zur Veranstaltung. Für Rückfragen
bietet das Uniklinikum eine offene Telefonsprechstunde am Donnerstag, 15.10.2020, von 15-17 Uhr unter der Rufnummer: 0931 201-56159 an.

Anhang
Flyer zur Veranstaltung „KI in der Medizin“
https://idw-online.de/de/attachment80944

Quelle: IDW

(nach oben)


Arrokoth: Abflachen eines Schneemanns

Dr. Birgit Krummheuer Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Sonnensystemforschung

Erst im Laufe von einigen Millionen Jahren hat Arrokoth, auch bekannt unter dem Spitznamen Ultima Thule, seine bizarre, pfannkuchenflache Form erhalten.

Das transneptunische Objekt Arrokoth, auch genannt Ultima Thule, an dem die NASA-Raumsonde New Horizons am Neujahrstag 2019 vorbeiflog, könnte seine Form in den ersten 100 Millionen Jahren seit seiner Entstehung stark verändert haben. In der heutigen Ausgabe der Fachzeitschrift Nature Astronomy schlagen Wissenschaftlerinnen und Wissenschaftler unter Leitung der Chinesischen Akademie der Wissenschaften und des Max-Planck-Instituts für Sonnensystemforschung (MPS) in Göttingen vor, dass Arrokoths aktuelle Gestalt, die an einen zerquetschten Schneemann erinnert, erst nach und nach durch das Verdunsten leichtflüchtiger Gase entstanden ist. Ihre Rechnungen könnten helfen zu verstehen, was der aktuelle Zustand von Körpern vom äußeren Rand des Sonnensystems über ihre ursprünglichen Eigenschaften aussagt.

Die vielen Millionen Brocken, die den Kuipergürtel jenseits der Umlaufbahn des Neptuns bevölkern, haben bisher noch nicht viele ihrer Geheimnisse preisgegeben. In den 80er Jahren durchquerten zwar die Raumsonden Pioneer 1 und 2 sowie Voyager 1 und 2 diese Region – allerdings ohne Kameras an Bord. Erst die NASA-Raumsonde New Horizons sendete Bilder vom äußersten Rand des Sonnensystems zur Erde: im Sommer 2015 vom Zwergplaneten Pluto und dreieinhalb Jahre später vom etwa 30 Kilometer großen transneptunischen Objekt Arrokoth. Noch nicht offiziell benannt, trug der Körper damals den Spitznamen Ultima Thule in Anlehnung an den gleichnamigen nördlichsten Landpunkt der Erde. Schließlich ist der transneptunische Brocken der am weitesten von der Sonne entfernte Körper, der je von einer Raumsonde besucht und abgelichtet wurde.

Besonderes Aufsehen erregte in den Tagen nach dem Vorbeiflug die sonderbare Gestalt von Arrokoth. Der Körper besteht aus zwei miteinander verbundenen Teilen – wahrscheinlich als Ergebnis eines langsamen Zusammenstoßes -, von denen der kleinere leicht, der größere stark abgeflacht ist. So entsteht der Eindruck eines zerquetschten Schneemanns. In ihrer aktuellen Veröffentlichung gehen die Forscherinnen und Forscher aus China, Deutschland und den USA der Frage nach, wie es zu dieser Form kommen konnte. Eine auffällige Zweiteilung ist zwar auch von einigen Kometen bekannt. Für die pfannkuchenartige Abflachung von Arrokoth hingegen gibt es bisher kein weiteres Beispiel. Sah Arrokoth bereits von Anfang an so aus? Oder hat sich seine Form erst nach und nach entwickelt?

„Wir stellen uns den Kuipergürtel gerne als Region vor, in der die Zeit seit der Geburt des Sonnensystems weitestgehend stillgestanden hat“, erklärt Dr. Ladislav Rezac vom MPS, einer der beiden Erstautoren der aktuellen Veröffentlichung. Mehr als vier Milliarden Kilometer von der Sonne entfernt, haben die Bewohner des Kuipergürtels seitdem sozusagen tiefgekühlt und unverändert überdauert, so die gängige Auffassung. Die Aufnahmen von Arrokoth stellen diese Vorstellung auf eine harte Probe – sowohl wegen seiner offenbar glatten Oberfläche ohne Hinweise auf viele Einschlagskrater, als auch wegen seiner sonderbar flachen Form. Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass das Sonnensystem vor 4,6 Milliarden Jahren aus einer Scheibe aus Staub entstand: Die Teilchen ballten sich zu immer größeren Klumpen zusammen; diese stießen zusammen und verschmolzen zu noch größeren Körpern. „Es gibt bisher keine Erklärung, wie aus diesem Prozess ein solch flacher Körper wie Arrokoth hervorgehen könnte“, so Rezac.

Eine andere Möglichkeit wäre, dass Arrokoth in seiner Geburtsstunde eine gewöhnlichere Gestalt hatte: ein zusammengesetztes Gebilde aus einem kugelförmigen und einem leicht abgeflachten Körper. Frühere Studien deuten darauf hin, dass in der Region, in der sich Arrrokoth befindet, während der Entstehung des Sonnensystems flüchtige Stoffe wie Kohlenmonoxid und Methan auf Staubkörnern gefroren und diese dann größere Brocken bildeten. Nach der Entstehung Arrokoths, als sich der Staub gelichtet hatte, ermöglichte die Sonneneinstrahlung höhere Temperaturen; die gefrorenen, flüchtigen Stoffe sublimierten rasch von den entstandenen Brocken.

„Damit ein Körper seine Form so extrem verändern kann wie Arrokoth, muss seine Rotationsachse in einer besonderen Weise ausgerichtet sein“, erklärt Rezac. Im Gegensatz zur Rotationsachse der Erde liegt die von Arrokoth fast parallel zur Bahnebene. Während des 298 Jahre dauernden Umlaufs ist so jeweils eine Polarregion des Körpers fast die Hälfte der Zeit ununterbrochen der Sonne zugewandt, während die andere der Sonne abgewandt ist. Die Regionen am Äquator und in den unteren Breitengraden hingegen sind das ganze Jahr über von tageszeitlichen Schwankungen geprägt.

„Dadurch heizen sich die Pole am stärksten auf, so dass gefrorene Gase von dort am effizientesten entweichen. Das führt zu einem starken Massenverlust“, sagt Dr. Yuhui Zhao vom Purple Mountain Observatorium der Chinesischen Akademie der Wissenschaften. Der Abflachungsprozess begann höchstwahrscheinlich schon früh in Arrokoths Evolutionsgeschichte und verlief vergleichsweise rasch auf einer Zeitskala von etwa einer bis 100 Millionen Jahren. Danach dürfte sich der Vorrat an sehr leichtflüchtigen Stoffen in den oberflächennahen Schichten erschöpft haben. Darüber hinaus wiesen die Wissenschaftlerinnen und Wissenschaftler nach, dass die in dieser Phase induzierten Drehmomente die Rotationseigenschaften von Arrokoth nicht wesentlich verändert haben dürften.

Wie viele weitere ‚abgeflachte Schneemänner‘ sich im Kuipergürtel befinden, ist unklar. „Das hängt in erster Linie davon ab, ob die Rotationsachse eines Körpers ähnlich geneigt ist wie die von Arrokoth, und von der Menge leichtflüchtiger Stoffe in der Nähe der Oberfläche“, so Rezac. Es ist anzunehmen, dass selbst Objekte wie Arrokoth beträchtliche Mengen an superflüchtigen Stoffen enthielten. Beispielsweise enthält Pluto aufgrund seiner Größe und stärkeren Schwerkraft auch heute noch Kohlenmonoxid, Stickstoff und Methan. Bei kleineren Körpern wären diese flüchtigen Stoffe längst ins All entwichen.

Wissenschaftliche Ansprechpartner:
Dr. Ladislav Rezac
Max-Planck-Institut für Sonnensystemforschung
E-Mail: Rezac@mps.mpg.de

Originalpublikation:
Y. Zhao, L. Rezac et al.:
Sublimation as an effective mechanism for flattened lobes of (486958) Arrokoth,
Nature Astronomy, 5. Oktober 2020

Quelle: IDW

(nach oben)


Hochschulmedizin Dresden erhält 7,5 Millionen Euro für COVID-19 Forschung

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

BMBF fördert Konzeptentwicklung von Uniklinikum und Medizinischer Fakultät der TU Dresden zu optimalem Pandemie-Management der stationären Patientenversorgung. Mit dem Ziel, in möglichst kurzer Zeit Erkenntnisse über die Formen und Ursachen von COVID-19 ebenso verfügbar zu machen, wie erfolgversprechende Therapien und sowohl flächendeckende als auch effiziente Versorgungsstrukturen, fördert das Bundesforschungsministerium 13 Verbundprojekte des „Nationalen Forschungsnetzwerks der Universitätsmedizin zu Covid-19″. Eines der geförderten Projekte heißt „EViPan Unimed“, das der Hochschulmedizin Dresden angesiedelt ist und gemeinsam mit der Universitätsmedizin Frankfurt bearbeitet wird.

Das Projekt beschäftigt sich wissenschaftlich damit, ein praxisnahes, auf regionale Gegebenheiten zugeschnittenes Management der stationären Versorgung von Patienten auch in einer Pandemie zu entwickeln, zu testen und zu implementieren. Das Universitätsklinikum Carl Gustav Carus Dresden hat dazu bereits im Frühjahr 2020 sein wissenschaftliches wie praktisches Know-how bei diesem Thema unter Beweis gestellt. Leuchtturmprojekte waren die im Auftrag des Freistaats Sachsen eingerichtete „Zentrale Krankenhaus-Leitstelle Corona Dresden/Ostsachsen“ und das „Dresdner Informations- und Prognosetool für Erkrankungsverlauf und Bettenauslastung in Sachsen (DISPENSE)“.

Die Abkürzung EViPan Unimed steht für „Entwicklung, Testung und Implementierung von regional adaptiven Versorgungsstrukturen und Prozessen für ein evidenzgeleitetes Pandemiemanagement koordiniert durch die Universitätsmedizin“. Unter der wissenschaftlichen Leitung des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV) – einer gemeinsamen Einrichtung des Dresdner Uniklinikums und der Medizinischen Fakultät der TU Dresden -, sowie der Universitätsmedizin Frankfurt arbeiten in dem Forschungsverbund zu diesem Thema 26 weitere Universitätsklinika und externe Institutionen zusammen. In dem Projekt sichten die Wissenschaftler die Erfahrungen aus regionalen, nationalen und internationalen Pandemiemanagementkonzepten und führen es zu einem prototypischen Modell zusammen.

„Mit der am Uniklinikum konzipierten und betriebenen Krankenhaus-Leitstelle haben wir in den damals schwierigsten Wochen der Pandemie unter Beweis gestellt, dass es mit neuen, intelligent gestalteten Strukturen durchaus möglich ist, die vorhandenen Kapazitäten von 33 regionalen Klinken optimal zu steuern und so einen Kollaps des Systems zu verhindern“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. Die Leitstelle hat in den vergangenen Monaten gezeigt, wie sich die Verteilung der Patienten bedarfsorientiert und in Abhängigkeit des Schweregrades der Erkrankungen zentral zu managen ist. Auch der Aspekt einer heimatnahen Unterbringung ließ sich dabei berücksichtigen. „Auf diese Weise ist es während der Pandemie gelungen, die Überlastungen einzelner Kliniken zu vermeiden und deren Kapazitäten bedarfsgerecht anzupassen. Dieses erfolgreiche Vorgehen ist einer der Gründe, warum die Hochschulmedizin Dresden mit ihrem Projektantrag erfolgreich war. Ein weiterer Erfolgsfaktor ist, dass die Hochschulmedizin Dresden mit dem ZEGV bereits seit gut zehn Jahren über eine Forschungsinstitution verfügt, die evidenzbasierte Konzepte der Gesundheitsversorgung auf hohem wissenschaftlichen Niveau entwickeln und evaluieren kann“, fährt Prof. Albrecht fort.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Jochen Schmitt
Direktor des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV)
Tel. 0351/ 4 58 64 95
E-Mail: jochen.schmitt@uniklinikum-dresden.de
www.uniklinikum-dresden.de/zegv

Weitere Informationen:
https://www.uniklinikum-dresden.de/de/das-klinikum/jahresberichte/corona-jahresb…
https://www.uniklinikum-dresden.de/de/das-klinikum/universitaetscentren/zegv/new…
https://www.bmbf.de/de/karliczek-netzwerk-universitaetsmedizin-startet-vertiefte…

Quelle: IDW

(nach oben)


Energieumwandlung – Sonne tanken und im Dunkeln schwimmen

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Mikroschwimmer nennt man kleine Partikel, die sich aktiv schwimmend fortbewegen. Dazu brauchen sie einen Treibstoff wie Licht. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat ein Aufladeprinzip entwickelt, mit dem sie nun auch im Dunkeln vorankommen. Das macht sie für die Medizin interessant.

Der Begriff Mikroschwimmer umfasst alle aktiv schwimmenden, wenige Mikrometer großen Teilchen von Spermien über Bakterien bis hin zu künstlichen Partikeln. Entsprechend vielfältig sind ihre Antriebsarten und Energiequellen. Ein prominentes Beispiel sind Partikel aus Halbleitermaterialien. Sie bewegen sich dank chemischer Reaktionen mit ihrer Umgebung, gewinnen ihre Energie dabei durch die Absorption von Licht. Im Dunkeln war daher bislang Schluss mit der Fortbewegung. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat die Partikel jetzt mit einer raffinierten Ladefunktion ausgestattet, die sie auch ohne Licht weiterschwimmen lässt.

Diese Fähigkeit macht sie für den Wirkstofftransport interessant. Hier bringen kleinste Partikel Wirkstoffe gezielt an ihren Einsatzort wie Gewebe im menschlichen Körper. Die neuen Mikroschwimmer bringen dafür beste Voraussetzungen mit. Sie bewegen sich dank des internen Ladespeichers bis zu 30 Minuten ohne zusätzliche externe Energiequelle. Zusätzlich können die aus weitgehend biokompatiblen Materialien bestehenden Partikel aufgrund ihrer porösen organischen Struktur auch mit Wirkstoffen beladen werden. Auch ihr Einsatz in der Umwelttechnik zur autonomen Aufbereitung von Abwasser wäre denkbar.

Metall-Mützen bringen Mikroschwimmer in Schwung
In dem Forschungsprojekt arbeiten Wissenschaftlerinnen und Wissenschaftler der LMU München und von zwei Stuttgarter Max-Planck-Instituten zusammen. Federführend sind dabei die Gruppen der e-conversion Wissenschaftlerin Bettina Lotsch, Chemie-Professorin an der LMU und Direktorin am MPI für Festkörperforschung, sowie von Metin Sitti am MPI für Intelligente Systeme. Das Geheimnis des Antriebs und der Energiespeicherung liegt sowohl in den ungewöhnlichen Speichereigenschaften des Halbleitermaterials, zudem haben die Mikroschwimmer zwei unterschiedliche Seiten, die maßgeschneidert zusammenarbeiten. Die eine Seite besteht aus dem auf Kohlenstoff basierenden Halbleitermaterial Poly(Heptazin-Imid) – PHI. „Es ist das erste „nachhaltige Sonnenbatterie-Material“, das die Funktionen von Solarzelle und Batterie koppelt“, sagt Filip Podjaski, Mitarbeiter von Bettina Lotsch und einer der beiden Erstautoren der Publikation. „Man kann es günstig und in großen Mengen aus nachwachsenden Rohstoffen und sogar aus Urin herstellen. Und es ist erstaunlich robust und vielseitig einsetzbar.“ Die zweite Hälfte der PHI-Kugel ist mit Platin oder auch Gold überzogen. Diese Metalle sind gezielt gewählte Katalysatoren, die durch Oberflächenreaktionen eine effiziente Ankopplung an die Umgebung ermöglichen und so den Vortrieb stark beeinflussen.

Im Englischen sprechen die Fachleute von caps, also von einer Art Kugeln, die eine Mütze tragen. Während die Halbleiter-Hälfte Sonnenenergie tankt und angeregte Elektronen und Elektronenlöcher erzeugt, hilft die Metall-Mütze bei der Ladungstrennung. Wie funktioniert jetzt aber das Schwimmen und Speichern? Im Regelfall reagieren nun die Elektronen und die Elektronenlöcher mit Wasser oder mit hinzugefügten Treibstoffen wie Alkoholen oder Wasserstoffperoxid. Durch die zweigeteilte Struktur laufen diese Oberflächenreaktionen unsymmetrisch ab, auf einer Seite stärker, auf einer schwächer. Die dabei erzeugten Konzentrationsunterschiede der Produkte sind letztendlich für den Vortrieb verantwortlich.

Winzige Solar-Batterie
Schon unter Beleuchtung in Wasser bewegen sich die Testpartikel vergleichsweise schnell, die Zugabe von Alkohol hat aber einen klar anregenden Effekt auf alle untersuchten Partikelformen. Anders sieht es in 0,5% Wasserstoffperoxid aus. Während mit Gold überzogene Partikel hier eine sehr hohe Aktivität aufweisen, bewegen sich die Mikroschwimmer mit Platin relativ langsam. Was auf den ersten Blick ein Nachteil scheint, erklärt, warum nur diese Kombination zu einem aufladbaren Mikroschwimmer führt. Platin ist ein exzellenter Elektrokatalysator, der Wasserstoffperoxid mit einer ähnlich hohen Rate umsetzt wie das Halbleitermaterial PHI. Es fehlt daher der Konzentrationsunterschied, der die Mikroschwimmer sonst antreibt.

Zunächst scheint auch das Speichern ein Problem zu sein. Denn wie in einem Tank mit Löchern reagieren viele frisch angeregte Elektronen sofort mit ihrer Umgebung und gehen für die Speicherung somit verloren. Der organische Halbleiter und das Platin sind gemeinsam aber so aktiv, dass ein Überschuss an angeregten Elektronen entsteht, die stabilisiert und somit gespeichert werden können. Das Verhältnis von Ladezeit zu Bewegungsdauer wäre für Standard-Elektroautos traumhaft: 30 Sekunden Sonnenbaden reichen für bis zu 30 Minuten Schwimmen im Dunkeln.

Beide Lösungsmittel, Alkohol und Wasserstoffperoxid, schließen eine Anwendung in menschlichem Gewebe auf den ersten Blick aus. Bettina Lotsch und ihr Team sind jedoch schon einen Schritt weiter. „Im Körper gibt es auch andere Stoffe, die ein Schwimmen und Aufladen erlauben“ erklärt die Chemikerin. „Wir untersuchen aktuell die entsprechenden Möglichkeiten der organischen Mikroschwimmer und erste Ergebnisse zeigen, dass Schwimmen, Aufladen und sogar der Transport von Wirkstoffen unter physiologischen Bedingungen machbar ist.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Valeska Lotsch
Department Chemie
Ludwig-Maximilians-Universität München
Butenandtstr. 5-13, Haus D
81377 München
Tel.: +49 (0)89 2180-77429

Originalpublikation:

Carbon nitride-based light-driven microswimmers with intrinsic photocharging ability. V Sridhar, F Podjaski, J Kröger, A Jiménez-Solano, B-W Park, B V Lotsch, M Sitti. Proceedings of the National Academy of Sciences (PNAS) 2020 (first published online Sept 21, 2020).
DOI: 10.1073/pnas.2007362117

Quelle: IDW

(nach oben)


Bayreuther Forscher: Tropische Naturschutzgebiete sind besonders stark von künftigen Klimaänderungen betroffen

Christian Wißler Pressestelle
Universität Bayreuth

Die Naturschutzgebiete der Erde sind das Rückgrat für die Bewahrung globaler Biodiversität. Vom künftigen Klimawandel sind sie in sehr unterschiedlicher Weise betroffen. Detaillierte Kenntnisse der Klimawandelfolgen vor Ort können daher zum Management von Schutzgebieten und zum Erhalt ihrer ökologischen Leistungen wesentlich beitragen. Darauf macht eine biogeografische Studie der Universität Bayreuth in der Zeitschrift „Diversity and Distributions“ aufmerksam. Sie beruht auf Klimaprognosen für mehr als 130.000 Naturschutzgebiete weltweit.

Für ihre neue Studie haben Prof. Dr. Carl Beierkuhnlein und Dr. Samuel Hoffmann am Lehrstuhl für Biogeografie insgesamt 137.735 Naturschutzgebiete in sechs Kontinenten untersucht. Im Mittelpunkt stand dabei die Frage, welchen Abweichungen von den derzeitigen Klimabedingungen diese Gebiete in den kommenden fünf Jahrzehnten ausgesetzt sind und wie dadurch Pflanzen- und Tierarten vor Ort gefährdet werden. „Pauschale Prognosen zum Klimawandel reichen nicht aus, um dem drohenden weiteren Verlust an Biodiversität entgegenzutreten. Dies kann nur gelingen, wenn wir mehr darüber wissen, welche lokalen Klimaänderungen – beispielsweise in Naturschutzgebieten – durch globale Tendenzen verursacht werden. Wie unsere Studie eindrucksvoll belegt, können diese lokalen Auswirkungen schon in räumlich benachbarten Gegenden sehr verschieden ausfallen“, sagt Beierkuhnlein.

Besonders starke lokale Klimaänderungen sind bis 2070 vor allem in Schutzgebieten tropischer Länder zu erwarten. Diese haben heute für den Erhalt weltweit gefährdeter Pflanzen- und Tierarten eine große Bedeutung und stehen unter hohem Druck, weil sie von den Menschen intensiv genutzt werden. Einige von ihnen liegen in Gebirgen hoch über dem Meeresspiegel. Hier werden die Temperaturen infolge des Klimawandels voraussichtlich spürbar ansteigen. Folglich werden einige gefährdete Arten wahrscheinlich versuchen, in höhere und deshalb kühlere Gebirgsregionen auszuweichen. Dort aber könnte die Gefährdung einzelner Arten schnell ansteigen, weil in der Höhe weniger Ressourcen verfügbar sind. „Für wandernde Arten könnten sich höhere Gebirgslagen als Sackgasse erweisen“, erklärt Hoffmann.

Die neue Studie zeigt aber auch: Schutzgebiete, in denen künftige Klimaverhältnisse besonders stark von der Gegenwart abweichen, haben einige Eigenschaften, die sich vorteilhaft auf den Erhalt von Arten auswirken können. Sie sind oft sehr groß, weisen sehr unterschiedliche Landschaftsprofile auf und bieten daher vielfältige Umweltbedingungen. Zudem sind sie durch direkte menschliche Eingriffe wenig belastet und kaum durch Verkehrswege zerschnitten. Diese Umstände begünstigen die Anpassungsfähigkeit von Arten, beispielsweise durch genetischen Austausch und höhere Ressourcenverfügbarkeit. Zudem können manche Arten, die aufgrund von Klimaänderungen zum Verlassen ihrer angestammten Lebensräume gezwungen sind, infolge der landschaftlichen Vielfalt bereits in ihrer Nachbarschaft neue Habitate finden. Deshalb kann ein über lokale Klimaveränderungen gut informiertes Management dazu beitragen, Folgen des Klimawandels in Naturschutzgebieten abzumildern.

Prognosen des globalen Klimawandels sind immer mit Unsicherheiten behaftet. Deshalb haben die Bayreuther Forscher bei ihrer Untersuchung der Naturschutzgebiete mit zehn verschiedenen globalen Modellen des Klimawandels gearbeitet. Zudem haben sie zwei deutlich voneinander abweichende Szenarien der globalen Treibhausgas-Emissionen in ihre Beurteilungen einbezogen. In jedem der untersuchten Naturschutzgebiete wurden kleine quadratische Flächen mit einer Größe von rund einem Quadratkilometer untersucht. Charakteristische Eigenschaften dieser „Zellen“ wurden anschließend ins Verhältnis zu prognostizierten klimatischen Änderungen gesetzt, die auf globaler Ebene bis 2070 zu erwarten sind. Zu diesen Eigenschaften zählen beispielsweise die Höhe über dem Meeresspiegel, das Landschaftsprofil, Niederschläge und Temperaturen, die dort lebenden Pflanzen- und Tierarten sowie Eingriffe seitens der Menschen. Mit diesen Untersuchungen ist es den Bayreuther Forschern gelungen, lokale Klimawandeleffekte auf kleinstem Raum abzuschätzen.

Forschungsförderung:
Die Bayreuther Studie wurde aus dem EU-Projekt ECOPOTENTIAL gefördert, dem bisher größten EU-Projekt zu Ökosystemen.

Wissenschaftliche Ansprechpartner:
Dr. Samuel Hoffmann
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2299
E-Mail: samuel.hoffmann@uni-bayreuth.de

Prof. Dr. Carl Beierkuhnlein
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2270
E-Mail: carl.beierkuhnlein@uni-bayreuth.de

Originalpublikation:
Samuel Hoffmann, Carl Beierkuhnlein: Climate change exposure and vulnerability of the global protected area estate from an international perspective. Diversity & Distributions (2020), DOI: https://doi.org/10.1111/ddi.13136

Quelle: IDW

(nach oben)


Zufriedenheit im Homeoffice nimmt weiter zu

Margret Hornsteiner Dialog
Bayerisches Forschungsinstitut für Digitale Transformation bidt

Die zunehmende Nutzung von Homeoffice im Zuge der Coronakrise hält an. Das zeigt eine Folgebefragung des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) zur Verbreitung und Akzeptanz von Homeoffice in Deutschland. Bereits im März hatte das bidt in einer Studie gezeigt, wie sehr sich das Arbeiten von zu Hause aus verbreitet hat.

• Publikation „Digitalisierung durch Corona?“ des bidt veröffentlicht
• Homeoffice wird weiterhin häufiger und intensiver genutzt als vor der Krise
• Zufriedenheit der Berufstätigen im Homeoffice ist weiter gestiegen
• Wunsch nach mehr Homeoffice auch nach der Coronakrise ist stark ausgeprägt

Auch Monate nach dem Beginn der Coronakrise ist die Verbreitung von Homeoffice deutlich höher als zuvor. Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) führte im März und Juni repräsentative Kurzbefragungen unter erwachsenen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys durch. Die Analyse der Befragungen zeigt:

• Die Nutzung von Homeoffice ist in der Coronakrise nachhaltig gestiegen. Derzeit arbeiten 39 % der erwachsenen berufstätigen Internetnutzerinnen und -nutzer in Deutschland zumindest ab und zu im Homeoffice. Im März waren es 43 %, während es vor der Krise 35 % der Befragten waren.
• Die Intensität der Nutzung von Homeoffice ist deutlich gestiegen. Im Juni befanden sich rund 32 % der Befragten mindestens mehrmals pro Woche im Homeoffice. Vor der Krise war dies nur bei 23 % der Befragten der Fall.
• Die Zufriedenheit mit dem Homeoffice ist hoch. 85 % der Homeoffice-Nutzerinnen und -Nutzer geben an, mit ihrer Situation zufrieden zu sein.
• Die Nutzung der im Homeoffice eingesetzten Technik macht der Mehrheit keine Schwierigkeiten. Nur 12 % der Befragten geben an, Probleme damit zu haben.
• 69 % der befragten Arbeitnehmerinnen und Arbeitnehmer, die dies bei ihrer Tätigkeit grundsätzlich für möglich halten, wünschen sich auch nach der Coronakrise mehr Homeoffice als zuvor.
• Die Befürchtung, dass Arbeitgeber nach der Krise die Homeoffice-Möglichkeiten wieder beschränken, ist weitverbreitet. 55 % der Befragten gehen davon aus.
• Der Großteil der deutschen Erwerbstätigen ist jedoch nach wie vor nicht im Homeoffice. 61 % arbeiten nicht von zu Hause. Der Großteil von ihnen gibt an, dass dies bei ihrer Tätigkeit generell nicht möglich sei.

„Die Arbeitgeber- und Arbeitnehmerseite sollten die coronabedingte Forcierung von Homeoffice als Chance sehen. Nun gilt es über den langfristigen Einsatz flexibler Arbeitsformen zu verhandeln“, sagt Dr. Roland Stürz, einer der Autoren der Studie. Dabei gelte es die Vorzüge von Homeoffice mit den Vorteilen der Präsenzarbeit zu verknüpfen.

„Arbeiten wird flexibler werden“, sagt bidt-Direktor Professor Dietmar Harhoff und betont den damit verbundenen Innovationsschub in Unternehmen: „Flexible Arbeitsmodelle werden nun zu einer verstärkten Digitalisierung von Prozessen, zur Verbesserung der Effizienz und damit zu Produktivitätssteigerungen führen.“

Anhang:
Infografiken als pdf
Quellenangabe bei Verwendung der Grafiken bzw. der Daten:
bidt – Bayerisches Forschungsinstitut für Digitale Transformation: Repräsentative Kurzbefragung von berufstätigen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys, März und Juni 2020

Autorin und Autoren der Studie:
Dr. Roland A. Stürz (bidt Think Tank)
Christian Stumpf (bidt Think Tank)
Ulrike Mendel (bidt Think Tank)
Prof. Dietmar Harhoff, Ph.D. (bidt-Direktorium, Max-Planck-Institut für Innovation und Wettbewerb)

Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) ist ein Institut der Bayerischen Akademie der Wissenschaften und trägt dazu bei, die Entwicklungen und Herausforderungen des digitalen Wandels besser zu verstehen. Das Institut fördert herausragende interdisziplinäre Forschung und liefert als Think Tank Entscheidungsträgern in Politik und Wirtschaft evidenzbasierte Empfehlungen, um die digitale Transformation erfolgreich zu gestalten. Das bidt fördert zudem den offenen Dialog zwischen Forschung und Gesellschaft.
www.bidt.digital

Pressekontakt:
Margret Hornsteiner
Abteilungsleiterin Dialog
Tel.: +49 (0)89 5402356-30
E-Mail: presse@bidt.digital

Wissenschaftliche Ansprechpartner:
Ansprechpartner zur Studie:
Dr. Roland A. Stürz
Abteilungsleiter Think Tank
Tel.: +49 (0)89 5402356-20
E-Mail: roland.stuerz@bidt.digital

Originalpublikation:

Roland A. Stürz, Christian Stumpf, Ulrike Mendel, Dietmar Harhoff: Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland: Ergebnisse zweier bidt-Kurzbefragungen. bidt Analysen und Studien September 2020
DOI: 10.35067/xypq-kn62

Weitere Informationen:

https://www.bidt.digital/studie-homeoffice2/ Link zur Studie „Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland“
https://www.bidt.digital/studie-homeoffice-interview/ Interview „Homeoffice lohnt sich für Unternehmen“

Anhang
Infografiken zur Kurzbefragung des bidt zur Nutzung von Homeoffice in Deutschland
https://idw-online.de/de/attachment80689

Quelle: IDW

(nach oben)


Im Ostseeraum muss die Entsorgung nicht verwendeter Arzneimittel verbessert werden

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Die korrekte Sammlung und Entsorgung von ungenutzten Medikamenten kann zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee beitragen und ist vergleichsweise leicht umzusetzen. Der Umgang mit ungenutzten Medikamenten wird jedoch in den einzelnen Ostseeanrainerstaaten unterschiedlich gehandhabt. Vergleichbare Informationen zu bestehenden Rücknahme- und Entsorgungspraktiken lagen bisher nicht vor. Das Projekt CWPharma hat nationale Rücknahme- und Entsorgungspraktiken untersucht und daraus Empfehlungen („good practices“) abgeleitet.

Das Projekt CWPharma, ein von der EU im Rahmen des Interreg-Programms „Baltic Sea Region“ finanziertes und vom finnischen Umweltforschungsinstitut SYKE geleitetes Verbundvorhaben, hat daher die nationalen Rücknahme- und Entsorgungspraktiken nicht verwendeter Arzneimittel aus verschiedenen Anwendungsbereichen (z.B. Haushalt, Krankenhäuser, Tiermedizin) untersucht und daraus entsprechende Empfehlungen („good practices“) abgeleitet.
„Wir haben die aktuellen Vorgehensweisen in Dänemark, Estland, Finnland, Deutschland, Lettland, Litauen, Polen, Russland und Schweden bewertet. Das Ziel ist, die nationalen Rücknahme- und Ent-sorgungsmethoden zu verbessern und auf diese Weise die Arzneimittelemissionen in die Ostsee zu reduzieren“, sagt Experte Jukka Mehtonen vom finnischen Umweltinstitut SYKE.

Häufiges Problem ist die unsachgemäße Entsorgung von Arzneimitteln
Die Rückgabe nicht verwendeter Arzneimittel an Sammelstellen wird in den Ostseeländern sehr unterschiedlich gehandhabt. Der Anteil der Bürger, die nicht verwendete Arzneimittel an bestimmte Sammelstellen zurückgeben, liegt zwischen 10 und 70 Prozent. Etwa 16 bis 80 Prozent der Befragten entsorgen nicht verwendete Medikamente über den Hausmüll und 3 bis 30 Prozent entsorgen sie über die Toilette oder Spüle (s. Tabelle 1). Informationen bezüglich der Menge an ungenutzten Tier-arzneimitteln stehen seltener zu Verfügung und deren Entsorgung ist meist schlechter organisiert, als dies in der Humanmedizin der Fall ist.
Der häufigste Grund für die unsachgemäße Entsorgung von Arzneimitteln aus Haushalten ist die Unkenntnis über die Umweltfolgen sowie fehlende Informationen über umweltverträgliche Entsorgungsmöglichkeiten. Die getrennte Erfassung von ungenutzten Arzneimitteln aus Haushalten ist in einigen Ländern kaum bzw. überhaupt nicht organisiert (z.B. Russland). In anderen Ländern wie z.B. Lettland, Litauen und Polen funktioniert die getrennte Sammlung nur mangelhaft. In Deutschland wird Hausmüll überwiegend verbrannt. Daher wird den Verbrauchern geraten, nicht verwendete Arzneimittel direkt im Hausmüll zu entsorgen. In Regionen, in denen der Hausmüll nicht verbrannt wird, wird den Verbrauchern eine Entsorgung über mobile Sammelfahrzeuge oder Recyclingzentren empfohlen. Eine leicht verständliche Übersicht für Deutschland ist unter der Webadresse https://arzneimittelentsorgung.de/home zu finden.

Wie können die Emissionen von durch eine korrekte Entsorgung von Arzneimittelwirkstoffen reduziert werden?
Das Projekt CWPharma hat 21 bewährte Verfahrensweisen zur Rücknahme und Entsorgung von ungenutzten Medikamenten sowie Maßnahmen zur Förderung eines bewussteren Gebrauchs von Medikamenten im Ostseeraum ermittelt. Bei einer möglichen Umsetzung auf nationaler Ebene müssen nationale Rechtsvorschriften entsprechend berücksichtigt werden. Die identifizierten Verfahrensweisen entsprechen der Forderung nach einem EU-weiten strategischen Ansatz für eine effiziente Risikominderung.

– Eine der wichtigsten Empfehlungen lautet, den Bürgern zu ermöglichen, alle nicht verwendeten Medikamente (sowohl die verschriebenen als auch die rezeptfreien) an dafür vorgesehenen Sammelstellen abgeben zu können. Dies kann beispielsweise der Ort sein, an dem sie gekauft wurden (z.B. Apotheke) oder an Recyclinghöfen. Dieses Vorgehen ist leicht verständlich und leicht umsetzbar. Gleiches sollte auch für Arzneimittel gelten, die für Haustiere verwendet werden.

– In den Ostseeanrainerstaaten werden pharmazeutische Abfälle aus Krankenhäusern vor Ort gesammelt und direkt zu den entsprechenden Abfallbehandlungsanlagen geliefert. Dieselbe Vorgehensweise wird auch für Gesundheitseinrichtungen wie Privatkliniken, Altersheime und Firmen, die häusliche Pflege anbieten, empfohlen.

– Bezüglich der Entsorgung von Tierarzneimitteln wird empfohlen, dass Landwirte bei tierärztlichen Untersuchungen auf ihrem Hof die Möglichkeit erhalten sollten, ungenutzte Tierarzneimittel an den Tierarzt zurückzugeben, der wiederum die Kosten für Sammlung und Abfallentsorgung in Rechnung stellen kann. Fallen jedoch große Mengen an ungenutzter Tiermedizin an, sollten die Landwirte die Entsorgung der Tiermedizin analog zu Apotheken und Krankenhäusern selbst organisieren. Geringe Mengen sollten auch an die für Privathaushalte vorgesehenen Sammelstellen abgegeben werden dürfen.

– Umweltauswirkungen von Arzneimittelemissionen sowie die korrekte Entsorgung von ungenutzten Arzneimitteln sollten über gezielte Informationskampagnen für Bürger, Ärzte, Tierärzte und Landwirte vermittelt werden.
Beispiel für Deutschland: https://www.bmu.de/richtigentsorgenwirkt/wie-werden-arzneimittel-richtig-entsorg…

– Zur Behandlung von separat gesammelten Arzneimitteln und anderen pharmazeutischen Abfällen wird generell eine Hochtemperaturverbrennung bei etwa 1.100-1.300°C empfohlen.

Weitere Empfehlungen aus dem CWPharma Projekt sind:
– Medikamente sollten nicht unnötig genutzt bzw. verschrieben werden.
– Apothekenpersonal und Tierärzte sollten Kunden bei Abgabe von Medikamenten über die richtige Entsorgung ungenutzter Medikamente informieren.

Nächste Projektschritte:
Im Herbst 2020 wird das Projekt CWPharma Empfehlungen („good practices“) für eine effektive Kommunikation der Umweltrelevanz von Arzneimittelrückständen geben. Ebenso sollen Empfehlungen zur Zulassungspraxis von Anlagen in der Arzneimittelproduktion unter besonderer Berücksichtigung von Umweltaspekten veröffentlicht werden. Darüber hinaus wird ein Leitfaden zur weitergehenden Abwasserbehandlung mit dem Ziel einer Entfernung von Arzneimittelrückständen („4. Reinigungsstufe“) erstellt. Abschließend wird ein Aktionsplan mit politischen Empfehlungen zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee vorgestellt.

Wissenschaftliche Ansprechpartner:
Michael Stapf, Kompetenzzentrum Wasser Berlin, tel. +49 30 536 53823

Noora Perkola, Finnish Environment Institute, tel. +358 295 251 507, noora.perkola@ymparisto.fi
www.cwpharma.fi

Originalpublikation:
https://www.kompetenz-wasser.de/wp-content/uploads/2020/09/200910_cwpharma_kwb_p…

Weitere Informationen:

http://www.swedishepa.se/Hazards/Pharmaceuticals
https://helcom.fi/action-areas/industrial-municipal-releases/pharmaceuticals/
http://medsdisposal.eu/

Quelle: IDW

(nach oben)


Roboter auf der Blumenwiese und Gemüse von der Kläranlage

Luisa Gierke Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)

Am 12. September 2020 fand die gemeinsame Veranstaltung von dem Futurium mit der Fördermaßnahme Agrarsysteme der Zukunft statt. Hier diskutieren namhafte Wissenschaftler*innen zum Thema: Kreislaufwirtschaft statt Verschwendung von Ressourcen. Die Kombination aus Natur und Hightech kann dabei helfen, die Zukunft nachhaltiger zu gestalten. Abfallstoffe können zum Beispiel zu Rohstoffen werden, um Nahrungsmittel und Energie zu produzieren.

Wissenschaftler*innen arbeiten auf Hochtouren, um diese Kombination aus Natur und Hightech bald möglich zu machen. Wie kann diese Umstellung genau aussehen? Wie viel kann die Bioökonomie leisten, um auf lange Sicht Kreisläufe nachhaltig zu schließen? Forscher*innen aus zwei Projekten der Agrarsysteme der Zukunft stellen ihre Visionen zur Diskussion. Dabei sind auch die Besucher*innen des Futuriums gefragt: Wie wäre es für Sie, wenn Drohnen das Wachstum von Nutzpflanzen überwachen und Tomaten mit Nährstoffen aus der Kläranlage groß geworden sind?

Website der Agrarsysteme der Zukunft: https://www.agrarsysteme-der-zukunft.de

Pressekontakt:
Luisa Gierke | E-Mail: gierke@igzev.de | Telefon: 033701 / 78 100

Wissenschaftliche Ansprechpartner:
Dr. Philip Albers | E-Mail: albers@igzev.de | Telefon: 033701 / 78 162

Anhang
Pressemitteilung_Roboter_auf_der_Blumenwiese_und_Gemüse_von_der_Kläranlage
https://idw-online.de/de/attachment80711

Quelle: IDW

(nach oben)


Verbindung aus Calcium und Phosphat löst starke Entzündung bei Rheumapatienten aus

Peggy Darius Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig

Wissenschaftler der Universität Leipzig haben entdeckt, dass Calcium im Zusammenspiel mit Phosphat starke Entzündungen bei Rheumapatienen auslösen kann. Die Erkenntnis eröffnet neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen. Das Ergebnis hat eine Forschergruppe der Medizinischen Fakultät um Studienleiter Prof. Dr. Ulf Wagner aktuell in der Fachzeitschrift „nature communications“ veröffentlicht.

„Ein entzündungsfördernder Effekt von Calcium-Ionen war bisher bei chronischer Bronchitis und Adipositas erforscht worden, der Nachweis bei Rheuma ist völlig neu. Mit dieser Entdeckung ist es nun möglich, neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen zu entwickeln“, sagt Wagner, Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig, der das Ergebnis gemeinsam mit Dr. Elisabeth Jäger, Supriya Murthy und PD Dr. Manuela Rossol publiziert hat.

Winzige Nanopartikel, enorme Entzündungsreaktion
Die Arbeitsgruppe „Experimentelle Rheumatologie“ der Leipziger Universitätsmedizin hatte bereits in der Vergangenheit entdeckt, dass eine erhöhte lokale Calciumkonzentration zu einer sehr starken Entzündungsreaktion mit nachfolgender Gewebszerstörung beitragen kann. In einer neuen Arbeit wurde der dafür verantwortliche Mechanismus bei Rheuma weiter aufgeklärt. Neben Calcium spielt auch Phosphat eine wichtige Rolle. Bei erhöhten Konzentrationen dieser Ionen bilden sich Calcium-Phosphat-Nanopartikel aus, welche trotz ihrer winzigen Größe enorme Entzündungsreaktionen in Immunzellen auslösen können.

Bei rheumatoider Arthritis (RA), einer der häufigsten rheumatologischen Autoimmunerkrankungen, an welcher circa ein Prozent aller Menschen im Laufe ihres Lebens erkranken, führen diese Nanopartikel in Verbindung mit Calcium-Ionen zu einer deutlich stärkeren Entzündungsreaktion als bei Gesunden. Das geht mit der Produktion potenter Botenstoffe einher. Diese spielen bei rheumatischen Erkrankungen eine vordergründige Rolle. Ihre medikamentöse Blockade ist die wirkungsstärkste Form der Behandlung der RA.

Erhöhte lokale Calciumkonzentration ausschlaggebend
Die durch Calcium-Ionen getriggerte Aufnahme von Calcium-Phosphat-Nanopartikeln kann bei Rheuma zu Gelenkentzündungen führen. Die treibende Kraft ist jedoch immer eine erhöhte Calciumkonzentration in der Umgebung entzündeter Gelenke, während die Calciumaufnahme oder die systemische Regulation des Calciumspiegels keine Rolle zu spielen scheint. Die bei der Erkrankung auftretende Freisetzung von Calcium und Phosphat aus dem Knochen infolge von Knochenentkalkung beziehungsweise -zerstörung kann dazu beitragen, dass die Erkrankung chronisch wird. Zusammenhänge zwischen Verkalkung und Entzündung werden aber auch bei anderen entzündlichen Erkrankungen wie der Arteriosklerose vermutet.

Calcium und Phosphat sind die wichtigsten Elemente des Knochens, werden dort ständig eingebaut oder bei Bedarf wieder freigesetzt. Rheumatische Erkrankungen und Osteoporose gehen häufig mit einem Verlust von Calcium aus dem Knochen einher, während die Ablagerung von Calcium in anderen Geweben wie der Niere, den Arterien oder dem Bindegewebe eine krankhafte Veränderung mit häufig schweren Konsequenzen darstellt. Insbesondere die Verkalkung von Blutgefäßen führt zu deren Zerstörung und kann die Ursache oder eine Begleiterscheinung von Herz-Kreislauferkrankungen wie Herzinfarkt oder Schlaganfall sein.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Ulf Wagner
Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig
T: 0341/ 97 24702
ulf.wagner@uniklinik-leipzig.de

Originalpublikation:

https://www.nature.com/articles/s41467-020-17749-6

Quelle: IDW

(nach oben)


Mit Bor und Bier Stickstoff reduziert

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Die industrielle Umwandlung von Stickstoff in Ammonium liefert Dünger für die Landwirtschaft. Würzburger Chemiker haben diese Umwandlung nun bei Raumtemperatur, niedrigem Druck und mit leichten Elementen erreicht.

Die Menschheit ist auf das Ammonium in synthetischem Dünger angewiesen, um ihre Ernährung zu sichern. Doch die Herstellung von Ammonium aus Stickstoff ist äußerst energieintensiv und erfordert den Einsatz von Übergangsmetallen.

Einer Forschungsgruppe der Julius-Maximilians-Universität (JMU) Würzburg ist es nun gelungen, Stickstoff bei Raumtemperatur, niedrigem Druck und ohne Übergangsmetalle in Ammonium umzuwandeln. Das berichtet ein Team unter Leitung des JMU-Wissenschaftlers Professor Holger Braunschweig in der Zeitschrift Nature Chemistry.

Ein neuer Werkzeugkasten für die Stickstoffbindung
Die industrielle Herstellung von Ammonium, das so genannte Haber-Bosch-Verfahren, erfordert hohe Temperaturen und Drücke. Sie verbraucht schätzungsweise etwa zwei Prozent der gesamten auf der Erde erzeugten Energie. Dieser Prozess stützt sich auf Übergangsmetalle, das sind relativ schwere und reaktive Atome.

Im Jahr 2018 gelang dem Team von Professor Braunschweig die Bindung und chemische Umwandlung von Stickstoff mit Hilfe eines Moleküls, das nur aus leichteren, nichtmetallischen Atomen besteht. Ein Jahr später demonstrierte es mit einem ähnlichen System die erste Kombination von zwei Stickstoffmolekülen im Labor. Diese Reaktion war zuvor nur in der oberen Erdatmosphäre und unter Plasmabedingungen beobachtet worden.

Der Schlüssel zu diesen beiden Entdeckungen war die Verwendung von Bor, dem fünftleichtesten Element, als Atom, an das der Stickstoff bindet. „Nach diesen beiden Entdeckungen war klar, dass wir ein ganz besonderes System in den Händen hatten“, sagt Braunschweig.

Einfach Wasser hinzufügen
Obwohl dieses System Stickstoff bindet und umwandelt, fehlte noch die Hälfte der Puzzleteile.

„Wir wussten, dass die vollständige Umwandlung von Stickstoff in Ammonium eine große Herausforderung darstellen würde, da sie eine komplexe Abfolge chemischer Reaktionen erfordert, die oft nicht miteinander kompatibel sind“, erklärt der JMU-Professor.

Der Durchbruch gelang mit einfachsten Reagenzien: Spuren von Wasser, die in einer Probe zurückblieben, reichten aus, um eine Folge von Reaktionen zu fördern, die das Team bis auf einen einzigen Schritt an das Ziel „Ammonium erzeugen“ heranbrachte. Später wurde entdeckt, dass die Schlüsselreaktionen mit einer festen Säure so durchgeführt werden konnten, dass die Reaktionen in einem einzigen Reaktionskolben bei Raumtemperatur nacheinander ablaufen konnten.

Ammonium mit Bier herstellen
Als das Team erkannt hatte, dass die Reaktion selbst mit einfachen Reagenzien wie Wasser zu funktionieren schien, wiederholte es sie mit dem Bier der örtlichen Brauerei Würzburger Hofbräu. Zu ihrer Freude konnten die Chemiker auch damit die Vorstufe von Ammonium erzeugen.

„Dieses Experiment haben wir aus Spaß gemacht. Aber es zeigt, wie tolerant das System gegenüber Wasser und anderen Verbindungen ist“, erklärt Postdoc Dr. Marc-André Légaré, der die Studie initiiert hatte.

„Die Reduktion von Stickstoff zu Ammonium ist eine der wichtigsten chemischen Reaktionen für die Menschheit. Dies ist zweifellos das erste Mal, dass sie mit Bier gemacht wurde, und es ist besonders passend, dass dies in Deutschland passiert ist“, sagt Dr. Rian Dewhurst, Akademischer Oberrat und Koautor der Studie.

Viel Arbeit zu erledigen
Diese Ergebnisse sind zweifellos aufregend, aber noch weit von der Anwendung in der industriellen Produktion von Ammonium entfernt. Es muss noch ein Weg gefunden werden, um den gesamten Prozess energieeffizient und wirtschaftlich zu gestalten.

Trotzdem demonstriert die Entdeckung, dass auch leichtere Elemente selbst die größten Herausforderungen in der Chemie meistern können. „Hier gibt es noch viel zu tun, aber Bor und die anderen leichten Elemente haben uns schon so oft überrascht. Sie sind eindeutig zu so viel mehr fähig“, sagt Holger Braunschweig.

Förderer
Diese Forschungsarbeit wurde von der Deutschen Forschungsgemeinschaft (DFG), der Alexander-von-Humboldt-Stiftung und dem Natural Sciences and Engineering Research Council of Canada finanziell unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Braunschweig, Institut für Anorganische Chemie und Institut für Nachhaltige Chemie & Katalyse mit Bor, Universität Würzburg, T +49 931 31-85260, h.braunschweig@uni-wuerzburg.de

Originalpublikation:
One-Pot, Room-Temperature Conversion of Dinitrogen to Ammonium at a Main-Group Element. Marc-André Légaré, Guillaume Bélanger-Chabot, Maximilian Rang; Rian D. Dewhurst, Ivo Krummenacher, Rüdiger Bertermann, Holger Braunschweig. Nature Chemistry, 14 September 2020, DOI: 10.1038/s41557-020-0520-6; https://www.nature.com/articles/s41557-020-0520-6.

Quelle: IDW

(nach oben)


Schwebstoffe in Bundeswasserstraßen: Neue Erkenntnisse zu Herkunft und Zusammensetzung

Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Schwebstoffe sind ein wichtiger Bestandteil unserer Gewässer. Wissenschaftler der Bundesanstalt für Gewässerkunde und der Rheinischen Friedrich-Wilhelms-Universität Bonn haben jetzt mit langjährigen Datenreihen die Dynamik und Quellen der Schwebstoffe in den Bundeswasserstraßen untersucht und sind zu überraschenden Ergebnissen gekommen.

In einer kürzlich in der Fachzeitschrift Earth Surface Dynamics erschienenen Publikation untersuchen Wissenschaftler der BfG und der Rheinischen Friedrich-Wilhelms-Universität Bonn mögliche Quellen und Transportwege von Schwebstoffen in den Bundeswasserstraßen. Die BfG verfügt durch die fachliche Begleitung und Auswertung des WSV-Schwebstoffdauermessnetzes über einen einzigarten Datensatz, der bis in die 1960er Jahre zurückreicht. Mehr als 750 000 Datenpunkte von 62 Messstellen im gesamten Bundesgebiet haben die Forscher analysiert. Zusätzlich flossen die seit 1997 durchgeführten Messungen zum organischen Anteil der Schwebstoffe an zwei Messtellen an Mosel und Rhein in die statistischen Analysen ein. Die Ergebnisse zeigen: Wie zunächst erwartet nimmt mit steigendem Durchfluss – also der Wassermenge, die in einer bestimmten Zeit an einer Stelle im Fluss vorbeifließt – die Schwebstoffkonzentration zu, und bei sinkendem Durchfluss wieder ab. In einigen Fällen ist diese Abnahme aber nicht eindeutig zu beobachten, was bislang als Ausnahme angesehen wurde. Die Daten zeigen jedoch, dass dieser Effekt häufiger auftritt als bislang angenommen. Und an einigen Stellen nahm die Schwebstoffkonzentration mit Abnahme der Wassermenge sogar zu. Verantwortlich hierfür sind Algen.

Thomas Hoffmann, einer der Autoren der Studie: „Der Anteil an organischem Material in den Schwebstoffen spielt hierbei eine zentrale Rolle. Bei geringen Abflüssen, wenn diese zum Beispiel im Sommer bei hohen Wassertemperaturen auftreten, steigt die Algenkonzentration und somit auch der Anteil an organischen Schwebstoffen. Bei hohen Abflüssen ist dagegen der mineralische Anteil größer.“ Denn: Ergiebige Niederschläge oder auch Starkregenereignisse führen zu einem hohen Eintrag von ausgewaschenen Böden und somit mineralischem Material in das Gewässer.

Mit diesen neuen Erkenntnissen könne man nun die Quellen der Schwebstoffe besser bestimmen und unterscheiden, so Hoffmann. Und das hilft auch der WSV, der für die Baggermaßnahmen zuständigen Behörde. Durch gezielte Maßnahmen bereits an der Quelle könnten die Schwebstoffmengen reduziert werden, bevor diese im Gewässer für die WSV zum Problem werden.

Da das Klima in Deutschland immer wärmer wird, nehmen auch die Trockenphasen und somit das Auftreten von Niedrigwasser zu. Auch Starkniederschläge dürften zukünftig vermehrt auftreten. Und beide Effekte können zu erheblichen Schwebstoffeinträgen direkt aus dem Fluss oder aus dessen Einzugsgebiet führen. Wie sich die Abflussverhältnisse in den Bundeswasserstraßen genau entwickeln, lässt sich jedoch derzeit nicht eindeutig vorhersagen.

Die Veröffentlichung ist zum freien Download ab sofort auf der Internetseite der Fachzeitschrift Earth Surface Dynamics verfügbar.

Wissenschaftliche Ansprechpartner:
Thomas Hoffmann, BfG (thomas.hoffmann@bafg.de)

Originalpublikation:
Hoffmann, T. O., Y. Baulig, H. Fischer and J. Blöthe (2020). „Scale breaks of suspended sediment rating in large rivers in Germany induced by organic matter.“ Earth Surf. Dynam. 8(3): 661-678.DOI: 10.5194/esurf-8-661-2020.

Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/20200921_Schwebstoffe.html auf der BfG Nachrichtenseite

Quelle: IDW

(nach oben)


Neue Studie aus Bayreuth: Auch gekochte Karotten können allergische Reaktionen auslösen

Christian Wißler Pressestelle
Universität Bayreuth

Der Verzehr roher Karotten löst bei vielen Menschen Allergien aus. Entgegen einer weit verbreiteten Auffassung können aber auch gekochte Karotten diesen Effekt haben. Dies hat ein Forschungsteam der Universität Bayreuth jetzt herausgefunden. Zwar nimmt das Allergen der Karotte, Dau c 1 genannt, im hocherhitzten Zustand eine für Allergiker ungefährliche Struktur an. Doch sobald die Temperatur sinkt, kehrt es weitgehend in seine natürliche Struktur zurück. In der Zeitschrift „Molecular Nutrition & Food Research“ stellen die Wissenschaftlerinnen ihre Studie vor.

„Die Ergebnisse unserer Untersuchungen sprechen eindeutig dafür, dass Patienten, die sensibel auf das Allergen der Karotte reagieren, generell auf den Verzehr von Karotten verzichten sollten. Das Erhitzen der Karotten zerstört nicht oder nur unvollständig die Proteinstrukturen, die allergische Reaktionen verursachen können“, sagt Prof. Dr. Birgitta Wöhrl vom Lehrstuhl Biochemie IV der Universität Bayreuth.

„Die Gefahr, dass Allergie-Patienten eine allergische Reaktion entwickeln, ist nicht nur beim Verzehr von frisch gekochten Karotten oder von Karotten aus der Konservenbüchse gegeben. Sie besteht auch dann, wenn Nahrungsmitteln Karottenextrakt beigemischt wird“, ergänzt Thessa Jacob M.Sc., Erstautorin der Studie und Doktorandin am Lehrstuhl Biochemie IV.

Das natürliche Karottenallergen Dau c 1 ist eigentlich eine Mischung aus mehreren, strukturell sehr ähnlichen Proteinen. Diese sogenannten Isoallergene wurden im Labor einzeln in Bakterien hergestellt. Sowohl das Proteingemisch des natürlichen Dau c 1 als auch die einzelnen Isoallergene wurden bei Temperaturen bis maximal 95 Grad Celsius daraufhin untersucht, wie sich ihre Strukturen bei steigenden und fallenden Temperaturen ändern. Dabei zeigte sich, dass die natürliche Mischung und fast alle einzelnen Isoallergene nach einer Abkühlung auf 25 Grad Celsius erneut in der Lage sind, Allergien zu verursachen. Trotz der vorausgegangenen Erhitzung können die im Organismus von Allergie-Patienten vorhandenen Antikörper allergische Reaktionen hervorrufen. Zwar ist diese Fähigkeit in einigen Fällen schwächer ausgeprägt als vor der Erhitzung, aber grundsätzlich bleibt sie erhalten.

„Es ist das erste Mal, dass die Dau c 1-Isoallergene einer derart umfangreichen Testreihe unterzogen wurden. Die separate Untersuchung der strukturähnlichen Moleküle war uns besonders wichtig, um festzustellen, welche der Isoallergene unter den getesteten Bedingungen Immunreaktionen auslösen“, sagt Thessa Jacob.

Die Tests zeigten deutlich, dass die strukturelle Stabilität des Karottenallergens nicht allein von der Höhe der Temperatur abhängt. Wichtig ist ebenso der durch den pH-Wert ausgedrückte Säuregrad. Von besonderem Interesse ist der pH-Wert 3, der sich im Magen typischerweise nach der Nahrungsaufnahme einstellt. Bei diesem Säuregrad und bei normaler Raumtemperatur können, wie sich herausgestellt hat, zumindest einige Epitope trotz des vorherigen Erhitzens weiter existieren. Epitope sind diejenigen molekularen Teilstrukturen, an denen das Immunsystem von Allergie-Patienten das jeweilige Allergen erkennt, so dass eine allergische Reaktion erfolgt.

Bei ihren Strukturuntersuchungen haben die Forscherinnen vor allem die Magnetresonanzspektroskopie (NMR) sowie die CD-Spektroskopie auf dem Bayreuther Campus eingesetzt. Bei weiteren Analyseverfahren erhielten sie Unterstützung vom Paul-Ehrlich-Institut in Langen und von der Nano Temper Technologies in München.

Wissenschaftliche Ansprechpartner:

Thessa Jacob M.Sc.
Lehrstuhl Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3869
E-Mail: thessa.jacob@uni-bayreuth.de

Prof. Dr. Birgitta Wöhrl
Lehrstuhl für Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3541
E-Mail: birgitta.woehrl@uni-bayreuth.de

Originalpublikation:
Thessa Jacob et al.: Food Processing Does Not Abolish the Allergenicity of the Carrot Allergen Dau c 1: Influence of pH, Temperature, and the Food Matrix. Molecular Nutrition & Food Research (2020), DOI: https://doi.org/10.1002/mnfr.202000334

Quelle: IDW

(nach oben)


Wissen über Corona: Die Mehrheit der Bevölkerung hat sich gut informiert und ist dafür, „Fake News“ zu kennzeichnen

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Auch nach dem sogenannten „Lockdown“ gibt die Mehrheit der Befragten Anfang Juni 2020 an, sich weiterhin über das aktuell grassierende Coronavirus sowie die allgemeinen Entwicklungen der Lage auf dem Laufenden gehalten zu haben – Ältere mehr noch als Jüngere. Insgesamt zeigt die Bevölkerung sich gut informiert. Sie nehmen Fehlinformationen als weit verbreitet wahr und sind dafür, solche „Fake News“ zu kennzeichnen. Das sind die Ergebnisse einer jüngst vom Max-Planck-Institut für Bildungsforschung und dem Robert Koch-Institut veröffentlichten Studie zum Informationsverhalten und Wissensstand der Bevölkerung in Deutschland während der ersten Monate der Corona-Pandemie.

Das Coronavirus ist in den Medien wie in privaten Gesprächen im Familien- und Freundeskreis oder am Arbeitsplatz omnipräsent. Seit Beginn der Pandemie sind wir einer beispiellosen Informationsflut ausgesetzt: von täglichen Infektionszahlen, über Informationen zu Symptomen, Risiken, Verhaltensempfehlungen und öffentlich geltenden Regeln, bis hin zu persönlichen Erfahrungsberichten oder globalen Vergleichen. Unklar ist, wie die Bevölkerung mit dieser Informationsflut umgegangen ist und wie sich das Informationsverhalten mit dem Rückgang der Infektionszahlen und den Lockerungen der flächendeckenden Maßnahmen Anfang Juni veränderte. So musste die Bevölkerung Anfang Juni damit rechnen, dass Risiken sich regional unterscheiden und Maßnahmen punktuell an das aktuelle Infektionsgeschehen angepasst werden.

Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung und des Robert Koch-Instituts haben sich deshalb mit dem Informationsverhalten der deutschen Bevölkerung während der ersten Monate der Corona-Pandemie beschäftigt und sich auf folgende Fragen konzentriert: (1) Wie informierte sich die Bevölkerung nach eigenen Angaben zu Beginn der Lockerungsphase Anfang Juni rund um das Coronavirus und wie hat sich das Verhalten nach eigenen Angaben im Vergleich zu Anfang März verändert? (2) Über welche Themen, aus welchen Gründen und über welche Quellen informierte sich die Bevölkerung? (3) Wie ging die Bevölkerung mit Fehlinformationen um? (4) Wie nahm die Bevölkerung Risiken rund um das Coronavirus wahr und wie gut war sie zu den beiden Zeitpunkten der Befragung informiert? Um diese Fragen beantworten zu können, führten die Wissenschaftler*innen im Juni 2020 eine querschnittliche Online-Studie durch. In dieser befragten sie 1.107 Teilnehmer*innen im Alter zwischen 18 und 69 Jahren zu ihrem Informationsverhalten Anfang März und Anfang Juni. Die Daten der Stichprobe sind nicht repräsentativ, da die Internetnutzung von älteren Menschen im Allgemeinen geringer ist. Allerdings wurde die Stichprobe so gezogen, dass sie der Verteilung von Alter, Geschlecht und Bundesland in der deutschen Bevölkerung entspricht.

Der Anteil der Befragten, der angab, sich rund um das Coronavirus zu informieren, ist insgesamt hoch. Für die Lockerungsphase Anfang Juni war der Anteil mit 78 Prozent nur etwas geringer als für Anfang März mit 86 Prozent. Dabei gibt es allerdings deutliche Altersunterschiede: Von den 18 bis 29-Jährigen gab rund ein Drittel an, sich eher nicht oder überhaupt nicht rund um das Coronavirus zu informieren, aber nur 10 Prozent der 60 bis 69-Jährigen. „Das muss nicht zwangsläufig problematisch sein, da die allgemeine Informiertheit sehr hoch zu sein scheint. Es wird dann zum Problem, wenn die durch das Coronavirus weniger gefährdeten Jüngeren durch Uninformiertheit Risikogruppen wie Ältere oder Personen mit Vorerkrankungen gefährden oder wenn neue Erkenntnisse und Maßnahmen nicht mehr zu allen Bevölkerungsgruppen durchdringen. Das muss weiter beobachtet werden“, erläutert Erstautorin Christina Leuker. Sie ist assoziierte Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung und wissenschaftliche Mitarbeiterin in der Abteilung Wissenschaftskommunikation am Robert Koch-Institut.

Anfang Juni informierten sich die Befragten vornehmlich über die allgemeine Entwicklung der Lage, wie zum Beispiel zu Änderungen öffentlich geltender Regeln (87%) oder zu Fortschritten medizinischer Behandlungs- und Testmethoden (78%). Informationen zum persönlichen Risiko und zum Umgang mit dem Virus sind Anfang Juni dagegen von geringerem Interesse als zu Beginn der Pandemie Anfang März. Während sich das Themeninteresse verschoben hat, blieben die Gründe sich zu informieren vor und nach dem sogenannten „Lockdown“ konstant: Die meisten Befragten informierten sich Anfang Juni wie Anfang März, um über Veränderungen der aktuellen Situation auf dem Laufenden zu bleiben und um von neuen Anordnungen zu erfahren.

Von einem Großteil der Befragten wurden dabei Fehlinformationen als weit verbreitet wahrgenommen: 59 Prozent der Befragten gaben an, mehrmals pro Woche bis mehrmals am Tag auf solche „Fake News“ zu stoßen. Als Quelle wurden am häufigsten die sozialen Medien genannt (73%). Das ist möglicherweise problematisch, da etwas über die Hälfte der Befragten angab, soziale Medien zu nutzen, um sich rund um das Coronavirus zu informieren. 75 Prozent der Befragten befürworteten es, falsche und irreführende Informationen zu kennzeichnen und auf eine Richtigstellung hinzuweisen. Aber auch das direkte persönliche Umfeld wurde als Quelle von Fehlinformationen wahrgenommen. Um unsichere Informationen zu prüfen, gab etwa die Hälfte der Befragten an, auf Suchmaschinen und entsprechende Webseiten zurückzugreifen. Dagegen fragten nur 23 Prozent jemanden aus ihrem Haushalt.

Gesundheitliche Risiken wurden je nach Altersgruppe unterschiedlich bewertet. Unter den Befragten zwischen 60 und 69 Jahren war die Sorge vor schweren gesundheitlichen Folgen im Falle einer Infektion im Vergleich zu den Befragten zwischen 18 und 29 Jahren deutlich höher (61% im Vergleich zu 24%). Zudem hält zum Zeitpunkt der Befragung über die Hälfte dieser jüngeren Altersgruppe eine Infektion bei einer Person ihres Alters und Geschlechts für unwahrscheinlich. Dies ist problematisch: Wenn die Wahrscheinlichkeit sich zu infizieren unterschätzt wird, können Jüngere zur Ansteckungsgefahr für andere werden.

Alle Altersgruppen verfügten über einen soliden Wissensstand zu den Themen „geltende Anordnungen“, „Infektion und Behandlung“, „Kontrolle der Epidemie“, „Risikogruppen“ und „Übertragung“ (71% bis 85% richtige Antworten je nach Themengebiet). Systematische Wissenslücken bestanden allerdings bei einigen Sachverhalten: 62 Prozent wussten beispielsweise nicht, dass stark übergewichtige Personen zur Risikogruppe zählen. Hier besteht nach Ansicht der Studienautor*innen weiterer Kommunikationsbedarf. Auch sollten passende Strategien für Personen entwickelt werden, die sich mit der Zeit weniger informieren oder nur bestimmte Quellen in Betracht ziehen, um einer möglichen Informationsermüdung entgegenzuwirken und aktuelle Maßnahmen weiterhin wirksam zu kommunizieren.

Noch im September soll es eine zweite Befragung zum Informationsverhalten geben. „Wir möchten herausfinden, ob die Menschen informationsmüde werden oder ob sie sich wieder vermehrt informieren – auch vor dem Hintergrund, dass sich das Leben im Herbst wieder vermehrt in Innenräumen abspielen wird und damit das Ansteckungsrisiko steigt“, sagt Studienautorin Nadine Fleischhut, Wissenschaftliche Mitarbeiterin am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung. Die zweite Befragung wird aber auch neue Fragen behandeln, zum Beispiel wie sehr sich die Menschen an aktuelle Verhaltensregeln halten und wie sie das Verhalten anderer wahrnehmen.

Leuker, C., Hertwig, R., Gumenik, K., Eggeling, L. M., Hechtlinger, S., Kozyreva, A., Samaan, L., Fleischhut, N. (2020). Wie informiert sich die Bevölkerung in Deutschland rund um das Coronavirus? Umfrage zu vorherrschenden Themen und Gründen, dem Umgang mit Fehlinformationen, sowie der Risikowahrnehmung und dem Wissen der Bevölkerung rund um das Coronavirus. Berlin: Max-Planck-Institut für Bildungsforschung. doi:10.17617/2.3247925.

Bei der vorliegenden Veröffentlichung handelt es sich um einen Preprint, der noch nicht peer-reviewed ist. Die Studie ist Teil von mehreren Erhebungen, die dann gesammelt als wissenschaftliche Publikation eingereicht werden sollen. Alle Daten und Schlussfolgerungen sind als vorläufig zu betrachten und unterliegen ständiger Veränderung. Die aktuellen Auswertungen sind vor allem deskriptiv; es können keine Aussagen über Ursache und Wirkung getroffen werden.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/1130241/2020-09-16-pm-corona

Quelle: IDW

(nach oben)


Laborstudie zu Toxizität: Produkte aus „Bioplastik“ keine unbedenkliche Alternative zu herkömmlichen Kunststoffen

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Sogenanntes „Bioplastik“ gilt als umweltfreundliche Alternative zu konventionellen, erdölbasierten Kunststoffen. Es kann aus nachwachsenden Rohstoffen gewonnen werden oder kompostierbar sein oder sogar beides. Aber sind diese Biomaterialien weniger bedenklich als herkömmliches Plastik, was ihre chemische Zusammensetzung betrifft? Nein, lautet das Ergebnis der bisher umfassendsten Laborstudie dazu, die heute in der Zeitschrift Environment International erschienen ist.

Wissenschaftler*innen um die Forschungsgruppe PlastX haben dafür Alltagsprodukte aus unterschiedlichen Materialien untersucht: Der Anteil an Produkten aus Biomaterialien, der schädliche Chemikalien enthält, ist genauso hoch wie bei Produkten aus erdölbasiertem Plastik.

Plastikprodukte stehen massiv in der Kritik. Schon ihre Herstellung aus fossilem Brennstoff gilt als wenig nachhaltig, das globale Plastikmüllproblem ist ungelöst, und wegen schädlicher Substanzen wie Bisphenol A geraten Alltagsprodukte aus Plastik immer wieder in die Schlagzeilen. Auf der Suche nach Alternativen werden vermehrt neue Materialien entwickelt, die vorteilhaftere ökologische Eigenschaften aufweisen sollen. Dazu gehören Biokunststoffe. Sie umfassen biobasierte Materialien wie Bio-Polyethylen, die aus nachwachsenden Rohstoffen bestehen, und sogenannte bioabbaubare Materialien, die unter natürlichen Umweltbedingungen abbaubar sind wie Polymilchsäure (PLA). Auch pflanzenbasierte Produkte, die aus natürlichen Polymeren wie Cellulose bestehen, zählen zu den neuen Lösungen. Aber sind diese Biomaterialien, die als nachhaltige Alternative zu konventionellem Plastik vermarktet werden, hinsichtlich ihrer chemischen Zusammensetzung weniger bedenklich?

Drei von vier Produkten enthalten Chemikalien, die in Zelltests negativ auffallen
Dieser Frage ist die Forschungsgruppe PlastX unter der Leitung des ISOE – Institut für sozial-ökologische Forschung gemeinsam mit der Technisch-Naturwissenschaftlichen Universität Norwegen und der Goethe-Universität Frankfurt in einer Laborstudie nachgegangen. Es ist die bisher umfassendste Studie, in der Biokunststoffe und pflanzenbasierte Materialien auf ihre chemische Zusammensetzung und Toxizität hin untersucht und mit herkömmlichen Kunststoffen verglichen wurden. „Um mögliche schädliche Effekte der Chemikalienmischung zu analysieren, haben wir die Substanzen aus den Produkten herausgelöst und in Zelltests eingesetzt“, erklärt Lisa Zimmermann, die Erstautorin der jetzt veröffentlichten Studie. „Die Ergebnisse zeigen, dass die biobasierten bzw. bioabbaubaren Materialien keinesfalls weniger bedenklich sind. Drei Viertel aller untersuchten Produkte enthielten schädliche Chemikalien,“ sagt Zimmermann. „Schädlich heißt in diesem Fall, dass Substanzen toxisch auf Zellen wirken oder hormonähnliche Effekte hervorrufen. Zum gleichen Ergebnis kamen wir bei herkömmlichen Kunststoffen; auch hier enthielten drei von vier getesteten Produkten in diesem Sinne schädliche Chemikalien.“

Chemikalienmix aus bis zu 20.000 Substanzen in Biomaterialen
Unter den 43 untersuchten biobasierten und bioabbaubaren Produkten waren Einweggeschirr, Schokoladenverpackungen, Trinkflaschen, Weinkorken und Zigarettenfilter. Die Untersuchung der Chemikalienmischungen mittels chemischer Analytik zeigte, dass sich in 80 Prozent der Produkte mehr als tausend Substanzen befanden, in einzelnen Produkten sogar bis zu 20.000. „Die pflanzenbasierten Produkte aus Cellulose oder Stärke enthielten dabei die meisten Chemikalien. Auch waren diese am toxischsten, sprich hatten negative Auswirkungen in Zelltests,“ erläutert die Ökotoxikologin.

Vom Rohmaterial zum Endprodukt: Gesamttoxizität steigt
In der Studie wurde einerseits deutlich, dass die untersuchten Endprodukte eine breitere Palette an Substanzen enthielten und eine höhere Toxizität aufwiesen als die Rohmaterialien, aus denen sie hergestellt werden. Der Grund: Beim Prozessieren vom Rohmaterial zum Endprodukt werden neue Substanzen hinzugegeben oder gebildet. Andererseits zeigte jedes biobasierte und bioabbaubare Produkt eine „individuelle“ chemische Zusammensetzung. „Das macht es nahezu unmöglich, allgemeingültige Aussagen zur Sicherheit bestimmter Materialien zu treffen,“ erklärt Co-Autor Martin Wagner von der Universität Trondheim. „Eine lebensmittelechte Tüte aus Bio-Polyethylen kann toxische Substanzen enthalten, ein Weinkorken aus dem gleichen Material muss das nicht zwangsläufig und umgekehrt.“

Chemische Sicherheit von Plastik sollte auf die politische Agenda
Die Studienergebnisse zeigen: „Für Verbraucher*innen ist nicht nachvollziehbar, ob sie im Alltag mit bedenklichem Plastik in Berührung kommen – egal ob konventionell oder „bio“, sagt Carolin Völker, die die Forschungsgruppe PlastX leitet. Die Ökotoxikologin plädiert deshalb dafür, dass die Unbedenklichkeit der verwendeten Substanzen garantiert und somit schon bei der Entwicklung neuer Materialien berücksichtigt wird. „Gerade, weil es einen Trend zu Biomaterialien gibt, gilt es jetzt, die chemische Sicherheit von herkömmlichen Kunststoffen ebenso wie von biobasierten und bioabbaubaren Alternativen auf die politische Agenda zu setzen“, sagt Völker. Da bisher nicht bekannt sei, welche Auswirkungen der Chemikalienmix in den Kunststoffen konkret auf Mensch und Natur hat, seien zudem weitere Studien im Zuge der Risikoforschung zu Plastik und seinen Alternativen dringend notwendig. Zelltests gäben erste Hinweise, reichten aber allein noch nicht aus, um die Gesundheits- und Umweltauswirkungen umfassend zu bestimmen. „Um wirklich ganzheitlich bessere Alternativen zu herkömmlichen Kunststoffen zu entwickeln, müssen neben der chemischen Sicherheit zusätzlich auch ökologische und soziale Aspekte berücksichtigt werden, wie beispielsweise Treibhausgasemissionen, Konkurrenz zur Nahrungsmittelproduktion und Kreislauffähigkeit“. Auch hier sei beim „Bioplastik“ noch viel Luft nach oben, meint Völker.

Wissenschaftliche Ansprechpartner:
Lisa Zimmermann
SÖF-Nachwuchsgruppe PlastX am
ISOE – Institut für sozial-ökologische Forschung
L.Zimmermann@bio.uni-frankfurt.de

Originalpublikation:
Are bioplastics and plant-based materials safer than conventional plastics? In vitro toxicity and chemical composition. Lisa Zimmermann, Andrea Dombrowski, Carolin Völker, Martin Wagner (2020). Environment International, https://doi.org/10.1016/j.envint.2020.106066

Weitere Informationen:

http://www.isoe.de
http://www.plastx.org

Anhang
„Bioplastik“ ist keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
https://idw-online.de/de/attachment80748

Quelle: IDW

(nach oben)


Bei schlechtem und zu kurzem Schlaf sollte man immer auf eine berufliche Überlastung schauen

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)

Die Corona-Pandemie fordert uns einiges ab – auch eingefahrene Strukturen zu überdenken. In der Arbeitswelt hat sich im letzten halben Jahr schon jede Menge verändert. Dass man hier dran bleiben und langfristig noch flexibler werden muss, findet der Schlafmediziner Prof. Dr. Helmut Frohnhofen. „Benötigen wir neue Arbeitszeitmodelle und müssen wir von bisherigen Modellen wegkommen?“ Er ist in diesem Jahr einer der Organisatoren der Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), die – wie so viele Kongresse derzeit – digital vom 29. bis 31. Oktober stattfindet. Das Kongressmotto lautet „Schlaf und Arbeit“.

Die DGSM ist schon seit vielen Jahren bemüht, ein Bewusstsein für die Gefährlichkeit von unzureichendem Schlaf in der Bevölkerung zu schaffen. Es gibt eine Vielzahl von spannenden Studienerhebungen innerhalb der Gesellschaft zur Rolle beruflicher Faktoren für die individuelle Schlafqualität, zu flexibleren Arbeitszeitmodellen, Anforderungen für eine zumutbare Schichtarbeit, Sekundenschlaf oder Lichtverschmutzung. „Von der Physiologie des Körpers her brauchen wir ausreichend Schlaf, sonst steigt u.a. unsere Fehlerquote und unsere Stimmung wird schlechter. Mit der zunehmenden Digitalisierung und Globalisierung steigen die Erfordernisse an uns und verlangen eine unserer Physiologie entgegenstehende Leistungsfähigkeit – nicht nur auf Arbeit“, warnt Prof. Frohnhofen. Eine klassische Risikokonstellation stelle etwa eine junge Familie mit Kindern dar, wo beide arbeiten, vielleicht noch ein Haus bauen. Da sei unzureichender Schlaf vorprogrammiert durch eine Überbelastung. „Andere Arbeitszeitmodelle, wie etwa von weniger Stunden, die sich auf unterschiedliche Tageszeiten verteilen beispielsweise, könnten hier einen enormen Druck von den Menschen nehmen“, sagt Helmut Frohnhofen.

Bei schlechtem oder zeitlich zu wenig Schlaf sollte man immer auch auf eine berufliche Überlastung schauen. Nicht selten führen Überforderung und Stress in dem Falle zu einer psychischen Überlastung wie z.B. einem Burnout. „Sehr viele Studien belegen, dass zu wenig Schlaf Hauptrisikofaktor für die Entwicklung eines Burnouts ist. Körperliche Erschöpfung und verminderte Leistungsfähigkeit – zwei eindeutige Phänomene bei Burnout – gehen also auch eindeutig auf unzureichenden Schlaf zurück“, erklärt der Schlafmediziner und Psychologe Markus B. Specht. Was kann man tun, um dem vorzubeugen? „Das Wichtigste, was jeder tun kann, ist sich die Frage zu stellen: Hole ich mir im Alltag, also täglich, genug Erholung als Gegenpart zum auftretenden Stress“, so Specht. 15 Minuten würden da fürs erste bereits ausreichen, in denen man sich einer kleinen Auszeit vom Alltag widme. Dies könne eine Entspannungsübung sein, eine Runde um den Block gehen oder eine Sporteinheit. Auf der Presseseite der DGSM-Jahrestagung (siehe unter Links) findet sich ein Beispiel für eine Atemübung.

Bei Menschen, deren Schlaf zu falschen Zeiten stattfindet, gerät die innere Uhr leicht aus dem Takt. Diese steuert, wann biochemische Vorgänge am optimalsten stattfinden sollten – sei es der Schlaf, die Wirksamkeit von Medikamenten oder die Verarbeitung von Nährstoffen. Den Einfluss von Licht und Nahrung auf die innere Uhr untersucht der Neurobiologe Prof. Dr. Henrik Oster. Licht wirkt auf Taktgeber im Gehirn, während die Nahrung Uhren in peripheren Organen wie Leber und Niere stark beeinflussen kann. „Bei Schichtarbeitern wird daraus leicht ein Problem: Sie sehen nachts Licht, was die Zentraluhr beeinflusst, und essen zudem häufig zu eher ungewöhnlichen Zeiten, was dann wiederum die Organuhren verstellt. Dadurch arbeiten die uhrengesteuerten Funktionen in den verschiedenen Organen nicht mehr optimal zusammen. Konsequenz ist u.a. eine Schieflage im Energiestoffwechsel – wir nehmen leichter zu oder entwickeln sogar ernsthafte metabolische Erkrankungen wie Typ-2-Diabetes. Das Risiko dafür ist bei Schichtarbeitern um rund ein Drittel erhöht“, stellt Prof. Oster die Sachlage dar.
Anhand experimenteller Studien an Mäusen konnte seine Studiengruppe die Wirkung von Licht und Nahrung auf spezifische Gewebsrhythmen unterscheiden. Dabei zeigte sich, dass die Funktion einzelner Gewebsuhren oft gar nicht so entscheidend für den Energiestoffwechsel ist. „Die Koordination der Netzwerkrhythmik scheint die entscheidende Stellschraube zu sein. Das ist aus medizinisch-therapeutischer Sicht wiederum sehr interessant, weil es evtl. gar nicht nötig ist, zur Rhythmusstabilisierung die Zentraluhr zu erreichen. Über die Netzwerk-Kommunikation wird diese auch aus der Peripherie indirekt beeinflusst“, fasst Henrik Oster die neuen Erkenntnisse zusammen.

Im Programm der virtuellen DGSM-Jahrestagung gibt es zu den genannten und vielen weiteren Themen Vorträge, die den aktuellen Wissensstand darstellen. Zum Bereich „Schlaf und Arbeit“ sind u.a. die folgenden Symposien zu nennen:
• Symposium 6 (Eulensymposium): „Schlaf, Fatigue und Unfallrisiko: von der Arbeitsumgebung zu biomathematischen Modellen und zurück“ (29.10.2020, 20:30-21:30)
• Hauptsymposium: „Schlaf und Arbeit“ (30.10.2020, 08:45-10:15)
• Symposium 12: „Zeitgeber-Schlichtung: Ein Schlüssel zu gesundem Schlaf und gesunder Arbeit“ (30.10.2020, 10:45-12:15)
• Symposium 23: „Schlaf und Arbeit bei Familien“ (31.10.2020,08:30-10:00)
• Symposium 25: „Auswirkungen des Arbeitens gegen die Uhr“ (31.10.2020, 10:15-11:45)
Das gesamte Programm der Jahrestagung können Sie unter www.dgsm-kongress.de einsehen.

Medienvertreter sind sehr herzlich zur virtuellen Teilnahme am gesamten Kongress eingeladen. Akkreditieren Sie sich dazu bitte auf der Presseseite der Kongress-Homepage (siehe unter Links) oder über den Pressekontakt. Es wird auch eine Online-Pressekonferenz angeboten, zu der Sie in Kürze noch weitere Informationen erhalten. Selbstverständlich können Sie auch individuelle Gesprächstermine mit Referenten, der Tagungsleitung oder dem DGSM-Vorstand vereinbaren. Auch dazu bitten wir, sich an den Pressekontakt zu wenden.

Pressekontakt:
Conventus Congressmanagement
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 03641/3116280
E-Mail: romy.held@conventus.de

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm-kongress.de
https://www.dgsm-kongress.de/allgemeine-informationen/presse/ Hier können Sie sich akkreditieren
https://www.dgsm-kongress.de/allgemeine-informationen/presse/den-atem-spueren/ Atemübung zur Stressbewältigung

Quelle: IDW

(nach oben)


Virtuelle Verleihung des UMSICHT-Wissenschaftspreis 2020

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Die Wissenschaft steht in diesem Jahr in besonderem Maße im Fokus der Öffentlichkeit. Umso wichtiger ist es, Informationen fundiert und gleichzeitig verständlich zu kommunizieren. Diesen Dialog zwischen Wissenschaft und Gesellschaft zu fördern, ist Ziel des vom Fraunhofer UMSICHT ausgelobten UMSICHT-Wissenschaftspreis. Die diesjährige Preisverleihung findet am 2. Oktober virtuell statt. Wir laden sie herzlich zu der Veranstaltung ein, um sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.

Bereits zum 11. Mal wird in diesem Jahr der UMSICHT-Wissenschaftspreis in den Kategorien Wissenschaft und Journalismus vergeben. Die Preisträger sind Menschen, die wissenschaftliche Ergebnisse aus den Bereichen Umwelt-, Verfahrens- und Energietechnik – den Kernthemen des Fraunhofer UMSICHT – auf eine herausragende Weise der Gesellschaft zugänglich machen. Aus den zahlreichen Bewerbungen hat die Jury, ausgewählte Wissenschaftler*innen, Unternehmer*innen, Selbständige, Journalisten sowie PR-Fachleute, die besten Beiträge ausgewählt und in einer Shortlist veröffentlich.

Verständliche Kommunikation von Wissenschaft im UMSICHT-Podcast
Doch worum geht es bei den eingereichten Beiträgen? Was verbirgt sich hinter Titeln wie »Cyberfossiler Kapitalismus« oder »Stoffe mit Helfersyndrom«? Wann ist z. B. Wasserstoff konkurrenzfähig, oder wie können wir mehr Elektromobile auf die Straße bringen? Im neuen UMSICHT-Podcast kommen die potenziellen Preisträger*innen zu Wort und informieren kompakt und verständlich über ihre Arbeiten. Eine gute Möglichkeit also, sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.

Bekanntgabe der Preisträger*innen
Im Rahmen der Preisverleihung am 2. Oktober, von 13 bis 13.30 Uhr, werden die Gewinner*innen des diesjährigen UMSICHT-Wissenschaftspreis bekanntgegeben. Aufgrund der aktuellen Situation findet die Veranstaltung online statt. »Auch, wenn wir den persönlichen Kontakt sehr schätzen und die vergangenen Preisverleihungen immer auch ein Ort für Netzwerken und direkten Informationsaustausch waren, freuen wir uns, mit dem Online-Format eine gute Alternative bieten zu können«, sagt Prof. Görge Deerberg, Geschäftsführer des UMSICHT-Fördervereins. Er betont zudem, dass dieser Rahmen auch Personen die Teilnahme ermöglicht, die sonst nicht dabei sein könnten.
Teilnahme

Die Teilnahme an der virtuellen Preisverleihung ist ohne vorherige Anmeldung möglich. Der Link zur Veranstaltung wird im Vorfeld auf der Internetseite des UMSICHT-Wissenschaftspreis 2020 bekanntgegeben.

Partner, Spender und Sponsoren:
AGR mBH
Energieversorgung Oberhausen AG
HATECHNO – Hoffmann angewandte Technologien GmbH
Loick Bioenergie GmbH
Meier-Ebbers – Architekten und Ingenieure
ML Power Tech GmbH
PLANiT-DIGITAL
Sparkasse Oberhausen

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Internetseite des UMSICHT-Wissenschaftspreis 2020
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Pressemitteilung
https://www.umsicht.fraunhofer.de/de/presse-medien/podcasts/umsicht-wissenschaft…
Podcast zum UMSICHT-Wissenschaftspreis 2020

Quelle: IDW

(nach oben)


Das erste ägyptische Referenzgenom des Menschen

Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck

Multiethnische Unterschiede: Genetische Risikofaktoren lassen sich nicht einfach von einer Population auf eine andere übertragen

Alle Menschen sind gleich, und doch ist jeder Mensch einzigartig. Das liegt zum Teil an Erziehung und Umwelt, aber größtenteils auch an der Herkunft unserer Gene, die in der DNA, dem Bauplan des Lebens, kodiert sind. Die genetische Ausstattung des Menschen unterscheidet sich weltweit und bestimmt nicht nur das Aussehen, sondern auch die Anfälligkeit für Krankheiten und das Ansprechen auf Medikamente. Um diese Unterschiede zur Entwicklung einer individuellen Präzisionsmedizin zu untersuchen wurden in den letzten Jahren verschiedene Projekte zur Populationsgenetik in Europa, Nordamerika, Asien und dem südlichen Afrika ins Leben gerufen. Eine sogenannte Genomreferenz für die rund 250 Millionen in Nordafrika fehlte bisher.

Um diesen weißen Fleck auf der Weltkarte der Humangenetik zu füllen, hat ein deutsch-ägyptisches Team unter der Leitung von Saleh Ibrahim und Hauke Busch von der Universität zu Lübeck zusammen mit Mohamed Salama von der American University in Kairo und Universität Mansoura das erste ägyptisch-nordafrikanische Referenzgenom erstellt. Dazu wurden mittels neuester Alignmentmethoden mehr als 270 Milliarden DNA-Basen zu einem de novo Genom eines neuzeitlichen Ägypters zusammengesetzt. Dieses Referenzgenom haben die Wissenschaftler dann um einem umfassenden Katalog der genetischen Variation von mehr als 100 Ägyptern ergänzt.

Weißer Fleck auf der Weltkarte der Humangenetik gefüllt
Die Ergebnisse des deutsch-ägyptischen Teams deuten darauf hin, dass genetische Risikofaktoren, die bisher in Genomen europäischer Herkunft gefunden wurden, sich nicht einfach auf die ägyptische Population übertragen lassen. Die Unterschiede in der Häufigkeit und der Kombination genetischer Varianten unterstreichen die Notwendigkeit multiethnische Genomreferenzen zu erstellen.

„Dieses Projekt hat bereits jetzt eine Fülle von Informationen geliefert“, sagt die leitende Bioinformatikerin der Studie, Dr. Inken Wohlers. „Wir können nicht nur die modernen Ägypter als genetische Vermittler zwischen Europa, Asien und Afrika bestätigen, sondern auch eine gemeinsame Abstammung mit Menschen vom Mittelmeer bis zum Schwarzen Meer bis hin zum Viktoriasee in Zentralafrika. Die Studie wird die Diagnose seltener Krankheiten und die genetische Risikoabschätzung von Volkskrankheiten, insbesondere für Ägypter und Nordafrikaner, verbessern. Darüber hinaus können unsere Erfahrungen mit den neuesten Sequenziertechnologien und Algorithmen wieder in laufende, internationale Sequenzierungsprojekte in der ganzen Welt einfließen“.

Die Ergebnisse dieser ersten Studie ihrer Art können sofort genutzt werden, um die persönliche Genomik und die Genetik seltener und häufiger Krankheiten eingehend zu untersuchen. Sie wird den Weg zu einem besseren Verständnis der ägyptischen, afrikanischen und globalen Genomlandschaft für die Präzisionsmedizin weiter ebnen.

Wissenschaftliche Ansprechpartner:

Prof. Saleh Ibrahim: saleh.ibrahim@uni-luebeck.de
Prof. Hauke Busch: hauke.busch@uni-luebeck.de
Prof. Mohamed Salama: mohamed-salama@aucegypt.edu

Originalpublikation:
An integrated personal and population-based Egyptian genome reference. Inken Wohlers, Axel Künstner, Matthias Munz, Michael Olbrich, Anke Fähnrich, Verónica Calonga-Solís, Caixia Ma, Misa Hirose, Shaaban El-Mosallamy, Mohamed Salama, Hauke Busch, Saleh Ibrahim. Nature Communications. DOI https://doi.org/10.1038/s41467-020-17964-1

Weitere Informationen:
https://doi.org/10.1038/s41467-020-17964-1

Quelle: IDW

(nach oben)


Indischer Monsun ist nach Vulkanausbrüchen besser vorhersagbar

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Große Vulkanausbrüche können dazu beitragen, die Vorhersagbarkeit des indischen Monsun zu verbessern – die Regenzeit ist für die Landwirtschaft und damit für die Ernährung von einer Milliarde Menschen von entscheidender Bedeutung. Was paradox erscheint, weil Vulkanausbrüche so unregelmäßig sind, ist tatsächlich auf eine stärkere Wechselwirkung zwischen dem Monsun über weiten Teilen Südostasiens und dem El-Niño-Phänomen immer nach einer Eruption zurückzuführen. Dies konnte jetzt ein indisch-deutsches Forscherteam durch die Kombination von Daten aus meteorologischen Beobachtungen, Computersimulationen und geologischen Archiven wie Korallen und Eiskernen aus vergangenen Jahrtausenden zeigen.

Eine Synchronisation des Monsuns mit dem stärksten Typus der natürlichen Klimavariabilität, dem El Niño, macht es leichter, die Stärke der saisonalen Niederschläge auf dem indischen Subkontinent vorherzusagen.

„Die winzigen Partikel und Gase, die ein großer Vulkan in die Luft schleudert, gelangen in die Stratosphäre und halten sich dort für einige Jahre. Die vulkanischen Teilchen in der Stratosphäre hindern einen Teil der Sonnenstrahlen daran, die Erdoberfläche zu erreichen, und dadurch erhöht sich die Wahrscheinlichkeit eines El-Niño-Ereignisses im nächsten Jahr“, sagt R. Krishnan vom Indischen Institut für Tropenmeteorologie. „Weniger Sonnenschein bedeutet weniger Wärme und damit eine Veränderung der Temperaturunterschiede zwischen der Nord- und Südhalbkugel, was sich wiederum auf die großen Luftströme und die Regenfälle auswirkt. Die Datenanalyse zeigt nun, dass große Vulkanausbrüche das gleichzeitige Auftreten warmer El-Niño-Ereignisse über dem Pazifik und eine Verminderung des indischen Monsuns in einem Jahr eher fördern – oder umgekehrt kühle La-Niña-Ereignisse über dem Pazifik in Verbindung mit einem Übermaß an Monsunregen in Indien.“

Der indische Monsun hängt stark von der El-Niño / Südlichen Oszillation ab (ENSO) – einem Klimaphänomen im tropischen Pazifik, dessen spanischer Name „der Junge“ bedeutet und sich auf das Christkind bezieht, weil bei seinem Auftreten das Wasser in der Nähe von Südamerika oft in der Nähe von Weihnachten am wärmsten ist. „Die Synchronisierung zwischen dem tropischen Pazifik und dem indischen Monsun verändert sich im Laufe der Zeit, wobei die vom Menschen verursachte globale Erwärmung einer der Faktoren ist, der die exakte Vorhersage des Monsuns verschlechtert“, sagt Norbert Marwan vom Potsdam-Institut für Klimafolgenforschung (PIK). „Dies bestätigt eine Hypothese, die unsere Kollegen Maraun und Kurths vor 15 Jahren aufgestellt haben. Die neuen Erkenntnisse zeigen jetzt einen neuen, zusätzlichen Weg für Monsunvorhersagen auf, die für die landwirtschaftliche Planung in Indien von entscheidender Bedeutung sind.“ Frühere Forschungsarbeiten des PIK verbesserten bereits die Monsunvorhersage für Jahre ohne Vulkanausbrüche.

Die Ergebnisse könnten auch zur Weiterentwicklung von Klimamodellen beitragen und auch bei der Einschätzung der regionalen Auswirkungen von ‚Geo-Engineering‘-Experimenten helfen. Um die globale Erwärmung durch vom Menschen verursachte Treibhausgase zu reduzieren, denken manche Wissenschaftler über eine Verringerung der Sonnen-Einstrahlung nach. Dabei würde im Grunde wie bei einem Vulkanausbruch Staub hoch oben in die Atmosphäre eingebracht, um zu einem gewissen Maße die Erde von der Sonnen abzuschirmen. Das künstliche Blockieren der Sonneneinstrahlung könnte jedoch eine Reihe von Prozessen in der Atmosphäre gefährlich stören. Es ist daher wichtig, die Mechanismen zu verstehen.

Artikel: M. Singh, R. Krishnan, B. Goswami, A.D. Choudhury, P. Swapna, R. Vellore, A.G. Prajeesh, N. Sandeep, C. Venkataraman, R.V. Donner, N. Marwan, J. Kurths (2020) Fingerprint of Volcanic Forcing on the ENSO-Indian Monsoon Coupling. Science Advances [DOI:10.1126/sciadv.aba8164]

Weblink zum Artikel, sobald dieser veröffentlicht ist: https://advances.sciencemag.org/lookup/doi/10.1126/sciadv.aba8164

Weblink zu den Monsun-Internetseiten des PIK: https://www.pik-potsdam.de/en/output/infodesk/forecasting-indian-monsoon

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Quelle: IDW

(nach oben)


UFZ-Modelle im Einsatz gegen die Afrikanische Schweinepest

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Seit 10. September ist die ASP in Deutschland angekommen. Durch die konsequente Umsetzung der EU-Notfallstrategie lässt sie sich am ehesten stoppen, sagen UFZ-Forscher um Hans-Hermann Thulke. Ihre Modellierungen fließen ein in Bekämpfungspläne und eine mögliche Exit-Strategie.

Die Afrikanische Schweinepest breitet sich seit 2007 von Georgien Richtung Westen aus und ist seit 10. September in Deutschland angekommen. Vor dem Hintergrund möglicher Milliardenschäden für die Landwirtschaft soll mit konsequentem Notfallmanagement verhindert werden, dass sich der tödliche Virus weiter ausbreitet und auf Hausschweine übertragen wird. Die EU-Kommission setzt hierfür auch auf Ergebnisse so genannter individuenbasierter Modelle, die am Helmholtz-Zentrum für Umweltforschung (UFZ) entwickelt werden. Seit dem Jahr 2010 beschäftigt sich eine Modellierergruppe um Dr. Hans-Hermann Thulke im Auftrag der Europäischen Behörde für Lebensmittelsicherheit (EFSA) damit, die Wirksamkeit verschiedener Managementmaßnahmen zu prüfen, um eine Ausbreitung der Afrikanischen Schweinepest zu verhindern. Ihre Ergebnisse sind längst eingegangen in die EU-weiten Vorgaben und nationalen Verordnungen. Und auch das Handlungsprotokoll, das derzeit in Brandenburg umgesetzt wird und das auch andere Bundesländer wie etwa Sachsen realisieren wollen, greift diese Erkenntnisse auf. Ganz aktuell befassen sich die Wissenschaftler mit der Frage, wann ein von der Afrikanischen Schweinepest betroffenes Gebiet wieder als seuchenfrei einzustufen ist.

Während die Afrikanische Schweinepest Deutschland erreicht hat und die Behörden in Brandenburg derzeit dabei sind, Notfallmaßnahmen umzusetzen, forscht unser Team bereits mit Hochdruck an einer Exit-Strategie. Im Auftrag der EFSA gehen wir der Frage nach, anhand welcher Kriterien man sicher festlegen kann, ab wann eine Region, in der eine infizierte Wildschweinpopulation festgestellt wurde, wieder als seuchenfrei einzustufen ist. Das ist insbesondere für landwirtschaftliche Betriebe in betroffenen Gebieten von großer wirtschaftlicher Bedeutung, um möglichst schnell wieder Zugang zum internationalen Schweinefleischmarkt zu erlangen.

Doch wie stellt man sicher fest, dass es wirklich keine aktive Infektion unter den Wildschweinen in einem Gebiet gibt? Wissenschaftlich gesicherte Antworten darauf zu geben, ist nicht so einfach, wie es scheint. Zum einen wissen wir, dass diagnostische Tests immer nur eine Stichprobe aus der tatsächlichen Situation repräsentieren. Zum anderen sehen wir, dass durch die behördliche Umsetzung der Maßnahmen die Krankheit mehr und mehr verschwindet und schließlich sämtliche Testergebnisse negativ sind, so wie es derzeit in der Tschechischen Republik und in Belgien der Fall ist. Darf man in dieser Situation sagen, eine Region oder ein EU-Mitgliedsstaat ist frei von Afrikanischer Schweinepest? Und dürfen diese Regionen oder Staaten wieder am Welthandel teilnehmen, so wie es die Weltorganisation für Tiergesundheit vorgibt? Unsere spontane Antwort darauf wäre Jein.

Wenn man lange genug negative Testergebnisse unter Wildschweinen hat, steigt das Sicherheitsgefühl, dass es tatsächlich keine erkrankten Exemplare mehr gibt. Dieses Gefühl lässt sich mathematisch quantifizieren: Durch hundertfache Simulationen eines Ausbruchs der Afrikanischen Schweinepest auf dem virtuellen Experimentierfeld unseres ökologischen Modells können wir nachvollziehen, wie sich die Zahl der erkrankten Wildschweine im Verlauf der Bekämpfungsmaßnahmen verändert und ab wann Tests an Tieren in einem Gebiet tatsächlich nur noch negative Ergebnisse liefern müssen – das Gebiet also frei von der Krankheit ist. Wie wichtig das ist, zeigt der Fund eines infizierten Wildschweins in Estland, nachdem dort über Monate nur negative Testergebnisse festgestellt wurden. Bedeutet dieser Fund nun, dass erneut alle behördlichen Restriktions-Maßnahmen anlaufen müssen oder kann man analysieren, welche Rolle das Tier hatte und damit eventuell die Maßnahmen einschränken? Wie ist es möglich, dass nach einer so langen Zeit auf einmal ein Tier positiv getestet wird? Antworten auf diese Fragen wollen wir mit der Entwicklung der sogenannten Exit-Strategie für die Afrikanische Schweinepest geben. Dafür nutzen wir unser Modell, das verschiedene Szenarien in zeitliche Verlaufskurven der Ausbreitung übersetzt. Sie werden zeigen, wie lange die Krankheit noch zirkuliert und wann sie verschwunden ist.

Frühere Erkenntnisse aus ähnlichen Simulationen sind bereits als wichtige Komponenten in die EU-Notfallstrategie zur Bekämpfung der Afrikanischen Schweinepest aufgenommen worden, die die EFSA in den letzten Jahren erarbeitet hatte. Dazu gehören unter anderem Vorgaben zur Ausdehnung der drei Schutzzonen (Kernzone, Gefährdetes Gebiet, Pufferzone), zur benötigten jagdlichen Intensität oder zur Anzahl der zu beseitigenden Kadaver. Zusammen ergibt sich die EU-Notfallstrategie, mit der die Ausbreitung der Seuche am ehesten zu stoppen ist. Dass das tatsächlich möglich ist, zeigen die Erfahrungen in der Tschechischen Republik und in Belgien. Im Gegenzug demonstriert der aktuelle Stand in Westpolen, dass es unumgänglich ist, Hausschweinebetriebe besonders strikt zu schützen und vor allem Wildschweine im direkten Umfeld des Eintrags konsequent zu reduzieren.
In Bezug auf die Situation in Deutschland zeigten unsere Analysen aber auch, dass sich die Krankheit gerade jetzt in den Monaten August und September mit mehr als 4 km/Monat deutlich schneller ausbreitet als im Frühling und Frühsommer mit weniger als 2 km/Monat. Ein möglicher Grund ist, dass die Wildscheinrotten ihre Bewegungsmuster an die durch agrarische Nutzung veränderte Landschaft anpassen. Es ist also, trotz aller Probleme, aus Sicht der Seuchenbekämpfung durchaus sinnvoll, wenn die Behörden in Brandenburg im gesamten Gefährdeten Gebiet ein Ernteverbot aussprechen. In diesem Sinne heißt es also, die jetzt angeordneten Maßnahmen möglichst strikt umsetzen, um die Afrikanische Schweinepest zeitnah zu bezwingen.

Hintergrundinformationen:
Bundesgesetzblatt Schweinepestverordnung, 8. Juli 2020:
https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&start=/…

Wissenschaftliche Publikationen:
Epidemiological analyses of African swine fever in the European Union (November 2017 until November 2018) European Food Safety Authority (EFSA), Anette Boklund, Brigitte Cay, Klaus Depner, Zsolt Fӧldi, Vittorio Guberti, Marius Masiulis, Aleksandra Miteva, Simon More, Edvins Olsevskis, Petr Satran, Mihaela Spiridon, Karl Stahl, Hans-Hermann Thulke, Arvo Viltrop, Grzegorz Wozniakowski, Alessandro Broglia, Jose Cortinas Abrahantes, Sofie Dhollander, Andrey Gogin, Frank Verdonck, Laura Amato, Alexandra Papanikolaou and Christian Gortazar (2018). http://dx.doi.org/10.2903/j.efsa.2018.5494

Understanding ASF spread and emergency control concepts in wild boar populations using individual‐based modelling and spatio‐temporal surveillance data. Lange M., Guberti V., Thulke H.‐H. (2018). http://dx.doi.org/10.2903/sp.efsa.2018.EN-1521

Elucidating transmission parameters of African swine fever through wild boar carcasses by combining spatio-temporal notification data and agent-based modelling. Lange M., Thulke H.-H. (2017). http://dx.doi.org/10.1007/s00477-016-1358-8

Simulation-based investigation of ASF spread and control in wild life without consideration of human non-compliance to biosecurity. Thulke H.-H., Lange M. (2017). http://dx.doi.org/10.2903/sp.efsa.2017.EN-1312

Lange M., Thulke H.-H. (2015). Mobile barriers as emergency measure to control outbreaks of African swine fever in wild boar. Proceedings SVEPM Ghent, 122-132.
Analysis of spatio-temporal patterns of African swine fever cases in Russian wild boar does not reveal an endemic situation. Lange M., Siemen H., Blome S., Thulke H.-H. (2014). https://doi.org/10.1016/j.prevetmed.2014.08.012

Wissenschaftliche Ansprechpartner:

Dr. Hans-Hermann Thulke
UFZ-Department Ökologische Systemanalyse
hans.thulke@ufz.de

Dr. Martin Lange
UFZ-Department Ökologische Systemanalyse
martin.lange@ufz.de

Quelle: IDW

(nach oben)


Sensormatte beugt Haltungsschäden vor

Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben in Zusammenarbeit mit der isoloc Schwingungstechnik GmbH eine Sensormatte für Steharbeitsplätze entwickelt. Sie erfasst die Fußposition eines Mitarbeiters und erkennt Gewichtsverlagerungen. Damit könnte sie helfen Haltungsschäden vorzubeugen.

Sensormatten kommen in Fabrikhallen bisher vor allem dort zum Einsatz, wo Mensch und Roboter eng zusammenarbeiten. Sie sind dort im Einzugsbereich von Robotern ausgelegt und dienen der Arbeitssicherheit: Sobald ihre Sensoren einen Mitarbeiter registrieren, schalten sie den Roboter ab und verhindern so folgenschwere Arbeitsunfälle.

Dabei könnten die Sensormatten auch an Steharbeitsplätzen ohne Roboter Gutes bewirken. Sie könnten dabei helfen, das ergonomische Arbeiten zu verbessern, Haltungsschäden und daraus resultierende Arbeitsausfälle vorzubeugen. Denn langes Stehen, bei dem immer dasselbe Bein mehr belastet wird als das andere oder das Gewicht ungleichmäßig auf den Füßen verteilt ist, kann auf lange Sicht zu Beckenfehlstellungen, verspannten und schmerzenden Muskeln im Bereich der Wirbelsäule aber auch der Beine, des Nackens und der Schulter führen. Bandscheibenschäden und eine erhöhte Belastung der Gelenke durch veränderte, ungünstige Bewegungsabläufe können die Folge sein.

Sensoren messen durch die Schuhsohle hindurch
Raphael Neuhaus und Julian Stübing von der Abteilung Funktionale Materialien am Fraunhofer IPA haben nun zusammen mit isoloc eine Sensormatte für Steharbeitsplätze entwickelt, deren kapazitive Sensorik die Fußposition eines Mitarbeiters in Echtzeit erfasst und Gewichtsverlagerungen erkennt. »Damit können sie selbst kontrollieren, ob sie eine gesunde Körperhaltung einnehmen und bei Bedarf sofort korrigieren«, sagt Entwicklungsingenieur Stübing.

48 Sensoren pro Fuß haben die beiden Wissenschaftler schachbrettartig in ihre Steharbeitsplatz-Matte integriert. »Die Messungen erfolgen berührungslos durch die Schuhsohle hindurch«, erläutert Stübing. »Wenn ein Mitarbeiter also Sicherheitsschuhe mit starren Sohlen trägt, beeinträchtigt das das Messergebnis nicht. Es werden nur die Signale erfasst, die von der Fußsohle ausgehen.«

Über ein Bus-System und einen USB-Anschluss ist die Matte mit dem Computer des Mitarbeiters verbunden. Über ein Schachbrettmuster, bei dem jedes der 48 Felder für einen bestimmten Sensor steht, zeigt eine Software dem Mitarbeiter echtzeitnah an, wie stark welche Bereiche seiner Füße gerade belastet sind. Rot steht dabei für hohen, gelb für mittleren und grün für geringen Druck.

Ampelsystem zur Selbstkontrolle
»Im Moment liefert die Matte lediglich die Messdaten und veranschaulicht diese über das Benutzerinterface«, so Stübing, »eine Auswertung findet bisher nicht statt.« Das könnte sich aber bald schon ändern. Denkbar wäre zum Beispiel ein Ampelsystem, das anzeigt, ob ein Mitarbeiter gut steht (grün), ob es Verbesserungspotenzial gibt (gelb) oder er sein Gewicht sofort verlagern muss (rot), weil ein Bein zu lange zu stark belastet wurde.

Außerdem planen Stübing und Neuhaus, die Anzahl der Sensoren in der Matte zu erhöhen, um die Bildgebung zu verbessern. Ob und wie gut das funktioniert und ob eine Sensormatte mit derart hoher Auflösung überhaupt zu finanzieren wäre – das sind Fragen, die die beiden Wissenschaftler in einem weiteren Forschungsprojekt klären wollen.

Wissenschaftliche Ansprechpartner:
Raphael Neuhaus | Telefon: +49 711 970-3627 | raphael.neuhaus@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Julian Stübing | Telefon: +49 711 970-3667 | julian.stuebing@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Quelle: IDW

(nach oben)


EU-Förderung: 9 Millionen Euro für Meeresforschung

Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover

Forscherinnen und Forscher aus Tiermedizin, Bioakustik, Populationsbiologie, Schiffsbau und Ingenieurwesen suchen gemeinsam nach Lösungen, um Schiffslärm zu reduzieren und so Meerestiere zu schützen.

Die Schifffahrt gehört zu den großen Lärmquellen im Meer. Je nach Situation können sich die Geräusche im Meer über sehr große Distanzen ausbreiten und im Meer lebende Tiere stören und schädigen. Wale und Robben, viele Fische und einige Wirbellose, wie beispielsweise Tintenfische, nutzen Schall, um zu kommunizieren, zu navigieren oder Nahrung zu suchen. Die Geräuschkulisse im Meer stört sie dabei und kann ihre für sie überlebenswichtigen Hörorgane dauerhaft schädigen. In dem Projekt „SATURN – Solutions At Underwater Radiated Noise“ wird ein internationales Forscherteam aus verschiedenen Fachdisziplinen gemeinsam offene Fragen zu den Auswirkungen von Unterwasserlärm auf Tiere untersuchen und nach Lösungen suchen, um Schiffslärm zu reduzieren. Das Projekt startet im Februar 2021. Die Europäische Kommission fördert das Projekt im Förderprogramm Horizon 2020 über vier Jahre mit 9 Millionen Euro. Eine Million Euro gehen an das Institut für Terrestrische und Aquatische Wildtierforschung (ITAW) der Stiftung Tierärztliche Hochschule Hannover (TiHo).

Zwar gibt es bereits Studien, die mit unterschiedlichen Ansätzen die Störungseffekte durch Unterwasserlärm belegen, und auch gibt es bereits Vorschläge, wie die Schifffahrt leiser und damit tierfreundlicher gestaltet werden kann, dennoch gibt es viele offene Fragen und keine zielgerichteten Lösungsansätze. Das SATURN-Projekt möchte das ändern und führt erstmals führende europäische Expertinnen und Experten aus den Bereichen Bioakustik, Tiermedizin und Populationsbiologie sowie Schiffsbau und Ingenieurwesen zusammen, um den durch die Schifffahrt verursachten Unterwasserlärm tiergerecht zu verringern. „Wir gehen das komplexe globale Problem des unter Wasser abgestrahlten Lärms auf eine wirklich umfassende, transdisziplinäre Weise an und hoffen, dass die Erkenntnisse und Innovationen die wir in diesem Projekt generieren, zu intelligenten praktischen Lösungen führen werden“, sagt ITAW-Leiterin Prof. Prof. h. c. Dr. Ursula Siebert.

Die Schlüsselfragen des Projektes sind:
Welche Geräusche sind für aquatische Arten am schädlichsten, wie werden sie erzeugt und wie werden sie verbreitet?
Welche kurzfristigen und welche kumulativen langfristigen negativen Auswirkungen hat der Lärm von Schiffen und Booten auf aquatische Arten in Flüssen und im Meer?
Welche Messungen sind am geeignetsten und wie können die negativen Auswirkungen des Schiffslärms bei aktuellen und zukünftigen Schiffen reduziert werden?

Siebert übernimmt in dem Projekt die Leitung des biologischen Arbeitsbereiches: „Wir werden den Einfluss von Unterwasserschall auf das Verhalten, die Gesundheit und den Energiehaushalt von Wasserorganismen untersuchen. Da es nicht möglich ist, alle Auswirkungen auf alle aquatischen Arten in einem Projekt zu untersuchen, werden wir eine Auswahl treffen, um besser zu verstehen, was genau Schiffsgeräusche bei wirbellosen Tieren, Fischen und Meeressäugern, also den drei großen taxonomischen Gruppen im aquatischen Ökosystem, bewirken.“

Ein weiterer wichtiger Aspekt im SATURN-Projekt sind Öffentlichkeitsarbeit und Wissenstransfer. Dr. Joseph Schnitzler koordiniert das Projekt im ITAW und war daran beteiligt, mit den Projektpartnern das SATURN-Konzept zu erarbeiten. Er erklärt: „Hier setzten wir auf ein bewährtes System, das wir schon in vorherigen Projekten erprobt haben. In Kooperation mit Naturinformationszentren, Museen und Schulen und mit öffentlichen Veranstaltungen möchten wir auf unterhaltsame und kreative Weise über die Probleme und mögliche Lösungen informieren.“ Ziel der Forschenden ist es, gebrauchsfertige Materialien wie Kurzfilme und Forscherboxen über die Forschung von SATURN und eine kompakte interaktive Multimedia-Anwendung mit zusammenfassenden Übersichtserklärungen und attraktiven Abbildungen zur Verfügung zu stellen. Die Projektergebnisse sollen kommuniziert werden, um das Bewusstsein für die Probleme, die durch Unterwasserlärm entstehen, zu schärfen.

In der Antragsphase wurde das ITAW mit einer Förderung aus dem Europa-Programm des Niedersächsischen Ministeriums für Wissenschaft und Kultur unterstützt. Die Mittel stammen aus dem Niedersächsischen Vorab der VolkswagenStiftung. Siebert sagt: „Die Antragsphase war sehr aufwändig. Dank der Förderung war es möglich, dass sich ein Mitarbeiter auf die Vorbereitung des Antrages konzentrieren und die Projekttreffen mit unseren zahlreichen internationalen Partnern organisieren konnte. Das war unter anderem ausschlaggebend für den Erfolg des Antrages!“

Wissenschaftliche Ansprechpartner:

Dr. Joseph Schnitzler
Stiftung Tierärztliche Hochschule Hannover
Institut für Terrestrische und Aquatische Wildtierforschung
Tel.: +49 511 856-8155
joseph.schnitzler@tiho-hannover.de

Quelle: IDW

(nach oben)


Bildung alleine reicht nicht: Der Naturschutzpolitik gelingt es zu selten, das Verhalten der Menschen zu ändern

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Es ist ein bekanntes Problem: Zu selten führt das, was Politikerinnen und Politiker an Initiativen, Empfehlungen oder Strategien auf dem Gebiet des Naturschutzes verkünden, dazu, dass die Menschen ihr Alltagsverhalten wirklich ändern. Ein deutsch-israelisches Forscherteam unter Führung des Helmholtz-Zentrums für Umweltforschung (UFZ) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) hat sich mit den Gründen befasst. Demnach nutzen die von der Politik vorgeschlagenen Maßnahmen die Bandbreite der möglichen Verhaltenseingriffe nicht genügend aus und benennen zu selten die eigentlichen Zielgruppen, schreiben sie im Fachmagazin Conservation Biology.

Der Schutz bestäubender Insekten ist in der internationalen Naturschutzpolitik ein großes Thema. Aufgerüttelt durch wissenschaftliche Erkenntnisse zu hohen Bestandseinbrüchen bei Insektengruppen wie Bienen oder Schmetterlingen, die sich beispielsweise auf die Bestäubungsleistungen in der Landwirtschaft auswirken, stellt Europa den Insektenschutz in der Umweltpolitik nach vorn. Zahlreiche Regierungen in Europa haben nationale Strategien vorgelegt, wie sie den Erhalt der Bestäuber sichern wollen. Ein Forscherteam des UFZ, des iDiv und des Technion – Israel Institute of Technology analysierte acht dieser nationalen Strategiepapiere zum Schutz der Bestäuber im Hinblick auf Verhaltensänderungen in der Bevölkerung. Das Ergebnis: „Naturschutzpolitiken zum Erhalt der Bestäuber sind in dieser Hinsicht oft zu ineffektiv und ändern nur wenig am Verhalten der Menschen“, sagt Erstautorin und Umweltpsychologin Dr. Melissa Marselle, die am UFZ und am iDiv zum Einfluss der Biodiversität auf die Gesundheit forscht.

Rund 610 Einzelmaßnahmen entschlüsselten die Wissenschaftler*innen in den Strategiepapieren. Anhand des Analysemodells „Behaviour Change Wheel“, das aus der Gesundheitspsychologie stammt und 19 unterschiedliche Verhaltensmodelle integriert, ordneten sie diesen Modellen neun sogenannte Interventionsfunktionen zu – also Maßnahmen, wie sich das Verhalten der Menschen ändern könnte. Demnach lassen sich mit 23 Prozent die meisten der insgesamt rund 790 Verhaltensmaßnahmen dem Bereich Bildung zuordnen, danach folgen mit 19 Prozent Strukturmaßnahmen wie das Pflanzen von Hecken, die Aussaat von Blühstreifen auf Äckern oder das Anlegen von Grünanlagen in der Stadt. Rund vier Prozent der Maßnahmen lassen sich unter dem Stichwort Modelling zusammenfassen, also zum Beispiel dem Einsatz von Best-Practice-Beispielen von vorbildlich arbeitenden Landwirten. Danach folgen Anreizsysteme etwa für Landwirte oder Kommunen (drei Prozent) und gesetzliche Regelungen (zwei Prozent). Stärkere Eingriffe wie zum Beispiel zusätzliche Steuern für den Einsatz von Pestiziden tauchten in den Politikpapieren nicht auf.

„Das zeigt, dass sich die nationalen Biodiversitätsstrategien vornehmlich auf Bildungs- und Strukturmaßnahmen konzentrieren und andere wirksame Instrumente vernachlässigen“, sagt Melissa Marselle. „Bildungsmaßnahmen, mit denen Wissen vermittelt und Verständnis geweckt werden soll, sind wichtig. Aber auf Bildung alleine zu setzen, ist nicht sehr effektiv, wenn man wirklich das Umweltverhalten ändern möchte. Zielführender wäre es, sie mit einer breiten Palette anderer Maßnahmen zu koppeln.“ Lieferketten und Erzeugerprinzipien auf Etiketten deutlich zu machen, kann beispielsweise viele Menschen zum Kauf eines ökologischen oder bestäuberfreundlichen Produkts animieren – auch zu einem höheren Preis. Wirksam wären auch stärkere finanzielle Anreize für Landwirte, die nachhaltig wirtschaften; ebenso könnte die Zertifizierung nachhaltiger Gebäude an die Verwendung bestäuberfreundlicher Pflanzen als Blumenrabatten gekoppelt werden. Auch Steuern und Mehrkosten für Verbraucher sorgen für rasche Verhaltensänderungen: So führte in Großbritannien zum Beispiel eine Zwangsabgabe beim Kauf von Plastiktaschen zu einem Rückgang ihrer Verwendung.

Als ein weiteres Manko der Strategiepapiere wurde identifiziert, dass bei 41 Prozent der Einzelmaßnahmen die Zielgruppen nicht benannt werden. Die Ziele sind oft sehr gut beschrieben, drehen sich aber zumeist um die Frage, wie sich die Umwelt durch bestimmte Aktionen verändert. Es wird aber oft nicht näher definiert, an wen sich die Aktionen richten und wer sie umsetzen soll: die Öffentlichkeit, die Landwirte oder die lokalen Behörden? Effektiver könnte es sein, man würde sich mithilfe von Verhaltensforschern erst mal überlegen, was die verschiedenen Akteure tun können, und man sich dann darauf aufbauend Maßnahmen überlegt, wie bestimmte Ziele erreicht werden können.

Gelegenheiten, Naturschutzstrategien besser zu schreiben, gibt es derzeit einige. So muss beispielsweise die EU-Biodiversitätsstrategie 2030, die die EU-Kommission im Mai 2020 verabschiedete, in nationale Politiken umgesetzt werden. Zudem werden auf der nächsten Konferenz der Convention of Biological Diversity (CBD) im kommenden Jahr in China die globalen Ziele zum Schutz der biologischen Vielfalt für die folgenden Jahre verhandelt. „Vor diesem Hintergrund ist es von entscheidender Bedeutung zu verstehen, wie Politiken formuliert werden müssen, um zu einer wirksamen Umsetzung internationaler Naturschutzpolitik zu kommen“, sagt Prof. Aletta Bonn, die an UFZ und iDiv das Department Ökosystemleistungen leitet und sich mit dem Thema Interaktion von Mensch und Natur befasst.

Wissenschaftliche Ansprechpartner:

Dr. Melissa Marselle
UFZ-Department Ökosystemleistungen an UFZ und iDiv
melissa.marselle@ufz.de

Prof. Dr. Aletta Bonn
Leiterin des UFZ-Departments Ökosystemleistungen an UFZ und iDiv
aletta.bonn@ufz.de

Originalpublikation:

Melissa R. Marselle, Anne Turbe, Assaf Shwartz, Aletta Bonn, Agathe Colléony: „Addressing behavior in pollinator conservation policies to combat the implementation gap“, Conservation Biology https://doi.org/10.1111/cobi.13581

Quelle: IDW

(nach oben)


Weizen & Bekömmlichkeit: Backwaren sind wesentlich besser als ihr Ruf

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Nach zwei Stunden Teiggehzeit sind FODMAP-Elemente, die bei manchen Reizdarm-Patienten Schmerzen verursachen können, schon stark reduziert.
Brot soll man meiden, weil es zu Blähungen und Verdauungsproblemen führen kann – das stimmt, aber nur für wenige Patienten mit Reizdarm und gilt nur für Backwaren, die sehr schnell hergestellt werden. Aktuelle Untersuchungen von Wissenschaftlern der Universität Hohenheim in Stuttgart in Kooperation mit dem Bäcker Heiner Beck und der Stelzenmühle zeigen: auch Teiggehzeiten von zwei Stunden scheinen bereits auszureichen, um den Anteil sogenannter FODMAPs im Teig um 70 Prozent zu reduzieren. FODMAPs sind spezielle Kohlenhydrate, die bei Reizdarm-Patienten Schmerzen verursachen können. Daher verzichten Betroffene oft auf Weizenprodukte. Brot gehört in Deutschland aber zu den wichtigsten Grundlebensmitteln, und die neuen Studienerkenntnisse untermauern, dass ein Verzicht auf Brot wegen FODMAPs wenig hilfreich ist – zumindest bei den vielen Backwaren, die mit einer ausreichenden Teigruhezeit von über zwei Stunden produziert wurden. Wissenschaftlich publiziert wurden die Ergebnisse im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021. Deutsche Ergebnisdarstellung unter https://bit.ly/32OWOxK

In einer sehr traditionellen Art wird Teig durchaus bis zu 48 Stunden lang ruhen gelassen, bevor er als Brot in den Ofen geschoben wird. „Diese Zubereitung bringt besonders viel Geschmack, Aroma und Saftigkeit ins Brot und sorgt für eine längere Frische“, bestätigt der Bäcker Heiner Beck, der die Brote für diese Studie gebacken hat. Solche langen Ruhezeiten werden jedoch nicht in jeder Bäckerstube und bei jedem Produkt realisiert.

Backgewerbe und Handel erscheinen aktuell von der Meinung getrieben zu sein, dass eine hohe Verträglichkeit von Brot durch besonders lange Teigführungszeiten erreicht werden könne, ohne dass die Herstellungsprozesse genauer beleuchtet werden. Zumal auch Personen mit Reizdarm-Syndrom gern auf Brote aus dieser alten Backtechnik zurückgreifen, da sich aufgrund der sehr langen Gärungszeit fast keine FODMAP-Elemente mehr in den Broten befinden.

„Das ist sicher nicht falsch, kann ich aber so pauschal nicht bestätigen“, sagt apl. Prof. Dr. Longin von der Landessaatzuchtanstalt der Universität Hohenheim. „Die Lösung liegt wie bei vielem im Detail“.

Gemeinsam mit dem Ernährungsmediziner Prof. Dr. Stephan C. Bischoff untersuchte er verschiedene Herstellungsprozesse und Weizensorten in einer aktuellen Studie. Konkret interessierten sich die Spezialisten darin für die schmerzverursachenden Kohlenhydrate in den Broten, die bei Betroffenen Blähungen und Verdauungsprobleme erzeugen.

FODMAPs-Anteil ist bereits nach zwei Stunden Teigzubereitung um bis zu 75 Prozent reduziert
Apl. Prof. Dr. Longin und Prof. Dr. Bischoff haben die Zusammenhänge zwischen der Teigherstellung und der Verträglichkeit aufgrund der FODMAP-Anteile im Brot genauer beleuchtet. Dabei haben sie Backprodukte mit 21 verschiedenen Weizensorten aus einer im Bäckeralltag typischen langen Teigführung von 25 Stunden mit einer wesentlich kürzeren Herstellungsart von 2 Stunden verglichen.

Die Ergebnisse sind klar: Bereits nach zwei Stunden waren die Anteile der schmerzverursachenden Stoffe im Brot um bis zu 75 Prozent reduziert. Demgegenüber waren die Werte nach 25 Stunden nur unwesentlich geringer.

„Das liegt daran, dass bei einer verlängerten Teigführung die Aktivität der Hefe durch eine reduzierte Hefemenge und eine Kühlung des Teiges reduziert werden muss“, erklärt apl. Prof. Dr. Longin. „Ansonsten wird das für das Backen wichtige Gluten zu sehr geschädigt.“ Und Bäckermeister Heiner Beck ergänzt: „Dies wurde in den bisherigen wissenschaftlichen Studien zu FODMAP bei Backwaren nicht beachtet. Mir war wichtig, dass mit praxisrelevanten Rezepten gearbeitet wurde.“

Weniger Schwarz-Weiß-Denken wäre zielführender
So wurden im Durchschnitt FODMAP-Gehalte von 0,22 Gramm je 100 Gramm gemessen, was ca. drei Brotscheiben entspricht. Im Vergleich dazu enthält ein einzelner Pfirsich bis zu 4 Gramm FODMAPs.

„Es ist somit fraglich, ob eine FODMAP-Konzentration in Broten mit diesen niedrigen Werten medizinisch eine Auswirkung auf Patienten hat, und wenn doch, wie viele Patienten tatsächlich davon betroffen sind“, ergänzt Prof. Dr. Bischoff vom Institut für Ernährungsmedizin. „Bei gesunden Personen gilt sogar, dass Teile dieser FODMAPs, nämlich das Fruktan, wichtig für die Darmbakterien sind.“

Die Experten aus Hohenheim halten die lange Teigführung für sehr hochwertig. In anderen Studien wurde deren positiver Effekt auf Aroma, Saftigkeit und Verfügbarkeit von Mineralstoffen eindeutig belegt. Doch halten sie die pauschal vereinfachende Haltung zu den FODMAPs in Backwaren für einseitig und das Thema FODMAPs in Backwaren für teilweise überbewertet.

„Neben der Herstellungsweise des Brotes wirkt sich auch die Wahl der passenden Weizensorte sehr auf die Brotqualität aus“, betont Hermann Gütler, Müller in der Stelzenmühle. Er hat die 21 verschiedenen Weizensorten für die Studie vermahlen und ergänzt: „Das wissen wir für die Backeigenschaften schon lange und haben es nun eindeutig auch für die FODMAPs gezeigt.“

Weitere Informationen
Deutsche Ergebnisdarstellung https://bit.ly/32OWOxK
Publikation im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021

Kontakt für Medien
Apl. Prof. Dr. Friedrich Longin, Universität Hohenheim, Landessaatzuchtanstalt, AG Weizen,
T +49 711 459 23846, E friedrich.longin@uni-hohenheim.de

Prof. Dr. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 711 459 24100, E bischoff.stephan@uni-hohenheim.de

Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse

Anhang
Deutsche Ergebnisdarstellung
https://idw-online.de/de/attachment80645

Quelle: IDW

(nach oben)


Bioabfälle als wertvoller Rohstoff für Hightech-Produkte

Elvira Grub M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Kaiserslautern

Der Hochschule Kaiserslautern ist es mit ihren Verbundpartnern „Prüf- und Forschungsinstitut Pirmasens e. V. (PFI)“ und „Zukunftsregion Westpfalz e.V. (ZRW)“ gelungen, eine Förderung für die Entwicklung einer Konzeption für ein Innovationscluster „Waste2Value – Mikroorganismen verändern die Westpfalz“ zu gewinnen, bei dem es um wirtschaftlichen Strukturwandel durch biotechnologische – bioverfahrenstechnische Innovationen geht.

Die Projektpartner erhalten hierbei 250.000.- Euro aus dem Förderprogramm „WIR!“ (Wandel durch Innovation in der Region) des Bundesforschungs- und Bildungsministeriums. Bei erfolgreicher Bewertung des Konzepts stehen für insgesamt sechs Jahre Umsetzungsphase bis zu bis 16 Mio. € Fördermittel bereit. Dies hätte weitreichende Folgen für die Innovationsdynamik und den Technologietransfer der (Bio)Ökonomie in der Westpfalz so Projektpartner Arne Schwöbel von der ZRW.

Inhaltlich geht es bei „Waste2Value – Mikroorganismen verändern die Westpfalz“ um biotechnologisch gewonnene und verwertbare Materialien aus diversen Bioabfällen der Forst- und Landwirtschaft sowie der Lebensmittelproduktion, die für Kunst- und Klebstoffe, für smarte Werkstoffverbunde und als hochwertige Zusatzstoffe für die Kosmetik- und Lebensmittelindustrie der Region eingesetzt werden können. Kooperationspartner sind vor allem Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen sind integriert.

Das Verbundprojekt knüpft an die aktuelle Forschung zur Rohstoffgewinnung aus nachwachsenden Rohstoffen (NawaRo) im Fachbereich Angewandte Logistik und Polymerwissenschaften am Campus in Pirmasens unter der Leitung von Dr. Michael Lakatos an. Die Grundlage der NawaRo‘s bilden in luftgeführten Photobioreaktoren wachsende terrestrische Mikroalgen, mit denen Neuland in der Verwendung von NawaRo’s betreten wird. Diese Kombination der technischen mit der physiologischen Komponente erlaubt gegenüber der weit verbreiteten algenbasierten Biomasseproduktion in aquatischen Systemen, d.h. im Wasser lebende Mikroalgen, eine wesentlich ressourcen- und kostenschonendere Kultivierung sowie die Ausbeutung des riesigen, zum Großteil noch unerforschten Potentials der terrestrischen Mikroalgen, das von der Gewinnung von Farbstoffen bis hin zur Entwicklung neuer Wirkstoffe reicht.

Lakatos, der auch das Verbundvorhaben leitet, sieht hier großes Potential, vorhandene Kompetenzen in eine neue nachhaltige Richtung zu fördern. Mithilfe der aus Cyanobakterien und den Bioabfällen generierten Biomasse sollen in Kombination mit Kunststoffen hybride Materialien hergestellt werden, die Sollbruchstellen enthalten sollen, mit deren Hilfe sie sich besser abbauen, recyceln und weiterverarbeiten lassen, sodass konventionelles Plastik verzichtbar wird.

Auch im PFI hat man langjährige Erfahrungen mit Mikroorganismen und der Entwicklung von Fermentationsverfahren auf der Basis von Reststoffen. Zahlreiche am PFI entwickelte biotechnologische Prozesse und Verfahren basieren auf den vielfältigen Stoffwechselleistungen spezifischer Bakterien und Pilze. „Wir nutzen Mikroorganismen beispielsweise bei der Optimierung von Biogasanlagen, bei der Gewinnung von Biomethan aus CO2 im Rahmen von Power-to-Gas Verfahren oder bei der Umwandlung von Lebensmittelresten in Treibstoffe und Grundchemikalien“ so Dr. Stefan Dröge, Projektleiter im PFI. Mit „Waste to Value“ wird die Kreislaufwirtschaft mit der Bioökonomie und dem Klimaschutz verknüpfen. So eröffnen Mikroorganismen den Megatrend der biobasierten Konversion und leiten dabei den Wirtschaftswandel hin zu einer zukunftsträchtigen Bioökonomie ein – eine greifbare Chance für die Region! Ende September ist dazu eine Kick-Off-Veranstaltung geplant, in der besonders Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen als zukünftige Kooperationspartner gewonnen werden sollen.

Ihr Ansprechpartner zur Pressemitteilung:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de

Wissenschaftliche Ansprechpartner:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de

Quelle: IDW

(nach oben)


Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“

Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Trotz des medizinischen Fortschritts bei der Diagnose und Behandlung von Krankheiten spielt eines oft nur eine untergeordnete Rolle: die Kommunikation zwischen Arzt und Patient. Doch was ist mit den Bedürfnissen, Ängsten und Zweifeln der Patienten? Erst in den vergangenen Jahren wurde mit der systematischen Untersuchung des Phänomens „Placebo“ ein Paradigmenwechsel angestoßen. Denn die positiven Effekte der Arzt-Patienten-Kommunikation sind tatsächlich biologisch messbar.

Über eben diesen Placeboeffekt und auch seinen Gegenspieler, den Noceboeffekt, seine Wirkung und aktuelle Erkenntnisse spricht Professor Manfred Schedlowski, Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen, in seiner Keynote bei der geriatrisch-gerontologischen Online-Konferenz.

Die Medizin hat in den vergangenen Jahrzehnten eine enorme Entwicklung vollzogen: Verfeinerte technische Untersuchungsmethoden erlauben faszinierende Einblicke in die Funktion unserer Organe und des Gehirns, zielgerichtete Medikamente können exakt in Krankheitsprozesse eingreifen und Operationsroboter steigern die Präzision von Chirurgen. Doch in Zeiten der „High-Tech-Medizin“ wird der Kommunikation zwischen Arzt und Patient oft noch zu wenig Aufmerksamkeit entgegengebracht – auch nicht in der Wissenschaft. Forschungsansätze, die Vertrauen und Hoffnung der Patienten oder die Wirkung von Mitgefühl in den Mittelpunkt stellen, werden oft als „Wissenschaft light“ abgetan.

Messbare Effekte: Das Immunsystem wird beeinflusst, Schmerzen verbessert
„Placeboeffekte sind äußerst vielfältig und unterscheiden sich, je nach Organ und Patient. Eine Zuckertablette, die Kopfschmerzen vertreibt, eine Infusion mit Kochsalzlösung, die bei Parkinson hilft oder eine vorgetäuschte Akupunktur, die Reizdarmsymptome lindert, sind nur einige erfolgreiche Beispiele“, sagt Manfred Schedlowski. Placeboeffekte können sich auf körperliche und psychische Symptome auswirken und damit den Verlauf von Erkrankungen verbessern. Sie können das Immunsystem und den Blutdruck beeinflussen oder den Erfolg von Operationen und medikamentösen Behandlungen verändern. Der Körper reagiert positiv auf eine Behandlung, obwohl er das eigentlich gar nicht dürfte – weil beispielsweise die Tablette oder Infusion keinen Wirkstoff enthält oder die Akupunkturnadel gar nicht in die Haut eindringt. Doch wie kann ein Scheinmedikament oder eine Scheinbehandlung überhaupt eine Wirkung zeigen?

Der Glaube an Heilung: Das neuropsychologische Phänomen des Placeboeffekts
Placeboeffekte werden auf neuropsychologische Phänomene zurückgeführt, die Selbstheilungskräfte aktivieren. Immer mehr Details dieser Wirkmechanismen werden wissenschaftlich erforscht. Dabei spielen die Erwartungen der Patienten eine zentrale Rolle. Vertrauen sie darauf, dass die Therapie wirkt, oder haben sie eher Zweifel? Haben sie früher gute oder eher negative Erfahrungen mit medizinischen Behandlungen oder Behandlern gemacht? Schöpfen sie nach dem Gespräch mit dem Arzt Hoffnung oder löst die Lektüre des Beipackzettels eher Ängste aus? Erfahrungen führen zu Lernprozessen, die bewusst oder unbewusst ablaufen und große Wirkungen entfalten können: positive Placeboeffekte, aber auch negative „Noceboeffekte“. Je nachdem können sie die Heilung fördern – oder auch verhindern.

Der Placeboeffekt beeinflusst jede medizinische Behandlung
Eine Wirkung erzielt also nicht das Placebo selbst, sondern die an eine Behandlung geknüpfte Erwartung der Patienten. Placeboeffekte beeinflussen demnach jede Art von medizinischer Behandlung, sei es die Wirksamkeit und Verträglichkeit von gut erforschten und bewährten Medikamenten, der Ausgang einer Operation oder Gesprächstherapie – oder eben die Wirkung einer Zuckertablette. Echte Placebobehandlungen, beispielsweise zum Test der Wirksamkeit eines Medikaments, sollten jedoch weiterhin nur unter ganz bestimmten Voraussetzungen, wie beispielsweise in klinischen Studien stattfinden.
In seiner Konferenz-Keynote fasst Professor Manfred Schedlowski seine Forschungsergebnisse zur Thematik zusammen und gibt einen spannenden Überblick über die neuen und aktuellen wissenschaftlichen Erkenntnisse zum Phänomen Placebo- und Noceboeffekt. Da gerade ältere Patienten häufig Noceboeffekten in der Kommunikation ausgesetzt sind, ist dieses Thema besonders für Geriater interessant und relevant.

Zur Person

Professor Manfred Schedlowski ist Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen. Im Lauf seiner Karriere absolvierte er Forschungsaufenthalte an der University of Newcastle und der La Trobe University in Melbourne, Australien sowie an der Eidgenössischen Technischen Hochschule (ETH) Zürich. Der Schwerpunkt seiner Forschung liegt auf der Analyse der funktionellen Verbindungen zwischen dem Nervensystem, dem Hormonsystem und dem Immunsystem. Vor diesem Hintergrund beschäftigt sich Professor Schedlowski mit seiner Arbeitsgruppe im Rahmen der Placeboantwort mit dem Phänomen der Klassischen Konditionierung von Immunfunktionen und analysiert die neurobiologischen und biochemischen Mechanismen sowie die klinische Bedeutung der Placebo- und Noceboantwort.

Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 41
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind unter anderem Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1.700 Mitglieder.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen
https://www.aey-congresse.de/events/dgg-dggg-online-konferenz.html

Anhang
Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“
https://idw-online.de/de/attachment80594

Quelle: IDW

(nach oben)


Abwasser aus dem Bergbau aus Ressource nutzen

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Bergbau geht meist mit der Förderung großer Wassermengen einher, die bisher überwiegend ungenutzt abgeleitet wurden. Das kürzlich abgeschlossene Projekt „Räumlich-zeitlich abgestimmte Kreislaufführung und Wiederverwendung bergbaulicher Abwässer am Beispiel eines urban geprägten Bergbaugebietes – Water Miner“ hat gezeigt, dass Abwässer aus dem Bergbau eine wichtige ergänzende Wasserressource sein können. Auch wenn sich in Bergbaugebieten die Mengen und Orte, wo Wasser gefördert wird, ständig ändern, können bergbauliche Abwässer mit einem geeigneten räumlich-zeitlichen Wassermanagement als Brauchwasser oder Trinkwasser genutzt werden.

Der Bergbau wird Schritt für Schritt stillgelegt
Water Miner unter der Leitung von Prof. Dr. Harro Stolpe, emeritierter Professor an der Fakultät für Bauingenieurwesen der Ruhr-Universität Bochum (RUB), startete im Jahr 2016, mit dem Ziel zu untersuchen, ob und wie man bergbauliche Abwässer nutzen kann. Das Projektgebiet liegt in Ha Long im Norden Vietnams. Dort wird Steinkohle im Tagebau und untertägig abgebaut. „Aufgrund der Lagerungsverhältnisse der Kohle ändert sich der Abbau im Projektgebiet fortlaufend“, so Harro Stolpe. „Die Tagebaubetriebe werden im Rahmen eines Strukturwandels der Region in bereits einigen Jahren stillgelegt, und danach wird auch der Tiefbau zugunsten Umwelt- und Naturschutz und Tourismus beendet.“

Entsprechend fallen die Abwässer und Oberflächenabflüsse räumlich und zeitlich stark veränderlich an, was besondere Konzepte für eine Nutzung – auch nach der Stilllegung des Bergbaus – erfordert. Auf der anderen Seite ist der im Projektgebiet stark zunehmende Tourismus mit einem steigenden Wasserbedarf verbunden. Das macht ihn zu einem möglichen Nutzer aufbereiteter bergbaulicher Abwässer.

Analyse- und Managementtools
Das Projektteam entwickelte eine räumlich-zeitliche Analyse mithilfe eines Stoffstrommodells und Geoinformationssystemen. Sie ermöglicht die Betrachtung und das Management der im Bergbau stark veränderlichen Abwasserströme, des Bedarfes an Hilfsstoffen und Energie bis hin zu den auftretenden Kosten und Erlösen für die Wassernutzung. Ein weiterer Aspekt war das möglichst umweltverträgliche Management von Oberflächenabflüssen im Projektgebiet. Dafür entwickelte das Team ein Konzept, das es erlaubt, die Sedimenteinträge ins Wasser zu reduzieren und Kohlestäube abzutrennen. Außerdem befassten sich die Forscherinnen und Forscher mit der Möglichkeit, die beim Kohleabbau entstehenden Restseen für die Speicherung und Nutzung von Regenwasser zu nutzen.

„Insgesamt konnten wir zeigen, dass gereinigtes bergbauliches Abwasser einen wesentlichen Beitrag zur Deckung des steigenden Wasserbedarfes in Ha Long darstellen und ein verbessertes Oberflächenwassermanagement einen wichtigen Beitrag zum Umweltschutz in der Ha Long Bucht als Unesco-Weltnaturerbe leisten kann“, resümiert Harro Stolpe.

Kooperationspartner
Beteiligte am Projekt Water Miner sind neben der Arbeitsgruppe Umwelttechnik und Ökologie im Bauwesen der RUB das Dresdner Grundwasserforschungszentrum, die Firma LUG Engineering, das Fachgebiet Umweltökonomie der Universität Koblenz-Landau und die Firmem Ribeka sowie Disy Informationssysteme.

Das Projekt fand in enger Kooperation mit dem vietnamesischen Bergbauunternehmen Vinacomin Vietnam National Coal – Mineral Industries Holding Corporation Limited statt. In der Nachfolge des Projektes werden Gespräche zwischen Vinacomin, dem örtlichen Wasserversorger und der Stadtverwaltung zur Umsetzung der entwickelten Konzepte durchgeführt.

Förderung
Das Verbundprojekt Water Miner wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme „Zukunftsfähige Technologien und Konzepte zur Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung und Entsalzung“ gefördert.

Pressekontakt
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de

Quelle: IDW

(nach oben)


Covid-19: Kläranlagen als Frühwarnsystem – TU Darmstadt analysiert das Erbmaterial von SARS-CoV-2 aus Abwasserproben

Claudia Staub Stabsstelle Kommunikation und Medien
Technische Universität Darmstadt

Forschende der TU Darmstadt weisen Coronaviren im Abwasser nach. Zusammen mit der Stadtentwässerung Frankfurt am Main entwickeln sie ein Monitoringsystem, das auch Infizierte erkennt, die keine erkennbaren Symptome zeigen.

Seit einigen Wochen steigt die Zahl der neu mit SARS-CoV-2 infizierten Personen bundesweit wieder an. „Für die Stadt Frankfurt haben wir diesen Trend schon bemerkt, bevor er sich in den Zahlen der offiziell bestätigten Fälle zeigte“, sagt Professorin Susanne Lackner, Leiterin des Fachgebiets Abwasserwirtschaft an der TU Darmstadt. Sie und ihr Team untersuchen Wasserproben aus Frankfurter Kläranlagen auf Coronaviren: „Im Juli lagen die Virenkonzentrationen im Abwasser noch stabil auf relativ niedrigem Niveau, dann stiegen die Werte deutlich an.“

Infizierte Personen scheiden Coronaviren mit dem Stuhl aus. Nach aktuellem Kenntnisstand befinden sich im Abwasser zwar keine infektiösen Viren mehr, aber ihr Erbgut lässt sich mit der in der Medizin etablierten PCR-Technik nachweisen. Die Messung ist so empfindlich, dass sie weniger als zehn bestätigte Covid-19-Fälle pro 100.000 Einwohner detektiert. „Von Vorteil ist, dass wir mit der Methode auch asymptomatisch Infizierte erfassen“, betont Lackner. Ziel ihrer Forschung ist die Etablierung eines Monitoringsystems für die Stadt Frankfurt. Bei ansteigenden Virenmengen im Abwasser sollten Schutzmaßnahmen verschärft, bei einem Rückgang könnten sie wieder gelockert werden.

Lackners Arbeitsgruppe ist hessenweit die erste, die ein solches Konzept entwickelt und in einer Großstadt testet. Die Darmstädter Wissenschaftlerinnen und Wissenschaftler erhalten zweimal wöchentlich Proben aus den Zuläufen zu den Frankfurter Klärwerken in den Stadtteilen Sindlingen und Niederrad, die Abwasser von insgesamt über 1,8 Millionen Bürgern aufbereiten, sowie aus einem Teilzulauf in Griesheim. Zukünftig könnte die Probenahme erweitert werden, so Lackner: „Wenn wir das Infektionsgeschehen genauer und regionaler, etwa in einzelnen Stadtteilen, verfolgen wollen, müssten Proben häufiger und auch direkt im Kanalsystem entnommen werden.“

Lackner und ihre Mitarbeitenden untersuchen zudem das Abwasser vom Frankfurter Flughafen. In diesen Proben bestimmen sie nicht nur die Virenmenge anhand ausgewählter Genfragmente, sondern sie sequenzieren das komplette Erbgut der Krankheitserreger, um mehr über die Herkunft und Verbreitungswege der Viren zu erfahren. Mittlerweile gibt es verschiedene regionale Varianten von SARS-CoV-2, da sich das Erbmaterial der Viren im Lauf der Zeit ändert. Erste Ergebnisse zu den Proben vom Frankfurter Flughafen werden voraussichtlich in einigen Wochen vorliegen.

Das Land Hessen unterstützt die Corona-Projekte des TU-Fachgebiets Abwasserwirtschaft seit Juni im Rahmen des „Operationellen Programms für die Förderung von Investitionen in Wachstum und Beschäftigung“ mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE).

Quelle: IDW

(nach oben)


SARS-CoV-2-Viren im Abwasser: COVID-19 Überwachung und Abschätzung potenzieller Infektionsrisiken

Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

FRANKFURT/AACHEN. Seit Beginn der Pandemie arbeiten Forschergruppen an Methoden, den Nachweis von SARS-CoV-2 Viren im Abwasser für die Überwachung des COVID-19 Infektionsgrads der Bevölkerung zu verwenden. Die Idee ist einfach: Da infizierte Personen SARS-CoV-2 Viren über die Fäkalien abgeben, könnten Abwasserproben Aufschluss über die Infektionszahlen aller an eine Kläranlage angeschlossener Einwohner liefern. Bei ausreichender Empfindlichkeit könnten solche Analysen Behörden als Frühwarnsystem dienen, um lokal ansteigende Fallzahlen im Einzugsgebiet einer Kläranlage frühzeitig zu erkennen.

Ein Konsortium aus Frankfurter Virologen, Ökotoxikologen und Evolutionsforschern und Aachener Wasserforschern konnte jetzt erstmals für Deutschland zeigen, dass sich SARS-CoV-2 Genmaterial mit modernen molekularen Methoden in Kläranlagen nachweisen lässt. Analysen ergaben in allen neun während der ersten Pandemiewelle im April 2020 beprobten Kläranlagen 3 bis 20 Genkopien pro Milliliter Rohabwasser. Dies ist ein Konzentrationsniveau, wie es auch in Studien in den Niederlanden und den USA gemessen wurde.

Erstaunt waren die Forscher, als ältere Rückstellproben aus den Jahren 2017 und 2018 vor dem Ausbruch der Pandemie ebenfalls Signale lieferten. Nach umfangreicher Methoden-Validierung war klar, dass die verwendeten Genprimer nicht nur SARS- CoV-2, sondern fälschlicherweise auch andere nicht-krankheitsauslösende Coronaviren im Abwasser miterfassen. Die jetzt spezifisch für SARS-CoV-2 im Abwasser entwickelte Methodik wurde mit Gensequenzierung bestätigt.

Das Verfahren lässt sich nun in der so genannten Abwasser-basierten Epidemiologie einsetzen: Die gemessene Virenfracht einer Kläranlage erlaubt Rückschlüsse auf die Anzahl der an COIVD-19 infizierten Personen im Einzugsgebiet. In der größten Kläranlage wurden bei einer Virenfracht von 6 Billionen (6 x 1012) Genäquivalenten pro Tag 1037 akute Fälle in Einzugsgebiet abgeschätzt, in kleineren Kläranlagen bei zwei Größenordnungen geringerer Virenfracht dagegen 36 Fälle.

Die Sensitivität ist ausreichend, um als Frühwarnsystem anzuzeigen, ob der Maßnahmenwert von 50 Inzidenzen pro 100.000 Einwohnern überschritten wird. Frühere Hoffnungen, die Präzision würde ausreichen, die Dunkelziffer nicht-labordiagnostisch erfasster Infizierter zu bestimmen, haben sich bislang nicht erfüllt. Die Wissenschaftlerinnen und Wissenschaftler halten aber weitere Methodenverbesserungen für möglich.

Die im Abwasser nachgewiesenen SARS-CoV-2 Fragmente haben sich in Zelltests in vitro als nicht-infektiös dargestellt. Wegen der hohen Frachten und geringem Rückhaltevermögen konventioneller Kläranlagen ist das Verhalten von SARS-CoV-2 im Wasserkreislauf aber vertieft zu untersuchen. Die Autoren der Studie arbeiten daran, ihr Wissen für eine baldige Anwendung der Methodik bereitzustellen, dazu wird eine enge Zusammenarbeit mit Gesundheitsministerien, Umweltministerien, Kläranlagenbetreibern und Fachverbänden angestrebt.

Das Forscherteam wurde in Eigeninitiative vom gemeinnützigen Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW), dem Institut für Siedlungswasserwirtschaft der RWTH Aachen (ISA), dem Institut für Medizinische Virologie des Universitätsklinikums Frankfurt (KGU) und der Abteilung Evolutionsökologie und Umwelttoxikologie am Institut für Ökologie, Evolution und Diversität der Goethe-Universität Frankfurt ins Leben gerufen und von sechs Wasserverbänden in Nordrhein-Westfalen, dem LOEWE-Zentrum für Translationale Biodiversitätsgenomik (TBG) und der University of Saskatoon in Kanada unterstützt.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Frankfurt
Institut für Medizinische Virologie
Prof. Dr. Sandra Ciesek über
Pressestelle Universitätsklinikum Frankfurt
Tel. +49 069 6301 86442
kommunikation@kgu.de

Goethe-Universität Frankfurt, Institut für Ökologie, Evolution und Diversität, und LOEWE Zentrum für Translationale Biodiversitätsgenomik (TBG)
Prof. Dr. rer. nat. Henner Hollert
hollert@bio.uni-frankfurt.de

Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW)
Dr. sc. Frank-Andreas Weber
weber@fiw.rwth-aachen.de

RWTH Aachen University, Institut für Siedlungswasserwirtschaft (ISA)
Univ.-Prof. Dr.-Ing. habil. Thomas Wintgens
wintgens@isa.rwth-aachen.de

Originalpublikation:
Sandra Westhaus, Frank-Andreas Weber, Sabrina Schiwy, Volker Linnemann, Markus Brinkmann, Marek Widera, Carola Greve, Axel Janke, Henner Hollert, Thomas Wintgens, Sandra Ciesek. Detection of SARS-CoV-2 in raw and treated wastewater in Germany – suitability for COVID-19 surveillance and potential transmission risks. Science of the Total Environment. https://doi.org/10.1016/j.scitotenv.2020.141750, https://www.sciencedirect.com/science/article/pii/S0048969720352797

Weitere Informationen:
http://www.uni-frankfurt.de/91245167 „Grafisches Abstract“: deutsche Übersetzung des Untersuchungsschemas aus der Publikation Westhaus et. al. https://www.sciencedirect.com/science/article/pii/S0048969720352797

Quelle: IDW

(nach oben)


Küssen verboten: Abwehrmechanismus im Speichel stoppt Zika-Virus, aber nicht SARS-CoV-2

Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm

Ob Küssen während der Coronavirus-Pandemie zum Risikoverhalten wird, haben Virologinnen und Virologen der Ulmer Universitätsmedizin untersucht. In einer aktuellen Studie erforschen sie, inwiefern das Zika-Virus und das neue Coronavirus (SARS-CoV-2) über Speichel von Mensch zu Mensch weitergegeben werden können. Für das Zika-Virus haben die Forschenden einen neuen Abwehrmechanismus entdeckt, der eine Infektion verhindern kann. Auf die Ansteckungsgefahr mit SARS-CoV-2 hat diese Speichelkomponente hingegen keine Auswirkungen.

Können das neue Coronavirus oder der Zika-Erreger beim Küssen übertragen werden? Tatsächlich lassen sich beide Viren in großen Mengen im Speichel nachweisen. Ob sie auch über diese Körperflüssigkeit von Mensch zu Mensch weitergegeben werden, haben Ulmer Virologinnen und Virologen in einer aktuellen Studie untersucht. Dabei entdeckten sie einen neuen Abwehrmechanismus im Speichel, der eine Ansteckung mit dem Zika-Virus verhindern kann. Auf das Infektionsrisiko mit dem neuartigen Coronavirus (SARS-CoV-2) hat diese Speichelkomponente allerdings keinen Einfluss.

Wie verbreiten sich neu aufkommende Viren von Mensch zu Mensch? Diese Frage stellen sich Forschende des Ulmer Instituts für Molekulare Virologie sowohl für das Zika-Virus als auch für das neue Coronavirus. Als Zoonosen sind beide Erreger in der jüngeren Vergangenheit von Tieren auf den Menschen übergegangen. SARS-CoV-2 verbreitet sich seither vor allem durch Tröpfcheninfektion und Aerosole. Hauptüberträger des Zika-Virus sind hingegen Gelbfiebermücken, es wurden jedoch auch Übertragungen von Mensch zu Mensch durch Geschlechtsverkehr berichtet. In früheren Studien konnten die Virologinnen und Virologen der Ulmer Universitätsmedizin bereits zeigen, dass sogenannte extrazelluläre Vesikel in der menschlichen Samenflüssigkeit diesen Übertragungsweg für Zika-Viren und verwandte Erreger hemmen. Ob solche körpereigenen Abwehrmechanismen auch bei der Speichelübertragung des Zika-Erregers oder des neuen Coronavirus aktiv sind, untersuchen Forschende um Professor Jan Münch, Dr. Janis Müller, Rüdiger Groß und Carina Conzelmann in ihrem jetzt erschienenen Fachbeitrag.

In Laborexperimenten haben die Autoren menschlichen Speichel mit dem jeweiligen Virus (SARS-CoV-2 oder Zika-Virus) zusammengebracht.
Anschließend wurden Zelllinien sowie primäre Mundschleimhautzellen diesen Gemischen ausgesetzt. Um eine Infektion mit dem jeweiligen Erreger nachzuweisen, haben die Wissenschaftlerinnen und Wissenschaftler die Menge der Viren in den Zellen gemessen – mit gegensätzlichen Ergebnissen. Sie fanden nämlich heraus, dass eine Zika-Virus-Infektion bei hoher Speichelkonzentration nahezu ausgeschlossen ist. Für SARS-CoV-2 konnte dieser Effekt nicht nachgewiesen werden.
Die eigentliche Herausforderung bestand jedoch in der Identifikation der Speichelkomponente, die eine Zika-Virus-Übertragung verhindert. Aufgrund ihrer früheren Forschungsergebnisse in Spermaproben lag das besondere Augenmerk der Gruppe auf extrazellulären Vesikeln. „Mithilfe hochspezialisierter Methoden mussten die Vesikel aus dem Speichel aufgereinigt werden. Anschließend konnten wir ihre Zahl, Größe, Identität und antivirale Aktivität bestimmen“, erklärt Dr. Janis Müller, der diese Analysen bei einem Gastaufenthalt am renommierten Karolinska Institut in Stockholm durchgeführt hat.

Insgesamt zeigen die Virologinnen und Virologen, dass das Zika-Virus in der Lage ist, Zellen der Mundschleimhaut zu infizieren. Allerdings wird eine Infektion – ähnlich wie in menschlichem Sperma – durch die körpereigenen extrazellulären Vesikel im Speichel gehemmt. „Die Vesikel sorgen dafür, dass das Zika-Virus nicht an die Zielzelle andocken und diese infizieren kann“, erklären die Erstautoren Carina Conzelmann und Rüdiger Groß. Auf eine Infektion mit dem neuartigen Coronavirus hat dieser Abwehrmechanismus jedoch keinen Einfluss. Demnach scheint die Speichelübertragung beim Zika-Virus keine große Rolle zu spielen, möglicherweise aber bei SARS-CoV-2.

Somit haben die Virenforscherinnen und -forscher mit extrazellulären Vesikeln eine neue Komponente des menschlichen Immunsystems identifiziert, die ihre Wirkung offenbar in verschiedenen Körperflüssigkeiten entfaltet. Dieser Schutzmechanismus scheint sich spezifisch gegen Eigenschaften von Flaviviren (Zika-Virus, Dengue-Virus, West-Nil-Virus) zu richten. In weiteren Untersuchungen wollen die Forschenden ergründen, worauf dieser Abwehrmechanismus beruht.

Das Ergebnis der aktuellen Studie im „Journal of Extracellular Vesicles“ untermauert Berichte, wonach keine Übertragungen des Zika-Virus durchs Küssen bekannt sind – obwohl das infektiöse Virus im Speichel von Infizierten nachweisbar ist. Beim Verdacht einer Coronavirus-Infektion raten die Forschenden jedoch vom Küssen ab.

Die Untersuchungen sind im Zuge des Projekts Fight-nCoV zur Identifizierung antiviraler Wirkstoffe gegen SARS-CoV-2 sowie des Sonderforschungsbereichs 1279 („Nutzung des menschlichen Peptidoms zur Entwicklung neuer antimikrobieller und anti-Krebs Therapeutika“) gefördert worden. Dr. Janis Müller wurde zudem durch das „Eliteprogramm für Postdoktorandinnen und -doktoranden der Baden-Württemberg Stiftung“ zum Thema „Übertragung des Zika-Virus“ unterstützt sowie über seinen DFG-Erstantrag zur Erforschung von antiviralen Eigenschaften in Körperflüssigkeiten.

Wissenschaftliche Ansprechpartner:

Dr. Janis Müller: Tel.: 0731/500 65170, janis.mueller@uni-ulm.de

Originalpublikation:

Carina Conzelmann, Rüdiger Groß, Min Zou, Franziska Krüger, André Görgens, Manuela O. Gustafsson, Samir El Andaloussi, Jan Münch and Janis A. Müller: Salivary extracellular vesicles inhibit Zika virus but not SARS-CoV-2 infection. JOURNAL OF EXTRACELLULAR VESICLES 2020, VOL. 09, 1808281 https://doi.org/10.1080/20013078.2020.1808281

Quelle: IDW

(nach oben)


Die (un)sichtbare Dürre: TU Bergakademie Freiberg untersucht Auswirkungen auf Grundwasser und Wasserqualität

Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg

Eigentlich ist der Sommer 2020 laut Deutschen Wetterdienstes ein ganz normaler – weder zu trocken noch zu nass. Was sich jedoch aktuell vor allem in den tieferen Bodenschichten zeigt, ist die extreme Trockenheit der letzten Jahre. Die Folgen der vergangenen milden Winter und heißen Sommer waren bisher unsichtbar, sind aber jetzt besonders in Sachsen spürbar. Betroffen sind grundwassergespeiste Flüsse und Seen sowie der Wald. Was das für das Grundwasser und die Wasserqualität in deutschen Seen bedeutet, erklärt Prof. Dr. Traugott Scheytt von der TU Bergakademie Freiberg.

„Im Detail machen uns vor allem die sinkenden Grundwasserspiegel, die damit verbundenen Engpässe in der Trinkwasserversorgung und der Wasserqualität sowie die absterbenden Bäume große Sorgen“, erklärt Prof. Dr. Traugott Scheytt. Grund dafür ist die fehlende Grundwasserneubildung. „Immer mehr Wasser fließt aus den Seen und Flüssen ab und viel zu wenig strömt zu. Das hat nicht nur Auswirkungen auf den Wasserpegel, sondern auch auf die Wasserzusammensetzung. So können beispielsweise Nährstoffe wie Nitrat, Eisen oder Sulfat schneller einsickern und entziehen dem Grundwasser Sauerstoff. Dieser sauerstoffarme Zustrom kann die Wasserqualität in Seen und Flüsse nachhaltig beeinflussen und auch zum Absterben von Fischen und anderen Lebewesen führen. Ein Teufelskreis, wo doch gleichzeitig der Wasserverbrauch in Zeiten der Trockenheit besonders hoch ist.

„Ziel muss es sein, die sinkenden Vorräte wiederherstellen. Dafür untersuchen wir aktuell gemeinsam mit weiteren Partnern die Wechselwirkung zwischen Oberflächen- und Grundwasser, die Ursachen für den Sauerstoffmangel sowie mögliche Belüftungsmaßnahmen in ausgewählten Seen, wie dem Speicherbecken in Lohsa“, so Prof. Scheytt. Der Freiberger Professor hat im August 2018 die Professur für Hydrogeologie und Hydrochemie am Institut für Geologie der TU Bergakademie Freiberg übernommen.

Zudem ist er Sprecher des Zentrums für Wasserforschung an der TU Bergakademie Freiberg, in welchem die vorhandenen Kompetenzen zum Thema Wasser gebündelt werden und Wissenschaftler/innen verschiedener Fachbereiche an Projekten zu den Ursachen und Auswirkungen von Trockenheit und Überschwemmung forschen, aber auch zu möglichen Gegenmaßnahmen.

Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; Tel.: 03731-392775; Email: traugott.scheytt@geo.tu-freiberg.de

Weitere Informationen:
https://tu-freiberg.de/geo/hydro

Quelle: IDW

(nach oben)


Künstliche Intelligenz lernt kontinentale Hydrologie

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden.

Die komplexe Verteilung der kontinentalen Wassermassen in Südamerika wurde mit einer neuen Deep-Learning-Methode aus Satellitendaten bestimmt.
Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Da diese Daten jedoch nur die typischen großskaligen Massenanomalien enthalten, sind zunächst keine unmittelbaren Rückschlüsse auf kleinskalige Strukturen, wie etwa die tatsächliche Verteilung von Wassermassen in Flüssen und Nebenarmen, möglich. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden. Neu dabei ist die geschickte Kombination von Deep-Learning, hydrologischen Modellen und Erdbeobachtungen aus Gravimetrie und Altimetrie. Die Studie ist heute in der Fachzeitschrift Geophysical Research Letters erschienen.

Bislang ist nicht genau bekannt, wie viel Wasser ein Kontinent wirklich speichert. Die kontinentalen Wassermassen verändern sich zudem beständig, sie haben dadurch Auswirkungen auf die Erdrotation und sind Bindeglied des Wasserkreislaufes zwischen Atmosphäre und Ozean. Amazonas-Zuflüsse in Peru, beispielsweise, führen in manchen Jahren riesige Wassermengen, in anderen nur einen Bruchteil davon. Neben den Wassermassen der Flüsse und Binnengewässer, finden sich auch im Boden, Schnee und unterirdischen Speichern beträchtliche Wassermengen, die nur schwer direkt quantifiziert werden können.

Das Forscherteam um Erstautor Christopher Irrgang entwickelte nun eine neue Methode, um aus den grob-aufgelösten Satellitendaten Rückschlüsse auf die gespeicherten Wassermengen des südamerikanischen Kontinents zu ziehen. „Für das sogenannte Herunterskalieren nutzen wir ein faltendes neuronales Netzwerk, kurz CNN, in Verbindung mit einer neu entwickelten Trainingsmethode“, sagt Irrgang. „CNNs eignen sich besonders gut für die Verarbeitung räumlicher Erdbeobachtungen, da sie zuverlässig wiederkehrende Muster wie Linien, Kanten, oder komplexere Formen und Merkmale extrahieren können.“

Um die Verbindung zwischen kontinentalem Wasserspeicher und entsprechenden Satellitenbeobachtungen zu lernen, wurde das CNN (Convolutional Neural Network) mit Simulationsdaten über den Zeitraum 2003 bis 2018 eines numerischen hydrologischen Modells trainiert. Zusätzlich wurden Daten aus der Satellitenaltimetrie im Amazonasgebiet zur Validierung verwendet. Außergewöhnlich ist, dass sich dieses CNN kontinuierlich selbst verbessert und validiert, um möglichst genaue Aussagen über die Verteilung der Wasserspeicher zu treffen. „Dieses CNN vereint damit die Vorteile der numerischen Modellierung und hochpräziser Erdbeobachtungen“, so Irrgang.

Die Studie der ForscherInnen zeigte, dass die neue Deep-Learning-Methode insbesondere für die tropischen Regionen nördlich des -20. Breitengrades des südamerikanischen Kontinents, wo Regenwälder, ausgedehnte Oberflächengewässer und auch große Grundwasserbecken liegen, sehr verlässlich ist. Ebenso für den grundwasserreichen, westlichen Teil der Südspitze Südamerikas.

In Trocken- und Wüstenregionen funktioniert das Herunterskalieren weniger gut. Erklären lässt sich dies durch die vergleichsweise geringe Variabilität der dort ohnehin geringen Wasserspeicher, welche dementsprechend nur einen marginalen Effekt auf das Training des neuronalen Netzwerkes haben. Für das Amazonasgebiet jedoch konnten die ForscherInnen zeigen, dass die Vorhersage des validierten CNN genauer als das verwendete numerische Modell ist.

In Zukunft werden sowohl großräumige wie auch regionale Analysen und Vorhersagen der globalen kontinentalen Wasserspeicher dringend gebraucht. Die Weiterentwicklung numerischer Modelle und die Kombination mit innovativen Deep-Learning-Methoden werden dabei eine immer wichtigere Rolle spielen, um umfassende Einblicke in die kontinentale Hydrologie zu erhalten. Neben den rein geophysikalischen Untersuchungen ergeben sich vielfältige weitere Anwendungsmöglichkeiten. Es könnte zum Beispiel die Einwirkung des Klimawandels auf die kontinentale Hydrologie untersucht werden. Auch Stressfaktoren für Ökosysteme wie Dürren oder Überflutungen könnten besser identifiziert werden. Darüber hinaus würden derartige Analysen auch die Entwicklung von Wassermanagement-Strategien für landwirtschaftliche und urbane Regionen erleichtern.

Finanzierung:
Diese Studie wurde von der Helmholtz-Gemeinschaft sowie aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft durch das Projekt Advanced Earth System Modelling-Kapazität (ESM) finanziert.

Originalstudie: Irrgang, C., Saynisch-Wagner, J., Dill, R., Boergens, E., & Thomas, M. (2020). Self-validating deep learning for recovering terrestrial water storage from gravity and altimetry measurements. Geophysical Research Letters, 47, e2020GL089258.
https://doi.org/10.1029/2020GL089258

Medienkontakt:
Josef Zens
Leiter Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1040
E-Mail: josef.zens@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Christopher Irrgang
Sektion 1.3 Erdsystem-Modellierung
Helmholtz-Zentrum Potsdam
Deutsches GeoforschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49-331-288-2847
Email: irrgang@gfz-potsdam.de

Originalpublikation:
https://doi.org/10.1029/2020GL089258

Weitere Informationen:
https://www.gfz-potsdam.de/medien-kommunikation/meldungen/detailansicht/article/…

Quelle: IDW

(nach oben)


TU intern: Ein Hundeleben und sein CO2-Fußabdruck

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Die erste Ökobilanz des Haustieres offenbart signifikante Auswirkungen auf die Umwelt
Etwa 8,2 Tonnen CO2 stößt ein 15 Kilogramm schwerer Hund im Laufe von 13 Lebensjahren aus. Das ergab die Ökobilanz eines durchschnittlichen Hundes, die von Kim Maya Yavor und Dr. Annekatrin Lehmann unter der Leitung von Prof. Dr. Matthias Finkbeiner am Fachgebiet Sustainable Engineering durchgeführt wurde. „Die 8,2 Tonnen CO2 entsprechen 13 Hin- und Rückflügen von Berlin nach Barcelona oder fast der Menge, die bei der Produktion eines Luxusautos der Mittelklasse, wie zum Beispiel eines Mercedes C250, emittiert wird“, sagt Prof. Dr. Matthias Finkbeiner. Außerdem scheidet so ein Durchschnittshund über seine 13 Lebensjahre rund eine Tonne Kot und knapp 2000 Liter Urin aus – mit signifikanten Folgen für die Umwelt. „Dieses Ausmaß hat uns überrascht“, so Finkbeiner.

Ein Novum
Es ist die erste Ökobilanz, die für den kompletten Lebensweg eines Hundes erstellt worden ist – vom Tierfutter bis zu den Exkrementen. Die Wissenschaftler legten für ihre Berechnungen ein Gewicht von 15 Kilogramm und eine Lebensdauer von 13 Jahren zugrunde. In die Berechnungen sind die Rohstoffe für das Futter und Ressourcen für dessen Herstellung sowie die Ressourcen für die Verpackung des Futters und seines Transportes genauso eingeflossen wie eben die Umweltauswirkungen der Exkremente, die Produktion der Plastiktüten für deren Sammlung und die Ressourcen für die Straßenreinigung – also alle Stoff- und Energieströme, die in einem Produkt stecken und auf die Umwelt wirken. Wenn beispielsweise in der Fleischproduktion für das Hundefutter Soja aus Brasilien eingesetzt wurde, kam das mit in die Bilanz. „Dass unsere Ökobilanz auf den Umweltauswirkungen des gesamten Tierfutters, das ein Hund im Laufe seines Lebens frisst, basiert, aber auch auf den Umweltauswirkungen von Urin und Kot ist ein Novum“, sagt Matthias Finkbeiner. Gerade die Auswirkungen des Eintrages von Kot und Urin in die Umwelt seien bislang noch von keiner Ökobilanz erfasst worden.

Im Kot: Phosphor, Stickstoff, Schwermetalle
Und es sind das Tierfutter und die Exkremente des Haustieres, die die Umwelt am heftigsten belasten. „Wir haben für unsere Ökobilanz eines durchschnittlichen Hundes 15 Indikatoren, wir sprechen auch von Umweltwirkungskategorien, untersucht. Dazu zählen unter anderem der Klimawandel, Ozonabbau, Smog, die Eutrophierung von Gewässern, Versauerung von Böden, die Süßwasser-Ökotoxizität und die Landnutzung. Bei fast allen Parametern macht das Hundefutter mit circa 90 Prozent den Löwenanteil der Belastungen aus. Beim Indikator Süßwasser-Eutrophierung resultieren die Schäden allerdings zu etwa 90 Prozent aus dem Urin und Kot des Hundes. Die Süßwasserökotoxizität (Vergiftung) wird zur Hälfte durch den Kot verursacht. „Da es zum Hundekot keine Stoffdaten gab, mussten wir entsprechende Analysen in Auftrag geben, um die ausgeschiedenen Mengen an Phosphor, Stickstoff und Schwermetallen zu ermitteln. Phosphor und Stickstoff haben erheblichen Einfluss auf die Eutrophierung, also die unerwünschte Nährstoffzunahme in den Gewässern, die Schwermetalle auf die Vergiftung des Bodens“, so Finkbeiner. Vor dem Hintergrund dieser Zahlen konstatieren Kim Maya Yavor, Annekatrin Lehmann und Matthias Finkbeiner in ihrer Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“, dass die Sammlung und geregelte Entsorgung des Hundekots ein wichtiger Beitrag wären, die Natur zu schonen. „Die zusätzliche Umweltbelastung, die durch die Herstellung des Plastiksäckchens für den Kot entsteht, ist deutlich geringer als der Schaden, der entsteht, wenn der Kot direkt in die Umwelt eingetragen wird. Auch das sagen unsere Zahlen aus.“

Hundefutter aus der Massentierhaltung
Es sind die Größenordnungen, die die Wissenschaftler*innen in Erstaunen versetzten, als sie die Ergebnisse der Datenauswertung vor sich sahen. „Und wenn im Zusammenhang mit Corona zum x-ten Male die industrielle Fleischproduktion am Pranger steht, dann muss auch zur Kenntnis genommen werden, dass genau mit diesem industriell hergestellten Fleisch eines der liebsten Haustiere der Deutschen gefüttert wird. Das Fleisch für die Hundefutterproduktion kommt wohl weder vom Biohof in der Uckermark noch von den bayerischen Almwiesen. Es stammt aus der Massentierhaltung mit den bekannten sozialen und ökologischen Auswirkungen“, sagt Finkbeiner. Und noch eine Zahl nennt er, um die zunehmende Dimension der Umweltauswirkungen der Hunde zu verdeutlichen: In Deutschland hat sich die Anzahl der Hunde seit dem Jahr 2000 mehr als verdoppelt. Statt der fünf Millionen im Jahr 2000 sind es aktuell 10,1 Millionen Hunde im Jahr 2019. In den letzten fünf Jahren sind im Schnitt sogar jedes Jahr mehr als 650.000 Hunde dazugekommen.

Dackel ist besser als Dogge
Die 8,2 Tonnen CO2-Ausstoß in 13 Jahren ergeben einen jährlichen CO2-Ausstoß von 630 Kilogramm. „Setzt man diese 630 Kilogramm CO2 ins Verhältnis zu den zwei Tonnen, die jeder Mensch pro Jahr emittieren kann, weil sie laut Weltklimarat für das Klima noch erträglich sind, dann muss sich jeder Hundebesitzer vor Augen führen, dass nahezu ein Drittel seines CO2-Budgets bereits vom Hund verbraucht wird.“

Finkbeiner und seine Kolleginnen haben die Ökobilanz auch für einen 7,5 Kilogramm schweren und acht Jahre alten Hund (drei Tonnen CO2-Ausstoß in acht Jahren) sowie für einen 30 Kilogramm schweren und 18 Jahre alten Hund (19 Tonnen CO2-Ausstoß in 18 Jahren) berechnet. Ihre Schlussfolgerung: Wie auch beim Auto gilt – ein kleiner Hund ist für das Klima und die Umwelt besser als ein großer. Also wenn schon Hund, dann lieber Dackel als Dogge.

Link zur Open-Source-Hunde-Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“: https://www.mdpi.com/2071-1050/12/8/3394

Die Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“ resultiert aus den Forschungen zur Ökobilanz eines Menschen, die ebenfalls am Fachgebiet Sustainable Engineering erstellt wurde. Mehr dazu unter https://www.tu.berlin/ueber-die-tu-berlin/profil/pressemitteilungen-nachrichten/…

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Matthias Finkbeiner
TU Berlin
Fachgebiet Sustainable Engineering
E-Mail: matthias.finkbeiner@tu-berlin.de

Quelle: IDW

(nach oben)


Plastikpartikel gelangen tief in den Boden

Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg

Plastikabfall gelangt in viel tiefere Schichten des Bodens als bislang angenommen. Das haben Marburger Geographen herausgefunden, indem sie die Lahnauen in Mittelhessen untersuchten. Natürliche Ablagerungsprozesse allein können das Eindringen in tiefe Schichten nicht erklären, schreiben die Wissenschaftler in der aktuellen Ausgabe der Fachzeitschrift „Environmental Pollution“.

Dass Plastikreste die Meere vermüllen, hat sich herumgesprochen – schätzungsweise erreichen jedes Jahr mehr als 5 Millionen Tonnen Kunststoffabfall die Ozeane, das entspricht fast dem hundertfachen Gewicht des Luxusdampfers „Titanic“. Doch die Verschmutzung macht nicht am Meeresufer Halt. Wenn der Müll in Flüssen bis zu deren Mündung ins Meer treibt, passiert er Auenlandschaften und Überschwemmungsgebiete. „Es liegt nahe, dort eine systematische Anhäufung von Plastikpartikeln zu vermuten“, sagt der Marburger Geograph Collin Weber, einer der beiden Verfasser der aktuellen Studie.

Wieviel Kunststoff findet sich in den Böden von Flussauen? Wie ist er räumlich verteilt, was sind die Ursachen dafür? Diese Fragen untersuchten der Marburger Geograph Professor Dr. Christian Opp und sein Doktorand Collin Weber, indem sie an verschiedenen Stellen entlang des Flusses Lahn in Mittelhessen Bohrungen anstellten, um Bodenproben zu entnehmen. Sie gewannen aus einer Tiefe bis zu zwei Metern insgesamt 120 Proben, die sie nach Kunststoff durchsuchten.

„Nach unserer Kenntnis ist dies die erste Untersuchung, die Plastik in Bodenprofilen bis zwei Meter unter der Oberfläche aufspürt“, erklärt Studienleiter Christian Opp. Die Wissenschaftler unterschieden die gefundenen Partikel nach ihrer Größe: Grobes Mikroplastik misst zwei bis fünf Millimeter, während die Größe von Mesoplastik zwischen einem halben und zweieinhalb Zentimetern liegt.

Im Schnitt fanden die Forscher zwei Kunststoffteilchen pro Kilogramm Erde, wobei das Maximum bis zu viermal höher liegt. Alles in allem kommt in den Lahnauen weniger Plastik vor als in Flüssen, Flussbetten und Ackerböden. Von der Quelle bis zur Mündung in den Rhein nimmt der Plastikgehalt zu. Die häufigste Kunststoffsorte ist Polyethylen, wie es vor allem für Verpackungen verwendet wird, gefolgt von Polypropylen und Polyamid. „Diese drei gehören zu den gebräuchlichsten Kunststoffarten, die den größten Teil der Kunststoffproduktion ausmachen“, schreiben die Autoren.

Man sieht den Partikeln an, wenn sie lange im Boden liegen – sie sind dann ausgeblichen und teilweise abgebaut; frisches Plastik findet sich eher in Äckern als auf Wiesen oder im Uferbereich. „Das legt nahe, dass es durch die Landwirtschaft zu einem ständigen Neueintrag von Kunststoff kommt“, legt Weber dar.

Zwar enthält die oberste Bodenschicht die meisten Plastikpartikel, jedoch kommt auch bis zu einer Tiefe von mehr als 80 Zentimetern noch vereinzelt Kunststoff vor – insbesondere in Ufernähe; aber auch unter Weideland erreicht Kunststoff Tiefen von gut über einem halben Meter. „Das ist tiefer, als bisher angenommen wurde“, hebt Weber hervor. Das natürliche Ablagerungsgeschehen alleine reiche nicht aus, um das Vorkommen in derart tiefen Schichten zu erklären, betonen die Autoren. „Plastikpartikel können auch vertikal verlagert werden!“, konstatiert Opp. Bei Ackerland sammle sich der Kunststoff hingegen wenige Handbreit unter der Oberfläche, weil der verdichtete Boden ein tieferes Eindringen verhindere.

Christian Opp lehrt Geographie an der Philipps-Universität. Das Hessische Landesamt für Naturschutz, Umwelt und Geologie förderte die Forschungsarbeit finanziell.

Originalveröffentlichung:
Collin Joel Weber & Christian Opp: Spatial patterns of mesoplastics and coarse microplastics in floodplain soils as resulting from land use and fluvial processes, Environmental Pollution 2020, DOI: https://doi.org/10.1016/j.envpol.2020.115390

Weitere Informationen:
Ansprechpartner:
Collin Joel Weber,
Arbeitsgruppe Boden- und Hydrogeographie
Tel: 06421-28-24395
E-Mail: collin.weber@geo.uni-marburg.de

Quelle: IDW

(nach oben)


Niedriger Blutdruck: Harmlos oder bedenklich für das Herz?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Wann man zum Arzt gehen sollte und welche Menschen besonders häufig betroffen sind, erläutert Experten-Ratgeber
Die Beschwerden sind schwer von Befindlichkeitsstörungen zu unterscheiden, der Leidensdruck kann hoch sein: Schwindel, Benommenheit, Flimmern vor den Augen, morgendliche Müdigkeit, Antriebsmangel, Konzentrations- und Leistungsschwäche. Auch kalte Hände und Füße, ein Gefühl des Luftmangels, Herzklopfen und innere Unruhe können auftreten. Einen niedrigen Blutdruck durch körperliche Veranlagung, der nicht auf eine Vorerkrankung zurückgeht, haben in Deutschland bis zu drei Millionen Menschen. „Viele Betroffene fühlen sich von Beschwerden wie Müdigkeit oder Herzrasen beeinträchtigt“, berichtet Prof. Dr. med. Thomas Meinertz vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. Diese Form des niedrigen Blutdrucks tritt (bis zur Menopause) häufiger bei jüngeren Frauen als bei älteren Personen auf. Bekanntlich kann ein zu hoher Blutdruck gefährlich für Herz und Gefäße werden bis hin zum Herzinfarkt und Schlaganfall, besonders dann, wenn der Hochdruck unentdeckt und unbehandelt bleibt. Deshalb rät die Herzstiftung ab 35 Jahren zur regelmäßigen Blutdruckmessung beim Hausarzt (Gesundheits-Checkup alle zwei Jahre). „Demgegenüber ist der niedrige Blutdruck für das Herz in aller Regel unbedenklich, wenn ihm keine Krankheiten zugrunde liegen“, betont der Kardiologe und Pharmakologe aus Hamburg. „Ist aber der Leidensdruck wegen der Beschwerden groß, sollten Betroffene zum Arzt, um organische Ursachen auszuschließen.“
Eine Hypotonie, wie der niedrige Blutdruck in der Fachsprache genannt wird, liegt vor, wenn der systolische (obere) Blutdruckwert unter 110 mmHg liegt. Dieser Grenzwert ist unabhängig von der Höhe des diastolischen (unteren) Blutdruckwerts. Über die Formen der Hypotonie – chronische und akute wie der plötzliche Blutdruckabfall -, wie und wann er therapiert werden sollte, informiert der Experten-Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“, der bei der Herzstiftung per Telefon unter 069 955128-400 kostenfrei angefordert werden kann. Unter www.herzstiftung.de erhalten Betroffene Informationen zu Diagnose und Therapie von niedrigem Blutdruck und Bluthochdruck.

Wann und wie den niedrigen Blutdruck behandeln?
Für eine Behandlung des niedrigen Blutdrucks ist für Mediziner von entscheidender Bedeutung, ob ihm organische Ursachen oder Krankheiten zugrunde liegen. Das können eine Unterfunktion der Nebenniere (Morbus Addison), der Schilddrüse oder der Hirnanhangdrüse, eine Blutarmut (Anämie), eine Erkrankung des vegetativen Nervensystems, Herzklappenfehler oder eine schwere Herzschwäche sein. Hier ist die Hypotonie das Symptom einer Krankheit beziehungsweise einer organischen Fehlfunktion, die gegebenenfalls medikamentös oder operativ behandelt werden muss.
Bei niedrigem Blutdruck durch körperliche Veranlagung ist die Prognose für die Betroffenen gut. Eine Behandlung ist nur bei Beschwerden wie den oben genannten notwendig, nicht medikamentös, sondern durch einfache Maßnahmen wie:
– eine erhöhte Kochsalzzufuhr (z. B. kräftig nachsalzen oder kräftige Fleisch- oder Gemüsebrühe), denn das Salz bindet Wasser, erhöht das Blutvolumen und somit auch den Blutdruck
– eine ausreichende Flüssigkeitsaufnahme (2 bis 2,5 Liter am Tag)
– körperliches Training (Ausdauersport, Radfahren, Schwimmen, Joggen)
– Hydrotherapie (Wechselduschen, Kneippkuren, Trockenbürsten, Sauna)
– Kraftgymnastik (Liegestütze, Kniebeugen, Hantelübungen); die Muskulatur der Beine soll gekräftigt werden, um die Pumpfunktion der Venen zu verbessern.
– ausreichenden Nachtschlaf, für das Aufstehen (langsam!) muss genügend Zeit eingeplant werden
– einen Aufenthalt in klimatischen Reizzonen (Nordsee, Hochgebirge)

„Ein großes Glas Wasser vor dem Aufstehen kann den Blutdruck erhöhen. Bei längerem Stehen soll die Wadenmuskulatur bewegt werden, um Ohnmachten vorzubeugen. Und auf Alkohol sollte man weitgehend verzichten“, rät Meinertz. Auch ausgedehnte Krampfadern können die Neigung zu niedrigem Blutdruck verstärken. Für eine bessere Blutzirkulation in den Beinen sind diesen Personen Stützstrümpfe zu empfehlen. Vorübergehend kann es bei jedem Menschen zu niedrigem Blutdruck kommen, etwa bei längerer Hitzeeinwirkung, nach Infektionskrankheiten oder Durchfall wegen des Flüssigkeitsverlusts und nach längerer Bettruhe.

Niedriger Blutdruck bei älteren Menschen
Kommt es beim Wechsel vom Liegen oder Sitzen zum Stehen oder bei längerem Stehen zu einem Blutdruckabfall mit Schwindel, Benommenheit und Gangunsicherheit, liegt meist ein sogenannter orthostatischer niedriger Blutdruck vor. Zur Vermeidung dieser orthostatischen Form der Hypotonie sollte ein abrupter Wechsel vom Liegen oder Sitzen in die stehende Position vermieden werden. „Der Lagewechsel sollte schrittweise und langsam erfolgen“, rät Meinertz. Bei älteren Hochdruckkranken mit Beschwerden wie Schwindel und Benommenheit kann der orthostatische niedrige Blutdruck die Ursache der Beschwerden sein, möglicherweise durch Medikamente ausgelöst. „Das können Diuretika sein, die die Wasserausscheidung verstärken, Blutdrucksenker wie Alphablocker, Psychopharmaka, Schlafmittel oder Medikamente gegen Parkinson“, erklärt Meinertz. Wenn nicht, sollten Betroffene dem niedrigen Blutdruck durch Maßnahmen wie oben entgegenwirken, also: erhöhte Kochsalzzufuhr und Flüssigkeitsaufnahme, regelmäßiges körperliches Training, Wechselduschen usw. Zusätzlich sollte beim Schlafen in der Nacht das Kopfende des Bettes um 15 cm hochgestellt werden, um den Patienten an die aufrechte Körperhaltung zu gewöhnen. „Der orthostatische niedrige Blutdruck tritt häufig bei älteren Menschen mit niedrigem und mit hohem Blutdruck auf und kann zu Stürzen mit all seinen Folgen führen.“

Bildmaterial und Rezensionsexemplar anzufordern unter: presse@herzstiftung.de

Tipps und kostenfreie Informationen für Betroffene
Der kostenfreie Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“ (8 S.) informiert über die unterschiedlichen Formen des niedrigen Blutdrucks, die häufigsten Symptome und die Möglichkeiten der Therapie. Bestellung per Tel. 069 955128-400 oder E-Mail: bestellung@herzstiftung.de

Kardiologen raten zum Blutdruck-Pass:
Der kostenfreie Blutdruck-Pass zur Protokollierung der Blutdruckwerte der Herzstiftung kann unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de angefordert werden.

2020
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Deutsche Herzstiftung (Hg.), Klaus D., Niedriger Blutdruck: Ursachen und Therapie, Frankfurt a M. 2020

Weitere Informationen:
http://www.herzstiftung.de/ihre-herzgesundheit/gesund-bleiben/bluthochdruck/blut… – Infos zum Thema Blutdruck und -messung

Anhang
PM_DHS_Niedriger-Blutdruck-Ursachen-Therapien_2020-08
https://idw-online.de/de/attachment80631

Quelle: IDW

(nach oben)


Veganismus: Vitamin B12 wird gut ergänzt, Jod ist das Sorgenkind

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Studie des Bundesinstituts für Risikobewertung zeigt Unterschiede zwischen veganer und fleischhaltiger Ernährungsweise

Wer sich vegan ernährt, hat ein erhöhtes Risiko für einen Jodmangel. Darauf deuten Ergebnisse eines Forschungsvorhabens des Bundesinstituts für Risikobewertung (BfR) hin. In dem Studienprojekt „Risiken und Vorteile der veganen Ernährung“ (RBVD) untersuchte ein BfR-Forschungsteam bei 36 vegan und 36 Mischkost essenden Personen die Nährstoffversorgung. Kein wesentlicher Unterschied zeigte sich in Bezug auf Vitamin-B12, das bei beiden Gruppen in etwa dem gleichen Maß ausreichend im Blut vorhanden war. Da Vitamin-B12 in einer für den Menschen verfügbaren Form fast nur in tierischen Lebensmitteln vorkommt, könnte die Versorgung bei den sich vegan ernährenden Teilnehmenden an der Einnahme von Nahrungsergänzungsmitteln liegen. „Diese Studie ermöglicht es, die vegane Ernährung in Bezug auf eine Vielzahl von Vitaminen und Spurenelementen mit einer Mischkost zu vergleichen“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Bei beiden untersuchten Ernährungsformen hapert es bei der Jodversorgung. Hierbei ist die Unterversorgung bei der veganen Variante jedoch deutlich ausgeprägter.“

Die Studienergebnisse wurden jetzt im Deutschen Ärzteblatt veröffentlicht:
https://www.aerzteblatt.de/pdf.asp?id=215078

In der RBVD-Studie analysierte das BfR-Forschungsteam Blut- und Urinproben und wertete Lebensstil-Fragebögen und Ernährungsprotokolle aus. Von den teilnehmenden Personen (pro Gruppe jeweils 18 Frauen und Männer im Alter von 30-60 Jahren) nahmen nahezu alle sich vegan ernährenden und ein Drittel der Mischkost bevorzugenden Menschen unterschiedliche Nahrungsergänzungsmittel (Supplemente) ein.

Besonders auffällig waren die Studienergebnisse in Bezug auf das Spurenelement Jod. Die in Urinproben gemessene Jodausscheidung gibt Aufschluss darüber, wie gut der Körper mit dem Spurenelement versorgt ist. Die Mehrzahl der Teilnehmenden war unterversorgt. Der Mangel war bei den Veganerinnen und Veganern deutlich ausgeprägter – bei einem Drittel von ihnen lag der Wert unterhalb von 20 Mikrogramm pro Liter (μg/L), dem von der Weltgesundheitsorganisation (WHO) definierten Grenzwert, ab dessen Unterschreitung eine schwere Unterversorgung besteht. Doch zeigten sich bei veganer Ernährung auch gesundheitliche Vorteile wie eine höhere Aufnahme von Ballaststoffen und niedrigere Cholesterinwerte. Bei beiden Ernährungsstilen gab es bei ca. 10 % der Teilnehmenden Hinweise auf einen Eisenmangel.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: IDW

(nach oben)


Neues Verfahren: Steroidhormone effizient aus Wasser entfernen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichten sie in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)

Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie nun besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichtet das Team in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)

Die Menschen mit sauberem Wasser zu versorgen, gehört weltweit zu den größten Herausforderungen des 21. Jahrhunderts. Häufig ist das Trinkwasser mit Mikroschadstoffen belastet. Dazu gehören auch Steroidhormone, die beispielsweise als Arzneistoffe und Verhütungsmittel eingesetzt werden. Ihr Anteil in einem Liter Wasser, in das behandelte Abwässer eingeleitet werden, beträgt zwar nur einige Nanogramm, aber bereits in dieser geringen Menge können sie der menschlichen Gesundheit schaden und sich auf die Umwelt auswirken. Wegen der niedrigen Konzentration und der winzigen Größe der Moleküle sind die Steroidhormone nicht nur schwer nachzuweisen, sondern auch schwierig zu beseitigen – konventionelle Klärtechniken reichen dazu nicht aus.

Richtwert der Europäischen Kommission wird erreicht
Ein innovatives Verfahren zur schnellen und energieeffizienten Eliminierung von Steroidhormonen aus dem Abwasser hat am KIT Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT), mit ihrem Team entwickelt. Ihre Technologie verbindet eine Polymermembran mit aktiviertem Kohlenstoff. „Zunächst wird das Wasser durch die semipermeable Membran gepresst. Diese filtert größere Verunreinigungen und Mikroorganismen heraus“, erklärt Schäfer. „Dann fließt das Wasser durch die dahinter liegende Schicht aus Kohlenstoffpartikeln, welche die Hormonmoleküle binden.“ Am IAMT haben Forschende dieses Verfahren nun zusammen mit dem Filterhersteller Blücher GmbH in Erkrath weiterentwickelt und verbessert. Kolleginnen und Kollegen am Institut für Funktionelle Grenzfläche (IFG), am Institut für Angewandte Materialien (IAM) und an der Karlsruhe Nano Micro Facility (KNMF) des KIT haben die Weiterentwicklung durch Materialcharakterisierung unterstützt. Darüber berichten die Wissenschaftlerinnen und Wissenschaftler in der Zeitschrift Water Research. „Unsere Technologie ermöglicht es nun, den von der Europäischen Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol pro Liter zu erreichen“, berichtet die Verfahrenstechnik-Professorin Schäfer.

Auf Partikelgröße und Sauerstoffgehalt kommt es an
Die Wissenschaftlerinnen und Wissenschaftler untersuchten die Vorgänge an der Aktivkohleschicht genauer und verwendeten modifizierte Kohlenstoffpartikel (polymer-based spherical activated carbon – PBSAC). „Auf den Durchmesser der Kohlenstoffpartikel kommt es an“, erläutert Matteo Tagliavini vom IAMT, Erstautor der aktuellen Publikation. „Je kleiner der Partikeldurchmesser, desto größer die äußere Oberfläche der Aktivkohleschicht, die für die Adsorption der Hormonmoleküle verfügbar ist.“ Die Forscherinnen und Forscher verkleinerten in einer zwei Millimeter dicken Aktivkohleschicht den Partikeldurchmesser von 640 auf 80 Mikrometer und entfernten damit 96 Prozent des im Wasser enthaltenen Östradiols, des physiologisch wirksamsten Östrogens. Durch Erhöhen des Sauerstoffgehalts in der Aktivkohle gelang es, die Adsorptionskinetik noch weiter zu verbessern und mehr als 99 Prozent des Östradiols zu entfernen. „Das Verfahren erlaubt einen hohen Wasserdurchfluss bei niedrigem Druck, arbeitet energieeffizient, filtert viele Moleküle heraus, erzeugt keine schädlichen Beiprodukte und lässt sich flexibel in Vorrichtungen verschiedener Größe einsetzen – vom heimischen Wasserhahn bis hin zu Industrieanlagen“, so Schäfer.

Originalpublikation:
Matteo Tagliavini, Peter Georg Weidler, Christian Njel, Julia Pohl; Dennis Richter, Bertram Böhringer, Andrea Iris Schäfer: Polymer-based spherical activated carbon – ultrafiltration (UF-PBSAC) for the adsorption of steroid hormones from water: material characteristics and process configuration. Water Research, 2020. DOI: 10.1016/j.watres.2020.116249
Abstract unter https://doi.org/10.1016/j.watres.2020.116249

Weiterer Kontakt:
Sandra Wiebe, Redakteurin/Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Anhang

Neues Verfahren: Steroidhormone effizient aus Wasser entfernen
https://idw-online.de/de/attachment80628

Quelle: IDW

(nach oben)


Sicher musizieren in Zeiten von Corona

Claudia Weinreich Universitätskommunikation
Bauhaus-Universität Weimar

Seit dem 31. August sind Musik-und Theaterinszenierungen in Thüringen auch in Innenräumen wieder gestattet. Welche Hygieneschutzmaßnahmen bei Proben und öffentlichen Auftritten wirken, zeigt ein mehrstufiges Experiment der Professuren Bauphysik und Industriedesign an der Bauhaus-Universität Weimar in Kooperation mit der Thüringen Philharmonie Gotha-Eisenach sowie der Staatskapelle Weimar.

Das Singen sowie das Spielen von Blasinstrumenten stellt Musikerinnen und Musiker in Anbetracht der COVID-19-Pandemie vor große Herausforderungen: Um sich und andere zu schützen, gehören Desinfektion, häufiges Lüften und Abstand halten mittlerweile zu den Grundpfeilern eines jeden Hygienekonzeptes. Doch Musizieren mit Maske? Eine bedrückende Vorstellung, nicht nur für Konzertbesucherinnen und -besucher:

»Mund-Nasen-Bedeckungen helfen die Ausbreitung von infektiöser Atemluft zu mindern, beim Singen leidet jedoch die Klangqualität und für das Spielen von Blasinstrumenten sind diese gänzlich ungeeignet«, gibt Prof. Andreas Mühlenberend von der Professur Industriedesign an der Bauhaus-Universität Weimar zu bedenken. Um dennoch sicher zu musizieren, könnten spezielle Filter für Blechblasinstrumente sowie der »BauhausUniVisor«, beide unter seiner Leitung entwickelt und getestet, eingesetzt werden.

Den entscheidenden Impuls lieferte Prof. Gernot Süßmuth, Konzertmeister der Staatskapelle Weimar, der dringend nach einer praktikablen Lösung für das Problem suchte. Bereits vier Wochen später präsentierte Prof. Mühlenberend die ersten Prototypen: Die Filter bestehen aus herkömmlichem Zellstoff, welcher in eine wabenartige Form geschnitten und mit Hilfe von Klebeband vor dem Schallbecher des jeweiligen Blasinstrumentes bzw. vor dem Mundstück der Querflöte locker angebracht wird. Informationen und Schnittmuster stehen kostenfrei als Download zur Verfügung. Auch die Herstellungsanleitung des Visiers ist nach dem Prinzip des »Open Design« dank Prof. Jason M. Reizner (Bauhaus Form + Function Lab) über bffl.io frei verfügbar.

Luftausstoß reicht über einen Meter in den Raum
Die Wirksamkeit der prototypischen Filter sowie des »BauhausUniVisor« wurde zuvor in einem mehrstufigen Experiment an der Professur Bauphysik belegt: Mithilfe des Schlierenspiegels sowie des Background Oriented Schlieren (BOS) Verfahrens untersuchten die Weimarer Forscherinnen und Forscher, wie sich die Atemluft beim Singen und Musizieren – mit und ohne Maske bzw. Filter – ausbreitet. In Zusammenarbeit mit der Thüringen Philharmonie Gotha-Eisenach und der Staatskapelle Weimar wurden verschiedene Holz- und Blechblasinstrumente sowie der Gesang eines Baritons und einer Sopranistin getestet. Dabei zeigte sich: Wie stark sich die Atemluft ausbreitet, hängt nicht nur von der Art des Instruments, sondern zugleich von der individuellen Spiel- bzw. Gesangstechnik sowie den physischen Eigenschaften der Musikerinnen und Musiker ab. Bis zu maximal etwa 1,1 Meter weit reichte die Atemluft beim Musizieren in den Raum. Besonders ausgeprägt waren der Atemausstoß beim Spielen von Querflöte (über das Mundstück geblasene Luft), Klarinette (am Mundstück entweichende Nebenluft), Oboe und Fagott (Abatmen zwischen den Phrasen) sowie beim Singen.

Filter reduzieren Luftströmung beim Musizieren
Durch den Einsatz eines einfachen Filters wird die Reichweite der Atemluft, die beim Spielen der Instrumente weit in den Raum geführt wird, stark reduziert. Besonders deutlich war der Effekt beim Querflötenspiel zu beobachten: Mithilfe des Zellstofffilters konnte die über das Mundstück geblasene Luft von 100 auf weniger als 15 cm Reichweite reduziert werden ohne akustische Einbußen zu verzeichnen. »Auch beim Spielen der Blechblasinstrumente war durch den Gebrauch der Filter nahezu kein Unterschied in der Klangausformung zu hören, weshalb diese mindestens während der Proben zum Einsatz kommen könnten«, schlussfolgert Lia Becher von der Professur Bauphysik, welche die Experimente an der Bauhaus-Universität Weimar leitete.

Diese Filter seien jedoch nur bei Blechblasinstrumenten sinnvoll, da hier die gesamte Atemluft aus dem Schallbecher entweicht, so die Forscherin weiter. Beim Spielen von Holzblasinstrumenten tritt die Atemluft hingegen auch aus den Tonlöchern und teilweise am Mundstück aus. Eine Ausnahme zum Einsatz des Filters bildet die Querflöte, da bei dieser ein Großteil der Atemluft über das Mundstück geblasen wird. Der Filter kann hier am Kopfstück montiert werden, um die Ausbreitung der über die Anblaskante geblasenen Luft zu reduzieren.

Auch Mund-Nasen-Bedeckungen sowie der »BauhausUniVisor« hatten beim Singen nachweislich einen eindämmenden Effekt auf die ausgestoßene Atemluft. Allerdings wurde der Ton hierbei gedämpft, weshalb diese ausschließlich für Proben geeignet seien, lautet das Fazit des Experiments.

Über die Messverfahren
Die Schlierenverfahren (Schlierenspiegel und BOS) sind optische Methoden zur Visualisierung und Messung von Raumluftströmungen. Bei diesen Verfahren werden Dichteunterschiede in der Luft visualisiert, welche im Fall der Untersuchungen auf Unterschiede in Lufttemperatur, -druck oder -feuchte zurückzuführen sind. Zu beachten ist, dass mit den vorgestellten Schlierenverfahren keine Aussagen zur Verbreitung von Tröpfchen oder Aerosolen getroffen werden können. Die dargestellten Auswertungen können demnach nur herangezogen werden, um zu ermitteln, wie weit und in welchem Ausmaß die – möglicherweise infektiöse – Atemluft beim Singen und Spielen der Instrumente unmittelbar in den Raum transportiert wird. Weiterhin muss der Winkel berücksichtigt werden, in dem das jeweilige Instrument gespielt wird, um einschätzen zu können, in welche Richtung die Luft aus dem Schallbecher entweicht.

Wissenschaftliche Ansprechpartner:
Prof. Andreas Mühlenberend, Bauhaus-Universität Weimar, Professur Industriedesign, E-Mail: andreas.muehlenberend@uni-weimar.de
Prof. Dr.-Ing. Conrad Völker, Bauhaus-Universität Weimar, Professur Bauphysik, E-Mail: conrad.voelker@uni-weimar.de

Originalpublikation:
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…

Weitere Informationen:

https://vimeo.com/431505952
https://vimeo.com/445131873

Quelle: IDW

(nach oben)


EAST – AFNET 4 Studie: Frühe rhythmuserhaltende Therapie verbessert Aussichten bei Vorhofflimmern

Dr. Angelika Leute Geschäftsstelle
Kompetenznetz Vorhofflimmern e.V. (AFNET)

Patienten mit neu diagnostiziertem Vorhofflimmern profitieren von einer frühen rhythmuserhaltenden Therapie. Das hat die Studie EAST – AFNET 4 herausgefunden, in der 2789 Patienten behandelt und fünf Jahre lang beobachtet wurden. Eine frühe rhythmuserhaltende Therapie mit Antiarrhythmika und/oder Katheterablation reduzierte im Vergleich zur üblichen Behandlung kardiovaskuläre Todesfälle, Schlaganfälle und durch Verschlechterung einer Herzinsuffizienz oder akutes Koronarsyndrom bedingte Krankenhausaufenthalte. Die Studie wurde heute beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) vorgestellt [1,2].

EAST – AFNET 4 ist eine europaweite klinische Studie, die vom Kompetenznetz Vorhofflimmern e.V. (AFNET) in Kooperation mit der Europäischen Rhythmologen-Vereinigung (EHRA) durchgeführt wurde. EAST steht für Early treatment of Atrial fibrillation for Stroke prevention, auf Deutsch: frühe Behandlung von Vorhofflimmern zur Verhinderung von Schlaganfällen.

Der wissenschaftliche Leiter der EAST – AFNET 4 Studie und Vorstandsvorsitzende des AFNET, Prof. Paulus Kirchhof, Universitäres Herzzentrum Hamburg und Universität Birmingham, fasst die wesentlichen Ergebnisse der Studie zusammen: „Eine rhythmuserhaltende Therapie, die zügig begonnen wurde, sobald Vorhofflimmern diagnostiziert wurde, reduzierte bei Patienten mit einem frühen Stadium von Vorhofflimmern kardiovaskuläre Folgen, ohne dass die Patienten mehr Zeit im Krankenhaus verbringen mussten, und ohne Sicherheitsbedenken. Diese Ergebnisse haben das Potential, die klinische Praxis grundlegend zu verändern, hin zum frühen Rhythmuserhalt zeitnah nach der Diagnosestellung Vorhofflimmern.“

Vorhofflimmern geht meist mit einem unregelmäßigen schnellen Herzschlag einher, und die Betroffenen haben ein erhöhtes Risiko für Schlaganfälle, weil während des Flimmerns Blutgerinnsel im Herzvorhof entstehen und mit dem Blutstrom ins Gehirn gelangen können. Patienten mit dieser Herzrhythmusstörung sterben häufig vorzeitig oder erleiden schwere Folgekrankheiten – sogar dann, wenn sie nach den aktuellen Leitlinien behandelt werden. Die heute übliche Therapie besteht im Wesentlichen aus Medikamenten zur Regulierung der Herzschlagfrequenz, um den Herzmuskel zu schützen, und zur Blutgerinnungshemmung (orale Antikoagulation), um das Schlaganfallrisiko zu senken. Rhythmusmedikamente (Antiarrhythmika) oder nichtmedikamentöse Maßnahmen (Katheterablation) zum Erhalt des normalen Sinusrhythmus kommen nur dann zum Einsatz, wenn der Patient unter besonders schweren Symptomen leidet. Die EAST – AFNET 4 Studie hat untersucht, ob eine rhythmuserhaltende Therapie mit Medikamenten und/oder einer Katheterablation, wenn sie frühzeitig nach der Diagnose Vorhofflimmern begonnen wird, die Aussichten der Patienten verbessert.

„Sogar mit oraler Antikoagulation und optimaler Frequenzregulierung kommen kardiovaskuläre Todesfälle, Schlaganfälle und Herzschwäche bei Patienten mit Vorhofflimmern häufig vor, insbesondere bei denjenigen, die an Begleiterkrankungen des Herz-Kreislauf-Systems leiden.“ sagt Prof. John Camm, St. George’s Universität, London, Großbritannien, und Mitglied des wissenschaftlichen Leitungsgremiums der EAST – AFNET 4 Studie.

„Das Risiko für schwere kardiovaskuläre Komplikationen und Todesfälle ist bei Patienten mit Vorhofflimmern im ersten Jahr nach der Diagnose am höchsten. Das legt nahe, dass eine Therapie am meisten nützt, wenn sie möglichst früh stattfindet.“ erklärt Prof. Kirchhof. „Außerdem verursacht Vorhofflimmern schon nach wenigen Wochen Schäden am Herzvorhof. Eine frühzeitige rhythmuserhaltende Therapie könnte diese Schäden verhindern oder verringern und die Behandlung dadurch wirksamer machen.“

Das Kompetenznetz Vorhofflimmern hat die EAST – AFNET 4 Studie ins Leben gerufen und als Sponsor durchgeführt. Als wissenschaftliche Partner waren die European Heart Rhythm Association (EHRA) und das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) beteiligt. Finanzielle Unterstützung zur Durchführung der Studie wurden von der Deutschen Herzstiftung, dem Bundesministerium für Bildung und Forschung (BMBF) und den Firmen Sanofi und Abbott zur Verfügung gestellt.

Insgesamt 2789 Patienten mit frühem Vorhofflimmern (weniger als ein Jahr nach der ersten Diagnose) nahmen an der EAST – AFNET 4 Studie teil. Sie wurden von 2011 bis 2016 in 135 Kliniken und Praxen in elf europäischen Ländern in die Studie eingeschlossen. Die Studienteilnehmer wurden einer der beiden Behandlungsgruppen „früher Rhythmuserhalt“ oder „übliche Behandlung“ nach dem Zufallsprinzip zugeordnet (Randomisierung). Die Patienten in beiden Gruppen erhielten eine leitlinienkonforme Therapie, bestehend aus der Behandlung ihrer kardiovaskulären Begleiterkrankungen, Blutgerinnungshemmung und Frequenzregulierung.

Alle Patienten der Gruppe „früher Rhythmuserhalt“ erhielten nach der Randomisierung zusätzlich Antiarrhythmika oder eine Katheterablation. Sobald bei einem Patienten dieser Gruppe Vorhofflimmern erneut auftrat, wurde die Therapie mit eine intensiviert mit dem Ziel, den normalen Sinusrhythmus durch eine Katheterablation und/oder antiarrhythmische Medikamente wiederherzustellen und möglichst dauerhaft zu erhalten.

Patienten der Gruppe „übliche Behandlung“ erhielten nur dann eine rhythmuserhaltende Therapie, wenn diese notwendig war, um durch Vorhofflimmern verursachte Symptome zu bessern, die trotz leitlinienkonformer frequenzregulierender Behandlung auftraten.

Anhand der im Prüfplan festgelegten Studienendpunkte wurden das Auftreten von schweren Komplikationen und die Krankenhausaufenthalte der Patienten zwischen beiden Studiengruppen verglichen. Der erste primäre Endpunkt umfasst kardiovaskulären Tod, Schlaganfall und Krankenhausaufenthalte wegen Verschlechterung einer Herzschwäche oder akutem Koronarsyndrom. Der zweite primäre Endpunkt zählt die pro Jahr im Krankenhaus verbrachten Nächte. Der primäre Sicherheitsendpunkt umfasst Schlaganfall, Tod jeglicher Ursache sowie schwere Komplikationen der rhythmuserhaltenden Therapie.

Die Randomisierung der Studienteilnehmer in eine der beiden Studiengruppen erfolgte durchschnittlich 36 Tage nach der Erstdiagnose. Fast alle Teilnehmer der Gruppe „früher Rhythmuserhalt“ (95 Prozent) erhielten tatsächlich die vorgesehene Behandlung, bestehend aus einem Antiarrhythmikum oder Katheterablation. Nach zwei Jahren waren 65 Prozent der Patienten der Gruppe „früher Rhythmuserhalt“ immer noch unter rhythmuserhaltender Therapie, und 19,4 Prozent der Patienten hatten sich einer Ablation unterzogen. 85 Prozent der Teilnehmer der Gruppe „übliche Behandlung“ waren ohne rhythmuserhaltende Maßnahmen versorgt worden. Von den Teilnehmern der Gruppe „früher Rhythmuserhalt“ befanden sich 82 Prozent im Sinusrhythmus, während es in der Gruppe „übliche Behandlung“ nur 61 Prozent waren.

Durch die frühe rhythmuserhaltende Therapie wurde ungefähr jedes fünfte Endpunkt-Ereignis verhindert: Die Studienteilnehmer wurden im Mittel über 5,1 Jahre beobachtet. Innerhalb dieser Beobachtungszeit ereignete sich der primäre Studienendpunkt in der Gruppe „früher Rhythmuserhalt“ bei 249 Patienten und in der Gruppe „übliche Behandlung“ bei 316 Patienten. Schwere Komplikationen und Krankenhausaufenthalte wegen Verschlechterung einer Herzinsuffizienz oder wegen eines akuten Koronarsyndroms waren also unter früher rhythmuserhaltender Therapie seltener als unter der üblichen Behandlung. Die absolute Risikoreduktion mit früher rhythmuserhaltender Behandlung lag bei 1,1 Prozent pro Jahr.

Prof. Hein Heidbüchel, Universität Antwerpen, Belgien, und Präsident der European Heart Rhythm Association (EHRA), erläutert: „Der klinische Nutzen des frühen Rhythmuserhalts zeigt sich auch in Subgruppen, zum Beispiel wenn man ausschließlich asymptomatische Patienten betrachtet, oder Patienten, die bei Randomisierung im Sinusrhythmus waren, oder Patienten ohne Herzschwäche.“ In der Gruppe „früher Rhythmuserhalt“ traten im Vergleich zur Gruppe „übliche Behandlung“ alle Bestandteile des primären Endpunktes seltener auf, kardiovaskuläre Todesfälle und Schlaganfälle waren signifikant reduziert.

Hinsichtlich des zweiten primären Endpunkts gab es keinen Unterschied zwischen den beiden Gruppen: Die im Krankenhaus verbrachte Zeit war unabhängig von der Behandlungsgruppe.

Der primäre Sicherheitsendpunkt ergab in beiden Gruppen ähnliche Zahlen: 231 Ereignisse bei „frühem Rhythmuserhalt“ gegenüber 223 Ereignissen bei „üblicher Behandlung“. Während in der Gruppe „früher Rhythmuserhalt“ Komplikationen der rhythmuserhaltenden Therapie zwar unregelmäßig, aber häufiger vorkamen, waren Schlaganfälle und Todesfälle in dieser Gruppe seltener, so dass sich die Zahl der Ereignisse in beiden Behandlungsgruppen insgesamt in etwa die Waage hält. Dieses Ergebnis deckt sich mit Beobachtungen aus anderen aktuellen Studien zur rhythmuserhaltenden Therapie.

AFNET Vorstandsmitglied und EAST Sponsor-Vertreter Prof. Andreas Götte, Paderborn, bemerkt abschließend: „AFNET und EHRA haben EAST – AFNET 4 als große wissenschaftsinitiierte Studie europaweit durchgeführt. Der Erfolg dieser Studie zeigt, dass solche Studien ein wirkungsvolles Mittel sind, um die klinische Praxis zu verändern.“

Informationen zu EAST – AFNET 4
https://www.easttrial.org
Twitter @afnet_ev, hashtag #EASTtrial

Publikationen
[1] Kirchhof P, Breithardt G, Camm AJ, et al. Improving outcomes in patients with atrial fibrillation: rationale and design of the Early treatment of Atrial fibrillation for Stroke prevention Trial. Am Heart J. 2013;166:442-448. doi:10.1016/j.ahj.2013.05.015

[2] Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
doi: 10.1056/NEJMoa2019422

Kompetenznetz Vorhofflimmern e.V. (AFNET)
Das Kompetenznetz Vorhofflimmern e.V. (AFNET) ist ein interdisziplinäres Forschungsnetz, in dem Wissenschaftler und Ärzte aus Kliniken und Praxen deutschlandweit zusammenarbeiten. Ziel des Netzwerks ist es, die Behandlung und Versorgung von Patienten mit Vorhofflimmern in Deutschland, Europa und den USA durch koordinierte Forschung zu verbessern. Dazu führt das Kompetenznetz Vorhofflimmern e.V. wissenschaftsinitiierte klinische Studien (investigator initiated trials = IIT) und Register auf nationaler und internationaler Ebene durch. Der Verein ist aus dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Kompetenznetz Vorhofflimmern hervorgegangen. Seit Januar 2015 werden einzelne Projekte und Infrastrukturen des AFNET vom Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) gefördert.
https://www.kompetenznetz-vorhofflimmern.de

Kompetenznetz Vorhofflimmern e.V. (AFNET)
Mendelstraße 11
48149 Münster
Tel.: 0251 9801330
info@kompetenznetz-vorhofflimmern.de

Pressekontakt
Dr. Angelika Leute
Tel: 0202 2623395
a.leute@t-online.de

Originalpublikation:
Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422

Weitere Informationen:

https://www.easttrial.org
https://www.kompetenznetz-vorhofflimmern.de
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422

Quelle: IDW

(nach oben)


Volle Kraft voraus: Startschuss für die Integrierte WärmeWende Wilhelmsburg unter Beteiligung des CC4E der HAW Hamburg

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg

Für den Förderaufruf „Reallabore der Energiewende“ des Bundeswirtschaftsministeriums wurden im Juli 2019 insgesamt 20 Gewinnerprojekte bekannt gegeben – eines davon ist das Hamburger Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg. Mitte August hat Staatssekretär Andreas Feicht den offiziellen Förderbescheid überreicht und damit den Startschuss für das Projekt gegeben. Das Team Wärme des CC4E ist mit einer Förderung von 1,7 Mio. Euro an diesem Projekt beteiligt.

Das Reallabor IW3 hat zum Ziel, in Hamburg-Wilhelmsburg eine nahezu emissionsfreie dezentrale Wärmeversorgung zu etablieren, die ohne fossile Energieträger auskommt und damit einen maßgeblichen Schritt zur Transformation eines urbanen Wärmenetzes zu schaffen. Nach der Übergabe des offiziellen Förderbescheides am 11. August kann das Projekt IW3 unter Konsortialführung von HAMBURG ENERGIE nun mit der Arbeit starten. Das Team Wärme des CC4E ist als Projektpartner und mit einer Förderung in Höhe von 1,7 Mio. Euro beteiligt.

Das Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg gliedert sich in drei Teilvorhaben: IWU (Geothermische Nutzung des urbanen Untergrunds), IWS (Systemintegration) und IWM (Integrierter Wärmemarkt). Das CC4E arbeitet in mehreren Arbeitspaketen im Teilprojekt IWs mit und ist federführend für die Umsetzung des Teilprojektes IWM verantwortlich. Darin soll ein Wärmemarktplatz für Handels- und Vermarktungsmechanismen von grüner Wärme entwickelt werden. Den Abnehmern soll damit die Möglichkeit gegeben werden, zwischen verschiedenen Wärmeprodukten entscheiden zu können. Die Nachweisführung für die angebotene Wärme soll mittels BlockChain gewährleistet sein.

„Der Stadtteil Wilhelmsburg ist perfekt geeignet als Reallabor für die Wärmewende hin zu einer erneuerbaren Versorgung“, so Peter Lorenzen, Koordinator des Teams Wärme am CC4E. „Zum einen ist die räumliche Abgrenzung von Wilhelmsburg als Flussinsel für ein solches Vorhaben von Vorteil, zum anderen gibt es bereits bestehende Infrastruktur vor Ort, an die wir mit IW3 anknüpfen können. Unser Team war in den letzten Jahren an mehreren Wärmeprojekten in Wilhelmsburg beteiligt und wir freuen uns darauf, unser bestehendes Fachwissen nun auch in IW3 einbringen zu können.“

„Wir freuen uns sehr über die positive Rückmeldung und Förderung für unsere Arbeit, das spornt uns immer weiter an“, so Prof. Dr. Werner Beba, Leiter des CC4E der HAW Hamburg. „Dass wir an diesem Reallabor beteiligt sind zeigt, dass die HAW Hamburg eine der führenden Institutionen im EE-Bereich im Norden ist. Mit IW3 knüpfen wir an die Erfolgsgeschichte des CC4E an, die in den letzten Jahren mit zahlreichen Partnerschafen und Projekten, wie NEW 4.0 oder X-Energy, an Fahrt aufgenommen hat.“

KONTAKTE:
HAW Hamburg / CC4E
Elvira Hinz
Referentin für Öffentlichkeitsarbeit
T +49 40 428 75 5850
elvira.hinz@haw-hamburg.de

Dr. Katharina Jeorgakopulos,
Pressesprecherin und Pressereferentin
T +49 40 428 75 91 32
presse@haw-hamburg.de

Weitere Informationen:
https://www.haw-hamburg.de/cc4e/
https://www.hamburgenergie.de/ueber-uns/presse/pressemeldung/article/start-fuer-…

Quelle: IDW

(nach oben)


Eigene Gesundheitsdaten souverän handhaben

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik

Sportuhren, Fitness-Tracker und Smart Watches erfassen sensible persönliche Daten. Wissenschaftlerinnen und Wissenschaftler des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen beteiligen sich an einem Forschungsverbund, der neue Wege sucht, um Menschen den selbstbestimmten Umgang mit ihren digitalen Daten zu ermöglichen.

Die Vermessung der eigenen Gesundheit zählt aktuell zu den großen gesellschaftlichen Trends. Fitness-Tracker, Sportuhren und Smart Watches haben sich in den vergangenen Jahren stark verbreitet. Sie kombinieren Werte wie die Herzfrequenz, das Gewicht und verschiedene Bewegungsdaten, um den Anwendern bei der Führung eines gesunden Lebensstils zu helfen.

Diese Geräte – sogenannte Wearables – machen es ihren Nutzern jedoch oft schwer, die Verwendung ihrer Daten zu verstehen und die passenden Datenschutzeinstellungen vorzunehmen. Die Arbeitsgruppe Mensch-Technik-Interaktion vom Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen entwickelt daher jetzt gemeinsam mit Partnern neue Technologien, die für Transparenz sorgen und einen souveränen Umgang mit den eigenen Daten ermöglichen sollen.

Endgeräte erlauben Zusammenführung von Daten in Nutzerprofilen
„Über die Selbst-Quantifizierung des persönlichen Verhaltens führen diverse Endgeräte und Plattformen persönliche Daten zusammen und bieten die Möglichkeit, ein komplexes Profil der Nutzenden und ihrer Umgebung zu erstellen“, erklärt Dr. Johannes Schöning, Professor für Mensch-Computer-Interaktion am TZI. „Bei den Daten, die durch Wearables erhobenen werden, handelt es sich oft um sensible biometrische Gesundheitsdaten, deren Weitergabe und Verarbeitung nicht im Nachhinein geändert werden kann. Entsprechend hoch ist der Bedarf an einer Grundlage für die erleichterte, reflektierte Entscheidungsfindung zur Verwendung dieser Daten.“

Es gibt bereits Bestrebungen, Einverständnis- und Datennutzungserklärungen statisch zu bebildern, um sie besser verständlich zu machen. Das Projekt InviDas (Interaktive, visuelle Datenräume zur souveränen, datenschutzrechtlichen Entscheidungsfindung) geht einen Schritt weiter und erforscht interaktive Darstellungen, um Einverständnis- und Datennutzungserklärungen verständlich und erlebbar zu machen. Dabei werden drei Methoden eingesetzt: Infografiken, Gamification (spielerisches Lernen) und In-Situ Visualisierung – letzteres beschreibt beispielsweise Infografiken, die mit Hilfe von Augmented Reality (erweiterte Realität) in den Raum projiziert werden, um Datenflüsse anschaulich darzustellen.

Im konkreten Anwendungsfall der Wearables soll unter Zuhilfenahme verschiedener Datenvisualisierungen auf einen Blick dargestellt werden, wie umfangreich ein Datenprofil der Person ist, welche Rückschlüsse beispielsweise auf Krankheiten gezogen werden können und welche Akteurinnen und Akteure auf bestimmte Daten zugreifen können. Bisher existieren solche Nutzerprofil-Repräsentationen nur in nüchterner Textform, was die Interaktionsmöglichkeiten begrenzt.

TZI mit zwei Projekten im BMBF-Förderprogramm vertreten
Die Arbeitsgruppe Mensch-Technik-Interaktion bringt in das Projekt die umfassende Erfahrung in der Gestaltung, Entwicklung und Evaluierung von Benutzerschnittstellen sowie in der Datenvisualisierung ein. Weitere Projektpartner sind die Gesellschaft für Informatik (Verbundkoordinator), die RWTH Aachen, die Garmin Würzburg GmbH, die Stiftung Digitale Chancen und die Otto-Friedrich-Universität Bamberg.

Das Projekt läuft bis April 2023 und wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „Technik zum Menschen bringen“ mit insgesamt 1,82 Millionen Euro gefördert. Im gleichen Förderprogramm ist das TZI bereits mit dem Projekt „UsableSec@Home“ vertreten. Dort geht es um den Schutz vor Sicherheitslücken im Smart Home.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Johannes Schöning
Technologie-Zentrum Informatik und Informationstechnik (TZI)
Universität Bremen
Telefon: +49 218-63591
E-Mail: schoening@uni-bremen.de

Weitere Informationen:
http://www.technik-zum-menschen-bringen.de/projekte/invidas Projektseite
http://www.tzi.de Technologie-Zentrum Informatik und Informationstechnik
http://www.uni-bremen.de Universität Bremen

Quelle: IDW

(nach oben)


Bessere Sicht für Tauchbojen

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg

Universität Oldenburg testet optische Messverfahren in neuem BMBF-Projekt

Ein globales Netzwerk autonomer Tauchbojen bekommt Verstärkung: Im Projekt DArgo2025, das Anfang August gestartet ist, bestücken Oldenburger Meeresforscher um Prof. Dr. Oliver Zielinski vom Institut für Chemie und Biologie des Meeres (ICBM) sechs „Mini-U-Boote“, so genannte Argo-Floats, mit verschiedenen optischen Sensoren, um diese zu testen. Die Pilotstudie unter der Leitung des Bundesamts für Schifffahrt und Hydrographie (BSH) in Hamburg dauert noch bis Ende 2021, das Bundesforschungsministerium fördert den Anteil der Universität Oldenburg mit rund 965.000 Euro.

Die neuen Tauchbojen sollen einen Generationenwechsel im internationalen Forschungsprogramm Argo einleiten, das im Jahr 2000 begann und an dem mittlerweile mehr als 30 Staaten beteiligt sind. Argo umfasst eine Flotte von knapp 4.000 etwa zwei Meter langen Messrobotern, die autonom durch die Weltmeere driften, 160 davon stammen aus Deutschland. Alle Drifter treiben in einer Meerestiefe von 1.000 Metern mit der Strömung und sinken alle neun Tage auf 2.000 Meter ab. Von dort aus steigen sie zur Oberfläche auf und messen dabei Druck, Leitfähigkeit und Temperatur des Meerwassers. Anschließend senden sie die Messdaten und ihre jeweilige Position zu einem Satelliten. Die Argo-Floats sind meist rund vier Jahre im Meer unterwegs, bis ihre Batterien erschöpft sind. Die gewonnenen Daten sind frei zugänglich und dienen dazu, den klimatischen Zustand der Weltmeere zu bestimmen.

Nun werden die Kapazitäten der Mini-U-Boote erweitert. Ein Teil von ihnen liefert inzwischen auch Informationen über biologische und chemische Vorgänge im Meer. Diese sogenannten Biogeochemical Argo-Floats – abgekürzt: BGC-Floats – sind mit zusätzlichen Sensoren ausgestattet. Daran, die Leistungsfähigkeit dieser Messfühler weiter zu verbessern, arbeitet auch das Team um den Meeresphysiker Zielinski im Oldenburger Teilprojekt. Die Forscher planen, sechs Floats mit optischen Sensoren zu bestücken, die das Unterwasserlichtfeld vermessen – also das Restlicht im Meer, das mit zunehmender Wassertiefe immer schwächer wird. „Momentan verfügen BGC-Floats üblicherweise über Messgeräte, so genannte Radiometer, die maximal vier verschiedene Wellenlängen des Lichtes registrieren können“, berichtet Zielinski. Schwerpunkt des ICBM-Projekts sei es, kommerziell verfügbare Radiometer zu testen, die Licht in bis zu 200 verschiedene Kanäle im ultravioletten und sichtbaren Bereich des Spektrums aufspalten und die jeweilige Lichtstärke messen können.

Mit solchen Messungen wollen Biologen in Zukunft Veränderungen im Unterwasserlichtfeld registrieren, die zum Beispiel im Wasser gelöste Stoffe hervorrufen: Bestimmte organische, aber auch anorganische Substanzen filtern sozusagen bestimmte Farben aus dem Licht heraus. Da das Unterwasserlichtfeld das Wachstum von Algen und damit auch die Lebensbedingungen von tierischem Plankton, Fischen und andere Lebewesen stark beeinflusst, lassen sich über die optischen Messungen wichtige Hinweise auf die biologischen Aktivitäten im Meer gewinnen.

Das Team will außerdem im Zentrum für Marine Sensorik (ZfMarS) am ICBM in Wilhelmshaven einen bio-optischen Kalibrier- und Qualitätssicherungsplatz einrichten. „Wir untersuchen, welche der von uns getesteten Sensoren die besten Ergebnisse liefern und inwieweit die Messungen verschiedener Sensoren vergleichbar sind“, sagt Zielinski. Die neuen Sensoren müssen über mehrere Jahre zuverlässige Ergebnisse liefern – trotz Wind und Wellen, Bewuchs, Korrosion und hohem Druck in der Tiefsee.

Zielinski und sein Team sind aktuell noch an zwei weiteren vom Bundesforschungsministerium geförderten Projekten beteiligt. In den Vorhaben SpectralArgo-N und BGC-Argo-Next testen die Forscherinnen und Forscher ebenfalls neue optische Sensoren für die Argo-Flotte, darunter radiometrische, photometrische und fluorometrische Messgeräte. Daneben registrieren die von dem Team betreuten Floats noch weitere biogeochemische Daten, etwa den pH-Wert des Meerwassers, den Sauerstoffgehalt, das gelöste organische Material und den Chlorophyllgehalt.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Oliver Zielinski, Tel.: 0441/798-3518, E-Mail: oliver.zielinski@uol.de

Weitere Informationen:

https://uol.de/icbm/msys

Quelle: IDW

(nach oben)


Bundesweite Umfrage: Corona-Warn-App

Marlon Taddigs Marketing und Kommunikation
OFFIS – Institut für Informatik

Die deutsche Corona-Warn-App steht seit Mitte Juni 2020 zum Download zur Verfügung. Über 17 Millionen Mal wurde sie bereits heruntergeladen. Nach anfangs hohen Downloadzahlen steigt diese Zahl jedoch nur noch langsam. Das Forschungsinstitut OFFIS möchte unter anderem ermitteln, warum Menschen die App nicht nutzen und von den Benutzer*innen wissen, wie ihnen die App im Umgang gefällt.

Der Forschungsbereich Gesundheit des niedersächsischen Informatikinstituts OFFIS hat eine aktuelle Umfrage zur Nutzung – oder auch Nichtnutzung – der deutschen Corona-Warn-App gestartet. Die Wissenschaftler*innen des Instituts arbeiten seit vielen Jahren an vielfältigen technischen Lösungen im Gesundheitsweisen. Ein großer Bereich sind dabei sogenannte intelligente Nutzungsschnittstellen, denn aus Sicht der OFFIS Forscher*innen sollen neuste Technologien möglichst leicht nutzbar sein.

Nach ihrem Start wurde die Corona-Warn-App, nach Angaben des RKI, in den ersten vier Tagen rund zehn Millionen Mal heruntergeladen, seitdem steigen die Downloadzahlen jedoch deutlich langsamer und liegen aktuell bei gut 17 Millionen. Diese Zahlen lassen jedoch keinen Rückschluss darauf zu, auf wie vielen Geräten die App tatsächlich reibungslos läuft. Die App könnte gar nicht erst in Betrieb genommen worden sein, sie könnte wieder deinstalliert worden sein oder das mobile Endgerät könnte zu alt sein – der wirkliche Nutzen ist derzeit schwer zu ermitteln. Und auch an die aktiven Nutzer*innen gibt es Fragen: Was sind die Beweggründe, die App zu nutzen? Führt die Nutzung der App gegebenenfalls sogar zu einem riskanteren Verhalten?

In der vor Kurzem gestarteten Onlineumfrage möchte das Informatikinstitut OFFIS diese Punkte hinterfragen. Erhofft wird eine möglichst breite, vielfältige Beteiligung an der Umfrage, um zu ermitteln, wie die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit durch die App in Bezug auf die Corona-Pandemie beeinflusst werden. So soll die Studie dazu beitragen, bestehende Bedenken gegen die App besser zu verstehen und abzubauen.

Die Onlinebefragung besteht aus einem Fragebogen, welcher sich in einen inhaltlichen und einen demografischen Teil gliedert. Die Umfrage ist selbstverständlich anonym. Es werden keine personenbezogenen Daten erhoben und es sind keine Rückschlüsse auf die Person möglich.

Die Befragung ist bis zum 30.09.2020 hier verfügbar: https:/bit.ly/corona-app-studie

Im Anschluss werden die Daten ausgewertet. Erste Ergebnisse werden die Forscher*innen bis Ende Oktober unter www.offis.de/corona-app-studie auch für die Öffentlichkeit zur Verfügung stellen.

Weiterführende Informationen
Umfrage: https://bit.ly/corona-app-studie
Weitere Informationen: www.offis.de/corona-app-studie

Wir untersuchen mit dieser Studie, inwiefern die offizielle Corona-Warn-App der Bundesregierung die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit in Bezug auf die Corona-Pandemie beeinflusst.

Die Onlinebefragung besteht aus einem Fragebogen, mit einem inhaltlichen und einem demografischen Teil. Das Ausfüllen sollte nicht länger als 20 Minuten dauern. Es werden keine personenbezogenen Daten erhoben, so dass keine Rückschlüsse auf die Person der Teilnehmenden möglich sind. Die Teilnahme an der Studie ist freiwillig. Die im Rahmen dieser Studie erhobenen Daten können zu weiteren Forschungszwecken an Dritte weitergegeben werden.

Die Erhebung der Daten erfolgt vollständig anonymisiert, d. h. an keiner Stelle werden Name oder andere identifizierende personenbezogene Daten erfragt bzw. gespeichert. Datensätze, aus deren Antworten die Identität des Teilnehmenden erkennbar ist, werden gelöscht. Es werden ausschließlich folgende Daten gespeichert: Antworten auf die Fragen, Datum und Uhrzeit der Beantwortung des Fragebogens. Die Daten werden ausschließlich auf Rechnern des OFFIS – Institut für Informatik in Oldenburg, Deutschland gespeichert.
Diese Studie wird im Rahmen des Projektes PANDIA durchgeführt, einem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt (FKZ: 16SV8397). Die Studie ist unabhängig vom Robert-Koch-Institut, der SAP AG, und der Telekom.

Über: OFFIS – Institut für Informatik
OFFIS ist ein 1991 gegründetes, international ausgerichtetes, anwendungsorientiertes Forschungs- und Entwicklungsinstitut für Informatik mit Sitz im niedersächsischen Oldenburg. In durchschnittlich 70 laufenden Projekten leistet OFFIS mit seinen über 300 Mitarbeiterinnen und Mitarbeitern aus rund 25 Nationen Forschung und prototypische Entwicklungsarbeit auf höchstem internationalem Niveau in den Forschungsbereichen Energie, Gesundheit, Produktion und Verkehr. Dabei kooperiert OFFIS mit weltweit über 700 Partnern aus Wirtschaft und Wissenschaft.

In allen Forschungsbereichen des OFFIS wirken unsere Wissenschaftler*innen mit in unterschiedlichsten Gremien, Ethik-Kommissionen, erarbeiten Studien, Roadmaps und geben Empfehlungen aus – auf nationaler und internationaler Ebene.
Der Forschungsbereich Gesundheit des OFFIS ist heute die größte außerklinische Gesundheitsinformatik in Deutschland und trägt maßgeblich zur Stärkung der Gesundheitswirtschaft im Nordwesten bei. Informationstechnologien für das Gesundheitswesen und die Medizin, wie das Epidemiologische Krebsregister Niedersachsen und die maßgebliche Beteiligung an der Entwicklung des internationalen medizinischen Bildkommunikationsstandards DICOM sind nur zwei der zahlreichen Beispiele für erfolgreiche Arbeiten des Bereichs.
www.offis.de

Wissenschaftliche Ansprechpartner:
Dr. Jochen Meyer, meyer@offis.de, 0441 / 972-185

Weitere Informationen:
http://www.offis.de/corona-app-studie

Quelle: IDW

(nach oben)


Gärrückstände aus Biogasanlagen optimal verwerten – Jetzt zur Online-Fachtagung am 15.9.2020 anmelden!

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Die Fachagentur Nachwachsende Rohstoffe e. V. (FNR) lädt am 15. September 2020 zur 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ ein. In diesem Jahr wird die Veranstaltung, die vom Institut für Agrar- und Stadtökologische Projekte an der Humboldt-Universität zu Berlin als wissenschaftlicher Partner unterstützt wird, erstmals online ausgerichtet.

Um den steigenden Anforderungen an die Gärrestverwertung gerecht zu werden, die sich u. a. aus der Nitratrichtlinie, der Düngeverordnung sowie dem Klimaschutzplan ergeben, wächst der Bedarf an neuen Lösungen für Aufbereitung, Handling und bedarfsgerechte Ausbringung von Wirtschaftsdüngern und Gärprodukten. Längere Sperrfristen für die Ausbringung, die Begrenzung der Stickstoffgaben, die Reduzierung der Ammoniak- und Lachgasemissionen sowie die daraus resultierende notwendige Erweiterung der Lagerkapazitäten und die Abdeckung von Gärrestelagern gehören zu den wesentlichen Herausforderungen, denen sich Landwirte künftig stellen müssen.

Die 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ zeigt neue Erkenntnisse zur Aufbereitung und Nutzung von Gärresten im Einklang mit den rechtlichen Rahmenbedingungen auf. Dabei werden auch neue Forschungsansätze aus dem Förderaufruf „Nachhaltige Verwertung und Aufbereitung von Gärrückständen“ des Bundesministeriums für Ernährung und Landwirtschaft vorgestellt.

Die Veranstaltung wird von einer Online-Posterausstellung begleitet. Das Programm sowie weitere Informationen zur Anmeldung und zur Tagung finden Sie auf unserer Veranstaltungswebsite https://veranstaltungen.fnr.de/gaerrestetagung-2020.

Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e.V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Nicole Paul
Tel.: +49 3843 6930-142
Mail: n.paul@fnr.de

Quelle: IDW

(nach oben)


TU Berlin: Coronavirus – Wissenschaftler*innen beantworten Fragen zu Aerosolen und richtigem Lüften von Innenräumen

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Richtig lüften – aber wie?

Wissenschaftler*innen des Hermann-Rietschel-Instituts der TU Berlin beantworten die wichtigsten Fragen rund um die Belüftung von Innenräumen

Die Corona-Pandemie hält die Welt noch in Atem, gleichzeitig kehrt bei immer mehr Menschen in Deutschland wieder so etwas Ähnliches wie Alltag ein: Derzeit öffnen nach und nach die Schulen in Deutschland, immer mehr Personen arbeiten wieder in ihren Büros. Parallel zeichnet sich deutlich ab, dass die Virenverbreitung durch Aerosole in geschlossenen Räumen eine große Rolle zu spielen scheint. Die ersten Schulen mussten ihre Tore bereits wieder schließen. Ein regelmäßiger Luftaustausch kann dabei helfen, die Virusverbreitung in Räumen zu begrenzen.

Das Hermann-Rietschel-Institut der TU Berlin ist die weltweit älteste wissenschaftliche Einrichtung auf dem Gebiet der Heizung, Lüftung und Klimatisierung. Aufgabe der Wissenschaftler*innen ist es, die Bedingungen zu erforschen, die ein Raumklima schaffen, das die Grundbedürfnisse der Menschen nach Gesundheit, Sicherheit und Behaglichkeit befriedigt.

Prof. Dr. Martin Kriegel ist Leiter des Hermann-Rietschel-Instituts der TU Berlin und forscht bereits seit seiner Berufung im Jahr 2011 an der Ausbreitung von Aerosolen: „Entscheidend ist es, dass wir die bestehenden Regeln zum Lüften beachten. Sonderregeln sind derzeit noch nicht nötig.“ Doch wie lüftet man eigentlich richtig, damit es tatsächlich zu einem effektiven Luftaustausch kommt? Was passiert mit den Viren, die über Aerosole in die Raumluft gelangen, wie lange bleiben sie dort und wie verteilen sie sich? Können Luftfilter helfen?

„Je nach Raumsituation entstehen spezielle Raumluftströmungen. Die dadurch entstehende Aerosolverteilung, kann man am besten einschätzen, wenn einem die wissenschaftlichen Hintergründe klar sind“, weiß der Forscher. Zusammen mit seinem Team an der TU Berlin hat sich der Wissenschaftler darum bemüht, möglichst viele alltägliche Fragen rund um das Thema Aerosole und Belüftung zu sammeln und für die Öffentlichkeit verständlich zu beantworten.

Die vollständige Liste der Fragen und Antworten finden Sie hier:
https://www.tu.berlin/go10026/

Zu speziellen Themen in Bezug auf SARS-CoV-2 haben die Wissenschaftler*innen einen Blog erstellt, der laufend aktualisiert wird:
https://blogs.tu-berlin.de/hri_sars-cov-2/

Weiterführende Informationen zu den Forschungsaktivitäten und den Veröffentlichungen von Prof. Dr. Martin Kriegel und seinem Team finden Sie hier:
https://www.hri.tu-berlin.de/menue/research/publications_at_hri/
https://www.hri.tu-berlin.de/menue/research/

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Martin Kriegel
TU Berlin
Hermann-Rietschel-Institut
Tel.: 030 314-24170
E-Mail: Kontakt@hri.tu-berlin.de

Quelle: IDW

(nach oben)


Hitze und Starkregen – so passen sich Kommunen an den Klimawandel an

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.

Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.

Städte heizen sich im Sommer stärker als das Umland auf und sind wegen ihrer dichten Bebauung anfälliger für Sturzfluten. Um Hitze zu reduzieren, müssen die Kommunen Parks, Gärten und kleinere Grünanlagen sichern und ausbauen. Die Grün- und Freiflächen kühlen in der Nacht sehr viel stärker ab als dicht bebaute Bereiche. Auch freie Flächen außerhalb der Stadt sind schützenswert: Kühlere Luft gelangt von hier in innere Stadtbereiche. Überdies senken verschattete Plätze und Wege die Temperaturen.

Bäume und Sträucher, die wenig Wasser benötigen, überstehen auch längere sommerliche Trockenperioden gut. Begrünte Dächer und Fassaden mildern Temperaturspitzen ab. Ein Schlüssel für kühlere Temperaturen sind helle Oberflächenmaterialien für Plätze, Wege und Straßen, Fassaden und Dächer. Sie reflektieren das Sonnenlicht und heizen sich nicht so stark auf.

Stadtgrün mindert nicht nur Hitze, sondern unterstützt auch die Vorsorge gegen Starkregen. Grüne Oasen sorgen dafür, dass große Regenmengen versickern können. Kommunen fördern diesen Effekt, wenn sie überbaute Flächen wie Zufahrten, Parkplätze, Gehwege oder Höfe entsiegeln, sie also wieder wasserdurchlässig machen. Eine wassersensible Stadtplanung orientiert sich am Prinzip der Schwammstadt: Wie bei einem Schwamm wird das Regenwasser in möglichst vielen Bereichen zurückgehalten und erst schrittweise an den Boden, die Kanalisation oder Gewässer abgegeben. Dies erfolgt beispielsweise über natürliche und künstlich angelegte Speicher wie Mulden, Rigolen oder bepflanzte Dächer. Hierdurch kann mehr Wasser verdunsten und zur Kühlung der Städte beitragen. Gleichzeitig wird die Neubildung von Grundwasser gefördert, die Kanalisation entlastet und das Risiko von Überflutungen reduziert.

Risikokarten helfen Kommunen dabei, solche Anpassungen zu planen. Die hoch aufgelösten Karten markieren Bereiche in der Stadt, die sich im Sommer besonders stark aufheizen oder starken Überflutungsrisiken ausgesetzt sind.

„Die Anpassung an die Folgen des Klimawandels ist eine Querschnittsaufgabe für die Städte. Viele Ämter beteiligen sich daran. Es gibt aber noch große Potenziale, um die Städte robuster gegenüber Klimarisiken zu machen“, sagt BBSR-Experte Fabian Dosch. „Stadtgrün mindert die Hitze und die Folgen von Starkregen – und macht unsere Städte schöner, gesünder und damit noch lebenswerter.“

Interessierte finden das Hintergrundpapier unter http://www.bbsr.bund.de. Die Website http://www.klimastadtraum.de bietet Studien und Handlungshilfen für Verantwortliche und Fachleute in Kommunen und Regionen, die Maßnahmen zur Anpassung an den Klimawandel planen und umsetzen.

Download: http://www.bbsr.bund.de/BBSR/DE/startseite/topmeldungen/downloads/2020-hintergrundpapier-klimawandel.pdf

Kontakt
Christian Schlag
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31-37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de

Bleiben Sie informiert und folgen Sie dem BBSR auf Twitter: http://www.twitter.com/bbsr_bund

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: IDW

(nach oben)


Deutsches Hochwasserrisiko-Management ist nur selten naturbasiert

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Die Folgen von Hochwasser lassen sich nicht nur mit Deichen, Poldern und Rückhaltebecken mindern: Auch naturbasierte Lösungen – englisch Nature-Based Solutions, kurz NBS – tragen zum Wasserrückhalt bei und schützen so vor seiner zerstörerischen Wirkung. Trotzdem machen sie nur neun Prozent der vorgeschlagenen Maßnahmen in Hochwasserrisiko-Managementplänen der Bundesländer aus. Das hat eine Analyse des Teams von Prof. Dr. Christian Albert, Inhaber des Lehrstuhls für Umweltanalyse und -planung in metropolitanen Räumen am Geographischen Institut der Ruhr-Universität Bochum (RUB), ergeben.

Das Team veröffentlichte die Ergebnisse in der Zeitschrift Environmental Science and Policy vom 16. Mai 2020.

Bessere Gewässerqualität und mehr Artenschutz
NBS können nicht nur vor Hochwasser schützen: Man hofft durch Maßnahmen wie die Renaturierung von Flussauen und die Wiederanbindung saisonaler Bäche auch, dass sich die Wasserqualität verbessert und man die Artenvielfalt fördern kann. Die europäische und deutsche Politik haben das Potenzial von NBS erkannt und in ihren Richtlinien verankert, etwa in der EU-Hochwasserrichtlinie.

Das Forschungsteam des Geographischen Instituts wollte wissen, inwieweit diese Maßgaben bereits in Hochwasserrisiko-Managementplänen der Behörden aufgegriffen werden, die für jedes Flusseinzugsgebiet erstellt werden müssen. Eine Dokumentenanalyse gab Aufschluss darüber, wie hoch jeweils der Anteil von NBS in Plänen ausgewählter Bundesländer ist. Außerdem wollten die Forscher ergründen, welche Faktoren den vorgefundenen Umfang erklären können.

19 Pläne wurden analysiert
„Für die Analyse haben wir Hessen, Niedersachsen und Sachsen ausgewählt, weil sich die drei Bundesländer wesentlich in ihrer Wasserwirtschaftsverwaltung, ihrer Form der Regionalplanung und Betroffenheit von vergangenen Hochwasserereignissen unterscheiden“, erklärt Erstautor Mario Brillinger. Die Dokumentenanalyse umfasste 19 Hochwasserrisiko-Managementpläne, die für 2012 bis 2015 erstellt worden waren.

Die Studie zeigt, dass NBS nur sehr selten in diesen Plänen aufgegriffen werden: Sie machen nur neun Prozent aller insgesamt 4.282 vorgeschlagenen Maßnahmen aus. Stark vertreten sind dagegen mit 45 Prozent Maßnahmen der Verhaltens- und Risikovorsorge wie die Förderung eines verstärkten Risikobewusstseins, die Aktualisierung von Alarm- und Einsatzplänen, das Katastrophenschutzmanagement oder die Veröffentlichung von Hochwassergefahrenkarten. Auch technische Schutzmaßnahmen sind mit rund 41 Prozent stark vertreten.

Hessen schlug die meisten NBS vor und bevorzugte dabei Renaturierungsmaßnahmen des Uferbereichs und Maßnahmen der Flussauenentwicklung. Niedersachsen zeigte die wenigsten NBS und präferierte dabei vor allem die Wiederherstellung von natürlichen Rückhalteflächen. In Sachsen konnten die Forscher relativ häufig den Rückbau von Wehren als NBS klassifizieren.

Der Bewertung der Maßnahmen mehr Daten zugrunde legen
„Darüber hinaus haben wir untersucht, welche Kriterien es begünstigen, dass NBS vorgeschlagen werden“, erklärt Christian Albert. In den analysierten Plänen wurden NBS dann stärker berücksichtigt, wenn es sich um kleinere Nebenflüsse und Situationen mit geringer Hochwassergefahr handelte. Auch hing die Berücksichtigung von NBS davon ab, wie die Verantwortlichen ihre Wirksamkeit und die zu erwartenden Kosten und Nutzen einschätzten. „Die zuständigen Personen vertrauten NBS in diesen Punkten offenbar weniger als anderen Maßnahmen“, berichtet Mario Brillinger. „Sie gingen häufiger davon aus, dass NBS mehr Planungs- und Verwaltungskosten verursachen und weniger wirksam sind als andere Schutzmaßnahmen.“

Das Forschungsteam schlägt vor, bei der Erstellung von Hochwasserrisiko-Managementplänen künftig Bewertungsmethoden anzuwenden, die auf den besten Daten über die vielfältigen Wirkungen von NBS und anderen Maßnahmen beruhen. Außerdem sollte man das lokale Wissen betroffener Akteure berücksichtigen. So könnten sich NBS künftig besser ins Hochwasserrisiko-Management einbeziehen lassen.

Originalveröffentlichung
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008

Pressekontakt
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615

Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615

Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de

Originalpublikation:
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008

Weitere Informationen:
https://www.sciencedirect.com/science/article/abs/pii/S1462901119306690 – Link zum Originalpaper

Quelle: IDW

(nach oben)


Mundspülungen könnten Corona-Übertragungsrisiko senken

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Sars-Cov-2-Viren lassen sich mit bestimmten handelsüblichen Mundspülungen inaktivieren. Das zeigten Virologinnen und Virologen der Ruhr-Universität Bochum gemeinsam mit Kollegen aus Jena, Ulm, Duisburg-Essen, Nürnberg und Bremen in Zellkulturexperimenten. Im Mund-Rachenraum von Covid-19-Patienten können zum Teil hohe Viruslasten nachgewiesen werden. Die Anwendung von Sars-Cov-2-wirksamen Mundspülungen könnte somit helfen, kurzzeitig die Viruslast und damit eventuell das Risiko einer Übertragung der Coronaviren zu senken. Dies könnte beispielsweise vor zahnärztlichen Behandlungen nützlich sein.

Mundspülungen eignen sich jedoch nicht, um eine Covid-19-Infektion zu behandeln oder um sich selbst vor einer Ansteckung mit dem Virus zu schützen.
Die Ergebnisse der Studie beschreibt das Team um Toni Meister, Prof. Dr. Stephanie Pfänder und Prof. Dr. Eike Steinmann aus der Bochumer Forschungsgruppe Molekulare und Medizinische Virologie im Journal of Infectious Diseases, online veröffentlicht am 29. Juli 2020. Eine Überprüfung der Laborergebnisse in klinischen Studien steht noch aus.

Acht Mundspülungen im Zellkulturtest
Die Forscherinnen und Forscher testeten acht Mundspülungen mit unterschiedlichen Inhaltsstoffen, die in Apotheken oder Drogeriemärkten in Deutschland erhältlich sind. Sie mischten jeweils die Mundspülung mit Viruspartikeln und einer Belastungssubstanz, die den Effekt des Speichels im Mund nachstellen sollte. Das Gemisch wurde dann für 30 Sekunden geschüttelt, um den Effekt des Gurgelns zu simulieren. Anschließend nutzten sie zur Bestimmung des Virustiters Vero-E6-Zellen, welche besonders empfänglich für Sars-Cov-2 sind. Zur Bewertung der Wirksamkeit behandelten die Forscherinnen und Forscher die eingesetzten Virussuspensionen vor Zugabe auf die Zellkultur parallel mit Zellkulturmedium anstatt Mundspülung.

Alle getesteten Präparate reduzierten den initialen Virustiter. Drei Mundspülungen verringerten ihn so weit, dass nach 30 Sekunden Einwirkung kein Virus mehr zu detektieren war. Ob dieser Effekt sich in der klinischen Praxis bestätigt und wie lange er anhält, muss in weiteren Studien untersucht werden.

Die Autorinnen und Autoren weisen darauf hin, dass Mundspülungen nicht zur Behandlung von Covid-19-Erkrankungen geeignet sind. „Das Gurgeln mit einer Mundspülung kann nicht die Produktion der Viren in den Zellen hemmen“, erklärt Toni Meister, „könnte aber die Viruslast kurzfristig dort senken, wo das größte Ansteckungspotenzial herkommt, nämlich im Mund-Rachen-Raum – und das könnte in bestimmten Situationen wie beim Zahnarzt oder der medizinischen Versorgung von Covid-19-Patienten nützlich sein.“

Klinische Studien in Arbeit
Die Bochumer Gruppe prüft die Möglichkeiten einer klinischen Studie zur Wirksamkeit von Mundspülungen auf Sars-Cov-2-Viren, in der die Wissenschaftlerinnen und Wissenschaftler testen wollen, ob der Effekt auch bei Patienten nachweisbar ist und wie lange er anhält. Ähnliche Arbeiten laufen bereits in San Francisco; das Bochumer Team steht mit den US-amerikanischen Forscherinnen und Forschern dazu in Kontakt.

Förderung
Die Arbeiten wurden gefördert von der Europäischen Union im Rahmen des Horizon-2020-Programms (Grantnummer 101003555) sowie von der Stiftung Universitätsmedizin Essen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Originalpublikation:
Toni Luise Meister, Yannick Brüggemann, Daniel Todt, Carina Conzelmann, Janis A. Müller, Rüdiger Groß, Jan Münch, Adalbert Krawczyk, Jörg Steinmann, Jochen Steinmann, Stephanie Pfaender, Eike Steinmann: Virucidal efficacy of 1 different oral rinses against SARS-CoV-2, in: Journal of Infectious Diseases, 2020, DOI: 10.1093/infdis/jiaa471

Quelle: IDW

(nach oben)


Wo ist das Wasser während einer Dürre?

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Wenn bereits kaum Niederschlag fällt – wo und wie verteilt sich das wenige Wasser und welche Möglichkeiten gibt es, den Rückhalt im Boden und in der Landschaft zu verbessern? Dörthe Tetzlaff und ihr Team vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben herausgefunden, dass die Vegetation darauf einen großen Einfluss hat. Die Forschungsgruppe analysiert die Speicherung, Verteilung und Qualität des Wassers in der Landschaft. Am Beispiel des dürreempfindlichen Demnitzer Mühlenfließes in Brandenburg, einem Teileinzugsgebiet der Spree, quantifizierten sie die sichtbaren und unsichtbaren Wasserflüsse während und kurz nach der großen Trockenheit 2018.

Brandenburg ist mit einem Jahresniederschlag von nur 560 Litern pro Quadratmeter das niederschlagsärmste Bundesland. Im Jahr 2018 fielen sogar nur 390 Liter Wasser pro Quadratmeter, also ca. 40 Prozent weniger Niederschlag als gewöhnlich.
Schon unter „normalen“ klimatischen Bedingungen werden etwa 90 Prozent des Niederschlags wieder in die Atmosphäre abgegeben und fließen nicht in Grundwasser oder Flüssen ab. Die Grundwasserstände im Gebiet zeigen heute, dass die Defizite aus dem Jahr 2018 zwischen den Wachstumsperioden nicht ausgeglichen werden konnten.

Landmanagement von kritischer Bedeutung für Verteilung von Wasserressourcen:
Dörthe Tetzlaff ist Forscherin am IGB und Professorin für Ökohydrologie an der Humboldt-Universität zu Berlin. Sie und ihr Team untersuchten, wie sich der Zeitpunkt und der Prozess der Verdunstung und der Grundwasserneubildung unter verschiedenen Böden und Landnutzungen unterscheiden. „Aufgrund der aktuellen Klimakrise mit zunehmenden Dürren müssen wir wissen, wie viel Wasser verschiedene Pflanzen nutzen. Wir als Forschende fragen uns: Kann man über nachhaltige Landnutzung den Wasserverbrauch steuern und ganze Landschaften widerstandsfähiger gegenüber Klimaextremen gestalten? Diese Erkenntnisse sind die Basis, um die Bedarfe für die Lebensmittelproduktion und die Wasserversorgung erfüllen zu können“, erläutert Dörthe Tetzlaff ihre Motivation für ihr Forschungsthema.

Waldboden trockener als Grasland:
Das Team untersuchte im Demnitzer Mühlenfließ zwei Standorte mit regionaltypischen Landnutzungen: einen Mischwald mit sandigen Böden und einer tief wurzelnden Zone und Grünland mit lehmigeren Böden und einer flacher wurzelnden Zone. Der Waldboden war wesentlich trockener, was auf Eigenschaften von Boden und Pflanzen zurückzuführen ist.
So waren während der Dürre im obersten Meter des sandigen Bodens im Wald nur 37 Liter Wasser pro Quadratmeter und unter Grünland immerhin 146 Liter Wasser pro Quadratmeter vorhanden. Das Blätterdach des Waldes schirmte bereits einen Teil des Regens ab, der direkt von den Blättern verdunstete und den Boden nie erreichte. Zudem war der sandige Waldboden kaum in der Lage, Wasser zu speichern. Niederschläge drangen tiefer in den Boden ein, wurden allerdings während der Wachstumsperiode vor Erreichen des Grundwassers wieder von den Bäumen aufgenommen.
Unter der Grünlandfläche sickerte das Wasser kontinuierlich in Richtung Grundwasser. Der Boden konnte mehr Wasser speichern. Da die Pflanzen nur Wasser aus dem oberen Boden entnahmen führte dies zu „älterem“ Bodenwasser.

„Wir konnten zeigen, wie schlecht die Landschaften in Brandenburg in der Lage sind, Niederschlagswasser im Gebiet zu halten, um Perioden mit weniger Regen zu überbrücken. Die Landschaften und ihre Nutzungen, die wir untersucht haben, sind typisch für die Nordeuropäische Tiefebene. Es war erschreckend festzustellen, wie stark selbst ein natürlicher Mischwald unter der Dürre leidet. Für wirtschaftsorientierten Forst, mit im Bestand dominierenden Nadelbäumen, ist die Situation noch schlimmer. Tatsächlich ist das Baumsterben in Brandenburg mittlerweile offensichtlich“, sagt Lukas Kleine, Doktorand in Tetzlaffs Team.

„Wasser pflanzen“ – wie die Landwirtschaft die Forschungsergebnisse nutzt:
Die Forschenden arbeiten mit der Land- und Forstwirtschaft zusammen, um ihre Forschungsergebnisse in die Anwendung zu bringen. Einer ihrer wichtigsten Partner ist Benedikt Bösel. Dessen Betrieb „Gut & Bösel“ testet und entwickelt multifunktionale Landnutzungskonzepte der regenerativen Land- und Forstwirtschaft. Der Landwirt bestätigt die Beobachtungen der IGB-Forschenden: „Die Regeneration unserer Böden und der Bodengesundheit ist die größte und wichtigste Aufgabe unserer Generation. Dafür braucht es systemische Innovation, die uns hilft, die Ursachen unserer Probleme zu verändern anstatt nur die Symptome zu bekämpfen. Nur so können wir der Komplexität von Ökosystemen gerecht werden. Diese Lösungen versuchen wir u.a. basierend auf den Erkenntnissen des Teams von Frau Tetzlaff zu entwickeln“.

„Unsere Untersuchungen in unserem ökohydrologischen Feldlabor laufen nun seit 2018 kontinuierlich, und wir werden sie fortführen. Wir sehen, dass nach den weiteren Trockenzeiten in 2019 und bisher in 2020 die Grundwasserspiegel weiter sinken. Die Vegetation konnte sich trotz der wenigen Niederschläge in den Wintermonaten immer noch nicht erholen. Wir sind leider weit von „normalen“ Bedingungen entfernt. Um die Widerstandsfähigkeit der brandenburgischen Ökosysteme gegenüber Dürren und anderen Klimaveränderungen zu verbessern, müssen Maßnahmen umgesetzt werden, die die Grundwasserneubildung fördern und Böden schaffen, die mehr Wasser speichern können. Unsere Ergebnisse unterstreichen die zentrale Rolle der Vegetation in der Entwicklung solcher Strategien.“ fasst Dörthe Tetzlaff zusammen.

Hintergrundinfos:
Wasser in der Landschaft – blaues und grünes Wasser:

Forschende unterscheiden das sogenannte blaue Wasser, das Seen, Flüsse und das Grundwasser füllt und unmittelbar für die Wasserversorgung zur Verfügung steht; und das grüne Wasser, welches direkt von der Vegetation beeinflusst wird und durch Verdunstung und Transpiration nach der Aufnahme durch die Pflanzen in die Atmosphäre zurückgeführt wird. Dörthe Tetzlaff und ihr Team erforschen die Wechselwirkungen zwischen blauem und grünem Wasser. Dabei analysieren sie detailliert, was in der sogenannten kritischen Zone geschieht und welchen Einfluss die Vegetation auf den gesamten Wasserhaushalt hat.

Die kritische Zone – die dünne, dynamische und lebenserhaltenden Haut der Erde:
Die Erdschicht, die sich zwischen dem Kronendach, dem Boden und dem Grundwasser erstreckt, nennt sich kritische Zone. Sie war lange Zeit eine „Blackbox“; vor allem die Rolle der Pflanzen in der Aufteilung des Niederschlags wurde vernachlässigt, da die Wissenschaft sich stark auf die blauen Wasserflüsse konzentriert hat, die zur Grundwasserneubildung oder Abflussbildung beitragen.
In dieser Studie untersuchten die Forschenden die Wasserflüsse in der kritischen Zone mit sogenannten stabilen Isotopen im Wasser. Diese können als „Markierstoffe“ verwendet werden, um Fließwege, Alter und Herkunft von Wasser zu bestimmen. Für ein umfassendes Verständnis sind nämlich nicht nur die absoluten Wassermengen wichtig, die sich in der Landschaft bewegen, sondern auch, wie lange das Wasser vor Ort gespeichert wird und welche Fließwege es nimmt. Wenn diese Informationen mit Daten von Vegetationsdynamiken gekoppelt werden, können mathematische Modelle beispielsweise zeigen, woher, wann und in welcher Geschwindigkeit Pflanzen ihr Wasser beziehen (d.h. aus dem Grundwasser oder dem Bodenwasser).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Abteilungsleiterin „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
d.tetzlaf@igb-berlin.de
030/64181661

Lukas Kleine
Doktorand Abteilung „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
l.kleine@igb-berlin.de
030/64181666

Originalpublikation:

Kleine, L., Tetzlaff, D., Smith, A., Wang, H., and Soulsby, C. (2020): Using isotopes to understand evaporation, moisture stress and re-wetting in catchment forest and grassland soils of the summer drought of 2018, Hydrol. Earth Syst. Sci. 2020, https://doi.org/10.5194/hess-2020-81

Smith, A, Tetzlaff, D, Kleine, L, Maneta, MP, Soulsby, C. Isotope‐aided modelling of ecohydrologic fluxes and water ages under mixed land use in Central Europe: The 2018 drought and its recovery. Hydrological Processes. 2020; Volume34, Issue16, Pages 3406-3425. https://doi.org/10.1002/hyp.13838

Weitere Informationen:
https://www.igb-berlin.de/news/wo-ist-das-wasser-waehrend-einer-duerre

Quelle: IDW

(nach oben)


Die Überdüngung der Ostsee beenden: Wirken die Maßnahmen?

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

In der Zeit von 1995 bis 2014 wurden im Bereich der westlichen Ostsee die Fluss-Einträge der beiden wichtigsten Treiber der Überdüngung, Stickstoff und Phosphor, beträchtlich reduziert. Aber zeigen diese Maßnahmen auch in der offenen Ostsee einen Effekt? Die Meereschemiker des Leibniz-Instituts für Ostseeforschung fanden dort bislang keine deutlich erkennbaren Änderungen. In einer kürzlich veröffentlichten Studie berichten sie von einer Methode, mit der sie den Verbleib der Nährstoffe von den Flussmündungen in die Ostsee verfolgten. Sie zeigen: ja, die Reduktionen in den Flusseinträgen sind auch in der Ostsee feststellbar, aber sie werden durch Einträge aus anderen Quellen kompensiert.

Stellen wir uns die Ostsee als einen großen Topf Suppe vor, an der viele Köche mitgewirkt haben. Die Suppe ist verwürzt, aber welcher Koch ist dafür verantwortlich? Ist das Gewürz erst einmal im Topf, vermischt es sich mit allen Zutaten, so dass nicht mehr zu erkennen ist, wer der Übeltäter war. Vor diesem Problem stehen auch die Meereschemiker*innen des Leibniz-Instituts für Ostseeforschung Warnemünde, wenn sie herausfinden wollen, ob Maßnahmen zur Reduktion von Nährstoffeinleitungen über die Flüsse in der offenen Ostsee nachweisbar sind. Insgesamt 40.000 Tonnen weniger Stickstoff und 1.000 Tonnen weniger Phosphor wurden von 1995 bis 2014 von den Anrainerstaaten in die westliche Ostsee eingeleitet. Die gemessenen Konzentrationen in der offenen Ostsee zeigen jedoch trotzdem keine Verbesserung.

Kürzlich wertete ein Team um den Warnemünder Meereschemiker Joachim Kuss erstmalig einen Datenschatz von über einer halben Millionen Daten aus, um der Wirkung der Reduktionsmaßnahmen auf die Spur zu kommen. Dabei machten sie sich den Umstand zunutze, dass die Flüsse im Meer letztlich doch ihre Spuren hinterlassen, in dem sie den Salzgehalt des Ostseewassers verringern. Erwartungsgemäß zeigte sich, dass die Konzentrationen der Nährstoffe im Allgemeinen mit zunehmender Entfernung von der Mündung und zunehmendem Salzgehalt abnahmen. Die große Datenmenge, die den Wissenschaftler*innen für den Zeitraum 1995 – 2016 zur Verfügung stand, ermöglichte es ihnen aber auch herauszuarbeiten, dass die Veränderungen des Verhältnisses von Nährstoff-Konzentration zum Salzgehalt auf der Strecke zwischen Küste und offener Ostsee nicht immer gleich blieben, sondern sich im Untersuchungszeitraum änderten: die Reduktion der Nährstoffe war jetzt zu erkennen!
Die angewandte Methodik enthüllte aber noch andere Zusammenhänge: während es eine besonders gute Korrelation zwischen dem Salzgehalt und den Stickstoffkomponenten gab, zeigte der Phosphorgehalt nur eine geringe Abhängigkeit von der Salinität. Dies untermauert, dass Stickstoff in bedeutender Weise an Flusswassereinträge geknüpft ist, wogegen Phosphor deutlich erkennbar auch aus anderen, Ostsee-internen Quellen stammt.
Um für die Phosphor-Komponenten, die ohne Zweifel auch in bedeutender Menge über Flüsse eingetragen werden, signifikante Informationen bezüglich der zeitlichen Abnahme zu bekommen und auch die Datenbasis für Stickstoff zu verbessern, wurden in Kooperation mit dem Landesamt für Umwelt, Naturschutz und Geologie, Mecklenburg-Vorpommern, und dem Landesamt für Landwirtschaft, Umwelt und ländliche Räume, Schleswig-Holstein, die IOW-Datensätze um die aus dem küstennahen Bereich stammenden Messergebnisse der Landesämter erweitert.
Anhand dieses vergrößerten Datenpools ließen sich für die Übergangsregion zwischen Süß- und Salzwasser die Auswirkungen der vielfältigen Prozesse, die hier auf die Nährstoffe einwirken, gut herausarbeiten: Organismen nutzen die günstige Nährstoffsituation und bilden Blüten aus. Dadurch werden Nährstoffe dem Wasser entzogen und in organische Substanz umgewandelt. Die absterbende Blüte sinkt zum Meeresboden, wo sie von Mikroorganismen zersetzt wird. Diese leisten einen zwiespältigen Beitrag zur Nähstoffreduktion, denn sie wandeln reaktive Stickstoffkomponenten in inaktiven elementaren Stickstoff um. Für die Stickstoffbilanz eine wichtige positive Leistung, für die Phosphorbilanz kann das jedoch schädlich sein: Bei der Zersetzung der organischen Substanz wird Sauerstoff verbraucht. Wird das flache Wasser des Übergangsbereiches durch Wind und Wellen gut durchmischt, ist das unkritisch. In ruhigen Wetterlagen können sich am Boden jedoch „tote Zonen“ bilden. Dann werden Phosphor-Verbindungen, die unter guten Sauerstoffbedingungen im Sediment eingelagert werden, gelöst und erhöhen den Phosphoranteil im Wasser. „Gegenwärtig werden die Sauerstoffmangelsituationen in den Küstengewässern häufiger.“ erläutert Erstautor Joachim Kuss, „Dadurch erscheint die Phosphatbelastung der westlichen Ostsee zurzeit als das primäre Problem. Das darf aber nicht darüber hinwegtäuschen, dass es auch die eingetragenen Stickstoffverbindungen sind, die letztlich zu Sauerstoffmangel und zur Reaktivierung alter Phosphorablagerungen am Meeresboden führen. Es besteht weiterhin Handlungsbedarf, um beide Nährstoffe zu reduzieren.“

Die vom IOW bereitgestellten Datensätze wurden im Rahmen des HELCOM-Monitorings im Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie erhoben.

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Joachim Kuss | Tel.: +49 (0)381 5197 393 | joachim.kuss@io-warnemuende.de

Originalpublikation:
Kuss J, Nausch G, Engelke C, Weber M, Lutterbeck H, Naumann M, Waniek JJ and Schulz-Bull DE (2020) Changes of Nutrient Concentrations in the Western Baltic Sea in the Transition Between Inner Coastal Waters and the Central Basins: Time Series From 1995 to 2016 With Source Analysis. (Frontiers in Earth Science. 8:106. doi: 10.3389/feart.2020.00106 )

Quelle: IDW

(nach oben)


Überlastung der Sehnen im Sport – was ist zu tun?

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)

Überlastungsbedingte Verletzungen von Sehnen sind typische Beschwerden von Sportlern jeden Alters und Leistungsanspruchs. Gerade die lasttragenden unteren Extremitäten, besonders die Achilles- und die Patellarsehne, sind bei vielen Aktivitäten und Sportarten für Tendinopathien anfällig. Doch was tun, wenn die Sehne durch Überlastung verletzt ist?

Von Tendinopathien spricht man, wenn eine schmerzhafte und in ihrer Funktion eingeschränkte Sehnenstruktur vorliegt. Sportler haben dabei erhebliche Einbußen ihrer Leistungsfähigkeit mit der potenziellen Gefahr eines Sehnenrisses. Gründe für Tendinopathien können eine eingeschränkte Stoffwechselaktivität des Sehnengewebes mit veränderter Kollagenzusammensetzung mit feinsten Rissen auf mikrostruktureller Ebene sein. Oder auch Entzündungsprozesse, die mit der Synthese und Interaktion proinflammatorischer Substanzen einhergehen.

Detaillierte Kenntnisse über die den Sehnenstoffwechsel beeinflussende Belastungsformen sind für Ärzte, Therapeuten und den Sportler deshalb unerlässlich.

Bekannte Trainingsparameter für Sportler sind die Intensität (Höhe und Richtung der mechanischen Belastungen), Umfang (Dauer der mechanischen Belastungen), Frequenz (Häufigkeit der mechanischen Belastung je Zeiteinheit), Regenerationszeiten sowie die Geschwindigkeit des mechanischen Kraftanstieges (Kraftanstiegsrate und Kraftimpuls).

Aus biomechanischer Sicht hat die Richtung der Krafteinwirkungen entscheidende Bedeutung. Axiale
Traktionsbelastungen (Zugbelastung) sind physiologischer mechanischer Natur für kraftübertragende Sehnen und daher ideal, um optimale, der Zugrichtung entsprechende Umbau- und Anpassungsprozesse auszulösen.

Verschiedene Therapien möglich
Die jeweilige Therapie muss immer individuell auf den Patienten zugeschnitten sein. Eckpfeiler sind
die Aufklärung des Patienten und die realistische Einschätzung der individuellen zeitlichen Ressourcen. Ein Trainingstagebuch mit der Vorgabe und Dokumentation von Therapie- und Trainingsmaßnahmen sowie der Veränderungen des Schmerzempfindens (z. B. visuelle Analogscala)
ist sinnvoll.

Priv.-Doz. Dr. med. Thilo Hotfiel, Orthopäde, Unfallchirurg und Vorstand in der GOTS erklärt: „Das ´exzentrische Training´ hat sich in einer Vielzahl hochqualitativer Studien als therapeutischer Goldstandard in der konservativen Behandlung der Achilles und Patellarsehnen-Tendinopathie etabliert. Für Anpassungen des Sehnengewebes ist allerdings die Höhe der einwirkenden Kräfte, die Geschwindigkeit und Qualität der Bewegungsausführung sowie deren Dauer bedeutsamer als die Kontraktionsform der mechanischen Spannung erzeugenden Muskulatur. Neben dem exzentrischen Krafttraining zeigen deshalb ebenso das isometrische, konzentrische und (Heavy) Slow Resistance Training gute klinische Ergebnisse.“

Die verschiedenen Trainingsformen sind in Abhängigkeit des Stadiums, der Lokalisation, der Belastungsfähigkeit und des Schmerzniveaus durchzuführen. Mit abnehmenden Beschwerden gilt es nach einer ersten Phase langsamer und besonders kontrollierten Übungen die Belastungen zu steigern und sowohl verstärkt schnellkräftige als auch sportspezifische Bewegungsmuster in das Trainingsprogramm zu integrieren.

Auch die extrakorporale Stoßwellentherapie (ESTW) zeigt bei einigen Tendinopathien positive Effekte. Bei Mid-Portion-Tendinopathien ist häufig eine Kombination von ESTW und exzentrischem Krafttraining wirksam.

Auf die peri- und peritendinöse Injektion von Glucocorticoiden (Cortisonpräparate) sollte bei Tendinopathien verzichtet werden.

Originalpublikation:
https://www.springermedizin.de/ueberlastungsbedingte-tendinopathien/18054106

Quelle: IDW

(nach oben)


Mit Biomarkern auf Zeitreise in Sachen „Blaualgen“: Ostsee-Sedimentarchive zeigen Auftreten und Häufigkeit seit 1860

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Forschenden aus Warnemünde und dem kalifornischen La Jolla gelang es erstmals, mithilfe von Biomarkern und einem gut datierten Sedimentkern die Geschichte der Blaualgenblüten in der zentralen Ostsee über die letzten 160 Jahre zu rekonstruieren. So verlängerten sie den Zeitraum, für den bislang Informationen zur Häufigkeit der Blüten vorlagen, deutlich in die Vergangenheit hinein. In einem in der internationalen Fachzeitschrift Biogeosciences erschienenen Artikel diskutieren sie mögliche Ursachen für die erfassten Schwankungen. Für eine kausale Verbindung zur Überdüngung der Ostsee finden sie keine klaren Anzeichen, wohl aber zur Entwicklung der Sommertemperaturen des Oberflächenwassers.

Der Hochsommer ist ihre Zeit: Cyanobakterien – umgangssprachlich Blaualgen genannt – geht es im Zeitraum Juli/August, wenn nach der Hauptwachstumsphase nur noch wenig Nährstoffe im Oberflächenwasser sind, besonders gut. Dann kann ihr massenhaftes Auftreten nicht nur den Badespaß vermiesen, weil es das Wasser in eine gelbbraune Brühe verwandelt, diese Organismen schaden auch dem Ökosystem. Denn sterben die Algenmassen ab, so sinken sie auf den Meeresboden, wo bei ihrer Zersetzung Sauerstoff verbraucht wird. Die „toten Zonen“ am Boden der Ostseebecken breiten sich weiter aus. Den Ursachen der häufigen Blaualgenblüten versuchen die Meeresbiolog*innen am Leibniz-Institut für Ostseeforschung Warnemünde seit Jahren auf den Grund zu kommen. Nun erhielten sie Unterstützung durch ihre Kolleg*innen aus der Sektion Marine Geologie.

Zum Einsatz kamen zwei Biomarker, die fast ausschließlich durch die in der Ostsee häufig vorkommenden Cyanobakterien Aphanizomenon sp. und Nodularia spumigena produziert werden. Sie heißen 6- und 7-Methylheptadecan (abgekürzt: 6+7Me-C17:0). Dabei handelt es sich um Kohlenwasserstoffe, die die Cyanobakterien aus Fettsäuren herstellen. Sie haben die vorteilhaften Eigenschaften, sich auch innerhalb von Jahrtausenden nicht zu zersetzen und sich mit einem vertretbaren methodischen Aufwand in Sedimentproben detektieren zu lassen. So gelang es einem Team um den Warnemünder Meeresgeologen Jérôme Kaiser, innerhalb eines auf 160 Jahre datierten Sedimentkernes durchgehend Cyanobakterien nachzuweisen, bis 1920 aber in nur relativ geringer Häufigkeit. Danach wechselten sich Perioden mit hoher und niedriger Häufigkeit ab. Einen signifikanten Anstieg in den 1950er Jahren, als die Überdüngung der Ostsee erheblich zunahm, fanden sie nicht. Dafür zeigte sich aber eine Parallelität zur Entwicklung der sommerlichen Temperatur des Oberflächenwassers in der zentralen Ostsee. Gleichfalls scheinen zyklische Zirkulationsschwankung der Ozeanströmungen im Nordatlantik (60-90 Jahre) indirekt Einfluss zu nehmen.

Um die Aussagekraft der Biomarker zu beleuchten, werteten die Warnemünder frisch sedimentiertes Material einer Cyanobakterienblüte aus Sinkstofffallen der zentralen Ostsee im Hinblick auf ihren Gehalt an den Biomarkern im Verhältnis zu Menge und Masse der beprobten Cyanobakterien aus. Sinkstofffallen sind große trichterartige Gefäße, die am Meeresboden verankert und mit Auftriebskörpern aufrecht im Wasser gehalten werden. Sie sammeln alles, was in sie hineinfällt, getrennt nach einzelnen Wochen, in Auffangbehälter.

Die Biomarker-Daten, sowohl aus diesem Sinkstofffallenmaterial als auch aus dem Sedimentkern, verglich das Team mit den Angaben zum Aufkommen von Cyanobakterien aus Monitoring-Programmen und Satellitenbildern der letzten 35 Jahre. Sie wiesen nach, dass die Biomarker 6+7Me-C17:0 nicht nur generell die Anwesenheit von Cyanobakterien anzeigen, sondern darüber hinaus auch grobe Aussagen über die Mengen an Organismen zulassen, die die Biomarker produziert haben. Das gilt vor allem für die Spezies Nodularia spumigena, die in der zentralen Ostsee häufigste Cyanobakterien-Art.

Mit diesen Erkenntnissen wagten sich die Wissenschaftler*innen auch an einen 7.000 Jahre umfassenden Sedimentkern aus der Bottensee, einem Becken im Norden der Ostsee. Dieser Zeitabschnitt umfasst das mittlere und späte Holozän, eine warmzeitliche Epoche, die mit dem Ende der letzten Eiszeit begann. Für die heutige Klimaforschung ist sie besonders interessant, weil im Klimaoptimum des mittleren Holozäns die durchschnittlichen Temperaturen auf der Nordhemisphäre um 1-1.5 °C höher als heute waren. In einem entsprechenden Abschnitt des Bottensee-Sedimentkernes, war der Gehalt an 6+7Me-C17:0 bis zu 100mal höher als in der heutigen zentralen Ostsee. Das legt häufige und starke Cyanobakterienblüten nahe – dort, wo heute die Biomasse der Cyanobakterien-Blüten 4- bis 5-mal geringer ist als in der zentralen Ostsee – eine enorme Veränderung. „Die beiden Methylheptadekan-Biomarker sind für das gesamte Holozän einsetzbar,“ fasst Jérôme Kaiser die Ergebnisse zusammen. „Sie haben uns gezeigt, dass Cyanobakterien drastisch auf Klimaanomalien reagieren können. In Anbetracht der anhaltenden Erderwärmung sollten wir das im Blick behalten.“

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Jérôme Kaiser, IOW, Sektion Marine Geologie | Tel.: +49 (0)381 5197 3414 | jerome.kaiser@io-warnemuende.de
Dr. Anke Kremp, IOW, Sektion Biologische Meereskunde | Tel.: +49 (0)381 5197 270 | anke.kremp@io-warnemuende.de

Originalpublikation:
Kaiser, J., N. Wasmund, M. Kahru, A. K. Wittenborn, R. Hansen, K. Häusler, M. Moros, D. Schulz-Bull and H. W. Arz (2020). Reconstructing N2-fixing cyanobacterial blooms in the Baltic Sea beyond observations using 6- and 7-methylheptadecane in sediments as specific biomarkers. Biogeosciences 17: 2579-2591, doi: 10.5194/bg-17-2579-2020

Quelle: IDW

(nach oben)


Energieforschung für beste Spannung in den Stromnetzen

Sabine Recupero Öffentlichkeitsarbeit und Kommunikation
Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH

An einer Verbesserung der Spannungsqualität in den Stromnetzen arbeiten Forscher der FH Kiel und der CAU Kiel. In Kooperation mit einem Windenergiepark- und Umspannwerkbetreiber an der Westküste Schleswig-Holsteins werden bis Mai 2022 Feldversuche in einem Umspannwerk in Vollstedt, Kreis Nordfriesland, durchgeführt und ausgewertet. Das Projekt wird aus dem HWT-Programm der gemeinnützigen Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH (EKSH) mit 140.000 Euro gefördert.

EKSH-Geschäftsführer Stefan Sievers übergab die Förderzusage am Freitag in Vollstedt an Prof. Dr.-Ing. Hans-Jürgen Hinrichs, der die wissenschaftliche Projektleitung innehat. Der Forscher an der FH Kiel arbeitet in dem Projekt mit seinem CAU-Kollegen Prof. Dr.-Ing. Marco Liserre zusammen. Der Kooperationspartner Windenergieberatung (WEB) Andresen GmbH, Breklum, beteiligt sich mit rd. 18 Prozent an den Gesamtkosten des Projekts. Netzwerkpartner sind die M.O.E. Moeller Operating Engineering GmbH, Itzehoe, und das Kompetenzzentrum Erneuerbare Energien und Klimaschutz Schleswig-Holstein (EEK.SH) in Kiel.

Wie lassen sich zukünftig Windparks zur Erbringung von so genannten Systemdienstleistungen einsetzen? Diese Forschungsfrage ist für Schleswig-Holstein mit seiner hohen Dichte an Windenergieerzeugungsanlagen bedeutend. Sowohl Betreiber von Windparks als auch alle anderen an das Netz angeschlossenen Erzeuger- und Verbraucheranlagen könnten von einer besseren Spannungsqualität profitieren, da hierbei die Verluste in allen elektrischen Betriebsmitteln verkleinert werden und sich deren Lebensdauer verlängert. „Das neue Forschungsvorhaben ist geeignet, die Energiewende nachhaltig zu unterstützen. Uns hat das Projekt sowohl fachlich überzeugt, als auch darin, dass hier viele Fachleute hochschul- und unternehmensübergreifend eng zusammen arbeiten“, sagte Sievers.

Das HWT-Programm ist eine der Säulen der Tätigkeit der gemeinnützigen EKSH. Seit 2012 sind 47 Kooperationsprojekte von Wissenschaftlern mit Unternehmen mit einem Fördervolumen von rd. 7 Mio. Euro unterstützt worden. Aus dem Programm können Projekte der angewandten Forschung und Entwicklung und des Transfers wissenschaftlicher Erkenntnisse in die Praxis (Pilotprojekte) gefördert werden. Zum Fachgebiet Energie und Klimaschutz gehören insbesondere Fragestellungen wie Energieproduktion, Energieverbrauch und -effizienz sowie Energieversorgung und Energiewirtschaft. Zum 1. Oktober sind schleswig-holsteinische Hochschulen erneut aufgefordert, spannende Projekte einzureichen.

Im Juni hat die EKSH eine Broschüre „Energieforschung in Schleswig-Holstein – Kooperationsgeschichten“ herausgegeben, die weitere Beispiele für Kooperationsprojekte von Wissenschaftlern mit Unternehmen enthält.

Weitere Informationen:

http://www.eksh.org/projekte-foerderung/hwt-energie-und-klimaschutz/
http://www.energieforschung.sh
https://www.eksh.org/presse/pressebilder/ Pressebild vom Ortstermin

Quelle: IDW

(nach oben)


Technologien im Alltag von älteren Menschen

Sarah Blaß Kommunikation und Veranstaltungsmanagement
Frankfurt University of Applied Sciences

Prof. Dr. Barbara Klein von der Frankfurt UAS liefert gemeinsam mit Uni-Kollegen Expertise für den achten Altersbericht „Ältere Menschen und Digitalisierung“ des Bundesfamilienministeriums

In einer Bundespressekonferenz hat die Bundesministerin für Familie, Senioren, Frauen und Jugend, Dr. Franziska Giffey, kürzlich den achten Altersbericht „Ältere Menschen und Digitalisierung“ der Öffentlichkeit vorgestellt. Die Digitalisierung bietet älteren Menschen viele Chancen, um möglichst lange ein selbständiges und eigenverantwortliches Leben führen zu können. Das ist eines der zentralen Ergebnisse des Berichts. Die Kommission hat zu verschiedenen Themen Expertisen eingeholt, deren Erkenntnisse in den Altersbericht eingeflossen sind. Prof. Dr. Barbara Klein von der Frankfurt University of Applied Sciences (Frankfurt UAS) hat zusammen mit Prof. Dr. Frank Oswald von der Frankfurter Goethe-Universität mit einer Expertise zu den „Möglichkeiten und Herausforderungen der Implementierung von Technologien im Alltag von älteren Menschen“ dazu beigetragen. Themen der Expertise waren unter anderem Robotik, assistive Technologien, digitale Gesundheitsanwendungen und technikgestützte Dienstleistungen für ein selbstständiges Leben.

Klein und Oswald geht es bei den Technologien mit denen sie sich befassten nicht um konkrete Produkte, sondern vielmehr um einen Einblick in die Strategien und Methoden zur Implementierung von digitalen Assistenzsystemen in verschiedenen alltagsrelevanten Lebenswelten älterer Menschen. Alltagsrelevante Lebenswelten umfassen dabei das private Wohnen von der eigenen Häuslichkeit bis zum Quartier mitsamt der pflegerischen und gesundheitlichen Versorgung sowie den Kontext von Dienstleistungen in der Altenhilfe. Die heutige Verbreitung technologischer Lösungen für ein selbstbestimmtes Leben im Alter zeigt zum einen das Implementierungspotenzial auf, weist aber auch auf weitere Handlungsbedarfe hin.

Prof. Dr. Barbara Klein ist Sprecherin des Forschungszentrums FUTURE AGING der Frankfurt UAS. Rund 20 Professorinnen und Professoren aus allen vier Fachbereichen der Frankfurt UAS haben an diesem Forschungszentrum die Möglichkeit, Erfahrungen und Expertise aus diesen einzubringen, um nutzungsfreundliche und soziotechnische Forschungs- und Entwicklungsthemen für das Wohnen und Arbeiten in einer älter werdenden Gesellschaft zu bearbeiten. Das Frankfurter Forum für Interdisziplinäre Alternsforschung der Goethe Universität, dessen Vorstandssprecher Prof. Dr. Frank Oswald ist, ist assoziiertes Mitglied des Zentrums.

Die Expertise kann unter folgendem Link https://www.achter-altersbericht.de/fileadmin/altersbericht/pdf/Expertisen/Exper… herunter geladen werden; eine Kurzfassung des Altersberichts ist hier abrufbar: https://www.achter-altersbericht.de/.

Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 4: Soziale Arbeit und Gesundheit, Prof. Dr. Barbara Klein, Telefon: +49 69 1533-2877, E-Mail: bklein@fb4.fra-uas.de

Weitere Informationen:

http://www.frankfurt-university.de/fb4

Quelle: IDW

(nach oben)


Neue Erkenntnisse zur Evolution von bakteriellen Antibiotikaresistenzen

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Kieler Forschungsteam untersucht, wie sich die Antibiotikagabe auf die Mechanismen der von Plasmiden vermittelten Vererbung von Resistenzgenen auswirkt

Die Erbinformationen vieler Mikroorganismen, insbesondere der Bakterien, liegen zum Teil in sogenannten Plasmiden vor. Das sind genetische Elemente, die aus nur einem einzelnen DNA-Ring bestehen, nicht auf den Chromosomen vorliegen und sich eigenständig vervielfältigen können. Bakterien ist es dank solcher Plasmide möglich, Erbinformationen sehr schnell untereinander und auch über die Grenzen verschiedener Bakterienarten hinweg zu übertragen. Dieser als horizontaler Gentransfer bezeichnete Prozess ist zentral an der Evolution von Mikroorganismen beteiligt und hilft ihnen dabei, sich flexibel an veränderte Umweltbedingungen anzupassen. Insbesondere für bakterielle Krankheitserreger ist diese schnelle Anpassungsfähigkeit ein großer Vorteil.

Ein Forschungsteam vom Institut für Allgemeine Mikrobiologie an der Christian-Albrechts-Universität zu Kiel (CAU) wies im vergangenen Jahr nach, dass Plasmide als häufige Träger von Resistenzgenen dauerhaft und auch ohne Selektionsdruck stabil in Bakterienzellen überdauern können. So können sie ein Reservoir für die Entwicklung von Resistenzen bilden, das schon bei einmaliger Antibiotikagabe zur Behandlungsunempfindlichkeit der nachfolgenden Bakteriengenerationen führen kann. In einer nun anschließenden Arbeit haben die Wissenschaftlerinnen und Wissenschaftler aus der CAU-Arbeitsgruppe Genomische Mikrobiologie um Professorin Tal Dagan untersucht, welche Wirkung die Antibiotikagabe wiederum auf die Stabilität der Plasmide in den Bakterienzellen und damit ihren evolutionären Erfolg ausübt. Sie stellten fest, dass der von den Antibiotika ausgehende Selektionsdruck nicht immer die stabile Plasmid-Vererbung fördert – obwohl die Plasmide für die Zelle vorteilhafte Resistenzgene tragen. Die Ergebnisse ihrer im Rahmen des Kiel Evolution Center (KEC) entstandenen Arbeit veröffentlichten die Forschenden gestern in der Fachzeitschrift Current Biology.

Plasmide und Bakterienzellen spielen nicht immer im selben Team
Das allgegenwärtige Vorkommen von Plasmiden in der Natur lässt zunächst vermuten, dass Plasmide eine stabile Vererbung entwickeln und langfristig beispielsweise in einer Bakterienpopulation erhalten bleiben – solange sie keinen negativen Einfluss auf die Fitness des Wirtslebewesens haben, etwa durch ihren Energiebedarf. Das Kieler Forschungsteam untersuchte daher, warum sich entgegen dieser Annahme nicht in allen Fällen eine Plasmid-Stabilität einstellt, obwohl ihre Anwesenheit unter Selektionsdruck vorteilhaft ist. Dazu kultivierten die Forschenden in Evolutionsexperimenten das Bakterium Escherichia coli jeweils mit und ohne Antibiotikagabe. So konnten sie überprüfen, wie sich im Vergleich die Anwesenheit der Plasmide über die Bakteriengenerationen entwickelte. „In Anwesenheit von Antibiotika muss jede Bakterienzelle eine Resistenz entwickeln, sonst stirbt sie. Daher überleben unter diesen Bedingungen alle Zellen, die ein Plasmid als Träger des Resistenzgens haben“, erklärt Erstautorin Dr. Tanita Wein, die kürzlich in Dagans Arbeitsgruppe promovierte. „Dabei ist es für die Bakterienzelle egal, in welchem Zustand sich das Plasmid befindet, und es überleben sowohl stabile als auch instabile Plasmid-Varianten“, so Wein weiter.

Dabei haben die Plasmide die Tendenz, sogenannte Multimere zu bilden, sich also aus mehreren einzelnen Plasmiden zu einer großen zusammenhängenden Struktur zusammenzuschließen. Wenn sich die Bakterienzelle anschließend teilt, geht das große Multimer mit dann mehreren Resistenzgenen nur in eine Tochterzelle über, die zweite neue Zelle erhält aber keines. Das dadurch wahrscheinlich verstärkte Plasmid mit seinen Resistenzgenen ist zwar für die Bakterienzelle von Vorteil, es wird dadurch allerdings auch instabil – denn ohne den Selektionsdruck eines Antibiotikums gehen die großen Multimere wieder verloren. Zusammenfassend bedeutet dies, dass die positive Selektion hinsichtlich der Antibiotikaresistenz zur Aufrechterhaltung von nicht-optimalen Plasmid-Varianten führt, die langfristig nicht stabil vererbt werden können.

Diese Vorgänge zeigen, dass die Bakterienzellen und die Plasmide im übertragenen Sinne kein gemeinsames Interesse haben. Die evolutionäre Selektion ihrer Eigenschaften findet auf unterschiedlichen Ebenen statt und dient nicht immer dem Vorteil beider Beteiligter, obwohl sie in einem gemeinsamen Organismus existieren. „Im konkreten Fall bedeutet dies, dass der durch das Plasmid vermittelte Vorteil für die Wirtszelle mit einem verringerten Erfolg für die Evolution der Plasmide einhergeht und die Interessen von Plasmid und Zelle in diesem Fall gegenläufig sind. Die Betrachtung von Plasmiden als sich autonom von ihren Wirtszellen entwickelnde Einheiten hilft also dabei, den Verlauf ihrer gemeinsamen Evolution besser zu verstehen“, erklärt Wein.

Besseres Verständnis der Resistenzevolution
Insgesamt könnten die neuen Kieler Forschungsergebnisse zu einem besseren Verständnis der Vererbungsprozesse bei Plasmiden und den damit verbundenen Konsequenzen für den Wirtsorganismus führen. „Unsere Ergebnisse legen nahe, dass eher schnell veränderliche Bedingungen wie die abwechselnde An- und Abwesenheit von Antibiotika und nicht so sehr eine konstante Selektion der Schlüssel zur schnellen Anpassung der Plasmide sind“, betont Dagan. „Unsere Erkenntnisse könnten daher auch auf die Prozesse anwendbar sein, die bei Krankheitserregern zur Entstehung von Multiresistenzen gegenüber verschiedenen Wirkstoffen führen“, meint Dagan.

Über das KEC
Das Kiel Evolution Center (KEC) als interaktive Wissenschaftsplattform an der Christian-Albrechts-Universität zu Kiel (CAU) setzt sich zum Ziel, Evolutionsforscherinnen und -forscher in der Region Kiel besser zu koordinieren. Daneben sollen unter dem Schlüsselbegriff „Translationale Evolutionsforschung“ gezielt Brücken zwischen Grundlagenforschung und Anwendung geschlagen werden. Neben der Förderung der Wissenschaft stehen ausdrücklich auch Lehre und Öffentlichkeitsarbeit im Fokus des Kiel Evolution Center. Daran beteiligt sind neben der CAU auch Forschende vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, dem Max-Planck-Institut für Evolutionsbiologie in Plön (MPI-EB) und dem Forschungszentrum Borstel (FZB), Leibniz-Zentrum für Medizin und Biowissenschaften.

Fotos stehen zum Download bereit:

https://www.uni-kiel.de/de/pressemitteilungen/2019/190-wein-naturecomms-lab.jpg
Bildunterschrift: Dr. Tanita Wein, die Hauptautorin der Studie, hat kürzlich promoviert und arbeitet derzeit als Postdoktorandin in der Forschungsgruppe von Prof. Rotem Sorek am Weizmann Institute of Science in Israel.
© Institut für Allgemeine Mikrobiologie, CAU

Weitere Informationen:
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel:
https://www.mikrobio.uni-kiel.de/de/ag-dagan

Forschungszentrum „Kiel Evolution Center“, CAU Kiel:
http://www.kec.uni-kiel.de

Wissenschaftliche Ansprechpartner:
Dr. Tanita Wein
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie
E-Mail: twein@ifam.uni-kiel.de
Tel.: 0431-880-5743

Prof. Tal Dagan
Leiterin AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel
E-Mail: tdagan@ifam.uni-kiel.de
Tel.: 0431-880-5712

Originalpublikation:

Tanita Wein, Yiqing Wang, Nils F. Hülter, Katrin Hammerschmidt, Tal Dagan (2020): Antibiotics interfere with the evolution of plasmid stability. Current Biology
First published on 13 August 2020
https://doi.org/10.1016/j.cub.2020.07.019

Weitere Informationen:
https://www.mikrobio.uni-kiel.de/de/ag-dagan
http://www.kec.uni-kiel.de

Quelle: IDW

(nach oben)


Rätselhafte Verdunklung von Beteigeuze: Der Staub lichtet sich

Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Astrophysik Potsdam

Zwischen Oktober 2019 und Februar 2020 nahm die Helligkeit des Sterns Beteigeuze um mehr als das Dreifache ab. Neue Beobachtungen des Hubble-Weltraumteleskops der NASA/ESA sowie des robotischen STELLA-Teleskops des Leibniz-Instituts für Astrophysik Potsdam (AIP) liefern nun eine Erklärung für das Phänomen.

Beteigeuze strahlt als heller Stern im Sternbild Orion. Er gehört zur Klasse der Roten Überriesen und würde im Zentrum unseres Sonnensystems bis über die Jupiterbahn hinausreichen. Im Herbst 2019 begann eine plötzliche Verdunklung des Sterns, die zunächst mit Teleskopen und später sogar mit bloßem Auge von der Erde sichtbar wurde – und die Wissenschaft zunächst vor ein Rätsel stellte. Der Stern ist mit seiner Entfernung von etwa 725 Lichtjahren unserem Sonnensystem relativ nahe. Tatsächlich hat das Verdunklungsereignis damit um das Jahr 1300 stattgefunden, da sein Licht die Erde erst jetzt erreicht. Beteigeuze wird sein Leben in einer Supernova-Explosion beenden. Einige Astronomen glauben, dass die plötzliche Verdunklung einen Vorboten der Supernova darstellen könnte.

Dank neuer Beobachtungsdaten, die mit dem Hubble Space Teleskop entstanden sind, hat ein internationales Team nun eine Staubwolke als wahrscheinliche Ursache für die Verdunklung ausgemacht: Die Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass der Stern superheißes Plasma aus einer großen Konvektionszelle von der Sternoberfläche ausstieß, ähnlich wie aufsteigende heiße Blasen in kochendem Wasser, nur mehrere hundert Mal so groß wie unsere Sonne. Das Material gelangte dann durch die heiße Atmosphäre zu den kälteren äußeren Schichten des Sterns. Dort kühlte es ab und die so entstandene riesige Staubwolke blockierte ab Ende 2019 das Licht von etwa einem Viertel der Sternoberfläche. Im April 2020 hatte Beteigeuze seine normale Helligkeit wieder erreicht.
Die Hubble-Beobachtungen sind Teil einer dreijährigen Studie der Schwankungen in der äußeren Atmosphäre des Sterns. Die seither entstandene Zeitreihe liefert wichtige neue Hinweise auf den Mechanismus hinter der Verdunklung. Hubble beobachtete die Schichten über der Oberfläche des Sterns, die so heiß sind, dass sie hauptsächlich im ultravioletten Bereich des Spektrums leuchten.

In den Herbstmonaten 2019 spürte Hubble dichtes, heißes Material in der Atmosphäre des Sterns auf. „Mit Hubble sahen wir, wie das Material die sichtbare Oberfläche des Sterns verlässt und sich durch die Atmosphäre bewegt, bevor sich der Staub bildet, der den Stern zu verdunkeln scheint“, sagt die leitende Forscherin Andrea Dupree, stellvertretende Direktorin des Zentrums für Astrophysik | Harvard & Smithsonian. „Wir konnten den Effekt einer dichten, heißen Region im südöstlichen Teil des Sterns sehen, die sich nach außen bewegt. Dieses Material war zwei- bis viermal heller als die normale Helligkeit des Sterns. Und dann, etwa einen Monat später, verdunkelte sich die Südhalbkugel von Beteigeuze auffallend, als der Stern schwächer wurde. Wir halten es für möglich, dass eine dunkle Wolke aus dem von Hubble entdeckten Ausstoß resultierte.“

Von besonderer Bedeutung während der Zeit der großen Verdunklung waren Geschwindigkeitsmessungen der äußeren Schichten von Beteigeuze mit dem STELLA-Teleskop des AIP auf Teneriffa, dessen Beobachtungen die von Hubble ergänzen. „STELLA wurde zur Beobachtung einzelner Objekte über einen sehr langen Zeitraum – insbesondere magnetisch aktiver Sterne – konstruiert. Es eignet sich perfekt für die Beobachtung heller Sterne wie Beteigeuze. STELLA beobachtete den Stern bereits seit 2006 praktisch in jeder klaren Nacht“, erklärt Klaus Strassmeier, Co-Autor der Studie und Direktor am AIP.

Obwohl die Ursache des Ausbruchs nicht bekannt ist, hält es das Forschungsteam für wahrscheinlich, dass er mit dem Pulsationszyklus des Sterns zusammenhängt und dadurch begünstigt wurde. Dieser setzte sich während des gesamten Ereignisses normal fort. Die AIP-Wissenschaftler setzten STELLA ein, um Veränderungen in der Geschwindigkeit des Plasmas auf der Sternoberfläche zu messen, während es im Laufe des Pulsationszyklus auf- und abstieg. Als das heiße Material aufstieg, dehnte sich der Stern in seinem Zyklus zur gleichen Zeit aus. Die Pulsation, die sich von Beteigeuze nach außen hin ausbreitete, hat möglicherweise dazu beigetragen, das ausströmende Plasma durch die Atmosphäre zu treiben.

„Hätte ein großer und sehr kühler Sternfleck die Verdunklung verursacht, wären die Geschwindigkeiten des Plasmas nicht der Pulsation, sondern der Rotation des Sterns gefolgt. Diese ist übrigens sehr langsam und beträgt viele Jahre. Sie hätte daher nicht zeigen können, was STELLA beobachtete, und schon gar nicht eine Umkehrung der Geschwindigkeit des Plasmas, als der Stern am schwächsten war“, schließt Strassmeier.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Klaus Strassmeier, 0331 7499 295, kstrassmeier@aip.de

Originalpublikation:

Andrea K. Dupree, Klaus G. Strassmeier, Lynn D. Matthews, Han Uitenbroek, Thomas Calderwood, Thomas Granzer, Edward F. Guinan, Reimar Leike, Miguel Montargès, Anita M. S. Richards, Richard Wasatonic, and Michael Weber (2020): Spatially Resolved Ultraviolet Spectroscopy of the Great Dimming of Betelgeuse. The Astrophysical Journal, 899, 68
https://doi.org/10.3847/1538-4357/aba516

Weitere Informationen:
https://www.aip.de/de/aktuelles/scientific-highlights/raetselhafte-verdunklung-v…
https://hubblesite.org/contents/news-releases/2020/news-2020-44
https://www.spacetelescope.org/news/heic2014/
https://www.nasa.gov/feature/goddard/2020/nasa-satellite-s-lone-view-of-betelgeu…
https://www.cfa.harvard.edu/news/2020-17

Quelle: IDW

(nach oben)


Hannoveraner Physikerteam entwickelt mobilen Schnelltest zur Erkennung von giftigen Blaualgen

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Team der Leibniz Universität Hannover ist an einem Projekt beteiligt, das auf große finanzielle Einsparungen bei Wasseruntersuchungen zielt – profitieren sollen Wasserwerke, Kommunen und Badeseebetreiber

Verfärbt sich im Sommer das Wasser in Badeseen und Teichen grün, handelt es sich dabei oft um Cyanobakterien. Diese auch Blaualgen genannten Mikroorganismen können einige der gefährlichsten natürlich vorkommenden Gifte auf der Welt in sich tragen, die Cyanotoxine. Insbesondere Kinder, aber auch Wassersportler und Hunde sind durch sie gefährdet. Denn das Verschlucken oder der Hautkontakt mit den Blaualgen kann unter anderem zu Haut- und Schleimhautreizungen, Durchfall oder Fieber führen. Deswegen werden befallene Gewässer regelmäßig gesperrt. Um Gewässer sicherer zu machen, will das neue Verbundforschungsprojekt „CyanoBakterien und -toxin Erfassung (CyBER)“ in den nächsten drei Jahren einen mobilen Schnelltest zum Erkennen der giftigen Blaualgen entwickeln.

Wissenschaftlicher Partner des Projektes ist das HOT – das Hannoversche Zentrum für Optische Technologien – an der Leibniz Universität Hannover unter Geschäftsführer Prof. Dr. Bernhard Roth, der auch die Arbeitsgruppe F1 – Präzisionsmesswesen (Metrologie) im Exzellenzcluster PhoenixD (Photonics, Optics, and Engineering – Innovation Across Disciplines) leitet: „In diesem Projekt übertragen wir in der Grundlagenforschung entwickelte optische Technologien in die Praxis und ermöglichen so innovative und präzise Messtechnik“, sagt Roth. „Langfristig möchten wir solche komplexen Systeme mittels additiver Fertigung, also zum Beispiel 3D-Druck, realisieren, sie mit künstlicher Intelligenz ausstatten und für die breite Nutzung verfügbar machen. Das passt sehr gut zu unserem Exzellenzcluster PhoenixD, der die Grundlagen für die digitale, individualisierte Optik-Produktion der Zukunft erforscht.“

Das Umweltanalytikunternehmen bbe Moldaenke aus Schwentinental bei Kiel koordiniert das Verbundprojekt, dem auch das Institut für Hygiene und Umwelt in Hamburg, das die Wasserressourcen in der Region überwacht, sowie der Messgerätehersteller ADM aus Krems II bei Bad Segeberg, angehören. Finanziert wird das Projekt durch die Förderinitiative „KMU-innovativ: Photonik und Quantentechnologie“ des Bundesministeriums für Bildung und Forschung.

Technisch wollen die Forschenden mehrere optische Technologien miteinander kombinieren: Fluoreszenzdetektion, Holographie und Ramanspektroskopie. So können die chemische Zusammensetzung der Stoffe auf molekularer Ebene erkannt sowie Form und Lage der Objekte bestimmt werden. Die Wasserproben werden kontaktlos und präparationsfrei nur mittels optischer Verfahren untersucht. Das geplante Verfahren wird auch bereits gebildete, aber noch nicht freigesetzte Cyanotoxine erkennen sowie nicht giftige, aber zur späteren Giftbildung fähige Cyanobakterien erfassen. „Mit dieser Innovation wird es möglich sein, potenziell gefährdete Gewässerbereiche effektiv zu überwachen“, sagt Christoph Wetzel, Doktorand und Wissenschaftlicher Mitarbeiter am HOT. „Unser Verfahren bedeutet eine deutliche Verbesserung gegenüber dem aktuellen Stand der Wissenschaft und Technik“, sagt Dr. Ann-Kathrin Kniggendorf, in deren Gruppe am HOT die Forschungsarbeiten durchgeführt werden.

Dr. Regine Redelstein, Leiterin des Referats Aquatische Biologie und Ökotoxikologie am Institut für Hygiene und Umwelt in Hamburg, sagt: „Mit der Technik kann bereits vor Ort das Gefährdungspotential einer Cyanobakterienblüte bewertet werden, sodass schneller als bisher Entscheidungen über die Sperrung eines Gewässers getroffen werden können. Das wäre in Hamburg unter anderem vor Großveranstaltungen, wie zum Beispiel dem jährlich stattfindenden Iron Man oder Triathlon, bei denen in der Alster geschwommen wird, von großer Bedeutung.“

„Das Projekt bedeutet für meine Firma bbe nicht nur einen optischen Quantensprung“, sagt Christian Moldaenke, Geschäftsführer von bbe Moldaenke, „sondern auch einen ökologischen und wirtschaftlichen. Die Überwachung und Sicherung von Badegewässern und Trinkwasser kann extrem verdichtet stattfinden, der Einzeltest wird nur noch für einen Bruchteil der bisherigen Kosten durchführbar sein.“ Zumal für die Anwendung kein Fachpersonal nötig sein wird. Großes Marktpotenzial sieht das Team nicht nur bei Aufsichtsbehörden und Trinkwasserversorgern, sondern auch bei Aquakulturbetreibern, Fischern und Betreibern von Badeseen.

Der Exzellenzcluster PhoenixD
Im Exzellenzcluster PhoenixD der Leibniz Universität Hannover forschen mehr als 100 Wissenschaftlerinnen und Wissenschaftler aus den Fachdisziplinen Physik, Maschinenbau, Elektrotechnik, Chemie, Informatik und Mathematik fachübergreifend zusammen. Der Cluster lotet die Möglichkeiten aus, die sich durch die Digitalisierung für neuartige optische Systeme sowie ihre Fertigung und Anwendung ergeben. In den Jahren 2019 bis 2025 wird der Cluster mit rund 52 Millionen Euro vom Bund und dem Land Niedersachsen über die Deutsche Forschungsgemeinschaft (DFG) gefördert. Kooperationseinrichtungen des Clusters sind die Technische Universität Braunschweig, das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut), die Physikalisch-Technische Bundesanstalt und das Laser Zentrum Hannover e.V.

Hinweis an die Redaktion:
Die Wissenschaftlerinnen und Wissenschaftler stehen für Interviews zur Verfügung. Bitte wenden Sie sich an:

Prof. Dr. Bernhard Wilhelm Roth, Leiter der Task Group F1 – Precision Metrology im Cluster PhoenixD und Geschäftsführer des HOT – Hannoversches Zentrum für Optische Technologien, Telefon +49 511 762 17907, E-Mail: bernhard.roth@hot.uni-hannover.de

Quelle: IDW

(nach oben)


Wirkungsmechanismen von Antibiotikakombinationen entdeckt

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Bildung und Auflösung von Rückstaus bei der Übersetzung der DNA-Sequenz verursacht Wechselwirkungen zwischen Antibiotika.

Es ist meist schwer vorhersehbar, wie Arzneimittel wirken, wenn sie miteinander kombiniert werden. Manchmal verstärken zum Beispiel zwei Antibiotika ihre Wirkung und hemmen das Wachstum von Bakterien stärker als erwartet; in anderen Fällen ist die gemeinsame Wirkung schwächer. Da es sehr viele verschiedene Möglichkeiten gibt, Medikamente wie Antibiotika miteinander zu kombinieren, ist es wichtig, die Wirkung solcher Arzneimittelkombinationen vorhersagen zu können. Eine neue Arbeit zeigt jetzt, dass solche Vorhersagen für Kombinationen bestimmter Antibiotika oft möglich sind, indem der Wirkungsmechanismus der einzelnen Antibiotika quantitativ charakterisiert wird. Das ist das Ergebnis einer gemeinsamen Studie von Professor Tobias Bollenbach von der Universität zu Köln mit Professor Gašper Tkacik und dem Doktoranden Bor Kavcic vom Institute of Science and Technology Austria, deren Ergebnisse jetzt in der Fachzeitschrift Nature Communications unter dem Titel „Mechanisms of drug interactions between translation-inhibiting antibiotics“ veröffentlicht wurden.

„Wir wollten untersuchen, wie Antibiotika, die die Proteinsynthese in Bakterien hemmen, in Kombination miteinander wirken und diese Effekte soweit wie möglich mit mathematischen Modellen vorhersagen“, erklärt Bollenbach. Als Leiter der Arbeitsgruppe „Biologische Physik und Systembiologie“ erforscht er an der Universität zu Köln unter anderem, wie Zellen auf Kombinationen von Medikamenten und anderen Signalen reagieren.

Bakterielle Ribosomen sind in der Lage, schrittweise die DNA-Sequenz in die Aminosäuresequenz von Proteinen zu übersetzen (Translation). Viele Antibiotika setzen an diesem Punkt an und hemmen die Translation. Dabei blockieren verschiedene Antibiotika gezielt unterschiedliche Schritte des Translationszyklus. Die Wissenschaftler konnten zeigen, dass die Wechselwirkungen zwischen den Antibiotika durch Engpässe im Translationszyklus verursacht werden. Dieser Effekt führt unter anderem dazu, dass eine Kombination von Antibiotika, die den Anfang und die Mitte des Translationszyklus hemmen, sich stark in ihrer Wirkung abschwächt.

Um die zugrundeliegenden Mechanismen der Arzneimittelwechselwirkungen zu klären, erzeugten die Wissenschaftler künstliche Translationsengpässe, die die Wirkung bestimmter Antibiotika genetisch nachahmen. Befindet sich ein solcher Engpass in d