Sonntag, November 29, 2020
Start Aktuelles Tägliche Meldungen

Tägliche Meldungen

Alle Meldungen 2010 Alle Meldungen 2011  Alle Meldungen 2012
Alle Meldungen 2013 Alle Meldungen 2014 Alle Meldungen 2015
Alle Meldungen 2016 Alle Meldungen 2017 Alle Meldungen 2018
Alle Meldungen 2019
November 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.11.2020 Der Nordatlantik verändert sich, aber die Zirkulation ist stabil
27.11.2020 Was Laubblätter im Herbst altern lässt
26.11.2020 Neues Bonner Netzwerk stärkt Kompetenzen für nachhaltige Lösungen der Wasserprobleme weltweit
23.11.2020 Grubenwasser und Grundwasser bleiben getrennt
20.11.2020 Grüner Wasserstoff: Auftrieb im Elektrolyten sorgt für Konvektionsströmung
19.11.2020 Abwasserreinigung mittels Sonnenlicht – Ozon als Reaktionspartner
17.11.2020 Biogasanlagen produzieren Strom flexibel und bedarfsgerecht-Stromeinspeisung folgt Residuallast und Strompreisen
13.11.2020 Mit Methan als Nahrungsquelle setzen Bakterien giftiges Arsen frei
11.11.2020 Von der Stickstoffkrise zur Phosphatkrise? Internationales Forschungsteam fordert europaweite Phosphatrichtlinie
09.11.2020 Mit Nelkenöl und Kupfermünzen gegen die Asiatische Buschmücke
06.11.2020 Archiv der Tierwanderungen in der Arktis
03.11.2020 Wissensreise durch die Welt des Wassers
01.11.2020 Erster deutscher Gezeitenrechner nimmt Betrieb auf
Gesundheit
28.11.2020 Wo das Coronavirus im Darm andockt
22.11.2020 Darm-Hirn-Achse beeinflusst Multiple Sklerose
18.11.2020 Bayreuther Sportphysiologe entwickelt Leitlinien für Sport mit Diabetes-Typ-1
16.11.2020 Auch Ratten können Hantaviren übertragen: Infektion durch asiatische Virusart in Deutschland nachgewiesen
10.11.2020 Weltdiabetestag am 14. November: Neue Angebote auf http://www.diabinfo.de
07.11.2020 Schwangerschaft: Umgebungstemperatur beeinflusst den Stoffwechsel der Nachkommen
05.11.2020 COVID-19: Wie hängen Schweregrad der Erkrankung und die Antikörperantwort zusammen?
04.11.2020 Cholesterin im Blick behalten – Herzinfarktrisiko senken
02.11.2020 Mehr Infektionen als bekannt: Neue Studie zeigt Relevanz bevölkerungsweiter SARS-CoV-2-Antikörpertests auf
Gesellschaft
25.11.2020 Macht Angeln glücklich? – Europas größte Angelumfrage gestartet
24.11.2020 Hohe Mobilität verschlechtert die Work-Life-Balance
21.11.2020 Fahrstunden für die Künstliche Intelligenz
15.11.2020 Hunderte Exemplare von Newtons Philosophiae Naturalis Principia Mathematica in neuer Zählung gefunden
14.11.2020 Gutes Change-Management: Wie KI in Unternehmen erfolgreich wird
12.11.2020 Persönlicher Datenschutz in der Industrie 4.0: Sicherstellen der Mitarbeiter*innen-Privacy bei Tracking-Technologien
08.11.2020 Pressemeldung: „Arbeitswelt nicht nur punktuell reformieren, sondern umfassend nachhaltig transformieren!“
Oktober 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.10.2020 Die ungewisse Zukunft der Ozeane
28.10.2020 Leitfaden für mehr „Insektenschutz in der Kommune“
27.10.2020 Der Rest ist nicht alles – Für nachhaltige Biogaserzeugung ist mehr als Gärrestdüngung notwendig
25.10.2020 Größter CO2-Rückgang: Echtzeit-Daten zeigen die massiven Auswirkungen von Covid-19 auf die globalen Emissionen
24.10.2020 Auf die Wirkung kommt es an: Neues Verfahren spürt Schadstoffe anhand ihrer Effekte auf Organismen auf
23.10.2020 Kein Nachwuchs bei Dorsch und Hering – Wissenschaft alarmiert: Fischbeständen in der westlichen Ostsee droht Kollaps
22.10.2020 Korallenbleiche: Riff erholt sich schneller als gedacht
20.10.2020 Klimaschutz lässt sich sozialverträglich gestalten
19.10.2020 Künstliche Intelligenz zum Schutz des Grundwassers
16.10.2020 Im Meer schneit es Plastik
14.10.2020 Recycling von Klärschlamm 
12.10.2020 Exzellentes Bremer Wasser für piekfeine Bremer Getränke 
08.10.2020 Die globale Nahrungsmittelproduktion stellt eine zunehmende Bedrohung für das Weltklima dar 
07.10.2020 KI – Wegbereiter der Zukunft? 
06.10.2020 Arrokoth: Abflachen eines Schneemanns
04.10.2020 Energieumwandlung – Sonne tanken und im Dunkeln schwimmen
01.10.2020 Im Ostseeraum muss die Entsorgung nicht verwendeter Arzneimittel verbessert werden 
Gesundheit
30.10.2020 Wissen über Herzinfarkt-Vorboten rettet Leben
26.10.2020 Der Entstehung von Darmkrebs auf der Spur: Wie Häm-Eisen aus rotem Fleisch gesunde Darmzellen schädigt
17.10.2020 Kurzsichtigkeit: Kinderaugen brauchen mehr Sonnenlicht
13.10.2020 Wie spät ist es auf der biologischen Uhr? 
11.10.2020 TU Berlin: Intervallfasten auch im Alter wirksam
09.10.2020 Übertragung von COVID-19: Aerosole deutlich infektiöser alsTränenflüssigkeit oder Bindehaut 
03.10.2020 Bayreuther Forscher: Tropische Naturschutzgebiete sind besonders stark von künftigen Klimaänderungen betroffen
Gesellschaft
29.10.2020 Antwort auf Darwins Frage
21.10.2020 HU-Podcast: „Mose wurde viel kritisiert“
15.10.2020 HHL zeigt Meinungsbild zu umstrittener 50+1-Regel im Fußball 
10.10.2020 BMAS fördert interdisziplinäres Wissenschaftsteam 
05.10.2020 Hochschulmedizin Dresden erhält 7,5 Millionen Euro für COVID-19 Forschung
02.10.2020 Zufriedenheit im Homeoffice nimmt weiter zu
September 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.09.2020 Roboter auf der Blumenwiese und Gemüse von der Kläranlage
28.09.2020 Mit Bor und Bier Stickstoff reduziert
27.09.2020 Schwebstoffe in Bundeswasserstraßen: Neue Erkenntnisse zu Herkunft und Zusammensetzung 
24.09.2020 Laborstudie zu Toxizität: Produkte aus „Bioplastik“ keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
22.09.2020 Virtuelle Verleihung des UMSICHT-Wissenschaftspreis 2020 
20.09.2020 Indischer Monsun ist nach Vulkanausbrüchen besser vorhersagbar 
17.09.2020 EU-Förderung: 9 Millionen Euro für Meeresforschung 
16.09.2020 Bildung alleine reicht nicht: Der Naturschutzpolitik gelingt es zu selten, das Verhalten der Menschen zu ändern
14.09.2020 Bioabfälle als wertvoller Rohstoff für Hightech-Produkte 
12.09.2020 Abwasser aus dem Bergbau aus Ressource nutzen 
08.09.2020 Die (un)sichtbare Dürre: TU Bergakademie Freiberg untersucht Auswirkungen auf Grundwasser und Wasserqualität
07.09.2020 Künstliche Intelligenz lernt kontinentale Hydrologie
05.09.2020 Plastikpartikel gelangen tief in den Boden 
02.09.2020 Neues Verfahren: Steroidhormone effizient aus Wasser entfernen 
Gesundheit
29.09.2020 Verbindung aus Calcium und Phosphat löst starke Entzündung bei Rheumapatienten aus
26.09.2020 Neue Studie aus Bayreuth: Auch gekochte Karotten können allergische Reaktionen auslösen
23.09.2020 Bei schlechtem und zu kurzem Schlaf sollte man immer auf eine berufliche Überlastung schauen 
18.09.2020 Sensormatte beugt Haltungsschäden vor 
15.09.2020 Weizen & Bekömmlichkeit: Backwaren sind wesentlich besser als ihr Ruf 
13.09.2020 Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“ 
11.09.2020 Covid-19: Kläranlagen als Frühwarnsystem – TU Darmstadt analysiert das Erbmaterial von SARS-CoV-2 aus Abwasserproben 
10.09.2020 SARS-CoV-2-Viren im Abwasser: COVID-19 Überwachung und Abschätzung potenzieller Infektionsrisiken
09.09.2020 Küssen verboten: Abwehrmechanismus im Speichel stoppt Zika-Virus, aber nicht SARS-CoV-2
04.09.2020 Niedriger Blutdruck: Harmlos oder bedenklich für das Herz? 
03.09.2020 Veganismus: Vitamin B12 wird gut ergänzt, Jod ist das Sorgenkind 
Gesellschaft
25.09.2020 Wissen über Corona: Die Mehrheit der Bevölkerung hat sich gut informiert und ist dafür, „Fake News“ zu kennzeichnen 
21.09.2020 Das erste ägyptische Referenzgenom des Menschen
19.09.2020 UFZ-Modelle im Einsatz gegen die Afrikanische Schweinepest 
06.09.2020 TU intern: Ein Hundeleben und sein CO2-Fußabdruck
01.09.2020 Sicher musizieren in Zeiten von Corona 
August 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.08.2020 Volle Kraft voraus: Startschuss für die Integrierte WärmeWende Wilhelmsburg unter Beteiligung des CC4E der HAW Hamburg 
28.08.2020 Bessere Sicht für Tauchbojen
26.08.2020 Gärrückstände aus Biogasanlagen optimal verwerten – Jetzt zur Online-Fachtagung am 15.9.2020 anmelden! 
24.08.2020 Hitze und Starkregen – so passen sich Kommunen an den Klimawandel an
23.08.2020 Deutsches Hochwasserrisiko-Management ist nur selten naturbasiert 
21.08.2020 Wo ist das Wasser während einer Dürre? 
20.08.2020 Die Überdüngung der Ostsee beenden: Wirken die Maßnahmen? 
18.08.2020 Mit Biomarkern auf Zeitreise in Sachen „Blaualgen“: Ostsee-Sedimentarchive zeigen Auftreten und Häufigkeit seit 1860 
17.08.2020 Energieforschung für beste Spannung in den Stromnetzen 
13.08.2020 Hannoveraner Physikerteam entwickelt mobilen Schnelltest zur Erkennung von giftigen Blaualgen 
11.08.2020 Blaulichtschalter aus Algen steuert elektrische Erregung von Pflanzen 
07.08.2020 Klimawandel: Extreme Dürreperioden in Mitteleuropa werden voraussichtlich zunehmen
06.08.2020 Wie Auen das Wasser der Donau reinigen: Neues EU-Projekt unter Leitung der KU 
04.08.2020 Weltweiten Wasserbedarf effizienter decken: Wissenschaftler wollen Entsalzungstechnologien verbessern 
02.08.2020 Kalikokrebs: Erstmals Gewässer vollständig von invasiver Tierart befreit und erfolgreich saniert 
Gesundheit
31.08.2020 EAST – AFNET 4 Studie: Frühe rhythmuserhaltende Therapie verbessert Aussichten bei Vorhofflimmern
25.08.2020 TU Berlin: Coronavirus – Wissenschaftler*innen beantworten Fragen zu Aerosolen und richtigem Lüften von Innenräumen 
22.08.2020 Mundspülungen könnten Corona-Übertragungsrisiko senken 
19.08.2020 Überlastung der Sehnen im Sport – was ist zu tun? 
15.08.2020 Neue Erkenntnisse zur Evolution von bakteriellen Antibiotikaresistenzen 
12.08.2020 Wirkungsmechanismen von Antibiotikakombinationen entdeckt 
05.08.2020 Moderater Alkoholkonsum war mit besseren kognitiven Funktionen assoziiert 
03.08.2020 Können frühere Erkältungen die Schwere der SARS-CoV-2-Symptome beeinflussen? 
01.08.2020 Entzündungshemmer senken das Risiko für eine Infektion 
Gesellschaft
29.08.2020 Eigene Gesundheitsdaten souverän handhaben 
27.08.2020 Bundesweite Umfrage: Corona-Warn-App
16.08.2020 Technologien im Alltag von älteren Menschen 
14.08.2020 Rätselhafte Verdunklung von Beteigeuze: Der Staub lichtet sich 
10.08.2020 Vom städtischen Kanaldeckel bis zu monumentaler Architektur 
09.08.2020 Worst-case-scenario für den Katastrophenfall 
08.08.2020 Ältestes Enzym der Zellatmung isoliert 
Juli 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.07.2020 Debarking Heads stärken das Ökosystem Wald und tragen durch Borkenkäferprävention zur Entspannung am Holzmarkt bei 
29.07.2020 Wasser 4.0: Ein „Digitaler Zwilling“ für das Kanalsystem 
28.07.2020 Erste bundesweite Regenmessung mit dem Mobilfunknetz
27.07.2020 Forschungsprojekt entwickelt Lösungen gegen Nitrateinträge ins Grundwasser 
24.07.2020 Grundwasserveränderungen genauer verfolgen 
21.07.2020 Kreislaufwirtschaft: Wieviel Wiederverwertung wollen wir? 
19.07.2020 Mikroplastik in Gewässern charakterisieren: Neues Forschungsprojekt an der Jacobs University Bremen 
18.07.2020 Starkregen-Vorsorge in Sachsen und Europa – neue Website informiert zu geeigneten Maßnahmen
17.07.2020 Erste Bilder der Sonne von Solar Orbiter
15.07.2020 Wind trägt Mikroplastik in die Arktis 
14.07.2020 UN-Klimaziele sind ökonomisch sinnvoll: Ambitionierter Klimaschutz zahlt sich aus 
13.07.2020 Robuste Hochleistungs-Datenspeicher durch magnetische Anisotropie 
09.07.2020 Blick ins Innere einer Batterie 
08.07.2020 Direktbesteuerung von CO2 ermöglicht mehr freiwilliges Handeln im Klimaschutz 
07.07.2020 Neues Verfahren ermöglicht Lithiumabbau in Deutschland 
06.07.2020 Grundwasserschutz auf Spiekeroog – Erstinstallation eines Salzwasser-Überwachungssystems
03.07.2020 Steigende Wassertemperaturen bedrohen Vermehrung vieler Fischarten 
02.07.2020 Überlebenswichtige Signale: So verarbeiten Pflanzen Informationen 
Gesundheit
31.07.2020 Höhere COVID-19 Sterblichkeit nicht alleine durch enge familiäre Kontakte erklärbar 
25.07.2020 Die meisten würden sich impfen lassen, um andere zu schützen 
23.07.2020 Neue Testmethode kann das Coronavirus in stark verdünnten Gurgelproben erkennen 
12.07.2020 Virologe der Universität Leipzig: Haustiere können sich doch mit Coronavirus infizieren 
04.07.2020 „Es ist entscheidend, mit welcher Dynamik die Schwelle von Corona-Neuinfektionen durchbrochen wird“ 
Gesellschaft
26.07.2020 Das Geheimnis erfolgreicher Fußballmannschaften 
22.07.2020 Arbeit ist das halbe Leben 
20.07.2020 Wie das Coronavirus das Reiseverhalten der Deutschen verändert 
16.07.2020 Datenspuren auf dem Smartphone – Das persönlichste Gerät 
11.07.2020 Zukunftsperspektiven für den Güterverkehr 
09.07.2020 When is someone old? 
05.07.2020 Beziehungsgeschichten: Neues Großprojekt am Kilimandscharo erforscht Wert der Natur für den Menschen 
01.07.2020 Wenn Sprachassistenten zuhören, obwohl sie gar nicht sollen 
Juni 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.06.2020 Seegraswiesen am Limit 
29.06.2020 Digitale Wasserwirtschaft: Lücken in der Cybersicherheit 
27.06.2020 Studie zu Biodiversität in Grünanalgen: Natur ja, aber kein Wildwuchs 
25.06.2020 Können Viren ins Grund- und Trinkwasser gelangen? 
24.06.2020 Plastik in der Tiefsee: Nach einem Vierteljahrhundert noch wie neu 
23.06.2020 Wasserbakterien haben einen grünen Daumen 
21.06.2020 Kraftstoffe der Zukunft: Was werden wir tanken? 
20.06.2020 Neue Lösungen für textile Biogasspeichersysteme 
16.06.2020 Neuer Tagungsband zeigt Forschungsstand zu aktuellen Herausforderungen der Energiewende
15.06.2020 Projekt will Wasserstoff-Technologien in der Region Südlicher Oberrhein voranbringen 
12.06.2020 Baustart für Smartes Quartier Durlach: Wärmepumpen und Photovoltaik halbieren CO2-Emissionen in Bestandsgebäuden
11.06.2020 Bootsanstriche sollen Gewässer nicht mehr unnötig belasten 
08.06.2020 Flexible Strom- und Wasserkunden Das digitale Reallabor im Projekt „FLEXITILITY“ startet 
05.06.2020 Energiewende braucht Aufwind: Windräder sollen Kommunen und Bürgern finanziell nutzen 
03.06.2020 Mit KI in der Landwirtschaft Wasser sparen 
Gesundheit
28.06.2020 So wirkt die Temperatur auf Sars-Cov-2 
26.06.2020 Innovative Textilien für Gesichtsmasken können SARS-CoV-2 direkt inaktivieren, wie Forscher aus Berlin und Aachen zeigen 
17.06.2020 Durchfall- und Gelbsuchterreger in Schach halten 
14.06.2020 MCC: Städtische Umweltzonen senken Ausgaben für Herztabletten und Asthmasprays 
10.06.2020 Die Lebenszufriedenheit steigt nach Renteneintritt je nach Geschlecht und Erwerbsstatus 
07.06.2020 Wie finden Männer den Weg in die Krebsberatung? 
04.06.2020 Diabetes mellitus: Ein Risikofaktor für frühe Darmkrebserkrankungen 
02.06.2020 Drei Maßnahmen könnten eine Million Krebsfälle vermeiden 
Gesellschaft
22.06.2020 Toilettenpapier-Bevorratung könnte mit Persönlichkeitsmerkmalen in Verbindung stehen 
19.06.2020 Jung, weiblich und extravertierter? Studie identifiziert typische Nutzer von Facebook, Instagram und WhatsApp 
16.06.2020 Gesundheitsverhalten während der Covid-19-Pandemie: Online-Umfrage gibt rasch Einblicke 
13.06.2020 Trotz Beschäftigungszuwachs: Die Rentenanwartschaften von Frauen stagnieren vielfach aufgrund niedriger Einkommen
09.06.2020 Kommunen und Covid-19 – Herausforderungen und Strategien in Zeiten einer Pandemie 
06.06.2020 Arbeitsrecht: Recht auf Homeoffice – Pflicht oder Segen
01.06.2020 Europäer sind persönlich optimistisch, blicken aber pessimistisch auf das eigene Land 
Mai 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2020 „Schwarzer Stickstoff“: Bayreuther Forscher entdecken neues Hochdruck-Material und lösen ein Rätsel des Periodensystems 
29.05.2020 Studie: »Grüner« Wasserstoff oder »grüner« Strom für die Gebäudewärme? 
27.05.2020 Feste Wehre für Nebenwasserstraßen 
26.05.2020 Zucker macht Braunalgen zu guten Kohlenstoffspeichern 
21.05.2020 Pilotprojekt erfolgreich: Quartierspeicher wichtiger Baustein der Energiewende in Kommunen 
20.05.2020 Coronavirus: Globaler CO2-Ausstoß sinkt um 17 Prozent 
18.05.2020 Weniger Schnee in 78 Prozent der Berggebiete weltweit 
16.05.2020 Weltweit unterschätzt: CO2-Emissionen trockengefallener Gewässerbereiche 
14.05.2020 Energie der Zukunft: Photosynthetischer Wasserstoff aus Bakterien 
12.05.2020 TU Berlin: Salzwasser statt Trinkwasser: Die Gewinnung von Wasserstoff aus Meerwasser hat Zukunftspotenzial 
11.05.2020 Flurschau aus dem Weltall 
10.05.2020 Wasser reinigen, Strom speichern: INM-Autoren publizieren in High-Impact-Journal der Nature-Reihe 
09.05.2020 Hochleistungsspeicher für Biogas – Neues Konzept zur flexiblen Biogasbereitstellung 
08.05.2020 Springbrunnen bald kein Sprungbrett für Keime mehr? 
07.05.2020 Schaufenster Bioökonomie: Neues Anbausystem zieht Salat aus behandeltem kommunalem Abwasser 
05.05.2020 Lieferdrohnen statt Postautos? Studie zeigt: Bisher verbrauchen Drohnen noch zu viel Energie 
04.05.2020 RWI/Stiftung Mercator: Studie in „Nature“ – Autobesitzer unterschätzen Gesamtkosten des eigenen Autos massiv 
02.05.2020 Besser gewappnet bei Überflutungen in der Stadt 
Gesundheit
25.05.2020 Kein Nutzen von Hydroxychloroquin und Chloroquin
24.05.2020 Studie zum Infektionsgeschehen startet an Schulen 
23.05.2020 COVID-19 in Augsburg: Obduktionen zeigen schwere Lungenschädigungen 
22.05.2020 Spülschwamm-Mikrobiom: Was dich nicht umbringt, macht dich härter! 
17.05.2020 Trickreiche Erreger 
15.05.2020 Studie zu durch ACE-Hemmer ausgelösten Schwellungen – Teilnehmer gesucht 
13.05.2020 Wenn Neurodermitis ins Auge geht: Pollen können schwere Bindehautentzündung auslösen 
06.05.2020 Revolutionäres Händedesinfektionssystem für öffentliche Orte 
03.05.2020 Brillen-Flora: das Miniversum vor der Nase 
Gesellschaft
28.05.2020 Der Schwester wie aus dem Gesicht geschnitten 
19.05.2020 Studie: Personen in fester Partnerschaft und mit Kindern sind während der Coronakrise zufriedener 
01.05.2020 Wie viele Menschen wirklich Linkshänder sind 
April 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2020 TU Ilmenau: Pflanzenbestimmung mit Flora Incognita App im März verzehnfacht 
28.04.2020 Entwicklung von tragbaren Messgeräten: Bodenbelastungen sofort erkennen 
27.04.2020 Wie gut ist die weltweite Wasserqualität? Verbundprojekt „GlobeWQ“ startet 
25.04.2020 Elektrochemische Wasserentsalzung der dritten Generation: Saarbrücker Forscher stellen neuartiges Verfahren vor 
23.04.2020 Nachhaltiges Wassermanagement als Schlüssel zur Anpassung an Klimarisiken 
20.04.2020 Regelbare Biogasproduktion – Großtechnische ReBi-Pilotanlage erprobt 
19.04.2020 Algenbeobachtung per Satellit 
18.04.2020 Sonnenstrom für Fassaden 
17.04.2020 Optimierte Leitungsreinigung für Trinkwasserversorger 
14.04.2020 Forschende ermitteln mit neuer Methode, wie widerstandsfähig einzelne Gewässer gegenüber Trockenheit sind 
13.04.2020 Grüne Wasserstoffproduktion in Biogasanlagen 
12.04.2020 Innovative Lösung für Verwertung organischer Abfälle in Paris 
10.04.2020 Mehr als nur Strom: Mit den richtigen Rahmenbedingungen können Biogasanlagen eine Menge für die Gesellschaft leisten 
09.04.2020 Nachhaltige Nutzung von CO2 mittels eines modifizierten Bakteriums 
08.04.2020 Wie Grundwasser die Küstenökosysteme beeinflusst 
07.04.2020 Neue Methode zur Entfernung von Öl aus Gewässern 
05.04.2020 Umweltradioaktivität: Bundesanstalt für Gewässerkunde veröffentlicht einzigartigen Datensatz 
02.04.2020 Klima- und umweltschonende Technologie: Ammoniak als nachhaltiger Energieträger 
Gesundheit
29.04.2020 Die Widerstandskraft, nicht esssüchtig zu werden 
22.04.2020 Zu viel Salz hemmt die Immunabwehr 
16.04.2020 Überstunden erhöhen das Bluthochdruckrisiko 
15.04.2020 Ingwerextrakt hilft nicht zur Prophylaxe von Migräneanfällen 
11.04.2020 Antibiotika: Städter und Kinder nehmen am meisten 
06.04.2020 Stress für die Seele ist eine Strapaze fürs Herz 
04.04.2020 Kurzes, intensives Training verbessert Gesundheit von Kindern 
01.04.2020 Zucker und Süßungsmittel: Lieber weniger süß als Zucker-Ersatz 
Gesellschaft
26.04.2020 BodyMind – TU Dresden bietet Online-Programm zur Körperzufriedenheit erstmals auch für Männer 
24.04.2020 Neuer Forschungszweig iEcology: Was uns die Online-Welt über die natürliche Welt lehren kann 
21.04.2020 Kurzarbeitergeld: Tarifvertragliche Aufstockung auf bis zu 97 Prozent des Nettogehaltes 
03.04.2020 Wie sicher vier- und sechsstellige Handy-PINs sind 
März 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2020 Neuer Methanrechner zur Optimierung von Biogasanlagen jetzt online verfügbar 
27.03.2020 Rätsel um Recycling-Truppe im Meer gelöst 
25.03.2020 Der erste Tiny Forest Deutschlands entsteht in der Uckermark 
23.03.2020 Wasser ist ein knappes Gut 
22.03.2020 Der Antarktis-Faktor: Modellvergleich offenbart zukünftiges Meeresspiegelrisiko 
20.03.2020 DSM tritt der Deutschen Allianz Meeresforschung bei 
19.03.2020 Komplexe biologische Systeme können nicht ohne Chaos existieren 
17.03.2020 Neue Hauptdarsteller im Meeresboden: Eine bislang kaum beachtete Bakteriengruppe im Rampenlicht 
16.03.2020 Deutsche Allianz Meeresforschung stellt sich vor 
13.03.2020 Forschende entdecken eine neue biochemische Verbindung, die Umweltschadstoffe abbauen kann 
10.03.2020 Forschungsvorhaben analysieren Langfristperspektiven für Bioenergieanlagen nach 2020 
08.03.2020 Regenrückhaltebecken bringen Artenvielfalt in den besiedelten Raum 
07.03.2020 Lässt sich Biogas in kleinen Anlagen direkt in Biomethan umsetzen? 
04.03.2020 UV-Licht gegen störenden Unterwasserbewuchs – Innovatives Antifouling-System des IOW jetzt reif für Serienproduktion 
01.03.2020 Internationales Forscherteam stellt Maßnahmen zum Schutz der Tiefsee vor 
Gesundheit
30.03.2020 Ansteckung mit dem Coronavirus: Am meisten gefürchtet sind andere Menschen – und Türklinken 
28.03.2020 Wie lang Coronaviren auf Flächen überleben und wie man sie inaktiviert 
26.03.2020 Nach FSME-Höchststand 2018: Zahl der Erkrankungen gesunken – trotz hoher Zeckenaktivität 
24.03.2020 Was Statine mit den Muskeln machen 
18.03.2020 Studie zeigt: Grippeimpfung ist für Leistungssportler empfehlenswert – auch bei intensivem Training 
14.03.2020 „Dr. Google“: Online nach Krankheitssymptomen zu suchen, wirkt sich negativ auf Psyche aus 
12.03.2020 Diabetesrisiko „Arbeitsplatz“? Welche Berufsgruppen besonders gefährdet für Diabeteserkrankungen sind 
09.03.2020 Ein schwaches Herz schadet auch dem Gehirn 
06.03.2020 Beim Frühstück wird doppelt so viel Energie verbrannt wie beim Abendessen 
03.03.2020 IGF macht’s möglich: Lemgoer Forschungsteam entwickelt neues Verfahren zur Abwehr von Noroviren auf Obst und Gemüse 
Gesellschaft
29.03.2020 Experte des Karlsruher Instituts für Technologie zur Corona-Pandemie: Gesellschaftliche und technische Folgen der Krise 
21.03.2020 Die Abschaffung von Bargeld ist eine Illusion 
15.03.2020 Statement von Prof. Dr. Dr. h. c. Christoph M. Schmidt zum Corona-Maßnahmenkatalog der Bundesregierung 
11.03.2020 Tarifrunden: 2019 Kräftige Lohndynamik, neue Wahlmodelle bei Arbeitszeit, 2020 differenzierte Lage auf dem Arbeitsmarkt 
05.03.2020 Warum verzichten wir? Studie zum Fasten. 
02.03.2020 Das Fehlen von Fachkräften mit Berufsausbildung wird zum Innovationshemmnis 
Februar 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
23.02.2020 Expedition Anthropozän 
21.02.2020 KIT im Rathaus: Städte und Wetterextreme 
20.02.2020 Lasergebohrte Filter sorgen für sauberes Wasser: Projekt SimConDrill für Green Award nominiert 
17.02.2020 Neuer Profilschwerpunkt an der UDE: Wasserforschung 
15.02.2020 Hohe Gaskonzentrationen über dem Roten Meer 
13.02.2020 Mit Wertstoffrecycling die Klimabilanz von Klärwerken verbessern! 
09.02.2020 Wie genau Cyanobakterien CO2 so effizient umwandeln 
07.02.2020 Intelligentes Robotersystems an der TU Bergakademie Freiberg verbessert Trinkwasserkontrolle in Binnengewässern
06.02.2020 Bestäubung funktioniert in Städten besser als auf dem Land 
05.02.2020 Aktuelles aus der Analytik – analytica conference 2020 in München befasst sich mit aktuellen Entwicklungen der Analytik 
02.02.2020 Stromspeicher in der Stadt: Webseite und Erklärvideo zeigen Nutzen für die Energiewende 
Gesundheit
19.02.2020 Ist körperliche Fitness gut für den Kopf? 
16.02.2020 Verkehrslärm in der Nacht schädigt Herz mehr als am Tag 
14.02.2020 Typ-1-Diabetes: Neue Erkenntnisse beleben die Debatte um die Aufnahme von Früherkennungstests in die Regelvorsorge 
12.02.2020 Duftstoffe verbessern Lernen im Schlaf 
10.02.2020 Wetter als Gesundheitsrisiko: Wie sich der Klimawandel auf unseren Körper auswirkt 
08.02.2020 Diabetes-Strategie: Wer braucht Werbung für ungesunde Produkte? 
04.02.2020 Psychosozialen Risiken im Betrieb wirksam begegnen 
01.02.2020 Coronavirus: Berner Forscher berechnen die Ausbreitung 
Gesellschaft
29.02.2020 Networking von Jägern und Sammlern brachte die Menschheit voran 
24.02.2020 Ausgewandert 
18.02.2020 Wer würde einen Menschen opfern, um fünf zu retten? – Weltweite Unterschiede in moralischen Entscheidungen 
11.02.2020 Strafzettel wirken: Bußgelder lassen Temposünder nachhaltig langsamer fahren 
03.02.2020 Mehr im Portemonnaie – Tarifliche Ausbildungsvergütungen legen erneut deutlich zu 
Januar 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2020 Effiziente Nutzung von Abwärme 
30.01.2020 Weltrekord: Wirkungsgrad von Perowskit-Silizium-Tandemsolarzelle springt auf 29,15 Prozent 
29.01.2020 TU Berlin: Gefährliche Keime aus dem Schlamm 
28.01.2020 Gebäude können zu einer globalen CO2-Senke werden – mit dem Baustoff Holz statt Zement und Stahl 
25.01.2020 Von wegen Anglerlatein und Seemannsgarn: Gewässernutzer*innen im Kollektiv so schlau wie wissenschaftliche Expert*innen 
24.01.2020 Wiederverwenden statt Wegwerfen: Leitfaden für Kommunen und Abfallwirtschaft 
22.01.2020 Sieben Millionen Euro für energieproduzierende Kläranlage 
21.01.2020 Wissenschaftler der TU Freiberg entwickeln Verfahren zur Entfernung von Mikroplastik aus Abwasser 
20.01.2020 Blaualgen im Wasser und an Land als Quelle für Methan identifiziert 
18.01.2020 Nature-Publikation: Aquakultur verknappt Phosphor und gefährdet Nahrungssicherheit 
17.01.2020 Klimafaktor Wolken – Feldkampagne „EUREC4A“ gestartet, um Klimarätsel zu entschlüsseln 
15.01.2020 TU Graz-Forschende entschlüsseln Verhalten von Wassermolekülen 
13.01.2020 Grünere Frühlinge verursachen trockenere Sommer auf der Nordhalbkugel 
12.01.2020 Meeresspiegel-Anstieg oder Temperaturerhöhung: Klimaziel neu definiert 
10.01.2020 Die Wärmewende beginnt im Stadtteil – Konzepte für den urbanen Raum entwickelt 
07.01.2020 Dünger aus Klärschlamm 
06.01.2020 Klimafreundliche Energie aus Abwärme 
02.01.2020 Drehscheibe für Energie 
Gesundheit
27.01.2020 Mit dem eigenen Dicksein leben und umgehen 
26.01.2020 Mehr Menschen stehen Impfungen positiv gegenüber – Neue Studiendaten der BZgA 
23.01.2020 Waschmaschinen-Flora: Die Stinker sitzen im Bullauge 
16.01.2020 Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder 
08.01.2020 Nervenschmerzen frühzeitig verhindern 
05.01.2020 Neue Wirkstoffe gegen multiresistente Keime 
03.01.2020 Artemisinin-Resistenz bei Malariaparasiten entschlüsselt 
Gesellschaft
19.01.2020 Wie das Gehirn Ereignisse vorhersagt 
14.01.2020 Der Partner-Pay-Gap ist weiter vorherrschend – Männer bleiben die Haupt-Brotverdiener in Doppelverdienerhaushalten 
11.01.2020 Immer gegen den Uhrzeigersinn 
09.01.2020 Nicht Ost-West macht den Unterschied, sondern oben und unten 
04.01.2020 Neues Jahr, mehr Gehalt? Wann sich der kritische Blick auf die Gehaltsabrechnung auszahlt, welche Informationen helfen 
01.01.2020 IAB-Arbeitsmarktbarometer: Arbeitsmarkt geht stabil ins nächste Jahr 

Der Nordatlantik verändert sich, aber die Zirkulation ist stabil

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Im Zuge des Klimawandels verändern sich auch Eigenschaften des Nordatlantiks wie Sauerstoffgehalte, Temperaturen oder Salzgehalte – und zwar bis in große Tiefen. Doch ändert sich damit auch die Ozeanzirkulation? Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zeigen in einer neuen Studie, dass trotz tiefgreifender Veränderungen der inneren Eigenschaften des Ozeans die Zirkulation seit den 1990er Jahren stabil geblieben ist. Diese Ergebnisse wurden jetzt in der internationalen Zeitschrift Science Advances veröffentlicht.

Der Golfstrom wird oft als Fernheizung Europas bezeichnet, weil er Wärmeenergie quer über den Atlantik bis vor die britischen Inseln und in die Norwegische See transportiert. Streng genommen ist der Golfstrom aber nur Teil eines größeren Strömungssystems, das in der Fachsprache als Atlantische Meridionale Umwälzzirkulation (Atlantic Meridional Overturning Circulation, AMOC) bezeichnet wird. Sie besteht hauptsächlich aus einem an der Oberfläche nach Norden fließenden Abschnitt, der warm und salzhaltig ist und zu dem der Golfstrom gehört, und einem in der Tiefe des Nordatlantiks nach Süden fließenden Abschnitt, der relativ kalt und salzarm ist.

Messungen im Nordatlantik ergeben schon seit Jahren deutliche Veränderungen der Wassereigenschaften, zum Beispiel eine Erwärmung des oberen Ozeans, eine rekordverdächtige Versüßung des subpolaren Nordatlantiks sowie Schwankungen des Sauerstoffgehalts. Bisher ging die Forschung davon aus, dass diese Veränderungen eng mit Änderungen in der AMOC verbunden sein müssten.

Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel haben diese Annahme nun in einer umfassenden Datenstudie überprüft. „Die Ergebnisse deuten darauf hin, dass Zirkulationsänderungen und Veränderungen der Eigenschaften des Ozeaninneren möglicherweise in sehr unterschiedlichem Tempo ablaufen“, fasst der Ozeanograph Dr. Johannes Karstensen vom GEOMAR die Ergebnisse zusammen. Sie sind heute in der internationalen Fachzeitschrift Science Advances erschienen.

Aussagen zu Veränderungen der AMOC über mehrere Jahrzehnte hinweg sind bislang schwierig. Es gibt Netze fest installierter Ozeanobservatorien an Schlüsselpositionen der Zirkulation. Doch ihre Messreihen reichen nicht weit genug in die Vergangenheit zurück, um robuste Aussagen über Langzeit-Veränderungen zu treffen. Es existieren aber Einzelaufnahmen der Zirkulation und der hydrographischen Eigenschaften des Meerwassers, die mit Forschungsschiffen bei Atlantiküberquerungen erfasst wurden. „Diese schiffsbasierten Daten bieten uns die einzigartige Gelegenheit, gleichzeitig hydrographische und AMOC-Änderungen im Nordatlantik in den letzten drei Jahrzehnten zu untersuchen“, erklärt Dr. Karstensen. Hydrographische Erhebungen messen im Wesentlichen Meerwassereigenschaften wie Temperatur und Salzgehalt sowie gelösten Sauerstoff.

Für die aktuelle Studie haben die Beteiligten Daten von Forschungsreisen aus dem subtropischen und dem subpolaren Nordatlantik zusammen mit Satellitendaten, beckenweiten Messnetz-Beobachtungen und Modelldaten verwendet. Sie stellten fest, dass nicht nur die Wassermassen von der Oberfläche bis etwa 2000 Meter Wassertiefe über den Untersuchungszeitraum deutliche Schwankungen der Temperatur, des Salzgehalts und des gelösten Sauerstoffs erfahren haben, sondern dass auch das Wasser in größerer Tiefe im vergangenen Jahrzehnt eine signifikante Versalzung, Anzeichen einer Erwärmung und größtenteils eine Abnahme des Sauerstoffs aufweist. Gleichzeitig sind aber keine Veränderungen des AMOC-Zustands sowohl im subpolaren als auch im subtropischen Nordatlantik zwischen den 1990er und 2010er Jahren zu erkennen. „Offenbar verändern sich Wassereigenschaften und die Umwälzzirkulation also unterschiedlich“, sagt Dr. Karstensen.

Neben dem eigentlichen Ergebnis unterstreiche die Studie die Notwendigkeit kontinuierlicher und kombinierter hydrographischer Datenerhebung über ganze Ozeanbecken, die langfristige Ozeanbeobachtung mit Messnetzen und die Verbesserung von Modellen, betont der Kieler Ozeanograph: „Nur so können wir die Zusammenhänge zwischen hydrographischen und Zirkulationsveränderungen in der Zukunft umfassend erfassen. Insbesondere sind wir dem globalen GO-SHIP Programm dankbar, das die von Forschungsschiffen erhobenen Daten in nachvollziehbarer Qualität für alle Interessierten öffentlich zur Verfügung stellt.“

Originalpublikation:
Fu, Y., F. Li, J. Karstensen und C. Wang (2020): A stable Atlantic Meridional Overturning Circulation in a changing North Atlantic Ocean since the 1990s. Science Advances, 6, https://doi.org/10.1126/sciadv.abc7836.

Quelle: IDW
(nach oben)


Wo das Coronavirus im Darm andockt

Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Weltweit haben sich bereits mehr als 55 Millionen Menschen mit dem Coronavirus infiziert, das bislang 1,3 Millionen Todesopfer gefordert hat. Bei den meisten an COVID-19 erkrankten Patienten stehen zwar respiratorische Symptome im Vordergrund, kann aber auch andere Organe in Mitleidenschaft ziehen. Häufig handelt es sich dann um den Magen-Darm-Trakt. Ein Team um Prof. Dr. Christoph Becker von der Medizinischen Klinik 1 – Gastroenterologie, Pneumologie und Endokrinologie des Universitätsklinikums Erlangen hat gemeinsam mit Kollegen der Charité – Universitätsmedizin Berlin herausgefunden, dass sich die Andockstellen des Coronavirus in besonders hoher Dichte auf der Darmoberfläche befinden.

Bei einer Infektion mit Sars-CoV-2 heften sich die Viren an die Oberfläche der Wirtszellen an. Dies geschieht über bestimmte Oberflächenmerkmale, sogenannte Rezeptoren. Nach der Bindung der Virushülle an den ACE2-Rezeptor spaltet das körpereigenes Enzym TMPRSS2 ein virales Protein, wodurch der Eintritt in die Wirtszelle erfolgen kann. Diese wird daraufhin vom Virus dazu verwendet, die Bestandteile für weitere Viren zu produzieren. Sind sie in ausreichender Menge hergestellt worden, können die Viren aus der Wirtszelle ausbrechen und wiederum andere Zellen infizieren. Aufgrund der Bedeutung von ACE2 und TMPRSS2 für das Eindringen von Sars-CoV-2 in die Zelle stellen die beiden Moleküle potenzielle Ansatzpunkte für ein wirksames Medikament gegen das Coronavirus dar.

Darmschleimhaut als Zielscheibe
Die Erlanger und Berliner Forscher haben nun entdeckt, dass bestimmte Zellen der Darmschleimhaut, sogenannte Enterozyten, bei gesunden Menschen hohe Konzentrationen von ACE2 und TMPRSS2 aufweisen und somit Zielzellen des Coronavirus sein können. Die Wissenschaftler fanden außerdem heraus, dass Patienten mit Darmentzündungen weniger ACE2-Rezeptoren besitzen und dass sowohl ACE2 als auch TMPRSS2 ihre Lokalisation in den Enterozyten verändern. Das könnte bedeuten, dass der Darm von Patienten mit chronisch-entzündlichen Darmerkrankungen wie Morbus Crohn resistenter gegenüber Sars-CoV-2 ist als der Darm gesunder Menschen. „Allerdings stehen groß angelegte Studien zur Bedeutung der Infektion des Darms mit dem Coronavirus noch aus“, sagt Prof. Becker.

Die Forschungen ergaben zudem, dass die Bildung von ACE2 und TMPRSS2 auf der Zelloberfläche von außen beeinflusst werden kann. So führt etwa eine Stimulation der Zellen über bestimmte mikrobielle Signale und Botenstoffe des Immunsystems zu einer geringeren Ausschüttung von ACE2 im Darmepithel. „Unsere Erkenntnisse zeigen, dass die für eine Infektion mit Sars-CoV-2 notwendigen Moleküle auf der Zelloberfläche möglicherweise therapeutisch beeinflussbar sind“, so Dr. Jay Patankar, Erlanger Mitautor der Studie. Als Nächstes planen die Forscher Infektionsexperimente an Zellen, um diese These zu überprüfen.

Möglich wurde die Studie durch ein Forschungsnetzwerk zwischen der Friedrich-Alexander-Universität Erlangen-Nürnberg und der Charité – Universitätsmedizin Berlin. Beide Standorte sind deutschlandweit führend auf dem Gebiet der Darmforschung. In einem Sonderforschungsbereich untersuchen Wissenschaftler beider Städte gemeinsam entzündliche Erkrankungen des Darms. Herzstück des Sonderforschungsbereichs ist die gemeinsame Gewebebank „IBDome“, in der Proben des Darms von gesunden Probanden und Patienten mit Darmentzündungen gesammelt und analysiert werden. „Dank IBDome konnten wir in kürzester Zeit auf eine sehr große Zahl biologischer Proben zugreifen“, freut sich Prof. Becker. Die Forscher wollen nun gemeinsam herausfinden, welchen Einfluss das Coronavirus konkret auf den Darm und die Funktionen der dort vorhandenen Zellen hat.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Becker
Tel.: 09131 85-35886
christoph.becker@uk-erlangen.de

Originalpublikation:
10.1053/j.gastro.2020.10.021

Quelle: IDW
(nach oben)


Was Laubblätter im Herbst altern lässt

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Forschende der ETH Zürich weisen bei europäischen Laubbäumen einen selbstregulierenden Mechanismus nach, der ihre Wachstumsphase begrenzt: Bäume, die im Frühling und Sommer mehr Photosynthese betreiben, werfen ihre Blätter im Herbst früher ab.

An seinem Lebensende leuchtet das Laub in prächtigen gelb-​roten Farben: Es ist Herbst. Laubbäume in den gemässigten Zonen bereiten sich auf den nahenden Winter vor. Sie stellen das Wachstum ein und entziehen dem Laub die Nährstoffe. Die Blätter fallen allmählich ab und sterben. Dieser Alterungsprozess der Blätter wird Seneszenz genannt. Er markiert im phänologischen Zyklus der Bäume das Ende der Vegetationsperiode, in der sie CO2 aufnehmen und Photosynthese betreiben.

Mit der Klimaerwärmung hat sich die Vegetationsperiode in den vergangenen Jahrzehnten verlängert: Europäische Bäume treiben im Frühling rund zwei Wochen früher aus als noch vor hundert Jahren. Im Herbst fallen die Blätter heute gut sechs Tage später. Es wird allgemein erwartet, dass sich die Seneszenz in einem künftig wärmeren Klima weiter verspätet. Bäume könnten so mehr CO2 aus der Atmosphäre aufnehmen.

Forschende der ETH Zürich gelangen nun zu einem gegenteiligen Befund: In einer Studie im Fachmagazin Science weisen sie bei Laubbäumen einen selbstregulierenden Mechanismus nach, der die Vegetationsperiode begrenzt: Eine erhöhte Photosynthese im Frühjahr und Sommer lässt die Blätter im Herbst früher altern. Damit dürfte sich der herbstliche Blattfall in Zukunft wider Erwarten verfrühen – und nicht weiter verspäten.

Limitierte Senken als Seneszenztreiber
«Präzise Prognosen über die Wachstumssaison von Bäumen waren bislang kaum möglich, weil man die Ursachen der Blattseneszenz nicht genügend verstand», sagt Constantin Zohner, Studienleiter und Senior Scientist am Crowther Lab der ETH Zürich.

Bislang ging die Wissenschaft generell davon aus, dass hauptsächlich die abnehmende Temperatur und Tageslänge im Herbst den Zeitpunkt der Blattseneszenz bestimmen. Zwar gab es bereits verschiedene Hinweise, dass der Blattaustrieb im Frühling mit dem Blattfall im Herbst verbunden sein muss. «Weil die Mechanismen aber unklar waren, berücksichtigen phänologische Modelle solche Effekte bestenfalls teilweise», sagt der Biologe.

Zohner vermutete, dass das Bindeglied zwischen Frühling und Herbst mit der saisonalen Photosynthese zu tun haben könnte – genauer: mit dem Phänomen der limitierten Kohlenstoffsenke. Dabei begrenzen unter anderem knappe Bodennährstoffe wie etwa Stickstoff die CO2-​Menge, die eine Pflanze während der Saison aufnehmen kann. Ist die maximale CO2-​Menge erreicht, setzt die Blattalterung entsprechend früher ein.

Diese Rolle der Photosynthese bei der Steuerung der Blattseneszenz ist beispielsweise bei Getreide seit langem bekannt, wurde aber nie an Bäumen getestet. So machten sich die ETH-​Forschenden daran, die Treiber des herbstlichen Blattfalls mit einem kombinierten Ansatz von Feldbeobachtungen, Laborversuchen und Modellierung zu ergründen.

Deutlicher Effekt detektiert
Die Basis der Studie bildeten Langzeitbeobachtungen von sechs europäischen Laubbaumarten während der letzten sechs Jahrzehnte. Anhand der Daten testete Zohners Team den relativen Einfluss verschiedener Faktoren auf den Zeitpunkt der Herbstseneszenz, darunter den Blattaustrieb im Frühling, die saisonale Photosynthese, CO2-​Konzentration, Temperatur und Niederschlag.

Ergänzend führten die Forschenden eine Reihe von Experimenten mit jungen Bäumen in Klimakammern und im Freien durch. So konnten sie Temperatur, Tageslicht und CO2-​Gehalt variieren und die jeweiligen Effekte auf Photosynthese und Blattseneszenz untersuchen.

Tatsächlich offenbarten die Baumbeobachtungen einen deutlichen Einfluss der saisonalen Photosynthese: Bei allen untersuchten Arten trat in den Jahren mit erhöhter Photosynthese im Frühjahr und Sommer auch die Seneszenz im Herbst früher ein, wobei eine zehn Prozent höhere Aktivität die Blattalterung um acht Tage vorzog. Die Experimente stützten den Befund aus den Beobachtungen.

Mechanik des Herbstes modelliert
«Unsere Analysen legen nahe, dass die saisonale Photosynthese, die Herbsttemperatur und die Tageslänge primäre Treiber der Seneszenz sind», sagt Erstautorin Deborah Zani. Anders die restlichen Faktoren: «CO2-​Gehalt, Sommertemperaturen, Lichtstärke und Niederschlag beeinflussen zwar die Photosynthese ganz direkt, wirken sich aber nur indirekt auf die Herbstseneszenz aus», erklärt sie das Zusammenspiel der Kräfte.

Wärmere Herbste verzögern die Seneszenz tendenziell. Doch steigende CO2-​Konzentration, wärmere Sommerperioden und ein früherer Blattaustrieb erhöhen zusehends die Photosynthese im Frühling und Sommer. Dadurch füllen sich die limitierten Kohlenstoffspeicher – sind sie vorzeitig gesättigt, verfrüht das die Seneszenz, was der Verzögerungstendenz aufgrund höherer Herbsttemperaturen entgegen wirkt.

Zani und Zohner entwickelten ein neues Modell der Herbstphänologie, das alle Faktoren nach ihrem relativen Gewicht berücksichtigt. Dieses vermag den Zeitpunkt der Seneszenz der letzten sechs Jahrzehnte um bis zu 42 Prozent präziser zu datieren als frühere Modelle.

Zudem kehrt es deren Prognosen um: Bis anhin erwartete man, dass die Seneszenz bis Ende Jahrhundert zwei bis drei Wochen später auftritt. «Unser neues Modell legt das Gegenteil nahe: Wenn die Photosynthese weiter steigt, werden die Blätter im Lauf des Jahrhunderts um drei bis sechs Tage früher als heute altern – und nicht später», erklärt Zani. Das bedeutet, dass sich die Wachstumssaison bis Ende des Jahrhunderts nur um 8 bis 12 Tage verlängern wird. «Das ist rund zwei bis drei Mal weniger als bisher gedacht», ergänzt Zani. Sie war im Rahmen ihrer Masterarbeit am Crowhter Lab massgeblich an Datenanalyse und Modellierung beteiligt.

Saisondauer beeinflusst Kohlenstoffbilanz
Für ihre Forschung verwendeten die Wissenschaftler Daten des Pan European Phenology Project. Insgesamt werteten sie 434’000 phänologische Beobachtungen an 3800 Standorten in Mitteleuropa im Zeitraum von 1948 bis 2015 aus. Untersucht wurden sechs repräsentative Arten: Gewöhnliche Rosskastanie, Hänge-​Birke, Rotbuche, Europäische Lärche, Stieleiche und Vogelbeerbaum.

Die Autoren verstehen ihre Studie als weiteren Hinweis darauf, dass Wälder der gemässigten Zone begrenzt CO2 aufnehmen könnten: «Die CO2-​Aufnahme wird mit steigenden Temperaturen wahrscheinlich weniger stark ansteigen, als ältere Modelle voraussagten», sagt Zohner. Die Forschenden wollen nun besser verstehen, wie verbreitet limitierte Kohlenstoffsenken in den Wäldern der Erde sind.

Wissenschaftliche Ansprechpartner:
Constantin Zohner (constantin.zohner@usys.ethz.ch)

Originalpublikation:
https://ethz.ch/de/news-and-events/eth-news/news/2020/11/was-laubblaetter-im-her…

Quelle: IDW
(nach oben)


Neues Bonner Netzwerk stärkt Kompetenzen für nachhaltige Lösungen der Wasserprobleme weltweit

Tanja Vogel Stabsstelle Kommunikation
Deutsches Institut für Entwicklungspolitik (DIE)
Gemeinsame Pressemitteilung des Internationalen Konversionszentrums Bonn (BICC), des German Development Institute/ Deutsches Institut für Entwicklungspolitik (DIE), des Geographischen Instituts der Universität Bonn (GIUB), des Zentrums für Entwicklungsforschung (ZEF), der Universität Bonn, des International Water Management Institute (IWMI), des Instituts der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und des Sekretariats der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD) zum Start des Bonn Water Network am 17. November 2020.

Digitale Launch-Veranstaltung am 17. November 2020
2,1 Milliarden Menschen haben keinen Zugang zu sauberem Trinkwasser und mehr als 4,5 Milliarden haben keine sicheren sanitären Einrichtungen. In vielen Ländern bedroht die zunehmende Wasserknappheit die Ernährungssicherheit und die Energieproduktion, oder führt zu Konflikten. Seit 15 Jahren teilen sieben in Bonn ansässige Organisationen im Rahmen ihrer Vortragsreihe „Water Lecture“ ihre Erkenntnisse zu Lösungsansätzen für Wasserprobleme.

Heute gehen diese Institutionen noch einen Schritt weiter und gründen das „Bonn Water Network“, um ihre Bemühungen um eine nachhaltige Wasserzukunft zu koordinieren und zu intensivieren. Stefan Wagner, Leiter des Amts für Internationales und globale Nachhaltigkeit der Stadt Bonn, zeigt sich erfreut über die Gründung: „Das Bonn Water Network trägt dazu bei, Bonns Status als Drehscheibe für internationale Zusammenarbeit, nachhaltige Entwicklung und Innovation zu stärken und wird auch selbst davon profitieren.“

Das Netzwerk besteht aus sieben renommierten Institutionen mit langjähriger Erfahrung zu Wasser und verwandten Themen: dem Internationalen Konversionszentrum Bonn (BICC); dem Deutschen Institut für Entwicklungspolitik (DIE), der Universität Bonn mit dem Geographischen Institut (GIUB), das den UNESCO-Lehrstuhl ‚Human Water Systems‘ innehat, und dem Zentrum für Entwicklungsforschung (ZEF); dem International Water Management Institute, (IWMI) und zwei UN-Institutionen, dem Institut der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und dem Sekretariat der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD).

Die Mitglieder des Netzwerks befassen sich weltweit mit unterschiedlichen Herausforderungen zum Thema Wasser und tragen gemeinsam mit Partnern in Wissenschaft und Praxis dazu bei, umweltfreundliche und sozial angemessene Lösungen zu finden. „So untersuchen wir beispielsweise, wie grenzüberschreitende Zusammenarbeit in Afrika zu einer besseren Nutzung von Wasser für Energie und Landwirtschaft beitragen kann. Wir unterstützen politische Entscheidungsträger und Interessenvertreter weltweit bei der Minderung des Dürrerisikos, und unsere Modelle simulieren, wie und wo sich der Klimawandel auf die Wasserressourcen in Nepal und Indien auswirkt. Das Netzwerk trägt auch dazu bei, Lösungen für Konflikte um Wasser und für nachhaltiges Wassermanagement in Jordanien, Marokko und der Mongolei, sowie klimasensitive Anpassungsstrategien zur Verringerung der Überschwemmungsrisiken in Togo und Benin zu entwickeln“, sagt Dr. Annabelle Houdret, Sprecherin des Bonn Water Network.

Die Online-Veranstaltung am 17. November 2020 umfasste die folgenden Beiträge:
Einführung in das Bonn Water Network, Dr. Annabelle Houdret, DIE, Sprecherin des Bonn Water Network
Begrüßungsworte von Stefan Wagner, Leiter des Referats für Internationale Angelegenheiten und Globale Nachhaltigkeit der Stadt Bonn
Kurze Videobotschaften der Mitgliedsinstitutionen des Bonn Water Network
Begrüßung durch Prof. Dr. Jakob Rhyner, Wissenschaftlicher Direktor der Bonner Allianz für Nachhaltigkeitsforschung/ Innovations- Campus Bonn (ICB).
PPodiumsdiskussion und öffentliche Debatte: ‚Das Bonner Water Network: Kompetenzen für eine nachhaltige Wasserzukunft‘.
Mitglieder des Netzwerks stellen ihre Beiträge zur Lösung von Wasserproblemen vor: Zu grenzüberschreitendem Wassermanagement in Togo und Benin, zu nachhaltigem Wasser- und Landmanagement in Subsahara und Nordafrika, zur Umsetzung von Ziel 6 der globalen Ziele für Nachhaltige Entwicklung (Sauberes Wasser und sanitäre Einrichtungen) vor dem Hintergrund des Wettbewerbs um Grundwasser in Jordanien und zur Klimaresilienz in Asien.
Moderatorin: Dr. Luna Bharati, IWMI und ZEF, Co-Sprecherin des Netzwerks.
Schlusswort von Dr. Luna Bharati.

Wir freuen uns darauf, Sie online begrüßen zu dürfen!

Anmeldung:
Bitte melden Sie sich für die Veranstaltung per E-Mail bei Frau Claudia Klama an. Nach Ihrer Anmeldung erhalten Sie den Link zur Veranstaltung: claudia.klama@die-gdi.de

Wissenschaftliche Ansprechpartner:
Sprecherin des Bonn Water Network: Dr. Annabelle Houdret (DIE): Annabelle.houdret@die-gdi.de

Stellv. Sprecherin: Dr. Luna Bharati (IWMI/ZEF): L.bharati@CGIAR.ORG

Originalpublikation:
https://www.die-gdi.de/presse/pressemitteilungen/2020/neues-bonner-netzwerk-stae…

Weitere Informationen:
https://www.die-gdi.de/en/events/details/connecting-competences-for-sustainable-…

Quelle: IDW
(nach oben)


Macht Angeln glücklich? – Europas größte Angelumfrage gestartet

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Das Rostocker Thünen-Institut für Ostseefischerei hat im Auftrag des Bundesministeriums für Ernährung und Landwirtschaft eine deutschlandweite Studie zum Thema Angeln gestartet. Hierfür werden 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt. Die Studie soll dabei helfen, die Nutzung der Fischbestände, die Rolle des Angelns in der Gesellschaft und seine wirtschaftliche Bedeutung besser zu verstehen.

Gehen Sie Angeln? Diese Frage könnte Ihnen in den nächsten Monaten am Telefon gestellt werden. Weltweit angeln über 220 Millionen Menschen in ihrer Freizeit. Auch in Deutschland ist das Angeln beliebt: Gerade in der heutigen Zeit scheinen viele Deutsche sich nach einem naturnahen Hobby zu sehnen, um dem Alltagsstress zu entfliehen. Doch bisher ist sehr wenig über das Angeln in Deutschland bekannt. Dabei gehören Anglerinnen und Angler zur größten Nutzergruppe von Seen, Flüssen und Meeren.

Was macht den Reiz des Angelns aus? Wie viele Anglerinnen und Angler gibt es in Deutschland? Welche Fische fangen sie und wie viele? Diese und weitere Fragen will das Forschungsteam um Dr. Harry Strehlow vom Rostocker Thünen-Institut für Ostseefischerei im Rahmen der Studie „Angeln in Deutschland“ beantworten. Zusammen mit dem Berliner Markt- und Sozialforschungsinstitut USUMA werden hierfür in den nächsten Monaten 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt, um ein repräsentatives Abbild der Anglerinnen und Angler in der deutschen Bevölkerung zu erstellen. Damit ist dies die bisher größte Befragung ihrer Art in Europa und eine der größten weltweit.

Die während des Telefoninterviews angetroffenen Anglerinnen und Angler werden zunächst zu verschiedenen Aspekten des Angelns befragt. Anschließend werden alle interviewten Personen dazu eingeladen, an einer Tagebuch-Studie teilzunehmen. Für die kommenden zwölf Monate sollen sie ihre Angelerlebnisse dokumentieren, um den Forschern Einblicke in ihr Angelverhalten zu gewähren.

Ziel der Studie ist, die Nutzung der Gewässer und Fischbestände besser zu verstehen, sowie die wirtschaftliche und gesellschaftliche Bedeutung des Angelns in Deutschland nachzuvollziehen. Die gewonnenen Erkenntnisse sollen als Grundlage für die Entwicklung einer nachhaltigen Angelfischerei in Binnen- und Meeresgewässern dienen. Mit ersten Zwischenergebnissen rechnet das Team um Harry Strehlow Ende 2021.

Die Teilnahme an der Befragung ist freiwillig und anonym. Die Studie verfolgt keine kommerziellen Ziele, sondern dient ausschließlich dem wissenschaftlichen Erkenntnisgewinn.

Weitere Informationen: http://www.thuenen.de/dmap

Wissenschaftliche Ansprechpartner:
Dr. Harry Strehlow
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 107
E-Mail: harry.strehlow@thuenen.de

Weitere Informationen:
http://www.thuenen.de/dmap – Infos zum Deutschen Meeresangelprogramm

Quelle: IDW
(nach oben)


Hohe Mobilität verschlechtert die Work-Life-Balance

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Der Fernpendler, die Übersetzerin im Homeoffice, die Handlungsreisende oder der Paketbote haben eines gemeinsam: Sie verbringen einen großen Teil ihrer arbeitsbezogenen Zeit nicht in ihrem Unternehmen. Der Bericht „BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin veröffentlicht hat, nimmt die verschiedenen Aspekte arbeitsbezogener räumlicher Mobilität unter die Lupe. Dabei sind die untersuchten Formen der Mobilität mit zum Teil sehr unterschiedlichen Chancen und Risiken verbunden. Alle zeigen jedoch, dass sich bei hoher Mobilität die Vereinbarkeit von Beruf und Privatem erschwert.

Arbeitszeitbefragung 2017 zu arbeitsbedingter Mobilität ausgewertet
Auf Datenbasis der BAuA-Arbeitszeitbefragung 2017 skizziert der Bericht die Verbreitung von vier unterschiedlichen Mobilitätsformen „Pendeln“, „Telearbeit“, „Dienstreisen“ sowie „wechselnde und mobile Arbeitsorte“. Zudem betrachtet er potenziell beeinträchtigende und förderliche Arbeitsbedingungen, die damit einhergehen. Zusätzlich werden Zusammenhänge der Mobilitätsformen mit Aspekten von Work-Life-Balance, Erholung und Gesundheit beleuchtet.

Die Anforderungen an die Flexibilität steigt für die Beschäftigten in Deutschland, zeigt auch der Stressreport 2019 der BAuA. Immerhin verbringen rund 7 Prozent der Beschäftigten täglich mehr als zwei Stunden auf dem Weg zwischen ihrem Arbeitsplatz und ihrem Zuhause. 36 Prozent der Beschäftigten machen Dienstreisen und 28 Prozent übernachten berufsbedingt auswärts. Bei 25 Prozent der Beschäftigten ist Mobilität Teil der Arbeitstätigkeit. Sie arbeiten hauptsächlich an wechselnden oder mobilen Arbeitsorten. Dazu gehören beispielsweise Monteure im Handwerk oder das Fahrpersonal in Bus und Bahn. Darüber hinaus weisen etwa 10 Prozent der Beschäftigten eine Kombination von mindestens zwei extremen Ausprägungen von Mobilität auf, wie zum Beispiel der Bauarbeiter auf Montage oder das fliegende Personal.

Die untersuchten Mobilitätsformen weisen kein einheitliches Bild bezüglich der psychischen Belastung auf. Häufig lässt sich eine höhere Arbeitsintensität beziehungsweise zeitliche Entgrenzung bei arbeitsbezogener Mobilität beobachten, wie zum Beispiel bei der Arbeit von zuhause. Einige Mobilitätsformen gehen häufig mit einem hohen zeitlichen Handlungsspielraum einher, zum Beispiel Dienstreisen und Auswärtsübernachtungen. Die Abwesenheit vom betrieblichen Arbeitsort kann auch zu einem geringeren Gemeinschaftsgefühl und geringerer sozialer Unterstützung bei der Arbeit führen.

Vielfach entscheiden die beruflichen Tätigkeiten darüber, ob beziehungsweise inwiefern sich die verschiedenen Formen arbeitsbezogener Mobilität auf die Work-Life-Balance, Erholung und Gesundheit der Beschäftigten auswirken. Insgesamt zeigen sich aber bei jeder hoch ausgeprägten Form Auswirkungen auf die Work-Life-Balance. Der Bericht gibt jedoch Ansatzpunkte, um Mobilität so zu gestalten, dass sich Sicherheit und Gesundheit bei der Arbeit sowie die Vereinbarkeit der Arbeit mit dem Privatleben verbessern lassen.

„BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“; Anne Marit Wöhrmann, Nils Backhaus, Anita Tisch, Alexandra Michel; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 233 Seiten; ISBN 978-3-88261-292-9; doi:10.21934/baua:bericht20200713. Den Bericht gibt es im PDF-Format unter http://www.baua.de/dok/8840504.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Quelle: IDW
(nach oben)


Grubenwasser und Grundwasser bleiben getrennt

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Kohle wird im Ruhrgebiet zwar seit 2018 keine mehr gefördert. Aber Grubenwasser muss weiter abgepumpt werden, und zwar für immer. Da kann man das warme Wasser aus der Tiefe auch gleich zum Heizen nutzen. Wo und wie hat das Team des Projekts „Grubenwasser-Ruhr“ um Prof. Dr. Hermann-Josef Wagner vom Lehrstuhl Energiesysteme und Energiewirtschaft der Ruhr-Universität Bochum (RUB) gezeigt: In Bochum, Kamen-Bergkamen und Essen stimmen alle Bedingungen. Neben dem klimafreundlichen Heizen noch ein kleines Umweltplus: Nachdem das Wasser seine Wärme an Gebäude abgegeben hat, fließt es kälter in die Ruhr ab. Das Team hat zu dem dreieinhalbjährigen Projekt den Abschlussbericht online veröffentlicht.

Grubenwasser und Grundwasser bleiben getrennt
Dort, wo früher Kohle unter Tage abgebaut wurde, befinden sich heute viele Hohlräume. Die ehemalige Ruhrkohle AG (RAG) pumpt an 13 Standorten heute jährlich rund 70 Millionen Kubikmeter Wasser heraus, damit es sich nicht mit dem Grundwasser mischt. Dieses Wasser ist rund 20 bis 30 Grad warm und wird bisher ungenutzt in Lippe, Ruhr und Rhein geleitet.

Langfristig sollen nur noch sechs Standorte im Ruhrgebiet Grubenwasser fördern. Um es zum Heizen nutzen zu können, muss es eine Bebauung oder Pläne geben, die eine neue Wärmeversorgung notwendig machen. Drei Standorte, auf die das zutrifft, haben Wagner und seine Mitarbeiterinnen und Mitarbeiter ausgemacht: die Wasserstadt Aden, Bergkamen (Schacht 2, Haus Aden), den Gewerbepark Robert Müser, Bochum (Schacht Arnold) und Essen 51, Essen (Schacht Marie). Dass Bochum geeignet ist, war schon länger bekannt. Dort wird schon die zentrale Feuerwehr mit Grubenwasserwärme versorgt. Jetzt soll diese Versorgung auf Quartiersebene erweitert werden.

Betriebskosten unter denen von Gas
„Die Temperatur des Grubenwassers reicht für viele Gebäude in Gewerbegebieten aus, zum Beispiel Lager“, erklärt Wagner. Theoretisch könnte man noch weitaus mehr Gebäude beheizen: Die Mengen an Grubenwasser, die hochgepumpt werden müssen, könnten ganze Quartiere versorgen. Allerdings lassen sich wegen der Temperaturen realistisch nur Gebäude in einem Umkreis von rund fünf Kilometern versorgen. Am günstigsten dafür sind Niedertemperaturflächenheizungen, die im Altbau aber nicht verbreitet sind. Kombiniert mit einer Wärmepumpe könnte das Wasser eine größere Heizleistung liefern.

Das Forschungsteam hat auch die Kosten für solche Fälle berechnet. „Wir sind noch über den Gaspreisen“, erklärt Hermann-Josef Wagner, „aber die steigenden CO2-Kosten können das schnell ändern.“ Die Betriebskosten lägen dann unter denen von Gas. Problematisch sei eher, dass Investoren noch Berührungsängste mit innovativen Wärmeversorgungsarten zeigen.

Zwei weitere Projektphasen
An die abgeschlossene erste Projektphase schließt sich eine vierjährige Umsetzungsphase an. Darin wird ein wissenschaftliches Monitoring geplant und in die Umsetzung integriert. In einer dritten Phase folgt die Auswertung des Monitorings für einen langfristigen Erfahrungstransfer. „Im Grunde ist Grubenwasser weltweit interessant“, erklärt Hermann-Josef Wagner. Gerade bei Neubauten könnte sich die Nutzung auch in anderen ehemaligen Bergbaustaaten lohnen. Darüber hinaus lasse sich die Technologie auch auf andere Grund- und Abwasserarten anwenden.

Kontakt
Die Leitung und Koordination des Projekts hat der Lehrstuhl Energiesysteme und Energiewirtschaft der RUB. Das Unternehmen Eimer Projekt Consulting verantwortet die strategische Kontaktanbahnung sowie den dauerhaften Einbezug der potenziellen Wärmeabnehmer. Die RAG als Standorteigner wird die Umsetzungs- und Investitionsplanungen unterstützen, während die Deutsche Montantechnologie mit der RUB für die technischen Planungsarbeiten zuständig ist.

Pressekontakt
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de

Originalpublikation:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)

Weitere Informationen:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)
https://www.gw-ruhr.rub.de/ – Projektwebseite

Quelle: IDW
(nach oben)


Darm-Hirn-Achse beeinflusst Multiple Sklerose

Dr. Angelika Jacobs Kommunikation & Marketing
Universität Basel
Ein internationales Forschungsteam unter Basler Leitung hat eine Verbindung zwischen der Darmflora und Entzündungsherden im zentralen Nervensystem bei Multipler Sklerose entdeckt. Bei dieser neu identifizierten Darm-Hirn-Achse spielt eine bestimmte Klasse von Immunzellen eine zentrale Rolle. Die Entdeckung könnte den Weg zu neuen Therapien gegen MS weisen, die auf die Darmflora abzielen.

Was tun, wenn das eigene Immunsystem das Nervensystem angreift? Neuere Therapien gegen die Autoimmunerkrankung Multiple Sklerose (MS) setzen darauf, bestimmte Immunzellen (die B-Zellen) aus dem Blut der Betroffenen zu entfernen. Allerdings entdeckten Forschende von Universität und Universitätsspital Basel bereits vor einigen Jahren, dass man dabei besser kein zu breites Spektrum der verschiedenen B-Zellen entfernen sollte, da dies die Erkrankung sogar noch verschlimmern kann.

Eine neue Studie im Fachblatt «Science Immunology» wirft nun ein neues Licht auf diese Beobachtung: Ein internationales Forschungsteam um PD Dr. Anne-Katrin Pröbstel von der Universität Basel und vom Universitätsspital Basel hat entdeckt, dass bestimmte B-Zellen eine Art Brücke zwischen der Darmflora und den Entzündungsherden im zentralen Nervensystem schlagen und hier entzündungshemmend wirken.

«Aus früheren Studien wissen wir, dass die Zusammensetzung der Darmflora eine Rolle bei MS spielt. Aber wie genau sich Darmbakterien und Immunzellen gegenseitig beeinflussen, war bisher unbekannt», erklärt Pröbstel.

Immunzellen für Darm und Hirn
Im Mittelpunkt der neuen Studie standen sogenannte IgA-produzierende B-Zellen, kurz IgA-B-Zellen. Bei Immunglobulin A (IgA) handelt es sich um eine Klasse von Antikörpern, die insbesondere die Immunabwehr der Schleimhäute sicherstellt. Die IgA-B-Zellen sind damit beispielsweise für die Darmgesundheit zentral.

Durch Analysen von Stuhlproben von MS-Patientinnen und -Patienten sowie gesunden Personen stellten die Forschenden fest, dass MS-Betroffene im Darm IgA-B-Zellen tragen, die sich insbesondere gegen MS-typische Darmbakterien richten – also solche, die gehäuft bei MS-Betroffenen vorkommen.

In einem weiteren Schritt analysierten die Forschenden die Rolle dieser Immunzellen im Krankheitsverlauf bei insgesamt 56 MS-Patientinnen und -Patienten. Demnach häuften sich die IgA-B-Zellen bei MS-Betroffenen mit akuten Entzündungsherden in der Hirn-Rückenmarks-Flüssigkeit und im Hirngewebe.

«Offenbar wandern diese Immunzellen aus dem Darm zu den Entzündungsherden im zentralen Nervensystem und schütten dort einen entzündungshemmenden Botenstoff aus», fasst Pröbstel die Ergebnisse zusammen. «Das erklärt, warum sich die Erkrankung verschlimmert, wenn man diese Immunzellen mit Medikamenten aus dem Blut entfernt.»

Auslöser noch unbekannt
Was genau die IgA-B-Zellen als Helfer gegen MS aktiviert und dazu anregt, vom Darm ins zentrale Nervensystem zu wandern, wird weiter untersucht. «Wenn wir den Auslöser dafür finden, könnten wir dies therapeutisch zur Behandlung von MS nutzen», so Pröbstel. Denkbar wäre beispielsweise, die Zusammensetzung der Darmflora von Betroffenen gezielt zu verändern, um die IgA-B-Zellen als Helfer gegen die Entzündungen im Nervensystem zu mobilisieren.

Neben der Universität Basel waren an der Studie auch die University of California San Francisco, die Technische Universität München, die Universitäten Heidelberg, Umeå (Schweden) und Toronto (Kanada) sowie das Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam beteiligt. Finanziert wurde die Studie unter anderem durch die National Multiple Sclerosis Society und den Schweizerischen Nationalfonds.

Wissenschaftliche Ansprechpartner:
PD Dr. Anne-Katrin Pröbstel, Universität Basel, Departement Biomedizin, Tel. +41 61 556 57 98, E-Mail: anne-katrin.proebstel@unibas.ch

Originalpublikation:
Anne-Katrin Pröbstel et al.
Gut microbiota-specific IgA+ B cells traffic to the CNS in active multiple sclerosis
Science Immunology (2020), doi: 10.1126/sciimmunol.abc7191

Quelle: IDW
(nach oben)


Fahrstunden für die Künstliche Intelligenz

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Forschende der Universität Stuttgart an Konsortium „KI Delta Learning“ zur Weiterentwicklung des autonomen Fahrens beteiligt.

Automatisierten und autonomen Fahrzeugen soll die Zukunft gehören, doch ihr Kernstück, die künstliche Intelligenz (KI), kommt mit wechselnden Verkehrssituationen bisher schlecht zurecht. Wissenschaftler der Universität Stuttgart erforschen jetzt im Rahmen des Projekts „KI Delta Learning“ (Konsortialführer Mercedes-Benz AG) neue Methoden des maschinellen Lernens, um die KI-Module für ein besseres Verständnis der Umwelt zu trainieren. Ziel ist es, bereits vorhandenes Wissen aus bekannten Domänen mit wenig Aufwand auf sich ändernde oder neue Verkehrssituationen zu übertragen und autonome Fahrzeuge zur Serienreife weiterzuentwickeln.

Tag – Nacht, Sonne – Regen, Wald – Feld: Wer Auto fährt, muss sich, oft in schneller Folge, auf sehr unterschiedliche Umfeldbedingungen einstellen. Was der Mensch jedoch intuitiv bewältigt, muss einem KI-Modul bisher für jede einzelne Situation antrainiert werden. „Mit den bisherigen Methoden beim Training von künstlicher Intelligenz kann diese kein echtes Verständnis für die Umwelt entwickeln und spezialisiert sich zu stark“, erklären Prof. Bin Yang und Robert Marsden vom Institut für Signalverarbeitung und Systemtheorie (ISS), die den im Fachbereich Elektrotechnik und Informationstechnik angesiedelten Projektanteil der Universität Stuttgart koordinieren. „Dadurch haben die neuronalen Netze, auf denen die KI basiert, Schwierigkeiten mit Situationen, die im Trainingsdatensatz nicht abgebildet wurden.“ Ein Modell, das zum Beispiel auf das Erkennen eines Autos bei Tag trainiert ist, kann Fahrzeuge, die bei Nacht unterwegs sind, deutlich schlechter erkennen.

Lernen auf Basis der Unterschiede
Um KI zum Generalisten zu machen, sind bisher enorm große Trainingsdatensätze erforderlich – ein kostspieliges und zeitaufwändiges Unterfangen. Daher suchen die Forschenden im Projekt KI Delta Learning nach Wegen, um vorhandene KI-Module autonomer Fahrzeuge zu erweitern und so zu transformieren, dass sie auch außerhalb von vorgegebenen Szenarien zuverlässig reagieren. Im Mittelpunkt steht die Entwicklung von Methoden zur effizienten Übertragung bereits vorhandenen Wissens aus bekannten Domänen auf neue Zieldomänen. Mithilfe dieser Methoden soll die KI zukünftig aufbauend auf existierendem Wissen lediglich die Unterschiede – die Deltas – zu unbekannten Zieldomänen Erlernen müssen. Diese Deltas lassen sich in sechs Anwendungsfälle unterteilen. Hierzu zählt beispielsweise der Umgang mit Weiterentwicklungen im Bereich der Fahrzeugsensoren oder mit langfristigen Veränderungen in der Verkehrswelt. Die Berücksichtigung von kurzfristigen Änderungen, wie unterschiedliche Tageszeiten oder Wetterverhältnisse sowie die Erweiterung des Einsatzes der KI-Methoden auf weitere Länder sind ebenfalls im Umfang enthalten, um nur einige Aspekte zu nennen.

Das bereits Gelernte soll bei der Überbrückung des Deltas nicht verworfen, sondern darauf aufbauend genutzt werden. „Nur so können autonome Systeme langfristig die gesamte Komplexität der Verkehrswelt zuverlässig abdecken und mit den immer kürzeren Innovationszyklen und der sich ständig ändernden Mobilität Schritt halten“, betont Dr. Mohsen Sefati (Mercedes Benz AG), der Gesamtleiter des Projekts KI Delta Learning.
Dabei konzentriert sich das Projekt auf drei Hauptbereiche für das Delta Learning: Transfer Learning, Didaktik und Automotive Tauglichkeit. Der Stand der Technik wird in allen drei Bereichen so weit vorangetrieben, dass die nächste Generation der KI-Algorithmen für einen uneingeschränkten Einsatz im autonomen Fahrzeug gewappnet ist.

Training mit simulierten Daten
Das ISS der Universität Stuttgart geht innerhalb des Projekts der Frage nach, wie man das Modell beim Erlernen einer generelleren Repräsentation unterstützen kann. Dabei sollen simulierte Daten für Kamerabilder von Fahrszenen, generiert aus der Computerspiel- und Filmindustrie, für das Training verwendet werden. Die Forschenden untersuchen unter anderem einen Ansatz, bei dem simulierte Bilder so in ihrem Aussehen verändert werden, dass sie nicht mehr von echten zu unterscheiden sind. Darüber hinaus arbeiten sie auch an Methoden für kontinuierliches Lernen, bei dem neues Wissen in das Modell integriert werden soll, ohne dass altes wieder vergessen wird.

Über KI Delta Learning
Das Projekt KI Delta Learning besteht aus 19 Konsortialpartnern von namhaften Universitäten und Forschungseinrichtungen sowie Automobilherstellern, -zulieferern und Technologieprovidern. Das von der VDA Leitinitiative „Autonomes und Vernetztes Fahren“ als Teil der KI-Familie initiierte und entwickelte Projekt wird durch das Bundesministerium für Wirtschaft und Energie gefördert und hat eine Laufzeit von drei Jahren.

Wissenschaftliche Ansprechpartner:
Prof. Bin Yang, Universität Stuttgart, Institut für Signalverarbeitung und Systemtheorie, E-Mail: bin.yang@iss.uni-stuttgart.de,
Tel.: +49 (0)711/685 67330

Weitere Informationen:
http://www.ki-deltalearning.de

Quelle: IDW
(nach oben)


Grüner Wasserstoff: Auftrieb im Elektrolyten sorgt für Konvektionsströmung

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Wasserstoff lässt sich klimaneutral mit Sonnenlicht produzieren. Aber auf dem Weg vom Labormaßstab zu einer großtechnischen Umsetzung gibt es noch Hürden. Nun hat ein Team am HZB eine Methode vorgestellt, um Strömungsprozesse im Elektrolyten sichtbar zu machen und mit einem Modell vorab zuverlässig zu simulieren. Die Ergebnisse sind hilfreich, um Design und Aufskalierung dieser Technologie zu unterstützen und wurden in der renommierten Zeitschrift Energy and Environmental Science veröffentlicht.

„Grüner“ Wasserstoff, der mit erneuerbaren Energien klimaneutral hergestellt wird, könnte einen wesentlichen Beitrag zum Energiesystem der Zukunft leisten. Eine Option ist die Nutzung von Sonnenlicht zur elektrolytischen Wasserspaltung, entweder indirekt durch Kopplung einer Solarzelle mit einem Elektrolyseur oder direkt in einer photoelektrochemischen (PEC) Zelle. Als Photoelektroden dienen lichtabsorbierende Halbleiter. Sie werden in eine Elektrolytlösung aus Wasser eingetaucht, das mit starken Säuren oder Basen vermischt ist. Dies erhöht die Konzentration von Protonen bzw. Hydroxidionen und sorgt so für eine effiziente Elektrolyse.

In einer Großanlage wäre es jedoch aus Sicherheitsgründen sinnvoll, eine Elektrolytlösung mit einem nahezu neutralen pH-Wert zu verwenden. Eine solche Lösung hat eine niedrige Konzentration von Protonen und Hydroxidionen, was zu Einschränkungen beim Massentransport und zu schlechter Leistung führt. Diese Einschränkungen genauer zu verstehen hilft bei der Konstruktion einer sicheren und skalierbaren PEC-Wasserspaltungsanlage.

Ein Team um Dr. Fatwa Abdi vom HZB-Institut für Solare Brennstoffe hat nun zum ersten Mal untersucht, wie sich der flüssige Elektrolyt in der Zelle während der Elektrolyse verhält: Mit Hilfe fluoreszierender pH-Sensorfolien bestimmte Dr. Keisuke Obata, Postdoc in Abdis Team, den lokalen pH-Wert in PEC-Zellen zwischen Anode und Kathode im Verlauf der Elektrolyse. Die PEC-Zellen wurden mit nahezu neutralen pH-Elektrolyten gefüllt. In Bereichen nahe der Anode nahm der pH-Wert im Verlauf der Elektrolyse ab, während er nahe der Kathode zunahm. Interessanterweise bewegte sich der Elektrolyt während der Elektrolyse im Uhrzeigersinn.

Die Beobachtung lässt sich durch Auftrieb aufgrund von Änderungen der Elektrolytdichte während der elektrochemischen Reaktion erklären, die zur Konvektion führt. „Es war überraschend zu sehen, dass winzige Änderungen der Elektrolytdichte (~0,1%) diesen Auftriebseffekt verursachen“, sagt Abdi.
Modell ermöglicht Simulation

Parallel dazu entwickelten Abdi und sein Team ein multiphysikalisches Modell zur Berechnung der Konvektionsströmung, die durch die elektrochemischen Reaktionen ausgelöst werden. „Wir haben dieses Modell gründlich getestet und können nun ein leistungsfähiges Werkzeug zur Verfügung stellen, um die natürliche Konvektion in einer elektrochemischen Zelle mit verschiedenen Elektrolyten im Voraus zu simulieren“, sagt Abdi.

Für das Projekt hat Abdi ein neues Labor, das „Solar Fuel Devices Facility“, am HZB aufgebaut. Dieses Labor ist Teil der Helmholtz Energy Materials Foundry (HEMF), einer großen Infrastruktur, die auch Messgäste aus aller Welt nutzen können. Die Studie wurde in Zusammenarbeit mit der TU Berlin im Rahmen des Exzellenzclusters UniSysCat durchgeführt.

„Mit dieser Arbeit erweitern wir unsere materialwissenschaftliche Expertise um neue Einblicke auf dem Gebiet der photoelektrochemischen Reaktionstechnik. Das ist ein wesentlicher Schritt auf dem Weg zur Aufskalierung von Solarbrennstoffanlagen“, sagt Prof. Dr. Roel van de Krol, der das HZB-Institut für Solare Brennstoffe leitet.

Wissenschaftliche Ansprechpartner:
Dr. Fatwa Firdaus Abdi
HZB_Institut Solare Brennstoffe
(030) 8062 – 42927
fatwa.abdi@helmholtz-berlin.de

Originalpublikation:
Energy&Environmental Science (2020): In-situ Observation of pH Change during Water Splitting in Neutral pH Conditions: Impact of Natural Convection Driven by Buoyancy Effects

Keisuke Obata, Roel van de Krol, Michael Schwarze, Reinhard Schomäcker, and Fatwa F. Abdi

Doi: 10.1039/D0EE01760D

Quelle: IDW
(nach oben)


Abwasserreinigung mittels Sonnenlicht – Ozon als Reaktionspartner

Leibniz-Institut für Katalyse
Am Leibniz-Institut für Katalyse in Rostock deckten Chemiker:innen den molekularen Mechanismus eines Fotokatalysators auf, der mit Hilfe von Sonnenlicht organische Verunreinigungen im Abwasser vollständig abbaut. Weltweit gelangen z.B. immer mehr Rückstände von Arzneien, wie Entzündungshemmern, Antibiotika oder Verhütungsmitteln, in die Aufbereitungssysteme, wo sie sich nur schwer entfernen lassen. Labore arbeiten verstärkt an fotokatalytischen Lösungen, doch das Wissen über die Wirkprinzipien ist lückenhaft. Forschende um Angelika Brückner und Jabor Rabeah am LIKAT haben deshalb Fotokatalysatoren gewissermaßen live bei der Arbeit beobachtet und Grundlagen ihrer Funktionsweise aufgeklärt.

Dies eröffnet der Entwicklung von Fotokatalysatoren für die Abwasserbehandlung neue Wege, wie Prof. Dr. Brückner, Bereichsleiterin am LIKAT, sagt. Kollegen aus China waren an sie mit der Bitte um Kooperation herangetreten. In bevölkerungsreichen Regionen Asiens sind organische Verunreinigungen, etwa durch stabile Abbauprodukte von Medikamenten, ein dringliches Problem.
Die chinesischen Kolleg:innen hatten neue Katalysatoren entwickelt und brauchten die Expertise des LIKAT für spezielle Untersuchungen, um ihre Katalysatoren optimal präparieren zu können. Brückner und ihr Team sind Spezialisten auf dem Gebiet der sogenannten In-situ-Spektroskopie. Damit können sie die Funktion eines Katalysators während der chemischen Reaktion (in situ) verfolgen und seine molekulare Wirkweise dokumentieren.

Carbonitrid statt Titanoxid
Gängige Fotokatalysatoren, wie Titandioxid, mit dem z. B. selbstreinigende Fensterscheiben beschichtet werden, um Schmutzpartikel zu zersetzen, arbeiten am effektivsten mit energiereicher UV-Strahlung. Allerdings beträgt der UV-Anteil im Sonnenlicht nur 5 bis 8 Prozent. Die chinesischen Chemiker:innen nutzen deshalb eine neue Generation von Fotokatalysatoren: Carbonitrid, das im sichtbarem Licht aktiviert wird. Es entsteht durch thermische Behandlung von Melamin, das auch als Ausgangsstoff für farbenfrohes Geschirr aus Duroplast dient.
Die Kolleg:innen in China konnten ihren Katalysator erfolgreich testen, und zwar mit verschiedenen Substanzen, die beim Abbau von Medikamenten entstehen und ins Abwasser gelangen. Der pulverförmige Fotokatalysator wird dabei im Wasser verrührt und verrichtet als Schwebeteilchen seine Arbeit. Als Oxidationsmittel testeten die Kollegen Sauerstoff und Ozon. „Ozon erwies sich als außergewöhnlich effektiv“, erläutert Prof. Brückner. „Doch seine Aktivität schwankte, und das schien abhängig von den Präparationsbedingungen des Katalysators zu sein.“
Warum das so ist und welches die optimalen Bedingungen für das Präparieren des Katalysators darstellten, sollte Jiadong Xiao, ein junger Chemiker von der Universität Peking, am LIKAT in seiner Dissertation erkunden. Diese Forschungen liefen unter der Ägide von Dr. Jabor Rabeah, Themenleiter am LIKAT und Betreuer des Doktoranden.

Radikale einfangen und identifizieren
Die Messungen ergaben, dass für die eigentliche Abbaureaktion eine Spezies von Radikalen verantwortlich ist. Angelika Brückner: „Das sind äußerst reaktionsfreudige Moleküle, die die Schadstoffe im Wasser sofort angreifen und abbauen. Und das Zusammenspiel von Sonnenlicht, Fotokatalysator und Ozon befördert diese Bildung von Radikalen.“ Tatsächlich waren die Radikale so kurzlebig, dass es zunächst selbst mit der modernen Analysentechnik am LIKAT nicht gelang, sie zu identifizieren.
Für solche Fälle nutzen die Chemiker einen Trick, den sie Spin-Trap nennen: Die Radikale werden mit einem neutralen Molekül eingefangen, das dadurch selbst zum Radikal wird, allerdings zu einem, dass kaum reaktiv ist und deshalb lange genug „lebt“, um analysiert zu werden. So war es möglich, die hocheffektiven Teilchen als Hydroxyl-Radikale zu identifizieren, Moleküle, die aus einem Wasserstoff- und einem Sauerstoff-Atom bestehen. Die hohe Wirksamkeit der Kombination Fotokatalysator – Sonnenlicht – Ozon bei der Abwasserreinigung ließ sich durch die extrem rasche Bildung enorm vieler reaktionsfreudiger Radikale erklären.
Ergebnis der Forschungsarbeiten ist „ein neues mechanistisches Konzept“ für diese Art von Reaktionen, wie Angelika Brückner sagt. Die Forscher:innen gehen davon aus, dass die Methode mit diesem Hintergrundwissen bald ihren Weg in die Praxis findet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Angelika Brückner
Angelika.Brueckner@catalysis.de
doi.org/10.1021/acs.accounts.9b00624

Originalpublikation:
J. Xiao, Y. Xie, J. Rabeah, A. Brückner, H. Cao, Acc. Chem. Res. 2020, 53, 1024-1033.

Weitere Informationen:
https://www.catalysis.de/forschung/katalytische-in-situ-studien/

Quelle: IDW
(nach oben)


Bayreuther Sportphysiologe entwickelt Leitlinien für Sport mit Diabetes-Typ-1

Christian Wißler Pressestelle
Universität Bayreuth
Ein internationales Forschungsteam unter der Leitung von Prof. Dr. Othmar Moser, Professor für Exercise Physiology & Metabolism an der Universität Bayreuth, hat Leitlinien für Glukosemanagement beim Sport entwickelt. Die in den Zeitschriften „Diabetologia“ und „Pediatric Diabetes“ veröffentlichten Empfehlungen sollen Menschen mit Diabetes-Typ-1 vor Unter- und Überzuckerungen schützen.

Menschen mit Diabetes-Typ-1 können trotz ihrer Erkrankung körperlich aktiv sein. Sie sollten aber beim Sport ein besonders wachsames Auge auf ihre Blutzuckerwerte haben. Denn weil ihr Körper nicht in der Lage ist, Insulin selbst zu produzieren und dieses somit gespritzt werden muss, um die Glukosekonzentration stabil zu halten, müssen sie mit Unterzuckerung rechnen. Die Insulintherapie, die den Blutzuckerspiegel künstlich auf möglichst optimalem Niveau halten soll, ist jedoch bei körperlicher Belastung nicht einfach zu handhaben. Deshalb hat das von Prof. Dr. Othmar Moser koordinierte internationale Team neue Empfehlungen für Menschen mit Diabetes-Typ-1 ausgearbeitet. Die Empfehlungen basieren auf den Möglichkeiten neuartiger Blutzuckermess-Systeme. Sie sollen Sportlerinnen und Sportlern sichere körperliche Aktivitäten ohne gefährliche Blutzuckerschwankungen ermöglichen.

Die Leitlinien zeigen im Detail, ab welchem Glukosewert es notwendig ist, während sportlicher Betätigung zusätzliches Insulin zuzuführen. Ebenso wird dargelegt, bei welchem Blutzuckerwert welche Menge an Kohlenhydraten – abhängig von ihrem Glukosewert – eingenommen werden soll. Dieses Blutzuckermanagement während sportlicher Aktivitäten soll künftig über eine App erleichtert werden, das derzeit gemeinsam mit dem King’s College in London entwickelt wird. Damit soll ein smartes Glukosemanagement zur Verfügung stehen. „Wie bei den meisten chronischen Erkrankungen ist ein aktiver Lebensstil wichtig, um ein langes und nahezu gesundes Leben ermöglichen zu können. Mit unseren Empfehlungen wollen wir Menschen mit Diabetes mellitus Typ 1 dabei unterstützen, sportliche Aktivität als festen Bestandteil in ihren jeweiligen Therapieplan zu integrieren“, sagt Moser, der seit dem 1. November 2020 die Professur für Exercise Physiology & Metabolism an der Universität Bayreuth innehat.

Zentraler Bestandteil der Leitlinien sind neuartige Zuckermessgeräte, die permanent die aktuellen Glukosewerte zur Verfügung stellen. Dabei wird der Glukosewert nicht-invasiv – also ohne Blutabnahme – mit einem winzigen, unter der Haut angebrachten Sender permanent gemessen. Ein Sender übermittelt mehrmals pro Tag den jeweils aktuellen Wert an die Empfänger. „Diesen medizintechnischen Fortschritt nutzen die Leitlinien, um ein unkompliziertes und wirklich verlässliches Glukosemanagement zu ermöglichen. Bisher wurden alle Therapieempfehlungen bei Sport und Diabetes mellitus Typ 1 auf der Basis von invasiven Blutzuckermessungen von der Fingerbeere erstellt“, sagt Moser.

Bereits in früheren Studien haben er und sein Team gezeigt, dass es zur Vermeidung lebensbedrohlicher Unterzuckerungen notwendig ist, dass Patientinnen und Patienten mit Typ-1-Diabetes während sportlicher Aktivitäten den Glukosespiegel stabil halten – sei es, indem sie die Insulindosis abhängig von der Dauer und Intensität der Belastung verringern, sei es, dass sie zusätzliche Kohlenhydrate zuführen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Othmar Moser
Exercise Physiology and Metabolism
Universität Bayreuth
Telefon: +49 (0)921 / 55-3464
E-Mail: othmar.moser@uni-bayreuth.de

Originalpublikation:
Othmar Moser et al.: Glucose management for exercise using continuous glucose monitoring (CGM) and intermittently scanned CGM (isCGM) systems in type 1 diabetes: position statement of the European Association for the Study of Diabetes (EASD) and of the International Society for Pediatric and Adolescent Diabetes (ISPAD) endorsed by JDRF and supported by the American Diabetes Association (ADA). Diabetologia (2020). DOI: https://dx.doi.org/10.1007/s00125-020-05263-9

Quelle: IDW
(nach oben)


Biogasanlagen produzieren Strom flexibel und bedarfsgerecht-Stromeinspeisung folgt Residuallast und Strompreisen

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Ca. 150 Biogasanlagen produzieren schon heute flexibel Strom und werden markt- und systemdienlich betrieben. Dies zeigt eine Analyse im Auftrag der Fachagentur Nachwachsende Rohstoffe e. V. (FNR), die von der Agrarservice Lass GmbH mit Hilfe des Flexperten-Netzwerkes durchgeführt wurde. Darin wird deutlich, dass die Einspeisesummen ausgewählter, zukunftsweisend flexibilisierter Biogasanlagen sehr genau den Strompreisen und der Residuallast folgen. Bei hoher Netzbelastung ruhen die Biogas-BHKWs und machen das Netz frei für Wind- und Solarstrom. Biogas-Rohstoffe und die Biogas-Speicher werden so zu „Batterien“ für die Stromversorgung in Engpasszeiten.

Ziel der Bundesregierung ist es, den Anteil erneuerbarer Energien am Gesamtenergieverbrauch bis 2030 auf 65 % zu erhöhen. Zudem werden durch den Kohle- und Atomausstieg bereits in den nächsten Jahren erhebliche Strom-Erzeugungskapazitäten abgestellt und durch erneuerbare, vorwiegend fluktuierende Energien wie Sonne und Wind ersetzt. Diese können die stetige Stromversorgung aber nicht allein sicherstellen. Es gibt Zeiten, in denen mehr Strom eingespeist als gleichzeitig genutzt wird. In sogenannten Dunkelflauten –in denen Sonne und Wind nicht oder nur eingeschränkt verfügbar sind – sind hingegen Lücken zu füllen. Daher sollten alle regelbaren Stromerzeuger in naher Zukunft verstärkt residuallastabhängig betrieben werden.

Biogas- bzw. Biomethan-Blockheizkraftwerke werden bisher überwiegend in Grundlast gefahren. Für einen wirtschaftlichen Betrieb ist der Großteil der Anlagen auf die Festvergütung für den eingespeisten Strom aus dem Erneuerbaren Energien-Gesetzt (EEG) angewiesen. Dabei hat Biogas einen erheblichen Vorteil gegenüber anderen erneuerbaren Energien: es ist speicherbar und kann somit Spitzenstrom liefern. Bestehende Biogasanlagen mit Stromerzeugung müssen dafür jedoch vom Grundlastbetrieb auf die bedarfsorientierte Betriebsweise umgestellt werden. Dies erfordert erhebliche Investitionen in die Anlagen. Mit der Direktvermarktung und der Flexibilitätsprämie des EEG fördert die Bundesregierung die Anpassung von Biogasanlagen an das Stromnetz der Zukunft. Laut einer Studie des Deutschen Biomasseforschungszentrum (DBFZ) erhalten aktuell ca. 3.300 Biogas- und Biomethan-BHKW mit einer installierten elektrischen Leistung von ca. 2,2 GWel die sogenannte Flexprämie. Obwohl die Stromeinspeisung zu Hochpreisphasen Mehrerlöse verspricht, fahren die meisten dieser Anlagen trotzdem bislang nicht marktpreisorientiert.

Mit dem Projekt „Visualisierung der Netz-/Systemdienlichkeit flexibilisierter Biogasanlagen – VisuFlex“ zeigen die Projektbearbeiter, dass die Strompreise sehr genau der Residuallast folgen und somit eine geeignete Steuerungsgröße darstellen. Unter Einbindung von Direktvermarktern wurden anhand definierter Kriterien zukunftsweisend flexibilisierte Anlagen identifiziert und deren aufsummierte Stromeinspeisung den Strompreisen sowie der Residuallast gegenübergestellt. Die Auswertung erfolgte rückwirkend für den Zeitraum 01.01.2019 – 30.06.2020. Das Ergebnis zeigt, dass die ausgewählten Biogasanlagen sehr zuverlässig zu Zeiten von Last- und Preisspitzen einspeisen und somit optimal markt- und systemdienlich betrieben werden

Die Anzahl der zukunftsweisend flexibilisierten Anlagen ist noch sehr gering und wird auf ca. 150 Anlagen geschätzt. Daher bleiben die Effekte der Flexibilisierung bislang unsichtbar und der Wert real existierender Biogas-Speicherkraftwerke wird für den Strommarkt nicht wahrgenommen. „Die Bedeutung von Stromlieferanten, die in der Lage sind, auf Strompreisschwankungen flexibel zu reagieren, wird insbesondere vor dem Hintergrund der zunehmenden fluktuierenden Einspeisung aus Photovoltaik und Windkraft in den nächsten Jahren weiter zunehmen“, so Martin Lass, Geschäftsführer der Agrarservice Lass GmbH. „Dann werden flexible Speicherkraftwerke gebraucht, was sich auch in den zu erzielenden Strompreisen widerspiegeln wird.“

Um die Effekte der Flexibilisierung für die Öffentlichkeit, die Politik, aber auch als Vorbild für andere Biogasanlagenbetreiber deutlich sichtbar zu machen, wird in einer geplanten zweiten Projektphase die Visualisierung der Stromeinspeisung zukunftsweisend flexibilisierter Biogasanlagen auf einer separaten Plattform in Echtzeit angestrebt. Daraus ließe sich über die Zeit auch der Zuwachs fahrplanoptimierter Biogasanlagen ableiten.

Weitere Informationen unter: https://biogas.fnr.de/biogas-nutzung/stromerzeugung/stand-der-flexibilisierung-v…

Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e. V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de

Quelle: IDW
(nach oben)


Auch Ratten können Hantaviren übertragen: Infektion durch asiatische Virusart in Deutschland nachgewiesen

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Eine Forschungsgruppe der Charité – Universitätsmedizin Berlin konnte erstmals in Deutschland die Übertragung einer bestimmten Virusspezies – des Seoulvirus – von einem Tier auf den Menschen belegen. In Zusammenarbeit mit dem Friedrich-Loeffler-Institut wurde der Krankheitserreger bei einer jungen Patientin und ihrer Heimratte nachgewiesen. Das könnte Auswirkungen auf den Umgang mit Wild- und Heimratten haben, wie jetzt im Fachmagazin Emerging Infectious Diseases* beschrieben ist.

Nach mehreren Ausbrüchen im 21. Jahrhundert stehen Hantavirus-Erkrankungen stärker im öffentlichen Fokus und sind in Deutschland seit 2001 meldepflichtig. Durch verschiedene Mausarten können beispielsweise die in Mitteleuropa verbreiteten Puumala- und Dobrava-Belgrad-Viren übertragen werden. Diese führen meist zu fiebrigen Erkrankungen, in einigen Fällen jedoch auch zu einem HFRS-Syndrom, das mit Fieber, Blutdruckabfall und akutem Nierenversagen einhergeht. Hingegen kommt das hauptsächlich in Asien verbreitete Seoulvirus, welches weit häufiger zu schweren Verläufen führt, ausschließlich in Ratten vor. Übertragungen des hochvirulenten Seoulvirus von Ratten auf Menschen sind bereits in mehreren Fällen auch außerhalb Asiens dokumentiert worden.

Das Team um Prof. Dr. Jörg Hofmann, Leiter des Nationalen Konsiliarlabors für Hantaviren am Institut für Virologie der Charité, konnte nun erstmals eine sogenannte autochthone – also in Deutschland erworbene – Infektion durch das Seoulvirus aufzeigen, deren Ursprung eine Ratte war. In enger Zusammenarbeit mit der Forschungsgruppe von Prof. Dr. Rainer G. Ulrich am Friedrich-Loeffler-Institut (FLI) in Greifswald sowie lokalen und regionalen Gesundheitsbehörden haben die Forschenden das Virus bei einer jungen Patientin aus Niedersachsen und einer ihrer Heimratten nachgewiesen. „Dieses Virus kommt ursprünglich aus Asien und ist wahrscheinlich durch infizierte Wildratten auf Schiffen nach Europa gelangt, konnte in Deutschland bisher aber noch nie beobachtet werden“, sagt Prof. Hofmann, Erstautor der Studie. Die infizierte Zuchtratte der Patientin ist vermutlich aus einem anderen Land nach Deutschland importiert worden.

Die junge Patientin musste mehrere Tage intensivmedizinisch versorgt werden, nachdem sie Symptome eines akuten Nierenversagens zeigte. Serologische Laboruntersuchungen konnten schnell den Verdacht einer Hantavirus-Infektion bestätigen – um welchen Virustyp es sich handelte, war allerdings nicht klar.

Das Team um Prof. Hofmann an der Charité hat eine molekulare Spezialdiagnostik entwickelt, mit deren Hilfe das Seoulvirus bei der Patientin identifiziert werden konnte. Bei der betroffenen Heimratte konnten die Experten am Friedrich-Loeffler-Institut mit dem Test dasselbe Virus nachweisen. Prof. Hofmann erklärt: „Beide Virussequenzen, die der Patientin und die der Ratte, waren identisch. Dies bestätigt eine Erkrankung durch Übertragung des Erregers vom Tier auf den Menschen – eine sogenannte Zoonose.“

„Bislang dachte man nur bei Mäusekontakt an Hantavirus-Infektionen. Jetzt muss man die Möglichkeit einer Infektion auch bei Kontakt zu Wild- oder Heimratten in Betracht ziehen“, warnen die Autoren. „Der Nachweis in einer Heimratte bedeutet außerdem, dass über den Verkauf dieser Tiere das Virus praktisch überallhin exportiert werden kann.“ Vorsicht ist daher bei der Rattenhaltung geboten.

*Hofmann J et al. Autochthonous ratborne Seoul virus infection in woman with acute kidney injury. Emerg Infect Dis (2020), DOI: 10.3201/eid2612.200708

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Hofmann
Institut für Virologie
Campus Charité Mitte
t: +49 30 450 525 141
E-Mail: joerg.hofmann@charite.de

Originalpublikation:
https://wwwnc.cdc.gov/eid/article/26/12/20-0708_article

Quelle: IDW
(nach oben)


Hunderte Exemplare von Newtons Philosophiae Naturalis Principia Mathematica in neuer Zählung gefunden

Linda Schädler Abteilung Kommunikation
Universität Mannheim
Dr. Andrej Svorenčík, Postdoktorand an der Universität Mannheim, und Professor Mordechai Feingold vom California Institute of Technology (Caltech) haben in jahrelanger Suche bisher unbekannte Exemplare von Isaac Newtons bahnbrechendem Wissenschaftsbuch aufgespürt.

Die Ergebnisse der Zählung deuten darauf hin, dass Isaac Newtons Meisterwerk aus dem 17. Jahrhundert, umgangssprachlich Principia genannt, einer breiteren Öffentlichkeit zugänglich war als bisher angenommen. Durch die neue Zählung hat sich die Zahl der bekannten Exemplare der berühmten Erstausgabe, die 1687 veröffentlicht wurde, mehr als verdoppelt. Die letzte Exemplarzählung dieser Art, die 1953 veröffentlicht wurde, hatte 189 Exemplare identifiziert, während die neue Suche 386 Exemplare hervorbrachte.

Die Suche von Dr. Andrej Svorenčík, Postdoktorand für Geschichte der Wirtschaftswissenschaften an der Universität Mannheim und seinem ehemaligen Professor für Wissenschaftsgeschichte am Caltech, Mordechai Feingold, dauerte mehr als ein Jahrzehnt. Dennoch vermuten die beiden Wissenschaftler, dass wahrscheinlich bis zu 200 weitere Bücher immer noch undokumentiert in öffentlichen und privaten Sammlungen lagern. Sie schätzen, dass im Jahr 1687 etwa 600, möglicherweise sogar 750 Exemplare der Erstausgabe des Buches gedruckt wurden.

Neben unbekannten Exemplaren fanden die Forscher Belege dafür, dass die Principia, von der man einst annahm, sie sei nur einer ausgewählten Gruppe von Mathematikexperten vorbehalten, umfassender gelesen und verstanden wurde als zuvor angenommen. „Wenn Sie die Exemplare durchsehen, finden Sie kleine Notizen oder Anmerkungen, die Hinweise darauf geben, wie sie verwendet wurden“, sagt Svorenčík, der etwa 10 Prozent der in der Zählung dokumentierten Exemplare persönlich inspiziert hat.

Wenn Svorenčík zu Konferenzen in verschiedene Länder reiste, nahm er sich Zeit, lokale Bibliotheken zu besuchen. „Man schaut sich die Eigentumsmerkmale an, den Zustand des Einbands, die Druckunterschiede und vieles andere“, so der Wissenschaftler. Auch ohne die Bücher aus der Nähe zu inspizieren, konnten die Historiker anhand von Bibliotheksaufzeichnungen und anderen Briefen und Dokumenten herausfinden, wem sie gehörten und wie die Exemplare weitergegeben wurden.

Funde hinter dem Eisernen Vorhang
Das Forschungsprojekt ist aus einer Arbeit hervorgegangen, die Svorenčík als Student für einen von Feingold unterrichteten Kurs geschrieben hat. Svorenčík, der ursprünglich aus der Slowakei stammt, hatte eine Semesterarbeit über die Verbreitung der Principia in Mitteleuropa verfasst. „Mich interessierte, ob es Exemplare des Buches gab, die sich bis in meine Heimatregion zurückverfolgen ließen. Die in den 1950er Jahren durchgeführte Zählung führte keine Exemplare aus der Slowakei, der Tschechischen Republik, Polen oder Ungarn auf. Dies ist verständlich, da die Exemplarzählung nach dem Fall des Eisernen Vorhangs durchgeführt wurde, was die Rückverfolgung von Kopien sehr schwierig machte.“

Zur Überraschung von Svorenčík fand er viel mehr Exemplare, als Feingold erwartet hatte. Nach Semesterende schlug Feingold Svorenčík vor, sein Projekt in die allererste vollständige und systematische Suche nach Kopien der ersten Principia-Ausgabe umzuwandeln. Die anschließende Detektivarbeit auf der ganzen Welt ergab etwa 200 bisher nicht identifizierte Exemplare in 27 Ländern, darunter 21 Exemplare in Deutschland.

Svorenčík und Feingold stießen sogar auf verlorene oder gestohlene Exemplare des Meisterwerks. So wurde beispielsweise bei einem Buchhändler in Italien ein Exemplar entdeckt, das ein halbes Jahrhundert zuvor aus einer Bibliothek in Deutschland gestohlen worden war. Die deutsche Bibliothek benötigte aber zu lange, um das Exemplar zurückzukaufen oder es zu beschlagnahmen, so dass es wieder auf dem Markt landete. Nach Angaben der Historiker werden Erstausgaben der Principia heute für 300.000 bis 3 Millionen Dollar über Auktionshäuser wie Christie’s und Sotheby’s sowie auf dem Schwarzmarkt verkauft.

Svorenčík und Feingold haben nun gemeinsam einen Artikel über die Zählung in der Zeitschrift „Annals of Science“ veröffentlicht. Der Artikel ist unter https://www.tandfonline.com/doi/full/10.1080/00033790.2020.1808700 erhältlich.

Als Fortführung des Forschungsprojekts planen sie, das Verständnis darüber weiter zu verfeinern, wie die Principia die Wissenschaft des 18. Jahrhunderts geprägt hat.

Isaac Newtons Philosophiae Naturalis Principia Mathematica
In der Principia führte Newton die Grundgesetze der Bewegung und der universellen Gravitation ein, „indem er die irdische und die himmlische Welt in einem einzigen Gesetz vereinte“, so Svorenčík. Forschende in anderen Bereichen hofften, ein ähnliches Gesetz zu finden, um ihre eigenen Bereiche zu vereinheitlichen. Newtons Theorien, genau wie die von Charles Darwin und Albert Einstein, übten beträchtlichen Einfluss auf viele andere Aspekte des Lebens aus, was ihn zu einer so kanonischen Figur des 18. Jahrhunderts machte.

Ein Pressefoto von Dr. Svorenčík finden Sie unter: https://www.uni-mannheim.de/newsroom/presse/pressefotos/

Kontakt:
Dr. Andrej Svorenčík
Postdoktorand für Wirtschaftsgeschichte
Abteilung Volkswirtschaftslehre
Universität Mannheim
E-Mail: svorencik@uni-mannheim.de

Dr. Maartje Koschorreck
Stellvertretende Pressesprecherin
Universität Mannheim
Tel. +49 621-1080
E-Mail: koschorreck@uni-mannheim.de

Quelle: IDW
(nach oben)


Gutes Change-Management: Wie KI in Unternehmen erfolgreich wird

Linda Treugut Geschäftsstelle
Lernende Systeme – Die Plattform für Künstliche Intelligenz
Künstliche Intelligenz (KI) wird den Arbeitsalltag von vielen Beschäftigten verändern. Der Einsatz von KI-Systemen in Betrieben bietet vielfältige Chancen für die Mitarbeiterinnen und Mitarbeiter wie auch die Unternehmen. Gleichzeitig stellt die Einführung von KI alle Beteiligten vor Herausforderungen – wie etwa beim Umgang mit persönlichen Daten oder der menschengerechten Gestaltung der Arbeitsbedingungen. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt anhand konkreter Lösungswege und Praxisbeispielen, wie Unternehmen KI-Systeme sowohl im Sinne der Beschäftigten als auch des wirtschaftlichen Erfolgs einführen und wie Change-Prozesse gelingen können.

KI-Systeme können die Mitarbeiterinnen und Mitarbeiter bei ihren Aufgaben entlasten, Arbeitsprozesse effizienter machen und neue KI-basierte Geschäftsmodelle ermöglichen. Gleichwohl setzt ihre Einführung einen Wandel im Unternehmen in Gang, der gestaltet sein will. Der entscheidende Faktor für den Erfolg von KI-Systemen ist das Change-Management. Ein gutes Change-Management fördere die Akzeptanz von KI-Systemen bei den Mitarbeiterinnen und Mitarbeitern, sodass die Potenziale der neuen Technologien für alle Beteiligten gemeinsam genutzt und sowohl die Beschäftigten als auch ihre Interessenvertretungen zu Gestaltern des technologischen Wandels gemacht werden können, heißt es in dem Whitepaper.

„Die Einführung von KI-Systemen ist in Unternehmen oft mit Unsicherheiten verbunden. Viele Beschäftigten sorgen sich um ihren Arbeitsplatz oder fürchten, von Maschinen fremdgesteuert und überwacht zu werden. Deshalb ist es wichtig, dass volle Transparenz herrscht und die Beschäftigten von Anfang an in die Ausgestaltung des KI-Einsatzes einbezogen sind“, sagt Mitautor Oliver Suchy, Mitglied des Bundesvorstands des Deutschen Gewerkschaftsbundes DGB und der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme.

Die Einführung von KI steht in vielen Unternehmen noch am Anfang. „Natürlich haben Unternehmen Erfahrung darin, neuen Technologien einzuführen und können sich auf ein vertrautes Instrumentarium zur Gestaltung der Change-Prozesse stützen“, so Mitautor Sascha Stowasser, Direktor des Instituts für angewandte Arbeitswissenschaft ifaa und Mitglied der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion. „Doch beim Einsatz von Künstlicher Intelligenz gibt es einige Besonderheiten zu berücksichtigen. KI-Systeme nutzen große Datenmengen – auch persönliche Daten – und agieren zum Teil sehr autonom. Hier stellen sich ganz neue Fragen, ob etwa Persönlichkeitsrechte beschnitten werden oder wem im Falle eines Fehlers des KI-Systems die Verantwortung dafür zugeschrieben werden kann.“

Vier Phasen einer erfolgreichen Einführung von KI
Damit der Übergang zum KI-unterstützen Arbeiten gelingt, beschreiben die Autoren im Whitepaper vier Phasen, die ein erfolgreiches Change-Management durchlaufen muss. In der Startphase sollten Unternehmen gemeinsam mit den Beschäftigten die Ziele und den Zweck der geplanten KI-Anwendungen festlegen und die möglichen Auswirkungen beispielsweise auf die Vereinbarkeit von Privat- und Berufsleben in den Blick nehmen. Wichtig ist es in dieser Phase auch, die Beschäftigten über die Funktionsweise des KI-Systems aufzuklären, denn ein Grundverständnis der Technologie ist die Basis, um Vertrauen aufzubauen. In der zweiten Phase steht das Design der KI-Systeme selbst im Vordergrund. Hier geht es darum, gemeinsam die Zusammenarbeit mit der KI zu gestalten – von Sicherheit und Datenschutz über die Arbeitsteilung bis hin zur Nachvollziehbarkeit der KI-Entscheidungen.

Die Vorbereitung der KI-Einführung und Implementierung der Systeme sind Teil der dritten Phase. Zentral in dieser Phase ist die Qualifizierung der Mitarbeiterinnen und Mitarbeiter für die neuen Anforderungen. Zudem müssen Organisationsstrukturen und Aufgabenverteilungen im Betrieb angepasst werden. Die Autoren des Whitepapers raten, die KI-Systeme in Pilotprojekten und Experimentierphasen zu testen und Erfahrungen unter Realbedingungen zu sammeln, bevor die Anwendungen flächendeckend realisiert werden. Nach der Einführung der KI-Systeme muss deren Einsatz kontinuierlich überprüft, evaluiert und gegebenenfalls angepasst werden. In dieser letzten Phase des Change-Managements ist es besonders wichtig, die Erfahrungen der Beschäftigten einzubeziehen. Um die Mitwirkung der Beschäftigten langfristig sicherzustellen, schlagen die Autoren einen paritätisch besetzten KI-Rat vor, der die Change-Prozesse dauerhaft begleitet.

Über das Whitepaper
Das Whitepaper „Einführung von KI-Systemen in Unternehmen. Gestaltungsansätze für das Change-Management“ wurde von der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung unter https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…

Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme des Hightech-Forums und acatech gegründet. Sie vereint Expertinnen und Experten aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft aus dem Bereich Künstliche Intelligenz. In Arbeitsgruppen entwickeln sie Handlungsoptionen und Empfehlungen für den verantwortlichen Einsatz von Lernenden Systemen. Ziel der Plattform ist es, als unabhängiger Makler den gesellschaftlichen Dialog zu fördern, Kooperationen in Forschung und Entwicklung anzuregen und Deutschland als führenden Technologieanbieter für Lernende Systeme zu positionieren. Die Leitung der Plattform liegt bei Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident acatech).

Weitere Informationen:
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…

Quelle: IDW
(nach oben)


Mit Methan als Nahrungsquelle setzen Bakterien giftiges Arsen frei

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam der Universität Tübingen entdeckt bisher unbekannten Mechanismus, der in Vietnam eine wichtige Rolle bei der natürlichen Verunreinigung des Grundwassers spielt

Giftiges Arsen belastet großflächig Flüsse und Grundwasser in vielen südostasiatischen Ländern wie Bangladesch und Vietnam. Es wird durch die Aktivität von Mikroorganismen freigesetzt, über deren Nahrungsquellen jedoch bisher wenig bekannt war. Ein Team aus der Geomikrobiologie der Universität Tübingen unter der Leitung von Professor Andreas Kappler wies kürzlich nach, dass die Arsen freisetzenden Bakterien ihre Nahrung in den tieferen Bodenschichten finden und nicht von der Wasseroberfläche zum Beispiel aus Algen oder Pflanzen beziehen. Nun entdeckte das Team, dass neben den an Sedimenten abgelagerten organischen Stoffen Methangas als Nahrungsquelle eine wichtige Rolle bei der Freisetzung des Arsens durch Bakterien spielt. Damit lässt sich die hohe Ar-senkonzentration des Wassers in vielen Gebieten Südostasiens besser als bisher erklären. Die neue Studie erscheint in der Fachzeitschrift Nature Communications Earth & Environment.

Arsenhaltige Eisenminerale, die ursprünglich aus den Bergen des Himalajas stammen, finden sich heute in den Sedimenten unter der Oberfläche vieler Flussdeltas in Südostasien. Diese Grundwassersedimente beherbergen verschiedene Verbände von Mikroorganismen, die das giftige Arsen durch Auflösung der Eisenminerale abgeben. „Nach unserer vorherigen Studie gingen wir davon aus, dass sie Stoffwechsel und Wachstum durch organische Ablagerungen an den Sedimenten aufrechterhalten“, sagt die Doktorandin Martyna Glodowska.

Hohe natürliche Gaskonzentration
Versuchsgebiet ist ein mit Arsen verseuchtes Grundwassersystem in Van Phuc, einem Dorf 15 Kilometer südöstlich von Hanoi in Vietnam. „Dort konnten wir eine hohe Konzentration von Methan beobachten, das von Mikroorganismen produziert wird. An manchen Stellen ist die Methankonzentration so hoch, dass das Gas aus dem Wasser an die Oberfläche sprudelt“, berichtet Andreas Kappler. Methan bildet den Hauptbestandteil von Erdgas und wird als Biogas in Industrie und Haushalten vielfach zur Energiegewinnung eingesetzt. „Das brachte uns auf die Idee, dass auch die Arsen freisetzenden Mikroorganismen es nutzen könnten“, berichtet Glodowska, die Erstautorin der neuen Studie.

Mithilfe von Experimenten im Tübinger Labor, bei denen dem Sediment aus Vietnam Methan zugesetzt wurde, konnte das Forschungsteam diese Annahmen bestätigen. „Damit haben wir einen Mechanismus entdeckt, über den es zur Arsenanhäufung kommen kann“, sagt Kappler. „Unter der Wasseroberfläche produzieren Mikroorganismen Methan, das anderen Mikroben, sogenannten Methanfressern, die Energie liefert, um die Eisenminerale aufzulösen und dabei Arsen abzuscheiden.“

Eine vergleichende Analyse von Wassersystemen weltweit offenbarte, dass viele von ihnen große Mengen Methan wie auch eine weite Verbreitung von Methan erzeugenden und verbrauchenden Mikroorganismen aufweisen. „Daher könnte die Mobilisierung von Arsen durch Methan fressende Bakterien ein wichtiger Mechanismus für die Arsenverseuchung zahlreicher Gebiete sein“, sagt der Wissenschaftler. Ein wichtiger Schritt sei getan mit der Identifizierung von Methan als Nahrungsquelle, meint auch Glodowska. Nun müsse erhoben werden, welchen Umfang dieser Weg der Ar-senanhäufung unter natürlichen Bedingungen annimmt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Kappler
Universität Tübingen
Mathematisch-Naturwissenschaftliche Fakultät
Zentrum für Angewandte Geowissenschaften
Telefon +49 7071 29-74992
andreas.kappler@uni-tuebingen.de

Originalpublikation:
Glodowska, M., Stopelli, E., Schneider, M., Rathi, B., Straub, D., Lightfoot, A., Kipfer, R., Berg, M., Advects, Jetten, M., Kleindienst, S., Kappler, A. (2020) Arsenic mobilization in groundwater driven by microbial iron-dependent anaerobic oxidation of methane. Nature Communications Earth & Envi-ronment, https://doi.org.10.1038/s43247-020-00037-y.

Quelle: IDW
(nach oben)


Persönlicher Datenschutz in der Industrie 4.0: Sicherstellen der Mitarbeiter*innen-Privacy bei Tracking-Technologien

Mag. Mark Hammer Marketing und Unternehmenskommunikation
Fachhochschule St. Pölten
Immer mehr Unternehmen verfolgen in der digitalisierten Produktion automatisch die Position und die Zustände von Produktionsmitteln im Betrieb – und können mit der Technik auch die Position der Mitarbeiter*innen erfassen. Das kann die Arbeitssicherheit erhöhen, wirft aber auch Fragen zum Umgang mit persönlichen Daten auf. Ein von der Arbeiterkammer Niederösterreich finanziertes Projekt der Fachhochschule St. Pölten gemeinsam mit der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA untersucht, wie die Privatsphäre der Mitarbeiter*innen beim Einsatz von solchen Systemen geschützt werden kann.

Im Zuge der digitalen Vernetzung in der Industrie 4.0 werden Tracking-Systeme immer bedeutender. Sie erfassen mittels Funktechnologien wie WLAN, Bluetooth oder RFID die Position von Gegenständen im Betrieb, etwa von Transportmitteln, Werkzeugen und Ladungsträgern wie Paletten und Gitterboxen. Damit lassen sich Produktionsabläufe besser nachverfolgen.

„Das Aufzeichnen und Nutzen echtzeitnaher Positions- und Zustandsdaten – sogenanntes ‚Asset Tracking‘ – ist in vielen Industriezweigen bereits Standard. Der Einsatz dieser Nachverfolgungssysteme wird in Zukunft sicher noch häufiger werden“, erklärt Christian Jandl, Forscher am Institut für Creative\Media/Technologies der FH St. Pölten.

Die eingesetzte Technik ermöglicht aber auch neue Wege zum Erfassen und Auswerten des zeitlichen Positionsverlaufes von Mitarbeiter*innen, sogenanntes Mitarbeiter*innen-Tracking. Das kann einerseits aktiv geschehen, um die Arbeitssicherheit an gefährlichen Arbeitsplätzen zu erhöhen oder um Mitarbeiter*innen im Falle eines Unfalls zu lokalisieren. Die Systeme könnten aber auch passiv Positionsdaten von mobilen Geräten der Mitarbeiter*innen wie Smartphones und Smartwatches ohne deren Zustimmung ermitteln.

Private Daten schützten und nur mit Zustimmung abfragen

„Daten zum Standort der Mitarbeiterinnen und Mitarbeiter sind sensible Informationen. Aus Sicht der Privacy sollten die Informationen nur bei Zustimmung durch und Mehrwert für die betroffenen Personen erhoben werden“, sagt Thomas Moser, Leiter der Forschungsgruppe Digital Technologies am Institut für Creative\Media/Technologies der FH St. Pölten.

Das Forschungsprojekt „SensiTrack – Tracking vs. Privacy in der Arbeitswelt 4.0“ untersucht vor allem zwei Fragen: Wie kann gewährleistet werden, dass die Nutzung von Lokalisierungsdiensten keine Datenschutzprobleme verursacht, und welche Maßnahmen ermöglichen, die positiven Aspekte der neuen Technologie sinnbringend für Arbeitgeber*innen und Arbeitnehmer*innen einzusetzen.

Test in Pilotfabrik und Workshops für Unternehmen und Betriebsräte

Das Projekt entwickelt Maßnahmen, die es ermöglichen sollen, die positiven Aspekte der Technologie hinsichtlich der Arbeitssicherheit zu unterstützen, aber das Potenzial zur Überwachung der Arbeitnehmer*innen bewusst einzuschränken. Das betrifft Maßnahmen im Bereich der Speicherung und Verarbeitung von Daten, aber auch die Einführung neuer Prozesse in den Betrieben.

„Mitarbeiter*innen-Tracking ist als Balanceakt zu sehen und erfordert großes Vertrauen seitens der Mitarbeiter*innen und größtmögliche Transparenz auf Seiten der Arbeitgeber*innen“, bemerkt Martina Hartner-Tiefenthaler vom Institut für Managementwissenschaften an der TU Wien. Daher untersucht das Projektteam, welche Einflussfaktoren es auf die Akzeptanz der Mitarbeiter*innen beim Einsatz von Trackingsystemen gibt und wie vertrauenswürdige Tracking-Systeme aussehen können. So können Richtlinien für Unternehmen formuliert werden, die Arbeitgeber*innen und Arbeitnehmer*innen für das Thema sensibilisieren.

Vor Kurzem nahmen 80 Testpersonen an einem Experiment in der Pilotfabrik der TU Wien in der Seestadt Aspern im Rahmen des Projekts teil. Die Ergebnisse des Tests werden nach der Auswertung der Arbeiterkammer Niederösterreich zur Verfügung gestellt, zum Beispiel in Workshops mit Betriebsräten. Geplant sind die Workshops im Frühjahr 2021.

Projekt Sensitrack
Die FH St. Pölten führt das Projekt gemeinsam mit dem Institut für Managementwissenschaften der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA durch. Finanziert wird das Projekt von der AK Niederösterreich über den Projektfonds Arbeit 4.0.
https://research.fhstp.ac.at/projekte/sensitrack-tracking-vs-privacy-in-der-arbe…

Über die Fachhochschule St. Pölten
Die Fachhochschule St. Pölten ist Anbieterin praxisbezogener und leistungsorientierter Hochschulausbildung in den sechs Themengebieten Medien & Wirtschaft, Medien & Digitale Technologien, Informatik & Security, Bahntechnologie & Mobilität, Gesundheit und Soziales. 25 Studiengänge und zahlreiche Weiterbildungslehrgänge bieten ca. 3400 Studierenden eine zukunftsweisende Ausbildung. Neben der Lehre widmet sich die FH St. Pölten intensiv der Forschung. Die wissenschaftliche Arbeit erfolgt zu den oben genannten Themen sowie institutsübergreifend und interdisziplinär. Die Studiengänge stehen in stetigem Austausch mit den Instituten, die laufend praxisnahe und anwendungsorientierte Forschungsprojekte entwickeln und umsetzen.

Informationen und Rückfragen:
Mag. Mark Hammer
Fachverantwortlicher Presse
Marketing und Unternehmenskommunikation
T: +43/2742/313 228 269
M: +43/676/847 228 269
E: mark.hammer@fhstp.ac.at
I: https://www.fhstp.ac.at/de/presse

Pressetext und Fotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse.
Allgemeine Pressefotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse/pressefotos-logos.

Die FH St. Pölten hält ausdrücklich fest, dass sie Inhaberin aller Nutzungsrechte der mitgesendeten Fotografien ist. Der Empfänger/die Empfängerin dieser Nachricht darf die mitgesendeten Fotografien nur im Zusammenhang mit der Presseaussendung unter Nennung der FH St. Pölten und des Urhebers/der Urheberin nutzen. Jede weitere Nutzung der mitgesendeten Fotografien ist nur nach ausdrücklicher schriftlicher Zustimmung (Mail reicht aus) durch die FH St. Pölten erlaubt.

Natürlich finden Sie uns auch auf Facebook und Twitter:
https://www.facebook.com/fhstp, https://twitter.com/FH_StPoelten.

Quelle: IDW
(nach oben)


Von der Stickstoffkrise zur Phosphatkrise? Internationales Forschungsteam fordert europaweite Phosphatrichtlinie

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Durch eine europaweite Nitrat-Richtlinie will die EU Stickstoffemissionen in der Umwelt reduzieren. Es wird angenommen, dass dies gleichzeitig viele gefährdete Pflanzenarten schützen könnte, von denen viele unter hohen Nährstoffkonzentrationen in der Umwelt leiden. Aber gerade die Nitrat-Richtlinie der EU könnte dazu führen, dass viele der seltenen und bedrohten Pflanzenarten besonders leiden. Das hat ein internationales Forschungsteam der Universitäten Göttingen, Utrecht und Zürich herausgefunden. Ihre Studie wurde in der internationalen Zeitschrift Nature Ecology and Evolution veröffentlicht.

(pug) Stickstoff ist ein wichtiger Nährstoff für Pflanzenarten, aber ein Übermaß an Stickstoff kann schädlich für die Artenvielfalt sein. Das liegt daran, dass die Pflanzenarten, die mit viel Stickstoff gedeihen können, andere Arten verdrängen können, die an niedrige Stickstoffkonzentrationen angepasst sind. „Aber es reicht nicht aus, nur den Stickstoff zu reduzieren“, sagt Koautor Julian Schrader, wissenschaftlicher Mitarbeiter in der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen. „Eine solche Politik kann sogar kontraproduktiv für den Schutz bedrohter Pflanzenarten sein, wenn man nicht auch andere Nährstoffe mit einbezieht.“

Neben Stickstoff benötigen Pflanzen für ihr Wachstum unter anderem auch Phosphor und Kalium. Entscheidend dafür sind die Proportionen dieser Nährstoffe im Boden. Die Forscher stellten fest, dass, wenn die Stickstoffkonzentration im Boden reduziert wird, ohne die Phosphorkonzentration zu verringern, genau die Pflanzenarten nicht mehr vorkommen, die bedroht sind.

„Viele gefährdete Pflanzenarten in Europa kommen an Orten vor, an denen die Phosphorkonzentration niedrig ist“, erläutert Schrader. Aufgrund der Tatsache, dass die relative Konzentration von Phosphor zunimmt, wenn die Stickstoffkonzentrationen infolge einer wirksamen Politik abnehmen, geraten diese Arten unter Druck. Die gefährdeten Arten reagieren besonders empfindlich auf Veränderungen der Nährstoffkonzentrationen und sollten nach Ansicht der Forscher stärker geschützt werden.

Die Ergebnisse dieser Forschung haben erhebliche Konsequenzen für die aktuelle Stickstoffpolitik: Die Autoren plädieren daher für die Einführung einer europäischen Phosphat-Richtlinie zusätzlich zur bereits bestehenden Nitrat-Richtlinie.

Wissenschaftliche Ansprechpartner:
Julian Schrader
Georg-August-Universität Göttingen
Abteilung Biodiversität, Makroökologie und Biogeographie
E-Mail: jschrad@uni-goettingen.de
Internet: http://www.uni-goettingen.de/en/128741.html

Originalpublikation:
Wassen, M. J., Schrader, J., Van Dijk, J., Eppinga, M. B. (2020) Phosphorus fertilization is eradicating the niche of northern Eurasia’s threatened plant species. Nature Ecology and Evo-lution (2020). doi: 10.1038/s41559-020-01323-w

Quelle: IDW
(nach oben)


Weltdiabetestag am 14. November: Neue Angebote auf http://www.diabinfo.de

Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
In Deutschland leben rund sieben Millionen Menschen mit Diabetes mellitus. Im Jahr 2040 könnten sogar bis zu 12 Millionen Menschen von Typ-2-Diabetes betroffen sein. Die Erkrankung entsteht meist schleichend und kann über Jahre völlig symptomlos bleiben. Umso wichtiger ist es, die Bevölkerung über Risiken und Präventionspotenziale zu informieren. Das durch die BZgA initiierte unabhängige Diabetesinformationsportal http://www.diabinfo.de bietet qualitätsgesicherte und wissenschaftlich fundierte Informationen – und dies nun auch in türkischer Sprache. Angebote in weiteren Sprachen sind in Vorbereitung.

Prof. Heidrun Thaiss, Leiterin der Bundeszentrale für gesundheitliche Aufklärung: „Diabetes Typ 2 ist eine schleichende Erkrankung mit hohem präventivem Potenzial, das man kennen sollte. Deshalb freuen wir uns, unser Internetangebot stetig zu erweitern. Typ-2-Diabetes trifft viele Menschen oft wie aus dem Nichts. Neben Übergewicht, Bewegungsmangel und ungesunder Ernährung als Risikofaktoren kann Typ-2-Diabetes auch eine genetische Komponente haben. Anlässlich des Weltdiabetestages machen wir deshalb bundesweit über Anzeigenmotive auf die Krankheit aufmerksam und ermutigen dazu, das eigene Diabetes-Risiko mithilfe eines Online-Tests auf diabinfo zu ermitteln und im Verdachtsfall ärztlichen Rat einzuholen.“

Das Portal enthält zudem umfassende Informationen rund um das Coronavirus mit Relevanz für Menschen mit Diabetes und deren Angehörige. In einem neuen Unterportal finden nun auch Diabetesberaterinnen und -berater praxisnahe Inhalte zu Bewegung, Ernährung, Diabetes in verschiedenen Lebensabschnitten und anderen Kulturkreisen. Weitere Informationen wie Adressen von Fachärzten und Fachärztinnen, Fachkliniken, Ernährungsberatung, Selbsthilfegruppen und Präsentationsvorlagen bieten Unterstützung für die tägliche Beratungsarbeit.

Prof. Matthias Tschöp, Wissenschaftlicher Geschäftsführer des Helmholtz Zentrums München: „Wir forschen für eine Welt ohne Diabetes. Dafür müssen Krankenversorgung, Prävention und Forschung Hand in Hand gehen. Als eines der weltweit größten Diabetesforschungszentren stellen wir uns mit diabinfo unserer gesellschaftlichen Aufgabe und unterstützen mit unserem Wissen Menschen im eigenverantwortlichen Umgang mit ihrer Erkrankung.“

Prof. Michael Roden, Wissenschaftlicher Direktor des Deutschen Diabetes-Zentrums und Vorstand des Deutschen Zentrums für Diabetesforschung: „Wir haben zum Ziel, die Vorsorge und Versorgung bei Diabetes an die individuellen Bedürfnisse der Betroffenen, ihrer Angehörigen, aber auch aller Interessierten anzupassen. Das bedarf nicht nur modernster klinischer Forschung, für die wir am DDZ stehen, sondern auch gezielter Information mit neuen Formaten wie diabinfo, das die Kommunikation in der Gesellschaft zu Diabetes weiter erleichtern wird.“

Prof. Martin Hrabě de Angelis, Vorstand und Sprecher des Deutschen Zentrums für Diabetesforschung: „Im nächsten Schritt werden wir im Fachkreiseportal auch fachspezifische Angebote für Ärztinnen und Ärzte bereitstellen und werden die aktuellen Ergebnisse aus der Forschung miteinbinden.“

Die Informationen auf http://www.diabinfo.de richten sich an Menschen mit Diabetes, an Menschen mit einem besonderen Diabetes-Risiko sowie an deren Angehörige, Diabetesberatende und an thematisch Interessierte. Neben Basiswissen, aktuellen Meldungen, Hintergrundartikeln und häufig gestellten Fragen beinhaltet das Onlineportal Erklärvideos, Podcasts, Infografiken und Quiz. Für Lehrkräfte stehen Unterrichtsmaterialien zum kostenlosen Download bereit. Zudem besteht die Möglichkeit, persönliche Fragen zu stellen, die von Expertinnen und Experten individuell beantwortet werden. diabinfo wird maßgeblich durch die BZgA finanziert und von den führenden Zentren der Diabetesforschung in Deutschland angeboten und regelmäßig aktualisiert – dem Helmholtz Zentrum München, dem Deutschen Diabetes-Zentrum (DDZ) und dem Deutschen Zentrum für Diabetesforschung (DZD).

Weitere Informationen: http://www.diabinfo.de

Quelle: IDW
(nach oben)


Mit Nelkenöl und Kupfermünzen gegen die Asiatische Buschmücke

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Immer öfter finden sich exotische Stechmücken in Deutschland, die potentiell Krankheiten übertragen. In Zukunft werden daher mehr Kontrollmittel gegen die potentiellen Krankheitsüberträger notwendig sein. Experimente von Senckenberg-Wissenschaftler*innen zeigen, dass ätherisches Nelkenöl und Kupfermünzen sich dazu eignen könnten. Eine Befragung durch Forscher*innen des ISOE-Institut für sozialökologische Forschung ergab, dass potenzielle Nutzer*innen diese Mittel lieber verwenden würden als ein herkömmliches Insektizid. In der Entwicklung neuer Insektizide sollte die Ansicht potentieller Anwender*innen unbedingt beachtet werden, schreibt das Team aktuell im Fachmagazin ‚Scientific Reports‘.

Stechmücken sind selten beliebt. Insbesondere exotische Vertreter dieser Insektenart sind hierzulande unerwünscht. Solche Stechmücken breiten sich aber zunehmend durch Globalisierung und Klimawandel in Deutschland aus – und zusätzlich werden auch durch Stechmücken übertragene Viren häufiger. Die Asiatische Buschmücke Aedes japonicus japonicus beispielsweise kommt als Überträgerin der Japanischen Enzephalitis-Viren und des West-Nil-Virus sowie der Erreger des Dengue-Fiebers und des Chikungunya-Fiebers infrage.

„Um zu verhindern, dass diese Stechmücken Krankheiten übertragen, kann es in Zukunft notwendig sein, sie zu kontrollieren, also ihre Anzahl zu verringern. Für die Kontrolle der Larven, ist für Privatleute bisher nur der Wirkstoff Bacillus thuriengiensis israelensis (Bti) verfügbar. Er gilt als spezifisch, ist aber umstritten, da es Anzeichen gibt, dass damit andere Tiere, zum Beispiel für die Nahrungskette wichtige Mücken, ebenfalls abgetötet werden. Zusätzliche Mittel sind daher dringend notwendig“, so Dr. Friederike Reuss, Senckenberg Biodiversität und Klima Forschungszentrum.

Ein Team um Reuss testete daher in einem Freilandexperiment, wie gut ätherisches Nelkenöl und Kupfer in Form von Kupferband gegen die Eiablage der Asiatischen Buschmücke in stehenden Gewässern wirkt. Zusätzlich prüften die Forscher*innen im Labor, wie giftig kupferhaltige Ein-, Zwei- und Fünf-Cent Stücke und Nelkenöl für die Larven der Stechmücken sind.

Reuss erläutert: „Nelkenöl verhindert die Eiablage von Aedes japonicus – die deutschlandweit am großflächigsten verbreitete exotische Stechmücke – beträchtlich. Ein Gramm Nelkenöl in einem Becher reicht aus, um die Eiablage darin auf ein Zehntel zu reduzieren. Zudem ist Nelkenöl giftig und tötet die Larven vollständig ab. Aus Eurocent-Münzen gelöstes Kupfer ist etwas weniger effizient gegen die Larven, aber dennoch wirksam. Die beiden natürlichen Mittel würden sich daher zur Eindämmung einer Population Asiatischer Buschmücken eignen.“

Die Asiatische Buschmücke brütet bevorzugt in der Nähe von Siedlungen. Dort bieten selbst kleine Wasserflächen in Regentonnen, Untersetzern und Vasen in Privatgärten und auf Friedhöfen den Stechmücken beste Bedingungen. „Um die Stechmücken kontrollieren zu können, ist es deshalb wichtig, dass die Bevölkerung aktiv mithilft und die Mittel auch wirklich im eigenen Garten anwendet“, sagt Dr. Marion Mehring vom ISOE-Institut für sozial-ökologische Forschung.

ISOE-Forscher*innen unter der Leitung von Mehring haben mehr als 400 Gartennutzer*innen und Grabpfleger*innen aus Hessen, Baden-Württemberg und Rheinland-Pfalz telefonisch zu diesem Thema befragt. Überraschenderweise lehnt die Mehrheit der Befragten den gut etablierten Wirkstoff Bti ab. „Potenzielle Anwender*innen würden bevorzugt kupferhaltige Eurocent-Münzen und ätherische Öle zur Eindämmung von Stechmücken anstelle von Bti anwenden. Am liebsten würden die Befragten Kupfermünzen, die praktisch alle besitzen, benutzen“, so Mehring. Sehr viele der Befragten sind zudem bereit, präventive Maßnahmen, wie das Abdecken von Regentonnen in ihrem Alltag umzusetzen.

Die interdisziplinäre Zusammenarbeit mit der Kombination ökologischer und sozialwissenschaftlicher Forschung hat sich gelohnt: Mit Nelkenöl und Kupfermünzen konnten die Forscher*innen zwei von Anwender*innen akzeptierte Mittel zur Kontrolle von Asiatischen Buschmücken identifizieren, die nun weiterentwickelt werden können.

Die Studie ist Teil des Forschungsprojektes AJAP II zur Entwicklung umweltfreundlicher Maßnahmen zur Kontrolle der Asiatischen Buschmücke. Dazu kooperieren das Senckenberg Biodiversität und Klima Forschungszentrum, das ISOE-Institut für sozial-ökologische Forschung und das Institut für Arbeitsmedizin, Sozialmedizin und Umweltmedizin der Goethe-Universität Frankfurt am Main. Das Projekt wird vom Fachzentrum Klimawandel und Anpassung des Hessischen Landesamtes für Naturschutz, Umwelt und Geologie (HLNUG) gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Friederike Reuss
Senckenberg Biodiversität und Klima Forschungszentrum
friederike.reuss@senckenberg.de

Dr. Marion Mehring
ISOE-Institut für sozialökologische Forschung &
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69 7076919 39
mehring@isoe.de

Originalpublikation:
Reuss, F. et al (2020): Knowledge on exotic mosquitoes in Germany, and public acceptance and effectiveness of Bti and two self prepared insecticides against Aedes japonicus japonicus. Scientific Reports, doi: 10.1038/s41598-020-75780-5

Quelle: IDW
(nach oben)


Pressemeldung: „Arbeitswelt nicht nur punktuell reformieren, sondern umfassend nachhaltig transformieren!“

Bastian Strauch Presse- und Öffentlichkeitsarbeit
Wissenschaftsplattform Nachhaltigkeit 2030
Die Wissenschaftsplattform Nachhaltigkeit 2030 (wpn2030) hat ein Empfehlungspapier an die Bundesregierung zur Förderung nachhaltiger Arbeit veröffentlicht.

„Auch in Sachen Arbeitswelt stehen wir vor gewaltigen Gestaltungsaufgaben, damit eine nachhaltigen Entwicklung gelingt – und die Corona-Krise führt uns einmal mehr die Dringlichkeit vor Augen“, betonen Univ.-Prof. Marion A. Weissenberger-Eibl (Fraunhofer ISI & KIT) und Prof. Stephan Lessenich (LMU München), die eine transdisziplinäre Arbeitsgruppe zur Erstellung des Papiers geleitet haben. „Wichtig wird dabei insbesondere sein, die Arbeitswelt nicht nur punktuell zu reformieren, sondern umfassend und nachhaltig zu transformieren – so dass das Soziale, Wirtschaftliche und Ökologische zukünftig wie selbstverständlich zusammen gedacht und gestaltet werden.“

Eine Transformation hin zu einer nachhaltigen Arbeitswelt sei dringend geboten, um sozialen, wirtschaftlichen und ökologischen Schieflagen und der Überausbeutung von Arbeit und Natur langfristig und global entgegenwirken zu können. Der Weg dorthin sei aber noch weit, denn: „Punktuelle Ansätze sind zwar vielerorts vorhanden und auch teilweise erfolgreich. Für weitreichende Effekte allerdings mangelt es an umfassenden konzeptionellen Grundlagen zur Gestaltung einer nachhaltigen Arbeitswelt“, so Marion A. Weissenberger-Eibl.

In ihrem Papier beleuchtet die Arbeitsgruppe der wpn2030 unter anderem den Status von Arbeit und langfristige Trends in der Arbeitswelt. „In gewisser Hinsicht leben wir mitunter noch im 19. Jahrhundert“, so Stephan Lessenich, „denn unsere Vorstellungen und Konzepte davon, was ‚gute Arbeit‘ ausmachen sollte, hängen noch stark an den klassischen industriellen Arbeitsverhältnissen und passen nur noch unzureichend zu den Realitäten, Tendenzen und Anforderungen des 21. Jahrhunderts.“ Unterbelichtet seien insbesondere neue Arbeitsformen und Trends wie etwa Solo-Selbständige, Sub-Unternehmer*innen oder digital arbeitende Click- und Crowdworker*innen. Ebenso die engen globalen Zusammenhänge wie etwa der Zugriff auf billige Arbeit in anderen Weltregionen, oftmals mit zerstörerischen sozialen und ökologischen Folgen, und nicht zuletzt die anhaltende und sich verschärfende Ausbeutung und nicht-nachhaltige Nutzung natürlicher Ressourcen. Lessenich: „All das sind sehr wirkmächtige, längst existente und miteinander verbundene Faktoren unserer heutigen Arbeitswelt, die wir mit einbeziehen müssen, um zu einem zeitgemäßen Bild von guter – und eben nachhaltiger – Arbeit zu kommen. Und das brauchen wir, damit es gesellschaftliche Gestaltung und politische Entscheidungen anleiten kann.“ Falls dies ausbleibe, laufe man Gefahr, dass sich soziale, wirtschaftliche und ökologische Schieflagen weiter verschärfen.

In ihrem Impulspapier präsentiert die wpn2030 erste Vorschläge für Gütekriterien nachhaltiger Arbeit, die in einem gesamtgesellschaftlichen Dialog aufgegriffen und weiter konkretisiert werden sollten. Diese Gütekriterien zielen auf die engere Verzahnung der Arbeitswelt mit Zielen nachhaltiger Entwicklung: „Innovationen werden bei all dem eine zentrale Rolle spielen. Ihre Beiträge für nachhaltige Entwicklung und ihr nachhaltiger Einsatz werden dabei entscheidend sein“, so Weissenberger-Eibl. Digitale Technologien können einerseits zu einer Entgrenzung von Arbeit beitragen, bergen aber auch große Chancen für beispielsweise soziale Innovationen, die zu nachhaltigeren Arbeitswelten beitragen können.

Neben konzeptionellen Weiterentwicklungen bedürfe es dringend auch struktureller Veränderungen. „Nachhaltige Arbeit muss zu einem politischen Querschnittsthema gemacht werden – mehr Ressorts als bisher müssen für die Gestaltung zusammenkommen“, so Lessenich. Mit der Deutschen Nachhaltigkeitsstrategie liege auch bereits ein Rahmen vor, in dem dies stärker als bislang politisch zusammengedacht werden könne. Dieser Rahmen müsse aber deutlich intensiver genutzt werden.

„Auch müssen wir in Deutschland den gesellschaftlichen Dialog zu Arbeit und Nachhaltigkeit intensiver führen“, so Weissenberger-Eibl. „Die Aufgabe, zu einer nachhaltigen Arbeitswelt zu kommen, ist riesig und sie betrifft uns alle – auf unterschiedlichsten Ebenen. Wir müssen also endlich zusammenkommen und darüber sprechen. Wir dürfen das Möglichkeitsfenster, das uns die Erfahrungen aus der Corona-Krise eröffnet, nicht ungenutzt lassen.“

Die wpn2030 ist ein zentraler Ort der Wissenschaft, an dem sie drängende Fragen der Nachhaltigkeitspolitik diskutiert – im Austausch mit Politik, Wirtschaft und Gesellschaft.

Das Empfehlungspapier zum Download: https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…

Weitere Informationen: http://www.wpn2030.de

Kontakt:
Bastian Strauch, Pressereferent wpn2030
bastian.strauch@iass-potsdam.de
0331 2882 2319

Weitere Informationen:
https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…
http://www.wpn2030.de

Anhang
Wege zu einer nachhaltigen Arbeitswelt
https://idw-online.de/de/attachment81179

Quelle: IDW
(nach oben)


Schwangerschaft: Umgebungstemperatur beeinflusst den Stoffwechsel der Nachkommen

Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck
Studie mit hoher Relevanz angesichts des bevorstehenden Klimawandels – Verändertes Muskelwachstum durch epigenetische Modifikationen an der fötalen DNA – Wahrscheinlich durch spätere Lifestyle-Änderungen wie Sport und Bewegung reversibel

Bereits geringe Veränderungen der Außentemperatur während der Schwangerschaft können den Stoffwechsel (Metabolismus) der Nachkommen nachhaltig verändern – diesen bislang nicht bestätigten Zusammenhang hat ein Lübecker Forscherteam um Dr. Rebecca Ölkrug und Prof. Jens Mittag nun genauer untersucht.

Es ist schon lange etabliert, dass bereits im Mutterleib der Grundstein dafür gelegt wird, ob man später eine erhöhte Prädisposition für eine metabolische oder endokrinologische Erkrankung aufweist. Dies geschieht über sogenannte epigenetische Veränderungen am fötalen Erbgut, welche maßgeblich über Lifestylefaktoren und Umwelteinflüsse während der Schwangerschaft programmiert werden. Natürlicherweise ermöglicht dieser Mechanismus es Säugetieren, flexibel auf ihre Umwelt zu reagieren und je nach Bedarf z.B. Stoffwechselwege in der nachfolgenden Generation zu optimieren.

Im Menschen sind diese Einflüsse aber oft von den tatsächlichen Bedingungen entkoppelt, so dass die Nachkommen nicht optimal an ihre Umweltbedingungen angepasst sind und daher für metabolische Erkrankungen anfälliger werden. Ein prominentes Beispiel dafür ist, dass übergewichtige Mütter oft Kinder bekommen, die ebenfalls anfällig für die Entwicklung von Übergewicht werden. Die vorliegende Studie, die nun in der renommierten Zeitschrift Cell Reports veröffentlich wurde, untersucht zum ersten Mal, inwieweit die Umgebungstemperatur in der Schwangerschaft Einfluss auf diese fötale metabolische Programmierung der Nachkommen hat.

„Erstaunlicherweise hatte eine kältere Außentemperatur in der Schwangerschaft nicht nur Einfluss auf die spätere Größe der Nachkommen, sondern reduzierte auch ihr Muskelwachstum und könnte somit die Entstehung von Typ II Diabetes begünstigen“, erklärt Prof. Jens Mittag, einer von zwei Direktoren des neu gegründeten Instituts für Endokrinologie und Diabetes der Universität zu Lübeck. Aber laut der Erstautorin der Studie, Dr. Rebecca Ölkrug, die gerade selbst im achten Monat schwanger ist, besteht kein Grund zur Panik. „Die von uns dokumentierten Veränderungen im Muskelwachstum und Stoffwechsel bei den Nachkommen konnten durch ausreichend Bewegung im Erwachsenenalter rückgängig gemacht werden.“

Die Forscher gehen davon aus, dass epigenetische Modifikationen an der fötalen DNA diese Veränderungen im Muskelwachstum hervorgerufen haben und diese durch spätere Lifestyle-Veränderungen wie Sport und Bewegung reversibel sind. „Uns geht es primär darum, mit unserer Forschung Risikofaktoren während der Schwangerschaft aufzudecken. Damit können wir dazu beitragen, die Versorgung von schwangeren Frauen und ihrer ungeborenen Babys so optimal wie möglich zu gestalten“, so Dr. Ölkrug. Da diese Studien im Tiermodell durchgeführt wurden, sind jedoch zunächst größere epidemiologische Langzeitstudien an schwangeren Müttern und ihren Kindern notwendig, um die Übertragbarkeit dieser Beobachtung auf den Menschen zu bestätigen. Angesichts des bevorstehenden Klimawandels dürften diese Studien allerdings von höchster Relevanz sein, nicht nur was metabolische Erkrankungen im Menschen angeht, sondern auch für möglichen Veränderungen in freilebenden oder domestizierten Säugetieren in Freilufthaltung.

Welche Stoffwechselwege oder Hormone sich nun genau bei der Mutter durch die Außentemperatur verändern und zu der epigenetischen Umprogrammierung der Nachkommen beitragen, das wollen die Forscher nun in einer Folgestudie untersuchen, die wie auch die vorliegende Studie von der Deutschen Forschungsgemeinschaft DFG mit einer umfangreichen Sachbeihilfe finanziert wird.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jens Mittag
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 3101 7826
E-Mail: jens.mittag@uni-luebeck.de
http://www.innere1.uni-luebeck.de

Dr. Rebecca Ölkrug
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 31017833
E-Mail: Rebecca.Oelkrug@uksh.de

Originalpublikation:
https://www.cell.com/cell-reports/fulltext/S2211-1247(20)31340-1

Quelle: IDW
(nach oben)


Archiv der Tierwanderungen in der Arktis

Dr. Harald Rösch Abteilung Kommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Ein globales Archiv mit Bewegungsdaten aus über drei Jahrzehnten protokolliert Veränderungen im Verhalten arktischer Tiere

Wärmere Winter, frühere Frühlinge, schrumpfendes Eis und mehr menschliche Aktivitäten – die Arktis durchläuft dramatische Veränderungen, die sich auch auf die einheimische Tierwelt auswirken. Forschende aus der ganzen Welt haben jetzt ein Datenarchiv zur Dokumentation von Tierbewegungen in der Arktis und Subarktis aufgebaut. Das Archiv läuft auf der Movebank-Plattform am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, Deutschland. Mit dem „Arctic Animal Movement Archive“ können Wissenschaftler ihr Wissen austauschen und gemeinsam untersuchen, wie Tiere auf eine sich verändernde Arktis reagieren. Drei neue Studien aus dem Archiv zeigen großräumige Änderungen im Verhalten von Steinadlern, Bären, Karibus, Elchen und Wölfen in der Region. Sie veranschaulichen, wie das Archiv genutzt werden kann, um größere Veränderungen des Ökosystems zu erkennen.

Wissenschaftlerinnen und Wissenschaftler beobachten seit langem die Bewegungen und das Verhalten von Tieren in der Arktis. Es war jedoch schwierig, die Studien dazu ausfindig zu machen und auf sie zuzugreifen. Ein internationales Team unter der Leitung von Sarah Davidson, Datenkuratorin am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, und Gil Bohrer von der Ohio State University haben deshalb ein von der NASA finanziertes globales Datenarchiv für Studien zur Tierwanderung in der Arktis und Subarktis aufgebaut.

Das Arctic Animal Movement Archive soll Wissenschaftler und Wissenschaftlerinnen miteinander vernetzen und ihre Zusammenarbeit fördern. Forschende von über 100 Universitäten, Regierungsbehörden und Naturschutzgruppen aus 17 Ländern sind daran beteiligt. „Mit dem Archiv wollen wir eine globale Forschungsgemeinschaft über Institutionen und politische Grenzen hinweg aufbauen“, sagt Martin Wikelski vom Max-Planck-Institut für Verhaltensbiologie, der die Forschungsplattform Movebank entwickelt hat. Das Archiv enthält derzeit über 200 Forschungsprojekte mit den Bewegungsdaten von mehr als 8.000 Meeres- und Landtieren von 1991 bis heute.

Zugverhalten der Steinadler
Forschende haben nun verschiedene Studien veröffentlicht, die Daten und Fachwissen mithilfe des Archivs zusammenführen. So stellten Wissenschaftler beim Vergleich der Bewegungen von mehr als 100 Steinadlern von 1993 bis 2017 fest, dass junge Adler, die nach milden Wintern nach Norden ziehen, früher in ihren Brutgebieten eintreffen. Die Ankunftszeit der ausgewachsenen Vögel ist jedoch unabhängig von den Bedingungen an ihren Brutplätzen ziemlich konstant geblieben. Dies beeinflusst das Brutgeschäft und das Überleben der Küken. „Unsere Ergebnisse zeigen, dass wir Klimadaten berücksichtigen müssen, die Jahrzehnte umfassen“, sagt Scott LaPoint, Wissenschaftler bei Black Rock Forest.

Eine zweite Studie mit mehr als 900 weiblichen Karibu-Weibchen aus den Jahren 2000 bis 2017 hat ergeben, dass Herden weiter im Norden früher im Frühling gebären, während sich die Geburten der südlicheren Populationen weniger stark verändert haben. „Dass wir die Geburt in einem so großen Maßstab, über Populationen und Unterarten hinweg und über Millionen von Quadratkilometern untersuchen können, ist für eine Tierart in einer so abgelegenen und rauen Umgebung wirklich beispiellos“, erklärt Elie Gurarie von der Universität Maryland.

Unterschiedliche Reaktionen auf den Klimawandel
Eine dritte Analyse, die sich mit den Wanderungsgeschwindigkeiten von Bären, Karibus, Elchen und Wölfen von 1998 bis 2019 befasst, kommt zu dem Schluss, dass die Arten unterschiedlich auf jahreszeitliche Temperaturen und winterliche Schneebedingungen reagieren. „Wie Tiere mit ihren Wanderungen auf veränderliche Wetterbedingungen reagieren, wirkt sich auf den Konkurrenzkampf der Arten und die Räuber-Beute-Dynamik aus“, sagt Peter Mahoney, der seine Untersuchungen an der Universität Washington durchgeführt hat.

Zu den Hunderten von Studien, die bereits im Archiv enthalten sind, kommen immer weitere hinzu. Dies dürfte dazu beitragen, Veränderungen im Verhalten der Tiere und im arktischen Ökosystem zu erkennen. „Darüber hinaus liefern wir eine dringend benötigte Datenbasis früherer Verhaltensweisen und Wanderungen“, sagt Davidson. „Damit lassen sich das Wildtiermanagement verbessern, neue Forschungsfragen beantworten und Veränderungen in der Arktis für zukünftige Generationen dokumentieren.“

Wissenschaftliche Ansprechpartner:
Sarah Davidson
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sdavidson@ab.mpg.de

Prof. Dr. Martin Wikelski
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sknopf@ab.mpg.de

Originalpublikation:
Sarah C. Davidson et al.
Ecological insights from three decades of animal movement tracking across a changing Arctic.
Science; 5 November, 2020 (DOI: 10.1126/science.abb7080)

Weitere Informationen:
https://www.movebank.org/cms/movebank-content/arctic-animal-movement-archive Das Arctic Animal Movement Archive

Quelle: IDW
(nach oben)


COVID-19: Wie hängen Schweregrad der Erkrankung und die Antikörperantwort zusammen?

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Forschungsteams des Paul-Ehrlich-Instituts haben gemeinsam mit Teams des Universitätsklinikums Frankfurt/Main und des Leibniz-Instituts für Primatenforschung, Göttingen, die Antikörperantwort von COVID-19-Patienten in Deutschland untersucht. Ziel war es, neue Erkenntnisse über den Zusammenhang zwischen dem Krankheitsverlauf und der Immunreaktion zu gewinnen und mögliche Schutzkorrelate zu identifizieren, die für die Entwicklung von Impfstoffen und therapeutischen Antikörpern benötigt werden. Die Zeitschrift The Journal of Infectious Diseases berichtet in seiner Online-Ausgabe vom 31.10.2020 über die Ergebnisse der Untersuchung.

Bereits mehr als 47 Millionen Personen haben sich weltweit mit dem Coronavirus SARS-CoV-2 infiziert und rund 1,2 Millionen Todesfälle stehen im Zusammenhang mit einer SARS-CoV-2-Infektion. Die Infektion mit SARS-CoV-2 verläuft bei Betroffenen sehr unterschiedlich. Während ein Teil der Infizierten überhaupt keine Krankheitszeichen entwickelt, erkrankt ein anderer Teil unter Beteiligung unterschiedlicher Organsysteme schwer. Bei knapp zwei Prozent der bestätigten Fälle in Deutschland verläuft die Erkrankung tödlich. Für die Entwicklung wirksamer therapeutischer Maßnahmen ist ein umfassendes Verständnis der Pathogenese von SARS-CoV-2 und der immunologischen Prozesse erforderlich, wodurch auch die unterschiedlichen Krankheitsverläufe erklärbar werden könnten. Neben Prozessen der angeborenen Immunantwort sind vor allem zwei Säulen der erworbenen Immunität von zentraler Bedeutung für die Immunabwehr des Coronavirus SARS-CoV-2: Zum einen die Bildung von spezifischen Antikörpern (Immunglobulinen), die das Virus neutralisieren und inaktivieren können. Diese Immunantwort wird als humorale Immunantwort bezeichnet. Eine weitere Säule ist die Bildung spezifischer Immunzellen (T-Zellen), die zelluläre Immunantwort, die infizierte Zellen abtöten kann.

Forschungsteams des Paul-Ehrlich-Instituts um Prof. Barbara Schnierle, Leiterin des Fachgebiets „AIDS, neue und neuartige Erreger“, und Dr. Heinrich Scheiblauer, stellv. Leiter des Prüflabors für In-vitro-Diagnostika haben gemeinsam mit Wissenschaftlern und Wissenschaftlerinnen des Universitätsklinikums Frankfurt/Main und des Leibniz-Institut für Primatenforschung, Göttingen, die humorale Immunantwort – die Antikörperbildung – in einer Kohorte von 143 COVID-19-Patienten des Universitätsklinikums Frankfurt/Main charakterisiert. Sie wiesen SARS-CoV-2-spezifische Antikörper mittels Enzym-linked Immunosorbent-Assay (ELISA) nach. Die Neutralisierungsaktivität –also die Fähigkeit der Antikörper, die Anbindung des Virus SARS-CoV-2 an die zellulären ACE2-Rezeptoren und damit die Infektion neuer Zellen zu neutralisieren – wurde mit sogenannten pseudotypisierten lentiviralen Vektoren analysiert. Dabei handelt es sich um vermehrungsunfähige Viruspartikel, die mit dem Spikeprotein des SARS-CoV-2-Virus bestückt sind und wie CoV-2 an die ACE2-Rezeptoren binden können.

Rund drei Viertel der 143 COVID-19-Patienten hatten eine leichte Erkrankung. Bei älteren Patienten, insbesondere bei Männern, traten jedoch häufiger schwere Fälle auf. Der klinische Schweregrad der Erkrankung war positiv korreliert mit dem Spiegel (Titer) SARS-CoV-2-neutralisierender Antikörper in den Serumproben der Patienten. Darüber hinaus korrelierten die Spiegel bestimmter Antikörper, die Immunglobuline (Ig) IgG und IgA, die gegen das SARS-CoV-2-Spikeprotein oder die Rezeptorbindungsdomäne (RBD) im Spikeprotein gerichtet waren, mit der Schwere der Erkrankung. Bei den Patienten mit einem klinisch weniger schweren Verlauf wurde eine Abnahme der IgG-Antikörper-Spiegel in später entnommenen Blutproben festgestellt.

Insgesamt waren die neutralisierenden Antikörpertiter von Patientinnen und Patienten mit leichter Erkrankung sehr niedrig. Höhere Titer wurden nur bei Patientinnen und Patienten mit schwerer Erkrankung festgestellt. Dies bestätigt früher berichtete Beobachtungen, dass die meisten rekonvaleszenten Plasmaproben von Personen, die sich von COVID-19 erholt haben, keine hohe neutralisierende Aktivität aufweisen.

Immer wieder wird die Möglichkeit einer Kreuzprotektivität diskutiert: Gemeint ist, dass ein früherer Kontakt mit verwandten harmloseren Coronaviren des Menschen dafür sorgen könnten, dass das Immunsystem besser für eine SARS-CoV-2-Infektion gewappnet sein könnte. Das humane Coronavirus NL63 (HCoV-NL63) wurde erstmalig 2004 beschrieben und verursacht leichte bis mittelschwere Atemwegsinfektionen. Serologische Daten über NL63-Infektionen liegen hauptsächlich von Kindern vor und weisen darauf hin, dass HCoV-NL63-Infektionen in der Kindheit häufig auftreten. Es könnte spekuliert werden, dass eine bereits bestehende Immunität gegen HCoV-NL63 oder andere gewöhnliche Erkältungs-Coronaviren das Risiko einer schweren Erkrankung verringern könnte. In der aktuellen Untersuchung gab es Hinweise auf eine Korrelation zwischen einem schweren COVID-19-Krankheitsverlauf und einer niedrigen HCoV-NL63-neutralisierenden Aktivität, allerdings bei geringer Datenmenge. Dieser Hinweis wird sicher Anlass für weiterführende Untersuchungen sein.

Originalpublikation:
Henss L, Scholz T, von Rhein C, Wieters I, Borgans F, Eberhardt FJ, Zacharowski K, Ciesek S, Rohde G, Vehreschild M, Stephan C, Wolf T, Hofmann-Winkler H, Scheiblauer H, Schnierle BS (2020): Analysis of humoral immune responses in SARS-CoV-2 infected patients.
J Infect Dis Oct 31 [Epub ahead of print].
DOI: 10.1093/infdis/jiaa680

Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/33128369/ – Online-Abstract
https://www.pei.de/DE/newsroom/pm/jahr/2020/19-covid-19-wie-haengen-schweregrad-… – Diese Pressemitteilung auf den Internetseiten des PEI

Quelle: IDW
(nach oben)


Cholesterin im Blick behalten – Herzinfarktrisiko senken

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Herzstiftung informiert über Risiken zu hoher Cholesterinwerte und gibt Tipps zur Senkung

Hohe Cholesterinwerte zählen zu den größten Risikofaktoren für Herz-Kreislauf-Erkrankungen. Insbesondere hohe LDL-Werte steigern das Risiko, einen Herzinfarkt oder Schlaganfall zu erleiden. Umgekehrt können niedrige Werte Herz und Gefäße schützen. Studien haben die günstigen Effekte sehr niedriger LDL-Werte belegt und zu neuen Therapieempfehlungen geführt (1). Wie hoch die Cholesterinwerte sein dürfen, hängt von verschiedenen Faktoren ab. „Entscheidend ist, wie hoch das gesamte Risiko für Herz-Kreislauf-Erkrankungen ist“, betont der Herzspezialist Prof. Dr. med. Ulrich Laufs vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. „Dies wird neben dem Lebensalter und dem Geschlecht durch Rauchen, Bluthochdruck, Diabetes und andere Faktoren beeinflusst“, betont der Direktor der Klinik und Poliklinik für Kardiologie am Universitätsklinikum Leipzig. Die Herzstiftung bietet Experten-Informationen über Ursachen und Folgen hoher Cholesterinwerte für Betroffene in dem kostenfreien Ratgeber „Hohes Cholesterin: Was tun?“ an, anzufordern unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de Infos für Betroffene rund um das Thema Cholesterin bietet die Herzstiftungs-Homepage www.herzstiftung.de/cholesterin

Wie Cholesterin den Gefäßen schadet
Grundsätzlich ist Cholesterin kein Giftstoff, sondern ein lebenswichtiger, fettähnlicher Baustein für Zellwände sowie Ausgangsstoff für die Bildung von Gallensäuren und verschiedenen Hormonen. Das Problem entsteht, wenn zu viel Cholesterin an der falschen Stelle ist. Cholesterin ist in Wasser oder Blut nicht löslich und wird daher mittels verschiedener Eiweißstoffe „verpackt“ transportiert. Besondere Bedeutung kommt dabei dem LDL (Low Density Lipoprotein) zu. Ist zu viel LDL-Cholesterin (LDL-C) vorhanden, gelangt LDL-Cholesterin aus dem Blut in die Gefäßwand. Dort verursacht es Gefäßverkalkungen, die Arteriosklerose. Je mehr Ablagerungen (Plaques) sich an den Gefäßwänden bilden, desto stärker verengen sie sich. Dadurch steigt das Risiko, dass sich Gefäße im Herzen und Gehirn verschließen und einen Herzinfarkt oder Schlaganfall auslösen. Eine regelmäßige Kontrolle der Cholesterinwerte im Rahmen des Gesundheits-Check-Ups beim Hausarzt zählt daher zu den wichtigsten Maßnahmen der Herzvorsorge.

Neue Zielwerte für LDL-Cholesterin
Prinzipiell gilt: Je niedriger die LDL-Cholesterinwerte, desto niedriger ist das Risiko für Herz und Gefäße. „Es ist sehr gut dokumentiert, dass eine medikamentöse Senkung des LDL-Cholesterins zu einer Senkung des Herz-Kreislauf-Risikos führt“, erklärt Laufs. Auch die Senkung der Werte ohne Medikamente könne das Risiko reduzieren. Entsprechend den neuen Therapieempfehlungen werden folgende LDL-Werte angestrebt:

– Für gesunde Menschen ohne Risikofaktoren gilt ein LDL-Cholesterinwert unter 115 mg/dl (<3,0 mmol/l) als Zielwert.
– Bei gesunden Menschen mit einzelnen Risikofaktoren, beispielsweise Übergewicht oder leicht erhöhtem Blutdruck, sollte der LDL-Cholesterinwert unter 100 mg/dl (<2,6 mmol/l) liegen.
– Für Patienten mit Diabetes oder mehreren Risikofaktoren sollte ein LDL-Cholesterin von unter 70 mg/dl (<1,8 mmol/l) angestrebt werden.
– Bei Patienten mit bekannten Gefäßverkalkungen, z. B. mit einem Stent in den Herzkranzgefäßen oder Patienten nach Herzinfarkt oder Schlaganfall und anderen Personen mit sehr hohem Risiko liegt der LDL-C-Zielwert unter 55 mg/dl (1,4 mmol/l). Bei besonderen Risiko-Konstellationen kann es sinnvoll sein das Cholesterin noch weiter zu senken.

Hohe Cholesterinwerte senken
Liegen die Werte des LDL-Cholesterins oberhalb der empfohlenen Grenze, rät die Herzstiftung zunächst zu einer Veränderung des Lebensstils. Eine gesunde Ernährung sowie – bei Übergewicht – eine Gewichtsreduzierung können deutliche Effekte auf den Cholesterinspiegel haben. „Allerdings wird die Bedeutung der Ernährung häufig überschätzt, weil hohe Cholesterinwerte im Wesentlichen genetisch bedingt sind“, gibt der Herzspezialist zu bedenken. Zu einem herzgesunden Lebensstil gehören zudem der Verzicht auf Nikotin sowie regelmäßige Bewegung. „Gut geeignet sind Ausdauersportarten wie Wandern, Laufen oder Schwimmen“, rät Laufs. Diese Maßnahmen dienen der Herz- und Gefäßgesundheit insgesamt. Zur Senkung von stark erhöhten Cholesterinspiegeln stehen gut untersuchte Medikamente zur Verfügung. Die Gruppe der Statine ist dabei die erste Wahl. „Für Statine ist in großen wissenschaftlichen Studien bewiesen, dass sie das Risiko für Herzinfarkt und Schlaganfall senken, und ihre Einnahme über viele Jahrzehnte gilt als sicher“, unterstreicht Laufs. Lässt sich der Cholesterinspiegel mit Statinen nicht ausreichend senken, kann eine Kombinationstherapie mit neueren Wirkstoffgruppen sinnvoll sein.

Tipp: Ausführliche Informationen zu den Ursachen und Folgen hoher Cholesterinwerte sowie zu den neuen Therapieempfehlungen finden Sie im Ratgeber „Hohes Cholesterin: was tun?“, den Sie unter 069 955128-400 oder bestellung@herzstiftung.de kostenfrei bestellen können sowie auf unserer Homepage im Online-Beitrag www.herzstiftung.de/cholesterin

Informieren Sie sich über die bundesweiten Herzwochen zur Volkskrankheit Herzschwäche: www.herzstiftung.de/herzwochen2020

Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

(1) Wissenschaftliche Literatur:
European Heart Journal, Vol. 41, Issue 1, 1 January 2020, Pages 111–188, https://doi.org/10.1093/eurheartj/ehz455 : 2019 ESC/EAS Guidelines for the management of dyslipidaemias: lipid modification to reduce cardiovascular risk: The Task Force for the management of dyslipidaemias of the European Society of Cardiology (ESC) and European Atherosclerosis Society (EAS)

Cholesterol Treatment Trialists C. Efficacy and safety of statin therapy in older people: a meta-analysis of individual participant data from 28 randomised controlled trials. Lancet 2019;393:407–415.

Bhatt DL et al.; REDUCE-IT Investigators. Cardiovascular risk reduction with icosapent ethyl for hypertriglyceridemia. N Engl J Med 2019;380:11–22.

O‘ Donoghue ML et al. Lipoprotein(a), PCSK9 inhibition, and cardiovascular risk. Circulation 2019;139:1483–1492.

Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung

Weitere Informationen:
http://www.herzstiftung.de/herzwochen2020
http://www.herzstiftung.de/cholesterin
https://www.herzstiftung.de/risiko

Anhang
PM_DHS_Cholesterinsenkung_Herzinfarkt-Vorbeugung_2020-10-29

Quelle: IDW
(nach oben)


Wissensreise durch die Welt des Wassers

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundesweite multimediale Show für Schulen – Start in Osnabrück

Osnabrück/Mülheim. Die Fortschreibung der Deutschen Nachhaltigkeitsstrategie läuft derzeit auf Hochtouren. Alle sollen ein Wörtchen mitreden können, von jung bis alt. Der schonende Umgang mit (Trink-)Wasser spielt dabei eine zentrale Rolle. Dazu passt eine nun startende bundesweite multimediale Show für rund 100 Schulen. „Lernerlebnis Trinkwasserschutz“ ist für Dritt- bis Sechstklässler konzipiert, spricht mit Bewegung, Bildern und Musik spielerisch die Sinne an und lädt zu einer Wissensreise durch die Welt des Wassers ein. Start ist am 6. Oktober in Osnabrück, die Deutsche Bundesstiftung Umwelt (DBU) fördert das Vorhaben fachlich und finanziell mit 125.000 Euro.

Kinder sind die Entscheidungsträger von morgen
„Die Dürresommer der vergangenen drei Jahre haben uns vor Augen gehalten, dass wir anders mit der Ressource Wasser umgehen müssen“, sagt Franz-Peter Heidenreich, DBU-Referatsleiter für Kreislaufführung und Bautechnik. Jede und jeder Einzelne könne zu mehr Wasserschutz beitragen – sei es privat, in der Familie, auf der Arbeit oder im täglichen Zusammenleben. Gefragt seien aber eben nicht nur die Erwachsenen. „Wir können gar nicht früh genug damit anfangen, unser Wissen über den Wert von Ressourcenschutz an die jungen Generationen weiterzugeben“, sagt der DBU-Referent. „Kinder sind die Entscheidungsträger der Zukunft. Wir müssen sie schon früh für den richtigen Umgang mit wertvollen Ressourcen wie Wasser sensibilisieren“, so Heidenreich.

Ohne erhobenen Zeigefinger
„Lernerlebnis Trinkwasserschutz“ dauert so lange wie eine Doppelstunde Unterricht. Und langweilig soll es auf keinen Fall werden, verspricht Projektleiter Friedhelm Susok von F.S. Infotainment aus Mülheim, das die multimediale Show entwickelt hat. „In sechs Schritten erzählen wir den Mädchen und Jungen von der Vielfalt des Trinkwassers – von der Urquelle bis zum Trinkwasserschutz“, so Susok. Alles zwar mit Einschränkungen und Hygienevorgaben wegen der Coronavirus-Pandemie, aber „garantiert ohne erhobenen Zeigefinger“, sagt der Projektleiter.

Über den Kreislauf des Wassers
Ziel sei vielmehr, „miteinander überhaupt ein Bewusstsein für die Thematik zu wecken, vielleicht sogar einen Bewusstseinswandel zu bewirken“, sagt Susok. Aufgelockert wird die Präsentation durch Bild- und Filmelemente ebenso wie durch Quiz-Aufgaben und Fragen wie: Auf welche Weise werden eigentlich am besten Putzmittel, Lacke und Medikamente entsorgt? Was kann ich zu Hause für mehr Trinkwasserschutz tun? „Es geht auch darum, wie der Kreislauf des Wassers funktioniert und welche unterschiedlichen Arten von Wasser es auf der Erde gibt“, so Susok. Auch Produktion und Vertrieb von Trinkwasser sollen erarbeitet werden.
Der Auftakt für das „Lernerlebnis Trinkwasserschutz“ findet am 6. Oktober in Zusammenarbeit mit den Stadtwerken Osnabrück unter den gegebenen Hygiene- und Coronaauflagen in der Gesamtschule Schinkel statt. Danach geht es in der Diesterwegschule weiter. Mit einem breiten Netzwerk in der Trinkwasser-Branche sollen deutschlandweit Auftritte folgen.

Weitere Informationen:
https://www.dbu.de/123artikel38796_2442.html Online-Pressemitteilung

Quelle: IDW
(nach oben)


Mehr Infektionen als bekannt: Neue Studie zeigt Relevanz bevölkerungsweiter SARS-CoV-2-Antikörpertests auf

Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Eine neue Studie des Helmholtz Zentrums München kommt zu dem Ergebnis, dass sechsmal mehr Kinder in Bayern mit dem Coronavirus SARS-CoV-2 infiziert waren als gemeldet. Dies verdeutlicht die Relevanz bevölkerungsweiter Antikörper-Screenings zur Überwachung des Pandemieverlaufs. Die Studie beschreibt außerdem einen neuen Ansatz, um Antikörper gegen SARS-CoV-2 mit besonders hoher Genauigkeit zu messen.

Neuer Ansatz zur Messung von Antikörpern gegen SARS-CoV-2
Derzeitige Antikörpertests weisen eine mangelnde Spezifität auf, was zu einem großen Anteil falsch-positiver Ergebnisse führt. Unter der Leitung von Prof. Anette-G. Ziegler entwickelten Wissenschaftlerinnen und Wissenschaftler am Helmholtz Zentrum München nun einen neuen Ansatz zur Messung von Antikörpern gegen SARS-CoV-2. Dieser zeichnet sich dadurch aus, dass das Testergebnis erst dann als Antikörper-positiv gilt, wenn sowohl gegen die Rezeptor-Bindungsdomäne als auch gegen Nukleokapsid-Proteine des Virus positiv getestet wurde. Dieser zweistufige und zweifach-positive Ansatz führt zu besonders genauen Ergebnissen mit einer Spezifität von 100 Prozent und einer Sensitivität von mehr als 95 Prozent.

Da Ziegler und ihre Forschungsgruppe bereits eine große, bayernweit angelegte Bevölkerungsstudie namens „Fr1da“ zur Früherkennung von präsymptomatischem Typ-1-Diabetes bei Kindern durchführten, konnten sie schnell und einfach die bestehende Test-Infrastruktur um den neuen Ansatz für SARS-CoV-2-Antikörper erweitern.

Ergebnisse des SARS-CoV-2-Antikörper-Screenings
Zwischen Januar 2020 und Juli 2020 untersuchten die Wissenschaftlerinnen und Wissenschaftler knapp 12.000 Blutproben von Kindern in Bayern im Alter zwischen 1 und 18 Jahren (Teilnehmende der Fr1da-Studie) auf SARS-CoV-2-Antikörper. Zwischen April und Juli wiesen im Schnitt 0,87 Prozent der Kinder Antikörper auf (zweifach-positiv). Im Vergleich zu den vom Bayerischen Landesamt für Gesundheit und Ernährung (LGL) gemeldeten Fällen von Kindern in Bayern (zwischen 0 und 18 Jahren), die zwischen April und Juli positiv auf das Virus getestet wurden, war die Antikörperhäufigkeit damit sechsmal höher.

Die Ergebnisse machten keine Unterschiede zwischen den Geschlechtern sichtbar. Knapp die Hälfte (47 Prozent) der Kinder mit Antikörpern waren asymptomatisch. Rund ein Drittel (35 Prozent) der Kinder, die mit einem auf das Virus positiv getestetem Familienmitglied zusammenlebten, wiesen Antikörper auf. Dies deutet auf eine höhere Übertragungsrate hin als in bisherigen Studien beschrieben. Zudem zeigten die Ergebnisse innerhalb Bayerns deutliche geographische Unterschiede („Hot-Spots“). Am meisten positive Antikörpertests gab es im Süden Bayerns.

Darüber hinaus wurden die Kinder auch auf Typ-1-Diabetes-Autoantikörper getestet. Diese dienen als Früherkennungsmerkmal für präsymptomatischen Typ-1-Diabetes. Die Wissenschaftlerinnen und Wissenschaftler konnten keine Zunahme dieser Antikörper feststellen. Dies lässt darauf schließen, dass COVID-19 und Typ-1-Diabetes bei Kindern nicht miteinander assoziiert sind.

Bedeutung für COVID-19-Maßnahmen
„Unsere Studie liefert wichtige Ergebnisse, die die Diskrepanz zwischen gemeldeten Virusinfektionen und Antikörperaufkommen offenlegen“, sagt Markus Hippich, Erstautor der Studie und Postdoc am Helmholtz Zentrum München. „Da viele Personen, bei Kindern knapp die Hälfte, keine COVID-19-typischen Symptome entwickeln, werden sie nicht getestet. Um verlässliche Daten über die Ausbreitung des Virus zu bekommen, reicht es also nicht aus, nur auf das Virus selbst zu testen.“

Studienleiterin Prof. Anette-G. Ziegler ergänzt: „Nationale Programme, die mit hoher Spezifität und Sensitivität auf Antikörper testen, könnten den Ländern zuverlässige Daten liefern, um sich auf die Zukunft vorzubereiten. Sie könnten ihnen dabei helfen, die Ausbreitung des Virus einzudämmen und die Auswirkungen regionaler und landesweiter COVID-19-Maßnahmen zu überprüfen.“

Dashboard
Die Studienergebnisse sind gemeinsam mit einer Übersicht zur geografischen Verteilung der Antikörperhäufigkeit in einem Online-Dashboard verfügbar: https://covid-dashboard.fr1da-studie.de/app_direct/covid-dashboard/. Die Zahlen werden monatlich aktualisiert.

Einschränkungen der Studie
Antikörper gegen SARS-CoV-2 sind erst nach einer bis vier Wochen nachweisbar. Deshalb können diese Messwerte nicht dafür genutzt werden, um Aussagen über das aktuelle Infektionsgeschehen zu treffen. Bisher gibt es keine Belege dafür, dass SARS-CoV-2-Antikörper zu einer Immunität gegen das Virus führen. Falls dies belegt werden sollte, könnten die Ergebnisse wichtige Informationen zur Immunitätslage der Kinder in Bayern liefern.

Über die Studie
Diese Studie wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) und des Deutschen Zentrums für Diabetesforschung (DZD) unterstützt. Förderer der Fr1da-Studie sind die LifeScience-Stiftung, JDRF und The Helmsley Charitable Trust.

Mehr zu Fr1da: https://www.helmholtz-muenchen.de/en/aktuelles/latest-news/press-information-new…

Helmholtz Zentrum München
Das Helmholtz Zentrum München verfolgt als Forschungszentrum die Mission, personalisierte medizinische Lösungen zur Prävention und Therapie umweltbedingter Krankheiten für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Es erforscht das Entstehen von Volkskrankheiten im Kontext von Umweltfaktoren, Lebensstil und individueller genetischer Disposition. Besonderen Fokus legt das Zentrum auf die Erforschung des Diabetes mellitus, Allergien und chronischer Lungenerkrankungen. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.500 Mitarbeitende und ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands mit mehr als 40.000 Mitarbeitenden in 19 Forschungszentren.

Wissenschaftliche Ansprechpartner:
Prof. Anette-G. Ziegler
Helmholtz Zentrum München
Institut für Diabetesforschung
E-Mail: anette-g.ziegler@helmholtz-muenchen.de

Originalpublikation:
Hippich et al., 2020: Public health antibody screening indicates a six-fold higher SARS-CoV-2 exposure rate than reported cases in children. Med, DOI: 10.1016/j.medj.2020.10.003

Quelle: IDW
(nach oben)


Erster deutscher Gezeitenrechner nimmt Betrieb auf

Deutsches Schifffahrtsmuseum Kommunikation
Deutsches Schifffahrtsmuseum – Leibniz-Institut für Maritime Geschichte
Die Restaurierung des ersten deutschen Gezeitenrechners ist abgeschlossen. Dank modernster Methodik funktioniert das 105-jährige Meisterwerk der Mechanik aus der Kaiserzeit wieder und soll regelmäßig öffentlich in Betrieb gesetzt werden.

Es ist ein Exponat der Superlative – der Gezeitenrechner: Er ist der älteste seiner Art in Deutschland und kann ebenso als einer der ersten analogen Computer bezeichnet werden. Nur drei stationäre Gezeitenrechner wurden überhaupt in Deutschland gefertigt. Insgesamt wurden weltweit über einen Zeitraum von fast 100 Jahren weniger als dreißig jemals gebaut. Von denen, die erhalten blieben, sind nur wenige öffentlich zugänglich. Umso mehr freut sich das DSM, dass gleich zwei dieser Schätze zur Sammlung gehören – das Modell aus dem Jahr 1915 und ein weiteres aus der DDR.

Mit seinen vielen Zahnrädchen und kreisrunden Tidengetrieben behauptet sich der Gezeitenrechner als imposante Erscheinung inmitten der übrigen Objekte der SEA CHANGES-Ausstellung. Die Silber- und Messingkomponenten lassen auf eine lange Historie schließen. Doch nicht nur die Optik ist ein Highlight, die aufwändige Methode, die Restaurator Tim Lücke erstmals nutzte, passt ebenfalls in die Kategorie „besonders“. Lücke, der im Mai 2019 mit den Arbeiten begann, griff auf die Trockeneisstrahlung zurück, um das Innere des Geräts zu säubern. Es handelt sich um eine schonende und gleichzeitig zeitsparende Methode, die in der Restaurierung bisher selten angewandt wurde. Mithilfe von Pellets aus gefrorenem Kohlenstoffdioxid konnten selbst Kleinstteile im Inneren der Maschine gereinigt werden, ohne dass größere Ausbauten nötig waren. Dazu musste die Maschine kurzzeitig in den Außenbereich des Museums gebracht werden. Beim Arbeitsprozess in der Ausstellungshalle konnten interessierte Museumsgäste Tim Lücke über die Schulter schauen. Ein online verfügbarer Film dokumentiert die Restaurierung im Museum im Zeitraffer.

„Weil es sich um eine bisher selten angewandte Methode handelt, ist das Projekt auch aus restauratorischer Perspektive sehr spannend, wir sind froh, dass wir mit Tim Lücke einen erfahrenen Experten fanden, der die Trockeneisreinigung im DSM erstmalig in dieser Form anwandte“, sagt Martin Weiss, Wissenschaftlicher Mitarbeiter am DSM. Der Gezeitenrechner werde in Zukunft regelmäßig in Betrieb gesetzt, damit die Getriebe nicht wieder verharzen. Im kommenden Jahr passiere das auch öffentlich unter den Blicken des Publikums. Eine eigens dafür in Auftrag gegebene Vitrine, hinter der die Schauvorführungen perspektivisch stattfinden, wird bis Anfang nächsten Jahres angefertigt.

Möglich wurde die Restaurierung durch großzügige Unterstützung der Kulturstiftung der Länder, des Deutschen Stiftungszentrums, des Fördervereins Deutsches Schifffahrtsmuseum e.V. und privaten Spender*Innen.

Geschichte des Gezeitenrechners
Als im 19. Jahrhundert die Dampfschifffahrt aufkam und Fahrtzeiten dadurch viel weniger vom Wetter abhängig waren, wurde es unerlässlich, Wasserstände in Häfen genau vorhersagen zu können. Der Engländer William Thomson, später bekannt als Lord Kelvin, konstruierte 1872 den Prototyp eines Gezeitenrechners. In den folgenden Jahrzehnten wurde das Grundprinzip nie verändert, aber optimiert. Als der Erste Weltkrieg begann, sahen sich die deutschen Hydrographen gezwungen, das erste eigene Modell zu bauen, das 1915 am Marineobservatorium in Wilhelmshaven in Betrieb ging.

Nachdem dieser Prototyp in den 1930ern mit einem elektrischen Druckwerk ausgestattet wurde, gelangte er im Zweiten Weltkrieg vermutlich nach Greifswald und von dort aus an das Deutsche Hydrographische Institut in Hamburg. 1975 wurde er dem damals neu gegründeten Deutschen Schifffahrtsmuseum in Bremerhaven übergeben, wo er seitdem in der Ausstellung zu sehen ist – und nun zum ersten Mal auch in Betrieb.

Wissenschaftliche Ansprechpartner:
Martin Weiss
weiss@dsm.museum

Quelle: IDW
(nach oben)


Die ungewisse Zukunft der Ozeane

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Marine Nahrungsnetze und biogeochemische Kreisläufe reagieren sehr empfindlich auf die Zunahme von Kohlendioxid (CO2) – jedoch sind die Auswirkungen weitaus komplexer als bislang gedacht. Das zeigt eine Studie, die ein Team von Forschern und Forscherinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der Fachzeitschrift Nature Climate Change veröffentlicht hat. Dafür wurden Daten von fünf groß angelegten Feldexperimenten zusammenfasst, die untersucht haben, wie der Kohlenstoffkreislauf innerhalb von Planktongemeinschaften auf die Zunahme von CO2 reagiert.

Der Ozean spielt eine Schlüsselrolle im gegenwärtigen Klimawandel, da er einen beträchtlichen Teil des von der Menschheit ausgestoßenen atmosphärischen Kohlendioxids aufnimmt. Dadurch wird einerseits die Aufheizung des Klimas verlangsamt, andererseits führt die Lösung von CO2 im Meerwasser zur Versauerung der Ozeane. Dies hat weitreichende Konsequenzen für viele Meereslebewesen und dadurch auch für den ozeanischen Kohlenstoffkreislauf. Einer der wichtigsten Mechanismen hierbei ist die biologische Kohlenstoffpumpe: Ein Teil der Biomasse, die pflanzliches Plankton an der Ozeanoberfläche durch Photosynthese bildet, sinkt in Form kleiner, kohlenstoffhaltiger Partikel in die Tiefe. Dadurch wird der Kohlenstoff für lange Zeit in der Tiefsee gespeichert. Der Ozean wirkt somit als Kohlenstoffsenke im Klimasystem. Wie stark diese biologische Pumpe wirkt, ist regional sehr unterschiedlich und hängt von der Artenzusammensetzung des Ökosystems ab.

Die Studie, die jetzt in der Fachzeitschrift Nature Climate Change veröffentlicht wurde, ist eine der bislang umfassendsten Untersuchungen zu den Auswirkungen der Ozeanversauerung auf marine Ökosysteme. Wissenschaftler und Wissenschaftlerinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel konnten nun erstmals zeigen, dass Ozeanversauerung den Kohlenstoffgehalt von sinkendem organischem Material, und somit die biologische Pumpe, beeinflusst. Überraschenderweise waren die beobachteten Änderungen sehr variabel. Der Kohlenstoffgehalt der sinkenden Partikel nahm bei steigendem CO2 deutlich zu oder ab, je nachdem was für eine Zusammensetzung von Arten vorlag und wie das Nahrungsnetz strukturiert war. Da die zugrundeliegenden Daten verschiedenste Ozeanregionen abdecken, scheint es sich dabei um ein globales Phänomen zu handeln. Diese Erkenntnisse ermöglichen eine völlig neue Einschätzung der Auswirkungen von Ozeanversauerung.

Dr. Jan Taucher, Meeresbiologe und Erstautor der Studie, sagt hierzu: „Interessanterweise fanden wir heraus, dass bakterielles und tierisches Plankton, wie zum Beispiel Ruderfußkrebse, eine Schlüsselrolle dabei spielen, wie der Kohlenstoffkreislauf und die biologische Pumpe auf Ozeanversauerung reagieren. Bislang war die Ansicht verbreitet, dass biogeochemische Änderungen hauptsächlich durch Reaktionen des pflanzlichen Planktons getrieben werden. Deshalb berücksichtigen nicht einmal moderne Erdsystemmodelle die von uns beobachteten Wechselwirkungen zwischen dem marinen Nahrungsnetz und dem Kohlenstoffkreislauf. Unsere Erkenntnisse helfen somit, Klimamodelle realistischer zu gestalten und Klimaprojektionen zu verbessern“.

Bislang basierten die meisten Erkenntnisse zu diesem Thema auf idealisierten Laborexperimenten, die ökologische Wechselwirkungen und die Dynamik des komplexen marinen Nahrungsnetzes nur stark vereinfacht darstellen. Dadurch können solche Ergebnisse nur schwer auf Bedingungen im realen Ozean übertragen und in die Zukunft projiziert werden. Um einen realistischeren Einblick zu erhalten, fasst die Studie mehrere Feldexperimente zusammen, die mit großvolumigen Testanlagen, sogenannten Mesokosmen, in verschiedenen Ozeanregionen, von arktischen bis subtropischen Gewässern, durchgeführt wurden.

Mesokosmen sind sozusagen überdimensionale Reagenzgläser im Ozean, in denen Veränderungen der Umweltbedingungen in einem abgeschlossenen, aber ansonsten natürlichen Ökosystem untersucht werden können. Für die vorliegende Studie wurde eine Vielzahl an Daten aus fünf Mesokosmen-Experimenten zusammengetragen, um somit ein genaues Bild der Planktongemeinschaften und der biogeochemischen Prozesse innerhalb des Ökosystems zu liefern. Insgesamt flossen über zehntausend Datenpunkte in die Analyse ein.

Die neu gewonnenen Erkenntnisse können nun dazu genutzt werden, die komplexen ökologischen Wechselwirkungen in Erdsystemmodelle zu implementieren, um somit zur weiteren Verbesserung von Klimaprojektionen beizutragen.

Originalpublikation:
Taucher, J., T. Boxhammer, L.T. Bach, A. J. Paul, M. Schartau, P. Stange and U. Riebesell, 2020: Changing carbon-to-nitrogen ratios of organic-matter export under ocean acidification. Nat. Clim. Change, https://doi.org/10.1038/s41558-020-00915-5

Quelle: IDW
(nach oben)


Wissen über Herzinfarkt-Vorboten rettet Leben

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Unvorhersehbar, aber nicht aus heiterem Himmel: Herzstiftung sensibilisiert zum Weltherztag für Vorgeschichte und Warnzeichen des Herzinfarkts

Der Herzinfarkt kommt plötzlich, aber nicht aus heiterem Himmel. Umso tragischer ist, dass jedes Jahr fast 49.000 Herzinfarkttote in Deutschland zu beklagen sind. Viele der Sterbefälle wären zu verhindern, weil etwa 30 Prozent der Patienten am akuten Herzinfarkt versterben, noch bevor sie die Klinik erreichen. „Diese hohe Infarktsterblichkeit außerhalb der Klinik hat mehrere Gründe: In den ersten Minuten und Stunden nach Verstopfung der Herzkranzarterie ist das Sterberisiko besonders hoch. Fatalerweise zögern Betroffene bei einem Herzinfarkt immer noch zu lange, den Notruf 112 abzusetzen, damit ein Rettungswagen mit Notarzt kommt“, betont der Kardiologe Prof. Dr. med. Thomas Voigtländer, stellvertretender Vorstandsvorsitzender der Deutschen Herzstiftung. Ein Grund für dieses Zögern dürfte mangelndes Wissen in der Bevölkerung über die Bedrohlichkeit des Herzinfarkts sein. „Beim Herzinfarkt zählt aber jede Minute, sobald der sich mit Symptomen bemerkbar macht. Sonst drohen schwerwiegende Schädigungen des Herzmuskels bis hin zu Herzschwäche oder gar plötzlichem Herztod“, so der Ärztliche Direktor des Agaplesion-Bethanien-Krankenhauses und Cardioangiologischen Centrums Bethanien (CCB) Frankfurt am Main. Durch Sensibilisierung der Bevölkerung für die Warnzeichen eines Herzinfarkts und seiner Vorgeschichte, der chronischen Verengung der Herzkranzgefäße über viele Jahre (koronare Herzkrankheit), will die Herzstiftung dazu beitragen, die Infarktsterblichkeit außerhalb der Klinik zu senken. Dazu bietet die Herzstiftung zum Weltherztag für Betroffene und Interessierte den Experten-Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ kostenfrei unter Tel. 069 955128-400 oder unter www.herzstiftung.de (Mail bestellung@herzstiftung.de) an.

Bei Herzinfarkt immer sofort die 112 – auch in Zeiten der Corona-Pandemie
Zeitverluste beim Herzinfarkt durch zögerliches Verhalten von Betroffenen und Angehörigen sind fatal, weil der Infarkt jederzeit in bösartige Herzrhythmusstörungen übergehen kann. Dieses Kammerflimmern, bei dem das Herz über 300 Mal pro Minute schlägt, führt innerhalb weniger Sekunden zum Herzstillstand. „Herzinfarkte ereignen sich meistens zu Hause, daher kann nur ein über den Notruf 112 herbeigerufenes Rettungsteam mit einem Defibrillator das flimmernde Herz wieder in seinen normalen Rhythmus und den Patienten anschließend sofort in die nächstgelegene Klinik zur Infarktversorgung bringen“, warnt der Herzspezialist. Beim Herzinfarkt gilt die Formel: Zeit ist Herzmuskel. „Je weniger Zeit zwischen Auftreten der ersten Symptome und dem Erreichen der Klinik mit dem Herzkatheterlabor verstreicht, wo das verstopfte Herzkranzgefäß vom Blutgerinnsel befreit wird, desto weniger Schaden erleidet der Herzmuskel“, erklärt Voigtländer. Herzmediziner sprechen von der „Golden Hour“, innerhalb der die Infarktversorgung eine Schädigung des Herzens abwenden kann. Schon nach mehreren Stunden, die nach Auftreten der ersten Symptome verstreichen, steigt die Gefahr von Herzmuskelverlusten und einer Herzschwäche. Fatal sind Zeitverluste von Stunden oder gar Tagen aufgrund vermeidbarer Fehler der Betroffenen im Notfall, z. B. Scheu vor Fehlalarm besonders am Wochenende oder an Feiertagen („Belästigung der Ärzte“) oder die Einnahme von Schmerzmedikamenten. Wichtig: Auch in Zeiten der Corona-Pandemie und im Falle steigender Infektionsraten besteht keinerlei Grund, vor dem Notruf 112 bei Infarktverdacht oder sonstigen notfallartigen Herzereignissen zu zögern. „Eine Notfallversorgung für diese Patienten ist stets gewährleistet, auch in Corona-Zeiten.“ Deutschlands Kliniken verfügen mittlerweile über sehr gute Hygienekonzepte, die eine strikte Trennung der Versorgungsbereiche für Covid-19-Patienten von anderen Klinikbereichen und Notfallambulanzen in aller Regel garantieren.

Die Herzinfarkt-Alarmzeichen
Die Infarkt-Alarmzeichen sind oft leicht zu erkennen: Schwere Schmerzen, die länger als fünf Minuten andauern. Die Schmerzen sind typisch im Brustkorb, häufig hinter dem Brustbein. Zusätzlich können Schmerzen im Rücken (zwischen den Schulterblättern) oder im Oberbauch (Verwechslung mit „Magenschmerzen“ möglich) ein Alarmzeichen sein. Die Schmerzen können in Arm, Hals oder Oberbauch ausstrahlen, sie sind flächenhaft und werden als brennend und drückend mit Engegefühl in der Brust beschrieben. Je älter die Person mit Herzinfarkt ist, desto weniger ausgeprägt kann der typische Brustschmerz sein.
Bei Frauen häufiger als bei Männern können – zusätzlich zu den oben genannten Schmerzen oder auch alleine – weitere Symptome wie Atemnot, Übelkeit oder Erbrechen, Schwitzen, Benommenheit oder Schwindel sowie unerklärliche Müdigkeit ein Alarmzeichen sein. Da die Symptomatik bei Frauen nicht immer klar ist, werden ihre Symptome oftmals fehlgedeutet. Dies führt dazu, dass Frauen häufig deutlich später in die Klinik eingeliefert werden als Männer.

Herzinfarkt-Vorboten: Brustschmerzen und/oder Atemnot
Dem Herzinfarkt geht oft jahrzehntelang unbemerkt die KHK voraus. Die KHK ist durch Brustschmerzen und/oder Atemnot charakterisiert, die bei körperlicher Belastung (Treppensteigen, Getränkekisten tragen) oder seelischer Erregung auftreten. Endet die Belastung, verschwindet der Schmerz in wenigen Minuten wieder (stabile Angina pectoris). Die KHK kann jahrelang stabil bleiben, kann aber gefährlich werden, weil sie die Grundlage für den Herzinfarkt darstellt. Besonders alarmierend ist es, wenn Brustschmerz und/oder Atemnot bei kleinsten Belastungen oder in Ruhe (instabile Angina pectoris) auftreten. „Dann muss sofort der Rettungsdienst mit der 112 angerufen werden, weil sich daraus jederzeit ein Herzinfarkt entwickeln kann. Der Übergang zwischen instabiler Angina pectoris und Herzinfarkt ist fließend“, warnt der Intensivmediziner Voigtländer. Bei der instabilen Form verschließt ein Blutgerinnsel ein Herzkranzgefäß teilweise, beim Herzinfarkt vollständig.

Tipp: Experten-Ratgeber
Der neue Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ der Deutschen Herzstiftung informiert über Ursachen, Diagnose und Behandlung der Koronaren Herzkrankheit und des Herzinfarkts. Der Band (160 S.) kann kostenfrei per Tel. 069 955128-400 oder per E-Mail unter bestellung@herzstiftung.de angefordert werden. Infos zur KHK und Herzinfarkt bietet die Homepage der Herzstiftung www.herzstiftung.de

Infos zum Weltherztag unter: www.herzstiftung.de/weltherztag
Druckfähiges Bildmaterial zu den Herzinfarkt-Alarmzeichen und zum KHK-Ratgeber eine erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de

Kontakt zur Pressestelle:
Deutsche Herzstiftung e.V.
Pressestelle: Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Deutsche Herzstiftung (Hg.), Koronare Herzkrankheit und Herzinfarkt, Frankfurt am Main 2020.

Weitere Informationen:
https://www.herzstiftung.de
https://www.herzstiftung.de/infos-zu-herzerkrankungen/herzinfarkt/anzeichen
https://www.herzstiftung.de/infos-zu-herzerkrankungen/angina-pectoris/was-ist-an…

Anhang
PM_DHS-Herzinfarkt-Vorboten_2020-09-28
https://idw-online.de/de/attachment80825

Quelle: IDW
(nach oben)


Antwort auf Darwins Frage

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz
In einem „Nature“-Artikel beantwortet der Evolutionsbiologe Axel Meyer von der Universität Konstanz mit Hilfe der Analyse von fast 500 Genomen Fragen zur genetischen Basis von Anpassungen, Unterschieden zwischen Arten und den Mechanismen der Artenbildung

Wie und wie schnell entstehen neue Arten? Der Beantwortung dieser fundamentalen Fragen in der Biologie ist der Evolutionsbiologe Prof. Axel Meyer, Ph.D., von der Universität Konstanz mit seinem Team einen entscheidenden Schritt nähergekommen. Nach Auswertung eines umfangreichen genetischen Datensatzes, der in jahrelanger Forschung an extrem jungen Arten von Buntbarschen in Kraterseen Nicaraguas gesammelt wurde, zeigt sich, dass die evolutionäre Diversifizierung einer Population im selben geografischen Gebiet zu einer neuen Art wahrscheinlicher ist, wenn viele Gene im gesamten Genom daran beteiligt sind, artunterscheidende Anpassungen hervorzubringen. Was seit Darwin nicht bekannt war: Neue Arten können innerhalb von nur wenigen hundert Jahren entstehen. Dies widerspricht der bislang gängigen Theorie, dass Artentstehung langsam ist und ökologisch wichtige Artunterschiede mit einfacher genetischer Architektur im Sinne nur einzelner oder weniger beteiligter Gene zwangsläufiger zur Bildung einer neuen Art führen als auf polygenischer Basis, bei der viele Gene mit je kleinem Effekt zusammenwirken. Letztendlich geht es um die Frage, die sich Darwin schon gestellt hat: Was ist eine Art, und wie, warum und wie schnell entstehen neue Arten? Die Ergebnisse dieser großangelegten, multidisziplinären Studie sind ab dem 28. Oktober 2020 im Wissenschaftsjournal Nature online unter https://www.nature.com/articles/s41586-020-2845-0 veröffentlicht.

Welche und wie viele Gene sind an der Entstehung neuer Arten beteiligt?
Die Frage nach der Entstehung neuer Arten wird in der Genetik übersetzt in: Wie sieht das Muster der Veränderungen im Genom aus, das dazu führt, dass neue Arten entstehen? Was passiert genetisch während des Kontinuums von anfänglich keinen Unterschieden innerhalb einer Population bis hin zu der abgeschlossenen Artbildung von fortpflanzlich getrennten Arten? Axel Meyer forscht seit seiner Doktorarbeit in den 1980er Jahren an der University of California, Berkeley, USA, und seit Ende der 1990er Jahre an der Universität Konstanz an der Frage, welche und wie viele Gene oder Genloci – das sind Regionen auf dem Genom – an der Entstehung von Adaptationen (Anpassungen) und neuen Arten beteiligt sind.

Der Fokus liegt dabei auf der Studie von sehr jungen Arten von Buntbarschen, die oft nur wenige hundert Generationen alt sind und in Kraterseen in Nicaragua leben. Obwohl alle Fische von denselben älteren Ursprungspopulationen aus den beiden großen Seen Nicaraguas abstammen, dem Managua- und dem Nicaraguasee, gibt es in jedem einzelnen der Kraterseen Fischpopulationen oder gar kleinere Artenkomplexe von mehreren Arten, die ausschließlich in einem der kleinen Kraterseen leben, mit speziellen äußerlichen Unterschieden, die sich teilweise in mehreren Seen sehr ähnlich finden, also mehrfach unabhängig entstanden zu sein scheinen.

Verschiedene Phänotypen im selben Kratersee
Es gibt Fische mit ausgeprägten Lippen und solche ohne Lippen, goldfarbene und schwarzweiße Fische, Fische, die sich von anderen durch besonders schlanke Körper oder durch bestimmte zarte oder robuste Zahnformen unterscheiden. Diese Phänotypen sind innerhalb der Kraterseen, somit im selben geografischen Gebiet entstanden („sympatrische Artbildung“), ohne dass äußere Barrieren wie Flüsse oder Berge dies durch Begrenzung des Genflusses aufgrund von Genaustausch durch Fortpflanzung begünstigt hätten. Es handelt sich somit um keine „allopatrische Artbildung“.

Die Variationen mit den Lippen, der Farbe, der Körper- sowie der Zahnform im Schlundkiefer der Fische sind bereits in der Ursprungspopulation genetisch angelegt, wie Axel Meyer und sein Team (insbesondere Dr. Andreas Kautt, Dr. Claudius Kratochwil und Dr. Alexander Nater) zeigen konnten, nachdem sie aus jedem der kleinen Seen komplette Genome von insgesamt fast 500 Fischen analysiert hatten. Damit handelt es sich um keine unabhängig entstandenen neuen Mutationen, sondern um das Aussortieren und die selektive Auswahl von denselben Ursprungs-Genvarianten, die sich in den verschiedenen Seen wieder neu aussortiert haben. Bislang war man sich dabei nicht sicher, ob es sich um jeweils neue Arten handelt, die sich durch Anpassung an neue ökologische Umstände herausgebildet haben. Tatsächlich paaren sich die äußerlich unterschiedlichen Populationen in den Seen auch vorzugsweise jeweils untereinander.

Viele Gene bewirken viel
Für Ernst Mayr – den nach dem Urteil von Fachkollegen „Darwin des 20. Jahrhunderts“, der das biologische Artkonzept mit entwickelt hat, wäre das ein Indiz dafür gewesen, dass es sich um eine eigenständige Art handelt. (Der 2005 verstorbene Mentor Axel Meyers von der Harvard University erhielt 1994 von der Universität Konstanz eine Ehrendoktorwürde.) Die neuen Ergebnisse der Genomsequenzierung legen jedoch anderes nahe. Es stellte sich nach der Sequenzierung von über 450 Fischgenomen, Kreuzungsexperimenten und sogenannter Genomweiter Assoziationsanalyse (GWA) heraus, dass die auffälligen Unterschiede, wie etwa die Lippengröße und die Farbe, im Genom dieser Populationen durch nur ein bis zwei lokal sehr begrenzte Genom-Regionen nach den Mendelschen Regeln bedingt werden. Fische mit gleichem Lippen- oder Farbentyp pflanzen sich auch fast ausschließlich untereinander fort. Dennoch hat dies nicht zu genomweiten Unterschieden, die man zwischen Arten erwarten würde, geführt. Dagegen sind überraschenderweise die anderen sympatrischen Arten mit den phänotypisch weit weniger auffälligen Unterschieden in Körperform und spezieller Zahnform durch vielfach höhere genomweite genetische Unterschiede gekennzeichnet.

Das bedeutet, dass viele Gene an vielen Stellen des Genoms jeweils nur einen kleinen Beitrag zur genetischen Ausdifferenzierung leisten, deren Effekte sich aber über das gesamte Genom aufaddieren und zur Artentstehung führen. Die Anzahl der genetischen Unterschiede im gesamten Genom zwischen diesen jungen Arten ist zehnmal höher als beispielsweise zwischen den äußerlich sehr unterschiedlichen Polymorphismen der großlippigen oder goldenen gegenüber schwarz-weiß gestreiften Fischen, die deshalb auch keine Arten darstellen. Der vereinte Effekt vieler Gene bewirkt somit insgesamt stärker, neue Arten entstehen zu lassen. „Das hatten wir nicht erwartet. Es widerspricht auch großen Teilen der Theorie, nach der einzelne Loci mit großem Effekt auf das Äußere von Arten wie ausgeprägte Lippen oder Färbung schneller neue Arten entstehen lassen sollten“, sagt Axel Meyer. Es ist insbesondere überraschend, wenn sich die Loci ungewöhnlicherweise hier sowohl auf die Ökologie als auch auf die Partnerwahl auswirken. „Zumindest nach dem Kriterium des durchschnittlichen Unterschieds im gesamten Genom sind Fische, die sich äußerlich so auffällig unterscheiden, trotzdem keine unterschiedlichen Arten, sondern bleiben auf dem Kontinuum der Artbildung lediglich auf dem Niveau eines Polymorphismus (Vielgestaltigkeit) stehen.“

Kraterseen bieten sich als natürliches Experiment an
Die geographische Situation macht die untersuchten Kraterseen zu einem „natürlichen Experiment“. Die ursprünglichen Fischpopulationen stammen aus zwei viel älteren benachbarten Seen, zu denen es keinerlei Verbindung gibt, haben aber unabhängig voneinander diese Kette von Kraterseen besiedelt. Wann und wie Exemplare der Ursprungspopulation jeweils in die sieben kleineren Seen gelangten, lässt sich nur durch Simulationen errechnen. Es passierte aber vor nur wenigen hundert bis wenigen tausend Generationen, und es waren nicht sehr viele Fische, die die Kraterseen besiedelten. Die Entstehung von Arten kann sich also, wie hier gezeigt wurde, sehr viel schneller vollziehen als bisher gedacht. Der Evolutionsbiologe Meyer vergleicht die Seen mit Petrischalen, alle mit derselben genetischen Ausgangssituation geimpft, die über Generationen unabhängig evolvieren: „Es gibt nur ganz wenige Systeme in der Welt, wie die Galapagosinseln oder eben die Kraterseen in Nicaragua, die sich der Evolutionsforschung als natürliche Experimente anbieten.“

Förderung durch einen ERC Advanced Grant
Die umfangreichen Untersuchungen und aufwändigen Sequenzierungen wurde durch einen ERC Advanced Grant des European Research Council (ERC) ermöglicht. Für sein Projekt „Comparative genomics of parallel evolution in repeated adaptive radiations“ erhielt Axel Meyer von 2012 bis 2017 eine Förderung von 2,5 Millionen Euro. Kooperationspartner der Publikation sind außer dem Konstanzer Team auch Prof. Eugene Myers, Ph.D., und sein Mitarbeiter Dr. Martin Pippel am Max-Planck-Institut für molekulare Zellbiologie und Genetik in Dresden und am Zentrum für Systembiologie Dresden.

Faktenübersicht:
• Originalpublikation: Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0
• Sperrfrist bis 28. Oktober 2020, 17 Uhr (MEZ)
• Forschungsprojekt zur Frage, was eine Art ist und wie, warum und wie schnell neue Arten entstehen
• Artbildung im selben geografischen Gebiet (sympatrische Artbildung) zu neuen Arten bei polygenischer Basis wahrscheinlicher als bei begrenzter genetischer Basis (mendelischen vererbten Merkmalen)
• Gefördert von 2012 bis 2017 durch einen ERC Advanced Grant des European Research Council (ERC) (“GenAdap” #293700) mit 2,5 Millionen Euro
• Förderung mehrerer Teilprojekte, die auch in diese Publikation einflossen, durch die Deutsche Forschungsgemeinschaft (DFG). Mehr Informationen dazu: https://gepris.dfg.de/gepris/person/1621603?context=person&task=showDetail&a…;

Hinweis an die Redaktionen:
Fotos von Buntbarschen können im Folgenden heruntergeladen werden:
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
Fotos: Ad Konings

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Originalpublikation:
Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0

Quelle: IDW
(nach oben)


Leitfaden für mehr „Insektenschutz in der Kommune“

Ruth Birkhölzer Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz
Wie können Städte und Gemeinden konkret zum Schutz von Insekten beitragen? Welche Maßnahmen können sie auf kommunalen Flächen umsetzen? Und wie lässt sich der Insektenschutz in kommunalen Plänen und Satzungen verankern, wie in die Umweltbildung vor Ort integrieren? Antworten auf diese Fragen gibt eine Publikation, die in einer Kooperation des Deutschen Städte- und Gemeindebundes (DStGB) mit dem Bundesamt für Naturschutz (BfN) entstanden ist. Die Broschüre „Insektenschutz in der Kommune“ umfasst nicht nur Empfehlungen, sondern stellt auch Beispiele aus der Praxis vor.

„Der Rückgang der Vielfalt und der Häufigkeit von Insekten hat eine Vielzahl von Ursachen, neben qualitativen Veränderungen und der Zerstörung von Lebensräumen etwa Beeinträchtigungen durch Pflanzenschutzmittel oder durch künstliche Lichtquellen“, sagt Prof. Dr. Beate Jessel, Präsidentin des Bundesamtes für Naturschutz (BfN). „Städte und Gemeinden sind wichtige Akteure, um dieser Entwicklung entgegen zu wirken, denn sie haben einen entscheidenden Einfluss darauf, wie öffentliche Grünflächen, Wald in kommunalem Eigentum, Weg- und Straßenränder, Gewässer und Gräben gepflegt und bewirtschaftet werden. Oft lassen sich schon mit einfachen Maßnahmen neue Lebensräume für Insekten schaffen, zum Beispiel mit dem Anlegen von Blühstreifen, blüten- und damit artenreichen Wiesen oder auch Brachflächen und Staudenfluren.“

„Der dramatische Rückgang der Insektenarten in den letzten Jahrzehnten bringt die Natur aus dem Gleichgewicht. Den Artenrückgang aufzuhalten, ist daher eine wichtige gesamtgesellschaftliche Herausforderung“, sagt Dr. Gerd Landsberg, Hauptgeschäftsführer des Deutschen Städte- und Gemeindebundes (DStGB). Städte und Gemeinden spielen dabei eine zentrale Rolle, denn die Menschen erleben die Veränderung in der Natur in ihrem unmittelbaren Lebensumfeld. Neben Aktivitäten im Klimaschutz und zur Anpassung an die Folgen des Klimawandels haben Städte und Gemeinden auch zahlreiche Maßnahmen wie die naturnahe Pflege und Gestaltung der öffentlichen Grünflächen, die Renaturierung von verbauten Gewässern, die Schaffung grüner Straßenräume aber auch Bildungsmaßnahmen in Kindertagesstätten und Schulen umgesetzt. Dies zeigt, dass Belange der Biodiversität und des Insektenschutzes längst auf der kommunalpolitischen Agenda stehen“, betont Dr. Landsberg.

Die Dokumentation „Insektenschutz in der Kommune“ liefert konkrete Anregungen, wie Insekten im kommunalen Bereich geschützt und neue Lebensräume für Schmetterlinge, Wildbienen oder Laufkäfer geschaffen werden können. Neben der Bewirtschaftung von Flächen im Eigentum der Gemeinde umfasst dies auch Möglichkeiten der Bauleit- und Landschaftsplanung so-wie kommunaler Satzungen, wie beispielsweise zur Eindämmung von Schottergärten. Um bei Bürgerinnen und Bürgern mehr Bewusstsein für den Schutz von Insekten zu wecken, gibt die Broschüre auch Hinweise zur Umweltbildung. Sie enthält eine Fülle von Maßnahmenvorschlägen, die außerdem jeweils mit Praxisbeispielen und weitergehenden Hinweisen zu Ansprechpartnerinnen und Ansprechpartnern sowie Literatur untersetzt werden. Insgesamt werden so die sehr weitreichenden Potenziale deutlich, die die Gestaltung und Pflege der kommunalen Grünflächen für den Insektenschutz bietet.

Bezug:
Mewes, M. & Stahmer, J. (2020): Insektenschutz in der Kommune. Deutscher Städte- und Gemeindebund (Hrsg.). DStGB-Dokumentation No. 155.

Die Dokumentation steht kostenfrei zum Download zur Verfügung unter:
https://www.dstgb.de/dstgb/Homepage/Publikationen/Dokumentationen/

Gedruckte Exemplare können kostenfrei bestellt werden bei:
Bundesamt für Naturschutz, Außenstelle Leipzig, Alte Messe 6, 04013 Leipzig
E-Mail: PBox-BfN-Leipzig@BfN.de

Quelle: IDW
(nach oben)


Der Rest ist nicht alles – Für nachhaltige Biogaserzeugung ist mehr als Gärrestdüngung notwendig

Ulrich Eidenschink Presse- und Öffentlichkeitsarbeit
Technologie- und Förderzentrum im Kompetenzzentrum für Nachwachsende Rohstoffe (TFZ)
Reststoffe der Biogasvergärung werden als sogenannte Gärreste auf den Acker zurückgeführt. Ihr Einfluss auf die Bodeneigenschaften kann jedoch nur in großen Zeiträumen festgestellt werden. In einem zehnjährigen Forschungsprojekt haben das Technologie- und Förderzentrum (TFZ) und die Bayerische Landesanstalt für Landwirtschaft (LfL) untersucht, ob die Düngung mit Gärresten langfristig zur Nachhaltigkeit im Nutzungspfad Biogas beiträgt. Insgesamt wirkte sich die organische Düngung zwar positiv auf verschiedene Parameter aus. Die Rückführung von Gärresten reicht allerdings in intensiven Fruchtfolgen nicht aus, um einen ausgeglichenen Humushaushalt zu erreichen.

Zur Untersuchung von Humushaushalt, Bodenphysik und Bodenleben wurden an vier bayerischen Standorten Feldversuche mit Silomais und Winterweizen im jährlichen Wechsel durchgeführt.
Mit der Abfolge von Silomais und Winterweizen ohne Zwischenfruchtanbau wurde dabei eine intensive Bodenbewirtschaftung gewählt, um Einflussfaktoren von außen gering zu halten. Die rückgeführten Gärreste stammten aus Praxis-Biogasanlagen. In einer Versuchsvariante wurde repräsentativ für eine Silomaisverfütterung die Düngung mit Rindergülle untersucht.

Im Ergebnis war festzustellen, dass die Dichte und Vielfalt der Bodenlebewesen, wie z.B. Springschwänze und Milben, durch Gärrestdüngung nicht verringert wird. Eine Gärrestdüngung in angemessener Höhe ließ auch eine positive Wirkung auf die Regenwurmfauna erkennen. Allerdings profitierten Regenwürmer stärker von der Düngung mit Rindergülle, die mehr leicht verwertbare Kohlenstoffverbindungen enthält. Ebenso lässt die Düngung mit Gärresten keine Verschlechterung der Bodeneigenschaften erkennen: Die Stabilität der Bodenstruktur blieb erhalten, wie auch das Aufnahmevermögen für Niederschläge. Eine erhöhte Anfälligkeit für Verschlämmung und damit ein erhöhtes Erosionsrisiko waren nicht festzustellen.
Insgesamt zeigte sich allerdings ein genereller Rückgang der Humusgehalte, der vor allem der einseitigen und humuszehrenden Fruchtfolge aus Silomais und Winterweizen zuzuschreiben ist. Die Gärrestdüngung kann diesen Rückgang mindern und trägt bezogen auf die ausgebrachte Menge organischer Substanz zur Humusversorgung bei. Hinsichtlich der Humuswirkung führte die Düngung mit Gärresten und Rindergülle zu vergleichbaren Ergebnissen. In intensiven Fruchtfolgen reichen Gärreste allein jedoch nicht für eine nachhaltige Bodenbewirtschaftung aus.
Dr. Maendy Fritz, Projektkoordinatorin am TFZ, zieht als Fazit: „Das Gesamtsystem muss stimmen. Für eine nachhaltige Biogaserzeugung brauchen wir eine Fruchtfolge, die zu Betrieb und Standort passt. Diese sollte mit humusmehrenden Kulturen, Zwischenfrüchten oder Untersaaten ergänzt werden, um die Bodenfruchtbarkeit zu erhalten.“

Das Projekt wurde vom Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten gefördert. Als Projektpartner waren das Institut für Ökologischen Landbau, Bodenkultur und Ressourcenschutz und die Abteilung Qualitätssicherung und Untersuchungswesen von der Bayerischen Landesanstalt für Landwirtschaft beteiligt sowie das Amt für Ernährung, Landwirtschaft und Forsten Ansbach.

Der Forschungsbericht „Gärrest Bayern“ kann unter www.tfz.bayern.de kostenlos heruntergeladen werden.

Wissenschaftliche Ansprechpartner:
Dr. Maendy Fritz, Abteilungsleiterin Rohstoffpflanzen und Stoffflüsse am TFZ, Tel.: 09421 300 210

Originalpublikation:
https://www.tfz.bayern.de/mam/cms08/rohstoffpflanzen/dateien/tfz_bericht_67_gaerrest_geschuetzt.pdf

Quelle: IDW
(nach oben)


Der Entstehung von Darmkrebs auf der Spur: Wie Häm-Eisen aus rotem Fleisch gesunde Darmzellen schädigt

TU Kaiserslautern Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Dass ein übermäßiger Verzehr von rotem Fleisch das Risiko erhöht, an Darmkrebs zu erkranken, ist bekannt. Die organische Verbindung „Häm-Eisen“ steht im Verdacht, für die krebsfördernde Wirkung verantwortlich zu sein. Ein Forscherteam der TU Kaiserslautern um Professor Jörg Fahrer ist es jetzt gelungen, die toxische Wirkung von Häm-Eisen in gesunden Darmzellen zu beschreiben. Dabei haben die Wissenschaftler*innen das Protein Hämoxygenase-1 (HO-1) als wichtigen Schutzfaktor identifiziert. Das Enzym baut freies Häm in der Zelle ab und verhindert so dessen schädigenden Effekt. Die Forschungsergebnisse sind kürzlich in der namhaften Fachzeitschrift Cell Death & Disease veröffentlicht worden.

Darmkrebs zählt zu den drei häufigsten Krebsarten weltweit. Gerade bei Menschen im jungen und mittleren Alter von 20 bis 50 Jahren ist in letzter Zeit ein kontinuierlicher Anstieg bei den Neuerkrankungen zu verzeichnen. Dies wird mit veränderten Ernährungsgewohnheiten in Zusammenhang gebracht – unter anderem dem übermäßigen Verzehr von rotem Fleisch.

Um zu verstehen, welche Rolle Häm-Eisen in diesem Kontext spielt, hat ein Team unter Leitung von Professor Fahrer aus der Lebensmittelchemie und Toxikologie an der TUK sowie am Institut für Toxikologie der Universitätsmedizin Mainz die Effekte der organischen Eisenverbindung auf gesunde Darmzellen und entartete Darmkrebszellen analysiert. Zudem haben sie untersucht, inwieweit sich das organische Häm-Eisen von anorganischen Eisenformen wie zum Beispiel Eisenchlorid in der möglichen toxischen Wirkung unterscheidet. Die Studie wurde in Zusammenarbeit mit Wissenschaftler*innen der Universität Konstanz und der Universität Potsdam durchgeführt und durch die Deutsche Forschungsgemeinschaft finanziell unterstützt.

Die Forscher*innen konnten zunächst zeigen, dass Häm-Eisen in physiologisch relevanten Konzentrationen, wie sie in unserem Darm auftreten können, die Bildung von reaktiven Sauerstoffspezies fördert und Schäden an unserem Erbgut, der DNA, verursacht (siehe Abbildung 1A). „Diese Effekte waren bei den anorganischen Eisenverbindungen nur gering ausgeprägt“, wie Dr. Nina Seiwert, Erstautorin der Studie und Postdoktorandin in der Arbeitsgruppe Fahrer, ergänzt. So führte Häm-Eisen, aber nicht das anorganische Eisen, zum Absterben der normalen Darmzellen, was auch in sogenannten Organoiden aus gesundem Darmgewebe bestätigt werden konnte. „Hierbei handelt es sich quasi um ein Miniorgan, das in Kulturschalen eingebettet in einer Matrix mit speziellem Nährmedium wächst“, wie Dr. Seiwert erläutert. Interessanterweise zeigten die Darmkrebszellen jedoch eine geringere Empfindlichkeit gegenüber Häm-Eisen und überlebten trotz der Schäden.

Im weiteren Verlauf erforschte das Team die Antwort auf zellulärer Ebene und konnte zeigen, dass Häm-Eisen einen zellulären Sensor für oxidativen Stress aktiviert und dadurch in Darmzellen das Enzym HO-1 produziert wird (siehe Abbildung 1B). „HO-1 ist verantwortlich für den Abbau von Häm-Eisen zu anorganischem Eisen und weiteren Produkten“, wie Professor Fahrer erklärt. Um die Rolle der HO-1 genauer zu ergründen, bedienten sich die Wissenschaftler*innen pharmakologischer und molekulargenetischer Methoden. War die Produktion von HO-1 entsprechend deaktiviert, stieg die Konzentration reaktiver Sauerstoffspezies stark an, was zu vermehrten oxidativen DNA-Schäden und schlussendlich Zelltod führte.

„Zusammengenommen illustrieren diese Befunde, dass freies Häm-Eisen in Zellen toxisch wirkt und HO-1 eine ganz wichtige Schutzfunktion einnimmt“, so Professor Fahrer. Die Studie liefert so einen wichtigen Beitrag zum Verständnis der toxischen Wirkung von Häm-Eisen in Darmzellen und zeigt auf, wie es als Bestandteil von rotem Fleisch die Entstehung von Darmkrebs begünstigen kann.

Publikation
Seiwert N, Wecklein S, Demuth P, Hasselwander S, Kemper TA, Schwerdtle T, Brunner T, Fahrer J. Heme oxygenase 1 protects human colonocytes against ROS formation, oxidative DNA damage and cytotoxicity induced by heme iron, but not inorganic iron. Cell Death Dis. 2020; 11(9):787.
doi: 10.1038/s41419-020-02950-8.
https://www.nature.com/articles/s41419-020-02950-8

Fragen beantwortet:
Prof. Dr. Jörg Fahrer
Lebensmittelchemie und Toxikologie
Fachbereich Chemie der TU Kaiserslautern
Tel.: 0631 205-2974
E-Mail: fahrer@chemie.uni-kl.de

Quelle: IDW
(nach oben)


Größter CO2-Rückgang: Echtzeit-Daten zeigen die massiven Auswirkungen von Covid-19 auf die globalen Emissionen

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Während der andauernden Corona-Pandemie konnte in der ersten Jahreshälfte 2020 ein beispielloser Rückgang der CO2-Emissionen festgestellt werden – stärker als während der Finanzkrise von 2008, der Ölkrise von 1979 oder sogar während des Zweiten Weltkriegs.

Ein internationales Forscherteam hat herausgefunden, dass in den ersten sechs Monaten dieses Jahres 8,8 Prozent weniger Kohlendioxid ausgestoßen wurden als im gleichen Zeitraum im Jahr 2019 – ein Rückgang von insgesamt 1551 Millionen Tonnen. Die bahnbrechende Studie bietet nicht nur einen viel genaueren Blick auf die Auswirkungen von COVID-19 auf den globalen Energieverbrauch als frühere Analysen. Sie macht auch Vorschläge, welche grundlegenden Schritte unternommen werden könnten, um das globale Klima nach der Pandemie dauerhaft zu stabilisieren.

„Was unsere Studie einzigartig macht, sind die akribisch, nahezu in Echtzeit gemessener Daten“, erklärt Hauptautor Zhu Liu vom Department of Earth System Science an der Tsinghua-Universität in Peking. „Durch die Berücksichtigung täglicher Zahlen, die die Forschungsinitiative Carbon Monitor gesammelt hat, konnten wir uns einen viel schnelleren und präziseren Überblick verschaffen – einschließlich Zeitreihen, die zeigen, wie der Emissionsrückgang mit den Lockdowns in den einzelnen Ländern korrespondiert hat. Im April, auf dem Höhepunkt der ersten Welle von Corona-Infektionen, als die meisten Länder ihr öffentliches Leben erheblich zurückfuhren, gingen die Emissionen sogar um 16,9 % zurück. Insgesamt führten die verschiedenen Ausbrüche zu Emissionssenkungen, die wir normalerweise nur kurzfristig an Feiertagen wie Weihnachten oder dem chinesischen Frühlingsfest erleben.“

Die Studie, veröffentlicht in der neuesten Ausgabe von Nature Communications, zeigt, welche Teile der Weltwirtschaft am stärksten betroffen waren. „Die größte Emissionsreduktion fand im Bereich des Landverkehrs statt“, erklärt Daniel Kammen, Professor und Vorsitzender der Energy and Resources Group sowie Professor an der Goldman School of Public Policy, University of California, Berkeley. „Vor allem aufgrund des weit verbreiteten Arbeitens von Zuhause gingen die CO2-Emissionen im Verkehr weltweit um 40% zurück. Im Gegensatz dazu trugen der Energie- und der Industriesektor mit -22 %, bzw. -17 % weniger zu diesem Rückgang bei, ebenso wie der Luft- und der Schifffahrtssektor. Überraschenderweise verzeichnete sogar der Wohnsektor einen kleinen Emissionsrückgang um 3 %: Das lag daran, dass aufgrund eines ungewöhnlich warmen Winters auf der Nordhalbkugel der Heizverbrauch zurückging, obwohl die meisten Menschen während des Lockdowns viel mehr zu Hause waren.“

Um dieses umfassende Bild zu zeichnen, stützten sich die Forscher bei ihren Schätzungen auf eine möglichst breite Palette von Daten: präzise, stündliche Datensätze der Stromerzeugung in 31 Ländern, täglicher Fahrzeugverkehr in mehr als 400 Städten weltweit, tägliche Passagierflüge, monatliche Produktionsdaten für die Industrie in 62 Ländern sowie Brennstoffverbrauchsdaten für Gebäudeemissionen in mehr als 200 Ländern.

Die Forscher ermittelten jedoch auch starke Rebound-Effekte. Mit Ausnahme eines anhaltenden Rückgangs der Emissionen aus dem Verkehrssektor erreichten die meisten Volkswirtschaften im Juli 2020, sobald die Sperrmaßnahmen aufgehoben wurden, wieder ihr gewohntes CO2-Niveau. Doch selbst wenn sie auf ihren historisch niedrigen Level verharrten, würde sich dies nur geringfügig auf die langfristige CO2-Konzentration in der Atmosphäre auswirken.

Daher betonen die Autoren, dass die einzig effektive Strategie zur Stabilisierung des Klimas nur eine Transformation des Industrie- und Handelssektors sein kann. „Dieser CO2-Rückgang ist zwar beispiellos, doch ein Rückgang menschlicher Aktivitäten kann nicht die Antwort sein“, sagt Ko-Autor Hans Joachim Schellnhuber, Gründungsdirektor des Potsdam-Instituts für Klimafolgenforschung. „Stattdessen brauchen wir umfassende strukturelle Veränderungen in unseren Energieproduktions- und -verbrauchssystemen. Individuelles Verhalten ist sicherlich wichtig, aber worauf wir uns wirklich konzentrieren müssen, ist die Verringerung der CO2-Intensität unserer globalen Wirtschaft.“

Artikel: Zhu Liu, Philippe Ciais, Zhu Deng, Ruixue Lei, Steven J. Davis, Sha Feng, Bo Zheng, Duo Cui, Xinyu Dou, Biqing Zhu, Rui Guo, Piyu Ke, Taochun Sun, Chenxi Lu, Pan He, Yuan Wang, Xu Yue, Yilong Wang, Yadong Lei, Hao Zhou, Zhaonan Cai, Yuhui Wu, Runtao Guo, Tingxuan Han, Jinjun Xue, Olivier Boucher, Eulalie Boucher, Frédéric Chevallier, Katsumasa Tanaka, Yimin Wei, Haiwang Zhong, Chongqing Kang, Ning Zhang, Bin Chen, Fengming Xi, Miaomiao Liu, François-Marie Bréon, Yonglong Lu, Qiang Zhang, Dabo Guan, Peng Gong, Daniel M. Kammen, Kebin He & Hans Joachim Schellnhuber (2020): Near-real-time monitoring of global CO2 emissions reveals the effects of the COVID-19 pandemic. Nature Communications. DOI: 10.1038/s41467-020-18922-7.

Wissenschaftliche Ansprechpartner:
Jonas Viering, presse@pik-potsdam.de

Originalpublikation:
https://doi.org/10.1038/s41467-020-18922-7

Weitere Informationen:
https://carbonmonitor.org

Quelle: IDW
(nach oben)


Auf die Wirkung kommt es an: Neues Verfahren spürt Schadstoffe anhand ihrer Effekte auf Organismen auf

Dominik Rösch Referat
Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Arzneimittel, Pflanzenschutzmittel, Biozide, Wasch- und Reinigungsmittel: Die Vielfalt an schädlichen Stoffen ist enorm. Dementsprechend aufwändig und teuer ist deren Nachweis. Im Rahmen des gemeinsamen Forschungsprojektes TREES analysierten Forscher der Bundesanstalt für Gewässerkunde und der Hebräischen Universität in Jerusalem die Wirkungen von Mikroverunreinigungen in der Umwelt. Der Clou: Über die negativen Effekte auf die im Wasser lebenden Organismen werden die verantwortlichen Schadstoffe ermittelt. So können auch Schadstoffe und deren Abbauprodukte erkannt werden, die in der Umwelt bisher nicht als solche bekannt waren.

Die Zahl der industriell hergestellten Chemikalien hat sich in den letzten 20 Jahren mehr als verdreifacht und liegt heute bei mehr als 350.000 Substanzen. Gewässer werden in Europa standardmäßig auf ausgewählte Stoffe untersucht, die für Mensch und Umwelt gefährlich sind, wenn festgelegte Konzentrationen überschritten werden. Neben diesen sogenannten prioritären Stoffen gibt es aber noch viele weitere, zum Teil bislang unbekannte Schadstoffe, die unsere Gewässer gefährden. Zwischen Juni 2016 und Dezember 2019 entwickelten Forscher in dem vom Bundesministerium für Bildung und Forschung (BMBF) und dem israelischen Wirtschaftsministerium (MOST) geförderten Projekt TREES (Tracking Effects of Environmental organic micro-pollutants in the Subsurface; FKZ: 02WIL1387) daher ein neues Verfahren zur effektbasierten Bestimmung organischer Schadstoffe.

Auf die Wirkung kommt es an
Der entscheidende Vorteil des Ansatzes im Projekt TREES besteht darin, dass sich problematische Substanzen anhand ihrer unerwünschten biologischen Effekte bestimmen lassen. Bisher wird in Umweltproben nach bekannten, in Listen festgelegten Schadstoffen gesucht („Ziel- oder target-Analytik“), um dann im nächsten Schritt auf das Gefahrenpotenzial einer Belastung zu schließen. Und so funktioniert die Innovation: Proben, die oft einen Cocktail bekannter und unbekannter Substanzen enthalten, werden durch ein spezielles Verfahren – die Dünnschichtchromatographie – getrennt. Nach der Trennung untersucht man die Oberfläche der Dünnschichtplatte mit verschiedenen biologischen Testverfahren. Getestet wird, ob die Probe gentoxische, dioxinähnliche, pflanzentoxische und eine Reihe verschiedener hormoneller Wirkungen hervorruft. Wenn der Test positiv verläuft, also die unerwünschten Effekte eintreten, kommen entsprechend wirkende Chemikalien in einer Probe vor. Auf Basis der verschiedenen Tests erzeugen die Forscher sogenannte Aktivitätsprofile. Diese lassen die Wissenschaftler gezielt auf die auslösende Stoffgruppe schließen – selbst wenn diese in der Umwelt zunächst noch gar nicht bekannt oder gelistet ist. Mit nachgeschalteten Analysen identifiziert man dann gezielt die verantwortlichen Schadstoffe. Das ist wesentlich effizienter, als grundsätzlich eine große Bandbreite von Schadstoffen zu messen.

Innovation für intensiv genutzte Wasserressourcen
„Die Ergebnisse haben vor allem für trockene Regionen einen hohen gesellschaftlichen Wert. Dort werden die Frischwasserressourcen knapper und künftig noch intensiver genutzt“, sagt Dr. Sebastian Buchinger, der TREES-Projektleiter an der BfG. „Das Vorgehen bietet die Chance, die Effizienz neuer Abwasserbehandlungsmethoden, wie zum Beispiel von Retentionsbodenfiltern zu optimieren oder die Gefährdung des Grundwassers,
z. B. im Einflussbereich einer Deponie, besser als bisher einzuschätzen“, erklärt Buchinger weiter. Die neu entwickelten Verfahren besitzen das Potenzial, die Wasserversorgung in Israel und seinen Nachbarstaaten, aber auch in Deutschland zu verbessern. Die Entwicklungen sind darüber hinaus ein wichtiger Beitrag zur Weiterentwicklung der EU-Wasserrahmenrichtlinie.

Wissenschaftliche Ansprechpartner:
Dr. Georg Reifferscheid, Referat Biochemie, Ökotoxikologie, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1. 56068 Koblenz, Fon: 0261/1306 5176, E-Mail: reifferscheid@bafg.de

Weitere Informationen:
https://www.bafg.de/DE/Service/presse/2020-10-07_TREES_Bericht
Joint Final Report: TREES – Tracking Effects of Environmental organic micro-pollutants in the Subsurface

Quelle: IDW
(nach oben)


Kein Nachwuchs bei Dorsch und Hering – Wissenschaft alarmiert: Fischbeständen in der westlichen Ostsee droht Kollaps

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz Zentrums für Ozeanforschung in Kiel haben zusammen mit mehreren Berufsfischern in der Kieler Förde Untersuchungen zum Zustand und Laicherfolg von Dorsch und Hering im Frühjahr 2020 durchgeführt. Das Ergebnis ist erschreckend und alarmierend.

Nach Jahrzehnten der Überfischung sind die Bestände von Dorsch und Hering in der westlichen Ostsee so klein, dass sie während der Laichzeit nicht mehr ihr ganzes Laichgebiet mit Eiern versorgen können. Beim Hering liegt der Nachwuchs seit 2005 weit unter dem Mittel der vorherigen Jahre und nimmt kontinuierlich weiter ab. Seit 2018 empfiehlt deshalb der Internationale Rat für Meeresforschung (ICES) eine Einstellung der Heringsfischerei, dieser Rat wurde aber bisher von den politisch Handelnden nicht befolgt. Beim Dorsch ist in vier der letzten fünf Jahre der Nachwuchs ganz oder fast ganz ausgeblieben. Der Bestand besteht daher fast nur noch aus jetzt vierjährigen Dorschen, die sich noch nicht erfolgreich fortgepflanzt haben und die Hauptlast der Dorschfischerei tragen. „Wenn wir diesen Jahrgang ohne Ersatz verlieren, dann haben wir den Bestand verloren“ sagt Dr. Rainer Froese, Meeresökologe und Experte für Fischereiwissenschaft am GEOMAR.

Die zu kleinen Bestände sind zudem extrem schlecht auf den Klimawandel vorbereitet. Das zeigte sich in diesem Frühjahr, wo der ungewöhnlich warme Winter die meisten Fische dazu veranlasst hat, zu früh abzulaichen, bevor genügend Nahrung für die Larven vorhanden war. Aufgrund der zu kleinen Bestandsgrößen haben nur sehr wenige Fische zur richtigen Zeit am richtigen Ort abgelaicht. Die Larven dieser Fische hatten mit dem zusätzlichen Problem zu kämpfen, dass sich eingeschleppte Rippenquallen im warmen Wasser massiv vermehrt haben und mit den Fischlarven um das Plankton als Futter konkurrieren. „Wir hatten noch in keinem Jahr so viele Rippenquallen in unseren Proben wie jetzt“ sagt Meeresbiologin und Expertin für Heringslarven, Dr. Catriona Clemmesen vom GEOMAR. „Alle Anzeichen deuten daher darauf hin, dass es in diesem Jahr bei Dorsch und Hering keinen Nachwuchs geben wird.“

Auch die Fischer haben die Änderungen im Ökosystem bemerkt: „Um diese Jahreszeit müsste es eigentlich massenhaft Ohrenquallen und Feuerquallen geben“, sagt Erik Meyer, Berufsfischer aus Schönberg. „Stattdessen haben wir glasklares Wasser und Quallen gibt es nicht.“ Auch Oliver Eggerland, Berufsfischer aus Laboe, hat noch nie so wenig Jungfische gesehen wie in diesem Jahr. „Normalerweise sehe ich um diese Jahreszeit Schwärme von Jungheringen im Flachwasser. Jetzt ist nichts da.“

Aus Sicht der Fischer und der GEOMAR Wissenschaftler muss dringend gehandelt werden, um eine Katastrophe abzuwenden. Sie schlagen eine völlige Einstellung jeglicher Fischerei auf Dorsch und Hering vor, bis mehrfache erfolgreiche Fortpflanzung die Bestände dauerhaft abgesichert hat. „Es kann nicht angehen, dass wir jetzt die letzten Dorsche und Heringe wegfangen,“ sagt Thorsten Reusch, Professor am GEOMAR und Experte für evolutionäre Genetik. „Die wenigen Jungfische, die trotz der widrigen Bedingungen überlebt haben, besitzen offenbar solche Erbanlagen, die wir für die Zukunft der Bestände brauchen. Sie stammen von Eltern, die erst bei höheren Temperaturen zum Laichen kommen und deren Gene müssen unbedingt an die nächsten Generationen weitergegeben werden“, fügt er hinzu.

Die Fischer und Wissenschaftler haben sich mit ihren Beobachtungen an den Umweltminister von Schleswig-Holstein, Jan Philipp Albrecht, und an die Bundesministerin für Landwirtschaft, Julia Klöckner gewandt. In ihrem Appell weisen sie deutlich darauf hin, dass die Fischer in dieser Situation nicht allein gelassen werden können. Sie schlagen angemessene Abfindung vor für Fischer, die aussteigen wollen, und angemessene Unterstützung für Fischer, die im Beruf bleiben wollen. Fischerei auf Plattfische (Scholle, Flunder, Kliesche, Steinbutt, Glattbutt) ist weiterhin möglich, Beifang von Hering und Dorsch muss dabei aber strikt vermieden oder gering halten werden.

Auch ist es aus ihrer Sicht unbedingt erforderlich, die Auswirkungen der eingeschleppten Rippenquallen auf das natürliche Nahrungsnetz der Ostsee eingehend zu untersuchen. Vielleicht gibt es ja Möglichkeiten, einheimische Räuber oder Nahrungskonkurrenten der ungebetenen Gäste so zu fördern, dass die Ausbreitung der Rippenquallen eingedämmt werden kann.

Die Zeit für Maßnahmen zur Begrenzung der Fischerei auf Dorsch und Hering ist knapp: schon am 19. und 20. Oktober treffen sich die Landwirtschaftsminister der EU und beschließen die Fangquoten für das nächste Jahr.

Wissenschaftliche Ansprechpartner:
Dr. Rainer Froese rfroese@geomar.de
Prof. Dr. Thorsten Reusch treusch@geomar.de

Quelle: IDW
(nach oben)


Korallenbleiche: Riff erholt sich schneller als gedacht

Sarah Batelka Hochschulkommunikation und -marketing
Universität Bremen

Wie schnell kann sich ein Riff von einer Korallenbleiche erholen? Schneller als gedacht – wenn der Mensch es in Ruhe lässt. So lautet das Fazit eines internationalen Forschungsprojekts unter Leitung der Abteilung Marine Ökologie der Universität Bremen in Partnerschaft mit der Seychelles Islands Foundation (SIF). Nur vier Jahre, nachdem bis zu zwei Drittel eines Riffs im Indischen Ozean beschädigt worden waren, entdeckten die Forschenden Erstaunliches: Große Teile der Korallen hatten sich erholt.

„Diese Erholungsgeschwindigkeit gehört zu den schnellsten, die jemals für Riffe beobachtet wurde“, sagt Christian Wild, Leiter der Arbeitsgruppe „Marine Ökologie“. Anna Koester, Doktorandin der Arbeitsgruppe, ist Erstautorin einer Studie, die kürzlich in der Fachzeitschrift „Scientific Reports“ veröffentlicht wurde. Die Meeresökologin geht davon aus, dass die überraschend schnelle Erholung vor allem mit der besonderen Lage des Riffs zu tun hat: Das Forschungsteam untersuchte den Zustand der Korallen im Aldabra Atoll, einer kaum besiedelten und weit draußen im Indischen Ozean gelegenen Inselgruppe. „Dort spielen menschgemachte lokale Faktoren wie der Eintrag von Nährstoffen, die Meeresverschmutzung und die Überfischung so gut wie keine Rolle“, erläutert die Wissenschaftlerin. Das ideale Gebiet also, um herauszufinden, wie sich der Zustand geschädigter Riffe verändert, wenn sie keinen menschengemachten Stressfaktoren ausgesetzt sind.

Die Untersuchung der Wissenschaftlerinnen und Wissenschaftler zeigte: Die Riffe, die in der ausgedehnten Lagune des Aldabra Atolls liegen, erholten sich in weniger als vier Jahren von der globalen Korallenbleiche der Jahre 2015/2016. Damals waren bis zu zwei Drittel der Korallen beschädigt worden. Auch die Korallen auf der dem offenen Meer zugewandten Seite regenerierten sich schnell, wenn auch nicht ganz so rasch wie in der geschützten Lagune. „Sie sind der Strömung und den Wellen ausgesetzt, das scheint eine Rolle zu spielen“, sagt Koester. Deutlich langsamer ging es in tieferen Regionen voran: Im Gegensatz zu den Riffen im flachen Gewässer erholten sich die tiefer gelegenen Korallen nur schleppend.

Das Fazit von Koester und Wild: Wenn es gelingt, lokale Stressfaktoren wie den Eintrag von Nährstoffen entscheidend zu reduzieren, dann können sich Korallenriffe gut und schnell von einer Bleiche erholen und haben eine Chance, weiterzuleben. Trotzdem sei es essentiell, die Auslöser von Korallenbleichen, vor allem die Ozeanerwärmung, zu reduzieren. Denn nicht jedes Riff regeneriere sich gleich gut – vor allem in weniger geschützter Umgebung werde mehr Zeit benötigt. „Alle Modelle sagen voraus, dass die Frequenz von Korallenbleichen in Zukunft zunehmen wird“, betont Wild. Dann würden auch für die bis jetzt privilegierten Korallenriffe in der Lagune von Aldabra harte Zeiten anbrechen.

Wissenschaftliche Ansprechpartner:
https://www.uni-bremen.de/marine-ecology

Originalpublikation:
Koester A, Migani V, Bunbury N, Ford A, Sanchez C, Wild C (in press): Early trajectories of benthic coral reef communities following the 2015/16 coral bleaching event at remote Aldabra Atoll, Seychelles. Scientific Reports
https://doi.org/10.1038/s41598-020-74077-x

Quelle: IDW
(nach oben)


HU-Podcast: „Mose wurde viel kritisiert“

Cordula de Pous Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin

Ein Gespräch mit HU-Professorin Katharina Pyschny über Führungskonzepte im Alten Testament und ihre heutige Relevanz
Das Alte Testament kennt eine unglaubliche Bandbreite an Führungspersönlichkeiten und Führungskonzepten, sagt die Juniorprofessorin Katharina Pyschny vom Zentralinstitut für Katholische Theologie an der Humboldt-Universität zu Berlin. Das Institut feiert dieses Wintersemester seinen ersten Geburtstag. Anlass genug für Radiojournalistin Cora Knoblauch, um mit Prof. Katharina Pyschny über ihre Forschung zu sprechen.

Prof. Pyschny forscht zu Führungskonzepten im Alten Testament, wie diese literarisch legitimiert werden, wie sie sich zu realgeschichtlichen Institutionalisierungsprozessen im antiken Israel verhalten und welche Rolle sie für die heutige Zeit spielen könnten. In der neuen Podcastfolge beschreibt die Forscherin die Stärken und Schwächen im Führungsstil von Mose: „Der Schwiegervater von Mose erkennt, dass Mose total überfordert ist mit der Führungsaufgabe von morgens bis abends Recht zu sprechen“, so Pyschny.

Dabei liefere das AT ein konkretes Beispiel für Delegation – eines der vielen Dinge, die wir von Mose zum Thema Führung lernen können. Die Professorin erklärt auch, warum im Alten Testament eine Führungsperson nicht unbedingt steinalt sein musste. Dass das Ringen um Führung zum Volk Israel auf seinem Weg durch die Wüste dazugehört, ist eine weitere Einsicht aus dem Podcast, der dieses Mal vor dem Deutschen Bundestag aufgenommen wurde.

Dynamisches Konzept
Überrascht hat Prof. Pyschny die Erkenntnis, dass die alttestamentlichen Texte viele verschiedene Führungskonzepte miteinander in einen literarischen Diskurs bringen, ohne ein ideales Modell normativ vorzugeben.

Das Alte Testament sei nur eine von vielen (antiken) Quellen zum Thema Führung und man müsse bei der Überlegung nach der Anwendbarkeit auf die Gegenwart den historischen Kontext berücksichtigen, betont Pyschny. Allerdings werde schon in antiker Traditionsliteratur wie dem Alten Testament deutlich, dass „Führung ein dynamisches Konzept ist, es verändert die Führungsperson und die Personen, die geführt werden,“ so die Forscherin.

Mehr zu diesem Thema hören Sie auf der Podcast-Seite der HU: https://www.hu-berlin.de/de/podcampus

Dort finden sich auch alle bisherigen Folgen von „Humboldt Hören“ von „Licht, Atomen und Geheimdiensten“ bis „Was ist oder war der Islam?“.

Sie finden die Podcasts der Humboldt-Universität auch auf Spotify und Apple Podcasts.

Kontakt:
Hans-Christoph Keller
Pressesprecher der Humboldt-Universität zu Berlin
Tel.: 030 2093-12710
pr@hu-berlin.de

Quelle: IDW
(nach oben)


Klimaschutz lässt sich sozialverträglich gestalten

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Die Klima- und Energiepolitik war bisher oft nicht optimal, was die sozialen Folgen angeht – also etwa die Lebensqualität des Einzelnen, die Verteilung des Wohlstands und der lokale Zusammenhalt. Das liegt nicht in der Natur der Sache, sondern lässt sich vermeiden, wie jetzt eine aufwendige Metastudie unter Leitung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) belegt. Demnach gibt es inzwischen soziale Erfolgsstories für alle wichtigen Politikinstrumente, sowohl in Industrie- als auch in Entwicklungsländern. Die Studie wurde jetzt in der renommierten Fachzeitschrift Environmental Research Letters veröffentlicht.

Mit einer systematischen Methode der Suche, Auswahl und Durchsicht der gesamten Forschung zu umgesetzter Klimapolitik untersuchten die Autoren, inwieweit Regierungen mit Klimaschutz zugleich positive soziale Ergebnisse erzielt haben. „Schlecht konzipierte Klimapolitik, die soziale Probleme verschärft, ist ein Geschenk für die Kohle- und Ölindustrie“, sagt William Lamb, Forscher in der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung und Leitautor der Studie. „Dies gilt es unbedingt zu vermeiden – sonst nutzen deren Lobbyisten solche Fehlleistungen, um die Klimapolitik zurückzudrehen und die eigenen Folgekosten gering zu halten.“

Die Studie untersucht verschiedene Formen der Klimapolitik, wie etwa höhere Spritsteuern, CO2-Bepreisung im Energiesektor, Subventionen für Solarzellen, Hilfsprogramme für die Verbesserung von Energieeffizienz, Einspeisevergütungen für Grünstrom sowie Staudammbauten und andere Großprojekte. Für jedes Politikinstrument gibt es Beispiele für sozial unbedenkliche Umsetzung – etwa das „Warm Front Home Energy Efficiency Scheme“ in Großbritannien, das die Brennstoffkosten für Haushalte mit niedrigem Einkommen senkte. Aber auch von gescheiterten Projekten – etwa große Wasserkraft-Installationen in Südostasien mit schwerwiegenden Auswirkungen auf Lebensgrundlagen und Armut.

„Insgesamt ist unsere Studie Anlass zur Zuversicht“, bilanziert MCC-Forscher Lamb. „Denn wo der Kampf gegen die Erderwärmung nicht nur gut gemeint, sondern auch gut gemacht ist, lassen sich die vielzitierten Co-Benefits der Klimapolitik gut nachweisen. Wir können also ambitionierte Klima-Maßnahmen unterstützen, die auch soziale Fragen direkt angehen.“ Der Metastudie zufolge steckt die Forschung zu den umgesetzten Politik-Ansätzen allerdings noch in den Kinderschuhen. Insgesamt gibt es bislang relativ wenig relevante Literatur, der Großteil konzentriert sich auf die westlichen Industrieländer, und zudem liegt der Schwerpunkt eher auf Einzelmaßnahmen als auf der Politik insgesamt.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/lamb-william.html

Originalpublikation:
Lamb, W., Antal, M., Bohnenberger, K., Brand-Correa, L., Müller-Hansen, F., Jakob, M., Minx, J., Raiser, K., Williams, L., Sovacool, B., 2020, What are the social outcomes of climate policies? A systematic map and review of the ex-post literature, Environment Research Letters
https://iopscience.iop.org/article/10.1088/1748-9326/abc11f

Weitere Informationen:
http://www.mcc-berlin.net

Quelle: IDW
(nach oben)


Künstliche Intelligenz zum Schutz des Grundwassers

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Mit einem Modell für Vorhersagen will ein Forscherverbund aus Karlsruhe, an dem auch das Karlsruher Institut für Technologie (KIT) beteiligt ist, effizient und nachhaltig Nitrat im Grundwasser reduzieren. Dabei wird auf Künstliche Intelligenz (KI) gesetzt. So soll eine intelligente Entscheidungsunterstützung erreicht werden, bei der Rechner selbstständig lernen können – um entsprechende Maßnahmen zu ergreifen. Das Bundesumweltministerium (BMU) fördert im Rahmen der KI-Strategie Projekte, die mit Künstlicher Intelligenz ökologische Herausforderungen bewältigen (KI-Leuchttürme). Die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter hat nun den Förderbescheid überreicht.

Hohe Nitratkonzentrationen im Grundwasser und ihre Konsequenzen für Mensch und Umwelt rücken in den letzten Jahren immer stärker ins Bewusstsein der Öffentlichkeit. Werden die auf den Feldern angebauten Kulturen nicht pflanzenbedarfsgerecht gedüngt, gelangt mehr Stickstoff in den Boden, als die Pflanzen aufnehmen können. Dadurch sickert der im Wasser gelöste Stickstoff als Nitrat bis ins Grundwasser. Etwa 70 Prozent des deutschen Trinkwassers werden aus Grundwasser gewonnen. Zu hohe Nitratwerte im Trinkwasser können zu gesundheitlichen Beeinträchtigungen führen, sodass die Versorgungsunternehmen aufwändige Maßnahmen zur Nitratminderung ergreifen müssen. Die Überwachung der Wasserbeschaffenheit zeigt, dass der Zustand des Grundwassers vielerorts gefährdet ist.

Im Verbundprojekt „Nitrat-Monitoring 4.0 – Intelligente Systeme zur nachhaltigen Reduzierung von Nitrat im Grundwasser“ (NiMo 4.0) entwickeln Wissenschaftlerinnen und Wissenschaftler, unter anderem des KIT, ein intelligentes System, um mit wenigen Messstellen die räumliche und zeitliche Verteilung des Nitrats im Grundwasser besser verstehen und vorhersagen zu können. Mithilfe solcher Vorhersagen, die auf Verfahren des Maschinellen Lernens beruhen, soll eine intelligente Entscheidungsunterstützung erreicht werden, um optimale Standorte für zusätzliche Messungen zu finden und Programme zum Grundwasserschutz zielgerichtet zu gestalten. NiMo 4.0 wird im Rahmen der Initiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) als eines von bundesweit 28 Projekten mit insgesamt 2,478 Millionen Euro gefördert.

„Das BMU hat sich für die Förderung dieses Projektes entschieden, weil die Nitratproblematik für das Grundwasser in Deutschland eine ökologische Herausforderung darstellt“, erläutert die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter (BMU) die Bewilligung bei der Übergabe des Zuwendungsbescheids an die Verbundpartner. „Der Einsatz intelligenter Software kann dabei helfen, ökologische und ökonomische Interessen der Gesellschaft, der Wasserversorgungsunternehmen sowie der Landwirtschaft miteinander zu vereinbaren. Dadurch sollen wegweisende Beispiele für intelligente Umwelttechnologien entstehen, die später eine große Breitenwirkung entfalten können.“

Interdisziplinäres Konsortium entwickelt Nitrat-Monitoring 4.0
Für dieses BMU-Verbundprojekt bündelt ein interdisziplinäres Konsortium mit Partnern aus der Grundlagen- und der anwendungsorientierten Forschung, aus Technologietransfer und Wirtschaft seine Kompetenzen: die Disy Informationssysteme GmbH (Projektleitung), eine Ausgründung des FZI Forschungszentrum Informatik und der Universität Karlsruhe, dem heutigen Karlsruher Institut für Technologie (KIT), die Abteilung Hydrogeologie des Instituts für Angewandte Geowissenschaften (AGW) des KIT, das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB mit seinen Standorten Karlsruhe und Ilmenau und das DVGW-Technologiezentrum Wasser (TZW) mit seinen Standorten Karlsruhe und Dresden. Die entwickelten Lösungsansätze werden in zwei wasserwirtschaftlich bedeutenden Pilotregionen prototypisch implementiert und demonstriert: in den Einzugsgebieten des Zweckverbands Landeswasserversorgung in Baden-Württemberg und des Wasser- und Abwasser-Zweckverbands Niedergrafschaft in Niedersachsen.

Das AGW am KIT ist in Deutschland führend in der Forschung zur Anwendung Künstlicher Intelligenz für hydrogeologische Fragestellungen und verfügt über langjährige Erfahrung in der Analyse und Beurteilung von Schadstoffen im Grundwasser. Im Projekt bringt das AGW seine Expertise vor allem bei der KI-gestützten Modellierung der Nitratverteilung im Grundwasser mit neuronalen Netzen ein. Zudem übernimmt es die fachlich-wissenschaftliche Gesamtkoordination des Projekts.

Das Fraunhofer IOSB unterstützt die KI-gestützte Datenauswertung im Projekt insbesondere mit einem Vorgehensmodell zum systematischen Einsatz von Maschinellen Lernverfahren sowie einem Vorhersagemodell für die Nitratgehalte im Grundwasser, um Auffälligkeiten in Messwerten frühzeitig zu entdecken. Außerdem hat das IOSB einen Arbeitsschwerpunkt bei der Gestaltung einer intelligenten Sensordateninfrastruktur. Hier soll speziell der vom IOSB mitgestaltete, leichtgewichtige Standard SensorThings API des Open Geospatial Consortium (OGC) eingesetzt und weiterentwickelt werden, der sowohl die Anbindung neuer Sensoren als auch die Integration bestehender Datenbanken erleichtert.

Das TZW verbindet Forschung und Praxis in Form von Expertisen, Studien und Prüfungsleistungen für die gesamte Wasserbranche. Ein Schwerpunkt der Aktivitäten liegt auf der wissenschaftlichen Beratung von Wasserversorgungsunternehmen. Hierbei spielen das Ressourcenmanagement und das Problemfeld „Grundwasserschutz und Landwirtschaft“ eine zentrale Rolle. Am TZW liegen umfassende Praxiserfahrungen mit Grundwassermonitoring, mit der Analyse von großen Datenmengen und Datenbeständen zur Nitratbelastung in den deutschen Rohwasserressourcen vor. Über ein Online-Portal, das das TZW in Zusammenarbeit mit Disy aufgebaut hat, können Wasserversorger Daten zur Grund- und Rohwasserbeschaffenheit für regionale und überregionale Auswertungen bereitstellen. Im Projekt NiMo 4.0 bearbeitet das TZW die Themen Optimierung von Grundwassermessnetzen und Werkzeuge zur Überwachung der Grundwasserbeschaffenheit im täglichen Betrieb.

Die Disy Informationssysteme GmbH, die das Verbundprojekt koordiniert, führt die verschiedenen wissenschaftlich-technischen Lösungsbeiträge in prototypischen Softwarelösungen zur intelligenten Datenanalyse und zu benutzerfreundlichen Entscheidungsunterstützungssystemen zusammen. Entwicklungsschwerpunkte sind hier effiziente Datenvisualisierungen und effektive Benutzerschnittstellen für Endanwender sowie moderne Dateninfrastrukturen, die sich in die existierende Softwarelandschaft der Anwender gut einbetten lassen. „Wir freuen uns sehr auf dieses anspruchsvolle Projekt zu einem Thema mit großer ökologischer Bedeutung“, ist Disy-Geschäftsführer Claus Hofmann stolz auf das Gewinnen dieser Förderung in einem stark umkämpften Ideenwettbewerb. „NiMo 4.0 wird auch Disy dabei helfen, modernste Methoden der Data Science und der Künstlichen Intelligenz für den Umweltschutz einzusetzen und weiterzuentwickeln.“

Weitere Informationen: https://nimo-projekt.de/

Weitere Pressekontakte:
KIT: Johannes Wagner, Pressereferent, Tel.: +49 721 608-41175,
E-Mail: johannes.wagner@kit.edu
Disy: Dr. Wassilios Kazakos, Leiter Marketing, Business Development, Tel.: +49 721 1 6006-000,
E-Mail: presse@disy.net
Fraunhofer IOSB: Ulrich Pontes, Presse und Kommunikation, Tel.: +49 721 6091-301
E-Mail: ulrich.pontes@iosb.fraunhofer.de
TZW: Dagmar Uhl, Öffentlichkeitsarbeit, Tel: +49 721 9678-233,
E-Mail: dagmar.uhl@tzw.de

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und
Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwor-tungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissen-schaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Anhang:
Künstliche Intelligenz zum Schutz des Grundwassers

Quelle: IDW
(nach oben)


Kurzsichtigkeit: Kinderaugen brauchen mehr Sonnenlicht

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Stiftung Kindergesundheit informiert über die Zunahme von Sehproblemen und über Möglichkeiten der Vorbeugung Das Tragen einer Brille gehört zum Alltag vieler Kinder in Deutschland. Die Mehrzahl von ihnen benötigt die Sehhilfe wegen einer Kurzsichtigkeit, berichtet die Stiftung Kindergesundheit in einer aktuellen Stellungnahme. Bis zum Ende der Grundschulzeit werden in Deutschland heute rund 15 Prozent aller Kinder kurzsichtig. Der Anteil der Kurzsichtigen steigt bis zum Alter von 25 Jahren auf rund 45 Prozent. Während die Kurzsichtigkeit in vielen Regionen Ostasiens in den letzten Jahren stark zugenommen hat, ist die Rate in Deutschland nach Erhebungen augenärztlicher Fachgesellschaften in den letzten 15 Jahren unter den Jugendlichen zumindest vorerst konstant geblieben.

Dabei gibt es jedoch einen klaren Trend: Je länger ein Kind eine Schule besucht, desto größer ist die Wahrscheinlichkeit, kurzsichtig zu werden. Damit nicht genug: Je höher der Abschluss der Ausbildung in Schule, Studium und Beruf, desto kurzsichtiger werden die Menschen.

„Bei der Geburt sind Kinderaugen in der Regel weitsichtig“, berichtet Kinder- und Jugendarzt Professor Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit. „Das ändert sich dann im Laufe des Größenwachstums des Augapfels. Dieses Wachstum endet bei der sogenannten Normalsichtigkeit um das sechste bis neunte Lebensjahr. Wächst das Auge aber weiter in die Länge, kommt es zur Kurzsichtigkeit, fachlich Myopie genannt“.

Wenn das Kind oft die Augen zukneift
Ist der Augapfel zu lang, schneiden sich die Strahlen, die aus der Ferne kommen, dann nicht auf, sondern schon vor der Netzhaut und werden als verschwommenes Bild ins Gehirn weiter gemeldet. Kurzsichtige Kinder versuchen deshalb, die unscharfen Bilder, die ihre Augen ihnen liefern, mit einem einfachen Kunstgriff zu verbessern: Sie kneifen die Augen zum besseren Sehen zu.

Der Grund: Durch die zugekniffenen Lider verkleinert sich die Pupille und die Trennschärfe steigt an, etwa so wie beim Fotografieren die Tiefenschärfe durch Verkleinerung der Blende erhöht wird. Dieser typischen Angewohnheit verdankt die Kurzsichtigkeit übrigens ihren medizinischen Namen: Das dabei entstehende Blinzelgesicht nannten die alten Griechen Myops, daher der Fachterminus Myopie.

Probleme beim Lesen und Rechnen
Eine Kurzsichtigkeit fällt meistens erst dann auf, wenn ein Kind Gegenstände oder Personen in der Ferne immer später als andere erkennt. Es schreibt zum Beispiel falsch von der Wandtafel ab, verwechselt Zahlen oder Buchstaben, reibt sich oft die Augen und klagt über Kopfschmerzen. Professor Berthold Koletzko: „Man sollte sich hüten, ein Kind als unaufmerksam, unterdurchschnittlich begabt oder dumm anzusehen, bevor seine Sehfähigkeit genau untersucht worden ist“.

Kurzsichtigkeit liegt oft in der Familie: Sind die Eltern selbst kurzsichtig, besteht auch für das Kind das Risiko, kurzsichtig zu werden. Ist nur ein Elternteil kurzsichtig, liegt dieses Risiko bei etwa 30 Prozent, bei zwei kurzsichtigen Eltern bei 60 Prozent. Allerdings können auch normalsichtige Eltern stark kurzsichtige Kinder bekommen.

Wichtiger jedoch als die genetische Veranlagung erweisen sich Umwelteinflüsse wie Bildung, Beruf und Freizeitgestaltung auf die Entwicklung von Kurzsichtigkeit, betont die Stiftung Kindergesundheit. Es ist mittlerweile unstrittig, dass Sehgewohnheiten einen Einfluss auf das Wachstum des Auges ausüben können. Menschen, die im Kindesalter und als junge Heranwachsende über Jahre hinweg viel lesen, haben ein größeres Risiko, kurzsichtig zu werden. Dabei spielen sowohl die Lesedauer, als auch der Leseabstand und die Beleuchtung beim Lesen eine Rolle. Als ungünstig gelten das ununterbrochene Lesen über 30 Minuten hinweg und das „Lesen mit der Nase“ mit einem Abstand der Augen vom Text unter 30 Zentimeter.

Täglich hinaus ins Freie!
Eine besondere Rolle bei der Entstehung und Fortschreiten der Kurzsichtigkeit spielt das Tageslicht, hebt die Stiftung Kindergesundheit hervor. Eine Reihe von Untersuchungen belegt, dass Kinder umso seltener kurzsichtig werden, je mehr sie im Freien spielen. Beim längeren Aufenthalt an der frischen Luft schaut das Auge meist in die Ferne und nicht auf Objekte in der Nähe.

Eine Metaanalyse bisheriger Studien ergab, dass schon zwei Stunden tägliche Aktivitäten bei Tageslicht das Auftreten der Kurzsichtigkeit halbieren. 40 Minuten zusätzlicher Aufenthalt im Freien minderten die Zunahme der Kurzsichtigkeit um etwa 20 Prozent.

Dabei spielt weniger die Intensität der Sonnenstrahlung eine Rolle als die Dauer des Aufenthalts unter freiem Himmel, betonen augenärztliche Experten. Schon relativ geringe Intensitäten des Lichts um 1000 Lux und darüber, die etwa der Umgebungshelligkeit unter Bäumen entsprechen, zeigen einen Effekt. Auch der Anteil der ultravioletten Strahlen scheint keine besondere Bedeutung zu haben.

Nach 30 Minuten Lesen 10 Minuten Pause
Aufgrund dieser Erkenntnisse haben die Erziehungsbehörden des chinesischen Inselstaates Taiwan bereits vor zehn Jahren besondere Regeln für Schulkinder eingeführt. Eine der dortigen Richtlinien lautet „Tien Tien 120“ und empfiehlt jeden Tag zwei Stunden Aufenthalt im Freien. Die zweite sogenannte „30-10-Regel“ besagt, dass das Lesen alle 30 Minuten für zehn Minuten unterbrochen werden sollte. Das Befolgen dieser zwei einfachen Regeln konnte die Häufigkeit der Kurzsichtigkeit bei taiwanesischen Kindern tatsächlich nachweislich verringern.

Für eine weitere Studie in Taiwan wurden 693 Erstklässler rekrutiert. 267 von ihnen sollten sich ein Jahr lang mindestens elf Stunden pro Woche im Freien aufhalten. Die restlichen Kinder behielten ihre Lebensgewohnheiten bei. Das Ergebnis nach einem Jahr: Die Kinder der Frischluft-Gruppe benötigten schwächere Brillen als die Kinder der Kontrollgruppe und hatten ein um 54 Prozent niedrigeres Risiko für eine rasch fortschreitende Kurzsichtigkeit.

Der Einfluss von Lichtmangel auf die Entstehung von Kurzsichtigkeit wurde auch bei Kindern westlicher Länder eindeutig belegt. So zeigte eine US-amerikanische Studie, dass jede Stunde Aufenthalt pro Woche bei Tageslicht das Risiko um circa zehn Prozent senkt. Eine australische Studie mit über 1.300 Teilnehmern ergab dagegen, dass sich die Wahrscheinlichkeit für Kurzsichtigkeit verdoppelt, wenn man weniger als 30 Minuten täglich dem Tageslicht ausgesetzt ist.

„Heilen“ lässt sich eine Kurzsichtigkeit nicht, betont die Stiftung Kindergesundheit: Ist der Augapfel zu lang, schrumpft er nicht wieder. Ist Kurzsichtigkeit einmal vorhanden, bleibt sie bestehen und nimmt sogar bis ins Erwachsenenalter zu. Kurzsichtigkeit lässt sich aber mit Brillen oder Kontaktlinsen gut korrigieren und kann in einem gewissen Umfang auch eingedämmt werden.

Genaue Diagnose durch den Augenarzt
Entdeckt der Kinder- und Jugendarzt bei einer der Vorsorge-Untersuchungen Hinweise auf Augenfehler oder Sehstörungen, wird er das Kind zur genauen Abklärung der Diagnose zum Augenarzt schicken. Dieser leitet die notwendige Behandlung ein. Zum Ausgleich der Kurzsichtigkeit bekommt das Kind eine Brille mit Zerstreuungslinsen (Konkav- oder Minusgläsern) verordnet. Diese Gläser sind in der Mitte dünner als am Rand und bewirken, dass sich die Lichtstrahlen erst weiter hinten auf der Netzhautebene vereinigen.

Kinder und Jugendliche haben bis zum 18. Lebensjahr Anspruch auf eine Brille auf Kosten der gesetzlichen Krankenkassen. Voraussetzung ist die Verordnung durch einen Augenarzt. Ab dem 14 Lebensjahr besteht ein erneuter Anspruch nur dann, wenn sich die Sehstärke um mehr als 0,5 Dioptrien verändert. Kindern stehen Kunststoffgläser zu, wenn sie im Vorschulalter sind oder jünger als 14 Jahre sind und die Sehfähigkeit um mehr als plus oder minus fünf Dioptrien beeinträchtigt ist. Wenn die Kunststoffgläser notwendig sind, um am Schulsport teilnehmen zu können, kommt die gesetzliche Krankenversicherung ebenfalls für die Kosten auf.

Eltern sollten das Kind stets zum Tragen der Brille ermuntern, empfiehlt die Stiftung Kindergesundheit: Es kann mit der Brille erwiesenermaßen konzentrierter Arbeiten und ermüdet weniger schnell, wenn es gut sieht.

Eine Kinderbrille sollte leicht, klein und lustig sein
Weil Kinder ihre Brille ständig tragen sollten, kommt es besonders auf den bequemen und korrekten Sitz an. Die Brille darf also nicht rutschen, damit sie exakt zentriert bleibt. Je kleiner die Fassung ist, desto weniger schränkt die Brille die Bewegungsfreiheit ein. Eine Kinderbrille sollte nicht breiter sein als das Gesicht. Besonders wichtig: Die Glasmitte gehört vor die Pupillenmitte.

Bei der Auswahl der Brille für ihr Kind sollten sich die Eltern nicht von den Modevorstellungen von Erwachsenen leiten lassen, empfiehlt die Stiftung Kindergesundheit. „Die Brille muss dem Kind gefallen, damit sie auch gern getragen wird“, sagt Professor Berthold Koletzko. Kinderbrillen müssen stabil sein, gut sitzen und nicht rutschen. Die richtige Kinderbrille hat Kunststoffgläser, sitzt richtig fest vor den Augen auf der Nase und ist leicht, klein und lustig.

Quelle: IDW

(nach oben)


Im Meer schneit es Plastik

Jan Steffen Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Jedes Jahr landen rund vier Prozent des an Land anfallenden Plastikmülls im Meer. Während die Wege der größeren Plastikstücke bereits gut nachvollzogen werden können, gibt das Schicksal des Mikroplastiks im Meer der Wissenschaft noch Rätsel auf. Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel konnten jetzt erstmals in einer Studie modellieren, wie und wo biologische Prozesse Mikroplastik von der Oberfläche in tiefere Schichten des Wassers transportieren. Diese Prozesse könnten für den Großteil des Mikroplastiktransports verantwortlich sein, so die Studie, die jetzt in der internationalen Fachzeitschrift Scientific Reports erschienen ist.

Die Verschmutzung unserer Meere durch Plastikmüll ist ein Problem, das mittlerweile viel Beachtung erhält. Um es lösen zu können, ist es wichtig, genau nachzuverfolgen, wie viel Plastik sich in den Ozeanen befindet und wie es sich bewegt. Doch bei Untersuchungen dazu fiel Wissenschaftlerinnen und Wissenschaftlern auf, dass ein Teil des Plastiks zu verschwinden schien: Die Menge an Kunststoff, die tatsächlich an der Meeresoberfläche gefunden wurde, war deutlich geringer als erwartet. Das gilt vor allem für Mikroplastik. Es hat maximal einen Durchmesser von fünf Millimetern, manchmal sind es aber auch nur einige Mikrometer. Es gelangt entweder durch direkten Eintrag ins Meer, zum Beispiel über den Wind, Flüsse oder Schiffe, oder es entsteht, wenn größere Plastikteile im Wasser durch Umwelteinflüsse zerfallen.

Während sich an der Meeresoberfläche weniger Mikroplastik als erwartet findet, konnte es schon in der Arktis und im Marianengraben, dem tiefsten bekannten Punkt der Erde, nachgewiesen werden. Es bleibt allerdings die Frage, wie es dort hingelangt. Forscherinnen und Forscher vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel haben versucht, diese Frage zu beantworten. Dafür haben sie erstmals modelliert, wie biologische Prozesse, Mikroplastik in die Tiefe tragen, zum Beispiel über den sogenannten Meeresschnee. Die Forschungsgruppe simulierte dafür die Bewegungen von Mikroplastik in den Ozeanen innerhalb eines Erdsystemmodells. Die Ergebnisse wurden jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht.

Es gibt verschiedenen Wege, wie Mikroplastik in die tieferen Schichten des Ozeans gelangen kann. Der wohl offensichtlichste Grund ist der Auftrieb: Hat das Plastik keinen Auftrieb, sinkt es zum Meeresboden. Die Wissenschaftlerinnen und Wissenschaftler fanden nun aber heraus, dass eine große Menge des Mikroplastiks auch aufgrund biologischer Prozesse von der Oberfläche nach unten befördert wird.

Dafür verantwortlich ist vor allem das Plankton, das nah an der Oberfläche lebt. Seine Ausscheidungen, abgestorbene Zellen oder ganze Organismen und anderes organisches Material verbinden sich mit dem Mikroplastik und sinken wie Schneeflocken langsam in die Tiefe. Dort dienen sie Bakterien als Futter. So wird das Plastik von seinem Transportmittel befreit und treibt entweder in der Tiefe weiter oder steigt wieder zur Oberfläche auf. „Auf den ersten Blick scheint dieser Transportweg also ziemlich ineffektiv zu sein. Unsere Studie zeigt, dass von zwei, in manchen Regionen sogar von drei auf diesem Weg gebundenen Plastikteilen nur eines in wirklich die Tiefe sinkt, der Rest verbleibt an der Oberfläche“, sagt Dr. Karin Kvale vom GEOMAR, Hauptautorin der Studie. Der Prozess ist jedoch so weit verbreitet, dass er genug Plastik aus den oberen Schichten des Wassers entfernt, um das fehlende Plastik dort zu erklären. „Der sogenannte ‚Marine Schnee‘ hat so also einen großen Einfluss auf die globale Mikroplastikverteilung“, erklärt die Modelliererin weiter.

Genaue Modellierungen der biologischen Prozesse mit Mikroplastik in einem Erdsystemmodell bieten außerdem die Möglichkeit, Prognosen darüber zu treffen, wie sich diese Zusammenhänge in Zukunft ändern könnten, wenn der Klimawandel Ozeanzirkulation und Ökosysteme beeinflusst. Dr. Kvale betont: „Zu verstehen, wie Plastik sich durch unsere Ozeane bewegt, ist grundlegend wichtig, um mit der zunehmenden Verschmutzung der Meere umzugehen und die Auswirkungen von Mikroplastik auf marine Ökosysteme auf einer globalen Ebene zu begreifen.“

Originalpublikation:
Kvale K, AEF Prowe, C-T Chien, A Landolfi, A Oschlies (2020): The global biological microplastic particle sink. Scientific Reports. DOI: https://doi.org/10.1038/s41598-020-72898-4

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Quelle: IDW

(nach oben)


HHL zeigt Meinungsbild zu umstrittener 50+1-Regel im Fußball

Eva Echterhoff Media Relations
HHL Leipzig Graduate School of Management

Die 50+1-Regel ist eine der umstrittensten Regelungen im deutschen Fußball. Professor Dr. Henning Zülch von der Handelshochschule Leipzig (HHL) sieht sie als einen Grundpfeiler der Erfolgsgeschichte des deutschen Fußballs und seiner Fankultur. In einem Arbeitspapier zeichnet die HHL ein Bild der öffentlichen Meinung zu dem deutschen Sonderweg 50+1.

Prof. Dr. Henning Zülch (HHL):
„In der öffentlichen Meinung zeigt sich, dass es ein klares Votum für den Erhalt der 50+1-Regel in Deutschland gibt. Indes muss die Regelung ihre Gestalt wechseln. Sie muss modifiziert werden, um der Realität und den finanziellen Bedürfnissen der Klubs gerecht zu werden.“

Basierend auf diesem Meinungsbild und vor dem Hintergrund der aktuellen Entwicklungen werden Handlungsempfehlungen erarbeitet.

Prof. Dr. Henning Zülch (HHL):
„Ich sehe die aktuellen Entwicklungen im europäischen Fußball in diesem Zusammen-hang als besorgniserregend an. Wer die hohen Ablösesummen nicht zahlen kann, wird langfristig nicht wettbewerbsfähig sein. So wird der Ruf nach einer Öffnung der Bundesli-ga für strategische Investoren immer lauter werden – auch oder gerade während der Corona-Krise.“

Die 50+1-Regel
Sie besagt (vereinfacht), dass ein strategischer Investor die Mehrheit der Kapitalanteile an einem Fußballklub erlangen kann, aber nie die Stimmrechtsmehrheit. Die Mehrheit der Stimmrechte – und damit die Kontrolle – liegt ausschließlich in den Händen der Mitglieder des Vereins selbst. Primäres Ziel ist es, durch die Regel, die sportlichen Interessen der Vereine und ihrer Mitglieder zu stärken gegenüber dem Wirtschafts-Interesse der Investoren. Gerade mit Blick auf den Umgang mit seiner wichtigsten Stakeholdergruppe, den Fans, ist diese Regel einzigartig, da sie das Fanwohl als eines der höchsten Güter behandelt, die die Marke Bundesliga besitzt.

Fragen an Professor Dr. Henning Zülch (HHL)
1. Warum muss sich die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel verfolgt das Ziel, dass ein Investor zwar die Mehrheit der Kapi-talanteile an einer Fußball-Kapitalgesellschaft erlangen kann, indes nicht die Stimmrechtsmehrheit und damit die Kontrolle über den Klub. Diese soll weiterhin in den Händen des e.V. liegen und damit bei den Mitgliedern. Indes gibt es zahlreiche Ausnahmen von der 50+1-Regel, welche die Regel als solche immer unglaubwürdiger mit Blick auf die o.g. Zielsetzung machen. So wird z.T. von der „Lex Wolfsburg“ und „Lex Leverkusen“ gesprochen. RB Leipzig und dessen Gründung sowie Namensgebung werden in diesem Zusammenhang auch stets angeführt (vgl. Abschnitt II.3.).

2. Wie sollte die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel sollte in ihrer Idee beibehalten aber modifiziert werden. Die Kinderkrankheiten, also die etablierten Ausnahmeregelungen, müssen abgeschafft werden. Konkret ergeben sich vier Handlungsfelder bzw. Ansatzpunkte zur Veränderung. Das sind: die Verringerung der Mindestförderdauer von 20 Jahren, die Verringerung der Sperr-Anteile, eine striktere Anlegerkontrolle und die Stärkung der Mitgliedermitbestimmung (vgl. hierzu Abschnitt IV.).

3. Was fürchten die Fans bei unbeschränkter Macht eines Investors?
HZ: Die Fans fürchten bei Kontrollausübung eines Investors, dass er nicht im Einklang mit den Idealen und Werten des Klubs die Geschicke lenkt. Der deutsche Fußball lebt von seiner Fankultur und der Stadionatmosphäre wie kein anderes Land. Diese Kultur ist gewachsen, kultiviert und imagebildend durch ihre Fans. Einem Investor wird zunächst abgesprochen, dass er diese Kultur bewahren will. Vielmehr wird er als Bedrohung angesehen, so dass Kontrollausübung durch einen Investor um jeden Preis zu vermeiden sei. Indes wird sich der Erfolg eines Klubs künftig nicht ohne strategische Investoren einstellen; sie sind eine Grundvoraussetzung und müssen mit den Grundwerten und der Strategie des Klubs im Einklang stehen. Hierfür gilt es, Akzeptanz durch Dialog zu schaffen. Die 50+1-Regel bzw. ihre modifizierte Fassung kann als Kompromiss zwischen Fanwohlmaximierung und wirtschaftlicher Professionalisierung angesehen werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henning Zülch, Lehrstuhl für Rechnungswesen, Wirtschaftsprüfung und Controlling

Originalpublikation:
Das Arbeitspapier erhalten Sie als Download unter
https://www.hhl.de/app/uploads/2020/06/hhlap0186.pdf

Weitere Informationen:
http://www.hhl.de
https://www.hhl.de/de/fakultaet-forschung/prof-dr-henning-zuelch/

Quelle: IDW

(nach oben)


Recycling von Klärschlamm

Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal

Das Bundesforschungsministerium fördert das innovative Verbundprojekt „KlimaPhoNds“, das maßgeblich vom Clausthaler Umwelttechnik Forschungszentrum (CUTEC) der TU Clausthal umgesetzt wird, mit 4,6 Millionen Euro. Beginn des Forschungsvorhabens ist in diesem Oktober.

Klärschlamm ist ein wertvoller Energie- und Rohstoffträger. Im Sinne einer nachhaltigen Kreislaufwirtschaft muss es das Ziel sein, sämtliche Ressourcen aus dem Klärschlamm zu nutzen. Hierzu gehört nicht nur Phosphor, sondern zum Beispiel auch Stickstoff, Metalle und Mineralstoffe, aber auch die im Klärschlamm gebundene Energie. Das Projekt „KlimaPhoNds“ zielt auf eine vollständige energetische und rohstoffliche Klärschlammverwertung und der Realisierung von Stoffkreisläufen für Magnesium, Stickstoff und insbesondere Phosphor.

„Wir werden dazu mehrere Innovationen im großtechnischen Maßstab umsetzen, um die Klimaneutralität und Ressourceneffizienz des entwickelten Konzeptes nachzuweisen“, sagt Professor Michael Sievers. Der Leiter der Abteilung Abwasserverfahrenstechnik im Forschungszentrum CUTEC der TU Clausthal wird das Projekt koordinieren, das am 1. Oktober beginnt und auf fünf Jahre ausgelegt ist. Auch die CUTEC-Abteilungen Thermische Prozesstechnik sowie Ressourcentechnik und -systeme bringen sich in das Vorhaben ein. An der TU Clausthal passt das Vorhaben ideal zum neuen Leitthema Circular Economy – nachhaltige Kreislaufwirtschaft. Industriepartner sind die Parforce Engineering & Consulting GmbH, Lukson AG und Knoke-Industrie-Montage GmbH.

Im Hinblick auf eine zukunftsweisende Industriegesellschaft wird das neue klimafreundliche, rohstoffeffiziente Konzept am Beispiel der Kläranlage Northeim – auch die Stadt Northeim ist Projektpartner – entwickelt und umgesetzt. „Die Klimafreundlichkeit beruht auf einer innovativen, nahezu wärmeneutralen Trocknung von Klärschlamm und dessen energetischer Verwertung“, so Professor Sievers. Zur verbesserten Ressourceneffizienz tragen die stoffliche, reststofffreie Nutzung des getrockneten Klärschlamms sowie mehrere Materialkreisläufe für Phosphor, Stickstoff und Magnesium bei. Voraussetzung für das Konzept ist eine vermehrte biologische Phosphorelimination bei der Abwasserbehandlung.

Das als Magnesium-Ammonium-Phosphat anfallende Fällungsprodukt wird zentral mit einer thermischen Behandlung (Kalzinierung) und Zugabe von Säure nahezu reststofffrei in die drei Wertstoffe Ammoniakwasser, Magnesiumchlorid und Phosphorsäure veredelt. Phosphorsäure soll in hochwertiger Qualität der chemischen Industrie insbesondere für die Düngemittelherstellung zur Verfügung gestellt werden. Das beim Parforce-Verfahren anfallende Nebenprodukt Magnesiumchlorid geht zur Kläranlage Northeim zurück und wird anhand von Vergleichsversuchen mit kommerziellen Produkten bewertet. Das Ammoniakwasser wird auf dessen Nutzung zur Düngemittelherstellung oder zur Entstickung von Verbrennungsabgasen untersucht.

Die Produktion phosphatarmen Klärschlamms ermöglicht eine flexible energetische und auch stoffliche Verwertung, die meist mit niedrigeren Kosten verbunden ist. Dank dem erstmaligen Einsatz einer sogenannten Wirbelschichtverdampfungstrocknung, das heißt einer Klärschlammtrocknung bei Überdruck und unter reiner Wasserdampfatmosphäre, erfolgt eine besonders effiziente Wärmerückgewinnung und eine nahezu wärmebilanzneutrale Volltrocknung. Um trotz des Zusatzaufwandes für die Ressourcenschonung eine Emissionsminderung des gesamten CO2 zu erreichen, kann der getrocknete Klärschlamm als Brenn- und Zuschlagstoff in der Zementindustrie verwertet oder als Zusatzbrennstoff in Kraftwerken genutzt werden.

Gefördert wird das Projekt durch die Maßnahme „RePhoR – Regionales Phosphor Recycling“ vom Bundesministerium für Bildung und Forschung. Die Maßnahme ist Teil des Programms „Forschung für Nachhaltige Entwicklung“ (FONA).

Wissenschaftliche Ansprechpartner:

Prof. Dr.-Ing. Michael Sievers
Clausthaler Umwelttechnik Forschungszentrum der TU Clausthal
Abteilung Abwasserverfahrenstechnik
E-Mail: michael.sievers@cutec.de

Weitere Informationen:
https://www.klimaphonds.de/

Quelle: IDW

(nach oben)


Wie spät ist es auf der biologischen Uhr?

Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena

Interdisziplinäres Forschungsteam der Friedrich-Schiller-Universität Jena, des Leibniz-Instituts für Alternsforschung – Fritz-Lipmann-Institut – und des Universitätsklinikums Jena wird mit 4,5 Millionen Euro von der Carl-Zeiss-Stiftung gefördert

„Man ist so alt wie man sich fühlt.“ Wie diese häufig gebrauchte Redensart deutlich macht, bestimmt nicht allein die Spanne der bisher verstrichenen Lebenszeit das Alter eines Menschen. Vielmehr hängt das biologische Alter von zahlreichen Faktoren ab und unterliegt dabei – so wie es die Redensart sagt – auch psychologischen Einflüssen. Daher kann es durchaus sein, dass sich Alternsgenossen im körperlichen und geistigen Altersempfinden unterscheiden: Nicht gar so selten wirkt ein jung gebliebener Geist positiv auf die körperliche Fitness und umgekehrt.

Wie sich das biologische Alter definiert und exakt bestimmen lässt und welche Faktoren die komplexen Alternsprozesse von Menschen beeinflussen, das herauszufinden ist das Ziel des neuen Forschungsprojekts IMPULS der Friedrich-Schiller-Universität Jena. Das Projektteam wird bei seinem Forschungsvorhaben in den kommenden fünf Jahren von der Carl-Zeiss-Stiftung im Rahmen des Förderprogramms „Durchbrüche“ mit rund 4,5 Mio. Euro unterstützt. Das gab die Stiftung heute (8. Oktober) bekannt.

Ganzheitlicher Blick auf den Alternsprozess
IMPULS steht für „Identifizierung und Manipulation der physiologischen und psychologischen Uhren der Lebensspanne“. In ihrem Projekt wollen die Forschenden also nicht nur herausfinden, wie „spät“ es auf der biologischen Uhr eines Menschen aktuell ist. „Wir wollen auch wissen, ob und wie sich durch Manipulation der biologischen Uhr das Altern insgesamt verzögern lässt“, erläutert Christoph Englert, Sprecher des Verbundprojekts. Der Professor für Molekulare Genetik der Universität Jena und Forschungsgruppenleiter am Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI) – sagt, dass Alternsprozesse durch individuelle Faktoren moduliert werden, wie Ernährung, Lebensstil und persönliche Altersbilder. „Wir wollen durch die Verknüpfung von Physiologie und Psychologie einen neuen Blickwinkel auf das Altern entwickeln.“

Konkret wollen die Projektpartner in Studien am Menschen aber auch an verschiedenen Modellorganismen neue Kriterien auf molekularer und neurobiologischer Ebene für die Altersbestimmung ermitteln. Zudem sollen die Auswirkungen physiologischer Faktoren auf das Altern untersucht werden, beispielsweise der Einfluss von Sport auf die Gehirnalterung oder von Ernährung auf alternsbedingte Entzündungen. Ob sich psychologischer Stress oder das persönliche Alternserleben auf die biologische Uhr auswirken, wollen die Forschenden u. a. mit Hirnstrukturmessungen aufklären. Und nicht zuletzt sind ethische Implikationen der möglichen Ergebnisse Teil des Forschungsprojekts: Was bedeutet es, wenn sich Lebenserwartung und alternsbedingte Krankheiten künftig präziser vorhersagen lassen? Wie verändert sich der gesellschaftliche Blick aufs Alter, wenn wir es zukünftig auch biologisch und nicht rein chronologisch definieren können?

Zum Projektteam gehören neben Alternsforschern auch Expertinnen und Experten aus Biochemie und Epigenetik, Medizin, Neuro- und Ernährungswissenschaft, Pharmazie, Epidemiologie, Bioinformatik, Biostatistik, Psychologie und Sozialwissenschaften.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Englert
Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI)
Beutenbergstraße 11, 07745 Jena
Tel.: 03641 656042
E-Mail: christoph.englert@leibniz-fli.de

Quelle: IDW

(nach oben)


Exzellentes Bremer Wasser für piekfeine Bremer Getränke

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Normalerweise werden in der Abteilung für Rohstoff und Umweltforschung der Jacobs University Bremen kritische Hochtechnologie-Metalle in Gesteinen, Lagerstätten und verschiedensten Umweltproben untersucht. Diese Grundlagenforschung ermöglicht es nun der Getränkemittelindustrie, die Qualität des verwendeten Wassers in Bezug auf Spuren von Arzneimittelrückständen und anderen Schadstoffen zu beurteilen.

Im Rahmen einer Kooperation mit der Bremer Brennerei „Piekfeine Brände“, einem Hersteller von Spirituosen wie Edelbränden, Gin und Whisky, wurde das Wasser, das in den verschiedenen Produktionsschritten verwendet wird und das letztlich im fertigen Produkt steckt, auf seine Gehalte an Seltenen Erden hin untersucht. Das Wasser, so das Ergebnis, ist von allerbester Qualität.

„Gibt es im verwendeten Wasser Rückstände von Arzneimitteln, Körperpflegeprodukten oder Zuckerersatzstoffen, die über Kläranlagen in die Umwelt gelangt sind, dann enthält dieses Wasser immer auch Spuren des Hochtechnologie-Metalls Gadolinium, das als Kontrastmittel bei MRT-Untersuchungen verwendet wird,“ erklärt Michael Bau, Professor für Geowissenschaften an der Jacobs University, der mit seiner Arbeitsgruppe diese Methode entwickelt hat. Ungewöhnlich hohe Konzentrationen von Gadolinium im Vergleich zu den anderen Seltenen Erden sind ein Beleg für die Anwesenheit sogenannter „abwasserbürtiger“ Stoffe. Dies sind Substanzen, die in den Klärwerken nicht aus dem Abwasser entfernt werden können und selbst im gereinigten Abwasser noch vorhanden sind. Neben Gadolinium-Kontrastmitteln sind dies auch Arzneimittelrückstände, illegale Drogen und chemische Verbindungen, die in Körperpflegeprodukten und Nahrungsmitteln verwendet werden.

„Nachdem wir die sehr empfindliche Methode an Cola-Getränken aus Schnellrestaurants erfolgreich erprobt hatten, ergab sich durch die Kooperation mit den Bremer `Piekfeinen Bränden` nun die Gelegenheit, diese neue High-Tech Methode auch in einem anderen Bereich der Nahrungsmittelindustrie anzuwenden“, sagt Dr. Dennis Krämer, Postdoktorand im Bereich der Geowissenschaften an der Jacobs University.

„Wir freuen uns natürlich sehr über die erstklassige Qualität unseres Bremer Wassers und danken Professor Bau und seinem Team der Jacobs University für die intensive Arbeit und aufschlussreichen Ergebnisse“, führt die Gründerin und Inhaberin der Brennerei Piekfeine Brände, Birgitta Schulze van Loon, weiter aus.

Und Michael Bau ergänzt: „Dass die Qualität des Bremer Wassers hinsichtlich Mikroverunreinigungen deutlich besser ist, als die des Wassers in anderen deutschen Städten und Regionen wie zum Beispiel Berlin, München oder Düsseldorf, zeigt, dass die Bremer sauberes Leitungswasser bekommen, das sie bedenkenlos trinken können. Es bestätigt auch, dass Bremen ein exzellenter Produktionsstandort für die Nahrungs- und Getränkemittelindustrie ist. Und dass ein Hersteller seine Produkte freiwillig auf chemische Fremdstoffe hin untersuchen lässt, ist natürlich ein schönes Beispiel für proaktiven Verbraucherschutz.“

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1.500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Facebook | Youtube | Twitter | Instagram | Weibo

Wissenschaftliche Ansprechpartner:
Fragen beantwortet:
Prof. Dr. Michael Bau
Professor of Geosciences
Email: m.bau@jacobs-university.de

Anhang
Erläuterungen
https://idw-online.de/de/attachment80952

Quelle: IDW

(nach oben)


TU Berlin: Intervallfasten auch im Alter wirksam

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Kurzzeitfasten führt auch bei älteren Menschen zu einer bedeutsamen Abnahme von Körpergewicht und Bauchumfang
Ob Esspausen von mindestens 16 Stunden täglich, das sogenannte „Intervallfasten“, wirklich zu einer Gewichtabnahme führen, wollten Studierende des TU-Gasthörerstudiums BANA wissen – und führten eine wissenschaftliche Pilot-Studie unter Real-Life-Bedingungen durch. Resultat: Die Hälfte der 74 Teilnehmer*innen hatte nach vier Wochen bis zu sechs Kilo abgenommen. Die Ergebnisse wurden nun in der Fachzeitschrift Ernährung & Medizin veröffentlicht. Außerdem wurden die BANA-Forschenden eingeladen, ein Poster auf der Jahrestagung der Deutschen Adipositas-Gesellschaft e. V. vom 8. – 10. Oktober in Leipzig zu präsentieren.

Intervallfasten werden heute verschiedene Fastenvarianten genannt, vom stundenweisen Fasten innerhalb eines Tages bis zum tageweisen Fasten innerhalb einer Woche. Allen ist eine mittlerweile nachgewiesene gesundheitsfördernde Wirkung gemeinsam, von der Gewichtsabnahme über eine Stoffwechsel-Umstellung bis hin zur sogenannten Autophagie, einem intrazellulären Selbstreinigungsprozess, für dessen umfassende Beschreibung der Japaner Yoshinori Ohsumi 2016 mit dem Medizin-Nobelpreis ausgezeichnet wurde.

Ohne Aufwand und ohne Kosten abnehmen bietet langfristigen Erfolg
„Bei jungen Erwachsenen ist derzeit die 16:8-Methode sehr populär“, erklärt Dr. Franz-Werner Dippel, einer der Autoren der Studie. „Wir wollten prüfen, ob sich das Intervallfasten auch für ältere Menschen eignet, was bisher nicht untersucht ist.“ Ganz wichtig war dem Team ein pragmatischer Ansatz für die Durchführung des Fastens, denn, so Dippel, ausschlaggebend für den langfristigen Erfolg einer Ernährungs- beziehungsweise Fastenintervention sei die möglichst niedrigschwellige Einbindungsmöglichkeit des Fastenmaßnahme in den Alltag. „Sie sollte keine Kosten verursachen, keinen besonderen Aufwand darstellen oder invasive Maßnahmen beinhalten und sich gut in den Tagesablauf integrieren lassen. Auch haben wir auf die Erfassung von Energiegehalt und Zusammensetzung der Nahrung sowie auf die Dokumentation des Bewegungsverhaltens verzichtet.“ Erfasst wurden während der Studie auch Parameter wie Blutdruck, Puls oder Urinzusammensetzung.

Fastenzeiten von mehr als 14 Stunden an 97 Prozent aller Studientage
Insgesamt 74 Probanden mit einem Durchschnittsalter von 64,3 Jahren, sowohl normal- als auch übergewichtige Personen, nahmen an der Studie teil. Die Fastentagebücher zeigten: An 97 Prozent aller Studientage wurden Fastenzeiten von mehr als 14 Stunden oder mehr erreicht. Die Gewichtsdifferenzen lagen schließlich zwischen minus sechs bis plus ein Kilogramm. Eine Gewichtsreduktion von ein bis zwei Kilogramm monatlich gilt gemäß den Leitlinien der Deutschen Adipositas-Gesellschaft als gesundheitlich unbedenklich und ist auch aus medizinischer Sicht von Bedeutung. „Das Studienergebnis erfüllt damit die allgemeinen Anforderungen an eine erfolgreiche Ernährungsintervention und kann deshalb als guter Abnehmerfolg für die untersuchte Altersgruppe gewertet werden“, freut sich Franz-Werner Dippel, der selbst promovierter Medizinbiologe ist und in der Industrie und der klinischen Forschung tätig war. Er und das achtköpfige Autorenteam der Ernährungsstudie hatte sich im letzten der vier regulären BANA-Semester mit dem Thema „Entzündungen“ beschäftigt und den Einfluss verschiedener Faktoren auf Entzündungsprozesse untersucht, wie zum Beispiel Schlaf, Stress, Bewegung, Ernährung und Fasten.

BANA-Studium an der TU Berlin – lebenslanges Lernen und bürgerschaftliches Engagement
Die Autor*innen der Studie sind Studierende des Gasthörerstudiums BANA an der TU Berlin (Berliner Modell: Ausbildung für nachberufliche Aktivitäten). Es handelt sich um ein viersemestriges Weiterbildungsangebot für Menschen ab 45 Jahren, das einen unmittelbaren Zugang zu neuesten wissenschaftlichen Erkenntnissen ermöglicht. BANA ist nicht nur ein Angebot für lebenslanges Lernen, sondern fördert auch mit seinen Projekten bürgerschaftliches Engagement und bietet die drei Schwerpunkte „Stadt“, „Umwelt“ sowie „Gesundheit und Ernährung“. Angesiedelt ist es in der Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation der TU Berlin (ZEWK) und wird geleitet von Dr. Gabriele Schaepers-Feese.

Die Veröffentlichung in Ernährung & Medizin (Thieme-Verlag) ist zu finden unter:
https://doi.org/10.1055/a-1115-9709

Das informative Poster auf der Website der Deutschen Adipositas-Gesellschaft e. V.:
https://dag-kongress.de/poster/

Weitere Informationen erteilen Ihnen gern:
Dr. Franz-Werner Dippel
Sprecher des Autorenteams zur BANA-Studie „Intervallfasten“
E-Mail: franz-werner.dippel@t-online.de
Tel.: 0172 6501845

Dr. Gabriele Schaepers-Feese
Technische Universität Berlin
Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation (ZEWK)
Wissenschaftliche Leitung BANA
E-Mail: g.schaepers-feese@tu-berlin.de
Tel.: 030 314-22034

Quelle: IDW

(nach oben)


BMAS fördert interdisziplinäres Wissenschaftsteam

Martina Diehl Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Resilienzforschung gGmbH

Forscherteam untersucht finanzielle Schocks durch Corona für private Haushalte
Neben starken Einschnitten im gesellschaftlichen und wirtschaftlichen Leben birgt die Corona-Pandemie für viele Menschen auch finanzielle Schwierigkeiten. Das gilt vor allem für einkommensschwache Bevölkerungsgruppen oder für Personen, die durch ihre Berufswahl ökonomisch besonders von der Pandemie betroffen sind. Wie die Menschen in Deutschland mit finanziellen Schocks durch die Corona-Pandemie umgehen, untersucht nun ein interdisziplinäres Forscherteam der Universität Mannheim, des ZEW Mannheim und des Leibniz-Instituts für Resilienzforschung Mainz. Die Projektpartner vereinen dabei die Perspektiven der Wirtschaftspädagogik (Prof. Dr. Carmela Aprea, Universität Mannheim), der Haushaltsökonomie (Prof. Dr. Tabea Bucher-Koenen, ZEW Mannheim) sowie der psychologischen Resilienzforschung (Prof. Dr. Klaus Lieb und Dr. Donya Gilan, Leibniz-Institut für Resilienzforschung Mainz).

„Uns interessiert besonders, wie Menschen Entscheidungen unter hoher Unsicherheit und Komplexität treffen, nachdem sie von einem finanziellen Schock erfasst wurden. Denn daraus lässt sich ableiten, mit welchen sozial- und bildungspolitischen Maßnahmen sich die betroffenen Haushalte effektiv und nachhaltig unterstützen lassen“, erklärt Prof. Dr. Carmela Aprea, Universität Mannheim.

„Zu den allgemeinen psychischen und gesellschaftlichen Folgen der Corona-Pandemie wird bereits geforscht. Doch gibt es bisher nur sehr wenige Forschungsdaten zu den finanziellen Herausforderungen und deren mittel- bis langfristigen Folgen für Haushalte und Gesamtwirtschaft“, sagt Prof. Dr. Tabea Bucher-Koenen, Leiterin des Forschungsbereichs „Internationale Finanzmärkte und Finanzmanagement“ am ZEW Mannheim und Professorin an der Universität Mannheim.

„Für uns besteht eine zentrale Aufgabe darin, individuelle und strukturelle Handlungsempfehlungen zu entwickeln, um Bürgerinnen und Bürger in solchen Situationen gezielt stärken und unterstützen zu können“, erklärt Prof. Dr. Klaus Lieb, wissenschaftlicher Geschäftsführer des Leibniz-Instituts für Resilienzforschung. „Denn die Betroffenen sind einem erhöhten Armutsrisiko ausgesetzt, das sie an den Rand der Gesellschaft drängen kann.“ Und Dr. Donya Gilan, Leibniz-Instituts für Resilienzforschung Mainz, ergänzt: „Psychische Gesundheit ist stark von der psychosozialen Lage eines Menschen abhängig. Gerade finanzielle Nöte treiben Menschen in psychische Erkrankungen wie beispielsweise Angsterkrankungen, Depressionen oder auch Suchterkrankungen, weil oft psychische Bewältigungsstrategien im Umgang mit solchen Sorgen fehlen. Dauerstress ist dann vorprogrammiert und soziale Stigmata die Folge“.

Finanziert wird das Forschungsvorhaben aus Mitteln des Bundesministeriums für Arbeit und Soziales (BMAS) in einem Projektzeitraum von 1. September 2020 bis 31. August 2021. Das Ministerium hat es als eines von zwölf Projekten mit Corona-Fokus in das Fördernetzwerk Interdisziplinäre Sozialpolitikforschung (FIS) aufgenommen. Ausgewählt wurden die Vorhaben hinsichtlich ihrer Eignung, auf wissenschaftlicher Basis die Grundlage zur Bewältigung der Corona-Pandemie zu schaffen.

Kontakt
Univ.-Prof. Dr. Klaus Lieb
Leibniz-Institut für Resilienzforschung (LIR) gGmbH

Tel.: +49 6131 8944824
E-Mail: klaus.lieb@lir-mainz.de

Martina Diehl
Kommunikation & Presse
Leibniz-Institut für Resilienzforschung (LIR) gGmbH

Tel.: +49 6131 89448-06
E-Mail: martina.diehl@lir-mainz.de
https://www.lir-mainz.de

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Klaus Lieb, Leibniz-Institut für Resilienzforschung

Quelle: IDW

(nach oben)


Übertragung von COVID-19: Aerosole deutlich infektiöser alsTränenflüssigkeit oder Bindehaut

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft

SARS-CoV-2 ist hochgradig infektiös und wird hauptsächlich durch das Einatmen von Tröpfchen oder Aerosolen übertragen. Können sich Menschen aber auch über die Augen mit dem Virus infizieren? Einige Berichte weisen darauf hin, dass eine Ansteckung über die Schleimhäute, einschließlich der Bindehaut, möglich sei. Auf der heutigen Kongress-Pressekonferenz zum Kongress der DOG Deutsche Ophthalmologische Gesellschaft (DOG) diskutierten Experten, ob die Bindehaut oder der Tränenfilm Eintritts- oder Austrittspforten für das Virus sein können. Der DOG Kongress findet bis 11. Oktober 2020 online statt.

Können sich Menschen auch über die Bindehaut oder Tränenflüssigkeit mit SARS-CoV-2 infizieren? Und inwiefern könnten mit dem Coronavirus infizierte Patienten andere Menschen über ihre Tränen anstecken? „Derartige Übertragungswege würden erhebliche Auswirkungen auf die öffentliche Gesundheit haben und weitere Schutzmaßnahmen notwendig machen“, sagt Professor Dr. Dr. med. Clemens Lange, Klinik für Augenheilkunde am Universitätsklinikum Freiburg. Es gebe vereinzelt Studien, die auf eine solche Übertragungskette hinweisen.

So hatten in Untersuchungen etwa sieben Prozent der COVID-19-Patienten subjektive Augenbeschwerden. Bei etwa einem Prozent wurden Zeichen einer Bindehautentzündung (Konjunktivitis) beobachtet. „Einige Studien postulieren, dass das Virus in diesen Fällen das Auge als Eintrittspforte genutzt habe“, so Lange. Auch wird der Tränenfilm als ein möglicher Überträger diskutiert. „Reibt man sich beispielsweise die Augen mit COVID-19-kontaminierten Händen, wäre eine Übertragung auf die Nasenschleimhaut oder die Atemwege denkbar“, so Lange. Umgekehrt könnten infizierte Patienten das Virus über ihre Tränenflüssigkeit auf gesunde Menschen übertragen.

„Betrachtet man abschließend die derzeitige Studienlage, weist jedoch nichts darauf hin, dass wir die Augen als bedeutsame Eintritts- oder Austrittspforte des Virus betrachten müssen“, stellt Lange fest. Ein Zusammenhang zwischen der in Studien beobachteten Bindehautentzündung bei der COVID-19-Erkrankung kann bislang nicht eindeutig ermittelt werden. „Es könnte sich auch um ein SARS-CoV-2 unabhängiges Phänomen handeln, das zum Beispiel im Zuge einer intensivmedizinischen Behandlung oder der generalisierten Entzündungsreaktion im Körper von COVID19 Patienten auftritt“, erklärt Lange. Darüber hinaus sei noch nicht eindeutig geklärt, ob die Zellen der Augenoberfläche, wie zum Beispiel die der Bindehaut, den SARS-CoV-2-Rezeptor ACE2 in klinisch relevantem Maße exprimieren und damit für eine Infektion anfällig sind. Eine aktuelle Untersuchung an der Universitäts-Augenklinik Freiburg sowie histologische Untersuchungen anderer Kliniken haben weder eine wesentliche Expression von ACE2 in der Bindehaut noch einen Zusammenhang zwischen einer COVID-19-Infektion und einer Bindehautentzündung nachweisen können.

Auch sei der Übertragungsweg über die Tränenflüssigkeit eher unwahrscheinlich. „Der regelmäßige Lidschlag des Auges sowie die geringe Augenoberfläche dürften verhindern, dass ausreichend Viren ins Auge gelangen können“, so Lange. Und dazu, ob Infizierte über ihre Tränen gesunde Menschen anstecken könnten, gibt es auch keine eindeutigen Hinweise: „Bei Patienten mit COVID-19-Erkrankung enthält der Tränenfilm nur sehr selten Virus-RNA“, erklärt Lange. Eine Ansteckung über die Tränenflüssigkeit sei daher auch erst einmal auszuschließen.

„Obwohl wir derzeit eher keine Infektion über das Auge befürchten müssen, sind weitere Untersuchungen notwendig, um Aufschluss über die tatsächliche Infektiosität und mögliche Orte der Virusvermehrung zu erhalten“, betont Professor Dr. med. Hans Hoerauf, Präsident der DOG und Direktor der Augenklinik der Universitätsmedizin Göttingen. Es sei Klinikpersonal trotz des offenbar geringen Risikos dringend anzuraten, bei einer intensivmedizinischen Versorgung von an COVID-19 Erkrankten mit einer In- oder Extubation die Augen durch eine Brille vor einer Übertragung des Coronavirus zu schützen.

„Alles in allem betrachtet, dürfte bei augenärztlichen Untersuchungen von Aerosolen aus den Atemwegen ein deutlich höheres Infektionsrisiko mit COVID-19 ausgehen als von Tränenfilm und Augenoberfläche der Patienten“, resümiert DOG-Experte Lange.

Quelle: IDW

(nach oben)


Die globale Nahrungsmittelproduktion stellt eine zunehmende Bedrohung für das Weltklima dar

Ansa Heyl Presse- und Öffentlichkeitsarbeit
International Institute for Applied Systems Analysis (IIASA)

Laut den Autoren einer neuen Studie, die in der Fachzeitschrift „Nature“ veröffentlicht wurde, gefährden die steigenden Lachgasemissionen die Erreichung der Klimaziele und der Ziele des Pariser Abkommens.

Der weltweit zunehmende Einsatz von Stickstoffdüngemitteln bei der Nahrungsmittelproduktion erhöht die Konzentration von Lachgas in der Atmosphäre – eines Treibhausgases, das 300-mal wirksamer ist als Kohlendioxid und länger als ein Menschenleben in der Atmosphäre verbleibt.

Die Studie, die von einem internationalen Konsortium von 57 Wissenschaftlern aus 14 Ländern und 48 Forschungseinrichtungen durchgeführt wurde, wobei dem IIASA eine Schlüsselrolle zukam, wurde von der Auburn University (Alabama, USA) im Rahmen des Global Carbon Project und der International Nitrogen Initiative koordiniert. Ziel der Forscher war es, die bisher umfassendste Bewertung aller Quellen und Senken des potenten Treibhausgases Distickstoffmonoxid (Lachgas) zu erstellen.

Die Ergebnisse weisen auf einen alarmierenden Trend hin, der sich auf den Klimawandel auswirkt: Distickstoffmonoxid ist gegenüber dem vorindustriellen Niveau um 20% angestiegen, und sein Wachstum hat sich in den letzten Jahrzehnten aufgrund von Emissionen aus verschiedenen menschlichen Aktivitäten beschleunigt.

„Die dominierende Triebkraft für den Anstieg des atmosphärischen Lachgas kommt aus der Landwirtschaft, und die wachsende Nachfrage nach Nahrungs- und Futtermitteln für Tiere wird die globalen Lachgasemissionen weiter erhöhen“, erklärt der Erstautor der Studie, Hanqin Tian, Direktor des International Center for Climate and Global Change Research an der School of Forestry and Wildlife Sciences der Auburn University und Andrew Carnegie Fellow. „Es besteht ein Konflikt zwischen der Art und Weise, wie wir die Menschen ernähren, und unserem Ziel, das Klima zu stabilisieren“.

Die Studie stellte auch fest, dass die größten Beiträge zu den globalen Lachgasemissionen aus Ostasien, Südasien, Afrika und Südamerika stammen. Emissionen infolge der Verwendung von Kunstdünger dominieren die Freisetzungen in China, Indien und den USA, während Emissionen aus der Ausbringung von Viehdung für die Freisetzungen in Afrika und Südamerika verantwortlich sind, so die Studie. Die höchsten Wachstumsraten bei den Emissionen finden sich in den Schwellenländern, insbesondere in Brasilien, China und Indien, wo die Pflanzenproduktion und der Viehbestand zugenommen haben. Das überraschendste Ergebnis der Studie war jedoch, dass die derzeitigen Trends bei den Lachgasemissionen nicht mit den Klimazielen des Pariser Abkommens vereinbar sind.

„Die gegenwärtigen Emissionen entsprechen einem globalen Temperaturanstieg über 3°C, das ist das Doppelte des Temperaturziels des Pariser Abkommens“, erklärt Robert Jackson, Professor und Koautor an der Stanford University und Vorsitzender des Global Carbon Project.

Laut dem Koautor der Studie, Wilfried Winiwarter, Senior Research Scholar im IIASA Air Quality and Greenhouse Gases Program und ehemaliger Direktor des europäischen Zentrums der International Nitrogen Initiative, gibt es jedoch Möglichkeiten, diese Emissionen zu verringern.

„Europa ist die einzige Region in der Welt, die in den letzten zwei Jahrzehnten die Lachgasemissionen erfolgreich reduziert hat“, erklärt Winiwarter. „Strategien zur Reduzierung von Treibhausgasen und Luftverschmutzung in Industrie- und Landwirtschaft und zur Optimierung der Effizienz des Düngemitteleinsatzes haben sich als wirksam erwiesen. Dennoch werden weitere Anstrengungen erforderlich sein, sowohl in Europa als auch weltweit“.

„Diese Studie zeigt, dass wir jetzt ein umfassendes Verständnis des Lachgashaushalts einschließlich der Klimaauswirkungen haben“, fügt die Studienleiterin Rona Thompson, eine leitende Wissenschaftlerin des norwegischen Instituts für Luftforschung, hinzu. „Wir sind in der Lage, Maßnahmen zur Reduzierung der Lachgasemissionen zu bewerten und zu quantifizieren, und viele dieser Maßnahmen werden auch die Wasser- und Luftqualität verbessern, was sowohl der menschlichen Gesundheit als auch den Ökosystemen zugutekommt.“

Der Co-Leiter der Studie, Josep „Pep“ Canadell, leitender Wissenschaftler im Climate Science Center der in Australien ansässigen Commonwealth Scientific and Industrial Research Organisation und geschäftsführender Direktor des Global Carbon Project, stimmt zu, dass die Forschung bedeutend und dringend ist.

„Diese neue Analyse fordert ein umfassendes Überdenken der Art und Weise, wie wir Stickstoffdünger weltweit verwenden und verschwenden, und drängt uns zu nachhaltigeren Praktiken in der Art und Weise, wie wir Lebensmittel produzieren, einschließlich der Reduzierung von Lebensmittelabfällen“, stellt er fest. „Diese Ergebnisse unterstreichen die Dringlichkeit und zeigen die Möglichkeiten, globale Lachgasemissionen zu verringern, um die schlimmsten Klimaauswirkungen zu vermeiden“.

Referenz
Tian H, Xu R, Canadell JG, Thompson RL, Winiwarter W, Suntharalingam P, Davidson EA, Ciais P, et al. (2020). A comprehensive quantification of global nitrous oxide sources and sinks. Nature DOI: 10.1038/s41586-020-2780-0

IIASA Kontakte:
Mitautor
Wilfried Winiwarter
IIASA Air Quality and Greenhouse Gases Program
Tel: +43 2236 807 479
winiwart@iiasa.ac.at

Presseabteilung
Ansa Heyl
IIASA Press Office
Tel: +43 2236 807 574
Mob: +43 676 83 807 574
heyl@iiasa.ac.at

Quelle: IDW

(nach oben)


KI – Wegbereiter der Zukunft?

Susanne Just Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg

Künstliche Intelligenz in der Medizin: Mit diesem Thema beschäftigt sich eine öffentliche Veranstaltung des Uniklinikums Würzburg und der Akademie Domschule Würzburg. Sie findet statt am Freitag, 16. Oktober 2020. Interessenten können wahlweise persönlich oder online teilnehmen.

Das Thema „Künstliche Intelligenz“ ist omnipräsent: Hoffnungsträger für eine sicherere Medizin und gleichzeitig mit einer tiefen Verunsicherung in der Gesellschaft verbunden. Diese resultiert nicht selten aus mangelnden Informationsangeboten über die Chancen und Risiken der neuen Informationstechnologie.

Hier setzt die Veranstaltung an: Gemeinsam mit der Akademie Domschule Würzburg richtet das Uniklinikum Würzburg den Blick auf die Möglichkeiten, die Künstliche Intelligenz für die Versorgung von Patienten bereithält: zum einen aus medizinischer Sicht, zum anderen aus ethischer. Welchen Stellenwert wird die Künstliche Intelligenz künftig im medizinischen Alltag einnehmen und wie kann sie verantwortungsvoll im Sinne von Patienten und Ärzten eingesetzt werden?

Eingeladen sind Alle, die sich für die Medizin der Zukunft interessieren. Vorkenntnisse sind nicht erforderlich.
Aufgrund der aktuellen Bedingungen findet das Format als Hybrid-Veranstaltung statt: Interessenten können persönlich teilnehmen (bis zu 27 Personen) oder online.

Referentinnen und Referenten sind:
Prof. Dr. Prof. h.c. Andreas Dengel (Deutsches Forschungszentrum für Künstliche Intelligenz)
Prof. Dr. Elisabeth Gräb-Schmidt (Eberhard Karls Universität Tübingen, Mitglied im Deutschen Ethikrat)
Dr. Markus Krebs (UKW, Comprehensive Cancer Center Mainfranken)
Prof. Dr. Thorsten Bley (UKW, Institut für Diagnostische und Interventionelle Radiologie)
Prof. Dr. Laura Schreiber (UKW, Deutsches Zentrum für Herzinsuffizienz)
Dr. Martin Reich (UKW, Neurologische Klinik und Poliklinik).

Grußworte sprechen die Bayerische Ministerin für Digitales Jutta Gerlach, der Ärztliche Direktor des UKW Prof. Dr. Georg Ertl sowie Oberbürgermeister Christian Schuchardt.

Nach den Impulsvorträgen findet eine Podiumsdiskussion statt, an der sich die Teilnehmer persönlich oder online über einen Chat beteiligen können.

Termin: Freitag, 16. Oktober 2020, 17:00 bis 20:00 Uhr, Deutsches Zentrum für Herzinsuffizienz (DZHI) am UKW

Anmeldung: für eine Teilnahme (persönlich oder online) bei der Akademie Domschule Würzburg
Telefon 0931 386-43 111
info@domschule-wuerzburg.de
www.domschule-wuerzburg.de

Anmeldeschluss: 15.10.2020, 12 Uhr
Nach Eingang der Anmeldung erhalten Online-Teilnehmer einen Zugangslink zur Veranstaltung. Für Rückfragen
bietet das Uniklinikum eine offene Telefonsprechstunde am Donnerstag, 15.10.2020, von 15-17 Uhr unter der Rufnummer: 0931 201-56159 an.

Anhang
Flyer zur Veranstaltung „KI in der Medizin“
https://idw-online.de/de/attachment80944

Quelle: IDW

(nach oben)


Arrokoth: Abflachen eines Schneemanns

Dr. Birgit Krummheuer Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Sonnensystemforschung

Erst im Laufe von einigen Millionen Jahren hat Arrokoth, auch bekannt unter dem Spitznamen Ultima Thule, seine bizarre, pfannkuchenflache Form erhalten.

Das transneptunische Objekt Arrokoth, auch genannt Ultima Thule, an dem die NASA-Raumsonde New Horizons am Neujahrstag 2019 vorbeiflog, könnte seine Form in den ersten 100 Millionen Jahren seit seiner Entstehung stark verändert haben. In der heutigen Ausgabe der Fachzeitschrift Nature Astronomy schlagen Wissenschaftlerinnen und Wissenschaftler unter Leitung der Chinesischen Akademie der Wissenschaften und des Max-Planck-Instituts für Sonnensystemforschung (MPS) in Göttingen vor, dass Arrokoths aktuelle Gestalt, die an einen zerquetschten Schneemann erinnert, erst nach und nach durch das Verdunsten leichtflüchtiger Gase entstanden ist. Ihre Rechnungen könnten helfen zu verstehen, was der aktuelle Zustand von Körpern vom äußeren Rand des Sonnensystems über ihre ursprünglichen Eigenschaften aussagt.

Die vielen Millionen Brocken, die den Kuipergürtel jenseits der Umlaufbahn des Neptuns bevölkern, haben bisher noch nicht viele ihrer Geheimnisse preisgegeben. In den 80er Jahren durchquerten zwar die Raumsonden Pioneer 1 und 2 sowie Voyager 1 und 2 diese Region – allerdings ohne Kameras an Bord. Erst die NASA-Raumsonde New Horizons sendete Bilder vom äußersten Rand des Sonnensystems zur Erde: im Sommer 2015 vom Zwergplaneten Pluto und dreieinhalb Jahre später vom etwa 30 Kilometer großen transneptunischen Objekt Arrokoth. Noch nicht offiziell benannt, trug der Körper damals den Spitznamen Ultima Thule in Anlehnung an den gleichnamigen nördlichsten Landpunkt der Erde. Schließlich ist der transneptunische Brocken der am weitesten von der Sonne entfernte Körper, der je von einer Raumsonde besucht und abgelichtet wurde.

Besonderes Aufsehen erregte in den Tagen nach dem Vorbeiflug die sonderbare Gestalt von Arrokoth. Der Körper besteht aus zwei miteinander verbundenen Teilen – wahrscheinlich als Ergebnis eines langsamen Zusammenstoßes -, von denen der kleinere leicht, der größere stark abgeflacht ist. So entsteht der Eindruck eines zerquetschten Schneemanns. In ihrer aktuellen Veröffentlichung gehen die Forscherinnen und Forscher aus China, Deutschland und den USA der Frage nach, wie es zu dieser Form kommen konnte. Eine auffällige Zweiteilung ist zwar auch von einigen Kometen bekannt. Für die pfannkuchenartige Abflachung von Arrokoth hingegen gibt es bisher kein weiteres Beispiel. Sah Arrokoth bereits von Anfang an so aus? Oder hat sich seine Form erst nach und nach entwickelt?

„Wir stellen uns den Kuipergürtel gerne als Region vor, in der die Zeit seit der Geburt des Sonnensystems weitestgehend stillgestanden hat“, erklärt Dr. Ladislav Rezac vom MPS, einer der beiden Erstautoren der aktuellen Veröffentlichung. Mehr als vier Milliarden Kilometer von der Sonne entfernt, haben die Bewohner des Kuipergürtels seitdem sozusagen tiefgekühlt und unverändert überdauert, so die gängige Auffassung. Die Aufnahmen von Arrokoth stellen diese Vorstellung auf eine harte Probe – sowohl wegen seiner offenbar glatten Oberfläche ohne Hinweise auf viele Einschlagskrater, als auch wegen seiner sonderbar flachen Form. Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass das Sonnensystem vor 4,6 Milliarden Jahren aus einer Scheibe aus Staub entstand: Die Teilchen ballten sich zu immer größeren Klumpen zusammen; diese stießen zusammen und verschmolzen zu noch größeren Körpern. „Es gibt bisher keine Erklärung, wie aus diesem Prozess ein solch flacher Körper wie Arrokoth hervorgehen könnte“, so Rezac.

Eine andere Möglichkeit wäre, dass Arrokoth in seiner Geburtsstunde eine gewöhnlichere Gestalt hatte: ein zusammengesetztes Gebilde aus einem kugelförmigen und einem leicht abgeflachten Körper. Frühere Studien deuten darauf hin, dass in der Region, in der sich Arrrokoth befindet, während der Entstehung des Sonnensystems flüchtige Stoffe wie Kohlenmonoxid und Methan auf Staubkörnern gefroren und diese dann größere Brocken bildeten. Nach der Entstehung Arrokoths, als sich der Staub gelichtet hatte, ermöglichte die Sonneneinstrahlung höhere Temperaturen; die gefrorenen, flüchtigen Stoffe sublimierten rasch von den entstandenen Brocken.

„Damit ein Körper seine Form so extrem verändern kann wie Arrokoth, muss seine Rotationsachse in einer besonderen Weise ausgerichtet sein“, erklärt Rezac. Im Gegensatz zur Rotationsachse der Erde liegt die von Arrokoth fast parallel zur Bahnebene. Während des 298 Jahre dauernden Umlaufs ist so jeweils eine Polarregion des Körpers fast die Hälfte der Zeit ununterbrochen der Sonne zugewandt, während die andere der Sonne abgewandt ist. Die Regionen am Äquator und in den unteren Breitengraden hingegen sind das ganze Jahr über von tageszeitlichen Schwankungen geprägt.

„Dadurch heizen sich die Pole am stärksten auf, so dass gefrorene Gase von dort am effizientesten entweichen. Das führt zu einem starken Massenverlust“, sagt Dr. Yuhui Zhao vom Purple Mountain Observatorium der Chinesischen Akademie der Wissenschaften. Der Abflachungsprozess begann höchstwahrscheinlich schon früh in Arrokoths Evolutionsgeschichte und verlief vergleichsweise rasch auf einer Zeitskala von etwa einer bis 100 Millionen Jahren. Danach dürfte sich der Vorrat an sehr leichtflüchtigen Stoffen in den oberflächennahen Schichten erschöpft haben. Darüber hinaus wiesen die Wissenschaftlerinnen und Wissenschaftler nach, dass die in dieser Phase induzierten Drehmomente die Rotationseigenschaften von Arrokoth nicht wesentlich verändert haben dürften.

Wie viele weitere ‚abgeflachte Schneemänner‘ sich im Kuipergürtel befinden, ist unklar. „Das hängt in erster Linie davon ab, ob die Rotationsachse eines Körpers ähnlich geneigt ist wie die von Arrokoth, und von der Menge leichtflüchtiger Stoffe in der Nähe der Oberfläche“, so Rezac. Es ist anzunehmen, dass selbst Objekte wie Arrokoth beträchtliche Mengen an superflüchtigen Stoffen enthielten. Beispielsweise enthält Pluto aufgrund seiner Größe und stärkeren Schwerkraft auch heute noch Kohlenmonoxid, Stickstoff und Methan. Bei kleineren Körpern wären diese flüchtigen Stoffe längst ins All entwichen.

Wissenschaftliche Ansprechpartner:
Dr. Ladislav Rezac
Max-Planck-Institut für Sonnensystemforschung
E-Mail: Rezac@mps.mpg.de

Originalpublikation:
Y. Zhao, L. Rezac et al.:
Sublimation as an effective mechanism for flattened lobes of (486958) Arrokoth,
Nature Astronomy, 5. Oktober 2020

Quelle: IDW

(nach oben)


Hochschulmedizin Dresden erhält 7,5 Millionen Euro für COVID-19 Forschung

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

BMBF fördert Konzeptentwicklung von Uniklinikum und Medizinischer Fakultät der TU Dresden zu optimalem Pandemie-Management der stationären Patientenversorgung. Mit dem Ziel, in möglichst kurzer Zeit Erkenntnisse über die Formen und Ursachen von COVID-19 ebenso verfügbar zu machen, wie erfolgversprechende Therapien und sowohl flächendeckende als auch effiziente Versorgungsstrukturen, fördert das Bundesforschungsministerium 13 Verbundprojekte des „Nationalen Forschungsnetzwerks der Universitätsmedizin zu Covid-19″. Eines der geförderten Projekte heißt „EViPan Unimed“, das der Hochschulmedizin Dresden angesiedelt ist und gemeinsam mit der Universitätsmedizin Frankfurt bearbeitet wird.

Das Projekt beschäftigt sich wissenschaftlich damit, ein praxisnahes, auf regionale Gegebenheiten zugeschnittenes Management der stationären Versorgung von Patienten auch in einer Pandemie zu entwickeln, zu testen und zu implementieren. Das Universitätsklinikum Carl Gustav Carus Dresden hat dazu bereits im Frühjahr 2020 sein wissenschaftliches wie praktisches Know-how bei diesem Thema unter Beweis gestellt. Leuchtturmprojekte waren die im Auftrag des Freistaats Sachsen eingerichtete „Zentrale Krankenhaus-Leitstelle Corona Dresden/Ostsachsen“ und das „Dresdner Informations- und Prognosetool für Erkrankungsverlauf und Bettenauslastung in Sachsen (DISPENSE)“.

Die Abkürzung EViPan Unimed steht für „Entwicklung, Testung und Implementierung von regional adaptiven Versorgungsstrukturen und Prozessen für ein evidenzgeleitetes Pandemiemanagement koordiniert durch die Universitätsmedizin“. Unter der wissenschaftlichen Leitung des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV) – einer gemeinsamen Einrichtung des Dresdner Uniklinikums und der Medizinischen Fakultät der TU Dresden -, sowie der Universitätsmedizin Frankfurt arbeiten in dem Forschungsverbund zu diesem Thema 26 weitere Universitätsklinika und externe Institutionen zusammen. In dem Projekt sichten die Wissenschaftler die Erfahrungen aus regionalen, nationalen und internationalen Pandemiemanagementkonzepten und führen es zu einem prototypischen Modell zusammen.

„Mit der am Uniklinikum konzipierten und betriebenen Krankenhaus-Leitstelle haben wir in den damals schwierigsten Wochen der Pandemie unter Beweis gestellt, dass es mit neuen, intelligent gestalteten Strukturen durchaus möglich ist, die vorhandenen Kapazitäten von 33 regionalen Klinken optimal zu steuern und so einen Kollaps des Systems zu verhindern“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. Die Leitstelle hat in den vergangenen Monaten gezeigt, wie sich die Verteilung der Patienten bedarfsorientiert und in Abhängigkeit des Schweregrades der Erkrankungen zentral zu managen ist. Auch der Aspekt einer heimatnahen Unterbringung ließ sich dabei berücksichtigen. „Auf diese Weise ist es während der Pandemie gelungen, die Überlastungen einzelner Kliniken zu vermeiden und deren Kapazitäten bedarfsgerecht anzupassen. Dieses erfolgreiche Vorgehen ist einer der Gründe, warum die Hochschulmedizin Dresden mit ihrem Projektantrag erfolgreich war. Ein weiterer Erfolgsfaktor ist, dass die Hochschulmedizin Dresden mit dem ZEGV bereits seit gut zehn Jahren über eine Forschungsinstitution verfügt, die evidenzbasierte Konzepte der Gesundheitsversorgung auf hohem wissenschaftlichen Niveau entwickeln und evaluieren kann“, fährt Prof. Albrecht fort.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Jochen Schmitt
Direktor des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV)
Tel. 0351/ 4 58 64 95
E-Mail: jochen.schmitt@uniklinikum-dresden.de
www.uniklinikum-dresden.de/zegv

Weitere Informationen:
https://www.uniklinikum-dresden.de/de/das-klinikum/jahresberichte/corona-jahresb…
https://www.uniklinikum-dresden.de/de/das-klinikum/universitaetscentren/zegv/new…
https://www.bmbf.de/de/karliczek-netzwerk-universitaetsmedizin-startet-vertiefte…

Quelle: IDW

(nach oben)


Energieumwandlung – Sonne tanken und im Dunkeln schwimmen

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Mikroschwimmer nennt man kleine Partikel, die sich aktiv schwimmend fortbewegen. Dazu brauchen sie einen Treibstoff wie Licht. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat ein Aufladeprinzip entwickelt, mit dem sie nun auch im Dunkeln vorankommen. Das macht sie für die Medizin interessant.

Der Begriff Mikroschwimmer umfasst alle aktiv schwimmenden, wenige Mikrometer großen Teilchen von Spermien über Bakterien bis hin zu künstlichen Partikeln. Entsprechend vielfältig sind ihre Antriebsarten und Energiequellen. Ein prominentes Beispiel sind Partikel aus Halbleitermaterialien. Sie bewegen sich dank chemischer Reaktionen mit ihrer Umgebung, gewinnen ihre Energie dabei durch die Absorption von Licht. Im Dunkeln war daher bislang Schluss mit der Fortbewegung. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat die Partikel jetzt mit einer raffinierten Ladefunktion ausgestattet, die sie auch ohne Licht weiterschwimmen lässt.

Diese Fähigkeit macht sie für den Wirkstofftransport interessant. Hier bringen kleinste Partikel Wirkstoffe gezielt an ihren Einsatzort wie Gewebe im menschlichen Körper. Die neuen Mikroschwimmer bringen dafür beste Voraussetzungen mit. Sie bewegen sich dank des internen Ladespeichers bis zu 30 Minuten ohne zusätzliche externe Energiequelle. Zusätzlich können die aus weitgehend biokompatiblen Materialien bestehenden Partikel aufgrund ihrer porösen organischen Struktur auch mit Wirkstoffen beladen werden. Auch ihr Einsatz in der Umwelttechnik zur autonomen Aufbereitung von Abwasser wäre denkbar.

Metall-Mützen bringen Mikroschwimmer in Schwung
In dem Forschungsprojekt arbeiten Wissenschaftlerinnen und Wissenschaftler der LMU München und von zwei Stuttgarter Max-Planck-Instituten zusammen. Federführend sind dabei die Gruppen der e-conversion Wissenschaftlerin Bettina Lotsch, Chemie-Professorin an der LMU und Direktorin am MPI für Festkörperforschung, sowie von Metin Sitti am MPI für Intelligente Systeme. Das Geheimnis des Antriebs und der Energiespeicherung liegt sowohl in den ungewöhnlichen Speichereigenschaften des Halbleitermaterials, zudem haben die Mikroschwimmer zwei unterschiedliche Seiten, die maßgeschneidert zusammenarbeiten. Die eine Seite besteht aus dem auf Kohlenstoff basierenden Halbleitermaterial Poly(Heptazin-Imid) – PHI. „Es ist das erste „nachhaltige Sonnenbatterie-Material“, das die Funktionen von Solarzelle und Batterie koppelt“, sagt Filip Podjaski, Mitarbeiter von Bettina Lotsch und einer der beiden Erstautoren der Publikation. „Man kann es günstig und in großen Mengen aus nachwachsenden Rohstoffen und sogar aus Urin herstellen. Und es ist erstaunlich robust und vielseitig einsetzbar.“ Die zweite Hälfte der PHI-Kugel ist mit Platin oder auch Gold überzogen. Diese Metalle sind gezielt gewählte Katalysatoren, die durch Oberflächenreaktionen eine effiziente Ankopplung an die Umgebung ermöglichen und so den Vortrieb stark beeinflussen.

Im Englischen sprechen die Fachleute von caps, also von einer Art Kugeln, die eine Mütze tragen. Während die Halbleiter-Hälfte Sonnenenergie tankt und angeregte Elektronen und Elektronenlöcher erzeugt, hilft die Metall-Mütze bei der Ladungstrennung. Wie funktioniert jetzt aber das Schwimmen und Speichern? Im Regelfall reagieren nun die Elektronen und die Elektronenlöcher mit Wasser oder mit hinzugefügten Treibstoffen wie Alkoholen oder Wasserstoffperoxid. Durch die zweigeteilte Struktur laufen diese Oberflächenreaktionen unsymmetrisch ab, auf einer Seite stärker, auf einer schwächer. Die dabei erzeugten Konzentrationsunterschiede der Produkte sind letztendlich für den Vortrieb verantwortlich.

Winzige Solar-Batterie
Schon unter Beleuchtung in Wasser bewegen sich die Testpartikel vergleichsweise schnell, die Zugabe von Alkohol hat aber einen klar anregenden Effekt auf alle untersuchten Partikelformen. Anders sieht es in 0,5% Wasserstoffperoxid aus. Während mit Gold überzogene Partikel hier eine sehr hohe Aktivität aufweisen, bewegen sich die Mikroschwimmer mit Platin relativ langsam. Was auf den ersten Blick ein Nachteil scheint, erklärt, warum nur diese Kombination zu einem aufladbaren Mikroschwimmer führt. Platin ist ein exzellenter Elektrokatalysator, der Wasserstoffperoxid mit einer ähnlich hohen Rate umsetzt wie das Halbleitermaterial PHI. Es fehlt daher der Konzentrationsunterschied, der die Mikroschwimmer sonst antreibt.

Zunächst scheint auch das Speichern ein Problem zu sein. Denn wie in einem Tank mit Löchern reagieren viele frisch angeregte Elektronen sofort mit ihrer Umgebung und gehen für die Speicherung somit verloren. Der organische Halbleiter und das Platin sind gemeinsam aber so aktiv, dass ein Überschuss an angeregten Elektronen entsteht, die stabilisiert und somit gespeichert werden können. Das Verhältnis von Ladezeit zu Bewegungsdauer wäre für Standard-Elektroautos traumhaft: 30 Sekunden Sonnenbaden reichen für bis zu 30 Minuten Schwimmen im Dunkeln.

Beide Lösungsmittel, Alkohol und Wasserstoffperoxid, schließen eine Anwendung in menschlichem Gewebe auf den ersten Blick aus. Bettina Lotsch und ihr Team sind jedoch schon einen Schritt weiter. „Im Körper gibt es auch andere Stoffe, die ein Schwimmen und Aufladen erlauben“ erklärt die Chemikerin. „Wir untersuchen aktuell die entsprechenden Möglichkeiten der organischen Mikroschwimmer und erste Ergebnisse zeigen, dass Schwimmen, Aufladen und sogar der Transport von Wirkstoffen unter physiologischen Bedingungen machbar ist.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Valeska Lotsch
Department Chemie
Ludwig-Maximilians-Universität München
Butenandtstr. 5-13, Haus D
81377 München
Tel.: +49 (0)89 2180-77429

Originalpublikation:

Carbon nitride-based light-driven microswimmers with intrinsic photocharging ability. V Sridhar, F Podjaski, J Kröger, A Jiménez-Solano, B-W Park, B V Lotsch, M Sitti. Proceedings of the National Academy of Sciences (PNAS) 2020 (first published online Sept 21, 2020).
DOI: 10.1073/pnas.2007362117

Quelle: IDW

(nach oben)


Bayreuther Forscher: Tropische Naturschutzgebiete sind besonders stark von künftigen Klimaänderungen betroffen

Christian Wißler Pressestelle
Universität Bayreuth

Die Naturschutzgebiete der Erde sind das Rückgrat für die Bewahrung globaler Biodiversität. Vom künftigen Klimawandel sind sie in sehr unterschiedlicher Weise betroffen. Detaillierte Kenntnisse der Klimawandelfolgen vor Ort können daher zum Management von Schutzgebieten und zum Erhalt ihrer ökologischen Leistungen wesentlich beitragen. Darauf macht eine biogeografische Studie der Universität Bayreuth in der Zeitschrift „Diversity and Distributions“ aufmerksam. Sie beruht auf Klimaprognosen für mehr als 130.000 Naturschutzgebiete weltweit.

Für ihre neue Studie haben Prof. Dr. Carl Beierkuhnlein und Dr. Samuel Hoffmann am Lehrstuhl für Biogeografie insgesamt 137.735 Naturschutzgebiete in sechs Kontinenten untersucht. Im Mittelpunkt stand dabei die Frage, welchen Abweichungen von den derzeitigen Klimabedingungen diese Gebiete in den kommenden fünf Jahrzehnten ausgesetzt sind und wie dadurch Pflanzen- und Tierarten vor Ort gefährdet werden. „Pauschale Prognosen zum Klimawandel reichen nicht aus, um dem drohenden weiteren Verlust an Biodiversität entgegenzutreten. Dies kann nur gelingen, wenn wir mehr darüber wissen, welche lokalen Klimaänderungen – beispielsweise in Naturschutzgebieten – durch globale Tendenzen verursacht werden. Wie unsere Studie eindrucksvoll belegt, können diese lokalen Auswirkungen schon in räumlich benachbarten Gegenden sehr verschieden ausfallen“, sagt Beierkuhnlein.

Besonders starke lokale Klimaänderungen sind bis 2070 vor allem in Schutzgebieten tropischer Länder zu erwarten. Diese haben heute für den Erhalt weltweit gefährdeter Pflanzen- und Tierarten eine große Bedeutung und stehen unter hohem Druck, weil sie von den Menschen intensiv genutzt werden. Einige von ihnen liegen in Gebirgen hoch über dem Meeresspiegel. Hier werden die Temperaturen infolge des Klimawandels voraussichtlich spürbar ansteigen. Folglich werden einige gefährdete Arten wahrscheinlich versuchen, in höhere und deshalb kühlere Gebirgsregionen auszuweichen. Dort aber könnte die Gefährdung einzelner Arten schnell ansteigen, weil in der Höhe weniger Ressourcen verfügbar sind. „Für wandernde Arten könnten sich höhere Gebirgslagen als Sackgasse erweisen“, erklärt Hoffmann.

Die neue Studie zeigt aber auch: Schutzgebiete, in denen künftige Klimaverhältnisse besonders stark von der Gegenwart abweichen, haben einige Eigenschaften, die sich vorteilhaft auf den Erhalt von Arten auswirken können. Sie sind oft sehr groß, weisen sehr unterschiedliche Landschaftsprofile auf und bieten daher vielfältige Umweltbedingungen. Zudem sind sie durch direkte menschliche Eingriffe wenig belastet und kaum durch Verkehrswege zerschnitten. Diese Umstände begünstigen die Anpassungsfähigkeit von Arten, beispielsweise durch genetischen Austausch und höhere Ressourcenverfügbarkeit. Zudem können manche Arten, die aufgrund von Klimaänderungen zum Verlassen ihrer angestammten Lebensräume gezwungen sind, infolge der landschaftlichen Vielfalt bereits in ihrer Nachbarschaft neue Habitate finden. Deshalb kann ein über lokale Klimaveränderungen gut informiertes Management dazu beitragen, Folgen des Klimawandels in Naturschutzgebieten abzumildern.

Prognosen des globalen Klimawandels sind immer mit Unsicherheiten behaftet. Deshalb haben die Bayreuther Forscher bei ihrer Untersuchung der Naturschutzgebiete mit zehn verschiedenen globalen Modellen des Klimawandels gearbeitet. Zudem haben sie zwei deutlich voneinander abweichende Szenarien der globalen Treibhausgas-Emissionen in ihre Beurteilungen einbezogen. In jedem der untersuchten Naturschutzgebiete wurden kleine quadratische Flächen mit einer Größe von rund einem Quadratkilometer untersucht. Charakteristische Eigenschaften dieser „Zellen“ wurden anschließend ins Verhältnis zu prognostizierten klimatischen Änderungen gesetzt, die auf globaler Ebene bis 2070 zu erwarten sind. Zu diesen Eigenschaften zählen beispielsweise die Höhe über dem Meeresspiegel, das Landschaftsprofil, Niederschläge und Temperaturen, die dort lebenden Pflanzen- und Tierarten sowie Eingriffe seitens der Menschen. Mit diesen Untersuchungen ist es den Bayreuther Forschern gelungen, lokale Klimawandeleffekte auf kleinstem Raum abzuschätzen.

Forschungsförderung:
Die Bayreuther Studie wurde aus dem EU-Projekt ECOPOTENTIAL gefördert, dem bisher größten EU-Projekt zu Ökosystemen.

Wissenschaftliche Ansprechpartner:
Dr. Samuel Hoffmann
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2299
E-Mail: samuel.hoffmann@uni-bayreuth.de

Prof. Dr. Carl Beierkuhnlein
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2270
E-Mail: carl.beierkuhnlein@uni-bayreuth.de

Originalpublikation:
Samuel Hoffmann, Carl Beierkuhnlein: Climate change exposure and vulnerability of the global protected area estate from an international perspective. Diversity & Distributions (2020), DOI: https://doi.org/10.1111/ddi.13136

Quelle: IDW

(nach oben)


Zufriedenheit im Homeoffice nimmt weiter zu

Margret Hornsteiner Dialog
Bayerisches Forschungsinstitut für Digitale Transformation bidt

Die zunehmende Nutzung von Homeoffice im Zuge der Coronakrise hält an. Das zeigt eine Folgebefragung des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) zur Verbreitung und Akzeptanz von Homeoffice in Deutschland. Bereits im März hatte das bidt in einer Studie gezeigt, wie sehr sich das Arbeiten von zu Hause aus verbreitet hat.

• Publikation „Digitalisierung durch Corona?“ des bidt veröffentlicht
• Homeoffice wird weiterhin häufiger und intensiver genutzt als vor der Krise
• Zufriedenheit der Berufstätigen im Homeoffice ist weiter gestiegen
• Wunsch nach mehr Homeoffice auch nach der Coronakrise ist stark ausgeprägt

Auch Monate nach dem Beginn der Coronakrise ist die Verbreitung von Homeoffice deutlich höher als zuvor. Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) führte im März und Juni repräsentative Kurzbefragungen unter erwachsenen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys durch. Die Analyse der Befragungen zeigt:

• Die Nutzung von Homeoffice ist in der Coronakrise nachhaltig gestiegen. Derzeit arbeiten 39 % der erwachsenen berufstätigen Internetnutzerinnen und -nutzer in Deutschland zumindest ab und zu im Homeoffice. Im März waren es 43 %, während es vor der Krise 35 % der Befragten waren.
• Die Intensität der Nutzung von Homeoffice ist deutlich gestiegen. Im Juni befanden sich rund 32 % der Befragten mindestens mehrmals pro Woche im Homeoffice. Vor der Krise war dies nur bei 23 % der Befragten der Fall.
• Die Zufriedenheit mit dem Homeoffice ist hoch. 85 % der Homeoffice-Nutzerinnen und -Nutzer geben an, mit ihrer Situation zufrieden zu sein.
• Die Nutzung der im Homeoffice eingesetzten Technik macht der Mehrheit keine Schwierigkeiten. Nur 12 % der Befragten geben an, Probleme damit zu haben.
• 69 % der befragten Arbeitnehmerinnen und Arbeitnehmer, die dies bei ihrer Tätigkeit grundsätzlich für möglich halten, wünschen sich auch nach der Coronakrise mehr Homeoffice als zuvor.
• Die Befürchtung, dass Arbeitgeber nach der Krise die Homeoffice-Möglichkeiten wieder beschränken, ist weitverbreitet. 55 % der Befragten gehen davon aus.
• Der Großteil der deutschen Erwerbstätigen ist jedoch nach wie vor nicht im Homeoffice. 61 % arbeiten nicht von zu Hause. Der Großteil von ihnen gibt an, dass dies bei ihrer Tätigkeit generell nicht möglich sei.

„Die Arbeitgeber- und Arbeitnehmerseite sollten die coronabedingte Forcierung von Homeoffice als Chance sehen. Nun gilt es über den langfristigen Einsatz flexibler Arbeitsformen zu verhandeln“, sagt Dr. Roland Stürz, einer der Autoren der Studie. Dabei gelte es die Vorzüge von Homeoffice mit den Vorteilen der Präsenzarbeit zu verknüpfen.

„Arbeiten wird flexibler werden“, sagt bidt-Direktor Professor Dietmar Harhoff und betont den damit verbundenen Innovationsschub in Unternehmen: „Flexible Arbeitsmodelle werden nun zu einer verstärkten Digitalisierung von Prozessen, zur Verbesserung der Effizienz und damit zu Produktivitätssteigerungen führen.“

Anhang:
Infografiken als pdf
Quellenangabe bei Verwendung der Grafiken bzw. der Daten:
bidt – Bayerisches Forschungsinstitut für Digitale Transformation: Repräsentative Kurzbefragung von berufstätigen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys, März und Juni 2020

Autorin und Autoren der Studie:
Dr. Roland A. Stürz (bidt Think Tank)
Christian Stumpf (bidt Think Tank)
Ulrike Mendel (bidt Think Tank)
Prof. Dietmar Harhoff, Ph.D. (bidt-Direktorium, Max-Planck-Institut für Innovation und Wettbewerb)

Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) ist ein Institut der Bayerischen Akademie der Wissenschaften und trägt dazu bei, die Entwicklungen und Herausforderungen des digitalen Wandels besser zu verstehen. Das Institut fördert herausragende interdisziplinäre Forschung und liefert als Think Tank Entscheidungsträgern in Politik und Wirtschaft evidenzbasierte Empfehlungen, um die digitale Transformation erfolgreich zu gestalten. Das bidt fördert zudem den offenen Dialog zwischen Forschung und Gesellschaft.
www.bidt.digital

Pressekontakt:
Margret Hornsteiner
Abteilungsleiterin Dialog
Tel.: +49 (0)89 5402356-30
E-Mail: presse@bidt.digital

Wissenschaftliche Ansprechpartner:
Ansprechpartner zur Studie:
Dr. Roland A. Stürz
Abteilungsleiter Think Tank
Tel.: +49 (0)89 5402356-20
E-Mail: roland.stuerz@bidt.digital

Originalpublikation:

Roland A. Stürz, Christian Stumpf, Ulrike Mendel, Dietmar Harhoff: Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland: Ergebnisse zweier bidt-Kurzbefragungen. bidt Analysen und Studien September 2020
DOI: 10.35067/xypq-kn62

Weitere Informationen:

https://www.bidt.digital/studie-homeoffice2/ Link zur Studie „Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland“
https://www.bidt.digital/studie-homeoffice-interview/ Interview „Homeoffice lohnt sich für Unternehmen“

Anhang
Infografiken zur Kurzbefragung des bidt zur Nutzung von Homeoffice in Deutschland
https://idw-online.de/de/attachment80689

Quelle: IDW

(nach oben)


Im Ostseeraum muss die Entsorgung nicht verwendeter Arzneimittel verbessert werden

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Die korrekte Sammlung und Entsorgung von ungenutzten Medikamenten kann zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee beitragen und ist vergleichsweise leicht umzusetzen. Der Umgang mit ungenutzten Medikamenten wird jedoch in den einzelnen Ostseeanrainerstaaten unterschiedlich gehandhabt. Vergleichbare Informationen zu bestehenden Rücknahme- und Entsorgungspraktiken lagen bisher nicht vor. Das Projekt CWPharma hat nationale Rücknahme- und Entsorgungspraktiken untersucht und daraus Empfehlungen („good practices“) abgeleitet.

Das Projekt CWPharma, ein von der EU im Rahmen des Interreg-Programms „Baltic Sea Region“ finanziertes und vom finnischen Umweltforschungsinstitut SYKE geleitetes Verbundvorhaben, hat daher die nationalen Rücknahme- und Entsorgungspraktiken nicht verwendeter Arzneimittel aus verschiedenen Anwendungsbereichen (z.B. Haushalt, Krankenhäuser, Tiermedizin) untersucht und daraus entsprechende Empfehlungen („good practices“) abgeleitet.
„Wir haben die aktuellen Vorgehensweisen in Dänemark, Estland, Finnland, Deutschland, Lettland, Litauen, Polen, Russland und Schweden bewertet. Das Ziel ist, die nationalen Rücknahme- und Ent-sorgungsmethoden zu verbessern und auf diese Weise die Arzneimittelemissionen in die Ostsee zu reduzieren“, sagt Experte Jukka Mehtonen vom finnischen Umweltinstitut SYKE.

Häufiges Problem ist die unsachgemäße Entsorgung von Arzneimitteln
Die Rückgabe nicht verwendeter Arzneimittel an Sammelstellen wird in den Ostseeländern sehr unterschiedlich gehandhabt. Der Anteil der Bürger, die nicht verwendete Arzneimittel an bestimmte Sammelstellen zurückgeben, liegt zwischen 10 und 70 Prozent. Etwa 16 bis 80 Prozent der Befragten entsorgen nicht verwendete Medikamente über den Hausmüll und 3 bis 30 Prozent entsorgen sie über die Toilette oder Spüle (s. Tabelle 1). Informationen bezüglich der Menge an ungenutzten Tier-arzneimitteln stehen seltener zu Verfügung und deren Entsorgung ist meist schlechter organisiert, als dies in der Humanmedizin der Fall ist.
Der häufigste Grund für die unsachgemäße Entsorgung von Arzneimitteln aus Haushalten ist die Unkenntnis über die Umweltfolgen sowie fehlende Informationen über umweltverträgliche Entsorgungsmöglichkeiten. Die getrennte Erfassung von ungenutzten Arzneimitteln aus Haushalten ist in einigen Ländern kaum bzw. überhaupt nicht organisiert (z.B. Russland). In anderen Ländern wie z.B. Lettland, Litauen und Polen funktioniert die getrennte Sammlung nur mangelhaft. In Deutschland wird Hausmüll überwiegend verbrannt. Daher wird den Verbrauchern geraten, nicht verwendete Arzneimittel direkt im Hausmüll zu entsorgen. In Regionen, in denen der Hausmüll nicht verbrannt wird, wird den Verbrauchern eine Entsorgung über mobile Sammelfahrzeuge oder Recyclingzentren empfohlen. Eine leicht verständliche Übersicht für Deutschland ist unter der Webadresse https://arzneimittelentsorgung.de/home zu finden.

Wie können die Emissionen von durch eine korrekte Entsorgung von Arzneimittelwirkstoffen reduziert werden?
Das Projekt CWPharma hat 21 bewährte Verfahrensweisen zur Rücknahme und Entsorgung von ungenutzten Medikamenten sowie Maßnahmen zur Förderung eines bewussteren Gebrauchs von Medikamenten im Ostseeraum ermittelt. Bei einer möglichen Umsetzung auf nationaler Ebene müssen nationale Rechtsvorschriften entsprechend berücksichtigt werden. Die identifizierten Verfahrensweisen entsprechen der Forderung nach einem EU-weiten strategischen Ansatz für eine effiziente Risikominderung.

– Eine der wichtigsten Empfehlungen lautet, den Bürgern zu ermöglichen, alle nicht verwendeten Medikamente (sowohl die verschriebenen als auch die rezeptfreien) an dafür vorgesehenen Sammelstellen abgeben zu können. Dies kann beispielsweise der Ort sein, an dem sie gekauft wurden (z.B. Apotheke) oder an Recyclinghöfen. Dieses Vorgehen ist leicht verständlich und leicht umsetzbar. Gleiches sollte auch für Arzneimittel gelten, die für Haustiere verwendet werden.

– In den Ostseeanrainerstaaten werden pharmazeutische Abfälle aus Krankenhäusern vor Ort gesammelt und direkt zu den entsprechenden Abfallbehandlungsanlagen geliefert. Dieselbe Vorgehensweise wird auch für Gesundheitseinrichtungen wie Privatkliniken, Altersheime und Firmen, die häusliche Pflege anbieten, empfohlen.

– Bezüglich der Entsorgung von Tierarzneimitteln wird empfohlen, dass Landwirte bei tierärztlichen Untersuchungen auf ihrem Hof die Möglichkeit erhalten sollten, ungenutzte Tierarzneimittel an den Tierarzt zurückzugeben, der wiederum die Kosten für Sammlung und Abfallentsorgung in Rechnung stellen kann. Fallen jedoch große Mengen an ungenutzter Tiermedizin an, sollten die Landwirte die Entsorgung der Tiermedizin analog zu Apotheken und Krankenhäusern selbst organisieren. Geringe Mengen sollten auch an die für Privathaushalte vorgesehenen Sammelstellen abgegeben werden dürfen.

– Umweltauswirkungen von Arzneimittelemissionen sowie die korrekte Entsorgung von ungenutzten Arzneimitteln sollten über gezielte Informationskampagnen für Bürger, Ärzte, Tierärzte und Landwirte vermittelt werden.
Beispiel für Deutschland: https://www.bmu.de/richtigentsorgenwirkt/wie-werden-arzneimittel-richtig-entsorg…

– Zur Behandlung von separat gesammelten Arzneimitteln und anderen pharmazeutischen Abfällen wird generell eine Hochtemperaturverbrennung bei etwa 1.100-1.300°C empfohlen.

Weitere Empfehlungen aus dem CWPharma Projekt sind:
– Medikamente sollten nicht unnötig genutzt bzw. verschrieben werden.
– Apothekenpersonal und Tierärzte sollten Kunden bei Abgabe von Medikamenten über die richtige Entsorgung ungenutzter Medikamente informieren.

Nächste Projektschritte:
Im Herbst 2020 wird das Projekt CWPharma Empfehlungen („good practices“) für eine effektive Kommunikation der Umweltrelevanz von Arzneimittelrückständen geben. Ebenso sollen Empfehlungen zur Zulassungspraxis von Anlagen in der Arzneimittelproduktion unter besonderer Berücksichtigung von Umweltaspekten veröffentlicht werden. Darüber hinaus wird ein Leitfaden zur weitergehenden Abwasserbehandlung mit dem Ziel einer Entfernung von Arzneimittelrückständen („4. Reinigungsstufe“) erstellt. Abschließend wird ein Aktionsplan mit politischen Empfehlungen zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee vorgestellt.

Wissenschaftliche Ansprechpartner:
Michael Stapf, Kompetenzzentrum Wasser Berlin, tel. +49 30 536 53823

Noora Perkola, Finnish Environment Institute, tel. +358 295 251 507, noora.perkola@ymparisto.fi
www.cwpharma.fi

Originalpublikation:
https://www.kompetenz-wasser.de/wp-content/uploads/2020/09/200910_cwpharma_kwb_p…

Weitere Informationen:

http://www.swedishepa.se/Hazards/Pharmaceuticals
https://helcom.fi/action-areas/industrial-municipal-releases/pharmaceuticals/
http://medsdisposal.eu/

Quelle: IDW

(nach oben)


Roboter auf der Blumenwiese und Gemüse von der Kläranlage

Luisa Gierke Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)

Am 12. September 2020 fand die gemeinsame Veranstaltung von dem Futurium mit der Fördermaßnahme Agrarsysteme der Zukunft statt. Hier diskutieren namhafte Wissenschaftler*innen zum Thema: Kreislaufwirtschaft statt Verschwendung von Ressourcen. Die Kombination aus Natur und Hightech kann dabei helfen, die Zukunft nachhaltiger zu gestalten. Abfallstoffe können zum Beispiel zu Rohstoffen werden, um Nahrungsmittel und Energie zu produzieren.

Wissenschaftler*innen arbeiten auf Hochtouren, um diese Kombination aus Natur und Hightech bald möglich zu machen. Wie kann diese Umstellung genau aussehen? Wie viel kann die Bioökonomie leisten, um auf lange Sicht Kreisläufe nachhaltig zu schließen? Forscher*innen aus zwei Projekten der Agrarsysteme der Zukunft stellen ihre Visionen zur Diskussion. Dabei sind auch die Besucher*innen des Futuriums gefragt: Wie wäre es für Sie, wenn Drohnen das Wachstum von Nutzpflanzen überwachen und Tomaten mit Nährstoffen aus der Kläranlage groß geworden sind?

Website der Agrarsysteme der Zukunft: https://www.agrarsysteme-der-zukunft.de

Pressekontakt:
Luisa Gierke | E-Mail: gierke@igzev.de | Telefon: 033701 / 78 100

Wissenschaftliche Ansprechpartner:
Dr. Philip Albers | E-Mail: albers@igzev.de | Telefon: 033701 / 78 162

Anhang
Pressemitteilung_Roboter_auf_der_Blumenwiese_und_Gemüse_von_der_Kläranlage
https://idw-online.de/de/attachment80711

Quelle: IDW

(nach oben)


Verbindung aus Calcium und Phosphat löst starke Entzündung bei Rheumapatienten aus

Peggy Darius Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig

Wissenschaftler der Universität Leipzig haben entdeckt, dass Calcium im Zusammenspiel mit Phosphat starke Entzündungen bei Rheumapatienen auslösen kann. Die Erkenntnis eröffnet neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen. Das Ergebnis hat eine Forschergruppe der Medizinischen Fakultät um Studienleiter Prof. Dr. Ulf Wagner aktuell in der Fachzeitschrift „nature communications“ veröffentlicht.

„Ein entzündungsfördernder Effekt von Calcium-Ionen war bisher bei chronischer Bronchitis und Adipositas erforscht worden, der Nachweis bei Rheuma ist völlig neu. Mit dieser Entdeckung ist es nun möglich, neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen zu entwickeln“, sagt Wagner, Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig, der das Ergebnis gemeinsam mit Dr. Elisabeth Jäger, Supriya Murthy und PD Dr. Manuela Rossol publiziert hat.

Winzige Nanopartikel, enorme Entzündungsreaktion
Die Arbeitsgruppe „Experimentelle Rheumatologie“ der Leipziger Universitätsmedizin hatte bereits in der Vergangenheit entdeckt, dass eine erhöhte lokale Calciumkonzentration zu einer sehr starken Entzündungsreaktion mit nachfolgender Gewebszerstörung beitragen kann. In einer neuen Arbeit wurde der dafür verantwortliche Mechanismus bei Rheuma weiter aufgeklärt. Neben Calcium spielt auch Phosphat eine wichtige Rolle. Bei erhöhten Konzentrationen dieser Ionen bilden sich Calcium-Phosphat-Nanopartikel aus, welche trotz ihrer winzigen Größe enorme Entzündungsreaktionen in Immunzellen auslösen können.

Bei rheumatoider Arthritis (RA), einer der häufigsten rheumatologischen Autoimmunerkrankungen, an welcher circa ein Prozent aller Menschen im Laufe ihres Lebens erkranken, führen diese Nanopartikel in Verbindung mit Calcium-Ionen zu einer deutlich stärkeren Entzündungsreaktion als bei Gesunden. Das geht mit der Produktion potenter Botenstoffe einher. Diese spielen bei rheumatischen Erkrankungen eine vordergründige Rolle. Ihre medikamentöse Blockade ist die wirkungsstärkste Form der Behandlung der RA.

Erhöhte lokale Calciumkonzentration ausschlaggebend
Die durch Calcium-Ionen getriggerte Aufnahme von Calcium-Phosphat-Nanopartikeln kann bei Rheuma zu Gelenkentzündungen führen. Die treibende Kraft ist jedoch immer eine erhöhte Calciumkonzentration in der Umgebung entzündeter Gelenke, während die Calciumaufnahme oder die systemische Regulation des Calciumspiegels keine Rolle zu spielen scheint. Die bei der Erkrankung auftretende Freisetzung von Calcium und Phosphat aus dem Knochen infolge von Knochenentkalkung beziehungsweise -zerstörung kann dazu beitragen, dass die Erkrankung chronisch wird. Zusammenhänge zwischen Verkalkung und Entzündung werden aber auch bei anderen entzündlichen Erkrankungen wie der Arteriosklerose vermutet.

Calcium und Phosphat sind die wichtigsten Elemente des Knochens, werden dort ständig eingebaut oder bei Bedarf wieder freigesetzt. Rheumatische Erkrankungen und Osteoporose gehen häufig mit einem Verlust von Calcium aus dem Knochen einher, während die Ablagerung von Calcium in anderen Geweben wie der Niere, den Arterien oder dem Bindegewebe eine krankhafte Veränderung mit häufig schweren Konsequenzen darstellt. Insbesondere die Verkalkung von Blutgefäßen führt zu deren Zerstörung und kann die Ursache oder eine Begleiterscheinung von Herz-Kreislauferkrankungen wie Herzinfarkt oder Schlaganfall sein.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Ulf Wagner
Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig
T: 0341/ 97 24702
ulf.wagner@uniklinik-leipzig.de

Originalpublikation:

https://www.nature.com/articles/s41467-020-17749-6

Quelle: IDW

(nach oben)


Mit Bor und Bier Stickstoff reduziert

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Die industrielle Umwandlung von Stickstoff in Ammonium liefert Dünger für die Landwirtschaft. Würzburger Chemiker haben diese Umwandlung nun bei Raumtemperatur, niedrigem Druck und mit leichten Elementen erreicht.

Die Menschheit ist auf das Ammonium in synthetischem Dünger angewiesen, um ihre Ernährung zu sichern. Doch die Herstellung von Ammonium aus Stickstoff ist äußerst energieintensiv und erfordert den Einsatz von Übergangsmetallen.

Einer Forschungsgruppe der Julius-Maximilians-Universität (JMU) Würzburg ist es nun gelungen, Stickstoff bei Raumtemperatur, niedrigem Druck und ohne Übergangsmetalle in Ammonium umzuwandeln. Das berichtet ein Team unter Leitung des JMU-Wissenschaftlers Professor Holger Braunschweig in der Zeitschrift Nature Chemistry.

Ein neuer Werkzeugkasten für die Stickstoffbindung
Die industrielle Herstellung von Ammonium, das so genannte Haber-Bosch-Verfahren, erfordert hohe Temperaturen und Drücke. Sie verbraucht schätzungsweise etwa zwei Prozent der gesamten auf der Erde erzeugten Energie. Dieser Prozess stützt sich auf Übergangsmetalle, das sind relativ schwere und reaktive Atome.

Im Jahr 2018 gelang dem Team von Professor Braunschweig die Bindung und chemische Umwandlung von Stickstoff mit Hilfe eines Moleküls, das nur aus leichteren, nichtmetallischen Atomen besteht. Ein Jahr später demonstrierte es mit einem ähnlichen System die erste Kombination von zwei Stickstoffmolekülen im Labor. Diese Reaktion war zuvor nur in der oberen Erdatmosphäre und unter Plasmabedingungen beobachtet worden.

Der Schlüssel zu diesen beiden Entdeckungen war die Verwendung von Bor, dem fünftleichtesten Element, als Atom, an das der Stickstoff bindet. „Nach diesen beiden Entdeckungen war klar, dass wir ein ganz besonderes System in den Händen hatten“, sagt Braunschweig.

Einfach Wasser hinzufügen
Obwohl dieses System Stickstoff bindet und umwandelt, fehlte noch die Hälfte der Puzzleteile.

„Wir wussten, dass die vollständige Umwandlung von Stickstoff in Ammonium eine große Herausforderung darstellen würde, da sie eine komplexe Abfolge chemischer Reaktionen erfordert, die oft nicht miteinander kompatibel sind“, erklärt der JMU-Professor.

Der Durchbruch gelang mit einfachsten Reagenzien: Spuren von Wasser, die in einer Probe zurückblieben, reichten aus, um eine Folge von Reaktionen zu fördern, die das Team bis auf einen einzigen Schritt an das Ziel „Ammonium erzeugen“ heranbrachte. Später wurde entdeckt, dass die Schlüsselreaktionen mit einer festen Säure so durchgeführt werden konnten, dass die Reaktionen in einem einzigen Reaktionskolben bei Raumtemperatur nacheinander ablaufen konnten.

Ammonium mit Bier herstellen
Als das Team erkannt hatte, dass die Reaktion selbst mit einfachen Reagenzien wie Wasser zu funktionieren schien, wiederholte es sie mit dem Bier der örtlichen Brauerei Würzburger Hofbräu. Zu ihrer Freude konnten die Chemiker auch damit die Vorstufe von Ammonium erzeugen.

„Dieses Experiment haben wir aus Spaß gemacht. Aber es zeigt, wie tolerant das System gegenüber Wasser und anderen Verbindungen ist“, erklärt Postdoc Dr. Marc-André Légaré, der die Studie initiiert hatte.

„Die Reduktion von Stickstoff zu Ammonium ist eine der wichtigsten chemischen Reaktionen für die Menschheit. Dies ist zweifellos das erste Mal, dass sie mit Bier gemacht wurde, und es ist besonders passend, dass dies in Deutschland passiert ist“, sagt Dr. Rian Dewhurst, Akademischer Oberrat und Koautor der Studie.

Viel Arbeit zu erledigen
Diese Ergebnisse sind zweifellos aufregend, aber noch weit von der Anwendung in der industriellen Produktion von Ammonium entfernt. Es muss noch ein Weg gefunden werden, um den gesamten Prozess energieeffizient und wirtschaftlich zu gestalten.

Trotzdem demonstriert die Entdeckung, dass auch leichtere Elemente selbst die größten Herausforderungen in der Chemie meistern können. „Hier gibt es noch viel zu tun, aber Bor und die anderen leichten Elemente haben uns schon so oft überrascht. Sie sind eindeutig zu so viel mehr fähig“, sagt Holger Braunschweig.

Förderer
Diese Forschungsarbeit wurde von der Deutschen Forschungsgemeinschaft (DFG), der Alexander-von-Humboldt-Stiftung und dem Natural Sciences and Engineering Research Council of Canada finanziell unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Braunschweig, Institut für Anorganische Chemie und Institut für Nachhaltige Chemie & Katalyse mit Bor, Universität Würzburg, T +49 931 31-85260, h.braunschweig@uni-wuerzburg.de

Originalpublikation:
One-Pot, Room-Temperature Conversion of Dinitrogen to Ammonium at a Main-Group Element. Marc-André Légaré, Guillaume Bélanger-Chabot, Maximilian Rang; Rian D. Dewhurst, Ivo Krummenacher, Rüdiger Bertermann, Holger Braunschweig. Nature Chemistry, 14 September 2020, DOI: 10.1038/s41557-020-0520-6; https://www.nature.com/articles/s41557-020-0520-6.

Quelle: IDW

(nach oben)


Schwebstoffe in Bundeswasserstraßen: Neue Erkenntnisse zu Herkunft und Zusammensetzung

Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Schwebstoffe sind ein wichtiger Bestandteil unserer Gewässer. Wissenschaftler der Bundesanstalt für Gewässerkunde und der Rheinischen Friedrich-Wilhelms-Universität Bonn haben jetzt mit langjährigen Datenreihen die Dynamik und Quellen der Schwebstoffe in den Bundeswasserstraßen untersucht und sind zu überraschenden Ergebnissen gekommen.

In einer kürzlich in der Fachzeitschrift Earth Surface Dynamics erschienenen Publikation untersuchen Wissenschaftler der BfG und der Rheinischen Friedrich-Wilhelms-Universität Bonn mögliche Quellen und Transportwege von Schwebstoffen in den Bundeswasserstraßen. Die BfG verfügt durch die fachliche Begleitung und Auswertung des WSV-Schwebstoffdauermessnetzes über einen einzigarten Datensatz, der bis in die 1960er Jahre zurückreicht. Mehr als 750 000 Datenpunkte von 62 Messstellen im gesamten Bundesgebiet haben die Forscher analysiert. Zusätzlich flossen die seit 1997 durchgeführten Messungen zum organischen Anteil der Schwebstoffe an zwei Messtellen an Mosel und Rhein in die statistischen Analysen ein. Die Ergebnisse zeigen: Wie zunächst erwartet nimmt mit steigendem Durchfluss – also der Wassermenge, die in einer bestimmten Zeit an einer Stelle im Fluss vorbeifließt – die Schwebstoffkonzentration zu, und bei sinkendem Durchfluss wieder ab. In einigen Fällen ist diese Abnahme aber nicht eindeutig zu beobachten, was bislang als Ausnahme angesehen wurde. Die Daten zeigen jedoch, dass dieser Effekt häufiger auftritt als bislang angenommen. Und an einigen Stellen nahm die Schwebstoffkonzentration mit Abnahme der Wassermenge sogar zu. Verantwortlich hierfür sind Algen.

Thomas Hoffmann, einer der Autoren der Studie: „Der Anteil an organischem Material in den Schwebstoffen spielt hierbei eine zentrale Rolle. Bei geringen Abflüssen, wenn diese zum Beispiel im Sommer bei hohen Wassertemperaturen auftreten, steigt die Algenkonzentration und somit auch der Anteil an organischen Schwebstoffen. Bei hohen Abflüssen ist dagegen der mineralische Anteil größer.“ Denn: Ergiebige Niederschläge oder auch Starkregenereignisse führen zu einem hohen Eintrag von ausgewaschenen Böden und somit mineralischem Material in das Gewässer.

Mit diesen neuen Erkenntnissen könne man nun die Quellen der Schwebstoffe besser bestimmen und unterscheiden, so Hoffmann. Und das hilft auch der WSV, der für die Baggermaßnahmen zuständigen Behörde. Durch gezielte Maßnahmen bereits an der Quelle könnten die Schwebstoffmengen reduziert werden, bevor diese im Gewässer für die WSV zum Problem werden.

Da das Klima in Deutschland immer wärmer wird, nehmen auch die Trockenphasen und somit das Auftreten von Niedrigwasser zu. Auch Starkniederschläge dürften zukünftig vermehrt auftreten. Und beide Effekte können zu erheblichen Schwebstoffeinträgen direkt aus dem Fluss oder aus dessen Einzugsgebiet führen. Wie sich die Abflussverhältnisse in den Bundeswasserstraßen genau entwickeln, lässt sich jedoch derzeit nicht eindeutig vorhersagen.

Die Veröffentlichung ist zum freien Download ab sofort auf der Internetseite der Fachzeitschrift Earth Surface Dynamics verfügbar.

Wissenschaftliche Ansprechpartner:
Thomas Hoffmann, BfG (thomas.hoffmann@bafg.de)

Originalpublikation:
Hoffmann, T. O., Y. Baulig, H. Fischer and J. Blöthe (2020). „Scale breaks of suspended sediment rating in large rivers in Germany induced by organic matter.“ Earth Surf. Dynam. 8(3): 661-678.DOI: 10.5194/esurf-8-661-2020.

Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/20200921_Schwebstoffe.html auf der BfG Nachrichtenseite

Quelle: IDW

(nach oben)


Neue Studie aus Bayreuth: Auch gekochte Karotten können allergische Reaktionen auslösen

Christian Wißler Pressestelle
Universität Bayreuth

Der Verzehr roher Karotten löst bei vielen Menschen Allergien aus. Entgegen einer weit verbreiteten Auffassung können aber auch gekochte Karotten diesen Effekt haben. Dies hat ein Forschungsteam der Universität Bayreuth jetzt herausgefunden. Zwar nimmt das Allergen der Karotte, Dau c 1 genannt, im hocherhitzten Zustand eine für Allergiker ungefährliche Struktur an. Doch sobald die Temperatur sinkt, kehrt es weitgehend in seine natürliche Struktur zurück. In der Zeitschrift „Molecular Nutrition & Food Research“ stellen die Wissenschaftlerinnen ihre Studie vor.

„Die Ergebnisse unserer Untersuchungen sprechen eindeutig dafür, dass Patienten, die sensibel auf das Allergen der Karotte reagieren, generell auf den Verzehr von Karotten verzichten sollten. Das Erhitzen der Karotten zerstört nicht oder nur unvollständig die Proteinstrukturen, die allergische Reaktionen verursachen können“, sagt Prof. Dr. Birgitta Wöhrl vom Lehrstuhl Biochemie IV der Universität Bayreuth.

„Die Gefahr, dass Allergie-Patienten eine allergische Reaktion entwickeln, ist nicht nur beim Verzehr von frisch gekochten Karotten oder von Karotten aus der Konservenbüchse gegeben. Sie besteht auch dann, wenn Nahrungsmitteln Karottenextrakt beigemischt wird“, ergänzt Thessa Jacob M.Sc., Erstautorin der Studie und Doktorandin am Lehrstuhl Biochemie IV.

Das natürliche Karottenallergen Dau c 1 ist eigentlich eine Mischung aus mehreren, strukturell sehr ähnlichen Proteinen. Diese sogenannten Isoallergene wurden im Labor einzeln in Bakterien hergestellt. Sowohl das Proteingemisch des natürlichen Dau c 1 als auch die einzelnen Isoallergene wurden bei Temperaturen bis maximal 95 Grad Celsius daraufhin untersucht, wie sich ihre Strukturen bei steigenden und fallenden Temperaturen ändern. Dabei zeigte sich, dass die natürliche Mischung und fast alle einzelnen Isoallergene nach einer Abkühlung auf 25 Grad Celsius erneut in der Lage sind, Allergien zu verursachen. Trotz der vorausgegangenen Erhitzung können die im Organismus von Allergie-Patienten vorhandenen Antikörper allergische Reaktionen hervorrufen. Zwar ist diese Fähigkeit in einigen Fällen schwächer ausgeprägt als vor der Erhitzung, aber grundsätzlich bleibt sie erhalten.

„Es ist das erste Mal, dass die Dau c 1-Isoallergene einer derart umfangreichen Testreihe unterzogen wurden. Die separate Untersuchung der strukturähnlichen Moleküle war uns besonders wichtig, um festzustellen, welche der Isoallergene unter den getesteten Bedingungen Immunreaktionen auslösen“, sagt Thessa Jacob.

Die Tests zeigten deutlich, dass die strukturelle Stabilität des Karottenallergens nicht allein von der Höhe der Temperatur abhängt. Wichtig ist ebenso der durch den pH-Wert ausgedrückte Säuregrad. Von besonderem Interesse ist der pH-Wert 3, der sich im Magen typischerweise nach der Nahrungsaufnahme einstellt. Bei diesem Säuregrad und bei normaler Raumtemperatur können, wie sich herausgestellt hat, zumindest einige Epitope trotz des vorherigen Erhitzens weiter existieren. Epitope sind diejenigen molekularen Teilstrukturen, an denen das Immunsystem von Allergie-Patienten das jeweilige Allergen erkennt, so dass eine allergische Reaktion erfolgt.

Bei ihren Strukturuntersuchungen haben die Forscherinnen vor allem die Magnetresonanzspektroskopie (NMR) sowie die CD-Spektroskopie auf dem Bayreuther Campus eingesetzt. Bei weiteren Analyseverfahren erhielten sie Unterstützung vom Paul-Ehrlich-Institut in Langen und von der Nano Temper Technologies in München.

Wissenschaftliche Ansprechpartner:

Thessa Jacob M.Sc.
Lehrstuhl Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3869
E-Mail: thessa.jacob@uni-bayreuth.de

Prof. Dr. Birgitta Wöhrl
Lehrstuhl für Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3541
E-Mail: birgitta.woehrl@uni-bayreuth.de

Originalpublikation:
Thessa Jacob et al.: Food Processing Does Not Abolish the Allergenicity of the Carrot Allergen Dau c 1: Influence of pH, Temperature, and the Food Matrix. Molecular Nutrition & Food Research (2020), DOI: https://doi.org/10.1002/mnfr.202000334

Quelle: IDW

(nach oben)


Wissen über Corona: Die Mehrheit der Bevölkerung hat sich gut informiert und ist dafür, „Fake News“ zu kennzeichnen

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Auch nach dem sogenannten „Lockdown“ gibt die Mehrheit der Befragten Anfang Juni 2020 an, sich weiterhin über das aktuell grassierende Coronavirus sowie die allgemeinen Entwicklungen der Lage auf dem Laufenden gehalten zu haben – Ältere mehr noch als Jüngere. Insgesamt zeigt die Bevölkerung sich gut informiert. Sie nehmen Fehlinformationen als weit verbreitet wahr und sind dafür, solche „Fake News“ zu kennzeichnen. Das sind die Ergebnisse einer jüngst vom Max-Planck-Institut für Bildungsforschung und dem Robert Koch-Institut veröffentlichten Studie zum Informationsverhalten und Wissensstand der Bevölkerung in Deutschland während der ersten Monate der Corona-Pandemie.

Das Coronavirus ist in den Medien wie in privaten Gesprächen im Familien- und Freundeskreis oder am Arbeitsplatz omnipräsent. Seit Beginn der Pandemie sind wir einer beispiellosen Informationsflut ausgesetzt: von täglichen Infektionszahlen, über Informationen zu Symptomen, Risiken, Verhaltensempfehlungen und öffentlich geltenden Regeln, bis hin zu persönlichen Erfahrungsberichten oder globalen Vergleichen. Unklar ist, wie die Bevölkerung mit dieser Informationsflut umgegangen ist und wie sich das Informationsverhalten mit dem Rückgang der Infektionszahlen und den Lockerungen der flächendeckenden Maßnahmen Anfang Juni veränderte. So musste die Bevölkerung Anfang Juni damit rechnen, dass Risiken sich regional unterscheiden und Maßnahmen punktuell an das aktuelle Infektionsgeschehen angepasst werden.

Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung und des Robert Koch-Instituts haben sich deshalb mit dem Informationsverhalten der deutschen Bevölkerung während der ersten Monate der Corona-Pandemie beschäftigt und sich auf folgende Fragen konzentriert: (1) Wie informierte sich die Bevölkerung nach eigenen Angaben zu Beginn der Lockerungsphase Anfang Juni rund um das Coronavirus und wie hat sich das Verhalten nach eigenen Angaben im Vergleich zu Anfang März verändert? (2) Über welche Themen, aus welchen Gründen und über welche Quellen informierte sich die Bevölkerung? (3) Wie ging die Bevölkerung mit Fehlinformationen um? (4) Wie nahm die Bevölkerung Risiken rund um das Coronavirus wahr und wie gut war sie zu den beiden Zeitpunkten der Befragung informiert? Um diese Fragen beantworten zu können, führten die Wissenschaftler*innen im Juni 2020 eine querschnittliche Online-Studie durch. In dieser befragten sie 1.107 Teilnehmer*innen im Alter zwischen 18 und 69 Jahren zu ihrem Informationsverhalten Anfang März und Anfang Juni. Die Daten der Stichprobe sind nicht repräsentativ, da die Internetnutzung von älteren Menschen im Allgemeinen geringer ist. Allerdings wurde die Stichprobe so gezogen, dass sie der Verteilung von Alter, Geschlecht und Bundesland in der deutschen Bevölkerung entspricht.

Der Anteil der Befragten, der angab, sich rund um das Coronavirus zu informieren, ist insgesamt hoch. Für die Lockerungsphase Anfang Juni war der Anteil mit 78 Prozent nur etwas geringer als für Anfang März mit 86 Prozent. Dabei gibt es allerdings deutliche Altersunterschiede: Von den 18 bis 29-Jährigen gab rund ein Drittel an, sich eher nicht oder überhaupt nicht rund um das Coronavirus zu informieren, aber nur 10 Prozent der 60 bis 69-Jährigen. „Das muss nicht zwangsläufig problematisch sein, da die allgemeine Informiertheit sehr hoch zu sein scheint. Es wird dann zum Problem, wenn die durch das Coronavirus weniger gefährdeten Jüngeren durch Uninformiertheit Risikogruppen wie Ältere oder Personen mit Vorerkrankungen gefährden oder wenn neue Erkenntnisse und Maßnahmen nicht mehr zu allen Bevölkerungsgruppen durchdringen. Das muss weiter beobachtet werden“, erläutert Erstautorin Christina Leuker. Sie ist assoziierte Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung und wissenschaftliche Mitarbeiterin in der Abteilung Wissenschaftskommunikation am Robert Koch-Institut.

Anfang Juni informierten sich die Befragten vornehmlich über die allgemeine Entwicklung der Lage, wie zum Beispiel zu Änderungen öffentlich geltender Regeln (87%) oder zu Fortschritten medizinischer Behandlungs- und Testmethoden (78%). Informationen zum persönlichen Risiko und zum Umgang mit dem Virus sind Anfang Juni dagegen von geringerem Interesse als zu Beginn der Pandemie Anfang März. Während sich das Themeninteresse verschoben hat, blieben die Gründe sich zu informieren vor und nach dem sogenannten „Lockdown“ konstant: Die meisten Befragten informierten sich Anfang Juni wie Anfang März, um über Veränderungen der aktuellen Situation auf dem Laufenden zu bleiben und um von neuen Anordnungen zu erfahren.

Von einem Großteil der Befragten wurden dabei Fehlinformationen als weit verbreitet wahrgenommen: 59 Prozent der Befragten gaben an, mehrmals pro Woche bis mehrmals am Tag auf solche „Fake News“ zu stoßen. Als Quelle wurden am häufigsten die sozialen Medien genannt (73%). Das ist möglicherweise problematisch, da etwas über die Hälfte der Befragten angab, soziale Medien zu nutzen, um sich rund um das Coronavirus zu informieren. 75 Prozent der Befragten befürworteten es, falsche und irreführende Informationen zu kennzeichnen und auf eine Richtigstellung hinzuweisen. Aber auch das direkte persönliche Umfeld wurde als Quelle von Fehlinformationen wahrgenommen. Um unsichere Informationen zu prüfen, gab etwa die Hälfte der Befragten an, auf Suchmaschinen und entsprechende Webseiten zurückzugreifen. Dagegen fragten nur 23 Prozent jemanden aus ihrem Haushalt.

Gesundheitliche Risiken wurden je nach Altersgruppe unterschiedlich bewertet. Unter den Befragten zwischen 60 und 69 Jahren war die Sorge vor schweren gesundheitlichen Folgen im Falle einer Infektion im Vergleich zu den Befragten zwischen 18 und 29 Jahren deutlich höher (61% im Vergleich zu 24%). Zudem hält zum Zeitpunkt der Befragung über die Hälfte dieser jüngeren Altersgruppe eine Infektion bei einer Person ihres Alters und Geschlechts für unwahrscheinlich. Dies ist problematisch: Wenn die Wahrscheinlichkeit sich zu infizieren unterschätzt wird, können Jüngere zur Ansteckungsgefahr für andere werden.

Alle Altersgruppen verfügten über einen soliden Wissensstand zu den Themen „geltende Anordnungen“, „Infektion und Behandlung“, „Kontrolle der Epidemie“, „Risikogruppen“ und „Übertragung“ (71% bis 85% richtige Antworten je nach Themengebiet). Systematische Wissenslücken bestanden allerdings bei einigen Sachverhalten: 62 Prozent wussten beispielsweise nicht, dass stark übergewichtige Personen zur Risikogruppe zählen. Hier besteht nach Ansicht der Studienautor*innen weiterer Kommunikationsbedarf. Auch sollten passende Strategien für Personen entwickelt werden, die sich mit der Zeit weniger informieren oder nur bestimmte Quellen in Betracht ziehen, um einer möglichen Informationsermüdung entgegenzuwirken und aktuelle Maßnahmen weiterhin wirksam zu kommunizieren.

Noch im September soll es eine zweite Befragung zum Informationsverhalten geben. „Wir möchten herausfinden, ob die Menschen informationsmüde werden oder ob sie sich wieder vermehrt informieren – auch vor dem Hintergrund, dass sich das Leben im Herbst wieder vermehrt in Innenräumen abspielen wird und damit das Ansteckungsrisiko steigt“, sagt Studienautorin Nadine Fleischhut, Wissenschaftliche Mitarbeiterin am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung. Die zweite Befragung wird aber auch neue Fragen behandeln, zum Beispiel wie sehr sich die Menschen an aktuelle Verhaltensregeln halten und wie sie das Verhalten anderer wahrnehmen.

Leuker, C., Hertwig, R., Gumenik, K., Eggeling, L. M., Hechtlinger, S., Kozyreva, A., Samaan, L., Fleischhut, N. (2020). Wie informiert sich die Bevölkerung in Deutschland rund um das Coronavirus? Umfrage zu vorherrschenden Themen und Gründen, dem Umgang mit Fehlinformationen, sowie der Risikowahrnehmung und dem Wissen der Bevölkerung rund um das Coronavirus. Berlin: Max-Planck-Institut für Bildungsforschung. doi:10.17617/2.3247925.

Bei der vorliegenden Veröffentlichung handelt es sich um einen Preprint, der noch nicht peer-reviewed ist. Die Studie ist Teil von mehreren Erhebungen, die dann gesammelt als wissenschaftliche Publikation eingereicht werden sollen. Alle Daten und Schlussfolgerungen sind als vorläufig zu betrachten und unterliegen ständiger Veränderung. Die aktuellen Auswertungen sind vor allem deskriptiv; es können keine Aussagen über Ursache und Wirkung getroffen werden.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/1130241/2020-09-16-pm-corona

Quelle: IDW

(nach oben)


Laborstudie zu Toxizität: Produkte aus „Bioplastik“ keine unbedenkliche Alternative zu herkömmlichen Kunststoffen

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Sogenanntes „Bioplastik“ gilt als umweltfreundliche Alternative zu konventionellen, erdölbasierten Kunststoffen. Es kann aus nachwachsenden Rohstoffen gewonnen werden oder kompostierbar sein oder sogar beides. Aber sind diese Biomaterialien weniger bedenklich als herkömmliches Plastik, was ihre chemische Zusammensetzung betrifft? Nein, lautet das Ergebnis der bisher umfassendsten Laborstudie dazu, die heute in der Zeitschrift Environment International erschienen ist.

Wissenschaftler*innen um die Forschungsgruppe PlastX haben dafür Alltagsprodukte aus unterschiedlichen Materialien untersucht: Der Anteil an Produkten aus Biomaterialien, der schädliche Chemikalien enthält, ist genauso hoch wie bei Produkten aus erdölbasiertem Plastik.

Plastikprodukte stehen massiv in der Kritik. Schon ihre Herstellung aus fossilem Brennstoff gilt als wenig nachhaltig, das globale Plastikmüllproblem ist ungelöst, und wegen schädlicher Substanzen wie Bisphenol A geraten Alltagsprodukte aus Plastik immer wieder in die Schlagzeilen. Auf der Suche nach Alternativen werden vermehrt neue Materialien entwickelt, die vorteilhaftere ökologische Eigenschaften aufweisen sollen. Dazu gehören Biokunststoffe. Sie umfassen biobasierte Materialien wie Bio-Polyethylen, die aus nachwachsenden Rohstoffen bestehen, und sogenannte bioabbaubare Materialien, die unter natürlichen Umweltbedingungen abbaubar sind wie Polymilchsäure (PLA). Auch pflanzenbasierte Produkte, die aus natürlichen Polymeren wie Cellulose bestehen, zählen zu den neuen Lösungen. Aber sind diese Biomaterialien, die als nachhaltige Alternative zu konventionellem Plastik vermarktet werden, hinsichtlich ihrer chemischen Zusammensetzung weniger bedenklich?

Drei von vier Produkten enthalten Chemikalien, die in Zelltests negativ auffallen
Dieser Frage ist die Forschungsgruppe PlastX unter der Leitung des ISOE – Institut für sozial-ökologische Forschung gemeinsam mit der Technisch-Naturwissenschaftlichen Universität Norwegen und der Goethe-Universität Frankfurt in einer Laborstudie nachgegangen. Es ist die bisher umfassendste Studie, in der Biokunststoffe und pflanzenbasierte Materialien auf ihre chemische Zusammensetzung und Toxizität hin untersucht und mit herkömmlichen Kunststoffen verglichen wurden. „Um mögliche schädliche Effekte der Chemikalienmischung zu analysieren, haben wir die Substanzen aus den Produkten herausgelöst und in Zelltests eingesetzt“, erklärt Lisa Zimmermann, die Erstautorin der jetzt veröffentlichten Studie. „Die Ergebnisse zeigen, dass die biobasierten bzw. bioabbaubaren Materialien keinesfalls weniger bedenklich sind. Drei Viertel aller untersuchten Produkte enthielten schädliche Chemikalien,“ sagt Zimmermann. „Schädlich heißt in diesem Fall, dass Substanzen toxisch auf Zellen wirken oder hormonähnliche Effekte hervorrufen. Zum gleichen Ergebnis kamen wir bei herkömmlichen Kunststoffen; auch hier enthielten drei von vier getesteten Produkten in diesem Sinne schädliche Chemikalien.“

Chemikalienmix aus bis zu 20.000 Substanzen in Biomaterialen
Unter den 43 untersuchten biobasierten und bioabbaubaren Produkten waren Einweggeschirr, Schokoladenverpackungen, Trinkflaschen, Weinkorken und Zigarettenfilter. Die Untersuchung der Chemikalienmischungen mittels chemischer Analytik zeigte, dass sich in 80 Prozent der Produkte mehr als tausend Substanzen befanden, in einzelnen Produkten sogar bis zu 20.000. „Die pflanzenbasierten Produkte aus Cellulose oder Stärke enthielten dabei die meisten Chemikalien. Auch waren diese am toxischsten, sprich hatten negative Auswirkungen in Zelltests,“ erläutert die Ökotoxikologin.

Vom Rohmaterial zum Endprodukt: Gesamttoxizität steigt
In der Studie wurde einerseits deutlich, dass die untersuchten Endprodukte eine breitere Palette an Substanzen enthielten und eine höhere Toxizität aufwiesen als die Rohmaterialien, aus denen sie hergestellt werden. Der Grund: Beim Prozessieren vom Rohmaterial zum Endprodukt werden neue Substanzen hinzugegeben oder gebildet. Andererseits zeigte jedes biobasierte und bioabbaubare Produkt eine „individuelle“ chemische Zusammensetzung. „Das macht es nahezu unmöglich, allgemeingültige Aussagen zur Sicherheit bestimmter Materialien zu treffen,“ erklärt Co-Autor Martin Wagner von der Universität Trondheim. „Eine lebensmittelechte Tüte aus Bio-Polyethylen kann toxische Substanzen enthalten, ein Weinkorken aus dem gleichen Material muss das nicht zwangsläufig und umgekehrt.“

Chemische Sicherheit von Plastik sollte auf die politische Agenda
Die Studienergebnisse zeigen: „Für Verbraucher*innen ist nicht nachvollziehbar, ob sie im Alltag mit bedenklichem Plastik in Berührung kommen – egal ob konventionell oder „bio“, sagt Carolin Völker, die die Forschungsgruppe PlastX leitet. Die Ökotoxikologin plädiert deshalb dafür, dass die Unbedenklichkeit der verwendeten Substanzen garantiert und somit schon bei der Entwicklung neuer Materialien berücksichtigt wird. „Gerade, weil es einen Trend zu Biomaterialien gibt, gilt es jetzt, die chemische Sicherheit von herkömmlichen Kunststoffen ebenso wie von biobasierten und bioabbaubaren Alternativen auf die politische Agenda zu setzen“, sagt Völker. Da bisher nicht bekannt sei, welche Auswirkungen der Chemikalienmix in den Kunststoffen konkret auf Mensch und Natur hat, seien zudem weitere Studien im Zuge der Risikoforschung zu Plastik und seinen Alternativen dringend notwendig. Zelltests gäben erste Hinweise, reichten aber allein noch nicht aus, um die Gesundheits- und Umweltauswirkungen umfassend zu bestimmen. „Um wirklich ganzheitlich bessere Alternativen zu herkömmlichen Kunststoffen zu entwickeln, müssen neben der chemischen Sicherheit zusätzlich auch ökologische und soziale Aspekte berücksichtigt werden, wie beispielsweise Treibhausgasemissionen, Konkurrenz zur Nahrungsmittelproduktion und Kreislauffähigkeit“. Auch hier sei beim „Bioplastik“ noch viel Luft nach oben, meint Völker.

Wissenschaftliche Ansprechpartner:
Lisa Zimmermann
SÖF-Nachwuchsgruppe PlastX am
ISOE – Institut für sozial-ökologische Forschung
L.Zimmermann@bio.uni-frankfurt.de

Originalpublikation:
Are bioplastics and plant-based materials safer than conventional plastics? In vitro toxicity and chemical composition. Lisa Zimmermann, Andrea Dombrowski, Carolin Völker, Martin Wagner (2020). Environment International, https://doi.org/10.1016/j.envint.2020.106066

Weitere Informationen:

http://www.isoe.de
http://www.plastx.org

Anhang
„Bioplastik“ ist keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
https://idw-online.de/de/attachment80748

Quelle: IDW

(nach oben)


Bei schlechtem und zu kurzem Schlaf sollte man immer auf eine berufliche Überlastung schauen

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)

Die Corona-Pandemie fordert uns einiges ab – auch eingefahrene Strukturen zu überdenken. In der Arbeitswelt hat sich im letzten halben Jahr schon jede Menge verändert. Dass man hier dran bleiben und langfristig noch flexibler werden muss, findet der Schlafmediziner Prof. Dr. Helmut Frohnhofen. „Benötigen wir neue Arbeitszeitmodelle und müssen wir von bisherigen Modellen wegkommen?“ Er ist in diesem Jahr einer der Organisatoren der Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), die – wie so viele Kongresse derzeit – digital vom 29. bis 31. Oktober stattfindet. Das Kongressmotto lautet „Schlaf und Arbeit“.

Die DGSM ist schon seit vielen Jahren bemüht, ein Bewusstsein für die Gefährlichkeit von unzureichendem Schlaf in der Bevölkerung zu schaffen. Es gibt eine Vielzahl von spannenden Studienerhebungen innerhalb der Gesellschaft zur Rolle beruflicher Faktoren für die individuelle Schlafqualität, zu flexibleren Arbeitszeitmodellen, Anforderungen für eine zumutbare Schichtarbeit, Sekundenschlaf oder Lichtverschmutzung. „Von der Physiologie des Körpers her brauchen wir ausreichend Schlaf, sonst steigt u.a. unsere Fehlerquote und unsere Stimmung wird schlechter. Mit der zunehmenden Digitalisierung und Globalisierung steigen die Erfordernisse an uns und verlangen eine unserer Physiologie entgegenstehende Leistungsfähigkeit – nicht nur auf Arbeit“, warnt Prof. Frohnhofen. Eine klassische Risikokonstellation stelle etwa eine junge Familie mit Kindern dar, wo beide arbeiten, vielleicht noch ein Haus bauen. Da sei unzureichender Schlaf vorprogrammiert durch eine Überbelastung. „Andere Arbeitszeitmodelle, wie etwa von weniger Stunden, die sich auf unterschiedliche Tageszeiten verteilen beispielsweise, könnten hier einen enormen Druck von den Menschen nehmen“, sagt Helmut Frohnhofen.

Bei schlechtem oder zeitlich zu wenig Schlaf sollte man immer auch auf eine berufliche Überlastung schauen. Nicht selten führen Überforderung und Stress in dem Falle zu einer psychischen Überlastung wie z.B. einem Burnout. „Sehr viele Studien belegen, dass zu wenig Schlaf Hauptrisikofaktor für die Entwicklung eines Burnouts ist. Körperliche Erschöpfung und verminderte Leistungsfähigkeit – zwei eindeutige Phänomene bei Burnout – gehen also auch eindeutig auf unzureichenden Schlaf zurück“, erklärt der Schlafmediziner und Psychologe Markus B. Specht. Was kann man tun, um dem vorzubeugen? „Das Wichtigste, was jeder tun kann, ist sich die Frage zu stellen: Hole ich mir im Alltag, also täglich, genug Erholung als Gegenpart zum auftretenden Stress“, so Specht. 15 Minuten würden da fürs erste bereits ausreichen, in denen man sich einer kleinen Auszeit vom Alltag widme. Dies könne eine Entspannungsübung sein, eine Runde um den Block gehen oder eine Sporteinheit. Auf der Presseseite der DGSM-Jahrestagung (siehe unter Links) findet sich ein Beispiel für eine Atemübung.

Bei Menschen, deren Schlaf zu falschen Zeiten stattfindet, gerät die innere Uhr leicht aus dem Takt. Diese steuert, wann biochemische Vorgänge am optimalsten stattfinden sollten – sei es der Schlaf, die Wirksamkeit von Medikamenten oder die Verarbeitung von Nährstoffen. Den Einfluss von Licht und Nahrung auf die innere Uhr untersucht der Neurobiologe Prof. Dr. Henrik Oster. Licht wirkt auf Taktgeber im Gehirn, während die Nahrung Uhren in peripheren Organen wie Leber und Niere stark beeinflussen kann. „Bei Schichtarbeitern wird daraus leicht ein Problem: Sie sehen nachts Licht, was die Zentraluhr beeinflusst, und essen zudem häufig zu eher ungewöhnlichen Zeiten, was dann wiederum die Organuhren verstellt. Dadurch arbeiten die uhrengesteuerten Funktionen in den verschiedenen Organen nicht mehr optimal zusammen. Konsequenz ist u.a. eine Schieflage im Energiestoffwechsel – wir nehmen leichter zu oder entwickeln sogar ernsthafte metabolische Erkrankungen wie Typ-2-Diabetes. Das Risiko dafür ist bei Schichtarbeitern um rund ein Drittel erhöht“, stellt Prof. Oster die Sachlage dar.
Anhand experimenteller Studien an Mäusen konnte seine Studiengruppe die Wirkung von Licht und Nahrung auf spezifische Gewebsrhythmen unterscheiden. Dabei zeigte sich, dass die Funktion einzelner Gewebsuhren oft gar nicht so entscheidend für den Energiestoffwechsel ist. „Die Koordination der Netzwerkrhythmik scheint die entscheidende Stellschraube zu sein. Das ist aus medizinisch-therapeutischer Sicht wiederum sehr interessant, weil es evtl. gar nicht nötig ist, zur Rhythmusstabilisierung die Zentraluhr zu erreichen. Über die Netzwerk-Kommunikation wird diese auch aus der Peripherie indirekt beeinflusst“, fasst Henrik Oster die neuen Erkenntnisse zusammen.

Im Programm der virtuellen DGSM-Jahrestagung gibt es zu den genannten und vielen weiteren Themen Vorträge, die den aktuellen Wissensstand darstellen. Zum Bereich „Schlaf und Arbeit“ sind u.a. die folgenden Symposien zu nennen:
• Symposium 6 (Eulensymposium): „Schlaf, Fatigue und Unfallrisiko: von der Arbeitsumgebung zu biomathematischen Modellen und zurück“ (29.10.2020, 20:30-21:30)
• Hauptsymposium: „Schlaf und Arbeit“ (30.10.2020, 08:45-10:15)
• Symposium 12: „Zeitgeber-Schlichtung: Ein Schlüssel zu gesundem Schlaf und gesunder Arbeit“ (30.10.2020, 10:45-12:15)
• Symposium 23: „Schlaf und Arbeit bei Familien“ (31.10.2020,08:30-10:00)
• Symposium 25: „Auswirkungen des Arbeitens gegen die Uhr“ (31.10.2020, 10:15-11:45)
Das gesamte Programm der Jahrestagung können Sie unter www.dgsm-kongress.de einsehen.

Medienvertreter sind sehr herzlich zur virtuellen Teilnahme am gesamten Kongress eingeladen. Akkreditieren Sie sich dazu bitte auf der Presseseite der Kongress-Homepage (siehe unter Links) oder über den Pressekontakt. Es wird auch eine Online-Pressekonferenz angeboten, zu der Sie in Kürze noch weitere Informationen erhalten. Selbstverständlich können Sie auch individuelle Gesprächstermine mit Referenten, der Tagungsleitung oder dem DGSM-Vorstand vereinbaren. Auch dazu bitten wir, sich an den Pressekontakt zu wenden.

Pressekontakt:
Conventus Congressmanagement
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 03641/3116280
E-Mail: romy.held@conventus.de

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm-kongress.de
https://www.dgsm-kongress.de/allgemeine-informationen/presse/ Hier können Sie sich akkreditieren
https://www.dgsm-kongress.de/allgemeine-informationen/presse/den-atem-spueren/ Atemübung zur Stressbewältigung

Quelle: IDW

(nach oben)


Virtuelle Verleihung des UMSICHT-Wissenschaftspreis 2020

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Die Wissenschaft steht in diesem Jahr in besonderem Maße im Fokus der Öffentlichkeit. Umso wichtiger ist es, Informationen fundiert und gleichzeitig verständlich zu kommunizieren. Diesen Dialog zwischen Wissenschaft und Gesellschaft zu fördern, ist Ziel des vom Fraunhofer UMSICHT ausgelobten UMSICHT-Wissenschaftspreis. Die diesjährige Preisverleihung findet am 2. Oktober virtuell statt. Wir laden sie herzlich zu der Veranstaltung ein, um sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.

Bereits zum 11. Mal wird in diesem Jahr der UMSICHT-Wissenschaftspreis in den Kategorien Wissenschaft und Journalismus vergeben. Die Preisträger sind Menschen, die wissenschaftliche Ergebnisse aus den Bereichen Umwelt-, Verfahrens- und Energietechnik – den Kernthemen des Fraunhofer UMSICHT – auf eine herausragende Weise der Gesellschaft zugänglich machen. Aus den zahlreichen Bewerbungen hat die Jury, ausgewählte Wissenschaftler*innen, Unternehmer*innen, Selbständige, Journalisten sowie PR-Fachleute, die besten Beiträge ausgewählt und in einer Shortlist veröffentlich.

Verständliche Kommunikation von Wissenschaft im UMSICHT-Podcast
Doch worum geht es bei den eingereichten Beiträgen? Was verbirgt sich hinter Titeln wie »Cyberfossiler Kapitalismus« oder »Stoffe mit Helfersyndrom«? Wann ist z. B. Wasserstoff konkurrenzfähig, oder wie können wir mehr Elektromobile auf die Straße bringen? Im neuen UMSICHT-Podcast kommen die potenziellen Preisträger*innen zu Wort und informieren kompakt und verständlich über ihre Arbeiten. Eine gute Möglichkeit also, sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.

Bekanntgabe der Preisträger*innen
Im Rahmen der Preisverleihung am 2. Oktober, von 13 bis 13.30 Uhr, werden die Gewinner*innen des diesjährigen UMSICHT-Wissenschaftspreis bekanntgegeben. Aufgrund der aktuellen Situation findet die Veranstaltung online statt. »Auch, wenn wir den persönlichen Kontakt sehr schätzen und die vergangenen Preisverleihungen immer auch ein Ort für Netzwerken und direkten Informationsaustausch waren, freuen wir uns, mit dem Online-Format eine gute Alternative bieten zu können«, sagt Prof. Görge Deerberg, Geschäftsführer des UMSICHT-Fördervereins. Er betont zudem, dass dieser Rahmen auch Personen die Teilnahme ermöglicht, die sonst nicht dabei sein könnten.
Teilnahme

Die Teilnahme an der virtuellen Preisverleihung ist ohne vorherige Anmeldung möglich. Der Link zur Veranstaltung wird im Vorfeld auf der Internetseite des UMSICHT-Wissenschaftspreis 2020 bekanntgegeben.

Partner, Spender und Sponsoren:
AGR mBH
Energieversorgung Oberhausen AG
HATECHNO – Hoffmann angewandte Technologien GmbH
Loick Bioenergie GmbH
Meier-Ebbers – Architekten und Ingenieure
ML Power Tech GmbH
PLANiT-DIGITAL
Sparkasse Oberhausen

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Internetseite des UMSICHT-Wissenschaftspreis 2020
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Pressemitteilung
https://www.umsicht.fraunhofer.de/de/presse-medien/podcasts/umsicht-wissenschaft…
Podcast zum UMSICHT-Wissenschaftspreis 2020

Quelle: IDW

(nach oben)


Das erste ägyptische Referenzgenom des Menschen

Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck

Multiethnische Unterschiede: Genetische Risikofaktoren lassen sich nicht einfach von einer Population auf eine andere übertragen

Alle Menschen sind gleich, und doch ist jeder Mensch einzigartig. Das liegt zum Teil an Erziehung und Umwelt, aber größtenteils auch an der Herkunft unserer Gene, die in der DNA, dem Bauplan des Lebens, kodiert sind. Die genetische Ausstattung des Menschen unterscheidet sich weltweit und bestimmt nicht nur das Aussehen, sondern auch die Anfälligkeit für Krankheiten und das Ansprechen auf Medikamente. Um diese Unterschiede zur Entwicklung einer individuellen Präzisionsmedizin zu untersuchen wurden in den letzten Jahren verschiedene Projekte zur Populationsgenetik in Europa, Nordamerika, Asien und dem südlichen Afrika ins Leben gerufen. Eine sogenannte Genomreferenz für die rund 250 Millionen in Nordafrika fehlte bisher.

Um diesen weißen Fleck auf der Weltkarte der Humangenetik zu füllen, hat ein deutsch-ägyptisches Team unter der Leitung von Saleh Ibrahim und Hauke Busch von der Universität zu Lübeck zusammen mit Mohamed Salama von der American University in Kairo und Universität Mansoura das erste ägyptisch-nordafrikanische Referenzgenom erstellt. Dazu wurden mittels neuester Alignmentmethoden mehr als 270 Milliarden DNA-Basen zu einem de novo Genom eines neuzeitlichen Ägypters zusammengesetzt. Dieses Referenzgenom haben die Wissenschaftler dann um einem umfassenden Katalog der genetischen Variation von mehr als 100 Ägyptern ergänzt.

Weißer Fleck auf der Weltkarte der Humangenetik gefüllt
Die Ergebnisse des deutsch-ägyptischen Teams deuten darauf hin, dass genetische Risikofaktoren, die bisher in Genomen europäischer Herkunft gefunden wurden, sich nicht einfach auf die ägyptische Population übertragen lassen. Die Unterschiede in der Häufigkeit und der Kombination genetischer Varianten unterstreichen die Notwendigkeit multiethnische Genomreferenzen zu erstellen.

„Dieses Projekt hat bereits jetzt eine Fülle von Informationen geliefert“, sagt die leitende Bioinformatikerin der Studie, Dr. Inken Wohlers. „Wir können nicht nur die modernen Ägypter als genetische Vermittler zwischen Europa, Asien und Afrika bestätigen, sondern auch eine gemeinsame Abstammung mit Menschen vom Mittelmeer bis zum Schwarzen Meer bis hin zum Viktoriasee in Zentralafrika. Die Studie wird die Diagnose seltener Krankheiten und die genetische Risikoabschätzung von Volkskrankheiten, insbesondere für Ägypter und Nordafrikaner, verbessern. Darüber hinaus können unsere Erfahrungen mit den neuesten Sequenziertechnologien und Algorithmen wieder in laufende, internationale Sequenzierungsprojekte in der ganzen Welt einfließen“.

Die Ergebnisse dieser ersten Studie ihrer Art können sofort genutzt werden, um die persönliche Genomik und die Genetik seltener und häufiger Krankheiten eingehend zu untersuchen. Sie wird den Weg zu einem besseren Verständnis der ägyptischen, afrikanischen und globalen Genomlandschaft für die Präzisionsmedizin weiter ebnen.

Wissenschaftliche Ansprechpartner:

Prof. Saleh Ibrahim: saleh.ibrahim@uni-luebeck.de
Prof. Hauke Busch: hauke.busch@uni-luebeck.de
Prof. Mohamed Salama: mohamed-salama@aucegypt.edu

Originalpublikation:
An integrated personal and population-based Egyptian genome reference. Inken Wohlers, Axel Künstner, Matthias Munz, Michael Olbrich, Anke Fähnrich, Verónica Calonga-Solís, Caixia Ma, Misa Hirose, Shaaban El-Mosallamy, Mohamed Salama, Hauke Busch, Saleh Ibrahim. Nature Communications. DOI https://doi.org/10.1038/s41467-020-17964-1

Weitere Informationen:
https://doi.org/10.1038/s41467-020-17964-1

Quelle: IDW

(nach oben)


Indischer Monsun ist nach Vulkanausbrüchen besser vorhersagbar

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Große Vulkanausbrüche können dazu beitragen, die Vorhersagbarkeit des indischen Monsun zu verbessern – die Regenzeit ist für die Landwirtschaft und damit für die Ernährung von einer Milliarde Menschen von entscheidender Bedeutung. Was paradox erscheint, weil Vulkanausbrüche so unregelmäßig sind, ist tatsächlich auf eine stärkere Wechselwirkung zwischen dem Monsun über weiten Teilen Südostasiens und dem El-Niño-Phänomen immer nach einer Eruption zurückzuführen. Dies konnte jetzt ein indisch-deutsches Forscherteam durch die Kombination von Daten aus meteorologischen Beobachtungen, Computersimulationen und geologischen Archiven wie Korallen und Eiskernen aus vergangenen Jahrtausenden zeigen.

Eine Synchronisation des Monsuns mit dem stärksten Typus der natürlichen Klimavariabilität, dem El Niño, macht es leichter, die Stärke der saisonalen Niederschläge auf dem indischen Subkontinent vorherzusagen.

„Die winzigen Partikel und Gase, die ein großer Vulkan in die Luft schleudert, gelangen in die Stratosphäre und halten sich dort für einige Jahre. Die vulkanischen Teilchen in der Stratosphäre hindern einen Teil der Sonnenstrahlen daran, die Erdoberfläche zu erreichen, und dadurch erhöht sich die Wahrscheinlichkeit eines El-Niño-Ereignisses im nächsten Jahr“, sagt R. Krishnan vom Indischen Institut für Tropenmeteorologie. „Weniger Sonnenschein bedeutet weniger Wärme und damit eine Veränderung der Temperaturunterschiede zwischen der Nord- und Südhalbkugel, was sich wiederum auf die großen Luftströme und die Regenfälle auswirkt. Die Datenanalyse zeigt nun, dass große Vulkanausbrüche das gleichzeitige Auftreten warmer El-Niño-Ereignisse über dem Pazifik und eine Verminderung des indischen Monsuns in einem Jahr eher fördern – oder umgekehrt kühle La-Niña-Ereignisse über dem Pazifik in Verbindung mit einem Übermaß an Monsunregen in Indien.“

Der indische Monsun hängt stark von der El-Niño / Südlichen Oszillation ab (ENSO) – einem Klimaphänomen im tropischen Pazifik, dessen spanischer Name „der Junge“ bedeutet und sich auf das Christkind bezieht, weil bei seinem Auftreten das Wasser in der Nähe von Südamerika oft in der Nähe von Weihnachten am wärmsten ist. „Die Synchronisierung zwischen dem tropischen Pazifik und dem indischen Monsun verändert sich im Laufe der Zeit, wobei die vom Menschen verursachte globale Erwärmung einer der Faktoren ist, der die exakte Vorhersage des Monsuns verschlechtert“, sagt Norbert Marwan vom Potsdam-Institut für Klimafolgenforschung (PIK). „Dies bestätigt eine Hypothese, die unsere Kollegen Maraun und Kurths vor 15 Jahren aufgestellt haben. Die neuen Erkenntnisse zeigen jetzt einen neuen, zusätzlichen Weg für Monsunvorhersagen auf, die für die landwirtschaftliche Planung in Indien von entscheidender Bedeutung sind.“ Frühere Forschungsarbeiten des PIK verbesserten bereits die Monsunvorhersage für Jahre ohne Vulkanausbrüche.

Die Ergebnisse könnten auch zur Weiterentwicklung von Klimamodellen beitragen und auch bei der Einschätzung der regionalen Auswirkungen von ‚Geo-Engineering‘-Experimenten helfen. Um die globale Erwärmung durch vom Menschen verursachte Treibhausgase zu reduzieren, denken manche Wissenschaftler über eine Verringerung der Sonnen-Einstrahlung nach. Dabei würde im Grunde wie bei einem Vulkanausbruch Staub hoch oben in die Atmosphäre eingebracht, um zu einem gewissen Maße die Erde von der Sonnen abzuschirmen. Das künstliche Blockieren der Sonneneinstrahlung könnte jedoch eine Reihe von Prozessen in der Atmosphäre gefährlich stören. Es ist daher wichtig, die Mechanismen zu verstehen.

Artikel: M. Singh, R. Krishnan, B. Goswami, A.D. Choudhury, P. Swapna, R. Vellore, A.G. Prajeesh, N. Sandeep, C. Venkataraman, R.V. Donner, N. Marwan, J. Kurths (2020) Fingerprint of Volcanic Forcing on the ENSO-Indian Monsoon Coupling. Science Advances [DOI:10.1126/sciadv.aba8164]

Weblink zum Artikel, sobald dieser veröffentlicht ist: https://advances.sciencemag.org/lookup/doi/10.1126/sciadv.aba8164

Weblink zu den Monsun-Internetseiten des PIK: https://www.pik-potsdam.de/en/output/infodesk/forecasting-indian-monsoon

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Quelle: IDW

(nach oben)


UFZ-Modelle im Einsatz gegen die Afrikanische Schweinepest

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Seit 10. September ist die ASP in Deutschland angekommen. Durch die konsequente Umsetzung der EU-Notfallstrategie lässt sie sich am ehesten stoppen, sagen UFZ-Forscher um Hans-Hermann Thulke. Ihre Modellierungen fließen ein in Bekämpfungspläne und eine mögliche Exit-Strategie.

Die Afrikanische Schweinepest breitet sich seit 2007 von Georgien Richtung Westen aus und ist seit 10. September in Deutschland angekommen. Vor dem Hintergrund möglicher Milliardenschäden für die Landwirtschaft soll mit konsequentem Notfallmanagement verhindert werden, dass sich der tödliche Virus weiter ausbreitet und auf Hausschweine übertragen wird. Die EU-Kommission setzt hierfür auch auf Ergebnisse so genannter individuenbasierter Modelle, die am Helmholtz-Zentrum für Umweltforschung (UFZ) entwickelt werden. Seit dem Jahr 2010 beschäftigt sich eine Modellierergruppe um Dr. Hans-Hermann Thulke im Auftrag der Europäischen Behörde für Lebensmittelsicherheit (EFSA) damit, die Wirksamkeit verschiedener Managementmaßnahmen zu prüfen, um eine Ausbreitung der Afrikanischen Schweinepest zu verhindern. Ihre Ergebnisse sind längst eingegangen in die EU-weiten Vorgaben und nationalen Verordnungen. Und auch das Handlungsprotokoll, das derzeit in Brandenburg umgesetzt wird und das auch andere Bundesländer wie etwa Sachsen realisieren wollen, greift diese Erkenntnisse auf. Ganz aktuell befassen sich die Wissenschaftler mit der Frage, wann ein von der Afrikanischen Schweinepest betroffenes Gebiet wieder als seuchenfrei einzustufen ist.

Während die Afrikanische Schweinepest Deutschland erreicht hat und die Behörden in Brandenburg derzeit dabei sind, Notfallmaßnahmen umzusetzen, forscht unser Team bereits mit Hochdruck an einer Exit-Strategie. Im Auftrag der EFSA gehen wir der Frage nach, anhand welcher Kriterien man sicher festlegen kann, ab wann eine Region, in der eine infizierte Wildschweinpopulation festgestellt wurde, wieder als seuchenfrei einzustufen ist. Das ist insbesondere für landwirtschaftliche Betriebe in betroffenen Gebieten von großer wirtschaftlicher Bedeutung, um möglichst schnell wieder Zugang zum internationalen Schweinefleischmarkt zu erlangen.

Doch wie stellt man sicher fest, dass es wirklich keine aktive Infektion unter den Wildschweinen in einem Gebiet gibt? Wissenschaftlich gesicherte Antworten darauf zu geben, ist nicht so einfach, wie es scheint. Zum einen wissen wir, dass diagnostische Tests immer nur eine Stichprobe aus der tatsächlichen Situation repräsentieren. Zum anderen sehen wir, dass durch die behördliche Umsetzung der Maßnahmen die Krankheit mehr und mehr verschwindet und schließlich sämtliche Testergebnisse negativ sind, so wie es derzeit in der Tschechischen Republik und in Belgien der Fall ist. Darf man in dieser Situation sagen, eine Region oder ein EU-Mitgliedsstaat ist frei von Afrikanischer Schweinepest? Und dürfen diese Regionen oder Staaten wieder am Welthandel teilnehmen, so wie es die Weltorganisation für Tiergesundheit vorgibt? Unsere spontane Antwort darauf wäre Jein.

Wenn man lange genug negative Testergebnisse unter Wildschweinen hat, steigt das Sicherheitsgefühl, dass es tatsächlich keine erkrankten Exemplare mehr gibt. Dieses Gefühl lässt sich mathematisch quantifizieren: Durch hundertfache Simulationen eines Ausbruchs der Afrikanischen Schweinepest auf dem virtuellen Experimentierfeld unseres ökologischen Modells können wir nachvollziehen, wie sich die Zahl der erkrankten Wildschweine im Verlauf der Bekämpfungsmaßnahmen verändert und ab wann Tests an Tieren in einem Gebiet tatsächlich nur noch negative Ergebnisse liefern müssen – das Gebiet also frei von der Krankheit ist. Wie wichtig das ist, zeigt der Fund eines infizierten Wildschweins in Estland, nachdem dort über Monate nur negative Testergebnisse festgestellt wurden. Bedeutet dieser Fund nun, dass erneut alle behördlichen Restriktions-Maßnahmen anlaufen müssen oder kann man analysieren, welche Rolle das Tier hatte und damit eventuell die Maßnahmen einschränken? Wie ist es möglich, dass nach einer so langen Zeit auf einmal ein Tier positiv getestet wird? Antworten auf diese Fragen wollen wir mit der Entwicklung der sogenannten Exit-Strategie für die Afrikanische Schweinepest geben. Dafür nutzen wir unser Modell, das verschiedene Szenarien in zeitliche Verlaufskurven der Ausbreitung übersetzt. Sie werden zeigen, wie lange die Krankheit noch zirkuliert und wann sie verschwunden ist.

Frühere Erkenntnisse aus ähnlichen Simulationen sind bereits als wichtige Komponenten in die EU-Notfallstrategie zur Bekämpfung der Afrikanischen Schweinepest aufgenommen worden, die die EFSA in den letzten Jahren erarbeitet hatte. Dazu gehören unter anderem Vorgaben zur Ausdehnung der drei Schutzzonen (Kernzone, Gefährdetes Gebiet, Pufferzone), zur benötigten jagdlichen Intensität oder zur Anzahl der zu beseitigenden Kadaver. Zusammen ergibt sich die EU-Notfallstrategie, mit der die Ausbreitung der Seuche am ehesten zu stoppen ist. Dass das tatsächlich möglich ist, zeigen die Erfahrungen in der Tschechischen Republik und in Belgien. Im Gegenzug demonstriert der aktuelle Stand in Westpolen, dass es unumgänglich ist, Hausschweinebetriebe besonders strikt zu schützen und vor allem Wildschweine im direkten Umfeld des Eintrags konsequent zu reduzieren.
In Bezug auf die Situation in Deutschland zeigten unsere Analysen aber auch, dass sich die Krankheit gerade jetzt in den Monaten August und September mit mehr als 4 km/Monat deutlich schneller ausbreitet als im Frühling und Frühsommer mit weniger als 2 km/Monat. Ein möglicher Grund ist, dass die Wildscheinrotten ihre Bewegungsmuster an die durch agrarische Nutzung veränderte Landschaft anpassen. Es ist also, trotz aller Probleme, aus Sicht der Seuchenbekämpfung durchaus sinnvoll, wenn die Behörden in Brandenburg im gesamten Gefährdeten Gebiet ein Ernteverbot aussprechen. In diesem Sinne heißt es also, die jetzt angeordneten Maßnahmen möglichst strikt umsetzen, um die Afrikanische Schweinepest zeitnah zu bezwingen.

Hintergrundinformationen:
Bundesgesetzblatt Schweinepestverordnung, 8. Juli 2020:
https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&start=/…

Wissenschaftliche Publikationen:
Epidemiological analyses of African swine fever in the European Union (November 2017 until November 2018) European Food Safety Authority (EFSA), Anette Boklund, Brigitte Cay, Klaus Depner, Zsolt Fӧldi, Vittorio Guberti, Marius Masiulis, Aleksandra Miteva, Simon More, Edvins Olsevskis, Petr Satran, Mihaela Spiridon, Karl Stahl, Hans-Hermann Thulke, Arvo Viltrop, Grzegorz Wozniakowski, Alessandro Broglia, Jose Cortinas Abrahantes, Sofie Dhollander, Andrey Gogin, Frank Verdonck, Laura Amato, Alexandra Papanikolaou and Christian Gortazar (2018). http://dx.doi.org/10.2903/j.efsa.2018.5494

Understanding ASF spread and emergency control concepts in wild boar populations using individual‐based modelling and spatio‐temporal surveillance data. Lange M., Guberti V., Thulke H.‐H. (2018). http://dx.doi.org/10.2903/sp.efsa.2018.EN-1521

Elucidating transmission parameters of African swine fever through wild boar carcasses by combining spatio-temporal notification data and agent-based modelling. Lange M., Thulke H.-H. (2017). http://dx.doi.org/10.1007/s00477-016-1358-8

Simulation-based investigation of ASF spread and control in wild life without consideration of human non-compliance to biosecurity. Thulke H.-H., Lange M. (2017). http://dx.doi.org/10.2903/sp.efsa.2017.EN-1312

Lange M., Thulke H.-H. (2015). Mobile barriers as emergency measure to control outbreaks of African swine fever in wild boar. Proceedings SVEPM Ghent, 122-132.
Analysis of spatio-temporal patterns of African swine fever cases in Russian wild boar does not reveal an endemic situation. Lange M., Siemen H., Blome S., Thulke H.-H. (2014). https://doi.org/10.1016/j.prevetmed.2014.08.012

Wissenschaftliche Ansprechpartner:

Dr. Hans-Hermann Thulke
UFZ-Department Ökologische Systemanalyse
hans.thulke@ufz.de

Dr. Martin Lange
UFZ-Department Ökologische Systemanalyse
martin.lange@ufz.de

Quelle: IDW

(nach oben)


Sensormatte beugt Haltungsschäden vor

Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben in Zusammenarbeit mit der isoloc Schwingungstechnik GmbH eine Sensormatte für Steharbeitsplätze entwickelt. Sie erfasst die Fußposition eines Mitarbeiters und erkennt Gewichtsverlagerungen. Damit könnte sie helfen Haltungsschäden vorzubeugen.

Sensormatten kommen in Fabrikhallen bisher vor allem dort zum Einsatz, wo Mensch und Roboter eng zusammenarbeiten. Sie sind dort im Einzugsbereich von Robotern ausgelegt und dienen der Arbeitssicherheit: Sobald ihre Sensoren einen Mitarbeiter registrieren, schalten sie den Roboter ab und verhindern so folgenschwere Arbeitsunfälle.

Dabei könnten die Sensormatten auch an Steharbeitsplätzen ohne Roboter Gutes bewirken. Sie könnten dabei helfen, das ergonomische Arbeiten zu verbessern, Haltungsschäden und daraus resultierende Arbeitsausfälle vorzubeugen. Denn langes Stehen, bei dem immer dasselbe Bein mehr belastet wird als das andere oder das Gewicht ungleichmäßig auf den Füßen verteilt ist, kann auf lange Sicht zu Beckenfehlstellungen, verspannten und schmerzenden Muskeln im Bereich der Wirbelsäule aber auch der Beine, des Nackens und der Schulter führen. Bandscheibenschäden und eine erhöhte Belastung der Gelenke durch veränderte, ungünstige Bewegungsabläufe können die Folge sein.

Sensoren messen durch die Schuhsohle hindurch
Raphael Neuhaus und Julian Stübing von der Abteilung Funktionale Materialien am Fraunhofer IPA haben nun zusammen mit isoloc eine Sensormatte für Steharbeitsplätze entwickelt, deren kapazitive Sensorik die Fußposition eines Mitarbeiters in Echtzeit erfasst und Gewichtsverlagerungen erkennt. »Damit können sie selbst kontrollieren, ob sie eine gesunde Körperhaltung einnehmen und bei Bedarf sofort korrigieren«, sagt Entwicklungsingenieur Stübing.

48 Sensoren pro Fuß haben die beiden Wissenschaftler schachbrettartig in ihre Steharbeitsplatz-Matte integriert. »Die Messungen erfolgen berührungslos durch die Schuhsohle hindurch«, erläutert Stübing. »Wenn ein Mitarbeiter also Sicherheitsschuhe mit starren Sohlen trägt, beeinträchtigt das das Messergebnis nicht. Es werden nur die Signale erfasst, die von der Fußsohle ausgehen.«

Über ein Bus-System und einen USB-Anschluss ist die Matte mit dem Computer des Mitarbeiters verbunden. Über ein Schachbrettmuster, bei dem jedes der 48 Felder für einen bestimmten Sensor steht, zeigt eine Software dem Mitarbeiter echtzeitnah an, wie stark welche Bereiche seiner Füße gerade belastet sind. Rot steht dabei für hohen, gelb für mittleren und grün für geringen Druck.

Ampelsystem zur Selbstkontrolle
»Im Moment liefert die Matte lediglich die Messdaten und veranschaulicht diese über das Benutzerinterface«, so Stübing, »eine Auswertung findet bisher nicht statt.« Das könnte sich aber bald schon ändern. Denkbar wäre zum Beispiel ein Ampelsystem, das anzeigt, ob ein Mitarbeiter gut steht (grün), ob es Verbesserungspotenzial gibt (gelb) oder er sein Gewicht sofort verlagern muss (rot), weil ein Bein zu lange zu stark belastet wurde.

Außerdem planen Stübing und Neuhaus, die Anzahl der Sensoren in der Matte zu erhöhen, um die Bildgebung zu verbessern. Ob und wie gut das funktioniert und ob eine Sensormatte mit derart hoher Auflösung überhaupt zu finanzieren wäre – das sind Fragen, die die beiden Wissenschaftler in einem weiteren Forschungsprojekt klären wollen.

Wissenschaftliche Ansprechpartner:
Raphael Neuhaus | Telefon: +49 711 970-3627 | raphael.neuhaus@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Julian Stübing | Telefon: +49 711 970-3667 | julian.stuebing@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Quelle: IDW

(nach oben)


EU-Förderung: 9 Millionen Euro für Meeresforschung

Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover

Forscherinnen und Forscher aus Tiermedizin, Bioakustik, Populationsbiologie, Schiffsbau und Ingenieurwesen suchen gemeinsam nach Lösungen, um Schiffslärm zu reduzieren und so Meerestiere zu schützen.

Die Schifffahrt gehört zu den großen Lärmquellen im Meer. Je nach Situation können sich die Geräusche im Meer über sehr große Distanzen ausbreiten und im Meer lebende Tiere stören und schädigen. Wale und Robben, viele Fische und einige Wirbellose, wie beispielsweise Tintenfische, nutzen Schall, um zu kommunizieren, zu navigieren oder Nahrung zu suchen. Die Geräuschkulisse im Meer stört sie dabei und kann ihre für sie überlebenswichtigen Hörorgane dauerhaft schädigen. In dem Projekt „SATURN – Solutions At Underwater Radiated Noise“ wird ein internationales Forscherteam aus verschiedenen Fachdisziplinen gemeinsam offene Fragen zu den Auswirkungen von Unterwasserlärm auf Tiere untersuchen und nach Lösungen suchen, um Schiffslärm zu reduzieren. Das Projekt startet im Februar 2021. Die Europäische Kommission fördert das Projekt im Förderprogramm Horizon 2020 über vier Jahre mit 9 Millionen Euro. Eine Million Euro gehen an das Institut für Terrestrische und Aquatische Wildtierforschung (ITAW) der Stiftung Tierärztliche Hochschule Hannover (TiHo).

Zwar gibt es bereits Studien, die mit unterschiedlichen Ansätzen die Störungseffekte durch Unterwasserlärm belegen, und auch gibt es bereits Vorschläge, wie die Schifffahrt leiser und damit tierfreundlicher gestaltet werden kann, dennoch gibt es viele offene Fragen und keine zielgerichteten Lösungsansätze. Das SATURN-Projekt möchte das ändern und führt erstmals führende europäische Expertinnen und Experten aus den Bereichen Bioakustik, Tiermedizin und Populationsbiologie sowie Schiffsbau und Ingenieurwesen zusammen, um den durch die Schifffahrt verursachten Unterwasserlärm tiergerecht zu verringern. „Wir gehen das komplexe globale Problem des unter Wasser abgestrahlten Lärms auf eine wirklich umfassende, transdisziplinäre Weise an und hoffen, dass die Erkenntnisse und Innovationen die wir in diesem Projekt generieren, zu intelligenten praktischen Lösungen führen werden“, sagt ITAW-Leiterin Prof. Prof. h. c. Dr. Ursula Siebert.

Die Schlüsselfragen des Projektes sind:
Welche Geräusche sind für aquatische Arten am schädlichsten, wie werden sie erzeugt und wie werden sie verbreitet?
Welche kurzfristigen und welche kumulativen langfristigen negativen Auswirkungen hat der Lärm von Schiffen und Booten auf aquatische Arten in Flüssen und im Meer?
Welche Messungen sind am geeignetsten und wie können die negativen Auswirkungen des Schiffslärms bei aktuellen und zukünftigen Schiffen reduziert werden?

Siebert übernimmt in dem Projekt die Leitung des biologischen Arbeitsbereiches: „Wir werden den Einfluss von Unterwasserschall auf das Verhalten, die Gesundheit und den Energiehaushalt von Wasserorganismen untersuchen. Da es nicht möglich ist, alle Auswirkungen auf alle aquatischen Arten in einem Projekt zu untersuchen, werden wir eine Auswahl treffen, um besser zu verstehen, was genau Schiffsgeräusche bei wirbellosen Tieren, Fischen und Meeressäugern, also den drei großen taxonomischen Gruppen im aquatischen Ökosystem, bewirken.“

Ein weiterer wichtiger Aspekt im SATURN-Projekt sind Öffentlichkeitsarbeit und Wissenstransfer. Dr. Joseph Schnitzler koordiniert das Projekt im ITAW und war daran beteiligt, mit den Projektpartnern das SATURN-Konzept zu erarbeiten. Er erklärt: „Hier setzten wir auf ein bewährtes System, das wir schon in vorherigen Projekten erprobt haben. In Kooperation mit Naturinformationszentren, Museen und Schulen und mit öffentlichen Veranstaltungen möchten wir auf unterhaltsame und kreative Weise über die Probleme und mögliche Lösungen informieren.“ Ziel der Forschenden ist es, gebrauchsfertige Materialien wie Kurzfilme und Forscherboxen über die Forschung von SATURN und eine kompakte interaktive Multimedia-Anwendung mit zusammenfassenden Übersichtserklärungen und attraktiven Abbildungen zur Verfügung zu stellen. Die Projektergebnisse sollen kommuniziert werden, um das Bewusstsein für die Probleme, die durch Unterwasserlärm entstehen, zu schärfen.

In der Antragsphase wurde das ITAW mit einer Förderung aus dem Europa-Programm des Niedersächsischen Ministeriums für Wissenschaft und Kultur unterstützt. Die Mittel stammen aus dem Niedersächsischen Vorab der VolkswagenStiftung. Siebert sagt: „Die Antragsphase war sehr aufwändig. Dank der Förderung war es möglich, dass sich ein Mitarbeiter auf die Vorbereitung des Antrages konzentrieren und die Projekttreffen mit unseren zahlreichen internationalen Partnern organisieren konnte. Das war unter anderem ausschlaggebend für den Erfolg des Antrages!“

Wissenschaftliche Ansprechpartner:

Dr. Joseph Schnitzler
Stiftung Tierärztliche Hochschule Hannover
Institut für Terrestrische und Aquatische Wildtierforschung
Tel.: +49 511 856-8155
joseph.schnitzler@tiho-hannover.de

Quelle: IDW

(nach oben)


Bildung alleine reicht nicht: Der Naturschutzpolitik gelingt es zu selten, das Verhalten der Menschen zu ändern

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Es ist ein bekanntes Problem: Zu selten führt das, was Politikerinnen und Politiker an Initiativen, Empfehlungen oder Strategien auf dem Gebiet des Naturschutzes verkünden, dazu, dass die Menschen ihr Alltagsverhalten wirklich ändern. Ein deutsch-israelisches Forscherteam unter Führung des Helmholtz-Zentrums für Umweltforschung (UFZ) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) hat sich mit den Gründen befasst. Demnach nutzen die von der Politik vorgeschlagenen Maßnahmen die Bandbreite der möglichen Verhaltenseingriffe nicht genügend aus und benennen zu selten die eigentlichen Zielgruppen, schreiben sie im Fachmagazin Conservation Biology.

Der Schutz bestäubender Insekten ist in der internationalen Naturschutzpolitik ein großes Thema. Aufgerüttelt durch wissenschaftliche Erkenntnisse zu hohen Bestandseinbrüchen bei Insektengruppen wie Bienen oder Schmetterlingen, die sich beispielsweise auf die Bestäubungsleistungen in der Landwirtschaft auswirken, stellt Europa den Insektenschutz in der Umweltpolitik nach vorn. Zahlreiche Regierungen in Europa haben nationale Strategien vorgelegt, wie sie den Erhalt der Bestäuber sichern wollen. Ein Forscherteam des UFZ, des iDiv und des Technion – Israel Institute of Technology analysierte acht dieser nationalen Strategiepapiere zum Schutz der Bestäuber im Hinblick auf Verhaltensänderungen in der Bevölkerung. Das Ergebnis: „Naturschutzpolitiken zum Erhalt der Bestäuber sind in dieser Hinsicht oft zu ineffektiv und ändern nur wenig am Verhalten der Menschen“, sagt Erstautorin und Umweltpsychologin Dr. Melissa Marselle, die am UFZ und am iDiv zum Einfluss der Biodiversität auf die Gesundheit forscht.

Rund 610 Einzelmaßnahmen entschlüsselten die Wissenschaftler*innen in den Strategiepapieren. Anhand des Analysemodells „Behaviour Change Wheel“, das aus der Gesundheitspsychologie stammt und 19 unterschiedliche Verhaltensmodelle integriert, ordneten sie diesen Modellen neun sogenannte Interventionsfunktionen zu – also Maßnahmen, wie sich das Verhalten der Menschen ändern könnte. Demnach lassen sich mit 23 Prozent die meisten der insgesamt rund 790 Verhaltensmaßnahmen dem Bereich Bildung zuordnen, danach folgen mit 19 Prozent Strukturmaßnahmen wie das Pflanzen von Hecken, die Aussaat von Blühstreifen auf Äckern oder das Anlegen von Grünanlagen in der Stadt. Rund vier Prozent der Maßnahmen lassen sich unter dem Stichwort Modelling zusammenfassen, also zum Beispiel dem Einsatz von Best-Practice-Beispielen von vorbildlich arbeitenden Landwirten. Danach folgen Anreizsysteme etwa für Landwirte oder Kommunen (drei Prozent) und gesetzliche Regelungen (zwei Prozent). Stärkere Eingriffe wie zum Beispiel zusätzliche Steuern für den Einsatz von Pestiziden tauchten in den Politikpapieren nicht auf.

„Das zeigt, dass sich die nationalen Biodiversitätsstrategien vornehmlich auf Bildungs- und Strukturmaßnahmen konzentrieren und andere wirksame Instrumente vernachlässigen“, sagt Melissa Marselle. „Bildungsmaßnahmen, mit denen Wissen vermittelt und Verständnis geweckt werden soll, sind wichtig. Aber auf Bildung alleine zu setzen, ist nicht sehr effektiv, wenn man wirklich das Umweltverhalten ändern möchte. Zielführender wäre es, sie mit einer breiten Palette anderer Maßnahmen zu koppeln.“ Lieferketten und Erzeugerprinzipien auf Etiketten deutlich zu machen, kann beispielsweise viele Menschen zum Kauf eines ökologischen oder bestäuberfreundlichen Produkts animieren – auch zu einem höheren Preis. Wirksam wären auch stärkere finanzielle Anreize für Landwirte, die nachhaltig wirtschaften; ebenso könnte die Zertifizierung nachhaltiger Gebäude an die Verwendung bestäuberfreundlicher Pflanzen als Blumenrabatten gekoppelt werden. Auch Steuern und Mehrkosten für Verbraucher sorgen für rasche Verhaltensänderungen: So führte in Großbritannien zum Beispiel eine Zwangsabgabe beim Kauf von Plastiktaschen zu einem Rückgang ihrer Verwendung.

Als ein weiteres Manko der Strategiepapiere wurde identifiziert, dass bei 41 Prozent der Einzelmaßnahmen die Zielgruppen nicht benannt werden. Die Ziele sind oft sehr gut beschrieben, drehen sich aber zumeist um die Frage, wie sich die Umwelt durch bestimmte Aktionen verändert. Es wird aber oft nicht näher definiert, an wen sich die Aktionen richten und wer sie umsetzen soll: die Öffentlichkeit, die Landwirte oder die lokalen Behörden? Effektiver könnte es sein, man würde sich mithilfe von Verhaltensforschern erst mal überlegen, was die verschiedenen Akteure tun können, und man sich dann darauf aufbauend Maßnahmen überlegt, wie bestimmte Ziele erreicht werden können.

Gelegenheiten, Naturschutzstrategien besser zu schreiben, gibt es derzeit einige. So muss beispielsweise die EU-Biodiversitätsstrategie 2030, die die EU-Kommission im Mai 2020 verabschiedete, in nationale Politiken umgesetzt werden. Zudem werden auf der nächsten Konferenz der Convention of Biological Diversity (CBD) im kommenden Jahr in China die globalen Ziele zum Schutz der biologischen Vielfalt für die folgenden Jahre verhandelt. „Vor diesem Hintergrund ist es von entscheidender Bedeutung zu verstehen, wie Politiken formuliert werden müssen, um zu einer wirksamen Umsetzung internationaler Naturschutzpolitik zu kommen“, sagt Prof. Aletta Bonn, die an UFZ und iDiv das Department Ökosystemleistungen leitet und sich mit dem Thema Interaktion von Mensch und Natur befasst.

Wissenschaftliche Ansprechpartner:

Dr. Melissa Marselle
UFZ-Department Ökosystemleistungen an UFZ und iDiv
melissa.marselle@ufz.de

Prof. Dr. Aletta Bonn
Leiterin des UFZ-Departments Ökosystemleistungen an UFZ und iDiv
aletta.bonn@ufz.de

Originalpublikation:

Melissa R. Marselle, Anne Turbe, Assaf Shwartz, Aletta Bonn, Agathe Colléony: „Addressing behavior in pollinator conservation policies to combat the implementation gap“, Conservation Biology https://doi.org/10.1111/cobi.13581

Quelle: IDW

(nach oben)


Weizen & Bekömmlichkeit: Backwaren sind wesentlich besser als ihr Ruf

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Nach zwei Stunden Teiggehzeit sind FODMAP-Elemente, die bei manchen Reizdarm-Patienten Schmerzen verursachen können, schon stark reduziert.
Brot soll man meiden, weil es zu Blähungen und Verdauungsproblemen führen kann – das stimmt, aber nur für wenige Patienten mit Reizdarm und gilt nur für Backwaren, die sehr schnell hergestellt werden. Aktuelle Untersuchungen von Wissenschaftlern der Universität Hohenheim in Stuttgart in Kooperation mit dem Bäcker Heiner Beck und der Stelzenmühle zeigen: auch Teiggehzeiten von zwei Stunden scheinen bereits auszureichen, um den Anteil sogenannter FODMAPs im Teig um 70 Prozent zu reduzieren. FODMAPs sind spezielle Kohlenhydrate, die bei Reizdarm-Patienten Schmerzen verursachen können. Daher verzichten Betroffene oft auf Weizenprodukte. Brot gehört in Deutschland aber zu den wichtigsten Grundlebensmitteln, und die neuen Studienerkenntnisse untermauern, dass ein Verzicht auf Brot wegen FODMAPs wenig hilfreich ist – zumindest bei den vielen Backwaren, die mit einer ausreichenden Teigruhezeit von über zwei Stunden produziert wurden. Wissenschaftlich publiziert wurden die Ergebnisse im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021. Deutsche Ergebnisdarstellung unter https://bit.ly/32OWOxK

In einer sehr traditionellen Art wird Teig durchaus bis zu 48 Stunden lang ruhen gelassen, bevor er als Brot in den Ofen geschoben wird. „Diese Zubereitung bringt besonders viel Geschmack, Aroma und Saftigkeit ins Brot und sorgt für eine längere Frische“, bestätigt der Bäcker Heiner Beck, der die Brote für diese Studie gebacken hat. Solche langen Ruhezeiten werden jedoch nicht in jeder Bäckerstube und bei jedem Produkt realisiert.

Backgewerbe und Handel erscheinen aktuell von der Meinung getrieben zu sein, dass eine hohe Verträglichkeit von Brot durch besonders lange Teigführungszeiten erreicht werden könne, ohne dass die Herstellungsprozesse genauer beleuchtet werden. Zumal auch Personen mit Reizdarm-Syndrom gern auf Brote aus dieser alten Backtechnik zurückgreifen, da sich aufgrund der sehr langen Gärungszeit fast keine FODMAP-Elemente mehr in den Broten befinden.

„Das ist sicher nicht falsch, kann ich aber so pauschal nicht bestätigen“, sagt apl. Prof. Dr. Longin von der Landessaatzuchtanstalt der Universität Hohenheim. „Die Lösung liegt wie bei vielem im Detail“.

Gemeinsam mit dem Ernährungsmediziner Prof. Dr. Stephan C. Bischoff untersuchte er verschiedene Herstellungsprozesse und Weizensorten in einer aktuellen Studie. Konkret interessierten sich die Spezialisten darin für die schmerzverursachenden Kohlenhydrate in den Broten, die bei Betroffenen Blähungen und Verdauungsprobleme erzeugen.

FODMAPs-Anteil ist bereits nach zwei Stunden Teigzubereitung um bis zu 75 Prozent reduziert
Apl. Prof. Dr. Longin und Prof. Dr. Bischoff haben die Zusammenhänge zwischen der Teigherstellung und der Verträglichkeit aufgrund der FODMAP-Anteile im Brot genauer beleuchtet. Dabei haben sie Backprodukte mit 21 verschiedenen Weizensorten aus einer im Bäckeralltag typischen langen Teigführung von 25 Stunden mit einer wesentlich kürzeren Herstellungsart von 2 Stunden verglichen.

Die Ergebnisse sind klar: Bereits nach zwei Stunden waren die Anteile der schmerzverursachenden Stoffe im Brot um bis zu 75 Prozent reduziert. Demgegenüber waren die Werte nach 25 Stunden nur unwesentlich geringer.

„Das liegt daran, dass bei einer verlängerten Teigführung die Aktivität der Hefe durch eine reduzierte Hefemenge und eine Kühlung des Teiges reduziert werden muss“, erklärt apl. Prof. Dr. Longin. „Ansonsten wird das für das Backen wichtige Gluten zu sehr geschädigt.“ Und Bäckermeister Heiner Beck ergänzt: „Dies wurde in den bisherigen wissenschaftlichen Studien zu FODMAP bei Backwaren nicht beachtet. Mir war wichtig, dass mit praxisrelevanten Rezepten gearbeitet wurde.“

Weniger Schwarz-Weiß-Denken wäre zielführender
So wurden im Durchschnitt FODMAP-Gehalte von 0,22 Gramm je 100 Gramm gemessen, was ca. drei Brotscheiben entspricht. Im Vergleich dazu enthält ein einzelner Pfirsich bis zu 4 Gramm FODMAPs.

„Es ist somit fraglich, ob eine FODMAP-Konzentration in Broten mit diesen niedrigen Werten medizinisch eine Auswirkung auf Patienten hat, und wenn doch, wie viele Patienten tatsächlich davon betroffen sind“, ergänzt Prof. Dr. Bischoff vom Institut für Ernährungsmedizin. „Bei gesunden Personen gilt sogar, dass Teile dieser FODMAPs, nämlich das Fruktan, wichtig für die Darmbakterien sind.“

Die Experten aus Hohenheim halten die lange Teigführung für sehr hochwertig. In anderen Studien wurde deren positiver Effekt auf Aroma, Saftigkeit und Verfügbarkeit von Mineralstoffen eindeutig belegt. Doch halten sie die pauschal vereinfachende Haltung zu den FODMAPs in Backwaren für einseitig und das Thema FODMAPs in Backwaren für teilweise überbewertet.

„Neben der Herstellungsweise des Brotes wirkt sich auch die Wahl der passenden Weizensorte sehr auf die Brotqualität aus“, betont Hermann Gütler, Müller in der Stelzenmühle. Er hat die 21 verschiedenen Weizensorten für die Studie vermahlen und ergänzt: „Das wissen wir für die Backeigenschaften schon lange und haben es nun eindeutig auch für die FODMAPs gezeigt.“

Weitere Informationen
Deutsche Ergebnisdarstellung https://bit.ly/32OWOxK
Publikation im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021

Kontakt für Medien
Apl. Prof. Dr. Friedrich Longin, Universität Hohenheim, Landessaatzuchtanstalt, AG Weizen,
T +49 711 459 23846, E friedrich.longin@uni-hohenheim.de

Prof. Dr. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 711 459 24100, E bischoff.stephan@uni-hohenheim.de

Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse

Anhang
Deutsche Ergebnisdarstellung
https://idw-online.de/de/attachment80645

Quelle: IDW

(nach oben)


Bioabfälle als wertvoller Rohstoff für Hightech-Produkte

Elvira Grub M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Kaiserslautern

Der Hochschule Kaiserslautern ist es mit ihren Verbundpartnern „Prüf- und Forschungsinstitut Pirmasens e. V. (PFI)“ und „Zukunftsregion Westpfalz e.V. (ZRW)“ gelungen, eine Förderung für die Entwicklung einer Konzeption für ein Innovationscluster „Waste2Value – Mikroorganismen verändern die Westpfalz“ zu gewinnen, bei dem es um wirtschaftlichen Strukturwandel durch biotechnologische – bioverfahrenstechnische Innovationen geht.

Die Projektpartner erhalten hierbei 250.000.- Euro aus dem Förderprogramm „WIR!“ (Wandel durch Innovation in der Region) des Bundesforschungs- und Bildungsministeriums. Bei erfolgreicher Bewertung des Konzepts stehen für insgesamt sechs Jahre Umsetzungsphase bis zu bis 16 Mio. € Fördermittel bereit. Dies hätte weitreichende Folgen für die Innovationsdynamik und den Technologietransfer der (Bio)Ökonomie in der Westpfalz so Projektpartner Arne Schwöbel von der ZRW.

Inhaltlich geht es bei „Waste2Value – Mikroorganismen verändern die Westpfalz“ um biotechnologisch gewonnene und verwertbare Materialien aus diversen Bioabfällen der Forst- und Landwirtschaft sowie der Lebensmittelproduktion, die für Kunst- und Klebstoffe, für smarte Werkstoffverbunde und als hochwertige Zusatzstoffe für die Kosmetik- und Lebensmittelindustrie der Region eingesetzt werden können. Kooperationspartner sind vor allem Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen sind integriert.

Das Verbundprojekt knüpft an die aktuelle Forschung zur Rohstoffgewinnung aus nachwachsenden Rohstoffen (NawaRo) im Fachbereich Angewandte Logistik und Polymerwissenschaften am Campus in Pirmasens unter der Leitung von Dr. Michael Lakatos an. Die Grundlage der NawaRo‘s bilden in luftgeführten Photobioreaktoren wachsende terrestrische Mikroalgen, mit denen Neuland in der Verwendung von NawaRo’s betreten wird. Diese Kombination der technischen mit der physiologischen Komponente erlaubt gegenüber der weit verbreiteten algenbasierten Biomasseproduktion in aquatischen Systemen, d.h. im Wasser lebende Mikroalgen, eine wesentlich ressourcen- und kostenschonendere Kultivierung sowie die Ausbeutung des riesigen, zum Großteil noch unerforschten Potentials der terrestrischen Mikroalgen, das von der Gewinnung von Farbstoffen bis hin zur Entwicklung neuer Wirkstoffe reicht.

Lakatos, der auch das Verbundvorhaben leitet, sieht hier großes Potential, vorhandene Kompetenzen in eine neue nachhaltige Richtung zu fördern. Mithilfe der aus Cyanobakterien und den Bioabfällen generierten Biomasse sollen in Kombination mit Kunststoffen hybride Materialien hergestellt werden, die Sollbruchstellen enthalten sollen, mit deren Hilfe sie sich besser abbauen, recyceln und weiterverarbeiten lassen, sodass konventionelles Plastik verzichtbar wird.

Auch im PFI hat man langjährige Erfahrungen mit Mikroorganismen und der Entwicklung von Fermentationsverfahren auf der Basis von Reststoffen. Zahlreiche am PFI entwickelte biotechnologische Prozesse und Verfahren basieren auf den vielfältigen Stoffwechselleistungen spezifischer Bakterien und Pilze. „Wir nutzen Mikroorganismen beispielsweise bei der Optimierung von Biogasanlagen, bei der Gewinnung von Biomethan aus CO2 im Rahmen von Power-to-Gas Verfahren oder bei der Umwandlung von Lebensmittelresten in Treibstoffe und Grundchemikalien“ so Dr. Stefan Dröge, Projektleiter im PFI. Mit „Waste to Value“ wird die Kreislaufwirtschaft mit der Bioökonomie und dem Klimaschutz verknüpfen. So eröffnen Mikroorganismen den Megatrend der biobasierten Konversion und leiten dabei den Wirtschaftswandel hin zu einer zukunftsträchtigen Bioökonomie ein – eine greifbare Chance für die Region! Ende September ist dazu eine Kick-Off-Veranstaltung geplant, in der besonders Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen als zukünftige Kooperationspartner gewonnen werden sollen.

Ihr Ansprechpartner zur Pressemitteilung:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de

Wissenschaftliche Ansprechpartner:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de

Quelle: IDW

(nach oben)


Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“

Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Trotz des medizinischen Fortschritts bei der Diagnose und Behandlung von Krankheiten spielt eines oft nur eine untergeordnete Rolle: die Kommunikation zwischen Arzt und Patient. Doch was ist mit den Bedürfnissen, Ängsten und Zweifeln der Patienten? Erst in den vergangenen Jahren wurde mit der systematischen Untersuchung des Phänomens „Placebo“ ein Paradigmenwechsel angestoßen. Denn die positiven Effekte der Arzt-Patienten-Kommunikation sind tatsächlich biologisch messbar.

Über eben diesen Placeboeffekt und auch seinen Gegenspieler, den Noceboeffekt, seine Wirkung und aktuelle Erkenntnisse spricht Professor Manfred Schedlowski, Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen, in seiner Keynote bei der geriatrisch-gerontologischen Online-Konferenz.

Die Medizin hat in den vergangenen Jahrzehnten eine enorme Entwicklung vollzogen: Verfeinerte technische Untersuchungsmethoden erlauben faszinierende Einblicke in die Funktion unserer Organe und des Gehirns, zielgerichtete Medikamente können exakt in Krankheitsprozesse eingreifen und Operationsroboter steigern die Präzision von Chirurgen. Doch in Zeiten der „High-Tech-Medizin“ wird der Kommunikation zwischen Arzt und Patient oft noch zu wenig Aufmerksamkeit entgegengebracht – auch nicht in der Wissenschaft. Forschungsansätze, die Vertrauen und Hoffnung der Patienten oder die Wirkung von Mitgefühl in den Mittelpunkt stellen, werden oft als „Wissenschaft light“ abgetan.

Messbare Effekte: Das Immunsystem wird beeinflusst, Schmerzen verbessert
„Placeboeffekte sind äußerst vielfältig und unterscheiden sich, je nach Organ und Patient. Eine Zuckertablette, die Kopfschmerzen vertreibt, eine Infusion mit Kochsalzlösung, die bei Parkinson hilft oder eine vorgetäuschte Akupunktur, die Reizdarmsymptome lindert, sind nur einige erfolgreiche Beispiele“, sagt Manfred Schedlowski. Placeboeffekte können sich auf körperliche und psychische Symptome auswirken und damit den Verlauf von Erkrankungen verbessern. Sie können das Immunsystem und den Blutdruck beeinflussen oder den Erfolg von Operationen und medikamentösen Behandlungen verändern. Der Körper reagiert positiv auf eine Behandlung, obwohl er das eigentlich gar nicht dürfte – weil beispielsweise die Tablette oder Infusion keinen Wirkstoff enthält oder die Akupunkturnadel gar nicht in die Haut eindringt. Doch wie kann ein Scheinmedikament oder eine Scheinbehandlung überhaupt eine Wirkung zeigen?

Der Glaube an Heilung: Das neuropsychologische Phänomen des Placeboeffekts
Placeboeffekte werden auf neuropsychologische Phänomene zurückgeführt, die Selbstheilungskräfte aktivieren. Immer mehr Details dieser Wirkmechanismen werden wissenschaftlich erforscht. Dabei spielen die Erwartungen der Patienten eine zentrale Rolle. Vertrauen sie darauf, dass die Therapie wirkt, oder haben sie eher Zweifel? Haben sie früher gute oder eher negative Erfahrungen mit medizinischen Behandlungen oder Behandlern gemacht? Schöpfen sie nach dem Gespräch mit dem Arzt Hoffnung oder löst die Lektüre des Beipackzettels eher Ängste aus? Erfahrungen führen zu Lernprozessen, die bewusst oder unbewusst ablaufen und große Wirkungen entfalten können: positive Placeboeffekte, aber auch negative „Noceboeffekte“. Je nachdem können sie die Heilung fördern – oder auch verhindern.

Der Placeboeffekt beeinflusst jede medizinische Behandlung
Eine Wirkung erzielt also nicht das Placebo selbst, sondern die an eine Behandlung geknüpfte Erwartung der Patienten. Placeboeffekte beeinflussen demnach jede Art von medizinischer Behandlung, sei es die Wirksamkeit und Verträglichkeit von gut erforschten und bewährten Medikamenten, der Ausgang einer Operation oder Gesprächstherapie – oder eben die Wirkung einer Zuckertablette. Echte Placebobehandlungen, beispielsweise zum Test der Wirksamkeit eines Medikaments, sollten jedoch weiterhin nur unter ganz bestimmten Voraussetzungen, wie beispielsweise in klinischen Studien stattfinden.
In seiner Konferenz-Keynote fasst Professor Manfred Schedlowski seine Forschungsergebnisse zur Thematik zusammen und gibt einen spannenden Überblick über die neuen und aktuellen wissenschaftlichen Erkenntnisse zum Phänomen Placebo- und Noceboeffekt. Da gerade ältere Patienten häufig Noceboeffekten in der Kommunikation ausgesetzt sind, ist dieses Thema besonders für Geriater interessant und relevant.

Zur Person

Professor Manfred Schedlowski ist Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen. Im Lauf seiner Karriere absolvierte er Forschungsaufenthalte an der University of Newcastle und der La Trobe University in Melbourne, Australien sowie an der Eidgenössischen Technischen Hochschule (ETH) Zürich. Der Schwerpunkt seiner Forschung liegt auf der Analyse der funktionellen Verbindungen zwischen dem Nervensystem, dem Hormonsystem und dem Immunsystem. Vor diesem Hintergrund beschäftigt sich Professor Schedlowski mit seiner Arbeitsgruppe im Rahmen der Placeboantwort mit dem Phänomen der Klassischen Konditionierung von Immunfunktionen und analysiert die neurobiologischen und biochemischen Mechanismen sowie die klinische Bedeutung der Placebo- und Noceboantwort.

Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 41
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind unter anderem Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1.700 Mitglieder.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen
https://www.aey-congresse.de/events/dgg-dggg-online-konferenz.html

Anhang
Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“
https://idw-online.de/de/attachment80594

Quelle: IDW

(nach oben)


Abwasser aus dem Bergbau aus Ressource nutzen

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Bergbau geht meist mit der Förderung großer Wassermengen einher, die bisher überwiegend ungenutzt abgeleitet wurden. Das kürzlich abgeschlossene Projekt „Räumlich-zeitlich abgestimmte Kreislaufführung und Wiederverwendung bergbaulicher Abwässer am Beispiel eines urban geprägten Bergbaugebietes – Water Miner“ hat gezeigt, dass Abwässer aus dem Bergbau eine wichtige ergänzende Wasserressource sein können. Auch wenn sich in Bergbaugebieten die Mengen und Orte, wo Wasser gefördert wird, ständig ändern, können bergbauliche Abwässer mit einem geeigneten räumlich-zeitlichen Wassermanagement als Brauchwasser oder Trinkwasser genutzt werden.

Der Bergbau wird Schritt für Schritt stillgelegt
Water Miner unter der Leitung von Prof. Dr. Harro Stolpe, emeritierter Professor an der Fakultät für Bauingenieurwesen der Ruhr-Universität Bochum (RUB), startete im Jahr 2016, mit dem Ziel zu untersuchen, ob und wie man bergbauliche Abwässer nutzen kann. Das Projektgebiet liegt in Ha Long im Norden Vietnams. Dort wird Steinkohle im Tagebau und untertägig abgebaut. „Aufgrund der Lagerungsverhältnisse der Kohle ändert sich der Abbau im Projektgebiet fortlaufend“, so Harro Stolpe. „Die Tagebaubetriebe werden im Rahmen eines Strukturwandels der Region in bereits einigen Jahren stillgelegt, und danach wird auch der Tiefbau zugunsten Umwelt- und Naturschutz und Tourismus beendet.“

Entsprechend fallen die Abwässer und Oberflächenabflüsse räumlich und zeitlich stark veränderlich an, was besondere Konzepte für eine Nutzung – auch nach der Stilllegung des Bergbaus – erfordert. Auf der anderen Seite ist der im Projektgebiet stark zunehmende Tourismus mit einem steigenden Wasserbedarf verbunden. Das macht ihn zu einem möglichen Nutzer aufbereiteter bergbaulicher Abwässer.

Analyse- und Managementtools
Das Projektteam entwickelte eine räumlich-zeitliche Analyse mithilfe eines Stoffstrommodells und Geoinformationssystemen. Sie ermöglicht die Betrachtung und das Management der im Bergbau stark veränderlichen Abwasserströme, des Bedarfes an Hilfsstoffen und Energie bis hin zu den auftretenden Kosten und Erlösen für die Wassernutzung. Ein weiterer Aspekt war das möglichst umweltverträgliche Management von Oberflächenabflüssen im Projektgebiet. Dafür entwickelte das Team ein Konzept, das es erlaubt, die Sedimenteinträge ins Wasser zu reduzieren und Kohlestäube abzutrennen. Außerdem befassten sich die Forscherinnen und Forscher mit der Möglichkeit, die beim Kohleabbau entstehenden Restseen für die Speicherung und Nutzung von Regenwasser zu nutzen.

„Insgesamt konnten wir zeigen, dass gereinigtes bergbauliches Abwasser einen wesentlichen Beitrag zur Deckung des steigenden Wasserbedarfes in Ha Long darstellen und ein verbessertes Oberflächenwassermanagement einen wichtigen Beitrag zum Umweltschutz in der Ha Long Bucht als Unesco-Weltnaturerbe leisten kann“, resümiert Harro Stolpe.

Kooperationspartner
Beteiligte am Projekt Water Miner sind neben der Arbeitsgruppe Umwelttechnik und Ökologie im Bauwesen der RUB das Dresdner Grundwasserforschungszentrum, die Firma LUG Engineering, das Fachgebiet Umweltökonomie der Universität Koblenz-Landau und die Firmem Ribeka sowie Disy Informationssysteme.

Das Projekt fand in enger Kooperation mit dem vietnamesischen Bergbauunternehmen Vinacomin Vietnam National Coal – Mineral Industries Holding Corporation Limited statt. In der Nachfolge des Projektes werden Gespräche zwischen Vinacomin, dem örtlichen Wasserversorger und der Stadtverwaltung zur Umsetzung der entwickelten Konzepte durchgeführt.

Förderung
Das Verbundprojekt Water Miner wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme „Zukunftsfähige Technologien und Konzepte zur Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung und Entsalzung“ gefördert.

Pressekontakt
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de

Quelle: IDW

(nach oben)


Covid-19: Kläranlagen als Frühwarnsystem – TU Darmstadt analysiert das Erbmaterial von SARS-CoV-2 aus Abwasserproben

Claudia Staub Stabsstelle Kommunikation und Medien
Technische Universität Darmstadt

Forschende der TU Darmstadt weisen Coronaviren im Abwasser nach. Zusammen mit der Stadtentwässerung Frankfurt am Main entwickeln sie ein Monitoringsystem, das auch Infizierte erkennt, die keine erkennbaren Symptome zeigen.

Seit einigen Wochen steigt die Zahl der neu mit SARS-CoV-2 infizierten Personen bundesweit wieder an. „Für die Stadt Frankfurt haben wir diesen Trend schon bemerkt, bevor er sich in den Zahlen der offiziell bestätigten Fälle zeigte“, sagt Professorin Susanne Lackner, Leiterin des Fachgebiets Abwasserwirtschaft an der TU Darmstadt. Sie und ihr Team untersuchen Wasserproben aus Frankfurter Kläranlagen auf Coronaviren: „Im Juli lagen die Virenkonzentrationen im Abwasser noch stabil auf relativ niedrigem Niveau, dann stiegen die Werte deutlich an.“

Infizierte Personen scheiden Coronaviren mit dem Stuhl aus. Nach aktuellem Kenntnisstand befinden sich im Abwasser zwar keine infektiösen Viren mehr, aber ihr Erbgut lässt sich mit der in der Medizin etablierten PCR-Technik nachweisen. Die Messung ist so empfindlich, dass sie weniger als zehn bestätigte Covid-19-Fälle pro 100.000 Einwohner detektiert. „Von Vorteil ist, dass wir mit der Methode auch asymptomatisch Infizierte erfassen“, betont Lackner. Ziel ihrer Forschung ist die Etablierung eines Monitoringsystems für die Stadt Frankfurt. Bei ansteigenden Virenmengen im Abwasser sollten Schutzmaßnahmen verschärft, bei einem Rückgang könnten sie wieder gelockert werden.

Lackners Arbeitsgruppe ist hessenweit die erste, die ein solches Konzept entwickelt und in einer Großstadt testet. Die Darmstädter Wissenschaftlerinnen und Wissenschaftler erhalten zweimal wöchentlich Proben aus den Zuläufen zu den Frankfurter Klärwerken in den Stadtteilen Sindlingen und Niederrad, die Abwasser von insgesamt über 1,8 Millionen Bürgern aufbereiten, sowie aus einem Teilzulauf in Griesheim. Zukünftig könnte die Probenahme erweitert werden, so Lackner: „Wenn wir das Infektionsgeschehen genauer und regionaler, etwa in einzelnen Stadtteilen, verfolgen wollen, müssten Proben häufiger und auch direkt im Kanalsystem entnommen werden.“

Lackner und ihre Mitarbeitenden untersuchen zudem das Abwasser vom Frankfurter Flughafen. In diesen Proben bestimmen sie nicht nur die Virenmenge anhand ausgewählter Genfragmente, sondern sie sequenzieren das komplette Erbgut der Krankheitserreger, um mehr über die Herkunft und Verbreitungswege der Viren zu erfahren. Mittlerweile gibt es verschiedene regionale Varianten von SARS-CoV-2, da sich das Erbmaterial der Viren im Lauf der Zeit ändert. Erste Ergebnisse zu den Proben vom Frankfurter Flughafen werden voraussichtlich in einigen Wochen vorliegen.

Das Land Hessen unterstützt die Corona-Projekte des TU-Fachgebiets Abwasserwirtschaft seit Juni im Rahmen des „Operationellen Programms für die Förderung von Investitionen in Wachstum und Beschäftigung“ mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE).

Quelle: IDW

(nach oben)


SARS-CoV-2-Viren im Abwasser: COVID-19 Überwachung und Abschätzung potenzieller Infektionsrisiken

Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

FRANKFURT/AACHEN. Seit Beginn der Pandemie arbeiten Forschergruppen an Methoden, den Nachweis von SARS-CoV-2 Viren im Abwasser für die Überwachung des COVID-19 Infektionsgrads der Bevölkerung zu verwenden. Die Idee ist einfach: Da infizierte Personen SARS-CoV-2 Viren über die Fäkalien abgeben, könnten Abwasserproben Aufschluss über die Infektionszahlen aller an eine Kläranlage angeschlossener Einwohner liefern. Bei ausreichender Empfindlichkeit könnten solche Analysen Behörden als Frühwarnsystem dienen, um lokal ansteigende Fallzahlen im Einzugsgebiet einer Kläranlage frühzeitig zu erkennen.

Ein Konsortium aus Frankfurter Virologen, Ökotoxikologen und Evolutionsforschern und Aachener Wasserforschern konnte jetzt erstmals für Deutschland zeigen, dass sich SARS-CoV-2 Genmaterial mit modernen molekularen Methoden in Kläranlagen nachweisen lässt. Analysen ergaben in allen neun während der ersten Pandemiewelle im April 2020 beprobten Kläranlagen 3 bis 20 Genkopien pro Milliliter Rohabwasser. Dies ist ein Konzentrationsniveau, wie es auch in Studien in den Niederlanden und den USA gemessen wurde.

Erstaunt waren die Forscher, als ältere Rückstellproben aus den Jahren 2017 und 2018 vor dem Ausbruch der Pandemie ebenfalls Signale lieferten. Nach umfangreicher Methoden-Validierung war klar, dass die verwendeten Genprimer nicht nur SARS- CoV-2, sondern fälschlicherweise auch andere nicht-krankheitsauslösende Coronaviren im Abwasser miterfassen. Die jetzt spezifisch für SARS-CoV-2 im Abwasser entwickelte Methodik wurde mit Gensequenzierung bestätigt.

Das Verfahren lässt sich nun in der so genannten Abwasser-basierten Epidemiologie einsetzen: Die gemessene Virenfracht einer Kläranlage erlaubt Rückschlüsse auf die Anzahl der an COIVD-19 infizierten Personen im Einzugsgebiet. In der größten Kläranlage wurden bei einer Virenfracht von 6 Billionen (6 x 1012) Genäquivalenten pro Tag 1037 akute Fälle in Einzugsgebiet abgeschätzt, in kleineren Kläranlagen bei zwei Größenordnungen geringerer Virenfracht dagegen 36 Fälle.

Die Sensitivität ist ausreichend, um als Frühwarnsystem anzuzeigen, ob der Maßnahmenwert von 50 Inzidenzen pro 100.000 Einwohnern überschritten wird. Frühere Hoffnungen, die Präzision würde ausreichen, die Dunkelziffer nicht-labordiagnostisch erfasster Infizierter zu bestimmen, haben sich bislang nicht erfüllt. Die Wissenschaftlerinnen und Wissenschaftler halten aber weitere Methodenverbesserungen für möglich.

Die im Abwasser nachgewiesenen SARS-CoV-2 Fragmente haben sich in Zelltests in vitro als nicht-infektiös dargestellt. Wegen der hohen Frachten und geringem Rückhaltevermögen konventioneller Kläranlagen ist das Verhalten von SARS-CoV-2 im Wasserkreislauf aber vertieft zu untersuchen. Die Autoren der Studie arbeiten daran, ihr Wissen für eine baldige Anwendung der Methodik bereitzustellen, dazu wird eine enge Zusammenarbeit mit Gesundheitsministerien, Umweltministerien, Kläranlagenbetreibern und Fachverbänden angestrebt.

Das Forscherteam wurde in Eigeninitiative vom gemeinnützigen Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW), dem Institut für Siedlungswasserwirtschaft der RWTH Aachen (ISA), dem Institut für Medizinische Virologie des Universitätsklinikums Frankfurt (KGU) und der Abteilung Evolutionsökologie und Umwelttoxikologie am Institut für Ökologie, Evolution und Diversität der Goethe-Universität Frankfurt ins Leben gerufen und von sechs Wasserverbänden in Nordrhein-Westfalen, dem LOEWE-Zentrum für Translationale Biodiversitätsgenomik (TBG) und der University of Saskatoon in Kanada unterstützt.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Frankfurt
Institut für Medizinische Virologie
Prof. Dr. Sandra Ciesek über
Pressestelle Universitätsklinikum Frankfurt
Tel. +49 069 6301 86442
kommunikation@kgu.de

Goethe-Universität Frankfurt, Institut für Ökologie, Evolution und Diversität, und LOEWE Zentrum für Translationale Biodiversitätsgenomik (TBG)
Prof. Dr. rer. nat. Henner Hollert
hollert@bio.uni-frankfurt.de

Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW)
Dr. sc. Frank-Andreas Weber
weber@fiw.rwth-aachen.de

RWTH Aachen University, Institut für Siedlungswasserwirtschaft (ISA)
Univ.-Prof. Dr.-Ing. habil. Thomas Wintgens
wintgens@isa.rwth-aachen.de

Originalpublikation:
Sandra Westhaus, Frank-Andreas Weber, Sabrina Schiwy, Volker Linnemann, Markus Brinkmann, Marek Widera, Carola Greve, Axel Janke, Henner Hollert, Thomas Wintgens, Sandra Ciesek. Detection of SARS-CoV-2 in raw and treated wastewater in Germany – suitability for COVID-19 surveillance and potential transmission risks. Science of the Total Environment. https://doi.org/10.1016/j.scitotenv.2020.141750, https://www.sciencedirect.com/science/article/pii/S0048969720352797

Weitere Informationen:
http://www.uni-frankfurt.de/91245167 „Grafisches Abstract“: deutsche Übersetzung des Untersuchungsschemas aus der Publikation Westhaus et. al. https://www.sciencedirect.com/science/article/pii/S0048969720352797

Quelle: IDW

(nach oben)


Küssen verboten: Abwehrmechanismus im Speichel stoppt Zika-Virus, aber nicht SARS-CoV-2

Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm

Ob Küssen während der Coronavirus-Pandemie zum Risikoverhalten wird, haben Virologinnen und Virologen der Ulmer Universitätsmedizin untersucht. In einer aktuellen Studie erforschen sie, inwiefern das Zika-Virus und das neue Coronavirus (SARS-CoV-2) über Speichel von Mensch zu Mensch weitergegeben werden können. Für das Zika-Virus haben die Forschenden einen neuen Abwehrmechanismus entdeckt, der eine Infektion verhindern kann. Auf die Ansteckungsgefahr mit SARS-CoV-2 hat diese Speichelkomponente hingegen keine Auswirkungen.

Können das neue Coronavirus oder der Zika-Erreger beim Küssen übertragen werden? Tatsächlich lassen sich beide Viren in großen Mengen im Speichel nachweisen. Ob sie auch über diese Körperflüssigkeit von Mensch zu Mensch weitergegeben werden, haben Ulmer Virologinnen und Virologen in einer aktuellen Studie untersucht. Dabei entdeckten sie einen neuen Abwehrmechanismus im Speichel, der eine Ansteckung mit dem Zika-Virus verhindern kann. Auf das Infektionsrisiko mit dem neuartigen Coronavirus (SARS-CoV-2) hat diese Speichelkomponente allerdings keinen Einfluss.

Wie verbreiten sich neu aufkommende Viren von Mensch zu Mensch? Diese Frage stellen sich Forschende des Ulmer Instituts für Molekulare Virologie sowohl für das Zika-Virus als auch für das neue Coronavirus. Als Zoonosen sind beide Erreger in der jüngeren Vergangenheit von Tieren auf den Menschen übergegangen. SARS-CoV-2 verbreitet sich seither vor allem durch Tröpfcheninfektion und Aerosole. Hauptüberträger des Zika-Virus sind hingegen Gelbfiebermücken, es wurden jedoch auch Übertragungen von Mensch zu Mensch durch Geschlechtsverkehr berichtet. In früheren Studien konnten die Virologinnen und Virologen der Ulmer Universitätsmedizin bereits zeigen, dass sogenannte extrazelluläre Vesikel in der menschlichen Samenflüssigkeit diesen Übertragungsweg für Zika-Viren und verwandte Erreger hemmen. Ob solche körpereigenen Abwehrmechanismen auch bei der Speichelübertragung des Zika-Erregers oder des neuen Coronavirus aktiv sind, untersuchen Forschende um Professor Jan Münch, Dr. Janis Müller, Rüdiger Groß und Carina Conzelmann in ihrem jetzt erschienenen Fachbeitrag.

In Laborexperimenten haben die Autoren menschlichen Speichel mit dem jeweiligen Virus (SARS-CoV-2 oder Zika-Virus) zusammengebracht.
Anschließend wurden Zelllinien sowie primäre Mundschleimhautzellen diesen Gemischen ausgesetzt. Um eine Infektion mit dem jeweiligen Erreger nachzuweisen, haben die Wissenschaftlerinnen und Wissenschaftler die Menge der Viren in den Zellen gemessen – mit gegensätzlichen Ergebnissen. Sie fanden nämlich heraus, dass eine Zika-Virus-Infektion bei hoher Speichelkonzentration nahezu ausgeschlossen ist. Für SARS-CoV-2 konnte dieser Effekt nicht nachgewiesen werden.
Die eigentliche Herausforderung bestand jedoch in der Identifikation der Speichelkomponente, die eine Zika-Virus-Übertragung verhindert. Aufgrund ihrer früheren Forschungsergebnisse in Spermaproben lag das besondere Augenmerk der Gruppe auf extrazellulären Vesikeln. „Mithilfe hochspezialisierter Methoden mussten die Vesikel aus dem Speichel aufgereinigt werden. Anschließend konnten wir ihre Zahl, Größe, Identität und antivirale Aktivität bestimmen“, erklärt Dr. Janis Müller, der diese Analysen bei einem Gastaufenthalt am renommierten Karolinska Institut in Stockholm durchgeführt hat.

Insgesamt zeigen die Virologinnen und Virologen, dass das Zika-Virus in der Lage ist, Zellen der Mundschleimhaut zu infizieren. Allerdings wird eine Infektion – ähnlich wie in menschlichem Sperma – durch die körpereigenen extrazellulären Vesikel im Speichel gehemmt. „Die Vesikel sorgen dafür, dass das Zika-Virus nicht an die Zielzelle andocken und diese infizieren kann“, erklären die Erstautoren Carina Conzelmann und Rüdiger Groß. Auf eine Infektion mit dem neuartigen Coronavirus hat dieser Abwehrmechanismus jedoch keinen Einfluss. Demnach scheint die Speichelübertragung beim Zika-Virus keine große Rolle zu spielen, möglicherweise aber bei SARS-CoV-2.

Somit haben die Virenforscherinnen und -forscher mit extrazellulären Vesikeln eine neue Komponente des menschlichen Immunsystems identifiziert, die ihre Wirkung offenbar in verschiedenen Körperflüssigkeiten entfaltet. Dieser Schutzmechanismus scheint sich spezifisch gegen Eigenschaften von Flaviviren (Zika-Virus, Dengue-Virus, West-Nil-Virus) zu richten. In weiteren Untersuchungen wollen die Forschenden ergründen, worauf dieser Abwehrmechanismus beruht.

Das Ergebnis der aktuellen Studie im „Journal of Extracellular Vesicles“ untermauert Berichte, wonach keine Übertragungen des Zika-Virus durchs Küssen bekannt sind – obwohl das infektiöse Virus im Speichel von Infizierten nachweisbar ist. Beim Verdacht einer Coronavirus-Infektion raten die Forschenden jedoch vom Küssen ab.

Die Untersuchungen sind im Zuge des Projekts Fight-nCoV zur Identifizierung antiviraler Wirkstoffe gegen SARS-CoV-2 sowie des Sonderforschungsbereichs 1279 („Nutzung des menschlichen Peptidoms zur Entwicklung neuer antimikrobieller und anti-Krebs Therapeutika“) gefördert worden. Dr. Janis Müller wurde zudem durch das „Eliteprogramm für Postdoktorandinnen und -doktoranden der Baden-Württemberg Stiftung“ zum Thema „Übertragung des Zika-Virus“ unterstützt sowie über seinen DFG-Erstantrag zur Erforschung von antiviralen Eigenschaften in Körperflüssigkeiten.

Wissenschaftliche Ansprechpartner:

Dr. Janis Müller: Tel.: 0731/500 65170, janis.mueller@uni-ulm.de

Originalpublikation:

Carina Conzelmann, Rüdiger Groß, Min Zou, Franziska Krüger, André Görgens, Manuela O. Gustafsson, Samir El Andaloussi, Jan Münch and Janis A. Müller: Salivary extracellular vesicles inhibit Zika virus but not SARS-CoV-2 infection. JOURNAL OF EXTRACELLULAR VESICLES 2020, VOL. 09, 1808281 https://doi.org/10.1080/20013078.2020.1808281

Quelle: IDW

(nach oben)


Die (un)sichtbare Dürre: TU Bergakademie Freiberg untersucht Auswirkungen auf Grundwasser und Wasserqualität

Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg

Eigentlich ist der Sommer 2020 laut Deutschen Wetterdienstes ein ganz normaler – weder zu trocken noch zu nass. Was sich jedoch aktuell vor allem in den tieferen Bodenschichten zeigt, ist die extreme Trockenheit der letzten Jahre. Die Folgen der vergangenen milden Winter und heißen Sommer waren bisher unsichtbar, sind aber jetzt besonders in Sachsen spürbar. Betroffen sind grundwassergespeiste Flüsse und Seen sowie der Wald. Was das für das Grundwasser und die Wasserqualität in deutschen Seen bedeutet, erklärt Prof. Dr. Traugott Scheytt von der TU Bergakademie Freiberg.

„Im Detail machen uns vor allem die sinkenden Grundwasserspiegel, die damit verbundenen Engpässe in der Trinkwasserversorgung und der Wasserqualität sowie die absterbenden Bäume große Sorgen“, erklärt Prof. Dr. Traugott Scheytt. Grund dafür ist die fehlende Grundwasserneubildung. „Immer mehr Wasser fließt aus den Seen und Flüssen ab und viel zu wenig strömt zu. Das hat nicht nur Auswirkungen auf den Wasserpegel, sondern auch auf die Wasserzusammensetzung. So können beispielsweise Nährstoffe wie Nitrat, Eisen oder Sulfat schneller einsickern und entziehen dem Grundwasser Sauerstoff. Dieser sauerstoffarme Zustrom kann die Wasserqualität in Seen und Flüsse nachhaltig beeinflussen und auch zum Absterben von Fischen und anderen Lebewesen führen. Ein Teufelskreis, wo doch gleichzeitig der Wasserverbrauch in Zeiten der Trockenheit besonders hoch ist.

„Ziel muss es sein, die sinkenden Vorräte wiederherstellen. Dafür untersuchen wir aktuell gemeinsam mit weiteren Partnern die Wechselwirkung zwischen Oberflächen- und Grundwasser, die Ursachen für den Sauerstoffmangel sowie mögliche Belüftungsmaßnahmen in ausgewählten Seen, wie dem Speicherbecken in Lohsa“, so Prof. Scheytt. Der Freiberger Professor hat im August 2018 die Professur für Hydrogeologie und Hydrochemie am Institut für Geologie der TU Bergakademie Freiberg übernommen.

Zudem ist er Sprecher des Zentrums für Wasserforschung an der TU Bergakademie Freiberg, in welchem die vorhandenen Kompetenzen zum Thema Wasser gebündelt werden und Wissenschaftler/innen verschiedener Fachbereiche an Projekten zu den Ursachen und Auswirkungen von Trockenheit und Überschwemmung forschen, aber auch zu möglichen Gegenmaßnahmen.

Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; Tel.: 03731-392775; Email: traugott.scheytt@geo.tu-freiberg.de

Weitere Informationen:
https://tu-freiberg.de/geo/hydro

Quelle: IDW

(nach oben)


Künstliche Intelligenz lernt kontinentale Hydrologie

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden.

Die komplexe Verteilung der kontinentalen Wassermassen in Südamerika wurde mit einer neuen Deep-Learning-Methode aus Satellitendaten bestimmt.
Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Da diese Daten jedoch nur die typischen großskaligen Massenanomalien enthalten, sind zunächst keine unmittelbaren Rückschlüsse auf kleinskalige Strukturen, wie etwa die tatsächliche Verteilung von Wassermassen in Flüssen und Nebenarmen, möglich. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden. Neu dabei ist die geschickte Kombination von Deep-Learning, hydrologischen Modellen und Erdbeobachtungen aus Gravimetrie und Altimetrie. Die Studie ist heute in der Fachzeitschrift Geophysical Research Letters erschienen.

Bislang ist nicht genau bekannt, wie viel Wasser ein Kontinent wirklich speichert. Die kontinentalen Wassermassen verändern sich zudem beständig, sie haben dadurch Auswirkungen auf die Erdrotation und sind Bindeglied des Wasserkreislaufes zwischen Atmosphäre und Ozean. Amazonas-Zuflüsse in Peru, beispielsweise, führen in manchen Jahren riesige Wassermengen, in anderen nur einen Bruchteil davon. Neben den Wassermassen der Flüsse und Binnengewässer, finden sich auch im Boden, Schnee und unterirdischen Speichern beträchtliche Wassermengen, die nur schwer direkt quantifiziert werden können.

Das Forscherteam um Erstautor Christopher Irrgang entwickelte nun eine neue Methode, um aus den grob-aufgelösten Satellitendaten Rückschlüsse auf die gespeicherten Wassermengen des südamerikanischen Kontinents zu ziehen. „Für das sogenannte Herunterskalieren nutzen wir ein faltendes neuronales Netzwerk, kurz CNN, in Verbindung mit einer neu entwickelten Trainingsmethode“, sagt Irrgang. „CNNs eignen sich besonders gut für die Verarbeitung räumlicher Erdbeobachtungen, da sie zuverlässig wiederkehrende Muster wie Linien, Kanten, oder komplexere Formen und Merkmale extrahieren können.“

Um die Verbindung zwischen kontinentalem Wasserspeicher und entsprechenden Satellitenbeobachtungen zu lernen, wurde das CNN (Convolutional Neural Network) mit Simulationsdaten über den Zeitraum 2003 bis 2018 eines numerischen hydrologischen Modells trainiert. Zusätzlich wurden Daten aus der Satellitenaltimetrie im Amazonasgebiet zur Validierung verwendet. Außergewöhnlich ist, dass sich dieses CNN kontinuierlich selbst verbessert und validiert, um möglichst genaue Aussagen über die Verteilung der Wasserspeicher zu treffen. „Dieses CNN vereint damit die Vorteile der numerischen Modellierung und hochpräziser Erdbeobachtungen“, so Irrgang.

Die Studie der ForscherInnen zeigte, dass die neue Deep-Learning-Methode insbesondere für die tropischen Regionen nördlich des -20. Breitengrades des südamerikanischen Kontinents, wo Regenwälder, ausgedehnte Oberflächengewässer und auch große Grundwasserbecken liegen, sehr verlässlich ist. Ebenso für den grundwasserreichen, westlichen Teil der Südspitze Südamerikas.

In Trocken- und Wüstenregionen funktioniert das Herunterskalieren weniger gut. Erklären lässt sich dies durch die vergleichsweise geringe Variabilität der dort ohnehin geringen Wasserspeicher, welche dementsprechend nur einen marginalen Effekt auf das Training des neuronalen Netzwerkes haben. Für das Amazonasgebiet jedoch konnten die ForscherInnen zeigen, dass die Vorhersage des validierten CNN genauer als das verwendete numerische Modell ist.

In Zukunft werden sowohl großräumige wie auch regionale Analysen und Vorhersagen der globalen kontinentalen Wasserspeicher dringend gebraucht. Die Weiterentwicklung numerischer Modelle und die Kombination mit innovativen Deep-Learning-Methoden werden dabei eine immer wichtigere Rolle spielen, um umfassende Einblicke in die kontinentale Hydrologie zu erhalten. Neben den rein geophysikalischen Untersuchungen ergeben sich vielfältige weitere Anwendungsmöglichkeiten. Es könnte zum Beispiel die Einwirkung des Klimawandels auf die kontinentale Hydrologie untersucht werden. Auch Stressfaktoren für Ökosysteme wie Dürren oder Überflutungen könnten besser identifiziert werden. Darüber hinaus würden derartige Analysen auch die Entwicklung von Wassermanagement-Strategien für landwirtschaftliche und urbane Regionen erleichtern.

Finanzierung:
Diese Studie wurde von der Helmholtz-Gemeinschaft sowie aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft durch das Projekt Advanced Earth System Modelling-Kapazität (ESM) finanziert.

Originalstudie: Irrgang, C., Saynisch-Wagner, J., Dill, R., Boergens, E., & Thomas, M. (2020). Self-validating deep learning for recovering terrestrial water storage from gravity and altimetry measurements. Geophysical Research Letters, 47, e2020GL089258.
https://doi.org/10.1029/2020GL089258

Medienkontakt:
Josef Zens
Leiter Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1040
E-Mail: josef.zens@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Christopher Irrgang
Sektion 1.3 Erdsystem-Modellierung
Helmholtz-Zentrum Potsdam
Deutsches GeoforschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49-331-288-2847
Email: irrgang@gfz-potsdam.de

Originalpublikation:
https://doi.org/10.1029/2020GL089258

Weitere Informationen:
https://www.gfz-potsdam.de/medien-kommunikation/meldungen/detailansicht/article/…

Quelle: IDW

(nach oben)


TU intern: Ein Hundeleben und sein CO2-Fußabdruck

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Die erste Ökobilanz des Haustieres offenbart signifikante Auswirkungen auf die Umwelt
Etwa 8,2 Tonnen CO2 stößt ein 15 Kilogramm schwerer Hund im Laufe von 13 Lebensjahren aus. Das ergab die Ökobilanz eines durchschnittlichen Hundes, die von Kim Maya Yavor und Dr. Annekatrin Lehmann unter der Leitung von Prof. Dr. Matthias Finkbeiner am Fachgebiet Sustainable Engineering durchgeführt wurde. „Die 8,2 Tonnen CO2 entsprechen 13 Hin- und Rückflügen von Berlin nach Barcelona oder fast der Menge, die bei der Produktion eines Luxusautos der Mittelklasse, wie zum Beispiel eines Mercedes C250, emittiert wird“, sagt Prof. Dr. Matthias Finkbeiner. Außerdem scheidet so ein Durchschnittshund über seine 13 Lebensjahre rund eine Tonne Kot und knapp 2000 Liter Urin aus – mit signifikanten Folgen für die Umwelt. „Dieses Ausmaß hat uns überrascht“, so Finkbeiner.

Ein Novum
Es ist die erste Ökobilanz, die für den kompletten Lebensweg eines Hundes erstellt worden ist – vom Tierfutter bis zu den Exkrementen. Die Wissenschaftler legten für ihre Berechnungen ein Gewicht von 15 Kilogramm und eine Lebensdauer von 13 Jahren zugrunde. In die Berechnungen sind die Rohstoffe für das Futter und Ressourcen für dessen Herstellung sowie die Ressourcen für die Verpackung des Futters und seines Transportes genauso eingeflossen wie eben die Umweltauswirkungen der Exkremente, die Produktion der Plastiktüten für deren Sammlung und die Ressourcen für die Straßenreinigung – also alle Stoff- und Energieströme, die in einem Produkt stecken und auf die Umwelt wirken. Wenn beispielsweise in der Fleischproduktion für das Hundefutter Soja aus Brasilien eingesetzt wurde, kam das mit in die Bilanz. „Dass unsere Ökobilanz auf den Umweltauswirkungen des gesamten Tierfutters, das ein Hund im Laufe seines Lebens frisst, basiert, aber auch auf den Umweltauswirkungen von Urin und Kot ist ein Novum“, sagt Matthias Finkbeiner. Gerade die Auswirkungen des Eintrages von Kot und Urin in die Umwelt seien bislang noch von keiner Ökobilanz erfasst worden.

Im Kot: Phosphor, Stickstoff, Schwermetalle
Und es sind das Tierfutter und die Exkremente des Haustieres, die die Umwelt am heftigsten belasten. „Wir haben für unsere Ökobilanz eines durchschnittlichen Hundes 15 Indikatoren, wir sprechen auch von Umweltwirkungskategorien, untersucht. Dazu zählen unter anderem der Klimawandel, Ozonabbau, Smog, die Eutrophierung von Gewässern, Versauerung von Böden, die Süßwasser-Ökotoxizität und die Landnutzung. Bei fast allen Parametern macht das Hundefutter mit circa 90 Prozent den Löwenanteil der Belastungen aus. Beim Indikator Süßwasser-Eutrophierung resultieren die Schäden allerdings zu etwa 90 Prozent aus dem Urin und Kot des Hundes. Die Süßwasserökotoxizität (Vergiftung) wird zur Hälfte durch den Kot verursacht. „Da es zum Hundekot keine Stoffdaten gab, mussten wir entsprechende Analysen in Auftrag geben, um die ausgeschiedenen Mengen an Phosphor, Stickstoff und Schwermetallen zu ermitteln. Phosphor und Stickstoff haben erheblichen Einfluss auf die Eutrophierung, also die unerwünschte Nährstoffzunahme in den Gewässern, die Schwermetalle auf die Vergiftung des Bodens“, so Finkbeiner. Vor dem Hintergrund dieser Zahlen konstatieren Kim Maya Yavor, Annekatrin Lehmann und Matthias Finkbeiner in ihrer Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“, dass die Sammlung und geregelte Entsorgung des Hundekots ein wichtiger Beitrag wären, die Natur zu schonen. „Die zusätzliche Umweltbelastung, die durch die Herstellung des Plastiksäckchens für den Kot entsteht, ist deutlich geringer als der Schaden, der entsteht, wenn der Kot direkt in die Umwelt eingetragen wird. Auch das sagen unsere Zahlen aus.“

Hundefutter aus der Massentierhaltung
Es sind die Größenordnungen, die die Wissenschaftler*innen in Erstaunen versetzten, als sie die Ergebnisse der Datenauswertung vor sich sahen. „Und wenn im Zusammenhang mit Corona zum x-ten Male die industrielle Fleischproduktion am Pranger steht, dann muss auch zur Kenntnis genommen werden, dass genau mit diesem industriell hergestellten Fleisch eines der liebsten Haustiere der Deutschen gefüttert wird. Das Fleisch für die Hundefutterproduktion kommt wohl weder vom Biohof in der Uckermark noch von den bayerischen Almwiesen. Es stammt aus der Massentierhaltung mit den bekannten sozialen und ökologischen Auswirkungen“, sagt Finkbeiner. Und noch eine Zahl nennt er, um die zunehmende Dimension der Umweltauswirkungen der Hunde zu verdeutlichen: In Deutschland hat sich die Anzahl der Hunde seit dem Jahr 2000 mehr als verdoppelt. Statt der fünf Millionen im Jahr 2000 sind es aktuell 10,1 Millionen Hunde im Jahr 2019. In den letzten fünf Jahren sind im Schnitt sogar jedes Jahr mehr als 650.000 Hunde dazugekommen.

Dackel ist besser als Dogge
Die 8,2 Tonnen CO2-Ausstoß in 13 Jahren ergeben einen jährlichen CO2-Ausstoß von 630 Kilogramm. „Setzt man diese 630 Kilogramm CO2 ins Verhältnis zu den zwei Tonnen, die jeder Mensch pro Jahr emittieren kann, weil sie laut Weltklimarat für das Klima noch erträglich sind, dann muss sich jeder Hundebesitzer vor Augen führen, dass nahezu ein Drittel seines CO2-Budgets bereits vom Hund verbraucht wird.“

Finkbeiner und seine Kolleginnen haben die Ökobilanz auch für einen 7,5 Kilogramm schweren und acht Jahre alten Hund (drei Tonnen CO2-Ausstoß in acht Jahren) sowie für einen 30 Kilogramm schweren und 18 Jahre alten Hund (19 Tonnen CO2-Ausstoß in 18 Jahren) berechnet. Ihre Schlussfolgerung: Wie auch beim Auto gilt – ein kleiner Hund ist für das Klima und die Umwelt besser als ein großer. Also wenn schon Hund, dann lieber Dackel als Dogge.

Link zur Open-Source-Hunde-Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“: https://www.mdpi.com/2071-1050/12/8/3394

Die Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“ resultiert aus den Forschungen zur Ökobilanz eines Menschen, die ebenfalls am Fachgebiet Sustainable Engineering erstellt wurde. Mehr dazu unter https://www.tu.berlin/ueber-die-tu-berlin/profil/pressemitteilungen-nachrichten/…

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Matthias Finkbeiner
TU Berlin
Fachgebiet Sustainable Engineering
E-Mail: matthias.finkbeiner@tu-berlin.de

Quelle: IDW

(nach oben)


Plastikpartikel gelangen tief in den Boden

Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg

Plastikabfall gelangt in viel tiefere Schichten des Bodens als bislang angenommen. Das haben Marburger Geographen herausgefunden, indem sie die Lahnauen in Mittelhessen untersuchten. Natürliche Ablagerungsprozesse allein können das Eindringen in tiefe Schichten nicht erklären, schreiben die Wissenschaftler in der aktuellen Ausgabe der Fachzeitschrift „Environmental Pollution“.

Dass Plastikreste die Meere vermüllen, hat sich herumgesprochen – schätzungsweise erreichen jedes Jahr mehr als 5 Millionen Tonnen Kunststoffabfall die Ozeane, das entspricht fast dem hundertfachen Gewicht des Luxusdampfers „Titanic“. Doch die Verschmutzung macht nicht am Meeresufer Halt. Wenn der Müll in Flüssen bis zu deren Mündung ins Meer treibt, passiert er Auenlandschaften und Überschwemmungsgebiete. „Es liegt nahe, dort eine systematische Anhäufung von Plastikpartikeln zu vermuten“, sagt der Marburger Geograph Collin Weber, einer der beiden Verfasser der aktuellen Studie.

Wieviel Kunststoff findet sich in den Böden von Flussauen? Wie ist er räumlich verteilt, was sind die Ursachen dafür? Diese Fragen untersuchten der Marburger Geograph Professor Dr. Christian Opp und sein Doktorand Collin Weber, indem sie an verschiedenen Stellen entlang des Flusses Lahn in Mittelhessen Bohrungen anstellten, um Bodenproben zu entnehmen. Sie gewannen aus einer Tiefe bis zu zwei Metern insgesamt 120 Proben, die sie nach Kunststoff durchsuchten.

„Nach unserer Kenntnis ist dies die erste Untersuchung, die Plastik in Bodenprofilen bis zwei Meter unter der Oberfläche aufspürt“, erklärt Studienleiter Christian Opp. Die Wissenschaftler unterschieden die gefundenen Partikel nach ihrer Größe: Grobes Mikroplastik misst zwei bis fünf Millimeter, während die Größe von Mesoplastik zwischen einem halben und zweieinhalb Zentimetern liegt.

Im Schnitt fanden die Forscher zwei Kunststoffteilchen pro Kilogramm Erde, wobei das Maximum bis zu viermal höher liegt. Alles in allem kommt in den Lahnauen weniger Plastik vor als in Flüssen, Flussbetten und Ackerböden. Von der Quelle bis zur Mündung in den Rhein nimmt der Plastikgehalt zu. Die häufigste Kunststoffsorte ist Polyethylen, wie es vor allem für Verpackungen verwendet wird, gefolgt von Polypropylen und Polyamid. „Diese drei gehören zu den gebräuchlichsten Kunststoffarten, die den größten Teil der Kunststoffproduktion ausmachen“, schreiben die Autoren.

Man sieht den Partikeln an, wenn sie lange im Boden liegen – sie sind dann ausgeblichen und teilweise abgebaut; frisches Plastik findet sich eher in Äckern als auf Wiesen oder im Uferbereich. „Das legt nahe, dass es durch die Landwirtschaft zu einem ständigen Neueintrag von Kunststoff kommt“, legt Weber dar.

Zwar enthält die oberste Bodenschicht die meisten Plastikpartikel, jedoch kommt auch bis zu einer Tiefe von mehr als 80 Zentimetern noch vereinzelt Kunststoff vor – insbesondere in Ufernähe; aber auch unter Weideland erreicht Kunststoff Tiefen von gut über einem halben Meter. „Das ist tiefer, als bisher angenommen wurde“, hebt Weber hervor. Das natürliche Ablagerungsgeschehen alleine reiche nicht aus, um das Vorkommen in derart tiefen Schichten zu erklären, betonen die Autoren. „Plastikpartikel können auch vertikal verlagert werden!“, konstatiert Opp. Bei Ackerland sammle sich der Kunststoff hingegen wenige Handbreit unter der Oberfläche, weil der verdichtete Boden ein tieferes Eindringen verhindere.

Christian Opp lehrt Geographie an der Philipps-Universität. Das Hessische Landesamt für Naturschutz, Umwelt und Geologie förderte die Forschungsarbeit finanziell.

Originalveröffentlichung:
Collin Joel Weber & Christian Opp: Spatial patterns of mesoplastics and coarse microplastics in floodplain soils as resulting from land use and fluvial processes, Environmental Pollution 2020, DOI: https://doi.org/10.1016/j.envpol.2020.115390

Weitere Informationen:
Ansprechpartner:
Collin Joel Weber,
Arbeitsgruppe Boden- und Hydrogeographie
Tel: 06421-28-24395
E-Mail: collin.weber@geo.uni-marburg.de

Quelle: IDW

(nach oben)


Niedriger Blutdruck: Harmlos oder bedenklich für das Herz?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Wann man zum Arzt gehen sollte und welche Menschen besonders häufig betroffen sind, erläutert Experten-Ratgeber
Die Beschwerden sind schwer von Befindlichkeitsstörungen zu unterscheiden, der Leidensdruck kann hoch sein: Schwindel, Benommenheit, Flimmern vor den Augen, morgendliche Müdigkeit, Antriebsmangel, Konzentrations- und Leistungsschwäche. Auch kalte Hände und Füße, ein Gefühl des Luftmangels, Herzklopfen und innere Unruhe können auftreten. Einen niedrigen Blutdruck durch körperliche Veranlagung, der nicht auf eine Vorerkrankung zurückgeht, haben in Deutschland bis zu drei Millionen Menschen. „Viele Betroffene fühlen sich von Beschwerden wie Müdigkeit oder Herzrasen beeinträchtigt“, berichtet Prof. Dr. med. Thomas Meinertz vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. Diese Form des niedrigen Blutdrucks tritt (bis zur Menopause) häufiger bei jüngeren Frauen als bei älteren Personen auf. Bekanntlich kann ein zu hoher Blutdruck gefährlich für Herz und Gefäße werden bis hin zum Herzinfarkt und Schlaganfall, besonders dann, wenn der Hochdruck unentdeckt und unbehandelt bleibt. Deshalb rät die Herzstiftung ab 35 Jahren zur regelmäßigen Blutdruckmessung beim Hausarzt (Gesundheits-Checkup alle zwei Jahre). „Demgegenüber ist der niedrige Blutdruck für das Herz in aller Regel unbedenklich, wenn ihm keine Krankheiten zugrunde liegen“, betont der Kardiologe und Pharmakologe aus Hamburg. „Ist aber der Leidensdruck wegen der Beschwerden groß, sollten Betroffene zum Arzt, um organische Ursachen auszuschließen.“
Eine Hypotonie, wie der niedrige Blutdruck in der Fachsprache genannt wird, liegt vor, wenn der systolische (obere) Blutdruckwert unter 110 mmHg liegt. Dieser Grenzwert ist unabhängig von der Höhe des diastolischen (unteren) Blutdruckwerts. Über die Formen der Hypotonie – chronische und akute wie der plötzliche Blutdruckabfall -, wie und wann er therapiert werden sollte, informiert der Experten-Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“, der bei der Herzstiftung per Telefon unter 069 955128-400 kostenfrei angefordert werden kann. Unter www.herzstiftung.de erhalten Betroffene Informationen zu Diagnose und Therapie von niedrigem Blutdruck und Bluthochdruck.

Wann und wie den niedrigen Blutdruck behandeln?
Für eine Behandlung des niedrigen Blutdrucks ist für Mediziner von entscheidender Bedeutung, ob ihm organische Ursachen oder Krankheiten zugrunde liegen. Das können eine Unterfunktion der Nebenniere (Morbus Addison), der Schilddrüse oder der Hirnanhangdrüse, eine Blutarmut (Anämie), eine Erkrankung des vegetativen Nervensystems, Herzklappenfehler oder eine schwere Herzschwäche sein. Hier ist die Hypotonie das Symptom einer Krankheit beziehungsweise einer organischen Fehlfunktion, die gegebenenfalls medikamentös oder operativ behandelt werden muss.
Bei niedrigem Blutdruck durch körperliche Veranlagung ist die Prognose für die Betroffenen gut. Eine Behandlung ist nur bei Beschwerden wie den oben genannten notwendig, nicht medikamentös, sondern durch einfache Maßnahmen wie:
– eine erhöhte Kochsalzzufuhr (z. B. kräftig nachsalzen oder kräftige Fleisch- oder Gemüsebrühe), denn das Salz bindet Wasser, erhöht das Blutvolumen und somit auch den Blutdruck
– eine ausreichende Flüssigkeitsaufnahme (2 bis 2,5 Liter am Tag)
– körperliches Training (Ausdauersport, Radfahren, Schwimmen, Joggen)
– Hydrotherapie (Wechselduschen, Kneippkuren, Trockenbürsten, Sauna)
– Kraftgymnastik (Liegestütze, Kniebeugen, Hantelübungen); die Muskulatur der Beine soll gekräftigt werden, um die Pumpfunktion der Venen zu verbessern.
– ausreichenden Nachtschlaf, für das Aufstehen (langsam!) muss genügend Zeit eingeplant werden
– einen Aufenthalt in klimatischen Reizzonen (Nordsee, Hochgebirge)

„Ein großes Glas Wasser vor dem Aufstehen kann den Blutdruck erhöhen. Bei längerem Stehen soll die Wadenmuskulatur bewegt werden, um Ohnmachten vorzubeugen. Und auf Alkohol sollte man weitgehend verzichten“, rät Meinertz. Auch ausgedehnte Krampfadern können die Neigung zu niedrigem Blutdruck verstärken. Für eine bessere Blutzirkulation in den Beinen sind diesen Personen Stützstrümpfe zu empfehlen. Vorübergehend kann es bei jedem Menschen zu niedrigem Blutdruck kommen, etwa bei längerer Hitzeeinwirkung, nach Infektionskrankheiten oder Durchfall wegen des Flüssigkeitsverlusts und nach längerer Bettruhe.

Niedriger Blutdruck bei älteren Menschen
Kommt es beim Wechsel vom Liegen oder Sitzen zum Stehen oder bei längerem Stehen zu einem Blutdruckabfall mit Schwindel, Benommenheit und Gangunsicherheit, liegt meist ein sogenannter orthostatischer niedriger Blutdruck vor. Zur Vermeidung dieser orthostatischen Form der Hypotonie sollte ein abrupter Wechsel vom Liegen oder Sitzen in die stehende Position vermieden werden. „Der Lagewechsel sollte schrittweise und langsam erfolgen“, rät Meinertz. Bei älteren Hochdruckkranken mit Beschwerden wie Schwindel und Benommenheit kann der orthostatische niedrige Blutdruck die Ursache der Beschwerden sein, möglicherweise durch Medikamente ausgelöst. „Das können Diuretika sein, die die Wasserausscheidung verstärken, Blutdrucksenker wie Alphablocker, Psychopharmaka, Schlafmittel oder Medikamente gegen Parkinson“, erklärt Meinertz. Wenn nicht, sollten Betroffene dem niedrigen Blutdruck durch Maßnahmen wie oben entgegenwirken, also: erhöhte Kochsalzzufuhr und Flüssigkeitsaufnahme, regelmäßiges körperliches Training, Wechselduschen usw. Zusätzlich sollte beim Schlafen in der Nacht das Kopfende des Bettes um 15 cm hochgestellt werden, um den Patienten an die aufrechte Körperhaltung zu gewöhnen. „Der orthostatische niedrige Blutdruck tritt häufig bei älteren Menschen mit niedrigem und mit hohem Blutdruck auf und kann zu Stürzen mit all seinen Folgen führen.“

Bildmaterial und Rezensionsexemplar anzufordern unter: presse@herzstiftung.de

Tipps und kostenfreie Informationen für Betroffene
Der kostenfreie Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“ (8 S.) informiert über die unterschiedlichen Formen des niedrigen Blutdrucks, die häufigsten Symptome und die Möglichkeiten der Therapie. Bestellung per Tel. 069 955128-400 oder E-Mail: bestellung@herzstiftung.de

Kardiologen raten zum Blutdruck-Pass:
Der kostenfreie Blutdruck-Pass zur Protokollierung der Blutdruckwerte der Herzstiftung kann unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de angefordert werden.

2020
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Deutsche Herzstiftung (Hg.), Klaus D., Niedriger Blutdruck: Ursachen und Therapie, Frankfurt a M. 2020

Weitere Informationen:
http://www.herzstiftung.de/ihre-herzgesundheit/gesund-bleiben/bluthochdruck/blut… – Infos zum Thema Blutdruck und -messung

Anhang
PM_DHS_Niedriger-Blutdruck-Ursachen-Therapien_2020-08
https://idw-online.de/de/attachment80631

Quelle: IDW

(nach oben)


Veganismus: Vitamin B12 wird gut ergänzt, Jod ist das Sorgenkind

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Studie des Bundesinstituts für Risikobewertung zeigt Unterschiede zwischen veganer und fleischhaltiger Ernährungsweise

Wer sich vegan ernährt, hat ein erhöhtes Risiko für einen Jodmangel. Darauf deuten Ergebnisse eines Forschungsvorhabens des Bundesinstituts für Risikobewertung (BfR) hin. In dem Studienprojekt „Risiken und Vorteile der veganen Ernährung“ (RBVD) untersuchte ein BfR-Forschungsteam bei 36 vegan und 36 Mischkost essenden Personen die Nährstoffversorgung. Kein wesentlicher Unterschied zeigte sich in Bezug auf Vitamin-B12, das bei beiden Gruppen in etwa dem gleichen Maß ausreichend im Blut vorhanden war. Da Vitamin-B12 in einer für den Menschen verfügbaren Form fast nur in tierischen Lebensmitteln vorkommt, könnte die Versorgung bei den sich vegan ernährenden Teilnehmenden an der Einnahme von Nahrungsergänzungsmitteln liegen. „Diese Studie ermöglicht es, die vegane Ernährung in Bezug auf eine Vielzahl von Vitaminen und Spurenelementen mit einer Mischkost zu vergleichen“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Bei beiden untersuchten Ernährungsformen hapert es bei der Jodversorgung. Hierbei ist die Unterversorgung bei der veganen Variante jedoch deutlich ausgeprägter.“

Die Studienergebnisse wurden jetzt im Deutschen Ärzteblatt veröffentlicht:
https://www.aerzteblatt.de/pdf.asp?id=215078

In der RBVD-Studie analysierte das BfR-Forschungsteam Blut- und Urinproben und wertete Lebensstil-Fragebögen und Ernährungsprotokolle aus. Von den teilnehmenden Personen (pro Gruppe jeweils 18 Frauen und Männer im Alter von 30-60 Jahren) nahmen nahezu alle sich vegan ernährenden und ein Drittel der Mischkost bevorzugenden Menschen unterschiedliche Nahrungsergänzungsmittel (Supplemente) ein.

Besonders auffällig waren die Studienergebnisse in Bezug auf das Spurenelement Jod. Die in Urinproben gemessene Jodausscheidung gibt Aufschluss darüber, wie gut der Körper mit dem Spurenelement versorgt ist. Die Mehrzahl der Teilnehmenden war unterversorgt. Der Mangel war bei den Veganerinnen und Veganern deutlich ausgeprägter – bei einem Drittel von ihnen lag der Wert unterhalb von 20 Mikrogramm pro Liter (μg/L), dem von der Weltgesundheitsorganisation (WHO) definierten Grenzwert, ab dessen Unterschreitung eine schwere Unterversorgung besteht. Doch zeigten sich bei veganer Ernährung auch gesundheitliche Vorteile wie eine höhere Aufnahme von Ballaststoffen und niedrigere Cholesterinwerte. Bei beiden Ernährungsstilen gab es bei ca. 10 % der Teilnehmenden Hinweise auf einen Eisenmangel.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: IDW

(nach oben)


Neues Verfahren: Steroidhormone effizient aus Wasser entfernen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichten sie in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)

Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie nun besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichtet das Team in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)

Die Menschen mit sauberem Wasser zu versorgen, gehört weltweit zu den größten Herausforderungen des 21. Jahrhunderts. Häufig ist das Trinkwasser mit Mikroschadstoffen belastet. Dazu gehören auch Steroidhormone, die beispielsweise als Arzneistoffe und Verhütungsmittel eingesetzt werden. Ihr Anteil in einem Liter Wasser, in das behandelte Abwässer eingeleitet werden, beträgt zwar nur einige Nanogramm, aber bereits in dieser geringen Menge können sie der menschlichen Gesundheit schaden und sich auf die Umwelt auswirken. Wegen der niedrigen Konzentration und der winzigen Größe der Moleküle sind die Steroidhormone nicht nur schwer nachzuweisen, sondern auch schwierig zu beseitigen – konventionelle Klärtechniken reichen dazu nicht aus.

Richtwert der Europäischen Kommission wird erreicht
Ein innovatives Verfahren zur schnellen und energieeffizienten Eliminierung von Steroidhormonen aus dem Abwasser hat am KIT Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT), mit ihrem Team entwickelt. Ihre Technologie verbindet eine Polymermembran mit aktiviertem Kohlenstoff. „Zunächst wird das Wasser durch die semipermeable Membran gepresst. Diese filtert größere Verunreinigungen und Mikroorganismen heraus“, erklärt Schäfer. „Dann fließt das Wasser durch die dahinter liegende Schicht aus Kohlenstoffpartikeln, welche die Hormonmoleküle binden.“ Am IAMT haben Forschende dieses Verfahren nun zusammen mit dem Filterhersteller Blücher GmbH in Erkrath weiterentwickelt und verbessert. Kolleginnen und Kollegen am Institut für Funktionelle Grenzfläche (IFG), am Institut für Angewandte Materialien (IAM) und an der Karlsruhe Nano Micro Facility (KNMF) des KIT haben die Weiterentwicklung durch Materialcharakterisierung unterstützt. Darüber berichten die Wissenschaftlerinnen und Wissenschaftler in der Zeitschrift Water Research. „Unsere Technologie ermöglicht es nun, den von der Europäischen Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol pro Liter zu erreichen“, berichtet die Verfahrenstechnik-Professorin Schäfer.

Auf Partikelgröße und Sauerstoffgehalt kommt es an
Die Wissenschaftlerinnen und Wissenschaftler untersuchten die Vorgänge an der Aktivkohleschicht genauer und verwendeten modifizierte Kohlenstoffpartikel (polymer-based spherical activated carbon – PBSAC). „Auf den Durchmesser der Kohlenstoffpartikel kommt es an“, erläutert Matteo Tagliavini vom IAMT, Erstautor der aktuellen Publikation. „Je kleiner der Partikeldurchmesser, desto größer die äußere Oberfläche der Aktivkohleschicht, die für die Adsorption der Hormonmoleküle verfügbar ist.“ Die Forscherinnen und Forscher verkleinerten in einer zwei Millimeter dicken Aktivkohleschicht den Partikeldurchmesser von 640 auf 80 Mikrometer und entfernten damit 96 Prozent des im Wasser enthaltenen Östradiols, des physiologisch wirksamsten Östrogens. Durch Erhöhen des Sauerstoffgehalts in der Aktivkohle gelang es, die Adsorptionskinetik noch weiter zu verbessern und mehr als 99 Prozent des Östradiols zu entfernen. „Das Verfahren erlaubt einen hohen Wasserdurchfluss bei niedrigem Druck, arbeitet energieeffizient, filtert viele Moleküle heraus, erzeugt keine schädlichen Beiprodukte und lässt sich flexibel in Vorrichtungen verschiedener Größe einsetzen – vom heimischen Wasserhahn bis hin zu Industrieanlagen“, so Schäfer.

Originalpublikation:
Matteo Tagliavini, Peter Georg Weidler, Christian Njel, Julia Pohl; Dennis Richter, Bertram Böhringer, Andrea Iris Schäfer: Polymer-based spherical activated carbon – ultrafiltration (UF-PBSAC) for the adsorption of steroid hormones from water: material characteristics and process configuration. Water Research, 2020. DOI: 10.1016/j.watres.2020.116249
Abstract unter https://doi.org/10.1016/j.watres.2020.116249

Weiterer Kontakt:
Sandra Wiebe, Redakteurin/Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Anhang

Neues Verfahren: Steroidhormone effizient aus Wasser entfernen
https://idw-online.de/de/attachment80628

Quelle: IDW

(nach oben)


Sicher musizieren in Zeiten von Corona

Claudia Weinreich Universitätskommunikation
Bauhaus-Universität Weimar

Seit dem 31. August sind Musik-und Theaterinszenierungen in Thüringen auch in Innenräumen wieder gestattet. Welche Hygieneschutzmaßnahmen bei Proben und öffentlichen Auftritten wirken, zeigt ein mehrstufiges Experiment der Professuren Bauphysik und Industriedesign an der Bauhaus-Universität Weimar in Kooperation mit der Thüringen Philharmonie Gotha-Eisenach sowie der Staatskapelle Weimar.

Das Singen sowie das Spielen von Blasinstrumenten stellt Musikerinnen und Musiker in Anbetracht der COVID-19-Pandemie vor große Herausforderungen: Um sich und andere zu schützen, gehören Desinfektion, häufiges Lüften und Abstand halten mittlerweile zu den Grundpfeilern eines jeden Hygienekonzeptes. Doch Musizieren mit Maske? Eine bedrückende Vorstellung, nicht nur für Konzertbesucherinnen und -besucher:

»Mund-Nasen-Bedeckungen helfen die Ausbreitung von infektiöser Atemluft zu mindern, beim Singen leidet jedoch die Klangqualität und für das Spielen von Blasinstrumenten sind diese gänzlich ungeeignet«, gibt Prof. Andreas Mühlenberend von der Professur Industriedesign an der Bauhaus-Universität Weimar zu bedenken. Um dennoch sicher zu musizieren, könnten spezielle Filter für Blechblasinstrumente sowie der »BauhausUniVisor«, beide unter seiner Leitung entwickelt und getestet, eingesetzt werden.

Den entscheidenden Impuls lieferte Prof. Gernot Süßmuth, Konzertmeister der Staatskapelle Weimar, der dringend nach einer praktikablen Lösung für das Problem suchte. Bereits vier Wochen später präsentierte Prof. Mühlenberend die ersten Prototypen: Die Filter bestehen aus herkömmlichem Zellstoff, welcher in eine wabenartige Form geschnitten und mit Hilfe von Klebeband vor dem Schallbecher des jeweiligen Blasinstrumentes bzw. vor dem Mundstück der Querflöte locker angebracht wird. Informationen und Schnittmuster stehen kostenfrei als Download zur Verfügung. Auch die Herstellungsanleitung des Visiers ist nach dem Prinzip des »Open Design« dank Prof. Jason M. Reizner (Bauhaus Form + Function Lab) über bffl.io frei verfügbar.

Luftausstoß reicht über einen Meter in den Raum
Die Wirksamkeit der prototypischen Filter sowie des »BauhausUniVisor« wurde zuvor in einem mehrstufigen Experiment an der Professur Bauphysik belegt: Mithilfe des Schlierenspiegels sowie des Background Oriented Schlieren (BOS) Verfahrens untersuchten die Weimarer Forscherinnen und Forscher, wie sich die Atemluft beim Singen und Musizieren – mit und ohne Maske bzw. Filter – ausbreitet. In Zusammenarbeit mit der Thüringen Philharmonie Gotha-Eisenach und der Staatskapelle Weimar wurden verschiedene Holz- und Blechblasinstrumente sowie der Gesang eines Baritons und einer Sopranistin getestet. Dabei zeigte sich: Wie stark sich die Atemluft ausbreitet, hängt nicht nur von der Art des Instruments, sondern zugleich von der individuellen Spiel- bzw. Gesangstechnik sowie den physischen Eigenschaften der Musikerinnen und Musiker ab. Bis zu maximal etwa 1,1 Meter weit reichte die Atemluft beim Musizieren in den Raum. Besonders ausgeprägt waren der Atemausstoß beim Spielen von Querflöte (über das Mundstück geblasene Luft), Klarinette (am Mundstück entweichende Nebenluft), Oboe und Fagott (Abatmen zwischen den Phrasen) sowie beim Singen.

Filter reduzieren Luftströmung beim Musizieren
Durch den Einsatz eines einfachen Filters wird die Reichweite der Atemluft, die beim Spielen der Instrumente weit in den Raum geführt wird, stark reduziert. Besonders deutlich war der Effekt beim Querflötenspiel zu beobachten: Mithilfe des Zellstofffilters konnte die über das Mundstück geblasene Luft von 100 auf weniger als 15 cm Reichweite reduziert werden ohne akustische Einbußen zu verzeichnen. »Auch beim Spielen der Blechblasinstrumente war durch den Gebrauch der Filter nahezu kein Unterschied in der Klangausformung zu hören, weshalb diese mindestens während der Proben zum Einsatz kommen könnten«, schlussfolgert Lia Becher von der Professur Bauphysik, welche die Experimente an der Bauhaus-Universität Weimar leitete.

Diese Filter seien jedoch nur bei Blechblasinstrumenten sinnvoll, da hier die gesamte Atemluft aus dem Schallbecher entweicht, so die Forscherin weiter. Beim Spielen von Holzblasinstrumenten tritt die Atemluft hingegen auch aus den Tonlöchern und teilweise am Mundstück aus. Eine Ausnahme zum Einsatz des Filters bildet die Querflöte, da bei dieser ein Großteil der Atemluft über das Mundstück geblasen wird. Der Filter kann hier am Kopfstück montiert werden, um die Ausbreitung der über die Anblaskante geblasenen Luft zu reduzieren.

Auch Mund-Nasen-Bedeckungen sowie der »BauhausUniVisor« hatten beim Singen nachweislich einen eindämmenden Effekt auf die ausgestoßene Atemluft. Allerdings wurde der Ton hierbei gedämpft, weshalb diese ausschließlich für Proben geeignet seien, lautet das Fazit des Experiments.

Über die Messverfahren
Die Schlierenverfahren (Schlierenspiegel und BOS) sind optische Methoden zur Visualisierung und Messung von Raumluftströmungen. Bei diesen Verfahren werden Dichteunterschiede in der Luft visualisiert, welche im Fall der Untersuchungen auf Unterschiede in Lufttemperatur, -druck oder -feuchte zurückzuführen sind. Zu beachten ist, dass mit den vorgestellten Schlierenverfahren keine Aussagen zur Verbreitung von Tröpfchen oder Aerosolen getroffen werden können. Die dargestellten Auswertungen können demnach nur herangezogen werden, um zu ermitteln, wie weit und in welchem Ausmaß die – möglicherweise infektiöse – Atemluft beim Singen und Spielen der Instrumente unmittelbar in den Raum transportiert wird. Weiterhin muss der Winkel berücksichtigt werden, in dem das jeweilige Instrument gespielt wird, um einschätzen zu können, in welche Richtung die Luft aus dem Schallbecher entweicht.

Wissenschaftliche Ansprechpartner:
Prof. Andreas Mühlenberend, Bauhaus-Universität Weimar, Professur Industriedesign, E-Mail: andreas.muehlenberend@uni-weimar.de
Prof. Dr.-Ing. Conrad Völker, Bauhaus-Universität Weimar, Professur Bauphysik, E-Mail: conrad.voelker@uni-weimar.de

Originalpublikation:
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…

Weitere Informationen:

https://vimeo.com/431505952
https://vimeo.com/445131873

Quelle: IDW

(nach oben)


EAST – AFNET 4 Studie: Frühe rhythmuserhaltende Therapie verbessert Aussichten bei Vorhofflimmern

Dr. Angelika Leute Geschäftsstelle
Kompetenznetz Vorhofflimmern e.V. (AFNET)

Patienten mit neu diagnostiziertem Vorhofflimmern profitieren von einer frühen rhythmuserhaltenden Therapie. Das hat die Studie EAST – AFNET 4 herausgefunden, in der 2789 Patienten behandelt und fünf Jahre lang beobachtet wurden. Eine frühe rhythmuserhaltende Therapie mit Antiarrhythmika und/oder Katheterablation reduzierte im Vergleich zur üblichen Behandlung kardiovaskuläre Todesfälle, Schlaganfälle und durch Verschlechterung einer Herzinsuffizienz oder akutes Koronarsyndrom bedingte Krankenhausaufenthalte. Die Studie wurde heute beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) vorgestellt [1,2].

EAST – AFNET 4 ist eine europaweite klinische Studie, die vom Kompetenznetz Vorhofflimmern e.V. (AFNET) in Kooperation mit der Europäischen Rhythmologen-Vereinigung (EHRA) durchgeführt wurde. EAST steht für Early treatment of Atrial fibrillation for Stroke prevention, auf Deutsch: frühe Behandlung von Vorhofflimmern zur Verhinderung von Schlaganfällen.

Der wissenschaftliche Leiter der EAST – AFNET 4 Studie und Vorstandsvorsitzende des AFNET, Prof. Paulus Kirchhof, Universitäres Herzzentrum Hamburg und Universität Birmingham, fasst die wesentlichen Ergebnisse der Studie zusammen: „Eine rhythmuserhaltende Therapie, die zügig begonnen wurde, sobald Vorhofflimmern diagnostiziert wurde, reduzierte bei Patienten mit einem frühen Stadium von Vorhofflimmern kardiovaskuläre Folgen, ohne dass die Patienten mehr Zeit im Krankenhaus verbringen mussten, und ohne Sicherheitsbedenken. Diese Ergebnisse haben das Potential, die klinische Praxis grundlegend zu verändern, hin zum frühen Rhythmuserhalt zeitnah nach der Diagnosestellung Vorhofflimmern.“

Vorhofflimmern geht meist mit einem unregelmäßigen schnellen Herzschlag einher, und die Betroffenen haben ein erhöhtes Risiko für Schlaganfälle, weil während des Flimmerns Blutgerinnsel im Herzvorhof entstehen und mit dem Blutstrom ins Gehirn gelangen können. Patienten mit dieser Herzrhythmusstörung sterben häufig vorzeitig oder erleiden schwere Folgekrankheiten – sogar dann, wenn sie nach den aktuellen Leitlinien behandelt werden. Die heute übliche Therapie besteht im Wesentlichen aus Medikamenten zur Regulierung der Herzschlagfrequenz, um den Herzmuskel zu schützen, und zur Blutgerinnungshemmung (orale Antikoagulation), um das Schlaganfallrisiko zu senken. Rhythmusmedikamente (Antiarrhythmika) oder nichtmedikamentöse Maßnahmen (Katheterablation) zum Erhalt des normalen Sinusrhythmus kommen nur dann zum Einsatz, wenn der Patient unter besonders schweren Symptomen leidet. Die EAST – AFNET 4 Studie hat untersucht, ob eine rhythmuserhaltende Therapie mit Medikamenten und/oder einer Katheterablation, wenn sie frühzeitig nach der Diagnose Vorhofflimmern begonnen wird, die Aussichten der Patienten verbessert.

„Sogar mit oraler Antikoagulation und optimaler Frequenzregulierung kommen kardiovaskuläre Todesfälle, Schlaganfälle und Herzschwäche bei Patienten mit Vorhofflimmern häufig vor, insbesondere bei denjenigen, die an Begleiterkrankungen des Herz-Kreislauf-Systems leiden.“ sagt Prof. John Camm, St. George’s Universität, London, Großbritannien, und Mitglied des wissenschaftlichen Leitungsgremiums der EAST – AFNET 4 Studie.

„Das Risiko für schwere kardiovaskuläre Komplikationen und Todesfälle ist bei Patienten mit Vorhofflimmern im ersten Jahr nach der Diagnose am höchsten. Das legt nahe, dass eine Therapie am meisten nützt, wenn sie möglichst früh stattfindet.“ erklärt Prof. Kirchhof. „Außerdem verursacht Vorhofflimmern schon nach wenigen Wochen Schäden am Herzvorhof. Eine frühzeitige rhythmuserhaltende Therapie könnte diese Schäden verhindern oder verringern und die Behandlung dadurch wirksamer machen.“

Das Kompetenznetz Vorhofflimmern hat die EAST – AFNET 4 Studie ins Leben gerufen und als Sponsor durchgeführt. Als wissenschaftliche Partner waren die European Heart Rhythm Association (EHRA) und das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) beteiligt. Finanzielle Unterstützung zur Durchführung der Studie wurden von der Deutschen Herzstiftung, dem Bundesministerium für Bildung und Forschung (BMBF) und den Firmen Sanofi und Abbott zur Verfügung gestellt.

Insgesamt 2789 Patienten mit frühem Vorhofflimmern (weniger als ein Jahr nach der ersten Diagnose) nahmen an der EAST – AFNET 4 Studie teil. Sie wurden von 2011 bis 2016 in 135 Kliniken und Praxen in elf europäischen Ländern in die Studie eingeschlossen. Die Studienteilnehmer wurden einer der beiden Behandlungsgruppen „früher Rhythmuserhalt“ oder „übliche Behandlung“ nach dem Zufallsprinzip zugeordnet (Randomisierung). Die Patienten in beiden Gruppen erhielten eine leitlinienkonforme Therapie, bestehend aus der Behandlung ihrer kardiovaskulären Begleiterkrankungen, Blutgerinnungshemmung und Frequenzregulierung.

Alle Patienten der Gruppe „früher Rhythmuserhalt“ erhielten nach der Randomisierung zusätzlich Antiarrhythmika oder eine Katheterablation. Sobald bei einem Patienten dieser Gruppe Vorhofflimmern erneut auftrat, wurde die Therapie mit eine intensiviert mit dem Ziel, den normalen Sinusrhythmus durch eine Katheterablation und/oder antiarrhythmische Medikamente wiederherzustellen und möglichst dauerhaft zu erhalten.

Patienten der Gruppe „übliche Behandlung“ erhielten nur dann eine rhythmuserhaltende Therapie, wenn diese notwendig war, um durch Vorhofflimmern verursachte Symptome zu bessern, die trotz leitlinienkonformer frequenzregulierender Behandlung auftraten.

Anhand der im Prüfplan festgelegten Studienendpunkte wurden das Auftreten von schweren Komplikationen und die Krankenhausaufenthalte der Patienten zwischen beiden Studiengruppen verglichen. Der erste primäre Endpunkt umfasst kardiovaskulären Tod, Schlaganfall und Krankenhausaufenthalte wegen Verschlechterung einer Herzschwäche oder akutem Koronarsyndrom. Der zweite primäre Endpunkt zählt die pro Jahr im Krankenhaus verbrachten Nächte. Der primäre Sicherheitsendpunkt umfasst Schlaganfall, Tod jeglicher Ursache sowie schwere Komplikationen der rhythmuserhaltenden Therapie.

Die Randomisierung der Studienteilnehmer in eine der beiden Studiengruppen erfolgte durchschnittlich 36 Tage nach der Erstdiagnose. Fast alle Teilnehmer der Gruppe „früher Rhythmuserhalt“ (95 Prozent) erhielten tatsächlich die vorgesehene Behandlung, bestehend aus einem Antiarrhythmikum oder Katheterablation. Nach zwei Jahren waren 65 Prozent der Patienten der Gruppe „früher Rhythmuserhalt“ immer noch unter rhythmuserhaltender Therapie, und 19,4 Prozent der Patienten hatten sich einer Ablation unterzogen. 85 Prozent der Teilnehmer der Gruppe „übliche Behandlung“ waren ohne rhythmuserhaltende Maßnahmen versorgt worden. Von den Teilnehmern der Gruppe „früher Rhythmuserhalt“ befanden sich 82 Prozent im Sinusrhythmus, während es in der Gruppe „übliche Behandlung“ nur 61 Prozent waren.

Durch die frühe rhythmuserhaltende Therapie wurde ungefähr jedes fünfte Endpunkt-Ereignis verhindert: Die Studienteilnehmer wurden im Mittel über 5,1 Jahre beobachtet. Innerhalb dieser Beobachtungszeit ereignete sich der primäre Studienendpunkt in der Gruppe „früher Rhythmuserhalt“ bei 249 Patienten und in der Gruppe „übliche Behandlung“ bei 316 Patienten. Schwere Komplikationen und Krankenhausaufenthalte wegen Verschlechterung einer Herzinsuffizienz oder wegen eines akuten Koronarsyndroms waren also unter früher rhythmuserhaltender Therapie seltener als unter der üblichen Behandlung. Die absolute Risikoreduktion mit früher rhythmuserhaltender Behandlung lag bei 1,1 Prozent pro Jahr.

Prof. Hein Heidbüchel, Universität Antwerpen, Belgien, und Präsident der European Heart Rhythm Association (EHRA), erläutert: „Der klinische Nutzen des frühen Rhythmuserhalts zeigt sich auch in Subgruppen, zum Beispiel wenn man ausschließlich asymptomatische Patienten betrachtet, oder Patienten, die bei Randomisierung im Sinusrhythmus waren, oder Patienten ohne Herzschwäche.“ In der Gruppe „früher Rhythmuserhalt“ traten im Vergleich zur Gruppe „übliche Behandlung“ alle Bestandteile des primären Endpunktes seltener auf, kardiovaskuläre Todesfälle und Schlaganfälle waren signifikant reduziert.

Hinsichtlich des zweiten primären Endpunkts gab es keinen Unterschied zwischen den beiden Gruppen: Die im Krankenhaus verbrachte Zeit war unabhängig von der Behandlungsgruppe.

Der primäre Sicherheitsendpunkt ergab in beiden Gruppen ähnliche Zahlen: 231 Ereignisse bei „frühem Rhythmuserhalt“ gegenüber 223 Ereignissen bei „üblicher Behandlung“. Während in der Gruppe „früher Rhythmuserhalt“ Komplikationen der rhythmuserhaltenden Therapie zwar unregelmäßig, aber häufiger vorkamen, waren Schlaganfälle und Todesfälle in dieser Gruppe seltener, so dass sich die Zahl der Ereignisse in beiden Behandlungsgruppen insgesamt in etwa die Waage hält. Dieses Ergebnis deckt sich mit Beobachtungen aus anderen aktuellen Studien zur rhythmuserhaltenden Therapie.

AFNET Vorstandsmitglied und EAST Sponsor-Vertreter Prof. Andreas Götte, Paderborn, bemerkt abschließend: „AFNET und EHRA haben EAST – AFNET 4 als große wissenschaftsinitiierte Studie europaweit durchgeführt. Der Erfolg dieser Studie zeigt, dass solche Studien ein wirkungsvolles Mittel sind, um die klinische Praxis zu verändern.“

Informationen zu EAST – AFNET 4
https://www.easttrial.org
Twitter @afnet_ev, hashtag #EASTtrial

Publikationen
[1] Kirchhof P, Breithardt G, Camm AJ, et al. Improving outcomes in patients with atrial fibrillation: rationale and design of the Early treatment of Atrial fibrillation for Stroke prevention Trial. Am Heart J. 2013;166:442-448. doi:10.1016/j.ahj.2013.05.015

[2] Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
doi: 10.1056/NEJMoa2019422

Kompetenznetz Vorhofflimmern e.V. (AFNET)
Das Kompetenznetz Vorhofflimmern e.V. (AFNET) ist ein interdisziplinäres Forschungsnetz, in dem Wissenschaftler und Ärzte aus Kliniken und Praxen deutschlandweit zusammenarbeiten. Ziel des Netzwerks ist es, die Behandlung und Versorgung von Patienten mit Vorhofflimmern in Deutschland, Europa und den USA durch koordinierte Forschung zu verbessern. Dazu führt das Kompetenznetz Vorhofflimmern e.V. wissenschaftsinitiierte klinische Studien (investigator initiated trials = IIT) und Register auf nationaler und internationaler Ebene durch. Der Verein ist aus dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Kompetenznetz Vorhofflimmern hervorgegangen. Seit Januar 2015 werden einzelne Projekte und Infrastrukturen des AFNET vom Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) gefördert.
https://www.kompetenznetz-vorhofflimmern.de

Kompetenznetz Vorhofflimmern e.V. (AFNET)
Mendelstraße 11
48149 Münster
Tel.: 0251 9801330
info@kompetenznetz-vorhofflimmern.de

Pressekontakt
Dr. Angelika Leute
Tel: 0202 2623395
a.leute@t-online.de

Originalpublikation:
Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422

Weitere Informationen:

https://www.easttrial.org
https://www.kompetenznetz-vorhofflimmern.de
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422

Quelle: IDW

(nach oben)


Volle Kraft voraus: Startschuss für die Integrierte WärmeWende Wilhelmsburg unter Beteiligung des CC4E der HAW Hamburg

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg

Für den Förderaufruf „Reallabore der Energiewende“ des Bundeswirtschaftsministeriums wurden im Juli 2019 insgesamt 20 Gewinnerprojekte bekannt gegeben – eines davon ist das Hamburger Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg. Mitte August hat Staatssekretär Andreas Feicht den offiziellen Förderbescheid überreicht und damit den Startschuss für das Projekt gegeben. Das Team Wärme des CC4E ist mit einer Förderung von 1,7 Mio. Euro an diesem Projekt beteiligt.

Das Reallabor IW3 hat zum Ziel, in Hamburg-Wilhelmsburg eine nahezu emissionsfreie dezentrale Wärmeversorgung zu etablieren, die ohne fossile Energieträger auskommt und damit einen maßgeblichen Schritt zur Transformation eines urbanen Wärmenetzes zu schaffen. Nach der Übergabe des offiziellen Förderbescheides am 11. August kann das Projekt IW3 unter Konsortialführung von HAMBURG ENERGIE nun mit der Arbeit starten. Das Team Wärme des CC4E ist als Projektpartner und mit einer Förderung in Höhe von 1,7 Mio. Euro beteiligt.

Das Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg gliedert sich in drei Teilvorhaben: IWU (Geothermische Nutzung des urbanen Untergrunds), IWS (Systemintegration) und IWM (Integrierter Wärmemarkt). Das CC4E arbeitet in mehreren Arbeitspaketen im Teilprojekt IWs mit und ist federführend für die Umsetzung des Teilprojektes IWM verantwortlich. Darin soll ein Wärmemarktplatz für Handels- und Vermarktungsmechanismen von grüner Wärme entwickelt werden. Den Abnehmern soll damit die Möglichkeit gegeben werden, zwischen verschiedenen Wärmeprodukten entscheiden zu können. Die Nachweisführung für die angebotene Wärme soll mittels BlockChain gewährleistet sein.

„Der Stadtteil Wilhelmsburg ist perfekt geeignet als Reallabor für die Wärmewende hin zu einer erneuerbaren Versorgung“, so Peter Lorenzen, Koordinator des Teams Wärme am CC4E. „Zum einen ist die räumliche Abgrenzung von Wilhelmsburg als Flussinsel für ein solches Vorhaben von Vorteil, zum anderen gibt es bereits bestehende Infrastruktur vor Ort, an die wir mit IW3 anknüpfen können. Unser Team war in den letzten Jahren an mehreren Wärmeprojekten in Wilhelmsburg beteiligt und wir freuen uns darauf, unser bestehendes Fachwissen nun auch in IW3 einbringen zu können.“

„Wir freuen uns sehr über die positive Rückmeldung und Förderung für unsere Arbeit, das spornt uns immer weiter an“, so Prof. Dr. Werner Beba, Leiter des CC4E der HAW Hamburg. „Dass wir an diesem Reallabor beteiligt sind zeigt, dass die HAW Hamburg eine der führenden Institutionen im EE-Bereich im Norden ist. Mit IW3 knüpfen wir an die Erfolgsgeschichte des CC4E an, die in den letzten Jahren mit zahlreichen Partnerschafen und Projekten, wie NEW 4.0 oder X-Energy, an Fahrt aufgenommen hat.“

KONTAKTE:
HAW Hamburg / CC4E
Elvira Hinz
Referentin für Öffentlichkeitsarbeit
T +49 40 428 75 5850
elvira.hinz@haw-hamburg.de

Dr. Katharina Jeorgakopulos,
Pressesprecherin und Pressereferentin
T +49 40 428 75 91 32
presse@haw-hamburg.de

Weitere Informationen:
https://www.haw-hamburg.de/cc4e/
https://www.hamburgenergie.de/ueber-uns/presse/pressemeldung/article/start-fuer-…

Quelle: IDW

(nach oben)


Eigene Gesundheitsdaten souverän handhaben

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik

Sportuhren, Fitness-Tracker und Smart Watches erfassen sensible persönliche Daten. Wissenschaftlerinnen und Wissenschaftler des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen beteiligen sich an einem Forschungsverbund, der neue Wege sucht, um Menschen den selbstbestimmten Umgang mit ihren digitalen Daten zu ermöglichen.

Die Vermessung der eigenen Gesundheit zählt aktuell zu den großen gesellschaftlichen Trends. Fitness-Tracker, Sportuhren und Smart Watches haben sich in den vergangenen Jahren stark verbreitet. Sie kombinieren Werte wie die Herzfrequenz, das Gewicht und verschiedene Bewegungsdaten, um den Anwendern bei der Führung eines gesunden Lebensstils zu helfen.

Diese Geräte – sogenannte Wearables – machen es ihren Nutzern jedoch oft schwer, die Verwendung ihrer Daten zu verstehen und die passenden Datenschutzeinstellungen vorzunehmen. Die Arbeitsgruppe Mensch-Technik-Interaktion vom Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen entwickelt daher jetzt gemeinsam mit Partnern neue Technologien, die für Transparenz sorgen und einen souveränen Umgang mit den eigenen Daten ermöglichen sollen.

Endgeräte erlauben Zusammenführung von Daten in Nutzerprofilen
„Über die Selbst-Quantifizierung des persönlichen Verhaltens führen diverse Endgeräte und Plattformen persönliche Daten zusammen und bieten die Möglichkeit, ein komplexes Profil der Nutzenden und ihrer Umgebung zu erstellen“, erklärt Dr. Johannes Schöning, Professor für Mensch-Computer-Interaktion am TZI. „Bei den Daten, die durch Wearables erhobenen werden, handelt es sich oft um sensible biometrische Gesundheitsdaten, deren Weitergabe und Verarbeitung nicht im Nachhinein geändert werden kann. Entsprechend hoch ist der Bedarf an einer Grundlage für die erleichterte, reflektierte Entscheidungsfindung zur Verwendung dieser Daten.“

Es gibt bereits Bestrebungen, Einverständnis- und Datennutzungserklärungen statisch zu bebildern, um sie besser verständlich zu machen. Das Projekt InviDas (Interaktive, visuelle Datenräume zur souveränen, datenschutzrechtlichen Entscheidungsfindung) geht einen Schritt weiter und erforscht interaktive Darstellungen, um Einverständnis- und Datennutzungserklärungen verständlich und erlebbar zu machen. Dabei werden drei Methoden eingesetzt: Infografiken, Gamification (spielerisches Lernen) und In-Situ Visualisierung – letzteres beschreibt beispielsweise Infografiken, die mit Hilfe von Augmented Reality (erweiterte Realität) in den Raum projiziert werden, um Datenflüsse anschaulich darzustellen.

Im konkreten Anwendungsfall der Wearables soll unter Zuhilfenahme verschiedener Datenvisualisierungen auf einen Blick dargestellt werden, wie umfangreich ein Datenprofil der Person ist, welche Rückschlüsse beispielsweise auf Krankheiten gezogen werden können und welche Akteurinnen und Akteure auf bestimmte Daten zugreifen können. Bisher existieren solche Nutzerprofil-Repräsentationen nur in nüchterner Textform, was die Interaktionsmöglichkeiten begrenzt.

TZI mit zwei Projekten im BMBF-Förderprogramm vertreten
Die Arbeitsgruppe Mensch-Technik-Interaktion bringt in das Projekt die umfassende Erfahrung in der Gestaltung, Entwicklung und Evaluierung von Benutzerschnittstellen sowie in der Datenvisualisierung ein. Weitere Projektpartner sind die Gesellschaft für Informatik (Verbundkoordinator), die RWTH Aachen, die Garmin Würzburg GmbH, die Stiftung Digitale Chancen und die Otto-Friedrich-Universität Bamberg.

Das Projekt läuft bis April 2023 und wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „Technik zum Menschen bringen“ mit insgesamt 1,82 Millionen Euro gefördert. Im gleichen Förderprogramm ist das TZI bereits mit dem Projekt „UsableSec@Home“ vertreten. Dort geht es um den Schutz vor Sicherheitslücken im Smart Home.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Johannes Schöning
Technologie-Zentrum Informatik und Informationstechnik (TZI)
Universität Bremen
Telefon: +49 218-63591
E-Mail: schoening@uni-bremen.de

Weitere Informationen:
http://www.technik-zum-menschen-bringen.de/projekte/invidas Projektseite
http://www.tzi.de Technologie-Zentrum Informatik und Informationstechnik
http://www.uni-bremen.de Universität Bremen

Quelle: IDW

(nach oben)


Bessere Sicht für Tauchbojen

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg

Universität Oldenburg testet optische Messverfahren in neuem BMBF-Projekt

Ein globales Netzwerk autonomer Tauchbojen bekommt Verstärkung: Im Projekt DArgo2025, das Anfang August gestartet ist, bestücken Oldenburger Meeresforscher um Prof. Dr. Oliver Zielinski vom Institut für Chemie und Biologie des Meeres (ICBM) sechs „Mini-U-Boote“, so genannte Argo-Floats, mit verschiedenen optischen Sensoren, um diese zu testen. Die Pilotstudie unter der Leitung des Bundesamts für Schifffahrt und Hydrographie (BSH) in Hamburg dauert noch bis Ende 2021, das Bundesforschungsministerium fördert den Anteil der Universität Oldenburg mit rund 965.000 Euro.

Die neuen Tauchbojen sollen einen Generationenwechsel im internationalen Forschungsprogramm Argo einleiten, das im Jahr 2000 begann und an dem mittlerweile mehr als 30 Staaten beteiligt sind. Argo umfasst eine Flotte von knapp 4.000 etwa zwei Meter langen Messrobotern, die autonom durch die Weltmeere driften, 160 davon stammen aus Deutschland. Alle Drifter treiben in einer Meerestiefe von 1.000 Metern mit der Strömung und sinken alle neun Tage auf 2.000 Meter ab. Von dort aus steigen sie zur Oberfläche auf und messen dabei Druck, Leitfähigkeit und Temperatur des Meerwassers. Anschließend senden sie die Messdaten und ihre jeweilige Position zu einem Satelliten. Die Argo-Floats sind meist rund vier Jahre im Meer unterwegs, bis ihre Batterien erschöpft sind. Die gewonnenen Daten sind frei zugänglich und dienen dazu, den klimatischen Zustand der Weltmeere zu bestimmen.

Nun werden die Kapazitäten der Mini-U-Boote erweitert. Ein Teil von ihnen liefert inzwischen auch Informationen über biologische und chemische Vorgänge im Meer. Diese sogenannten Biogeochemical Argo-Floats – abgekürzt: BGC-Floats – sind mit zusätzlichen Sensoren ausgestattet. Daran, die Leistungsfähigkeit dieser Messfühler weiter zu verbessern, arbeitet auch das Team um den Meeresphysiker Zielinski im Oldenburger Teilprojekt. Die Forscher planen, sechs Floats mit optischen Sensoren zu bestücken, die das Unterwasserlichtfeld vermessen – also das Restlicht im Meer, das mit zunehmender Wassertiefe immer schwächer wird. „Momentan verfügen BGC-Floats üblicherweise über Messgeräte, so genannte Radiometer, die maximal vier verschiedene Wellenlängen des Lichtes registrieren können“, berichtet Zielinski. Schwerpunkt des ICBM-Projekts sei es, kommerziell verfügbare Radiometer zu testen, die Licht in bis zu 200 verschiedene Kanäle im ultravioletten und sichtbaren Bereich des Spektrums aufspalten und die jeweilige Lichtstärke messen können.

Mit solchen Messungen wollen Biologen in Zukunft Veränderungen im Unterwasserlichtfeld registrieren, die zum Beispiel im Wasser gelöste Stoffe hervorrufen: Bestimmte organische, aber auch anorganische Substanzen filtern sozusagen bestimmte Farben aus dem Licht heraus. Da das Unterwasserlichtfeld das Wachstum von Algen und damit auch die Lebensbedingungen von tierischem Plankton, Fischen und andere Lebewesen stark beeinflusst, lassen sich über die optischen Messungen wichtige Hinweise auf die biologischen Aktivitäten im Meer gewinnen.

Das Team will außerdem im Zentrum für Marine Sensorik (ZfMarS) am ICBM in Wilhelmshaven einen bio-optischen Kalibrier- und Qualitätssicherungsplatz einrichten. „Wir untersuchen, welche der von uns getesteten Sensoren die besten Ergebnisse liefern und inwieweit die Messungen verschiedener Sensoren vergleichbar sind“, sagt Zielinski. Die neuen Sensoren müssen über mehrere Jahre zuverlässige Ergebnisse liefern – trotz Wind und Wellen, Bewuchs, Korrosion und hohem Druck in der Tiefsee.

Zielinski und sein Team sind aktuell noch an zwei weiteren vom Bundesforschungsministerium geförderten Projekten beteiligt. In den Vorhaben SpectralArgo-N und BGC-Argo-Next testen die Forscherinnen und Forscher ebenfalls neue optische Sensoren für die Argo-Flotte, darunter radiometrische, photometrische und fluorometrische Messgeräte. Daneben registrieren die von dem Team betreuten Floats noch weitere biogeochemische Daten, etwa den pH-Wert des Meerwassers, den Sauerstoffgehalt, das gelöste organische Material und den Chlorophyllgehalt.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Oliver Zielinski, Tel.: 0441/798-3518, E-Mail: oliver.zielinski@uol.de

Weitere Informationen:

https://uol.de/icbm/msys

Quelle: IDW

(nach oben)


Bundesweite Umfrage: Corona-Warn-App

Marlon Taddigs Marketing und Kommunikation
OFFIS – Institut für Informatik

Die deutsche Corona-Warn-App steht seit Mitte Juni 2020 zum Download zur Verfügung. Über 17 Millionen Mal wurde sie bereits heruntergeladen. Nach anfangs hohen Downloadzahlen steigt diese Zahl jedoch nur noch langsam. Das Forschungsinstitut OFFIS möchte unter anderem ermitteln, warum Menschen die App nicht nutzen und von den Benutzer*innen wissen, wie ihnen die App im Umgang gefällt.

Der Forschungsbereich Gesundheit des niedersächsischen Informatikinstituts OFFIS hat eine aktuelle Umfrage zur Nutzung – oder auch Nichtnutzung – der deutschen Corona-Warn-App gestartet. Die Wissenschaftler*innen des Instituts arbeiten seit vielen Jahren an vielfältigen technischen Lösungen im Gesundheitsweisen. Ein großer Bereich sind dabei sogenannte intelligente Nutzungsschnittstellen, denn aus Sicht der OFFIS Forscher*innen sollen neuste Technologien möglichst leicht nutzbar sein.

Nach ihrem Start wurde die Corona-Warn-App, nach Angaben des RKI, in den ersten vier Tagen rund zehn Millionen Mal heruntergeladen, seitdem steigen die Downloadzahlen jedoch deutlich langsamer und liegen aktuell bei gut 17 Millionen. Diese Zahlen lassen jedoch keinen Rückschluss darauf zu, auf wie vielen Geräten die App tatsächlich reibungslos läuft. Die App könnte gar nicht erst in Betrieb genommen worden sein, sie könnte wieder deinstalliert worden sein oder das mobile Endgerät könnte zu alt sein – der wirkliche Nutzen ist derzeit schwer zu ermitteln. Und auch an die aktiven Nutzer*innen gibt es Fragen: Was sind die Beweggründe, die App zu nutzen? Führt die Nutzung der App gegebenenfalls sogar zu einem riskanteren Verhalten?

In der vor Kurzem gestarteten Onlineumfrage möchte das Informatikinstitut OFFIS diese Punkte hinterfragen. Erhofft wird eine möglichst breite, vielfältige Beteiligung an der Umfrage, um zu ermitteln, wie die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit durch die App in Bezug auf die Corona-Pandemie beeinflusst werden. So soll die Studie dazu beitragen, bestehende Bedenken gegen die App besser zu verstehen und abzubauen.

Die Onlinebefragung besteht aus einem Fragebogen, welcher sich in einen inhaltlichen und einen demografischen Teil gliedert. Die Umfrage ist selbstverständlich anonym. Es werden keine personenbezogenen Daten erhoben und es sind keine Rückschlüsse auf die Person möglich.

Die Befragung ist bis zum 30.09.2020 hier verfügbar: https:/bit.ly/corona-app-studie

Im Anschluss werden die Daten ausgewertet. Erste Ergebnisse werden die Forscher*innen bis Ende Oktober unter www.offis.de/corona-app-studie auch für die Öffentlichkeit zur Verfügung stellen.

Weiterführende Informationen
Umfrage: https://bit.ly/corona-app-studie
Weitere Informationen: www.offis.de/corona-app-studie

Wir untersuchen mit dieser Studie, inwiefern die offizielle Corona-Warn-App der Bundesregierung die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit in Bezug auf die Corona-Pandemie beeinflusst.

Die Onlinebefragung besteht aus einem Fragebogen, mit einem inhaltlichen und einem demografischen Teil. Das Ausfüllen sollte nicht länger als 20 Minuten dauern. Es werden keine personenbezogenen Daten erhoben, so dass keine Rückschlüsse auf die Person der Teilnehmenden möglich sind. Die Teilnahme an der Studie ist freiwillig. Die im Rahmen dieser Studie erhobenen Daten können zu weiteren Forschungszwecken an Dritte weitergegeben werden.

Die Erhebung der Daten erfolgt vollständig anonymisiert, d. h. an keiner Stelle werden Name oder andere identifizierende personenbezogene Daten erfragt bzw. gespeichert. Datensätze, aus deren Antworten die Identität des Teilnehmenden erkennbar ist, werden gelöscht. Es werden ausschließlich folgende Daten gespeichert: Antworten auf die Fragen, Datum und Uhrzeit der Beantwortung des Fragebogens. Die Daten werden ausschließlich auf Rechnern des OFFIS – Institut für Informatik in Oldenburg, Deutschland gespeichert.
Diese Studie wird im Rahmen des Projektes PANDIA durchgeführt, einem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt (FKZ: 16SV8397). Die Studie ist unabhängig vom Robert-Koch-Institut, der SAP AG, und der Telekom.

Über: OFFIS – Institut für Informatik
OFFIS ist ein 1991 gegründetes, international ausgerichtetes, anwendungsorientiertes Forschungs- und Entwicklungsinstitut für Informatik mit Sitz im niedersächsischen Oldenburg. In durchschnittlich 70 laufenden Projekten leistet OFFIS mit seinen über 300 Mitarbeiterinnen und Mitarbeitern aus rund 25 Nationen Forschung und prototypische Entwicklungsarbeit auf höchstem internationalem Niveau in den Forschungsbereichen Energie, Gesundheit, Produktion und Verkehr. Dabei kooperiert OFFIS mit weltweit über 700 Partnern aus Wirtschaft und Wissenschaft.

In allen Forschungsbereichen des OFFIS wirken unsere Wissenschaftler*innen mit in unterschiedlichsten Gremien, Ethik-Kommissionen, erarbeiten Studien, Roadmaps und geben Empfehlungen aus – auf nationaler und internationaler Ebene.
Der Forschungsbereich Gesundheit des OFFIS ist heute die größte außerklinische Gesundheitsinformatik in Deutschland und trägt maßgeblich zur Stärkung der Gesundheitswirtschaft im Nordwesten bei. Informationstechnologien für das Gesundheitswesen und die Medizin, wie das Epidemiologische Krebsregister Niedersachsen und die maßgebliche Beteiligung an der Entwicklung des internationalen medizinischen Bildkommunikationsstandards DICOM sind nur zwei der zahlreichen Beispiele für erfolgreiche Arbeiten des Bereichs.
www.offis.de

Wissenschaftliche Ansprechpartner:
Dr. Jochen Meyer, meyer@offis.de, 0441 / 972-185

Weitere Informationen:
http://www.offis.de/corona-app-studie

Quelle: IDW

(nach oben)


Gärrückstände aus Biogasanlagen optimal verwerten – Jetzt zur Online-Fachtagung am 15.9.2020 anmelden!

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Die Fachagentur Nachwachsende Rohstoffe e. V. (FNR) lädt am 15. September 2020 zur 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ ein. In diesem Jahr wird die Veranstaltung, die vom Institut für Agrar- und Stadtökologische Projekte an der Humboldt-Universität zu Berlin als wissenschaftlicher Partner unterstützt wird, erstmals online ausgerichtet.

Um den steigenden Anforderungen an die Gärrestverwertung gerecht zu werden, die sich u. a. aus der Nitratrichtlinie, der Düngeverordnung sowie dem Klimaschutzplan ergeben, wächst der Bedarf an neuen Lösungen für Aufbereitung, Handling und bedarfsgerechte Ausbringung von Wirtschaftsdüngern und Gärprodukten. Längere Sperrfristen für die Ausbringung, die Begrenzung der Stickstoffgaben, die Reduzierung der Ammoniak- und Lachgasemissionen sowie die daraus resultierende notwendige Erweiterung der Lagerkapazitäten und die Abdeckung von Gärrestelagern gehören zu den wesentlichen Herausforderungen, denen sich Landwirte künftig stellen müssen.

Die 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ zeigt neue Erkenntnisse zur Aufbereitung und Nutzung von Gärresten im Einklang mit den rechtlichen Rahmenbedingungen auf. Dabei werden auch neue Forschungsansätze aus dem Förderaufruf „Nachhaltige Verwertung und Aufbereitung von Gärrückständen“ des Bundesministeriums für Ernährung und Landwirtschaft vorgestellt.

Die Veranstaltung wird von einer Online-Posterausstellung begleitet. Das Programm sowie weitere Informationen zur Anmeldung und zur Tagung finden Sie auf unserer Veranstaltungswebsite https://veranstaltungen.fnr.de/gaerrestetagung-2020.

Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e.V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Nicole Paul
Tel.: +49 3843 6930-142
Mail: n.paul@fnr.de

Quelle: IDW

(nach oben)


TU Berlin: Coronavirus – Wissenschaftler*innen beantworten Fragen zu Aerosolen und richtigem Lüften von Innenräumen

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Richtig lüften – aber wie?

Wissenschaftler*innen des Hermann-Rietschel-Instituts der TU Berlin beantworten die wichtigsten Fragen rund um die Belüftung von Innenräumen

Die Corona-Pandemie hält die Welt noch in Atem, gleichzeitig kehrt bei immer mehr Menschen in Deutschland wieder so etwas Ähnliches wie Alltag ein: Derzeit öffnen nach und nach die Schulen in Deutschland, immer mehr Personen arbeiten wieder in ihren Büros. Parallel zeichnet sich deutlich ab, dass die Virenverbreitung durch Aerosole in geschlossenen Räumen eine große Rolle zu spielen scheint. Die ersten Schulen mussten ihre Tore bereits wieder schließen. Ein regelmäßiger Luftaustausch kann dabei helfen, die Virusverbreitung in Räumen zu begrenzen.

Das Hermann-Rietschel-Institut der TU Berlin ist die weltweit älteste wissenschaftliche Einrichtung auf dem Gebiet der Heizung, Lüftung und Klimatisierung. Aufgabe der Wissenschaftler*innen ist es, die Bedingungen zu erforschen, die ein Raumklima schaffen, das die Grundbedürfnisse der Menschen nach Gesundheit, Sicherheit und Behaglichkeit befriedigt.

Prof. Dr. Martin Kriegel ist Leiter des Hermann-Rietschel-Instituts der TU Berlin und forscht bereits seit seiner Berufung im Jahr 2011 an der Ausbreitung von Aerosolen: „Entscheidend ist es, dass wir die bestehenden Regeln zum Lüften beachten. Sonderregeln sind derzeit noch nicht nötig.“ Doch wie lüftet man eigentlich richtig, damit es tatsächlich zu einem effektiven Luftaustausch kommt? Was passiert mit den Viren, die über Aerosole in die Raumluft gelangen, wie lange bleiben sie dort und wie verteilen sie sich? Können Luftfilter helfen?

„Je nach Raumsituation entstehen spezielle Raumluftströmungen. Die dadurch entstehende Aerosolverteilung, kann man am besten einschätzen, wenn einem die wissenschaftlichen Hintergründe klar sind“, weiß der Forscher. Zusammen mit seinem Team an der TU Berlin hat sich der Wissenschaftler darum bemüht, möglichst viele alltägliche Fragen rund um das Thema Aerosole und Belüftung zu sammeln und für die Öffentlichkeit verständlich zu beantworten.

Die vollständige Liste der Fragen und Antworten finden Sie hier:
https://www.tu.berlin/go10026/

Zu speziellen Themen in Bezug auf SARS-CoV-2 haben die Wissenschaftler*innen einen Blog erstellt, der laufend aktualisiert wird:
https://blogs.tu-berlin.de/hri_sars-cov-2/

Weiterführende Informationen zu den Forschungsaktivitäten und den Veröffentlichungen von Prof. Dr. Martin Kriegel und seinem Team finden Sie hier:
https://www.hri.tu-berlin.de/menue/research/publications_at_hri/
https://www.hri.tu-berlin.de/menue/research/

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Martin Kriegel
TU Berlin
Hermann-Rietschel-Institut
Tel.: 030 314-24170
E-Mail: Kontakt@hri.tu-berlin.de

Quelle: IDW

(nach oben)


Hitze und Starkregen – so passen sich Kommunen an den Klimawandel an

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.

Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.

Städte heizen sich im Sommer stärker als das Umland auf und sind wegen ihrer dichten Bebauung anfälliger für Sturzfluten. Um Hitze zu reduzieren, müssen die Kommunen Parks, Gärten und kleinere Grünanlagen sichern und ausbauen. Die Grün- und Freiflächen kühlen in der Nacht sehr viel stärker ab als dicht bebaute Bereiche. Auch freie Flächen außerhalb der Stadt sind schützenswert: Kühlere Luft gelangt von hier in innere Stadtbereiche. Überdies senken verschattete Plätze und Wege die Temperaturen.

Bäume und Sträucher, die wenig Wasser benötigen, überstehen auch längere sommerliche Trockenperioden gut. Begrünte Dächer und Fassaden mildern Temperaturspitzen ab. Ein Schlüssel für kühlere Temperaturen sind helle Oberflächenmaterialien für Plätze, Wege und Straßen, Fassaden und Dächer. Sie reflektieren das Sonnenlicht und heizen sich nicht so stark auf.

Stadtgrün mindert nicht nur Hitze, sondern unterstützt auch die Vorsorge gegen Starkregen. Grüne Oasen sorgen dafür, dass große Regenmengen versickern können. Kommunen fördern diesen Effekt, wenn sie überbaute Flächen wie Zufahrten, Parkplätze, Gehwege oder Höfe entsiegeln, sie also wieder wasserdurchlässig machen. Eine wassersensible Stadtplanung orientiert sich am Prinzip der Schwammstadt: Wie bei einem Schwamm wird das Regenwasser in möglichst vielen Bereichen zurückgehalten und erst schrittweise an den Boden, die Kanalisation oder Gewässer abgegeben. Dies erfolgt beispielsweise über natürliche und künstlich angelegte Speicher wie Mulden, Rigolen oder bepflanzte Dächer. Hierdurch kann mehr Wasser verdunsten und zur Kühlung der Städte beitragen. Gleichzeitig wird die Neubildung von Grundwasser gefördert, die Kanalisation entlastet und das Risiko von Überflutungen reduziert.

Risikokarten helfen Kommunen dabei, solche Anpassungen zu planen. Die hoch aufgelösten Karten markieren Bereiche in der Stadt, die sich im Sommer besonders stark aufheizen oder starken Überflutungsrisiken ausgesetzt sind.

„Die Anpassung an die Folgen des Klimawandels ist eine Querschnittsaufgabe für die Städte. Viele Ämter beteiligen sich daran. Es gibt aber noch große Potenziale, um die Städte robuster gegenüber Klimarisiken zu machen“, sagt BBSR-Experte Fabian Dosch. „Stadtgrün mindert die Hitze und die Folgen von Starkregen – und macht unsere Städte schöner, gesünder und damit noch lebenswerter.“

Interessierte finden das Hintergrundpapier unter http://www.bbsr.bund.de. Die Website http://www.klimastadtraum.de bietet Studien und Handlungshilfen für Verantwortliche und Fachleute in Kommunen und Regionen, die Maßnahmen zur Anpassung an den Klimawandel planen und umsetzen.

Download: http://www.bbsr.bund.de/BBSR/DE/startseite/topmeldungen/downloads/2020-hintergrundpapier-klimawandel.pdf

Kontakt
Christian Schlag
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31-37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de

Bleiben Sie informiert und folgen Sie dem BBSR auf Twitter: http://www.twitter.com/bbsr_bund

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: IDW

(nach oben)


Deutsches Hochwasserrisiko-Management ist nur selten naturbasiert

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Die Folgen von Hochwasser lassen sich nicht nur mit Deichen, Poldern und Rückhaltebecken mindern: Auch naturbasierte Lösungen – englisch Nature-Based Solutions, kurz NBS – tragen zum Wasserrückhalt bei und schützen so vor seiner zerstörerischen Wirkung. Trotzdem machen sie nur neun Prozent der vorgeschlagenen Maßnahmen in Hochwasserrisiko-Managementplänen der Bundesländer aus. Das hat eine Analyse des Teams von Prof. Dr. Christian Albert, Inhaber des Lehrstuhls für Umweltanalyse und -planung in metropolitanen Räumen am Geographischen Institut der Ruhr-Universität Bochum (RUB), ergeben.

Das Team veröffentlichte die Ergebnisse in der Zeitschrift Environmental Science and Policy vom 16. Mai 2020.

Bessere Gewässerqualität und mehr Artenschutz
NBS können nicht nur vor Hochwasser schützen: Man hofft durch Maßnahmen wie die Renaturierung von Flussauen und die Wiederanbindung saisonaler Bäche auch, dass sich die Wasserqualität verbessert und man die Artenvielfalt fördern kann. Die europäische und deutsche Politik haben das Potenzial von NBS erkannt und in ihren Richtlinien verankert, etwa in der EU-Hochwasserrichtlinie.

Das Forschungsteam des Geographischen Instituts wollte wissen, inwieweit diese Maßgaben bereits in Hochwasserrisiko-Managementplänen der Behörden aufgegriffen werden, die für jedes Flusseinzugsgebiet erstellt werden müssen. Eine Dokumentenanalyse gab Aufschluss darüber, wie hoch jeweils der Anteil von NBS in Plänen ausgewählter Bundesländer ist. Außerdem wollten die Forscher ergründen, welche Faktoren den vorgefundenen Umfang erklären können.

19 Pläne wurden analysiert
„Für die Analyse haben wir Hessen, Niedersachsen und Sachsen ausgewählt, weil sich die drei Bundesländer wesentlich in ihrer Wasserwirtschaftsverwaltung, ihrer Form der Regionalplanung und Betroffenheit von vergangenen Hochwasserereignissen unterscheiden“, erklärt Erstautor Mario Brillinger. Die Dokumentenanalyse umfasste 19 Hochwasserrisiko-Managementpläne, die für 2012 bis 2015 erstellt worden waren.

Die Studie zeigt, dass NBS nur sehr selten in diesen Plänen aufgegriffen werden: Sie machen nur neun Prozent aller insgesamt 4.282 vorgeschlagenen Maßnahmen aus. Stark vertreten sind dagegen mit 45 Prozent Maßnahmen der Verhaltens- und Risikovorsorge wie die Förderung eines verstärkten Risikobewusstseins, die Aktualisierung von Alarm- und Einsatzplänen, das Katastrophenschutzmanagement oder die Veröffentlichung von Hochwassergefahrenkarten. Auch technische Schutzmaßnahmen sind mit rund 41 Prozent stark vertreten.

Hessen schlug die meisten NBS vor und bevorzugte dabei Renaturierungsmaßnahmen des Uferbereichs und Maßnahmen der Flussauenentwicklung. Niedersachsen zeigte die wenigsten NBS und präferierte dabei vor allem die Wiederherstellung von natürlichen Rückhalteflächen. In Sachsen konnten die Forscher relativ häufig den Rückbau von Wehren als NBS klassifizieren.

Der Bewertung der Maßnahmen mehr Daten zugrunde legen
„Darüber hinaus haben wir untersucht, welche Kriterien es begünstigen, dass NBS vorgeschlagen werden“, erklärt Christian Albert. In den analysierten Plänen wurden NBS dann stärker berücksichtigt, wenn es sich um kleinere Nebenflüsse und Situationen mit geringer Hochwassergefahr handelte. Auch hing die Berücksichtigung von NBS davon ab, wie die Verantwortlichen ihre Wirksamkeit und die zu erwartenden Kosten und Nutzen einschätzten. „Die zuständigen Personen vertrauten NBS in diesen Punkten offenbar weniger als anderen Maßnahmen“, berichtet Mario Brillinger. „Sie gingen häufiger davon aus, dass NBS mehr Planungs- und Verwaltungskosten verursachen und weniger wirksam sind als andere Schutzmaßnahmen.“

Das Forschungsteam schlägt vor, bei der Erstellung von Hochwasserrisiko-Managementplänen künftig Bewertungsmethoden anzuwenden, die auf den besten Daten über die vielfältigen Wirkungen von NBS und anderen Maßnahmen beruhen. Außerdem sollte man das lokale Wissen betroffener Akteure berücksichtigen. So könnten sich NBS künftig besser ins Hochwasserrisiko-Management einbeziehen lassen.

Originalveröffentlichung
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008

Pressekontakt
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615

Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615

Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de

Originalpublikation:
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008

Weitere Informationen:
https://www.sciencedirect.com/science/article/abs/pii/S1462901119306690 – Link zum Originalpaper

Quelle: IDW

(nach oben)


Mundspülungen könnten Corona-Übertragungsrisiko senken

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Sars-Cov-2-Viren lassen sich mit bestimmten handelsüblichen Mundspülungen inaktivieren. Das zeigten Virologinnen und Virologen der Ruhr-Universität Bochum gemeinsam mit Kollegen aus Jena, Ulm, Duisburg-Essen, Nürnberg und Bremen in Zellkulturexperimenten. Im Mund-Rachenraum von Covid-19-Patienten können zum Teil hohe Viruslasten nachgewiesen werden. Die Anwendung von Sars-Cov-2-wirksamen Mundspülungen könnte somit helfen, kurzzeitig die Viruslast und damit eventuell das Risiko einer Übertragung der Coronaviren zu senken. Dies könnte beispielsweise vor zahnärztlichen Behandlungen nützlich sein.

Mundspülungen eignen sich jedoch nicht, um eine Covid-19-Infektion zu behandeln oder um sich selbst vor einer Ansteckung mit dem Virus zu schützen.
Die Ergebnisse der Studie beschreibt das Team um Toni Meister, Prof. Dr. Stephanie Pfänder und Prof. Dr. Eike Steinmann aus der Bochumer Forschungsgruppe Molekulare und Medizinische Virologie im Journal of Infectious Diseases, online veröffentlicht am 29. Juli 2020. Eine Überprüfung der Laborergebnisse in klinischen Studien steht noch aus.

Acht Mundspülungen im Zellkulturtest
Die Forscherinnen und Forscher testeten acht Mundspülungen mit unterschiedlichen Inhaltsstoffen, die in Apotheken oder Drogeriemärkten in Deutschland erhältlich sind. Sie mischten jeweils die Mundspülung mit Viruspartikeln und einer Belastungssubstanz, die den Effekt des Speichels im Mund nachstellen sollte. Das Gemisch wurde dann für 30 Sekunden geschüttelt, um den Effekt des Gurgelns zu simulieren. Anschließend nutzten sie zur Bestimmung des Virustiters Vero-E6-Zellen, welche besonders empfänglich für Sars-Cov-2 sind. Zur Bewertung der Wirksamkeit behandelten die Forscherinnen und Forscher die eingesetzten Virussuspensionen vor Zugabe auf die Zellkultur parallel mit Zellkulturmedium anstatt Mundspülung.

Alle getesteten Präparate reduzierten den initialen Virustiter. Drei Mundspülungen verringerten ihn so weit, dass nach 30 Sekunden Einwirkung kein Virus mehr zu detektieren war. Ob dieser Effekt sich in der klinischen Praxis bestätigt und wie lange er anhält, muss in weiteren Studien untersucht werden.

Die Autorinnen und Autoren weisen darauf hin, dass Mundspülungen nicht zur Behandlung von Covid-19-Erkrankungen geeignet sind. „Das Gurgeln mit einer Mundspülung kann nicht die Produktion der Viren in den Zellen hemmen“, erklärt Toni Meister, „könnte aber die Viruslast kurzfristig dort senken, wo das größte Ansteckungspotenzial herkommt, nämlich im Mund-Rachen-Raum – und das könnte in bestimmten Situationen wie beim Zahnarzt oder der medizinischen Versorgung von Covid-19-Patienten nützlich sein.“

Klinische Studien in Arbeit
Die Bochumer Gruppe prüft die Möglichkeiten einer klinischen Studie zur Wirksamkeit von Mundspülungen auf Sars-Cov-2-Viren, in der die Wissenschaftlerinnen und Wissenschaftler testen wollen, ob der Effekt auch bei Patienten nachweisbar ist und wie lange er anhält. Ähnliche Arbeiten laufen bereits in San Francisco; das Bochumer Team steht mit den US-amerikanischen Forscherinnen und Forschern dazu in Kontakt.

Förderung
Die Arbeiten wurden gefördert von der Europäischen Union im Rahmen des Horizon-2020-Programms (Grantnummer 101003555) sowie von der Stiftung Universitätsmedizin Essen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Originalpublikation:
Toni Luise Meister, Yannick Brüggemann, Daniel Todt, Carina Conzelmann, Janis A. Müller, Rüdiger Groß, Jan Münch, Adalbert Krawczyk, Jörg Steinmann, Jochen Steinmann, Stephanie Pfaender, Eike Steinmann: Virucidal efficacy of 1 different oral rinses against SARS-CoV-2, in: Journal of Infectious Diseases, 2020, DOI: 10.1093/infdis/jiaa471

Quelle: IDW

(nach oben)


Wo ist das Wasser während einer Dürre?

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Wenn bereits kaum Niederschlag fällt – wo und wie verteilt sich das wenige Wasser und welche Möglichkeiten gibt es, den Rückhalt im Boden und in der Landschaft zu verbessern? Dörthe Tetzlaff und ihr Team vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben herausgefunden, dass die Vegetation darauf einen großen Einfluss hat. Die Forschungsgruppe analysiert die Speicherung, Verteilung und Qualität des Wassers in der Landschaft. Am Beispiel des dürreempfindlichen Demnitzer Mühlenfließes in Brandenburg, einem Teileinzugsgebiet der Spree, quantifizierten sie die sichtbaren und unsichtbaren Wasserflüsse während und kurz nach der großen Trockenheit 2018.

Brandenburg ist mit einem Jahresniederschlag von nur 560 Litern pro Quadratmeter das niederschlagsärmste Bundesland. Im Jahr 2018 fielen sogar nur 390 Liter Wasser pro Quadratmeter, also ca. 40 Prozent weniger Niederschlag als gewöhnlich.
Schon unter „normalen“ klimatischen Bedingungen werden etwa 90 Prozent des Niederschlags wieder in die Atmosphäre abgegeben und fließen nicht in Grundwasser oder Flüssen ab. Die Grundwasserstände im Gebiet zeigen heute, dass die Defizite aus dem Jahr 2018 zwischen den Wachstumsperioden nicht ausgeglichen werden konnten.

Landmanagement von kritischer Bedeutung für Verteilung von Wasserressourcen:
Dörthe Tetzlaff ist Forscherin am IGB und Professorin für Ökohydrologie an der Humboldt-Universität zu Berlin. Sie und ihr Team untersuchten, wie sich der Zeitpunkt und der Prozess der Verdunstung und der Grundwasserneubildung unter verschiedenen Böden und Landnutzungen unterscheiden. „Aufgrund der aktuellen Klimakrise mit zunehmenden Dürren müssen wir wissen, wie viel Wasser verschiedene Pflanzen nutzen. Wir als Forschende fragen uns: Kann man über nachhaltige Landnutzung den Wasserverbrauch steuern und ganze Landschaften widerstandsfähiger gegenüber Klimaextremen gestalten? Diese Erkenntnisse sind die Basis, um die Bedarfe für die Lebensmittelproduktion und die Wasserversorgung erfüllen zu können“, erläutert Dörthe Tetzlaff ihre Motivation für ihr Forschungsthema.

Waldboden trockener als Grasland:
Das Team untersuchte im Demnitzer Mühlenfließ zwei Standorte mit regionaltypischen Landnutzungen: einen Mischwald mit sandigen Böden und einer tief wurzelnden Zone und Grünland mit lehmigeren Böden und einer flacher wurzelnden Zone. Der Waldboden war wesentlich trockener, was auf Eigenschaften von Boden und Pflanzen zurückzuführen ist.
So waren während der Dürre im obersten Meter des sandigen Bodens im Wald nur 37 Liter Wasser pro Quadratmeter und unter Grünland immerhin 146 Liter Wasser pro Quadratmeter vorhanden. Das Blätterdach des Waldes schirmte bereits einen Teil des Regens ab, der direkt von den Blättern verdunstete und den Boden nie erreichte. Zudem war der sandige Waldboden kaum in der Lage, Wasser zu speichern. Niederschläge drangen tiefer in den Boden ein, wurden allerdings während der Wachstumsperiode vor Erreichen des Grundwassers wieder von den Bäumen aufgenommen.
Unter der Grünlandfläche sickerte das Wasser kontinuierlich in Richtung Grundwasser. Der Boden konnte mehr Wasser speichern. Da die Pflanzen nur Wasser aus dem oberen Boden entnahmen führte dies zu „älterem“ Bodenwasser.

„Wir konnten zeigen, wie schlecht die Landschaften in Brandenburg in der Lage sind, Niederschlagswasser im Gebiet zu halten, um Perioden mit weniger Regen zu überbrücken. Die Landschaften und ihre Nutzungen, die wir untersucht haben, sind typisch für die Nordeuropäische Tiefebene. Es war erschreckend festzustellen, wie stark selbst ein natürlicher Mischwald unter der Dürre leidet. Für wirtschaftsorientierten Forst, mit im Bestand dominierenden Nadelbäumen, ist die Situation noch schlimmer. Tatsächlich ist das Baumsterben in Brandenburg mittlerweile offensichtlich“, sagt Lukas Kleine, Doktorand in Tetzlaffs Team.

„Wasser pflanzen“ – wie die Landwirtschaft die Forschungsergebnisse nutzt:
Die Forschenden arbeiten mit der Land- und Forstwirtschaft zusammen, um ihre Forschungsergebnisse in die Anwendung zu bringen. Einer ihrer wichtigsten Partner ist Benedikt Bösel. Dessen Betrieb „Gut & Bösel“ testet und entwickelt multifunktionale Landnutzungskonzepte der regenerativen Land- und Forstwirtschaft. Der Landwirt bestätigt die Beobachtungen der IGB-Forschenden: „Die Regeneration unserer Böden und der Bodengesundheit ist die größte und wichtigste Aufgabe unserer Generation. Dafür braucht es systemische Innovation, die uns hilft, die Ursachen unserer Probleme zu verändern anstatt nur die Symptome zu bekämpfen. Nur so können wir der Komplexität von Ökosystemen gerecht werden. Diese Lösungen versuchen wir u.a. basierend auf den Erkenntnissen des Teams von Frau Tetzlaff zu entwickeln“.

„Unsere Untersuchungen in unserem ökohydrologischen Feldlabor laufen nun seit 2018 kontinuierlich, und wir werden sie fortführen. Wir sehen, dass nach den weiteren Trockenzeiten in 2019 und bisher in 2020 die Grundwasserspiegel weiter sinken. Die Vegetation konnte sich trotz der wenigen Niederschläge in den Wintermonaten immer noch nicht erholen. Wir sind leider weit von „normalen“ Bedingungen entfernt. Um die Widerstandsfähigkeit der brandenburgischen Ökosysteme gegenüber Dürren und anderen Klimaveränderungen zu verbessern, müssen Maßnahmen umgesetzt werden, die die Grundwasserneubildung fördern und Böden schaffen, die mehr Wasser speichern können. Unsere Ergebnisse unterstreichen die zentrale Rolle der Vegetation in der Entwicklung solcher Strategien.“ fasst Dörthe Tetzlaff zusammen.

Hintergrundinfos:
Wasser in der Landschaft – blaues und grünes Wasser:

Forschende unterscheiden das sogenannte blaue Wasser, das Seen, Flüsse und das Grundwasser füllt und unmittelbar für die Wasserversorgung zur Verfügung steht; und das grüne Wasser, welches direkt von der Vegetation beeinflusst wird und durch Verdunstung und Transpiration nach der Aufnahme durch die Pflanzen in die Atmosphäre zurückgeführt wird. Dörthe Tetzlaff und ihr Team erforschen die Wechselwirkungen zwischen blauem und grünem Wasser. Dabei analysieren sie detailliert, was in der sogenannten kritischen Zone geschieht und welchen Einfluss die Vegetation auf den gesamten Wasserhaushalt hat.

Die kritische Zone – die dünne, dynamische und lebenserhaltenden Haut der Erde:
Die Erdschicht, die sich zwischen dem Kronendach, dem Boden und dem Grundwasser erstreckt, nennt sich kritische Zone. Sie war lange Zeit eine „Blackbox“; vor allem die Rolle der Pflanzen in der Aufteilung des Niederschlags wurde vernachlässigt, da die Wissenschaft sich stark auf die blauen Wasserflüsse konzentriert hat, die zur Grundwasserneubildung oder Abflussbildung beitragen.
In dieser Studie untersuchten die Forschenden die Wasserflüsse in der kritischen Zone mit sogenannten stabilen Isotopen im Wasser. Diese können als „Markierstoffe“ verwendet werden, um Fließwege, Alter und Herkunft von Wasser zu bestimmen. Für ein umfassendes Verständnis sind nämlich nicht nur die absoluten Wassermengen wichtig, die sich in der Landschaft bewegen, sondern auch, wie lange das Wasser vor Ort gespeichert wird und welche Fließwege es nimmt. Wenn diese Informationen mit Daten von Vegetationsdynamiken gekoppelt werden, können mathematische Modelle beispielsweise zeigen, woher, wann und in welcher Geschwindigkeit Pflanzen ihr Wasser beziehen (d.h. aus dem Grundwasser oder dem Bodenwasser).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Abteilungsleiterin „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
d.tetzlaf@igb-berlin.de
030/64181661

Lukas Kleine
Doktorand Abteilung „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
l.kleine@igb-berlin.de
030/64181666

Originalpublikation:

Kleine, L., Tetzlaff, D., Smith, A., Wang, H., and Soulsby, C. (2020): Using isotopes to understand evaporation, moisture stress and re-wetting in catchment forest and grassland soils of the summer drought of 2018, Hydrol. Earth Syst. Sci. 2020, https://doi.org/10.5194/hess-2020-81

Smith, A, Tetzlaff, D, Kleine, L, Maneta, MP, Soulsby, C. Isotope‐aided modelling of ecohydrologic fluxes and water ages under mixed land use in Central Europe: The 2018 drought and its recovery. Hydrological Processes. 2020; Volume34, Issue16, Pages 3406-3425. https://doi.org/10.1002/hyp.13838

Weitere Informationen:
https://www.igb-berlin.de/news/wo-ist-das-wasser-waehrend-einer-duerre

Quelle: IDW

(nach oben)


Die Überdüngung der Ostsee beenden: Wirken die Maßnahmen?

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

In der Zeit von 1995 bis 2014 wurden im Bereich der westlichen Ostsee die Fluss-Einträge der beiden wichtigsten Treiber der Überdüngung, Stickstoff und Phosphor, beträchtlich reduziert. Aber zeigen diese Maßnahmen auch in der offenen Ostsee einen Effekt? Die Meereschemiker des Leibniz-Instituts für Ostseeforschung fanden dort bislang keine deutlich erkennbaren Änderungen. In einer kürzlich veröffentlichten Studie berichten sie von einer Methode, mit der sie den Verbleib der Nährstoffe von den Flussmündungen in die Ostsee verfolgten. Sie zeigen: ja, die Reduktionen in den Flusseinträgen sind auch in der Ostsee feststellbar, aber sie werden durch Einträge aus anderen Quellen kompensiert.

Stellen wir uns die Ostsee als einen großen Topf Suppe vor, an der viele Köche mitgewirkt haben. Die Suppe ist verwürzt, aber welcher Koch ist dafür verantwortlich? Ist das Gewürz erst einmal im Topf, vermischt es sich mit allen Zutaten, so dass nicht mehr zu erkennen ist, wer der Übeltäter war. Vor diesem Problem stehen auch die Meereschemiker*innen des Leibniz-Instituts für Ostseeforschung Warnemünde, wenn sie herausfinden wollen, ob Maßnahmen zur Reduktion von Nährstoffeinleitungen über die Flüsse in der offenen Ostsee nachweisbar sind. Insgesamt 40.000 Tonnen weniger Stickstoff und 1.000 Tonnen weniger Phosphor wurden von 1995 bis 2014 von den Anrainerstaaten in die westliche Ostsee eingeleitet. Die gemessenen Konzentrationen in der offenen Ostsee zeigen jedoch trotzdem keine Verbesserung.

Kürzlich wertete ein Team um den Warnemünder Meereschemiker Joachim Kuss erstmalig einen Datenschatz von über einer halben Millionen Daten aus, um der Wirkung der Reduktionsmaßnahmen auf die Spur zu kommen. Dabei machten sie sich den Umstand zunutze, dass die Flüsse im Meer letztlich doch ihre Spuren hinterlassen, in dem sie den Salzgehalt des Ostseewassers verringern. Erwartungsgemäß zeigte sich, dass die Konzentrationen der Nährstoffe im Allgemeinen mit zunehmender Entfernung von der Mündung und zunehmendem Salzgehalt abnahmen. Die große Datenmenge, die den Wissenschaftler*innen für den Zeitraum 1995 – 2016 zur Verfügung stand, ermöglichte es ihnen aber auch herauszuarbeiten, dass die Veränderungen des Verhältnisses von Nährstoff-Konzentration zum Salzgehalt auf der Strecke zwischen Küste und offener Ostsee nicht immer gleich blieben, sondern sich im Untersuchungszeitraum änderten: die Reduktion der Nährstoffe war jetzt zu erkennen!
Die angewandte Methodik enthüllte aber noch andere Zusammenhänge: während es eine besonders gute Korrelation zwischen dem Salzgehalt und den Stickstoffkomponenten gab, zeigte der Phosphorgehalt nur eine geringe Abhängigkeit von der Salinität. Dies untermauert, dass Stickstoff in bedeutender Weise an Flusswassereinträge geknüpft ist, wogegen Phosphor deutlich erkennbar auch aus anderen, Ostsee-internen Quellen stammt.
Um für die Phosphor-Komponenten, die ohne Zweifel auch in bedeutender Menge über Flüsse eingetragen werden, signifikante Informationen bezüglich der zeitlichen Abnahme zu bekommen und auch die Datenbasis für Stickstoff zu verbessern, wurden in Kooperation mit dem Landesamt für Umwelt, Naturschutz und Geologie, Mecklenburg-Vorpommern, und dem Landesamt für Landwirtschaft, Umwelt und ländliche Räume, Schleswig-Holstein, die IOW-Datensätze um die aus dem küstennahen Bereich stammenden Messergebnisse der Landesämter erweitert.
Anhand dieses vergrößerten Datenpools ließen sich für die Übergangsregion zwischen Süß- und Salzwasser die Auswirkungen der vielfältigen Prozesse, die hier auf die Nährstoffe einwirken, gut herausarbeiten: Organismen nutzen die günstige Nährstoffsituation und bilden Blüten aus. Dadurch werden Nährstoffe dem Wasser entzogen und in organische Substanz umgewandelt. Die absterbende Blüte sinkt zum Meeresboden, wo sie von Mikroorganismen zersetzt wird. Diese leisten einen zwiespältigen Beitrag zur Nähstoffreduktion, denn sie wandeln reaktive Stickstoffkomponenten in inaktiven elementaren Stickstoff um. Für die Stickstoffbilanz eine wichtige positive Leistung, für die Phosphorbilanz kann das jedoch schädlich sein: Bei der Zersetzung der organischen Substanz wird Sauerstoff verbraucht. Wird das flache Wasser des Übergangsbereiches durch Wind und Wellen gut durchmischt, ist das unkritisch. In ruhigen Wetterlagen können sich am Boden jedoch „tote Zonen“ bilden. Dann werden Phosphor-Verbindungen, die unter guten Sauerstoffbedingungen im Sediment eingelagert werden, gelöst und erhöhen den Phosphoranteil im Wasser. „Gegenwärtig werden die Sauerstoffmangelsituationen in den Küstengewässern häufiger.“ erläutert Erstautor Joachim Kuss, „Dadurch erscheint die Phosphatbelastung der westlichen Ostsee zurzeit als das primäre Problem. Das darf aber nicht darüber hinwegtäuschen, dass es auch die eingetragenen Stickstoffverbindungen sind, die letztlich zu Sauerstoffmangel und zur Reaktivierung alter Phosphorablagerungen am Meeresboden führen. Es besteht weiterhin Handlungsbedarf, um beide Nährstoffe zu reduzieren.“

Die vom IOW bereitgestellten Datensätze wurden im Rahmen des HELCOM-Monitorings im Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie erhoben.

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Joachim Kuss | Tel.: +49 (0)381 5197 393 | joachim.kuss@io-warnemuende.de

Originalpublikation:
Kuss J, Nausch G, Engelke C, Weber M, Lutterbeck H, Naumann M, Waniek JJ and Schulz-Bull DE (2020) Changes of Nutrient Concentrations in the Western Baltic Sea in the Transition Between Inner Coastal Waters and the Central Basins: Time Series From 1995 to 2016 With Source Analysis. (Frontiers in Earth Science. 8:106. doi: 10.3389/feart.2020.00106 )

Quelle: IDW

(nach oben)


Überlastung der Sehnen im Sport – was ist zu tun?

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)

Überlastungsbedingte Verletzungen von Sehnen sind typische Beschwerden von Sportlern jeden Alters und Leistungsanspruchs. Gerade die lasttragenden unteren Extremitäten, besonders die Achilles- und die Patellarsehne, sind bei vielen Aktivitäten und Sportarten für Tendinopathien anfällig. Doch was tun, wenn die Sehne durch Überlastung verletzt ist?

Von Tendinopathien spricht man, wenn eine schmerzhafte und in ihrer Funktion eingeschränkte Sehnenstruktur vorliegt. Sportler haben dabei erhebliche Einbußen ihrer Leistungsfähigkeit mit der potenziellen Gefahr eines Sehnenrisses. Gründe für Tendinopathien können eine eingeschränkte Stoffwechselaktivität des Sehnengewebes mit veränderter Kollagenzusammensetzung mit feinsten Rissen auf mikrostruktureller Ebene sein. Oder auch Entzündungsprozesse, die mit der Synthese und Interaktion proinflammatorischer Substanzen einhergehen.

Detaillierte Kenntnisse über die den Sehnenstoffwechsel beeinflussende Belastungsformen sind für Ärzte, Therapeuten und den Sportler deshalb unerlässlich.

Bekannte Trainingsparameter für Sportler sind die Intensität (Höhe und Richtung der mechanischen Belastungen), Umfang (Dauer der mechanischen Belastungen), Frequenz (Häufigkeit der mechanischen Belastung je Zeiteinheit), Regenerationszeiten sowie die Geschwindigkeit des mechanischen Kraftanstieges (Kraftanstiegsrate und Kraftimpuls).

Aus biomechanischer Sicht hat die Richtung der Krafteinwirkungen entscheidende Bedeutung. Axiale
Traktionsbelastungen (Zugbelastung) sind physiologischer mechanischer Natur für kraftübertragende Sehnen und daher ideal, um optimale, der Zugrichtung entsprechende Umbau- und Anpassungsprozesse auszulösen.

Verschiedene Therapien möglich
Die jeweilige Therapie muss immer individuell auf den Patienten zugeschnitten sein. Eckpfeiler sind
die Aufklärung des Patienten und die realistische Einschätzung der individuellen zeitlichen Ressourcen. Ein Trainingstagebuch mit der Vorgabe und Dokumentation von Therapie- und Trainingsmaßnahmen sowie der Veränderungen des Schmerzempfindens (z. B. visuelle Analogscala)
ist sinnvoll.

Priv.-Doz. Dr. med. Thilo Hotfiel, Orthopäde, Unfallchirurg und Vorstand in der GOTS erklärt: „Das ´exzentrische Training´ hat sich in einer Vielzahl hochqualitativer Studien als therapeutischer Goldstandard in der konservativen Behandlung der Achilles und Patellarsehnen-Tendinopathie etabliert. Für Anpassungen des Sehnengewebes ist allerdings die Höhe der einwirkenden Kräfte, die Geschwindigkeit und Qualität der Bewegungsausführung sowie deren Dauer bedeutsamer als die Kontraktionsform der mechanischen Spannung erzeugenden Muskulatur. Neben dem exzentrischen Krafttraining zeigen deshalb ebenso das isometrische, konzentrische und (Heavy) Slow Resistance Training gute klinische Ergebnisse.“

Die verschiedenen Trainingsformen sind in Abhängigkeit des Stadiums, der Lokalisation, der Belastungsfähigkeit und des Schmerzniveaus durchzuführen. Mit abnehmenden Beschwerden gilt es nach einer ersten Phase langsamer und besonders kontrollierten Übungen die Belastungen zu steigern und sowohl verstärkt schnellkräftige als auch sportspezifische Bewegungsmuster in das Trainingsprogramm zu integrieren.

Auch die extrakorporale Stoßwellentherapie (ESTW) zeigt bei einigen Tendinopathien positive Effekte. Bei Mid-Portion-Tendinopathien ist häufig eine Kombination von ESTW und exzentrischem Krafttraining wirksam.

Auf die peri- und peritendinöse Injektion von Glucocorticoiden (Cortisonpräparate) sollte bei Tendinopathien verzichtet werden.

Originalpublikation:
https://www.springermedizin.de/ueberlastungsbedingte-tendinopathien/18054106

Quelle: IDW

(nach oben)


Mit Biomarkern auf Zeitreise in Sachen „Blaualgen“: Ostsee-Sedimentarchive zeigen Auftreten und Häufigkeit seit 1860

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Forschenden aus Warnemünde und dem kalifornischen La Jolla gelang es erstmals, mithilfe von Biomarkern und einem gut datierten Sedimentkern die Geschichte der Blaualgenblüten in der zentralen Ostsee über die letzten 160 Jahre zu rekonstruieren. So verlängerten sie den Zeitraum, für den bislang Informationen zur Häufigkeit der Blüten vorlagen, deutlich in die Vergangenheit hinein. In einem in der internationalen Fachzeitschrift Biogeosciences erschienenen Artikel diskutieren sie mögliche Ursachen für die erfassten Schwankungen. Für eine kausale Verbindung zur Überdüngung der Ostsee finden sie keine klaren Anzeichen, wohl aber zur Entwicklung der Sommertemperaturen des Oberflächenwassers.

Der Hochsommer ist ihre Zeit: Cyanobakterien – umgangssprachlich Blaualgen genannt – geht es im Zeitraum Juli/August, wenn nach der Hauptwachstumsphase nur noch wenig Nährstoffe im Oberflächenwasser sind, besonders gut. Dann kann ihr massenhaftes Auftreten nicht nur den Badespaß vermiesen, weil es das Wasser in eine gelbbraune Brühe verwandelt, diese Organismen schaden auch dem Ökosystem. Denn sterben die Algenmassen ab, so sinken sie auf den Meeresboden, wo bei ihrer Zersetzung Sauerstoff verbraucht wird. Die „toten Zonen“ am Boden der Ostseebecken breiten sich weiter aus. Den Ursachen der häufigen Blaualgenblüten versuchen die Meeresbiolog*innen am Leibniz-Institut für Ostseeforschung Warnemünde seit Jahren auf den Grund zu kommen. Nun erhielten sie Unterstützung durch ihre Kolleg*innen aus der Sektion Marine Geologie.

Zum Einsatz kamen zwei Biomarker, die fast ausschließlich durch die in der Ostsee häufig vorkommenden Cyanobakterien Aphanizomenon sp. und Nodularia spumigena produziert werden. Sie heißen 6- und 7-Methylheptadecan (abgekürzt: 6+7Me-C17:0). Dabei handelt es sich um Kohlenwasserstoffe, die die Cyanobakterien aus Fettsäuren herstellen. Sie haben die vorteilhaften Eigenschaften, sich auch innerhalb von Jahrtausenden nicht zu zersetzen und sich mit einem vertretbaren methodischen Aufwand in Sedimentproben detektieren zu lassen. So gelang es einem Team um den Warnemünder Meeresgeologen Jérôme Kaiser, innerhalb eines auf 160 Jahre datierten Sedimentkernes durchgehend Cyanobakterien nachzuweisen, bis 1920 aber in nur relativ geringer Häufigkeit. Danach wechselten sich Perioden mit hoher und niedriger Häufigkeit ab. Einen signifikanten Anstieg in den 1950er Jahren, als die Überdüngung der Ostsee erheblich zunahm, fanden sie nicht. Dafür zeigte sich aber eine Parallelität zur Entwicklung der sommerlichen Temperatur des Oberflächenwassers in der zentralen Ostsee. Gleichfalls scheinen zyklische Zirkulationsschwankung der Ozeanströmungen im Nordatlantik (60-90 Jahre) indirekt Einfluss zu nehmen.

Um die Aussagekraft der Biomarker zu beleuchten, werteten die Warnemünder frisch sedimentiertes Material einer Cyanobakterienblüte aus Sinkstofffallen der zentralen Ostsee im Hinblick auf ihren Gehalt an den Biomarkern im Verhältnis zu Menge und Masse der beprobten Cyanobakterien aus. Sinkstofffallen sind große trichterartige Gefäße, die am Meeresboden verankert und mit Auftriebskörpern aufrecht im Wasser gehalten werden. Sie sammeln alles, was in sie hineinfällt, getrennt nach einzelnen Wochen, in Auffangbehälter.

Die Biomarker-Daten, sowohl aus diesem Sinkstofffallenmaterial als auch aus dem Sedimentkern, verglich das Team mit den Angaben zum Aufkommen von Cyanobakterien aus Monitoring-Programmen und Satellitenbildern der letzten 35 Jahre. Sie wiesen nach, dass die Biomarker 6+7Me-C17:0 nicht nur generell die Anwesenheit von Cyanobakterien anzeigen, sondern darüber hinaus auch grobe Aussagen über die Mengen an Organismen zulassen, die die Biomarker produziert haben. Das gilt vor allem für die Spezies Nodularia spumigena, die in der zentralen Ostsee häufigste Cyanobakterien-Art.

Mit diesen Erkenntnissen wagten sich die Wissenschaftler*innen auch an einen 7.000 Jahre umfassenden Sedimentkern aus der Bottensee, einem Becken im Norden der Ostsee. Dieser Zeitabschnitt umfasst das mittlere und späte Holozän, eine warmzeitliche Epoche, die mit dem Ende der letzten Eiszeit begann. Für die heutige Klimaforschung ist sie besonders interessant, weil im Klimaoptimum des mittleren Holozäns die durchschnittlichen Temperaturen auf der Nordhemisphäre um 1-1.5 °C höher als heute waren. In einem entsprechenden Abschnitt des Bottensee-Sedimentkernes, war der Gehalt an 6+7Me-C17:0 bis zu 100mal höher als in der heutigen zentralen Ostsee. Das legt häufige und starke Cyanobakterienblüten nahe – dort, wo heute die Biomasse der Cyanobakterien-Blüten 4- bis 5-mal geringer ist als in der zentralen Ostsee – eine enorme Veränderung. „Die beiden Methylheptadekan-Biomarker sind für das gesamte Holozän einsetzbar,“ fasst Jérôme Kaiser die Ergebnisse zusammen. „Sie haben uns gezeigt, dass Cyanobakterien drastisch auf Klimaanomalien reagieren können. In Anbetracht der anhaltenden Erderwärmung sollten wir das im Blick behalten.“

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Jérôme Kaiser, IOW, Sektion Marine Geologie | Tel.: +49 (0)381 5197 3414 | jerome.kaiser@io-warnemuende.de
Dr. Anke Kremp, IOW, Sektion Biologische Meereskunde | Tel.: +49 (0)381 5197 270 | anke.kremp@io-warnemuende.de

Originalpublikation:
Kaiser, J., N. Wasmund, M. Kahru, A. K. Wittenborn, R. Hansen, K. Häusler, M. Moros, D. Schulz-Bull and H. W. Arz (2020). Reconstructing N2-fixing cyanobacterial blooms in the Baltic Sea beyond observations using 6- and 7-methylheptadecane in sediments as specific biomarkers. Biogeosciences 17: 2579-2591, doi: 10.5194/bg-17-2579-2020

Quelle: IDW

(nach oben)


Energieforschung für beste Spannung in den Stromnetzen

Sabine Recupero Öffentlichkeitsarbeit und Kommunikation
Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH

An einer Verbesserung der Spannungsqualität in den Stromnetzen arbeiten Forscher der FH Kiel und der CAU Kiel. In Kooperation mit einem Windenergiepark- und Umspannwerkbetreiber an der Westküste Schleswig-Holsteins werden bis Mai 2022 Feldversuche in einem Umspannwerk in Vollstedt, Kreis Nordfriesland, durchgeführt und ausgewertet. Das Projekt wird aus dem HWT-Programm der gemeinnützigen Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH (EKSH) mit 140.000 Euro gefördert.

EKSH-Geschäftsführer Stefan Sievers übergab die Förderzusage am Freitag in Vollstedt an Prof. Dr.-Ing. Hans-Jürgen Hinrichs, der die wissenschaftliche Projektleitung innehat. Der Forscher an der FH Kiel arbeitet in dem Projekt mit seinem CAU-Kollegen Prof. Dr.-Ing. Marco Liserre zusammen. Der Kooperationspartner Windenergieberatung (WEB) Andresen GmbH, Breklum, beteiligt sich mit rd. 18 Prozent an den Gesamtkosten des Projekts. Netzwerkpartner sind die M.O.E. Moeller Operating Engineering GmbH, Itzehoe, und das Kompetenzzentrum Erneuerbare Energien und Klimaschutz Schleswig-Holstein (EEK.SH) in Kiel.

Wie lassen sich zukünftig Windparks zur Erbringung von so genannten Systemdienstleistungen einsetzen? Diese Forschungsfrage ist für Schleswig-Holstein mit seiner hohen Dichte an Windenergieerzeugungsanlagen bedeutend. Sowohl Betreiber von Windparks als auch alle anderen an das Netz angeschlossenen Erzeuger- und Verbraucheranlagen könnten von einer besseren Spannungsqualität profitieren, da hierbei die Verluste in allen elektrischen Betriebsmitteln verkleinert werden und sich deren Lebensdauer verlängert. „Das neue Forschungsvorhaben ist geeignet, die Energiewende nachhaltig zu unterstützen. Uns hat das Projekt sowohl fachlich überzeugt, als auch darin, dass hier viele Fachleute hochschul- und unternehmensübergreifend eng zusammen arbeiten“, sagte Sievers.

Das HWT-Programm ist eine der Säulen der Tätigkeit der gemeinnützigen EKSH. Seit 2012 sind 47 Kooperationsprojekte von Wissenschaftlern mit Unternehmen mit einem Fördervolumen von rd. 7 Mio. Euro unterstützt worden. Aus dem Programm können Projekte der angewandten Forschung und Entwicklung und des Transfers wissenschaftlicher Erkenntnisse in die Praxis (Pilotprojekte) gefördert werden. Zum Fachgebiet Energie und Klimaschutz gehören insbesondere Fragestellungen wie Energieproduktion, Energieverbrauch und -effizienz sowie Energieversorgung und Energiewirtschaft. Zum 1. Oktober sind schleswig-holsteinische Hochschulen erneut aufgefordert, spannende Projekte einzureichen.

Im Juni hat die EKSH eine Broschüre „Energieforschung in Schleswig-Holstein – Kooperationsgeschichten“ herausgegeben, die weitere Beispiele für Kooperationsprojekte von Wissenschaftlern mit Unternehmen enthält.

Weitere Informationen:

http://www.eksh.org/projekte-foerderung/hwt-energie-und-klimaschutz/
http://www.energieforschung.sh
https://www.eksh.org/presse/pressebilder/ Pressebild vom Ortstermin

Quelle: IDW

(nach oben)


Technologien im Alltag von älteren Menschen

Sarah Blaß Kommunikation und Veranstaltungsmanagement
Frankfurt University of Applied Sciences

Prof. Dr. Barbara Klein von der Frankfurt UAS liefert gemeinsam mit Uni-Kollegen Expertise für den achten Altersbericht „Ältere Menschen und Digitalisierung“ des Bundesfamilienministeriums

In einer Bundespressekonferenz hat die Bundesministerin für Familie, Senioren, Frauen und Jugend, Dr. Franziska Giffey, kürzlich den achten Altersbericht „Ältere Menschen und Digitalisierung“ der Öffentlichkeit vorgestellt. Die Digitalisierung bietet älteren Menschen viele Chancen, um möglichst lange ein selbständiges und eigenverantwortliches Leben führen zu können. Das ist eines der zentralen Ergebnisse des Berichts. Die Kommission hat zu verschiedenen Themen Expertisen eingeholt, deren Erkenntnisse in den Altersbericht eingeflossen sind. Prof. Dr. Barbara Klein von der Frankfurt University of Applied Sciences (Frankfurt UAS) hat zusammen mit Prof. Dr. Frank Oswald von der Frankfurter Goethe-Universität mit einer Expertise zu den „Möglichkeiten und Herausforderungen der Implementierung von Technologien im Alltag von älteren Menschen“ dazu beigetragen. Themen der Expertise waren unter anderem Robotik, assistive Technologien, digitale Gesundheitsanwendungen und technikgestützte Dienstleistungen für ein selbstständiges Leben.

Klein und Oswald geht es bei den Technologien mit denen sie sich befassten nicht um konkrete Produkte, sondern vielmehr um einen Einblick in die Strategien und Methoden zur Implementierung von digitalen Assistenzsystemen in verschiedenen alltagsrelevanten Lebenswelten älterer Menschen. Alltagsrelevante Lebenswelten umfassen dabei das private Wohnen von der eigenen Häuslichkeit bis zum Quartier mitsamt der pflegerischen und gesundheitlichen Versorgung sowie den Kontext von Dienstleistungen in der Altenhilfe. Die heutige Verbreitung technologischer Lösungen für ein selbstbestimmtes Leben im Alter zeigt zum einen das Implementierungspotenzial auf, weist aber auch auf weitere Handlungsbedarfe hin.

Prof. Dr. Barbara Klein ist Sprecherin des Forschungszentrums FUTURE AGING der Frankfurt UAS. Rund 20 Professorinnen und Professoren aus allen vier Fachbereichen der Frankfurt UAS haben an diesem Forschungszentrum die Möglichkeit, Erfahrungen und Expertise aus diesen einzubringen, um nutzungsfreundliche und soziotechnische Forschungs- und Entwicklungsthemen für das Wohnen und Arbeiten in einer älter werdenden Gesellschaft zu bearbeiten. Das Frankfurter Forum für Interdisziplinäre Alternsforschung der Goethe Universität, dessen Vorstandssprecher Prof. Dr. Frank Oswald ist, ist assoziiertes Mitglied des Zentrums.

Die Expertise kann unter folgendem Link https://www.achter-altersbericht.de/fileadmin/altersbericht/pdf/Expertisen/Exper… herunter geladen werden; eine Kurzfassung des Altersberichts ist hier abrufbar: https://www.achter-altersbericht.de/.

Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 4: Soziale Arbeit und Gesundheit, Prof. Dr. Barbara Klein, Telefon: +49 69 1533-2877, E-Mail: bklein@fb4.fra-uas.de

Weitere Informationen:

http://www.frankfurt-university.de/fb4

Quelle: IDW

(nach oben)


Neue Erkenntnisse zur Evolution von bakteriellen Antibiotikaresistenzen

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Kieler Forschungsteam untersucht, wie sich die Antibiotikagabe auf die Mechanismen der von Plasmiden vermittelten Vererbung von Resistenzgenen auswirkt

Die Erbinformationen vieler Mikroorganismen, insbesondere der Bakterien, liegen zum Teil in sogenannten Plasmiden vor. Das sind genetische Elemente, die aus nur einem einzelnen DNA-Ring bestehen, nicht auf den Chromosomen vorliegen und sich eigenständig vervielfältigen können. Bakterien ist es dank solcher Plasmide möglich, Erbinformationen sehr schnell untereinander und auch über die Grenzen verschiedener Bakterienarten hinweg zu übertragen. Dieser als horizontaler Gentransfer bezeichnete Prozess ist zentral an der Evolution von Mikroorganismen beteiligt und hilft ihnen dabei, sich flexibel an veränderte Umweltbedingungen anzupassen. Insbesondere für bakterielle Krankheitserreger ist diese schnelle Anpassungsfähigkeit ein großer Vorteil.

Ein Forschungsteam vom Institut für Allgemeine Mikrobiologie an der Christian-Albrechts-Universität zu Kiel (CAU) wies im vergangenen Jahr nach, dass Plasmide als häufige Träger von Resistenzgenen dauerhaft und auch ohne Selektionsdruck stabil in Bakterienzellen überdauern können. So können sie ein Reservoir für die Entwicklung von Resistenzen bilden, das schon bei einmaliger Antibiotikagabe zur Behandlungsunempfindlichkeit der nachfolgenden Bakteriengenerationen führen kann. In einer nun anschließenden Arbeit haben die Wissenschaftlerinnen und Wissenschaftler aus der CAU-Arbeitsgruppe Genomische Mikrobiologie um Professorin Tal Dagan untersucht, welche Wirkung die Antibiotikagabe wiederum auf die Stabilität der Plasmide in den Bakterienzellen und damit ihren evolutionären Erfolg ausübt. Sie stellten fest, dass der von den Antibiotika ausgehende Selektionsdruck nicht immer die stabile Plasmid-Vererbung fördert – obwohl die Plasmide für die Zelle vorteilhafte Resistenzgene tragen. Die Ergebnisse ihrer im Rahmen des Kiel Evolution Center (KEC) entstandenen Arbeit veröffentlichten die Forschenden gestern in der Fachzeitschrift Current Biology.

Plasmide und Bakterienzellen spielen nicht immer im selben Team
Das allgegenwärtige Vorkommen von Plasmiden in der Natur lässt zunächst vermuten, dass Plasmide eine stabile Vererbung entwickeln und langfristig beispielsweise in einer Bakterienpopulation erhalten bleiben – solange sie keinen negativen Einfluss auf die Fitness des Wirtslebewesens haben, etwa durch ihren Energiebedarf. Das Kieler Forschungsteam untersuchte daher, warum sich entgegen dieser Annahme nicht in allen Fällen eine Plasmid-Stabilität einstellt, obwohl ihre Anwesenheit unter Selektionsdruck vorteilhaft ist. Dazu kultivierten die Forschenden in Evolutionsexperimenten das Bakterium Escherichia coli jeweils mit und ohne Antibiotikagabe. So konnten sie überprüfen, wie sich im Vergleich die Anwesenheit der Plasmide über die Bakteriengenerationen entwickelte. „In Anwesenheit von Antibiotika muss jede Bakterienzelle eine Resistenz entwickeln, sonst stirbt sie. Daher überleben unter diesen Bedingungen alle Zellen, die ein Plasmid als Träger des Resistenzgens haben“, erklärt Erstautorin Dr. Tanita Wein, die kürzlich in Dagans Arbeitsgruppe promovierte. „Dabei ist es für die Bakterienzelle egal, in welchem Zustand sich das Plasmid befindet, und es überleben sowohl stabile als auch instabile Plasmid-Varianten“, so Wein weiter.

Dabei haben die Plasmide die Tendenz, sogenannte Multimere zu bilden, sich also aus mehreren einzelnen Plasmiden zu einer großen zusammenhängenden Struktur zusammenzuschließen. Wenn sich die Bakterienzelle anschließend teilt, geht das große Multimer mit dann mehreren Resistenzgenen nur in eine Tochterzelle über, die zweite neue Zelle erhält aber keines. Das dadurch wahrscheinlich verstärkte Plasmid mit seinen Resistenzgenen ist zwar für die Bakterienzelle von Vorteil, es wird dadurch allerdings auch instabil – denn ohne den Selektionsdruck eines Antibiotikums gehen die großen Multimere wieder verloren. Zusammenfassend bedeutet dies, dass die positive Selektion hinsichtlich der Antibiotikaresistenz zur Aufrechterhaltung von nicht-optimalen Plasmid-Varianten führt, die langfristig nicht stabil vererbt werden können.

Diese Vorgänge zeigen, dass die Bakterienzellen und die Plasmide im übertragenen Sinne kein gemeinsames Interesse haben. Die evolutionäre Selektion ihrer Eigenschaften findet auf unterschiedlichen Ebenen statt und dient nicht immer dem Vorteil beider Beteiligter, obwohl sie in einem gemeinsamen Organismus existieren. „Im konkreten Fall bedeutet dies, dass der durch das Plasmid vermittelte Vorteil für die Wirtszelle mit einem verringerten Erfolg für die Evolution der Plasmide einhergeht und die Interessen von Plasmid und Zelle in diesem Fall gegenläufig sind. Die Betrachtung von Plasmiden als sich autonom von ihren Wirtszellen entwickelnde Einheiten hilft also dabei, den Verlauf ihrer gemeinsamen Evolution besser zu verstehen“, erklärt Wein.

Besseres Verständnis der Resistenzevolution
Insgesamt könnten die neuen Kieler Forschungsergebnisse zu einem besseren Verständnis der Vererbungsprozesse bei Plasmiden und den damit verbundenen Konsequenzen für den Wirtsorganismus führen. „Unsere Ergebnisse legen nahe, dass eher schnell veränderliche Bedingungen wie die abwechselnde An- und Abwesenheit von Antibiotika und nicht so sehr eine konstante Selektion der Schlüssel zur schnellen Anpassung der Plasmide sind“, betont Dagan. „Unsere Erkenntnisse könnten daher auch auf die Prozesse anwendbar sein, die bei Krankheitserregern zur Entstehung von Multiresistenzen gegenüber verschiedenen Wirkstoffen führen“, meint Dagan.

Über das KEC
Das Kiel Evolution Center (KEC) als interaktive Wissenschaftsplattform an der Christian-Albrechts-Universität zu Kiel (CAU) setzt sich zum Ziel, Evolutionsforscherinnen und -forscher in der Region Kiel besser zu koordinieren. Daneben sollen unter dem Schlüsselbegriff „Translationale Evolutionsforschung“ gezielt Brücken zwischen Grundlagenforschung und Anwendung geschlagen werden. Neben der Förderung der Wissenschaft stehen ausdrücklich auch Lehre und Öffentlichkeitsarbeit im Fokus des Kiel Evolution Center. Daran beteiligt sind neben der CAU auch Forschende vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, dem Max-Planck-Institut für Evolutionsbiologie in Plön (MPI-EB) und dem Forschungszentrum Borstel (FZB), Leibniz-Zentrum für Medizin und Biowissenschaften.

Fotos stehen zum Download bereit:

https://www.uni-kiel.de/de/pressemitteilungen/2019/190-wein-naturecomms-lab.jpg
Bildunterschrift: Dr. Tanita Wein, die Hauptautorin der Studie, hat kürzlich promoviert und arbeitet derzeit als Postdoktorandin in der Forschungsgruppe von Prof. Rotem Sorek am Weizmann Institute of Science in Israel.
© Institut für Allgemeine Mikrobiologie, CAU

Weitere Informationen:
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel:
https://www.mikrobio.uni-kiel.de/de/ag-dagan

Forschungszentrum „Kiel Evolution Center“, CAU Kiel:
http://www.kec.uni-kiel.de

Wissenschaftliche Ansprechpartner:
Dr. Tanita Wein
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie
E-Mail: twein@ifam.uni-kiel.de
Tel.: 0431-880-5743

Prof. Tal Dagan
Leiterin AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel
E-Mail: tdagan@ifam.uni-kiel.de
Tel.: 0431-880-5712

Originalpublikation:

Tanita Wein, Yiqing Wang, Nils F. Hülter, Katrin Hammerschmidt, Tal Dagan (2020): Antibiotics interfere with the evolution of plasmid stability. Current Biology
First published on 13 August 2020
https://doi.org/10.1016/j.cub.2020.07.019

Weitere Informationen:
https://www.mikrobio.uni-kiel.de/de/ag-dagan
http://www.kec.uni-kiel.de

Quelle: IDW

(nach oben)


Rätselhafte Verdunklung von Beteigeuze: Der Staub lichtet sich

Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Astrophysik Potsdam

Zwischen Oktober 2019 und Februar 2020 nahm die Helligkeit des Sterns Beteigeuze um mehr als das Dreifache ab. Neue Beobachtungen des Hubble-Weltraumteleskops der NASA/ESA sowie des robotischen STELLA-Teleskops des Leibniz-Instituts für Astrophysik Potsdam (AIP) liefern nun eine Erklärung für das Phänomen.

Beteigeuze strahlt als heller Stern im Sternbild Orion. Er gehört zur Klasse der Roten Überriesen und würde im Zentrum unseres Sonnensystems bis über die Jupiterbahn hinausreichen. Im Herbst 2019 begann eine plötzliche Verdunklung des Sterns, die zunächst mit Teleskopen und später sogar mit bloßem Auge von der Erde sichtbar wurde – und die Wissenschaft zunächst vor ein Rätsel stellte. Der Stern ist mit seiner Entfernung von etwa 725 Lichtjahren unserem Sonnensystem relativ nahe. Tatsächlich hat das Verdunklungsereignis damit um das Jahr 1300 stattgefunden, da sein Licht die Erde erst jetzt erreicht. Beteigeuze wird sein Leben in einer Supernova-Explosion beenden. Einige Astronomen glauben, dass die plötzliche Verdunklung einen Vorboten der Supernova darstellen könnte.

Dank neuer Beobachtungsdaten, die mit dem Hubble Space Teleskop entstanden sind, hat ein internationales Team nun eine Staubwolke als wahrscheinliche Ursache für die Verdunklung ausgemacht: Die Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass der Stern superheißes Plasma aus einer großen Konvektionszelle von der Sternoberfläche ausstieß, ähnlich wie aufsteigende heiße Blasen in kochendem Wasser, nur mehrere hundert Mal so groß wie unsere Sonne. Das Material gelangte dann durch die heiße Atmosphäre zu den kälteren äußeren Schichten des Sterns. Dort kühlte es ab und die so entstandene riesige Staubwolke blockierte ab Ende 2019 das Licht von etwa einem Viertel der Sternoberfläche. Im April 2020 hatte Beteigeuze seine normale Helligkeit wieder erreicht.
Die Hubble-Beobachtungen sind Teil einer dreijährigen Studie der Schwankungen in der äußeren Atmosphäre des Sterns. Die seither entstandene Zeitreihe liefert wichtige neue Hinweise auf den Mechanismus hinter der Verdunklung. Hubble beobachtete die Schichten über der Oberfläche des Sterns, die so heiß sind, dass sie hauptsächlich im ultravioletten Bereich des Spektrums leuchten.

In den Herbstmonaten 2019 spürte Hubble dichtes, heißes Material in der Atmosphäre des Sterns auf. „Mit Hubble sahen wir, wie das Material die sichtbare Oberfläche des Sterns verlässt und sich durch die Atmosphäre bewegt, bevor sich der Staub bildet, der den Stern zu verdunkeln scheint“, sagt die leitende Forscherin Andrea Dupree, stellvertretende Direktorin des Zentrums für Astrophysik | Harvard & Smithsonian. „Wir konnten den Effekt einer dichten, heißen Region im südöstlichen Teil des Sterns sehen, die sich nach außen bewegt. Dieses Material war zwei- bis viermal heller als die normale Helligkeit des Sterns. Und dann, etwa einen Monat später, verdunkelte sich die Südhalbkugel von Beteigeuze auffallend, als der Stern schwächer wurde. Wir halten es für möglich, dass eine dunkle Wolke aus dem von Hubble entdeckten Ausstoß resultierte.“

Von besonderer Bedeutung während der Zeit der großen Verdunklung waren Geschwindigkeitsmessungen der äußeren Schichten von Beteigeuze mit dem STELLA-Teleskop des AIP auf Teneriffa, dessen Beobachtungen die von Hubble ergänzen. „STELLA wurde zur Beobachtung einzelner Objekte über einen sehr langen Zeitraum – insbesondere magnetisch aktiver Sterne – konstruiert. Es eignet sich perfekt für die Beobachtung heller Sterne wie Beteigeuze. STELLA beobachtete den Stern bereits seit 2006 praktisch in jeder klaren Nacht“, erklärt Klaus Strassmeier, Co-Autor der Studie und Direktor am AIP.

Obwohl die Ursache des Ausbruchs nicht bekannt ist, hält es das Forschungsteam für wahrscheinlich, dass er mit dem Pulsationszyklus des Sterns zusammenhängt und dadurch begünstigt wurde. Dieser setzte sich während des gesamten Ereignisses normal fort. Die AIP-Wissenschaftler setzten STELLA ein, um Veränderungen in der Geschwindigkeit des Plasmas auf der Sternoberfläche zu messen, während es im Laufe des Pulsationszyklus auf- und abstieg. Als das heiße Material aufstieg, dehnte sich der Stern in seinem Zyklus zur gleichen Zeit aus. Die Pulsation, die sich von Beteigeuze nach außen hin ausbreitete, hat möglicherweise dazu beigetragen, das ausströmende Plasma durch die Atmosphäre zu treiben.

„Hätte ein großer und sehr kühler Sternfleck die Verdunklung verursacht, wären die Geschwindigkeiten des Plasmas nicht der Pulsation, sondern der Rotation des Sterns gefolgt. Diese ist übrigens sehr langsam und beträgt viele Jahre. Sie hätte daher nicht zeigen können, was STELLA beobachtete, und schon gar nicht eine Umkehrung der Geschwindigkeit des Plasmas, als der Stern am schwächsten war“, schließt Strassmeier.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Klaus Strassmeier, 0331 7499 295, kstrassmeier@aip.de

Originalpublikation:

Andrea K. Dupree, Klaus G. Strassmeier, Lynn D. Matthews, Han Uitenbroek, Thomas Calderwood, Thomas Granzer, Edward F. Guinan, Reimar Leike, Miguel Montargès, Anita M. S. Richards, Richard Wasatonic, and Michael Weber (2020): Spatially Resolved Ultraviolet Spectroscopy of the Great Dimming of Betelgeuse. The Astrophysical Journal, 899, 68
https://doi.org/10.3847/1538-4357/aba516

Weitere Informationen:
https://www.aip.de/de/aktuelles/scientific-highlights/raetselhafte-verdunklung-v…
https://hubblesite.org/contents/news-releases/2020/news-2020-44
https://www.spacetelescope.org/news/heic2014/
https://www.nasa.gov/feature/goddard/2020/nasa-satellite-s-lone-view-of-betelgeu…
https://www.cfa.harvard.edu/news/2020-17

Quelle: IDW

(nach oben)


Hannoveraner Physikerteam entwickelt mobilen Schnelltest zur Erkennung von giftigen Blaualgen

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Team der Leibniz Universität Hannover ist an einem Projekt beteiligt, das auf große finanzielle Einsparungen bei Wasseruntersuchungen zielt – profitieren sollen Wasserwerke, Kommunen und Badeseebetreiber

Verfärbt sich im Sommer das Wasser in Badeseen und Teichen grün, handelt es sich dabei oft um Cyanobakterien. Diese auch Blaualgen genannten Mikroorganismen können einige der gefährlichsten natürlich vorkommenden Gifte auf der Welt in sich tragen, die Cyanotoxine. Insbesondere Kinder, aber auch Wassersportler und Hunde sind durch sie gefährdet. Denn das Verschlucken oder der Hautkontakt mit den Blaualgen kann unter anderem zu Haut- und Schleimhautreizungen, Durchfall oder Fieber führen. Deswegen werden befallene Gewässer regelmäßig gesperrt. Um Gewässer sicherer zu machen, will das neue Verbundforschungsprojekt „CyanoBakterien und -toxin Erfassung (CyBER)“ in den nächsten drei Jahren einen mobilen Schnelltest zum Erkennen der giftigen Blaualgen entwickeln.

Wissenschaftlicher Partner des Projektes ist das HOT – das Hannoversche Zentrum für Optische Technologien – an der Leibniz Universität Hannover unter Geschäftsführer Prof. Dr. Bernhard Roth, der auch die Arbeitsgruppe F1 – Präzisionsmesswesen (Metrologie) im Exzellenzcluster PhoenixD (Photonics, Optics, and Engineering – Innovation Across Disciplines) leitet: „In diesem Projekt übertragen wir in der Grundlagenforschung entwickelte optische Technologien in die Praxis und ermöglichen so innovative und präzise Messtechnik“, sagt Roth. „Langfristig möchten wir solche komplexen Systeme mittels additiver Fertigung, also zum Beispiel 3D-Druck, realisieren, sie mit künstlicher Intelligenz ausstatten und für die breite Nutzung verfügbar machen. Das passt sehr gut zu unserem Exzellenzcluster PhoenixD, der die Grundlagen für die digitale, individualisierte Optik-Produktion der Zukunft erforscht.“

Das Umweltanalytikunternehmen bbe Moldaenke aus Schwentinental bei Kiel koordiniert das Verbundprojekt, dem auch das Institut für Hygiene und Umwelt in Hamburg, das die Wasserressourcen in der Region überwacht, sowie der Messgerätehersteller ADM aus Krems II bei Bad Segeberg, angehören. Finanziert wird das Projekt durch die Förderinitiative „KMU-innovativ: Photonik und Quantentechnologie“ des Bundesministeriums für Bildung und Forschung.

Technisch wollen die Forschenden mehrere optische Technologien miteinander kombinieren: Fluoreszenzdetektion, Holographie und Ramanspektroskopie. So können die chemische Zusammensetzung der Stoffe auf molekularer Ebene erkannt sowie Form und Lage der Objekte bestimmt werden. Die Wasserproben werden kontaktlos und präparationsfrei nur mittels optischer Verfahren untersucht. Das geplante Verfahren wird auch bereits gebildete, aber noch nicht freigesetzte Cyanotoxine erkennen sowie nicht giftige, aber zur späteren Giftbildung fähige Cyanobakterien erfassen. „Mit dieser Innovation wird es möglich sein, potenziell gefährdete Gewässerbereiche effektiv zu überwachen“, sagt Christoph Wetzel, Doktorand und Wissenschaftlicher Mitarbeiter am HOT. „Unser Verfahren bedeutet eine deutliche Verbesserung gegenüber dem aktuellen Stand der Wissenschaft und Technik“, sagt Dr. Ann-Kathrin Kniggendorf, in deren Gruppe am HOT die Forschungsarbeiten durchgeführt werden.

Dr. Regine Redelstein, Leiterin des Referats Aquatische Biologie und Ökotoxikologie am Institut für Hygiene und Umwelt in Hamburg, sagt: „Mit der Technik kann bereits vor Ort das Gefährdungspotential einer Cyanobakterienblüte bewertet werden, sodass schneller als bisher Entscheidungen über die Sperrung eines Gewässers getroffen werden können. Das wäre in Hamburg unter anderem vor Großveranstaltungen, wie zum Beispiel dem jährlich stattfindenden Iron Man oder Triathlon, bei denen in der Alster geschwommen wird, von großer Bedeutung.“

„Das Projekt bedeutet für meine Firma bbe nicht nur einen optischen Quantensprung“, sagt Christian Moldaenke, Geschäftsführer von bbe Moldaenke, „sondern auch einen ökologischen und wirtschaftlichen. Die Überwachung und Sicherung von Badegewässern und Trinkwasser kann extrem verdichtet stattfinden, der Einzeltest wird nur noch für einen Bruchteil der bisherigen Kosten durchführbar sein.“ Zumal für die Anwendung kein Fachpersonal nötig sein wird. Großes Marktpotenzial sieht das Team nicht nur bei Aufsichtsbehörden und Trinkwasserversorgern, sondern auch bei Aquakulturbetreibern, Fischern und Betreibern von Badeseen.

Der Exzellenzcluster PhoenixD
Im Exzellenzcluster PhoenixD der Leibniz Universität Hannover forschen mehr als 100 Wissenschaftlerinnen und Wissenschaftler aus den Fachdisziplinen Physik, Maschinenbau, Elektrotechnik, Chemie, Informatik und Mathematik fachübergreifend zusammen. Der Cluster lotet die Möglichkeiten aus, die sich durch die Digitalisierung für neuartige optische Systeme sowie ihre Fertigung und Anwendung ergeben. In den Jahren 2019 bis 2025 wird der Cluster mit rund 52 Millionen Euro vom Bund und dem Land Niedersachsen über die Deutsche Forschungsgemeinschaft (DFG) gefördert. Kooperationseinrichtungen des Clusters sind die Technische Universität Braunschweig, das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut), die Physikalisch-Technische Bundesanstalt und das Laser Zentrum Hannover e.V.

Hinweis an die Redaktion:
Die Wissenschaftlerinnen und Wissenschaftler stehen für Interviews zur Verfügung. Bitte wenden Sie sich an:

Prof. Dr. Bernhard Wilhelm Roth, Leiter der Task Group F1 – Precision Metrology im Cluster PhoenixD und Geschäftsführer des HOT – Hannoversches Zentrum für Optische Technologien, Telefon +49 511 762 17907, E-Mail: bernhard.roth@hot.uni-hannover.de

Quelle: IDW

(nach oben)


Wirkungsmechanismen von Antibiotikakombinationen entdeckt

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Bildung und Auflösung von Rückstaus bei der Übersetzung der DNA-Sequenz verursacht Wechselwirkungen zwischen Antibiotika.

Es ist meist schwer vorhersehbar, wie Arzneimittel wirken, wenn sie miteinander kombiniert werden. Manchmal verstärken zum Beispiel zwei Antibiotika ihre Wirkung und hemmen das Wachstum von Bakterien stärker als erwartet; in anderen Fällen ist die gemeinsame Wirkung schwächer. Da es sehr viele verschiedene Möglichkeiten gibt, Medikamente wie Antibiotika miteinander zu kombinieren, ist es wichtig, die Wirkung solcher Arzneimittelkombinationen vorhersagen zu können. Eine neue Arbeit zeigt jetzt, dass solche Vorhersagen für Kombinationen bestimmter Antibiotika oft möglich sind, indem der Wirkungsmechanismus der einzelnen Antibiotika quantitativ charakterisiert wird. Das ist das Ergebnis einer gemeinsamen Studie von Professor Tobias Bollenbach von der Universität zu Köln mit Professor Gašper Tkacik und dem Doktoranden Bor Kavcic vom Institute of Science and Technology Austria, deren Ergebnisse jetzt in der Fachzeitschrift Nature Communications unter dem Titel „Mechanisms of drug interactions between translation-inhibiting antibiotics“ veröffentlicht wurden.

„Wir wollten untersuchen, wie Antibiotika, die die Proteinsynthese in Bakterien hemmen, in Kombination miteinander wirken und diese Effekte soweit wie möglich mit mathematischen Modellen vorhersagen“, erklärt Bollenbach. Als Leiter der Arbeitsgruppe „Biologische Physik und Systembiologie“ erforscht er an der Universität zu Köln unter anderem, wie Zellen auf Kombinationen von Medikamenten und anderen Signalen reagieren.

Bakterielle Ribosomen sind in der Lage, schrittweise die DNA-Sequenz in die Aminosäuresequenz von Proteinen zu übersetzen (Translation). Viele Antibiotika setzen an diesem Punkt an und hemmen die Translation. Dabei blockieren verschiedene Antibiotika gezielt unterschiedliche Schritte des Translationszyklus. Die Wissenschaftler konnten zeigen, dass die Wechselwirkungen zwischen den Antibiotika durch Engpässe im Translationszyklus verursacht werden. Dieser Effekt führt unter anderem dazu, dass eine Kombination von Antibiotika, die den Anfang und die Mitte des Translationszyklus hemmen, sich stark in ihrer Wirkung abschwächt.

Um die zugrundeliegenden Mechanismen der Arzneimittelwechselwirkungen zu klären, erzeugten die Wissenschaftler künstliche Translationsengpässe, die die Wirkung bestimmter Antibiotika genetisch nachahmen. Befindet sich ein solcher Engpass in der Mitte des Translationszyklus, bildet sich ein Rückstau von Ribosomen, der sich durch Einführen eines weiteren Engpasses am Anfang des Translationszyklus wieder auflöst. Durch eine Kombination von theoretischen Modellen aus der statistischen Physik und Experimenten konnten die Wissenschaftler zeigen, dass dieser Effekt die Arzneimittelwechselwirkung zwischen Antibiotika, die diese Translationsschritte blockieren, erklärt.

Tobias Bollenbach ordnet die Ergebnisse ein: „Unsere Untersuchungen haben gezeigt, dass ein quantitatives Verständnis der Wirkung einzelner Antibiotika Vorhersagen über die Wirkung von Antibiotikakombinationen ermöglicht, ohne dass alle möglichen Kombinationen per Trial-and-Error durchprobiert werden müssen. Diese Erkenntnis ist wichtig, weil der gleiche Ansatz langfristig auf andere Medikamente angewendet werden kann und so die Entwicklung neuer, besonders wirkungsvoller Arzneimittelkombinationen ermöglichen kann.“

Inhaltlicher Kontakt:
Professor Dr. Tobias Bollenbach
Institut für Biologische Physik
+49 221 470 1621
t.bollenbach@uni-koeln.de

Presse und Kommunikation:
Sarah Brender
+49 221 470-1700
s.brender@verw.uni-koeln.de

Zur Veröffentlichung:
https://www.nature.com/articles/s41467-020-17734-z

Quelle: IDW

(nach oben)


Blaulichtschalter aus Algen steuert elektrische Erregung von Pflanzen

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wie entstehen elektrische Impulse in höheren Pflanzen, welche molekularen Grundlagen haben sie? Das lässt sich jetzt erstmals nicht-invasiv untersuchen. Die neue Methodik ist im Fachjournal PNAS veröffentlicht.

Biologische Techniken zur Steuerung zellulärer Prozesse mit Hilfe von Licht werden unter dem Begriff Optogenetik zusammengefasst. Einem internationalen Forschungsteam unter Federführung der Würzburger Pflanzenwissenschaftler Rainer Hedrich, Georg Nagel und Dirk Becker ist es gelungen, diese Methode auf höhere Pflanzen anzuwenden: Durch Lichtimpulse lassen sich nun elektrische Erregungen in Pflanzen auslösen.

„Mit diesem Werkzeug können wir erstmals nicht-invasiv untersuchen, wie elektrisch basierte zelluläre Kommunikationswege in Pflanzen auf molekularer Ebene funktionieren und wie die Pflanze diese elektrischen Signale nutzt, um auf extreme Temperaturschwankungen, Insektenbefall oder andere Stressfaktoren zu reagieren“, sagt Dirk Becker.

Sind Pflanzen gestresst, senden sie weitreichende elektrische Signale aus, sogenannte Membranpotentialwellen. Damit übertragen sie Informationen schnell und präzise über weite Strecken, obwohl sie weder ein Gehirn noch Nervenzellen besitzen. Welche molekularen Mechanismen dabei ablaufen, ist weitgehend unbekannt. Neue Einblicke in diese komplexen Vorgänge liefert das Forschungsteam in der renommierten Fachzeitschrift PNAS (Proceedings of the National Academy of Sciences USA).

Algen liefern Werkzeuge für die Membranbiologie
Wie kann man in Pflanzen ein elektrisches Signal simulieren, das normalerweise durch Stress oder Verwundung ausgelöst wird, ohne dabei ungewollte Nebenreaktionen hervorzurufen?

Diese Herausforderung ging das Team mit Hilfe der Optogenetik an. Die Methode gibt es seit 2002. Für ihre Entwicklung wurden die Koautoren der aktuellen PNAS-Publikation, Georg Nagel und Ernst Bamberg, zusammen mit anderen Forschern mehrfach ausgezeichnet.

Die Optogenetik hat es möglich gemacht, die elektrische Aktivität von Nervenzellen mit Lichtimpulsen zu steuern. Zuvor werden die Nervenzellmembranen mit lichtempfindlichen Ionenkanälen aus Algen bestückt, den sogenannten Kanalrhodopsinen.

Stress führt zu Depolarisation und Ansäuerung
Höhere Pflanzen haben die lichtempfindlichen Ionenkanäle der Algen im Lauf der Evolution verloren, erklärt Dirk Becker. Nun ist es gelungen, die Gene für die Kanalrhodopsine in das Erbgut der Modellpflanze Ackerschmalwand (Arabidopsis thaliana) zurückzubringen, deren Blattzellen mit Licht gezielt zu erregen und die membranelektrische Antwort zu analysieren.
Stresst man Pflanzen, depolarisieren die gereizten Zellen und das Zellmilieu wird saurer. Das war bekannt. Wie aber lassen sich die beiden Vorgänge im Experiment simulieren? Die Würzburger Forscher verwenden dafür eine Kanalrhodopsin-Variante, die durch Blaulicht angeschaltet wird und dann Protonen in die Zelle leitet.

Normalerweise ist die Zellwand einer Pflanzenzelle um mindestens eine pH-Einheit saurer als das Zellinnere, so Rainer Hedrich. Öffnet sich der Protonenkanal, strömen zwangsläufig Protonen und damit positive elektrische Ladungen über die Zellmembran. Das depolarisiert die Membran und säuert das Zellinnere an.

Depolarisation lässt sich steuern
Um diesen Effekt experimentell auszulösen, wird ein blauer Laser auf das zu untersuchende Blattareal gerichtet und das Membranpotential der stimulierten Zellen verfolgt, erklärt Dirk Becker: „Über die Beleuchtungsstärke, Dauer und Häufigkeit der Blaulichtpulse haben wir die Form der Membrandepolarisation gesteuert und die Repolarisationsreaktion der Pflanzenzelle detailliert analysiert.“

Dabei zeigte sich, dass die Repolarisation maßgeblich durch ATP-getriebene Membranpotential-sensitive Protonenpumpen erfolgt. Wenn die Zellmembran depolarisiert, geht diese Protonenpumpe in einen Zustand erhöhter Aktivität über. Dabei befördert sie verstärkt positive geladene Protonen aus der Zelle, die Zellmembran repolarisiert.

Dieser Mechanismus unterscheidet sich grundlegend von dem in tierischen Nervenzellen, bei denen spannungsabhängige Kaliumkanäle diesen Prozess regulieren. Dass Pflanzen dies über eine Protonenpumpe und nicht über einen Kaliumkanal bewerkstelligen, konnten die Würzburger Pflanzenforscher beweisen: Eine Arabidopsis-Mutante ohne Kaliumkanal verhielt sich auf einen Lichtreiz hin wie eine normale Pflanze.

Kanalrhodopsine für alle Fälle
„Derzeit erproben wir weitere optogenetische Werkzeuge dieser Art“, so Rainer Hedrich. Dabei gelte es nicht nur, die zelluläre Kommunikation durch elektrische Signale aufzuklären. Es gehe auch darum, die Bedeutung von gleichzeitig auftretenden Kalziumwellen und pH-Signalen in Pflanzen zu verstehen.

Um zu klären, was Pflanzenzellen im Allgemeinen auszeichnet und welche zellspezifisch besonderen Ausprägungen entstanden sind, wollen die Forscher Kanalrhodopsine in Zellen mit unterschiedlichsten Funktionen einbringen. Dabei sollen auch Kanalrhodopsin-Varianten mit jeweils spezifischer Ionenselektivität Einsatz finden – und Licht in das Dunkel der verschlungenen Kommunikationswege der Pflanze bringen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dirk Becker, Lehrstuhl für Botanik I (Pflanzenphysiologie und Biophysik), Universität Würzburg, T +49 931 31-86108, dbecker@botanik.uni-wuerzburg.de

Prof. Dr. Rainer Hedrich, Lehrstuhl für Botanik I (Pflanzenphysiologie und Biophysik), Universität Würzburg, T +49 931 31-86100, hedrich@botanik.uni-wuerzburg.de

Originalpublikation:
„Channelrhodopsin-mediated optogenetics highlights a central role of depolarization-dependent plant proton pumps“, PNAS, 10. August 2020, https://www.pnas.org/cgi/doi/10.1073/pnas.2005626117

Quelle: IDW

(nach oben)


Vom städtischen Kanaldeckel bis zu monumentaler Architektur

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Uni Kiel startet Exzellenzprojekt „DenkRaum“ zur Zukunft unserer Städte. Ausschreibungen für promovierte Wissenschaftlerinnen und Wissenschaftler laufen

Um Städte für die Zukunft sicherer, nachhaltiger und widerstandsfähiger zu machen – gerade auch mit Blick auf den fortschreitenden Klimawandel – müssen verschiedene fachliche Perspektiven aus der Wissenschaft und die Erfahrung von Menschen außerhalb der Universität zusammengebracht werden. „Das soll in unserem neuen DenkRaum geschehen“, kündigt CAU-Vizepräsidentin Professorin Karin Schwarz anlässlich des Ausschreibungsbeginns von sechs Fellowships an. Hintergrund der Initiative ist die erfolgreiche Teilnahme der Christian-Albrechts-Universität zu Kiel (CAU) am Exzellenzwettbewerb des Bundes und der Länder. Mit der Bewilligung der zwei Exzellenzcluster „ROOTS – Konnektivität von Gesellschaft, Umwelt und Kultur in vergangenen Welten“ (PMI) erhielt die Landesuniversität zusätzliche Mittel für ihre strategische Weiterentwicklung. Der DenkRaum geht als erstes Projekt daraus hervor. Mit ihm werden Förderungen von sechsmal 40.000 Euro über zwei Jahre an Postdoktorandinnen und Postdoktoranden (Postdocs) sowie an promovierte Nachwuchsgruppenleitungen und Juniorprofessuren der CAU und ihrer Cluster vergeben. Bewerbungen sind ab sofort bis 6. September möglich unter: http://www.denkraum.uni-kiel.de.

„Ich freue mich sehr, dass wir dieses innovative Projekt jetzt auf den Weg bringen können. Der DenkRaum ist unsere – auf die strategischen Ziele der CAU abgestimmte – junge Akademie“, erklärt die für Forschung, Technologietransfer und wissenschaftlichen Nachwuchs zuständige Vizepräsidentin. „Die CAU setzt sich seit Jahren erfolgreich für promovierte Wissenschaftlerinnen und Wissenschaftler ein. Der DenkRaum stellt den Ideenreichtum und das Innovationspotenzial unserer Postdocs ins Zentrum und intensiviert die wissenschaftliche Zusammenarbeit über Fakultätsgrenzen hinweg, für die die CAU steht“, so Schwarz.

Gestalt und Gestaltung der Städte
Der Ausschreibung der Fellowships ging eine Themenfindung innerhalb der Kieler Universität voraus. Unter den Mitgliedern der Wissenschaftskommission setzte sich der Vorschlag von Archäologin und ROOTS-Mitglied Professorin Annette Haug durch: „Urban Design. Gestalt und Gestaltung der Städte in Vergangenheit, Gegenwart und Zukunft“.

Schon heute leben etwa 55 Prozent der Weltbevölkerung in Städten, im Jahr 2050 werden es schätzungsweise zwei Drittel sein. Urbanität ist somit ein zentrales, vielleicht sogar das prägendste Phänomen der Gegenwart, meint Anette Haug: „Das bringt große Herausforderungen mit sich“. Wie können wir beispielsweise genügend bezahlbaren Wohnraum schaffen, wie die konkurrierenden Bedürfnisse der verschiedenen Verkehrsteilnehmerinnen und -teilnehmer befriedigen? Wie gehen wir mit dem demografischen Wandel um und wie passen wir unsere Städte an die Auswirkungen des fortschreitenden Klimawandels an? Hier setze der DenkRaum Urban Design an: „Städte, als gebauter Raum und als Gemeinwesen, haben historisch und regional unterschiedlichste Formen ausgeprägt und sind auf vielfältige Weise gestaltbar. Das reicht vom Design städtischer Kanaldeckel bis zu monumentaler Architektur, vom nachbarschaftlichen Straßenfest bis zur soziopolitischen Gestaltung urbaner Lebensbedingungen“, so die Themenpatin.

„Das von Professorin Annette Haug vorgeschlagene Thema ist ein großes Zukunftsthema. Hier in der Region und auf der ganzen Welt. Ich bin schon sehr gespannt und freue mich auf die Projektideen unserer Postdocs zu diesem Thema“, ergänzt Karin Schwarz.

Über die Grenzen der Fächer und der Universität hinaus
Die Fellows erwartet ein kreatives Arbeitsumfeld, in dem sie gemeinsam innovative Projektideen verfolgen können. „Sie sollen Zeit bekommen, das Thema zusammen neu zu erkunden und sich intensiv mit den disziplinären Perspektiven der anderen Fellows auseinanderzusetzen“, erläutert Dr. Barbara Röckl, Koordinatorin des DenkRaums. Aber nicht nur der Austausch zwischen den Fellows werde gefördert, so die Vizepräsidentin: „Wir möchten auch unsere Zusammenarbeit mit Expertinnen und Experten aus Wirtschaft, Politik und Gesellschaft stärker ausbauen, und neue Themen ausloten, die aus der CAU selbst kommen.“ Die übergeordneten Ziele seien Austauschmöglichkeiten zu generieren und gezielt Verbindungen und Anreize zu schaffen, um Bekanntes neu und aus unterschiedlichen Perspektiven zu sehen sowie gemeinsam Neues zu entdecken. „Unser wissenschaftlicher Nachwuchs hat großen Gestaltungswillen, der sich im DenkRaum frei entfalten soll. Außerdem möchten wir die Fellows auch in ihrer Entwicklung als Führungspersönlichkeiten unterstützen“, betont Schwarz.

Mit den individuell gewidmeten Fördermitteln können die Wissenschaftlerinnen und Wissenschaftler beispielsweise an Tagungen und Kongressen teilnehmen oder Referentinnen und Referenten aus In- und Ausland sowie aus Gesellschaft, Politik oder Wirtschaft einladen. Zusätzlich steht dem DenkRaum ein gemeinsames Budget von bis zu 60.000 Euro jährlich zur Verfügung, um gemeinsame Projekte und Veranstaltungen zu realisieren. Unterstützt werden die Fellows durch die Koordinatorin des DenkRaums, Dr. Barbara Röckl, und das Postdoc-Zentrum der Uni Kiel.

Weitere Informationen und Ausschreibung unter:
http://www.denkraum.uni-kiel.de

Ein Foto steht zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2020/182-denkraum.jpg
Die Ausschreibung der Fellowships für den DenkRaum „Urban Design“ läuft ab 3. August.

Kontakt:
Dr. Barbara Röckl
Koordinatorin DenkRaum an der Christian-Albrechts-Universität zu Kiel
Telefon: 0431/880-4412
E-Mail: broeckl@uv.uni-kiel.de

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Claudia Eulitz
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: www.uni-kiel.de Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni Instagram: www.instagram.com/kieluni

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/182-denkraum

Quelle: IDW

(nach oben)


Worst-case-scenario für den Katastrophenfall

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg

Brandingenieure entwickeln Evakuierungsstrategien für Menschen mit Beeinträchtigungen

Ein Wissenschaftlerteam vom Institut für Apparate- und Umwelttechnik der Otto-von-Guericke-Universität Magdeburg hat bundesweit erstmals zur Entwicklung von Notfallkonzepten für die Evakuierung von Menschen mit körperlichen, geistigen oder altersbedingten Beeinträchtigungen in Pflegeeinrichtungen und Seniorenheimen im Katastrophenfall geforscht.

Im Rahmen des vom Bundesministerium für Bildung und Forschung BMBF geförderten Verbundprojektes „Sicherheit für Menschen mit körperlicher, geistiger oder altersbedingter Beeinträchtigung SiME“ analysierte das Team um Dr.-Ing. Andrea Klippel dafür über 700 Schadensfälle in bundesdeutschen integrativen Einrichtungen in den Jahren 2000 bis 2019. „Damit haben wir erstmals eine aktuelle Brandstatistik für integrative Einrichtungen in Deutschland zur Verfügung“, erklärt die Brandingenieurin der Fakultät für Verfahrens- und Systemtechnik der Uni Magdeburg. Diese Statistik zeige überblicksartig, unter anderem, wo im Katastrophenfall die meisten Toten und Verletzten zu beklagen waren und analysiere die Brandursachen und Brandorte. „Als der häufigste Brandentstehungsort stellte sich dabei das Bewohnerzimmer heraus“, so Klippel.

Aus diesen erstmals bundesweit zusammengeführten statistischen Daten entwickelte das Forschungsteam realitätsnahe computergestützte Brandsimulationen mit ganz unterschiedlichen Ausgangssituationen. „Wir haben, zum Beispiel, untersucht, wie und wo sich meistens der Rauch entwickelte, wie schnell und unter welchen Umständen die entstandene Rauchschicht absinkt oder in welchen Teilen der Gebäude die Temperaturen schnell steigen“, so Dr.-Ing. Andrea Klippel. „Darüber hinaus haben wir Wärmestrahlung und wahrscheinliche Sichtweiten berechnet und simuliert. So konnten wir den zeitlichen Verlauf von Brandkatastrophen einschätzen und Einsatzszenarien festlegen, wie und wann die Rettungskräfte wen evakuiert haben müssen um Personenschäden zu minimieren.“

Die Wissenschaftlerinnen und Wissenschaftler untersuchten dafür auch sogenannte Fußgängerdynamiken und analysierten die Ströme von über 100 Personen mit und ohne Beeinträchtigungen durch Korridore und Engstellen. Die Bewegung einzelner Personen wurde dabei von Kameras und Sensoren aufgezeichnet, um die Gruppendynamik besser zu verstehen und in Evakuierungsszenarien entsprechend berücksichtigen zu können.
„Die Evakuierung beeinträchtigter Personen aus einer Gefahrenlage ist in jedem Fall eine enorme Herausforderung für die Einsatzkräfte und das Pflegepersonal“, so Andrea Klippel. Im Notfall zähle bei allen Bränden jede Sekunde. „Aber Menschen mit Beeinträchtigungen – ob demente und in ihrer Mobilität eingeschränkte Senioren oder junge, blinde oder gehörlose Menschen in Behindertenwerkstätten, die vielleicht auch noch auf einen Rollstuhl angewiesen sind, fanden in Evakuierungsmodellen deutschlandweit bisher kaum Berücksichtigung.“

Nach drei Jahren Forschungsarbeit liegen nun auf der Basis dieser Computersimulationen erste Empfehlungen für Sicherheitskonzepte für die Evakuierung von Pflegeeinrichtungen, Seniorenheimen oder Behindertenwerkstätten bei Naturkatastrophen oder Bränden vor. Es wurden außerdem konkrete Schulungskonzepte erarbeitet, so Andrea Klippel, unter anderem für die Lebenshilfe Bergisches Land. „Mit Hilfe der Forschungsergebnisse ist es nun möglich, Rettungskräfte, Pflegepersonal, aber auch die Bevölkerung für die Problematik zu sensibilisieren und sie anhand neuer Strategien und Evakuierungsstrategien weiterzubilden.“

Das Projekt wurde von 2016 bis 2019 durch das Programm „Forschung für die zivile Sicherheit“ im Rahmen der Förderrichtlinie „Zivile Sicherheit – Resilienz im Krisen- und Katastrophenfall“ mit über einer Million Euro gefördert. Projektpartner waren neben der Otto-von-Guericke Universität Magdeburg, die Lebenshilfe Bergisches Land (LHBL), das Forschungszentrum Jülich (FZJ), die Hochschule Niederrhein (HSNR), die Anwender PTV Transport Consult (PTV) und TraffGo HT. Koordiniert wurden die Forschungen von der Bundesanstalt für Materialforschung und -prüfung unter der Verantwortung von Frau Dr.-Ing. Hofmann-Böllinghaus und Herrn M.Sc. Paul Geoerg.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Andrea Klippel, Fakultät für Verfahrens- und Systemtechnik, Institut für Apparate- und Umwelttechnik, E-Mail: andrea.klippel@ovgu.de, Tel.: +49 391 67-20180

Weitere Informationen:
https://www.bbk.bund.de/DE/Service/Fachinformationsstelle/Informationsangebote/F…

Quelle: IDW

(nach oben)


Ältestes Enzym der Zellatmung isoliert

Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

FRANKFURT. Forscher der Goethe-Universität haben das vielleicht älteste Enzym der Zellatmung gefunden. Aus dem Hitze liebenden Bakterium Thermotoga maritima konnten sie jetzt einen äußerst fragilen Proteinkomplex namens „Rnf“ isolieren. Die Gene, die für das Enzym kodieren, waren zwar bereits vor rund 10 Jahren entdeckt worden. Die Isolierung des Enzyms und damit der Nachweis, dass es wirklich von Bakterien gebildet und zur zellulären Energiegewinnung genutzt wird, ist jetzt erstmals den Frankfurter Forschern gelungen. (Communications Biology, DOI 10.1038/s42003-020-01158-y)

In der ersten Milliarde an Jahren gab es auf der Erde keinen Sauerstoff. Das Leben entwickelte sich in einer anaeroben Umgebung. Frühe Bakterien gewannen ihre Energie wahrscheinlich durch den Abbau verschiedener Substanzen mittels Gärung. Daneben schien es jedoch auch eine Art „Atmung ohne Sauerstoff“ gegeben zu haben. Dies legten Untersuchungen an ursprünglichen Mikroben nahe, die heute noch in anaeroben Lebensräumen vorkommen.

„Wir hatten schon vor 10 Jahren gesehen, dass es in diesen Mikroben Gene gibt, die vielleicht für ein ursprüngliches Atmungsenzym kodieren. Seitdem haben wir und andere Gruppen weltweit versucht, die Existenz dieses Atmungsenzyms nachzuweisen und es zu isolieren. Für lange Zeit ohne Erfolg, der Komplex war zu fragil und fiel bei jedem Versuch, ihn aus der Membran zu isolieren, auseinander. Die Bruchstücke wurde gefunden, ließen sich aber nicht wieder zusammensetzen“, erklärt Prof. Volker Müller aus der Abteilung Molekulare Mikrobiologie und Bioenergetik der Goethe Universität Frankfurt.

Durch beharrliche Arbeit gelang seinen Doktoranden Martin Kuhns und Dragan Trifunovic dann in zwei aufeinanderfolgenden Doktorarbeiten der Durchbruch. „In unserer Verzweiflung haben wir irgendwann ein hitzeliebendes Bakterium, Thermotoga maritima, genommen, das zwischen 60 und 90°C wächst“, erklärt Dragan Trifunovic, der seine Promotion in Kürze abschließen wird. „Auch Thermotoga enthält Rnf-Gene, und wir haben gehofft, dass das Rnf-Enzym in diesem Bakterium etwas stabiler ist. Über die Jahre hinweg haben wir es dann geschafft, ein Verfahren zu entwickeln, um das komplette Rnf-Enzym aus der Membran dieser Bakterien zu isolieren.“

Wie die Wissenschaftler in ihrer aktuellen Forschungsarbeit berichten, funktioniert der Enzymkomplex in etwa so wie ein Pumpspeicherkraftwerk, das Wasser in einen höher gelegenen See pumpt und aus dem wieder nach unten fließenden Wasser über eine Turbine Strom gewinnt.

Nur transportiert in der Bakterienzelle das Rnf-Enzym (biochemisch: Ferredoxin:NAD-Oxidoreduktase) Natrium-Ionen aus dem Zellinneren über die Zellmembran nach außen und erzeugt dadurch ein elektrisches Feld. Dieses elektrische Feld nutzt eine zelluläre „Turbine“ (ATP-Synthase): Sie erlaubt es den Natrium-Ionen, entlang des elektrischen Felds zurück ins Zellinnere zu strömen und gewinnt dabei Energie in Form der zellulären Energiewährung ATP.

Der biochemische Nachweis und die bioenergetische Charakterisierung dieses ursprünglichen Rnf-Enzyms erklärt, wie erste Lebensformen die zentrale Energiewährung ATP erzeugt haben. Das Rnf-Enzyms funktioniert offenbar so gut, dass es auch heute noch in vielen Bakterien und einigen Archaeen enthalten ist, auch in einigen pathogenen Bakterien, in denen die Rolle des Rnf-Enzyms noch vollkommen unklar ist. „Unsere Untersuchungen strahlen also weit über den Untersuchungsorganismus Thermotoga maritima hinaus und sind für die Physiologie der Bakterien äußerst wichtig“, erklärt Müller. Nun sei es wichtig zu verstehen, wie das Rnf-Enzym genau funktioniere und welche Rolle die einzelnen Teile hätten. „Da sind wir auf einem sehr guten Weg, da wir das Rnf-Enzym mittlerweile mit gentechnischen Verfahren selbst herstellen können“, freut sich Müller.

Wissenschaftliche Ansprechpartner:
Prof. Volker Müller
Molekulare Mikrobiologie und Bioenergetik
Goethe-Universität Frankfurt
Tel.: (069) 798-29507;
vmueller@bio.uni-frankfurt.de

Originalpublikation:
Kuhns, M, Trifunovic, D., Huber, H., Müller, V. (2020). The Rnf complex is a Na+ coupled respiratory enzyme in a fermenting bacterium, Thermotoga maritima. Communications Biology, DOI 10.1038/s42003-020-01158-y https://www.nature.com/articles/s42003-020-01158-y

Quelle: IDW

(nach oben)


Klimawandel: Extreme Dürreperioden in Mitteleuropa werden voraussichtlich zunehmen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Die Häufigkeit und das Ausmaß außergewöhnlicher, aufeinanderfolgender Sommer-Dürren dürften bis zum Ende des Jahrhunderts in Mitteleuropa zunehmen, wenn die Treibhausgasemissionen nicht reduziert werden. Das zeigt eine Studie unter Leitung von Wissenschaftlern des UFZ, die jetzt in der Fachzeitschrift Scientific Reports veröffentlicht wurde.

Seit dem Frühjahr 2018 befindet sich ein großer Teil Europas inmitten einer außergewöhnlichen Dürre. Ein deutsch-tschechisches Wissenschaftlerteam unter Leitung des UFZ hat nun die beiden Dürrejahre 2018/2019 in die Reihe langfristiger globaler Klimadaten der letzten 250 Jahre eingeordnet. Dabei zeigte sich, dass es seit 1766 in Mitteleuropa keine zweijährige Sommer-Dürre dieses Ausmaßes gegeben hat. Mehr als 50 Prozent der Fläche war davon betroffen. „Es ist wichtig, dass wir die Bedeutung von Dürren in aufeinander folgenden Jahren erkennen und einen ganzheitlichen Rahmen zur Modellierung des Risikos entwickeln“, betont Dr. Rohini Kumar, einer der Autoren, die Relevanz der Studie.

Um vorherzusagen, wie häufig solche Dürren in den kommenden Jahrzehnten auftreten könnten und welchen Einfluss Treibhausgasemissionen darauf haben, nutzten die Autoren Klimasimulationsmodelle. Die Auswirkungen zeigen sie anhand von drei Szenarien zukünftiger Treibhausgasemissionen bis zum Jahr 2100, den sogenannten „Repräsentativen Konzentrationspfaden“ (RCPs).

Bei der Modellierung von Klimaszenarien, die den höchsten Anstieg der Treibhausgase bis zum Jahr 2100 annehmen (RCP 8.5), prognostizieren die Autoren eine Versiebenfachung der Anzahl zweijähriger sommerlicher Dürreperioden in Mitteleuropa in der zweiten Hälfte des Jahrhunderts (2051-2100). Die Projektionen legen auch nahe, dass sich die von der Dürre betroffenen Ackerflächen fast verdoppeln werden – auf mehr als 40 Millionen Hektar.

Nimmt man einen moderaten Anstieg der Treibhausgaskonzentrationen (RCP4.5) an, verringert sich die Zahl der zweijährigen Sommer-Dürren im Vergleich zum RCP 8.5-Szenario um fast die Hälfte und die davon betroffene Ackerfläche um 37 Prozent, prognostizieren die Wissenschaftler.

Werden niedrige Treibhausgaskonzentrationen (RCP2.6) angenommen, dann nimmt die erwartete Häufigkeit von zweijährigen Sommerdürren sogar um über 90 Prozent ab. Die Zahl der dürregefährdeten Ackerflächen verringerte sich entsprechend um 60 Prozent.
Diese Ergebnisse deuten darauf hin, dass eine wirksame Minderungsstrategie für die Emission von Treibhausgasen dazu beitragen könnte, das Risiko häufigerer und ausgedehnterer aufeinanderfolgender Sommer-Dürren in Mitteleuropa zu verringern.

Diese Forschungsarbeit wurde im Rahmen des bilateralen Projekts XEROS (eXtreme EuRopean drOughtS: multimodel synthesis of past, present and future events; www.ufz.de/index.php?en=46703) durchgeführt und durch die Deutsche Forschungsgemeinschaft und die Czech Science Foundation gefördert. Die Ergebnisse der Studie basieren auf dem SPEI-Index als Proxy für die Schätzung landwirtschaftlicher Dürren. Weiterführende Forschungsarbeiten, die ein hydrologisches Modell auf der Grundlage von Bodenfeuchtigkeitsschätzungen (SMI-Index) verwenden, werden diese Ergebnisse weiter konkretisieren.

Wissenschaftliche Ansprechpartner:

Dr. Rohini Kumar
UFZ-Department Hydrosystemmodellierung
rohini.kumar@ufz.de

Originalpublikation:

Vittal Hari, Oldrich Rakovec, Yannis Markonis, Martin Hanel & Rohini Kumar: Increased future occurrences of the exceptional 2018-2019 Central European drought under global warming, Scientific Reports, https://doi.org/10.1038/s41598-020-68872-9 https://www.nature.com/articles/s41598-020-68872-9

Quelle: IDW

(nach oben)


Wie Auen das Wasser der Donau reinigen: Neues EU-Projekt unter Leitung der KU

Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt

Welchen Beitrag haben Auen entlang der Donau für die Wasserqualität und wie lassen sich bei ihrer Bewirtschaftung vielfältige Interessen über Ländergrenzen hinweg berücksichtigen? Dies erforscht unter Leitung des Aueninstituts der Katholischen Universität Eichstätt-Ingolstadt (KU) ein von der Europäischen Union gefördertes Konsortium, an dem über 20 Institutionen aus den zehn Anrainerstaaten der Donau beteiligt sind. Das Projekt „Improving water quality in the Danube system by ecosystem service based integrative management (IDES)“ ist das erste von der KU geleitete EU-Verbundprojekt und wird bis Ende 2022 mit rund zwei Millionen Euro gefördert.

Von der Quelle bis zur Mündung in das Schwarze Meer legt die Donau mehr als 2800 Kilometer zurück und fließt dabei durch zehn Staaten, ihr Wasser speist sich sogar aus 20 Staaten. Somit Im Einzugsgebiet des Flusses leben mehr als 80 Millionen Menschen, die – ebenso wie Flora und Fauna – auf Wasser in guter Qualität angewiesen sind. Diese hängt auch entscheidend vom Gehalt an Nährstoffen ab, die durch Landwirtschaft, Industrie oder Abwasser in die Donau gelangen und weitergetragen werden. Ein zu großer Anteil an Phosphat und Stickstoff führt nicht nur im Schwarzen Meer zu Sauerstoffmangel und Artensterben, sondern hat auch lokale Probleme entlang der Donau zur Folge: Die Nitratbelastung im Grundwasser kann steigen, Seen und andere Fließgewässer können eutrophiert – also überdüngt – werden, so dass sie „umkippen“.

„Nährstoffe machen an Landesgrenzen nicht halt. Deshalb ist es unser Anliegen, mit diesem internationalen Projekt gemeinsam Strategien für ein umfassendes Wasserqualitätsmanagement zu etablieren. Dabei spielen die Auen entlang der Donau eine zentrale Rolle, indem sie Nährstoffe zurückhalten können“, erklären Prof. Dr. Bernd Cyffka, der Leiter des Aueninstituts der KU, und seine wissenschaftliche Mitarbeiterin Dr. Barbara Stammel. Sie koordinieren die Arbeit der beteiligten Institutionen, zu denen neben dem Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei auch das rumänische Umweltministerium, das österreichische Landwirtschaftsministerium sowie das bayerische Umweltministerium gehören.

Auen können Nährstoffe auf zweierlei Weise zurückhalten: Einerseits verhindern naturnahe Grünflächen an Flüssen den Eintrag von Dünger oder Pflanzenschutzmitteln ins Gewässer. Andererseits können auch Nährstoffe, die bereits in den Fluss gelangt sind, bei Hochwasser wieder zurückgehalten werden: Schwebstoffe des Flusswassers, an denen die Nährstoffe gebunden sind, lagern sich in der Aue und an ihren Pflanzen ab und dienen dort als Dünger. Hier liegt auch ein Grund dafür, dass Auen oft sehr fruchtbare Böden aufweisen – vergleichbar etwa zu den Feldern, die entlang des Nils regelmäßig überschwemmt wurden.

Mit dem aktuellen Projekt knüpfen die Forscherinnen und Forscher an langjährige Expertise aus anderen Verbundprojekten an: Zum einen ist das Aueninstitut seit zwei Jahren am EU-Projekt „Danube Floodplain“ beteiligt, das einen besseren Hochwasserschutz durch den Erhalt und die Renaturierung von Auen zum Ziel hat. Zum anderen haben die Wissenschaftlerinnen und Wissenschaftler ebenfalls mit dem Berliner Leibniz Institut einen „River Eco System Service Index“ (RESI) entwickelt, der für Deutschland anhand einer Vielzahl von Indikatoren abbildet, welche wirtschaftliche Bedeutung Auen-Ökosystemen zukommt. Denn Flüsse und ihre Auen haben viele Rollen und Aufgaben: Sie diesen als Schifffahrtsstraße und Erholungsraum, als Schutz vor Hochwasser und Trinkwasserreservoir sowie als Lebensraum für Pflanzen und Tiere. All diese Nutzungsansprüche werden einzeln von unterschiedlichen Fachbehörden auf verschiedenen Verwaltungsebenen geplant und geregelt – das macht es schwierig, die Übersicht zu behalten bzw. Bewirtschaftungsmaßnahmen abzustimmen. Hier setzt der RESI an, indem er versucht alle Belange einheitlich und objektiv zu bewerten. Als Grundlage für Entscheider zeigt der RESI-Index auch indirekte und langfristige Leistungen, wie etwa die Regulation des Wasserhaushalts, den Rückhalt von Nährstoffen oder die Bereitstellung von Lebensraum zum Erhalt der biologischen Vielfalt.

„Auch in anderen EU-Ländern werden Teilaspekte im Umfeld von Auen – wie Hochwasserschutz, Landwirtschaft oder Artenvielfalt – für Planungen häufig voneinander getrennt betrachtet und verwaltet. Die Frage von Wasserqualität als Ökosystemleistung von Auen spielt zudem bislang kaum eine Rolle“, erklärt Stammel. Ziel des IDES-Projektes ist es daher eine umfassende Perspektive einzunehmen, die erstmals auch diesen wichtigen Aspekt berücksichtigt. Die beteiligten Forscherinnen und Forscher konzentrieren sich dabei auf fünf Pilotregionen in Österreich, Rumänien, Serbien, Slowenien und Ungarn. Dort wollen sie im Austausch mit Entscheidungsträgern ein integriertes Konzept zum Management von Auen entwickeln, das die vielfältigen und wechselseitigen Ökosystemdienstleistungen von Auen transparent macht – als Grundlage für den künftigen Umgang mit solchen Gebieten.

Wissenschaftliche Ansprechpartner:

Für Fragen zum Projekt „IDES“ stehen Ihnen Prof. Dr. Bernd Cyffka (Leiter des Aueninstituts Neuburg, bernd.cyffka@ku.de) sowie Dr. Barbara Stammel (wissenschaftliche Mitarbeiterin des Aueninstituts, barbara.stammel@ku.de) zur Verfügung.

Quelle: IDW

(nach oben)


Moderater Alkoholkonsum war mit besseren kognitiven Funktionen assoziiert

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Ein geringer bis moderater Alkoholkonsum scheint einen positiven Einfluss auf die kognitive Funktion haben, zu diesem Ergebnis kommt eine große populationsbasierte, prospektive Kohortenstudie aus den USA. Der Effekt könnte möglicherweise gefäßvermittelt sein, erklärt DGN-Generalsekretär Professor Peter Berlit. Dennoch sollten die Daten mit der für Assoziationsstudien notwendigen Vorsicht interpretiert werden.

Eine große populationsbasierte Kohortenstudie [1], die die Daten von fast 20.000 Menschen aus den USA auswertete, brachte ein interessantes Ergebnis. Es handelte sich um eine Sekundäranalyse der „Health and Retirement Studie“ (HRS), deren Teilnehmer seit 1992 alle zwei Jahre allgemeinmedizinisch untersucht werden. Die vorliegende Analyse wertete Daten der dritten Erhebungswelle (1996 und später) aus und schloss nur Studienteilnehmer ein, die mindestens drei zweijährliche Gesundheitschecks durchlaufen hatten. Bei allen Teilnehmern, die bei Einschluss 65 Jahre und älter waren, wurden seit Beginn der HRS auch kognitive Funktionstests durchgeführt. Ab 1998 wurden diese Tests dann bei allen Studienteilnehmern unabhängig vom Alter vorgenommen. Insgesamt wurden dabei drei Domänen evaluiert: Die Worterinnerung, der Wortschatz und der sogenannte mentale Status. Dieser umfasst verschiedene kognitive Fähigkeiten wie zum Beispiel Gedächtnisleistung, Konzentrationsfähigkeit, Orientierung, Urteilsvermögen, mathematische Fähigkeiten.

Ziel der aktuellen Auswertung war, zu erheben, welchen Einfluss ein geringer bis moderater Alkoholkonsum auf die kognitive Funktion hat und ob er zu einer Veränderung der kognitiven Funktion zwischen mittlerer Lebensphase und Alter führt. Geringer bis moderater Alkoholkonsum wurde definiert als weniger als acht Drinks pro Woche bei Frauen und weniger als 15 Drinks pro Woche bei Männern (im Kontext wissenschaftlicher Studien ist mit einem Drink ein kleines Glas Wein (150 ml) oder Bier (350 ml) gemeint*). Studienteilnehmer mit diesem Trinkverhalten wurden hinsichtlich der Entwicklung ihrer kognitiven Funktion mit Nicht-Trinkern und starken Trinkern verglichen. Die ausgewertete Kohorte bestand insgesamt aus 19.887 Studienteilnehmern, die im Durchschnitt 61,8 Jahre alt waren. Über 60% waren Frauen und über 85% waren weiß.

Im Ergebnis zeigte sich, dass geringer bis moderater Alkoholkonsum mit einer höheren kognitiven Funktionskurve und einem geringeren kognitiven Abbaurate einherging. Die Wahrscheinlichkeit für einen kognitiven Abbau war bei ihnen im Vergleich zu Abstinenzlern um 34% geringer (OR: 0,66), auch die Unterschiede zwischen den Gruppen im Hinblick auf mentalen Status, Worterinnerung und Wortschatz waren signifikant – die moderaten Trinker waren den Nicht-Trinkern bei den Testergebnissen überlegen. Der jährliche kognitive Funktionsverlust war in der Gruppe mit maßvollem Alkoholkonsum signifikant niedriger. Dieser Zusammenhang war bei Menschen weißer Hautfarbe besonders deutlich ausgeprägt. Allerdings bestand zwischen Alkoholkonsum und kognitiver Funktion eine klare U-Kurven-Beziehung: Bei schweren Trinkern nahm die kognitive Funktion rasant ab.

„Auch in dieser Studie zeigt sich also, dass die Dosis das Gift macht. Alkohol ist letztlich ein Zellgift, auf das Nerven- und Gehirnzellen besonders empfindlich reagieren. Übermäßiger Alkoholkonsum schädigt nicht nur die Leber, sondern kann zu lebensgefährlichen neurologischen Folgen führen“, warnt Professor Dr. Peter Berlit, Generalsekretär der Deutschen Gesellschaft für Neurologie (DGN). Der Experte möchte daher diese Studie keinesfalls als Freibrief für den ungezügelten Alkoholkonsum verstanden wissen.

Dennoch bleibt die Frage offen, warum ein geringer bis moderater Alkoholkonsum für die kognitive Funktion zuträglich sein könnte. „Dieser positive Effekt des moderaten Alkoholkonsums ist wahrscheinlich gefäßvermittelt“, erklärt der Experte. Assoziationsstudien haben beispielsweise gezeigt, dass ein Glas Rotwein pro Tag mit einem geringeren kardiovaskulären Risiko einhergeht, also gefäßprotektiv wirken könnte. Vermutet werden antioxidative sowie anti-thrombotische und vasodilatierende Effekte, auch positive Effekte auf den Lipidstoffwechsel durch Anhebung des HDL-Cholesterins [2]. Dennoch müsse betont werden, so Berlit, dass ein kausaler Zusammenhang zwischen moderatem Alkoholkonsum und positiven Effekten auf die Gefäß- und Gehirngesundheit bislang nicht nachgewiesen wurde, da Assoziationsstudien grundsätzlich keine Beweiskraft haben.

„Wenn aber die Hypothese, dass ein maßvoller Alkoholkonsum eine gefäßschützende Wirkung hat, stimmt, wäre leicht zu erklären, warum er sich auch günstig auf die kognitive Funktion auswirken könnte. Ein großer Teil aller Demenzen wird durch Gefäßschäden mitverursacht, wir sprechen von einer vaskulären kognitiven Beeinträchtigung. Alles, was die Gefäßgesundheit erhält – Reduktion von Übergewicht, Bewegung, gesunde Kost und Senkung eines zu hohen Blutdrucks, schützt vor einer Demenz.“

* „In the United States a standard drink is 12 ounces of beer, 5 ounces of wine, or 1.5 ounces of 80 proof distilled spirits (an American ounce being 29.6 ml).“ [3]

Literatur
[1] Zhang R, Shen L, Miles T et al. Association of Low to Moderate Alcohol Drinking With Cognitive Functions From Middle to Older Age Among US Adults.JAMA Netw Open. 2020 Jun; 3(6): e207922.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7324954/
[2] Laufs B, Böhm M. Einfluss von Alkohol auf das kardiovaskuläre Risiko. Deutsche Zeitschrift für Sportmedizin. 2002. https://www.germanjournalsportsmedicine.com/fileadmin/content/archiv2001/heft06/…
https://academic.oup.com/brain/article/doi/10.1093/brain/awaa240/5868408
[3] Ferner RE. Alcohol intake: measure for measure. It’s hard to calculate how much you are drinking-but you should know. BMJ. 2001 Dec 22; 323 (7327): 1439-1440.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1121897

Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsidentin: Prof. Dr. med. Christine Klein
Stellvertretender Präsident: Prof. Dr. med. Christian Gerloff
Past-Präsident: Prof. Dr. Gereon R. Fink
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Originalpublikation:

doi:10.1001/jamanetworkopen.2020.7922

Quelle: IDW

(nach oben)


Weltweiten Wasserbedarf effizienter decken: Wissenschaftler wollen Entsalzungstechnologien verbessern

Kamil Glabica Stabsstelle Presse und Kommunikation
Universität Paderborn

Wasser ist die wahrscheinlich wichtigste Ressource der Welt. Wir nutzen sie in der Landwirtschaft, in der Industrie, zum Trinken – vorausgesetzt, das Wasser ist sauber. Hier helfen sogenannte Entsalzungstechnologien. Sie entfernen gelöste Stoffe aus dem Wasser und bereiten es damit für unterschiedliche Anwendungen auf. Zwar gibt es bereits eine Vielzahl entsprechender Verfahren, dennoch sehen Wissenschaftler der Universität Paderborn und des Stanford National Accelerator Laboratory SLAC (USA) dringenden Verbesserungsbedarf. Ihre Studie, die jüngst im Fachmagazin „Joule“ erschien, stellt Lösungen mittels fortgeschrittener Charakterisierungstechniken und rechnergestützter Modellierung vor.

Leistung und Haltbarkeit von Entsalzungstechnologien weiterentwickeln
Pro Kopf werden in Deutschland jährlich rund 312 Kubikmeter Wasser verbraucht. Das belegen Zahlen des Statistischen Bundesamts für das Jahr 2019. Anders verhält es sich in Ländern, die nur begrenzten Zugang zu sauberem Süßwasser haben. Für diese Regionen ist es umso wichtiger, die lebensnotwendige Ressource aufzubereiten. Meerwasser ist zur Gewinnung von Trinkwasser besonders attraktiv. Möglich wird das zum Beispiel durch den Prozess der sogenannten Umkehrosmose oder durch kapazitive Deionisation. Laut Jun.-Prof. Dr. Hans-Georg Steinrück vom Department Chemie der Universität Paderborn stoßen diese Mechanismen allerdings – wie andere gängige Verfahren auch – an ihre Grenzen: „Leistung und Haltbarkeit aktueller Entsalzungstechnologien müssen verbessert werden, um den künftigen Bedarf an sauberem Wasser zu decken. Diese Herausforderung ist besonders komplex, weil es eine Vielzahl von Wasserquellen gibt, die unterschiedliche Mengen an Salz, gelösten organischen Stoffen und anderen Verunreinigungen enthalten“, sagt Steinrück. Kenntnisse von physikalischen und chemischen Prozessen auf atomarer und molekularer Ebene seien für die Entwicklung neuer Technologien entscheidend.

Vorbild Energiespeicherung: Charakterisierungstechniken erlauben molekulare Einblicke
Die Wissenschaftler zeigen in ihrer Studie auf, wie innovative Charakterisierungstechniken, einschließlich Röntgen-, Neutronen-, Elektronen- und Positronen-basierter Methoden, auf Wasserentsalzungstechnologien angewandt werden können. Ziel ist es, detaillierte molekulare Einblicke zu erhalten, insbesondere in Kombination mit rechnergestützter Modellierung. Dazu Steinrück: „Die Technologien zur Energiespeicherung haben enorm von der Charakterisierung von Elektroden, Elektrolyten und sogar funktionstüchtigen Geräten profitiert. Im Gegensatz dazu sind diese Methoden für Entsalzungstechnologien bislang nur spärlich eingesetzt worden. Das liegt zum einen an den Schwierigkeiten bei der Charakterisierung sehr dünner Materialien und Grenzflächenregionen und zum anderen daran, dass Entsalzungstechnologien komplexe Gewässer behandeln, die von Natur aus heterogen sind.“

Verbesserte Materialen auf Basis atomarer Bausteine
Mithilfe bestimmter Techniken können Wissenschaftler die chemische Zusammensetzung und physikalische Struktur der Materialen visualisieren, die in Wasserentsalzungstechnologien verwendet werden – sogar während des Betriebs. Konkret lassen sich damit chemische Bindungen zwischen Atomen und deren Positionen vermessen. „Daraus können nicht nur Rückschlüsse auf die Funktionsweise einzelner Atome gezogen werden, sondern es kann auch aufgedeckt werden, welche atomaren und molekularen Fehlverhalten zur Entwertung der Materialen und somit zu einer verkürzten Lebensdauer der Verfahren beitragen“, erklärt Steinrück. Damit wäre im Ergebnis eine wissensbasierte Weiterentwicklung von neuartigen und verbesserten Materialen möglich, in denen die atomaren Bausteine für spezifische Herausforderungen gezielt angeordnet werden können, so der Chemiker weiter.

„Wir gehen davon aus, dass das gewonnene Verständnis der Physik und der Chemie, die den Entsalzungstechnologien zugrunde liegen, die Entwicklung verbesserter Materialien und Verfahren beschleunigen wird. Das kann letzten Endes auch zu einem geringeren Energieverbrauch, verbesserter Kosteneffizienz, erhöhten Kapazitäten und damit zu einer insgesamt effizienteren Wasseraufbereitung führen“.

Zur Veröffentlichung:
https://doi.org/10.1016/j.joule.2020.06.020

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Hans-Georg Steinrück
Department Chemie
Tel.: 05251 605780, E-Mail: hans.georg.steinrueck@uni-paderborn.de

Originalpublikation:
https://doi.org/10.1016/j.joule.2020.06.020

Weitere Informationen:
http://www.upb.de

Quelle: IDW

(nach oben)


Können frühere Erkältungen die Schwere der SARS-CoV-2-Symptome beeinflussen?

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin

Weiterentwickeltes Preprint in Nature* erschienen / Neue Studie startet

Eine Studie unter Leitung der Charité – Universitätsmedizin Berlin und des Max-Planck-Instituts für molekulare Genetik (MPIMG) zeigt: Einige gesunde Menschen besitzen Immunzellen, die das neuartige Coronavirus SARS-CoV-2 erkennen können. Der Grund könnte in vorhergehenden Infektionen mit landläufigen Erkältungs-Coronaviren liegen. Ob sich eine solche Kreuzreaktivität schützend auf den Verlauf einer Infektion mit SARS-CoV-2 auswirkt, soll nun die Studie „Charité Corona Cross“ zeigen.

Woran liegt es, dass manche Menschen am neuartigen Coronavirus schwer erkranken, während andere kaum Symptome bemerken? Die Antwort darauf ist vielschichtig und Gegenstand intensiver Forschung. Einen möglichen Einflussfaktor hat ein Forschungsteam der Charité und des MPIMG jetzt identifiziert: frühere Infektionen mit harmlosen Erkältungs-Coronaviren. Darauf deuten Untersuchungen an sogenannten T-Helferzellen hin – spezialisierten weißen Blutkörperchen, die für die Steuerung der Immunantwort essentiell sind. Wie die Wissenschaftlerinnen und Wissenschaftler beobachteten, verfügt etwa ein Drittel der Menschen, die noch nie mit SARS-CoV-2 in Kontakt gekommen sind, über T-Helfer-Gedächtniszellen, die das neue Virus dennoch erkennen. Der Grund dafür ist vermutlich, dass bestimmte Strukturen von SARS-CoV-2 denen landläufiger Coronaviren ähneln.

Für Ihre Untersuchungen gewannen die Forschenden Immunzellen aus dem Blut von 18 COVID-19-Erkrankten, die an der Charité zur Behandlung aufgenommen und per PCR-Test positiv auf SARS-CoV-2 getestet worden waren. Zusätzlich isolierten sie Immunzellen aus dem Blut von 68 gesunden Personen, die nachweislich noch nie mit dem neuen Coronavirus in Kontakt gekommen waren. Die Immunzellen stimulierten sie dann mit kleinen, künstlich hergestellten Bruchstücken des sogenannten Spike-Proteins von SARS-CoV-2. Es bildet die Coronavirus-typische „Krone“ auf der Oberfläche des Virus und ermöglicht ihm den Eintritt in menschliche Zellen. Anschließend überprüfte die Forschungsgruppe, ob die T-Helferzellen durch die Proteinfragmente aktiviert worden waren. Das Ergebnis: Bei 15 der 18 COVID-19-Erkrankten, also 85 Prozent, reagierten die T-Helferzellen auf die Bruchstücke der Virusoberfläche. „Das hatten wir nicht anders erwartet, das Immunsystem der Patientinnen und Patienten bekämpfte das neue Virus ja gerade und reagierte deshalb auch im Reagenzglas darauf“, erklärt Dr. Claudia Giesecke-Thiel, Leiterin der Servicegruppe Durchflusszytometrie am MPIMG und eine der drei leitenden Autorinnen und Autoren der Studie. „Dass die T-Helferzellen nicht bei allen COVID-19-Erkrankten auf die Virusfragmente reagierten, liegt vermutlich daran, dass sich die T-Zellen in einem akuten oder besonders schweren Stadium einer Erkrankung außerhalb des Körpers nicht aktivieren lassen.“

Zur Überraschung des Teams fanden sich aber auch im Blut der Gesunden reaktive T-Helferzellen: Bei 24 der 68 Getesteten (35 Prozent) gab es Gedächtniszellen, die SARS-CoV-2-Fragmente erkannten. Dabei fiel den Wissenschaftlerinnen und Wissenschaftlern auf, dass die Immunzellen der COVID-19-Erkrankten und der Gesunden auf unterschiedliche Teilstücke der Virushülle reagierten. Während die T-Helferzellen der Patienten das Spike-Protein über seine komplette Länge erkannten, wurden die T-Helferzellen der Gesunden vor allem von Abschnitten des Spike-Proteins aktiviert, die entsprechenden Abschnitten des Spike-Proteins von harmloseren Erkältungs-Coronaviren ähneln. „Das deutet darauf hin, dass die T-Helferzellen der Gesunden auf SARS-CoV-2 reagieren, weil sie sich in der Vergangenheit mit heimischen Erkältungs-Coronaviren auseinandersetzen mussten“, sagt Dr. Giesecke-Thiel. „Denn eine Eigenschaft der T-Helferzellen ist, dass sie nicht nur von einem exakt ‚passenden‘ Erreger aktiviert werden können, sondern auch von ‚ausreichend ähnlichen‘ Eindringlingen.“ Tatsächlich konnte die Forschungsgruppe nachweisen, dass die T-Helferzellen der gesunden Probanden, die auf SARS-CoV-2 reagierten, auch durch verschiedene Erkältungs-Coronaviren aktiviert wurden – und damit per Definition „kreuzreagierten“.

Die Frage, wie sich diese Kreuzreaktivität bei gesunden Testpersonen auf eine mögliche SARS-CoV-2-Infektion auswirkt, kann die aktuelle Nature-Studie nicht beantworten. „Grundsätzlich ist vorstellbar, dass kreuzreaktive T-Helferzellen eine schützende Wirkung haben, indem sie zum Beispiel dazu beitragen, dass der Körper schneller Antikörper gegen das neuartige Virus bildet“, erklärt Prof. Dr. Leif Erik Sander von der Medizinischen Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité, ebenfalls leitender Autor der Studie. „In diesem Fall würden kürzlich durchgemachte Coronavirus-Erkältungen die Symptome von COVID-19 vermutlich abschwächen. Es ist jedoch auch möglich, dass eine kreuzreaktive Immunität zu einer fehlgeleiteten Immunantwort führt – mit negativen Auswirkungen auf den Verlauf von COVID-19. Eine solche Situation kennen wir zum Beispiel beim Dengue-Virus.“

Um abschließend zu klären, ob in der Vergangenheit durchgestandene Coronavirus-Erkältungen nun tatsächlich vor einer späteren Infektion mit SARS-CoV-2 schützen – und so möglicherweise die unterschiedliche Ausprägung der Symptome erklären -, sind in die Zukunft gerichtete Studien nötig. Eine solche Studie – die Charité-Corona-Cross-Studie – ist jetzt unter Leitung der Charité in Kooperation mit der Technischen Universität Berlin und dem MPIMG gestartet. Gefördert vom Bundesministerium für Gesundheit (BMG) und vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) geht sie der Frage nach, wie der Verlauf einer COVID-19-Erkrankung durch kreuzreaktive T-Helferzellen verändert wird.

„Coronaviren verursachen in Deutschland bis zu 30 Prozent der saisonalen Erkältungen“, sagt Prof. Dr. Andreas Thiel, Charité-Wissenschaftler am Si-M (Der Simulierte Mensch), einem gemeinsamen Forschungsraum der Charité und der Technischen Universität Berlin, und am BIH Center for Regenerative Therapies (BCRT). Er ist der dritte leitende Autor der jetzt erschienenen Nature-Publikation und Koordinator der Charité-Corona-Cross-Studie. „Man schätzt, dass sich ein Erwachsener im Schnitt alle zwei bis drei Jahre mit einem der vier heimischen Coronaviren ansteckt“, erklärt Prof. Thiel. „Wenn wir annehmen, dass diese Erkältungsviren tatsächlich eine gewisse Immunität gegenüber SARS-CoV-2 verleihen können, müssten ja Menschen, die in der Vergangenheit häufig solche Infekte durchgemacht haben und bei denen wir kreuzreaktive T-Helferzellen nachweisen können, besser als andere geschützt sein. Auf diese Personengruppen werden wir in der Charité-Corona-Cross-Studie deshalb besonderes Augenmerk legen.“ Parallel wird das Forschungsteam außerdem COVID-19-Risikogruppen über die nächsten Monate begleiten. Schlussendlich soll die Studie helfen, den Verlauf von COVID-19 in Zukunft sowohl vor als auch nach erfolgter SARS-CoV-2-Infektion besser vorherzusagen. „Das ist sowohl für den Alltag vieler Menschen als auch die Behandlung von Patientinnen und Patienten höchst relevant“, betont Prof. Thiel.

Geplant ist, Beschäftigte von Kindergärten und Kinderarztpraxen sowie Bewohnerinnen und Bewohner von Pflegeheimen bis ins nächste Jahr hinein umfassend immunologisch zu untersuchen. Neben einem PCR-Test auf SARS-CoV-2 soll ihr Blut unter anderem auf Antikörper gegen das Virus und die Reaktivität der T-Zellen getestet werden. Kommt es dann bei einigen der Untersuchten zu einer SARS-CoV-2-Infektion, kann die Forschungsgruppe den Verlauf der Erkrankung mit den immunologischen Parametern in Beziehung setzen.

Zusätzlich plant das Forschungsteam, das Blut von mindestens 1.000 COVID-19-Genesenen auf verschiedene immunologische Faktoren hin zu untersuchen und diese mit den Symptomen in Zusammenhang zu setzen, die die Menschen erlebt haben. So sollen weitere mögliche Parameter aufgedeckt werden, die die Schwere des COVID-19-Verlaufs beeinflussen. Dafür suchen die Wissenschaftlerinnen und Wissenschaftler aktuell Menschen, die nachweislich an COVID-19 erkrankt und wieder genesen sind. Auch Personen, die in den letzten Jahren nachweislich mit einem Erkältungs-Coronavirus wie 229E, OC43, NL63 oder HKU1 infiziert waren, werden gebeten, sich zu melden. Interessierte können die Studienärzte montags bis freitags zwischen 10 und 17 Uhr unter 030/314 279 12 oder studie@si-m.org erreichen.

*Braun J, Loyal L, Frentsch M et al. Presence of SARS-CoV-2-reactive T cells in COVID-19 patients and healthy donors. Nature (2020). doi: 10.1038/s41586-020-2598-9

Zur Publikation
Die Untersuchungen zur T-Zell-Reaktivität hatte die Forschungsgruppe bereits im April vorab auf einem sogenannten Preprint-Server hinterlegt. Im Zuge des Peer-Review-Verfahrens haben die Wissenschaftlerinnen und Wissenschaftler die Datenbasis um weitere Experimente ergänzt. Das finale Manuskript ist jetzt im Fachmagazin Nature erschienen.

Allgemeines zur Immunantwort
Das Immunsystem bekämpft Erreger zum einen mithilfe von spezifischen Antikörpern und zum anderen durch die Aktivierung spezifischer Immunzellen, darunter T-Zellen. Man spricht von der humoralen und der zellulären Immunantwort. Beide Arme des Immunsystems tragen zur Ausbildung einer Immunität gegen einen spezifischen Erreger bei. Inwiefern und zu welchem Anteil die humorale und die zelluläre Immunantwort zu einer Immunität gegen SARS-CoV-2 beiträgt, ist Gegenstand aktueller Forschung.

T-Helferzellen
T-Helferzellen sind für die Steuerung und Koordinierung der Immunantwort verantwortlich. Dringt ein Erreger in den Körper ein, nehmen sogenannte Fresszellen ihn auf und präsentieren Bruchstücke davon („Antigene“) auf ihrer Oberfläche. T-Helferzellen kontrollieren diese Bruchstücke; verfügen sie über einen mehr oder weniger passenden Rezeptor für diese Erregerfragmente, werden sie aktiviert. Aktivierte T-Helferzellen sorgen dann dafür, dass andere Immunzellen den Erreger direkt bekämpfen und passgenaue Antikörper bilden. Bei den meisten Immunantworten entstehen dann auch sogenannte T-Helfer-Gedächtniszellen, die über viele Jahre im Körper überleben können und verantwortlich für eine schnellere und effizientere Immunantwort im Falle eines erneuten Kontakts mit dem gleichen Erreger sind.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Andreas Thiel
Charité – Universitätsmedizin Berlin
t: +49 30 450 570 400
E-Mail: andreas.thiel@charite.de

Originalpublikation:

https://doi.org/10.1038/s41586-020-2598-9

Weitere Informationen:
https://infektiologie-pneumologie.charite.de/
Medizinische Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité
https://b-crt.de/de/forschung/forschungsfelder/immunsystem/regenerative-immunolo…
AG Thiel am BCRT
https://www.molgen.mpg.de/ Max-Planck-Institut für molekulare Genetik

Quelle: IDW

(nach oben)


Kalikokrebs: Erstmals Gewässer vollständig von invasiver Tierart befreit und erfolgreich saniert

Regina Schneider Presse- und Öffentlichkeitsarbeit
Pädagogische Hochschule Karlsruhe

Am „Dreizack“ in Rheinstetten quaken die Laubfrösche wieder und auch die Königslibellen sind zurück. Biologen der Pädagogischen Hochschule Karlsruhe sowie der Stadt Rheinstetten ist es gelungen, ein Gewässer erstmals vollständig vom Kalikokrebs zu befreien und erfolgreich zu sanieren. Im Rahmen eines von der Stiftung Naturschutzfonds Baden-Württemberg geförderten Forschungsprojekts haben die Wissenschaftler Maßnahmen entwickelt, die Wirkung zeigen: Baumstammbarrieren um das Gewässer und Kies auf dem Boden verhindern, dass sich die hochinvasiven Krebse dort ansiedeln.

Seit vielen Jahren breitet sich der hochinvasive Kalikokrebs am Oberrhein aus und bedroht einheimische Amphibien und Libellen. Gemeinsam mit der Stadt Rheinstetten ist es Biologen der Pädagogischen Hochschule Karlsruhe nun gelungen, ein Gewässer erstmals vollständig von Kalikokrebsen zu befreien und erfolgreich zu sanieren. Im Rahmen des von der Stiftung Naturschutzfonds Baden-Württemberg geförderten Forschungsprojekts „Management des invasiven Kalikokrebses zum Schutz von Amphibien und Libellen in Kleingewässern“ haben die Wissenschaftler entsprechende Konzepte entwickelt und untersucht. Umgesetzt hat sie in den vergangenen Jahren die Stadt Rheinstetten.

Baumstammbarriere und Kiesschicht zeigen Wirkung
Eine Baumstammbarriere verhindert, dass die über Land wandernden Krebse zum Gewässer gelangen, und eine Kiesschicht an Ufer und Boden sorgt dafür, dass die Krebse keine Röhren bauen können. Das ist wichtig, weil die Krebse in diesen Röhren sogar das Austrocknen des Gewässers überleben. „Im Dreizack gibt es jetzt eindeutig keine Kalikokrebse mehr“, bilanziert Andreas Stephan, Doktorand am Institut für Biologie und Schulgartenentwicklung. „Seit Monaten haben wir in den 25 Fangsteinen, mit denen wir das Monitoring des Gewässers realisieren, keine Kalikokrebse mehr gefangen. Die Art ist dort definitiv nicht mehr vorhanden.“

„Wir freuen uns sehr, dass ein erster Erfolg bei der Bekämpfung des invasiven Kalikokrebses durch eine Kombination von Maßnahmen – insbesondere Habitatveränderungen und die Schaffung von Barrieren – am ‚Dreizack‘ in Rheinstetten verzeichnet werden kann und damit heimische Amphibien und Libellen das Gewässer wieder als Lebensraum nutzen können“, betont Stephanie Rebsch, Geschäftsführerin der Stiftung Naturschutzfonds Baden-Württemberg.

Die Situation schien nahezu aussichtslos
Stattdessen schlüpfen jetzt am „Dreizack“ wieder Königslibellen und auch der hochgradig schützenswerte Laubfrosch ist zurück, nachdem er in Rheinstetten vom Aussterben bedroht schien. „Von Ende April bis Mitte Juni haben wir am Dreizack rund 260 Larvenhäute der Großen Königslibelle gefunden“, freut sich Prof. Dr. Andreas Martens, Leiter des Instituts für Biologie und Schulgarten­entwicklung über diesen neuen „guten Bestand“. Mit dem „Dreizack“ konnte auch das für den Laubfrosch wichtigste Gewässer in Rheinstetten saniert werden.

„Für mich schien die Situation nahezu aussichtslos“, sagt Martin Reuter, Umweltbeauftragter der Stadt Rheinstetten. Mit Reuter haben die Biologen im Rahmen des Forschungsprojekts eng zusammengearbeitet und ihre Maßnahmen abgestimmt. Nun zeigt am „Dreizack“ die Große Königslibelle wieder ihre Flugkünste und abends erklingt das laute Konzert der Laubfrösche. Denn jetzt gibt es dort keine Kalikokrebse mehr, die Kaulquappen, Laich oder Larven zum Verhängnis werden könnten.

Über das Forschungsprojekt
Im Rahmen des Forschungsprojekts „Management des invasiven Kalikokrebses zum Schutz von Amphibien und Libellen in Kleingewässern“, das von der Stiftung Naturschutzfonds Baden-Württemberg aus Erträgen der Glücksspirale gefördert wird, haben Biologen der Pädagogischen Hochschule Karlsruhe nachhaltige Managementmaßnahmen entwickelt, um die Bestände des Kalikokrebses zu reduzieren. Start war Mitte 2017, Projektende ist im Dezember 2020. Das Regierungspräsidium Karlsruhe ist mit seinem Referat 56 Naturschutz und Landschaftspflege fachlich eingebunden und unterstützt die Arbeit der Wissenschaftler.

Über den Kalikokrebs
Der aus Nordamerika stammende Kalikokrebs (Faxonius immunis) hat sich am Oberrhein seit 1993 dramatisch ausgebreitet. Anders als der Kamberkrebs, der Signalkrebs, der Rote Amerikanische Sumpfkrebs und der Marmorkrebs steht er bisher nicht auf der EU-Liste invasiver gebietsfremder Arten. Kalikokrebse können in Kleingewässern hohe Dichten aufbauen und sind damit eine besondere Bedrohung für gefährdete Amphibien und Libellenarten. Unter unseren klimatischen Bedingungen schlüpft die Brut im späten Frühjahr, zumindest ein Teil der Krebse kann bereits im ersten Jahr geschlechtsreif werden. Mit bis zu 495 Eiern pro Weibchen (Durchschnitt: 150) haben Kalikokrebse eine hohe Fortpflanzungsrate und können Massenbestände mit 45 Krebsen pro Quadratmeter Wasserfläche entwickeln.

Sie gehen über Land und besiedeln so auch isolierte Gewässer, im Frühjahr wandern selbst die Eier tragenden Weibchen. Der Kalikokrebs überträgt – wie alle amerikanischen Fluss­krebs-Arten – den Erreger der Krebspest, ohne daran selbst unter normalen Bedingungen ernsthaft zu erkranken. Darüber hinaus ist er gegenüber anderen bei uns vorkommenden Flusskrebs-Arten ziemlich aggressiv. Kalikokrebse dürfen daher auf keinen Fall weiterverbreitet werden. Insbesondere sollten sie nicht in Gartenteiche eingesetzt werden, denn von dort können sie leicht entkommen.

Über die Pädagogische Hochschule Karlsruhe
Als bildungswissenschaftliche Hochschule mit Promotions- und Habilitationsrecht forscht und lehrt die Pädagogische Hochschule Karlsruhe zu schulischen und außerschulischen Bildungsprozessen. Ihr unverwechselbares Profil prägen der Fokus auf MINT, mehrsprachliche Bildung und Heterogenität sowie eine aktive Lehr-Lern-Kultur. Das Studienangebot umfasst Lehramtsstudiengänge für Grundschule und Sekundarstufe I, Bachelor- und Masterstudiengänge für andere Bildungsfelder sowie professionelle Weiterbildungsangebote. Rund 220 in der Wissenschaft Tätige betreuen rund 3.600 Studierende. Weitere Infos auf https://www.ph-karlsruhe.de

Medienkontakt
Regina Schneider M. A.
Pressesprecherin
Pädagogische Hochschule Karlsruhe
Bismarckstraße 10
76133 Karlsruhe
Telefon +49 721 925 4115
E-Mail: Regina.Schneider@vw.ph-karlsruhe.de

Wissenschaftliche Ansprechpartner:

Prof. Dr. Andreas Martens, Leiter des Instituts für Biologie und Schulgartenentwicklung der Pädagogischen Hochschule Karlsruhe, andreas.martens@ph-karlsruhe.de

Quelle: IDW

(nach oben)


Entzündungshemmer senken das Risiko für eine Infektion

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Entzündungshemmende Medikamente sollen laut Erlanger Corona-Studie weiter eingenommen werden
Die über 2.000 Teilnehmer umfassende Corona-Antikörperstudie des Deutschen Zentrums Immuntherapie (DZI) am Universitätsklinikum Erlangen wurde nun im renommierten wissenschaftlichen Journal „Nature Communications“ veröffentlicht. Die Wissenschaftler des DZI haben bereits sehr früh mit Antikörpertests gegen das neue Coronavirus begonnen, da viele Patienten mit Erkrankungen wie Arthritis, Darmentzündungen oder Schuppenflechte mit Medikamenten behandelt werden, die in Entzündungsprozesse und damit auch in das Immunsystem eingreifen. Daher bestand Sorge, dass diese Patienten sehr empfindlich auf das neue Coronavirus reagieren. Die Erlanger Forscher untersuchten Probanden auf klinische Zeichen von Atemwegsinfekten, befragten sie zum Kontakt mit Infizierten und testeten sie auf Antikörper gegen das Coronavirus. Gleichzeitig wurde im Rahmen der Erlanger Corona-Antikörperstudie auch eine große Zahl gesunder Probanden untersucht.

„Wir fanden heraus, dass die Häufigkeit einer Infektion mit dem neuen Coronavirus in der Normalbevölkerung in Bayern derzeit 2,2 Prozent beträgt“, sagt Studienleiter Prof. Dr. med. univ. Georg Schett, einer der beiden Sprecher des DZI und Direktor der Medizinischen Klinik 3 – Rheumatologie und Immunologie des Uni-Klinikums Erlangen. „Dies ist ein vergleichsweise niedriger Wert und vermutlich dem strikten Einhalten der Hygienemaßnahmen sowie der erfolgreichen frühen ,Lockdown‘-Politik in Bayern geschuldet. Interessanterweise zeigen unsere Ergebnisse aber auch, dass neun von zehn Infektionen mit dem Coronavirus unterschwellig und ohne größere Symptome verlaufen. Hierbei ist zu bedenken, dass die Häufigkeit bestätigter diagnostizierter COVID-19-Fälle in Bayern mit 0,3 Prozent bei nur ca. einem Zehntel der Infektionsrate unserer Corona-Antikörperstudie liegt.“

„Hinsichtlich ihrer Symptomatik zeigten viele Menschen, die Kontakt mit dem neuen Coronavirus hatten, Zeichen von Atemwegssymptomen, die sich grundsätzlich nicht von anderen Atemwegsinfekten unterschieden“, geben Dr. David Simon und Dr. Koray Tascilar von der Medizin 3 des Uni-Klinikums Erlangen zu bedenken. Da Atemwegsinfekte sehr häufig sind und nur ein geringer Teil von ihnen tatsächlich auf das neue Coronavirus zurückzuführen ist, ist es von besonderer Wichtigkeit, solche Symptome angemessen abzuklären und gegebenenfalls eine Virustestung durchzuführen. Geruchsverlust stellt hier möglicherweise eine Ausnahme dar, denn diese Symptomatik zeigte sich bei Menschen mit Antikörpern gegen das neue Coronavirus deutlich häufiger.

Was aber passiert, wenn Menschen entzündungshemmende Medikamente für chronische Erkrankungen wie Arthritis, entzündliche Darmerkrankungen oder Schuppenflechte einnehmen? In diesem Fall lag ursprünglich der Verdacht nahe, dass diese Menschen empfindlicher gegenüber Infektionen mit dem neuen Coronavirus sind. „Dem ist aber nicht so!“, führen Prof. Dr. Markus F. Neurath, DZI-Sprecher und Direktor der Medizinischen Klinik 1 – Gastroenterologie, Pneumologie und Endokrinologie des Uni-Klinikums Erlangen, und Prof. Dr. Raja Atreya, Oberarzt am DZI und an der Medizin 1, aus. „Patienten mit Morbus Crohn oder der Colitis ulcerosa, die Entzündungshemmer einnehmen, zeigten ein niedrigeres und eben kein erhöhtes Risiko für eine Infektion mit dem Coronavirus.“ Zu einem ähnlichen Schluss kommen ihre Kollegen Prof. Dr. Carola Berking, Direktorin der Hautklinik des Uni-Klinikums Erlangen, und ihr Stellvertreter Prof. Dr. Michael Sticherling: „Auch Patienten mit Schuppenflechte, einer der häufigsten chronisch-entzündlichen Erkrankungen des Menschen, weisen kein erhöhtes Risiko für eine Infektion mit dem neuen Coronavirus auf, wenn sie mit speziellen entzündungshemmenden Medikamenten therapiert werden.“ Ähnliche Ergebnisse wurden auch für entzündliche Gelenkerkrankungen wie die Rheumatoide Arthritis und Morbus Bechterew gefunden, wie die Oberärzte Dr. Arndt Kleyer und Prof. Dr. Gerhard Krönke aus dem Bereich Rheumatologie und Immunologie der Medizin 3 bestätigen.

Diese Ergebnisse haben eine große Bedeutung für Menschen mit entzündlichen Erkrankungen, denn sie zeigen, dass die Weiterführung der entzündungshemmenden Therapie in Zeiten der Coronavirus-Pandemie im Wesentlichen unbedenklich ist und dass diese Patienten weder aufgrund ihrer Erkrankung noch aufgrund der Therapie zur Risikogruppe für schwere Verläufe der Infektion gehören.

Die Erlanger Corona-Studie entstand in interdisziplinärer Zusammenarbeit von Forschern des DZI sowie mit Prof. Dr. Klaus Überla und Prof. Dr. Matthias Tenbusch vom Virologischen Institut – Klinische und Molekulare Virologie des Uni-Klinikums Erlangen. Die Studie wurde durch den Sonderforschungsbereich 1181 der Deutschen Forschungsgemeinschaft, das Bundesministerium für Bildung und Forschung (BMBF-Projekt MASCARA) und die Schreiber-Stiftung unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. univ. Georg Schett
Tel.: 09131 85-39109
georg.schett@uk-erlangen.de

Quelle: IDW

(nach oben)


Höhere COVID-19 Sterblichkeit nicht alleine durch enge familiäre Kontakte erklärbar

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien

Mehr COVID-19 Fälle und höhere Sterblichkeitsraten können nicht alleine durch enge familiäre Kontakte – wie die Betreuung von Enkelkindern oder das Zusammenleben mehrerer Generationen – erklärt werden. Frühere Studien ließen vermuten, dass in Ländern wie Italien, in denen generationenübergreifende Kontakte üblich sind, höhere Corona bedingte Sterblichkeitsraten vorkommen. Ein internationales Forscher*innenteam um Valeria Bordone von der Universität Wien hat jetzt regionale Daten analysiert und kann diesen Zusammenhang nicht bestätigen. Denn: Innerhalb Italiens war die Sterblichkeit in jenen Regionen am höchsten, in denen das Zusammenleben mehrerer Generationen eher selten ist.

Die bisherige Entwicklung der Corona-Pandemie wirft die Frage auf, welche Faktoren zur Ausbreitung des Virus beitragen. Mehrere in den letzten Monaten veröffentlichte Studien vertreten die These, dass enge Beziehungen zwischen Menschen mehrerer Generationen zu einer schnelleren Ausbreitung und höheren Sterblichkeitsraten führen könnten. Diese Studien sind auf Basis nationaler Daten gefolgert, dass in Ländern wie Italien – in denen häufig Personen mehrerer Generationen zusammenleben – die Sterblichkeitsraten höher sind.

Ein internationales Team von Wissenschafter*innen der Universitäten Wien, Florenz und Pompeu Fabra hat jetzt auch regionale Daten analysiert und festgestellt, dass dieser Schluss unzulässig ist. Die aktuelle Studie warnt daher vor vereinfachten Interpretationen von scheinbaren Zusammenhängen zur Erklärung der unterschiedlichen Ausbreitung und Todesraten von COVID-19.

Höhere Sterblichkeit ist eher auf schwächere Gesundheitssysteme zurückzuführen
Die Wissenschafter*innen Valeria Bordone, Bruno Arpino und Marta Pasqualini analysierten Daten aus 19 europäischen Ländern und damit den Zusammenanhang zwischen generationenübergreifenden Beziehungen und den Sterblichkeitsraten sowie der Anzahl der Fälle pro 100.000 Einwohner*innen. Auf nationaler Ebene konnte, wie vermutet, der Zusammenhang zwischen engen generationenübergreifenden Beziehungen und höheren Sterblichkeitsraten bestätigt werden – so gab es beispielsweise mehr Fälle und eine höhere Sterblichkeitsrate in Ländern, in denen erwachsene Kinder häufig bei ihren Eltern leben.

Bei der Analyse der Daten auf subnationaler Ebene hat sich dieser Zusammenhang jedoch umgekehrt – beispielsweise waren in Italien Regionen, in denen selten mehrere Generationen zusammen leben trotzdem am stärksten von der Pandemie betroffen. „Der positive Zusammenhang zwischen generationenübergreifenden Beziehungen und COVID-19-Fällen auf nationaler Ebene könnte auf schwächere Gesundheitssysteme zurückzuführen sein. Auf regionaler Ebene könnte der negative Zusammenhang mit einem höheren Anteil an älteren Menschen in Altersheimen zu tun haben,“ sagt Bordone. So wurde beispielsweise in der Lombardei eine der höchsten Sterblichkeitsraten in Italien gemessen, obwohl dort vergleichsweise wenige generationenübergreifende Kontakte bestehen. Gleichzeitig leben in der Lombardei vergleichsweise viele ältere Menschen in Altersheimen.

Familiäre Beziehungen sind in Krisenzeiten wichtig
Laut den Autor*innen sollte nicht übersehen werden, dass generationenübergreifende Beziehungen auch eine positive Rolle – in Form von emotionaler und instrumenteller Unterstützung – spielen können: „Familiäre Beziehungen, ob physisch oder auf Distanz, haben möglicherweise dazu beigetragen, dass die Einschränkungen in Lockdown-Phasen eher eingehalten wurden. Somit wurde dadurch die Verbreitung von COVID-19 eher gehemmt“, sagt Bordone.

Auch für die Politik ist von großer Bedeutung, welche Faktoren die Verbreitung und Letalität von COVID-19 beeinflussen. „Wir warnen vor übereilten Fehlinterpretationen basierend auf dem Vergleich von Ländern“, sagt Bordone. „Politische Maßnahmen sollten generationenübergreifende Beziehungen als möglichen Übertragungsweg des Virus, aber auch als Quelle der familiären Unterstützung berücksichtigen“.

Angesichts der Tatsache, dass soziale Kontakte nicht zwangsläufig physischer Natur sein müssen – ebenso wenig wie physische Kontakte automatisch soziale Kontakte implizieren – empfehlen die Wissenschafter*innen zudem, den Begriff „soziale Distanzierung“ durch den Begriff „physische Distanzierung“ zu ersetzen.

Publikation in „PNAS“:
Arpino, B., Bordone, V., Pasqualini, M. (2020). No clear association emerges between intergenerational relationships and COVID-19 fatality rates from macro-level analyses.
DOI: 10.1073/pnas.2008581117

Wissenschaftliche Ansprechpartner:
Ass.-Prof. Dr. Valeria Bordone
Institut für Soziologie
Universität Wien
1090 – Wien, Rooseveltplatz 2
T +43 (0) 6607463111
valeria.bordone@univie.ac.at

Originalpublikation:
Arpino, B., Bordone, V., Pasqualini, M. (2020). No clear association emerges between intergenerational relationships and COVID-19 fatality rates from macro-level analyses. PNAS.
DOI: 10.1073/pnas.2008581117

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

Quelle: IDW

(nach oben)


Debarking Heads stärken das Ökosystem Wald und tragen durch Borkenkäferprävention zur Entspannung am Holzmarkt bei

Gerhard Radlmayr Zentrum für Forschung und Wissenstransfer
Hochschule Weihenstephan-Triesdorf

Die Entrindung von Stämmen während der Aufarbeitung im Bestand ist seit Jahren gängige Praxis in Eukalyptus-Plantagen auf der Südhalbkugel. Diese erfolgt mit Entrindungsaggregaten an Harvestern. In Anlehnung an diese Technik lief von 2014-2017 ein Projekt an der Hochschule Weihenstephan-Triesdorf (HSWT), bei dem sogenannte Debarking Heads unter mitteleuropäischen Waldverhältnissen modifiziert und getestet wurden. Das Hauptaugenmerk lag dabei auf der Minimierung des Nährstoffaustrags bei der Holznutzung. Im Folgeprojekt Debarking Heads II (bis 2021) steht die Logistikkette von entrindetem Holz im Fokus.

Dazu wurden Entrindungswalzen statt konventioneller Vorschubwalzen entwickelt, deren Umrüstung grundsätzlich an allen Aggregaten möglich ist. Der Stamm wird in voller Länge durch das Aggregat gelassen, durch die Entrindungswalzen mit schräg angebauten Stegen wird die Rinde aufgedrückt und durch die Entastungsmesser abgetragen. Die Entrindungsprozente liegen im Sommer bei Saftfluss im Mittel bei 84 %, im Winter lediglich bei 56 %. Die Vorteile eines Einsatzes von Debarking Heads sind vielfältig. Die Rinde und somit die rindengebundenen Nährstoffe bleiben im Bestand und werden nicht aus dem Ökosystem Wald ausgetragen. Durch die insektizidfreie Borkenkäfer-Prävention des Verfahrens entspannt sich der Absatzdruck bei der Holzabfuhr und -vermarktung. Weiterhin erfolgt die Verbrennung von Holz vollständiger als die von Rinde. Somit entsteht weniger Asche und Feinstaub. Nicht zuletzt werden Transportmasse und -volumen reduziert und dadurch Kraftstoff eingespart.

Borkenkäferprävention
Besonders in Borkenkäferjahren bringt der Einsatz von Debarking Heads große Vorteile mit sich. Eine Entrindung zwischen Januar und Oktober bei weißen Stadien wird von der Bayerischen Landesanstalt für Wald und Forstwirtschaft (LWF) aus Waldschutzgründen empfohlen. Mit den Debarking Heads ist dies einfach umsetzbar. Durch die Entrindung wird den rindenbrütenden Insekten der Brutraum entzogen, sie entwickeln sich nur begrenzt weiter und fliegen nicht aus. Das ergab eine Bachelorarbeit, bei der Rinde aus der Aufarbeitung eines Käferlochs unter sogenannte Eklektoren gelegt wurde. Das sind zeltartige Fallen, mit dem flugfähige Insekten gefangen werden können.

Akzeptanz der Sägeindustrie
Manche Holzabnehmer sträuben sich gegen entrindetes Holz. Die deutsche Säge- und Holzindustrie (DeSH) steht Debarking Heads sehr kritisch gegenüber. Dabei werden verschiedene Argumente gegen den Einsatz von Entrindungsaggregaten ins Feld geführt. Zum Beispiel wurde in den letzten Jahren die Rinde ohne Mehrkosten an die Abnehmer mitgeliefert. Mit dieser wurden dann z. B. Trocknungsanlagen in Sägewerken beheizt oder die Rinde wurde zu Rindenmulch verarbeitet und verkauft.

Debarking Heads in der Praxis
Derzeit sind deutschlandweit rund 40 Debarking Heads im Einsatz. Ein Debarking Head bei der Holzernte wurde bei der letzten KFW-Tagung im Sommer 2016 zusammen mit den Projektergebnissen vorgestellt. Nach Abschluss des Gesamtprojekts sollen auf der nächsten KFW-Tagung im Sommer 2021 erneut praktische Demonstrationen eines Debarking Head erfolgen sowie die Gesamtergebnisse präsentiert werden.

Projektleitung, Kooperationspartner und kooperative Promotion
Beide Projekte leitet Prof. Dr. Stefan Wittkopf von der Fakultät Wald und Forstwirtschaft der Hochschule Weihenstephan-Triesdorf, der am Institut für Ökologie und Landschaft (IÖL) forscht. Kooperationspartner ist das Kuratorium für Waldarbeit und Forsttechnik e.V. (KWF). Joachim B. Heppelmann, maßgeblicher wissenschaftlicher Mitarbeiter in beiden Debarking Heads Projekten, konnte seine im Oktober 2015 begonnene Dissertation zum Thema „Modifying conventional harvesting heads: a technical approach to in-stand debarking under Central European conditions“ am 14. Mai 2020 erfolgreich verteidigen. Die kooperative Promotion wurde seitens der HSWT von Prof. Dr. Stefan Wittkopf betreut, der Doktorvater war Prof. Dr. Eric R. Labelle, ehemaliger Inhaber der Professur für forstliche Verfahrenstechnik an der TU München am Wissenschaftszentrum Weihenstephan.

Text: Caroline Bennemann und Gerhard Radlmayr

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Wittkopf
stefan.wittkopf@hswt.de
T +49 8161 71-5911

Hochschule Weihenstephan-Triesdorf
Hans-Carl-von-Carlowitz-Platz 3
85354 Freising

Originalpublikation:
(1) Heppelmann, J. B. et. al. (2019): In-stand debarking with the use of modified harvesting heads: a potential solution for key challenges in European forestry. Eur J Forest Res 138, S.1067-1081. https://doi.org/10.1007/s10342-019-01225-y

(2) Heppelmann, J. B. et. al. (2019): Static and Sliding Frictions of Roundwood Exposed to Different Levels of Processing and Their Impact on Transportation Logistics. Forests 10 (7), S.568. https://doi.org/10.3390/f10070568

(3) Heppelmann, J. B. et. al. (2019): Development and Validation of a Photo-Based Measurement System to Calculate the Debarking Percentages of Processed Logs. Remote Sensing 11 (9), S.1133. https://doi.org/10.3390/rs11091133

Weitere Informationen:
https://forschung.hswt.de/forschungsprojekt/1115-debarking-heads-ii Projekt Debarking Heaads II: Entwicklung und Bewertung von Logistikketten bei Einsatz von entrindenden Harvesterfällköpfen
https://forschung.hswt.de/forschungsprojekt/634-debarking-heads-i Projekt Debarking Heads I: Nährstoffentzug bei der Holzernte minimieren – durch die Nutzung von entrindenden Harvesterfällköpfen
http://dh2.kwf-online.de/ il Karte der Debarking Heads, die in Deutschland im Einsatz sind

Quelle: IDW

(nach oben)


Wasser 4.0: Ein „Digitaler Zwilling“ für das Kanalsystem

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Mit der Entwicklung des „Digitalen Zwillings“ einer Pumpstation wollen TU-Ingenieur*innen in Zeiten des Klimawandels die Abwasser-Infrastruktur von Megastädten besser verstehen und beherrschbar machen

Zuverlässig mit sauberem Frischwasser versorgt zu werden, ist für viele Menschen heute selbstverständlich. Doch das intelligente Management und die sichere Behandlung von Wasser und Abwasser sind ingenieurtechnische Höchstleistungen, denn Urbanisierung und Klimawandel belasten die natürlichen Ressourcen zunehmend. Um gerade in großen Städten die entsprechenden Infrastrukturen effizienter und besser beherrschbar zu machen, schaffen Wissenschaftler*innen der TU Berlin innovative, intelligente Konzepte und Strategien und untersuchen sie in einer realistischen Umgebung. Dafür entwickeln sie zusammen mit der Siemens AG und den Berliner Wasserbetrieben derzeit den „Digitalen Zwilling“ einer Pumpstation. Mit seiner Hilfe wird es künftig möglich sein, virtuell Probleme im Abwassersystem zu detektieren sowie dieses mit smarter Technik vorausschauend zu betreiben und funktionsfähig zu halten.

„Der digitale Zwilling ist ein echter Meilenstein auf dem Weg zu Wasser 4.0″, erklärt Prof. Dr.-Ing. Paul-Uwe Thamsen, der das Fachgebiet Fluidsystemdynamik am Institut für Strömungsmechanik und Technische Akustik der TU Berlin leitet. In seiner Laborhalle auf dem Campus der Universität steht die riesige Versuchsanlage einer Pumpstation an der sein Wissenschaftler*innen-Team in verschiedenen Projekten digitale Möglichkeiten in Betrieb und Wartung, Datenanalysen und Vernetzung solcher Infrastrukturen erforschen.

Hitze, Trockenheit und Starkregen belasten das Kanalsystem
„Allein Berlin ist in den vergangenen 20 Jahren um 300.000 Menschen gewachsen“, so Thamsen. „Lange Trocken- und Hitzeperioden nehmen zu, ebenso Starkregenereignisse. Das macht insbesondere unseren Abwassersystemen sehr zu schaffen.“ Geruchsbelästigungen aus dem Abwassernetz sind die Folge, Einbauteile korrodieren, die Starkregenfälle überlasten das Kanalnetz, was dazu führt, dass die Mischwasserkanäle mit Oberflächen- und Abwässern überlaufen und belastetes Abwasser freisetzten.

Als Forschungspartner der TU Berlin hat die Siemens AG rund 500.000 Euro investiert, um die Pumpenversuchsanlage der TU-Forscher mit der neuesten Technologie auszustatten, die die Anlage nun Schritt für Schritt um einen digitalen Anlagenzwilling erweitert, so dass schließlich alle Informationen des Versuchsstandes in einer digitalen Umgebung vorliegen: Planungsunterlagen, technische Daten, Einstellparameter, Betriebs- und Wartungsinformationen bis hin zur Fehlerdiagnose mit selbstständiger Reaktion zur Fehlerbehebung.

Effiziente und ökonomische Wasserwirtschaft
Für die Berliner Wasserbetriebe, den zweiten Forschungspartner ist ein weiterer Aspekt besonders interessant, den der Digitale Anlagenzwilling verspricht. „Durch die intelligente Vernetzung von vorhandenen Wasser- und Abwasserrückhalteeinrichtungen und die vorausschauende Betriebsweise von Abwasserpumpstationen werden Niederschlagsereignisse besser beherrschbar und energetische Einsparungen gegenüber dem regulären Betrieb möglich“, so Thamsen. „Das kann auch den Bau neuer Anlagen ersparen, der oft mit Millionen-Investitionen verbunden ist. Die Digitalisierung des Systems unterstützt also eine effiziente und ökonomische Wasserwirtschaft.“

Ein großes Problem sind im städtischen Abwassersystem sind zum Beispiel die sogenannten „Verzopfungen“. Das sind meterlange, stinkende und schleimige dicke Materialklumpen, die sich regelmäßig tief unter der Erde der summenden Metropole im Abwasserstrom ineinander verdrehen und schließlich die riesigen Abwasserpumpen blockieren. Mitarbeiter der Berliner Wasserbetriebe müssen diese dann von Hand aus der Pumpstation zerren, damit die Berliner Straßen nicht zur Kloake werden. Hauptverursacher sind feuchte Baby- oder Hygienetücher, die achtlos in die Toilette geworfen werden, denn sie lösen sich im Abwasser nicht auf. „Mit dem Digitalen Zwilling kann man die Gefahr solcher Verzopfungen frühzeitig erkennen und die Pumpen rückwärts laufen lassen, um sie zu reinigen“, so Thamsen. „Alles in allem hilft uns die Digitalisierung, unsere Infrastrukturen optimal zu verstehen und zu nutzen.“

Mit der neuen Versuchsanlage der „quasi realen Pumpstation“ plus dem digitalen Zwilling steht der TU Berlin eine experimentelle Grundausstattung zur Verfügung, an der zahlreiche innovative Lösungen für „intelligente Pumpstationen“ entwickelt werden. Diese können auf beliebige Abwassernetzstrukturen unterschiedlichster Städte angewandt werden.

https://www.fsd.tu-berlin.de/menue/forschung/
https://new.siemens.com/global/en/company/stories/industry/digital-twin-digitali…

Weitere Informationen erteilt Ihnen gern:
Prof. Dr.-Ing. Paul-Uwe Thamsen
Technische Universität Berlin
Fakultät V Verkehrs- und Maschinensysteme
Institut für Strömungsmechanik und Technische Akustik
Fachgebiet Fluidsystemdynamik – Strömungstechnik in Maschinen und Anlagen
Tel.: 030 / 314 – 25262
E-Mail: paul-uwe.thamsen@tu-berlin.de

Weitere Informationen:
https://www.fsd.tu-berlin.de/menue/forschung/
https://new.siemens.com/global/en/company/stories/industry/digital-twin-digitali…

Quelle: IDW

(nach oben)


Erste bundesweite Regenmessung mit dem Mobilfunknetz

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Ob bei der Hochwasserfrühwarnung oder in der Landwirtschaft – Regenmessungen sind von großer Bedeutung. Doch weltweit fehlen für viele Regionen präzise Daten, weil flächendeckende Messungen bislang zu teuer sind. Ändern könnte sich das mit einer neuen Methode, die gerade ihren Praxistest bestanden hat. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) und der Universität Augsburg gelang die erste deutschlandweite Regenmessung mit dem Mobilfunknetz. Jetzt ist der Einsatz der Technologie in Westafrika geplant. Über die Ergebnisse berichtet das Team aktuell in den Fachzeitschriften Hydrology and Earth System Sciences und Atmospheric Measurement Techniques.

Regen kann die Leistungsfähigkeit eines Mobilfunknetzes erheblich beeinträchtigen. Doch was Telekommunikationsunternehmen Kopfzerbrechen bereiten kann, ist für die meteorologische Forschung ein Glücksfall: „Wir haben aus dieser Interaktion zwischen Wettergeschehen und menschlicher Technologie eine gänzlich neue Methode zur Regenmessung entwickelt“, sagt Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT. „Wenn ein Mobilfunknetz vorhanden ist, brauchen wir weder eine neue Infrastruktur noch zusätzliches Bodenpersonal.“ Gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Universität Augsburg gelang seinem Team am KIT nun die erste flächendeckende Regenmessung mit der neuen Methode in Deutschland: Aus der niederschlagsbedingten Abschwächung der Funkverbindung zwischen mehreren tausend Mobilfunkmasten konnten sie zeitlich hoch aufgelöste Regenkarten generieren. „Beim Vergleich mit den Messwerten des Deutschen Wetterdienstes zeigt sich, dass wir eine hohe Übereinstimmung erzielt haben“, erklärt Maximilian Graf aus dem Forscherteam.

Verbesserte Genauigkeit dank Künstlicher Intelligenz (KI)
Möglich wurde die Niederschlagsbestimmung aufgrund der Richtfunkantennen, die in Mobilfunkmasten zur Übertragung über weite Strecken eingesetzt werden. „Genutzt wird hier eine Frequenz von 15 bis 40 Gigahertz, deren Wellenlänge der typischen Größe von Regentropfen entspricht“, erklärt Dr. Christian Chwala, Koordinator der Forschungsarbeiten an der Universität Augsburg. „Je mehr Niederschlag fällt, desto schwächer wird das Signal, mit dem die Sendemasten Informationen austauschen. Wir haben ein Jahr lang jede Minute die aktuelle Abschwächung von 4 000 Richtfunkstrecken gemessen. Der daraus entstandene Datensatz ist aufgrund seiner Auflösung und Größe weltweit einzigartig.“

Neben den klassischen Methoden der Datenanalyse nutzten die Forscherinnen und Forscher Künstliche Intelligenz (KI), um das Regensignal aus den verrauschten Messwerten herauszufiltern. „Auch andere Faktoren wie Wind oder die Sonne können zu leichten Abschwächungen des Signals führen. Mit Hilfe unserer KI konnten wir erkennen, wann eine Abschwächung auf Regen zurückzuführen ist“, sagt Julius Polz, ein weiterer Wissenschaftler der Forschungsgruppe. „Wir haben sie inzwischen so trainiert, dass wir ohne Kalibrierung mit traditionellen Methoden zur Regenmessung auskommen.“ Damit eigne sich eine Anwendung auch in Regionen ohne nennenswerte Niederschlagsmessungen, die für das Training der KI in Frage kommen könnten, beispielsweise in Westafrika.

Einsatz in Westafrika geplant
Für Deutschland funktioniert die Methode allerdings vor allem im Frühjahr, Sommer und Herbst. „Graupel und Schneeregen führen nämlich zu einer überdurchschnittlichen Abschwächung, und Schnee lässt sich mit dem Mobilfunknetz gar nicht messen“, erklärt Harald Kunstmann. Aktuell laufen mehrere Projekte der Forscherinnen und Forscher zur Regenmessung mit Richtfunkstrecken, unter anderem mit dem Schwerpunkt auf Deutschland in Kooperation mit dem Deutschen Wetterdienst und dem Landesamt für Umwelt Sachsen. Im Laufe des Sommers starten weitere Projekte in Tschechien und in Burkina Faso, wo erstmals eine landesweite Erfassung von Richtfunkstrecken in Afrika aufgebaut werden soll.

Originalpublikationen:
Graf, M., Chwala, C., Polz, J., and Kunstmann, H. (2020): Rainfall estimation from a German-wide commercial microwave link network: optimized processing and validation for 1 year of data. Hydrology and Earth System Sciences, 24, 2931-2950,
https://doi.org/10.5194/hess-24-2931-2020

Polz, J., Chwala, C., Graf, M., & Kunstmann, H. (2020): Rain event detection in commercial microwave link attenuation data using convolutional neural networks. Atmospheric Measurement Techniques, 13, 3835-3853, https://doi.org/10.5194/amt-13-3835-2020

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Weiterer Kontakt:
Dr. Martin Heidelberger
Redakteur/Pressereferent
Tel.: +49 721 608-21169
E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:

Dr. Martin Heidelberger
Redakteur/Pressereferent
Tel.: +49 721 608-21169
E-Mail: martin.heidelberger@kit.edu

Originalpublikation:
Graf, M., Chwala, C., Polz, J., and Kunstmann, H. (2020): Rainfall estimation from a German-wide commercial microwave link network: optimized processing and validation for 1 year of data. Hydrology and Earth System Sciences, 24, 2931-2950, https://doi.org/10.5194/hess-24-2931-2020

Polz, J., Chwala, C., Graf, M., & Kunstmann, H. (2020): Rain event detection in commercial microwave link attenuation data using convolutional neural networks. Atmospheric Measurement Techniques, 13, 3835-3853, https://doi.org/10.5194/amt-13-3835-2020

Weitere Informationen:

http://www.sek.kit.edu/presse.php

Anhang
Erste bundesweite Regenmessung mit dem Mobilfunknetz
https://idw-online.de/de/attachment80413

Quelle: IDW

(nach oben)


Forschungsprojekt entwickelt Lösungen gegen Nitrateinträge ins Grundwasser

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Kompetenzzentrum Wasser Berlin (KWB) betreibt im Rahmen des Europäischen Verbundvorhabens „Circular Agronomics“ zusammen mit dem Unternehmen
PONDUS Verfahrenstechnik GmbH eine Pilotanlage zur Rückgewinnung von Stickstoffverbindungen aus landwirtschaftlichen Abfällen.

Landwirtschaftliche Rückstände wie Gülle oder Gärreste aus der Biogasproduktion enthalten sehr viel Stickstoff, der bei der Ausbringung auf landwirtschaftliche Flächen ins Grundwasser gelangen können. In vielen landwirtschaftlich geprägten Regionen Norddeutschlands ist der Grenzwert für Stickstoff in Form von Nitrat im Grundwasser (50 mg/L) bereits überschritten und führt zu Einschränkungen bzw. hohen Kosten bei der Trinkwassergewinnung.
Im EU-Projekt „Circular Agronomics“ wird nach Lösungen gesucht, die Landwirtschaft nachhaltiger zu gestalten. Unter anderem wird nach technischen Lösungen gesucht, den Eintrag von Nitrat ins Grundwasser zu reduzieren.
Zusammen mit dem Unternehmen PONDUS Verfahrenstechnik GmbH betreibt das Kompetenzzentrum Wasser Berlin (KWB) im Rahmen des EU-Vorhabens „Circular Agronomics“ am Standort Berge im Nordwesten von Berlin eine Pilotanlage zur Rückgewinnung von Ammoniumstickstoff aus landwirtschaftlichen Rückständen. Kernstück ist eine Vakuumentgasungseinheit (Strippung), mit der Ammoniumstickstoff in Form von Ammoniak den Gärresten aus der Biogasproduktionen entzogen und anschließend z.B. in Diammoniumsulfat, einem typischen Dünger, umgewandelt wird.
Das Besondere bei diesem Prozess: die Anlage verträgt im Vergleich zu anderen gängigen Stripp-Verfahren einen recht hohen Feststoffgehalt. Eine aufwändige Abtrennung von festen Bestandteilen ist nicht zwingend notwendig. Dies kommt der landwirtschaftlichen Praxis entgegen.
Ein weiterer Effekt: mit der Anlage werden landwirtschaftliche Abfälle in zwei einzelne Fraktionen aufgetrennt, nämlich einen Kompostähnlichen Rückstand und einen Ammonium-Mineraldünger, die anschließend separat bedarfsgerecht auf landwirtschaftliche Flächen aufgebracht werden können. Bei starken Stickstoffüberschüssen in einer Region kann der konzentrierte Ammoniummineraldünger auch über weitere Distanzen in Regionen mit Nährstoffbedarf transportiert werden. Dies kann sich positiv auf die Grundwasserbelastung auswirken, da der Ammoniumstickstoff separat und gezielt dann im Vegetationszyklus von Nutzpflanzen eingesetzt werden kann, wenn deren Stickstoffbedarf am höchsten ist.

Die am Standort Berge im Nordwesten von Berlin durch die Europäische Union (Grant Agreement No. 773649) geförderten Untersuchungen werden vom KWB zusammen mit dem Unternehmen PONDUS Verfahrenstechnik, der Firma Soepenberg und IASP, einem An-Institut der Humboldt Universität, durchgeführt.

Wissenschaftliche Ansprechpartner:

Fabian Kraus (fabian.kraus@kompetenz-wasser.de)

Weitere Informationen:

http://www.circularagronomics.eu

Quelle: IDW

(nach oben)


Das Geheimnis erfolgreicher Fußballmannschaften

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Forschungsverbund unter Beteiligung der Universität Konstanz analysiert Bewegungsprofile und das Zusammenspiel von Fußballmannschaften

Was zeichnet ein erfolgreiches Fußballteam aus? Mit Methoden der Kollektivforschung kann ein Forschungsverbund unter Beteiligung der Universität Konstanz neue Antworten auf diese Frage geben. Die Wissenschaftlerinnen und Wissenschaftler untersuchten die Bewegungsmuster von Fußballteams – mit einem Ansatz, der nicht etwa einzelne Athleten in den Fokus nimmt, sondern das kollektive Zusammenspiel des gesamten Teams auswertet. Ihre Analysemethode, die ursprünglich aus der statistischen Physik stammt und erstmals auch für Sportanalysen eingesetzt wurde, stellt deutliche Unterschiede in der kollektiven Dynamik von Gewinner- und Verlierermannschaften fest – und kann sogar den Marktwert der Spieler bestimmen.

Die Wissenschaftlerinnen und Wissenschaftler analysierten fünf Spiele, die neun Mannschaften in der deutschen Bundesligasaison absolvierten. Mithilfe eines Ansatzes aus der statistischen Physik, der Richtungskorrelation („directional correlation technique“), konnten sie erfassen, wie stark die Bewegungen der Spieler in Hinsicht auf ihre Richtungen übereinstimmen. Daraus erstellten die Forschenden eine Kennzahl – die HCS („highly correlated segments“) -, als Maß des Zusammenspiels der Spieler innerhalb ihrer Mannschaft und ihrer Koordination gegenüber dem gegnerischen Team. Anstatt nur Leistungskennzahlen einzelner Spieler zu analysieren – beispielsweise, wie schnell ein Spieler in einem Spiel rennt – untersucht die Studie Faktoren wie das Zusammenspiel und die Abstimmung der Spieler untereinander.

Die Studie wurde von einem internationalen und disziplinübergreifenden Forschungsteam durchgeführt, unter Beteiligung des Research Center in Sports Sciences, Health Sciences and Human Development in Portugal, des Exzellenzclusters „Centre for the Advanced Study of Collective Behaviour“ der Universität Konstanz sowie des Konstanzer Max-Planck-Instituts für Verhaltensbiologie. Die Studie, die in der Zeitschrift Chaos, Solitons & Fractals veröffentlicht wurde, kann Fußballmannschaften bei der Suche nach Talenten unterstützen und gibt Trainerinnen und Trainern neue Anhaltspunkte zur Beurteilung der Leistung.

Lesen Sie den ausführlichen Artikel in campus.kn, dem Online-Magazin der Universität Konstanz: https://www.campus.uni-konstanz.de/wissenschaft/das-geheimnis-erfolgreicher-fuss…

Faktenübersicht:
– Wissenschaftlerinnen und Wissenschaftler setzen eine Methode aus der Kollektivforschung ein, um die Bewegungsmuster von Fußballteams zu untersuchen – mit einem Ansatz, der nicht etwa einzelne Athleten in den Fokus nimmt, sondern das kollektive Zusammenspiel des gesamten Teams auswertet.
– Das Tool der Richtungskorrelation („directional correlation techniques“) stammt ursprünglich aus der statistischen Physik und wurde nun erstmals in der Sportanalyse eingesetzt.
– Durch die Analyse ganzer Bundesligaspiele konnte die Studie deutliche Unterschiede bei der kollektiven Dynamik von Gewinner- und Verlierermannschaften feststellen und sogar den Marktwert der Spieler bestimmen.
– Die beteiligten Wissenschaftlerinnen und Wissenschaftler forschen am Research Center in Sports Sciences, Health Sciences and Human Development in Portugal, am Exzellenzcluster „Centre for the Advanced Study of Collective Behaviour“ der Universität Konstanz sowie am Konstanzer Max-Planck-Institut für Verhaltensbiologie.
– Gefördert von der Portuguese Foundation for Science and Technology, dem DFG Exzellenzcluster 2117 „Centre for the Advanced Study of Collective Behaviour“ (ID: 422037984) und der Hungarian Academy of Sciences.
– Originalveröffentlichung: Marcelino R, Sampaio J, Amichay G, Gonçalves B, Couzin ID, Nagy M (2020) Collective movement analysis reveals coordination tactics of team players in football matches. Chaos, Solitons & Fractals. URL: https://doi.org/10.1016/j.chaos.2020.109831

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Anhang
PI Nr. 67/2020, Das Geheimnis erfolgreicher Fußballmannschaften
https://idw-online.de/de/attachment80344

Quelle: IDW

(nach oben)


Die meisten würden sich impfen lassen, um andere zu schützen

Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier

In einer Teststudie wurde untersucht, wie Menschen von einer Impfung gegen COVID-19 überzeugt werden könnten.

Weltweit wird auf einen Impfstoff gegen das COVID-19-Virus gewartet. Wissenschaftler der Universität Trier haben sich bereits jetzt die Frage gestellt, wie möglichst viele Menschen dazu motiviert werden könnten, sich impfen zu lassen. Das überraschende Ergebnis: Der stärkste Motivationsfaktor ist nicht etwa die eigene Gesundheit, sondern der Schutz gefährdeter Menschen. Das haben Prof. Dr. Marc Oliver Rieger und sein Team in einem Online-Experiment mit 303 Teilnehmern herausgefunden. Mit der Teststudie wollen sie frühzeitig umfangreichere wissenschaftliche Untersuchungen zu dieser Problematik anstoßen. Die Arbeit wird in der nächsten Ausgabe des Journals „Social Health and Behavior“ erscheinen.

In der Studie wurden den Probanden drei Motivationsstränge angeboten, die für eine Impfung sprechen. Davon beruhten zwei auf egoistischen Motiven: eine Impfung senkt das eigene Sterberisiko und sie verhindert Einschränkungen durch einen Ausbruch der Krankheit. Die dritte – altruistische – Motivation war: Geimpfte stellen eine geringere Ansteckungsgefahr für Risikogruppen dar und für Menschen, die nicht geimpft werden können.

Festzustellen war, dass alle drei Motivationsstränge die Impfbereitschaft fördern. Bei weitem am wirksamsten ist jedoch der Aspekt, hierdurch Menschen schützen zu können, die nicht geimpft werden können. Bei mehr als 40 Prozent der Teilnehmer, die zuvor noch nicht sicher waren, ob sie sich impfen lassen würden, steigerte diese Motivation die Bereitschaft zu einer Impfung. Der Hinweis auf die eigene Gesundheitsgefährdung und dass auch weniger anfällige Personen durch Corona gesundheitliche Komplikationen erleben können, steigerte die Bereitschaft zu einer Impfung lediglich bei 15 bis 19 Prozent.

„Der beste Ansatz für eine höhere Impfbereitschaft scheint zu sein, die Risiken zu erklären, die nicht geimpfte Personen für andere darstellen können. Dieses Ergebnis impliziert, dass diesem Aspekt mehr Aufmerksamkeit geschenkt werden sollte“, sagt Professor Marc Oliver Rieger. „Diese Studie ist natürlich nur ein erster empirischer Test. Es wäre sinnvoll, das Experiment in größeren, repräsentativen Untersuchungen zu wiederholen. Darüber hinaus könnten natürlich auch weitere Motivationswege untersucht werden“, so Marc Oliver Rieger.

Zum Preprint der Studie: http://www.uni-trier.de/fileadmin/fb4/prof/BWL/FIN/Files/Triggering_Altruism_Increases_the_Willingness_to_Get_Vaccinated_Against_COVID-19.pdf

Wissenschaftliche Ansprechpartner:

Prof. Dr. Marc Oliver Rieger
Betriebswirtschaftslehre
Mail: mrieger@uni-trier.de
Tel. +49 651 201-2721

Quelle: IDW

(nach oben)


Grundwasserveränderungen genauer verfolgen

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Eine neue Methode könnte helfen, Grundwasserveränderungen besser als bisher nachzuverfolgen. Forschende aus dem Deutschen GeoForschungsZentrum in Potsdam und den USA haben dafür Schwerefelddaten der Satellitenmission GRACE und GRACE-Follow On mit anderen Messverfahren verglichen. Sie untersuchten damit die saisonale Wasserspeicherung in nahezu 250 Flusseinzugsgebieten in Asien, deren Wasserregime vom Monsungeschehen dominiert wird. Mit den Ergebnissen lassen sich die großräumigen GRACE-Daten auch auf kleinere Regionen herunterskalieren. Die Forschenden berichten darüber in der Fachzeitschrift Earth and Planetary Science Letters.

Eine neue Methode könnte helfen, Grundwasserveränderungen besser als bisher nachzuverfolgen. Forschende aus Potsdam und den USA haben dafür Schwerefelddaten der Satellitenmission GRACE und GRACE-Follow On mit anderen Messverfahren verglichen. Sie untersuchten damit die saisonale Wasserspeicherung in nahezu 250 Flusseinzugsgebieten in Asien, deren Wasserregime vom Monsungeschehen dominiert wird. Mit den Ergebnissen lassen sich die großräumigen GRACE-Daten auch auf kleinere Regionen herunterskalieren. Die Forschenden berichten darüber in der Fachzeitschrift Earth and Planetary Science Letters.

Für die Landwirtschaft ebenso wie für die Trinkwasserversorgung in vielen Regionen ist das Wissen um die unterirdische Wasserspeicherung von existenzieller Bedeutung. Diese Speicher werden von Niederschlägen und versickernden Gewässern aufgefüllt und speisen ihrerseits Flüsse und Seen und lassen in trockenen Jahreszeiten Flüsse fließen. Messungen allerdings gestalten sich schwierig, weil man nur schwer in die Erde schauen und entweder nur Punktwerte – über Bohrlöcher und Brunnen – ermitteln kann oder auf Berechnungen aus Niederschlags- und Abflussdaten angewiesen ist.

Seit 2002 gibt es eine weitere Methode, Grundwasserveränderungen zu messen: Über die Satellitenmissionen GRACE (von 2002 bis 2017) und GRACE-Follow On (seit 2018) kann die Änderung der Wassermenge in und auf der Erde anhand seines Schwerefeldsignals ermittelt werden. Doch auch dieses Verfahren hat seine Tücken. Erstens sagt die Massenveränderung, die die GRACE-FO-Satelliten messen, nichts über das „Stockwerk“ aus, in dem sich die Masse befindet: Entleeren sich Seen an der Oberfläche? Sinkt der Pegel von Flüssen? Oder fließt aus tieferen Schichten Wasser ab? Zweitens liefern die GRACE-FO-Satelliten Daten für vergleichsweise große Flächen von mehreren zehntausend Quadratkilometern. Genauer lassen sich die Schwerefelddaten derzeit nicht auflösen.

In einer neuen Studie zeigen Forschende des Deutschen GeoForschungsZentrums und eine Kollegin aus den USA, wie sich unterschiedliche Verfahren geschickt kombinieren lassen, um auch für kleine Flusseinzugsgebiete zuverlässige Grundwasserdaten zu erhalten. Sie haben dazu Monsun-Niederschlags-Daten und den saisonalen Wasserspeicher in nahezu 250 Flusseinzugsgebieten in Asien untersucht. Die Größe der einzelnen Gebiete variiert von eintausend bis zu einer Million Quadratkilometern. Die Studie deckt nahezu ganz Asien ab.

Der Wasserhaushalt auf unserer Erde ist von drei Hauptvariablen geprägt: Niederschlag, Oberflächenabfluss und Verdunstung. Die Differenz dessen geht in verschiedene Speicher, z.B. in das Grundwasser, oder fließt daraus ab. Zeitreihen von Messstationen an Flüssen (Hydrographen) nach anhaltendem Niederschlägen zeigen typische abfallende Kurven (sogenannte Rezessionskurven), welche das Leerlaufen der Wasserspeicher widerspiegeln. Aus diesen Kurven lassen sich die Grundwasserschwankungen abschätzen. Eine andere Methode ist die Gegenüberstellung von Niederschlags- und Abflusswerten durch die Zeitverzögerung des Abflusses; die zeitweise Zwischenspeicherung ergibt eine so genannte P-Q-Hysterese. P steht dabei für Niederschlag (engl. precipitation) und Q für den Abfluss. Die Fläche oder Größe der Hysterese-Schleife kann als Maß für die Zwischenspeicherung dienen.

Die Studie in Earth and Planetary Science Letters zeigt nun, dass die P-Q-Hysterese und die Schwerefelddaten der GRACE-Missionen stark zusammenhängen. Beide bilden demnach saisonale Grundwasserveränderungen sehr gut ab. In der Konsequenz heißt das, dass man mit einer Kombination aus Niederschlags- und Abflussdaten sowie GRACE-Schwerefelddaten auch das Grundwasser in Einzugsgebieten erfassen kann, die nur rund 1000 Quadratkilometer groß sind.

https://www.sciencedirect.com/science/article/abs/pii/S0012821X20303599?via%3Dih…

Ansprechpartner für Medien
Josef Zens
Presse- und Öffentlichkeitsarbeit
+49-331-288-1040

Wissenschaftliche Ansprechpartner:
Dr. Christoff Andermann
Wissenschaftler in der Sektion Geomorphologie
Helmholtz-Zentrum Potsdam – Deutsches GeoforschungsZentrum
+49-331-288-28822
christoff.andermann@gfz-potsdam.de

Originalpublikation:
Originalstudie: Amanda H. Schmidt, Stefan Lüdtke, Christoff Andermann: Multiple measures of monsoon-controlled water storage in Asia; Earth and Planetary Science Letters. DOI: 10.1016/j.epsl.2020.116415

Quelle: IDW

(nach oben)


Neue Testmethode kann das Coronavirus in stark verdünnten Gurgelproben erkennen

Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Pharmazeuten der Martin-Luther-Universität Halle-Wittenberg (MLU) ist es gelungen, mit Massenspektrometrie kleinste Mengen des Coronavirus SARS-CoV-2 nachzuweisen. Für ihre Untersuchung nutzten sie Lösungen, mit denen an COVID-19 Erkrankte gegurgelt hatten. Die neue Methode könnte künftig als Ergänzung für bisher übliche Tests dienen. Sie wird nun weiter verbessert, um als Standard-Diagnostik-Werkzeug zur Verfügung zu stehen. Erste Ergebnisse wurden im Fachmagazin „Journal of Proteome Research“ veröffentlicht.

Um sicher herauszufinden, ob jemand akut an COVID-19 erkrankt ist, gibt es derzeit vor allem eine zuverlässige Testmethode: die Polymerase-Kettenreaktion, kurz PCR. Sie weist das Virus-Erbgut nach und ist daher sehr spezifisch. Andere Tests hingegen erkennen meist Antikörper gegen die Krankheit- diese bildet der Körper aber erst im Laufe der Infektion, sodass sie nur zum Nachweis einer überstandenen oder fortgeschrittenen Krankheit dienen. Die Antikörper-Tests sind zudem oft unspezifisch und können teils nicht zwischen den verschiedenen Coronaviren unterscheiden, die beim Menschen auftreten können. Testlabore weltweit stoßen daher an die Grenze ihrer Kapazitäten.

Prof. Dr. Andrea Sinz, Massenspektrometrie-Expertin am Institut für Pharmazie der MLU, hatte die Idee, als Ergänzung zur PCR einen neuen Massenspektrometrie-basierten Test zu entwickeln. Die Massenspektrometrie erlaubt die genaue Identifizierung von Molekülen anhand ihrer Masse und Ladung. Sinz entwickelte mit ihren Mitarbeitern eine Methode, um nach Bestandteilen von SARS-CoV-2 Viren zu suchen. „Wir messen direkt die Peptide, die von dem Virus stammen, und nicht das genetische Material“, erklärt Sinz.

Für die Versuche stellte die Universitätsmedizin Halle Gurgellösungen von drei COVID-19-Patienten zur Verfügung. Sinz‘ Arbeitsgruppe entwickelte ein Verfahren, um Virusbestandteile in den hoch verdünnten Proben identifizieren zu können. „Obwohl wir nur wenig Gurgellösung erhalten haben, konnten wir Bestandteile der Virusproteine finden“, sagt Dr. Christian Ihling, der die Tests durchführte. „Das war ziemlich überraschend, ich habe selbst nicht damit gerechnet, dass das wirklich funktioniert“, ergänzt Sinz. Der Test sei hochspezifisch für das Virus, da die entsprechenden Proteine nur bei SARS-CoV-2 vorkommen. Zudem könne damit gut in der Anfangsphase der Krankheit getestet werden, wenn sich viele Viren in Mund- und Rachenraum befinden.

Aktuell könne der Test in circa 15 Minuten durchgeführt werden, so Sinz. Die Arbeitsgruppe versucht nun, die Analysezeiten weiter zu verkürzen. Dafür nutzt sie zurzeit künstlich hergestellte Virusbestandteile. Sinz ist außerdem auf der Suche nach weiteren Kooperationen, auch mit der Industrie. „Mit einer Firma aus Hessen wollen wir noch eine andere massenspektrometrische Methode einsetzen, bei der die Messungen innerhalb von Sekunden durchführbar wären“, sagt die Pharmazeutin. Diese Methode wäre dann vergleichbar mit dem sogenannten „Biotyping“, das schon in Kliniken zur Diagnostik von Bakterien- oder Pilz-Infektionen etabliert ist. Ob sich dieser Ansatz für den Nachweis von SARS-CoV-2 eignet, müsse allerdings noch gezeigt werden. Eine Probenaufbereitung sei dann nicht aufwändig und die Messungen wären auch von nicht spezialisiertem Personal durchführbar.

Unmittelbar zur Verfügung stehen wird die neue Diagnosemethode mit Massenspektrometern noch nicht. Sinz hofft, dass sie in einigen Monaten für den Einsatz bereit ist: „Ich habe engen Austausch mit Kollegen aus aller Welt, bei denen die Pandemie teils wesentlich schlimmer verläuft als hier.“ Sie ist auch Gründungsmitglied der „COVID-19 Mass Spectrometry Coalition“, ein Forschungsverbund, der mithilfe von Massenspektrometrie die Krankheit besser verstehen möchte.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andrea Sinz
Institut für Pharmazie, Abteilung Pharmazeutische Chemie und Bioanalytik, MLU
Telefon: + 49 345 55-25170 / -171
E-Mail: andrea.sinz@pharmazie.uni-halle.de

Originalpublikation:
Ihling, Christian et al. Mass Spectrometric Identification of SARS-CoV-2 Proteins from Gargle Solution Samples of COVID-19 Patients. Journal of Proteome Research (2020). https://doi.org/10.1021/acs.jproteome.0c00280

Quelle: IDW

(nach oben)


Arbeit ist das halbe Leben

Christin Hasken Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH

Diskussionspapier des Wuppertal Instituts fordert neue Arbeits- und Zeitmodelle
Seit Beginn der Corona-Pandemie arbeiten viele Menschen von zu Hause aus. Jahrelang schienen flexible Arbeitsmodelle in vielen Branchen und Unternehmen undenkbar oder waren zum Scheitern verurteilt – nun rücken sie verstärkt in den Fokus. Doch wie viel Zeit investieren wir in den Job und wie sieht die Arbeit der Zukunft aus? Prof. Dr. Christa Liedtke und Dr. Anne Caplan vom Wuppertal Institut fordern in ihrem neuen Diskussionspapier „Arbeit ist das halbe Leben!? Über ein neues Statussymbol: Zeit und was wir damit anfangen“ nachhaltige und resiliente Arbeitsmodelle zu etablieren, um so die neu gewonnene Achtsamkeit für Zeit als Chance zu nutzen, die Arbeits- und Alltagswelt umzukrempeln. Dabei nehmen sie Zeit als wertvolle Ressource in den Fokus.

Wuppertal, 15. Juli 2020: Rund ein Drittel des Tages investieren die Deutschen in ihren Job – hinzu kommt noch der Weg zur Arbeit. Nach einer Erhebung des Statistischen Bundesamts in 2017 dauert der Arbeitsweg für 47,5 Prozent der Pendlerinnen und Pendler zwischen zehn und 30 Minuten, 22,1 Prozent brauchen 30 bis 60 Minuten. Über die Hälfte der Befragten wären laut einer Studie des Karriereportals Stepstone (2018) bereit, bis zu 60 Minuten pro Arbeitsweg in Kauf zu nehmen. Bei rund 220 Arbeitstagen pro Jahr ergäbe das für den Hin- und Rückweg insgesamt 440 Stunden – also knapp 55 Arbeitstage im Jahr, die allein für den Arbeitsweg aufgewendet würden.

„Die Zeit, die für das Pendeln investiert wird, fehlt oftmals in anderen Lebensbereichen, etwa, um sie mit dem Partner oder der Partnerin, Freunden oder der Familie zu verbringen oder auch für ein Ehrenamt oder Hobbies. Das führt zu veränderten Konsumgewohnheiten“, erklärt Prof. Dr. Christa Liedtke, Leiterin der Abteilung Nachhaltiges Produzieren und Konsumieren am Wuppertal Institut und Professorin für Nachhaltiges Design an der Folkwang Universität der Künste. Denn Menschen, die täglich zur Arbeit fahren, verbrauchen mehr Ressourcen gegenüber denjenigen, die von zu Hause arbeiten. Gleichzeitig wird der Zeitverlust durch das Pendeln häufig beispielsweise mit schnelleren Autos und einem Saugroboter im Haushalt kompensiert: „Um wertvolle Zeit zu sparen, führen solche Anschaffungen letztendlich zu zusätzlichem Ressourcenverbrauch zum ohnehin schon ressourcenintensiveren Arbeitsweg“, ergänzt die Wissenschaftlerin.

Zeitschonendere Arbeitszeitmodelle schützen das Klima
Seit dem Lockdown im Frühjahr 2020 verlegten viele Menschen ihren Arbeitsplatz innerhalb kürzester Zeit aus dem Büro nach Hause. Die Digitalisierung hat in Zeiten der Krise neue Arbeits- und damit Lebensmodelle eröffnet, ohne dass die Gesellschaft diesen Wandel planen konnte. Damit verbunden ist auch eine Veränderung der Wahrnehmung von Zeitbudgets im Alltag.
Im Diskussionspapier „Arbeit ist das halbe Leben!? Über ein neues Statussymbol: Zeit und was wir damit anfangen“ nehmen die beiden Autorinnen Prof. Dr. Christa Liedtke und Dr. Anne Caplan, wissenschaftliche Mitarbeiterin im Forschungsbereich Innovationslabore in der Abteilung Nachhaltiges Produzieren und Konsumieren, Zeit als wertvolle Ressource in den Fokus. Sie gehen der Frage nach, wofür die Menschen ihre Zeit investieren und verwenden wollen. Insbesondere Aktivitäten, die den sozialen Zusammenhalt fördern, wie beispielsweise für die Nachbarschaft einkaufen gehen, sind dabei häufig ressourcenschonender als nur für den eigenen Bedarf zum Supermarkt zu fahren. Resiliente Gemeinschaften tragen zudem dazu bei, das Klima zu schützen.

Vor diesem Hintergrund fordern die beiden Autorinnen jetzt neue gesellschaftliche Modelle zu diskutieren, die unter anderem folgende Aspekte berücksichtigen:

• Politik, Gesellschaft und Wirtschaft sollten einen neuen Gesellschaftsvertrag für Arbeit entwickeln, der sozial-ökologische Marktwirtschaft fördert, gesellschaftliches Engagement integriert, sozialen Ausgleich schafft und öffentliche wie privatwirtschaftliche Budgets aushandelt.
• Unternehmen sollten ihre Klimaschutz-Aktivitäten zur Schonung von Umwelt und Biodiversität nachvollziehbar umsetzen und flexiblere Arbeitszeitmodelle und
-formen für Mitarbeitende fördern.
• Über eine neue Plattform für gesellschaftliches Handeln und Kooperationen sollte soziales Engagement transparent und unkompliziert (teil-)finanziert werden können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christa Liedtke, Abteilungsleiterin Nachhaltiges Produzieren und Konsumieren am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/20/

Dr. Anne Caplan, wissenschaftliche Mitarbeiterin im Forschungsbereich Innovationslabore am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/1977/

Originalpublikation:

Diskussionspapier: Arbeit ist das halbe Leben!? Über ein neues Statussymbol: die Zeit und was wir damit anfangen
https://wupperinst.org/fa/redaktion/downloads/publications/Arbeitszeit_PostCoron…

Weitere Informationen:

https://wupperinst.org/a/wi/a/s/ad/5108/

Anhang
Diskussionspapier des Wuppertal Instituts: Arbeit ist das halbe Leben!? Über ein neues Statussymbol: die Zeit und was wir damit anfangen
https://idw-online.de/de/attachment80364

Quelle: IDW

(nach oben)


Kreislaufwirtschaft: Wieviel Wiederverwertung wollen wir?

Oliver Wolff Wissenschaftsjahr 2020|21 – Bioökonomie
Wissenschaftsjahr 2020 | 21 – Bioökonomie

Deutsche befürworten eine intensivere Wiederverwertung, zögern aber bei der Nutzung biologischer Abfälle. Deren Verwertung könnte unsere Wirtschaft aber nachhaltiger machen.

Berlin, 16. Juli 2020 – 78,2 Prozent der deutschen Bevölkerung befürworten eine möglichst vollständige Wiederverwertung von Produkten, auch wenn diese dadurch teurer würden. Das ergab eine repräsentative Umfrage, die das Meinungsforschungsunternehmen Civey im Auftrag des Wissenschaftsjahres 2020|21 – Bioökonomie durchgeführt hat. Besonders hoch ist die Zustimmung in der Altersgruppe der unter 29-Jährigen (85,1 Prozent). Eine Hürde zeichnet sich allerdings bei der Nutzung biologischer Abfälle für die Produktion von Gütern ab. Deren Potential ist aus Sicht der Bioökonomie besonders vielversprechend. Gerade hier sind die Befragten aber deutlich zurückhaltender: Fast die Hälfte (43,1 Prozent) stehen der Verwertung biologischer Abfälle unentschieden (17,2 Prozent) oder negativ (25,9 Prozent) entgegen – ein Spannungsfeld?

„Die Bioökonomie ist ein wichtiger Treiber, um unsere Wirtschaft widerstandsfähiger und nachhaltiger zu gestalten. Im Bereich der Wiederverwertung kann innovative Forschung diesen Prozess entscheidend unterstützen“, so Prof. Dr. Martin Kranert, Lehrstuhlinhaber für Abfallwirtschaft und Abluft an der Universität Stuttgart. „Ziel unseres Projekts ‚RUN‘ ist es beispielsweise, Stoffkreisläufe zwischen Stadt und Land zu schließen. Um derartige Projekte in die Praxis zu überführen, erfordert es aber auch Akzeptanz gegenüber neuen, auf den ersten Blick ungewöhnlichen Verfahren. Neben der Forschung ist daher auch der Dialog mit der Gesellschaft wichtig. Hier können Chancen aufgezeigt und Vorbehalte aufgeklärt werden.“

Themen wie Abwasser und Müll werden eher selten mit Innovationen in Verbindung gebracht. In der Bioökonomieforschung eröffnet sich hier aber ein weites Fachgebiet mit vielfältigen Ansätzen, die unseren Rohstoffverbrauch senken und unsere Wirtschaft unabhängiger von globalen Rohstoffströmen machen können.

Doch wie genau können Rest- und Abfallstoffe aus der Landwirtschaft, der industriellen Produktion oder urbanen Räumen genutzt werden? Wie lassen sich erfolgreiche Pilotprojekte in die Praxis überführen? Welche Herausforderungen gibt es? Zu diesen und weiteren Fragen diskutiert Bundesforschungsministern Anja Karliczek gemeinsam mit Prof. Kranert sowie weiteren Expert*innen aus Forschung und Praxis in der Wissenschaftsjahr-Diskussionsreihe „Karliczek. Impulse.“. Der erste Termin der Reihe findet als kostenloses Online-Event am 20. Juli 2020 (ab 16.00 Uhr) statt. Bürger*innen sowie Pressevertreter*innen haben die Möglichkeit, sich via Live-Text-Chat direkt an der Diskussion zu beteiligen.

Weitere Informationen:
https://www.wissenschaftsjahr.de/karliczekimpulse

Das Meinungsforschungsunternehmen Civey befragte im Auftrag des Wissenschaftsjahres 2020|21 – Bioökonomie 2.500 Personen vom 7. bis 8. Juli 2020. Die Ergebnisse sind repräsentativ für die deutsche Bevölkerung ab 18 Jahren. Grafiken mit Ergebnissen der Meinungsumfrage stehen unter https://www.wissenschaftsjahr.de/2020-21/presse/pressemitteilungen zum Download bereit.

Pressekontakt
Redaktionsbüro Wissenschaftsjahr 2020|21 – Bioökonomie
Oliver Wolff
Gustav-Meyer-Allee 25 I Gebäude 13/5 I 13355 Berlin
Telefon: +49 30 818777-164
Telefax: +49 30 818777-125
presse@wissenschaftsjahr.de

Wissenschaftsjahr 2020|21 – Bioökonomie
Wie können wir nachhaltiger leben, Ressourcen schonen und gleichzeitig unseren hohen Lebensstandard erhalten? Das Wissenschaftsjahr 2020|21 – Bioökonomie hält Antworten auf diese Frage bereit. Bürgerinnen und Bürger sind dazu eingeladen, im Dialog mit Wissenschaft und Forschung den Wandel hin zu nachhaltigen, biobasierten Produktions- und Konsumweisen zu diskutieren. In vielfältigen Formaten wird das Konzept der Bioökonomie mit all seinen Potenzialen und Herausforderungen erlebbar gemacht und aus unterschiedlichen Perspektiven beleuchtet.
Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD).

Weitere Informationen:
http://www.wissenschaftsjahr.de
http://www.facebook.com/wissenschaftsjahr
http://www.youtube.com/user/wissenschaftsjahr
http://twitter.com/w_jahr
https://www.instagram.com/wissenschaftsjahr/

Anhang
Pressemitteilung: Meinungsumfrage Wiederverwertung & Online-Event „Karliczek. Impulse.“
https://idw-online.de/de/attachment80380

Quelle: IDW

(nach oben)


Wie das Coronavirus das Reiseverhalten der Deutschen verändert

Katrina Jordan Abteilung Kommunikation
Universität Passau

Die Deutschen sehnen sich nach Urlaub: Trotz der Pandemie hält über die Hälfte der deutschen Reisenden an ihren Urlaubsplänen fest. Vor dem Hintergrund der globalen Corona-Krise ergibt sich allerdings ein markanter Trend, wie eine aktuelle repräsentative Studie des Centrums für marktorientierte Tourismusforschung der Universität Passau nun belegt: am liebsten in Deutschland und am liebsten draußen.

Schon 2019 galt Deutschland laut der Reiseanalyse der Forschungsgemeinschaft Urlaub und Reisen e.V. (FUR) als das wichtigste Reiseland der Deutschen: Gut ein Viertel der Befragten gab damals an, den Urlaub in der Bundesrepublik zu verbringen. Die Corona-Krise hat diesen Trend verstärkt: Laut CenTouris-Studie möchten nun mehr als 50 Prozent der Reisenden ihren diesjährigen Urlaub im Heimatland verbringen. Die diesjährigen Lieblingsziele: Im Norden Deutschlands die Nord- und Ostsee, in Süddeutschland die bayerischen Alpen, zudem sind auch der Bayerische Wald und der Schwarzwald sehr beliebt. Auch im Hinblick auf die Art des Urlaubs zeichnet die bundesweite Erhebung ein deutliches Bild: Mindestens vier von fünf Deutschen setzen in diesem Sommer verstärkt auf Aktivitäten in der freien Natur, um Abstandsregeln und weitere Hygienemaßnahmen einfacher umsetzen zu können.

„Die Menschen sind vorsichtig geworden“
„Auslandsreisen, die mit dem Auto erreichbar sind, kommen für die Deutschen durchaus weiterhin in Frage“, erläutert Institutsleiter Dr. Stefan Mang. So seien insbesondere europäische Länder für deutsche Touristen weiterhin attraktiv. Ganz oben auf der Liste: Die Niederlande, Österreich und Kroatien. Schweden bleibe hingegen für mehr als 90 Prozent der Befragten trotz offener Grenzen ein „No-go“. „Dies ist mit hoher Wahrscheinlichkeit auf den Sonderweg Schwedens im Umgang mit der Pandemie zurückzuführen.“ Entscheidend für die Wahl des Reiseziels seien somit nicht allein die Einreisebestimmungen: „Die Menschen sind insgesamt vorsichtig geworden.“
Zentrale Ergebnisse der Studie sind unter anderem:

• Ferienwohnungen werden beliebter: In der Wahl der Reiseunterkunft zeigt sich eine deutliche Veränderung der Präferenzen: Ferienhäuser und Ferienwohnungen werden jetzt von 43 Prozent bevorzugt, im Hotel übernachten wollen 32 Prozent – zuvor war das Verhältnis fast genau umgekehrt. Auch Campingplätze mit Wohnmobilen oder Zelten verbuchten einen Zugewinn, ebenso private Übernachtungen bei Freunden oder Bekannten. Stabil blieb die Nachfrage nach Pensionen, Appartementhäuser hingegen verloren an Zuspruch.

• Die regionale Wirtschaft kann gewinnen: Die Befragung zeigt auch, dass hauptsächlich die Region selbst das ausschlaggebende Buchungskriterium darstellt. Brigitte Franz, Koordinatorin der Studie, sieht hier großes Potenzial: „Gerade die Gastronomie und der Einzelhandel in Zielgebietsregionen profitieren vom touristischen Geschehen und sind oftmals stark vom saisonalen Betrieb abhängig. Demzufolge könnte die Verschiebung der Unterkunftswahl Einfluss auf die Bewirtungs- und Handelsbranche mit sich bringen“, sagt sie. So möchte die große Mehrheit der Reisenden, die ihren Urlaub in einer Selbstversorgerunterkunft verbringen, nicht nur Wochenmärkte, Discounter oder Supermärkte vor Ort nutzen, sondern auch Essen gehen. „Die Regionen könnten durch diese Verlagerung demnach eine Wertschöpfung vor Ort generieren“, so Franz.

• Thermenurlaub ja, aber nicht um jeden Preis: Für Urlauber, die sich einen Aufenthalt einem Heil- und Thermalbad mit Übernachtung vorstellen können, käme dies mehrheitlich auch mit umfassenden Hygienevorschriften und Voranmeldung in Betracht – für die meisten aber nur, wenn die Therme möglichst sicher genutzt werden kann. „Spürbar bleibt das Sicherheitsbedürfnis der Gäste“, hebt Franz hervor. So komme für die Mehrheit der Hauptzielgruppe von Heil- und Thermalbädern im Alter von 55 bis 69 Jahren ein Aufenthalt in den weniger streng geregelten österreichischen Thermen nicht in Frage.

• Die Kreuzfahrtbranche könnte die Krise als Chance nutzen: Momentan ist für die Hälfte der deutschen Urlauberinnen und Urlauber, die grundsätzlich an einer Kreuzfahrt interessiert wären, ein Kreuzfahrturlaub keine Option mehr – eine große Herausforderung für die Kreuzfahrtbranche, die seit Beginn der Corona-Krise an massiven Einbrüchen leidet. Dr. Stefan Mang: „Interessant ist, dass für zwei Drittel der Menschen, die sich weiterhin für eine Kreuzfahrt interessieren, Ausflüge in kleineren Gruppen und Häfen außerhalb der zentralen Anlegestellen attraktiver werden, da sie dadurch Gedränge vermeiden. Das könnte eine Chance für Regionen abseits der touristischen Hotspots sein.“

Die realisierte Online-Stichprobe enthält 1.513 gültige Fälle, die im Zeitraum vom 19. Juni bis 2. Juli 2020 erhoben wurden. Die Stichprobe ist repräsentativ für die deutsche Bevölkerung im Alter zwischen 18 und 69 Jahren.

Alle Informationen zur Studie, O-Töne von Anbietern aus den genannten Branchen sowie weitere relevante Umfrageergebnisse stehen auf der Website von CenTouris zur Verfügung. Gerne bieten wir Ihnen auf Anfrage auch ausführliche redaktionelle Beiträge an.

Bildhinweis: Renaissance des Aktivurlaubs: Wanderregionen wie die bayerischen Alpen sind im Corona-Sommer besonders beliebt. Auch sonst bevorzugen die Deutschen im Urlaub Outdoor-Aktivitäten, am liebsten an Reisezielen im eigenen Land. Foto: Colourbox.

Rückfragen zu dieser Pressemitteilung richten Sie bitte an das Referat für Medienarbeit der Universität Passau, Tel. 0851 509-1439.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Mang: stefan.mang@uni-passau.de
Brigitte Franz: brigitte.franz@uni-passau.de

Originalpublikation:
https://www.centouris.uni-passau.de/centouris/neuigkeiten/ – Website von CenTouris

Quelle: IDW

(nach oben)


Mikroplastik in Gewässern charakterisieren: Neues Forschungsprojekt an der Jacobs University Bremen

Heiko Lammers Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Die Verschmutzung von Meeren, Seen und Flüssen mit Plastikmüll ist ein großes Umweltproblem. Gegenstände aus Kunststoffen werden mit der Zeit mechanisch in kleinste Teilchen zerlegt, die dann als Mikroplastik überall auf der Welt verteilt zu finden sind. Wie toxisch sind diese Partikel? Die Arbeitsgruppe von Dr. Arnulf Materny, Professor für Chemische Physik an der Jacobs University, will ein Verfahren entwickeln, das eine schnelle Analyse dieser Kleinstteile und ihrer Eigenschaften erlaubt – mithilfe der Lasertechnik.

Über die Nahrungskette werden Mikroplastikpartikel, die weniger als ein tausendstel Millimeter groß sein können, auch für Menschen zum Gesundheitsrisiko. Entzündliche Reaktionen aufgrund von im Gewebe eingelagertem Mikroplastik wurden schon beobachtet. Zu befürchten sind Konsequenzen wie zum Beispiel die Entstehung von Krebs.

In dem vom Bundesministerium für Wirtschaft und Energie (BMWi) geförderten Projekt wird die Arbeitsgruppe von Prof. Materny in Kooperation mit verschiedenen Industrie- und Forschungspartnern aus Deutschland und Finnland einen sehr wichtigen Aspekt der Mikroplastikproblematik untersuchen. Kunststoffe und somit auch Mikroplastikpartikel lagern im Wasser relativ schnell Biofilme auf ihren Oberflächen an. Diese bestehen zum Beispiel aus Algen und Bakterien, wobei bereits multiresistente Keime beobachtet wurden.

Neben der möglichen zusätzlichen Gefährdung durch die Mikroorganismen oder gebundene toxische Substanzen auf den Oberflächen, sind auch andere Aspekte von Interesse. Einerseits führen die Biofilme dazu, dass Mikroplastikpartikel von Meeresorganismen, wie Fischen, als Nahrung erkannt und dadurch noch vermehrt aufgenommen werden. Andererseits könnte der Biofilm auch zu einem rascheren Abbau des Kunststoffs führen, also eine positive Wirkung haben.

Mithilfe der sogenannten Raman-Spektroskopie sollen die Biofilme und deren Wechselwirkung mit den Mikroplastikpartikeln analysiert werden. Hierbei wird Laserlicht von den Oberflächen der Teilchen gestreut. Durch eine Wechselwirkung des Lichts mit den Biofilm-Molekülen tritt eine Farbverschiebung des Lichtspektrums auf. Diese wird dann genutzt, um molekulare Eigenschaften zu ermitteln. Die Arbeitsgruppe wird hierbei spezielle Raman-Techniken einsetzen, die zum einen Störsignale ausblenden sollen und zum anderen eine Signalverstärkung bewirken werden.

Die Arbeiten in der Materny-Gruppe wird Dr. Patrice Donfack in Zusammenarbeit mit den anderen Projektpartnern durchführen. Ziel ist es, ein Analysesystem zu schaffen, welches auch anderen Wissenschaftlern oder Behörden ermöglichen soll, die Mikroplastik-Problematik besser einschätzen zu können und aktuelle Belastungen schnell zu erkennen.

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1.500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.

Für weitere Informationen:

www.jacobs-university.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Arnulf Materny
Professor of Chemical Physics
Email: a.materny@jacobs-university.de

Quelle: IDW

(nach oben)


Starkregen-Vorsorge in Sachsen und Europa – neue Website informiert zu geeigneten Maßnahmen

Heike Hensel Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für ökologische Raumentwicklung e. V.

Ab sofort steht Kommunen und Interessierten eine Sammlung von Informationen, Werkzeugen und Praxisbeispielen zum Umgang mit der Naturgefahr Starkregen zur Verfügung. Mit der Freischaltung des „Werkzeugkastens“ im Internet geht das EU-Projekt RAINMAN zu Ende. Das Leibniz-Institut für ökologische Raumentwicklung (IÖR) hat zur RAINMAN-Toolbox unter anderem räumlich hochauflösende Gefahrenhinweiskarten beigesteuert.

Aktuell treffen Starkregenereignisse wieder Städte, Dörfer und ganze Landstriche in Sachsen und Mitteleuropa. Auch Orte, die nicht in der Nähe von Gewässern liegen, können von Überflutungen und Schäden betroffen sein. Wann und wo genau bei Unwettern extreme Regenfälle niedergehen, ist schwer abzuschätzen, meist bleibt kaum Zeit zur Vorwarnung. Umso wichtiger ist es, mögliche Risiken durch Starkregenfälle im Vorfeld abzuschätzen und geeignete Maßnahmen zu treffen, um potenzielle Schäden zu minimieren.

Auf einer neuen Website (https://rainman-toolbox.eu/de) findet sich nun ein Überblick über geeignete Maßnahmen und gute Beispiele aus der Praxis. Die Toolbox ist Ergebnis des Projektes RAINMAN. Insgesamt zehn Partner und viele Kommunen und Fachbehörden aus Österreich, Deutschland, Ungarn, Tschechien, Polen und Kroatien haben sie in drei Jahren Projektlaufzeit zusammengetragen. Gefördert wurde das Projekt durch das Interreg CENTRAL EUROPE-Programm der Europäischen Union.

Die Toolbox enthält neben einer Sammlung von Methoden zur Abschätzung und Kartierung von Starkregenrisiken auch Orientierungshilfen für die Planung und Umsetzung von Maßnahmen zur Risikominderung sowie Inspiration und Anleitung zur Risikokommunikation. Zahlreiche Steckbriefe informieren über Beispiele guter Praxis für das integrierte Management von Starkregenrisiken in den sechs beteiligten europäischen Ländern.

Die im Projekt gesammelten Erfahrungen zu den vielfältigen Möglichkeiten kommunaler Starkregen-Vorsorge stehen mit der neuen Internetseite als Wissensbasis primär für Verantwortliche in Kommunen und Regionen bereit. Die Werkzeuge zur Risikoabschätzung und Kartierung zeigen kommunalen Entscheide¬rinnen und Entscheidern Methodenbeispiele, wie sich erfassen lässt, wo sich im Fall von Starkregen Wasser sammelt und auf seinem Weg zum nächsten Gewässer Menschen, Infrastruktur und Eigentum schädigen kann. Auf Basis dieses Wissens können Verantwortliche für ihre Region Vor-Ort-Untersuchungen beauftragen sowie passende Vorsorgemaßnahmen treffen. Mögliche Ansatzpunkte zur Risikominderung reichen von lokalen Maßnahmen der Flächennutzungsplanung, über natürliche oder technische Maßnahmen zum Rückhalt der plötzlich auftretenden Wassermassen oder zur sicheren Ableitung des Wassers. Auch die Berücksichtigung von Starkregenszenarien im Katastrophenschutz kann Risiken durch Starkregenereignisse minimieren.

Gute Beispiele aus Sachsen
Damit sich Bevölkerung, Kommunen und Regionen in Sachsen schon im Vorfeld auf die wachsende Gefahr durch Starkregen vorbereiten und Schäden künftig besser vermeiden können, haben das IÖR, das Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) und das Sächsische Staatsministerium für Regionalentwicklung (SMR) gemeinsam mit einigen Pilotgemeinden in den zurückliegenden drei Jahren gute Beispiele der Vorsorge geschaffen. Im Leutersdorfer Ortsteil Spitzkunnersdorf (Landkreis Görlitz) etwa hatte 2017 nach starken Regenfällen eine Sturzflut große Schäden verursacht. Wild abfließendes Wasser schoss über großräumige Feldflächen auf das nächste Gewässer zu, riss dabei Schlamm mit und überflutete die dazwischengelegenen Siedlungsbereiche großflächig. Erstmals werden nun in Spitzkunnersdorf Starkregenereignisse in eine Fachplanung zur Verbesserung des Hochwasserschutzes einbezogen. Zur Unterstützung der Gemeinde hat das IÖR räumlich hochauflösende Gefahrenhinweiskarten mit Wasserständen und Fließgeschwindigkeiten für verschiedene Starkregenszenarien erstellt. Dies ist nur eines der Praxisbeispiele, die sich auf der Website in der Rubrik „Unsere Geschichten“ nachlesen lassen.

Hintergrund
Im Projekt RAINMAN (Integrated Heavy Rain Risk Management) haben die Partner im Projektzeitraum Juli 2017 bis Juni 2020 innovative Methoden und Werkzeuge für ein integriertes Starkregenrisikomanagement in Mitteleuropa entwickelt und diese Instrumente in verschiedenen Pilotregionen getestet. Ziel war es, die Schäden durch Starkregenereignisse im urbanen und ländlichen Raum durch ein verbessertes Risikomanagement zu reduzieren. Das Projekt wurde durch das Interreg CENTRAL EUROPE-Programm der Europäischen Union mit insgesamt 2,5 Millionen Euro gefördert. Lead-Partner war das Sächsische Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG).

Wissenschaftliche Ansprechpartner:

Dr. Regine Ortlepp, E-Mail: R.Ortlepp@ioer.de
Dr. Axel Sauer, E-Mail: A.Sauer@ioer.de

Weitere Informationen:

https://rainman-toolbox.eu/de – Link zur RAINMAN-Toolbox-Website
https://www.interreg-central.eu/Content.Node/RAINMAN.html – Weitere Informationen zum Projekt RAINMAN

Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment80378

Quelle: IDW

(nach oben)


Erste Bilder der Sonne von Solar Orbiter

Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Astrophysik Potsdam

Solar Orbiter, eine Mission der Weltraumorganisationen ESA und NASA, veröffentlicht erstmals Bilder, die unseren Heimatstern so nah zeigen wie noch nie. Zuvor konnte die Erprobungsphase aller Instrumente erfolgreich abgeschlossen werden.

Vor fünf Monaten startete Solar Orbiter seine Reise zur Sonne. Zwischen Mitte März und Mitte Juni wurden die zehn Instrumente an Bord eingeschaltet und getestet, zudem führte die Raumsonde ihre erste Annäherung an die Sonne durch. Kurz darauf konnten die internationalen Wissenschaftsteams zum ersten Mal alle Instrumente gemeinsam prüfen.

Neben dem sichtbaren Licht sendet die Sonne auch Röntgenstrahlung aus, vor allem während Sonneneruptionen. Das Leibniz-Institut für Astrophysik Potsdam (AIP) ist bei der Mission hauptsächlich an dem Röntgenteleskop STIX (Spectrometer/Telescope for Imaging X-Ray) beteiligt. Mit diesem Instrument lassen sich besonders heiße Regionen beobachten, die nur während Sonneneruptionen entstehen. Der Rest der Sonne ist im Röntgenlicht nicht sichtbar, daher braucht STIX ein eigenes System, dass die Orientierung zur Sonne präzise misst. Das Team am AIP entwickelte und baute das STIX Aspect System (SAS) und betreibt dies nun auch während der Mission. Nur damit können die Röntgenbilder mit den Aufnahmen der anderen Instrumente in Beziehung gesetzt werden.
Die nun veröffentlichten ersten Bilder, die Solar Orbiter von der Sonne aufgenommen hat, enthüllen bisher ungekannte Details. Die Aufnahmen zeigen zahlreiche kleine Sonneneruptionen, die aufgrund ihres Erscheinungsbildes „Lagerfeuer“ genannt werden. Bereits jetzt lässt sich daran das enorme Potential der Mission erkennen, deren wissenschaftliche Phase im November 2021 beginnt und bis 2029 andauert.

„Alle Instrumententeile von STIX, wie z. B. die 32 Röntgendetektoren, funktionieren wie geplant. Wir Sonnenphysiker am AIP waren natürlich sehr gespannt. Zu unserer Freude sehen wir, dass SAS wie erwartet gute Daten liefert. Während der Erprobungsphase konnten wir erkennen, wie sich der Sonnendurchmesser stetig vergrößert, da sich die Sonde der Sonne nähert“, erläutert Gottfried Mann, Leiter des STIX-Teams am AIP.
Am 10. Februar 2020 startete die Weltraumsonde Solar Orbiter. Die Mission soll die Sonne in den nächsten Jahren umkreisen und sich ihr bis auf einen Abstand von 42 Millionen Kilometern nähern. Solar Orbiter trägt sechs Fernerkundungsinstrumente und Teleskope, die die Sonne und ihre Umgebung abbilden, sowie vier In-situ-Instrumente, die die Eigenschaften in der Umgebung des Raumschiffs messen. Durch den Vergleich der Daten aus beiden Instrumentensätzen erhält die Wissenschaft Einblicke in die Entstehung des Sonnenwindes – des Stroms geladener Teilchen von der Sonne, der das gesamte Sonnensystem beeinflusst.

Während Ausbrüchen auf der Sonne wird eine enorme Menge hochenergetischer Elektronen erzeugt. Diese Elektronen spielen eine wichtige Rolle, da sie einen großen Teil der bei dem Ausbruch freigesetzten Energie tragen. Das AIP ist mit dem Energetic Particle Detektor (EPD) an einem weiteren Instrument beteiligt. EPD kann direkt diese Elektronen messen, wenn sie auf die Sonde treffen. Durch die vom DLR geförderte Teilnahme an den Instrumenten STIX und EPD wird das AIP in den nächsten Jahren in der Lage sein, die Prozesse der hochenergetischen Elektronen in ihrer Gesamtheit zu erforschen. Die Sonnenaktivität – auch als Weltraum-Wetter bezeichnet – kann unser Klima und die technische Zivilisation stark beeinflussen. Solar Orbiter hat das Ziel, die Prozesse auf der Sonne und ihre Auswirkungen auf unsere Erde zu untersuchen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gottfried Mann, 0331 7499 292, gmann@aip.de

Weitere Informationen:
https://bit.ly/SolarOrbiter_FirstLight_de
https://www.esa.int/Science_Exploration/Space_Science/Solar_Orbiter/Solar_Orbite…

Quelle: IDW

(nach oben)


Datenspuren auf dem Smartphone – Das persönlichste Gerät

LMU Stabsstelle Kommunikation und Presse Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Jeder, der ein Smartphone nutzt, hinterlässt digitale Spuren – massenhaft. Solche App-Daten machen Rückschlüsse auf die Persönlichkeit des Nutzers möglich. LMU-Psychologen erforschen ihre Aussagekraft.

Smartphones sind für viele Menschen längst persönliche Begleiter ihres täglichen Lebens geworden. Die digitalen Spuren, die ihre Besitzer rund um die Uhr hinterlassen, sind nicht nur für die großen amerikanischen IT-Firmen etwa zu Werbezwecken sehr begehrt. Auch wissenschaftlich können sie etwas abwerfen: Sozialwissenschaftler beispielsweise nutzen die Daten, um mehr über die Persönlichkeit und das soziale Verhalten von Menschen herauszufinden. In einer aktuellen im Fachmagazin PNAS veröffentlichten Studie überprüfte ein Team um den LMU-Psychologen Markus Bühner die Frage, ob sich bereits aus gängigen Verhaltensdaten von Smartphones wie Nutzungszeiten oder -häufigkeiten Hinweise auf die Persönlichkeit der Nutzer ergeben. Die Antwort war eindeutig: „Ja, wir können daraus automatisiert Rückschlüsse auf die Persönlichkeit der Nutzer ziehen, zumindest für die meisten Persönlichkeitsdimensionen“, sagt Clemens Stachl, ehemaliger Mitarbeiter am Lehrstuhl von Markus Bühner (Psychologische Methodenlehre und Diagnostik) und nun Forscher an der Stanford University, USA.

Im Rahmen des PhoneStudy-Projekts baten die LMU-Forscher insgesamt 624 freiwillige Versuchsteilnehmer, einerseits einen umfangreichen Persönlichkeitsfragebogen auszufüllen und andererseits die an der LMU entwickelte PhoneStudy-Forschungsapp für 30 Tage auf ihren Smartphones zu installieren. Die App schickte Informationen zum Verhalten der Versuchsteilnehmer verschlüsselt an die Server. Die Forscher werteten vor allem die Daten zu Bereichen wie Kommunikations- und Sozialverhalten, Musikkonsum, App-Nutzung, Mobilität, allgemeine Telefonaktivität und Tag- und Nachtaktivität aus. Sowohl die Daten des Persönlichkeitsfragebogens als auch die Verhaltensdaten vom Smartphone speisten die Wissenschaftler dann in einen maschinellen Lernalgorithmus ein. Dieser Algorithmus, wurde anschließend trainiert um Muster in den Verhaltensdaten zu erkennen und diese dann mit höheren oder niedrigeren Werten im Persönlichkeitsfragebogen in Verbindung zu bringen. Die Fähigkeit des Algorithmus, die Persönlichkeit vorherzusagen wurde anschließend anhand neuer Daten kreuzvalidiert. „Der schwierigste Teil war die Vorverarbeitung der enormen Datenmengen und das „Trainieren“ der Algorithmen“, erzählt Stachl. „Hierzu mussten wir auf den LRZ-Hochleistungsrechencluster in Garching zugreifen, um diese Berechnungen überhaupt möglich zu machen.“

Im Fokus der Forschenden standen die fünf wichtigsten Persönlichkeitsmerkmale in der Psychologie, die sogenannten Big Five. Diese fünf Dimensionen beschreiben Unterschiede in der menschlichen Persönlichkeit in einer sehr globalen Art und Weise. Sie umfassen Offenheit (wie aufgeschlossen gegenüber neuen Ideen, Erfahrungen und Werten beschreibt sich eine Person), Gewissenhaftigkeit (wie zuverlässig, pünktlich, ehrgeizig, und organisiert schätze ich mich ein), Extraversion (gibt Hinweise, wie gesellig, durchsetzungsfähig, abenteuerlustig, fröhlich sich jemand beschreibt), Verträglichkeit (wie angenehm, zuvorkommend, unterstützend und hilfsbereit stellt sich eine Person dar) und Emotionale Stabilität (wie selbstsicher, selbstbeherrschend und unbekümmert schätzt sich eine Person ein). Der Algorithmus konnte hier tatsächlich automatisiert aus der Kombination der Verhaltensdaten Rückschlüsse auf die meisten Persönlichkeitsmerkmale der Nutzer ziehen. Die Ergebnisse gaben zudem Hinweise darauf, welche digitalen Verhaltensweisen informativ für bestimmte Selbsteinschätzungen der Persönlichkeit sind. Das Kommunikations- und Sozialverhalten auf dem Smartphone gab wichtige Hinweise, wie extravertiert sich jemand einschätzt, Informationen zum Tag-Nacht-Rhythmus der Nutzer waren besonders aussagekräftig hinsichtlich der selbsteingeschätzten Gewissenhaftigkeit. Offenheit konnte nur durch eine Vielzahl sehr unterschiedlicher Verhaltensdaten vorhergesagt werden.

Für Forscher sind die Ergebnisse von großem Wert, vor allem weil in der Psychologie bislang Persönlichkeitsdiagnostik fast ausschließlich auf Selbstbeschreibungen beruht. Diese zeigen sich zwar für die Vorhersage von beispielsweise beruflichem Erfolg als nützlich. „Dennoch wissen wir gleichzeitig sehr wenig darüber, wie sich Menschen tatsächlich im alltäglichen Leben verhalten – außer das, was sie uns im Fragebogen mitteilen möchten“. sagt Markus Bühner. „Smartphones bieten sich durch ihre Allgegenwärtigkeit, ihre Verbreitung und ihre enorme technische Leistungsfähigkeit als ideale Forschungsgeräte an, um die Selbstschreibungen mit realem Verhalten übereinstimmen.“

Dass seine Forschung auch Begehrlichkeiten bei den großen IT-Firmen wecken könnte, ist Stachl durchaus bewusst. Neben Datenschutz und Schutz der Privatsphäre müsse man daran arbeiten, das Thema künstliche Intelligenz ganzheitlicher zu betrachten, so Stachl. „Der Mensch und nicht die Maschine muss im Mittelpunkt der Forschung stehen. Wir dürfen maschinelle Lernmethoden nicht unreflektiert nutzen.“ Das Potenzial möglicher Anwendungen sei enorm, sowohl in der Wissenschaft wie auch in der Wirtschaft. „Die heutigen Möglichkeiten einer datengetriebenen Gesellschaft können zweifellos das Leben für viele Menschen verbessern, wir müssen aber auch sicherstellen, dass alle Teilnehmer der Gesellschaft von diesen Entwicklungen profitieren können.“

Wissenschaftliche Ansprechpartner:

Dr. Clemens Stachl,
Email: stachl@stanford.edu

Prof. Markus Bühner
Email: buehner@lmu.de
Telefon: +49 89 / 2180 – 6257

Originalpublikation:
Clemens Stachl, Quay Au, Ramona Schoedel, Samuel D. Gosling, Gabriella M. Harari, Daniel Buschek, Sarah Theres Völkel, Tobias Schuwerk, Michelle Oldemeier, Theresa Ullmann, Heinrich Hussmann, Bernd Bischl, and Markus Bühner:
Predicting personality from patterns of behavior collected with smartphones
PNAS 2020

Quelle: IDW

(nach oben)


Wind trägt Mikroplastik in die Arktis

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien

Mikroplastikteilchen können vom Wind über weite Distanzen transportiert werden – und enden in so entlegenen Gegenden wie der Arktis. Dort könnten die dunkel gefärbten Teilchen unter anderem dazu führen, dass Schnee- und Eismassen schneller schmelzen. Ein internationales Forscher*innenteam um Andreas Stohl von der Universität Wien hat errechnet, dass pro Jahr 48.000 Tonnen Mikroplastik in der Arktis landen und insgesamt etwa 140.000 Tonnen Mikroplastik aus dem Straßenverkehr über die Atmosphäre in die Ozeane transportiert werden. Die Studie erscheint in Nature Communications.

Nachdem die globale Produktion von Plastik ständig ansteigt, entgehen auch immer größere Kunststoffmengen der Wiederverwertung. Die ökologischen Auswirkungen dieser ständig steigenden Belastung mit Mikroplastik und die möglichen Auswirkungen auf die Gesundheit der Menschen sind bisher kaum bekannt.

Aus dem Straßenverkehr in die Atmosphäre
Ein internationales Forscher*innenteam unter Beteiligung des Norwegian Institute for Air Research (NILU), der Universität Wien und des International Institute for Applied Systems Analysis (IIASA) untersuchte jetzt die Verbreitung von Mikroplastik über den Wind. Die Forscher*innen haben erste Modellrechnungen der globalen Ausbreitung von Mikroplastikpartikeln aus dem Straßenverkehr – die durch Reifen- und Bremsabrieb entstehen – durchgeführt. Der Hauptanteil dieses Mikroplastiks stammt aus den dicht besiedelten Regionen Nordamerikas, Europas und Asiens.

Während sich größere Partikel hauptsächlich in der Nähe dieser Emissionsregionen absetzen, können kleinere Partikel – kleiner als 2,5 Mikrometer – sich beinahe global verteilen. Das Team modellierte, dass pro Jahr ungefähr 140.000 Tonnen Mikroplastik aus dem Straßenverkehr über die Atmosphäre in die Ozeane transportiert werden.

Über die Atmosphäre in die Arktis
Zudem schätzen die Forscher*innen, dass 48.000 Tonnen pro Jahr an schnee- und eisbedeckten Oberflächen deponiert werden. „Speziell der Transport in die Arktis ist bedenklich, weil dort das Ökosystem sehr empfindlich ist und ohnehin bereits durch Klimawandel und andere Gifte belastet wird“, berichtet Andreas Stohl von der Universität Wien: „Da stellt Mikroplastik eine weitere, bisher kaum einschätzbare Gefahr dar.“ In geringem Maße könnte durch die Ablagerung von relativ dunklen Plastikpartikeln auch die Rückstrahlfähigkeit des Schnees und Eises beeinträchtigt werden, was zu verstärktem Abschmelzen und damit weiterer Klimaerwärmung führen könnte. Ein ähnlicher Effekt ist durch die Ablagerung von Ruß in der Arktis bekannt.

„In dieser Studie zeigen wir, dass Transport von Mikroplastik durch die Atmosphäre eine große Bedeutung hat“, sagt Stohl. „Bisherige Studien haben sich vor allem auf den Transport über Flüsse in den Ozean konzentriert. Der Transport in der Atmosphäre ist jedoch ähnlich wichtig – vielleicht sogar noch wichtiger“.

Publikation in Nature Communications:
Evangeliou et al.: Atmospheric transport is a major pathway of microplastics to remote regions. Nature Communications, 2020.
DOI: 10.1038/s41467-020-17201-9

Wissenschaftliche Ansprechpartner:

Univ.-Prof. Mag. Dr. Andreas Stohl
Institut für Meteorologie und Geophysik
Universität Wien
1090 – Wien, Althanstraße 14 (UZA II)
T +43-1-4277-53730
andreas.stohl@univie.ac.at

Originalpublikation:

Evangeliou et al.: Atmospheric transport is a major pathway of microplastics to remote regions. Nature Communications, 2020.
DOI: 10.1038/s41467-020-17201-9

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

Quelle: IDW

(nach oben)


UN-Klimaziele sind ökonomisch sinnvoll: Ambitionierter Klimaschutz zahlt sich aus

Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Klimaschutz ist nicht billig – aber Klimaschäden sind es auch nicht. Wie viel Klimaschutz ist also wirtschaftlich gesehen am sinnvollsten? Diese Frage hat Ökonomen jahrzehntelang beschäftigt, insbesondere seit dem Wirtschaftsnobelpreis 2018 für William Nordhaus, dessen Berechnungen nach eine Erwärmung um 3,5 Grad bis 2100 ein ökonomisch wünschenswertes Ergebnis sei. Ein internationales Wissenschaftlerteam unter der Leitung des Potsdam-Instituts für Klimafolgenforschung hat nun die Computersimulation, die diesen Schluss gezogen hat, mit den neuesten Daten und Erkenntnissen aus Klima- und Wirtschaftswissenschaften aktualisiert.

Sie stellten fest, dass die Begrenzung der Erderwärmung auf unter 2 Grad ein wirtschaftlich optimales Gleichgewicht zwischen künftigen Klimaschäden und den heutigen Kosten für den Klimaschutz herstellt. Das würde einen CO2-Preis von mehr als 100 US-Dollar pro Tonne erfordern.

Jener Tag, an dem der Weltklimarat (Intergovernmental Panel on Climate Change, IPCC) im Auftrag der UNO seinen so genannten 1,5-Grad-Bericht veröffentlichte, war auch der Tag, an dem William Nordhaus den Nobelpreis für Wirtschaftswissenschaften „für die Integration des Klimawandels in die langfristige makroökonomische Analyse“ erhielt. Konkret gelang ihm das mittels einer Computersimulation, seinem sehr einflussreichen Dynamic Integrated Climate-Economy (DICE)-Modell. Im Pariser Abkommen der UNO wurde vereinbart, die globale Erwärmung auf deutlich unter 2 Grad zu begrenzen, um Klimarisiken einzudämmen. Nordhaus‘ Zahlen deuten auf 3,5 Grad als eine gleichsam wirtschaftlich optimale Erwärmung bis zum Jahr 2100 hin. Die jetzt in der wissenschaftlichen Zeitschrift Nature Climate Change veröffentlichte Studie bietet eine Aktualisierung des DICE-Modells, welche helfen kann, die Perspektiven in Einklang zu bringen.

„Im Wesentlichen haben wir das Nordhaus-Modell aufgeschnürt, gründlich überprüft und einige wichtige Aktualisierungen vorgenommen, die auf den neuesten Erkenntnissen der Klimawissenschaft und Wirtschaftsanalyse basieren“, erklärt Martin Hänsel, Hauptautor der Studie und Forscher am Potsdam-Institut für Klimafolgenforschung (PIK). „Wir haben festgestellt, dass die Ergebnisse der aktualisierten Version tatsächlich in guter Übereinstimmung mit der Pariser 2°C-Grenze für die globale Erwärmung stehen.“

Die Aktualisierungen umfassen ein akkurateres Kohlenstoffkreislaufmodell, eine neue Gewichtung des Temperaturmodells, eine angepasste Schadensfunktion, und neue Erkenntnisse über die normativen Annahmen des Modells. Diese zeigen sich konkret bei der Frage, wie eine gerechte Verteilung von Wohlstand zwischen heutigen und zukünftigen Generationen gestaltet werden sollte, die den Klimawandel berücksichtigt – ausgedrückt in der so genannten sozialen Diskont-Rate. Deren Aktualisierung basiert nun auf einer breiten Palette von Expertenempfehlungen zur Generationengerechtigkeit. Ergänzt wird dies durch angepasste Annahmen in Bezug auf die Emissionen von anderen Treibhausgasen zusätzlich zum CO2, Technologien zu negativen Emissionen (also dem Herausholen von CO2 aus der Atmosphäre), und wie zügig eine Abkehr von einer kohlenstoffbasierten Wirtschaft erreicht werden kann.

Wie schlimm wird es? Die Schadensfunktion
Die Schadensfunktion beurteilt, wie stark sich künftige Klimaveränderungen auf die Weltwirtschaft auswirken werden. Ko-Autor Thomas Sterner, Professor an der Universität Göteborg, erklärt: „Die standardmäßige Schadensfunktion im DICE-Modell hat eine Reihe von methodischen Mängeln. Unsere Analyse baut auf einer kürzlich durchgeführten Meta-Analyse auf, in der wir diese Mängel beheben. Infolgedessen finden wir höhere Schäden als im Standard-DICE-Modell. Allein nach dem, was wir in den letzten zehn Jahren gesehen haben, ist die Annahme hoher klimabedingter wirtschaftlicher Schäden leider realistisch.“

Wie viel zählt es? Die soziale Diskontrate
Darüber hinaus schaut die Studie auch auf das, was manchmal als die normative „Black Box“ wahrgenommen wird: Wie oft in der Wirtschaftswissenschaft enthält das, was wie eine nüchterne mathematische Funktion aussieht, eine Reihe normativer Annahmen. Die so genannte „soziale Diskont-Rate“ ist ein solcher Fall. Sie gibt an, wie wir das zukünftige Wohlergehen unserer Kinder und Enkelkinder bewerten – eine grundlegend moralische Frage. „Die Klimaauswirkungen unserer Emissionen reichen weit in zukünftige Generationen hinein. Um diese langfristigen Folgen angemessen bewerten zu können, müssen wir unterschiedliche Ansichten darüber berücksichtigen, wie wir einen Ausgleich zwischen den Interessen heutiger und zukünftiger Generationen schaffen können“, erklärt Moritz Drupp, Ko-Autor und Professor am Exzellenzcluster Klima, Klimawandel und Gesellschaft (CLICCS) der Universität Hamburg. Erstmals enthält die Studie eine repräsentative Auswahl von Empfehlungen von mehr als 170 Expertinnen und Experten zu den normativen Annahmen der sozialen Diskontrate. „Unser aktualisiertes Modell zeigt, dass das 2-Grad-Ziel nach den von der Mehrheit der Experten vorgeschlagenen sozialen Diskont-Raten ökonomisch optimal ist.“

Der richtige Preis für CO2
Die Änderungen am Modell, insbesondere die Neubewertung der sozialen Diskontrate zugunsten des Wohlergehens künftiger Generationen, haben weitere Auswirkungen: Sie führen zu einem höheren Preis für CO2. Während das Standard DICE-Modell von Nordhaus knapp 40 US-Dollar pro Tonne CO2 im Jahr 2020 ergibt, errechnet das aktualisierte DICE-Modell einen CO2-Preis von über 100 Dollar. Die CO2-Preise, die sich aus der Mehrheit der Expertenmeinungen zur sozialen Diskontierung ergeben, sind mit wenigen Ausnahmen höher als das, was in den meisten Sektoren selbst in den ehrgeizigsten Regionen der Welt umgesetzt wird. „Das ist ein weiterer Beleg dafür, welch ein entscheidendes politisches Instrument eine intelligente CO2-Preisgestaltung ist“, so die Schlussfolgerung von Ko-Autor Ben Groom, Professor an der Universität Exeter und Mitglied des Grantham Research Institute on Climate Change an der London School of Economics. „Unsere Studie bedeutet damit auch, dass eine ehrgeizigere Klimapolitik nötig ist, um zu vermeiden, dass wir unseren Kindern eine ungerechtfertigt hohe Last der Klimaauswirkungen hinterlassen.“

Artikel: Martin C. Hänsel, Moritz A. Drupp, Daniel J.A. Johansson, Frikk Nesje, Christian Azar, Mark C. Freeman, Ben Groom, Thomas Sterner: „Climate economics support for the UN Climate targets“. Nature Climate Change (2020). DOI: [10.1038/s41558-020-0833-x]

Weblink zum Artikel nach Veröffentlichung: https://www.nature.com/articles/s41558-020-0833-x

Originalpublikation:

Martin C. Hänsel, Moritz A. Drupp, Daniel J.A. Johansson, Frikk Nesje, Christian Azar, Mark C. Freeman, Ben Groom, Thomas Sterner: „Climate economics support for the UN Climate targets“. Nature Climate Change (2020). DOI: [10.1038/s41558-020-0833-x]

Weitere Informationen:

https://www.nature.com/articles/s41558-020-0833-x

Quelle: IDW

(nach oben)


Robuste Hochleistungs-Datenspeicher durch magnetische Anisotropie

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH

Die neueste Generation von Festplattenlaufwerken besteht aus magnetischen Dünnschichten, die zu den Invar-Materialien zählen und eine extrem robuste und hohe Datenspeicherdichte ermöglichen. Durch lokales Erhitzen mit einem Laser können winzigste Nanodomänen beschrieben werden (HAMR). Dabei dehnen sich solche Invar-Materialien trotz Erhitzung kaum aus. Ein relevantes Material für HAMR-Datenspeicher sind Dünnschichten aus Eisen-Platin-Nanokörnern. Ein internationales Team um Prof. Dr. Matias Bargheer am HZB und der Uni Potsdam hat nun experimentell beobachtet, wie in diesen Eisen-Platin-Dünnschichten eine besondere Spin-Gitter-Wechselwirkung die Wärmeausdehnung des Kristallgitters aufhebt.

Im thermischen Gleichgewicht gehört Eisen-Platin (FePt) zur Klasse der Invar-Materialien, die sich bei Erhitzung kaum ausdehnen. Dieses Phänomen ist schon im Jahr 1897 bei der Nickel-Eisen Legierung „Invar“ beobachtet worden, aber erst seit wenigen Jahren versteht die Fachwelt, wie es zustande kommt: Normalerweise führt Erwärmung von Festkörpern zu Gitterschwingungen, die eine Ausdehnung bewirken, weil die vibrierenden Atome mehr Platz brauchen. Erstaunlicherweise führt das Erwärmen der Spins in FePt aber zum gegenteiligen Effekt: Je wärmer die Spins sind, desto stärker zieht sich das Material entlang der Magnetisierungsrichtung zusammen. Das Resultat ist die von Invar bekannte Eigenschaft: eine minimale Ausdehnung.

Dieses faszinierende Phänomen hat nun ein Team um Prof. Matias Bargheer erstmals an unterschiedlichen Eisen-Platin-Dünnschichten experimentell verglichen. Bargheer leitet eine gemeinsame Forschergruppe am Helmholtz-Zentrum Berlin und der Universität Potsdam. Gemeinsam mit Kollegen aus Lyon, Brno und Chemnitz wollte er untersuchen, wie sich das Verhalten von perfekt kristallinen FePt-Schichten von den FePt-Dünnschichten unterscheidet, die für HAMR-Speicher verwendet werden. Diese bestehen aus kristallinen Nanokörnern aus übereinandergestapelten einatomaren Lagen von Eisen und Platin, die in eine Matrix aus Kohlenstoff eingebettet sind.

Mit zwei kurz aufeinanderfolgenden Laserpulsen wurden die Proben lokal erhitzt und angeregt, um anschließend durch Röntgenbeugung zu messen, wie stark sich das Kristallgitter lokal ausdehnt oder kontrahiert.

„Wir waren überrascht, dass sich die kontinuierlichen kristallinen Schichten ausdehnen, wenn man sie kurz mit Laserlicht erhitzt, während sich lose angeordnete Nanokörner in der gleichen Kristallorientierung zusammenziehen“, erklärt Bargheer. „Für die HAMR-Datenspeicher werden dagegen Nanokörner verwendet, die in eine Matrix aus Kohlenstoff eingebettet sind und auf einem Substrat festgewachsen sind: Die reagieren viel schwächer auf die Laseranregung und ziehen sich erst etwas zusammen und dehnen sich dann etwas aus.“

„Wir haben durch diese Experimente mit ultrakurzen Röntgenpulsen feststellen können, wie wichtig die Morphologie, also der genaue Aufbau solcher Dünnschichten ist“, sagt Alexander von Reppert, Erstautor der Studie und Doktorand in der Gruppe um Bargheer. Das Geheimnis ist die Querkontraktion, die auch Poisson-Effekt genannt wird. „Das kennt jeder, der schon einmal fest auf einen Radiergummi gedrückt hat“, sagt Bargheer. „Das Gummi wird in der Mitte dicker.“ Und von Reppert ergänzt: „Das können die Nanoteilchen auch, während beim perfekten Film kein Platz zur Ausdehnung in der Filmebene ist, die aber für eine spin-getriebene Kontraktion senkrecht zum Film benötigt wird.“

FePt ist also ein ganz besonderes Material. Es hat nicht nur außergewöhnlich robuste magnetische Eigenschaften. Seine thermomechanischen Eigenschaften verhindern auch, dass bei Erhitzung zu starke Verspannungen entstehen, die das Material zerstören würden – und das ist für HAMR wichtig!

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matias Bargheer
Forschergruppe Ultraschnelle Dynamik
Universität Potsdam und Helmholtz-Zentrum Berlin
bargheer@uni-potsdam.de

Originalpublikation:

Science Advances (2020): Spin stress contribution to the lattice dynamics of FePt
A. von Reppert, L. Willig, J. Pudell, S. Zeuschner, G. Sellge, F. Ganss, O. Hellwig, J. A. Arregi, V. Uhlíř, A. Crut, M. Bargheer
DOI: 10.1126/sciadv.aba1142

Weitere Informationen:
https://www.helmholtz-berlin.de/pubbin/news_seite?nid=21603;sprache=de;seitenid=… Auf unserer Webseite finden Sie einen kurzen Videoclip, der das Ausdehnungs- und Kontraktionsverhalten unterschiedlicher FePt-Proben zeigt.

Quelle: IDW

(nach oben)


Virologe der Universität Leipzig: Haustiere können sich doch mit Coronavirus infizieren

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Was noch vor drei Monaten als unwahrscheinlich galt, ist jetzt Realität: Auch Haustiere können sich mit dem neuen Coronavirus SARS-CoV-2 infizieren. Weltweit gibt es dafür mittlerweile Beispiele. Allerdings sind die Fallzahlen sehr gering, und nur Hunde, Katzen, Nerze und Frettchen sind nach bisherigen Erkenntnissen betroffen. Experimentell seien unter anderem Hunde und Katzen infiziert worden, sagt Prof. Dr. Dr. Thomas Vahlenkamp (56), Direktor des Instituts für Virologie der Veterinärmedizinischen Fakultät der Universität Leipzig. Während Hunde keine Symptome zeigten, hätten Katzen – ähnlich wie infizierte Menschen – Atemwegsbeschwerden und teilweise Durchfall bekommen.

„Das Coronavirus scheint sich bei Katzen vermehren zu können“, erklärt Vahlenkamp. Ähnliche Erfahrungen hätten Betreiber von Nerzfarmen in den Niederlanden und Dänemark gemacht, wo die Tiere Atemwegsbeschwerden gezeigt haben und teilweise daran starben. „Infektionen sind möglich, treten aber sehr selten auf, und sie standen immer im Zusammenhang mit einem humanen Fall“, berichtet der Experte. Wenn also Hunde- oder Katzenbesitzer mit dem neuen Coronavirus infiziert sind, besteht auch für ihre Haustiere eine Infektionsgefahr. Weltweit sei aber kein Fall bekannt, bei dem umgekehrt ein infiziertes Tier einen Menschen angesteckt habe. Wer mehrere Hunde und Katzen hält, sollte allerdings wissen, dass sich die Tiere auch untereinander anstecken können.

„Das soll aber nicht zu Verunsicherung bei Hunde- und Katzenbesitzern führen“, sagt Vahlenkamp. Die Zahl der Fälle sei äußerst gering. So habe es unter anderem in Frankreich, Spanien, Belgien, Deutschland, China und den USA einzelne solcher Infektionen gegeben. Auch im Zoo in New York haben sich Tiger infiziert – möglicherweise bei Besuchern oder Tierpflegern. Daraufhin hätten Forscher am Harbin Veterinary Research Institute in China die experimentellen Untersuchungen vorgenommen.

Wenn Hunde- und Katzenhalter auf Nummer sicher gehen möchten, können sie ihr Tier auf COVID-19 testen lassen, müssen den Test allerdings selbst finanzieren. Auch das Institut für Virologie der Universität Leipzig bietet solche Tests an.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Thomas Vahlenkamp
Direktor des Instituts für Virologie der Universität Leipzig
Telefon: +49 341-97 38201
E-Mail: thomas.vahlenkamp@uni-leipzig.de

Quelle: IDW

(nach oben)


Zukunftsperspektiven für den Güterverkehr

Vanessa Offermann Abteilung Hochschulkommunikation
Hochschule Heilbronn

Konsortium unter Federführung der Hochschule Heilbronn legt umfassende Handlungsempfehlungen für das Verkehrsministerium Baden-Württemberg vor.

Heilbronn, Juli 2020. Der zu erwartende starke Anstieg des Güterverkehrs in den kommenden Jahren erfordert kreative Antworten. Neben einer guten Verkehrsinfrastruktur spielen Nachhaltigkeit, Digitalisierung und Vernetzung dabei die entscheidende Rolle: „Die Entwicklung einer tragfähigen Zukunftsperspektive für den Güterverkehr gelingt am besten über die Berücksichtigung aller wichtigen Akteure, anstatt sich nur auf die Transportwirtschaft zu konzentrieren“, fasst Prof. Dr. Tobias Bernecker, Forschungsprofessor für Verkehrslogistik und nachhaltige Mobilität an der Hochschule Heilbronn und Projektkoordinator für das Güterverkehrskonzept Baden-Württemberg, die gewählte Vorgehensweise zusammen. Der in Stuttgart durch Verkehrsminister Winfried Hermann MdL vorgestellte Schlussbericht beleuchtet die Herausforderungen, die es auf diesem Weg zu bewältigen gilt und zeigt eine Vielzahl an Lösungsvorschlägen für das Land Baden-Württemberg auf.

Im Auftrag des baden-württembergischen Verkehrsministeriums forschte das Kompetenzzentrum LOGWERT an der Hochschule Heilbronn seit Sommer 2018 gemeinsam mit den Projektpartnern SSP Consult, Railistics, Fraunhofer IAO, SLN Sinsheim, IVK Röhling und IKEM an einer Gesamtkonzeption und an konkreten Einzelmaßnahmen. „Die Hochschule Heilbronn zeichnet dabei neben der Projektkoordination schwerpunktmäßig für die Themen Digitalisierung, alternative Antriebe, Infrastrukturmaßnahmen auf Straße und Schiene und den Kombinierten Verkehr verantwortlich“, erklärt Bernecker.

Umfangreiches Beteiligungskonzept
Eine besondere Stärke des Güterverkehrskonzepts Baden-Württemberg sind die durchgeführten Beteiligungsformate. In acht Vernetzungsforen wirkten insgesamt mehr als 200 Expertinnen und Experten aus Wirtschaft, Wissenschaft, Verbänden und Kommunen an der Erarbeitung mit. „Die Vernetzung und Einbindung zahlreicher Unternehmen sehe ich als eine hervorragende Basis für das Güterverkehrskonzept Baden-Württemberg“, bilanziert Artin Adjemian (IHK Rhein-Neckar) für die baden-württembergischen Industrie- und Handelskammern den Erfolg dieser Veranstaltungen.

Die Workshops in Ehingen (Donau), Heilbronn und Weil am Rhein dienten dazu, regionale Problemstellungen, Themenschwerpunkte und Lösungsansätze aufzugreifen. Heilbronn diskutierte zum Beispiel schwerpunktmäßig über die Umstellung auf alternative Lkw-Antriebe. In Reutlingen, Ulm und Ludwigsburg standen Zukunftsbilder für die städtische Logistik im Vordergrund. In Mannheim standen die Binnenschifffahrt und die Häfen im Land und in Ravensburg der Bereich Schwertransporte im Fokus.

Gestaltungsfelder für den Güterverkehr
Dreh- und Angelpunkt der erarbeiteten Ergebnisse im Güterverkehrskonzept Baden-Württemberg sind die fünf Gestaltungfelder Infrastruktur, Organisation, Wettbewerb, Innovationen und Vernetzung. Auf dem Gestaltungsfeld Infrastruktur zeigt das Güterverkehrskonzept, wie durch zusätzliche Überhol- und Abstellgleise und durch die Elektrifizierung weiterer Schienenstrecken im Land Engpässe für den Schienengüterverkehr beseitigt werden können. Auch ein weiterer Ausbau der Terminals für den Kombinierten Verkehr wird für erforderlich gehalten. Wichtige Ausbau- und Erhaltungsmaßnahmen des Bundesverkehrswegeplans 2030 mit Landesbezug und Vorhaben an Landesstraßen schaffen gleichzeitig die erforderlichen Kapazitäten für den Güterverkehr auf der Straße. Die Modernisierung der Bundeswasserstraße Neckar bildet eine wesentliche Grundlage für Wachstum bei der Binnenschifffahrt.

Das Gestaltungsfeld Organisation umfasst unter anderem die Einrichtung zusätzlicher Lkw-Stellplätze an Autobahnen und die volle Nutzung der Potenziale von Lastenrädern in den Städten, aber auch einen zu den Aufkommensschwerpunkten im Güterverkehr passenden Ausbau von Tank- und Lademöglichkeiten für Fahrzeuge mit alternativen Antrieben.

Im Gestaltungsfeld Wettbewerb werden Vorschläge gemacht, wie die Arbeitsteilung zwischen den Verkehrsträgern sichergestellt und verbessert werden kann.
Besonders groß ist das Spektrum an empfohlenen Maßnahmen im Feld Innovation.

Es reicht von alternativen Antrieben über eine Perspektive für das autonome Fahren auf Straße und Schiene bis hin zum verpflichtenden Einsatz von Lkw-Fahrerassistenzsystemen zur Erhöhung der Verkehrssicherheit. Die Verstetigung der Vernetzungsforen aus dem Güterverkehrskonzept Baden-Württemberg und die Einrichtung eines Kümmerers für die Belange des Schienengüterverkehrs sind Beispiele aus dem Gestaltungsfeld Vernetzung.

Fortgang des Güterverkehrskonzepts Baden-Württemberg
Mit dem Güterverkehrskonzept Baden-Württemberg ist es dem Projektkonsortium gelungen, eine Vielzahl an aussichtsreichen Maßnahmen zu erarbeiten. „Die umfassende und zielführende Ausarbeitung der Gutachter muss der Startschuss für einen Diskussionsprozess zu konkreten Maßnahmen sein, wie wir den Güterverkehr in unserem Land zukünftig gestalten wollen“, so Verkehrsminister Winfried Hermann. Die Vorstellung des Güterverkehrskonzepts Baden-Württemberg soll daher auch den Auftakt für einen übergreifenden Diskussionsprozess zur Umsetzung der empfohlenen Maßnahmen bilden.

Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit ca. 8.200 Studierenden ist die Hochschule Heilbronn eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt auf den Bereichen Technik, Wirtschaft und Informatik. An vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die Hochschule mehr als 50 Bachelor- und Masterstudiengänge an. Die Hochschule pflegt enge Kooperationen mit Unternehmen aus der Region und ist dadurch in Lehre, Forschung und Praxis sehr stark vernetzt.

Ansprechpartner Güterverkehrskonzept Prof. Dr. Tobias Bernecker,
Kompetenzzentrum LOGWERT der Hochschule Heilbronn,
Bildungscampus 9, 74076 Heilbronn, Telefon: 07131-504,1131,
E-Mail: tobias.bernecker@hs-heilbronn.de, Internet: http://www.logwert.de

Ansprechpartnerin Forschungskommunikation Franziska Pöttgen,
Bildungscampus 14, 74076 Heilbronn, Telefon: 07131-504-229,
E-Mail: franziska.poettgen@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/forschung

Pressekontakt Hochschule Heilbronn Vanessa Offermann,
Bildungscampus 14, 74076 Heilbronn, Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de

Weitere Informationen:

https://vm.baden-wuerttemberg.de/fileadmin/redaktion/m-mvi/intern/Dateien/PDF/20…
Die gesamte Präsentation des Güterverkehrskonzeptes ist hier für Sie hinterlegt.

Quelle: IDW

(nach oben)


Blick ins Innere einer Batterie

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg

Oldenburger Chemiker entwickeln neues Verfahren, um chemische Prozesse während des Betriebs zu beobachten

Was passiert in einer Batterie auf mikroskopischer Ebene während des Ladens und Entladens? Ein neues Verfahren, um diese bislang kaum zugänglichen Vorgänge live zu beobachten, hat ein Wissenschaftlerteam um Prof. Dr. Gunther Wittstock vom Institut für Chemie der Universität Oldenburg kürzlich in der Fachzeitschrift ChemElectroChem vorgestellt. Die neue Methode könne dazu beitragen, schneller geeignete Materialien für neuartige Batterien zu finden, so der Forscher. Ziel sei es, umweltfreundlichere Energiespeicher mit längerer Lebensdauer und höherer Leistungsdichte zu entwickeln. Zu dem Team gehören auch Wissenschaftler des Batterieforschungszentrums MEET (Münster Electrochemical Energy Technology) der Universität Münster.

Batterien wandeln chemische Energie in elektrische Energie um. Dabei wandern geladene Teilchen von einer positiv geladenen Elektrode, der Kathode, zur negativen Anode. In vielen modernen Batterien und wiederaufladbaren Akkus ist das reaktionsfreudige Metall Lithium ein wichtiger Bestandteil der Anode. Auf deren Oberfläche bilden sich während des Betriebs hauchdünne Filme, die sowohl Elektrode als auch Batterieflüssigkeit vor Zersetzung schützen. Bislang war es jedoch kaum möglich, Veränderungen der wenige millionstel Meter (Mikrometer) dicken, komplex aufgebauten Schichten während des Ladens und Entladens direkt zu beobachten.

Das Team entwickelte nun ein neues Messprinzip, um während des Batteriebetriebs örtlich hochauflösende Informationen über die Oberfläche metallischer Lithium-Elektroden zu erhalten. „Mit fortlaufender Zeit können chemische Prozesse auf der Oberfläche der Elektrode einen großen Einfluss auf die Lebensdauer und die Leistungsfähigkeit einer Batterie haben“, so Wittstock. Als Analyseverfahren verwendeten die Forscher die sogenannte elektrochemische Rastermikroskopie (englisch: scanning electrochemical microscopy, kurz: SECM). Dabei wird eine Messsonde schrittweise über die Oberfläche einer Probe bewegt, um chemische Informationen im Abstand von wenigen Mikrometern zu sammeln. Eine Software übersetzt die Messdaten in ein farbiges Bild. „Indem wir diesen Vorgang mehrmals wiederholen, können wir Veränderungen auf der Probenoberfläche wie in einem Daumenkino verfolgen“, berichtet Wittstock.

Bastian Krueger, Mitarbeiter in Wittstocks Arbeitsgruppe Physikalische Chemie, entwickelte in seiner Doktorarbeit eine spezielle Messzelle, in der die Versuchsbedingungen – wie etwa die Stromstärke – im Wesentlichen denen in einer echten Batterie entsprachen. Der Chemiker testete verschiedene, mit 3D-Druckern und CNC-Mikrofräsen hergestellte Zellaufbauten. Luis Balboa, ebenfalls Doktorand in der Arbeitsgruppe, führte Computersimulationen durch, um die Zellgeometrie zu optimieren und realistische Versuchsbedingungen herzustellen. Das Team aus Münster steuerte Referenzproben bei.

Auf diese Weise gelang es den Wissenschaftlern, die Prozesse auf der Lithium-Anode mit bislang unerreichter Genauigkeit zu untersuchen. Die Forscher beobachteten, wie sich dort bei hohen Ladegeschwindigkeiten Lithium aus der Batterieflüssigkeit absetzte. Aus solchen lokal verstärkten Abscheidungen können sich so genannte Dendrite bilden – sich verzweigende Fortsätze aus Lithium auf der Elektrode. Diese Gebilde begrenzen die Lebensdauer von Batterien und können im Extremfall zu ihrer Zerstörung führen.
„Der Durchbruch unserer Studie besteht darin, dass wir erstmals derartige Prozesse bei realistischen Stromdichten direkt in der Messapparatur ausführen und ihre Auswirkungen bildlich verfolgen konnten“, betont Wittstock. Das Verfahren sei auch für andere Typen von Elektroden geeignet. Langfristiges Ziel sei es, mit Hilfe der elektrochemischen Rastermikroskopie zu untersuchen, wie unterschiedliche Vorbehandlungsschritte das Wachstum der Grenzschicht auf den Elektroden beeinflussen.

Die Arbeit ist Teil des Kooperationsprojekts AMaLiS (Alternative Materialien und Komponenten für Lithium-Sauerstoff-Batterien), das noch bis Ende 2020 durch das Bundesforschungsministerium (BMBF) gefördert wird. Ziel ist es, neuartige Batteriekomponenten zu designen und gleichzeitig Verfahren zu entwickeln, um diese Komponenten zu testen.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Gunther Wittstock, Tel.: 0441/798-3971, E-Mail: gunther.wittstock@uol.de

Originalpublikation:

Bastian Krueger, Luis Balboa, Jan Frederik Dohmann, Martin Winter, Peter Bieker, Gunther Wittstock: „Solid Electrolyte Interphase Evolution on Lithium Metal Electrodes Followed by Scanning Electrochemical Microscopy Under Realistic Battery Cycling Current Densities“, ChemElectroChem, doi:10.1002/celc.202000441

Weitere Informationen:
https://chemistry-europe.onlinelibrary.wiley.com/doi/full/10.1002/celc.202000441
http://uol.de/pc2/

Quelle: IDW

(nach oben)


When is someone old?

Ansa Heyl Presse- und Öffentlichkeitsarbeit
International Institute for Applied Systems Analysis (IIASA)

Populations around the world are living longer lives than was the norm just a few decades ago, presenting governments with significant challenges in terms of caring for their growing elderly populations. According to a new study published in PLOS ONE, understanding how to assess who is elderly is a crucial first step for our understanding of population aging.

The UN’s Profiles of Ageing 2019 provides people who study population aging with a choice of perspectives, namely a conventional potential support ratio (PSR) and a prospective potential support ratio (PPSR). The difference between the two is based on different threshold ages at which people are first seen as „old“. In the PSR the threshold age is 65 years and is fixed independently of time or place, while in the PPSR, the threshold age is the age where remaining life expectancy is 15 years. The first is commonly known as the conventional old age threshold and the second as the prospective old age threshold. The conventional old age threshold is the most commonly used, but it has the disadvantage that it does not change over time and is the same for all countries regardless of their trajectories of aging. This is of course not the case, as today’s 65 year-olds are very different from their counterparts half a century ago, and are also likely to be very different from what they will be like half a century in the future. People also age differently depending on where they live and across population subgroups.

In their study, the authors propose that the old age threshold should be determined using an equivalency criterion – in other words, people at the old age threshold should be roughly similar to one another in terms of relevant characteristics regardless of when and where they lived. Using historical data on five-year death rates (the proportion of people dying between ages x and x+5) at the old age threshold as an indicator of one aspect of health, the researchers assessed the extent to which the two approaches used by the UN are consistent with the equivalency criterion. The results indicate that the old age threshold based on a fixed remaining life expectancy is consistent with the equivalency criterion, while the old age threshold based on a fixed chronological age is not. Specifically, five-year death rates at the old age threshold based on a fixed chronological age strongly decline over time, while the one based on a fixed remaining life expectancy is almost constant.

This implies that if the equivalency criterion were not at least approximately adhered to, people with a particular five-year death rate in one country would be categorized as old, while people in another country with the same five-year death rate would not be. The study is based on previous research by the authors in which they developed measures of population aging adjusted for changes in remaining life expectancy – a so-called dynamic old age threshold – and provides additional arguments around why it would be beneficial to use such measures of aging. They highlight that when this dynamic old age threshold is used to study people in many countries over long periods of time, at that threshold, people have roughly the same health.

„We wanted to provide researchers with a solid argument around why measures of aging based on a fixed remaining life expectancy should be used and how similar groups of older people should be defined. We want people to understand that the use of an old age threshold based on a fixed chronological age does not produce groups of adults whose relevant characteristics are comparable across time and space. The equivalency criterion is effective in making that decision because it defines who is elderly in a consistent way based on characteristics relevant to the study of population aging,“ explains IIASA researcher and study author Warren Sanderson.

„The picture of population aging that emerges when measures consistent with the equivalency criterion are used are markedly different from those that result when the equivalency criterion is not adhered to. We recommend that measures of aging that do not adhere to the equivalency criterion should only be used in special circumstances where it is inconsequential,“ concludes study author Sergei Scherbov, a researcher in the IIASA World Population Program.

Reference
Sanderson W & Scherbov S (2020). Choosing between the UN’s alternative views of population aging. PLOS ONE DOI: 10.1371/journal.pone.0233602

Contacts:
Researcher contact
Warren Sanderson
Research Scholar
IIASA World Population Program
Tel: +43 2236 807 252
sanders@iiasa.ac.at or warren.sanderson@stonybrook.edu

Sergei Scherbov
Research Scholar
IIASA World Population Program
Tel: +43 2236 807 584
scherbov@iiasa.ac.at

Press Officer
Ansa Heyl
IIASA Press Office
Tel: +43 2236 807 574
Mob: +43 676 83 807 574
heyl@iiasa.ac.at

About IIASA:
The International Institute for Applied Systems Analysis (IIASA) is an international scientific institute that conducts research into the critical issues of global environmental, economic, technological, and social change that we face in the twenty-first century. Our findings provide valuable options to policymakers to shape the future of our changing world. IIASA is independent and funded by prestigious research funding agencies in Africa, the Americas, Asia, and Europe. www.iiasa.ac.at

Quelle: IDW

(nach oben)


Direktbesteuerung von CO2 ermöglicht mehr freiwilliges Handeln im Klimaschutz

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Wenn man CO2 durch eine Steuer direkt bepreist, gibt das Raum für moralisches Handeln / Experimentell gestützte Studie von Axel Ockenfels, Peter Werner und Ottmar Edenhofer

Emissionen von CO2 können auf zwei Wegen einen Preis bekommen: Direkte Bepreisung durch eine Steuer oder Festlegung der Obergrenze der CO2-Emissionen mit anschließendem Handel von Emissionsberechtigungen. Eine neue Studie auf Basis eines wissenschaftlich kontrollierten Experiments beleuchtet einen bislang kaum erforschten Aspekt: die Anreizwirkung beider Varianten auf Akteure, die jenseits ihrer ökonomischen Interessen moralisch handeln wollen. Die Studie zeigt: Die direkte Bepreisung durch Steuern führt zu einem deutlich geringeren CO2-Ausstoß im Experiment.

Die Studie wurde von den Ökonomen Axel Ockenfels, Peter Werner und Ottmar Edenhofer erstellt und jetzt in der renommierten Fachzeitschrift Nature Sustainability veröffentlicht. Das Papier wurde unter anderem mit Unterstützung des „Center for Social and Economic Behavior“ der Universität zu Köln und im Kontext des DFG Cluster of Excellence ECONtribute erstellt.

An dem Experiment für die Studie haben rund 1000 Studentinnen und Studenten in dem Kölner Laboratorium für Wirtschaftsforschung mitgewirkt. In dem Experiment wird eine vereinfachte Welt von Produzenten und politischen Entscheidern gebaut, um die beiden Varianten der CO2-Bepreisung zu simulieren. Im Kern läuft es so: Zehn Produzenten legen in einem wettbewerblichen Markt fest, wie viel sie produzieren möchten, wobei eine größere Produktionsmenge mehr CO2-Emissionen mit sich bringt. Welche Produzenten zum Zuge kommen und tatsächlich emittieren, hängt von dem Ergebnis des Wettbewerbs sowie von so genannten Entscheidern ab. Diese geben in dem einen Teil des Experiments vor, wieviel Tonnen CO2 in einem Markt insgesamt emittiert werden dürfen (indirekte Preissteuerung durch Mengenbegrenzung), und in dem anderen Teil, wie viel Euro der Ausstoß einer Tonne CO2 kosten soll (direkte Preissteuerung durch Steuer). Am Ende wird den Produzenten der Ertrag abzüglich der Emissionskosten in echtem Geld ausgezahlt. Ein besonderer Anreiz für die Teilnehmer ist, dass jede nicht emittierte Tonne CO2 im Experiment auch in der realen Welt vermieden wird, denn über eine Umweltorganisation wird ein Zertifikat im EU-Emissionshandelssystem gekauft und stillgelegt.

Mit mehreren Abwandlungen dieses Experiments führt die Studie vor, welche Motivationen das Verhalten beeinflussen und welche Anreize wirken. Sobald die Konsequenz „echter CO2-Ausstoß in der realen Welt“ bekannt ist, erlauben die Entscheider deutlich weniger Ausstoß, und die Produzenten engagieren sich weniger für eine solche Erlaubnis. Bei der Variante der direkten Bepreisung von CO2 durch eine