Samstag, April 20, 2024
StartAblageTägliche Meldungen 2019

Tägliche Meldungen 2019

Dezember 2019
Umwelt
Gesundheit
Gesellschaft
Umwelt
26.12.2019 Hochschule Flensburg forscht an Veredelung von Gärprodukten für die Landwirtschaft 
19.12.2019 Umwelt überwachen und schützen: THGA-Technik gewinnt internationale Challenge 
17.12.2019 Nur wer die Meere kennt, kann nachhaltig mit ihnen umgehen 
15.12.2019 2,5 Millionen Euro für Forschungsverbund „Gute Küste Niedersachsen“ 
13.12.2019 Jade Hochschule untersucht den Umgang mit Hochwasserrisiken im Nordseeraum 
10.12.2019 Wie sich in Europa die Wasserqualität verbessern lässt / Policy Briefs bieten Handlungsempfehlungen 
07.12.2019 Eine Millionen Euro und revolutionäre Filter für mehr Umweltschutz 
05.12.2019 Grüngut? Doppelt gut fürs Klima! 
03.12.2019 Ein neues Puzzleteil im globalen Kohlenstoffzyklus 
02.12.2019 Ostsee am Scheideweg? Zukunftsszenarien zum kombinierten Effekt von Klimawandel und Nährstoffbelastung 
Gesundheit
31.12.2019 Wenn der Rücken vom vielen Sitzen schmerzt 
30.12.2019 Herzgesundheit:Cholesterin senken reicht nicht 
27.12.2019 Apps verbessern Ernährungsverhalten und die Gesundheit 
24.12.2019 Erfolgreich abnehmen – eine Typfrage: Auf energiereduzierte Mischkost setzen oder eher Kohlenhydrate einschränken? 
22.12.2019 Immer mehr Menschen sind wegen Schimmelpilzgiften in Lebensmitteln besorgt 
20.12.2019 Bewegung schützt vor Diabetes – aber wie? 
18.12.2019 Fettstoffwechsel und Diabetes: Im Takt der inneren Uhr 
14.12.2019 Jeder fünfte Beschäftigte hat zu kurze Ruhezeiten 
12.12.2019 Geschirr aus „Bambusware“ nicht für heiße Getränke oder Speisen nutzen 
11.12.2019 AWMF-Arbeitskreis diskutiert über Masernimpfpflicht und mahnt Schließung der Impflücken bei Erwachsenen an 
09.12.2019 „Zu viele sterben zu jung“ – Start der Kampagne „Kenne Dein Risiko“ 
08.12.2019 Darmkrebs-Früherkennung: Wie lange warten bis zur zweiten Darmspiegelung? 
06.12.2019 Warum Beta-Blocker Hautentzündungen verursachen 
04.12.2019 Gesellschaftlicher Lebensstil als Ursache für Adipositas bei Kindern | Neue S3-Leitlinie fordert präventive Maßnahmen 
01.12.2019 Haben Fußballprofis ein erhöhtes Demenzrisiko? 
Gesellschaft
29.12.2019 Wie ein Elfmeterschießen im Gehirn entschieden wird 
25.12.2019 Der Traum vom Hauptgewinn: Statistik-Experte erklärt, warum wir Lotto spielen 
23.12.2019 Soziologen der KU untersuchen Wechselwirkungen von Zahlen und Daten im Profifußball 
21.12.2019 Studie zu Persönlichkeit und Verhalten im Arbeitskontext 
16.12.2019 Warum wir Menschen handeln 
November 2019
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.11.2019 Ökologisch intakte Flüsse sind den Deutschen Milliarden wert 
28.11.2019 CO2-Preis erhöht den Benzinpreis um weniger als einen Cent pro Liter 
26.11.2019 Wasserstofftechnologien – Ein Beitrag zur Wirtschaftlichkeit und Nachhaltigkeit 
23.11.2019 Wieviel Methan kommt aus dem Ozean? Neue Studie reduziert Unsicherheiten bei Emissionen des wichtigen Treibhausgases 
22.11.2019 Wasserrahmenrichtlinie auf dem Prüfstand: IGB Policy Brief empfiehlt Festhalten an den Zielen und verbesserte Umsetzung 
20.11.2019 Indoorfarm mit Dachgewächshaus: Hochschule Osnabrück erhält 3,3 Millionen Euro für neues Forschungszentrum 
17.11.2019 Besser reagieren auf extreme Wetterereignisse: Forscher entwickeln europäische Frühwarnplattform 
15.11.2019 Klimawandel: Potential von Baumpflanzungen dramatisch überbewertet 
13.11.2019 Globaler Süden leidet am stärksten unter Klimawandel und Landnutzung 
11.11.2019 Mehr Energie, weniger CO2 – 9 Millionen Euro für KWK-Forschung 
09.11.2019 Auf den Spuren der Bärtierchen: Stuttgarter Biologe ausgezeichnet 
08.11.2019 Bodentiere: 365 Tage unter Wasser // Transport von Bodenlebewesen über Fließgewässer nachgewiesen 
07.11.2019 CO2 an der Quelle besteuern 
05.11.2019 Blasentang zeigt gekoppelte Reaktionen auf Umweltveränderungen 
Gesundheit
29.11.2019 Maserninfektion löscht Immungedächtnis – Masernimpfung schützt 
27.11.2019 Verhalten der Mutter beeinflusst Oxytocin-Entwicklung beim Säugling 
25.11.2019 Wie viele Wörter kennt mein Kind? 
21.11.2019 REM-Schlaf von Patienten mit Insomnien weist erhöhte Frequenz an Aufwachereignissen auf 
19.11.2019 „Metabolische Entzündung“: Warum Menschen mit starkem Übergewicht häufiger an Typ-2-Diabetes erkranken 
16.11.2019 Gefährdungen durch körperliche Fehlbelastungen einfach ermitteln 
14.11.2019 Bin ich nicht zu alt dafür? Musiktherapie gegen Tinnitus für die Generation 65plus 
10.11.2019 Leipziger Kardiologe: Moderate Werte bei Blutdruck und Cholesterin verlängern das Leben 
06.11.2019 Schlaganfall-Reha: Entspannung besser als Laufbandtraining? 
01.11.2019 Steckt im grünen Tee ein Wirkstoff gegen Antibiotikaresistenz? 
Gesellschaft
24.11.2019 Studie: Vorzeitige Rente bleibt attraktiv 
18.11.2019 62.000 Menschen befragt: Nachhaltigkeit und Umweltschutz spielen beim Kauf der Weihnachtsgeschenke kaum eine Rolle 
12.11.2019 Studenten entwickeln einen Koffer, der automatisch auf Schritt und Tritt folgt 
04.11.2019 Schön sein hilft, reicht aber nicht 
Oktober 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
31.10.2019 Vom „Waldsterben“ in den 80ern zu den Waldschäden von heute? 
29.10.2019 Städtische Infrastrukturen fit für den Klimawandel machen. Das Projekt FLEXITILITY ist Anfang August gestartet. 
27.10.2019 Grüner und fairer 
24.10.2019 Künstliche Intelligenz in der Agrar- und Umweltwirtschaft 
21.10.2019 Forschen gegen Mikroplastik: TU Freiberg entwickelt neues Verfahren für naturbasierte Mikropartikel in Kosmetik 
19.10.2019 Weltweit erste Validierung der Aerodynamik von großen Windenergieanlagen 
14.10.2019 Ein genetischer Globetrotter schützt Meeresbakterien vor Umweltverschmutzung 
11.10.2019 TU Berlin: „Blau-grüne Straßen“ gegen Trockenstress und Sturzfluten 
09.10.2019 Neuartiges Verfahren für das Kunststoffrecycling präsentiert: Großes Industrie-Interesse an Forschungsprojekt „MaReK“ 
06.10.2019 Chemische Evolution – One Pot Wonder 
01.10.2019 Studie: Erhalt von biologischer Vielfalt erfordert Konsumwende 
Gesundheit
30.10.2019 Avatare gegen Adipositas 
28.10.2019 Überraschende Erkenntnisse zur Therapie des Herzinfarkts 
25.10.2019 Familiäres Darmkrebsrisiko: In den Genen steckt nur ein Teil der Wahrheit 
23.10.2019 Warum können wir uns nicht kitzeln? 
20.10.2019 Mehr Gesundheitskompetenz für Eltern allergiekranker Kinder 
18.10.2019 Waschmaschine verbreitete antibiotika-resistente Keime 
17.10.2019 Bessere Versorgung für diabetische Füße 
13.10.2019 Die Herz-Themen des Tages 
12.10.2019 Ist der Sehsinn der wichtigste Sinn? 
10.10.2019 Tuberkulose: Neue Einblicke in den Erreger 
08.10.2019 Forscher entschlüsseln Wirkung von Ebola-Impfstoff – Virologen der Uniklinik Köln identifizieren neue Antikörper 
03.10.2019 Dem HI-Virus auf der Spur: Forscherteam macht sichtbar, wie AIDS-Erreger sich im Körper vermehrt 
Gesellschaft
26.10.2019 Sechs Komponenten einer gesunden Familienmahlzeit 
22.10.2019 Wirkt sich die Selbsteinschätzung des schulischen Könnens doch nicht auf die Leistung aus? 
15.10.2019 Fußball und Feminismus 
07.10.2019 Starke Gleichstellungsstrategie zahlt sich aus 
05.10.2019 Tarifrunde 2020: Für mehr als 10 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt 
04.10.2019 Strategien für eine nachhaltige Urbanisierung. Auftakt für Internationales Forschungsprojekt „EAST-CITIES“ 
02.10.2019 Wenn Zahlen lügen 
September 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
29.09.2019 TU Bergakademie Freiberg und UFZ erforschen Vulkangebiete als nachhaltige, erneuerbare Energiequelle 
26.09.2019 Weltweit erste Validierung der Aerodynamik von großen Windenergieanlagen 
25.09.2019 Städtische Infrastrukturen fit für den Klimawandel machen. Das Projekt FLEXITILITY ist Anfang August gestartet 
24.09.2019 Bundesweites Forschungsprojekt Q-INTEGRAL: OTH Regensburg forscht an Stromnetz der Zukunft für Betriebe 
22.09.2019 Statt vieler Einzelmaßnahmen sollte CO2-Bepreisung im Mittelpunkt stehen – Statement von Prof. Christoph M. Schmidt 
21.09.2019 MOSAiC-Expedition: Dr. Gunnar Spreen startet ins Eis-Abenteuer 
19.09.2019 Land unter: Steigende Hochwassergefahr durch gleichzeitige Sturmfluten und Starkniederschläge in Nordeuropa 
18.09.2019 Fraunhofer IPA und EEP der Universität Stuttgart – Studie zu industriellen Energiespeichern veröffentlicht 
17.09.2019 TU Berlin beteiligt sich an „Covering Climate Now“ 
15.09.2019 Umweltsündern auf der Spur 
14.09.2019 Wird Wasser jetzt digital? 
12.09.2019 Starkregen und Trockenheit – digitale Technologien für das Wassermanagement 
11.09.2019 Unstatistik des Monats: Verwirrung um Nitrat 
08.09.2019 Kaum Wasser unterm Kiel – Messungen im Extrembereich / Helmholtz-Forscher starten neuntägige Messkampagne auf der Elbe 
06.06.2019 Vom Satellitenbild zum Trinkwasserkonzept 
04.09.2019 1,8-Millionen-Euro-Projekt zur Anpassung des Wasserspeichers Harz an den Klimawandel startet 
02.09.2019 Klimawandel beeinflusst Überschwemmungen 
Gesundheit 
13.09.2019 Was verursacht digitalen Stress und welche Rahmenbedingungen machen besonders anfällig? 
10.09.2019 Forscher der Jacobs University finden Gadolinium aus MRT-Kontrastmitteln in Getränken aus Fast-Food-Restaurants 
07.09.2019 IFA 2019: Eine bessere Haltung am Arbeitsplatz dank neuer Sensortechnik 
05.09.2019 Ausmaß eines Herzinfarkts unabhängig von Tageszeit 
03.09.2019 Jeder Mensch hört anders gut! 
01.09.2019 Dresdner Studie zu Kopfschmerz bei Kindern und Jugendlichen: nur wenige Betroffene suchen Hilfe bei einem Arzt 
Gesellschaft
30.09.2019 Radikale Ideen in der Hochschulbildung: Drei Projekte erhalten 650.000 Euro Förderung 
28.09.2019 Gefahren und Chancen einer neuen Währung 
27.09.2019 Digitalisierung in den Naturwissenschaften: Neue Ausschreibung für Forschungsprojekte in Niedersachsen startet 
23.09.2019 Sicherheit durch Einstimmigkeit 
20.09.2019 Acht Millionen Euro für Supercomputer an TU Dresden übergeben 
16.09.2019 Neue Studienergebnisse zur aktuellen Situation im Mittelstand – jetzt im IfM-Forschungsnewsletter 3/19 
09.09.2019 Erfolgsfaktor Mensch – Wie die Transformation von Arbeitswelten gelingt 
August 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
30.08.2019 Statement: Elektroautos gehen auch bei Rekordhitze nicht in Flammen auf 
27.08.2019 Rettungsplan für das Weltmeer 
24.08.2019 Naturtourismus in den Tropen: Wie kann Abwassermanagement verbessert werden? 
22.08.2019 Wie geht es weiter nach dem EEG? Fraunhofer ISE befragt Besitzer der frühen EEG-geförderten PV-Anlagen 
19.08.2019 Wie Meeressedimente zur Bildung von Treibhausgasen beitragen 
16.08.2019 Meeresspiegel steigt seit 50 Jahren schneller 
15.08.2019 Geplatzte Hoffnung: Keine Chance für Umweltentlastende Plastik-Zersetzung durch Bakterien 
12.08.2019 Eisvolumen an Land beeinflusst Methanaustritte am Meeresboden 
11.08.2019 Doch keine Wassermoleküle im Selektivitätsfilter von Kaliumkanälen 
07.08.2019 „Ihr ganz persönlicher Einsatz für die Umwelt“ – Citizen-Science-Projekt zum Gewässerschutz 
05.08.2019 KIT-Experte zu aktuellem Thema: Hitzewellen und Rekordtemperaturen – was bringt die Zukunft? 
01.08.2019 Trockenzeiten und Starkregen: Was der Klimawandel für die Wasserqualität in Talsperren bedeutet 
Gesundheit 
31.08.2019 DGKN: Kribbeln in Fingern und Händen – Nutzung von Smartphones und Nerven-Engpass-Syndrom 
29.08.2019 Nächtliche Schichtarbeit als Krebsauslöser: Expertengremium bestätigt wahrscheinlichen Zusammenhang 
28.08.2019 Wie das Gehirn von Menschen mit großem Allgemeinwissen aussieht 
25.08.2019 Grauer Star: Wenn die Sicht trüb wird 
23.08.2019 Lange Arbeitszeiten von Eltern erhöhen das Risiko für Übergewicht ihrer Kinder 
20.08.2019 Für Gutverdiener ist der Renteneintritt ein Gesundheitsrisiko 
17.08.2019 Listerien im Tiefkühlgemüse und Melamin in Bambusgeschirr
13.08.2019 E-Autos, Smartphones und Co. – Welche Geräte stören Funktionen von Herzschrittmachern und implantierten Defibrillatoren? 
10.08.2019 Blut ist dicker als Wasser – und strömt daher anders 
08.08.2019 Fakten: Sonne belastet etwa jeden siebten Beschäftigten 
02.08.2019  „Hepatitis ist für mehr Todesfälle verantwortlich als HIV oder Tuberkulose!“ 
Gesellschaft
26.08.2019 Vor allem Geringverdiener und gut Ausgebildete bleiben auch im Rentenalter in Beschäftigung 
21.08.2019 Höherer Rentenbeitrag würde weder Wachstum noch Beschäftigung bremsen – positive und negative Effekte heben sich auf 
18.08.2019 Immer schön absichern! Häufigkeit und Ursachen von defensiven Entscheidungen 
14.08.2019 Sorgt der Videobeweis im Fußball wirklich für mehr Gerechtigkeit? 
09.08.2019 Das Moralverständnis von Kindern näher erforschen 
06.08.2019 Neue Studie zur Bedeutung von Influencerinnen für gestörtes Essverhalten bei Mädchen und Frauen 
03.08.2019  Arbeitsgedächtnis von Schimpansen ähnelt unserem 
Juli 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
31.07.2019 Der Wert einer Idee liegt in ihrer Umsetzung 
30.07.2019 Wälder in Deutschland sind wichtige Kohlenstoffsenke 
28.07.2019 Was für unser Klima zählt: CO2-Budgets erklärt 
27.07.2019 Meeresspiegelanstieg: Eiskollaps in Westantarktis könnte durch Beschneien mit Meerwasser verhindert werden 
25.07.2019 Erste globale Analyse von Höhlentropfwasser 
23.07.2019 Neues Berechnungskonzept: Wie hoch kann der Meeresspiegel maximal steigen? 
22.07.2019 Gezielter Klimaschutz braucht faire und wirkungsvolle CO2-Steuer 
21.07.2019 CO2-Bepreisung als Innovationstreiber für klimafreundliche Technologien 
18.07.2019 5 Jahre internationale Wasserpolitik in Koblenz: Das ICWRGC feiert Jubiläum 
17.07.2019 Projektstart: Biobasierte Dünger sollen künftig Mineraldünger ersetzen 
14.07.2019 Braune Hundezecke gesucht: Uni Hohenheim forscht an eingewanderter Zeckenart 
12.07.2019 Istanbul: Erstmals beweisen Unterwasser-Messungen Erdbebengefahr 
08.07.2019 Gutes Gespür für Moskitos 
07.07.2019 Mehr Insektenvielfalt auf Äckern und Weiden 
05.07.2019 Wie Bäume das Klima retten könnten 
03.07.2019 Neuer Windatlas für Europa fertiggestellt 
02.07.2019 Forschungskooperation mit DLR-Institut: Kohlendioxid-Reduktion in industriellen Prozessen 
Gesundheit 
26.07.2019 Sensibel trotz dicker Hornhaut 
16.07.2019 Mehr Sonnenstunden erfordern mehr UV-Schutz 
09.07.2019 Kalkschulter per Ultraschall gezielt aufspüren und Schmerzen mit Stoßwellen lindern 
08.07.2019 Gießener Lungenforscher behandeln Lungenhochdruck mit einem Krebsmedikament 
01.07.2019 DDG/DGE: Essstörungen bei Diabetes können lebensgefährlich sein 
Gesellschaft
29.07.2019 Depressiv durch Facebook und Co. 
24.07.2019 Arbeitslosenversicherung bewirkt finanziellen Ausgleich zwischen Bundesländern 
19.07.2019 Wie sich Aufschieber und Macher genetisch unterscheiden 
15.07.2019 Ehrenpromotion für Ranga Yogeshwar 
10.07.2019 Wer bewältigt die tägliche Informationsflut am Arbeitsplatz besser: „Jung“ oder „Alt“? 
06.07.2019 Bissula erklärt die antike Wirtschaftsgeschichte 
04.07.2019 Berufsbegleitend für eine Ingenieur-Karriere studieren 
Juni 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
26.06.2019 Gegen globale Erderwärmung: Waldböden sind bessere Kohlenstoffspeicher als erwartet 
25.06.2019 Raus aus der Raucherecke: Frühwarnsystem für Heizkessel reduziert Feinstaub 
19.06.2019 Einfach, präzise, günstig: Neue Methode zur Erforschung des Grundwassers 
18.06.2019 Beginnende Instabilität in der Westantarktis könnte die schnellste auf dem Kontinent sein 
17.06.2019 Flussfische vertragen keinen starken Schiffsverkehr 
15.06.2019 PM des MCC: Elektroautos können erst ab 2040 die CO₂-Emissionen deutlich senken 
13.06.2019 Kohleausstieg: Nur mit CO2-Preis hilft er wirklich dem Klima 
12.06.2019 Mikroorganismen auf Mikroplastik 
11.06.2019 Badeseen in NRW: Nur geringe Antibiotika-Belastung 
08.06.2019 Neues Horizon 2020-Verbundprojekt zu Bioplastik: HAW Hamburg wirbt 8,4 Millionen Fördermittel ein 
07.06.2019 Dürrerisiken neu bewerten: Beispiel Namibia und Angola 
05.06.2019 Einkorn, Emmer, Dinkel: Weltgrößter Feldversuch & Fachtag an der Universität Hohenheim 
01.06.2019 Blitze auf dem Mond 
Gesundheit 
21.06.2019 Studie: Übergewichtig durch Videospiele? 
20.06.2019 Studie: Saunabesuche belasten den Körper wie moderates Sportprogramm 
16.06.2019 Mechanismus zum Zusammenhang von Alter, Stress und Herzinfarkt gefunden 
14.06.2019 Sport im Alter – was geht noch? 
09.06.2019 Zähneknirschen ist keine Krankheit – ernste Folgen für die Gesundheit sind aber möglich 
03.06.2019 DGP: E-Zigaretten nicht verharmlosen. Dampfen in der Schwangerschaft gefährdet das Kind 
02.06.2019 Lebensmittel im Blickpunkt: Milch ist nicht gleich Milch 
01.06.2019 Schmerzfrei dank Evolution 
Gesellschaft
24.06.2019 Kostenfreie Weiterbildung zur Digitalisierung für KMU-Mitarbeiter 
10.06.2019 Zukünftig Arbeiten – Arbeit in Zukunft 
06.06.2019 International vernetzte Hochschulen haben bessere Ergebnisse bei Forschung und Wissenstransfer 
04.06.2019 Menschliche Vorfahren haben Steinwerkzeuge mehrmals erfunden 
01.06.2019 Recht im Angebot: Wenn Gesetzgeber konkurrieren 
Mai 2019
Umwelt
Gesundheit 
Gesellschaft
Umwelt
31.05.2019 Hochschulübergreifende Arbeitsgruppe untersucht Auswirkungen veränderter Grubenwassereinleitungen 
29.05.2019 RWI: Spitzenökonomen fordern Städte-Maut statt Fahrverbote 
28.05.2019 Vorkommen und Verbleib von Mikroplastik im Meer / Projekt MICRO-FATE startet mit Pazifik-Expedition 
27.05.2019 Eliminierung von Spurenstoffen durch nachhaltige Adsorbenzien 
25.05.2019 Universität Stuttgart benennt neue Bärtierchen-Art: Milnesium inceptum entdeckt 
24.05.2019 Vom Regen zum Hochwasser 
22.05.2019 Intelligente Energiespeicher- und -netze für sieben europäische Inseln 
21.05.2019 Submarine CO2-Speicherung in der Nordsee – Chance oder Risiko? 
20.05.2019 Unterwasser-Stromversorgung 
19.05.2019 Unkraut jäten leicht gemacht: Institut der FH Aachen entwickelt Feldroboter 
16.05.2019 Mysterium Bermuda: Geologen entdecken im Vulkangestein eine bisher unbekannte Region des Erdmantels 
15.05.2019 CO2-Steuer auf Diesel und Benzin hat positive Verteilungswirkungen 
13.05.2019 Phosphor-Recycling-Toilette »P-Bank« eröffnet auf dem Campus der Bauhaus-Universität Weimar 
12.05.2019 Drei Viertel der Flüsse weltweit durch menschliche Eingriffe in ihrem Lauf beeinträchtigt 
10.05.2019 Umsetzung der Klimaziele: Gasinfrastruktur in Deutschland vor Veränderungen 
09.05.2019 Eliminierung von Spurenstoffen durch nachhaltige Adsorbenzien 
08.05.2019 Wetterextreme im Sommer 2018 waren verbunden durch stockende Riesenwellen im Jetstream 
07.05.2019 „Crowd Oil“: Kraftstoffe aus der Klimaanlage 
06.05.2019 Neues Netzteil lässt Elektrogeräte länger leben 
04.05.2019 Masterplan Uferfiltration zur Wasserversorgung in Vietnam 
02.05.2019 Verbessertes Risikomanagement für die Geothermie 
Gesundheit 
30.05.2019 Elektrische Zahnbürsten beugen Zahnverlust vor 
26.05.2019 Klimawandel: wie sich Malaria in Europa und dem Mittelmeerraum ausbreiten wird 
03.05.2019 Erhöhtes Cholesterin im Blut: Schaden Eier der Gesundheit? 
01.05.2019 Wie wirken Omega-3-Fettsäuren? Wuppertaler Lebensmittelchemiker liefern wichtige Erkenntnisse 
Gesellschaft
18.05.2019 Öffentlichen Nahverkehr nutzen? Oft eine Frage von Kultur, Identität, Status und Prestige 
14.05.2019 Kreativität: Eine Frage der Impulsivität 
11.05.2019 Studie: Väter in Elternzeit – Unternehmen in der Verantwortung 
05.05.2019 Künstliche Intelligenz in Arbeitsprozesse integrieren 
April 2019
Umwelt 
Gesundheit 
Gesellschaft
Umwelt 
30.04.2019 Diskussion: Zwischen Plastikwahn und Plastikvermeidung 
25.04.2019 Materialbestände und -flüsse bestimmen Energiebedarf und Klimawirkung 
24.04.2019 Natrium-Ionen-Batterien: von der Materialentwicklung bis zur technologischen Innovation 
20.04.2019 Physikalische Zauberei ermöglicht Kühlen ohne Energiezufuhr 
17.04.2019 Drei Forschungsschiffe – ein Auftrag 
15.04.2019 Plastikmüll stört Kommunikation: Bayreuther Studie zeigt Risiken für Ökosysteme auf 
14.04.2019 Pilze filtern Medikamente aus dem Abwasser 
12.04.2019 KIT-Experte zu aktuellem Thema: Putzen mit Bakterien 
10.04.2019 E. coli & Co.: Fäkalkeime in Landschaften und Fließgewässern 
07.04.2019 Continental, Deutsche Telekom, Fraunhofer ESK, MHP, Nokia: vernetztes Fahren erfolgreich getestet 
05.04.2019 Schnelle globale Energiewende könnte Millionen Menschenleben retten 
04.04.2019 Biomasse effizient umwandeln: Forscher der Universität Münster decken neuen Reaktionsmechanismus auf 
02.04.2019 Elektroautos haben perspektivisch eine deutlich bessere Klimabilanz als Diesel und Benziner 
Gesundheit 
29.04.2019 Schlaf macht den Hippocampus frei für neue Gedächtnisinhalte 
27.04.2019 Schon der Gedanke an Kaffee sorgt für einen Energie-Kick am Morgen 
26.04.2019 Individuelle Ernährung zeigt Nutzen bei Spitalpatienten 
21.04.2019 Neue Behandlungsoptionen bei chronischen Schmerzen durch Früherkennung? 
19.04.2019 Salmonellen-Infektion – Schützende Darmbakterien identifiziert 
13.04.2019 BZgA empfiehlt: Jetzt gegen Frühsommer-Meningoenzephalitis (FSME) impfen 
09.04.2019 Sich mental auf die Arbeit einstellen ist genauso wichtig wie das Abschalten nach Feierabend 
06.04.2019 Welcher Sport ist gut bei Arthrose? 
03.04.2019 Soziale Unterschiede in Deutschland: Mortalität und Lebenserwartung im Journal of Health Monitoring 
Gesellschaft
28.04.2019 Sinkendes Interesse: Fußball-Wettbewerbe leiden unter WM Debakel 2018 
23.04.2019 Förderung für junge Wissenschaftler 
22.04.2019 Bald ist Europawahl: Positionen der Parteien zur EU-Hochschulpolitik 
18.04.2019 Förderaufruf: Welchen Einfluss hat die Energiewende auf die Gesellschaft – und umgekehrt? 
16.04.2019 Vergangenheit trifft Zukunft 
08.04.2019 Digitalisierung „zum Anfassen“ 
01.04.2019 Gender Pay Gap: Das größte Loch auf dem Gehaltszettel von Frauen klafft in Süddeutschland 
März 2019
Umwelt 
Gesundheit 
Gesellschaft
Umwelt 
31.03.2019 Was kostet ein Hochwasser? 
30.03.2019 Weltwassertag: Was machen eigentlich polare Stoffe im Trinkwasser? 
27.03.2019 Kostbare Ressource: Wasser 
26.03.2019 Mit künstlicher Intelligenz unterwegs im Kanalsystem 
23.03.2019 Blühende Ergänzung zum Mais: Fachtagung betont ökol. Nutzen von Wildpflanzen für Biogasanlagen 
22.03.2019 Internationaler Aktionstag gegen Staudämme am 14. März: Gewässerforschende als Experten zum Thema 
21.03.2019 FH entwickelt fliegende Roboter zur Bekämpfung der Wilderei in Südafrika 
19.03.2019 Zum Tag des Wassers am 22.3.: Digitalisierung im Wassersektor meistern mit praxisnaher Forschung 
16.03.2019 Das Geheimnis des Vakuums erstmals nachweisen 
14.03.2019 Test der Symmetrie der Raumzeit mit Atomuhren 
13.03.2019 Internationaler Aktionstag gegen Staudämme am 14. März: Gewässerforschende als Experten zum Thema 
11.03.2019 Wie Öl attraktiv für Magneten wird 
10.03.2019 Bedrohte Wildbienen – Verhungern im ländlichen Raum 
08.03.2019 9,1 Millionen Euro für trinationale Quantenforschung 
06.03.2019 Phosphor und Fernwärme aus Klärschlamm 
04.03.2019 Stellungnahme: „Der aktuelle NO2-Grenzwert ist wissenschaftlich plausibel“ 
03.03.2019 Silber-Nanopartikel in natürlichen Umgebungen untersuchen 
Gesundheit 
29.03.2019 BIBB/BAuA-Befragung 2018: Viele Beschäftigte arbeiten immer noch körperlich hart 
28.03.2019 Gedächtnis wie ein Sieb? Unter welchen Bedingungen Menschen im Alter neue Erinnerungen bilden können 
25.03.2019 Mit Tönen gegen das Tönen – Musiktherapie bei akutem Tinnitus 
24.03.2019 Luftverschmutzung verkürzt das Leben der Europäer um rund zwei Jahre 
18.03.2019 Darmvorsorge rettet Leben | Infoveranstaltung des Universitätsklinikums Ulm am 23. März 
15.03.2019 Mit der Spiegelbild-Biologie zu besseren Medikamenten 
12.03.2019 Besserer Schutz vor Darmkrebs: Vorsorge-Darmspiegelung bereits ab 50! 
09.03.2019 Darauf sollten Kontaktlinsenträger achten: Stiftung Auge gibt Tipps zur Auswahl und Pflege 
01.03.2019 Wer ein Kind möchte, braucht Folsäure! 
Gesellschaft
19.03.2019 Psychologie von Geschwistern: Letztgeborene sind keine Draufgänger 
17.03.2019 Diversity-Strategien zur erfolgreichen Personalgewinnung 
07.03.2019 Fast ein Drittel der Frauen geht später als geplant in den Ruhestand 
05.03.2019 Nur jeder zehnte Babyboomer will bis zum gesetzlichen Renteneintrittsalter arbeiten 
02.03.2019 Beruflicher Aufstieg mit Berufsausbildung – Männer klar im Vorteil. Neuer BIBB REPORT erschienen 
Februar 2019
Umwelt 
Gesundheit 
Gesellschaft
Umwelt 
28.02.2019 BRIESE-Preis 2018: Fokus Ozeanversauerung – Großer Fortschritt bei Ostsee-pH-Monitoring und mehr 
25.02.2019 Eine für alles. Biogassystem der Zukunft 
24.02.2019 Forschergruppe der TH Lübeck untersucht Grundwasserneubildung in Zypern und Jordanien 
22.02.2019 Traktoren tanken Klimaschutz – TFZ bescheinigt Biokraftstoff Langzeit-Praxistauglichkeit 
16.02.2019 „Aktionstag Starkregen“: Fachtagung informiert über effektives Risikomanagement 
15.02.2019 BMBF-Forschungsprojekt untersucht Digitalisierung im industriellen Wassermanagement 
14.02.2019 Fütterungspläne für flexible Biogasproduktion: bis zu 50% weniger Gasspeicherbedarf 
13.02.2019 Wasserwiederverwendung in der Landwirtschaft: Fallstudien zeigen Machbarkeit 
11.02.2019 Nitratabbau im Grundwasser: Selbstreinigungskraft des Untergrunds höher als angenommen 
09.02.2019 Berühmtes „Sandhaufen-Modell“ bewegt sich wie wandernde Sanddünen 
08.02.2019 Sind sich Fische ihrer selbst bewusst? 
07.02.2019 Windenergie liefert fast drei Viertel des erwarteten Stroms 
04.02.2019 Trockene Gewässer sind unterschätzte „Player“ im Klimawandel 
01.02.2019 Der Einfluss des Klimawandels auf das Grundwasser – eine tickende Zeitbombe 
Gesundheit 
27.02.2019 Vor einer möglichen neuen Grippewelle: Was gibt es außer Impfungen? 
23.02.2019 Grippewellen im Keim ersticken 
21.02.2019 Influenzaviren von Fledermäusen könnten auf Menschen überspringen 
18.02.2019 Neue ESMT-Studie: Tägliches Mittagessen verbessert Leseleistung von Kindern um 18 Prozent 
17.02.2019 Anti-Baby-Pille beeinflusst Emotionserkennung von Frauen 
10.02.2019 Die Größe des Gehirns beeinflußt Geschmackswahrnehmung 
02.02.2019 Virtuelle Linse verbessert Röntgenmikroskopie 
Gesellschaft
26.02.2019 Kritik an Umsetzung der Energiewende nimmt zu – Bevölkerung will sozialen Ausgleich 
20.02.2019 Wie können Städte von der Vielsprachigkeit ihrer Einwohner profitieren? 
19.02.2019 Neandertaler ernährten sich wirklich hauptsächlich von Fleisch 
12.02.2019 Süße Ungeduld: Wie positive Gefühle unsere Zeitwahrnehmung beeinflussen 
06.02.2019 Roadmap zur Cybersicherheitsforschung 
05.02.2019 Betreuungswünsche vieler Eltern bleiben unerfüllt 
03.02.2019 Kieler Wissenschaftler erforschen autonomes Fahren auf Deutschlands größtem Flughafen 
Januar 2019
Umwelt 
Gesundheit 
Gesellschaft 
Umwelt 
31.01.2019 Ernährungssicherheit weltweit stärken: Bayreuther Studie zur Phosphorverfügbarkeit durch Silizium 
30.01.2019 7. Herrenhausen Science Movie Night: Kunststoff-Umweltverschmutzung: Können Biokunststoffe helfen? 
29.01.2019 Gegen die Fluten 
28.01.2019 Herrscher der kalten Gewässer 
27.01.2019 Dem Klimawandel zum Trotz: Ostsee könnte zurück in einen guten Zustand gelangen 
25.01.2019 Umweltleistungen sichtbar machen: Ein neuer Index erleichtert die Bewirtschaftung von Flüssen 
22.01.2019 Mit Eisenoxid gegen hochgiftige Stoffe – Neues Verfahren zur Grundwassersanierung 
19.01.2019 Wenn für Fischlarven die Nacht zum Tag wird 
18.01.2019 Bakterien schwärmen aus 
15.01.2019 Antibiotika in Gülle: Biogasanlage keine Barriere 
14.01.2019 Interview mit Dr. Natalia Ivleva über ihre Forschung zur Analytik von Mikroplastik 
10.01.2019 Mobilfunktechnik für die Industrie 4.0 
08.01.2019 Biodiversität – Koexistenz durch verzögerte Anpassung 
05.01.2019 Magnesium-Batterien: Aufbruch ins Post-Lithium-Zeitalter 
04.01.2019 Wo die Flüsse nicht ins Meer fließen 
03.01.2019 Internationales Umweltschutzprojekt unter Leitung der Hochschule Karlsruhe 
02.01.2019 Leuphana Wissenschaftler warnen vor Umweltproblemen durch Fassadenanstriche 
01.01.2019 Organischen Müll von Kreuzfahrtschiffen verwerten 
Gesundheit 
26.01.2019 Menschliche Darmflora durch Nanopartikel in der Nahrung beeinflussbar 
24.01.2019 Studie: Längere Arbeitszeiten können der Gesundheit schaden
23.01.2019 Windpocken: Wie die Impfung Ihr Kind schützt 
20.01.2019 Blutdruck und Rauchen scheinen das Risiko für eine Hirnblutung erheblich zu beeinflussen 
17.01.2019 Mit Blutgefäßen aus Stammzellen gegen Volkskrankheit Diabetes 
16.01.2019 Gesundheitsgefühl: Männer fallen hinter Frauen zurück 
13.01.2019 Gestresste Mütter – übergewichtige Kinder 
07.01.2019 Food-Scanner für die Hosentasche 
01.01.2019  Zelle für Zelle zum Durchbruch des Jahres – MDC in Berlin ist Hotspot des Forschungsgebietes 
Gesellschaft 
11.01.2019 Neue Studie: Entgelttransparenzgesetz: Nur eine Minderheit der Unternehmen ist aktiv geworden 
09.01.2019 Studierende decken Sicherheitslücken auf 
06.01.2019 In Anlehnung an Pokemon Go – Mit neuen Verkerhssicherheitsapps Leben im Straßenverkehr retten 
01.01.2019 Großeltern sind für Enkelkinder wichtig 

Wenn der Rücken vom vielen Sitzen schmerzt

Dipl.-Ing. Mario Steinebach Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz

Spezielle Selbstmassage lockert verspannte Muskeln – Professur Bewegungswissenschaft der TU Chemnitz veröffentlicht Ergebnisse einer Studie in der Fachzeitschrift „Applied Ergonomics“

Ob auf dem Weg zur Arbeit, im Büro, an der Haltestelle oder in den eigenen vier Wänden – eine Gelegenheit zum Setzen ist in vielen Alltagssituationen gegeben. Und sie wird gern genutzt. Im Auto lockt die Sitzheizung, im Büro der Komfort, beim Warten ist es die Gewohnheit und zu Hause dienen Sofa und Sessel der Entspannung. „Alles andere als entspannt kann das viele Sitzen jedoch für den Rücken sein“, weiß Dr. Freddy Sichting von der Professur Bewegungswissenschaft der Technischen Universität Chemnitz. Auf den Tag summiert sitzen Menschen immer mehr: durchschnittlich sechs bis zehn Stunden. „Ganz besonders problematisch wird es insbesondere dann, wenn etwa Lkw-Fahrer ohne großartige Pause nahezu neun Stunden ununterbrochen hinterm Steuer sitzen“, so Sichting.

Das Phänomen, dass Menschen nach langem Sitzen über Rückenschmerzen oder Muskelverspannungen klagen, ist nicht neu. „Umso erstaunlicher, dass es bislang weder einen Nachweis dafür gibt, dass sich der Rücken durch langes Sitzen verspannt, noch wie Betroffene ohne großen Aufwand selbst etwas dagegen tun können“, sagt der Bewegungswissenschaftler. Zwar würden Betroffene zur Lockerung der Rückenmuskulatur teilweise Massagen nutzen, doch sei die klassische Massage für den Arbeitsalltag eher ungeeignet. „Eine flexible Alternative verspricht hier die Selbstmassage mit einer Schaumstoffrolle“, meint Sichting.

Wie jüngst in einer Studie an der TU Chemnitz gezeigt werden konnte, reichen bereits acht Minuten Selbstmassage mit einer handelsüblichen Hartschaumrolle aus, um nach viereinhalb Stunden permanentem Sitzen die dadurch steif gewordene Rückenmuskulatur wieder zu lockern. „Der Bewegungsablauf besteht darin, sich gegen die Rolle gelehnt mit dem Rücken an die Wand zu stellen und sich durch langsame Auf- und Abwärtsbewegungen selbst den Rücken zu massierten“, erläutert der Studienleiter.

Für die Studie wurden 59 Teilnehmer in zwei Gruppen eingeteilt. Während die eine nach viereinhalb Stunden Sitzen acht Minuten lang die Selbstmassage mit der Rolle anwandte, pausierte die andere Gruppe ebenfalls acht Minuten im Stehen – allerdings ohne Massage. Bei allen Teilnehmerinnen und Teilnehmern wurden drei Messungen zur Steifheit der Rückenmuskulatur vorgenommen: vor dem Sitzen, nach dem Sitzen und nach der jeweiligen Pause im Stehen mit oder ohne Selbstmassage. Anhand der Ergebnisse konnte laut Sichting nicht nur erstmals nachgewiesen werden, dass langes Sitzen Rückenverspannungen hervorrufen kann. Auch zeigte sich, dass mittels der Selbstmassage die durch das Sitzen steif gewordene Rückenmuskulatur wieder gelockert werden konnte und keine Verschlechterung mehr gegenüber dem Ausgangszustand zu vernehmen war.

„Für uns war es eine große Motivation, Menschen, die lange am Arbeitsplatz sitzen müssen, mit unserer Forschung helfen zu können“, sagt Sichting. Zusammen mit Alexander Kett, der sich im Rahmen seiner Promotion intensiv mit dieser Thematik beschäftigt, führte er die Studie an der Professur für Bewegungswissenschaft durch. Zufrieden fügt Kett hinzu: „Die achtminütige Selbstmassage lässt sich flexibel in jeden Alltag integrieren und kann dem Entstehen von Rückenschmerzen nicht nur entgegenwirken, sondern auch die Voraussetzungen dafür schaffen, sie zu vermeiden.“ Von Bedeutung könne die Selbstmassage besonders für diejenigen werden, die berufsbedingt lange ohne Unterbrechung sitzen müssen. „Zum Beispiel Lkw- oder Busfahrer“, sagt Sichting, „teilweise aber auch Büroangestellte.“ Zudem hebt der Bewegungswissenschaftler hervor, „dass sich der Nutzen unmittelbar spüren lässt, da sich das wohltuende Gefühl einer klassischen Massage einstellt.“ Auch könne der Gedanke, mit solch simpler Maßnahme etwas für die Gesundheit zu tun, dazu motivieren, die Selbstmassage regelmäßig durchzuführen. „Bei anderen Therapiemaßnahmen und Trainingsinhalten setzt der gewünschte Effekt oftmals erst später ein, wodurch die Betroffenen schnell die Lust daran verlieren“, sagt Sichting und betont zugleich: „Die Selbstmassage sollte ein Teil regelmäßiger Sitzpausen sein, diese jedoch nicht ersetzen.“ Präventiv rät er dazu, lieber aller 30 bis 60 Minuten für kleine Aktivitäten kurz aufzustehen, als über Stunden am Stück sitzen zu bleiben, um dann mit der Massage entgegenwirken zu können.

Wissenschaftliche Ansprechpartner:
Freddy Sichting, Telefon 0371 531-38823, E-Mail freddy.sichting@hsw.tu-chemnitz.de

Originalpublikation:
Die Forschungsergebnisse wurden in der Fachzeitschrift „Applied Ergonomics“ veröffentlicht: Alexander R. Kett, Freddy Sichting: „Sedentary behaviour at work increases muscle stiffness of the back: Why roller massage has potential as an active break intervention“, Appl Ergon. 2020 Jan;82:102947. doi: 10.1016/j.apergo.2019.102947. Epub 2019 Sep 9. Das Manuskript ist online verfügbar unter https://www.sciencedirect.com/science/article/pii/S000368701930167X?via%3Dihub.

Quelle: IDW 

(nach oben)


Herzgesundheit:Cholesterin senken reicht nicht

Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Wissenschaftsmagazin Forschung Frankfurt handelt in der jüngsten Ausgabe „von Herzen“. Es geht um Herz-Kreislauf-Forschung, aber auch um Liebe in Zeiten des Konsums.

FRANKFURT. Ein zu hoher Cholesterinspiegel kann heutzutage medikamentös gut behandelt werden. Doch inzwischen ist bekannt, dass weit mehr Stoffwechselprozesse bei der Entstehung von Herz- und Gefäßerkrankungen im Spiel sind. Viele lassen sich über die Ernährung beeinflussen, wie Forscherinnen und Forscher in der aktuellen Ausgabe von „Forschung Frankfurt“ berichten. Schwerpunkt ist die Forschung im Exzellenzcluster „Cardio-Pulmonary Institute“.

Wussten Sie, dass antibakterielles Mundwasser zu Bluthochdruck führen kann? Bakterien im Speichel produzieren Enzyme, die Nitrat aus der Nahrung zu Nitrit reduzieren. In dieser Form kann der Körper es weiter in Stickoxid (NO) umwandeln. NO hat eine Schlüsselfunktion für die Gesundheit der Entdothelzellen, mit denen die Innenwände der Gefäße ausgekleidet sind. Führt man den Körper andererseits mehr Nitrate mit der Nahrung zu, z.B. in Form von Rote Beete-Saft, könnte sich das bei bestimmten Patientengruppen als blutdrucksenkend auswirken. Es gibt Studien, wonach die Gabe von nichtorganischem Nitrat und Rote Beete-Saft mit einem signifikanten Rückgang des systolischen Blutdrucks verbunden ist. Dieser Befund sollte jedoch in weiteren Untersuchungen verifiziert werden.

Eine zweite, bisher unterschätzte Verbindung ist der Schwefelwasserstoff (H2S), bekannt durch den Geruch von faulen Eiern. Im Körper wird die Synthese von H2S durch eine Reihe von Enzymen gesteuert, wobei die Cystathioninlyase (CSE) die wichtigste im Herz-Kreislauf-System ist. Bei Patienten mit beschädigten und fehlerhaft funktionierenden Endothelzellen nimmt die CSE-Aktivität ab. Der Grund dafür könnten Gefäßentzündungen sein, wie Sofia-Iris Bibli aus dem „Institute for Vascular Signaling“ von Prof. Ingrid Fleming kürzlich herausgefunden hat. Für die Therapie werden derzeit H2S-Spender entwickelt.

Und wie steht es mit Diäten, die mit Omega-3-Fettsäuren (Fischölen) angereichert sind? Zunächst hatten Studienergebnisse gezeigt, dass diese Ernährungsform allgemein vor Diabetes und Herzerkrankungen schützt. Neuere klinische Studien konnten hingegen keinen signifikanten Nutzen von Fischölergänzungen nachweisen. Ingrid Fleming zufolge liegt das daran, dass die verschiedenen Studien nicht die optimale Konzentration jeder Omega-3-Fettsäure bestimmt haben bzw. das Verhältnis von Omega-3- zu Omega-6-Fettsäuren, das für den Schutz erforderlich ist. Zweitens schwankt die Qualität der rezeptfreien Ergänzungsmittel auf dem Markt stark. Die Analyse der meistverkauften Fischöl-Nahrungsergänzungsmittel in den USA ergab beispielsweise einen hohen Anteil an anderen Fettsäuren. Zudem können Fischöle eine Mischung aus EPA und DHA enthalten. Schützende Effekte sind jedoch nur von EPA bekannt.

Wie Fischöle ihre entzündungshemmende Wirkung entfalten ist derzeit schwer zu beantworten. Man weiß bisher nur, dass EPA und DHA leicht in Zellen und Gewebe eingebaut werden und dadurch die Membraneigenschaften, die Übermittlung von Signalen und die Genexpression verändern. Aus EPA entsteht außerdem das entzündungshemmende Resolvin E1, das nachweislich Entzündungen in verschiedenen Krankheitsmodellen aufzulösen hilft.

Fettsäuren sind außerdem für das Herz eine wichtige Energiequelle. Mit über 75 Prozent gewinnt es den allergrößten Teil seiner Energie aus ihnen, nur zwischen 10 und 20 Prozent stammen von Glukose. Es gibt Studien, die zeigen, dass bei einigen Menschen mit Herzfehlern das Herz mehr Energie aus Glukose statt aus Fettsäuren gewinnt. Das Herz bekommt dann zwar immer noch genug Energie, kann aber trotzdem nicht mehr richtig funktionieren. „Dieser Stoffwechsel-Vorgang ist wichtig. Wir wissen aber noch nicht genau, wie und warum er abläuft“, erklärt der Pharmakologe Dr. Jiong Hu, der für seine Forschung am „Institute for Vascular Signaling“ einen Advanced Grant des Cardio-Pulmonary Institute bekommen hat.

Schließlich kann auch die Bakterienflora im Darm die Entwicklung von Herz-Kreislauf- und Stoffwechsel-Erkrankungen beeinflussen. So begünstig eine Ernährung, die viel rotes Fleisch enthält, die Entstehung von Atherosklerose, denn rotes Fleisch enthält reichlich L-Carnitin, das von Darm-Mikrobiota in Trimethylaminoxid (TMAO) umgewandelt wird. TMAO begünstigt Atherosklerose. Eine vegetarische oder veganer schützt hingegen die Gefäße. Fleming vermutet, dass es künftig zur Entwicklung einer Welle von Probiotika kommen wird, die die Darmflora und die Bildung von Stoffwechselprodukten verändern sollen, um das Herz zu schützen.

Weitere Themen in der neuen Ausgabe von Forschung Frankfurt:
Vorbeugen ist besser als heilen
Interview mit dem Epidemiologen und Systemmediziner Prof. Philipp Wild, Deutsches Zentrum für Herz-Kreislauf-Forschung, zum Einfluss von Umweltfaktoren auf die Herzgesundheit

Vom Herz zum Schmerz: Kummer als Auslöser von Krankheit und Leiden

Klappe – die zweite: Herzklappenaustausch in einer halben Stunde dank modernem Katheter-Verfahren

„Meine herzkranken Kinder haben mich gerettet“ – Porträt des Kinderkardiologen Prof. Dietmar Schranz

Die aktuelle Ausgabe von „Forschung Frankfurt“ (2/2019) kann von Journalisten kostenlos bestellt werden bei: ott@pvw.uni-frankfurt.de.
Im Web: www.forschung-frankfurt.de.

Quelle: IDW 

(nach oben)


Wie ein Elfmeterschießen im Gehirn entschieden wird

Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung

Entscheidungsfindung wird durch unterschiedliche Nervenzellen gesteuert
Elfmeterschießen bei der Fußballweltmeisterschaft. Alle Augen sind auf den besten Stürmer der Mannschaft gerichtet. Er soll den entscheidenden Schuss vollbringen, möglichst am Torwart vorbei. Der Stürmer muss sich entscheiden, ob er in die rechte oder linke Torecke schießt. Im Gehirn plant er dafür bereits beide Handlungsoptionen, noch bevor er eine Entscheidung getroffen hat. Zeigt der Torwart durch seine Haltung an, dass er im entscheidenden Moment nach rechts springen wird, so wird der Stürmer bei der Bewegungsplanung im Gehirn eine vorläufige Präferenz für die linke Ecke entwickeln. Doch wie wirkt sich diese Tendenz auf die Entscheidung aus, wenn der Torwart kurz vorm Schuss seine Haltung ändert? Wird der Stürmer trotzdem nach links schießen? Und wie wird dieser Prozess auf der Ebene der Nervenzellen gesteuert? Neurowissenschaftler am Deutschen Primatenzentrum (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen haben diese Fragen in einer Studie mit Rhesusaffen untersucht. Sie konnten zeigen, dass für den Entscheidungsprozess zwei verschiedene Nervenzelltypen im gleichen Hirnareal zuständig sind. Eine vorläufige Tendenz für einen Handlungsplan beeinflusst dabei die schlussendliche Entscheidung und die Gewichtung beider Optionen ist schon vorher auf neuronaler Ebene sichtbar. Der Stürmer wird also wahrscheinlich auch dann nach links schießen, wenn der Torwart seine Haltung plötzlich ändert – und der Elfmeter dadurch eventuell misslingen (eLife).

Die Wissenschaftler haben zwei Rhesusaffen darauf trainiert, eine Aufgabe am Bildschirm durchzuführen. Gleichzeitig wurde die Aktivität der Nervenzellen in ihrem Gehirn gemessen. Auf dem Touchscreen erschienen kreisrunde Signale, die die Affen berühren sollten. Die Kreise zeigten sich rechts oder links, oben oder unten auf dem Bildschirm. Der Ort, wo sie erschienen, war zufällig, die Affen erhielten aber vorher in Form von kleinen Pfeilen einen Hinweis, wo das nächste Signal erscheinen könnte. Zeigten sich zum Beispiel gleichzeitig ein großer violetter Pfeil, der nach links und ein kleiner blauer Pfeil, der nach rechts wies, so war die Wahrscheinlichkeit größer, dass das Signal auf der linken Seite erschien. Diese Erwartung wurde aber in unregelmäßigen Abständen durchbrochen, in dem das Signal genau gegenüber von der vorher angezeigten Richtung auftauchte oder beide Signale gleichzeitig rechts und links erschienen, die dann frei angewählt werden konnten.

Die Forscher beobachteten, dass die Affen eine Tendenz entsprechend der vorher gezeigten Richtungspfeile entwickelten. Erschien das Signal auf der erwarteten Seite, lösten sie die Aufgabe richtig und schnell. Zeigte sich das Signal wider Erwarten auf der gegenüberliegenden Seite, verlängerten sich die Reaktionszeiten und die Affen machten mehr Fehler. Hatten die Tiere die freie Wahl, zogen sie in den meisten Fällen diejenigen Signale vor, die auf der vorher angezeigten Seite erschienen, auch wenn beide Möglichkeiten objektiv betrachtet gleichwertig waren.

„Eine vorläufige Handlungstendenz beeinflusst nachfolgende Entscheidungen, auch wenn sich die Tatsachen zwischenzeitlich ändern“, sagt Lalitta Suriya-Arunroj, Erstautorin der Studie. „Auch wenn die Affen die freie Wahl hatten, entschieden sie sich für ihren vorläufig gefassten Handlungsplan. Ganz ähnlich ergeht es dem Stürmer vorm Tor. Er sieht, dass der Torwart nach rechts springen will und plant zunächst die linke Ecke. Auch wenn der Torwart im letzten Moment wieder eine neutrale Haltung einnimmt, wird er deshalb in den meisten Fällen diese Schussrichtung beibehalten und der Elfmeter wird möglicherweise abgefangen.“

Auf der Ebene der Nervenzellen konnten die Wissenschaftler zudem eine neue Entdeckung machen: Die Entscheidungsfindung und die Gewichtung zwischen mehreren Handlungsalternativen werden auf neuronaler Ebene als dualer Prozess abgebildet. Dafür zuständig sind zwei verschiedene Arten von Nervenzellen. Die erste Gruppe ist für die Kodierung des bevorzugten Ziels zuständig. So lange keine Tendenz besteht, sind sie nicht aktiv, sie regen sich erst, wenn eine Präferenz für eine Handlungsoption entsteht. Die Zellen werden dann umso aktiver, je stärker die Tendenz für diese Option wird. Die zweite Gruppe von Nervenzellen zeigt von Beginn an alle gegebenen Alternativen an. Entschieden wird danach, welche der Handlungsoptionen nicht in Frage kommt. Die Nervenzellen, die für die nicht präferierte Möglichkeit kodieren, werden umso stärker herunterreguliert, je weniger die Option in Betracht kommt. Nach dem Ausschlussprinzip bleibt schließlich diejenige Option übrig, die die beste Wahl darstellt.

„Dass für den Entscheidungsfindungsprozess zwei verschiedene Nervenzellen im gleichen Hirnareal zuständig sind, ist eine neue Erkenntnis dieser Studie“, sagt Alexander Gail, Leiter der Forschungsgruppe Sensomotorik am DPZ und ebenfalls Autor der Studie. „Die Planung wird also im Gehirn durch einen dualen Vorgang gesteuert, der sowohl starke Handlungstendenzen widerspiegelt als auch alle anderen Möglichkeiten abbildet, die durch das Ausschlussprinzip nacheinander eliminiert werden können. Dadurch ermöglicht uns das Gehirn ausbalancierte und flexible Entscheidungen. Der Stürmer vorm Tor ist somit trotz seiner ersten Präferenz in der Lage, die andere Torecke als Option nicht sofort auszuschließen, kann im letzten Moment die Schussrichtung wechseln und so möglicherweise doch noch einen Treffer landen.“

Kontakt und Hinweise für Redaktionen
Prof. Dr. Alexander Gail
Tel.: +49 (0) 551 3851-358
E-Mail: agail@dpz.eu

Dr. Sylvia Ranneberg (Kommunikation)
Tel.: +49 (0) 551 3851-163
E-Mail: sranneberg@dpz.eu

Die Deutsches Primatenzentrum GmbH (DPZ) – Leibniz-Institut für Primatenforschung betreibt biologische und biomedizinische Forschung über und mit Primaten auf den Gebieten der Infektionsforschung, der Neurowissenschaften und der Primatenbiologie. Das DPZ unterhält außerdem vier Freilandstationen in den Tropen und ist Referenz- und Servicezentrum für alle Belange der Primatenforschung. Das DPZ ist eine der 95 Forschungs- und Infrastruktureinrichtungen der Leibniz-Gemeinschaft.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Gail
Tel.: +49 (0) 551 3851-358
E-Mail: agail@dpz.eu

Originalpublikation:
Suriya-Arunroj L, Gail A (2019): Complementary encoding of priors in monkey frontoparietal network supports a dual process of decision-making. eLife 8:e47581, doi: 10.7554/eLife.47581

Weitere Informationen:
https://owncloud.dpz.eu/index.php/s/iUiJZ27wRiv4MM2
– druckfähige Bilder
https://www.dpz.eu/de/aktuelles/pressemitteilungen.html – Pressemitteilung auf der DPZ-Homepage

Quelle: IDW 

(nach oben)


Apps verbessern Ernährungsverhalten und die Gesundheit

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Studie an der Universität Konstanz bescheinigt Ernährungs-Interventionen mittels Smartphone-Apps eine positive Wirkung

Weltweit sind rund zwei Milliarden Menschen übergewichtig oder adipös. Da Übergewicht sowohl mit körperlichen als auch psychischen Gesundheitsfolgen und enormen wirtschaftlichen Kosten verbunden ist, gilt es als eines der größten Gesundheitsprobleme unserer Zeit. Psychologinnen und Psychologen der Universität Konstanz sowie des Deutschen Instituts für Ernährungsforschung sind in einer Überblicksarbeit zum Ergebnis gekommen, dass mobile Interventionen mittels Smartphone-Apps hier gute Dienste leisten können. Ihre Überblicksarbeit, die die aktuell verfügbaren Einzelstudien im Bereich Ernährung einschließt, bescheinigt den untersuchten Apps insgesamt einen positiven Effekt auf das Ernährungsverhalten, Körpergewicht sowie auf verschiedene körperliche Gesundheitsindikatoren wie Cholesterinwerte. Die Studie wird im Wissenschaftsjournal Obesity Reviews vorgestellt.

Die Vorteile der App-basierten mobilen Interventionen sind zahlreich
Apps, die von Menschen genutzt werden, die ihr Ernährungsverhalten ändern möchten, arbeiten häufig mit Bildern und Informationen. Die User machen beispielsweise ein Foto von ihrem Essen oder protokollieren dieses mittels App, die dann beispielsweise Rückmeldung über die Kalorien und Nährstoffe gibt. Die Vorteile der App-basierten mobilen Interventionen sind zahlreich – einschließlich der Möglichkeit, im „realen Leben“ und in „Echtzeit“ einzugreifen sowie viele Personen direkt zu erreichen. Schließlich gibt es weltweit mehr als fünf Milliarden Smartphones. Gleichzeitig besitzen App-basierte Interventionen das Potenzial, durch die Interaktivität auf individuelle, zielgruppenspezifische Bedürfnisse der User einzugehen.

In den Arbeitsgruppen Psychologische Diagnostik und Gesundheitspsychologie von Prof. Dr. Britta Renner sowie Allgemeine und Biologische Psychologie von Prof. Dr. Harald Schupp wurden 41 wissenschaftliche Interventionsstudien ausgewertet, die Ernährungs-Apps auf ihre Effektivität hin untersucht haben. Über die Einzelstudien wurden rund 6.300 Frauen und Männer in die Meta-Analyse eingeschlossen. Die Altersspanne reicht von 14 bis 68 Jahren mit einem Durchschnittsalter von 41 Jahren. „Es hat sich gezeigt, dass App-basierte mobile Interventionen effektiv sind, sowohl um Ernährungsverhalten zu verändern, als auch um Gewicht zu reduzieren und ernährungsbezogene Gesundheitsparameter zu verbessern“, fassen die Autoren zusammen.

Bei Patienten wie bei gesunden Usern wirksam
Die Apps waren sowohl bei Patienten als auch bei gesunden Usern wirksam – und so für eine breite Gesundheitsförderung in ganz unterschiedlichen User-Gruppen. Die Wissenschaftlerinnen und Wissenschaftler haben sich auch die von den rund 30 verschiedenen Apps genutzten Strategien zur Verhaltensänderung ihrer User angeschaut. Obwohl das optische Erscheinungsbild der Apps durchaus unterschiedlich ist, nutzen diese im Wesentlichen nur vier verschiedene Strategien zur Verhaltensänderung: Ziele setzen, Feedback geben, soziale Unterstützung bereitstellen und Wissen vermitteln. Das gilt sowohl für die auf dem Markt verfügbaren kommerziellen als auch die im wissenschaftlichen Kontext entwickelten Apps, die sich in ihrer Wirksamkeit nicht systematisch unterscheiden.

Die Studie zeigt, dass mobile Interventionen ein hohes Potential haben, aber dass gleichzeitig die Möglichkeiten der mobilen Technologie noch bei weitem nicht ausgeschöpft sind.

Faktenübersicht:
• Originalpublikation: Karoline Villinger, Deborah R. Wahl, Heiner Boeing, Harald T. Schupp, Britta Renner: The effectiveness of app‐based mobile interventions onnutrition behaviours and nutrition‐related health outcomes: A systematic review and meta‐analysis. Obesity Reviews, DOI: https://doi.org/10.1111/obr.12903
• Meta-Analyse mit rund 6.300 Frauen und Männern basierend auf 41 Einzelstudien bescheinigt Interventionen durch Apps auf dem Smartphone eine positive Wirkung
• Beteiligte Arbeitsgruppen an der Universität Konstanz: Psychologische Diagnostik und Gesundheitspsychologie von Prof. Dr. Britta Renner und Allgemeine und Biologische Psychologie von Prof. Dr. Harald Schupp
• Finanziell unterstützt durch das Bundesministerium für Bildung und Forschung (BMBF) sowie die Deutsche Forschungsgemeinschaft (DFG).

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: IDW 

(nach oben)


Hochschule Flensburg forscht an Veredelung von Gärprodukten für die Landwirtschaft

Torsten Haase Pressestelle
Hochschule Flensburg

In einem rund 2 Millionen Euro schweren Forschungsprojekt wollen Wissenschaftler*innen der Hochschule Flensburg zusammen mit dem regionalen Industriepartner der Bioenergie Schuby das Problem von Grundwasserbelastungen durch Gärprodukte und Güllen in den Griff bekommen.

Es ist – gerade auch in Schleswig-Holstein – eine aktuelle Problemstellung: Intensive Landwirtschaft in Verbindung mit Viehhaltung und die Produktion von Biogas führen zu einer teils übermäßigen Belastung des Grundwassers. Bedingt durch die Ausbringung von Gärprodukten und Gülle wird eine lokale Überbelastung der Böden und Grundwasserstruktur vor allem mit Nitraten verursacht. „Wir wollen eine Methode entwickeln, mit der wir die Gärprodukte so behandeln, dass sie dem Gewässerschutz Rechnung tragen und gleichermaßen ökonomisch verträglich sind“, sagt Dr. Wiktoria Vith. Die Professorin für Verfahrenstechnik leitet einen Teil des aus dem Europäischen Fonds für regionale Entwicklung geförderten Projekt „easy2clean“ an der Hochschule Flensburg.

Verringern soll die Grundwasserbelastung – Kohle. Zumindest eine kohleartige Struktur, die durch Pyrolyse entsteht. Dabei werden die festen Gärprodukte ohne Zufuhr von Sauerstoff verschwelt, wodurch sämtliche organische Überreste zersetzt werden. Zurück bleibt eine poröse Kohlenstoffstruktur. „Diese weist schwammartige Eigenschaften auf“, erklärt Vith, „und kann so eingebracht in den Boden wiederum auch die flüssigen Gärrückstände aufnehmen und verzögert die Nährstoffabgabe in den Boden“. Neben der positiven Eigenschaft, dass durch die Speicherung von Nährstoffen und Wasser die Bodenstruktur verbessert werde, könne man den überflüssigen regionalen Wirtschaftsdünger in Form der pflanzenähnlichen Kohlenstücke als Handelsprodukt überregional vertreiben, so Vith. Die Bedingungen unter welchen die geeigneten Pyrolysate entstehen und vor allem ihre Eigenschaften sollen als erstes in einem neu eingerichteten Labor untersucht werden.

Politik und Agrarbranche haben großes Interesse an solch nachhaltigen Lösungen. Doch der Teufel steckt im Detail. „Wir müssen das Produkt natürlich testen, bevor eine großtechnische Anlage zur Aufbereitung bei unserem Industriepartner errichtet wird“, sagt Vith. Eine industrielle Pyrolyseanlage für feste Gärprodukte soll in drei Jahren auf dem Gelände der Bioenergie Schuby GmbH in Schuby entstehen. Bis dahin werden Vith und ihr Team die Produkte der Pyrolyse im kleinen Maßstab testen. Welche Qualität hat es, wie verhält es sich hinsichtlich der Filtration und Speicherwirkung sind nur einige der zu klärenden Fragen.

Wissenschaftliche Ansprechpartner:

Prof. Dr.-Ing. Wiktoria Vith
Professorin am Fachbereich Maschinenbau, Verfahrenstechnik und Maritime Technologien

CleanMarine4.0: Projektleiterin
Telefon 0461/805 – 1576
Raum B 6
wiktoria.vith@hs-flensburg.de

Weitere Informationen:

Weitere Infos: https://hs-flensburg.de/forschung/fue/forschungsprojekte/easy2clean

Anhang
PM als pdf
https://idw-online.de/de/attachment75903

Quelle: IDW 

(nach oben)


Der Traum vom Hauptgewinn: Statistik-Experte erklärt, warum wir Lotto spielen

Maxie Strate Marketing & Communications
International School of Management (ISM)

Am Wochenende wird mit der spanischen Weihnachtslotterie wieder die größte Lotterie der Welt ausgeschüttet. Der Traum von „El Gordo“, dem Hauptgewinn, schweißt ganze Dörfer zu Tippgemeinschaften zusammen. Auch in Deutschland erfreut sich Lottospielen nach wie vor großer Beliebtheit, obwohl die Gewinnchance verschwindend gering ist. Prof. Dr. Jens Perret unterrichtet an der International School of Management (ISM) Statistik und Volkswirtschaftslehre und hat sich mit dem Phänomen beschäftigt.

„Lotto ist in Deutschland aus gutem Grund als Glücksspiel und nicht als Strategiespiel kategorisiert“, sagt ISM-Professor Dr. Jens Perret. „Im Gegensatz zu den unterschiedlichsten Pokervarianten kann man sich zum Beispiel durch kognitive Leistung wie Kartenzählen keinen taktischen Vorteil verschaffen, geschweige denn eine Gewinnstrategie erarbeiten.“ Um im deutschen 6aus49 einen sicheren Gewinn einzufahren, müssten 77,50 Euro investiert werden. Statistisch betrachtet führt damit ein Euro Einsatz zu einem Gewinn von 0,0645 Euro – ein deutliches Minusgeschäft.

Trotzdem spielen rund 7,3 Millionen Deutsche regelmäßig Lotto. Grund dafür sind psychologische Ansätze – und unser mathematisch-statistisches Verständnis, erklärt Perret: „Am Anfang steht der Traum, was man mit dem Gewinn alles machen kann. Allein die Möglichkeit, gewinnen zu können, führt zu einer positiven Gemütslage. Ein geschicktes, psychologisch fundiertes Marketing zielt genau auf diesen Traum des besseren Lebens ab.“ Außerdem spielt die Darstellung der Gewinnwahrscheinlichkeit eine entscheidende Rolle. Bei 6aus49 liegt diese bei 1:140 Millionen. „Die 1 suggeriert uns, wir könnten der Eine sein, der gewinnt. Anders wäre es, wenn die Wahrscheinlichkeit als Verlustchance von 139.838.159:139.838.160 ausgedrückt werden würde. Diese Zahl lässt uns glauben, die Wahrscheinlichkeit nicht zu gewinnen sei überwältigend und das Spielen zwecklos.“

Andersherum wird die verschwindend kleine Wahrscheinlichkeit von 0,00000072% auf den Hauptgewinn plötzlich realistisch. „Den meisten Menschen fällt es schwer, sich große absolute Zahlen zu veranschaulichen. Ein Wert wie 140 Millionen ist nicht mehr greifbar und das Bauchgefühl übernimmt. Und intuitiv neigen wir dazu, kleine Wahrscheinlichkeiten überzubewerten“, erklärt Perret. „Unser mathematisch-statistisches Verständnis steht hinter dem Traum eines Lottogewinns zurück. Wenn der Jackpot winkt, gewinnt die Hoffnung gegen den Verstand.“

Hintergrund:
Die International School of Management (ISM) zählt zu den führenden privaten Wirtschaftshochschulen in Deutschland. In den einschlägigen Hochschulrankings rangiert die ISM regelmäßig an vorderster Stelle.
Die ISM hat Standorte in Dortmund, Frankfurt/Main, München, Hamburg, Köln, Stuttgart und Berlin. An der staatlich anerkannten, privaten Hochschule in gemeinnütziger Trägerschaft wird der Führungsnachwuchs für international orientierte Wirtschaftsunternehmen in kompakten, anwendungsbezogenen Studiengängen ausgebildet. Alle Studiengänge der ISM zeichnen sich durch Internationalität und hohe Lehrqualität aus. Projekte in Kleingruppen gehören ebenso zum Hochschulalltag wie integrierte Auslandssemester und -module an einer der rund 190 Partnerhochschulen der ISM.

Pressekontakt:
Maxie Strate
Leiterin Marketing & Communications
ISM International School of Management GmbH
Otto-Hahn-Str. 19
44227 Dortmund
tel.: 0231.97 51 39-31
fax: 0231.97 51 39-39
E-Mail: maxie.strate@ism.de

Weitere Informationen:
http://www.ism.de

Quelle: IDW 

(nach oben)


Erfolgreich abnehmen – eine Typfrage: Auf energiereduzierte Mischkost setzen oder eher Kohlenhydrate einschränken?

Christina Seddig Pressestelle
Deutsche Diabetes Gesellschaft

Gewichtsreduktion ist nicht nur für viele Diabetespatientinnen und -patienten ein wichtiges Thema. Ob sie gelingt, hängt stark von dem gewählten Ernährungskonzept ab. Elisabeth Höfler, Ernährungsexpertin der Deutschen Diabetes Gesellschaft (DDG), stellt zwei Erfolgsdiäten vor. Die Stuttgarter Diätberaterin kennt schmackhafte Rezepte und gibt praktische Tipps, wie man eine Ernährungsumstellung im Alltag lange gut durchhält.

Maßgeblich für den Erfolg ist auch eine individuelle und qualifizierte Ernährungsberatung, die verschiedene Diabetes-Typen, Behandlungsformen, soziale Aspekte sowie persönliche Vorlieben berücksichtigt. Sie sollte ein wesentlicher Bestandteil der Diabetestherapie sein, fordert die DDG.

Adventsgebäck, Glühwein, Festessen – zur Weihnachtszeit kommen schnell etliche Kalorien zusammen. Im neuen Jahr fassen dann viele Menschen den Entschluss, wieder abzunehmen. Doch wie schafft man das am besten? „Zwar hat eine Reduzierung der Kohlehydrate den größten positiven Effekt auf den Blutglukosespiegel und auch auf die Gewichtsreduktion“, erklärt DDG Präsidentin Professor Dr. med. Monika Kellerer. „Doch ein ausschließlicher Fokus auf die Kohlehydrataufnahme ist nicht zielführend“. Die Ärztliche Direktorin des Zentrums für Innere Medizin I am Marienhospital Stuttgart verweist auf die aktuelle Stellungnahme der DDG zu den Empfehlungen der Amerikanischen Diabetesgesellschaft (ADA)1 und betont, dass bei der Ernährung insgesamt auf Fettsäurezusammensetzung, Ballaststoffe und glykämische Last zu achten sei.

Elisabeth Höfler, Leiterin der Diätschule, Diät- und Ernährungsberatung am Marienhospital Stuttgart, unterstützt seit 30 Jahren Diabetespatienten bei der Gewichtsreduktion. Sie empfiehlt zwei Konzepte: die energiereduzierte Mischkost und den weitgehenden Verzicht auf Kohlenhydrate, auch bekannt als Low Carb. „Wichtig ist, dass die gewählte Ernährungsform zufrieden stellt“, betont Höfler. „Denn man muss sie lange durchhalten, damit die Kilos purzeln.“ Deshalb steht am Anfang jeder Ernährungsumstellung die Frage: Welches Konzept passt zu mir?

–> Low Carb oder energiereduzierte Mischkost? Diese Fragen helfen bei der Entscheidung
Komme ich mit wenig Brot aus, mag ich sehr viel Gemüse essen? Diese beiden Punkte sind bei Low Carb entscheidend. „Wir haben häufig Patienten, die sich ein Frühstück oder Abendessen ohne Brot nicht vorstellen können“, berichtet Elisabeth Höfler. „Auch der Verzicht auf Kartoffeln und Pasta erscheint ihnen unvorstellbar.“ In diesem Fall kommt Low Carb nicht in Frage. „Das ist dann dauerhaft nicht umsetzbar“, so Höfler. Das Gemüse sollte zudem frisch gekauft und zubereitet sein – das kann eine Veränderung im Einkaufsverhalten mit sich bringen, die ebenfalls bedacht werden sollte.
Die zentrale Frage für Berufstätige bei der energiereduzierten Mischkost lautet: Kann ich in einer Kantine zu Mittag essen, die ein Salatbuffet, viel Gemüse und Fleisch und Fisch ohne kompakte Saucen anbietet? „Wenn es in meinem Umfeld vor allem Pizza, Pasta, Döner und Burger gibt, wird es schwierig“, betont Höfler. Dann müsse man sich darauf einrichten, zu Hause vorzukochen und die Speisen in einer Transportbox mitzunehmen. „Hier gebe ich gerne den Tipp: Einmal kochen, mehrfach essen“, erklärt Höfler. Beispiel: Die doppelte Menge Lachs zubereiten, für den zweiten Teil eine Marinade aus Zitrone und Olivenöl anmischen und mit Salat in den Job mitnehmen. So entsteht aus dem warmen Gericht ein Kaltgericht fürs Büro.
Ein weiterer wichtiger Punkt: Die Diät muss alltagstauglich sein. „Durch Einladungen, Reisen, Feiertage oder offizielle Anlässe kommt man leicht aus dem Rhythmus“, erläutert Höfler. „Man muss sich vorstellen können, am nächsten Tag wieder motiviert zum bewährten Konzept zurückzukehren und die kleinen Sünden auszugleichen.“

–> Low Carb – ein Kilo Gemüse täglich, einen Löffel sättigendes Leinöl
Und so funktioniert Low Carb: Gemüse bildet die Basis – zwischen 750 und 1000 Gramm pro Tag müssen es sein, um den Hunger zu stillen. „Sättigung kann man sich bei Low Carb nur über Gemüse verschaffen“, betont Höfler. Für die Kohlenhydratriesen Brot, Kartoffeln, Nudeln und Reis gilt: Knapp 120 Gramm pro Tag sind erlaubt. Als Proteinträger eignen sich mageres Fleisch und viel Kaltwasserfisch wie Lachs, Hering, Makrele und Thunfisch.
Was die Fette betrifft, ist Käse bis 45 Prozent Fettanteil statthaft. Ansonsten bieten sich Raps-, Oliven-, Walnuss- und Haselnussöl an. „Sehr empfehlenswert ist übrigens Leinöl, das ist ja sehr gesund und momentan wieder sehr populär“, rät Höfler. Ihr Tipp: Geflügel kurz anbraten, dazu Gemüse mit einem sättigenden Dip aus Quark, Hüttenkäse oder Joghurt anrichten, der mit Kräutern und Curry gewürzt ist und on top mit einem Teelöffel Leinöl aufwartet. Auch in leckere Brotaufstriche (siehe Rezepte unten) pro Portion einen Esslöffel Leinöl beimengen.
Süßes steht bei Low Carb nur ausnahmsweise auf der Speisekarte – einmal pro Woche etwa ein kleines Stück Obstkuchen mit Streuseln. Um den Appetit auf Süßes zu stillen, rät die Ernährungsexpertin zu klein geschnittenem Obst in Quark oder Joghurt, der mit Süßstoff versetzt wird. „Bei Getränken am besten auf zuckerfreie Varianten umsteigen“, erläutert Höfler. Wer zu Light-Varianten greift, sollte auf die Zutatenliste schauen und Fruktose meiden.

–> Energiereduzierte Mischkost: Alles ist erlaubt, aber nur bis etwa 1.500 Kilokalorien pro Tag
Das Prinzip: Man nimmt zwischen 500 und 800 Kilokalorien pro Tag weniger auf, als der Körper für Grundumsatz plus Bewegung benötigt. Den Bedarf kann man im Internet2 errechnen. Bei einer Schreibtischtätigkeit mit wenig Bewegung etwa liegt der Bedarf bei 1800 bis 2000 Kalorien täglich. „Hier ist ein Zielwert von 1500 Kalorien empfehlenswert“, so Höfler. „Viel weniger sollte es nicht sein, sonst ist dieses Prinzip nicht durchzuhalten, zumal wichtige Vitamine und Mineralstoffe fehlen könnten.“ Bei einem körperlich tätigen Handwerker beläuft sich der tägliche Energiebedarf auf 2400 bis 2800 Kalorien, er sollte 2000 Kalorien ansteuern. Achtung: Bei Frauen in den Wechseljahren sinkt der Grundumsatz auf 1700 bis 1800 Kalorien.
Ansonsten ist eigentlich alles erlaubt, sofern man in seinem „Kalorienbudget“ bleibt. Das erscheint mitunter einfacher, als es tatsächlich ist. Deshalb: Lebensmittel mit hohem Fettgehalt wie Wurst und Käse oder Speisen mit Soßen meiden, dafür bei Salat, Gemüse und magerem Fleisch reichlich zugreifen. Moderate Mengen an Süßwaren sind erlaubt, aber auch hier gilt: Besser ein Obstdessert mit Süßstoff zubereiten. Beim Kauf von Fertigprodukten sollten Konsumenten aufmerksam die Zutatenliste studieren. „Eine Fertigpizza kann den gesamten Tagesbedarf decken, unbedingt auf Größe und Belag achten“, warnt Höfler. Tipp der Stuttgarter Diätexpertin: Statt Pizza sättigende Tiefkühl-Fischgerichte wählen, die nur 500 bis 800 Kilokalorien enthalten.

–> Drei Hauptmahlzeiten einnehmen, zwölf Stunden pausieren
Ob nun Low Carb oder energiereduzierte Mischkost, auch für die Essens-Intervalle gibt es Empfehlungen. „Wir raten stark zu drei Hauptmahlzeiten“, sagt Höfler. Zwischen Frühstück, Mittag und Abendessen sollten jeweils vier bis sechs nahrungsfreie Stunden liegen und Essen zu sehr späten Zeiten vermieden werden. „Optimal ist es, über den Abend und die Nacht zwölf Stunden nahrungsfrei zu bleiben“, fügt die Expertin hinzu.

–> Gemüsesäfte: Kalorienarme Alternative zu Apfel & Co
Was die Getränke angeht, rangiert Mineralwasser ganz oben auf der Liste. „Es sollte möglichst reich an Kalzium sein, um die Knochengesundheit zu stärken“, erläutert Höfler. Der Kalziumgehalt ist auf den Etiketten deklariert. Wer Mineralwasser nicht schätzt, kann auf Kräuter- und Früchtetee ausweichen. Obstsäfte sollte man mit Wasser im Verhältnis von eins zu drei verdünnen. Hier hat DDG-Expertin Höfler einen Tipp parat: „Gemüsesäfte sind kalorienärmer als Obstsäfte – vielen schmeckt Tomatensaft ebenso gut wie Orangensaft.“ Für die benötigte Trinkmenge veranschlagt man 30 bis 35 Milliliter Flüssigkeit pro Kilogramm Körpergewicht und Tag. Ein 70 Kilogramm schwerer Mensch benötigt demnach 2,1 Liter pro Tag.

–> Für zehn Kilogramm Gewichtsverlust ein Jahr einplanen
Wer Low Carb oder energiereduzierte Mischkost konsequent umsetzt, wird erfolgreich Gewicht verlieren. „Anfangs sind 500 Gramm bis zu einem Kilo Gewichtsverlust pro Woche realistisch“, berichtet Höfler. Dann setzt meist eine Stagnation ein, die aber nicht frustrieren darf – Durchhaltevermögen ist gefragt. Wer mehr als zehn Kilo gesund und nachhaltig abnehmen will, sollte ein Jahr einplanen. „Ein Patient, der 160 Kilo wiegt und maximal 1.800 Kalorien täglich zu sich nimmt, kann in einem Jahr 20 bis 25 Kilo verlieren, wenn er konsequent ist“, weiß Höfler aus Erfahrung. Und: Einmal pro Woche wiegen reicht!

Ein Gewichtsverlust von 50 Kilo setzt allerdings eine fast unmenschlich hohe Motivation voraus. Bei massiver Adipositas rät die Stuttgarter Expertin daher eher zu chirurgischen Maßnahmen.

–> Informationen:
– 1) Stellungnahme des Ausschusses „Ernährung“ der DDG zum Consensus Report der ADA: Nutrition Therapy for Adults with Diabetes or Prediabetes, September 2019, Evert AB et al. Diabetes Care 2019;42:731-54.
https://www.deutsche-diabetes-gesellschaft.de/fileadmin/Redakteur/Gremien/Aussch…
– Tagespläne für beide Ernährungskonzepte finden Sie hier: https://www.deutsche-diabetes-gesellschaft.de/fileadmin/Redakteur/Presse/Pressem…
– Tipps für gesunde Adventsrezepte können Sie hier nachlesen: https://www.diabetesde.org/rezept-anlasse/adventsrezepte
– 2) Den Energiebedarfsrechner finden Sie hier: https://www.diabetesde.org/gesund_leben_mit_diabetes/ernaehrungswissen_diabetes_…

Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit mehr als 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der fast sieben Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Katrin Bindeballe
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-55, Fax: 030 3116937-20
bindeballe@ddg.info
https://www.deutsche-diabetes-gesellschaft.de/home.html

Weitere Informationen:
https://www.deutsche-diabetes-gesellschaft.de/home.html

Quelle: IDW 

(nach oben)


Soziologen der KU untersuchen Wechselwirkungen von Zahlen und Daten im Profifußball

Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt

Kategorien wie Torgefährlichkeit, Ballbesitz oder Raumkontrolle gehören mittlerweile zum festen Bestandteil des Profifußballs – sowohl in der Berichterstattung als auch hinsichtlich der Entscheidungen zu Spieltaktik oder Spielertransfer. Doch wie entstehen diese Werte und welche Wechselwirkungen hat die Quantifizierung des Spielgeschehens auf den Fußball und sein Umfeld? Und wie spiegelt sich darin der generelle Trend wider, Abläufe auch in anderen gesellschaftlichen Bereichen in Zahlen zu übersetzen? Dieser grundlegenden Thematik gehen Soziologen der Katholischen Universität Eichstätt-Ingolstadt (KU) derzeit in ihrem Projekt „Accounting und transformatorische Effekte im Profifußball“ nach.

Die Deutsche Forschungsgemeinschaft (DFG) fördert das Projekt über drei Jahre hinweg mit rund 430.000 Euro. Schon in den 1970er-Jahren wurde nicht nur von den Sportwissenschaften damit begonnen, elektronische Analysesysteme zu entwickeln und in die sportliche Praxis zu integrieren. Seit Anfang der 1990er-Jahre konnten dann auch Sportjournalisten auf eigens erhobene statistische Daten zu Spielern und Mannschaften der Bundesliga zurückgreifen. In Deutschland ermittelt ein Tochterunternehmen der Deutschen Fußball Liga (DFL) zusammen mit anderen Datendienstleistern die sogenannten „offiziellen“ Spieldaten für die erste und zweite Bundesliga zu ermitteln. Diese sind rund um die Uhr für die Firmenkundschaft zugänglich. Dazu zählen nicht nur die Fußballvereine selbst, sondern vor allem Medien der Sport- und Fußballberichterstattung.

„Die Erhebung der Daten hat Effekte, die über die bloße technische Erfassung des Spielgeschehens, seine Zergliederung in Einzelereignisse und seine Übersetzung in vermeintlich objektive Zahlen und Werte hinausgehen. Als Teil der Wirklichkeit des Profifußballs entfalten die Analyseverfahren vielfältige Wirkungen auf den Gegenstand selbst“, erklärt Prof. Dr. Robert Schmidt, Inhaber der Professur für Prozessorientierte Soziologie an der KU. So beeinflussten sie etwa Spieltaktiken, Transferentscheidungen und Vermarktungsstrategien der Fußballorganisationen, hätten Auswirkungen auf die mediale Berichterstattung, die Kommunikation unter Fußballfans und veränderten das Feld des Profifußballs, indem sie es um neue Akteursgruppen, wie etwa Sportwetten-Anbieter, erweitern.

Um den Logiken und Effekten von datengestützten Analysepraktiken auf die Spur zu kommen, will Schmidt gemeinsam mit Franziska Hodek und Max Weigelin (beide wissenschaftliche Mitarbeiter des Projektes) sowie Moritz Brinkmann (wissenschaftliche Hilfskraft) unter anderem auch vor Ort untersuchen, wie Daten bei Spielanalyse-Firmen konkret entstehen. In einem Fall etwa sind geschulte Analystinnen und Analysten damit beschäftigt, Spielereignisse anhand eines Definitionskataloges zu klassifizieren und während eines Spiels live in Datenbanken einzugeben. Wie werden von den Analysten dabei genau Spielereignisse und Körperbewegungen in Zahlen und Daten übersetzt und für die Neugestaltung und Neuorganisation der Spiel- und Trainingspraktiken und ihrer Kontexte bereitgestellt?

Schmidt, Hodek und Weigelin wollen zum einen sportsoziologische Forschungslücken schließen: „Es gilt zu klären, wie stark Accounting, Quantifizierung und Bewertung die Taktiken und Spielweisen, die Arbeit von Trainern, Managern, Medizinern und anderen Experten in den sportlichen Leitungen sowie die mediale Berichterstattung prägen“, so Schmidt. In den Blick genommen werden deshalb außerdem die Verbreitungswege von Daten und Analysen sowie Konflikte, die sich an Bewertungskriterien und Wertgrößen entzünden.

Doch auch über den Fußball hinaus erwarten sich die Eichstätter Soziologen Einblick in ein generelles sozio-kulturelles Phänomen: „Quantifizierung ist eine gesellschaftliche Entwicklung, die wir in den letzten Jahrzehnten in vielen gesellschaftlichen Bereichen verstärkt beobachten können, wie Bildung, Wissenschaft oder Gesundheit“, erklärt Hodek. Dabei werde versucht, Phänomene, Geschehnisse oder Eigenschaften in Zahlen zu übersetzen, und dafür entsprechende Methoden einzusetzen. Man verspreche sich davon eine evidenzbasierte Bewertung, an der man bestimmte Entscheidungen festmachen könne. „Auf diese Weise will man etwas steuerbar machen und kontrollieren.“

Wissenschaftliche Ansprechpartner:

Für Fragen zu diesem Projekt stehen Ihnen Prof. Dr. Robert Schmidt (Professur für Prozessorientierte Soziologie, rschmidt@ku.de) sowie Franziska Hodek und Max Weigelin (wissenschaftliche Mitarbeiter der Professur für Prozessorientierte Soziologie, fhodek@ku.de; max.weigelin@ku.de) zur Verfügung.

Quelle: IDW 

(nach oben)


Immer mehr Menschen sind wegen Schimmelpilzgiften in Lebensmitteln besorgt

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR veröffentlicht neunten Verbrauchermonitor zur Wahrnehmung gesundheitlicher Risiken
Salmonellen in Lebensmitteln, gentechnisch veränderte Lebensmittel und Antibiotikaresistenzen sind die Gesundheits- und Verbraucherthemen, die auf der Bekanntheitsskala von Verbraucherinnen und Verbrauchern ganz oben stehen. Dennoch halten weiterhin mehr als drei Viertel der Deutschen Lebensmittel für eher sicher. Dies ist das Ergebnis des aktuellen Verbrauchermonitors – einer repräsentativen Bevölkerungsumfrage des Bundesinstituts für Risikobewertung (BfR). Das Thema Schimmelpilzgifte in Lebensmitteln ist deutlich bekannter und beunruhigt gleichzeitig mehr Menschen als in der vorherigen Umfrage im Februar 2019. Fast die Hälfte der Befragten zeigt sich darüber besorgt. „Verbraucher fürchten eher synthetisch hergestellte Stoffe als natürlich vorkommende Substanzen“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Dass die Menschen Schimmelpilzgifte in Lebensmitteln mittlerweile als ähnlich gefährlich wie Salmonellen oder Pflanzenschutzmittelrückstände ansehen, zeigt, wie schnell sich die Wahrnehmung von gesundheitlichen Risiken verändert.“
https://www.bfr.bund.de/cm/350/bfr-verbrauchermonitor-08-2019.pdf

Ob Antibiotikaresistenzen, Mikroplastik, Salmonellen oder Schimmelpilzgifte – welche gesundheitlichen Risiken sind der Bevölkerung bekannt und was beunruhigt sie? Als bevölkerungsrepräsentative Befragung liefert der BfR-Verbrauchermonitor in halbjährlichem Abstand Einsichten zu der Frage, wie die Deutschen gesundheitliche Risiken wahrnehmen. Dafür werden etwa 1.000 Personen, die in Privathaushalten leben und mindestens 14 Jahre alt sind, im Auftrag des BfR telefonisch interviewt.

Nach wie vor nehmen die Befragten eine ungesunde oder falsche Ernährung, die Klima- und Umweltbelastung sowie das Rauchen als die größten gesundheitlichen Risiken wahr. Erstmals nannten mindestens fünf Prozent der Befragten den Themenkomplex Pflege, Alter, Rente spontan als Risiko. Fragt man nach ausgewählten Themen, so führen Salmonellen in Lebensmitteln, gentechnisch veränderte Lebensmittel und Antibiotikaresistenzen die Bekanntheitsskala an. Darauf folgen Mikroplastik und Rückstände von Pflanzenschutzmitteln (abgefragt als Reste von Pflanzenschutzmitteln) in Lebensmitteln sowie Aluminium in Lebensmittelverpackungen oder -behältnissen.

Wie in der Vorgängerbefragung sind Antibiotikaresistenzen und Mikroplastik in Lebensmitteln immer noch die Themen, die den meisten Befragten Sorgen bereiten. Im Vergleich zur letzten Umfrage ist die Bevölkerung jedoch deutlich beunruhigter über Schimmelpilzgifte in Lebensmitteln: Hier ist die Zahl derer, die sich Sorgen machen, um 13 Prozentpunkte auf 46 Prozent gestiegen. Ähnlich viele Befragte finden beispielsweise Salmonellen in Lebensmitteln besorgniserregend. Die Thematik Listerien in Lebensmitteln, die erstmalig in dieser Umfrage aufgenommen wurde, ist nur knapp der Hälfte der Befragten bekannt.

In der Spezialausgabe des Eurobarometers zur Lebensmittelsicherheit in der EU, eine im April 2019 in 28 EU-Mitgliedsstaaten erfolgte Befragung von ca. 28.000 Teilnehmerinnen und Teilnehmern, werden Unterschiede in der Risikowahrnehmung innerhalb der EU deutlich. Im europäischen Vergleich liegt die Sorge um Antibiotika-, Hormon- oder Steroidrückstände in Fleisch in der deutschen Bevölkerung mit 61 Prozent weit über dem europäischen Durchschnitt (44 Prozent). Hingegen zeigt Deutschland sich bei der Frage nach „Lebensmittelvergiftungen durch Bakterien“ eher weniger besorgt (22 Prozent) als die EU insgesamt (30 Prozent). Auch der aktuelle BfR-Verbrauchermonitor zeigt eine relativ geringe Beunruhigung durch Bakterien in Lebensmitteln, wie z.B. Listerien oder Campylobacter, die beide nur weniger als der Hälfte der Befragten bekannt sind.

Link zum Eurobarometer 2019 „Food Safety in the EU“,
https://www.efsa.europa.eu/sites/default/files/corporate_publications/files/Euro…

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: IDW 

(nach oben)


Studie zu Persönlichkeit und Verhalten im Arbeitskontext

Patricia Achter Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg

Psychologinnen der Universität Bamberg suchen ab sofort Teilnehmende für eine Online-Befragung.
Die individuelle Beziehung zwischen Führungskräften und Mitarbeitenden ist unter anderem bedeutsam für deren Wohlbefinden, Arbeitszufriedenheit und Leistung. Das bestätigen bisherige personalpsychologische Forschungsergebnisse. Sie belegen auch: Wie sich Personen in diesen Beziehungen verhalten, hängt zum einen von der jeweiligen Persönlichkeit ab. Zum anderen sind Situation und Verhaltensweisen des Gegenübers entscheidend. Ab sofort beginnt ein Forschungsteam des Lehrstuhls für Persönlichkeitspsychologie und Psychologische Diagnostik an der Universität Bamberg gemeinsam mit der französischen Neoma Business School Reims eine Studie zu diesem Themenbereich. Das Team möchte ergründen, wie Persönlichkeit, Situation und Verhalten im Arbeitskontext miteinander zusammenhängen.

Die Forscherinnen suchen für die Online-Befragung Führungskräfte und Mitarbeitende, die mit ihren Erfahrungen dazu beitragen möchten, diese Fragestellung zu beantworten. Im Rahmen der Studie werden im Abstand von sechs Wochen zwei circa zehnminütige Online-Fragebögen ausgefüllt. Um zentrale Aspekte sowohl aus Mitarbeitenden- als auch Führungskräftesicht betrachten zu können, werden die Teilnehmenden im Verlauf der Studie gebeten, ihre Führungskraft beziehungsweise eine zufällig ausgewählte Mitarbeiterin oder einen Mitarbeiter zur Teilnahme einzuladen. Die Antworten sind für die Vorgesetzten oder Mitarbeitenden nicht einsehbar. Als Dank können die Teilnehmenden zwischen der Rückmeldung der Studienergebnisse, der Teilnahme an der Verlosung eines Tablets oder der Erstellung eines individuellen Persönlichkeitsprofils auswählen.

Das Forschungsteam garantiert für alle im Rahmen dieses Projekts erfassten Daten einen vertraulichen Umgang und strikte Anonymität. Die Angaben werden ausschließlich für Forschungszwecke verwendet und nicht an Dritte weitergegeben. Inhaltliche Rückfragen beantwortet Theresa Fehn unter der E-Mail-Adresse theresa.fehn@uni-bamberg.de oder telefonisch unter der 0951/863-1799.

Interessierte können unter folgendem Link teilnehmen: https://ww3.unipark.de/uc/JOB_Feld1/?a=7&b=0

Weitere Informationen zur Studie unter: www.uni-bamberg.de/kap

Wissenschaftliche Ansprechpartner:
Theresa Fehn
Wissenschaftliche Mitarbeiterin am Lehrstuhl für Persönlichkeitspsychologie und Psychologische Diagnostik
Tel.: 0951/863-1799
theresa.fehn@uni-bamberg.de

Weitere Informationen:
https://ww3.unipark.de/uc/JOB_Feld1/?a=7&b=0 zur Onlinebefragung
http://www.uni-bamberg.de/kap für weitere Informationen zur Studie

Quelle: IDW 

(nach oben)


Bewegung schützt vor Diabetes – aber wie?

Dr. Michael Ramm Pressestelle
Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut (HKI)

Jena. Ärzte raten zu mehr Bewegung, wenn sie Prädiabetes diagnostizieren. Häufig lässt sich damit der Übergang zu einer Typ-II-Diabeteserkrankung verhindern oder verzögern. Aber eben nicht immer. Ein Team um den Jenaer Systembiologen Gianni Panagiotou fand nun Hinweise darauf, dass die Zusammensetzung des Darmmikrobioms eine entscheidende Rolle dabei spielt, ob Sport tatsächlich vor Typ-II Diabetes schützen kann. Die Ergebnisse der mit Forscherkollegen in Hongkong gemeinsam durchgeführten Studie erschienen kürzlich im Fachjournal Cell Metabolism.

Ungesunde Ernährung und zu wenig Bewegung sind häufig die Ursache für eine Diabeteserkrankung. Diese kündigt sich im Fall von Typ-II-Diabetes meist an: Die Patienten haben einen dauerhaft erhöhten Blutzuckerwert ohne jedoch die für die Diabetesdiagnose festgelegten Grenzwerte zu überschreiten. In diesem Fall handelt es sich um Prädiabetes. Menschen mit Prädiabetes erhalten die ärztliche Empfehlung, regelmäßig Sport zu treiben. Häufig lässt sich die Diabeteserkrankung durch Bewegung verhindern. Ein bestimmter Anteil der Betroffenen weist jedoch eine sogenannte Trainingsresistenz auf: bei ihnen zeigt der Sport keinerlei Wirkung oder fördert gar die Entwicklung von Diabetes.

Gianni Panagiotou vom Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie in Jena und seine Kollegen von der Universität Hongkong haben das Darmmikrobiom von Patienten, die positiv auf Sport ansprechen mit dem von jenen verglichen, wo Bewegung keine Wirkung zeigt. Die Studiendaten zeigen einen klaren Zusammenhang zwischen Darmmikrobiom, Bewegung und Blutzuckerwerten. „Es gibt eine hohe Variabilität bei der Reaktion von Blutzuckerwerten auf sportliche Betätigung. Wir konnten herausfinden, dass diese in Abhängigkeit des Darmmikrobioms steht“, sagt Panagiotou. Dabei beziehen sich diese Unterschiede sowohl auf die Zusammensetzung des Mikrobioms als auch auf seine Funktionalität. So produziert das Darmmikrobiom von erfolgreich Therapierten mehr nützliche kurzkettige Fettsäuren während bei denen, die nicht ansprachen, eher metabolisch schädliche Verbindungen auftreten.

Die Ergebnisse wurden anhand des Darmmikrobioms von 39 Männern mit Prädiabetes gewonnen. In einem Kontrollexperiment wurde das Darmmikrobiom der unterschiedlich reagierenden Patienten aus dieser Probandengruppe auf fettleibige Mäuse übertragen. Allein das Mikrobiom derer, bei denen die Bewegungstherapie wirksam war, führte bei den Mäusen zu denselben positiven Auswirkungen.

Mit der Untersuchung des Darmmikrobioms ließe sich also voraussagen, wie gut Prädiabetiker auf Bewegung ansprechen. „Diese Erkenntnis ermöglicht es, zukünftig personalisierte Therapieansätze zu entwickeln“, so Panagiotou.

Unter dem Begriff Mikrobiom verstehen Wissenschaftler die Gesamtheit aller Mikroorganismen in einem bestimmten Raum, also beispielsweise dem Darm. Es wird vermutet, dass das Darmmikrobiom einen großen Einfluss auf Gesundheit und Wohlbefinden des Menschen hat. Die Bildung und Veränderung von Mikrobiomen sowie die molekularen Mechanismen ihrer Regulation sind Forschungsgegenstand des Jenaer Exzellenzclusters „Balance of the Microverse“, in dem ein Teil der Studie durchgeführt wurde. Gianni Panagiotou bearbeitet das Thema zudem im Sonderforschungsbereich FungiNet und im EU-geförderten Marie Skłodowska-Curie Programm „BestTreat“, das er auch koordiniert. Die Ergebnisse der Forschungsarbeit wurden im Fachjournal Cell Metabolism veröffentlicht und von den Zeitschriften Nature und Nature Endocrinology als Forschungs-Highlight hervorgehoben.

Wissenschaftliche Ansprechpartner:
Assoc. Prof. Dr. Gianni Panagiotou, gianni.panagiotou@leibniz-hki.de

Originalpublikation:
Liu Y, Wang Y, Ni Y, Cheung CKY, Lam KSL, Wang Y, Xia Z, Ye D, Guo J, Tse MA, Panagiotou G, Xu A (2019) Gut microbiome fermentation determines the efficacy of exercise for diabetes prevention. Cell Metabolism, https://doi.org/10.1016/j.cmet.2019.11.001.

Quelle: IDW 

(nach oben)


Umwelt überwachen und schützen: THGA-Technik gewinnt internationale Challenge

Carmen Tomlik Pressestelle
Technische Hochschule Georg Agricola

Der Sommer 2018 brach in vielerlei Hinsicht Rekorde, darunter auch einen traurigen: In vielen deutschen Seen und Flüssen kam es zu einem massiven Fischsterben. Grund dafür waren die langanhaltend hohen Temperaturen und der stetig sinkende Sauerstoffgehalt im Wasser. Damit sich solche Entwicklungen künftig besser überwachen und bestenfalls vermeiden lassen, haben Wissenschaftler der Technischen Hochschule Georg Agricola (THGA) ein neues System entwickelt. „Smart Lake“ überwacht Wasserdaten und sendet eigenständig eine Warnung an den zuständigen Techniker, wenn Grenzwerte überschritten werden.

An dem Projekt waren maßgeblich Masterstudierende aus dem Studiengang Elektro- und Informationstechnik beteiligt. Mit ihrer Idee vom intelligenten See belegten Prof. Dr. Bernd vom Berg und sein Team nun den ersten Platz in einem internationalen Wettbewerb, der „Sigfox Universities Challenge 2019″. Das digitale Erfolgsrezept heißt „Internet of Things“: Immer mehr Gegenstände des täglichen Lebens sind miteinander vernetzt und an eine globale Infrastruktur angeschlossen – vom Kühlschrank, der sich selbst befüllt, bis hin zum Autoassistenzsystem oder dem Fitnesstracker. Beim „Green IoT“ wird diese Idee noch um den Umweltgedanken erweitert, erklärt Prof. vom Berg von der THGA: „Dank modernster Technik können wir effektive Systeme zum Schutz der Umwelt aufbauen und einsetzen und somit einen wesentlichen Beitrag leisten, um Lebensräume für Tiere, Pflanzen und Menschen zu bewahren.“

So haben die Bochumer Wissenschaftler kurzerhand den See selbst smart gemacht. Im nahen Stadtparkteich installierten sie ihr spezielles Monitoring-System „Smart Lake“. Messstationen, entlang des Gewässers verteilt, erfassen seither zyklisch die Wasserparameter und übermitteln sie an zentrale Überwachungsstellen. „Dabei können wir genau festlegen, wie oft gemessen wird z.B. alle zehn Minuten, alle 12 Stunden oder einmal am Tag“, erklärt Student Philipp Krienke, der das System in seiner Bachelorarbeit entwickelt hat und jetzt weiter optimiert. „Sobald Grenzwerte überschritten werden, sendet es eigenständig eine Alarm-Mail an die Verantwortlichen. In Bochum etwa an das Tiefbauamt und ggf. dann an die Feuerwehr“, sagt der 28-Jährige.

Das Besondere ist, dass die Messwerte in einer übersichtlichen Grafik auf Smartphone oder Tablet ankommen. So lassen sich Tendenzen und Änderungen noch besser erkennen. Im Ernstfall könnte dann schnellstmöglich reagiert werden, z. B. mit der Einleitung von Frischwasser oder Sauerstoff. Und zwar bevor umweltgefährdende Situationen eintreten.

Für die Übertragung nutzen die THGA-Wissenschaftler das weltweite IoT-Netzwerk des französischen Anbieters „Sigfox“. Es ermöglicht, Objekte mit geringem Energiebedarf drahtlos mit dem Internet zu verbinden. Das praxisnahe Beispiel überzeugte jetzt auch Sigfox selbst: Bei der diesjährigen Sigfox Universities Challenge belegten die Bochumer Wissenschaftler den ersten Platz, zusammen mit einem Projekt aus Indien.

Monitoring mit unbegrenzten Möglichkeiten
Das Umweltmonitoring-System der THGA ist aber nicht nur für die Überwachung von Gewässern geeignet, sondern lässt sich universell in vielen Bereichen des aktiven Umweltschutzes einsetzen. Da die komplette Kernelektronik immer gleichbleibt, muss nur die Sensorik individuell an die Anforderungen angepasst werden. „Ursprünglich hatten wir die Technik für den Nachbergbau entwickelt, nämlich um stillgelegte Schächte zu überwachen“, erklärt Prof. vom Berg. Inzwischen überwachen die Sensoren u. a. auch Aquarien im Tierpark oder ein Wildschweingehege im Wald. Lediglich das Sigfox-Netzwerk muss vor Ort vorhanden sein. So lassen sich mit dem Bochumer System künftig die unterschiedlichsten Umweltschutzszenarien erfassen und lückenlos überwachen – auf der Erde, im Wasser oder in der Luft.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Bernd vom Berg
Technische Hochschule Georg Agricola
Elektro- und Informationstechnik
Herner Straße 45
44787 Bochum
Telefon: (0234)968-3399
E-Mail: Bernd.vomBerg@thga.de

Weitere Informationen:

https://www.youtube.com/watch?v=2gn9yelPH4c

Quelle: IDW 

(nach oben)


Fettstoffwechsel und Diabetes: Im Takt der inneren Uhr

Sonja Schäche Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Abhängig von der Uhrzeit, zu der gegessen wird, verändern sich die Fettmuster im Blut und beeinflussen die Empfindlichkeit für das Hormon Insulin. Das zeigt die Publikation einer Forschergruppe um PD Dr. Olga Ramich vom DIfE im Journal of Clinical Endocrinology & Metabolism.

Zahlreiche physiologische Prozesse wie beispielsweise Wach- und Schlafzustand, Körpertemperatur und Blutdruck folgen einem regelmäßigen 24-stündigen Tag/Nachtrhythmus. Dieser Takt der inneren Uhr wird von einem Netzwerk von Proteinen und Genen gesteuert und kann durch Licht und Mahlzeiten beeinflusst werden. Störungen des empfindlichen Systems, z. B. durch einen Jetlag oder Schichtarbeit, können Übergewicht, Insulinresistenz und veränderte Blutfettwerte begünstigen und erhöhen das Risiko für Stoffwechselerkrankungen wie Typ-2-Diabetes.

Nicht nur was und wie, sondern auch wann
Das Team um PD Dr. Olga Ramich, Leiterin der Forschungsgruppe „Molekulare Ernährungsmedizin“ am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE), erforscht die Zusammenhänge zwischen innerer Uhr, Zusammensetzung der Nahrung und Stoffwechselerkrankungen. Ramich wollte genau wissen, wie sich der Zeitpunkt der Aufnahme einer kohlenhydratreichen Mahlzeit im Vergleich zu einer fettreichen Mahlzeit auf den Fettstoffwechsel und die Blutzuckerkontrolle auswirkt. Dafür analysierte ihre Forschungsgruppe das Lipidom, also die Gesamtheit der Lipide im Blutplasma, von 29 nicht-adipösen, gesunden Männern.

„Unsere Ergebnisse zeigen sehr deutlich, dass sowohl Mahlzeitenkomposition als auch Tageszeit die Zusammensetzung der Fette im Blut beeinflussen. Für ein Drittel aller Lipide waren die Änderungen nach der Mahlzeit davon abhängig, ob dieselbe Mahlzeit morgens oder nachmittags gegessen wurde“, sagt Ramich. Zusammen mit den Blutlipiden veränderte sich im Laufe des Tages auch die Insulinempfindlichkeit. „Möglicherweise können die tageszeitlich bedingten Lipidmuster ein Grund dafür sein, dass unser Körper morgens empfindlicher auf Insulin reagiert als abends“, erklärt die Forscherin.

Ablauf der Studie
Die Studie bestand aus zwei jeweils vierwöchigen Ernährungsphasen. In der einen Phase nahmen die Probanden am Vormittag eine kohlenhydratreiche und am Nachmittag sowie am Abend eine fettreiche Mahlzeit zu sich. Während der anderen Phase gab es früh die fettreiche und spät die kohlenhydratreiche Kost. Nach Abschluss der jeweiligen Phase folgte ein Untersuchungstag, an dem die Studienteilnehmer in das Humanstudienzentrum des DIfE kamen und zwei Mahlzeiten zu sich nahmen – eine um 9 Uhr und die andere um 15.40 Uhr. Diese Testmahlzeiten waren der vorangegangenen Ernährungsintervention entsprechend entweder kohlenhydratreich oder fettreich. Das Forscherteam untersuchte die Fette im Blut und die Gene im Fettgewebe der Probanden vor und nach jeder Testmahlzeit.

Dynamische Analyse durch High Throughput Shotgun Plasma Lipidomics
Insgesamt analysierten die Wissenschaftlerinnen und Wissenschaftler im Blut der Probanden 672 Fette aus 14 Fettklassen. Dafür nutzten sie die neue High-Throughput-Shotgun-Plasma-Lipidomics-Methode. Eine Premiere, denn bislang hat noch keine Forschungsgruppe diese Methode für Analysen des Lipidstoffwechsels in einer Diätinterventionsstudie mit Menschen verwendet. „Für uns sind derartig dynamische Analysen des humanen Lipidoms ein Meilenstein. Erstmals können wir nun genau sehen, wie sich die Fettmuster im Laufe des Tages und unter Einfluss verschiedener Mahlzeiten verändern“, freut sich die Leiterin der Forschungsgruppe. Um zu verstehen, durch welche Mechanismen die Blutfette reguliert werden, untersuchten die Wissenschaftlerinnen und Wissenschaftler zudem die Expression der Gene des Lipidstoffwechsels im Fettgewebe.

Zeitlich abgestimmte Ernährungsempfehlungen?
Die Studie gibt neue Einblicke in die tageszeitabhängigen Mechanismen der Fettstoffwechselregulation beim Menschen und deren Zusammenhang mit der Kontrolle des Blutzuckerspiegels. „Es ist gut vorstellbar, dass das Wissen um die richtige Tageszeit für bestimmte Mahlzeiten auch in zukünftige Ernährungsstrategien zur Vorbeugung von Typ-2-Diabetes einfließt“, so PD Dr. Olga Ramich. Um zu verstehen, wie die innere Uhr im Detail mit dem Lipidstoffwechsel interagiert und dabei möglicherweise die Empfindlichkeit für das Hormon Insulin herabsetzt, sind jedoch noch weitere Studien erforderlich.

Hintergrundinformationen:
Finanzierung: Die Studie wurde von der Deutschen Forschungsgemeinschaft (DFG), der Deutschen Diabetes Gesellschaft (DDG) und dem Deutschen Zentrum für Diabetesforschung (DZD) finanziert.

Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD).
-> http://www.dife.de
-> https://www.leibniz-gemeinschaft.de
-> https://www.dzd-ev.de

Pressekontakt:
Sonja Schäche
Leiterin Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Tel.: +49 (0) 33200 88-2278
E-Mail: sonja.schaeche@dife.de

Wissenschaftliche Ansprechpartner:
PD Dr. Olga Ramich
Leiterin der Forschungsgruppe Molekulare Ernährungsmedizin
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Tel.: +49 (0)33200 88-2749
E-Mail: olga.ramich@dife.de

Originalpublikation:
Kessler, K., Gerl, M. J., Hornemann, S., Damm, M., Klose, C., Petzke, K. J., Kemper, M., Weber, D., Rudovich, N., Grune, T., Simons, K., Kramer, A., Pfeiffer, A. F. H., Pivovarova-Ramich, O.: Shotgun lipidomics discovered diurnal regulation of lipid metabolism linked to insulin sensitivity in non-diabetic men. J Clin Endocrinol Metab., dgz176 (2019)
https://academic.oup.com/jcem/advance-article/doi/10.1210/clinem/dgz176/5611334

Quelle: IDW 

(nach oben)


Nur wer die Meere kennt, kann nachhaltig mit ihnen umgehen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Europa mit seiner langen Küstenlinie vielen Halbinseln, Randmeeren, Golfen und Buchten ist eng mit dem Ozean verzahnt. In Zeiten von Meeresspiegelanstieg und -erwärmung ist es daher wichtig zu wissen, welche Prozesse sich genau vor den Küsten und im offenen Ozean abspielen. Doch bei der Ozeanbeobachtung gibt es noch große Lücken. Das will ein internationales Konsortium aus 55 Partnern mit dem Projekt EuroSea ändern. Die EU fördert es mit insgesamt 12,6 Millionen Euro. Diese Woche startet das am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel koordinierte Projekt mit einer Auftakttreffen in Brüssel.

Die Ozeane liefern uns Menschen Nahrung und Sauerstoff. Sie sind Verkehrswege und Klimapuffer. Sie dienen uns als Orte der Erholung, aber oft auch als Müllkippe. Stürme, der Meeresspiegelanstieg, Flutwellen und Meeresverschmutzung bedrohen Ökosysteme und an den Küsten lebende Menschen. Das gilt besonders für Europa, das mit seinen großen Halbinseln, Nebenmeeren und Buchten eng mit dem Ozean verzahnt ist.

Doch trotz dieser immensen Bedeutung der Meere gibt es noch immer große Lücken im Wissen über Vorgänge in ihrem Inneren. Das liegt unter anderem an fehlenden oder unzureichend verknüpften Beobachtungen. Die Wissenslücken machen Abschätzungen zu aktuellen und zukünftigen Entwicklungen und damit auch Planungen für einen nachhaltigen Umgang mit den Meeren schwierig.

Ein internationales Konsortium aus 55 Partnern hat sich jetzt in dem Projekt EuroSea zusammengeschlossen, um die Ozeanbeobachtung in Europa und darüber hinaus deutlich zu verbessern. Die Europäische Union fördert das Projekt bis 2023 mit insgesamt 12,6 Millionen Euro. Diese Woche treffen sich 80 Forscherinnen und Forscher sowie Gäste aus Politik und Wirtschaft im Naturkundemuseum in Brüssel (RBINS) zur Auftaktkonferenz.

„Ziel des Projekts ist es, vorhandene Kapazitäten bei der europäischen Meeresbeobachtungssystem besser miteinander zu verbinden, bestehende Lücken zu füllen und die dabei entstehenden Daten und Informationen einfacher für Nutzer zur Verfügung zu stellen“, sagt der Koordinator Dr. Toste Tanhua vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Bei den Partnern im EuroSea-Konsortium handelt es sich vor allem um wissenschaftliche Einrichtungen in insgesamt 13 europäischen Ländern sowie in Brasilien und Kanada. Hinzu kommen internationale Institutionen und Netzwerke wie die Weltorganisation für Meteorologie (WMO), die Zwischenstaatliche Ozeanographische Kommission der Unesco (IOC-UNESCO), das European Marine Board oder der europäische Teil des Global Ocean Observing Systems (EuroGOOS). Auch aus der Wirtschaft konnten Partner gewonnen werden, unter anderem um Technologien und Dienstleistungen für die Ozeanbeobachtung weiterzuentwickeln und die Kontinuität nach der Projektlaufzeit sicherzustellen.

Neben der Verbesserung der Messungen direkt im Ozean legt EuroSea einen Fokus auf die Qualität und Nutzbarkeit der erhobenen Daten und auf Systeme, diese Daten für aktuelle Vorhersagedienste zu nutzen. „Dafür arbeiten wir eng mit den bestehenden marinen Datenbanken und Dateninfrastrukturen und dem EU-Projekt Blue-Cloud zusammen, um in diesen Bereichen Fähigkeiten zu verbessern und einen effizienten Datenaustausch zu erleichtern“, betont der Projektkoordinator. Die Ozeandaten sollen dem FAIR-Standard (findable, accessible, interoperable, reusable: auffindbar, zugänglich, untereinander kompatibel und wiederverwendbar) entsprechen. „Das ist leider noch nicht immer der Fall“, bedauert Dr. Tanhua.

Das Projekt baut auch auf dem Vorgängerprojekt AtlantOS auf und kooperiert mit dem daraus hervorgegangenen gleichnamigen Programm, das eine Verbesserung der Ozeanbeobachtung im gesamten atlantischen Raum zum Ziel hat. EuroSea setzt die dort begonnene Arbeit mit Blick auf die europäischen Meere einschließlich des Mittelmeers fort und intensiviert sie in diesem Bereich.

Das GEOMAR übernimmt bei EuroSea nicht nur die Gesamtkoordination, sondern ist auch an sechs der insgesamt zehn Arbeitspaketen intensiv beteiligt. Das reicht von der besseren Verknüpfung bestehender Messnetze über Datenintegration bis hin zu Forschungen zur Rolle des Ozeans im Klimawandel und der Abschätzung, wie groß die wirtschaftliche Bedeutung der ozeanischen Kohlenstoffpumpe ist. Knapp 1,8 Millionen Euro der Gesamtfördersumme gehen dafür an das Kieler Helmholtz-Zentrum.

„Wir wollen den Weg bereiten für ein nachhaltiges Ozeanbeobachtungs-System, das nicht nur der Forschung, sondern auch Nutzern wie der Fischerei, der Aquakultur, dem Küstenschutz, der Offshore-Energiegewinnung und letztendlich der Öffentlichkeit die Informationen liefert, die sie benötigen und nachfragen. Damit tragen wir auch zu den Nachhaltigen Entwicklungszielen der Vereinten Nationen, zur UN-Dekade zur Ozeanforschung für nachhaltige Entwicklung sowie zur G7-Initiative Zukunft der Meere und Ozeane bei „, fasst Dr. Tanhua zusammen.

Bitte beachten Sie:
EuroSea wird gefördert von der Europäischen Union im Rahmen der Initiative „The Future of Seas and Oceans“ (Grant 862626)

Weitere Informationen:
http://www.eurosea.eu Das Projekt EuroSEA
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://www.naturalsciences.be/ Das RBINS
http://eurogoos.eu/ Das European Global Ocean Observing System

Quelle: IDW 

(nach oben)


Warum wir Menschen handeln

Katrina Jordan Abteilung Kommunikation
Universität Passau

Der Griff zur Kaffeetasse beim Zeitunglesen am Frühstückstisch, das Betätigen des Lautstärkereglers am Radio oder der heftige Tritt auf die Bremse bei Gefahr: Der Mensch handelt permanent – oft ohne bewusst darüber nachzudenken. Warum und wie Menschen handeln oder wie sie lernen zu handeln, diesen Fragen geht eine Gruppe von Kognitionsforscherinnen und -forschern unter Leitung von Psychologie-Professor Christian Frings von der Universität Trier nach. Beteiligt ist auch Prof. Dr. Susanne Mayr, Psychologin mit Schwerpunkt Mensch-Maschine-Interaktion an der Universität Passau.

Auch ein Team der Universität Passau beteiligt sich an der DFG-Forschungsgruppe „Merkmalsintegration und -abruf in der Handlungssteuerung“: Prof. Dr. Susanne Mayr, Inhaberin des Lehrstuhls für Mensch-Maschine-Interaktion, Dr. Malte Möller und Doktorandin Ruyi Qiu untersuchen gemeinsam mit Prof. Dr. Iring Koch von der Rheinisch-Westfälisch Technischen Hochschule Aachen, wie Störgeräusche auf menschliches Handeln wirken.

Zwar kann sich ein Mensch auf ein Sprachsignal konzentrieren, selbst wenn er oder sie gleichzeitig mit weiterem akustischen Input konfrontiert wird. Psychologinnen und Psychologen sprechen hier vom „Cocktailparty-Phänomen“ – denn auch für eine Cocktailparty ist es typisch, dass Gespräche geführt werden, während eine lautstarke Geräuschkulisse ausgeblendet werden muss. Allerdings blendet das Gehirn die Störgeräusche offenbar nicht ganz aus, sondern speichert sie in Kombination mit bestimmten Ereignissen ab.

„In unserer bisherigen Forschung konnten wir zeigen, dass diese nicht-relevanten Informationen Nachwirkungen auf die Verarbeitung haben“, sagt Prof. Dr. Mayr. Die Psychologin ließ dazu die Teilnehmerinnen und Teilnehmern ihrer Experimente eine Art Hörtest machen: Zunächst sollten sie verschiedene, über Kopfhörer eingespielte Geräusche erkennen lernen und mittels Tastendruck darauf reagieren. Im eigentlichen Experiment wurde während dieser Aufgabe zusätzlich ein Störgeräusch auf dem anderen Ohr eingespielt, das zu ignorieren war. In manchen Durchgängen musste auf dieses ignorierte Geräusch später reagiert werden.

„Wir konnten beobachten, dass sich die Reaktion in diesen Durchgängen verlangsamt. Wenn ich einmal gelernt habe, etwas zu ignorieren, dann hat das Effekte auf mein späteres Verhalten, wenn sich dieser Stimulus wiederholt“, so Mayr. Im Rahmen der Forschungsgruppe geht das Team diesem Effekt auf den Grund. Es prüft spezifische Hypothesen zur Bildung und Funktionsweise dieser sogenannten Stimulus-Reaktions-Episoden und untersucht, wie diese im Gedächtnis abspeichert werden.
„Uns interessiert, wie Kontexte oder Bezüge, die mit der eigentlichen Aufgabe gar nichts zu tun haben, das Handeln beeinflussen“, sagt Prof. Dr. Mayr. Die Forschung könnte wichtige Erkenntnisse liefern, wie Fehlbedienungen von Geräten entstehen und somit beispielsweise dabei helfen, Autocockpits so zu gestalten, dass solche Fehler vermieden werden.

Die Passauer Erkenntnisse zur Rolle akustischer Reize fließen in ein Rahmenmodell ein, das verschiedene psychologische Ansätze zur Steuerung menschlichen Handelns zusammenführt. Viele Facetten menschlicher Handlungssteuerung seien in der Vergangenheit unabhängig voneinander analysiert worden, sagt Prof. Dr. Christian Frings von der Universität Trier. Das soll das neue, integrative Rahmenmodell ändern und neue Hypothesen und Vorhersagen ermöglichen, auch über das Gebiet der Handlungskontrolle hinaus.

Beteiligte und Förderung
Die Universität Trier koordiniert die ortsverteilte DFG-Forschungsgruppe. 13 etablierte Wissenschaftlerinnen und Wissenschaftler sowie acht Doktorandinnen und Doktoranden forschen – verbunden durch ein virtuelles Labor in Trier – an sieben Standorten: in Aachen, Jena, Freiburg, Leiden, Passau, Würzburg und Trier.
Die Deutsche Forschungsgemeinschaft (DFG) fördert die Gruppe für die ersten drei Jahre mit ca. 1,8 Millionen Euro.

Rückfragen zu dieser Pressemitteilung richten Sie bitte an das Referat für Medienarbeit, Tel. 0851-509 1439.

Quelle: IDW 

(nach oben)


2,5 Millionen Euro für Forschungsverbund „Gute Küste Niedersachsen“

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Großer Erfolg für Konsortium der Universitäten Hannover, Oldenburg und Braunschweig in der aktuellen Bewilligungsrunde des Niedersächsischen Vorab

Ökosystemstärkender Küstenschutz an der niedersächsischen Küste: Das ist das Thema eines neuen Forschungsverbundes der Leibniz Universität Hannover (Sprecherfunktion), der Carl von Ossietzky Universität Oldenburg und der Technischen Universität Braunschweig. Der Verbund wird mit 2,5 Millionen Euro aus dem Niedersächsischen Vorab der VolkswagenStiftung finanziert.

Seit der Mensch begonnen hat, Küstenregionen zu besiedeln, versucht er, sich vor der Kraft des Meeres zu schützen und gleichzeitig seine Ressourcen zu nutzen. Der gesammelte Erfahrungsschatz spiegelt sich heute in der Disziplin des Küsteningenieurwesens wider und ist in Generalplänen zum Küstenschutz gesetzlich verankert. Neben dem Schutz von Lebens- und Wirtschaftsräumen stellt sich heute zunehmend die Frage nach einem ökosystemstärkenden Küstenschutz, der den übergeordneten Fragen folgt: Was ist eine gute Küste, an der wir sicher vor Naturgefahren, im Einklang mit der Natur, eingebettet in die gewachsene Kulturlandschaft, verantwortungsbewusst und nachhaltig leben und wirtschaften können?

Vor diesem Hintergrund ist das Verbundprojekt „Gute Küste Niedersachsen – Reallabore für einen ökosystemstärkenden Küstenschutz an der niedersächsischen Küste“ der drei Universitäten aufgestellt. Die Wissenschaftlerinnen und Wissenschaftler werden in einem integrativen Ansatz ihren Forschungsfragen nachgehen, in dem neben den Forschenden auch die zuständigen Landesbetriebe und die küstennah lebende Bevölkerung einbezogen werden. In so genannten Reallaboren werden die Küstenforschungsinstitute methodisch gemeinsam mit den lokalen Akteurinnen und Akteuren Handlungs- und Managementmöglichkeiten zum ökosystemstärkenden Küstenschutz erarbeiten und testen. Orte an der niedersächsischen Küste und auf den Inseln, die für die Einrichtung und den Betrieb von Reallaboren im Küstenschutz besonders geeignet sind, können zum Beispiel exponierte Deichabschnitte oder Deichvorländer sein. Diese werden durch ökosystemfördernde Elemente und Systeme wie Salz- oder Seegraswiesen ergänzt, um regulierende Ökosystemleistungen (Wellendämpfung oder Sedimentakkumulation) konkret vor Ort zu etablieren und gleichzeitig deren Wirkungen zu beziffern. Die wesentlichen Ziele sind, zu untersuchen, wie robuste, multifunktionale und insbesondere ökosystemstärkende Küstenschutzmaßnahmen in Reallaboren auf lange Sicht funktionieren und wie diese gleichzeitig in der Planung und Genehmigung durch die zuständigen Landesbetriebe Berücksichtigung finden sowie in der Zivilgesellschaft auf Akzeptanz stoßen.

„Durch die enge Einbindung der relevanten Behörden, der Zivilgesellschaft und führenden Forschungseinrichtungen sollen die Grundlagen dafür geschaffen werden, dass die Forschung bereits während der Konzeption und Umsetzung von ergänzenden, ökosystemfördernden Maßnahmen nicht nur auf Akzeptanz treffen, sondern wechselseitig Wissen erzeugen und nach Ablauf des Projekts gegebenenfalls sogar breite Nachahmung auch über die Grenzen Niedersachsens hinaus finden“, sagt Sprecher Prof. Dr.-Ing. Torsten Schlurmann vom Ludwig-Franzius-Institut für Wasserbau, Ästuar- und Küsteningenieurwesen (LuFI) der Leibniz Universität. Vorgesehen sind insgesamt fünf Teilprojekte, die transdisziplinär ausgerichtete Reallabore entwickeln und betreiben.

Am Verbundprojekt beteiligt sind die Leibniz Universität Hannover (Ludwig-Franzius-Institut für Wasserbau, Ästuar- und Küsteningenieurwesen, Institut für Umweltplanung, Institut für Freiraumentwicklung), die Carl von Ossietzky Universität Oldenburg (Institut für Chemie und Biologie des Meeres, Ökologische Ökonomie) und die Technische Universität Braunschweig (Leichtweiß-Institut für Wasserbau, Institut für Geoökologie), die in einem engen Verbund unter anderem mit dem Niedersächsischen Landesbetrieb für Wasserwirtschaft, Küsten und Naturschutz (NLWKN) und der Nationalparkverwaltung Niedersächsisches Wattenmeer zusammenarbeiten.

Für weitere Informationen steht Ihnen folgende Ansprechpartner gerne zur Verfügung:

Prof. Dr.-Ing. Torsten Schlurmann, Ludwig-Franzius-Institut für Wasserbau, Ästuar- und Küsteningenieurwesen (LuFI), unter Telefon +49 511 762 19021 oder per E-Mail unter schlurmann@lufi.uni-hannover.de

Prof. Dr. Oliver Zielinski, Institut für Chemie und Biologie des Meeres, Carl von Ossietzky Universität Oldenburg, unter Telefon +49 442 1944 174 oder per E-Mail unter oliver.zielinski@uni-oldenburg.de

Prof. Dr.-Ing. Nils Goseberg, Leichtweiß-Institut für Wasserbau, Abteilung Hydromechanik und Küsteningenieurwesen, Technische Universität Braunschweig, unter Telefon +49 531 391 3930 oder per E-Mail unter n.goseberg@tu-braunschweig.de

Quelle: IDW 

(nach oben)


Jeder fünfte Beschäftigte hat zu kurze Ruhezeiten

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Beschäftigte mit verkürzten Ruhezeiten haben häufiger gesundheitliche Beschwerden und eine schlechtere Work-Life-Balance. Zu diesem Ergebnis kommt eine Studie der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA). Die Studie zeigt ebenso, dass das Risiko größer ist, die Ruhezeiten nicht einzuhalten, je länger die Tages- beziehungsweise Wochenarbeitszeiten der Beschäftigten sind. Die Publikation baua: Bericht kompakt „Verkürzte Ruhezeiten: Auswirkungen auf die Gesundheit und die Work-Life-Balance“ fasst diese und weitere Forschungsergebnisse übersichtlich zusammen.

Das deutsche Arbeitszeitgesetz legt die Höchstgrenzen für die tägliche Arbeitszeit und die Mindestdauer für Arbeitsunterbrechungen fest. In der Regel haben Beschäftigte demnach Anspruch auf eine ununterbrochene Ruhezeit von elf Stunden. Das Gesetz lässt jedoch Verkürzungen in bestimmten Bereichen wie zum Beispiel im Gesundheitswesen, in der Landwirtschaft oder beim Rundfunk zu. Zudem können abweichende Regelungen tarifvertraglich getroffen werden.

In der BAuA-Arbeitszeitbefragung von 2017 wurden die Beschäftigten erstmals dazu befragt, ob sie die Mindestruhezeiten einhalten. Rund 20 Prozent der Vollzeitbeschäftigten geben an, dass sie mindestens einmal im Monat von verkürzten Ruhezeiten betroffen sind. Am höchsten ist der Anteil im Gesundheitswesen: hier berichten 39 Prozent der dort Beschäftigten, dass sie mindestens einmal im Monat von verkürzten Ruhezeiten betroffen sind.

Die Auswertung zeigt: Insgesamt haben Beschäftigte mit verkürzten Ruhezeiten mehr psychosomatische Beschwerden als Beschäftigte mit mindestens elfstündigen Ruhezeiten. Dazu zählen zum Beispiel Rückenschmerzen, Schlafstörungen oder emotionale Erschöpfung. Auch die Work-Life-Balance verschlechtert sich signifikant.

Die Studie der BAuA macht deutlich, dass Mindestruhezeiten nach wie vor ein wichtiges und sinnvolles Instrument des Arbeitsschutzes sind. Die Autoren empfehlen, geltende Mindeststandards auch in Zukunft beizubehalten und vor allem die Länge der Ruhezeiten beziehungsweise die Ausnahmeregelungen und Abweichungen noch stärker in den Blick zu nehmen.

„Verkürzte Ruhezeiten: Auswirkungen auf die Gesundheit und die Work-Life- Balance“; Leon Ratermann, Nils Backhaus, Corinna Brauner, Anita Tisch; Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2019; 1. Auflage; 2 Seiten; doi: 10.21934/baua:berichtkompakt20191030

Den baua: Bericht kompakt gibt es im PDF-Format zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/dok/8825610.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Quelle: IDW 

(nach oben)


Jade Hochschule untersucht den Umgang mit Hochwasserrisiken im Nordseeraum

Katrin Keller Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth

Durch den Klimawandel steigt das Hochwasserrisiko. Wissenschaftler der Jade Hochschule entwickelten in Kooperation mit internationalen Partnern Maßnahmen, um den Katastrophenschutz in der Nordseeregion Wesermarsch zu verbessern.

Oldenburg.Wesermarsch. Wie mit dem Hochwasserrisiko in verschiedenen Regionen des Nordseeraums umzugehen ist, war Thema des aktuellen Forschungsprojektes FRAMES der Jade Hochschule in Kooperationen mit dem Oldenburgisch-Ostfriesische Wasserverband (OOWV) sowie Partnern in der Region und aus den Nordseeanrainerstaaten England, Belgien, Niederlande, Dänemark und Schweden. Im Fokus des europäischen Projektes stand vor allem der Umgang mit Risiken, die durch den Klimawandel verstärkt werden, wie zum Beispiel Sturmfluten bei steigendem Meeresspiegel oder Starkregenereignisse.
Anhand von Pilotgebieten prüften die Wissenschaftler_innen, wo in der Region besonderer Handlungsbedarf besteht: Im Landkreis Wesermarsch, der zu einem großen Teil unter dem Meeresspiegel liegt, wurde die Organisation und Kommunikation innerhalb des Katastrophenschutzes untersucht und in der Gemeinde Butjadingen der Informationsstand und -bedarf der Bevölkerung zum Thema Hochwasserrisikomanagement und Katastrophenschutz.
„Der technische Hochwasserschutz ist gut ausgebaut, reicht aber allein nicht aus“, erklärte Projektleiter Dr. Helge Bormann von der Jade Hochschule bei der gestrigen Abschlussveranstaltung in Brake. Der Schutz muss auch in den Bereichen hochwasserangepasste Planung, Katastrophenmanagement und Nachsorgemaßnahmen weiter verbessert werden. „Wir konnten das Bewusstsein für die Hochwasserrisiken in den am Katastrophenschutz beteiligten Organisationen und in der Bevölkerung steigern“, sagt der Wissenschaftler. „Jetzt müssen alle mit anpacken.“

Katastrophenschutz in der Wesermarsch
Für den Katastrophenschutz und die Gefahrenabwehr sind die Kommunen zuständig. „Der enge Austausch mit den regionalen Akteuren hat gezeigt, dass der Landkreis Wesermarsch in vielen Bereichen bereits sehr gut aufgestellt ist“, sagt Bormann. In einigen Bereichen könne der Katastrophenschutz jedoch noch ausgeweitet werden. Würde durch ein Hochwasser beispielsweise ein Stromausfall auftreten, hätte das enorme Auswirkungen auf die Wasserversorgung, Entwässerung, Gesundheit oder den Verkehr. Die Krankenhäuser und das Kreishaus wären durch ein Notstromaggregat versorgt. „Wir haben jedoch festgestellt, dass bisher nur eins von neun Rathäusern in den Gemeinden über eine Notstromversorgung verfügt und damit im Katastrophenfall handlungsfähig wäre“, sagt der Projektleiter. Wenn im Fall einer Hochwasserkatastrophe die Stromnetzwerke abgeschaltet würden, werden auch die Schöpfwerke nicht mehr mit Strom versorgt, sodass die Entwässerung stark eingeschränkt wäre. Zudem seien Kommunikationssysteme wie Telefone oder Internet überwiegend von der Stromversorgung abhängig. Über alternative Systeme müsse nachgedacht werden. Außerdem gebe es im Katastrophenfall große Probleme bei der Evakuierung von Pflegebedürftigen.

Eigenvorsorge als wichtiger Baustein
„Auch wenn die öffentliche Hand in der Verantwortung für den Katastrophenschutz steht, spielt die Eigenvorsorge der Bürgerinnen und Bürger eine entscheidende Rolle“, sagt die Projektmitarbeiterin Jenny Kebschull. Es könnten beispielsweise bauliche Vorsorgemaßnahmen ergriffen, Versorgungsvorräte angelegt oder Versicherungen abgeschlossen werden. Insbesondere der Verlust von Sachwerten könne durch Vorsorge und richtiges Handeln drastisch reduziert werden. Informationen von WarnApps, wie die vom Landkreis Wesermarsch genutzte KATWARN-App, können die Wetter- und Wasserstandsvorhersagen und Warnmeldungen gut ergänzen.
Insbesondere landwirtschaftliche Betriebe müssen Eigenvorsorge betreiben, um sich vor Hochwasser zu schützen. Dieser Gruppe kommt in der Wesermarsch mit 633 Rinderhaltern und über 122.000 Tieren eine besondere Bedeutung zu. Die Versorgung mit Notstrom sei für große Betriebe unabdingbar, denn ohne Strom laufen die modernen Melkmaschinen nicht und ein paar Hundert Kühe ohne moderne Technik zu versorgen sei schier unmöglich.
Die Wissenschaftler_innen und lokalen Akteure haben sowohl für alle Einwohner_innen als auch insbesondere für die Landwirte eine Handreichung zur Eigenvorsorge erarbeitet. Eine Broschüre mit allen Informationen rund um das Projekt ist ab Dezember in allen Rathäusern in der Wesermarsch und online auf der Webseite der Jade Hochschule zu finden (jade-hs.de/frames-roadmap).

Zielgruppengerechte Information der Bevölkerung – Umfrage in Butjadingen
Ein Risikobewusstsein für Hochwasser und Klimawandel ist in der Region vorhanden, ergibt eine Umfrage der Wissenschaftler_innen, an der sich 280 Einwohnerinnen und Einwohner Butjadingens beteiligt haben. Es könne jedoch bei der jüngeren Generation durch geeignete Formate noch deutlich gesteigert werden. Zielgruppengerechte Informationen zu Hochwasser und Klimawandel seien erforderlich, um das Risiko-Bewusstseins weiter zu steigern. Zu diesem Zweck veranstalteten die Projektpartner_innen unter anderem einen Hochwasserschutztag, bei dem sich rund 500 Besucher_innen informierten.
„Alle Projektpartner haben zwei Jahre lang intensiv an regionalspezifischen Lösungen im Bereich des Katastrophenschutzes gearbeitet“, sagt Landrat Thomas Brückmann. „Mein Ziel ist es, sich verändernden Anforderungen im Bereich des Katastrophenschutzes zeitnah und bedarfsgerecht zu stellen, um im Ernstfall schnell vor die Lage zu kommen.“ Auch in Anbetracht möglicher Auswirkungen des Klimawandels sei es erforderlich, den Katastrophenschutz weit nach vorne zu bringen. „Hierbei hat uns die Teilnahme an dem Projekt FRAMES wichtige Erkenntnisse gebracht.“

Über das Forschungsprojekt FRAMES
Das Projekt FRAMES (Flood Resilient Areas by Multi-layEred Safety, deutsch: Hochwasserangepasste Regionen durch Vorsorge auf mehreren Ebenen) wurde im Rahmen des Nordseeprogramms der Europäischen Union „Interreg Vb“ seit 2016 mit insgesamt 6,9 Millionen Euro gefördert. Die Jade Hochschule kooperierte mit dem Leitpartner Provincie Zuid Holland und Institutionen aus dem Nordseeraum (Niederlande, Belgien, Dänemark und Großbritannien) sowie der Universität Oldenburg und dem Oldenburgisch-Ostfriesischen-Wasserverband OOWV.

Wissenschaftliche Ansprechpartner:
Dr. Helge Bormann, 0441 7708 – 3775, helge.bormann@jade-hs.de

Quelle: IDW 

(nach oben)


Geschirr aus „Bambusware“ nicht für heiße Getränke oder Speisen nutzen

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Bewertung: Zu hohe Freisetzung von Formaldehyd und Melamin
Ob Mehrweg-„Coffee to go“ Becher oder Tassen und Schüsseln mit Tiermotiv – der Handel bietet eine Vielzahl von Geschirr aus Melamin-Formaldehyd-Harz (MFH) an, auch für Kinder. Das Material ist leicht und bruchfest. Enthält es Bambusfasern als Füllstoff, wird es häufig als „Bambusware“ beworben. „Aus gesundheitlicher Sicht sind diese Produkte jedoch nicht in jedem Fall für die Verwendung als Geschirr geeignet“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. Grund ist, dass bei höheren Temperaturen gesundheitlich bedenkliche Mengen an Melamin und Formaldehyd aus dem Geschirr in Lebensmittel übergehen können. Dies ergab die toxikologische Bewertung von Daten der Landesüberwachungsbehörden sowie eigener Daten durch das BfR. „Und die Kunststoffgegenstände sind noch aus einem weiteren Grund nicht für heiße Flüssigkeiten wie Kaffee, Tee oder Babyfolgenahrung geeignet“, so Hensel weiter. Denn neben den hohen Freisetzungsmengen an Formaldehyd und Melamin zeigten Langzeittests des BfR, dass der Kunststoff im Kontakt mit heißen Flüssigkeiten angegriffen wird. Häufig löst sich aus „Bambusware“ sogar mehr gesundheitsschädliches Formaldehyd und Melamin als aus „herkömmlichen“ Melaminharz-Bechern“, so Hensel weiter. Gesundheitliche Richtwerte waren im Einzelfall bis zu 120-fach überschritten. Für kalte oder lauwarme Lebensmittel ist Geschirr aus MFH hingegen gut geeignet. Häufig werden die „Bambusware“-Produkte beworben als umweltfreundlich, biologisch abbaubar oder ausschließlich aus nachwachsenden Rohstoffen hergestellt. Allerdings ist MFH ein Kunststoff, der nicht biologisch abbaubar ist – auch dann nicht, wenn ihm natürliche Füllstoffe zugesetzt sind.

Link zur BfR-Stellungnahme
https://www.bfr.bund.de/cm/343/gefaesse-aus-melamin-formaldehyd-harz.pdf

Link zu aktualisierten FAQ
https://www.bfr.bund.de/de/fragen_und_antworten_zu_geschirr_und_kuechenutensilie…

Bei sogenannter „Bambusware“ handelt es sich um Geschirr aus Melamin-Formaldehyd-Harz (MFH), das als Füllstoff Bambusfasern enthält.

Aus MFH-Geschirr allgemein und insbesondere aus „Bambusware“-Geschirr können sich gesundheitlich bedenkliche Mengen an Formaldehyd und Melamin lösen, wenn es mit heißen Flüssigkeiten wie Kaffee, Tee oder Säuglingsfolgenahrung gefüllt wird. Das ist das Ergebnis einer BfR-Bewertung von Daten zum Übergang von Melamin und Formaldehyd aus MFH-Geschirr in heiße flüssige Lebensmittel. Aus den „Bambusware“-Gegenständen wurden im Mittel sogar wesentlich höhere Freisetzungsmengen an Formaldehyd und Melamin gemessen als aus „herkömmlichem“ MFH-Geschirr. Zur Bewertung hat das BfR die tolerierbare tägliche Aufnahmemenge (TDI) bestimmt, bei der kein gesundheitliches Risiko zu erwarten ist. Nach Berechnungen des BfR würde die Formaldehydfreisetzung aus einigen „Bambusware“-Bechern den TDI um das 30-fache für Erwachsene und das 120-fache für Kleinkinder überschreiten. Für Erwachsene, die regelmäßig Kaffee aus solchen Mehrwegbechern trinken, oder für Kleinkinder, die täglich heiße Milch, Tee oder Folgenahrung aus „Bambusware“-Bechern, -Tassen oder -Schalen zu sich nehmen, besteht damit ein gesundheitliches Risiko.

Das BfR empfiehlt daher, keine heißen Speisen oder Getränke aus „Bambusware“ zu essen oder zu trinken. Dies gilt auch für „herkömmliches“ MFH-Geschirr. Beide Materialien sind auch nicht für das Erwärmen von Lebensmitteln in der Mikrowelle geeignet. Bei der Verwendung für kalte oder lauwarme Lebensmittel besteht hingegen kein gesundheitliches Risiko.

Das BfR hat für seine Risikobewertung Daten von Landesüberwachungsbehörden aus den Jahren 2014 bis 2019 sowie eigene Ergebnisse zur Freisetzung von Melamin bzw. Formaldehyd verwendet. Als Lebensmittelsimulanz wurde 3%ige Essigsäure genutzt. Ein Großteil der Proben wurde im Rahmen des amtlichen Monitorings von Lebensmittelbedarfsgegenständen untersucht. Insgesamt lagen Ergebnisse zur Formaldehyd-Freisetzung aus 366 Bechern, Tassen und Schalen (138 aus „herkömmlichem“ MFH und 228 aus „Bambusware“) bzw. zur Melamin-Freisetzung aus 291 Gegenständen (111 aus „herkömmlichem“ MFH und 180 aus „Bambusware“) vor.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: IDW 

(nach oben)


AWMF-Arbeitskreis diskutiert über Masernimpfpflicht und mahnt Schließung der Impflücken bei Erwachsenen an

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Eine Ausrottung von Masern ist nur möglich, wenn 95 Prozent der Bevölkerung immun ist – entweder nach durchlebter Erkrankung oder durch Impfung. In Deutschland ist dieser Wert leider noch nicht erreicht. Am 14. November 2019 hat der Deutsche Bundestag nun ein Gesetz verabschiedet, das eine Impfpflicht für Kinder beim Eintritt in den Kindergarten oder die Schule vorsieht. Ob eine Impflicht für Kinder gerechtfertigt und notwendig ist, haben Ärzte und Juristen des gleichnamigen Arbeitskreises der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) e. V. Anfang November diskutiert. Denn Impflücken bei Masern bestehen vor allem bei nach 1970 geborenen Erwachsenen.

Masernviren sind hochansteckend und verbreiten sich über eine Tröpfcheninfektion – ein Anhusten alleine reicht für eine Ansteckung aus. Noch bevor sich der typische Ausschlag mit roten Flecken zeigt, sind Erkrankte bereits etwa drei bis fünf Tage ansteckend. Eine Maserninfektion kann schwer verlaufen, Komplikationen wie beispielsweise eine Mittelohrentzündung, Lungenentzündung oder eine gefährliche Gehirnentzündung hervorrufen und Folgeerkrankungen nach sich ziehen. Zur Prävention stehen gut verträgliche hochwirksame Impfstoffe zur Verfügung, die eine langfristige Immunität vermitteln. Derzeit erfolgt die Impfung hauptsächlich mit einer gegen drei oder vier Erkrankungen gleichzeitig wirkenden Vakzine: MMR (Mumps, Masern, Röteln) beziehungsweise MMRV (zusätzlich Windpocken). Ein Maserneinzelimpfstoff ist in Deutschland aktuell nicht zugelassen.

Das Gesetz des Bundesgesundheitsministeriums sieht vor, dass alle Kinder, die das erste Lebensjahr vollendet haben und bei denen keine Kontraindikation gegen eine Masernimpfung vorliegt, beim Eintritt in eine Gemeinschaftseinrichtung (Kindertagesstätte und Schule) entweder einen ausreichenden Impfschutz gegen Masern oder eine natürlich erworbene Immunität nachweisen müssen. Für einen ausreichenden Impfschutz gegen Masern sind nach den Regelungen bis zur Vollendung des ersten Lebensjahres eine Masernimpfung und bis zur Vollendung des zweiten Lebensjahres zwei Masernimpfungen erforderlich.
Auch bei der Betreuung durch eine Tagesmutter muss ein Nachweis über die Masernimpfung oder eine Masernimmunität erfolgen. Gleiches gilt für Personen, die in Gemeinschaftseinrichtungen oder medizinischen Einrichtungen tätig sind wie medizinisches Personal, Erzieher, Lehrer und Tagespflegepersonen, wenn sie nach 1970 geboren sind.

Der Impfkalender der STIKO empfiehlt die erste Masernimpfung für Kinder im Alter von 11 bis14 Monaten und die zweite zwischen 15 bis 23 Monaten. „Während die Impfquote im Alter von zwei Jahren für die erste Impfung bei 95,6 Prozent liegt, beträgt sie für die zweite nur 73,9 Prozent“, sagt Dr. med. Martin Terhardt, Kinder- und Jugendarzt aus Berlin und STIKO-Mitglied. Die Daten zeigten somit „mangelndes zeitgerechtes Impfen“ bei Kleinkindern, vor allem für die zweite Impfung. Wenn man jedoch die Daten aus den Schuleingangsuntersuchungen betrachte, sehe die Situation schon besser aus: 97,1 Prozent haben die erste Impfung und knapp 93 Prozent die zweite Impfung erhalten. „Wir können die Masernimpfquote bei Kindern zu Schulbeginn daher als relativ gut bezeichnen“, so der Berliner Kinderarzt. Eklatante Lücken sind allerdings bei den nach 1970 geborenen Erwachsenen zu beobachten. „Die meisten Masernfälle treten inzwischen bei den nach 1970 Geborenen auf. Hier besteht ein deutlicher Nachholbedarf für die Masernimpfung“, sagt Dr. med. Jürgen Rissland, Leitender Oberarzt am Zentrum für Infektionsmedizin/Staatliche Medizinaluntersuchungsstelle am Universitätsklinikum des Saarlandes, Homburg/Saar.

Dr. med. Anne Bunte, die im Jahr 2018 als damalige Leiterin des Kölner Gesundheitsamtes eine Masernepidemie managte, bestätigt diesen Aspekt. Bei den in Köln insgesamt 139 an Masern Erkrankten waren über 60 Prozent Erwachsene. Zum Gesetz merkt die Leiterin der Abteilung Gesundheit des Kreises Gütersloh an: „Die Masern-Durchimpfungsquoten bei den Kindern machen uns weniger Sorgen. Hier eine Impfpflicht zu verankern, ist eher kontraproduktiv, denn sie kann dazu führen, dass die Bereitschaft bei den anderen ‚freiwilligen‘ Schutzimpfungen zurückgeht.“ Zudem sei mit vielen juristischen Auseinandersetzungen zu rechnen. „Die im Gesetz skizzierte Rolle des Öffentlichen Gesundheitsdienstes (ÖGD) als Kontrollinstanz oder Anbieter von Reihenimpfungen stellt die bisherige Ausrichtung als Berater der Eltern infrage“, so Bunte. Die seit Jahren zunehmend ungünstigere personelle und finanzielle Ausstattung der deutschen Gesundheitsämter stelle eine weitere Herausforderung dar.

Die Impfung gegen Masern ist wichtig, weil sie auch diejenigen schützt, die nicht geimpft werden können, wie Menschen mit Immunerkrankungen oder schwangere Frauen. Experten sprechen von „Herdenimmunität“, wenn die 95-Prozent-Quote erreicht ist. Eine gesetzliche Impfpflicht für Kinder müsse aber kritisch betrachtet werden, denn sie setze nicht da an, wo die eigentlichen Lücken sind: Bei den ungeimpften oder unvollständig gegen Masern geimpften Erwachsenen.

Die Diskutanten im AWMF-Arbeitskreis wiesen darauf hin, dass die Ärzteschaft ebenso wie Juristen den BMG-Vorstoß durchaus unterschiedlich und kritisch bewerten. Auch wurde darüber diskutiert, ob sich eine Pflicht negativ auf andere „freiwillige“ Impfungen auswirken kann. Einig waren sich die Experten, dass mehr Aufklärungsarbeit initiiert werden muss, um vor allem Erwachsene an die Impflücken zu erinnern. Instrumente für eine Verbesserung der Impfquote könnten unter anderem ein bundesweites Impfregister beziehungsweise ein Impf-Informations-System sein, in dem Impfquoten, Surveillance-Daten, KV-Leistungen und Daten zu Nebenwirkungen erfasst werden. Hilfreich wären zudem automatische Impf-Erinnerungen, verständliche Impfaufklärungsmaterialien, Argumentationshilfen für Ärzte sowie ein elektronischer Impfpass.

Die Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e. V. (AWMF) bündelt die Interessen der medizinischen Wissenschaft und trägt sie verstärkt nach außen. Sie handelt dabei im Auftrag ihrer 179 medizinisch-wissenschaftlichen Fachgesellschaften. Gegründet 1962 mit dem Ziel, gemeinsame Interessen stärker gegenüber dem Staat und der ärztlichen Selbstverwaltung zu positionieren, erarbeitet die AWMF seitdem Empfehlungen und Resolutionen und vertritt diese im wissenschaftlichen und politischen Raum. Die AWMF ist Ansprechpartner für gesundheitspolitische Entscheidungsträger, wie den Gemeinsamen Bundesausschuss, und koordiniert die Entwicklung und Aktualisierung medizinisch wissenschaftlicher Leitlinien in Deutschland. Jede gemeinnützige Fachgesellschaft in Deutschland kann Mitglied werden, sofern sie sich wissenschaftlichen Fragen der Medizin widmet. Die AWMF finanziert sich vorwiegend durch die Beiträge ihrer Mitgliedsgesellschaften und Spenden.

Pressekontakt AWMF:
Dagmar Arnold
Luisenstraße 58/59
10117 Berlin
Tel.: +49-(0)711 8931-380
arnold@medizinkommunikation.org
presse@awmf.org

AWMF-Geschäftsstelle
Dennis Makoschey
Birkenstraße 67
10559 Berlin
Tel. +49-(0)30-20097777
office@awmf.org

Weitere Informationen:
http://www.awmf.org

Quelle: IDW 

(nach oben)


Wie sich in Europa die Wasserqualität verbessern lässt / Policy Briefs bieten Handlungsempfehlungen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Giftstoffe aus Landwirtschaft, Industrie und Haushalten gefährden die Wasserqualität in Europa – und damit Ökosysteme und die menschliche Gesundheit. Im Projekt SOLUTIONS haben mehr als 100 internationale Wissenschaftler*innen über fünf Jahre Methoden und praktische Lösungen erarbeitet, mit denen Schadstoffe erkannt und das Risiko von Chemikaliencocktails bewertet werden können. Das soll dazu beitragen, die Schadstoffbelastung in Fließgewässern zu reduzieren. Wie die Politik diese wissenschaftlichen Ergebnisse umsetzen kann, haben die Forscher in 15 Policy Briefs beschrieben, die nun auch im Fachmagazin Environmental Sciences Europe veröffentlicht wurden.

Die im Jahr 2000 beschlossene EU-Wasserrahmenrichtlinie (WRRL) zielt darauf an, die Fließgewässer Europas zu schützen. Bis zum Jahr 2027 sind die EU-Mitgliedstaaten verpflichtet, alle Gewässer in einen „guten ökologischen“ und einen „guten chemischen Zustand“ zu bringen. Noch ist das ein weiter Weg. Dies liegt zum Beispiel daran, dass einige wenige Altstoffe, für die es derzeit keine geeigneten Möglichkeiten zur Belastungsminderung gibt, zu flächendeckenden Überschreitungen der Umweltqualitätsnormen in Deutschland und Europa führen – und damit zu einem schlechten Gewässerzustand. „Gleichzeitig bleiben die täglich freigesetzten komplexen Mischungen aus Pflanzenschutzmitteln, Medikamenten und Industriechemikalien mit einem nicht zu vernachlässigendem Risiko für Mensch und Umwelt für den chemischen Zustand unserer Gewässer unberücksichtigt“, sagt UFZ-Umweltchemiker Dr. Werner Brack, der das im vorigen Jahr zu Ende gegangene Projekt SOLUTIONS koordinierte. Das derzeitige Indikatorsystem der WRRL differenziere nicht zwischen unterschiedlich belasteten Flüssen und mache die tatsächlichen Verbesserungen der Wasserqualität durch Maßnahmen nicht sichtbar. Deshalb müsse es dringend weiterentwickelt werden. Anders, so Brack, seien die Ziele der WRRL nicht zu erreichen.

Fünf Jahre forschten die Wissenschaftler aus Europa in dem von der EU mit zwölf Millionen Euro finanzierten Projekt SOLUTIONS. „Es hat sich gezeigt, dass die derzeitige Praxis, sich bei der Bewertung der chemischen Belastung auf einige wenige europaweit als prioritär definierte Stoffe und einige flussgebietsspezifische Schadstoffe zu beschränken, nicht geeignet ist, die Belastung als Ganzes zu erfassen“, bilanziert Werner Brack. Derzeit sind in der WRRL nur 45 sogenannte prioritäre Schadstoffe gelistet, die in Gewässern mit guter Wasserqualität nicht oder nur in geringem Maße vorkommen. Allerdings gelangen mehr als 100.000 chemische Substanzen in Umwelt und Gewässer. Die derzeit angewendeten Indikatoren zur Bewertung der Wasserqualität ermöglichten es nicht, Brennpunkte der Belastung zu identifizieren und geeignete Managementmaßnahmen auf den Weg zu bringen. In SOLUTIONS habe man deshalb neue Konzepte und Instrumente für die Überwachung und Reduzierung der Belastung durch komplexe Gemische entwickelt.

Wie politische Entscheidungsträger diese umsetzen können, haben die SOLUTIONS-Forscher in insgesamt 15 Policy Briefs festgehalten. So empfehlen die Wissenschaftler zum Beispiel, Stoffe in toxischen Mischungen auch bei der Priorisierung von Chemikalien im Rahmen der WRRL zu berücksichtigen. Bislang basieren die Priorisierung von Chemikalien und die Festlegung EU-weiter prioritärer und flussgebietsspezifischer Stoffen nur auf einzelnen Chemikalien. In einem anderen Policy Brief beschreiben sie, wie Nutzer die in SOLUTIONS entwickelte Toolbox RiBaTox verwenden können, um Probleme bei der Überwachung, Modellierung, Folgenabschätzung und Management von chemischen Gemischen in Oberflächengewässern zu lösen. Dabei sollten Überwachungsmethoden zum Einsatz kommen, die die komplexen Mischungen ins Visier nehmen – also effektbasierte Verfahren, bei denen repräsentative Gewässerorganismen wie Algen, Kleinkrebse, Fischembryos und geeignete Zellsysteme zeigen, wie giftig der jeweilige Chemikaliencocktail ist. Damit könnten toxische Belastungen erkannt werden, selbst wenn die zugrunde liegenden Chemikalien nicht bekannt sind oder unterhalb der analytischen Nachweisgrenze liegen. Diese Methoden sollten durch chemische Screeningverfahren mit hochauflösender Massenspektrometrie ergänzt werden, um zu sehen, welche Stoffe die Mischungen enthalten und um neu auftretende Chemikalien zu entdecken und Verschmutzungstrends in den Gewässern zu verfolgen. Damit lassen sich auch wertvolle Informationen zum Vorkommen von Stoffen sammeln, die heutzutage zwar detektiert, aber noch nicht identifiziert werden können. Um diese umfangreichen Daten zu hunderten und tausenden von Stoffen im Gewässer zur Risikobewertung der Chemikaliencocktails nutzen zu können, schlagen die Autoren zudem den Aufbau einer europäischen Dateninfrastruktur vor. Diese könne helfen, die Datenmengen zu sammeln, für Wissenschaft und Behörden zugänglich zu machen, auszuwerten und auszutauschen.

„Die Policy Briefs sollen den Entscheidungsträgern den Zugang zu wissenschaftlichen Informationen erleichtern, die für den Schutz der europäischen Wasserressourcen erforderlich sind“, sagt Werner Brack. Dies sei eine wichtige Grundlage für die Gesundheit der Menschen in Europa und für gesunde Ökosysteme, die wichtige Dienstleistungen für die Bevölkerung erbringen.

Wissenschaftliche Ansprechpartner:
Dr. Werner Brack
Leiter UFZ-Department Wirkungsorientierte Analytik
werner.brack@ufz.de

Originalpublikation:
Brack (2019): Solutions for present and future emerging pollutants in land and water resources management. Policy briefs summarizing scientific project results for decision makers. Environmental Sciences Europe 2019, https://enveurope.springeropen.com/articles/10.1186/s12302-019-0252-7

Weitere Informationen:

https://www.springeropen.com/collections/solutions

Quelle: IDW 

(nach oben)


„Zu viele sterben zu jung“ – Start der Kampagne „Kenne Dein Risiko“

Davida Drescher Pressestelle
Stiftung Männergesundheit

Zu viele Männer sterben immer noch viel zu jung: 28% aller Männer noch vor ihrem 70. Lebensjahr. In der Altersgruppe zwischen 20 und 29 Jahren sind zwei Drittel aller Sterbefälle Männer, zwei Drittel aller Suizide werden von Männern begangen und zwei Drittel der Verkehrstoten sind ebenfalls männlich. Mit Veranstaltungen in ganz Deutschland und einer Kampagne auf Facebook informiert die Stiftung umfassend zum Thema Männergesundheit.

Das liegt nicht am Geschlecht: „Männer sterben viel zu früh, nicht weil sie Männer sind, sondern weil sie sich riskant verhalten“, sagt Olaf Theuerkauf, Vorstand der Stiftung Männergesundheit. „Hinzu kommt: Den meisten Männern sind ihre genetisch bedingten Risiken gar nicht bewusst. Sie wissen auch nicht, wie gefährlich anerzogene oder angewöhnte ungesunde Lebensweisen sind“.
„Kenn Dein Risiko“ – lautet deshalb das Motto der diesjährigen Kampagne. Die Stiftung Männergesundheit spricht Männer an. Sie sollen ermutigt werden, eine Bestandsaufnahme zu machen und herauszufinden, wo ihr persönliches Risiko liegt, zu erkranken.
Mit Veranstaltungen in ganz Deutschland und einer Kampagne auf Facebook informiert die Stiftung umfassend zum Thema Männergesundheit.

Auftakt der Kampagne ist der 19. November 2019 in Bautzen. Sie endet am 10. Dezember 2019, dem Tag der ungleichen Lebenserwartung.

Männer haben einen anderen Lebensstil als Frauen, sie haben aber auch eine andere gesellschaftliche Rolle. „Männer leben riskanter“, sagt Dr. Matthias Stiehler, Vorstand der Stiftung Männergesundheit. „Aber Männer wollen sich nicht selbst schaden. Hinter diesem Verhalten steckt immer der Versuch, Probleme zu lösen“.

Welche Probleme Männer haben und was sie dagegen tun können, darum geht es bei der Kampagne. Neben den klassischen Bereichen wie Ernährung und Bewegung geht es vor allem um Themen wie Burnout, die psychische Gesundheit von Jungen, Partnerschaft, aber auch Lebensqualität.

Wir laden Sie ein, über Männergesundheit zu berichten. Im Anhang finden Sie einen Terminplan der Veranstaltungen und Links zur Internetseite der Kampagne.

Als Gesprächspartner stehen Ihnen zur Verfügung:

• Prof. Dr. med. Theodor Klotz, Chefarzt an der urologische Klinik in Weiden
• Dr. Matthias Stiehler, Vorstand Stiftung Männergesundheit
• Olaf Theuerkauf, Vorstand Stiftung Männergesundheit

Kontakt:
Frau Davida Drescher
Geschäftsführerin Stiftung Männergesundheit
Claire-Waldoff-Straße 3
10117 Berlin
Email: drescher@stiftung-maennergesundheit.de
+49 30 652 126 121
oder unter: www.stiftung-maennergesundheit.de

Wissenschaftliche Ansprechpartner:
• Prof. Dr. med. Theodor Klotz, Chefarzt an der urologische Klinik in Weiden
• Dr. Matthias Stiehler, Vorstand Stiftung Männergesundheit
• Olaf Theuerkauf, Vorstand Stiftung Männergesundheit

Weitere Informationen:
http://www.tag-der-ungleichen-lebenserwartung.de
https://www.facebook.com/stiftungmaenner/

Anhang
Hintergrundtext
https://idw-online.de/de/attachment73665

Quelle: IDW 

(nach oben)


Darmkrebs-Früherkennung: Wie lange warten bis zur zweiten Darmspiegelung?

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Zur Früherkennung von Darmkrebs haben gesetzlich Krankenversicherte Anspruch auf zwei Darmspiegelungen. Verläuft die erste Untersuchung ohne Befund, wird eine Zweituntersuchung im Abstand von zehn Jahren empfohlen. Wissenschaftler im Deutschen Krebsforschungszentrum untersuchten nun systematisch, wann und wie oft bei einer Zweituntersuchung Gewebeveränderungen detektiert werden. Ihr Fazit: Die Zehnjahresfrist ist in der Regel sinnvoll. Ob und bei welchen Menschen sie eventuell noch etwas verlängert werden könnte, lässt sich anhand der Datenlage noch nicht sicher sagen.

Zur Früherkennung von Darmkrebs haben gesetzlich Krankenversicherte ab dem Alter von 50 Jahren Anspruch auf einen jährlichen Test auf verborgenes Blut im Stuhl. Die Wahrscheinlichkeit zu erkranken, steigt mit dem Alter. Daher wird Männern ab dem Alter von 50 Jahren und Frauen ab 55 Jahren eine Darmspiegelung (Koloskopie) angeboten. Sie ist zuverlässiger als der Stuhltest und Krebsvorstufen können sofort entfernt werden. Wird bei einer ersten Darmspiegelung kein auffälliger Befund entdeckt, so empfehlen die Leitlinien zur Darmkrebsprävention eine zweite Untersuchung nach einer Frist von zehn Jahren.

Dieses Zehn-Jahres-Intervall wurde bislang allerdings im Wesentlichen durch Beobachtungen der Wachstumsraten von Darmkrebs-Vorstufen oder anhand von Abgleichen mit Krebsregisterdaten ermittelt. „Was bislang fehlte, war eine systematische Untersuchung der Entdeckungsraten relevanter Befunde bei der Folgekoloskopie, um zu ermitteln, nach welchem Zeitraum zu einer Folgeuntersuchung geraten werden sollte“, sagt Hermann Brenner, Präventionsexperte am Deutschen Krebsforschungszentrum.

Sein Team führte daher nun eine so genannte Metaanalyse durch: Thomas Heisser, Erstautor der aktuellen Arbeit, fasste zusammen mit seinen Kollegen die Ergebnisse von 28 verschiedenen publizierten Einzelstudien zusammen, die ein Auftreten von Darm-Läsionen ein bis fünf Jahre (17 Studien), fünf bis zehn Jahre (16 Studien) sowie zehn und mehr Jahre (drei Studien) nach der Erstkoloskopie ermittelt hatten.

Die Wissenschaftler erfassten zunächst das Auftreten aller Arten von Darmläsionen: Bei 20,7 Prozent aller Untersuchten, deren Erstkoloskopie ein bis fünf Jahre zurücklag, wurden bei der Zweituntersuchung Läsionen entdeckt. Waren 5 bis 10 Jahre seit der Erstuntersuchung vergangen, so lag die Entdeckungsrate bei 23 Prozent, nach über zehn Jahren bei 21,9 Prozent.

Betrachteten die Wissenschaftler dagegen nur die klinisch wesentlich relevanteren fortgeschrittenen Vorstufen, so lagen die Entdeckungsraten bei 2,8 Prozent nach ein bis fünf Jahren, 3,2 Prozent nach fünf bis zehn Jahren und 7 Prozent bei über zehn Jahren.

„Die vergleichsweise hohe Rate kleinerer Gewebeveränderungen, die nur wenige Jahre nach der ersten Koloskopie gefunden wurden, lässt sich wahrscheinlich großenteils dadurch erklären, dass bei der Erstuntersuchung noch sehr kleine Veränderungen nicht entdeckt oder entfernt wurden“, sagt Hermann Brenner. „Dafür spricht auch, dass diese Rate im darauffolgenden Intervall kaum weiter ansteigt.“

Wesentlich wichtiger für die Prävention ist dagegen die Rate an fortgeschrittenen Krebsvorstufen. Sie bleibt bis zu zehn Jahre nach der Erstuntersuchung mit 2,8 Prozent und 3,2 Prozent auf einem nahezu gleichbleibend niedrigen Niveau. Das bedeutet, dass bei einer Folgekoloskopie in den ersten zehn Jahren nach einer unauffälligen Darmspiegelung nur sehr selten relevante Befunde gefunden würden. Es ist daher sinnvoll, nur in besonderen Fällen, z.B. bei erhöhtem Risiko aufgrund einer familiären Vorbelastung, zu einer früheren Folgeuntersuchung zu raten.

Für Aussagen darüber, ob bei Menschen ohne bekannte besondere Risiken die zweite Darmspiegelung möglicherweise noch weiter als zehn Jahre aufgeschoben werden kann, ist nach Ansicht der Autoren die Datenlage noch zu dünn. Hier konnten die Wissenschaftler auf nur drei Studien zugreifen. „Diese Studien schlossen auch Personen ein, deren Erstuntersuchung teilweise erheblich länger als zehn Jahre zurücklag. Um aber feststellen zu können, ob die Entdeckungsrate eventuell 12 oder 15 Jahre nach der Erstuntersuchung noch vertretbar niedrig ist – dazu sind größere Untersuchungen notwendig“, so Herrmann Brenner.

Thomas Heisser, Le Peng, Korbinian Weigl, Michael Hoffmeister, Hermann Brenner:
Outcomes at Follow-Up of a Negative Colonoscopy in the Average-Risk Population: A Systematic Review and Meta-Analysis
BMJ 2019, DOI: 10.1136/bmj.l6109

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Kommunikation und Marketing
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Thomas Heisser, Le Peng, Korbinian Weigl, Michael Hoffmeister, Hermann Brenner:
Outcomes at Follow-Up of a Negative Colonoscopy in the Average-Risk Population: A Systematic Review and Meta-Analysis
BMJ 2019, DOI: 10.1136/bmj.l6109

Quelle: IDW 

(nach oben)


Eine Millionen Euro und revolutionäre Filter für mehr Umweltschutz

Vanessa Offermann Abteilung Hochschulkommunikation
Hochschule Heilbronn

Jennifer Niessner, Professorin der Hochschule Heilbronn, wirbt eine Millionen Euro für ihr Forschungsprojekt Bionische Filter (BiFi) bei der Carl-Zeiss-Stiftung ein. Ihr Fokus liegt auf der Verbesserung von Reinigungsfiltern für Wasser und Luft. Niessner ist in der Fakultät Technische Prozesse (TP) Professorin für die Fachgebiete Technische Physik und Strömungslehre.

Heilbronn, November 2019. Saubere Luft und sauberes Wasser sind von grundlegender Bedeutung für die Gesundheit und Lebensqualität von Mensch und Tier. Filter helfen bei der Reinigung dieser lebenswichtigen Elemente. Sie säubern die durchströmende Luft, beziehungsweise das hindurchfließende Wasser und sind somit ein wichtiger Aspekt im Umweltschutz.
Oft jedoch erzielt das Filtermaterial nicht die gewünschte Leistung. Partikel bleiben zurück, die eigentlich herausgefiltert werden sollten oder das Filtermaterial erzielt das gewünschte Ergebnis nur mit einem erheblichen Energieaufwand.
Hier setzt das Forschungsprojekt Bionische Filter (BiFi) von Projektleiterin und Professorin im Studiengang Verfahrens- und Umwelttechnik, Jennifer Niessner an. Ziel des Projektes ist die Entwicklung intelligenter bionischer Filter nach dem Vorbild biologischer Funktionen.

Wie in der Natur ergibt sich in BiFi die optimale Geometrie der Filter als Antwort auf ein Optimierungsziel. So wie sich die typische Fischform im Laufe der Evolution als die Form ergeben hat, mit der sich ein Fisch mit dem geringsten Energieeinsatz fortbewegen kann, so wird in BiFi ein Optimierungsziel für die Geometrie des Filters formuliert: minimaler Energieaufwand bei maximaler Abscheideleistung. Die Geometrie des Filters passt sich also diesen Zielen an und ergibt sich aus ihnen. Eine Einschränkung, dass in den Filtergeometrien etwa nur Fasern mit kreisförmigem Querschnitt vorkommen dürfen, gibt es dadurch nun nicht mehr.

Niessner: „Wir wollen in BiFi durch einen revolutionären Ansatz Filter intelligent machen. Die optimale Geometrie stellt sich in unseren Strömungssimulationen mit Topologieoptimierung als Antwort auf das Optimierungsziel ein. Die resultierenden Geometrien sehen wie gewachsene Strukturen aus und können dank Additiver Fertigung erstmals auch hergestellt werden. Die bionischen Filter werden bessere Abscheideleistung und Energieeffizienz haben, als alle auf dem Markt verfügbaren Produkte.“ Überprüft werden die technischen Entwicklungen in drei Leitanwendungen, nämlich in einem Luftfilter, z.B. einem Pollenfilter für Innenräume, einem Mikroplastikfilter für Waschmaschinen und einer Öl-Wasser-Membran für Kraftfahrzeuge.

Das Forscher-Team
Professorin Niessner ist Spezialistin für Strömungssimulation und wird unterstützt von Professor Uwe Gleiter. Gleiter ist Spezialist für Kunststoffverarbeitung, Werkstoffe und Werkstoffprüfung im Studiengang Mechatronik und Robotik. Er kümmert sich um die Herstellung der Filterstrukturen mittels 3D-Druck. Weiterer Projektpartner ist Professor Wendelin Schramm, aus dem Studiengang Medizinische Informatik. Er lehrt Gesundheitsökonomik und Gesundheitsmanagement und behält im Projekt die Nutzenbewertung im Auge. Eng arbeitet das interdisziplinäre HHN-Forscherteam mit Dr. Jakob Barz vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik (IGB) in Stuttgart zusammen, der das Team in Fragen der Materialauswahl und Beschichtung unterstützt.
An der Hochschule Heilbronn wird im Rahmen des Projektes BiFi ein „Zentrum für Additive Fertigung poröser Strukturen“ gegründet, in dem Vertreter aus Forschung und Industrie beteiligt sein sollen. Dadurch finden die Forschungsergebnisse Eingang in die industrielle Praxis. Gefördert wird BiFi mit einer Millionen Euro durch die Carl-Zeiss-Stiftung, die sich als Partner für visionäre und exzellente Wissenschaft im Bereich der Natur- und Ingenieurwissenschaften versteht.

Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit ca. 8.400 Studierenden ist die Hochschule Heilbronn eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt auf den Bereichen Technik, Wirtschaft und Informatik. An drei Standorten in Heilbronn, Künzelsau und Schwäbisch Hall bietet die Hochschule mehr als 50 Bachelor- und Masterstudiengänge an. Die Hochschule pflegt enge Kooperationen mit Unternehmen aus der Region und ist dadurch in Lehre, Forschung und Praxis sehr stark vernetzt.

Ansprechpartnerin: Franziska Pöttgen, Forschungskommunikation,
Bildungscampus 14, 74076 Heilbronn, Telefon: 07131-504-229,
E-Mail: franziska.poettgen@hs-heilbronn.de,
Internet: http://www.hs-heilbronn.de/forschung

Pressekontakt Hochschule Heilbronn: Vanessa Offermann
Bildungscampus 14, 74076 Heilbronn Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de

Über die Carl-Zeiss-Stiftung
Die Carl-Zeiss-Stiftung hat sich zum Ziel gesetzt, Freiräume für wissenschaftliche Durchbrüche zu schaffen. Als Partner exzellenter Wissenschaft unterstützt sie sowohl Grundlagenforschung als auch anwendungsorientierte Forschung und Lehre in den MINT-Fachbereichen (Mathematik, Informatik, Naturwissenschaften und Technik). 1889 von dem Physiker und Mathematiker Ernst Abbe gegründet, ist die Carl-Zeiss-Stiftung die älteste private wissenschaftsfördernde Stiftung in Deutschland. Sie ist alleinige Eigentümerin der Carl Zeiss AG und SCHOTT AG. Ihre Projekte werden aus den Dividendenausschüttungen der beiden Stiftungsunternehmen finanziert.

Pressekontakt
Vanessa Marquardt
Telefon: 0711-162213 -16, E-Mail: vanessa.marquardt@carl-zeiss-stiftung.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jennifer Niessner, Fakultät Technische Prozesse (TP),
Professorin für die Fachgebiete Technische Physik und Strömungslehre,
Max-Planck-Str. 39, 74081 Heilbronn, Telefon: 07131-504-308,
E-Mail: jennifer.niessner@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/bifi

Quelle: IDW 

(nach oben)


Warum Beta-Blocker Hautentzündungen verursachen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Beta-Blocker werden häufig gegen Bluthochdruck und andere Herz-Kreislauf-Erkrankungen eingesetzt. Bei manchen Patienten können sie jedoch eine entzündliche Schuppenflechte auslösen oder verstärken. Wissenschaftler der Universität Bonn und der Freien Universität Berlin haben nun eine mögliche Ursache dafür gefunden. Ihre Ergebnisse sind heute in der renommierten Fachzeitschrift „Autophagy“ erschienen.

Dass Beta-Blocker schwere Hautentzündungen verursachen können, ist schon lange bekannt. Die Ursache für dieses Phänomen war allerdings bislang weitgehend unbekannt. Die aktuelle Studie bringt jedoch Licht ins Dunkel: Demnach können Beta-Blocker augenscheinlich den Abbau defekter Zellbestandteile stören. Im Gegenzug setzen die Zellen dann Botenstoffe frei, die immunvermittelte entzündliche Reaktionen auslösen.

In diese Richtungen deuten zumindest Experimente mit Zellkulturen. Die Wissenschaftler hatten dabei einen Wirkstoff namens Propranolol unter die Lupe genommen. Unabhängig vom eigentlichen Wirkmechanismus, der Blockade von Betarezeptoren, verdankt er seine entzündungsfördernden Nebenwirkungen vermutlich der Kombination zweier Eigenschaften: „Propranolol ist fettlöslich und zugleich leicht alkalisch“, erklärt Prof. Dr. Günther Weindl vom Pharmazeutischen Institut der Universität Bonn.

„Gelber Sack“ in der Zelle
Dank seiner Fettlöslichkeit kann der Wirkstoff Biomembranen durchqueren – das sind dünne fettähnliche Häutchen, die Zellen und manche ihrer Bestandteile umschließen. Der zweite Punkt sorgt dagegen dafür, dass Propranolol sich in saurer Umgebung positiv auflädt. In diesem Zustand kann die Substanz dann nicht mehr durch die Membran zurück.

Problematisch wird diese Kombination bei einem Vorgang, den Experten Autophagie nennen. Dabei nutzen Zellen Bläschen aus Biomembranen als eine Art „Gelben Sack“, in dem sie defekte Proteine und andere Zellbestandteile verpacken. Der Sack verschmilzt dann später mit einem zweiten Membran-Beutel, dem Lysosom. Dieses enthält zersetzende Enzyme, die den Inhalt des gelben Sacks zerlegen und die einzelnen Bausteine wieder in die Zelle abgeben – ein perfektes Recycling.

Die Flüssigkeit im Lysosom ist leicht sauer, denn nur in diesem Milieu können die Enzyme ihre Arbeit verrichten. Wenn daher ein Propranolol-Molekül per Zufall seinen Weg durch die Membran in den Beutel findet, wird es positiv geladen und sitzt in der Falle. Mit der Zeit sorgt dieser Effekt dafür, dass sich immer mehr Propranolol im Lysosom anhäuft. „Und dieser Prozess stört augenscheinlich die Autophagie“, sagt Weindl. „Das wiederum verändert eine Reihe von Prozessen in der Zelle. Als ein Resultat schüttet sie unter anderem Entzündungsbotenstoffe aus, vor allem das so genannte Interleukin-23, das hauptsächlich von Immunzellen abgesondert wird. Folge davon sind die beobachteten Hautprobleme.“

Nicht alle Beta-Blocker sind problematisch
Wie diese Prozesse auf molekularer Ebene genau zusammenhängen, wollen die Forscher nun weiter untersuchen. Schon jetzt deuten ihre Ergebnisse aber darauf hin, dass die entzündlichen Effekte vor allem bei fettlöslichen Beta-Blockern auftreten. Tatsächlich gibt es in dieser Wirkstoffgruppe auch Substanzen, die weniger gut membrangängig sind. „Wir haben sie in unseren Zellkulturen getestet“, betont der Pharmakologe. „Die Interleukin-23-Ausschüttung war bei ihnen deutlich geringer als nach Propranolol-Gabe.“

Diese Ergebnisse müssen aber noch bei lebenden Organismen verifiziert werden. Dass eine gestörte Autophagie schwere Erkrankungen auslösen kann, ist dagegen schon seit längerem bekannt. Darunter sind etwa Demenz, entzündliche Darmerkrankungen und Diabetes.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Günther Weindl
Pharmazeutisches Institut der Universität Bonn
Tel. 0228/739103
E-Mail: g.weindl@uni-bonn.de

Originalpublikation:
Gerrit Müller, Charlotte Lübow und Günther Weindl: Lysosomotropic beta blockers induce oxidative stress and IL23A production in Langerhans cells. Autophagy DOI: 10.1080/15548627.2019.1686728

Quelle: IDW 

(nach oben)


Grüngut? Doppelt gut fürs Klima!

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Das Projekt Grün-OPTI befasst sich mit der Optimierung der stofflich-energetischen Verwertung von Grüngut in Deutschland.

Das Projekt Grün-OPTI (FKZ-Nr.: 03KB107) des Witzenhausen-Instituts nahm sich diesem Thema etwas genauer an und thematisierte die bislang unzureichende Ausschöpfung der Potenziale von Grüngut für eine hochwertige Verwertung als Brennstoff und Kompost. Denn wie die präsentierten Projektergebnisse zeigen, steckt die Nutzung von Reststoffen aus der Garten- und Landschaftspflege noch weit hinter ihrem eigentlichen Potenzial. Zwar trennen laut einer Befragung des Witzenhausen-Instituts gut 75 Prozent der beteiligten 175 Grüngut-Kompostierungsanlagen holzige Materialien vom Grüngut und nutzen diese als Brennstoff, statt sie in die Kompostierung zu geben. Dennoch ist der Anteil des als Brennstofffraktion eingebrachten Grünguts mit 18 Prozent relativ niedrig und könnte nach Berechnungen des Forschungsinstituts auf 30 Prozent gesteigert werden.

Für ihre Analysen holten sich die Forschenden Unterstützung aus drei Praxisbetrieben. Gemeinsam bestimmten sie Faktoren, die die Menge an abgegebenen Abfällen bei Grüngut-Entsorgern beeinflussen. Aus den dabei abgeleiteten Erfolgskriterien für die Wertschöpfungskette „holziges Grüngut“ entwickelten die Forscher aus Witzenhausen praktische Handlungsempfehlungen für Entsorgungsträger.

Vor allem der Komfort und Service bei der Sammlung von Gartenabfall sollte verbessert werden, damit der Anreiz für die Abgabe von Garten- und Landschaftspflegeabfällen erhöht wird. Aussichtsreiche Möglichkeiten wären eine kostenfreie Einsammlung des Grünguts oder gut erreichbare, kostenfreie Sammelstellen mit praktischen Öffnungszeiten.

Ein nicht zu vernachlässigender Effekt der optimierten stofflich-energetischen Verwertung von Grüngut ist zudem die hohe Einsparung an Treibhausgasen: Denn durch die Erzeugung von Kompost und regenerativer Energie ließen sich bei den derzeit pro Jahr erfassten Mengen von 4,9 Millionen Tonnen Grüngut etwa 3,3 Millionen Tonnen CO2 einsparen.

„Grün-OPTI“ ist ein Vorhaben des BMWi-Förderbereichs „Energetische Biomassenutzung“.

Wissenschaftliche Ansprechpartner:
Witzenhausen-Institut für Abfall, Umwelt und Energie GmbH
Werner-Eisenberg-Weg 1
37213 Witzenhausen

Thomas Raussen – Projektleiter
Telefon: +49 (0)5542 9380-15
E-Mail: t.raussen@witzenhausen-institut.de

BEGLEITVORHABEN
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0)341 2434-554
E-Mail: diana.pfeiffer@dbfz.de

Bianca Stur – Öffentlichkeitsarbeit
Telefon: +49 (0)341 2434-582
E-Mail: bianca.stur@dbfz.de

Weitere Informationen:
https://www.energetische-biomassenutzung.de/projekte-partner/details/project/sho… Erfahren Sie mehr im Projektsteckbrief und Endbericht von Grün-OPTI
https://www.energetische-biomassenutzung.de/startseite/

Anhang
Pressemitteilung Grün-OPTI
https://idw-online.de/de/attachment73600

Quelle: IDW 

(nach oben)


Gesellschaftlicher Lebensstil als Ursache für Adipositas bei Kindern | Neue S3-Leitlinie fordert präventive Maßnahmen

Nina Schnürer Unternehmenskommunikation
Universitätsklinikum Ulm

Egal ob Säuglinge, Kleinkinder oder Jugendliche – die Zahl der Minderjährigen, die von Übergewicht betroffen sind, hat in den letzten Jahrzehnten deutlich zugenommen. Eine neue S3-Leitlinie zeigt nun: die Ursachen für Adipositas finden sich vor allem im Lebensstil unserer Gesellschaft. Die an der Erstellung der Leitlinie beteiligten Wissenschaftler*innen fordern daher, im Kampf gegen die Pfunde vermehrt auf verhältnispräventive statt auf verhaltenspräventive Maßnahmen zu setzen. Federführend wurde die Leitlinie von Prof. Dr. Martin Wabitsch zusammen mit Dr. Anja Moss geschrieben. Prof. Wabitsch leitet die Sektion Pädiatrische Endokrinologie und Diabetologie des Universitätsklinikums Ulm.

Die evidenzbasierte S3-Leitlinie „Therapie und Prävention der Adipositas im Kindes- und Jugendalter“ wurde gemeinsam von 40 Expert*innen aus 16 medizinisch-wissenschaftlichen Fachgesellschaften, Berufsverbänden und weiteren Organisationen erarbeitet. Sie zeigt: weder übergewichtigen Kindern und Jugendlichen selbst noch ihren Eltern kann die Schuld an einer Adipositas gegeben werden. Vielmehr führen die sogenannten „adipogenen“ Lebensbedingungen in Konsum- und Wohlstandsgesellschaften zu einem Anstieg an extremem Übergewicht junger Menschen. „Adipositas bei Kindern und Jugendlichen ist das Ergebnis des Lebensstils unserer Gesellschaft und entwickelt sich auf der Basis einer biologischen Anlage“, erklärt Prof. Dr. Martin Wabitsch. „Beides ist durch das Individuum nur begrenzt beeinflussbar. Um Übergewicht in dieser Altersgruppe in Zukunft zu verhindern, müssen Gesellschaft und Politik sich dafür einsetzen, den aktuellen Lebensstil zu ändern. Eine wichtige Maßnahme wäre beispielsweise, den Zuckergehalt in unseren Lebensmitteln – vor allem in Getränken – zu reduzieren.“ Die derzeitigen Maßnahmen gegen Adipositas seien unzureichend und teilweise unpassend, da sie in erster Linie am Verhalten der Betroffenen und nicht an deren Lebensbedingungen ansetzten.
Neben tiefgreifenden Änderungen auf Bevölkerungsebene fordert die Leitlinie außerdem eine Ausweitung des ambulanten Therapieangebots. Hierbei sollten Bewegungs-, Ernährungs- und Verhaltenstherapien kombiniert werden. „Wir empfehlen, junge Patientinnen und Patienten gemeinsam mit ihren Familien ambulant in ihrem gewohnten Umfeld zu betreuen“, sagt Prof. Dr. Martin Wabitsch. „Hierfür ist es aber notwendig, mehr Therapieplätze und Schulungsangebote zu schaffen, die bisher leider fehlen. Um mehr Angebote zu schaffen, sind wir vor allem auf die Unterstützung der Krankenkassen angewiesen.“ Besonders die Schulung von Kindern im Grundschulalter zeige positive Effekte. Für ältere Jugendliche, die unter extremer Adipositas leiden, müssten laut der Leitlinie jedoch neue Therapiekonzepte geschaffen werden, da bei ihnen die Erfolgsrate deutlich niedriger liege.
Eine entscheidende Rolle bei der Früherkennung und Behandlung von Übergewicht in jungen Jahren sprechen die Wissenschaftler*innen außerdem Haus- und Kinderärzt*innen zu. Deshalb sollte das Thema schon in der Ausbildung angehender Ärztinnen und Ärzte einen hohen Stellenwert einnehmen. „Ziel unserer Leitlinie ist es nicht nur, das Bewusstsein für das Gesundheitsproblem Adipositas zu stärken. Wir wollen auch eine orientierende Hilfe für alle im Gesundheitswesen und der Gesundheitspolitik Tätigen geben und Informationen zur Therapie und Prävention der Adipositas bereitstellen“, betont Prof. Dr. Martin Wabitsch.

Die Sektion Pädiatrische Endokrinologie und Diabetologie am Universitätsklinikum Ulm bietet ein intensives, ambulantes Schulungsprogramm für betroffene Kinder und deren Familien an. Die Kosten werden von den Krankenkassen übernommen.

LINK: Evidenzbasierte (S3-) Leitlinie der Arbeitsgemeinschaft Adipositas im Kindes- und Jugendalter (AGA, AWMF-Nr. 050-002) „Therapie und Prävention der Adipositas im Kindes- und Jugendalter“

Quelle: IDW 

(nach oben)


Ein neues Puzzleteil im globalen Kohlenstoffzyklus

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie

Mikrobiologinnen und -biologen der Max-Planck-Institute für terrestrische Mikrobiologie in Marburg und für marine Mikrobiologie in Bremen haben einen Stoffwechselweg entdeckt, der eine wichtige Rolle beim mikrobiellen Abbau der Algenbiomasse im Ozean spielt. Die Aufklärung der genauen Abläufe auf molekularer Ebene bis hin zum Nachweis der weltweiten Verbreitung liefern wertvolle Informationen für künftige Berechnungen der Kohlendioxid-Bilanz der Weltmeere.

Von Charles Darwin ist überliefert, dass er im „klaren blauen Wasser“ des Ozeans etwas vermutete, das noch kleiner sei als die Protozoen, die er im Mikroskop erkennen konnte. „Heute wissen wir, dass jeder Liter Ozeanwasser von Hunderten von Millionen Mikroorganismen wimmelt“, erklärt der Meeresforscher Rudolf Amann, Direktor am Max-Planck-Institut für marine Mikrobiologie in Bremen. Sein Kollege Tobias Erb vom Schwesterinstitut in Marburg ergänzt: „Obwohl sie selbst nur Mikrometer klein sind, bestimmen sie durch ihre schiere Anzahl und ihre hohe Stoffwechselrate maßgeblich den Energiefluss und den Umsatz von Biomasse in den Weltmeeren.“

Während einzellige Algen, auch bekannt als Phytoplankton, CO2 in Biomasse umwandeln, kommen andere Mikroorganismen vor allem dann zum Zuge, wenn die Algen den fixierten Kohlenstoff ausscheiden oder – manchmal schlagartig, wie nach der sogenannten Algenblüte – absterben. Noch im Oberflächenwasser verarbeiten die Einzeller viele Tausend Tonnen der Algen-Biomasse: ein zentraler Prozess im marinen Lebenszyklus. Eine der wichtigsten Verbindungen im Ozean ist dabei die Glycolsäure, ein direktes Nebenprodukt der Fotosynthese. Diese wird von marinen Bakterien teilweise wieder in CO2 zurückverwandelt. Doch hier wurde das Bild bislang unscharf: das genaue Schicksal des Kohlenstoffs in der Glycolsäure war nicht bekannt.

Um sinnvoll einschätzen zu können, wie es um den weltweiten Kohlenstoffkreislauf steht, darf die Gleichung aber nicht zu viele Unbekannte haben. Um die Konsequenzen auf globaler Ebene und für den Klimawandel zu verstehen, ist eine genaue Kenntnis des bakteriellen Abbaus der Algen-Biomasse unabdingbar. Dazu brauchen wir jedoch Grundlagenforschung zu Lokalisierung, Rate und Umfang der Nährstoffnetze im Ozean. Was geschieht also mit dem Kohlenstoff der Glycolsäure, bei dem es global immerhin um Stoffmengen im Bereich von einer Milliarde Tonnen pro Jahr geht?

Der vergessene Stoffwechselweg
Nicht immer müssen Forscherinnen und Forscher ganz von vorne beginnen. Manchmal gibt es bereits bekannte Puzzleteile, sie müssen nur erkannt und an die richtige Stelle gelegt werden. Ein solches Teil ist der β-Hydroxyaspartat-Zyklus, der vor mehr als 50 Jahren in dem Bodenbakterium Paracoccus entdeckt wurde. Damals erfuhr der Stoffwechselweg wenig Aufmerksamkeit, seine genauen biochemischen Abläufe blieben unerforscht. Lennart Schada von Borzyskowski, Erstautor der Publikation, ist Postdoktorand in der Abteilung von Tobias Erb am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg. Er stieß im Rahmen von Literaturrecherchen auf diesen Stoffwechselweg. „Beim Betrachten des Weges fiel mir auf, dass er effizienter sein müsste als der bisher für den Abbau der Glycolsäure angenommene Prozess, und ich fragte mich, ob dieser Stoffwechselweg nicht vielleicht mehr Bedeutung besitzen könnte, als ursprünglich angenommen“, berichtet der Wissenschaftler.

Ausgestattet mit einer einzelnen Gensequenz stieß er in Datenbanken auf ein Cluster aus insgesamt vier Genen, die die Bauanleitung für vier Enzyme liefern. In Kombination miteinander waren drei der Enzyme ausreichend, um eine aus der Glycolsäure abgeleitete Verbindung weiter umzusetzen. Doch wofür war das vierte Enzym zuständig? Als Schada von Borzyskowski dieses Enzym im Labor testete, entdeckte er, dass es eine bisher unbekannte Reaktion katalysiert, eine sogenannte Iminreduktion. Durch diese vierte Reaktion schließt sich der Stoffwechselweg zu einem eleganten Kreislauf, durch den der Kohlenstoff der Glycolsäure ohne Verlust von CO2 zirkuliert werden kann.

Weltweit verbreitet, ökologisch bedeutsam
In Zusammenarbeit mit weiteren Wissenschaftlerinnen und Wissenschaftlern der Universität Marburg gelang es, den Glycolsäure-Stoffwechsel und seine Regulation in den lebenden Mikroorganismen zu studieren. „Nun ging es darum, das Vorkommen und die Aktivität dieser Gene im marinen Lebensraum und ihre ökologische Bedeutung nachzuweisen,“ erläutert Tobias Erb. Hierfür erwies sich die Zusammenarbeit der Marburger Biochemiker mit den Meeresforscherinnen und -forschern des Bremer Max-Planck-Instituts als besonders fruchtbar, denn diese untersuchen bereits seit Jahren die marinen Lebensgemeinschaften bei Helgoland, insbesondere die Bakterienpopulationen während und nach Algenblüten. In mehreren Exkursionen auf hoher See maßen die Marburger und Bremer die Bildung und den Verbrauch von Glycolsäure während der Algenblüte im Frühjahr 2018. Und tatsächlich: Der Stoffwechselzyklus war aktiv am Stoffwechsel der Glycolsäure beteiligt.

Auch in den bakteriellen Genomsequenzen, welche die TARA Oceans-Expedition in über 10.000 Kilometern Wegstrecke auf den Weltmeeren sammelte, fanden sich immer wieder die Baupläne des Stoffwechselzyklus, und zwar im Durchschnitt 20-mal häufiger als alle anderen postulierten Abbaurouten für Glycolsäure. Der wiederentdeckte Stoffwechselweg fristet also kein Nischendasein, sondern ist im Gegenteil weit verbreitet. Diese neuen Erkenntnisse erstaunen Rudolf Amann immer noch: „Die Entdeckung der Marburger Kolleginnen und Kollegen stellt unser bisheriges Verständnis zum Schicksal der Glycolsäure auf den Kopf. Unsere Daten zeigen, dass wir den Kreislauf von Milliarden Tonnen Kohlenstoff in den Weltmeeren neu bewerten müssen.“ Tobias Erb schließt daran an: „Diese Arbeit macht uns bewusst, welche globalen Ausmaße der Stoffwechsel von Mikroorganismen annehmen kann, und zeigt uns gleichzeitig, wieviel hier noch gemeinsam zu entdecken ist.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Erb
Max-Planck-Institut für terrestrische Mikrobiologie, Marburg
Telefon: +49 6421 178 700
E-Mail: toerb@mpi-marburg.mpg.de

Prof. Dr. Rudolf Amann
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-930
E-Mail: ra­mann@mpi-bre­men.de

Originalpublikation:
Schada von Borzyskowski, L., Severi, F., Krüger, K., Hermann, L., Gilardet, A., Sippel, F., Pommerenke, B., Claus, P., Socorro Cortina, N., Glatter, T., Zauner, S., Zarzycki, J., Fuchs, B.M., Bremer, E., Maier, U.G., Amann, R.I., Erb, T.J.: Marine Proteobacteria metabolise glycolate via the β-hydroxyaspartate cycle. Nature Vol. 575, November 2019.
DOI 10.1038/s41586-019-1748-4

Weitere Informationen:

https://www.mpi-bremen.de/Page3912.html (enthält ein kurzes Erklärvideo zur Veröffentlichung)

Quelle: IDW 

(nach oben)


Ostsee am Scheideweg? Zukunftsszenarien zum kombinierten Effekt von Klimawandel und Nährstoffbelastung

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Kann effektives Meeresmanagement Klimawandelfolgen so mildern, dass die Ostsee wieder einen guten ökologischen Zustand erreicht? Lassen sich zukünftige Beeinträchtigungen des Tourismus durch Rekord-Blaualgenblüten und andere Extremereignisse abwehren? Ein Team um Meeresphysiker Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) präsentiert jetzt eine Studie, in der verschiedene Treibhausgas- und Nährstoffbelastungsszenarien bis 2100 modelliert wurden. Nur in dem optimistischsten Szenario – Nährstoffreduktion durch eine perfekte Umsetzung des Ostsee-Aktionsplans – wird ein guter Umweltzustand erreicht und Extrem-Algenblüten trotz gehäufter Hitzewetterlagen vermieden.

Zu hohe Nährstoffeinträge sind ein großes ökologisches Problem für die Ostsee. Die Folge: Übermäßiges Phytoplanktonwachstum – insbesondere sommerliche Blaualgenblüten. Absterbende Algenblüten wiederum fördern Sauerstoffmangel im Tiefenwasser, wo nur spezielle Bakterien existieren können, nicht aber höheres Leben wie Muscheln oder Fische. Obwohl sich alle Anrainerstaaten bereits vor über 10 Jahren im Rahmen des Ostsee-Aktionsplanes (BSAP, kurz für „Baltic Sea Action Plan“) auf klar definierte Nährstoff-reduktionsziele einigten, ist die Umsetzung schleppend, und der im BSAP definierte „gute ökologische Zustand“ der Ostsee wird nicht, wie angestrebt, 2021 erreicht. Auch mehren sich Studien, die davon ausgehen, dass der Klimawandel die Überdüngungsproblematik verschärft.

Ein wichtiger Grund, den guten ökologischen Zustand zu erreichen, ist der hohe Freizeitwert der Ostsee – nicht zuletzt, weil Tourismus für die Wirtschaft in der gesamten Ostsee-Region von großer Bedeutung ist. Ob Erholungssuchende ihren Besuch am Meer attraktiv finden, wird meist nicht durch mittlere Temperaturen oder davon bestimmt, wie es um das Ökosystem Ostsee im Allgemeinen bestellt ist (was mit Hilfe von BSAP-Indikatoren gemessen wird, die einen mittleren Umweltzustand abbilden). Vielmehr sind es Extremereignisse, z.B. lang anhaltende extreme Hitzewetterlagen oder ausgedehnte Teppiche giftiger oder stinkender Algen in Strandnähe. „Bei Zukunftsanalysen von Klimawandelfolgen für die Ostsee wurden derartige Extremereignisse bislang nicht berücksichtigt“, sagt Markus Meier, Klimaexperte am IOW und Leiter der Studie, die jetzt im renommierten Fachjournal „Ambio“ publiziert wurde. „Im Fokus unserer Modellierungen bis zum Ende des 21. Jahrhunderts standen also folgende Fragen: Kann die Ostsee einen guten ökologische Zustand überhaupt noch erreichen? Wenn ja, wann und unter welchen Bedingungen? Und erstmals auch: Wie verändert sich die Wahrscheinlichkeit für Extremereignisse, wie sie u.a. für die Entwicklung der Freizeit- und Tourismuswirtschaft relevant sind?“, so Meier weiter.

Das Forscherteam simulierte verschiedene Zukunftsszenarien, in denen sie drei Nährstoff-Belastungsszenarien (1. perfekte Umsetzung der BSAP-Ziele, 2. Weiterführung des Ist-Zustandes, 3. Worst-Case-Szenario mit steigender Belastung durch wachsende Bevölkerungszahlen) jeweils mit einem von zwei Treibhausgas-Belastungsszenarien (mittlere und hohe Belastung) koppelten. Analysiert wurde dabei die Entwicklung klassischer BSAP-Indikatoren, wie Sichttiefe, Nährstoffkonzentrationen und Sauerstoffmangel im Tiefenwasser. Indikatoren für Extremereignisse waren unter anderem das Auftreten sommerlicher Hitzewellen (ausgedrückt als Anzahl aufeinanderfolgender „tropischer Nächte“ wärmer als 20 °C) sowie dadurch bedingte dauerhaft hohe Oberflächenwasser-Temperaturen (über 18 °C) und Rekord-Blaualgenblüten (Anzahl der Algenblütentage pro Jahr, die jeweils höher sein muss als alle davor beobachteten). Um anhand bereits gemessener Werte die Aussagekraft der Modellierungsergebnisse einschätzen zu können, deckte der Simulationszeitraum die Jahre 1975 bis 2100 ab.

„Die Ostseeregion wird sich nach unseren Szenario-Berechnungen durch den Klimawandel deutlich verändern“, erläutert Markus Meier die Ergebnisse. „Je nachdem, welches Klimaszenario wir zugrunde legen, wird es im Hochsommer 2 – 4 °C wärmer. Für den Zeitraum 2070-2100 wird man bei hohen Treibhausgaskonzentrationen fast im gesamten Ostseebereich mit sommerlichen, durch tropische Nächte gekennzeichnete Hitzewellen rechnen müssen, die im Schnitt 2 – 3 Wochen dauern und im Extremfall sogar bis zu zwei Monate ununterbrochen anhalten.“ Diese Veränderungen spiegelten sich auch in den Wassertemperaturen wieder, so Meier weiter. So werde die Ostsee zum Ende des Jahrhunderts an der Oberfläche im Mittel um 2 – 3 °C wärmer sein und sommerliche Oberflächenwassertemperaturen über 18 °C könnten bis zu einem Monat länger auftreten als heute. „Am Beispiel von Warnemünde zeigen die Modelle schon für die nahe Zukunft bis 2050, dass im Vergleich zum heutigen Klima im Sommer deutlich häufiger neue Rekord-Wassertemperaturen an der Oberfläche auftreten werden: Je nach Szenario ist dies 200 – 400 % häufiger, als erwartet“, hebt der Meeresphysiker hervor.

Was auf den ersten Blick wie ein Plus für Ostseebesucher aussieht – zahlreiche ‚tropische Nächte‘, hohe Badetemperaturen über viele Wochen – gehört jedoch zu den Extremereignissen, die eine Beeinträchtigung des Tourismus zunehmend wahrscheinlich machen. Zum einen fördern derartige Bedingungen generell die Entwicklung von Blaualgenblüten. Markus Meier: „Rekord-Blaualgenblüten werden unseren Berechnungen zufolge zwar in allen Szenarien nach 2025 zunächst seltener, aber nur wenn eine Nährstoffreduktion strickt nach BSAP umgesetzt wird, bleiben sie dauerhaft aus.“ Und auch nur dann würden die im Rahmen des BSAP gesteckten Umweltziele – z. B. in Bezug auf Sichttiefe und Sauerstoffmangel im Tiefenwasser – noch vor 2100 für alle Teile der Ostsee erreicht.

„Machen wir dagegen weiter wie bisher oder erhöht sich die Nährstoffbelastung sogar bei hohen Treibhausgaskonzentrationen, ist die Wahrscheinlichkeit für Extremblaualgenblüten zum Ende des Jahrhunderts um 1000 % erhöht im Vergleich zum heutigen Klima. Und erreichen wir die BSAP-Umweltziele nicht, muss man mit zahlreichen weiteren negativen Folgen im Ökosystem Ostsee rechnen“, betont Meier. Außerdem sei aus Studien in anderen, vom Klima her eigentlich gemäßigten Regionen bekannt, dass extreme Hitzeereignisse und gehäufte Hitzewellen das Krankheits- und Sterblichkeitsrisiko signifikant erhöhen. „Bei uns an der Ostsee könnte dies z. B. bedeuten, dass Infektionen mit den lebensgefährlichen, Sepsis verursachenden Vibrio-Bakterien gehäuft auftreten“, erläutert Markus Meier.

„Die Ostsee steht am Scheideweg. Das ist kritisch, bedeutet aber auch, dass wir es immer noch in der Hand haben, wohin sie steuert. Über ein stringentes Meeresmanagement, für das es klare Vorgaben im BSAP gibt, und auch – selbst wenn dies schwieriger ist – über verstärke Klimaschutz-Anstrengungen können wir die Ostsee dauerhaft als Lebensraum und Reiseziel attraktiv halten“, kommentiert Markus Meier die Studienergebnisse abschließend.

Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Meier | Leiter IOW-Sektion Physikalische Ozeanographie und Messtechnik
Tel: 0381 – 5197 150 | markus.meier@io-warnemuende.de

Originalpublikation:

H.E. Markus Meier, Christian Dieterich, Kari Eilola, Matthias Gröger, Anders Höglund, Hagen Radtke, Sofia Saraiva, Iréne Wåhlström (2019). Future projections of record-breaking sea surface temperature and cyanobacteria bloom events in the Baltic Sea. Ambio, https://doi.org/10.1007/s13280-019-01235-5

Quelle: IDW 

(nach oben)


Haben Fußballprofis ein erhöhtes Demenzrisiko?

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Eine aktuell im „The New England Journal“ publizierte retrospektive Kohortenstudie [1] untersuchte die durch neurogenerative Erkrankungen verursachte Sterblichkeitsrate bei ehemaligen Fußballprofis. Im Vergleich zur nicht-fußballspielenden Kontrollgruppe waren bei den Fußballern signifikant häufiger Fälle von Morbus Alzheimer, Parkinson sowie anderen Demenzerkrankungen aufgetreten. Die kardiovaskuläre Sterblichkeit war bei den Fußballern jedoch geringer. Die Studie wirft zahlreiche Fragen auf: Gibt es tatsächlich einen kausalen Zusammenhang? Und was könnte ein solches erhöhtes Risiko medizinisch erklären?

In der retrospektiven Kohortenstudie waren 7.676 ehemalige Fußballprofis aus Schottland mit über 23.000 Menschen aus der Allgemeinbevölkerung in Hinblick auf Alter, Geschlecht und sozialen Status gematcht und beobachtet worden. Bei denen, die während der Studie verstarben, wurden die Todesursachen erhoben und ausgewertet. In median 18 Jahren verstarben 1.180 ehemalige Fußballprofis (15,4%) und 3.807 Menschen aus der Kontrollgruppe (16,5%) – und der Vergleich zeigte interessante Ergebnisse:

Die Gesamtmortalität war in der „Fußballergruppe“ bis zum 70. Lebensjahr geringer, dann aber in der Altersgruppe über 70 Jahren höher als in der Kontrollgruppe. Die ehemaligen Fußballprofis wiesen eine signifikant geringere Sterblichkeit an ischämischen Herzerkrankungen (p=0,02) auf als die „Nicht-Fußballer“, auch waren bei ihnen weniger an Lungenkrebs (p<0,001) verstorben. Einen deutlichen Unterschied gab es aber im Hinblick auf neurodegenerative Erkrankungen wie Morbus Parkinson, Motorneuronerkrankungen, Morbus Alzheimer und anderen Demenzerkrankungen. Auffällig war, dass die Rate der durch diese Erkrankungen verursachten Todesfälle in der „Fußball-Gruppe“ signifikant höher war. Insgesamt war bei 1,7% der ehemaligen Fußballer eine neurodegenerative Hauptdiagnose auf dem Totenschein vermerkt worden, aber nur bei 0,5% der Kontrollgruppe (p<0,001). Besonders häufig war bei den ehemaligen Fußballprofis der Morbus Alzheimer diagnostiziert worden: So gab es in der Fußballergruppe 64 Alzheimer-bedingte Todesfälle (0,8%), in der viel größeren Vergleichsgruppe insgesamt nur 47 (0,2%), – die Rate war also um den Faktor 4 höher. Zu diesem Ergebnis passte, dass auch mehr Studienteilnehmer in der „Fußballer-Gruppe“ Demenzmedikamente einnahmen als in der Kontrollgruppe. Interessanterweise gab es keinen Unterschied im Hinblick auf die neurodegenerative Mortalität zwischen Feldspielern und Torhütern, wohl aber hinsichtlich der Medikation: Feldspielern waren häufiger als Torhütern Demenzmedikamente verschrieben worden.

Die Studie wirft verschiedene Fragen auf. Die geringere Gesamtmortalität bei den Fußballern in jüngeren Jahren und die geringere Rate an ischämischen Herzerkrankungen führen die Autoren auf den protektiven Effekt des Sports auf das Herz-Kreislauf-System zurück. Sie bieten allerdings keine Erklärung für die höheren Raten an neurodegenerativen Erkrankungen an. „Es kann spekuliert werden, ob Kopfbälle und Schädel-Hirntraumen zu einem höheren Risiko an neurodegenerativen Erkrankungen führen können, das wurde in der Vergangenheit immer wieder diskutiert“, erklärt Prof. Dr. med. Hans-Christoph Diener, Pressesprecher der DGN. Ähnliche Ergebnisse gibt es für Footballspieler in den USA [2]. Anhand neuropathologischer Befunde wurde die Chronische traumatische Enzephalopathie (CTE) infolge von wiederholten leichten Kopfverletzungen bei verschiedenen Sportarten (Boxen, American Football, Australian Football, Rugby, Fußball, Eishockey) beschrieben. Interessant ist, dass bei der CTE eine Tauopathie gefunden wird wie bei neurodegenerativen Erkrankungen [3]“, betont Peter Berlit, Generalsekretär der DGN. „Selbstverständlich kann die hier vorliegende retrospektive Erhebung generell keine kausalen Beziehungen nachweisen und wir sollten mit der Interpretation dieser Daten vorsichtig sein.“

Auch die Studienautoren fordern, die Fragestellung prospektiv zu untersuchen. Sie betonen, dass die vorliegende retrospektive Studie mögliche methodische Mängel aufweist, die das Matching betreffen. Auch heben sie hervor, dass die Ergebnisse keinesfalls auf Amateurfußballer übertragen werden können.

Literatur
[1] Mackay DF, Russell E, Stewart E et al. Neurogenerative disease mortality among former professional soccer players. NEJM 2019; Oct 21. doi: 10.1056/NEJMoa1908483.
[2] Mez J, Daneshvar DH, Kiernan PT, et al. Clinicopathological Evaluation of Chronic Traumatic Encephalopathy in Players of American Football. JAMA. 2017;318(4):360-370. doi:10.1001/jama.2017.8334
[3] Kulbe JR, Hall ED. Chronic traumatic encephalopathy-integration of canonical traumatic brain injury secondary injury mechanisms with tau pathology. Prog Neurobiol. 2017 Nov;158:15-44. doi: 10.1016/j.pneurobio.2017.08.003. Epub 2017 Aug 26.

Pressestelle der Deutschen Gesellschaft für Neurologie
Dr. Bettina Albers
c/o albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 9900 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsidentin: Prof. Dr. med. Christine Klein
Stellvertretender Präsident: Prof. Dr. med. Christian Gerloff
Past-Präsident: Prof. Dr. Gereon R. Fink
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Originalpublikation:

doi: 10.1056/NEJMoa1908483.

Weitere Informationen:
http://www.dgn.org

Quelle: IDW 

(nach oben)


Ökologisch intakte Flüsse sind den Deutschen Milliarden wert

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Gewässer und die darin beheimateten Tiere und Pflanzen bieten der Gesellschaft viele Vorteile. Es ist allerdings schwierig, diese Bedeutung ökonomisch zu beziffern. Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben in einem internationalen Team untersucht, wie hoch die Wertschätzung der Bevölkerung in Deutschland und drei anderen europäischen Ländern für die Renaturierung von Flüssen ist. Hochrechnungen zeigen, dass sich hierzulande die summierte Zahlungsbereitschaft für ökologisch intakte Flüsse auf 27 bis 47 Milliarden Euro pro Jahr beläuft. Das ist angesichts der Umsetzung der EU-Wasserrahmenrichtlinie ein positives Signal.

Die Forschenden führten in vier Ländern – Deutschland, Schweden, Norwegen und Frankreich – ein ökonomisches Auswahlexperiment durch. Dazu wurden in jedem der Länder rund 1000 Einwohnerinnen und Einwohner befragt – als repräsentativer Querschnitt der jeweiligen „Online-Bevölkerung“. Die Teilnehmenden sollten für die Flüsse in ihrer Wohnumgebung bevorzugte Kombinationen von ökologisch relevanten Flussmerkmalen auswählen, mit der Maßgabe, für die Erreichung des ausgewählten Flusszustands einen bestimmten Betrag in einen Flussentwicklungsfonds einzuzahlen. Aus den Antworten konnten die Forschenden sowohl die Präferenzen der Bevölkerung für Flussmerkmale ablesen als auch die Zahlungsbereitschaft für die Verbesserung der Flüsse abschätzen.

Länderunabhängig positive Zahlungsbereitschaft für ökologische Aufwertung von Flüssen:
Die Befragten aller Länder bevorzugten Flüsse, die eine hohe Badegewässerqualität und eine hohe Artenvielfalt aufweisen und in denen charakteristische Flussfischarten wie Störe, Bachforellen oder Lachse vorkommen. Daraus kann man ableiten, dass ökologisch ausgerichtete Programme zur Renaturierung von Fließgewässern grundsätzlich positive Werte für die Bevölkerung stiften können. „Diese Ergebnisse können als Signal an die Politik gewertet werden, ihre Bemühungen zur Verbesserung der Wasserqualität und des ökologischen Zustands von Flüssen zu verstärken“, so der Erstautor der Studie, Dr. Carsten Riepe, vom IGB.

In Deutschland: 79 Euro plus für bessere Badegewässerqualität, 98 Euro minus für Ausbau der Wasserkraft:
Für eine Verbesserung der Wasserqualität von Flüssen wären die Deutschen bereit, 79 Euro pro Person und Jahr auszugeben. Von der deutschen Bevölkerung wurde als weitere Flusseigenschaft eine gute Durchgängigkeit, beispielsweise zur Gewährleistung von Fischwanderungen, besonders wertgeschätzt – etwas stärker sogar als das Auftreten bestimmter Fischarten oder die Förderung einer hohen heimischen Artenvielfalt. In Zahlen ausgedrückt: Ein Ausbau der Wasserkraft über das heutige Maß hinaus würde in Deutschland zu einem Nutzenverlust von fast 100 Euro pro Person und Jahr führen.

Würden gleich mehrere Flussmerkmale verbessert, beispielsweise über eine höhere Wasserqualität, freie Fließstrecken und die Förderung der heimischen Artenvielfalt, würde der Bevölkerung in Deutschland ein Nutzen gestiftet, der einer Zahlungsbereitschaft von 675 Euro pro Person im Jahr entspräche. Unter der Annahme von einer Person pro Haushalt würde eine ökologische Flussrenaturierung in der Wohnumgebung eines jeden der 41 Millionen Privathaushalte einen Nutzen von hochgerechnet etwa 27 Milliarden Euro pro Jahr ergeben. Wenn man die Zahlen auf alle Personen über 18 Jahre bezieht, entstünde sogar ein Nutzen, der mit 47 Milliarden Euro pro Jahr beziffert werden kann. Obwohl solche Befragungsergebnisse immer mit methodischen Unsicherheiten behaftet sind, zeigen die Zahlen doch eindrucksvoll, dass bei den Deutschen eine hohe ökologische Flussqualität auch eine sehr hohe Wertschätzung genießt und dass sich eine Flussverbesserung auch ökonomisch gesehen lohnen kann.

„Der hohe gesellschaftliche Wert, den naturnahe Flüsse aus Sicht der Menschen besitzen, kann die flächendeckende Umsetzung von Zielen der EU-Wasserrahmenrichtlinie ökonomisch begründen. Denn die ökologische Zielerreichung kostet viel Geld. Durch unsere Studie stehen Entscheidungsträgern nun Zahlen zur Verfügung, die in Kosten-Nutzen Rechnungen zur Abwägung von Investitionen in die Flussentwicklung einfließen können“, resümiert Studienleiter Robert Arlinghaus, Fischereiwissenschaftler am IGB und Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Robert Arlinghaus
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin und am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
+49 (0)30 64181 653
arlinghaus@igb-berlin.de
www.ifishman.de

Originalpublikation:
Riepe, C., Meyerhoff, J., Fujitani, M., Aas, Ø., Radinger, J., Kochalski, S., Arlinghaus, R. (2019). Managing river fish biodiversity generates substantial economic benefits in four European countries. Environmental Management, 63, 759-776.

Quelle: IDW 

(nach oben)


Maserninfektion löscht Immungedächtnis – Masernimpfung schützt

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel

Maserninfektionen sind nicht harmlos – sie können schwere Krankheits­verläufe verursachen, die auch tödlich enden können. Jetzt haben Forscherinnen und Forscher des Paul-Ehrlich-Instituts (PEI) im Verbund mit Wissenschaftlerinnen und Wissenschaftlern aus Großbritannien und den Niederlanden herausgefunden, dass Masernviren einen Teil des immunologischen Gedächtnisses über Jahre löschen. Damit werden Betroffene auch über die Maserinfektionszeit hinaus empfänglicher für Infektionen mit anderen Erregern. Über die Forschungsergebnisse berichtet Science Immunology in seiner Online-Ausgabe vom 01.11.2019.

Masern sollten längst ausgerottet sein – stattdessen nehmen sie wieder zu. In den ersten sechs Monaten 2019 wurden weltweit fast dreimal mehr Fälle gemeldet als im gleichen Zeitraum des Vorjahres. Das Europäische Zentrum für die Prävention und die Kontrolle von Krankheiten (European Centre for Disease Prevention and Control, ECDC) spricht von einem Wiederaufleben der Masern in der Europäischen Union bzw. im Europäischen Wirtschaftsraum (EEA). Verantwortlich hierfür sind vor allem fünf Länder, darunter Deutschland, in denen Übertragungen noch endemisch – also innerhalb der Bevölkerung – stattfinden.

Schon lange ist bekannt, dass die Maserninfektion nicht nur selbst durchaus schwer und sogar tödlich verlaufen kann, sondern zusätzlich das Masernvirus das Immunsystem des Erkrankten gegenüber anderen Krankheitserregern schwächt. So kommt es bei einer Maserninfektion häufiger auch zu weiteren Infektionen wie beispielsweise bakteriell bedingten Lungen- oder Mittelohrentzündungen.

In einer kürzlich im Vereinigten Königreich (UK) durchgeführten Masern-Kohortenstudie wurde nachgewiesen, dass zehn bis 15 Prozent der Kinder noch fünf Jahre nach einer Maserninfektion Anzeichen einer deutlichen Beeinträchtigung des Immunsystems hatten, was zu einem erhöhten Auftreten sekundärer (weiterer) Infektionen führte.

Wissenschaftlerinnen und Wissenschaftler um Prof. Veronika von Messling, bis September 2018 Leiterin der Abteilung Veterinärmedizin des Paul-Ehrlich-Instituts (PEI), Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel, haben innerhalb des Deutschen Zentrums für Infektionsforschung (DZIF) und mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Forscherinnen und Forschern aus Großbritannien und den Niederlanden untersucht, welche Mechanismen zu dieser Immunsuppression führen. Hierzu analysierten sie die Rezeptorvielfalt der Immunzellen und die Entwicklung einer wichtigen Gruppe von Immunzellen für das Immungedächtnis, den B-Gedächtniszellen, bei ungeimpften Personen mit und ohne vorangegangene Maserninfektion sowie bei gegen Masern geimpften Personen. Während die genetische Zusammensetzung und Vielfalt der B-Gedächtniszellen bei Personen ohne Maserninfektion und bei geimpften Personen stabil war, fand sich bei Personen nach Maserninfektionen eine signifikante Zunahme der Mutationsfrequenz in diesen Zellen sowie ein verändertes Isotypen(Variations)-Profil. Bei etwa zehn Prozent der mit Masern infizierten Personen in der Untersuchung war die Vielfalt der Immunzellen sogar sehr stark beeinträchtigt. Zudem fand sich eine Verschiebung hin zu immunologisch unreifen B-Zellen, was auf eine beeinträchtigte B-Zellreifung im Knochenmark hinweist.

Die Ergebnisse bestätigen, dass das Immunsystem nach einer Maserninfektion quasi vergisst, mit welchen Erregern es zuvor in Kontakt gekommen war. Es kommt zu einer „Immunamnesie“. Forscherinnen und Forscher im PEI bestätigten diese Befunde im Tiermodell (Frettchen). Die Tiere wurden zunächst gegen Influenza (Grippe) immunisiert und einige Tiere mit einem mutierten Hundestaupevirus (canine distemper virus, CDV), das mit dem Masernvirus verwandt ist, infiziert. Die mit CDV infizierten Tiere verloren die meisten Antikörper gegen Influenza und hatten einen schwereren Krankheitsverlauf als nicht zuvor mit CDV infizierte Tiere, als sie zu einem späteren Zeitpunkt mit dem Influenzavirus infiziert wurden.

„Die Masernimpfung ist nicht nur für den Schutz vor Masernviren wichtig, sondern schützt auch vor dem Auftreten oder schweren Verläufen anderer Infektions­krankheiten. Es schützt das Immungedächtnis, das bei Maserninfektionen schwer beeinträchtigt werden kann“, betont Prof. Klaus Cichutek, Präsident des Paul-Ehrlich-Instituts.

Originalpublikation:

Petrova VN, Sawatsky B, Han AX, Laksono BM, Walz L, Parker E, Pieper K, Anderson CA, de Vries RD, Lanzavecchia A, Kellam P, von Messling V, de Swart RL, Russel CA (2019): Incomplete genetic reconstitution of B cell pools contributes to prolonged immune suppression after measles.
Sci Immunol Nov 1 [Epub ahead of print].
DOI: 10.1126/sciimmunol.aay6125

Weitere Informationen:

https://immunology.sciencemag.org/content/4/41/eaay6125.full – Volltext der Publikation
https://www.pei.de/DE/infos/presse/pressemitteilungen/2019/20-maserninfektion-lo… – Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

Quelle: IDW 

(nach oben)


CO2-Preis erhöht den Benzinpreis um weniger als einen Cent pro Liter

Martin Rothenberg Referat Hochschulkommunikation
Technische Universität Dortmund

Gemeinsame Stellungnahme von 15 Professorinnen und Professoren des Verkehrswesens zur CO2-Steuer.

Die Bundesregierung hat die in ihrem Klimaschutzprogramm geplante Umsetzung der CO2-Steuer beschlossen. Um die Preissteigerungen sozial abzufedern, wird außerdem die Pendlerpauschale erhöht. Eine Gruppe von 15 Professorinnen und Professoren des Verkehrswesens rund um Prof. Christian Holz-Rau von der TU Dortmund hat dazu eine gemeinsame Stellungnahme veröffentlicht: Die Verkehrsplanerinnen und -planer bezeichnen die Annahmen zu den Mehrbelastungen als falsch. Demnach liege die tatsächliche Mehrbelastung der Autofahrerinnen und Autofahrer nicht wie behauptet bei knapp 10 Cent pro Liter, sondern deutlich unter einem Cent pro Liter – und das verteilt auf sechs Jahre.

Die ausführliche Stellungnahme sowie die zugrundeliegenden Berechnungen finden Sie hier:
http://www.vpl.tu-dortmund.de/cms/de/Aktuelles/Meldungen/Die-eingebildete-CO2-St…

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Christian Holz-Rau
TU Dortmund, Fakultät Raumplanung
Verkehrswesen und Verkehrsplanung
christian.holz-rau@tu-dortmund.de
Telefon: 0231 755 2270 oder 0176 40 31 33 40

Quelle: IDW 

(nach oben)


Verhalten der Mutter beeinflusst Oxytocin-Entwicklung beim Säugling

Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften

Ergebnisse aus einer epigenetischen Studie des MPI für Kognitions- und Neurowissenschaften und der University of Virginia deuten darauf hin, dass ein höheres mütterliches Fürsorgeverhalten das Oxytocin-System bei Babys hochreguliert.

Oxytocin gilt als das „Bindungshormon“ bei Säugetieren und Menschen, denn es stärkt Vertrauen und fördert soziale Bindungen. Es ist ein Hormon der Nähe, welches schon ganz früh in der menschlichen Entwicklung von entscheidender Bedeutung ist: Seine Produktion wird angekurbelt bei Blickkontakt, Empathie oder angenehmen Berührungen. Kathleen Krol und Jessica Connelly von der University of Virginia sowie Tobias Grossmann vom Max-Planck-Institut für Kognitions- und Neurowissenschaften haben nun die Frage geklärt, ob das Verhalten der Mutter die Entwicklung des Oxytocin-Systems beim Säugling entscheidend beeinflussen kann. Ihre Ergebnisse deuten darauf hin, dass ein höheres mütterliches Fürsorgeverhalten das Oxytocin-System bei Babys hochreguliert. Kinder sind somit auf diese frühen, grundlegenden Interaktionen angewiesen, die ihnen letztendlich erleichtern, sich mit anderen zu verbinden und zu beschäftigen.

Die menschliche Kindheit markiert eine der dynamischsten und formbarsten Phasen der Entwicklung nach der Geburt und einen Punkt, an dem viele Systeme im kindlichen Körper untereinander abgestimmt werden. Welche Rolle das Hormon Oxytocin dabei spielt, war bislang unklar. „Bekannt ist sein Potenzial, frühe soziale Wahrnehmungs- und Kognitionsprozesse zu unterstützen und Entwicklungspfade für die Entstehung komplexer sozialer Verhaltensweisen zu beeinflussen.“, sagt Tobias Grossmann. „Wir haben untersucht, ob das mütterliche Verhalten die Entwicklung des Oxytocin-Systems im Säuglingsalter entscheidend beeinflussen könnte. Fortschritte in der Molekularbiologie ermöglichen es seit kurzem, das Zusammenspiel von Natur und Säuglingspflege mit epigenetischen Mitteln genau zu erforschen. Das haben wir in unserer Studie genutzt, indem wir modernste molekulare und statistische Methoden mit klassischen Methoden der Verhaltenspsychologie kombiniert haben.“

So beobachteten die Wissenschaftler eine Freispiel-Interaktion zwischen Müttern und ihren fünf Monate alten Kindern. „Beim fünf-monatigen Besuch und etwa ein Jahr später, als das Kind 18 Monate alt war, haben wir sowohl bei der Mutter als auch beim Säugling Speichel gesammelt. Um die Variabilität innerhalb des Oxytocin-Systems zu untersuchen, haben wir uns das Oxytocin-Rezeptorgen genauer angeschaut. Der Oxytocin-Rezeptor ist unerlässlich, damit das Hormon Oxytocin seine Wirkung entfalten kann.“, erklärt Kathleen Krol. Sie hat die Studie gemeinsam mit Tobias Grossmann am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig durchgeführt und arbeitet nun in Connellys Labor an der Universität von Virginia als Postdoktorandin.

„Wir fanden heraus, dass die epigenetischen Veränderungen in der DNA der Säuglinge durch die Qualität des mütterlichen Engagements vorhergesagt wurden. Haben sich Mütter in der Spiel-Interaktion mit ihren Kindern besonders eingesetzt und gekümmert, zeigte sich dies ein Jahr später an einer stärkeren Reduktion der DNA-Methylierung des Oxytocin-Rezeptorgens. Ein höheres mütterliches Engagement hat also das Potenzial, das Oxytocin-System bei menschlichen Nachkommen hochzuregulieren.“, erklärt die Wissenschaftlerin. „Auf der anderen Seite fanden wir heraus, dass dieser Prozess, in dem das Oxytocin-Rezeptorgen eine entscheidende Rolle spielt, auch das Temperament von Säuglingen widerspiegeln kann, welches uns von den Eltern berichtet wurde. 18 Monate alte Kinder mit höheren Graden der Methylierung und vermutlich herunterregulierten Oxytocin-Rezeptoren waren daher temperamentvoller und weniger ausgeglichen.“

Die Ergebnisse dieser Studie sind ein eindrucksvolles Beispiel dafür, dass wir nicht nur an unsere Gene gebunden sind, sondern vielmehr das Ergebnis eines zarten Wechselspiels zwischen unseren Bauplänen und Erfahrungen. Die frühe soziale Interaktion mit unseren Betreuern, Väter ausdrücklich inbegriffen, kann unsere biologische und psychologische Entwicklung durch epigenetische Veränderungen des Oxytozinsystems beeinflussen. Diese und ähnliche Ergebnisse unterstreichen die Bedeutung der Elternschaft für die Förderung generationenübergreifender Gesundheit.

Wissenschaftliche Ansprechpartner:

Prof. Tobias Grossmann
+1 434 924-3651
grossmann@cbs.mpg.de

Originalpublikation:
https://advances.sciencemag.org/content/5/10/eaay0680

Quelle: IDW 

(nach oben)


Wasserstofftechnologien – Ein Beitrag zur Wirtschaftlichkeit und Nachhaltigkeit

Charlotte Giese Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.

Das Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) in Greifswald arbeitet gemeinsam mit dem Institut für Vernetzte Energiesysteme e.V. des Deutschen Zentrum für Luft und Raumfahrt (DLR) in Oldenburg im Rahmen des Projektes 3DnanoMe 2.0 daran, die Technologie von Brennstoffzellen zu optimieren. Innerhalb von 3 Jahren soll ein Verfahren, welches für eine erhöhte Effizienz elektrokatalytischer Schichten auf Gasdiffusionselektroden sorgt, skaliert und validiert werden, mit dem Ziel, die Technologie in die Praxis zu übertragen.

Wasserstofftechnologien spielen eine große Rolle in der Energiewende. Es fehlt jedoch an effizienten und wirtschaftlichen Lösungen. „Mit Hilfe unserer Plasmatechnologie entwickeln wir ein Verfahren zur Herstellung von Elektrokatalysatoren in 3-Phasensystemen für eine nachhaltige fossilfreie Energie-Wirtschaft“, erläutert Dr. Gustav Sievers, Projektverantwortlicher am INP. In dem Projekt „3DnanoMe 2.0″ geht es um die plasmatechnische Skalierung und Validierung von Elektrokatalysatoren, die eine Umwandlung von elektrischer in chemische Energie und umgekehrt zur Speicherung bzw. Stromerzeugung ermöglichen. Weiterhin kann der erzeugte Wasserstoff und Sauerstoff auch in der chemischen Industrie eingesetzt werden.

In einem Vorprojekt wurde vom INP ein mittlerweile patentiertes plasma-basiertes Verfahren entwickelt, mit dem elektrokatalytische Schichten mit hohen Aktivitäten und hoher Stabilität hergestellt werden können. Diese katalytischen Schichten erhöhen durch eine Senkung der Aktivierungsbarriere die Geschwindigkeit chemischer Reaktionen und können, eingesetzt in Gasdiffusionselektroden oder Membran-Elektroden-Anordnungen, als gängige Produkte für elektrochemische Systeme wie Brennstoffzellen und Elektrolyseure verwendet werden.

Diese Technologie muss nun auf industriellen Maßstab skaliert und in der Brennstoffzelle und dem Elektrolyseur unter realen Bedingungen validiert werden. Hierzu wird das neue Katalysatorkonzept direkt für die Membran-Elektroden Anordnung oder Gasdiffusionelektrode umgesetzt. Nach erfolgreicher Bewertung soll eine Lizenzierung der Technologie an Unternehmen erfolgen. „Mit dem Validierungsprojekt wollen wir den Sprung aus dem Labor in die Anwendung schaffen“, so der Umweltwissenschaftler Sievers.

Das Projekt unter Leitung von Dr. Volker Brüser wird mit rund 1,4 Mio. vom Bundesministerium für Bildung und Forschung (BMBF, Förderkennzeichen 03VP06451) gefördert. Das BMBF verfolgt im Rahmen der Hightech-Strategie 2025 „Forschung und Innovation für die Menschen“ das Ziel, die vielfältigen Anwendungspotenziale exzellenter Forschung schneller und effektiver zu identifizieren und für Wirtschaft und Gesellschaft nutzbar zu machen. Die Fördermaßnahme „Validierung des technologischen und gesellschaftlichen Innovationspotenzials wissenschaftlicher Forschung – VIP+“ soll Forscherinnen und Forscher dabei unterstützen, Forschungsergebnisse zu validieren und die Anwendung dieser möglich zu machen.

Wissenschaftliche Ansprechpartner:
Ansprechpartner für das Projekt:
Dr. Gustav Sievers
Leibniz-Institut für Plasmaforschung und Technologie e. V. (INP)
Tel: 03834554-3861
E-Mail: sievers@inp-greifswald.de

Verbundkoordinator: Leibniz-Institut für Plasmaforschung und Technologie e. V. (INP), Greifswald
Partner: DLR-Institut für Vernetzte Energiesysteme e.V., Oldenburg

Anhang
Wasserstofftechnologien_Ein Beitrag zur Wirtschaftlichkeit und Nachhaltigkeit
https://idw-online.de/de/attachment73454

Quelle: IDW 

(nach oben)


Wie viele Wörter kennt mein Kind?

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen

Wie viele Wörter kennt mein Kind? Und wie entwickelt sich seine Sprache in den ersten Lebensjahren? Diese Fragen interessieren nicht nur die Eltern von Kleinkindern, sondern auch die Forschung. Vor diesem Hintergrund haben Wissenschaftlerinnen und Wissenschaftler der Universitäten Göttingen und Oslo die App „Babylex“ entwickelt, mit der sich die frühe Entwicklung des Wortschatzes von Kleinkindern verfolgen lässt.

Babylex schätzt die Anzahl der Wörter, die ein Kind kennt, und einen Prozentwert, der den Wortschatz des Kindes mit dem von anderen Kinder gleichen Alters und gleichen Geschlechts vergleicht. Die App ist frei verfügbar und sowohl für Android- als auch für iOS-Geräte erhältlich.

Babylex berechnet die Informationen auf der Grundlage eines zweiminütigen Tests, bei dem Eltern und Forschende angeben, welche von 25 zufällig ausgewählten Wörtern das Kind bereits versteht oder hervorbringt. Die Ergebnisse lassen sich auf dem Handy speichern und die Entwicklung auf diese Weise von Monat zu Monat verfolgen. Babylex kann derzeit bei deutschen Kindern im Alter von 18 bis 30 Monaten, amerikanischen Kindern zwischen 16 und 30 Monaten und norwegischen Kindern im Alter von 16 bis 36 Monaten angewendet werden. In Zukunft sollen weitere Sprachen einbezogen werden.

Die App nutzt die kostenlose Wortdatenbank der Universität Stanford (http://wordbank.stanford.edu), die anonymisierte Vokabeldaten von Tausenden von Kindern enthält. Die Inhalte der Datenbank werden mit Hilfe von Standard-Vokabelbögen gesammelt, auf denen Eltern angeben, welche der 400 bis 600 Wörter ihr Kind bereits kennt. „Solche Fragebögen werden regelmäßig bei klinischen Beurteilungen von Kindern verwendet“, erläutert die Psychologin Prof. Dr. Nivedita Mani von der Universität Göttingen. Babylex schätzt dann die Anzahl der Wörter, die einzelne Kinder kennen, basierend auf der Überlappung zwischen den Antworten, die in die App eingegeben werden, und den Antworten in der Datenbank.

„Studien mit Kindern in der Göttinger Wortschatzinsel zeigen eine bemerkenswerte Übereinstimmung zwischen den von der App bereitgestellten Wortschatzschätzungen und den Standard-Vokabelfragebögen, obwohl die App sehr viel weniger Zeit zum Ausfüllen benötigt“, so Mani. Weitere Informationen zur App und ihrer Verwendung sind unter http://www.babylex.eu zu finden, Informationen über die Forschung hinter Babylex unter https://osf.io/j3fec/.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nivedita Mani
Georg-August-Universität Göttingen
Fakultät für Biologie und Psychologie
Georg-Elias-Müller-Institut für Psychologie
Goßlerstraße 14, 37073 Göttingen
Telefon (0551) 39-10889
E-Mail: nmani@gwdg.de
Internet: http://www.psych.uni-goettingen.de/de/lang/team

Quelle: IDW 

(nach oben)


Studie: Vorzeitige Rente bleibt attraktiv

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Die einen gehen regulär in Rente, die anderen treten so früh wie möglich in den Ruhestand und nehmen dafür auch Abschläge in Kauf. Diese Polarisierung zeigt der neue Altersübergangsreport des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE). Untersucht wird darin, wie sich die schrittweise Anhebung der Altersgrenze auf 67 Jahre auf den Rentenzugang in Deutschland auswirkt.

Im Jahr 2017 ging mehr als jeder zweite Neurentner vor dem 65. Lebensjahr in den Ruhestand. „Die Anhebung der Regelaltersgrenze fördert die Polarisierung im Rentenzugangsalter und verschärft in der Folge die soziale Ungleichheit im Alter“, folgert der IAQ-Forscher Arthur Kaboth. „Denn wer vorzeitig in Rente geht, weil er oder sie beispielweise durch gesundheitliche Einschränkungen oder fehlende Erwerbsperspektiven quasi dazu gezwungen ist, muss geringere Rentenanwartschaften und Abschläge akzeptieren. Das bedeutet: mit weniger Geld auskommen.“

Zwar erfreut sich die abschlagsfreie Altersrente für besonders langjährig Versicherte (Rente ab 63) insbesondere bei Männern großer Beliebtheit (36,2 Prozent). Auch Frauen gehen mittlerweile häufiger auf diesem Weg in den Ruhestand (27,1 Prozent). Dennoch wurde fast jede vierte Altersrente mit Abschlägen in Anspruch genommen. „Das zeigt, dass der vorzeitige Renteneintritt nach wie vor attraktiv und für bestimmte Personen notwendig ist und alle rentenrechtlichen Möglichkeiten ausgeschöpft werden“, stellt der IAQ-Rentenexperte Prof. Dr. Martin Brussig fest.

Auf der einen Seite nehmen Übergänge in Rente aus stabiler Beschäftigung zu und spiegeln somit auch die Arbeitsmarktsituation Älterer wider, die sich in den letzten Jahrzehnten verbessert hat. Andererseits erreichen die verbesserten Chancen nicht alle Versicherten. Nach wie vor geht ein erheblicher Anteil aus Langzeitarbeitslosigkeit in den Ruhestand.

Der Altersübergangs-Report des IAQ veröffentlicht seit 2004 in unregelmäßiger Folge Ergebnisse des ‚Altersübergangs-Monitors‘, der von der Hans-Böckler-Stiftung gefördert wird.

Redaktion: Claudia Braczko, Tel. 0157/71283308, claudia.braczko@uni-due.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Brussig, IAQ, Tel. 0203/37 9-3931, martin.brussig@uni-due.de,
Arthur Kaboth, IAQ, Tel. 0203/37 9-1297, arthur.kaboth@uni-due.de

Originalpublikation:
http://www.iaq.uni-due.de/auem-report/

Quelle: IDW 

(nach oben)


Wieviel Methan kommt aus dem Ozean? Neue Studie reduziert Unsicherheiten bei Emissionen des wichtigen Treibhausgases

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Methan (CH4) ist ein starkes Treibhausgas, das neben anthropogenen auch natürliche Quellen hat. Hier spielt auch der Ozean eine wichtige Rolle. Eine neue Studie deutscher und amerikanischer Wissenschaftlerinnen und Wissenschaftler unter Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, die in der Fachzeitschrift Nature Communications erschienen ist, kann die Unsicherheiten bei den globalen ozeanischen Methanemissionen um zwei Drittel reduzieren.

Methan (CH4) ist ein starkes Treibhausgas, das für etwa 20% des anthropogenen Treibhauseffekts verantwortlich ist. Der anthropogene Einfluss auf den atmosphärischen CH4-Gehalt wird nicht nur durch direkte Emissionen, sondern auch durch klimabedingte Veränderungen des natürlichen CH4-Kreislaufs verursacht. Zu den natürlichen Quellen von Methan gehört auch der Ozean, allerdings sind bisherige Abschätzungen von Methanemissionen aus dem Ozean mit großen Unsicherheiten verknüpft.

Dies ist darauf zurückzuführen, dass es noch recht wenige Messungen der CH4-Konzentrationen im Ozean gibt, und die CH4-Verteilung im Ozean sehr variabel ist. Während sich die Oberflächenkonzentrationen in biologisch unproduktiven Regionen im offenen Ozean fast im Gleichgewicht mit der Atmosphäre befinden, können sie in manchen flachen Küstengebieten mehr als 1000 Mal höher sein. Die bisherigen globalen Abschätzungen der ozeanischen Methanquelle wurden durch die Zusammenführung der Ergebnisse verschiedener regionaler Studien erstellt.

In der jetzt von amerikanischen und deutschen Wissenschaftlerinnen und Wissenschaftler in der Fachzeitschrift Nature Communications publizierten Studie wird nun die erste globale Abschätzung der Methanemissionen aus dem Ozean vorgestellt, die auf der Zusammenstellung aller verfügbaren CH4-Daten des globalen Oberflächenozeans basiert. Daraus wurde zunächst eine globale Klimatologie des Ungleichgewichts von Methan zwischen Ozean und Atmosphäre (ΔCH4) erstellt. Diese Daten wurden dann genutzt, um zwei verschiedene maschinelle Lernmodelle (Artificial Neural Networks (ANN) und Random Regression Forest (RRF)) zu trainieren, die aus den Einzeldaten eine kontinuierliche, globale ΔCH4-Verteilungskarte berechnen. Beide Methoden nutzen Ähnlichkeiten in den Verteilungsmustern von ΔCH4 und verschiedene physikalische, chemische und biologische für Methan wichtige Parameter, deren ozeanische Verteilungen gut bekannt sind. Die daraus resultierende ΔCH4-Verteilung wurde genutzt, um den globalen CH4-Fluss aus dem Ozean zu berechnen. Diese Berechnung wurde durch eine Abschätzung des CH4-Flusses, der durch die direkte Emission von Methanblasen, die aus dem Sediment bis an die Wasseroberfläche steigen, ergänzt.

Die meisten der für die Erstellung der ΔCH4 Karten verwendeten Daten stammen aus der MEMENTO Datenbank (MarinE MethanE and NiTrous Oxide, https://memento.geomar.de), die am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel betreut wird. „MEMENTO sammelt marine Methan- und Lachgasdaten aus dem globalen Ozean, die wir interessierten Nutzern zur Verfügung stellen“, erläutert Dr. Annette Kock, Koordinatorin der Datenbank und Ko-Autorin der Studie vom GEOMAR. Derzeit enthält MEMENTO etwa 36.000 Dateneinträge für ozeanische Methanmessungen und etwa 120.000 Dateneinträge für ozeanische Lachgasmessungen aus mehr als 300 Messkampagnen.

„Die jetzt vorgelegte Studie zeigt den Mehrwert, den es hat, Daten aus einzelnen Messkampagnen in einem umfassenden, harmonisierten Datensatz zusammenzustellen“, so Dr. Kock. Die neue Abschätzung der Methanemissionen liegt zwischen 6 und12 Teragramm (Tg) CH4 pro Jahr und reduziert die Unsicherheit in der ozeanischen Methanquelle im Vergleich zu früheren Abschätzungen (5-25 Tg CH4 pro Jahr) um zwei Drittel. „Damit trägt unsere Arbeit dazu bei, das atmosphärische Budget von Methan besser zu bestimmen“, so Kock abschließend.

Wissenschaftliche Ansprechpartner:

Dr. Annette Kock, akock@geomar.de

Originalpublikation:

Weber, T., N.A. Wiseman and A. Kock, 2019: Global ocean methane emissions dominated by shallow coastal waters, Nature Communications, doi: 10.1038/s41467-019-12541-7

Quelle: IDW 

(nach oben)


Wasserrahmenrichtlinie auf dem Prüfstand: IGB Policy Brief empfiehlt Festhalten an den Zielen und verbesserte Umsetzung

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Die Europäische Wasserrahmenrichtlinie (WRRL) bietet weltweit einen der fortschrittlichsten Rechtsrahmen für das Gewässermanagement. Sollten ihre Ziele und Prinzipien in Frage gestellt werden, wäre ein wirksamer Gewässerschutz in Deutschland und der Europäischen Union (EU) ernsthaft gefährdet. Verbesserungen in der Umsetzungspraxis sind jedoch dringend notwendig.
Zu diesem Urteil kommt das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Deutschlands größtes Forschungszentrum für Binnengewässer. Der jetzt veröffentlichte IGB Policy Brief erläutert Stärken und Schwächen der WRRL und zeigt Handlungsoptionen für Politik und Praxis auf.

Gemäß der WRRL sollen die Gewässer der EU bis spätestens 2027 in einen mindestens guten chemischen und ökologischen Zustand bzw. in ein gutes ökologisches Potenzial überführt werden. Seit Inkrafttreten vor 19 Jahren hat sich der Zustand der EU-Gewässer jedoch kaum nachweislich verbessert. Nach wie vor besteht bei 60 Prozent aller Gewässer in der EU Handlungsbedarf, in Deutschland sogar bei 93 Prozent der Fließ- und 73 Prozent der Stillgewässer.

„Die Gründe für diese schwache Bilanz liegen jedoch nicht in der Wasserrahmenrichtlinie selbst. Tatsächlich ist sie ein fachlich fundiertes und zielführendes Regelwerk. Die bisher sehr begrenzten ökologischen Verbesserungen weisen vielmehr auf nicht hinreichend austarierte Zielkonflikte zwischen Schutz und Nutzung und auf erhebliche Defizite in der praktischen Umsetzung hin“, erklärt Professor Mark Gessner, kommissarischer Direktor des IGB und Mitautor des IGB Policy Briefs.

Gewässerschutz als Querschnittsaufgabe in anderen Politikfeldern verankern:
Das IGB kommt zu der Einschätzung, dass dringend neue integrierende Ansätze auf Ebene der Politik, Verwaltung und Umsetzungspraxis notwendig sind. Renaturierungsprojekte müssen deutlich großflächiger geplant werden – und die durchgeführten Maßnahmen wirksamer sein. Administrative Prozesse müssen systematisch verbessert und Verfahren zur Lösung von Zielkonflikten entwickelt und etabliert werden. Hierfür ist es elementar, die nachhaltige Gewässerbewirtschaftung konsequent als Querschnittsaufgabe in allen relevanten Politikfeldern zu verankern. Dies gilt besonders für die Bereiche Landwirtschaft, Energie (u.a. Wasserkraft), Verkehr (Schifffahrt), Bergbau und natürlich für den Hochwasser- und Naturschutz.

Ohne eine konsequent nachhaltige Bewirtschaftung und ökologische Verbesserung der Gewässer können ihre vielfältigen Funktionen als Lebensraum und Schlüsselressource Europas nicht erhalten oder wiederhergestellt werden. Der Nutzungsdruck schreitet ebenso rasant voran wie Klima- und Umweltwandel, einschließlich Biodiversitätsverlust. „Deshalb muss auch über 2027 hinaus strikt an den Prinzipien und Zielen der WRRL festgehalten werden“, fasst Mark Gessner zusammen und betont gleichzeitig, dass „ungeachtet der hervorragenden Grundlage erhebliche Verbesserungen in der Anwendung der Richtlinie in der Praxis erreicht werden müssen“.

Über den IGB Policy Brief zur WRRL:
Das IGB hat sich 2019 im Rahmen des von der EU durchgeführten „Fitness Checks“ der WRRL an der Expertenkonsultation beteiligt. Der hier vorliegende IGB Policy Brief greift aus diesem Anlass sechs aus Sicht des IGB zentrale Punkte zu Stärken und Schwächen der WRRL auf und stellt diese Analyse für die öffentliche Diskussion zur Verfügung.

„Forschen für die Zukunft unserer Gewässer“ ist das Leitmotiv des IGB. Dazu gehört die objektive und evidenzbasierte Information und Beratung von Politik, Behörden, Verbänden, Wirtschaft, Bildungseinrichtungen und der Öffentlichkeit. Mit den IGB Policy Briefs macht das Institut forschungsbasiertes Wissen kostenfrei für die Öffentlichkeit zugänglich.

Lesen Sie hier den IGB Policy Brief zur WRRL: http://bit.ly/IGBPolicyBriefWRRL

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den IGB-Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter: https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Johannes Graupner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Wissenstransfer – Politik, Wirtschaft, Verbände
+49 (0)30 64 181 703
graupner@igb-berlin.de

Originalpublikation:
IGB (2019): Stärken und Schwächen der Wasserrahmenrichtlinie (WRRL). IGB Policy Brief, Leibniz-Institut für Gewässerökologie und Binnenfischerei, Berlin. DOI: https://dx.doi.org/10.4126/FRL01-006416484

Quelle: IDW 

(nach oben)


REM-Schlaf von Patienten mit Insomnien weist erhöhte Frequenz an Aufwachereignissen auf

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)

Freiburger Forscher um den Schlafmediziner Prof. Dieter Riemann konnten nun zeigen, dass es bei Menschen, die über Ein- oder Durchschlafstörungen (Insomnie) klagen, zu Veränderungen des REM-Schlafs kommt. Der REM-Schlaf ist der Zustand im Schlaf, in dem unser Gehirn am aktivsten ist, möglicherweise sogar aktiver als im Wachzustand. Eine Meta-Analyse belegte, dass bei diesen insomnischen Störungen im Gegensatz zu depressiven Erkrankungen der REM-Schlaf leicht, aber signifikant unterdrückt ist.

Eine mikroanalytische Untersuchung der REM-Schlaf-Regulation an 100 Patienten konnte darüber hinaus zeigen, dass der REM-Schlaf von Patienten mit Insomnien durch eine erhöhte Frequenz an Aufwachereignissen und kurzen Weckreaktionen, sogenannten Mikroarousals, charakterisiert ist. Diese Mikroarousals könnten wiederum erklären, warum REM-Schlaf bei Menschen mit Insomnie, anders als bei gesunden Schläfern, eventuell als „wach“ wahrgenommen wird. Besteht nun ein Hyperarousal (Übereregtheit, Erschrecken, Angst, starke Unruhe), wie dies bei vielen Menschen mit Insomnie der Fall ist, so betrifft dies auch den REM-Schlaf, der dann wiederum durch eine erhöhte Anzahl von Mikroarousals gekennzeichnet ist, die möglicherweise wiederum bewirken, dass der REM-Schlaf als Grübelei über Schlaflosigkeit und nicht als Träumen empfunden wird. Diese im Schlaf und speziell im REM-Schlaf stattfindenden Grübeleien und Gedankenspiele führen dann am Morgen dazu, dass Menschen mit einer Insomnie ihren Schlaf primär als wach charakterisieren, obwohl sie eigentlich geschlafen haben. „Eine entsprechende Untersuchung mit REM-Schlaf-Weckungen aus unserer Arbeitsgruppe konnte diesen Befund stützen. Zusammenfassend denken wir also, dass eine Instabilität des REM-Schlafs möglicherweise erklären kann, warum viele Menschen mit Insomnie ihren Schlaf als so gestört wahrnehmen, obwohl er auf der Makrostrukturebene dies gar nicht ist. Therapeutische Ansätze hierzu werden diskutiert“, erklärt Dieter Riemann.

Pressekontakt der DGSM-Jahrestagung:
Conventus Congressmanagement & Marketing GmbH
Romy Held
Tel.: 03641/3 11 62 80
E-Mail: romy.held@conventus.de

Wissenschaftliche Ansprechpartner:
Univ. Prof. Dr. rer. soc. Dipl. Psych. Dieter Riemann
Psychologischer Psychotherapeut/ Supervisor KVT, Somnologe (DGSM)/ Behaviorial Sleep Medicine (ESRS), Abteilungsleiter für Klinische Psychologie und Psychophysiologie
Zentrum für Psychische Erkrankungen, Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg (https://www.uniklinik-freiburg.de/psych/team/riemann.html)
Bei Rückfragen kontaktieren Sie bitte den DGSM-Pressekontakt!

Weitere Informationen:
https://www.dgsm-kongress.de/allgemeine-informationen/presse/
Hier finden Sie diese und weitere Pressemitteilungen zur Jahrestagung der DGSM.

Quelle: IDW 

(nach oben)


Indoorfarm mit Dachgewächshaus: Hochschule Osnabrück erhält 3,3 Millionen Euro für neues Forschungszentrum

Julia Ludger Geschäftsbereich Kommunikation – Presse- und Informationsstelle
Hochschule Osnabrück

Am Campus Haste der Hochschule Osnabrück sollen wetterunabhängig in einer Indoorfarm mit Dachgewächshaus neue, zukunftsorientierte Kultursysteme erforscht werden. Der Clou: Das Gebäude und das auf dem Dach befindliche Gewächshaus sind über ein intelligentes Kreislaufmanagementsystem miteinander verbunden. Dies ermöglicht eine Verknüpfung der Energieströme, um so die Ressourcen- und Energieeffizienz zu steigern.

Klimawandel, Urbanisierung und Umweltverschmutzung sind nur einige Herausforderungen, denen die Agrar- und Gartenbaubranche mit innovativen Lösungen begegnen muss. Wie können Menschen in urbanen Räumen trotz dieser Herausforderungen auch zukünftig mit regional erzeugten Lebensmitteln versorgt werden? Um neue, zukunftsorientierte Kultursysteme und -räume zu erforschen, soll am Campus Haste ein neues Forschungszentrum „Agrarsysteme der Zukunft“ entstehen. Der Haushaltsausschuss des Niedersächsischen Landtags genehmigte die Bereitstellung der Fördermittel für den geplanten Bau in seiner Sitzung am 16. Oktober 2019.

„Emissionen mindern und Ressourcen effizienter einsetzen – das sind die großen Herausforderungen, die die Landwirtschaft angesichts des Klimawandels in Angriff nehmen muss“, sagt der Niedersächsische Minister für Wissenschaft und Kultur, Björn Thümler. Mit dem Neubau des Forschungszentrums Agrarsysteme der Zukunft schaffen wir eine moderne Forschungsinfrastruktur, die angewandte Forschung zu zukunftsweisenden Agrarsystemen auf höchstem Niveau ermöglicht. Ich freue mich, dass wir die dynamischen Entwicklung der Hochschule Osnabrück auf diesem Gebiet vorantreiben können.“

Das geplante dreistöckige Gebäude soll aus einem Betonkubus mit einer sogenannten Indoor-Vertical-Farm sowie einem 160 Quadratmeter großen Dachgewächshaus bestehen. Die zweigeschossige Indoorfarm wird aus mehreren getrennt voneinander klimatisierbaren Anzuchtkammern und Kulturräumen sowie einem Laborraum bestehen.

Effiziente Flächennutzung und verlässliche Produktqualität
Die Vorteile dieser vertikalen Indoorfarm: Neben der effizienten Flächennutzung in der Höhe bietet sie eine verlässliche, wetterunabhängige Produktqualität, da ganzjährig die gleichen Temperaturen, die gleiche Lichtintensität und Luftfeuchtigkeit sowie die gleiche Nährstoff- und Wasserversorgung gewährleistet werden können. Der Clou: Das Gebäude und das auf dem Dach befindliche Gewächshaus sind über ein intelligentes Kreislaufmanagementsystem miteinander verbunden. „Dies ermöglicht eine Verknüpfung der Energieströme, um so die Ressourcen- und Energieeffizienz zu steigern. Konkret heißt das zum Beispiel, die überschüssige Wärme der eingesetzten LEDs der Indoorkammern zur Beheizung des Gewächshauses zu verwenden und dort neue Kulturarten speziell für die Region anzubauen“, erläutert Prof. Dr. Andreas Ulbrich, Professor für Gemüseproduktion und -verarbeitung.

„Wir wollen mit dem geplanten Forschungszentrum unseren Beitrag dazu leisten, zukunftsfähige, ressourceneffiziente und nachhaltige Lösungen für die Agrar- und Gartenbaubranche in Niedersachsen und darüber hinaus zu finden“, erklärt Hochschul-Präsident Prof. Dr. Andreas Bertram, „Wir wollen dabei innovative und vor allem auch praxisorientierte Produktionsszenarien erforschen und setzen dabei auf eine enge Kooperation mit regionalen Partnern.“

„Im neuen Versuchszentrum an der Fakultät Agrarwissenschaften und Land-schaftsarchitektur sollen nicht nur intensive, zukunftsweisende Kultursysteme optimiert, sondern auch neue Kulturarten- und räume entwickelt werden. Damit reagieren wir auf die bereits existierenden und zukünftigen globalen Herausforderungen der Agrarproduktion“, erläutert Prof. Dr. Bernd Lehmann, Vizepräsident für Forschung, Transfer und Nachwuchsförderung.

Die Gesamtkosten des Baus liegen bei rund vier Millionen Euro. Finanziert werden soll der Bau aus Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) der Förderrichtlinie „Innovation durch Hochschulen und Forschungseinrichtungen“ in Höhe von rund 1,9 Millionen Euro, Landesmitteln von rund 1,4 Millionen Euro und Eigenmitteln der Hochschule von etwa 700.000 Euro.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Ulbrich
Professor für Gemüseproduktion und -verarbeitung
E-Mail: a.ulbrich@hs-osnabrueck.de
Telefon: 0541 969-5116

Anhang
Das neue Forschungszentrum „Agrarsysteme der Zukunft“ am Campus Haste soll aus einer Indoorfarm und einem Dachgewächshaus bestehen
https://idw-online.de/de/attachment73501

Quelle: IDW 

(nach oben)


„Metabolische Entzündung“: Warum Menschen mit starkem Übergewicht häufiger an Typ-2-Diabetes erkranken

Christina Seddig Pressestelle
Deutsche Diabetes Gesellschaft

Mit jedem weiteren Kilogramm Körpergewicht steigt das Risiko für Typ-2-Diabetes. Insbesondere bei einem Body-Mass-Index von über 30 kg/m2 ist das Risiko sehr hoch. Die Ursache hierfür, so zeigen neuere Studien, könnten Entzündungen im Fettgewebe und eventuell auch im Appetitzentrum des Gehirns sein. Für diese Vorgänge scheinen die genetische Veranlagung, aber auch die Zusammensetzung der Darmbakterien verantwortlich zu sein. Die Deutsche Diabetes Gesellschaft (DDG) rät Betroffenen zu individuellen Lebensstilverbesserungen, um Körperfett abzubauen.

Aber auch gesundheitspolitische Maßnahmen wie das aktuelle Vorhaben des Bundesministeriums für Ernährung und Landwirtschaft (BMEL), den NutriScore als Lebensmittelkennzeichnung in Deutschland einzuführen, seien notwendig.

In Deutschland hat jeder vierte Erwachsene starkes Übergewicht. Fast jeder zehnte Deutsche erkrankt im Laufe seines Lebens an einem Typ-2-Diabetes. Dass zwischen dieser Stoffwechselerkrankung und Übergewicht ein Zusammenhang besteht, steht mittlerweile außer Zweifel. Doch warum erkranken einige Menschen mit Adipositas an Diabetes, andere jedoch nicht? „Der Unterschied könnte in einer niederschwelligen Entzündungsreaktion bestehen, zu der es im Fettgewebe kommt“, erklärt DDG-Präsidentin Professor Dr. med. Monika Kellerer. Bei einigen Menschen entstünde diese Reaktion, bei anderen bliebe das Fettgewebe „unbehelligt“ und führe zu keinen weiteren Erkrankungsvorgängen.

Im ungünstigen Fall speichern die Fettzellen überschüssige Kalorien, wodurch die Abwehrzellen des Immunsystems aktiviert werden. Zunächst sind Makrophagen, später auch andere Immunzellen wie Lymphozyten nachweisbar. Im weiteren Entzündungsverlauf setzen die Abwehrzellen eine Reihe von Botenstoffen frei, die den Blutzuckerstoffwechsel stören. Das Hormon Insulin, dass die Glukose auf die Zellen verteilt, verliert allmählich seine Wirkung. Es kommt zur sogenannten Insulinresistenz. „Wir sprechen auch von einer ‚metabolischen Entzündung‘“, erklärt Professor Matthias Laudes, Leiter der Endokrinologie, Diabetologie und klinischen Ernährungsmedizin am Universitätsklinikum Schleswig-Holstein (UKSH) in Kiel, der zu diesem Thema forscht.

So zeigte der Kieler Forscher anhand von Aufnahmen in der Magnetresonanztomographie (MRT), dass es bei einigen Betroffenen auch im Hypothalamus zu einer Entzündung kommt.1 „Da sich in diesem wichtigen Steuerzentrum des vegetativen Nervensystems auch das Appetitzentrum befindet, könnte dies vielleicht sogar das verminderte Sättigungsgefühl von Menschen mit starkem Übergewicht erklären“, vermutet Laudes. Auch Genvarianten beeinflussen die Entzündungsreaktion im Gehirn. Eine könnte bei der Entstehung der Adipositas beteiligt sein. Laudes sieht hier einen Zusammenhang mit Leptin – einem Hormon, das Fettzellen aussendet, um im Gehirn ein Sättigungsgefühl zu erzeugen. Die Entzündung rufe eventuell eine Leptin-Resistenz hervor. „Das würde bedeuten, dass der Sättigungsmechanismus bei Betroffenen nicht funktioniert. Sie essen mehr, bevor sie satt werden.“ Darüber hinaus wies Laudes in seinen Untersuchungen darauf hin, dass ein Mangel an bestimmten Darmbakterien ebenfalls mit einer vermehrten Entzündungsreaktion im Hypothalamus verbunden war.

„Weitere Studien würden zeigen, ob Probiotika die Entzündungsreaktion im Fettgewebe und im Gehirn und somit einen Diabetes Typ 2 verhindern könnten“, prognostiziert Laudes. Eine andere entzündungsvorbeugende Therapiemaßnahme könnte darin bestehen, die Botenstoffe der Immunzellen, das so genannte Interleukin 1 oder Interleukin 6, mithilfe von Antikörpern zu hemmen. „Erste Studien zeigen bereits, dass bei Patienten so der Glukosespiegel verbessert wird und dies sogar der vorzeitigen Verkalkung der Blutgefäße vorbeugt“, so Laudes.

Um den Teufelskreis aus falscher Ernährung und krankmachenden Stoffwechselprozessen zu unterbrechen, seien präventive Maßnahmen, die den Lebensstil der Betroffenen hinsichtlich Ernährung und Bewegung verbessern, weiterhin unabdingbar. „Allerdings müssen zudem gesundheitspolitische verhältnispräventive Maßnahmen greifen, die das Umfeld der Betroffenen gesünder machen und ihnen eine Veränderung erleichtern“, ergänzt Kellerer. Darunter fallen ökonomische Anreize wie Limo- und Zuckersteuern, die sich seit einigen Jahren weltweit immer mehr durchsetzen und ein verständliches Kennzeichnungssystem von Lebensmitteln wie den NutriScore, den das Bundesministerium für Ernährung und Landwirtschaft (BMEL) aktuell in Deutschland einführen möchte.

LITERATUR:
1 Kreutzer C et al. Hypothalamic Inflammation in Human Obesity Is Mediated by Environmental and Genetic Factors. Diabetes 2017; 66: 2407-2415
https://www.ncbi.nlm.nih.gov/pubmed/28576837

Amin, MN., How the association between obesity and inflammation may lead to insulin resistance and cancer, 2019 Mar – Apr;13(2):1213-1224. doi: 10.1016/j.dsx.2019.01.041. Epub 2019 Jan 29.
https://www.ncbi.nlm.nih.gov/pubmed/31336467

Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit mehr als 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der fast sieben Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Kontakt für Journalisten:
Pressestelle DDG
Christina Seddig/Kerstin Ullrich
Postfach 30 11 20, 70451 Stuttgart
Tel.: 0711 8931-652, Fax: 0711 8931-167
seddig@medizinkommunikation.org

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Katrin Bindeballe
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-55, Fax: 030 3116937-20
bindeballe@ddg.info
http://www.ddg.info

Weitere Informationen:

http://www.ddg.info

Quelle: IDW 

(nach oben)


62.000 Menschen befragt: Nachhaltigkeit und Umweltschutz spielen beim Kauf der Weihnachtsgeschenke kaum eine Rolle

Thomas Kirschmeier Pressestelle
FOM Hochschule

Das Thema Nachhaltigkeit spielt beim Geschenkekauf vor Weihnachten nur eine untergeordnete Rolle. Überraschend ist vor allem, dass die jüngeren Generationen offenbar wenig Wert auf einen umwelt- und ressourcenschonenden Einkauf in der Adventszeit legen. Das ergab eine von der FOM Hochschule für Oekonomie & Management durchgeführte bundesweite Umfrage unter rund 62.000 Frauen und Männern zwischen 12 und 99 Jahren.

Unter dem Oberbegriff „Nachhaltigkeit“ hatten die Forscher die Bedeutung von umweltfreundlichen Materialien (z.B. Holz statt Plastik), die Verwendung gesundheitsschonender Lacke und Farben, Ökosiegel, biologische Herstellung und die Recyclingfähigkeit von Produkten zusammengefasst. Auf die Frage, ob diese Kriterien Einfluss auf den Geschenkekauf ausüben würden, gaben 77 Prozent der 12- bis 22-Jährigen an, das dies für sie keine Rolle spiele. Bei der Generation Y (23-38 Jahre) waren es noch 67 Prozent, bei den 39- bis 54-Jährigen immerhin noch mehr als Hälfte (55 %).

Nur 26 Prozent aller Befragten zwischen 12 und 99 Jahren gaben an, bei der Verpackung ihrer Geschenke auf umweltfreundliche Verpackungen wie zum Beispiel Recyclingpapier zu achten. Ebenfalls nur 26 Prozent aller Befragten wollen auch an Weihnachten unnötigen Müll vermeiden.

Was schenken die Deutschen?
Die Hitliste der Geschenke ist 2019 im Vergleich zu den Vorjahren relativ konstant. Jeder zweite Deutsche verschenkt zu Heiligabend Geschenkgutscheine (51 %), gefolgt von Kosmetik (46 %), Konzert- und Theaterkarten (44 %), Büchern (41 %) und Schmuck (40 %). Weit abgeschlagen liegen hingegen eher traditionelle Geschenke wie Heimtextilien und Lederwaren (jeweils 15 %) oder Hausrat bzw. Porzellan (17 %). Durchschnittlich beabsichtigt jeder Bundesbürger 2019 rund 475 Euro für Weihnachtsgeschenke auszugeben.

Weihnachtseinkauf im Internet
Persönliche Empfehlungen von Freunden und Bekannten sind die wichtigsten Informationsquellen für den Geschenkekauf (53 %), noch deutlich vor Social Media und anderen Online-Medien (21 %). Das Internet ist als Kaufplattform aber weiterhin angesagt: Bei den 23- bis 38-Jährigen geben sogar rund 90 Prozent der Befragten an, die Bestellung im Internet zu tätigen. Gut die Hälfte der Bevölkerung kauft die Geschenke aber auch noch im Fachgeschäft in der Stadt und weiß die persönliche Beratung zu schätzen.

Ältere Generation lässt sich Zeit
Der Generationenvergleich zeigt zudem Unterschiede bei der Frage, wann Geschenke gekauft werden. Hier lässt sich das Ergebnis klar auf die Formel bringen: Je jünger, desto kurzfristiger vor Weihnachten wird eingekauft, und je älter, desto mehr Zeit für Auswahl und Kauf lassen sich die Befragten. So geht jeder zweite junge Mensch erst in den letzten acht Tagen vor dem Fest auf Shoppingtour, bei den Älteren (über 38 Jahre) haben dagegen zu diesem Zeitpunkt schon rund zwei Drittel ihre Geschenke beisammen.

Zur Studie
Die FOM Weihnachtsumfrage ist eine der größten Umfragen dieser Art in Deutschland. Unter wissenschaftlicher Leitung von Prof. Dr. Oliver Gansser vom ifes Institut für Empirie und Statistik der FOM, beteiligten sich rund 30 Professorinnen und Professoren an der Studie. Rund 5.600 Studierende befragten im Herbst 2019 in Face-to-face-Interviews mit standardisierten Fragebögen bundesweit rund 62.000 Frauen und Männer im Alter von 12 bis 99 Jahren, quotiert nach Geschlecht und Alter.

Viele weitere Ergebnisse der Studie, zum Beispiel die Auswertung unterteilt nach Einkommensgruppen und weiteren Alterseinteilungen sowie die komplette Studie finden Sie unter http://fom.de/weihnachtsbefragung2019 zum Download.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Oliver Gansser

Quelle: IDW 

(nach oben)


Besser reagieren auf extreme Wetterereignisse: Forscher entwickeln europäische Frühwarnplattform

Simon Ratmann Stabsstelle Presse und Kommunikation
Universität Paderborn

Lange Trockenperioden, Waldbrände, Starkregen und Überschwemmungen im Sommer, Schneemassen im Winter: Immer wieder leiden verschiedene Regionen Deutschlands und Europas unter extremen Klima- und Wetterereignissen – und diese könnten laut Klimaforschern und Meteorologen künftig zunehmen. Im Forschungsprojekt „ANYWHERE“ entwickeln Wissenschaftler der Universität Paderborn mit einem internationalen Kollegenteam eine gesamteuropäische Plattform, die präziser auf Extremwetterlagen vorbereiten soll. Die Europäische Union fördert das noch bis Dezember laufende dreijährige Projekt mit rund 12 Millionen Euro. Beteiligt sind 31 Einrichtungen aus zwölf europäischen Ländern.

Eine Plattform mit Frühwarntools für verschiedene Nutzer
„In unserem Forschungsprojekt entwickeln wir eine europaweite Frühwarnplattform, das „ANYWHERE Multi-Hazard Early Warning System“. Damit lassen sich Klima- und Wettersituationen, die Todesfälle und massive wirtschaftliche wie infrastrukturelle Schäden nach sich ziehen können, früher als bislang vorab identifizieren“, erklärt Matthias Habdank vom Lehrstuhl „Computeranwendung und Integration in Konstruktion und Planung“ von Prof. Dr.-Ing. Rainer Koch. Er betreut das Projekt mit seinen Kollegen Dr.-Ing. Jens Pottebaum und Philipp Scholle vom Lehrstuhl für Produktentstehung unter der Leitung von Prof. Dr.-Ing. Iris Gräßler.

Die ANYWHERE-Plattform wird derzeit an sechs ausgewählten Standorten in Spanien, Italien, Frankreich, der Schweiz, Norwegen und Finnland getestet. Sie soll Behörden, Katastrophenschutzorganisationen, Unternehmen und Bürgern künftig gebündelt eine Reihe modernster Frühwarntools zur Verfügung stellen. Mit diesen Anwendungen lassen sich der Zeitpunkt eines extremen Wetterereignisses, potentiell betroffene Orte und mögliche Auswirkungen schneller als bisher antizipieren und Schutzmaßnahmen können optimiert werden. „Unsere Plattform richtet sich bewusst an verschiedene Nutzer. Sie soll die öffentliche Gefahrenabwehr unterstützen, aber auch dem Selbstschutz von Unternehmen und Bürgern dienen“, betont Jens Pottebaum. Auf Korsika erproben die Wissenschaftler beispielsweise Frühwarntools, mit denen sich Waldbrände prognostizieren lassen. So kann die Bevölkerung schnell gewarnt werden und die Feuerwehr gezielt ihre Einsätze planen.

Hilfe im Katastrophenfall
ANYWHERE stellt nicht nur Frühwarntools zur Verfügung, die vor einem extremen Wettereignis warnen. Die Plattform bietet auch Hilfeanwendungen für den Katastrophenfall, mit denen rascher als bislang reagiert und Rettungsaktionen besser koordiniert werden können. „Für Behörden, Feuerwehr und Co. sind konkrete Sofortmaßnahmen interessant, der Bürger fragt sich, wie er sich selbst schützen kann und der Unternehmer, wie er sich so vorbereiten kann, dass sein Geschäft nicht einbricht und Arbeitsplätze gefährdet werden. Unsere Anwendungen sollen allen helfen“, so Matthias Habdank. Im italienischen Genua etwa testen die Wissenschaftler ein Tool, das sich bei Hochwasser einsetzen lässt. Mit der Anwendung können Katastrophenschutzbehörden die Eltern von Schülern informieren, dass ihre Kinder in Sicherheit sind und so verhindern, dass sich die Erwachsenen selbst in Gefahr bringen. In Katalonien wird eine Anwendung erprobt, mit der LKW-Fahrer eines Nahrungsmittellogistikers bei starkem Schneefall Routen planen können. Das Tool erfasst die aktuellen Straßenbedingungen und mögliche Staus. So gelangt das Fahrzeug schnellstmöglich an sein Ziel, das Unternehmen kann sein Geschäft aufrechterhalten und die Bevölkerung bekommt die benötigten Lieferungen.

Bereits existierende Frühwarn- und Hilfetools werden integriert
Bei ANYWHERE arbeiten Ingenieure, Informatiker, Meteorologen, Naturwissenschaftler, Geologen, Juristen und Experten anderer Fachgebiete aus ganz Europa zusammen. So können bereits existierende Frühwarn- und Hilfetools in die Plattform integriert und weiterentwickelt werden. Daneben speist sich ANYWHERE aus europaweiten Daten: „Unsere Plattform bezieht ihre Daten aus verschiedenen Quellen. Mittelfristige Wetterdaten kommen beispielsweise vom Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF) und lokale Wetterdaten teils von örtlichen Sensoren“, erläutert Jens Pottebaum. „Wir verwenden ein offenes Schnittstellenkonzept und aktuelle Standards. So konnten bereits 300 Systeme Dritter – wie Systeme von Wetterdiensten – und damit verschiedenste Vorhersage- und Auswirkungsalgorithmen integriert werden“, ergänzt Philipp Scholle. Alle Tools der ANYWHERE-Plattform werden an die lokalen Anforderungen von Behörden und öffentlichen wie privaten Betreibern kritischer Infrastrukturen angepasst.

Den Selbstschutz fördern
Die ANYWHERE-Plattform integriert nicht nur Daten und Anwendungen Dritter. Sie kann auch selbst in bereits bestehende Frühwarnsysteme eingebettet werden und stellt ihre Daten und Algorithmen anderen Anwendungen zur Verfügung. Begleitend zur Frühwarnplattform entwickeln die Paderborner Wissenschaftler außerdem eine Wissensplattform, den „Common Information Space“ (CIS). „Es geht uns nicht nur darum, Frühwarn- und Hilfetools für Extremwetterlagen zu bündeln und weiterzuentwickeln. Es sollen auch Handlungsempfehlungen entstehen, die zeigen, wie sich die Tools bestmöglich nutzen lassen, und wir wollen die Entwicklung weiterer Anwendungen fördern – vor allem zum Selbstschutz der Bürger“, betont Matthias Habdank. Der CIS bietet Entwicklern daher Werkzeuge und Guidelines, mit denen sich weitere Frühwarn- und Hilfetools programmieren lassen.

Um möglichst viele Menschen zu erreichen, sind Sprache und Form der Frühwarnplattform flexibel anpassbar. „Prinzipiell ist alles möglich, was web- oder cloudbasiert ist“, erklärt Jens Pottebaum. „In den Lagezentren von Behörden wird die Plattform beispielsweise als PC-Software verwendet, bei unseren lokalen Fallstudien kommen teilweise Apps zum Einsatz.“ Einige der Plattform-Tools arbeiten außerdem mit Warnmeldungen, die etwa über Twitter und den Kurznachrichtendienst Telegram verschickt werden können.

Nach Projektende werden einige der Frühwarn- und Hilfetools für Behörden, Unternehmen und Bürger kostenfrei verfügbar sein – jeweils angepasst an regionale Gegebenheiten und Anforderungen. Der Common Information Space ist dann ebenfalls frei zugänglich. Einige Ergebnisse von ANYWHERE werden außerdem in neuen Forschungsprojekten genutzt, um an einem internationalen Standard zur Nutzung von Social Media in der Gefahrenabwehr zu arbeiten (siehe dazu: www.isotc292online.org/projects/iso-22329).

Wissenschaftliche Ansprechpartner:

Matthias Habdank M.Sc., Fakultät für Maschinenbau, Tel.: 05251 60-2292, E-Mail: habdank@cik.upb.de; Dr.-Ing. Jens Pottebaum, Heinz Nixdorf Institut der Universität Paderborn, Fakultät für Maschinenbau, Tel.: 05251 60-6258, E-Mail: jens.pottebaum@hni.upb.de,
Philipp Scholle, M.Sc., Heinz Nixdorf Institut, Fakultät für Maschinenbau, Tel.: 05251 60-6263, E-Mail: philipp.scholle@hni.upb.de

Weitere Informationen:
http://www.upb.de

Quelle: IDW 

(nach oben)


Gefährdungen durch körperliche Fehlbelastungen einfach ermitteln

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Seit Jahrzehnten stehen die Ausfalltage aufgrund von Muskel-Skelett-Erkrankungen an erster Stelle in den Statistiken für Arbeitsunfähigkeit. Ob akute Beschwerden oder Verschleißerkrankungen – Fehlbelastungen des Körpers spielen hier eine bedeutende Rolle im Erkrankungsgeschehen. Umso wichtiger ist es, Gefährdungen durch körperliche Tätigkeiten am Arbeitsplatz zu beurteilen, um die Gesundheit der Beschäftigten durch präventive Maßnahmen zu schützen. Gemeinsam mit der Deutschen Gesetzlichen Unfallversicherung (DGUV) führte die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) das Projekt „MEGAPHYS – Mehrstufige Gefährdungsanalyse physischer Belastungen am Arbeitsplatz“ durch.

Im Rahmen des Projektes wurden insgesamt sechs Leitmerkmethoden entwickelt. Sie stehen jetzt der betrieblichen Praxis zur Verfügung, um mit ihnen Gefährdungen durch verschiedene Formen körperlicher Belastung zu ermitteln und zu beurteilen.

Die BAuA hat jetzt Band 1 des Projektes MEGAPHYS veröffentlicht. Auf rund 1.000 Seiten erläutert er die Entwicklung, Erprobung und Evaluation der Methoden, mit denen sich die Gefährdung durch verschiedene Belastungsarten des Körpers beurteilen lässt. Der Bericht beschreibt detailliert und nachvollziehbar, wie die sechs Leitmerkmalmethoden erarbeitet wurden. Es handelt sich dabei um drei weiterentwickelte Methoden zu den Belastungsarten „Manuelles Heben, Halten und Tragen von Lasten“, „Manuelles Ziehen und Schieben von Lasten“ sowie „Manuelle Arbeitsprozesse“. Neu entwickelt wurden die Methoden zu den Belastungsarten „Ganzkörperkräfte“, „Körperfortbewegung“ und „Körperzwangshaltung“. Alle haben eine umfangreiche Prüfung von Gütekriterien durchlaufen und werden zur Anwendung und zum Test in der Praxis empfohlen. Ergänzend liegt ein Konzept für eine mögliche Bewertung von Mischbelastungen über die gesamte Arbeitsschicht vor.

Die Leitmerkmalmethoden sollen auf möglichst einfache Art und Weise die wesentlichen Belastungsmerkmale dokumentieren und eine überschlägige Beurteilung ermöglichen. Dazu ist eine gute Kenntnis der zu beurteilenden Tätigkeit unabdingbar. Methodisch werden im ersten Schritt die Leitmerkmale der Tätigkeit wie beispielsweise Dauer/Häufigkeit, Lastgewicht, Körperhaltung und Ausführungsbedingungen erfasst. Anschließend wird aus den Einschätzungen der Leitmerkmale mathematisch ein Risikowert berechnet, aus dem sich die weitere Herangehensweise nach der Gefährdungsbeurteilung ergibt. Dabei bedient sich die Methode des Ampelmodells, die von Grün oder „keine Überbeanspruchung“ bis hin zu Rot oder „wahrscheinliche Überbeanspruchung“ reicht. Die Formblätter der neuen Leitmerkmalmethoden gibt es in Deutsch und in Englisch im Internetangebot der BAuA unter http://www.baua.de/leitmerkmalmethoden.

„MEGAPHYS – Mehrstufige Gefährdungsanalyse physischer Belastungen am Arbeitsplatz. Band 1″; Dortmund, Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2019; 1. Auflage; 986 Seiten; doi:10.21934/baua:bericht20190821. Den Bericht im PDF-Format gibt es zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/publikationen.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Originalpublikation:
http://www.baua.de/dok/8820522
Direkter Link zum Bericht „MEGAPHYS – Mehrstufige Gefährdungsanalyse physischer Belastungen am Arbeitsplatz. Band 1″

Quelle: IDW 

(nach oben)


Klimawandel: Potential von Baumpflanzungen dramatisch überbewertet

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Wissenschaftler kritisieren Vorschläge der ETH Zürich – Potential fünffach überschätzt
Kohlendioxid, das durch die Verbrennung fossiler Brennstoffe in die Atmosphäre gelangt, führt zu einer Erwärmung der Erde, einer Versauerung der Ozeane und einer Veränderung des Klimas. Da Bäume Kohlenstoff durch Photosynthese binden, sehen einige Wissenschaftler und Umwelt-Gruppen im millionenfachen Pflanzen von Bäumen eine Lösung für den Klimawandel. Eine Gruppe von 46 Wissenschaftlern aus aller Welt, unter ihnen Prof. Dr. Vicky Temperton von der Leuphana Universität Lüneburg, mahnt zur Vorsicht.

In einem jetzt in der amerikanischen Fachzeitschrift Science veröffentlichten Beitrag zeigen Joseph Veldman von der Texas A & M University und seine Co-Autoren, dass die jüngsten Forschungsergebnisse das Potenzial von Baumpflanzungen zur Eindämmung des Klimawandels dramatisch überbewertet haben. Sie warnen: Das Pflanzen von Bäumen an falschen Orten kann sogar Ökosysteme zerstören, die Intensität von Waldbränden erhöhen und die globale Erwärmung verschärfen.

Veldman sagte: „Während das Pflanzen von Bäumen in abgeholzten Gebieten positive Auswirkungen haben kann, zerstört es im natürlichen Grasland der Erde den Lebensraum von Pflanzen und Tieren und wird außerdem nicht genügend Kohlenstoff binden, um die Emissionen fossiler Brennstoffe zu kompensieren.“

Mit ihrem Beitrag kritisieren die Autoren einen anderen, kürzlich in Science erschienenen Artikel von Wissenschaftlern der Eidgenössischen Technischen Hochschule (ETH) in Zürich. Diese Forscher waren von einer niederländischen gemeinnützigen Stiftung (DOB Ecology), einer Interessengruppe für das Pflanzen von Bäumen (Plant-for-the-Planet) und dem Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) finanziert worden. Sie behaupteten, dass mit weltweiten Baumpflanzungen 205 Gigatonnen Kohlenstoff oder ein Drittel des Kohlendioxids, das seit der industriellen Revolution ausgestoßen wurde, kompensiert werden könnten.

Veldman macht klar: „Da die geschätzte Kompensation von 205 Gigatonnen Kohlenstoff so hoch war, wurde das Pflanzen von Bäumen weltweit als die beste Lösung für die Eindämmung des Klimawandels bezeichnet. Wir wissen jetzt, dass diese Annahme falsch war. “

In ihrer Kritik schreiben Veldman und seine Co-Autoren, dass die Schweizer Forschung schwerwiegende Mängel aufwies, die zu einer fünffachen Überschätzung des Potenzials neu gepflanzter Bäume für die Eindämmung des Klimawandels führten. Die ursprüngliche Studie ging unter anderem davon aus, dass Böden in Ökosystemen ohne Bäume keinen Kohlenstoff enthalten, obwohl in vielen Ökosystemen wie Savannen und Torfmooren mehr Kohlenstoff im Boden gebunden ist als in der oberirdischen Vegetation.

Die Schweizer Forscher vernachlässigten auch die Tatsache, dass Nadelwälder in gemäßigt kalten Klimazonen und Hochgebirgsregionen mehr Sonnenlicht absorbieren und mehr Wärme abgeben als baumlose Gebiete und so die globale Erwärmung eher verschärfen als mildern. Außerdem warnen die Autoren, dass das Pflanzen von Bäumen auf Wiesen und in Savannen, wie vom Schweizer Forscherteam vorgeschlagen, die Umwelt schädigt.

Veldman sagt: „Uralte Wiesen und Savannen enthalten eine immense Artenvielfalt und erbringen Dienstleistungen für die Menschheit, wie z. B. Viehfutter und Grundwasserneubildung. Wir befürchten, dass ein kurzsichtiger Fokus auf das Pflanzen von Bäumen die Anpassungsfähigkeit der Menschen an den Klimawandel verringert und gleichzeitig von den Bemühungen zur Erhaltung intakter Ökosysteme und zur Reduzierung des Verbrauchs fossiler Brennstoffe ablenkt. “

Co-Autorin Vicky Temperton von der Leuphana fügt hinzu: „Eine ökologische Sanierung könnte viel mehr zu natürlichen Klimalösungen beitragen, wenn wir uns nicht nur auf Wälder fokussieren, sondern uns auch um Grasland, Savannen, Buschland und Torfmoore kümmern.“

Originalpublikation:
https://science.sciencemag.org/content/366/6463/eaay7976

Quelle: IDW 

(nach oben)


Bin ich nicht zu alt dafür? Musiktherapie gegen Tinnitus für die Generation 65plus

Natascha Schettler-Brox Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Musiktherapie ist auch bei „Best agern“ sehr effektiv.
Etwa jeder vierte Mensch über 65 Jahren leidet unter Tinnitus- mit steigender Tendenz.
Dieser Alterstrend lässt sich auch in der Tinnitusambulanz am Deutschen Zentrum für Musiktherapieforschung DZM e.V. beobachten: Seit nunmehr 15 Jahren wird die Neuro-Musiktherapie bei Tinnitus angeboten und zunehmend von Senioren angefragt und in Anspruch genommen. Dabei taucht immer wieder die Besorgnis auf „für diese Therapie bin ich doch schon zu alt, oder?“

Ausgehend von diesem Alterstrend wurde nun die „Neuro-Musiktherapie“ für chronischen Tinnitus speziell auf die Bedürfnisse der Generation 65plus abgestimmt.
Ergebnisse einer aktuellen Analyse an 140 Tinnitusbetroffenen bestätigen, dass Teilnehmer ab 65 Jahren (Durchschnittsalter 72 Jahre) davon profitieren – und sogar eine größere Chance auf Therapieerfolg erreichen, wie eine im Schnitt rund 25 Jahre jüngere Vergleichsgruppe. Insgesamt erreichten rund 80% der behandelten Senioren eine spürbare Verbesserung ihrer Tinnitussymptome.
Gerade weil sich die Best Ager überwiegend „reich, jung und fit“ (Quelle: Generali Altersstudie) fühlen, stellt ein dauerhaftes Ohrgeräusch eine deutliche Belastung dar und führt zu Einbußen in der Lebensqualität im dritten Lebensabschnitt. In der Regel sind die bisherigen Therapieangebote offen für eine sehr große Zielgruppe, richten sich aber implizit vor allem an die Gruppe der berufstätigen Erwachsenen im Alter zwischen 35 und 60 Jahren. Eine spezielle Anpassung der Therapie, wie sie am DZM e.V. angeboten wird, erhöht allerdings die Therapiechancen drastisch.

Die Tinnitusambulanz des Deutschen Zentrums für Musiktherapieforschung bietet laufend Kompakttherapien für Patienten mit akutem und chronischem Tinnitus an. Weitere
Informationen für Patienten sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter
tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM eines der größten musiktherapeutischen Forschungsinstitute in Europa und vereint Forschung und Praxis unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmittel. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehören eine Tinnitus- sowie eine Cochlea-Implantat-Ambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 26
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 73 999 89
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Wissenschaftliche Ansprechpartner:
Dr. Heike Argstatter
Deutsches Zentrum für Musiktherapieforschung
DZM e.V.
Maaßstraße 26
69123 Heidelberg
Telefon: +49 (6221) 79 63 101
Telefax: +49 (6221) 73 999 89
E-Mail: heike.argstatter@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Quelle: IDW 

(nach oben)


Globaler Süden leidet am stärksten unter Klimawandel und Landnutzung

Volker Hahn Medien und Kommunikation
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig

Bis zum Jahr 2050 könnten bis zu fünf Milliarden Menschen von Wasserverschmutzung, Küstenstürmen oder unbestäubten Nutzpflanzen bedroht sein – ein Großteil davon in Entwicklungsländern. Zu diesem Ergebnis kommt eine Studie im Fachmagazin Science, die von einem internationalen Forscherteam verfasst wurde. Die Forscher erstellten eine hochauflösende globale Karte, welche die Leistungen der Natur für den Menschen darstellt. Diese sogenannten Ökosystemleistungen sind durch die vom Menschen verursachte Schädigung der Ökosysteme und der Biodiversität bedroht. Die neue Karte kann helfen, politische Entscheidungen zum Schutz der Natur zu verbessern – sowohl lokal als auch global.

Der Mensch ist auf die Natur angewiesen. Wildbienen summen über einen landwirtschaftlichen Betrieb und bestäuben die dort angebauten Gemüsepflanzen. Nahegelegene Feuchtgebiete filtern Schadstoffe aus dem Abwasser und gewährleisten so sauberes Trinkwasser für die Gemeinde. Überall auf der Welt leistet die Natur einen wichtigen Beitrag für die Menschheit. Eine neue Studie mit Beteiligung des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) und der Martin-Luther-Universität Halle-Wittenberg (MLU), die im Fachmagazin Science veröffentlicht wurde, nutzt hochauflösende Satellitendaten um die detailreichen lokalen Analysen in eine globale Übersicht einfließen zu lassen. Mithilfe neuester Technologien und Software erstellten die Forscher eine interaktive Karte, die die Ergebnisse lokaler Untersuchungen im globalen Kontext darstellt. Die so entstandene Analyse zeigt, dass die Natur immer weniger in der Lage ist, die Menschen vor Wasserverschmutzung, Küstenstürmen oder Problemen mit der Bestäubung von Pflanzen zu schützen.

„Zum ersten Mal konnten wir darstellen, ob und wie die Ökosystemleistungen mit der Abhängigkeit der Menschen von diesen Leistungen überlappen“, erklärt Co-Autor Prof. Henrique Miguel Pereira, der die Arbeitsgruppe Biodiversität und Naturschutz bei iDiv und der MLU leitet. „Wir haben herausgefunden, dass Ökosysteme genau dort schwächer werden, wo die Menschen besonders von der Natur abhängig sind. Das ist sehr besorgniserregend – die Politik muss umgehend gegen die Schädigung der Ökosysteme vorgehen.“

Die Forscher konzentrierten sich auf drei Leistungen der Natur, von denen wir Menschen besonders profitieren: die Regulierung der Wasserqualität, der Schutz vor küstennahen Bedrohungen und die Bestäubung von Pflanzen. Mit einer Open-Source-Software, die vom Projekt Natural Capital entwickelt wurde, konnten sie Prognosen erstellen, wie sich diese Leistungen verändern könnten.

Sie fanden heraus, dass generell dort, wo die Menschen am meisten von der Natur abhängen, diese den Bedürfnissen immer weniger gerecht werden kann. Die Prognosen zeigen, dass bis zum Jahr 2050 fünf Milliarden Menschen durch Wasserverschmutzung, Küstenstürme und unbestäubte Pflanzen gefährdet sein könnten. Dabei sind diese Auswirkungen ungleich verteilt: In jedem Szenario der Wissenschaftler sind es die Entwicklungsländer, die einen Großteil der Last schultern müssen. Die Menschen in Afrika und Südasien leiden am stärksten unter den abnehmenden Beiträgen der Natur. Mehr als die Hälfte der Bevölkerung in diesen Regionen bekommen schon jetzt die Folgen dieser „Leistungslücke“ am eigenen Leib zu spüren, wenn die Natur ihre Leistungen nicht mehr erbringen kann: Sie sind Küstenstürmen stärker ausgesetzt, leiden unter verschmutztem Trinkwasser oder Ernteverlusten. Doch die Auswirkungen beschränken sich nicht nur auf einzelne Länder. Der Anstieg des Meeresspiegels aufgrund des Klimawandels wird das Risiko für die Bevölkerung küstennaher Gebiete überall auf der Erde ansteigen lassen – allein davon könnten weltweit mehr als 500 Millionen bis 2050 betroffen sein.

Angesichts der zunehmenden Globalisierung stellt die Nutzung integrierter und hochauflösender Daten eine Möglichkeit dar, den Zustand der Natur in globale politische Entscheidungen einfließen zu lassen. Die Zugänglichkeit der Informationen war den Wissenschaftlern besonders wichtig. Ein zentrales Anliegen ihrer Forschung war daher, eine hochauflösende und interaktive Karte zu erstellen, auf die online zugegriffen werden kann. Dieses Online-Tool half dem Team nicht nur dabei, die Daten auszuwerten, sondern es hilft auch dabei, komplexe und globale Daten gegenüber wichtigen Entscheidungsträgern auf eine verständliche Art und Weise darzustellen.

Das Ziel dieser Forschung – und zukünftiger Projekte, die darauf aufbauen – ist es, die Politik und Entscheidungsprozesse in Bezug auf Investitionen in die Natur mit Informationen zu versorgen. So kann anhand der Prognosen beispielsweise abgeleitet werden, dass Gebiete im Becken des Ganges oder in Teilen Ostchinas besonders geeignet sind für Investitionen in die natürlichen Ökosysteme. Der Schutz der Ökosysteme in diesen Gebieten wird zum Wohlergehen ganzer Gemeinschaften beitragen.

Das Team hofft, dass insbesondere politische Entscheidungsträger, Entwicklungsbanken und andere globale Einflussnehmer die Informationen dafür nutzen werden, die nachhaltige Entwicklung und den Naturschutz weiter voranzutreiben. Zukünftig werden die Wissenschaftler ihre Analysen auch auf andere Ökosystemleistungen ausweiten. Auch möchten sie noch besser verstehen, wo die Natur besondere gefährdete Bevölkerungsgruppen noch besser unterstützen könnte. „Wir haben die Informationen, die wir brauchen um die schlimmsten Szenarien abzuwenden und um eine gerechtere und nachhaltigere Zukunft zu gewährleisten“, meint Erstautorin Dr. Becky Chaplin-Kramer, die das Projekt Natural Capital an der Stanford University leitet. „Es ist Zeit, dass wir sie auch nutzen.“

Wissenschaftliche Ansprechpartner:

Prof. Dr. Henrique Pereira
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Martin-Luther-Universität Halle-Wittenberg (MLU)
Tel.: +49 341 9733137
E-Mail: henrique.pereira@idiv.de

Originalpublikation:

Rebecca Chaplin-Kramer, Richard P. Sharp, Charlotte Weil, Elena M. Bennett, Unai Pascual, Adrian L. Vogl, Katie K. Arkema, Kate A. Brauman, Anne D. Guerry, Nick M. Haddad, Maike Hamann, Perrine Hamel, Justin A. Johnson, Lisa Mandle, Henrique M. Pereira, Stephen Polasky, Mary Ruckelshaus, M. Rebecca Shaw, Jessica M. Silver, Gretchen C. Daily(2019), Global Modeling of Nature’s Contributions to People. Science. DOI: 10.1126/science.aaw3372

Weitere Informationen:

http://viz.naturalcapitalproject.org/ipbes/ Interaktive Karte

Quelle: IDW 

(nach oben)


Studenten entwickeln einen Koffer, der automatisch auf Schritt und Tritt folgt

Claudia Ehrlich Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Lästiges Schleppen und kippeliges Hinterherziehen von Reisegepäck könnten bald der Vergangenheit angehören: Studenten der Universität des Saarlandes wollen mit einem smarten Koffer dafür sorgen, dass Reisende in Zukunft ihre Hände für Wichtigeres frei haben. Der „Smartcase“ genannte Prototyp, den die vier Nachwuchsforscher gerade entwickeln, heftet sich an die Fersen – oder bei Rollstuhlfahrern auch an die Felgen – seines Besitzers und fährt ihm oder ihr ohne Weiteres hinterher. Möglich wird dies durch eine Kombination aus Kamera, Sensoren und einer pfiffigen Regelung und Steuerung. Mit ihrer klugen Tüftelei vertreten die Studenten ab 28. Oktober die Saar-Universität beim Wettbewerb Cosima.

Die nötigsten Habseligkeiten mit auf Reisen zu nehmen, kann eine echte Herausforderung sein. Wer Reiseunterlagen, Handgepäck und Taschen, Jacken, mitunter auch heißgeliebte Teddys oder Kekse von kleinen Mitreisenden zugleich jonglieren muss, hat alle Hände voll zu tun. Da kann ein Koffer, auch wenn er Rollen hat, zum Ballast werden – erst recht, wenn die Zeit drängt. Würde einem das Reisegepäck wie ein treuer Hund von selbst nachfolgen, wäre dies für Tausende und Abertausende von Reisenden tagtäglich eine enorme Erleichterung. „Wir denken dabei gerade auch an Menschen mit Einschränkungen wie Gehbehinderungen. Ihnen könnte solch ein intelligenter Koffer unabhängigeres Reisen möglich machen“, erklärt Joshua Summa, der Systems Engineering an der Universität des Saarlandes studiert. Gemeinsam mit seinen Studienkollegen Till Mertin, Nick Kempel und dem Informatikstudenten Joshua Arens, baut der angehende Ingenieurwissenschaftler derzeit einen intelligenten Koffer, der das Reisen künftig stressfreier machen soll.

Der „Smartcase“-Prototyp ist bereits jetzt in der Lage, sich an die Fersen einer bestimmten Zielperson zu heften, und dann konsequent ihre Verfolgung aufzunehmen. „Unser System beruht auf einer Kombination mehrerer Sensoren“, erklärt Joshua Summa. Kernstück ist eine Kamera, die denjenigen erkennt, dem sie folgen soll, und jede seiner Bewegungen erfasst. Hinzu kommen drei Ultraschallsensoren, die unter anderem permanent Entfernungen messen und so etwa dabei helfen, Hindernisse zu erkennen und ihnen, wenn nötig, auszuweichen.

Die Messdaten der Sensoren laufen in einem Mikro-Prozessor zusammen, der die Informationen auswertet, weiterarbeitet und entsprechende Befehle an die Elektromotoren der Räder des Koffers weitergibt. Dies alles haben die Studenten dem Prozessor beigebracht. „Wir haben das System so angelernt, dass es mit den Daten der Sensoren die Route permanent neu berechnen kann und entsprechende Signale an den Motor sendet“, sagt Joshua Summa.

„Die Einsatzmöglichkeiten eines solchen Sensorsystems lassen sich noch weiterdenken: etwa im Transportbereich oder in der Lagerlogistik“, erläutert Summa das weitere Potenzial der Erfindung, an der die vier Nachwuchsingenieure derzeit in den Räumen des Lehrstuhls für Mikromechanik von Professor Helmut Seidel auf dem Saarbrücker Uni-Campus arbeiten. Die Idee zum smarten Koffer hat ihren Ursprung in einer Vorlesung von Professor Seidel über Mikromechanik. Diese gilt an der Saar-Uni bereits seit Langem als Ideenschmiede für besondere Prototypen: Ein anderes Studententeam hat etwa einen kopfgesteuerten Rollstuhl entwickelt. Besonders erfolgreich war auch ein Sensorsystem gegen Falschfahrer, das in Leitpfosten eingebaut werden kann: Die Jungforscher, die dieses System entwickelt hatten, wurden mehrfach ausgezeichnet.
„Hier an der Uni haben wir ein gutes Umfeld für unsere Arbeit am Prototyp, bei Fragen können wir uns an die Professoren und ihre Teams wenden. So unterstützt uns zum Beispiel auch die Forschergruppe von Antriebstechniker Professor Matthias Nienhaus, die unter anderem auf intelligente Elektromotoren in Rädern spezialisiert ist“, sagt Joshua Summa.

Mit ihrem Prototyp „Smartcase“ nehmen die Bachelor-Studenten Joshua Summa, Till Mertin, Nick Kempel und Joshua Arens vom 28. bis 30. Oktober am Cosima-Wettbewerb in Berlin teil: Der Studentenwettbewerb, der jedes Jahr vom Verband der Elektrotechnik Elektronik Informationstechnik (VDE) ausgeschrieben wird, soll dazu beitragen, neue Einsatzmöglichkeiten von Mikrosystemen zu finden.
(Info über Cosima 2019: http://partner.vde.com/cosima-mems)

Weitere Pressefotos für den kostenlosen Gebrauch finden Sie unter
http://www.uni-saarland.de/pressefotos

Kontakt für die Presse: Joshua Summa, Till Mertin, Nick Kempel und Joshua Arens
Telefon: 0681-302 -2601 oder -64091, E-Mail: info@smartcase-companion.com
Prof. Dr. Helmut Seidel: Tel.: 0681/302-3979, E-Mail: seidel@lmm.uni-saarland.de

Wissenschaftliche Ansprechpartner:
Kontakt für die Presse: Joshua Summa, Till Mertin, Nick Kempel und Joshua Arens
Telefon: 0681-302 -2601 oder -64091, E-Mail: info@smartcase-companion.com

Quelle: IDW 

(nach oben)


Mehr Energie, weniger CO2 – 9 Millionen Euro für KWK-Forschung

Dr. Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Umweltfreundlich Strom und Wärme produzieren – das ist die Idee der Kraft-Wärme-Kopplung (KWK). Das Forschungsprojekt KWK.NRW 4.0 bekommt für die Entwicklung und den Test neuer Systeme neun Millionen Euro von der EU und dem Land NRW.* Die Projektkoordination hat das Essener Gas- und Wärme-Institut, Partner ist die Universität Duisburg-Essen (UDE) mit dem Zentrum für BrennstoffzellenTechnik (ZBT) und den drei Lehrstühlen Energiewirtschaft, Energietechnik sowie Umweltverfahrens- und Anlagentechnik.

Die Kraft-Wärme-Kopplung gilt als umweltfreundliche Technik, denn mit ihr kann man gleichzeitig Strom, Wärme und Kälte erzeugen. Sie hat einen hohen Wirkungsgrad und stößt weniger Treibhausgase aus. Die Anlagen können zum Beispiel mit Gasmotoren, Turbinen, aber auch mit Brennstoffzellen betrieben werden. Diese sind sehr interessant, weil sie besonders emissionsarm sind.

Die Wissenschaftler im Verbund möchten nun neue KWK-Konzepte entwickeln und untersuchen, wie flexibel, ökologisch und wirtschaftlich zwei innovative Brennstoffzellensysteme sind: Im ersten Teilprojekt (iFlex KWK 4.0) entwickeln sie neue KWK-Versorgungskonzepte sowohl für den gewerblichen und industriellen Verbrauch als auch für städtische Quartiere. Hierfür kombinieren sie am ZBT in Duisburg eine vorhandene Phosphorsäure-Brennstoffzelle mit einer Absorptionskältemaschine, um längere Laufzeiten der Brennstoffzelle und eine bessere Wirtschaftlichkeit zu erreichen.

Für die zweite Teilstudie (Demo Hybrid-SOFC) wird beim Essener Partner Gas- und Wärme-Institut das europaweit erste Hybrid-System aus einer Festoxid-Brennstoffzelle mit nachgeschalteter Mikro-Gasturbine installiert. Dadurch wird die Stromerzeugung extrem effizient.

KWK.NRW 4.0 läuft für drei Jahre, Ende 2021 sollen erste Ergebnisse vorliegen.

*Die Mittel stammen aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Ministerium für Wirtschaft, Innovation, Digitalisierung des Landes Nordrhein-Westfalen.

Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de

Wissenschaftliche Ansprechpartner:
Dr. Jürgen Roes, Energietechnik, Tel. 0203/37 9-3010, juergen.roes@uni-due.de

Weitere Informationen:
http://vi.virtuelles-institut-kwk-nrw.de

Quelle: IDW 

(nach oben)


Leipziger Kardiologe: Moderate Werte bei Blutdruck und Cholesterin verlängern das Leben

Helena Reinhardt Pressestelle / Unternehmenskommunikation
Universitätsklinikum Leipzig AöR

Dramatisch gesenkt wird das Risiko für Herz- und Gefäßerkrankungen, wenn Blutdruck- und Cholesterin-Werte lebenslang moderat gehalten werden. Das ist das Ergebnis einer aktuellen Studie, an der Prof. Dr. Ulrich Laufs, Direktor der Klinik und Poliklinik für Kardiologie am Universitätsklinikum Leipzig, beteiligt war.

„Herz-Kreislauf-Erkrankungen sind bei Frauen und Männern die häufigste Todesursache“, so der Leipziger Kardiologe mit Blick auf den Weltherztag am 29. September. „Das ist niederschmetternd. Denn Herzinfarkte und Schlaganfälle können durch anhaltend niedrige Werte bei Blutdruck und LDL-Cholesterin weitgehend vermieden werden. Das hat jetzt eine Studie meines Kollegen Brian Ference von der Universität Cambridge unterstrichen, an der ich mitgewirkt habe. Sie zeigt, dass schon eine geringe, aber dauerhafte Senkung von systolischem Blutdruck und LDL-Cholesterin das kardiovaskuläre Erkrankungsrisiko hochsignifikant senkt.“
Ausgewertet wurden die Daten von über 400 000 Briten, die in einer Biobank gesammelt sind. Die Teilnehmer waren durchschnittlich 65,2 Jahre alt; 54 Prozent waren Frauen. Bemerkenswertes Ergebnis der Studie: Werden lebenslang der LDL-Cholesterinspiegel um 39 mg/dl (1 mmol/l) und gleichzeitig der systolische Blutdrucks um 10 mmHg gesenkt, ergibt sich ein um 80 Prozent niedrigeres Risiko für kardiovaskuläre Erkrankungen und ein um 68 Prozent niedrigeres Risiko für einen kardiovaskulär verursachten Tod. Schon bei dauerhafter Abnahme des Cholesterins um 15 mg/dl und des Blutdrucks um 5 mmHg halbiert sich das Erkrankungsrisiko.
„Der Knackpunkt ist, dass die Werte lebenslang niedrig sein müssen“, so Prof. Laufs. „Die Patienten, die zu uns kommen, sind aber meist schon in der fünften oder sechsten Lebensdekade oder noch älter. Dann haben Blutdruck und Cholesterin schon ein halbes Jahrhundert auf die Innenwände der Gefäße eingewirkt. Von Bedeutung ist also rechtzeitig zu messen und vor allem rechtzeitig Maßnahmen zur Blutdruck- und Cholesterin-Kontrolle zu ergreifen. Hierzu gehören an erster Stelle körperliche Aktivität und das Nicht-Rauchen, manchmal auch Medikamente.“ Vielleicht könnte schon im Kindes- und Jugendalter bei den sogenannten U-Untersuchungen auch auf diese Werte geachtet werden. Laut Prof. Laufs ist die aktuelle Studie aus Cambridge geeignet, eine solche Diskussion befeuern.

Quelle: IDW 

(nach oben)


Auf den Spuren der Bärtierchen: Stuttgarter Biologe ausgezeichnet

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart

Der Biologe Ralph Schill vom Institut für Biomaterialien und biomolekulare Systeme der Universität Stuttgart erhält heute den renommierten Walter-Schall-Preis 2019 der Gesellschaft für Naturkunde in Württemberg e.V. Mit diesem Preis werden seit 1985 Wissenschaftler aus den Fachgebieten der Botanik, Geologie, Geomorphologie, Geophysik, Meteorologie, Mikrobiologie, Naturschutz, Ökologie, Paläontologie und Zoologie geehrt, die im südwestdeutschen Raum aktiv sind.

Ralph Schill befasste sich bereits an der Universität Tübingen mit Bärtierchen, die in der Lage sind einzutrocknen oder zu gefrieren, um so längere Zeiträume unbeschadet überdauern zu können. Keine andere Tiergruppe hat es geschafft, sich im Laufe der Evolution so perfekt an schnell wechselnde Umweltbedingungen anzupassen wie die nur knapp 1 mm großen Tiere. Als Schill 2003 an die Universität Stuttgart wechselte etablierte er die Bärtierchenart Milnesium inceptum als Modelorganismus und schuf damit eine der renommiertesten Bärtierchenforschergruppen weltweit. Seither entdeckte er mehrere neue Bärtierchenarten in Europa, Afrika, Amerika und auf einer pazifischen Inselgruppe. Mit dem erst dieses Jahr herausgegebene Standardwerk „Water Bears: The Biology of Tardigrades“ beschreibt er zusammen mit 25 führenden Bärtierchenforschern die Erkenntnisse von knapp zweihundert Jahren Bärtierchenforschung.

„Durch diesen Preis fühle ich mich sehr geehrt“, sagt Ralph Schill, „und es freut mich besonders, da sich bereits eines der Ehrenmitglieder der Gesellschaft für Naturkunde in Württemberg im 19. Jahrhundert mit den Bärtierchen beschäftigte. An der forstwirtschaftlichen Akademie zu Hohenheim und am Königlichen Polytechnikum Stuttgart, der späteren Universität Stuttgart, lehrte der Arzt und Zoologe Prof. Gustav Jäger, zu dessen Studenten auch der junge Robert Bosch zählte und in ihm einen überzeugenden Mentor fand. Jäger beschäftige sich intensiv mit der Welt im Kleinen und in seinem Buch „Die Wunder der unsichtbaren Welt“ von 1867 befasst er sich auch mit den Bärtierchen mit ihren außergewöhnlichen Fähigkeiten.

In den letzten 20 Jahren hat sich die Anzahl der Bärtierchenarten mehr als verdoppelt. So sind der Wissenschaft derzeit über 1.200 Arten bekannt. In Baden-Württemberg wurden bisher 75 verschiedene Bärtierchenarten gefunden. Das entspricht etwa der Hälfte der Gattungen und einem Drittel der Arten, die in ganz Deutschland bisher nachgewiesen sind. Ralph Schill, der seit vielen Jahren auch in Baden-Württemberg nach neuen Arten Ausschau hält ist sich aber sicher, „Wir werden sicherloch noch einige neue, unentdeckte Arten im Ländle finden.“

Ein Vortrag von Ralph Schill und die Preisverleihung findet am 10. Oktober um 19:00 Uhr im Staatliches Museum für Naturkunde Stuttgart, Museum am Löwentor, Rosenstein 1, 70191 Stuttgart statt. Der Eintritt zur Veranstaltung ist frei.

Wissenschaftliche Ansprechpartner:
Prof. apl. Ralph O. Schill, Institut für Biomaterialien und biomolekulare Systeme, Pfaffenwaldring 57, 70569 Stuttgart, Tel. 0172 7304726
ralph.schill@bio.uni-stuttgart.de

Weitere Informationen:
Gesellschaft für Naturkunde in Württemberg, Rosenstein 1, 70191 Stuttgart, www.gesellschaft-naturkunde-wuerttemberg.de

Quelle: IDW 

(nach oben)


Bodentiere: 365 Tage unter Wasser // Transport von Bodenlebewesen über Fließgewässer nachgewiesen

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Forschende des Senckenberg Museums für Naturkunde Görlitz haben die Verbreitungswege von bodenlebenden Milben und Springschwänzen untersucht. Mit kombinierten Feld- und Labormethoden konnten sie nachweisen, dass sich die winzigen Bodenorganismen unter anderem über Fließgewässer zu neuen Lebensräumen transportieren lassen. Einige Arten überleben dabei bis zu 365 Tage unter Wasser. Die Studie erschien kürzlich im Fachjournal „Movement Ecology“.

Etwa 5 Zentimeter können bodenlebende Hornmilben (Oribatida) aus eigener Körperkraft pro Tag zurücklegen; bei Springschwänzen (Collembola) ist es immerhin ein knapper halber Meter. „Trotz ihrer eingeschränkten Mobilität haben diese winzigen Tiere eine sehr große räumliche, zum Teil sogar weltweite Verbreitung – sie müssen demnach andere Wege für ihre Ausbreitung gefunden haben“, erklärt Meike Schuppenhauer vom Senckenberg Museum für Naturkunde in Görlitz und fährt fort: „Bereits bekannt ist, dass sich Bodentiere mit dem Wind verfrachten lassen oder von anderen Tieren verbreitet werden.“

Nun hat die Doktorandin mit ihren Görlitzer Kolleg*innen Dr. Ricarda Lehmitz und Prof. Dr. Willi Xylander ein weiteres potentielles Transportmittel unter die Lupe genommen. „Wir haben untersucht, ob und wie sich Hornmilben und Springschwänze über Fließgewässer verbreiten können. Anders als bei Vögeln oder Säugetieren konnten wir diese winzigen Bodenlebewesen aber natürlich nicht einfach mit GPS-Sendern ausstatten“, erzählt Schuppenhauer.
Das Team hat daher in aufwendigen Laborversuchen etwa 200 Milben-Individuen beobachtet, um herauszufinden, ob die Tiere auf der Oberfläche von Fließgewässern treiben können und wie lange sie unter Wasser überleben. Zudem wurden bei Feldforschungen die Fähigkeit zur Neubesiedlung am „Zielort“ untersucht und knapp 300 Milben – und Springschwanz-Individuen im Fließgewässer nachgewiesen.

„Der erfolgreiche Wassertransport ist vermutlich davon abhängig, ob es den Bodentieren gelingt für einige Stunden an der Wasseroberfläche zu treiben und wie lange sie untergetaucht überleben können. Unsere Ergebnisse zeigen, dass dies von Art zu Art unterschiedlich ist und die Tiere in ‚Schwimmer‘ und ‚Taucher‘ eingeteilt werden können“, fasst Schuppenhauer die Versuche zusammen.

Während etwa 80 Prozent der Milbenarten über den gesamten Verlauf des Experiments permanent an der Wasseroberfläche treibend transportiert wurden, sanken einige Arten schon innerhalb weniger Stunden unter Wasser. Schuppenhauer hierzu: „Dabei gab es auch echte Überlebenskünstler unter den winzigen Bodenorganismen: Die Hornmilbenarten Carabodes subarcticus und Carabodes ornatus können mindestens 365 Tage unter Wasser überleben!“

In einem Quadratmeter Auenboden leben zwischen 3.000 und 37.000 Hornmilben. Auch Springschwänze treten in den teilweise überfluteten Gebieten mit bis zu 12.000 Individuen pro Quadratmeter auf. „Flüsse und Bäche durchziehen das ganze Bundesgebiet mit einer Gesamtlänge von 400.000 Kilometern – sie sind damit die idealen Transportwege für diese weniger mobilen Organismen!“, unterstreicht Prof. Dr. Willi Xylander die Studienergebnisse.
Wissenschaftliche Ansprechpartner:

Meike Schuppenhauer
Senckenberg Museum für Naturkunde Görlitz
Tel. 03581 4760-5572
meike.schuppenhauer@senckenberg.de

Originalpublikation:
Schuppenhauer MM, Lehmitz R, Xylander WER. 2019. Slow-moving soil organisms on a water highway: aquatic dispersal and survival potential of Oribatida and Collembola in running water. Movement Ecology. 7(1):20.
https://doi.org/10.1186/s40462-019-0165-5

Quelle: IDW 

(nach oben)


CO2 an der Quelle besteuern

Stephan Düppe Stabsstelle 2 – Kommunikation und Öffentlichkeitsarbeit
FernUniversität in Hagen

Der Volkswirt Prof. Robert Schmidt (FernUniversität in Hagen) spricht sich entschieden für eine CO2-Steuer aus: Sie schafft ideale Bedingungen für Investitionen in emissionsarme Technologien. Die umfassende Festlegung von einheitlichen Preisen für alle Emissionen, insbesondere von Kohlendioxid („CO2-Steuer“) ist ein einfaches und seit Langem bekanntes ökonomisches Instrument, um den Klimawandel wirksam zu bekämpfen. Ein solcher Markteingriff ist nach seiner Ansicht berechtigt und unter Umständen sogar zwingend erforderlich. Darüber hinaus hält er eine gezielte Förderung grüner Technologien für sinnvoll. Robert Schmidt ist Inhaber des Lehrstuhls für Mikroökonomie an der FernUniversität.

„Erstaunlich einfach und seit Langem bekannt“ ist nach den Worten von Prof. Dr. Robert Schmidt ein ökonomisches Instrument, das wirksam den Klimawandel bekämpfen kann. Damit meint der Inhaber des Lehrstuhls für Volkswirtschaftslehre, insbesondere Mikroökonomie an der FernUniversität in Hagen die umfassende Festlegung von einheitlichen Preisen für alle Emissionen, insbesondere von Kohlendioxid („CO2-Steuer“). Ein solcher Markteingriff ist seiner Ansicht nach berechtigt und unter Umständen sogar zwingend erforderlich. Darüber hinaus hält er eine gezielte Förderung grüner Technologien (z.B. erneuerbare Energien, Speichertechnologien) für sinnvoll. „Die Bereitstellung emissionsarmer Technologien hat – ähnlich wie die Senkung der Emissionen – z.T. Eigenschaften eines globalen öffentlichen Gutes!“ Wenn Deutschland eine umfassende CO2-Bepreisung einführe, könne es zudem andere Länder mit an Bord holen und so einen wichtigen Impuls in Richtung einer globalen Bepreisung geben.

Hinsichtlich der Bepreisung von CO2-Emissionen setzt Prof. Schmidt sich vehement für eine Quellenbesteuerung ein, also eine Kohlenstoffsteuer. Dabei würden die fossilen Brennstoffe direkt bei ihrer Förderung bzw. bei ihrem Import entsprechend ihrem Kohlenstoffgehalt besteuert. Schmidt: „Das ist einfacher und unbürokratischer, als riesige Zahlen von CO2-Emittenten einzeln zu erfassen. Ökonomisch ist es eigentlich egal, wo man die Steuer ansetzt. Pragmatisch ist es, wenn man wirklich an der Quelle, also bei oder möglichst direkt nach der Extraktion der fossilen Brennstoffe aus dem Erdreich sowie beim Import ansetzt. Damit kann man theoretisch eine hundertprozentige Abdeckung der CO2-Emissionen erreichen.“

Denn nicht nur Auto fahren, heizen oder Güter und Dienstleistungen verursachen durch Betrieb und Erzeugung CO2, sondern z.B. auch der energieaufwändige Bau eines Hauses („Graue Emissionen“). Hier müssten z.B. Zementgewinnung und Betonherstellung berücksichtigt werden.

Bisher nur 45 Prozent der CO2-Emissionen in der EU erfasst
Im Gegensatz zu einer solchen umfassenden CO2-Steuer sind im EU ETS, dem EU-Emissionshandel (European Union Emissions Trading System), nur die großen Emittenten wie Industrieunternehmen und Energieerzeuger erfasst und damit lediglich ca. 45 Prozent der Emissionen in der EU. Schmidt: „Wenn man nur den Energieverbrauch der Heizung besteuern würde, bliebe außer Acht, wie energieaufwändig das Gebäude hergestellt wurde. Bei einer umfassenden Kohlenstoffbesteuerung würde das alles berücksichtigt. Und wenn ein Produzent sieht, dass seine Produkte durch die Besteuerung teurer werden, wird er versuchen, kohlenstoffarm zu produzieren.“

Industrieunternehmen und Energieerzeuger könnten – und würden – die höheren Belastungen an ihre Kunden weitergeben. Schmidt: „Es ist egal, wo man die Steuer ansetzt; direkt beim Verbraucher oder in der Produktionskette. Es ist ja auch gewollt, dass das Preissignal sich entlang der Wertschöpfungskette fortpflanzt. Die Verbraucherin, der Verbraucher soll sehen: Dieses Produkt oder diese Dienstleistung ist jetzt teurer, weil da mehr CO2 ‚drinsteckt‘. Also weiche ich auf eine andere Dienstleistung oder ein anderes Produkt aus. Auf den Apfel, der nicht aus Argentinien eingeflogen wurde, sondern hier gewachsen ist.“ Und Produzenten emissionsärmerer Produkte können diese vergleichsweise billiger anbieten, und dadurch ihre Marktanteile steigern. Somit entstehen entsprechende Investitionsanreize in emissionsärmere Produktionsprozesse und Technologien. Um Wettbewerbsnachteile für die heimische Wirtschaft auszuschließen, sollte eine CO2-Bepreisung mit steuerlichem Grenzausgleich (sog. Border Carbon Adjustment – BCA) gekoppelt werden: Exporte würden vom heimischen CO2-Preis befreit und Importe damit belastet.

Da das EU ETS bereits existiert, plädiert Schmidt dafür, die CO2-Steuer zusätzlich einzuführen und die Kosten der Zertifikate an die beteiligten Firmen zurückzuerstatten, um eine Doppelbesteuerung zu vermeiden: „Die Steuer wirkt dann wie ein Mindestpreis für Emissionen und ergänzt das EU ETS.“ Prof. Schmidt spricht sich entschieden für die Steuer aus und gegen eine Ausweitung des Zertifikatehandels auf bisher nicht erfasste Sektoren. „Die Steuer setzt ein stabiles Preissignal und schafft somit ideale Bedingungen für Investitionen in emissionsarme Technologien, während der Preis im EU ETS schwankt. Dabei sind sowohl unerwartet geringe als auch sehr hohe Zertifikatepreise nicht wünschenswert. Bei geringen Preisen fehlen Anreize, die Emissionen weiter zu reduzieren, sehr hohe Preise bergen konjunkturelle Risiken.“ Prof. Schmidt schlägt einen Einstiegspreis von 80 Euro pro Tonne CO2 vor, was vergleichbar ist mit der Schweizer CO2-Steuer. Die CO2-Steuer sollte im Anschluss kontinuierlich über die Zeit ansteigen.

Ein Teil der Erlöse aus der CO2-Bepreisung sollte seiner Ansicht nach für Regenwald-Schutzprogramme verwendet werden. Das hält Schmidt für noch dringender als das Abschalten von Kohlekraftwerken oder die Entschädigung von Stromkonzernen, weil so neben der Emissionsminderung auch noch ein unermesslicher Beitrag für den Erhalt der globalen Artenvielfalt geleistet würde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Robert Schmidt robert.schmidt@fernuni-hagen.de

Weitere Informationen:
https://www.scientists4future.org/wp-content/uploads/2019/08/S4F_CO2_Preis_final… „Antworten auf zentrale Fragen zur Einführung von CO2-Preisen“ gibt Prof. Robert Schmidt zusammen mit zahlreichen Kolleginnen und Kollegen in „Diskussionsbeiträge der Scientists for Future 2, 2019, Version 1.1, doi:10.5281/zenodo.3371150″. In der Veröffentlichung geht es um „Gestaltungsoptionen und ihre Auswirkungen für den schnellen Übergang in die klimafreundliche Gesellschaft“.

Quelle: IDW 

(nach oben)


Schlaganfall-Reha: Entspannung besser als Laufbandtraining?

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Fortschritte in der Schlaganfalltherapie führen zu einem immer besseren Überleben. Es steigt dadurch aber auch die Zahl der Patienten, die nach Schlaganfall mit bleibenden Behinderungen leben müssen. Somit kommt der Rehabilitation eine wachsende Bedeutung zu. Derzeit ist die Datenlage dazu, welche Trainingsmethode am erfolgversprechendsten ist, widersprüchlich. Das von den amerikanischen Fachgesellschaften empfohlene Ausdauertraining zeigte sich in einer aktuellen, prämierten Studie [1] gegenüber einer Entspannungstherapie als nicht überlegen. Die neuen Daten deuten darauf, dass in der Frühphase nach einem Schlaganfall „weniger vielleicht mehr“ ist.

Weltweit erleiden jährlich 10 Millionen Menschen einen Schlaganfall [2]. Davon erholt sich mindestens ein Drittel funktionell nicht wieder vollständig [3, 4]. Medikamente zur effektiven Unterstützung der Rehabilitation stehen nicht zur Verfügung – das Vorgehen der Wahl besteht in Physio- und Ergotherapie, – im Falle von Sprachstörungen – in der Logopädie sowie in neuropsychologischen Maßnahmen. Laufband-Training kann Geschwindigkeit und Ausdauer beim Gehen und Treppensteigen verbessern und einer zunehmenden Dekonditionierung vorbeugen. Zusätzlich könnte die Neuroplastizität des Gehirns gefördert und somit das Outcome verbessert werden. Daher empfiehlt die „American Heart Association/American Stroke Association“ Schlaganfallpatienten ab der subakuten Phase 3-5 x wöchentlich 20-60 Minuten aerobes Training (Ausdauertraining) bei 55-80% der maximalen Herzfrequenz [5].

Die Datenlage zu den Ergebnissen einer solchen Schlaganfall-Reha ist allerdings widersprüchlich. Manche Studien zeigten eine Verbesserung des maximalen Gehtempos oder einen Anstieg des „Barthel Index“, eines Scores zur Objektivierung von Behinderungen in grundlegenden Alltagsfunktionen. Metaanalysen lieferten dagegen uneinheitliche Ergebnisse eines körperlichen Trainings [6]. Auch die LEAPS-Studie [7] („Locomotor Experience Applied Post-Stroke“) zeigte keine Outcome-Unterschiede für die Laufband-Trainingstherapie versus eines häuslichen Übungsprogramms – allerdings wurde in dieser Studie kein aerobes Training in der Frühphase nach Schlaganfall eingesetzt. „Generell lassen sich die Studien wegen der Unterschiede im Hinblick auf Art, Intensität und Zeitpunkt des Trainingsbeginns schwer vergleichen“, erklärt Frau Prof. Dr. Agnes Flöel, Direktorin der Klinik für Neurologie, Universitätsmedizin Greifswald. „Insbesondere für Patienten in der Frühphase nach einem Schlaganfall bestehen Unsicherheiten, welches Training optimal ist.“

Die deutsche, multizentrische Studie „PHYS-STROKE“ („Physical Fitness Training in Patients with Subacute Stroke“) [1], die innerhalb des Center for Stroke Research Berlin (CSB) an der Charité gefördert wurde, untersuchte unter der Leitung von Frau Prof. Flöel daher randomisiert, kontrolliert und endpunktverblindet die Effekte eines aeroben Laufband-Trainings mit Beginn in der Frühphase nach einem Schlaganfall.

Die PHYS-STROKE-Studie wurde zwischen 2013-2017 an sieben deutschen, stationären Rehabilitationskliniken durchgeführt. Evaluiert wurde die Sicherheit und Effektivität der frühen Lokomotionstherapie mit dem Laufband (5-45 Tage nach dem Ereignis, median 28). 200 erwachsene Schlaganfallpatienten wurden 1:1 in zwei Gruppen randomisiert. Das mittlere Alter lag bei 69 Jahren, 41% waren Frauen. Die Patienten waren mittelschwer bis schwer betroffen (medianer National Institutes of Health Stroke Scale [NIHSS] 8 [IQR 5-12]).

Die Studiengruppe (n=105) absolvierte zusätzlich zu den Standard-Rehamaßnahmen ein aerobes Laufband-Training, die Kontrollgruppe (n=95) nahm neben den Standard-Rehamaßnahmen an Entspannungs-Einheiten teil (n=95). Jede Gruppe absolvierte das jeweilige Training fünfmal wöchentlich, jeweils 25 Minuten, über insgesamt vier Wochen. Nach dieser Zeit nahmen die Patienten weiter an der Standardtherapie teil. Primäres Outcome waren die maximale Gehgeschwindigkeit (in m/s über eine 10-m-Strecke) und Alltagsaktivität der Patienten (Barthel Index 0-100, wobei ein höherer Wert weniger Behinderung bedeutet) – gemessen drei Monate nach dem Schlaganfall. Als schwere unerwünschte Ereignisse galten kardiovaskuläre Ereignisse einschließlich erneutem Schlaganfall, Rückverlegung in ein Akutkrankenhaus und Tod. Im Ergebnis hatte das Laufband-Training nach drei Monaten nicht zur signifikanten Verbesserung des maximalen Gehtempos oder des Barthel Index geführt. Insgesamt gab es in der Laufband-Gruppe jedoch 1,8-mal mehr schwere Ereignisse (22/105 vs. 9/95 Patienten in der Kontrollgruppe) und 2,5-mal mehr Klinikaufnahmen (14/105 vs. 5/95). Zu erneuten Schlaganfällen kam es bei 8/105 vs. 3/95 Patienten, Herzinfarkte traten keine auf, dagegen kam es in der Laufband-Gruppe häufiger zu Stürzen (36/105 vs. 14/95), wenn auch ohne Knochenbrüche. In der Kontrollgruppe gab es einen Todesfall.

„Zusammenfassend war das frühe vierwöchige Laufband-Training hinsichtlich des maximalen Gehtempos und der Alltags-Fitness nach drei Monaten dem Entspannungstraining nicht überlegen“, so Prof. Martin Ebinger, Medical Park Berlin Humboldtmühle, der an der Planung und Durchführung der Studie beteiligt war. „Die vorliegenden Daten sprechen also dafür, bei mittel- bis schwer betroffenen Patienten in der subakuten Phase nach Schlaganfall aerobes Training nicht zu forcieren. Möglicherweise könnten aber leichter betroffene Patienten schon früher profitieren. Dieser Frage muss in künftigen Studien nachgegangen werden, damit konkrete Empfehlungen für diese Gruppe gegeben werden können.“

Die Arbeit vom Team des CSB [1] wurde aktuell mit dem „QUEST Award for Null Results“ vom „Berlin Institute of Health“ (BIH), einer biomedizinischen Forschungseinrichtung der Charité – Universitätsmedizin Berlin und des Max-Delbrück-Centrums für Molekulare Medizin, ausgezeichnet [8]. Das „Quest Center“ des BIH hat zum Ziel, Qualität und Nutzen der medizinischen Forschung zu fördern – unter anderem durch Publikation gut durchgeführter, aber „negativer“ Studien, d. h. sogenannter NULL-Ergebnisse. Denn negative Studienergebnisse haben eine oft unterschätzte Bedeutung, sie sind ein wichtiger Bestandteil der wissenschaftlichen Diskussion über die Effizienz verschiedener Therapieansätze. Werden negative Studienergebnisse nicht veröffentlicht, entsteht ein verzerrtes Gesamtbild in der wissenschaftlichen Literatur (Publikationsbias).

Literatur
[1] Nave AH, Rackoll T, Grittner U et al. Physical Fitness Training in Patients with Subacute Stroke (PHYS-STROKE): multicentre, randomised controlled, endpoint blinded trial. BMJ 2019; 366: l5101, doi: https://doi.org/10.1136/bmj.l5101 (Published 18 September 2019)
[2] Feigin VL, Norrving B, Mensah GA. Global Burden of Stroke. Circ Res 2017; 120: 439-48
[3] Wolfe CDA, Crichton SL, Heuschmann PU et al. Estimates of outcomes up to ten years after stroke: analysis from the prospective South London Stroke Register. PLoS Med 2011; 8: e1001033
[4] Crichton SL, Bray BD, McKevitt C et al. Patient outcomes up to 15 years after stroke: survival, disability, quality of life, cognition and mental health. J Neurol Neurosurg Psychiatry 2016; 87: 1091-8
[5] Billinger SA, Arena R, Bernhardt J et al. Physical activity and exercise recommendations for stroke survivors: a statement for healthcare professionals from the American Heart Association/American Stroke Association. Stroke 2014; 45: 2532- 53
[6] Saunders DH, Sanderson M, Hayes S et al. Physical fitness training for stroke patients. Cochrane [7] Duncan PW, Sullivan KJ, Behrman AL et al. LEAPS Investigative Team. Body-weight-supported treadmill rehabilitation after stroke. N Engl J Med 2011; 364: 2026-36
[8] https://www.bihealth.org/de/forschung/quest-center/initiativen/null-und-replikat…
Pressestelle der Deutschen Gesellschaft für Neurologie c/o albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23 Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen E-Mail: presse@dgn.org
Die Deutsche Gesellschaft für Neurologie e.V. (DGN) sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 9800 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsidentin: Prof. Dr. med. Christine Klein Stellvertretender Präsident: Prof. Dr. med. Christian Gerloff Past-Präsident: Prof. Dr. Gereon R. Fink
Generalsekretär: Prof. Dr. Peter Berlit Geschäftsführer: Dr. rer. nat. Thomas Thiekötter Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Originalpublikation:

doi: https://doi.org/10.1136/bmj.l5101

Weitere Informationen:

http://www.dgn.org

Quelle: IDW 

(nach oben)


Blasentang zeigt gekoppelte Reaktionen auf Umweltveränderungen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Mehr kurzzeitige Hitzewellen, langfristig Erwärmung und Versauerung, zunehmende Überdüngung und Sauerstoffarmut – marine Ökosysteme sind vielfältigen Veränderungen ausgesetzt. Ebenso vielfältig sind die Reaktionen der im Meer lebenden Organismen auf einzelne dieser Faktoren. Biologinnen und Biologen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel konnten jetzt erstmals bei einer Großalge nachweisen, dass ihre Antwort auf unterschiedliche Umweltveränderungen positiv und negativ gekoppelt sein können – was zu einer Beschleunigung oder Ausbremsung ihrer Anpassung führt. Die Studie ist jetzt in der internationalen Online-Fachzeitschrift Scientific Reports erschienen.

Der Stress für marine Ökosysteme steigt. Die Erwärmung der Meere, das Absinken des pH-Wertes des Meerwassers, die Zufuhr von Nährstoffen und der Verlust von Sauerstoff setzt ihnen zu. Zwar können einzelne Faktoren für bestimmte Arten durchaus einen Vorteil bedeuten. Andere Veränderungen können den Lebensraum derselben Art aber auch empfindlich einschränken. Die unterschiedlichen Wirkungen machen die Abschätzung zukünftiger Verschiebungen der Artenvielfalt sehr schwierig. „Eine der zentralen Fragen ist, ob die Reaktionen auf verschiedene Veränderungen positiv oder negativ miteinander in Verbindung stehen oder ob sie unabhängig voneinander ablaufen“, sagt Prof. Dr. Martin Wahl, Meeresbiologe am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Biologinnen und Biologen des GEOMAR und der Universität Rostock veröffentlichen jetzt in der internationalen Online-Fachzeitschrift Scientific Reports eine Studie, die erstmals zeigt, dass bei einer Schlüsselart in Küstenökosystemen, dem Blasentang Fucus vesiculosus, Anpassungen an mehrere Veränderungen auf genetischer Ebene gekoppelt sind. „Das kann Reaktionen des Blasentangs auf Veränderungen sowohl beschleunigen als auch blockieren „, erklärt Professor Wahl, Hauptautor der Studie.

Der Blasentang Fucus vesiculosus ist eine Braunalge, die auf harten Untergründen entlang der Küsten des Nordatlantiks sowie in Nord- und Ostsee siedelt. Wie andere Algen auch spielt er in bei der Bindung von Kohlenstoff im Meer eine wichtige Rolle. Außerdem bildet er die Grundlage von Ökosystem an den jeweiligen Küstenabschnitten. In der Ostsee, aber auch in seinen anderen Verbreitungsgebieten, sind die Bestände von Fucus vesiculosus seit Beginn des 21. Jahrhunderts stark zurückgegangen. Die genauen Gründe dafür sind noch nicht endgültig geklärt.

Für ihre Studie haben die Forscherinnen und Forscher eine spezielle Versuchsanlage, die Kiel Outdoor Benthokosmen (KOB), genutzt. Sie besteht aus insgesamt zwölf Versuchskammern, in denen in kleinem Maßstab Küstenökosysteme nachgebildet werden können. Dank einer komplexen Regeltechnik sind mehrere Umweltparameter manipulierbar. Da die KOB auf einem Ponton in der Kieler Innenförde liegen und direkt mit Wasser aus der Förde versorgt werden, kommen die Umweltbedingungen innerhalb der Versuchsbecken der Natur sehr nahe.

In den Versuchskammern hat das Team über einen Zeitraum von zwölf Monaten genetisch unterschiedliche Familien des Blasentangs erhöhten Kohlendioxid-Bedingungen und daraus resultierenden niedrigeren pH-Werten im Wasser, Wärmephasen, erhöhtem Nährstoffeintrag und Phasen mit Sauerstoffarmut ausgesetzt. „Bei den einzelnen Familien handelte es sich jeweils um die Nachkommen von nur einem Elternpaar“, erklärt Professor Wahl.

Die Reaktionen auf die verschiedenen Veränderungen waren klar aneinander gekoppelt. So konnten Familien, die niedrigere pH-Werten vertrugen, auch Erwärmung und höhere Nährstoffwerte vertragen – und umgekehrt. Gleichzeitig waren genau diese Familien aber deutlich anfälliger für Sauerstoffarmut. „In der Natur könnte das bedeuten, dass eine Blasentang-Population, die sich an Überdüngung und sommerliche Hitze angepasst hat, im Herbst durch den Auftrieb von sauerstofffreiem Wasser aus der Tiefe besonders schwer geschädigt oder ganz vernichtet wird“, sagt Martin Wahl.

Insgesamt ist dem Team damit nicht nur der erste Nachweis gelungen, dass Reaktionen auf verschiedene Symptome des globalen Wandels bei einem marinen Primärproduzenten gekoppelt sein können. „Die Studie zeigt auch, dass wir in Zukunft noch Forschung benötigen, welche die Reaktionen von Organismen auf mehrere gleichzeitig oder zeitlich versetzt auftretende Umweltveränderungen untersucht. Sonst ist es schwer, belastbare Aussagen über die zukünftige Entwicklung von Ökosystemen im Meer zu treffen“, betont Professor Wahl.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Wahl, mwahl@geomar.de

Originalpublikation:
Al-Janabi, B., M. Wahl, U. Karsten, A. Graiff, and I. Kruse (2019): Sensitivities to global change drivers may correlate positively or negatively in a foundational marine macroalga. Scientific Reports, https://doi.org/10.1038/s41598-019-51099-8

Quelle: IDW 

(nach oben)


Schön sein hilft, reicht aber nicht

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Die Frage ist vielleicht so alt wie die Demokratie selbst: Werden physisch attraktivere Menschen eher gewählt als ihre Mitstreiterinnen und Mitstreiter? Dr. Sebastian Jäckle vom Seminar für Wissenschaftliche Politik der Universität Freiburg hat in zwei gerade erschienen Studien gemeinsam mit seinen Kollegen Thomas Metz, ebenfalls von der Universität Freiburg, sowie Prof. Dr. Georg Wenzelburger und Dr. Pascal König von der Technischen Universität Kaiserslautern herausgefunden, dass gutes Aussehen den Erfolg bei Wahlen teilweise erklären kann.

Am wichtigsten bleibe den Wählerinnen und Wählern jedoch bei ihrer Entscheidung die Parteizugehörigkeit der Kandidatin oder des Kandidaten, fügt Sebastian Jäckle hinzu.

In der ersten Studie, die in der Zeitschrift für Parlamentsfragen erschienen ist, zeigt sich, dass Direktkandidaten bei der Bundestagswahl 2017 sowohl von einem attraktiven Äußeren profitieren als auch davon, wenn sie auf Fotos kompetent wirken. Konkret zeigen die Modelle, dass eine Person, die von allen Teilnehmerinnen und Teilnehmern der Studien für attraktiver bewertet wird als ihre direkte Wahlkreiskonkurrenz, hierdurch 3,8 Prozentpunkte Vorsprung einfahren kann. „Der positive Aspekt der Attraktivität ist zwar am stärksten, allerdings schneiden Direktkandidaten, die als kompetenter eingeschätzt werden, ebenfalls signifikant besser ab als diejenigen, denen eine geringere Kompetenz attestiert wird“, betont Jäckle. Keinen relevanten Vorteil hätte hingegen, wer sympathischer wirke.

Die zweite Studie hat dieselbe Fragestellung für die Wahlen zum US-amerikanischen Repräsentantenhaus untersucht. „In den USA ist der Effekt des Aussehens aufgrund der starken Personalisierung des politischen Lebens noch extremer. Dort beeinflusst das Erscheinungsbild die Wahl von Kongresskandidaten wesentlich stärker, hier sind bis zu elf Prozentpunkte allein aufgrund des Aussehens herauszuholen“, erläutert der Politologe den Hauptbefund seiner Studie „A Catwalk to Congress“, die in American Politics Research veröffentlicht wurde.

Angelehnt an zwei frühere Studien hat das Team um Sebastian Jäckle untersucht, ob es Verschiebungen in der Bedeutung der drei Merkmale Attraktivität, Sympathie und wahrgenommene Kompetenz zwischen den Bundestagswahlen 2013 und 2017 gab. „Es galt herauszufinden, ob sich die 2013 beobachteten Effekte verändert haben, welche Merkmale im Aussehen besonders erklärungskräftig sind und ob sie unter bestimmten Bedingungen auffallend stark zu Tage treten“, sagt Jäckle. Die Ergebnisse zeigen, dass sich der Effekt der Attraktivität 2017 im Vergleich zur vorherigen Wahl deutlich erhöht hat und sich das Wahlverhalten in Deutschland damit immer mehr dem in den USA annähert. Zudem weisen die Analysen darauf hin, dass das Aussehen in bestimmten Wahlkreiskonstellationen wichtiger ist als in anderen. In Wahlkreisen, in denen zwei Männer gegeneinander antreten, spiele es eine eher untergeordnete Rolle. Erlange hingegen eine Frau das Direktmandat, egal ob gegen eine andere Frau oder einen Mann, habe die Bewertung des Aussehens tendenziell einen größeren Einfluss.

Als Datengrundlage dienten für beide Studien Online-Fragebögen, in denen die Teilnehmer 30 Kandidatenpaare präsentiert bekamen, die auch in der Realität im Wahlkreis gegeneinander angetreten sind. Von diesen mussten sie unter Zeitdruck intuitiv angeben, wen von den beiden sie für attraktiver, kompetenter und sympathischer hielten. „Im Gegensatz zu der verbreiteten Praxis, vergleichsweise kleine Gruppen von Studierenden für solche Ratings heranzuziehen, wurde bei beiden Studien auf eine sehr viel größere und diversere Stichprobe von 700 beziehungsweise 5.400 Personen zurückgegriffen“, unterstreicht Jäckle.

Den Ergebnissen der Studie schreibt der Politologe durchaus eine praktische Relevanz zu, denn „es ist vergleichsweise einfach, über ein verändertes Aussehen die Attraktivitäts- und Kompetenzratings zu beeinflussen“. So ließe sich beispielsweise an das Tragen einer Brille oder von Schmuck, an bestimmte Frisuren oder Make-up sowie an professionelle Fotoshootings für die Wahlkampagne denken. „Allein hierdurch dürften in einigen Wahlkreisen ein oder zwei zusätzliche Prozentpunkte herauszuholen sein – was durchaus über Sieg oder Niederlage entscheiden könnte.“

Wissenschaftliche Ansprechpartner:

Dr. Sebastian Jäckle
Seminar für Wissenschaftliche Politik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-9368
E-Mail: sebastian.jaeckle@politik.uni-freiburg.de

Originalpublikation:

Jäckle, Sebastian/Metz, Thomas/Wenzelburger, Georg/König, Pascal (2019): A Catwalk to Congress? Appearance-Based Effects in the Elections to the U.S. House of Representatives 2016, in American Politics Research. https://doi.org/10.1177/1532673X19875710

Jäckle, Sebastian/Metz, Thomas (2019): „Schönheit ist überall ein gar willkommener Gast“ – Zum Einfluss des Aussehens auf die Wahlchancen von Direktkandidaten bei der Bundestagswahl 2017, in ZParl Heft 3/2019, S. 507 – 528, https://www.nomos-elibrary.de/10.5771/0340-1758-2019-3-523

Weitere Informationen:

https://www.pr.uni-freiburg.de/pm/2019/schoen-sein-hilft-reicht-aber-nicht

Quelle: IDW 

(nach oben)


Steckt im grünen Tee ein Wirkstoff gegen Antibiotikaresistenz?

Karola Neubert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Infektionsforschung

Eine gesundheitsfördernde Wirkung wird dem grünen Tee schon seit längerer Zeit nachgesagt. Dass er aber im Kampf gegen Antibiotika-resistente Bakterien helfen kann, ist eine neue Erkenntnis von DZIF-Wissenschaftlern an der Uniklinik Köln und Wissenschaftlern der University of Surrey. Sie haben ein natürliches Antioxidans im Tee entdeckt, das multiresistente Pseudomonas aeruginosa Bakterien in einer Studie angreifbarer machte. Die Untersuchung wurde aktuell im Journal of Medical Microbiology veröffentlicht.

Epigallocatechin (EGCG) heißt die Substanz im grünen Tee, die die Aktivität eines Antibiotikums – Aztreonam – gegen den in Krankenhäusern gefürchteten Erreger Pseudomonas aeruginosa wiederherstellen konnte und damit dessen Wachstum hemmte. P. aeruginosa kann schwere Lungeninfektionen sowie Blutvergiftungen hervorrufen und wird häufig mit Aztreonam behandelt, wenn andere Antibiotika nicht mehr helfen. Durch zunehmende Resistenzen gegenüber Aztreonam kann die Behandlung des Bakteriums schwierig werden.

Tee-Wirkstoff im Test
In in vitro-Versuchen analysierten die Wissenschaftler, ob EGCG die Wirkung des Antibiotikums auf das Wachstum von P. aeruginosa beeinflusst. „Wir konnten zeigen, dass Aztreonam die Bakterienvermehrung stärker hemmte, wenn EGCG mit im Kulturmedium enthalten war“, erklärt Prof. Harald Seifert, DZIF-Wissenschaftler an der Uniklinik Köln. Die Substanz aus dem Tee konnte demnach die Empfindlichkeit der Bakterien für das Antibiotikum wiederherstellen. Dieser synergistische Effekt wurde auch in vivo bestätigt, indem Wachsmottenlarven mit dem Antibiotikum – mal mit und mal ohne das EGCG – behandelt wurden. Die toxische Wirkung von EGCG erwies sich sowohl in Versuchen mit Hautzellen als auch in den Larven als gering, was für einen möglichen klinischen Einsatz in der Zukunft entscheidend sein kann. Der Wirkmechanismus ist noch nicht abschließend geklärt.

Erstautor Dr. Jonathan Betts, University of Surrey, erklärt: „Natürliche Produkte wie EGCG, die mit bereits lizenzierten Antibiotika kombiniert werden, könnten ein wichtiges Mittel sein, um die Lebensdauer eines Antibiotikums zu verlängern.“ Eine Weiterentwicklung dieser alternativen Wirksubstanz bis hin zu klinischen Studien ist geplant.

Wissenschaftliche Ansprechpartner:

Prof. Harald Seifert und Dr. Paul Higgins
T +4922147832008
harald.seifert@uni-koeln.de
paul.higgins@uni-koeln.de

Originalpublikation:

Betts JW, Hornsey M, Higgins PG, Lucassen K, Wille J, Slquero FJ, Seifert H, La Ragione RM
Restoring the activity of the antibiotic aztreonam using the polyphenol epigallocatechin gallate (EGCG) against multidrug-resistant clinical isolates of Pseudomonas aeruginosa.
J Med Microbiol 2019 Aug 16. Doi: 10.1099/jmm.0.001060

Quelle: IDW 

(nach oben)


Vom „Waldsterben“ in den 80ern zu den Waldschäden von heute?

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Neues Fachbuch zum Status und zur Entwicklung der Wälder in Deutschland vorgestellt
Seit Mitte der 1980er-Jahre wird der Waldzustand in Deutschland flächendeckend beobachtet – eine Konsequenz aus der damaligen Waldsterben-Diskussion. Zu welchen Erkenntnissen kommt das Langzeitmonitoring in Bezug auf die Ursachen und den Umfang der Waldschäden im Laufe der Zeit? Antworten auf diese und andere Fragen gibt ein neu erschienenes Fachbuch, das am 18. September 2019 im Rahmen eines internationalen Symposiums von Waldfachleuten im Bundeslandwirtschaftsministerium (BMEL) in Berlin vorgestellt wurde.

Umweltbedingungen haben sich in den letzten 30 Jahren verändert
Gegen das in den 1980er-Jahren befürchtete „Waldsterben“ wurden erfolgreich Maßnahmen ergriffen, vor allem zur Luftreinhaltung. Die anthropogen bedingten Einträge an Schwefel konnten deutlich gemindert werden. Die Stickstoffeinträge in Wälder verringerten sich hingegen nur in geringerem Maße. Gleichzeitig wurden viele Wälder zu laubbaumreichen Beständen umgebaut. Dies hat die Humusauflagen verbessert und zu einer Verlagerung von organischer Substanz sowie von Nähr- und Schadstoffen von der Humusauflage in den oberen Mineralboden geführt. Doch heute steht der Wald mit dem Klimawandel vor einer neuen Herausforderung. „Wir erleben gerade die dramatischen Auswirkungen von Witterungsextremen: Stürme, lang anhaltende Dürreperioden, Hitze, unterbrochen von lokalen Starkniederschlägen, die Schäden an der Infrastruktur verursachen, aber den Wassermangel im Waldboden nicht auszugleichen vermögen“, sagt Dr. Nicole Wellbrock vom Thünen-Institut für Waldökosysteme und Mitautorin des Buches. Die würde nicht nur bei uns beobachtet, sondern quer durch Europa.

Waldschäden im Wandel
Die Daten der bundesweiten Waldzustandserhebung zeigen eine räumliche Verlagerung der Hauptschadensgebiete und -baumarten seit den 1990er Jahren. Während früher Versauerung mit seinen Folgen im Boden oder sogar direkte Rauchgasschäden zu einem Absterben der Bäume führten, sind heute vor allem Fichtenbestände in den Lagen unter 500 Metern betroffen; in der Folge kommt es bei der Fichte zu starken Borkenkäfer-Kalamitäten. In den letzten zwei Jahren ist auch die Buche vermehrt durch Trockenheit geschädigt worden; zurzeit wird das Absterben ganzer Buchenbestände beobachtet. In Eichenbeständen treten vermehrt Insektenschäden auf.

Nährstoff- und Wasserhaushalt von Waldböden
Die Waldböden spielen eine Schlüsselrolle für die Anpassung unserer Wälder an den Klimawandel. Denn für das Gedeihen von Waldbäumen sind neben Klimafaktoren wie Temperatur und Niederschlag der Nährstoff- und Wasserhaushalt der Böden entscheidend. Die anthropogen bedingte Bodenversauerung hat abgenommen, und es ist im Mittel eine leichte Erholung zu verzeichnen. Dies ist die Folge der Luftreinhaltung (Rauchgas-Entschwefelung, Katalysatoren), durch die weniger versauernd wirkender Schwefel in die Atmosphäre und von dort in die Waldökosysteme gelangt. Kalkungsmaßnahmen unterstützen die Erholung der Böden. Weiterhin auf hohem Niveau sind aber die Stickstoffeinträge, die sowohl versauernd als auch eutrophierend wirken. Dies zeigen die Waldernährungswerte und die Stickstoffbilanzen. Noch gibt es wenige Waldstandorte, die Nitratausträge aufweisen. Die Stickstoffbilanzen an den Punkten der bundesweiten Bodenzustandserhebung im Wald zeigen aber, dass die kritischen Belastungsgrenzen überschritten werden.

Auf flachgründigen Böden sowie Sand- und Kiesböden mit geringem Wasserhaltevermögen leiden die Bäume in niederschlagsfreien Perioden schneller unter Wassermangel. Bei langanhaltender Hitze und Dürre trocknen jedoch auch tiefgründige Böden aus.

Böden als Klimaschützer
Waldböden binden pro Jahr rund 0,75 Tonnen Kohlenstoff pro Hektar. Zum Zeitpunkt der zweiten Bodenzustandserhebung im Wald (2006-2008) betrugen die Vorräte 1,3 Milliarden Tonnen Kohlenstoff im Boden. Somit sind die Vorräte im Waldboden etwa so hoch wie im Holz.

Böden als Speichermedium
Bezüglich Schadstoffen gelten Wälder als relativ unbelastet. Beim Stickstoff hat sich gezeigt, dass dies nicht ohne Weiteres stimmt. Doch wie sieht es mit den „klassischen“ Schadstoffen wie Schwermetallen und organischen Schadstoffen aus? Insbesondere Blei hat in den Humusauflagen abgenommen und wurde in den Mineralboden verlagert und dort gespeichert. Im Buch wie auf der Tagung werden erstmals auch die Ergebnisse zu organischen Schadstoffen (POP) im Rahmen der Bodenzustandserhebung vorgestellt.

Herausforderung für die Zukunft
Das Fachbuch beschreibt die vielfältigen Funktionen und Leistungen des Wald und insbesondere der Waldböden, aber auch die Risiken wie Stickstoff-Einträge und Klimawandel. Bei der begleitenden Tagung ging es im letzten Vortrag um die Frage, welche Risiken und Chancen die Forstwirtschaft bei der Anpassung der Wälder an den Klimawandel hat. Klima- und standortgerechte Baumartenwahl und Waldbehandlung unter sich schnell ändernden Bedingungen werden eine der Kernherausforderungen der Zukunft sein.

Das Buch „Status and Dynamics of Forests in Germany“, herausgegeben von Nicole Wellbrock und Andreas Bolte, Forstwissenschaftler am Thünen-Institut für Waldökosysteme, ist im Springer-Verlag als „Open access“-Publikation erschienen. Der Link zum Buch: https://www.springer.com/gp/book/9783030157326#aboutBook

Wissenschaftliche Ansprechpartner:
Dr. Nicole Wellbrock
Thünen-Institut für Waldökologie, Eberswalde
Tel.: 03334 3820-304
Mail: nicole.wellbrock@thuenen.de

Originalpublikation:
Wellbrock N., Bolte A. (ed): Status and Dynamics of Forests in Germany. Springer-Verlag.
https://www.springer.com/gp/book/9783030157326#aboutBook

Quelle: IDW 

(nach oben)


Avatare gegen Adipositas

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Neue Therapien gegen starkes Übergewicht: Unter Leitung der Uni Würzburg erforscht ein Verbundprojekt Methoden der virtuellen Realität, um die Körperwahrnehmung von Betroffenen positiv zu beeinflussen.

Adipositas, also die krankhafte Form von Übergewicht, ist weit verbreitet: 20 Prozent der Bürgerinnen und Bürger in Deutschland sind davon betroffen. Auch global gesehen ist Adipositas ein Problem: Deutlich erhöhtes Übergewicht steht auf Platz sechs der häufigsten Todesursachen.

Menschen mit Adipositas befinden sich oft in einer Art Kriegszustand mit ihrem Körper. Viele Betroffene verlieren den Glauben daran, abnehmen zu können. Diese Unzufriedenheit kann sich auch auf das soziale Leben und die Psyche auswirken.

Fünf Hochschulen und zwei Firmen sind beteiligt
Das sind gute Gründe, nach neuen Therapiemöglichkeiten zu forschen. Dieses Ziel verfolgen Professor Marc Erich Latoschik und Juniorprofessorin Carolin Wienrich von der Julius-Maximilians-Universität (JMU) Würzburg gemeinsam mit dem Team von Professor Mario Botsch von der Universität Bielefeld. Beteiligt sind außerdem Gruppen der TU München, der HTW Berlin und der FH Gera sowie die Unternehmen brainboost GmbH und The Captury GmbH.

Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt ViTraS in den kommenden drei Jahren mit rund 2,5 Millionen Euro; davon fließt fast eine Million an die JMU. ViTraS steht für „Virtual Reality Therapy by Stimulation of Modulated Body Perception“.

Psychische Aspekte bleiben oft untergeordnet
„Für starkes Übergewicht gibt es verschiedene Ursachen. Dazu zählen zum Beispiel Lebensgewohnheiten, sozio-kulturelle, psychische oder genetische Faktoren“, erläutert Latoschik, der an der JMU den Lehrstuhl für Mensch-Computer-Interaktion leitet. „Bislang stehen Diäten, die Änderung der Lebensgewohnheiten oder die operative Verkleinerung des Magens als Therapieoptionen im Vordergrund. Die psychischen Ursachen und Folgen bleiben oft untergeordnet.“

Viele Menschen mit Adipositas zeigen Veränderungen der Wahrnehmung ihres Körpers, was die therapeutische Arbeit erschwert. Manche schwerwiegenden körperlichen Veränderungen, zum Beispiel der Organe, können nur schwer wahrgenommen werden. Darüber hinaus spielt die äußere Form des Körpers in so gut wie allen sozialen Situationen eine Rolle. Menschen mit Adipositas vermeiden daher häufig soziale Situationen mit Konsequenzen für das Wohlbefinden. Hier wollen die Forschungsteams ansetzen.

Realistisches Bild des Körpers vermitteln
„Die Patientinnen und Patienten sollen zunächst ein realistisches Bild ihres eigenen Körpers erhalten, kein von außen beeinflusstes, wertendes Bild“, erläutert Wienrich, die an der JMU die Juniorprofessur für Mensch-Technik-Systeme innehat. „Dazu erschaffen wir ein exaktes virtuelles Abbild der betroffenen Person, einen sogenannten Avatar.“

Um diesen Avatar so lebensecht wie möglich zu gestalten, werden Patientinnen und Patienten mit 120 Kameras aus verschiedenen Perspektiven fotografiert. Das Team der Universität Bielefeld setzt daraus ein realitätsgetreues Abbild des Körpers zusammen, das danach im virtuellen Raum agieren kann – gesteuert vom Patienten selbst.

Akzeptanz durch Konfrontation
Die Konfrontation mit dem eigenen Körper in der virtuellen Welt kann zu Beginn ungewöhnlich sein – und auch negative Gefühle hervorrufen. „Man muss seine gewohnten Komfortzonen verlassen und lernen, das virtuelle Abbild als den eigenen Körper zu akzeptieren“, so Wienrich. „Hat man sich erst einmal daran gewöhnt, können die Möglichkeiten der virtuellen Umgebung zum Einsatz kommen. Darin können wir zum Beispiel Situationen konstruieren, die dabei helfen können, Teufelskreise aus der realen Welt zu durchbrechen.“

„Diese Gegenüberstellung in auch unangenehmen Situationen in der virtuellen Welt ist in der Psychologie eine etablierte Methode“, erläutert Latoschik. „Hier in Würzburg erforscht auch die klinische Psychologie virtuelle Welten, um Phobien, beispielsweise Spinnenangst, durch individuelles Training im Simulator zu behandeln. Diese Ansätze kommen dann direkt in der Hochschulambulanz für Psychotherapie zum Einsatz.“

Therapiemöglichkeiten im virtuellen Raum
Nachdem das eigene Abbild im virtuellen Raum geschaffen wurde, lassen sich unterschiedliche Therapieansätze verwirklichen. Dazu zählt zum Beispiel die Möglichkeit, den Avatar beliebig zu verändern. Zurückliegende Ereignisse, wie ein schleichender Gewichtsanstieg über viele Jahre, lassen sich in der Rückschau aufarbeiten. Aber auch die Aussichten einer erfolgreichen Therapie können vor Augen geführt werden.

„Ändern wir das Erscheinungsbild oder das Auftreten des Avatars, kann sich das messbar auf die reale Person auswirken“, sagt Latoschik. So könnten Bilder aus dem Innenleben des Körpers konstruiert werden, die verdeutlichen, wie sich eine krankhafte Gewichtszunahme auf Körperorgane auswirkt – und wie eine Therapie hier positive Ergebnisse liefern kann.

„Kaum einer von uns kann sich seinen eigenen Körper 20 oder 30 Jahre in der Zukunft vorstellen. Wenn wir die Zeit in der virtuellen Realität vorspulen, erhalten wir ganz neue An- und Einsichten über uns selbst und die möglichen Konsequenzen unseres Handelns“, so der JMU-Professor.

Virtuelle Gruppentherapien als Option
Die virtuelle Welt lässt einen nahezu unbegrenzten Freiraum für Anwendungen und Erfahrungsmöglichkeiten. „Losgelöst vom realen Körper könnten sich Menschen mit einer frei wählbaren Erscheinungsform weltweit in virtuellen Gruppentherapien austauschen. Sonst negativ wahrgenommene Körperbilder treten hier in den Hintergrund“, erläutert Wienrich.

Wichtig ist dem JMU-Team, dass in diesem Projekt Grundlagenforschung und anwendungsreife Ansätze kombiniert werden. „Forschungen mit virtuellen Umgebungen sind in der Wissenschaft und in Unternehmen etabliert“, führt die Professorin aus. „Wir verbinden die erprobten Aspekte mit neuen technischen Möglichkeiten und wissenschaftlichen Fragestellungen.“

Gamification: Elemente aus Spielen einsetzen
Das Projekt ViTraS verbindet Aspekte der interaktiven Computergrafik, Kognitionsforschung und Informatik. Es setzt auch auf Gamification – also auf die Nutzung von Elementen aus Computerspielen. „Dabei interessieren uns vor allem Fragen zu Spielemechaniken und zur Motivierung der Teilnehmenden. Das macht das Projekt auch für Studierende interessant“, sagt Latoschik. Studierende mit einem passenden fachlichen Hintergrund können über eine wissenschaftliche Mitarbeit oder Praktika in die Forschungen eingebunden werden.

Preisgekrönt schon kurz nach dem Projektstart
Das Deutsche Institut für Virtual Reality (DIVR) hat das Konzept von ViTraS schon kurz nach dem Start des Projekts ausgezeichnet. Im Rahmen der „DIVR Science Awards“ erhielt ViTraS den Preis in der Kategorie „Best Impact“. Insgesamt hatte es 49 Bewerbungen gegeben. Der Preis wurde am 23. Mai 2019 beim „VR Science und Business Day“ des „Places VR Festival“ in Gelsenkirchen verliehen.
Von Jörg Fuchs

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marc Erich Latoschik, Universität Würzburg, T +49 931 31-85871, marc.latoschik@uni-wuerzburg.de

Weitere Informationen:

http://hci.uni-wuerzburg.de/projects/vitras/ Verbundprojekt ViTraS
https://www.divr.de/divr-award-2019-ein-rueckblick/ DIVR Science Awards 2019

Quelle: IDW 

(nach oben)


Städtische Infrastrukturen fit für den Klimawandel machen. Das Projekt FLEXITILITY ist Anfang August gestartet.

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement

Der Klimawandel wird bereits jetzt in Form von Extremwetterereignissen spürbar. Häufige Starkregen und lange Phasen von Trockenheit und Hitze in diesem Jahr sind ein Beispiel dafür. Davon sind zunehmend städtische Infrastrukturen wie die Wasser- oder Energieversorgung, betroffen. inter 3 koordiniert das jetzt gestartete Projekt „Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur“, kurz „Flexitility“. Im Projekt wird untersucht, wie durch Flexibilität im Einsatz von Infrastrukturleistungen besonders hohe, kurzzeitige Leistungsnachfragen vermindert und eine klimaresiliente Stadtentwicklung unterstützt werden können.

Ein höherer Wasserverbrauch in Trockenperioden zum Bewässern von Gärten, ein höherer Stromverbrauch durch Klimaanlagen bei Hitze oder überflutete Abwassersysteme bei Starkregen – das sind nur ein paar Herausforderungen, die die Versorgungsinfrastrukturen in Städten und Gemeinden zu bewältigen haben.

„Für städtische Versorgungsinfrastrukturen stellt das sich verändernde Klima eine deutliche Belastung dar“, sagt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3. „Der Wasserverbrauch ist zum Beispiel seit Jahren rückläufig, doch in heißen Sommermonaten kann die Spitzenlast auf das Zwei- bis Dreifache ansteigen“.

Um diesen Veränderungen Rechnung zu tragen, stehen Städte und Gemeinden vermehrt vor der Entscheidung: Infrastrukturen teuer ausbauen oder beispielsweise mit erheblichem technischem und organisatorischem Aufwand die Ver- und Entsorgungsinfrastruktur dezentralisieren. Im Projekt Flexitility wird daher eine dritte Möglichkeit als potentielle Alternative zum Aus- und Umbau betrachtet: die Flexibilisierung des Infrastruktur- und Ressourceneinsatzes.

Testen unter realen Bedingungen
In Flexitility soll einerseits untersucht werden, inwieweit die Unternehmen bei der Versorgung ihrer Kund*innen technisch flexibler werden können. Andererseits richtet sich der Blick auf die Abnehmer, also Haushalte, Gewerbe und Industrie. Welche Möglichkeiten eines flexiblen Konsumverhaltens gibt es bei den Verbraucher*innen, um die Nachfrage zu „glätten“, also den Verbrauch in Spitzenzeiten zu senken und die Phasen geringer Nachfrage zu reduzieren? Was hindert die Verbraucher*innen daran, ihr momentanes Verbrauchsverhalten an bestehende Infrastrukturkapazitäten anzupassen?

Um diesen Fragen auf den Grund zu gehen, wird – orientiert an realen Bedingungen – konkret erprobt, wie die Umgestaltung des Versorgungssystems aussehen könnte. Ein wichtiger Punkt hierbei ist die aktive Beteiligung von Bürger*innen sowie die Einbindung von Städten und Infrastrukturbetreibern, insbesondere in der Region Anhalt. In diesem „Reallabor Anhalt“ wird modellhaft erforscht, wie Flexibilisierungen der Versorgung und des Verbrauchs vonstattengehen können. Daraus lässt sich Handlungswissen ableiten, das für Wissenschaft und Politik in Zukunft ein wichtiger Wegweiser sein kann.

Die Stadt der Zukunft ist an den Klimawandel angepasst
Das Projekt Flexitility wird im Rahmen der Fördermaßnahme „Umsetzung der Leitinitiative Zukunftsstadt“ vom Bundeministerium für Bildung und Forschung (BMBF) gefördert. Es hat zum Ziel, Akteure auf kommunaler Ebene zu befähigen, besser mit den Risiken des Klimawandels umzugehen. Durch das Erkennen und Heben technischer und gesellschaftlicher Potentiale der Flexibilisierung von Versorgungsinfrastrukturen und Verbrauchsverhalten soll die Klimaresilienz von Städten gestärkt werden. Im Umkehrschluss wird damit auch die Vulnerabilität von Unternehmen und der regionalen Wirtschaft gesenkt.

Neben inter 3 gehören der Verein Energieavantgarde Anhalt e.V als Träger eines Reallabors in der Region Anhalt, die Brandenburgische Technische Universität Cottbus-Senftenberg, das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik, und die co2online gGmbH zum Verbund. Als Praxispartner sind die Stadt Bitterfeld-Wolfen mit der Stadtentwicklungsgesellschaft mbH, der Herzberger Wasser- und Abwasserzweckverband, die Dessauer Versorgungs- und Verkehrsgesellschaft mbH, die Stadtwerke Bitterfeld-Wolfen GmbH und die Köthen Energie GmbH an dem Projekt beteiligt.

Weitere Informationen zum Projekt finden Sie unter https://www.inter3.de/de/projekte/details/article/flexible-utility-staedtische-v…

Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri, E-Mail: mohajeri@inter3.de; Tel.: +49(0)30 34 34 74 40

Weitere Informationen:

https://www.inter3.de/de/projekte/details/article/flexible-utility-staedtische-v… Kurzdarstellung des Projekts

Anhang

PM_FLEXITILITY_inter 3_20190924
https://idw-online.de/de/attachment73133

Quelle: IDW 

(nach oben)


Überraschende Erkenntnisse zur Therapie des Herzinfarkts

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.

Nach einem Herzinfarkt oder bei einer instabilen Angina pectoris ist die blutplättchenhemmende Behandlung mit Prasugrel für die Patienten besser als mit Ticagrelor. Zu diesem unerwarteten Ergebnis kommt die vom Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) und dem Deutschen Herzzentrum München finanzierte, industrie-unabhängige Studie ISAR-REACT 5, die jetzt auf dem ESC Kongress in Paris vorgestellt wurde.

Nach einem Jahr kam es in der mit Prasugrel behandelten Patientengruppe zu weniger Herzinfarkten, Schlaganfällen und Todesfällen als in der Patientengruppe, die Ticagrelor erhielt. „Auch das Risiko für Blutungen war mit Prasugrel nicht erhöht“, sagt Studienleiterin Professor Stefanie Schüpke vom Deutschen Herzzentrum München, Klinik an der Technischen Universität München (TUM). „Das ist eine sehr gute Nachricht für die Patienten.“ Aufgrund vorangegangener Studien zur Vorbehandlung bei einer bestimmten Form des Herzinfarkts hatten die Wissenschaftler erwartet, dass Ticagrelor als Gewinner aus dem direkten Vergleich mit Prasugrel hervorgeht.

Beide Medikamente gehören zu den Blutplättchenhemmern, die Ärzte nach einem akuten Koronarsyndrom (ACS) standardmäßig verordnen. Akutes Koronarsyndrom ist ein Oberbegriff für schwerwiegende Durchblutungsstörungen des Herzmuskels. Dazu gehören der Herzinfarkt und die instabile Angina pectoris. Bei Letzterer treten wie bei einem Herzinfarkt drückende, einschnürende Schmerzen im Brustraum auf, andere Kriterien für einen Infarkt fehlen jedoch.

Die Plättchenhemmer sollen verhindern, dass die Blutplättchen verklumpen und erneut Blutgerinnsel in den vorgeschädigten Herzkranzgefäßen bilden. Bislang empfehlen die Behandlungs-Leitlinien der Europäischen Gesellschaft für Kardiologie Prasugrel und Ticagrelor gleichermaßen. „Welches der beiden Medikamente besser ist, wussten wir bislang nicht, da der direkte Vergleich in einer ausreichend großen ACS-Population über ein Jahr fehlte“, erklärt die DZHK-Forscherin Stefanie Schüpke. Diese Lücke wird nun von den Ergebnissen der ISAR-REACT 5-Studie geschlossen. An der Studie beteiligten sich 23 Zentren in Deutschland und Italien, insgesamt wurden 4.018 Patienten mit einem ACS untersucht.

Die Prasugrel-basierte Strategie ist der Ticagrelor-basierten Strategie überlegen
In die Studie wurde das gesamte Spektrum von Patienten mit ACS eingeschlossen: 41 Prozent der Studienteilnehmer wurden mit der Diagnose Herzinfarkt mit ST-Streckenhebung (STEMI) aufgenommen, 46 Prozent mit einem Herzinfarkt ohne ST-Strecken-Hebung (NSTEMI) und 13 Prozent der Studienteilnehmer mit einer instabilen Angina pectoris. Der NSTEMI unterscheidet sich vom STEMI unter anderem durch das Fehlen einer bestimmten Hebung in einem Abschnitt des EKGs, der ST-Strecke. Bei allen Patienten war eine Untersuchung mit dem Herzkatheter geplant.

Die Studienteilnehmer wurden zufällig einer Therapie mit Prasugrel oder Ticagrelor zugeordnet. Patienten mit Ticagrelor-Therapie erhielten das Medikament schon bevor die Ärzte ihr Herz mit dem Katheter untersuchten. Mit Prasugrel wurden nur Patienten mit einem STEMI medikamentös vorbehandelt. Aufgrund früherer Studienerkenntnisse erhielten Patienten mit NSTEMI und instabiler Angina pectoris Prasugrel erst nachdem die Herzanatomie bekannt war. Bei älteren Patienten (ab 75 Jahren) und Patienten mit einem Gewicht unter 60 kg wurde die Erhaltungsdosis von Prasugrel von 10 auf 5 mg pro Tag reduziert.

Die Mehrzahl der Patienten (84 %) wurde mit einer perkutanen Koronarintervention behandelt, 2 Prozent erhielten eine Bypass-Operation und 14 Prozent der Patienten wurden konservativ behandelt.

Nach einem Jahr trat der Endpunkt Tod, erneuter Herzinfarkt oder Schlaganfall seltener bei mit Prasugrel behandelten Patienten auf (6,9 %) im Vergleich zu Patienten, die Ticagrelor erhalten hatten (9,3 %). Gleichzeitig war das Risiko für Blutungen mit der Prasugrel-basierten Strategie nicht erhöht.
Die Ergebnisse der Studie sprechen dafür, sowohl bei einem STEMI als auch bei einem NSTEMI und einer instabilen Angina pectoris Prasugrel zu bevorzugen.

Komfortabler und günstiger
Obwohl die beiden Substanzen eine Hemmung der Blutplättchen bewirken, sind sie chemisch ganz unterschiedlich aufgebaut. Ticagrelor ist ein reversibler Plättchenhemmer, dessen Wirkung schneller nachlässt als die von Prasugrel. Ticagrelor muss daher zweimal täglich eingenommen werden, was den Patienten etwas mehr Therapietreue abverlangt. Prasugrel ist hingegen ein irreversibler Plättchenhemmer. Es reicht, ihn einmal täglich einzunehmen. Außerdem ist Prasugrel mittlerweile als Generikum erhältlich und damit günstiger als Ticagrelor.

Relevanz der Studie für die Praxis
Die Studie löst das Dilemma, welches Medikament Ärzte Millionen von Patienten, die jährlich ein ACS erleiden, verordnen sollten. Außerdem erlaubt sie eine Individualisierung der Plättchen-hemmenden Therapie. Sie unterstützt das Konzept, zunächst die Diagnose ACS mittels Herzkatheter zu sichern und vermeidet so, dass Patienten Medikamente erhalten, die sie gar nicht benötigen. Darüber hinaus untermauern die Daten die Sicherheit einer reduzierten Prasugrel-Dosis bei Patienten mit erhöhtem Blutungsrisiko.

Professor Thomas Eschenhagen, Vorstandsvorsitzender des DZHK, lobt nicht nur die hohe Qualität und die klaren Ergebnisse der Studie: „Die ISAR-REACT 5-Studie ist in meinen Augen ein gutes Beispiel für klinische Studien, die das DZHK fördern sollte: Wissenschaftliche Fragestellungen, die unmittelbaren Nutzen für die Patientenversorgung haben, die aber sonst niemand fördern würde. Der Vergleich von zwei (zu Studienbeginn) noch unter Patentschutz stehenden Medikamenten wäre weder vom Bundesministerium für Bildung und Forschung noch von einem der Hersteller finanziert worden. Deswegen hat sich das DZHK entschlossen, diese Studie zu unterstützen, und wie man heute sieht, hat sich das mehr als gelohnt.“

Der Diskutant der Studie, Professor Gilles Montalescot vom Hospital Pitie-Salpetriere in Paris, bezeichnete die Studie als Meilenstein, die die klinische Praxis und die Behandlungsempfehlungen beeinflussen wird.
Wissenschaftliche Ansprechpartner:

Prof. Dr. Stefanie Schüpke, Deutsches Herzzentrum München, Klinik an der Technischen Universität München, schuepke@dhm.mhn.de

Originalpublikation:
Ticagrelor or Prasugrel in Patients with Acute Coronary Syndromes.
Schüpke S, Neumann FJ, Menichelli M, Mayer K, Bernlochner I, Wöhrle J, Richardt G, Liebetrau C, Witzenbichler B, Antoniucci D, Akin I, Bott-Flügel L, Fischer M, Landmesser U, Katus HA, Sibbing D, Seyfarth M, Janisch M, Boncompagni D, Hilz R, Rottbauer W, Okrojek R, Möllmann H, Hochholzer W, Migliorini A, Cassese S, Mollo P, Xhepa E, Kufner S, Strehle A, Leggewie S, Allali A, Ndrepepa G, Schühlen H, Angiolillo DJ, Hamm CW, Hapfelmeier A, Tölg R, Trenk D, Schunkert H, Laugwitz KL, Kastrati A; ISAR-REACT 5 Trial Investigators. N Engl J Med. 2019 Sep 1. DOI: 10.1056/NEJMoa1908973

Weitere Informationen:
https://dzhk.de/aktuelles/news/artikel/ueberraschende-erkenntnisse-zur-therapie-…

Quelle: IDW 

(nach oben)


Grüner und fairer

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg

Eine Steuer auf Kohlendioxid und andere Schadstoffe wirkt doppelt: Sie kann die Emissionen verringern und soziale Ungleichheiten ausgleichen, zeigt eine Studie des Oldenburger Wirtschaftsexperten Christoph Böhringer.

In Diskussionen um die CO2-Steuer ist immer wieder der Vorwurf zu hören, eine pauschale Abgabe auf Treibhausgas-Emissionen sei sozial ungerecht – da sie ärmere Haushalte überproportional belasten würde. Doch tatsächlich könnten Haushalte mit niedrigem Einkommen in manchen europäischen Ländern finanziell von einer CO2-Steuer profitieren – wenn die Einnahmen zu gleichen Anteilen auf alle Haushalte zurückverteilt werden. Das zeigt eine neue Studie unter Leitung des Oldenburger Volkswirtschaftlers Prof. Dr. Christoph Böhringer, die soeben in der Fachzeitschrift Economics of Energy & Environmental Policy erschienen ist.

Zusammen mit Kollegen vom Basque Center for Climate Change in Leioa (Spanien) und vom Massachusetts Institute of Technology in Boston (USA) untersuchte Böhringer, welche wirtschaftlichen und ökologischen Auswirkungen eine grüne Steuerreform in Spanien haben würde. Die vorgeschlagene Steuer betrug 40 Euro pro Tonne CO2 in allen Sektoren, die nicht vom Emissionshandel der EU abgedeckt werden. Dazu kam eine Steuererhöhung für fossile Brennstoffe, um die spanische Steuer an den EU-weiten Durchschnitt von 1,5 Prozent des Bruttoinlandprodukts anzugleichen. Außerdem wurden Abgaben auf Luftschadstoffe wie Stickoxide und Schwefeldioxid erhoben. Die zusätzlichen Steuereinnahmen wurden direkt an alle Haushalte mit einer gleich hohen Pauschalzahlung zurückverteilt.

Das Ergebnis: „Diese Maßnahmen führen zu einer deutlichen Senkung der Emissionen, ohne einzelne Bevölkerungsgruppen ökonomisch übermäßig zu belasten“, berichtet Böhringer. Der Studie zufolge fallen die Kohlendioxid-Emissionen um zehn Prozent, der Ausstoß an Stickoxiden könnte sich um 13 Prozent reduzieren, der an Schwefeldioxid um 20 Prozent. Die Forscher erwarten Einnahmen von 7,3 Milliarden Euro, was einer Rückzahlung von 400 Euro pro Haushalt entsprechen würde. Bei der unteren Hälfte der Einkommen dürften die Rückzahlungen die Steuer ausgleichen: Die Haushalte mit dem niedrigsten Einkommen erhalten demnach eine Netto-Zuwendung von 203 Euro, die reichsten Haushalte zahlen netto 599 Euro pro Jahr.

Die Umweltsteuer verspricht demnach eine doppelte Dividende: Umweltbelastungen würden sich ebenso verringern wie die Steuerlast für Geringverdiener. Die Forscher erwarten, dass ein ähnliches Steuermodell auch in anderen Ländern funktionieren würde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Böhringer, Tel.: 0441/798-4102, E-Mail: christoph.boehringer@uol.de

Originalpublikation:
Christoph Böhringer, Xaquin Garcia-Muros, Mikel González-Eguino: „Greener and Fairer: A Progressive Environmental Tax Reform for Spain“, Economics of Energy & Environmental Policy, Vol. 8, No. 2., S. 141ff, DOI: 10.5547/2160-5890.8.2.cboh

Weitere Informationen:
https://uol.de/wipol
https://www.iaee.org/en/publications/eeeparticle.aspx?id=283

Quelle: IDW 

(nach oben)


Sechs Komponenten einer gesunden Familienmahlzeit

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Fernseher aus, sich Zeit lassen beim Essen, kein Streit bei Tisch: Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung und der Universität Mannheim haben Studien zur Qualität von Familienmahlzeiten ausgewertet. Ihre Ergebnisse können Eltern und Erziehungsberechtigten als Leitfaden dienen, um die Ernährungsgesundheit ihrer Kinder zu fördern. Die Ergebnisse der Studie sind in der Fachzeitschrift Health Psychology erschienen.

Häufige Familienmahlzeiten sind gut für eine gesunde Ernährung von Kindern. So konnten die Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung und der Universität Mannheim bereits in der Vergangenheit zeigen, dass Kinder, in deren Familien häufiger zusammen gegessen wird, einen geringeren Body Mass Index (BMI) haben und sich insgesamt gesünder ernähren. Ungeklärt war jedoch bislang, was Familienmahlzeiten so besonders für die kindliche Ernährung macht. „Familienmahlzeiten führen nicht per se zu einem besseren Essverhalten. Soziale, psychologische und Verhaltensaspekte spielen eine wichtige Rolle“, sagt Erstautorin Mattea Dallacker vom Max-Planck-Institut für Bildungsforschung.

Dazu legen die Wissenschaftler*innen nun eine Metaanalyse von Studien vor, die sich mit den qualitativen Aspekten von Familienmahlzeiten beschäftigen. Insgesamt sechs Komponenten stehen in korrelativem Zusammenhang mit einer besseren Ernährungsgesundheit von Kindern: Eine gute Atmosphäre bei den Mahlzeiten zählt ebenso dazu wie gesunde Lebensmittel. Auch ernähren sich diejenigen Kinder gesünder, die bei der Zubereitung der Mahlzeiten mit einbezogen werden oder deren Eltern durch ihr eigenes Ernährungsverhalten mit gutem Beispiel vorangehen. Darüber hinaus sind die Dauer der Mahlzeit sowie das Ausschalten des Fernsehers weitere wichtige Komponenten. „Wie eine Familie gemeinsam isst, ist genauso wichtig oder sogar wichtiger als die Häufigkeit der gemeinsamen Mahlzeiten“, kommentiert Co-Autor Ralph Hertwig, Direktor am Max-Planck-Institut für Bildungsforschung, die Ergebnisse. Das Alter der Kinder – ob Kleinkind oder bereits Heranwachsende*r – sowie der soziale und ökonomische Hintergrund der Familie hatten keinen Einfluss auf die Ergebnisse.

Die Metaanalyse untersuchte insgesamt 50 Studien mit über 29.000 Proband*innen aus aller Welt, die sich mit dem Zusammenhang eines oder mehrerer Komponenten von Familienmahlzeiten und der Ernährungsgesundheit von Kindern beschäftigen. Als Indikatoren für die Ernährungsgesundheit wurden der BMI als indirektes Maß für Körperfett und Übergewicht sowie die Ernährungsqualität herangezogen, gemessen an den pro Tag konsumierten Portionen an gesunden und ungesunden Lebensmitteln.

Der berichtete Zusammenhang zwischen Familienmahlzeiten und der Ernährungsgesundheit ist klein. Dennoch spielen Familienmahlzeiten nach Ansicht der Wissenschaftler*innen eine wichtige Rolle in der Adipositasprävention. „Um Übergewicht bei Kindern und Jugendlichen zu bekämpfen sind vielfältigste Maßnahmen notwendig. Familienmahlzeiten sind eine Möglichkeit. Sie bieten die Chance, auf kindliche Essgewohnheiten unmittelbar und frühzeitig einzuwirken“, sagt Jutta Mata, Professorin für Gesundheitspsychologie an der Universität Mannheim. Im Hinblick auf die vielfältigen Familienmodelle, die es in modernen Gesellschaften gibt, erscheinen die Ergebnisse unabhängig von spezifischen Konstellationen. Beispielsweise mache es keinen Unterschied, ob nur ein oder zwei Elternteile bei den Familienmahlzeiten anwesend sind.

In weiteren Studien gilt es herauszufinden, ob sich die Aussagen beispielsweise mit Blick auf die Nutzung von Smartphones oder Tablets während Mahlzeiten oder auf andere Kontexte wie Schulessen verallgemeinern lassen.

Originalpublikation:

Dallacker, M., Hertwig, R., & Mata, J. (2019). Quality matters: A meta-analysis on components of healthy family meals. Health Psychology. Advance online publication. doi:10.1037/hea0000801

Dallacker, M., Hertwig, R., & Mata, J. (2018). The frequency of family meals and nutritional health in children: A meta-analysis. Obesity Reviews, 19(5), 638-653. doi:10.1111/obr.12659

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2019/10/sechs-komponenten-einer-gesunde…

Quelle: IDW 

(nach oben)


Familiäres Darmkrebsrisiko: In den Genen steckt nur ein Teil der Wahrheit

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Wenn es um das familiär erhöhte Darmkrebsrisiko geht, wurde die Rolle der Gene überschätzt. Zu diesem Schluss kommen Wissenschaftler des Deutschen Krebsforschungszentrums (DKFZ) in einer aktuellen epidemiologischen Studie. Vermutlich wiegen andere Risikofaktoren wie etwa familiäre Ernährungsgewohnheiten schwerer als bislang angenommen. Das hat Konsequenzen für künftige Berechnungen des individuellen Risikos sowie auch für Empfehlungen, die daraus resultieren.

Darmkrebs ist die dritthäufigste Krebserkrankung weltweit. Wissenschaftler gehen derzeit davon aus, dass die Erkrankung zu 35 Prozent erblich bedingt ist. Zu den wichtigsten Risikofaktoren zählt eine familiäre Vorbelastung. Zudem haben Forschende in den letzten Jahren rund 100 winzige Genvariationen identifiziert, die in der Bevölkerung weit verbreitet sind (Einzelnukleotid-Polymorphismen, Single nucleodid polymorphisms, SNPs) und die das Risiko für Darmkrebs beeinflussen. Aktuelle Ergebnisse der DKFZ-Wissenschaftler um Hermann Brenner und Korbinian Weigl legen nun aber nahe, dass diese SNPs einen deutlich geringeren Anteil des familiär erhöhten Darmkrebsrisikos erklären als bisher angenommen.

Die DKFZ-Forscher haben zunächst die gängigen statistischen Verfahren geprüft, mit deren Hilfe dieser Anteil geschätzt wird. Dabei sind ihnen eine Reihe von Schwächen bei der Kalkulation aufgefallen, die in der Summe zu einer deutlichen Überschätzung führen. „Insbesondere gingen die bislang gängigen Verfahren davon aus, dass die familiäre Häufung letztendlich zu einhundert Prozent genetisch bedingt ist“, sagt Korbinian Weigl, Erstautor der Studie. „Davon ausgehend berechneten sie dann, welcher Anteil hiervon durch die bislang bekannten Genvarianten erklärt werden kann.“

Das Team um Brenner und Weigl wertete die Daten von 7.927 Probanden einer Fall-Kontroll-Studie aus – darunter 4.447 Patienten mit Darmkrebs und 3.480 gesunde Personen, die als Kontrollgruppe dienten. „Wir haben eine neue Berechnungsmethode entwickelt, die nicht von vornherein von der Grundannahme ausgeht, dass das familiäre Risiko komplett durch die Genetik bedingt ist“, erklärt Studienleiter Hermann Brenner. Mit dieser Methode werteten die Forscher dann die Daten ihrer Probanden aus.

Tatsächlich war der Einfluss der SNPs nach dieser Methode wesentlich geringer als angenommen. Während bisherige Berechnungen den bislang bekannten Genvarianten einen Anteil von 9,6 bis 23,1 Prozent am familiär erhöhten Darmkrebsrisiko zusprachen, resultieren die neuen Berechnungen der DKFZ-Forscher in einem geschätzten Einfluss der SNPs, der zwischen 5,4 und 14,3 Prozent liegt.

„Die Ergebnisse passen sehr gut zu den Ergebnissen einer anderen DKFZ-Studie, die letztes Jahr publiziert wurde“, erklärt Brenner. Dabei hatte sich gezeigt, dass bei Halbgeschwistern von Darmkrebspatienten das Risiko selbst zu erkranken ebenso erhöht ist wie bei „echten“ Geschwistern. „Das legt nahe, dass gemeinsame Risikofaktoren, etwa spezielle Ernährungsgewohnheiten, Rauchen oder ein Bewegungsmangel eine deutlich größere Rolle spielen als bisher angenommen.“

Für die künftige Einschätzung des individuellen Darmkrebsrisikos bedeutet das aber auf keinen Fall, dass die Genvarianten, die mit einem erhöhten Risiko assoziiert werden, bedeutungslos geworden sind. „Vielmehr zeigt unsere Studie, wie wichtig es ist, sowohl genetische als auch andere Risikofaktoren in der Familie gleichermaßen zu betrachten, um zu einer realistischen Einschätzung zu gelangen“, so Weigl. Oder anders ausgedrückt: Wer nur wenige auffällige Genvarianten in seinem Erbgut trägt, darf sich nicht in Sicherheit wiegen, wenn etwa sein Lebensstil die Gefahr für Darmkrebs erhöht. Umgekehrt, muss Darmkrebs trotz ungünstiger Genetik kein Schicksal sein, wenn das individuelle Verhalten das Risiko senkt. In jedem Fall ist es ratsam, die sehr effektiven Möglichkeiten der Darmkrebsvorsorge zu nutzen.

Weigl K, Chang-Claude J, Hsu L, Hoffmeister M, Brenner H. Establishing a valid approach for estimating familial risk of cancer explained by common genetic variants. International Journal of Cancer 2019, DOI: 10.1002/ijc.32664

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Kommunikation und Marketing
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Weigl K, Chang-Claude J, Hsu L, Hoffmeister M, Brenner H. Establishing a valid approach for estimating familial risk of cancer explained by common genetic variants. International Journal of Cancer 2019, DOI: 10.1002/ijc.32664

Quelle: IDW 

(nach oben)


Künstliche Intelligenz in der Agrar- und Umweltwirtschaft

Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Die Folgen des Klimawandels auf unsere Umwelt sind vielfältig: Ernteausfälle, Einschränkungen in der Schifffahrt durch Niedrigwasser, Überschwemmungen und Sturmschäden in den Städten sind nur einige, die das Leben seit einigen Jahren immer stärker beeinträchtigen. Wissenschaftler der Ruhr-Universität Bochum (RUB) arbeiten an digitalen Anwendungen, die es verschiedenen Akteuren leichter machen sollen, anstehenden Wetterereignissen besser begegnen zu können.

Dr. Benjamin Mewes und Dr. Henning Oppel vom Lehrstuhl für Ingenieurhydrologie und Wasserwirtschaft setzen in ihrem gemeinsamen Projekt „Okeanos“ auf den Einsatz von künstlicher Intelligenz. Während sich Benjamin Mewes auf die bewässerte Landwirtschaft konzentriert, beschäftigt sich Henning Oppel damit, wie man Hochwasserereignisse besser vorhersagen kann.

Landwirte könnten viel Wasser einsparen
Weltweit gesehen ist die Landwirtschaft der größte Frischwasserverbraucher. „Die Entscheidung, wann und wieviel sie ihre Böden wässern, fällen die meisten Landwirte aufgrund ihrer Erfahrung und ihres Fachwissens“, so Mewes. Doch auf diese Weise werden viele Hunderttausende Liter der wertvollen Ressource verschwendet.

Abhilfe schaffen könnte eine Computeranwendung, die alle für die Bewässerung wichtigen Faktoren betrachtet und daraus eine Handlungsempfehlung ableitet – oder besser noch, gleich selbst die Bewässerungsanlagen steuert.

Autonom handelnde Software-Einheiten
Mewes Lösung basiert auf einem von ihm entwickelten Agenten-basiertem Bodenwassermodell. Agenten sind autonom handelnde Software-Einheiten, die auf Basis eines Regelwerks Entscheidungen treffen und durch ihre Interaktion untereinander komplexe Systeme und Verkettungen darstellen können.

„Das Modell ist dynamisch, kann sich an individuelle Gegebenheiten anpassen und bietet somit jedem Landwirt eine auf ihn zugeschnittene Bewässerungsstrategie“, erklärt Mewes die Vorzüge.

Präzisere Hochwasserwarnungen ermöglichen
Mit einem wasserwirtschaftlichen Problem ganz anderer Art beschäftigt sich Henning Oppel. Er möchte präzisere Hochwasserwarnungen möglich machen. Auch er setzt dabei auf maschinelles Lernen.

Denn wenn man wissen will, wie sich der Wasserstand eines Flusses ändern wird, reicht es nicht, sich nur die lokalen Prozesse am Ort, für den eine Hochwasservorhersage benötigt wird, anzuschauen. Man muss stattdessen viele Tausend Quadratkilometer betrachten, die das Einzugsgebiet des Flusses definieren, und die ganz unterschiedliche Oberflächen wie Asphalt, Waldboden oder Kiesflächen enthalten können – auf allen bewegt sich das Wasser mit unterschiedlichen Geschwindigkeiten.

Interessant für Versicherungen und Hochwassermeldedienste
„Diese Vielzahl von aktiven Prozessen macht die Anwendung einer einzelnen Prozessgleichung schwer. Maschinelles Lernen eröffnet uns aber die Möglichkeit, neue Prozessbeschreibungen zu erarbeiten und bestehende Konzepte zu ergänzen“, sagt Oppel.

Von einem verbesserten Angebot in Form einer App könnten viele verschiedene Zielgruppen profitieren: Hochwassermeldedienste, Versicherungen, Feuerwehr oder Technischer Hilfsdienst, um nur einige zu nennen.

Ausführlicher Beitrag im Wissenschaftsmagazin Rubin
Einen ausführlichen Beitrag zu dem Thema finden Sie im Wissenschaftsmagazin Rubin. Texte auf der Webseite und Bilder aus dem Downloadbereich dürfen unter Angabe des Copyrights für redaktionelle Zwecke honorarfrei verwendet werden.

Wissenschaftliche Ansprechpartner:
Dr. Benjamin Mewes
Lehrstuhl für Ingenieurhydrologie und Wasserwirtschaft
Fakultät für Bau- und Umweltingenieurwissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 25896
Mail: benjamin.mewes@rub.de

Dr. Henning Oppel
Lehrstuhl für Ingenieurhydrologie und Wasserwirtschaft
Fakultät für Bau- und Umweltingenieurwissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 25874
Mail: henning.oppel@rub.de

Weitere Informationen:
https://news.rub.de/wissenschaft/2019-09-25-wasserwirtschaft-kuenstliche-intelli…

Quelle: IDW 

(nach oben)


Warum können wir uns nicht kitzeln?

Hans-Christoph Keller Abteilung Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin

Eine Studie an der Humboldt-Universität zu Berlin (HU) hat die Mechanismen von Kitzligkeit im Gehirn der Ratte genauer erforscht

Kitzligkeit ist ein auf vielen Ebenen mysteriöses Phänomen. Wir wissen nicht, warum wir uns nicht selbst kitzeln können, obwohl diese Frage bereits 350 v. Chr. von Aristoteles aufgeworfen wurde. Wir wissen ebenso wenig, warum Kinder sich oft heftig wehren, wenn sie gekitzelt werden, nur um nach mehr zu verlangen, sobald mit dem Kitzeln aufgehört wird. Wir wissen auch nicht, warum die reine Annäherung einer kitzelnden Hand ohne Berührung bereits Lachen hervorruft.

Lachen im Gehirn?
Frühere Arbeiten zeigten, dass Ratten mit „Lachen“ im Ultraschallbereich reagieren, wenn sie von Menschen gekitzelt werden. Dieses „Lachen“ wird durch den somatosensorischen Kortex, die größte taktile Repräsentation im Gehirn, vermittelt. Ältere Modelle der Suppression durch Selbstberührung gingen davon aus, dass diese darauf basiert, dass das Gehirn zwischen Selbstberührung und der Berührung durch Andere unterscheiden kann. In ihrer Studie schlagen die Forscher*innen einen einfacheren Mechanismus vor. Sie fanden heraus, dass Vokalisationen, also das Lachen, ebenso wie die Aktivität des somatosensorischen Kortex, während einer Selbstberührung wie etwa dem Putzen, unterdrückt werden, aber während der Berührung und dem Kitzeln durch die Wissenschaftler*innen verstärkt werden. Wenn Selbstberührung und „Fremd“-Berührung zur selben Zeit passieren, sind Vokalisationen und Aktivität des somatosensorischen Kortex ebenso unterdrückt, was darauf hindeutet, dass das Gehirn der Ratte hier nicht zwischen Selbstberührung und der Berührung durch Andere unterscheidet. Wenn beim gleichzeitigen Gekitzeltwerden und dem Selbstkitzeln pharmakologisch blockiert wird, dass die Neuronen weniger aktiv sind, dann bleibt die Empfindung des Gekitzeltwerdens.

Ratten kitzeln zurück
Des Weiteren wurden Ratten trainiert, selbst Kitzel-Interaktionen zu initiieren. Erstaunlicherweise brachen die Ratten diese Initiation des Kitzelns manchmal vorzeitig ab und zeigten Fluchtverhalten, Schreckstarre und für gewöhnlich mit negativen Emotionen assoziierte Vokalisationen, nachdem sie die Kitzel-Interaktion initiiert hatten. Diese rätselhafte Ambivalenz des Kitzelns (Stichwort Nervenkitzel) gleicht dem Verhalten, das auch Kinder zeigen. Die ForscherInnen haben zudem herausgefunden, dass eine tief liegende Schicht des somatosensorischen Kortex bei der Eigen-Initiation aktiviert wird, noch bevor die Kitzel-Interaktion beginnt.
Fazit

Diese neuen Erkenntnisse legen nahe, dass wir uns nicht selbst kitzeln können, weil die Selbstberührung eine „inhibitorische Bremse“ im somatosensorischen Kortex aktiviert. Zudem ist die Ambivalenz in Bezug auf Kitzeln offenbar eine Verhaltensreaktion, die von Ratten und Menschen gleichermaßen gezeigt wird. Zuletzt zeigt die Studie, dass im somatosensorischen Kortex nicht nur die Berührung, sondern auch die Erwartung gekitzelt zu werden, repräsentiert ist.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Brecht,
Humboldt-Universität zu Berlin
Bernstein Center for Computational Neuroscience
Tel.: 030 2093- 6718
Mail: michael.brecht@bccn-berlin.de
Web: https://www.bernstein-network.de/de/forschung/Portraits/a-d/brecht

Originalpublikation:
Ishiyama S., Kaufmann, L.V. & Brecht M., Behavioral and cortical correlates of self-suppression, anticipation and ambivalence in rat tickling. Current Biology. 2019; 29.
https://doi.org/10.1016/j.cub.2019.07.085

Weitere Informationen:
https://www.youtube.com/watch?v=iBnHVC5q4hw
https://www.hu-berlin.de/de/pr/nachrichten/september-2019/nr-19926

Anhang
PM HU Ratten kitzeln
https://idw-online.de/de/attachment73169

Quelle: IDW 

(nach oben)


Wirkt sich die Selbsteinschätzung des schulischen Könnens doch nicht auf die Leistung aus?

Philip Stirm Referat Kommunikation
DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation

Es ist unter Lehrkräften sehr verbreitet, das Bild, das Schülerinnen und Schüler von ihren eigenen Fähigkeiten haben, zu stärken, um dadurch ihre Leistungen zu verbessern – zum Beispiel mit einem aufmunternden „Du bist doch gut in Deutsch!“. Auch in der Forschung finden sich viele Belege für diesen Ansatz. Eine neue Studie des DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation stellt diese Annahme nun für den Grundschulbereich und bezogen auf die Lesekompetenzen in Frage. Mit weiterentwickelten statistischen Methoden konnte kein Effekt des sogenannten akademischen Selbstkonzeptes auf die schulische Leistung gefunden werden.

Das akademische Selbstkonzept ist eine subjektive Einschätzung der eigenen Fähigkeiten durch die Schülerinnen und Schüler. Es wird durch mehrere Faktoren beeinflusst, zum Beispiel den sozialen Vergleich, die Erziehung sowie die Rückmeldungen und Leistungsbewertungen der Lehrkräfte, und kann sich auf verschiedene thematische Bereiche beziehen, etwa die Fähigkeiten in Mathematik oder im Lesen. Viele bisherige Studien, darunter auch Arbeiten am DIPF, haben auf einen positiven Effekt des Selbstkonzeptes auf die schulischen Leistungen hingewiesen – vor allem bei Schülerinnen und Schülern auf der weiterführenden Schule, aber auch im Grundschulbereich. All diese Untersuchungen stützten sich auf eine bestimmte statistische Methode: das Cross-Lagged-Panel-Modell. Hier setzt die neue Studie an. „Inzwischen stehen weiterentwickelte methodische Ansätze zur Verfügung, die wir im Grundschulbereich und mit Blick auf das Lesen eingesetzt haben“, so Dr. Jan-Henning Ehm, der Leiter der Untersuchung.

Bei einem Cross-Lagged-Panel-Modell misst man bei einer Untersuchungsgruppe zunächst zu mehreren Zeitpunkten die Ausprägung von zwei Variablen – in diesem Fall „Selbstkonzept im Lesen“ und „Leseleistung“. Die ermittelten Werte und ihre Entwicklung im Verlauf der Zeit werden dann über statistische Analysen miteinander in Beziehung gesetzt, um sich unter anderem ein Bild vom Einfluss des Selbstkonzepts auf die Leistungsentwicklung zu machen. Problem bei dieser Methode ist aber, dass man bei der Entwicklung der Variablen nicht genau zwischen Veränderungen, die sich innerhalb einer Person abspielen (intraindividuell), und Unterschieden zwischen den Personen, also dem Verhältnis zueinander (interindividuell), unterscheiden kann. „Um genauere Aussagen zu den Effekten zwischen zwei Variablen treffen zu können, müsste man sie aber den Veränderungen innerhalb einer Person zuordnen“, erläutert Dr. Ehm. Das ermöglichen nun die genannten neueren Methoden, darunter das Random-Intercept-Cross-Lagged-Panel-Modell. Mit ihnen kann man die Unterschiede zwischen den Personen isolieren und sich auf die intraindividuellen Veränderungen konzentrieren.

Mehr als 2.000 Kinder nahmen an vierjähriger Längsschnittstudie teil
Die neuen Methoden wendete das DIPF-Team auf Daten an, die bei 2.009 Kindern aus 90 Klassen an 36 Grundschulen in Baden-Württemberg erhoben worden waren. Bei ihnen waren in der ersten, zweiten, dritten und vierten Klasse das Leseselbstkonzept und die Leseleistung gemessen worden: das Selbstkonzept mithilfe eines von den Kindern beantworteten Fragebogens und die Leistungen anhand eines standardisierten Kompetenztests sowie über die Einschätzungen der Lehrkräfte. Die Daten stammen aus dem vom Ministerium für Kultus, Jugend und Sport Baden-Württemberg geförderten Forschungsprojekt „Schulreifes Kind“, das die Effekte eines Förderprogramms zur Unterstützung beim Übergang in die Schule langfristig untersucht hat. Das Ergebnis der aktuellen Auswertung ist eindeutig, wie der Bildungsforscher darlegt: „Mit den erweiterten Modellen konnten wir keinen Effekt vom Selbstkonzept auf die Entwicklung der Leseleistung feststellen.“

Trotz der Ergebnisse warnt Ehm davor, den pädagogischen Wert eines positiven akademischen Selbstkonzeptes nun gänzlich in Frage zu stellen, da es beispielsweise auch im Zusammenhang mit der Motivation und dem Wohlbefinden der Schülerinnen und Schüler stehe. Zugleich verdeutlicht er: „Wenn man das Selbstbild der schulischen Fähigkeiten stärkt, sollte man nicht unbedingt erwarten, damit direkt zu besseren Leistungen beizutragen.“

Um diese Ergebnisse zu erhärten, bräuchte es nun weitere Untersuchungen in anderen fachlichen Bereichen, an der weiterführenden Schule und mit mehr Messzeitpunkten. Besonders belastbare Aussagen würde eine Studie unter experimentellen Bedingungen erlauben, bei der das Selbstkonzept gezielt beeinflusst wird. Denn wie sich gezeigt hat, können weiterentwickelte Methoden und Forschungs-Designs die Perspektive auf bestehende Befunde erweitern.

Pressekontakt:
Philip Stirm, DIPF, +49 (0)69 24708-123, stirm@dipf.de, http://www.dipf.de

Über das DIPF:
Das DIPF ist das Leibniz-Institut für Bildungsforschung und Bildungsinformation mit Standorten in Frankfurt am Main und in Berlin. Es will dazu beitragen, Herausforderungen im Bildungswesen zu bewältigen, den Zugang zu Bildung zu erleichtern und die Qualität von Bildung zu verbessern. Dafür unterstützt das Institut Schulen, Kindertagesstätten, Wissenschaft, Verwaltung und Politik mit empirischer Forschung, wissenschaftlichen Infrastrukturen und Wissenstransfer.

Wissenschaftliche Ansprechpartner:

Dr. Jan-Henning Ehm, DIPF, +49 (0)69 24708-723, Ehm@dipf.de

Originalpublikation:

Ehm, J.-H., Hasselhorn, M., Schmiedek, F. (2019). Analyzing the Developmental Relation of Academic Self-Concept and Achievement in Elementary School Children: Alternative Models Point to Different Results. Developmental Psychology. Advance online publication. DOI: 10.1037/dev0000796

Weitere Informationen:
http://www.dipf.de – Das DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation

Quelle: IDW 

(nach oben)


Forschen gegen Mikroplastik: TU Freiberg entwickelt neues Verfahren für naturbasierte Mikropartikel in Kosmetik

Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg

Vor allem im Meer verbreitet sich Mikroplastik immer mehr. Welche Auswirkungen das auf Lebewesen und den Menschen haben kann, ist noch nicht langfristig erforscht. Die Professur Strömungsmechanik und Strömungsmaschinen der Technischen Universität Bergakademie Freiberg will in den kommenden Jahren gemeinsam mit Wissenschaftlern der Johannes-Gutenberg-Universität Mainz und der TU München sowie drei Industriepartnern ein innovatives Verfahren zur Herstellung neuer biobasierter und bioabbaubarer Mikropartikel entwickeln.

Die umweltfreundlichen Mikropartikel sollen umweltschädliches Mikroplastik in Shampoos und anderen Kosmetika ersetzen. Im Projekt „Bioshampoo“ wird die vollständige Prozesskette von der Konzeption des Verfahrens, der Partikelentwicklung, der Integration in ein Endprodukt (Shampoo) und der abschließenden Untersuchung der Bioabbaubarkeit nach Einleitung in den Wasserkreislauf untersucht.

Als „Mikroplastik“ werden Plastikpartikel mit einer Größe von wenigen Nanometern bis hin zu einigen Millimetern bezeichnet. Erdölbasiertes Mikroplastik ist aktuell noch in vielen Kosmetikprodukten enthalten. In Kläranlagen können diese Kleinstpartikel nur schwer abgebaut oder abgefiltert werden.

Beim geplanten Verdüsungsverfahren wird das aus Naturstoffen gewonnene Ausgangsmaterial zunächst aufgeschmolzen und die Schmelze anschließend über ein eingeleitetes Gas mit hoher Geschwindigkeit durch eine Düse gedrückt. Die Schmelze zerfällt dabei in einzelne Tröpfchen, aus denen sich nach der Erstarrung überwiegend sphärische Teilchen bilden. Diese sollen in der Kosmetik die gleiche Funktion wie Mikroplastik übernehmen, allerdings erwarten die beteiligten Wissenschaftler, dass die naturbasierten Mikropartikel viel einfacher und schneller aus dem Abwasser entfernt werden können.

Das Projekt wird im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) mit einer Gesamtsumme von zirka 1,1 Millionen Euro gefördert. In der Projektbeantragung und -durchführung wurden und werden die Wissenschaftler außerdem durch die innoscripta GmbH München unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. habil. Rüdiger Schwarze, Tel.: +49 (0)3731 39 2486, E-Mail: Ruediger.Schwarze@imfd.tu-freiberg.de

Anhang

Logo BMWi
https://idw-online.de/de/attachment73139

Quelle: IDW 

(nach oben)


Mehr Gesundheitskompetenz für Eltern allergiekranker Kinder

Stefan Zorn Presse- und Öffentlichkeitsarbeit
Medizinische Hochschule Hannover

Deutsche Forschungsgemeinschaft fördert Präventionsverbund mit 2,2 Millionen Euro / Professorin Dr. Marie-Luise Dierks leitet Teilprojekt an der MHH

Mehr als die Hälfte der Deutschen hat nach eigener Einschätzung Schwierigkeiten, mit der Flut an Gesundheitsinformationen umzugehen und sich im Gesundheitssystem zurechtzufinden. Das ist problematisch, stehen doch die sogenannte Gesundheitskompetenz und die individuelle Gesundheit in unmittelbarem Zusammenhang. Welche Bedingungen im Einzelnen dafür sorgen, ob Menschen gut und richtig informiert sind, will eine von der Deutschen Forschungsgemeinschaft geförderte Forschungsgruppe jetzt am Beispiel frühkindlicher Allergieprävention herausfinden. Die DFG-Gruppe HELICAP (Health Literacy in Early Childhood Allergy Prevention) an den Standorten Hannover, Magdeburg, Regensburg und Freiburg wird mit insgesamt 2,2 Millionen Euro gefördert. 320.000 Euro davon gehen an die Medizinische Hochschule Hannover (MHH). Das Teilprojekt unter der Leitung von Professorin Dr. Marie-Luise Dierks, Public-Health-Expertin am Institut für Epidemiologie, Sozialmedizin und Gesundheitssystemforschung, untersucht die Frage, wo sich Eltern allergiekranker Kinder und solche mit erhöhtem Risiko für eine Allergie informieren und wer sie in ihren Entscheidungen beeinflusst. Mit den gewonnenen Erkenntnissen sollen Empfehlungen dazu entwickelt werden, wie geeignete Informationsmaterialien aussehen müssten, um die elterliche Gesundheitskompetenz zu fördern.

„Immer mehr Kinder leiden unter Allergien – mit hoch bleibender und teils steigender Tendenz“, sagt Professorin Dierks. Dabei sei es für betroffene Eltern nicht einfach, sich richtig zu informieren. Mangelnde Qualität vor allem von digitalen Quellen, Missverständnisse und Mythen erschwerten richtige Entscheidungen zur Vorbeugung. Gerade die ersten zwei bis drei Lebensjahre seien jedoch prägend für die Entwicklung des kindlichen Immunsystems. „Beim Thema Allergieprävention kommt hinzu, dass sich die wissenschaftlichen Empfehlungen schnell ändern. Gute Informationen können aber nur entwickelt werden, wenn wir wissen, wie Eltern mit Empfehlungen umgehen und welchen Ressourcen sie vertrauen“, gibt Jonas Lander zu bedenken, wissenschaftlicher Mitarbeiter des DFG-Teilprojektes. So gehe der Trend derzeit von der Vermeidung allergieauslösender Stoffe hin zur frühzeitigen Konfrontation mit Allergenen wie etwa Tierhaaren, Nüssen oder Gräserpollen.

Das Team um Professorin Dierks will in den kommenden drei Jahren 16 Gruppendiskussionen an den vier Studienstandorten zusammenstellen und Mütter und Väter persönlich befragen. Damit die Ergebnisse aussagekräftig sind, sollen etwa 130 teilnehmende Eltern aus möglichst unterschiedlichen sozialen, sprachlichen und kulturellen Bevölkerungsgruppen kommen. Während sich das Teilprojekt Hannover um die elterlichen Sichtweisen kümmert, tragen die anderen drei Teams das Wissen von Gesundheitsexperten wie Ärzten und Hebammen zusammen, werten nationale und internationale klinische Leitlinien zur Allergieprävention aus und bewerten, welche Präventionsmaßnahmen aus wissenschaftlicher Sicht effektiv sind.
Die Förderdauer der DFG-Forschungsgruppe ist zunächst auf drei Jahre befristet. „Wenn wir eine Anschlussförderung erhalten, wollen wir den Umgang von Eltern mit Gesundheitsinformationen zu Allergien und deren Präferenzen repräsentativ für Deutschland erheben“, sagt Professorin Dierks. Diese Befragung könnte auf Basis der ersten Ergebnisse online erfolgen.

Weitere Informationen erhalten Sie bei Professorin Dr. Marie-Luise Dierks, dierks.marie-luise@mh-hannover.de, Telefon (0511) 532-4458.

Ein Foto ist beigefügt. Es zeigt Professorin Dr. Marie-Luise Dierks und Jonas Lander (Wissenschaftlicher Mitarbeiter), die im DFG-Projekt HELICAP Eltern allergiekranker Kinder zu mehr Durchblick im Informationsdschungel verhelfen wollen. Sie können es kostenfrei nutzen, wenn Sie als Quelle „MHH / Karin Kaiser“ angeben.

Diese Presseinformation finden Sie auch auf www.mhh.de.

Wissenschaftliche Ansprechpartner:

Weitere Informationen erhalten Sie bei Professorin Dr. Marie-Luise Dierks, dierks.marie-luise@mh-hannover.de, Telefon (0511) 532-4458.

Quelle: IDW 

(nach oben)


Weltweit erste Validierung der Aerodynamik von großen Windenergieanlagen

Lisa Bösch Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES

Weltweit zum ersten Mal prüft das Fraunhofer IWES die Aerodynamik für Windenergieanlagen mit einer Nennleistung von mehr als fünf Megawatt (MW). In dem vom Bundesministerium für Wirtschaft und Energie (BMWi) mit 4 Mio. Euro geförderten Forschungs- und Entwicklungsprojekt „HighRe“ werden die aerodynamischen Eigenschaften der Windenergieanlage AD 8 am Standort Bremerhaven mit einer Leistung von acht MW und einem Rotordurchmesser von 180 Metern vermessen und mit aufwendigen Modellen verglichen. Dies ermöglicht erstmals eine Untersuchung, ob die bisher verwendeten Modellberechnungen auch für große Windenergieanlagen, die in Zukunft vor allem Offshore gebaut werden sollen, noch gültig sind.

In dem Projekt „HighRe“ (Aerodynamik bei hohen Reynoldszahlen für große Offshore-Windenergieanlagen der Zukunft) werden in Kürze aufwendige Messungen des Wind-feldes und der aerodynamischen Reaktion der Windenergieanlage durchgeführt. Durch diese detaillierten Erkenntnisse der realen Windbedingungen vor und an einer Wind-energieanlage wird es erstmals möglich sein, die genaue aerodynamische Wirkung auf die Rotorblätter bei so großen Dimensionen zu analysieren und zu verstehen. Das Windfeld wird mit drei sich überlappenden LiDAR-Laser-Scannern vor der Windenergieanlage abgetastet und mit weiteren Windmessungen vor und hinter der Anlage ergänzt. Gleich-zeitig werden Sensoren auf der Anlage und an den Rotorblättern installiert, um auch diese Bedingungen präzise zu erfassen.

Bereits im Vorfeld des Projekts „HighRe“ konnte das Fraunhofer IWES zeigen, dass es erhebliche Abweichungen in der Modellierung gierender Windenergieanlagen unter schräger Anströmung gibt. Das dafür verwendete Modell wurde vor fast 20 Jahren an wesentlich kleineren Anlagen entwickelt. Bei einer großen Anzahl von Modellen der Windenergieaerodynamik verhält es sich ähnlich: Grundlage für die Modellberechnungen sind kleine Anlagen. Um dies auszugleichen, greift man zunehmend auf Methoden der numerischen Strömungssimulation (engl. „Computational Fluid Dynamics“ – CFD) zurück. Die Genauigkeit dieser Methoden konnte bisher jedoch auch nur an kleinen Modellanlagen überprüft werden. Durch das HighRe-Projekt ändert sich dies nun völlig. „Das Projekt „HighRe“ ist eine große Chance für die Windenergieforschung und die Windenergieindustrie. Die Sicherheit und Genauigkeit in der Windenergieaerodynamik kann mit diesem Projekt an die reale Anlagenentwicklung angepasst werden. Die Potenziale für die Windenergieindustrie sind enorm“, fasst der Projektleiter Dr. Bernhard Stoevesandt die Aussichten des Projekts zusammen.

Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Windenergie.

Kontakt: Dr. Bernhard Stoevesandt, Tel.: +49 4417985011
E-Mail: bernhard.stoevesandt@iwes.fraunhofer.de, www.iwes.fraunhofer.de

Quelle: IDW 

(nach oben)


Waschmaschine verbreitete antibiotika-resistente Keime

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Antibiotika-resistente Erreger können über Waschmaschinen verbreitet werden. Das haben Hygieniker der Universität Bonn für ein Kinderkrankenhaus nachgewiesen, in dem mehrfach ein Klebsiella oxytoca-Typ auf Neugeborene übertragen wurde. Glücklicherweise kam es zu keiner gefährlichen Infektion. Quelle war eine handelsübliche Waschmaschine, in der Kleidungsstücke der Neugeborenen gewaschen wurden. Dieser Fall lässt aufhorchen, zumal auch in Haushalten mit zu pflegenden Personen antibiotika-resistente Bakterien über die Waschmaschine übertragen werden könnten. Die Ergebnisse sind nun im Journal „Applied and Environmental Microbiology“ veröffentlicht.

Auf der Neugeborenen-Station eines Kinderkrankenhauses in Deutschland wurde bei routinemäßigen Hygiene-Screenings vermehrt das Bakterium Klebsiella oxytoca festgestellt. Das Bakterium kann zu Magen-Darm- und Atemwegsinfektionen sowie im schlimmsten Fall zur tödlichen Sepsis führen. In diesem besonderen Fall konnten gängige Antibiotika gegen diesen Erreger nur eingeschränkt oder überhaupt nicht mehr eingesetzt werden. Nachdem immer wieder Neugeborene mit dem Keim besiedelt und intensive Hygieneinterventionsmaßnahmen erfolglos waren, zog das Krankenhaus das Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn hinzu. „Glücklicherweise war es zu keinen gefährlichen Infektionen bei den Babys gekommen“, sagt Dr. Daniel Exner, Hygienebeauftragter Arzt der Klinik und Poliklinik für Allgemein-, Viszeral-, Thorax- und Gefäßchirurgie des Universitätsklinikums Bonn.

Um der Quelle und möglichen Verbreitungswegen auf die Spur zu kommen, wurden mehrfach Umgebungsproben im Patienten- und Personalbereich und vermuteten Risikoorten mit den Proben der Neugeborenen verglichen. „Dieser Klebsiella oxytoca-Typ war so einzigartig, dass er bisher in dieser Form noch nicht in der Datenbank des Nationalen Referenzzentrums (NRZ) für Gramnegative Krankenhauserreger erfasst war“, sagt Dr. Dr. Ricarda Schmithausen, Leiterin des One Health-Fachbereiches am IHPH. Diese Besonderheit war ein Vorteil, weil sich dadurch der Verbreitungsweg eindeutig nachvollziehen ließ. Weder Eltern noch das Pflegepersonal hatten die Bakterien übertragen.

Verbreitung über Mützchen und Söckchen auf die Neugeborenen
„Der Klebsiella oxytoca-Typ war eindeutig im Spülfach und am Türgummi einer Waschmaschine im Keller nachzuweisen, mit der die handgestrickten Söckchen und Mützchen der Babys auf der Station gewaschen wurden“, sagt Prof. Dr. Dr. Martin Exner, Direktor des Instituts für Hygiene und Öffentliche Gesundheit der Universitätskliniken Bonn. Über die Kleidung wurden die Keime auf die Neugeborenen übertragen.

Nachdem die Waschmaschine entfernt wurde, wurden auch keine weiteren Besiedelungen der Frühchen nachgewiesen. „Das zeigt eindeutig, dass wir die Klebsiella-Quelle gefunden haben“, fasst Schmithausen das Ergebnis zusammen. „Es handelt sich um einen Sonderfall.“ Normalerweise sind in Krankenhäusern spezielle Waschmaschinen und Waschverfahren im Einsatz, die bei hohen Temperaturen und mit Desinfektionsmitteln waschen, oder ausgewiesene Wäschereien bereiten die Wäsche extern auf. Auf der Frühgeborenen-Station handelte es sich bei dem etwas länger zurückliegenden Fall dagegen um eine handelsübliche Waschmaschine. „Wir haben uns entschieden, diesen Fall aufzuarbeiten, um auf mögliche Probleme mit resistenten Bakterien, die nun auch weiter in das häusliche Umfeld vordringen, aufmerksam zu machen“, sagt Schmithausen.

In Studien wurde bereits beschrieben, dass sich antibiotika-resistente Bakterien in Waschmaschinen einnisten können. „Wir haben jedoch erstmals nachgewiesen, dass es durch eine Waschmaschine auch zur Übertragung von antibiotika-resistenten Keimen auf den Menschen kommen kann“, berichtet Prof. Exner. Dieses Resultat habe unter anderem auch Konsequenzen für den häuslichen Bereich. Denn aus Umweltschutzgründen gehe bei üblichen Haushaltsmaschinen der Trend zu niedrigeren Temperaturen deutlich unter 60 Grad. Dies sei im Prinzip eine sehr positive Entwicklung, weil dadurch Energie eingespart und das Klima geschont werde, so die Forscher.

Sofern jedoch pflegebedürftige, ältere Menschen mit offenen Wunden oder Blasenkathetern oder auch jüngere Menschen mit eiternden Verletzungen oder Infektionen im Haushalt lebten, sollte die Wäsche bei höheren Temperaturen – zum Beispiel 60 Grad – gewaschen werden, um die Übertragung von gefährlichen Keimen zu vermeiden. In den Augen der Hygieniker ist dies eine wachsende Herausforderung, da die Zahl der in Familien versorgten Pflegebedürftigen ständig zunimmt.

Neue Studie: Probanden gesucht
Diesen Übertragungsweg möchte das Institut für Hygiene und Öffentliche Gesundheit noch genauer untersuchen. Die Wissenschaftler suchen deshalb Haushalte mit Personen, die zuvor aufgrund einer Besiedelung mit multiresistenten Erregern stationär isoliert wurden und Interesse haben, sich an einer Studie zur Übertragung von antibiotika-resistenten Keimen über Waschmaschinen zu beteiligen. Interessierte können sich an Dr. Daniel Exner wenden (E-Mail: daniel.exner@ukbonn.de).

Wissenschaftliche Ansprechpartner:
Dr. med. Dr. agr. Ricarda Schmithausen
Oberärztin, Fachbereich One Health
Institut für Hygiene und Öffentliche Gesundheit (IHPH)
Universitätsklinikum Bonn
Tel. 0228/287-13452
E-Mail: Ricarda.Schmithausen@ukbonn.de

Prof. Dr. med. Dr. h.c. Martin Exner
Direktor des Instituts für Hygiene und öffentliche Gesundheit (IHPH)
Universitätsklinikum Bonn
Tel. 0228/287-15520 oder -15521
E-Mail: martin.exner@ukbonn.de

Originalpublikation:
Ricarda M. Schmithausen, Esther Sib, Martin Exner, Sylvia Hack, Claudia Rösing, Patrick Ciorba, Gabriele Bierbaum, Michael Savin, Sally F. Bloomfield, Martin Kaase, Anja Jacobshagen, Stefanie Gemein, Jürgen Gebel, Steffen Engelhart, Daniel Exner: The washing machine as a reservoir for transmission of extended spectrum beta-lactamase (CTX-M-15)-producing Klebsiella oxytoca ST201 in newborns, Applied and Environmental Microbiology, DOI: 10.1128/AEM.01435-19

Quelle: IDW 

(nach oben)


Bessere Versorgung für diabetische Füße

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Menschen mit Typ2-Diabetes leiden oftmals an schlecht heilenden, infizierten Wunden an den Füßen. Bisher dauert es jedoch zwei Tage, um über eine Bakterienkultur die Erreger samt ihrer Resistenzen zu identifizieren, die die Wunde infizieren – und somit ein wirksames Antibiotikum zu finden. Mit Hilfe eines neuartigen Schnelltests von Fraunhofer-Forscherinnen und -Forschern funktioniert dies künftig in einer Stunde.

Fast tausend Menschen erkranken Tag für Tag in Deutschland an Diabetes – mehr als 90 Prozent davon an Typ2-Diabetes. Und das mit steigender Tendenz: Sowohl in Europa als auch weltweit nehmen die Erkrankungszahlen zu. Zu den Begleiterkran- kungen bei Typ2-Diabetes gehört unter anderem eine Schädigung von Nervenzellen: Die Betroffenen verlieren das Gefühl in den Extremitäten und ziehen sich häufig schlecht heilende Wunden zu. Diese Wunden werden oft mit verschiedenen Erregern infiziert. Ärzte behandeln daher üblicherweise mit Antibiotika. Das Problem: Nicht jedes Antibiotikum wirkt gegen jeden Erreger, es treten mittlerweile viele Resistenzen auf. Die Mediziner nehmen aus diesem Grund einen Abstrich der Wunde und lassen im Labor eine Bakterienkultur anlegen. Diese gibt Aufschluss über die Art der Erreger ebenso wie über die vorhandenen Resistenzen. Allerdings dauert es zwei Tage, bis ein solches Ergebnis vorliegt. Kritisch ist das unter anderem in Indien, wo die Anreise zum nächsten Krankenhaus oftmals sehr lange dauert und die meist nicht-stationäre Behandlung vielfach erst nach einigen Wochen angepasst werden kann. Auch fördert eine Behandlung mit Breitbandantibiotika oder nicht wirkungsvollen Antibiotika langfristig die weitere Ausbildung von Resistenzen.

Eine Stunde statt zwei Tage
Ein neuartiger Schnelltest ermöglicht es Medizinern, von Anfang an auf das passende Antibiotikum zu setzen. Entwickelt haben ihn Forscherinnen und Forscher der Fraunhofer-Institute für Zelltherapie und Immunologie, Institutsteil Bioanalytik und Bioprozesse IZI-BB (Potsdam) und für Elektronische Nanosysteme ENAS (Chemnitz) gemeinsam mit der Firma BiFlow Systems GmbH und Partnern in Indien im Projekt MIDARDI. Das Bundesministerium für Bildung und Forschung BMBF und das Indo-German Science & Technology Centre IGSTC fördern das Vorhaben. »Mit unserem Schnelltest lässt sich innerhalb von einer Stunde bestimmen, welche Bakterien die Wunde besiedeln und welche Resistenzen sie aufweisen – und somit bereits direkt zu Beginn der Behandlung das passende Antibiotikum auswählen«, sagt Dr. Harald Peter, Gruppenleiter am Fraunhofer IZI-BB.

Statt wie bisher eine Bakterienkultur anzulegen und zu beobachten, wie die Bakterien auf verschiedene Antibiotika reagieren, analysiert der Schnelltest die DNA der Bakterien. Der Arzt nimmt einen Abstrich der Wunde und gibt die Wundflüssigkeit auf den Eingangsbereich der etwa Smartphone-großen Kartusche. Im Inneren werden die Bakterien extrahiert, ihre DNA freigelegt und zerteilt. Auf einem Biosensor, der in der Kartusche integriert ist, befinden sich spezielle Fängermoleküle: Sie bilden das passende Gegenstück zu den Erbgutsträngen der Bakterien bzw. des mutierten Erbguts, das bestimmte Resistenzen hervorruft. Passt ein Erbgutstrang zu einem bestimmten Fänger, bindet dieses DNA-Stück daran, während die Erbgutstränge an allen anderen Fängern durch einen Spülgang entfernt werden. Das Leuchten der fluoreszenzmarkierten bakteriellen DNA verrät, an welchen Fängermolekülen das Erreger-Erbgut gebunden hat – und somit auch, um welche Erreger es sich handelt und welche Resistenzen diese aufweisen.

Das Forscherteam vom Fraunhofer ENAS hat Teile der aufwändigen Probenvorbereitung der DNA-Stränge entwickelt. »Wir haben beispielsweise dabei geholfen, dass die DNA der Erreger in Stücke passender Länge verdaut werden und somit an die immobilisierten Fängermoleküle binden kann«, erläutert Andreas Morschhauser, Gruppenleiter am Fraunhofer ENAS. Die BiFlow Systems GmbH stellte die Kartusche bereit, die sowohl den Biochip aufnimmt als auch das gesamte Probenhandling realisiert. Sie sorgten unter anderem dafür, dass die Flüssigkeiten wie gewünscht durch den Chip bewegt werden – etwa indem elektrisch gesteuert Gas erzeugt wird, das wiederum eine Membran wie einen Ballon aufbläst und somit die Flüssigkeit weiterpumpt. Die Kolleginnen und Kollegen des Fraunhofer IZI-BB konzipierten den Biochip. »Auf 5×5 Millimetern können wir – wenn nötig – bis zu 400 unterschiedliche Fängerstränge unterbringen, in Abständen von weniger als hundert Mikrometern«, beschreibt Dr. Peter den Biosensor.

Auch für andere medizinische Analysen geeignet
Der Schnelltest ist keineswegs auf infizierte Wunden beschränkt. So lässt er sich auch bei Blutvergiftungen oder im Veterinärbereich für eine Mastitis – also eine Milchdrüsenentzündung – bei Milchkühen einsetzen. Nötig ist nur ein anderer Biochip mit angepassten Fängermolekülen. »Innerhalb von etwa zwei Wochen können wir den Biochip an eine andere Fragestellung anpassen«, konkretisiert Dr. Peter. Auch kann der Schnelltest für alle Arten von Proben ausgelegt werden, sei es Wundflüssigkeit, Blut, Urin oder Kot. In etwa zwei bis drei Jahren, so schätzen die Experten, könnte der Schnelltest auf dem Markt sein.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2019/oktober/bessere-ver…

Quelle: IDW 

(nach oben)


Fußball und Feminismus

Hans-Christoph Keller Abteilung Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin

Ethnographische Studie zu Geschlechtergerechtigkeit auf dem Platz
Fußball, ein Männersport? Was lange selbstverständlich war, wird zunehmend bezweifelt. Die Geschlechterverhältnisse sind in Bewegung geraten und Frauen fordern ihren Platz auf dem Rasen. Dr. Friederike Faust vom Institut für Europäische Ethnologie an der Humboldt-Universität zu Berlin hat eine feministische Frauenfußballorganisation bei ihren lokalen und internationalen Aktivitäten begleitet und darüber eine ethnografische Studie erstellt. Ihre Arbeit zeigt die Chancen, aber auch Grenzen, die entstehen, wenn die vermeintlichen Gegensätze Fußball und Feminismus aufeinandertreffen.

„Das Hauptproblem ist, dass an der Definition, was Fußball eigentlich ist, kaum zu rütteln ist. Feministische Positionen – es gibt nicht nur eine – wollen nicht nur, dass Frauenfußball genauso anerkannt ist wie Männerfußball und dass dabei alles genau gleich läuft. Es gibt ganz andere Konzepte, nämlich das Leistungsprimat, die Gewalt gegen den eigenen und gegen andere Körper, diese Wiederholung patriarchialer Gesellschaftsstrukturen radikal in Frage zu stellen“, so die Wissenschaftlerin.

Weitere Informationen
Ein Interview mit Friederike Faust zum Thema finden Sie hier: https://www.hu-berlin.de/de/pr/nachrichten/september-2019/nr-19924/view

Publikation
Friederike Faust: Fußball und Feminismus. Eine Ethnografie geschlechterpolitischer Interventionen. Budrich UniPress, 2019. 344 Seiten. Kart. 36,00 Euro (D), 37,10 Euro (A) ISBN 978-3-86388-819-0.

Kontakt

Dr. Friederike Faust
Institut für Europäische Ethnologie
Humboldt-Universität zu Berlin (HU)
Tel.: 030 2093-70868
f.faust@hu-berlin.de

Weitere Informationen:
https://www.hu-berlin.de/de/pr/nachrichten/september-2019/nr-19924/view

Anhang
PM HU Fußball und Feminismus
https://idw-online.de/de/attachment73138

Quelle: IDW 

(nach oben)


Ein genetischer Globetrotter schützt Meeresbakterien vor Umweltverschmutzung

Sven-David Müller Stabsstelle Presse und Kommunikation
Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH

Wissenschaftlerinnen und Wissenschaftler um Privatdozent Dr. Jörn Petersen vom Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH und dem Karlsruhe Institute of Technology (KIT) haben ein einzigartiges Plasmid, pLA6_12, identifiziert, das mit einhundertprozentiger Sequenzidentität in verschiedenen Arten der Bakteriengruppe Roseobacter vorkommt.

Erste Untersuchungen zeigen, dass das Plasmid die Toleranz der marinen Bakterien gegenüber Umweltverschmutzungen, in diesem Fall gegen das hochgiftige und krebsauslösende Chromat (CrO42-), um das Zwanzigfache erhöht und somit einen wichtigen evolutionären Vorteil bietet. Ihre Ergebnisse publizierten die Forscher in dem renommierten Fachmagazin Proceedings of the National Academy of Sciences (PNAS).

Horizontaler Gentransfer durch Plasmide
Plasmide, ringförmige, doppelsträngige DNA-Moleküle, die unabhängig vom Bakterienchromosom in der Bakterienzelle vorkommen, werden von Bakterien unter anderem für den horizontalen Gentransfer genutzt. Dabei werden DNA-Informationen von einer Bakterienzelle an die andere mittels eines Injektionsmechanismus weitergegeben. Eine große Rolle spielt dieser Austausch von genetischen Informationen zum Beispiel bei der Antibiotikaresistenz. Während jedoch über die Verbreitung von Antibiotikaresistenzen viele Details bekannt sind, ist der natürlich vorkommende Plasmidtransfer noch weitestgehend unerforscht. „Die hier entdeckte hundertprozentige Sequenzidentität des Plasmids, das wir in Isolaten unterschiedlicher geographischer Herkunft und verschiedener Genera isoliert haben, ist bisher einzigartig“, fasst PD Dr. Jörn Petersen die Ergebnisse zusammen.

Ocean´s Thirteen – Ein Proteobakterium mit 13 Replikons
Die komplette Erbgut-Entschlüsselung des neu beschriebenen Bakteriums Marinibacterium anthonyi La 6 führte zu einer weiteren verblüffenden Beobachtung. Mit einem Chromosom und zwölf Plasmiden ist der Stamm La 6 der Rekordhalter unter den Proteobakterien, wobei seine Genomorganisation ähnlich komplex ist wie die der Pflanzen und Tiere. Mit 6,8 Millionen Bausteinen verfügt Marinibacterium zudem über das größte Genom innerhalb der Familie der Rhodobacteraceae. Unter den dutzend Plasmiden entpuppte sich das kleinste Element von gerade einmal 7.053 Basenpaaren, pLA6_12, als das Spannendste. Es enthält ein hochkonserviertes Rückgrat und eine austauschbare Kassette von Genen, die unter bestimmten Umweltbedingungen überlebenswichtig sind.

Einzigartigkeit von pLA6_12
Das neu entdeckte Plasmid pLA6_12 repräsentiert eine bisher nicht bekannte Klasse mobiler genetischer Elemente in der Roseobacter-Gruppe. Mikroorganismen nutzen diese Elemente, um mittels horizontalen Gentransfers schnell und unkompliziert DNA auszutauschen. Analysen der vorliegenden Studie haben gezeigt, dass der jetzt identifizierte Plasmid-Typ nur in der marinen Roseobacter-Gruppe vorkommt. Einzigartig dabei ist, dass das Plasmid pLA6_12 in identischer Form in drei verschiedenen Arten der Rhodobacteraceae vorliegt. Obwohl der Austausch von Plasmiden die Grundlage für die Entstehung multiresistenter Krankenhauskeime ist, wurde der natürliche Transfer eines hundertprozentig identischen Plasmids über die Artgrenze hinaus bisher überraschenderweise noch nie beschrieben.Experimentell wurde in der vorliegenden Publikation nachgewiesen, dass das Plasmid pLA6_12 die Toleranz gegen das hochgiftige Chromat um das Zwanzigfache erhöhen kann. Damit ermöglicht es seinem Träger das Überleben in stark kontaminierten Habitaten.

Unentdeckte Talente: Roseobacter unter der Lupe
Bakterien der Roseobacter-Gruppe gehören zu den Alphaproteobacteria, genauer der Familie der Rhodobacteraceae. Sie repräsentieren eine der häufigsten marinen Bakteriengruppen und leben in allen Weltmeeren. Obwohl sie eine zentrale Rolle im globalen Kohlenstoff- und Schwefelhaushalt spielen, werden sie erst seit einem knappen Jahrzehnt intensiv erforscht. Durch ihren ungewöhnlich vielseitigen Stoffwechsel rücken sie immer mehr in den Fokus der Wissenschaft, da sie großes Potential für biotechnologische Anwendungen besitzen.

Das Leibniz-Institut DSMZ ist Partner im Sonderforschungsbereich „Roseobacter (TRR 51)“, der von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird und dessen Ziel es ist, ein systembiologisches Verständnis dieser bedeutenden Gruppe von Meeresbakterien zu erlangen. „Durch die Erforschung der Roseobacter-Gruppe haben wir bereits grundlegende Antworten zu evolutionsbiologischen Fragestellungen erhalten. Über neue Erkenntnisse zur genetischen Organisation der Bakterien hinaus erwarten wir, dass auch biotechnologisch nutzbare Ergebnisse erzielt werden“, so PD Dr. Jörn Petersen.

Originalpublikation:
A marine plasmid hitchhiking vast phylogenetic and geographic distances. Petersen J, Vollmers J, Ringel V, Brinkmann H, Ellebrandt-Sperling C, Spröer C, Howat AM, Murrell JC, Kaster AK. Proc Natl Acad Sci U S A. 2019 Sep 23. pii: 201905878. doi: 10.1073/pnas.1905878116. [Epub ahead of print]

DSMZ-Pressekontakt:
Sven-David Müller, Pressesprecher des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Tel.: 0531/2616-300
E-Mail: sven.david.mueller@dsmz.de

Über das Leibniz-Institut DSMZ
Das Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH ist die weltweit vielfältigste Sammlung für biologische Ressourcen (Bakterien, Archaeen, Protisten, Hefen, Pilze, Bakteriophagen, Pflanzenviren, genomische bakterielle DNA sowie menschliche und tierische Zellkulturen). An der DSMZ werden Mikroorganismen sowie Zellkulturen gesammelt, erforscht und archiviert. Als Einrichtung der Leibniz-Gemeinschaft ist die DSMZ mit ihren umfangreichen wissenschaftlichen Services und biologischen Ressourcen seit 1969 globaler Partner für Forschung, Wissenschaft und Industrie. Die DSMZ ist als gemeinnützig anerkannt, die erste registrierte Sammlung Europas (Verordnung (EU) Nr. 511/2014) und nach Qualitätsstandard ISO 9001:2015 zertifiziert. Als Patenthinterlegungsstelle bietet sie die bundesweit einzige Möglichkeit, biologisches Material nach den Anforderungen des Budapester Vertrags zu hinterlegen. Neben dem wissenschaftlichen Service bildet die Forschung das zweite Standbein der DSMZ. Das Institut mit Sitz auf dem Science Campus Braunschweig-Süd beherbergt mehr als 69.701 Kulturen sowie Biomaterialien und hat 198 Mitarbeiter. www.dsmz.de

Über die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 95 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro. www.leibniz-gemeinschaft.de

Quelle: IDW 

(nach oben)


Die Herz-Themen des Tages

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Am zweiten Tag der DGK Herztage 2019 in Berlin können wir Ihnen spannende Ergebnisse aus der Telemedizin, der Behandlung von Vorhofflimmern und der Entwicklung der Herzinfarkt-Häufigkeit in Deutschland mitteilen. Zu dem Kongress der Deutschen Gesellschaft für Kardiologie werden vom 10. bis zum 12. Oktober mehr als 3.500 Teilnehmer erwartet, die die neuesten Forschungsergebnisse aus der Herz-Kreislauf-Medizin und ihre Umsetzung in der Patientenversorgung diskutieren.

Erfahren Sie hier mehr über unsere Themen des Tages:
Telemonitoring senkt die Sterberate bei Herzschwäche-Patienten deutlich

Einer Analyse von Krankenkassendaten zufolge sinkt die Sterblichkeit bei Patienten mit chronischer Herzinsuffizienz durch eine intensive telemedizinische Betreuung um fast ein Drittel. Tendenziell profi-tieren vor allem ältere Patienten von dem telemedizinischen Versorgungsprogramm AOK-Curaplan Herz Plus. Eine Auswertung der Daten wurde heute im Rahmen der Herztage der Deutschen Gesellschaft für Kardiologie vorgestellt.

Hier geht es zur Pressemitteilung: http://dgk.org/pressemitteilungen/dgk-herztage-2019/aktuelle-pressemitteilungen/…

Herzinfarkt-Patienten werden immer älter
In den letzten 17 Jahren hat sich das Alter, in dem Patienten zum ersten Mal einen Herzinfarkt erleiden, im Schnitt um acht Jahre nach hinten verschoben. Experten sehen darin einen Erfolg der medikamentösen Prävention von Herz-Kreislauf-Erkrankungen. Eine Zunahme der Patienten mit kardiovaskulären Risikofaktoren machen weitere Anstrengungen in der Prävention aber dennoch unabdingbar.

Hier geht es zur Pressemitteilung http://dgk.org/pressemitteilungen/dgk-herztage-2019/aktuelle-pressemitteilungen/…

Vorhofflimmer-Ablation: Je früher desto besser?
Eine interventionelle Behandlung von Vorhofflimmern ist wirksamer als eine medikamentöse Therapie. Große Studien haben das mehrfach eindrucksvoll belegt. Neue Daten deuten außerdem darauf hin, dass Patienten von einer frühzeitigen Ablation zu profitieren scheinen.

Hier geht es zur Pressemitteilung: http://dgk.org/pressemitteilungen/dgk-herztage-2019/aktuelle-pressemitteilungen/…

Interventionelle Behandlung von Vorhofflimmern – was neue Devices leisten können
Die Zahl der Herzrhythmus-Ablationen in Deutschland steigt auf 100.000 pro Jahr. Die Eingriffe wer-den an immer mehr Zentren durchgeführt, die zum Teil nur sehr geringe Fallzahlen nachweisen können. Neue Innovationen beschleunigen und vereinfachen die Durchführung der Eingriffe

Hier geht es zur Pressemitteilung: http://dgk.org/pressemitteilungen/dgk-herztage-2019/aktuelle-pressemitteilungen/…

Medienkontakt:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Michael Böhm (Homburg/Saar)
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
Telefonnummer während der DGK-Herztage (10.10.-12.10.2019): 030 / 2065-1912
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 10.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org

Weitere Informationen:
http://www.dgk.org/presse

Quelle: IDW 

(nach oben)


Ist der Sehsinn der wichtigste Sinn?

Christina Glaser Referat II/2 – Media Relations & Communications
Universität Regensburg

Welcher Sinn würde Ihnen am meisten fehlen, wenn Sie ihn verlieren würden? Diese Frage hat der Regensburger Psychologe Fabian Hutmacher in einer Umfrage gestellt. Der Großteil der Befragten antwortete: Der Sehsinn. Das deckt sich mit der Anzahl an Forschungspublikationen, die zur Wahrnehmung mit den verschiedenen Sinnesmodalitäten veröffentlicht wurden: Etwa dreiviertel der Aufsätze beschäftigen sich mit dem visuellen Sinn. Der bedeutendste Sinn scheint also der Sehsinn zu sein – sowohl in westlichen Gesellschaften als auch in der Forschung. Aber wieso ist das so? Das wollte Fabian Hutmacher genauer wissen. Seine Erkenntnisse sind in der Fachzeitschrift Frontiers in Psychology erschienen.

In Zeiten von Tablets und Smartphones ist der visuelle Sinn zweifelsfrei von großer Bedeutung. Aber kann man wirklich sagen, dass der Sehsinn der wichtigste Sinn ist? „Ganz so einfach ist es wahrscheinlich nicht“, findet Fabian Hutmacher. „Denn man muss erst mal festlegen, woran man die Wichtigkeit festmacht. Unsere Gesellschaft ist beispielsweise gut darauf ausgerichtet, blinde Menschen zu unterstützen. Jemand der blind ist, kommt daher meist relativ gut im Alltag zurecht. Aber stellen Sie sich vor, Sie hätten keinen Tastsinn mehr. Sie würden zum Beispiel nicht merken, wann Sie beim Hinsetzen die Sitzfläche des Stuhls erreichen und Sie könnten keinen Schmerz empfinden. Tatsächlich haben Menschen, die keine Schmerzen wahrnehmen können, eine geringere Lebenserwartung. Das gilt für Blinde nicht. Für das Überleben in unseren heutigen Gesellschaften ist der Tastsinn also vielleicht sogar wichtiger als der Sehsinn. Das bedeutet nicht, dass der Sehsinn definitiv nicht der wichtigste Sinn ist, aber es bedeutet, dass man über den Begriff der Wichtigkeit zumindest diskutieren kann.“

Der visuelle Sinn gilt nicht nur als der wichtigste, sondern auch als der komplexeste Sinn, denn die Areale im Gehirn, die für die visuelle Verarbeitung zuständig sind, scheinen viel größer zu sein, als die Bereiche für die Verarbeitung von Reizen in anderen Sinnessystemen. Doch auch hier ist es nicht so leicht, erklärt Fabian Hutmacher: „Untersuchungen aus den vergangenen Jahren und Jahrzehnten haben gezeigt, dass die Informationen aus verschiedenen Sinneskanälen weniger strikt getrennt als vielmehr sehr vernetzt verarbeitet werden – und dass scheinbar auf die Verarbeitung visueller Informationen spezialisierte Hirnareale auch bei der Verarbeitung anderer Sinneseindrücke eine wichtige Rolle spielen.“ Komplexität lässt sich daneben auch anders definieren, zum Beispiel anhand der Größe des Sinnesorgans – hier übertrumpft der über die ganze Körperoberfläche verteilte Tastsinn alle anderen Sinne – oder anhand der Anzahl verschiedener Sinnesrezeptoren. „Im Auge haben wir nicht so viele verschiedene Rezeptoren, nur Stäbchen für das Sehen im Dunklen und drei verschiedene Arten von Zapfen für das Farbsehen. Für das Riechen hingegen gibt es hunderte verschiedene Rezeptoren. Das heißt wiederum nicht unbedingt, dass das Riechen komplexer ist, als das Sehen. Es zeigt aber, dass es andere Kriterien gibt, nach denen man die Komplexität gewichten könnte“, so Hutmacher.

Daher ist sich Fabian Hutmacher sicher: Die Wichtigkeit und die Komplexität des Sehsinns können nicht die einzigen Gründe dafür sein, dass sich die Forschung so eingehend mit ihm beschäftigt, während die anderen Sinnesmodalitäten – also Hören, Riechen, Schmecken und Tasten – eher am Rande behandelt werden. Eine weitere Erklärung könnte strukturell-methodischer Natur sein. Zum einen ist die Untersuchung der anderen Sinne meist aufwändiger. „Es ist zum Beispiel schwieriger, kontrolliert einen Geruch darzubieten als ein Bild zu zeigen“, erklärt Hutmacher. Zum anderen könnte der sogenannte Matthäus-Effekt greifen, nach dem Motto: Wer hat, dem wird gegeben. „Wer Forschungsgelder beantragt, muss begründen, wozu er die Mittel benötigt. Da es bereits viel Forschung zum Visuellen gibt, schätzen die Geldgeber dieses Thema als wichtig ein. Themen, die bisher nicht stark im Fokus der Wissenschaft waren, erscheinen dagegen als weniger relevant, da sie ja bisher nicht so intensiv erforscht wurden.“

Noch eine Erklärung für die Dominanz des Sehsinns in der Forschung hat Fabian Hutmacher ausgemacht – eine kulturelle: „Wir leben in einer sehr visuell geprägten Kultur. Überall gibt es Bildschirme, beispielsweise als Smartphones, Fernseher oder Infoscreens. Gerade der digitale Wandel hat das Visuelle in den letzten Jahren noch stärker in den Fokus der Aufmerksamkeit gerückt.“ Interessanterweise aber ist die Dominanz des Visuellen weder eine historische noch eine kulturelle Konstante. Zum einen lässt sich zeigen, dass sich die Dominanz des Visuellen in westlichen Gesellschaften schon seit dem Mittelalter und nicht erst mit der Erfindung von Smartphones verstärkt hat. Zum anderen gibt es nicht-westliche Kulturen, in denen eben nicht dem Sehen, sondern anderen Sinnen der erste Platz in der Hierarchie der Sinne eingeräumt wird.

Seine hohe Relevanz möchte Fabian Hutmacher dem Sehsinn nicht absprechen. Auch für ihn spielt das Visuelle eine große Rolle: „Ich lese extrem viel und arbeite den Großteil des Tages am Computer.“ Trotzdem plädiert er dafür, in der Forschung auch die anderen Sinne stärker zu beachten. „Wer wissen möchte, wie beispielsweise das Gedächtnis für Sinneswahrnehmungen funktioniert, sollte nicht unbedingt alle Erkenntnisse aus der Untersuchung des visuellen Gedächtnisses ableiten.“

Auch in Zukunft möchte Fabian Hutmacher die Sinnesmodalitäten erkunden, auch wenn die Menschen oft sehr auf das Rationale und Intellektuelle bedacht sind. „Die sinnliche Qualität, die die Welt ja hat, wird manchmal etwas stiefmütterlich behandelt. Die Reichhaltigkeit und Detailliertheit dessen, was wir sinnlich wahrnehmen und abspeichern, finde ich sehr spannend.“

Wissenschaftliche Ansprechpartner:
Fabian Hutmacher
Am Institut für Experimentelle Psychologie
Universität Regensburg
Tel.: 0941 943-3317
E-Mail: fabian.hutmacher@ur.de

Originalpublikation:
Fabian Hutmacher „Why Is There So Much More Research on Vision Than on Any Other Sensory Modality?“ Frontiers in Psychology 2019.
DOI: https://doi.org/10.3389/fpsyg.2019.02246

Quelle: IDW 

(nach oben)


TU Berlin: „Blau-grüne Straßen“ gegen Trockenstress und Sturzfluten

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

In Großstädten wie Berlin leiden Straßenbäume trotz Extremniederschlägen unter Dauerstress durch Dürreperioden – Wassermanagement muss neu gedacht werden

Der Herbst ist da und bringt endlich Regen mit sich. Doch die Folgen des diesjährigen Extremsommers werden uns auch die nächsten Jahre noch beschäftigen, befürchten Wissenschaftler*innen. Nach dem zweiten Sommer mit ungewöhnlich hohen Temperaturen und langanhalten Trockenperioden waren die Auswirkungen auf die Straßenbäume im Berliner Stadtbild deutlich zu erkennen. Gleichzeitig führten zwei Extremniederschläge zu rapiden Überflutungen ganzer Straßenzüge ohne den Dürrestress der Bäume zu mindern, da die klassische Stadtentwässerung für die möglichst rasche Ableitung des Wassers sorgt, was die Kanalisation in dieser Extremsituation überlastet und die Gewässer mit Schmutzfracht belastet. Abhilfe könnte eine Umstrukturierung des urbanen Wassermanagements schaffen, das die umgehende Ableitung von Regenwasser verhindert, das Wasser für die Bewässerung nutzt und damit eine Anpassung an den lokalen Klimawandel ermöglicht. Das mit 2,5 Millionen Euro geförderte BMBF-Verbundvorhaben „BlueGreenStreets“ will durch eine Neudefinition und sogenannte Multikodierung von Straßenräumen dieses Dilemma auflösen.

„Schon Ende Juli schien in vielen Straßenzügen der Herbst Einzug gehalten zu haben, wenn man in die Kronen von Stadtbäumen schaute: Gelbes Laub, kahle Äste und fallende Blätter“, sagt Dr.-Ing. Björn Kluge vom Fachgebiet Ökohydrologie und Landschaftsbewertung der TU Berlin. „Unsere Straßenbäume zeigen zunehmend deutliche Schäden.“ Dies lasse sich zum einen auf die geringen Niederschläge 2018 und 2019 zurückführen, mit nur 376 Litern beziehungsweise in 2019 bisher nur 323 Litern pro Quadratmeter, während der langjährige Durchschnitt bei 580 Litern pro Quadratmeter liege, zum anderen auch auf die deutliche Zunahme der „Sommertage“ mit über 25° C und der „heißen“ Tage mit über 30° C. Gleichzeitig wurde Berlin in diesem Sommer von gleich zwei Jahrhundert-Extremniederschlägen mit Regenmengen von rund 30 Litern pro Quadratmeter in nur 20 Minuten überflutet. Und auch in anderen wachsenden Städten besteht die Gefahr, dass es durch die Bebauung und damit den Verlust wichtiger Grünflächen zu mehr Überflutungen kommt.

Förderung von Versickerung und Verdunstung durch intelligente Lenkung
„Bei gleichzeitiger, extremer Trockenheit im Wurzelraum der Stadtvegetation erzeugen Extremniederschläge urbane Sturzfluten, welche in kürzester Zeit abfließen, die Gewässer belasten, die Nutzung des Verkehrsraumes einschränken und zu Gebäude- und Infrastrukturschäden führen, während die Straßenbäume auf dem Trockenen sitzen“, erklärt Prof. Dr. Eva Paton, die das Fachgebiet leitet. Diese Extremniederschläge minderten also den Dürrestress der Bäume keineswegs. Grund sei eine nicht angepasste Gestaltung der Stadt, denn das Wasser werde nach klassischer Stadtentwässerung so schnell wie möglich aus der Stadt abgeleitet. „In der zukünftigen Stadtentwicklung brauchen wir eine intelligente Lenkung, um Niederschläge und Überflutungsereignisse durch dezentrale Versickerung und Verdunstung in temporären wie dauerhaften Retentionsräumen deutlich abzupuffern“, erklären die Wissenschaftler*innen. Diese Räume könnten Parkflächen, Straßenräume, Mulden, Baumscheiben, Baumrigolen- und Fassadenbegrünungssysteme sowie eine Kombination aus diesen Elementen sein. Stadtbäumen und grünen Fassaden würde durch diese Zwischenspeicherung im Boden deutlich mehr Wasser zur Verfügung stehen. Das hätte mannigfaltige positive Wirkungen auf den urbanen Raum zur Folge: Entlastung der Kanalisation, weniger Schmutzfracht für die Gewässer, höhere Baumvitalität und damit geringere Baumpflegekosten sowie eine deutlich höhere Verdunstung mit stärkerem Kühlungseffekt an heißen Tagen.

„Diese Art der Wassernutzung ist allerdings derzeit aus rechtlicher Sicht bisher nur sehr eingeschränkt genehmigungsfähig“, so Björn Kluge. Es müsse also zunächst eine Anpassung der gängigen Verwaltungspraxis stattfinden. Unter anderem müsse der Grundwasserschutz berücksichtigt sowie die zu erwartenden Nutzen durch Untersuchungen und Risikoabschätzungen validiert werden. Diese Untersuchungen sowie die Nutzung von Synergien und die Möglichkeiten der Verknüpfung und Implementierung untersucht das Forschungs- und Entwicklungs-Verbundvorhaben „BlueGreenStreets“, das soeben vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme „RES:Z – Ressourceneffiziente Stadtquartiere für die Zukunft“ für drei Jahre bewilligt wurde. An dem mit rund 2,5 Millionen Euro geförderten Projekt ist die TU Berlin mit zwei Teilprojekten beteiligt. Das Fachgebiet Ökohydrologie des Instituts für Ökologie untersucht die Verdunstungsleistung von Stadtbäumen und Fassadengrün und führt Messungen zu deren Verdunstungsleistungen durch, um den Wasserbedarf und potenziell mögliche Verdunstungsmengen abzuleiten. Die Daten werden für die Modellierung zur Ableitung der Auslegung und der Effekte von sogenannten „Blau-Grünen Straßen“ mit integriertem Stadtgrün und Wasserflächen im Stadtraum genutzt. Das Fachgebiet Siedlungswasserwirtschaft des Instituts für Bauingenieurwesen identifiziert und untersucht verkehrliche Belastungs-Hotspots im Straßenraum und erprobt Reinigungsverfahren.

Entwickelte Tools werden mit kommunalen Partnern erprobt
Das Gesamtprojekt untersucht die Wirksamkeit von Planungsinstrumenten und Regelwerken zu grünen städtischen Infrastrukturen, urbaner Wasserwirtschaft, dem Sanierungsmanagement von Straßen und Kanälen, und der Verkehrs- und Freiraumplanung und entwickelt diese weiter. Straßenräume sollen so zukunftsfähig gestaltet werden und damit zu Multitalenten in Stadtquartieren werden. Die entwickelten Planungsvorschläge und Tools werden mit kommunalen Partnern unter anderem in Berlin, Hamburg und Neuenhagen, Bochum, Solingen mit den Stadtakteuren in Pilotstraßen erprobt. Die Übertragbarkeit auf andere Kommunen soll anschließend durch modellhafte Lösungsvorschläge zur Integration von Stadtgrün im Straßenraum gewährleistet werden.

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Eva Paton
Dr. Björn Kluge
Dr. Thomas Nehls
TU Berlin
Fachgebiet Ökohydrologie & Landschaftsbewertung
Tel.: 030/314-73536, -73535
E-Mail: eva.paton@tu-berlin.de, bjoern.kluge@tu-berlin.de, thomas.nehls@tu-berlin.de
Website: http://www.oekohydro.tu-berlin.de/menue/forschung/laufende_forschungsprojekte/

Quelle: IDW 

(nach oben)


Tuberkulose: Neue Einblicke in den Erreger

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Forscher der Universität Würzburg und des spanischen Krebsforschungszentrums haben neue Erkenntnisse über den Erreger der Tuberkulose gewonnen. Die in Nature veröffentlichte Arbeit liefert die Grundlage für einen neuen Ansatzpunkt in der Antibiotikatherapie.

Tuberkulose ist eine hochansteckende Infektionskrankheit, die über den Luftweg übertragen wird und hauptsächlich die Lunge befällt. Laut Weltgesundheitsorganisation WHO sterben jedes Jahr geschätzte 1,7 Millionen Menschen weltweit an einer solchen Infektion. Zudem trägt ein Viertel der Weltbevölkerung eine Form der Tuberkulose in sich, die über lange Zeit im Verborgenen schwelt. Sie zeigt zunächst keine Symptome, kann aber zu einem späteren Zeitpunkt ausbrechen.

Nanomaschinen in der Zellhülle
Bei einer Ansteckung scheidet der Erreger der Tuberkulose, das Mycobacterium tuberculosis, über sogenannte Typ VII-Sekretionssysteme eine Vielzahl an spezialisierten Effektorproteinen aus. Diese kleinen, aus Proteinen bestehenden Nanomaschinen in der Zellhülle sorgen dafür, dass das Mycobacterium beispielsweise die Immunabwehr bekämpfen oder die Aufnahme von Nährstoffen sicherstellen kann, um sich im Wirt zu vermehren. Die Funktionsweise dieser zentralen Sekretionssysteme ist bisher wenig verstanden.

Wissenschaftlern der Julius-Maximilians-Universität Würzburg (JMU) und vom spanischen Krebsforschungszentrum CNIO (Centro Nacional de Investigaciones Oncológicas) ist es jetzt gelungen, die molekulare Struktur dieser Nanomaschinen zu entschlüsseln. Federführend bei diesen Arbeiten war Dr. Sebastian Geibel, der eine vom Elitenetzwerk Bayern finanzierte Arbeitsgruppe am Institut für Molekulare Infektionsbiologie leitet und gleichzeitig mit dem Rudolf-Virchow-Zentrum der JMU affiliert ist. In der aktuellen Ausgabe der Fachzeitschrift Nature haben die Wissenschaftler die Ergebnisse ihrer Arbeit veröffentlicht.

Messungen bei Tiefsttemperaturen
Die Arbeitsgruppe um Sebastian Geibel hat in den vergangenen fünf Jahren intensiv daran gearbeitet, eine dieser Sekretionsmaschinen stabil zu rekonstituieren und die empfindliche Probe für Messungen am Kryo-Elektronenmikroskop vorzubereiten. Dazu müssen die Proteinkomplexe zunächst unter definierten Bedingungen schockgefroren werden.

In Zusammenarbeit mit der spanischen Arbeitsgruppe um Oscar Llorca, die in Madrid in einem aufwendigen Verfahren dreidimensionale Karten des Proteinkomplexes generierte, konnten die Würzburger Forscher ein Model der Molekülstruktur erstellen. Es gelang, wichtige Elemente der Nanomaschine zu identifizieren, die die Transportpore formen, als auch Elemente zu bestimmen, die chemische Energie in Bewegung umwandeln und dadurch den Transport der Effektorproteine durch die Pore antreiben.

Neuer Ansatz für neue Wirkstoffe
Die Erkenntnisse der Forscher führen zu einem tieferen Verständnis der Funktionsweise von Type VII-Sekretionssystemen. Da es momentan noch keinen umfassenden Impfschutz gegen Tuberkulose gibt und gleichzeitig immer mehr Tuberkulose-Erreger Resistenzen gegen gängige Antibiotika entwickeln, schaffen die Erkenntnisse der Forscher die Grundlage für die Entwicklung neuer Wirkstoffe in der Antibiotikatherapie.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Geibel, NWG Mykobakterielle Sekretionssysteme, Lehrstuhl für Molekulare Infektionsbiologie I (Prof. Dr. Jörg Vogel), T: +49 931 31-84590, sebastian.geibel@uni-wuerzburg.de

Originalpublikation:
Architecture of the mycobacterial type VII secretion system. Nikolaos Famelis, Angel Rivera-Calzada, Gianluca Degliesposti, Maria Wingender, Nicole Mietrach, J. Mark Skehel, Rafael Fernandez-Leiro, Bettina Böttcher, Andreas Schlosser, Oscar Llorca & Sebastian Geibel. Nature, 9. October 2019, DOI 10.1038/s41586-019-1633-1.

Weitere Informationen:
https://www.nature.com/articles/s41586-019-1633-1 Link zur Originalpublikation

Quelle: IDW 

(nach oben)


Neuartiges Verfahren für das Kunststoffrecycling präsentiert: Großes Industrie-Interesse an Forschungsprojekt „MaReK“

Annika Borchers Pressestelle
Hochschule Pforzheim

Es sind deutliche technische Fortschritte erforderlich, um den Kunststoffverbrauch in Deutschland und auf der Welt zu reduzieren. Daher fördert das Bundesministerium für Bildung und Forschung (BMBF) Forschungsarbeiten im Förderschwerpunkt „Plastik in der Umwelt“. Im Rahmen des Forschungsprojekts „MaReK – Markerbasiertes Sortier- und Recyclingsystem für Kunststoffverpackungen“ wird dazu an der Hochschule Pforzheim eine neue Möglichkeit der Sortierung von Abfällen untersucht. Das Konsortium lud Ende September zu einem internationalen Workshop ein, um die bisher erreichten Ergebnisse darzustellen und über die weitere Umsetzung zu diskutieren.

Zukünftig wird für Kunststoffverpackungen in Deutschland eine Recyclingquote von 63 Gewichts-% gefordert. Es sind deutliche technische Fortschritte erforderlich, wenn diese gesetzliche Vorgabe im Jahr 2022 erreicht werden soll. In Europa werden derzeit lediglich 6% des Kunststoffverbrauchs durch Rezyklate gedeckt. Weltweit werden derzeit knapp 10% aller Verpackungen rezykliert, weit überwiegend jedoch nicht als gleichwertige Verpackung, sondern in Anwendungen mit geringerer Qualität. Viele Kunststoffe finden ihren Weg in die Umwelt und letztlich in die Ozeane. Daher fördert das Bundesministerium für Bildung und Forschung (BMBF) Forschungsarbeiten im Förderschwerpunkt „Plastik in der Umwelt“. Im Rahmen des Forschungsprojekts „MaReK – Markerbasiertes Sortier- und Recyclingsystem für Kunststoffverpackungen“ wird dazu an der Hochschule Pforzheim eine neue Möglichkeit der Sortierung von Abfällen untersucht, um hochwertige Rezyklate aus Kunststoffabfällen herzustellen. An dem Projekt arbeiten neben dem Institut für Industrial Ecology (INEC) der Hochschule Pforzheim (HS PF) die drei Unternehmen Polysecure GmbH, Werner & Mertz GmbH, Der Grüne Punkt – Duales System Deutschland GmbH sowie das Institut für Mikrostrukturtechnologie des KIT mit. Das Projektkonsortium untersucht einen auf Fluoreszenz-Markern basierenden Ansatz zur Erkennung von Kunststoffverpackungen.

Das Konsortium lud Ende September zu einem internationalen Workshop ein, um die bisher erreichten Ergebnisse darzustellen und das durch den Projektpartner Polysecure entwickelte Sortierverfahren anhand einer Demonstrator-Sortieranlage zu präsentieren. Rund vierzig internationale Vertreter von Industrieunternehmen, großen Markenherstellern sowie von Forschungseinrichtungen und auch Abfallwirtschaftsbehörden folgten der Einladung. „Wir sind überwältigt von desr Resonanz, denn zahlreiche große Unternehmen und weitere wichtige Partner für die Realisierung unseres Ansatzes haben ihr Interesse ausgedrückt und Umsetzungsmöglichkeiten mit uns diskutiert“, so der Tagungs- und Projektleiter Dr. Claus Lang-Koetz, Professor für Nachhaltiges Technologie- und Innovationsmanagement an der HS PF. Er leitet zusammen mit seinem Kollegen Professor Dr. Jörg Woidasky das Verbundvorhaben.

Der Veranstaltungsort waren die Technika des Projektpartners Polysecure in Freiburg: „Nachdem wir erst kürzlich die neuen Technikumsräume hier in Freiburg beziehen konnten, war dieser Workshop eine einmalige Gelegenheit, neben dem Unternehmen auch die von uns entwickelte Sortiertechnik zu präsentieren“, so der Polysecure-Geschäftsführer Jochen Moesslein. „Bereits die ersten Versuche mit unserem neuen Fallrohr-Identifikationskonzept haben überzeugende Ergebnisse gezeigt, und das konnten alle Workshop-Teilnehmer direkt miterleben!“

Neben der Demonstration der „Tracer-Based Sorting“ (TBS)-Sortiertechnik, bei der eigens entwickelte anorganische Leuchtstoffe durch Infrarotstrahlung angeregt werden und so die auszusortierenden Verpackungen zum Leuchten bringen, wurden weitere Prozesse des Tracer-Based Sorting wie die Markerproduktion selbst sowie die Integration des Markers auf und in den Verpackungen vorgestellt. Anschließend wurde in vier hochkarätig besetzten Arbeitsgruppen über wichtige Fragen für die weitere Umsetzung diskutiert. Unter anderem interessierte das Forschungskonsortium in den Diskussionsrunden die Einschätzung der Stakeholder zu verschiedenen Anwendungskonzepten sowie Treibern und Hemmnissen der Technologie. Wichtige Ergebnisse waren dabei neben der Einsetzbarkeit der TBS-Technologie zur Trennung von Lebensmittel- von Nicht-Lebensmittelverpackungen auch die Kennzeichnung schlecht verwertbarer Verbundverpackungen oder die weitere Auftrennung von einzelnen Polymersorten.

Da es sich beim Tracer-Based Sorting um eine komplexe Innovation handelt, die wert-schöpfungskettenübergreifend erhebliche Auswirkungen haben wird, ist es wichtig, schon in einer frühen Phase der Innovation die Einflussgruppen einzubeziehen. Die Besucher vertraten die Bereiche Herstellung, Handel und Entsorgung sowie Verwaltung und bildeten damit ein hervorragendes Forum, um neben technischen auch organisatorische und politische Fragestellungen zur Umsetzung zu diskutieren. Neben zahlreichen Teilnehmern aus Deutschland nahmen Stakeholder aus Frankreich, der Schweiz, den Niederlanden, Großbritannien und Australien am englischsprachigen Stakeholder-Workshop teil.

Informationen zur Technologie:
Grundlage der im Projekt MaReK untersuchten Möglichkeit der Sortierung von Abfällen ist die Tracer-Based-Sorting-Technologie. Sie wurde vom Projektpartner Polysecure GmbH entwickelt und soll es ermöglichen, Kunststoffverpackungen gezielt in hochwertige sortenreine Fraktionen zu separieren, um ein qualitativ höherwertiges Recycling zu ermöglichen. Darauf basierend wird im Projekt MaReK die Entwicklung und Erprobung einer Kombination aus Verpackungs-kennzeichnung und eines darauf abgestimmten Sortierverfahrens verfolgt. Dabei werden der Kunststoffverpackung oder dem Etikett bereits bei der Herstellung fluoreszierende Markerpartikel beigemischt. Der Marker ist unter natürlichen Umständen für das menschliche Auge nicht wahrnehmbar, nur bei speziell definierter Anregung im Infrarotbereich wird er sichtbar. In der Verwertung können dann mit einer speziell auf die Marker abgestimmten TBS-Sortiermaschine markierte Artikel aus dem Abfallstrom identifiziert und abgetrennt werden. So können hochwertige, sortenreine oder sogar typenreine Stoffe für die Verwertung aussortiert werden. Damit leistet die TBS-Technologie einen erheblichen Beitrag zur Ausweitung des werkstofflichen Recyclings.

Informationen zum Projekt:
Das Projekt MaReK (Markerbasiertes Sortier- und Recyclingsystem) wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmenprogramm „Forschung für Nachhaltige Entwicklung“ (FONA3) in der Fördermaßnahme „Plastik in der Umwelt“. Betreut wird das Projekt vom Projektträger Jülich (Projektträgerschaft Ressourcen und Nachhaltigkeit) im BMBF-Förderschwerpunkt „Plastik in der Umwelt“ im Rahmen der Leitinitiative „Green Economy“, Rahmenprogramm „Forschung für Nachhaltige Entwicklung – (FONA³).

Projektpartner sind:
• Hochschule Pforzheim, Institut für Industrial Ecology INEC (Pforzheim) (Projektleitung)
• Polysecure GmbH (Freiburg)
• Der Grüne Punkt – Duales System Deutschland GmbH (Köln)
• Werner & Mertz GmbH (Mainz)
• KIT Karlsruher Institut für Technologie, Institut für Mikrostrukturtechnologie (Karlsruhe)
• Assoziierter Partner: Umwelttechnik BW GmbH (Stuttgart)

Wissenschaftliche Ansprechpartner:
Professor Dr. Claus Lang-Koetz, claus.lang-koetz@hs-pforzheim.de
Professor Dr. Jörg Woidasky, joerg.woidasky@hs-pforzheim.de

Weitere Informationen:

http://www.hs-pforzheim.de/marek

Quelle: IDW 

(nach oben)


Forscher entschlüsseln Wirkung von Ebola-Impfstoff – Virologen der Uniklinik Köln identifizieren neue Antikörper

Christoph Wanko Unternehmenskommunikation und Marketing
Uniklinik Köln

rVSV-EBOV heißt der noch neue Impfstoff, der aktuell im Kampf gegen das meist tödliche Ebola-Virus eingesetzt wird. Seit 2018 haben ihn bereits über 200.000 Menschen erhalten. Wie genau der Impfstoff wirkt, war bislang jedoch nur teilweise bekannt. Wissenschaftler um Univ.-Prof. Dr. Florian Klein, Direktor des Instituts für Virologie an der Uniklinik Köln und der Medizinischen Fakultät, konnten die durch rVSV-EBOV ausgelöste Antikörperantwort nun im Detail entschlüsseln. Ihre Erkenntnisse sind heute (7.10.19) im renommierten Fachmagazin „Nature Medicine“ veröffentlicht worden.

Nach der dramatischen Ebola-Epidemie von 2013 bis 2016 in Westafrika grassiert das Virus nun seit 2018 in der Demokratischen Republik Kongo. Seitdem ist es zu über 2.100 Todesfällen gekommen und die Zahl der Opfer sowie Neuinfektionen steigt täglich. Um die Epidemie einzudämmen setzen Mediziner den rekombinanten Lebendimpfstoff rVSV-ZEBOV ein, der abgeschwächte vesikuläre Stomatitis-Viren (VSV) mit dem Hüllprotein des Ebola-Virus vom Zaire-Stamm (ZEBOV) kombiniert.

Wissenschaftler um Prof. Klein konnten nun zeigen, wie das Immunsystem auf die Impfung reagiert und Antikörper gegen das Ebola-Virus bildet. Die Untersuchungen erfolgten mit der Unterstützung des Deutschen Zentrums für Infektionsforschung (DZIF) in enger Zusammenarbeit mit Forschern der Universität Marburg, des Universitätsklinikums Hamburg-Eppendorf und des Weizmann-Instituts für Wissenschaften in Israel.

In ihrer Arbeit zeigten die Forscher, dass die Impfung eine große Bandbreite an verschiedenen Antikörpern gegen das Ebola-Virus hervorruft, die unterschiedliche Stellen auf dem Hüllprotein des Virus erkennen. Viele der untersuchten Antikörper wiesen zudem sehr gute Neutralisations-Eigenschaften auf. Diese sind in der Regel besonders wichtig, um vor Infektionen zu schützen. Ausgesprochen wirkungsstark waren dabei die Antikörper 3T0331 und 4T0243. Diese konnten Ebola-Viren unter Zellkultur-Bedingungen deutlich effizienter neutralisieren als andere Antikörper, die zurzeit therapeutisch eingesetzt werden.

Des Weiteren entdeckten die Wissenschaftler, dass bestimmte Antikörper bei allen untersuchten und geimpften Personen in sehr ähnlicher Weise auftraten. Dafür hat das Team von Prof. Klein, dem auch die Erstautoren Doktorandin Stefanie Ehrhardt und Post-Doc Dr. Matthias Zehner angehören, die sogenannten B-Zellen untersucht, die für die Bildung der Antikörper verantwortlich sind. „Die spezifischen B-Zellen im Blut der geimpften Personen haben wir mittels eines markierten Ebola-Hüllproteins sichtbar gemacht und jede einzelne Zelle genau analysiert“, so Dr. Zehner. „Die Ähnlichkeit bestimmter Antikörper zwischen den geimpften Personen ist sehr beeindruckend, da jeder Mensch eine fast unbegrenzte Anzahl an verschiedenen Antikörpern produzieren kann. Zudem ähneln sie auch den Antikörpern, die in Ebola-Überlebenden gefunden wurden, was unterstreicht, dass der Impfstoff zu einer der Virus-Infektion ähnlichen Antikörperantwort führt“, erklärt Stefanie Ehrhardt.

Die Forscher verdeutlichen mit ihrer Arbeit darüber hinaus, dass therapeutische Antikörper auch effektiv aus geimpften Personen entwickelt werden können. „Das ist besonders bei schwerwiegenden Ausbrüchen in Gebieten mit schlechter Infrastruktur von Bedeutung. Wenn zuvor eine Studie mit einem Impfstoff gegen den Erreger durchgeführt wurde, kann versucht werden, direkt aus diesen Personen neutralisierende Antikörper zu isolieren. Diese können dann zum Schutz und zur Therapie der Infektion eingesetzt werden“, erklärt Prof. Klein abschließend.

Kooperationspartner der Studie:
• Universitätsklinikum Hamburg-Eppendorf
• Institut für Virologie der Philipps-Universität Marburg
• Weizmann-Institut für Wissenschaften in Rehovot, Israel
• Bernhard-Nocht-Institut für Tropenmedizin
• Deutsches Zentrum für Infektionsforschung (DZIF)
• Universitätsklinikum Frankfurt

Für Rückfragen:
Anja Schattschneider
Redakteurin / Pressereferentin
Stabsabteilung Unternehmenskommunikation und Marketing
Telefon: 0221 478-5548
E-Mail: presse@uk-koeln.de

Originalpublikation:
Polyclonal and convergent antibody response to, Ebola virus vaccine rVSV-ZEBOV, Stefanie A. Ehrhardt und Matthias Zehner*, Verena Krähling, Hadas Cohen-Dvashi, Christoph Kreer, Nadav Elad, Henning Gruell, Meryem S. Ercanoglu, Philipp Schommers, Lutz Gieselmann, Ralf Eggeling, Christine Dahlke, Timo Wolf, Nico Pfeifer, Marylyn M. Addo, Ron Diskin, Stephan Becker and Florian Klein

https://doi.org/10.1038/s41591-019-0602-4

Quelle: IDW 

(nach oben)


Starke Gleichstellungsstrategie zahlt sich aus

Sebastian Hollstein Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena

Die Friedrich-Schiller-Universität Jena gehört im Bereich Gleichstellung zu den drei führenden Universitäten Deutschlands. Das geht aus dem bundesweiten „Hochschulranking nach Gleichstellungsaspekten 2019″ des Kompetenzzentrums Frauen in Wissenschaft und Forschung (CEWS) hervor. Das Ranking vergleicht 292 Hochschulen, darunter 63 Universitäten, nach Kennzahlen zur Gleichstellungssituation in verschiedenen Bereichen. Mit zehn von zwölf Punkten bildet die Universität Jena gemeinsam mit den Universitäten Bielefeld und Potsdam die Spitzengruppe des Universitätsrankings.

Hervorragend sind in Jena beim Gleichstellungsranking vor allem die Ergebnisse in den Bereichen Promotionen und hauptberufliches wissenschaftliches Personal sowie die Steigerung des Frauenanteils am hauptberuflichen wissenschaftlichen Personal und an den Professuren gegenüber dem Jahr 2012.

„Diese Platzierung ist eine erneute Bestätigung dafür, dass wir mit unserer jüngst durch das Sachverständigengremium des Professorinnenprogramms von Bund und Ländern prämierten Gleichstellungsstrategie und den damit verbundenen Bemühungen um Chancengleichheit den richtigen Weg eingeschlagen haben“, sagt Prof. Dr. Uwe Cantner, der Vizepräsident für wissenschaftlichen Nachwuchs und Gleichstellung der Universität Jena. „Um die Bedeutung dieses Themas als Grundprinzip unserer Universität herauszustellen und wirkungsvoll agieren zu können, haben wir die Bemühungen auf diesem Feld als Führungs- und Querschnittsaufgabe verankert, in die die gesamte Universität einbezogen ist – und das zahlt sich aus, wie das Ranking belegt. Basierend auf gleichstellungsorientierten Konzepten der Studien- und Personalentwicklung und einem vielfältigen Beratungs- und Förderangebot für Frauen, in den Bereichen, in denen sie bisher unterrepräsentiert sind, wird die positive Entwicklung von allen Hochschulangehörigen getragen, die für Fairness und Chancengerechtigkeit in ihren Studien- und Arbeitsumfeld sensibel sind und sich in ihrem Team und Kollegium sowie in ihrer Lehre und Personalführung dafür einsetzen.“ Die erfolgreiche Gleichstellungsarbeit der Friedrich-Schiller-Universität lasse sich nicht zuletzt sehr gut an stetig verbesserten Ergebnissen in vorangegangenen Rankings ablesen.

Das CEWS-Hochschulranking erscheint seit 2003 im Zweijahres-Rhythmus. Es berücksichtigt das Fächerprofil der Hochschulen, zeigt bundesweite Entwicklungen im Gleichstellungsbereich auf und hat sich als Bestandteil der Qualitätssicherung für Gleichstellung etabliert. Das aktuelle Ranking basiert auf Daten des Statistischen Bundesamtes 2017.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Uwe Cantner
Vizepräsident für wissenschaftlichen Nachwuchs und Gleichstellung der Universität Jena
Fürstengraben 1, 07743 Jena
Tel.: 03641 / 930400
E-Mail: vpwiss.nachwuchs@uni-jena.de

Quelle: IDW 

(nach oben)


Chemische Evolution – One Pot Wonder

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Vor dem Leben kam die RNA: LMU-Forscher zeigen, wie auf der Ur-Erde die vier verschiedenen Buchstaben dieses Erbgut-Alphabets aus simplen Vorläufermolekülen entstehen konnten – unter denselben präbiotischen Bedingungen.

Auf geothermalen Feldern wie im hier Yellowstone-Nationalpark könnten auf der Ur-Erde erste RNA-Moleküle, die Vorboten des Lebens, entstanden sein. Foto: imago / Westend61
Auf geothermalen Feldern wie im hier Yellowstone-Nationalpark könnten auf der Ur-Erde erste RNA-Moleküle, die Vorboten des Lebens, entstanden sein. Foto: imago / Westend61

Die Evolution hat eine Vorgeschichte: Bevor sich auf dem damals noch jungen Planeten das Leben formen konnte, müssen vor gut vier Milliarden Jahren die ersten einfachen Bausteine entstanden sein, die seine Entstehung in Gang setzten. Unter welchen Bedingungen und auf welchem Wege fügten sich solche Moleküle zusammen, aus denen sich komplexere informationstragende Einheiten bilden konnten, die sich selbst vervielfältigen – Vorläufer des heutigen Erbmaterials? Wissenschaftler um den LMU-Chemiker Professor Thomas Carell können nun einen weiteren, wenn nicht den entscheidenden Schritt in dieser chemischen Evolution erklären, die der biologischen Stammesgeschichte vorausgegangen ist. Davon berichten sie im renommierten Fachmagazin Science.

Thomas Carell und sein Team schlagen in ihrer neuen Arbeit eine Kaskade chemischer Reaktionen vor, in der die vier verschiedenen Bausteine des Erbmoleküls RNA allesamt unter identischen präbiotischen Bedingungen entstehen können: die Ursuppe – sozusagen in einem Topf gekocht. Bislang gab es zwei konkurrierende Modelle, die unterschiedliche geochemische Settings auf der frühen Erde voraussetzten. Eines führt zum Bau der sogenannten Pyrimidine, der Buchstaben C (Cytosin) und U (Uracil) im RNA-Alphabet, das andere zu A (Adenin) und U (Uracil). Den Reaktionsweg zu diesen Purinen hatte Carells Team schon in einer früheren Arbeit beschrieben. Jetzt haben die Münchner Chemiker, wenn man so will, eine Synthese geschafft.

Danach reichten einfachste chemische Zutaten und Reaktionsbedingungen, wie sie auf der Erde vor Millionen von Jahren etwa auf geothermalen Feldern mit vulkanischer Aktivität im Untergrund oder aber auch in flachen Teichen zu finden gewesen sein dürften, um die Synthese sogenannter Nukleoside, der direkten Vorstufen für die Purine und Pyrimidine, über eine ganze Reihe von Reaktionsschritten in Gang zu halten. Ausgangsstoffe dafür waren in den Versuchen, die die präbiotischen Bedingungen nachstellen sollten, so einfache Substanzen wie Ammoniak, Harnstoff und Ameisensäure. Auch brauchte es Salze wie Nitrite und Carbonate sowie Metalle wie Nickel, die in großen Mengen in der Erdkruste vorhanden sind. Angetrieben wurde die Kette der chemischen Reaktionen lediglich von Nass-Trocken-Zyklen, wie sie durch hydrothermale Quellen oder auch Dürre- beziehungsweise Regenperioden entstehen können.

Thomas Carell spricht von einem „Durchbruch“. Interessant sei, wie vergleichsweise homogen die Reaktionsbedingungen für die einzelnen Schritte der Synthese seien. Es reichten schon geringe Fluktuationen physikalischer Parameter wie eine gelinde Erwärmung beziehungsweise Abkühlung oder der Wechsel zwischen einem leicht sauren und einem leicht basischen Reaktionsmilieu. „Es gibt wenige komplexe Moleküle, die sich in so engen Reaktionsbändern herstellen lassen“, sagt der LMU-Chemiker. Solche einfachen Rahmenbedingungen, so folgert er, ließen es umso plausibler erscheinen, dass diese Reaktionskaskaden und damit ein entscheidender Schritt der chemischen Evolution auf der frühen Erde haben stattfinden können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Carell
Chair of Organic Chemistry – Nucleic Acid Chemistry
LMU
Tel.: +49 / 89 / 2180-77750
E-Mail: thomas.carell@cup.uni-muenchen.de

Originalpublikation:
Sidney Becker, Jonas Feldmann, Stefan Wiedemann, Hidenori Okamura, Christina Schneider, Katharina Iwan, Antony Crisp, Martin Rossa, Tynchtyk Amatov, Thomas Carell:
Unified prebiotically plausible synthesis of pyrimidine and purine RNA ribonucleotides
Science 2019

Quelle: IDW 

(nach oben)


Tarifrunde 2020: Für mehr als 10 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Service des WSI-Tarifarchivs
Tarifrunde 2020: Für mehr als 10 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt – Die Kündigungstermine

Die Tarifrunde 2019 geht in die Schlussphase: In einigen Bereichen wird in den verbleibenden Wochen und Monaten des Jahres noch verhandelt. Dazu gehören zum Beispiel die chemische Industrie und das Versicherungsgewerbe sowie die von der DGB-Tarifgemeinschaft geführten Verhandlungen für die Leiharbeit.

Zeitgleich laufen bereits in vielen Branchen die Vorbereitungen für die Tarifrunde 2020. Insgesamt verhandeln die DGB-Gewerkschaften im nächsten Jahr für mehr als 10 Millionen Beschäftigte neue Vergütungs-tarifverträge. Hierzu gehören u. a. die großen Tarifbereiche Metall- und Elektroindustrie und der öffentliche Dienst (Bund und Gemeinden).

Wann in welchem Bereich die gültigen Tarifverträge auslaufen, zeigt der tarifliche Kündigungsterminkalender, den das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung jetzt vorlegt. Einige ausgewählte Beispiele (in Klammern: Beschäftigtenzahlen, gerundet auf volle Tausender):

Dezember 2019:
-Leiharbeit (980.000)
-Systemgastronomie (80.000)

März:
– Metall- und Elektroindustrie (3.780.000)

April:
– Bauhauptgewerbe (633.000)
– Volkswagen AG (115.000)
– Hotel- und Gaststättengewerbe Bayern (157.000)

Mai:
– Deutsche Post AG (140.000)
– Hotel- und Gaststättengewerbe Weser-Ems (Oldenburg), Nordrhein-Westfalen (142.000)

Juni:
– Wohnungs- und Immobilienwirtschaft (64.000)

August:
– öffentlicher Dienst Bund und Gemeinden (2.712.000)

September:
– Dachdeckerhandwerk (88.000)

Oktober:
– Maler- und Lackiererhandwerk (123.000)

November:
– Privates Verkehrsgewerbe Bayern (128.000)

Dezember:
– Gebäudereinigerhandwerk (460.000)
– Bewachungsgewerbe verschiedene Regionen (153.000)

In einigen Branchen wird im kommenden Jahr nicht verhandelt, weil die Verträge bis ins Jahr 2021 gelten. Dies gilt z. B. für den Groß- und Außen- und den Einzelhandel sowie den öffentlichen Dienst der Länder. Der ausführliche Überblick im Anhang der pdf-Version dieser PM (Link unten) informiert über die Kündigungstermine in zahlreichen weiteren Branchen bis Ende des Jahres 2020. In der Tabelle wird auch ausgewiesen, wie viele Beschäftigte in den jeweiligen Tarifbereichen tätig sind.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Tabellen-Anhang (pdf):
https://www.boeckler.de/pdf/pm_ta_2019_10_04.pdf

Quelle: IDW 

(nach oben)


Strategien für eine nachhaltige Urbanisierung. Auftakt für Internationales Forschungsprojekt „EAST-CITIES“

Dr. Elisabeth Hoffmann Presse und Kommunikation
Technische Universität Braunschweig

Immer mehr Menschen ziehen in die Städte. In wenigen Ländern schritt die Urbanisierung in den letzten Jahren so voran wie in China. Diese rasante Entwicklung birgt große Chancen – wie eine Verbesserung des Lebensstandards – hat jedoch auch negative Auswirkungen auf die Lebensgrundlagen und die Umwelt. Hier setzt das internationale Forschungsprojekt „EAST-CITIES – Establishing and Achieving Sustainability Targets in Eastern Chinese Cities“ an. Wissenschaftlerinnen und Wissenschaftler aus Deutschland und China unter Leitung der Technischen Universität Braunschweig und der Tongji University, Shanghai, wollen gemeinsam die nachhaltige Entwicklung von Stadtregionen untersuchen.

Die Urbanisierung Chinas kann als eines der größten Projekte der Menschheit angesehen werden. Noch nie zuvor waren so viele Menschen in Städten und städtischen Regionen beheimatet. Noch nie zuvor haben so viele Menschen in so kurzer Zeit eine so deutliche Verbesserung ihres Lebensstandards und ihrer sozioökonomischen Möglichkeiten erlebt. Gleichzeitig führt die fortschreitende und rasante Urbanisierung in China zu ökologischen Problemen, die mit einer Minderung der Lebensqualität einhergehen. Die Forscherinnen und Forscher wollen neue Ansätze für eine nachhaltige Stadtentwicklung entwickeln, die auf einem besseren Verständnis regionaler Siedlungsformen am Übergang von Stadt zu Land und ihren Wechselwirkungen fußen.

Das interdisziplinäre EAST-CITIES-Forschungsteam der Tongji University Shanghai, der Technischen Universität Braunschweig, der Leibniz Universität Hannover (LUH) sowie GESIS Leibniz Institut für Sozialwissenschaften konzentriert sich gemeinsam mit Partnerinnen und Partnern in China auf die ganzheitliche Entwicklung von „mittelgroßen“ Stadtregionen von bis zu 10 Millionen Einwohnerinnen und Einwohnern. Die Stadtregion Qingdao in der ostchinesischen Provinz Shandong wurde als Forschungsgebiet ausgewählt. Mit ihren rund 5 Millionen Einwohnern ist die Stadt eine sogenannte sekundäre Großstadt. In ihrem unmittelbaren Einzugsbereich leben weitere 2,5 Millionen Einwohner. Für die nächsten Jahre wird noch ein Bevölkerungszuwachs von über 1 Million Menschen erwartet.

Die Wissenschaftlerinnen und Wissenschaftler wollen fachübergreifend Strategien entwickeln, um unerwünschten sozialen, wirtschaftlichen und ökologischen Auswirkungen aktueller Urbanisierungsmuster entgegenzuwirken. Dazu wird im Forschungsprojekt das Know-how für die vielfältigen, komplexen, maßstabs- und sektorübergreifenden Herausforderungen zusammengeführt. Unter anderem nachhaltige Architektur und Stadtplanung, nachhaltige Mobilität in Stadtregionen und Ressourcenmanagement, urbane Produktion und Landwirtschaft. Die Forschungsarbeiten schließen dabei die verschiedenen städtischen und ländlichen Siedlungstypen und die miteinander verbundenen Infrastruktursysteme und Landschaften ein. „Bislang wurden in der Stadtforschung sehr stark die Mega-City-Regionen mit über 10 Millionen Einwohnerinnen und Einwohner fokussiert. Dabei wachsen in China insbesondere die vielen mittelgroßen Städte mit 5 bis 10 Millionen Einwohnerinnen und Einwohner besonders stark. Indem wir uns nun mit dem Beispiel Qingdao ganz bewusst den mittelgroßen Städten und insbesondere der Stadt-Land-Problematik widmen, schließen wir eine Lücke in der Betrachtung nachhaltiger Regionen“, so die Projektleiterin der Forschungsgruppe in Deutschland, Prof. Dr. Vanessa Miriam Carlow vom Institute for Sustainable Urbanism (ISU).

Erste Ergebnisse der laufenden Forschungstätigkeiten werden im Rahmen einer gemeinsamen Projektwoche vom 8. bis 12. Oktober 2019 vor Ort vorgestellt und diskutiert. Eine Delegation aus 15 Forscherinnen und Forschern der TU Braunschweig und des L3S Research Centers der Leibniz Universität Hannover wird nach Shanghai und Qingdao reisen und gemeinsam mit ihren chinesischen Partnerinnen und Partnern das Untersuchungsgebiet erkunden.

Das Forschungsprojekt „EAST-CITIES – Establishing and Achieving Sustainability Targets in Eastern Chinese Cities“ wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Derzeit in der Definitionsphase (2019-2020) beträgt die Fördersumme bei Bewilligung im geplanten Projektzeitraum von 2020 bis 2024 ca. 3,5 Millionen Euro. Übergeordnete Fragestellung und Ziel des fünfjährigen Projektes ist die Entwicklung von Strategien, um Wachstum und Entwicklung von negativen ökologischen, sozialen und wirtschaftlichen Auswirkungen zu entkoppeln.

Projektteam
Das deutsche Projektteam besteht aus drei Forschungsclustern: Mitgliedern des Forschungsschwerpunkts Stadt der Zukunft der TU Braunschweig, des Niedersächsischen Forschungszentrums Fahrzeugtechnik und des L3S Forschungszentrum der Leibniz Universität Hannover. Hinzu kommt ein Projektteam in China aus Wissenschaftlerinnen und Wissenschaftlern an der Tongji University Shanghai: College of Architecture and Urban Planning (CAUP), Tongji Clean Energy Automotive Engineering Center, School of Automotive Studies, College of Environmental Science and Engineering, UNEP TONGJI Institute of Environment for Sustainable Development, School of Transportation Engineering, Department of Comprehensive Transportation Information and Department of Transportation Management Engineering.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Vanessa Miriam Carlow
Technische Universität Braunschweig
Institute for Sustainable Urbanism (ISU)
Pockelsstr. 3
38106 Braunschweig
Tel.: 0531 391-3537
E-Mail: eastcities@tu-braunschweig.de
http://www.eastcities.org

Weitere Informationen:
http://www.eastcities.org

Quelle: IDW 

(nach oben)


Dem HI-Virus auf der Spur: Forscherteam macht sichtbar, wie AIDS-Erreger sich im Körper vermehrt

Lavinia Meier-Ewert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Photonische Technologien e. V.

Einem Forscherteam um Prof. Christian Eggeling vom Leibniz-Institut für Photonische Technologien, der Friedrich-Schiller-Universität Jena und der Universität Oxford ist es gelungen, mit höchstauflösender Bildgebung millisekundengenau sichtbar zu machen, wie das HI-Virus sich zwischen lebenden Zellen verbreitet. Mit superauflösender STED-Fluoreszenzmikroskopie liefern die Forschenden erstmals einen direkten Beweis dafür, dass der AIDS-Erreger zum Vervielfältigen ein bestimmtes Lipidmilieu schafft. „Wir haben eine Methode geschaffen, um zu erforschen, wie sich die Vermehrung potentiell verhindern lässt“, so Eggeling. Die Ergebnisse veröffentlichten sie am 2. Oktober 2019 in Science Advances.

In den Fokus nahmen die Forschenden die Schleuse, durch die das HI-Virus (Human Immunodeficiency Virus/ Erworbenes Abwehrschwäche-Syndrom) wieder aus der Zelle heraustritt, nachdem es sie infiziert hat: die Plasmamembran der Wirtszelle. Als Marker diente ihnen dabei das Protein Gag, das die Vorgänge bei der Reifung des Virus koordiniert. „Dort, wo sich dieses Protein sammelt, laufen die entscheidenden Prozesse ab, die dazu führen, dass die Viren sich freisetzen und weitere Zellen infizieren“, erläutert Christian Eggeling. Um diese zu entschlüsseln, haben sich die Forschenden die Diffusion an diesem Ort der Knospung – des „budding“ – des Viruspartikels angesehen. Sie fanden heraus, dass nur bestimmte Lipide mit dem HI-Virus wechselwirken. Zwar waren diese Lipide prinzipiell schon vorher bekannt, aber das Forscherteam konnte diese Wechselwirkung erstmals direkt an der lebenden und infizierten Zelle nachweisen.

Angriffspunkt, um die Vermehrung des Virus zu verhindern
„Damit haben wir einen potentiellen Angriffspunkt, an dem antivirale Medikamente ansetzen könnten“, so Christian Eggeling. „Zu wissen, welche Moleküle das HI-Virus braucht, um aus der Zelle herauszutreten und sich zu vervielfältigen, ist eine entscheidende Voraussetzung, um zu erforschen, wie sich dies verhindern lässt. Mit unserer Technik können wir das jetzt direkt und live verfolgen.“ Mit seinem Team will Eggeling nun Antikörper entwickeln, die genau diese Moleküle angreifen – und so die Verbreitung des Virus unterdrücken.

„Wir wollen diese Antikörper nicht nur in medizinischer Hinsicht untersuchen, sondern herausfinden, wie man ihre biophysikalische Wechselwirkung nutzen kann, um ihre Wirksamkeit zu verstärken“, umschreibt Eggeling sein Forschungsprogramm. „Dazu analysieren wir biologische Vorgänge – nämlich die Interaktion von Zellen und Molekülen – mithilfe physikalischer Parameter wie Diffusion.“ Vor einem guten Jahr ist der Physiker von Oxford nach Jena gewechselt. Neben seiner Professur für „Superresolution Microscopy“ an der Universität leitet er am Leibniz-IPHT die Forschungsabteilung „Biophysikalische Bildgebung“. Er führt zudem noch seine Arbeitsgruppe in der MRC Human Immunology Unit und am Wolfson Imaging Centre des Weatherall Institute of Molecular Medicine der Universität Oxford.

Um auf kleinster, molekularer Ebene zu verstehen, wie Krankheiten entstehen, kombiniert Christian Eggeling räumlich superauflösende Fluoreszenzmikroskopie-Techniken mit Methoden, die es ermöglichen, die Bewegung markierter Moleküle in Echtzeit zu verfolgen. So können er und sein Forscherteam einzelne Moleküle – etwa in Zellmembranen – in lebenden Zellen räumlich und zeitlich untersuchen. „Das ermöglicht es uns, zelluläre Mechanismen auf molekularer Ebene zu enthüllen, die für bisherige Untersuchungsmethoden viel zu schnell sind und auf viel zu kleinen räumlichen Skalen ablaufen.“

Neue superauflösender Fluoreszenzmikroskopietechniken hat Christian Eggeling zuvor bereits am Göttinger Max-Planck-Institut für Biophysikalische Chemie in der Gruppe von Stefan W. Hell erforscht. Stefan Hell erhielt dafür zusammen mit Eric Betzig und William E. Moerner im Jahr 2014 den Nobelpreis für Chemie. In Jena möchte Eggeling nun in enger Zusammenarbeit mit Biologen und Medizinern herausfinden, wie man diese Methoden nutzen kann, um Krankheiten frühzeitiger und genauer zu erkennen und möglicherweise sogar zu verhindern.

Wissenschaftliche Ansprechpartner:
Prof. Christian Eggeling
Friedrich-Schiller-Universität Jena // Institut für Angewandte Optik und Biophysik sowie Leibniz-Institut für Photonische Technologien // Leiter der Forschungsabteilung Biophysikalische Bildgebung

+49 3641 206-401 (Leibniz-IPHT); +49 3641 9-47670 (Universität)
christian.eggeling@leibniz-ipht.de; christian.eggeling@uni-jena.de

Originalpublikation:
C. Favard, J. Chojnacki, P. Merida, N. Yandrapalli, J. Mak, C. Eggeling, D. Muriaux: HIV-1 Gag specifically restricts PI(4,5)P2 and cholesterol mobility in living cells creating a nanodomain platform for virus assembly. In: Science Advances 2019, 5.
DOI: 10.1126/sciadv.aaw8651

Weitere Informationen:
https://www.leibniz-ipht.de/institut/presse/aktuelles/detail/christian-eggeling-…

Quelle: IDW 

(nach oben)


Wenn Zahlen lügen

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg

Wirtschaftswissenschaftler der Universität Magdeburg veröffentlichen Studie zur Flüchtlingskriminalität
Deutsche Staatsbürger sind seit 2015 nicht häufiger Opfer von schweren Straftaten wie Körperverletzung, Sexualdelikten oder Raub geworden, für die Flüchtlinge als Tatverdächtige polizeilich erfasst sind. Das hat eine Studie der Wirtschaftswissenschaftler Professor Dr. Michael Kvasnicka und Yue Huang (M.Sc.) von der Otto-von-Guericke-Universität Magdeburg nachgewiesen.

Wurde in der bisherigen Forschung die allgemeine Kriminalitätsrate herangezogen, schließt die in der Magdeburger Studie verwandte Opferstatistik korrekterweise solche Delikte aus, die nicht von Flüchtlingen gegen deutsche Staatsbürger verübt wurden. Darunter sind Straftaten von Deutschen gegen Deutsche, von Flüchtlingen gegen Flüchtlinge sowie Delikte von Deutschen gegen Flüchtlinge.

„Detaillierte und aussagekräftige Daten sind bei so einem gesellschaftlich relevanten Thema äußerst wichtig“, sagt die Wissenschaftlerin Yue Huang, „denn falsche oder schlechte Daten können zu falschen oder irreführenden Befunden führen, die die öffentliche Meinung verzerren und auch zu gefährlicher Voreingenommenheit beitragen.“ In der Studie wurden Sonderauswertungen der polizeilichen Kriminalstatistik des Bundeskriminalamts und der Asylbewerberleistungsstatistik der 16 Statistischen Landesämter in Deutschland ausgewertet.

Die Wissenschaftler haben in ihrer Studie auch potenzielle Einflussfaktoren wie die Alters-, Geschlechts- und Unterbringungsstruktur regionaler Flüchtlingsgruppen betrachtet. Dabei zeigte sich, dass eine dezentralisierte Unterbringung von Asylbewerbern die allgemeine Kriminalitätsrate reduziert.

„Wir wollen mit dieser Studie auch einen methodischen Beitrag leisten“, betont Prof. Dr. Michael Kvasnicka, „und aufzeigen, wie unterschiedlich die Schlussfolgerungen sein können, je nachdem, ob detailliertes und aussagekräftiges Datenmaterial verwandt wird oder nicht.“
Drei Jahre lang forschen die Wirtschaftswissenschaftler im Forschungsprojekt „Deutschland und die Flüchtlingskrise im Jahr 2015″ zu den Themen Gewalt gegen Ausländer und Kriminalität durch Ausländer, Spendenverhalten, Wahlergebnisse und Immobilienmärkte. Das Projekt wird von der Deutschen Forschungsgemeinschaft (DFG) gefördert und gemeinsam mit dem RWI – Leibniz-Institut für Wirtschaftsforschung e.V. durchgeführt.

Die Studie in englischer Sprache steht kostenlos und öffentlich zum Download zur Verfügung unter: http://link.ovgu.de/paperhuangkvasnicka

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Kvasnicka, Fakultät für Wirtschaftswissenschaft, Otto-von-Guericke-Universität Magdeburg, Tel.: +49 391 67-58739, E-Mail: michael.kvasnicka@ovgu.de

Originalpublikation:
http://link.ovgu.de/paperhuangkvasnicka

Quelle: IDW 

(nach oben)


Studie: Erhalt von biologischer Vielfalt erfordert Konsumwende

Ruth Birkhölzer Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz

Deutschland importiert jährlich über 200 Millionen Tonnen Rohstoffe und Produkte direkt von außerhalb der Europäischen Union. Deren Anbau, Abbau und Herstellung haben schwerwiegende Auswirkungen auf die Natur in den Erzeugerländern. Dabei handelt es sich häufig um Länder des Globalen Südens. Neue Untersuchungen des Bundesamts für Naturschutz (BfN) kommen zu dem Schluss, dass ein wirksamer Schutz von biologischer Vielfalt und Ökosystemleistungen weltweit nur gelingt, wenn sich der Konsum im Globalen Norden umfassend verändert. Die Studie „Sustainable Consumption for Biodiversity and Ecosystem Services“ wurde heute auf einer Konferenz im Bundesumweltministerium in Berlin vorgestellt.

Der Konsum in Deutschland ist insbesondere mit den Importen von Soja, Palmöl, Baumwolle und Steinkohle sowie Eisen-, Kupfer- und Aluminiumerzen wesentlicher Mitverursacher des Raubbaus an der Natur anderer Länder. Als weiteres Produkt mit gravierenden Nebenwirkungen steht der heutige Lithiumabbau. Der Anbau von Soja für Tierfuttermittel zur Deckung des deutschen Fleischkonsums erfolgt in Monokulturen auf riesigen Flächen, hauptsächlich in den USA und in Brasilien. Die Auswirkungen auf die biologische Vielfalt in den Anbauregionen sind gravierend und die lokale Bevölkerung leidet unter dem Verlust wichtiger ökologischer Leistungen und den gesundheitlichen Folgen des hohen Einsatzes von Pestiziden.

Die Analysen des Berliner Instituts für ökologische Wirtschaftsforschung (IÖW) im Auftrag des Bundesamtes für Naturschutz zeichnet für die drei Importgüter Lithium, Soja und Baumwolle nach, wie durch ihren An- bzw. Abbau Lebensräume verloren gehen: So werden Regenwälder für neue landwirtschaftliche Flächen abgeholzt, riesige Monokulturen geschaffen, chemische Düngemittel und Pestizide kommen übermäßig zum Einsatz und offene Wasserflächen gehen verloren.

Die Ergebnisse der Studie machen deutlich, dass sich das Konsumverhalten der Menschen im Globalen Norden ändern muss. „Mit unseren Importen nutzen wir in Europa zwei bis dreimal so viel produktives Land wie uns innerhalb unserer Grenzen zur Verfügung steht. Dieser Teil unseres ökologischen Fußabdrucks wird bisher viel zu wenig beachtet“, sagt BfN-Präsidentin Prof. Dr. Beate Jessel. „Um die Natur weltweit wirksam zu schützen, müssen wir wesentliche Konsumtrends umdrehen. Dazu zählen etwa: weniger Fleischverzehr, Slow statt Fast Fashion, weniger motorisierter Individualverkehr.“

Als Politikmaßnahmen empfehlen die Expertinnen und Experten des IÖW etwa, öffentlichen und nichtmotorisierten Verkehr in Städten zu fördern, den Fleischkonsum mit steuerlichen und regulatorischen Maßnahmen zu reduzieren sowie Kampagnen für die Etablierung einer „Slow Fashion“-Kultur durchzuführen. Verbraucherinnen und Verbraucher müssten stärker über die Auswirkungen ihres Konsumverhaltens auf die Natur informiert und die Forschung nach alternativen, umweltschonenden Rohstoffen verstärkt werden.

Die Studie „Sustainable Consumption for Biodiversity and Ecosystem Services – The cases of cotton, soy and lithium“ steht auf der BfN-Website zum Download bereit:
https://www.bfn.de/fileadmin/BfN/internationalernaturschutz/Dokumente/Sustainabl…

Quelle: IDW 

(nach oben)


Radikale Ideen in der Hochschulbildung: Drei Projekte erhalten 650.000 Euro Förderung

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Gesucht waren innovative und bahnbrechende neue Ideen für die künftige Hochschulbildung: In einem internationalen Wettbewerb hatten die Jacobs Foundation und die Jacobs University Wissenschaftlerinnen und Wissenschaftler aller Fachrichtungen zur Teilnahme aufgefordert. 650.000 Euro stellte die Jacobs Foundation zur Förderung wegweisender Forschungsprojekte im Anschluss an die „B3 – Bildung Beyond Boundaries“ Konferenz bereit. Jetzt wurde das dritte und letzte Vorhaben bewilligt.

„Hands-On 4.0: Individualized Applied Education in the Digitalization Age“ lautet der Titel des dritten Forschungsprojekts, das nach der B3-Konferenz gefördert wird. Es zielt ab auf eine individualisierte Ausbildung, die sowohl die Interessen als auch das vorhandene Wissen und die Persönlichkeit des Lernenden berücksichtigt. Entwickelt wurde es von den Professoren Andrea Censi (ETH Zürich), Ralf Bachmayer (Universität Bremen), Andreas Birk und Francesco Maurelli (beide Jacobs University). Ebenfalls gefördert wird das Projekt „Developmental Adaptive Learning Support for Physics Students“ von Dr. Jürgen Fritz, Professor für Biophysik an der Jacobs University sowie ein Vorhaben von Dr. Henrik Bellhäuser von der Johannes Gutenberg Universität Mainz mit Namen „AMIGO“ (Algorithmic Method for Intelligent Group Formation).

Insgesamt 30 Vorschläge gingen bei der Jury unter Führung der Züricher Jacobs Foundation ein. Der Wettbewerb geht zurück auf die internationale „B3 – Bildung Beyond Boundaries“ Konferenz an der Jacobs University im November 2018. „Die Diskussion mit den Teilnehmern hatte uns bestärkt, im Rahmen eines Wettbewerbes nach radikalen Ideen aus ganz unterschiedlichen Blickwinkeln zu suchen“, sagt Simon Sommer, Co-Geschäftsführer der Jacobs Foundation. Die Zusammenarbeit internationaler und interdisziplinärer Teams soll gefördert, der Schwerpunkt auf eine evidenzbasierte Bildungsforschung gelegt werden.

„Als Experimentierraum dient der Campus der Jacobs University gemeinsam mit den Studierenden und Professorinnen und Professoren“, so Pablo Zerm, Mitglied des Management Boards der Jacobs University. „Das ist sicherlich das Besondere: Es geht nicht nur um die Entwicklung von Ideen, sondern auch um die ganz konkrete Implementierung und wissenschaftliche Auswertung.“

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1400 Studierenden stammen aus mehr als 100 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Facebook | Youtube | Twitter | Instagram | Weibo

Weitere Informationen:
https://jacobsfoundation.org/
https://www.jacobs-university.de/b3

Quelle: IDW 

(nach oben)


TU Bergakademie Freiberg und UFZ erforschen Vulkangebiete als nachhaltige, erneuerbare Energiequelle

Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg

Kann man Wasser sicher in tief liegende aktive Vulkangebiete pumpen, um erneuerbare Wärme und Strom zu erzeugen? Mit dieser Frage beschäftigt sich eine am 26. September in der Nature Communications veröffentlichte Studie der TU Bergakademie Freiberg, des CSIC und des Helmholtz-Zentrums für Umweltforschung aus dem Forschungsprojekt HIGHER. In diesem untersuchen die Wissenschaftler/innen sogenannte superheiße geothermische Systeme. Sie sind eine neue Form der tiefen Geothermie und oft in vulkanischen Gebieten zu finden.

Die Technologie ist vor allem durch ihren potentiell hohen Energieertrag interessant, der herkömmliche Systeme um den Faktor zehn übersteigt. Noch steht die Forschung aber am Anfang und vor großen wissenschaftlichen und technologischen Herausforderungen. Zudem ist unklar, wie sich solche Systeme über wirtschaftlich interessante Zeiträume verhalten und ob sie sicher betrieben werden können.

Einen ersten Schritt zur Erforschung der Systeme haben nun die TU Bergakademie Freiberg, das Helmholtz-Zentrum für Umweltforschung (UFZ) und das Consejo Superior de Investigaciones Científicas (CSIC) in Spanien mit ihrem Projekt HIGHER (finanziert von der Deutschen Forschungsgemeinschaft und der Japan Society for the Promotion of Science) gemacht.

In verschiedenen Versuchen haben sie erstmals analysiert, wie sich die Rückführung kalten Wassers in die Tiefe, auf den Druckanstieg und die Abkühlung des Gesteins und damit auf die Erdbebenaktivität (Seismizität) auswirkt. Ein grundlegendes Verständnis der induzierten Seismizität bei tiefengeothermischen Anwendungen ist zentral für die sichere und nachhaltige Nutzung der geothermischen Technologie.

Mit modernsten Computersimulationen, basierend auf der von den Forschern selbst entwickelten Software OpenGeoSys, haben sie die komplexen physikalischen Vorgänge in der Erdkruste erstmals beschrieben und wichtige Erkenntnisse gewonnen, wie superkritische geothermische Systeme in Zukunft sicher betrieben werden können, um eine saubere und nachhaltige erneuerbare Energiequelle zu erschließen.

OpenGeoSys ist eine open source-Forschungsplattform, die in Kooperation mit verschiedenen Universitäten und Forschungseinrichtungen vom UFZ geleitet wird. Die TU Freiberg und das UFZ wollen ihre Kooperation in der umwelt-geowissenschaftlichen Zusammenarbeit zukünftig weiter ausbauen.

Die Ergebnisse haben die Wissenschaftler/innen in einer Studie veröffentlicht, die am 26. September auch im renommierten Wissenschaftsmagazin Nature Communications publiziert wurde. Zum Fachartikel: https://www.nature.com/articles/s41467-019-12146-0.

Wissenschaftliche Ansprechpartner:
Dr. Francesco Parisio, Tel.: +49 3731 39-2492, und Prof. Olaf Kolditz (UFZ), Tel.:+49 341 235-1281

Originalpublikation:
https://www.nature.com/articles/s41467-019-12146-0

Weitere Informationen:
https://tu-freiberg.de/fakultaet3/gt/bodenmechanik/forschung/aktuelle-projekte/d…

Quelle: IDW 

(nach oben)


Gefahren und Chancen einer neuen Währung

Friederike Mannig Pressestelle
Frankfurt University of Applied Sciences

Prof. Dr. Michaela Hönig von der Frankfurt UAS stellt Studienergebnisse zu neuer Facebook-Währung Libra im Deutschen Bundestag vor

Libra – so lautet der Name einer Internetwährung, die das Unternehmen Facebook im Jahr 2020 auf den Markt bringen will. Doch was bedeutet dies für den internationalen Finanzmarkt? Welche Vorteile und welche Risiken hätte Libra? Um diese Fragen zu beantworten, hat Prof. Dr. Michaela Hönig, Professorin für Allgemeine Betriebswirtschaftslehre, insbesondere Finanzwirtschaft und Asset Management an der Frankfurt University of Applied Sciences (Frankfurt UAS), eine Studie zum Thema „Libra – Gefahr einer digitalen Parallelwelt“ durchgeführt. Unterstützt wurde das Projekt von der DekaBank in Frankfurt. Die Ergebnisse, die gemeinsam mit 15 Studierenden aus den Studiengängen Betriebswirtschaftslehre, International Finance und Wirtschaftsinformatik erarbeitet wurden, wurden am 25. September 2019 in einer Anhörung im Ausschuss „Digitale Agenda“ im Deutschen Bundestag vorgestellt.

„Viele Fragen zu Libra sind aktuell noch offen. Das bezieht sich auf den Anleger- und Datenschutz, die Verhinderung von Datenbetrug, das Aufsichtsrecht, die Regulierung sowie die Verhinderung von organisierter Kriminalität auf der Plattform“, so Hönig, die am Fachbereich Wirtschaft und Recht der Frankfurt UAS lehrt und forscht. „Insbesondere haben wir uns die Frage gestellt, wie der Wert des angedachten Stable Coins, also des möglichst stabilen Wechselkurses, von Libra garantiert werden kann.“ Sollte die Währung große Verwendung finden, könnte sie die Einlagenbildung und das Geschäftsmodell der traditionellen Banken untergraben. Das wiederum könnte deren Zahlungsverkehrsgeschäft und Prozesse an den Finanzmärkten stören. „Ohne eine Regulierung kann eine systemische Gefahr für den Finanzsektor entstehen“, warnt Hönig. „Die Libra Association könnte so durch die Eins-zu-eins-Deckung in kurzer Zeit zu einer der weltweit größten Vermögensverwalter und somit zu einem ‚too big to fail‘-Akteur werden. Sie müsste entsprechend wie ein vergleichbares Kreditinstitut oder ein Zahlungsverkehrsdienstleister dieser Größenordnung reguliert und aufsichtsrechtlich überwacht werden“, führt Hönig in ihrer Stellungnahme aus.

Gemeinsam kamen die Studierenden und Hönig zu dem Ergebnis, dass Facebook angesichts der grenzüberschreitenden Verbreitung von Libra zusammen mit Notenbanken und Aufsichtsbehörden Lösungen entwickeln muss. Facebook würde bei einer großen Nutzung von Libra zu einem systemrelevanten Intermediär und Finanzmarktinfrastrukturanbieter fungieren und diese Funktion birgt Rechts-, Liquiditäts-, Kredit- und IT-Risiken. „Das ist aus meiner Sicht der einzige, zukunftsfähige Weg für Facebook. Dennoch wissen wir aktuell nicht, wie die staatliche Kontrollfähigkeit in der digitalen Welt gewährleistet werden soll“, betont Hönig. Aus ihrer Sicht gehe dies nur in einer globalen Regulierung und weit über die Beteiligung von G7 oder G20 hinaus.

Weitere Informationen zum Fachbereich Wirtschaft und Recht unter http://www.frankfurt-university.de/fb3.

Die Präsentation der Ergebnisse im Ausschuss „Digitale Agenda“ des Deutschen Bundestages können Sie in Kürze im Stream unter www.bundestag.de ansehen. Mehr zur Berichterstattung sowie die Stellungnahme von Prof. Dr. Michaela Hönig finden Sie zudem unter https://www.bundestag.de/ada#url=L2Rva3VtZW50ZS90ZXh0YXJjaGl2LzIwMTkva3czOS1wYS1….

Weitere Informationen zum Studierenden-Projekt unter http://www.youtube.com/watch?v=354IgTFRyls.

Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 3: Wirtschaft und Recht, Prof. Dr. Michaela Hönig,
E-Mail: hoenig@fb3.fra-uas.de

Quelle: IDW 

(nach oben)


Digitalisierung in den Naturwissenschaften: Neue Ausschreibung für Forschungsprojekte in Niedersachsen startet

Jens Rehländer Presse- und Öffentlichkeitsarbeit
VolkswagenStiftung

Wie verändern digitale Prozesse wissenschaftliche Disziplinen, ihre Methoden und ihr Selbstverständnis? Welche Chancen zur Weiterentwicklung bisheriger Forschung und zur Erschließung neuer Felder in den Naturwissenschaften gibt es? Antworten erhoffen sich das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung durch die neue Ausschreibung „Digitalisierung in den Naturwissenschaften“, die aus Mitteln des Niedersächsischen Vorab der VolkswagenStiftung finanziert wird. Insgesamt stehen 18 Mio. Euro zur Verfügung.

Mit der Digitalisierung sind Prozesse auf unterschiedlichen Ebenen angesprochen: Dazu gehören Weiterentwicklung und Einsatz von Computertechnologien der neuesten Generation in der Forschung, die Vernetzung verschiedener Technologien bis zum Aufbau von vernetzten Räumen, die Nutzung von Daten auf weit verbreiteten Endgeräten sowie Entwicklung und Nutzung von spezifischen forschungsbezogenen Algorithmen und Anwendungen.

Die Ausschreibung zielt auf die Förderung von Projektteams, die sich interdisziplinär mit Aspekten der Digitalisierung zur Bearbeitung originär naturwissenschaftlicher Fragestellungen befassen und gleichzeitig den Transfer neu gewonnenen Wissens im Blick haben. Forschungsansätze, die digitale Methoden verwenden, sollen genauso gefördert werden wie die Entwicklung neuer digitaler Methoden, sowohl bei der Hardware als auch bei der Software. Im Rahmen der Ausschreibungsreihe wurden bereits die Lebenswissenschaften sowie die Geistes- und Kulturwissenschaften adressiert – zwei weitere Ausschreibungsrunden für die Sozial- beziehungsweise Ingenieurwissenschaften sind bereits in Planung.

Björn Thümler, Niedersächsischer Minister für Wissenschaft und Kultur: „Die Kooperation der Naturwissenschaften mit anderen Fächern auf dem Gebiet der Digitalisierung verspricht einen besonderen Erkenntnisgewinn und bietet ein hohes Innovations- und Transferpotenzial. Die Forschungsergebnisse haben das Potenzial, neue Anwendungen und Wertschöpfungsmöglichkeiten zu erschließen.“

„Mit dieser Ausschreibung bieten wir den naturwissenschaftlichen Forscherinnen und Forschern die Chance, ihre bisherigen Vorhaben gezielt um neue Methoden und Techniken zu erweitern. Das verspricht einen erheblichen Kreativitätsschub für die niedersächsische Wissenschaft“, sagt Dr. Wilhelm Krull, Generalsekretär der VolkswagenStiftung.

Die Teams, die sich in der Regel aus drei bis fünf Professuren/Arbeitsgruppen zusammensetzen sollen, können bis zu 1 Mio. Euro für bis zu drei Jahre Projektlaufzeit beantragen. Stichtag für Antragsskizzen ist der 3. Dezember 2019, als Stichtag für Vollanträge (nur nach Aufforderung) ist der 29. April 2020 geplant. Antragsberechtigt sind promovierte Wissenschaftlerinnen und Wissenschaftler niedersächsischer Hochschulen, außeruniversitäre Forschungseinrichtungen, wissenschaftliche Bibliotheken und Archive sowie wissenschaftliche Museen und Sammlungen. Mit Blick auf das relativ junge Forschungsfeld sollen ausdrücklich auch Nachwuchswissenschaftlerinnen und -wissenschaftler mit einbezogen werden.

Details zu der Ausschreibung finden Sie auf den Websites vom Niedersächsischen Ministerium für Wissenschaft und Kultur und der VolkswagenStiftung: https://www.volkswagenstiftung.de/unsere-foerderung/unser-foerderangebot-im-uebe…

NIEDERSÄCHSISCHES VORAB:Nach § 8 Abs. 2 der Satzung der VolkswagenStiftung setzt sich das „Vorab“ aus drei Teilen zusammen: Es umfasst zum einen den Gegenwert der jährlichen Dividende auf nominal 77,3 Millionen Euro VW-Aktien, der der VolkswagenStiftung aus der Beteiligung des Landes Niedersachsen an der Volkswagen Aktiengesellschaft zusteht, ferner den Ertrag aus der Anlage von 35,8 Millionen Euro aus einem Vertrag mit dem Land Niedersachsen von 1987 sowie zehn Prozent der übrigen zur Verfügung stehenden Fördermittel.

Weitere Informationen zum Niedersächsischen Vorab finden Sie unter https://www.volkswagenstiftung.de/vorab.

INFORMATIONEN ZUR VOLKSWAGENSTIFTUNG:Die VolkswagenStiftung ist eine eigenständige, gemeinnützige Stiftung privaten Rechts mit Sitz in Hannover. Mit einem Fördervolumen von insgesamt etwa 150 Millionen Euro pro Jahr ist sie die größte private deutsche wissenschaftsfördernde Stiftung und eine der größten Stiftungen hierzulande überhaupt. Ihre Mittel vergibt sie ausschließlich an wissenschaftliche Einrichtungen. In den mehr als 50 Jahren ihres Bestehens hat die VolkswagenStiftung rund 33.000 Projekte mit insgesamt mehr als 5,1 Milliarden Euro gefördert. Auch gemessen daran zählt sie zu den größten gemeinnützigen Stiftungen privaten Rechts in Deutschland.

Weitere Informationen über die VolkswagenStiftung finden Sie unter https://www.volkswagenstiftung.de/stiftung/wir-ueber-uns.

NEWSLETTER DER VOLKSWAGENSTIFTUNG ERHALTEN:Der Newsletter der VolkswagenStiftung informiert regelmäßig (etwa einmal pro Monat) über aktuelle Förderangebote, Stichtage, Veranstaltungen und Nachrichten rund um die Stiftung und um geförderte Projekte. Haben Sie Interesse an unserem Newsletter? Dann folgen Sie diesem Link: https://www.volkswagenstiftung.de/newsletter-anmeldung

Wissenschaftliche Ansprechpartner:
VolkswagenStiftung

Niedersächsisches Vorab
Dr. Franz Dettenwanger
Telefon: 0511 8381 217
E-Mail: dettenwanger@volkswagenstiftung.de

Weitere Informationen:
https://www.volkswagenstiftung.de/unsere-foerderung/unser-foerderangebot-im-uebe…

Details zur Ausschreibung.
https://www.volkswagenstiftung.de/vorab Weitere Informationen zum Niedersächsischen Vorab.
https://www.volkswagenstiftung.de/aktuelles-presse/presse/digitalisierung-in-den… Die Pressemitteilung im Internet.

Quelle: IDW 

(nach oben)


Weltweit erste Validierung der Aerodynamik von großen Windenergieanlagen

Lisa Bösch Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES

Weltweit zum ersten Mal prüft das Fraunhofer IWES die Aerodynamik für Windenergieanlagen mit einer Nennleistung von mehr als fünf Megawatt (MW). In dem vom Bundesministerium für Wirtschaft und Energie (BMWi) mit 4 Mio. Euro geförderten Forschungs- und Entwicklungsprojekt „HighRe“ werden die aerodynamischen Eigenschaften der Windenergieanlage AD 8 am Standort Bremerhaven mit einer Leistung von acht MW und einem Rotordurchmesser von 180 Metern vermessen und mit aufwendigen Modellen verglichen. Dies ermöglicht erstmals eine Untersuchung, ob die bisher verwendeten Modellberechnungen auch für große Windenergieanlagen, die in Zukunft vor allem Offshore gebaut werden sollen, noch gültig sind.

In dem Projekt „HighRe“ (Aerodynamik bei hohen Reynoldszahlen für große Offshore-Windenergieanlagen der Zukunft) werden in Kürze aufwendige Messungen des Wind-feldes und der aerodynamischen Reaktion der Windenergieanlage durchgeführt. Durch diese detaillierten Erkenntnisse der realen Windbedingungen vor und an einer Wind-energieanlage wird es erstmals möglich sein, die genaue aerodynamische Wirkung auf die Rotorblätter bei so großen Dimensionen zu analysieren und zu verstehen. Das Windfeld wird mit drei sich überlappenden LiDAR-Laser-Scannern vor der Windenergieanlage abgetastet und mit weiteren Windmessungen vor und hinter der Anlage ergänzt. Gleich-zeitig werden Sensoren auf der Anlage und an den Rotorblättern installiert, um auch diese Bedingungen präzise zu erfassen.

Bereits im Vorfeld des Projekts „HighRe“ konnte das Fraunhofer IWES zeigen, dass es erhebliche Abweichungen in der Modellierung gierender Windenergieanlagen unter schräger Anströmung gibt. Das dafür verwendete Modell wurde vor fast 20 Jahren an wesentlich kleineren Anlagen entwickelt. Bei einer großen Anzahl von Modellen der Windenergieaerodynamik verhält es sich ähnlich: Grundlage für die Modellberechnungen sind kleine Anlagen. Um dies auszugleichen, greift man zunehmend auf Methoden der numerischen Strömungssimulation (engl. „Computational Fluid Dynamics“ – CFD) zurück. Die Genauigkeit dieser Methoden konnte bisher jedoch auch nur an kleinen Modellanlagen überprüft werden. Durch das HighRe-Projekt ändert sich dies nun völlig. „Das Projekt „HighRe“ ist eine große Chance für die Windenergieforschung und die Windenergieindustrie. Die Sicherheit und Genauigkeit in der Windenergieaerodynamik kann mit diesem Projekt an die reale Anlagenentwicklung angepasst werden. Die Potenziale für die Windenergieindustrie sind enorm“, fasst der Projektleiter Dr. Bernhard Stoevesandt die Aussichten des Projekts zusammen.

Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Windenergie.

Kontakt: Dr. Bernhard Stoevesandt, Tel.: +49 4417985011
E-Mail: bernhard.stoevesandt@iwes.fraunhofer.de, www.iwes.fraunhofer.de

Quelle: IDW 

(nach oben)


Städtische Infrastrukturen fit für den Klimawandel machen. Das Projekt FLEXITILITY ist Anfang August gestartet.

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement

Der Klimawandel wird bereits jetzt in Form von Extremwetterereignissen spürbar. Häufige Starkregen und lange Phasen von Trockenheit und Hitze in diesem Jahr sind ein Beispiel dafür. Davon sind zunehmend städtische Infrastrukturen wie die Wasser- oder Energieversorgung, betroffen. inter 3 koordiniert das jetzt gestartete Projekt „Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur“, kurz „Flexitility“. Im Projekt wird untersucht, wie durch Flexibilität im Einsatz von Infrastrukturleistungen besonders hohe, kurzzeitige Leistungsnachfragen vermindert und eine klimaresiliente Stadtentwicklung unterstützt werden können.

Ein höherer Wasserverbrauch in Trockenperioden zum Bewässern von Gärten, ein höherer Stromverbrauch durch Klimaanlagen bei Hitze oder überflutete Abwassersysteme bei Starkregen – das sind nur ein paar Herausforderungen, die die Versorgungsinfrastrukturen in Städten und Gemeinden zu bewältigen haben.

„Für städtische Versorgungsinfrastrukturen stellt das sich verändernde Klima eine deutliche Belastung dar“, sagt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3. „Der Wasserverbrauch ist zum Beispiel seit Jahren rückläufig, doch in heißen Sommermonaten kann die Spitzenlast auf das Zwei- bis Dreifache ansteigen“.

Um diesen Veränderungen Rechnung zu tragen, stehen Städte und Gemeinden vermehrt vor der Entscheidung: Infrastrukturen teuer ausbauen oder beispielsweise mit erheblichem technischem und organisatorischem Aufwand die Ver- und Entsorgungsinfrastruktur dezentralisieren. Im Projekt Flexitility wird daher eine dritte Möglichkeit als potentielle Alternative zum Aus- und Umbau betrachtet: die Flexibilisierung des Infrastruktur- und Ressourceneinsatzes.

Testen unter realen Bedingungen
In Flexitility soll einerseits untersucht werden, inwieweit die Unternehmen bei der Versorgung ihrer Kund*innen technisch flexibler werden können. Andererseits richtet sich der Blick auf die Abnehmer, also Haushalte, Gewerbe und Industrie. Welche Möglichkeiten eines flexiblen Konsumverhaltens gibt es bei den Verbraucher*innen, um die Nachfrage zu „glätten“, also den Verbrauch in Spitzenzeiten zu senken und die Phasen geringer Nachfrage zu reduzieren? Was hindert die Verbraucher*innen daran, ihr momentanes Verbrauchsverhalten an bestehende Infrastrukturkapazitäten anzupassen?

Um diesen Fragen auf den Grund zu gehen, wird – orientiert an realen Bedingungen – konkret erprobt, wie die Umgestaltung des Versorgungssystems aussehen könnte. Ein wichtiger Punkt hierbei ist die aktive Beteiligung von Bürger*innen sowie die Einbindung von Städten und Infrastrukturbetreibern, insbesondere in der Region Anhalt. In diesem „Reallabor Anhalt“ wird modellhaft erforscht, wie Flexibilisierungen der Versorgung und des Verbrauchs vonstattengehen können. Daraus lässt sich Handlungswissen ableiten, das für Wissenschaft und Politik in Zukunft ein wichtiger Wegweiser sein kann.

Die Stadt der Zukunft ist an den Klimawandel angepasst
Das Projekt Flexitility wird im Rahmen der Fördermaßnahme „Umsetzung der Leitinitiative Zukunftsstadt“ vom Bundeministerium für Bildung und Forschung (BMBF) gefördert. Es hat zum Ziel, Akteure auf kommunaler Ebene zu befähigen, besser mit den Risiken des Klimawandels umzugehen. Durch das Erkennen und Heben technischer und gesellschaftlicher Potentiale der Flexibilisierung von Versorgungsinfrastrukturen und Verbrauchsverhalten soll die Klimaresilienz von Städten gestärkt werden. Im Umkehrschluss wird damit auch die Vulnerabilität von Unternehmen und der regionalen Wirtschaft gesenkt.

Neben inter 3 gehören der Verein Energieavantgarde Anhalt e.V als Träger eines Reallabors in der Region Anhalt, die Brandenburgische Technische Universität Cottbus-Senftenberg, das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik, und die co2online gGmbH zum Verbund. Als Praxispartner sind die Stadt Bitterfeld-Wolfen mit der Stadtentwicklungsgesellschaft mbH, der Herzberger Wasser- und Abwasserzweckverband, die Dessauer Versorgungs- und Verkehrsgesellschaft mbH, die Stadtwerke Bitterfeld-Wolfen GmbH und die Köthen Energie GmbH an dem Projekt beteiligt.

Weitere Informationen zum Projekt finden Sie unter https://www.inter3.de/de/projekte/details/article/flexible-utility-staedtische-v…

Wissenschaftliche Ansprechpartner:

Dr. Shahrooz Mohajeri, E-Mail: mohajeri@inter3.de; Tel.: +49(0)30 34 34 74 40

Weitere Informationen:

https://www.inter3.de/de/projekte/details/article/flexible-utility-staedtische-v… Kurzdarstellung des Projekts

Anhang

PM_FLEXITILITY_inter 3_20190924
https://idw-online.de/de/attachment73133

Quelle: IDW 

(nach oben)


Bundesweites Forschungsprojekt Q-INTEGRAL: OTH Regensburg forscht an Stromnetz der Zukunft für Betriebe

Dipl. Journalistin, MBA Diana Feuerer Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Regensburg

Die Forschungsstelle für Energienetze und Energiespeicher der OTH Regensburg ist an dem aktuell gestarteten, deutschlandweiten Forschungsprojekt „Q-INTEGRAL“ beteiligt. Ziel
ist ein zuverlässiges Blindleistungsmanagement im Stromnetz. In ihrem Teilprojekt forscht die
OTH Regensburg im Speziellen an einem internen Blindleistungsmanagement für Betriebe.
Das Bundeswirtschaftsministerium fördert „Q-INTEGRAL“ mit insgesamt 1,9 Millionen Euro.

Wie kommt auch künftig zu jeder Zeit Strom aus unseren Steckdosen – auch trotz der unbeständigen Stromgewinnung aus erneuerbaren Energiequellen? Der Schlüssel dazu ist ein zuverlässiges, sogenanntes Blindleistungsmanagement in unserem Stromnetz. Dazu ist aktuell ein neues Forschungsprojekt mit Namen „Q-INTEGRAL“ an der Forschungsstelle für Energienetze und Energiespeicher (FENES) der OTH Regensburg unter Leitung von Prof. Dr. Oliver Brückl mit vielen weiteren Partnern gestartet. „Q-INTEGRAL“ wird drei Jahre vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert. Das Projektvolumen beträgt insgesamt rund 1,9 Millionen Euro. Die OTH Regensburg erhält rund 370.000 Euro.

Die OTH Regensburg widmet sich im Forschungsprojekt der Teilaufgabe, wie ein Netz geplant werden kann, welches den künftigen Herausforderungen gewachsen ist. Es sollen verschiedene Optionen analysiert werden, auf welche Art im Netz Blindleistung kostengünstig und effizient bereitgestellt und in der Netzplanung berücksichtigt werden kann, zum Beispiel durch Erneuerbare Energie-Anlagen oder betriebliche Kompensationsanlagen. Gemeinsam mit der KBR Kompensationsanlagenbau GmbH erarbeitet die OTH Regensburg dafür außerdem ein internes Blindleistungsmanagement für Betriebe, welches in einem Feldtest umgesetzt wird.

Kooperationspartner des Forschungsprojekts „Q-INTEGRAL“ sind das Institut für Hochspannungstechnik und Elektrische Energieanlagen (elenia) der Technischen Universität Braunschweig und das Fraunhofer-Institut für Solare Energiesysteme. Weitere Industriepartner und Netzbetreiber sind: Siemens AG, Scada International A/S, Baywa r. e. Wind GmbH, 50Hertz Transmission GmbH, WEMAG Netz GmbH, E.DIS Netz GmbH und Thüringer Energienetze GmbH & Co. KG.

Quelle: IDW 

(nach oben)


Sicherheit durch Einstimmigkeit

Dr. Barbara Laaser (Pressestelle) Öffentlichkeitsarbeit/Pressestelle
Westfälische Hochschule

Das NRW-Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie, fördert mit insgesamt 1,8 Millionen Euro zwei Konsortien aus Hochschulen, Städten, der Fraunhofer-Gesellschaft und Unternehmen der Informationstechnik. Entstehen sollen Blockchain-Reallabors, die als Kooperation zwischen Wissenschaft und Zivilgesellschaft diese besondere Technik des sicheren Datenaustauschs entwickeln, erproben und zur Nutzungsreife führen will. Die Westfälische Hochschule ist unter der Leitung von Prof. Norbert Pohlmann über das Institut für Internetsicherheit an beiden Projekten beteiligt mit insgesamt rund 430.000 Euro an Fördermitteln.

Gelsenkirchen/Düsseldorf. Die Westfälische Hochschule beteiligt sich unter der Leitung von Prof. Norbert Pohlmann vom Institut für Internetsicherheit an zwei aufeinander aufbauenden nordrhein-westfälischen Projekten des Ministeriums für Wirtschaft, Innovation, Digitalisierung und Energie. Ziel ist, einen sicheren und damit verlässlichen Datenaustausch zwischen Behörden, Betrieben sowie Bürgerinnen und Bürgern mithilfe der Blockchain-Technologie aufzubauen. Das Besondere an dieser Technik ist, dass Daten nicht zentral und damit angreifbar gespeichert werden, sondern auf mehrere Rechner und Server verteilt werden und ihre Richtigkeit nur bestätigt wird, wenn sich alle beteiligten Maschinen einstimmig dafür aussprechen. „Die dezentrale Verarbeitung führt dazu, dass die aufgezeichneten Daten extrem sicher und vertrauenswürdig sind, da eine nachträgliche Änderung technisch so gut wie unmöglich ist“, erläutert Pohlmann, dessen Institut für Internetsicherheit (IfIS) bereits Erfahrung mit der Blockchain-Technologie hat. Das Ifis steuert den beiden Entwicklungsgruppen aus Hochschulen, Behörden und Unternehmen der Informationstechnik neben Methoden der Blockchain-Technik konkrete Anwendungen zum sicheren Umgang mit Zeugnissen, Qualifikations- und Leistungsnachweisen bei, die in der Hochschule zum Teil zentral, zum Teil dezentral ausgestellt werden und duch Blockchain-Sicherheit digital zur Verfügung gestellt werden können. Studierende und Absolventen können ihre Nachweise dadurch elektronisch führen, ohne Studienbescheinigungen oder Zeugnisse kopieren und beglaubigen lassen zu müssen.
Neben der Westfälischen Hochschule (sowie der Rheinisch-Westfälischen Technischen Hochschule und der Fachhochschule in Aachen sowie der Ruhr-Universität in Bochum) sind die Städte Gelsenkirchen und Aachen als „Nutzer“ beteiligt und vertreten die Seite der Behörden. Sie wollen in einer digitalisierten Welt über Blockchains im Verbund mit den kommunalen Rechenzentren beispielsweise das Nachweis- und Bescheinigungsmanagement zwischen der Kommunalverwaltung und Betrieben vereinfachen. Für Bürgerinnen und Bürger geht es um Bewohnerparkausweise, Einwohnermeldebescheinigungen oder Führerscheine. Antragsteller können dank der Blockchain-Technik sicher sein, dass die Dokumente echt sind und nachträglich nicht geändert werden können. Neben dem einfacheren digitalen Zugriff für beide Seiten sollen zugleich Transaktionskosten auf dem Papierweg für Behörden, Firmen und Bürger gesenkt werden. Aus dem „Reallabor“ soll bereits im kommenden Jahr Verwaltungswirklichkeit werden.

Wissenschaftliche Ansprechpartner:

Prof. Norbert Pohlmann

Quelle: IDW 

(nach oben)


Statt vieler Einzelmaßnahmen sollte CO2-Bepreisung im Mittelpunkt stehen – Statement von Prof. Christoph M. Schmidt

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

RWI-Präsident Christoph M. Schmidt zum Klimakabinett: „Die Ergebnisse zeigen, dass die Politik dem Preissignal noch nicht hinreichend traut. Sie setzt den CO2-Preis daher viel zu vorsichtig an und verwässert ihn mit einem Sammelsurium an Maßnahmen.“

„Die Beschlüsse des ,Klimakabinetts‘ zeigen, dass die Bundesregierung in der Klimaschutzpolitik ernsthaft um geeignete Schritte bemüht ist, die teilweise in die richtige Richtung weisen. Der angekündigte „große Wurf“ ist das Paket aber nicht. Denn dies misst sich ja nicht an der Fülle der Einzelmaßnahmen oder deren Volumen, sondern daran, ob das Paket dafür sorgt, dass die in Europa bis 2030 verbindlich zugesagte Emissionsreduktion wirksam und kosteneffizient erreicht wird.

Hier ist leider Skepsis angebracht. Denn um diese beiden Ziele zu verbinden, müsste ein hinreichend ambitionierter CO2-Preis das zentrale Leitinstrument für eine erfolgreiche Reduktion der Treibhausgasemissionen sein. Er könnte das entscheidende Koordinationssignal darstellen, mit dem die Politik einen glaubwürdigen Rahmen setzt, die Entscheidungen über einzelne Maßnahmen, Verhaltensanpassungen und Investitionen aber weitgehend den Bürgern und Unternehmen überlässt.

Die Ergebnisse der heutigen Verhandlungen zeigen, dass die Politik dem Preissignal noch nicht hin-reichend traut. Sie setzt den Einstieg daher viel zu vorsichtig an, verwässert das Preissignal mit einem Sammelsurium an Maßnahmen und bürdet sich selbst zu viele Detailentscheidungen auf. Da-bei nimmt sie erhebliche Mitnahmeeffekte in Kauf und konterkariert sogar an einigen Stellen das Preissignal – etwa bei der Erhöhung der Pendlerpauschale. Das macht den Klimaschutz unnötig teuer.

Ermutigend finde ich zwar, dass neben vielen Einzelmaßnahmen im Beschluss davon die Rede ist, dass es weitere Schritte in Richtung einheitlicher und europäischer CO2-Bepreisung geben soll. Doch noch bleibt die aus volkswirtschaftlicher Sicht völlig verfehlte sektorspezifische Perspektive auf die Klimapolitik weiter bestehen. Es bleibt also nur zu hoffen, dass der CO2-Preis künftig eine weitaus stärkere Rolle spielen wird als in den aktuellen Entscheidungen.“

Prof. Dr. Christoph M. Schmidt ist Präsident des RWI – Leibniz-Institut für Wirtschaftsforschung, Vorsitzender des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung und Professor an der Ruhr-Universität Bochum.

Ansprechpartner/in:
Sabine Weiler (Pressestelle), Tel. 0201/8149-213

Quelle: IDW 

(nach oben)


MOSAiC-Expedition: Dr. Gunnar Spreen startet ins Eis-Abenteuer

Kai Uwe Bohn Hochschulkommunikation und -marketing
Universität Bremen

Es ist der bedeutendste wissenschaftliche Einsatz seiner Karriere: Dr. Gunnar Spreen vom Institut für Umweltphysik der Universität Bremen nimmt an MOSAiC teil, der größten Arktisexpedition aller Zeiten. Am 20. September 2019 legt er in Tromsø (Norwegen) zu monatelangen Forschungen im ewigen Eis ab.

Etwas aufgeregt ist er schon, der Leiter der Arbeitsgruppe „Fernerkundung der Polarregionen“ im Institut für Umweltphysik (IUP) der Universität Bremen. Schließlich geht es nach monatelanger Vorbereitung jetzt endlich los: Dr. Gunnar Spreen gehört zu der ersten Gruppe von insgesamt 600 Wissenschaftlerinnen und Wissenschaftlern sowie Besatzungsmitgliedern, die bei MOSAiC – der bislang bedeutendsten Arktisexpedition aller Zeiten – dabei sind.

Drift in Richtung Europa
„Dass sich ein Forschungsschiff einfrieren lässt, um dann über tausende Kilometer im Eis über den Nordpol hinweg Richtung Europa zu driften, hat es bislang nie gegeben“, erläutert der 43-Jährige die außergewöhnliche Mission. Für die beteiligten Wissenschaftlerinnen und Wissenschaftler heißt das, einerseits über Wochen in Dunkelheit und Kälte auszuharren – andererseits aber auch, genug Zeit für Experimente und Forschungen zu haben, die man erstmals unter diesen Bedingungen machen kann. „Denn bisher hat noch niemand die Gegebenheiten vor Ort über einen langen Zeitraum in der arktischen Polarnacht erforscht. Alle bisherigen – wesentlich kürzeren – Expeditionen fanden überwiegend in der hellen Jahreszeit statt“, sagt Gunnar Spreen.

Das Expeditionsprojekt hat die Abkürzung MOSAiC für „Multidisciplinary drifting Observatory for the Study of Arctic Climate“, auf Deutsch „Multidisziplinäres driftendes Observatorium zur Erforschung des arktischen Klimas“. Driften wird das deutsche Forschungsschiff Polarstern, das sich ab Oktober 2019 im Nordpolarmeer für ein Jahr einfrieren lässt. Die Polarstern überwintert dann in einer Region, die in der Polarnacht sonst weitgehend unerreichbar ist. Auf einer Eisscholle schlagen die 600 Wissenschaftlerinnen und Wissenschaftler sowie die Besatzung – nie gleichzeitig, sondern in unterschiedlicher Zusammensetzung und insgesamt sechs Abschnitten – ihr Forschungscamp auf. MOSAiC ist ein internationales Forschungsprojekt der Superlative. Erstmals werden Daten in einem Zeitraum gemessen, in dem dies bisher nicht möglich war.

Bessere und sicherere Resultate
Gunnar Spreen gehört zur ersten Gruppe, die ihre Arbeit aufnimmt. Er wird vorrangig mit dem Mikrowellenradiometer arbeiten. „Es gibt praktisch keine neueren Daten von jungem Eis, vom Prozess der Meereisbildung über den arktischen Winter bis zum Auftauen“, so der Umweltphysiker. „Wir ermitteln jetzt ein Jahr lang vor Ort die Eistypen, die Eisdicke, die Schneeeigenschaften und vieles mehr.“ Diese Daten gleichen die Forscher dann mit ihren Messungen ab, die sie seit vielen Jahren von Satelliten aus 800 km Höhe vornehmen. Der Vergleich der Daten aus dem All mit den detaillierten Mikrowellenmessungen vor Ort soll dazu führen, dass für künftige Missionen wesentlich bessere Methoden entwickelt werden können. Die sind schon geplant und werden dann unter der der Federführung der EU von der europäischen Weltraumorganisation ESA durchgeführt. Spreen: „Wir können jetzt ein Jahr lang das unter die Lupe nehmen, was wir sonst nur aus großer Entfernung sehen. Das führt letztlich zu Resultaten, die besser und sicherer sind.“

Nach der Abfahrt in Tromsø am 20. September wird es einige Zeit dauern, bis die Polarregion erreicht ist. „Beim Aufbauen unserer Geräte müssen wir uns beeilen, weil wir noch einige Tage lang ein paar Stunden Helligkeit nutzen können. Ab dem 15. Oktober herrscht dann völlige Dunkelheit“, so der 43-Jährige. Abgelöst wird er dann an seinem Geburtstag, dem 15. Dezember. Dann bringt der russische Forschungseisbrecher Kapitan Dranitsyn die nächste Forschergruppe ins Eis und holt die „Pilotgruppe“ ab.

Gunnar Spreen übergibt dann seine Forschungstätigkeit vor Ort an Markus Huntemann vom Alfred-Wegener-Institut – Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Huntemann gehört zu der gemeinsam von Universität Bremen und AWI eingerichteten „Kooperativen Nachwuchsgruppe für Meereis-Fernerkundung“, die von Gunnar Spreen geleitet wird.

Weihnachten noch auf See
Bis der Bremer Umweltphysiker nach der „Abholung“ durch die Kapitan Dranitsyn wieder festen Boden unter den Füßen hat, vergeht aber noch einige Zeit auf See. Der Eisbrecher braucht gut drei Wochen bis Tromsø. Erst im neuen Jahr wird er eintreffen „Geplant ist der 2. Januar 2020″, so Gunnar Spreen, „aber wie lange der Eisbrecher wirklich braucht, ist natürlich ungewiss. Bei einer solchen Expedition gibt es natürlich zahlreiche Unwägbarkeiten.“ Sicher ist aber, dass der Wissenschaftler und seine Begleiterinnen und Begleiter Weihnachten und Silvester auf See feiern werden.

Eine weitere Forscherin der Universität Bremen wird im April 2020 in der vierten Forschungsgruppe ins Eis gehen: Die Physikerin Natalia Sukhikh, die zur Arbeitsgruppe Ozeanographie von IUP-Professorin Monika Rhein gehört, wird dann Wasserproben aus den verschiedenen Schichten nehmen, die unter dem Eis liegen. An der Universität Bremen wird später der Gasgehalt dieser Schichten bestimmt, um den Austausch zwischen wärmeren und kälteren Strömungen nachvollziehen zu können.

Über die MOSAiC-Expedition
Die MOSAiC-Expedition unter Leitung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist verbunden mit noch nie dagewesenen Herausforderungen. Eine internationale Flotte von vier Eisbrechern, Helikoptern und Flugzeugen versorgt das Team auf dieser extremen Route. Insgesamt 600 internationale Teilnehmerinnen und Teilnehmer, davon die Hälfte Wissenschaftlerinnen und Wissenschaftler, werden die Mission begleiten.

Markus Rex, Expeditionsleiter MOSAiC, Alfred-Wegener-Institut, sagt: „Diese Expedition ist bahnbrechend. Niemals zuvor gab es eine derart komplexe Arktisexpedition. Erstmals werden wir die Klimaprozesse der Zentralarktis im Winter vermessen können. Erstmals wird es uns gelingen, diese Region zu verstehen und in Klimamodellen korrekt abzubilden. Die Arktis ist das Epizentrum der globalen Erwärmung mit dramatischen Veränderungen schon heute. Und sie ist die Wetterküche für unser Wetter in Europa. Extremwetterlagen wie winterliche Ausbrüche arktischer Kaltluft bis zu uns oder extrem heiße Phasen im Sommer hängen mit den Veränderungen der Arktis zusammen. Gleichzeitig sind die Unsicherheiten unserer Klimamodelle nirgends so groß wie in der Arktis. Es gibt keine verlässlichen Prognosen, wie sich das Klima der Arktis in der Zukunft weiter entwickeln wird und was das für das Wetter bei uns bedeutet. Es ist unsere Mission, das zu ändern.“

Das Budget der Expedition beträgt rund 140 Millionen Euro. Im Laufe des Jahres werden ca. 300 Wissenschaftler und Wissenschaftlerinnen aus 17 Ländern an Bord sein. Sie kommen aus Belgien, China, Dänemark, Deutschland, Finnland, Frankreich, Großbritannien, Japan, Kanada, den Niederlanden, Norwegen, Polen, Russland, Schweden, der Schweiz, Spanien und den USA. Dabei werden sie landseitig auch von Wissenschaftlerinnen und Wissenschaftlern aus Österreich und Südkorea unterstützt. Die Fragen, denen die Forscherinnen und Forscher während der Expedition nachgehen wollen, sind eng miteinander verknüpft. Zusammen wollen sie zum ersten Mal das gesamte Klimasystem in der Zentralarktis erforschen. Sie erheben Daten in den fünf Teilbereichen Atmosphäre, Meereis, Ozean, Ökosystem und Biogeochemie, um die Wechselwirkungen zu verstehen, die das arktische Klima und das Leben im Nordpolarmeer prägen.

Neuigkeiten direkt aus der Arktis gibt es über die MOSAiC-Kanäle auf Twitter (@MOSAiCArctic) und Instagram (@mosaic_expedition) über die Hashtags #MOSAiCexpedition, #Arctic und #icedrift. Weitere Informationen zur Expedition auf: www.mosaic-expedition.org. In der MOSAiC-Web-App kann die Driftroute der Polarstern zudem live mitverfolgt werden: follow.mosaic-expedition.org .

Wissenschaftliche Ansprechpartner:
Prof. Dr. Justus Notholt
Institut für Umweltphysik (IUP)
Universität Bremen
Tel.: +49 421 218-62190
E-Mail: jnotholtiup.physik.uni-bremen.de

Quelle: IDW 

(nach oben)


Acht Millionen Euro für Supercomputer an TU Dresden übergeben

Kim-Astrid Magister Pressestelle
Technische Universität Dresden

Dresden wird Standort des weltweit ersten Supercomputers, der die Arbeit des menschlichen Gehirns in Echtzeit simuliert. Sachsens Wissenschaftsministerin Dr. Eva-Maria Stange hat heute einen entsprechenden Förderbescheid in Höhe von acht Millionen Euro an die TU Dresden übergeben. „Wir erwarten, dass das Projekt SpiNNcloud das Tor zu heute noch nicht absehbaren Forschungsmöglichkeiten öffnet“, betont Frau Staatsministerin Dr. Stange. „Seine Wirkung geht weit über Sachsen und Deutschland hinaus. Der Freistaat setzt damit perspektivisch auf die Entstehung neuer Industriearbeitsplätze genauso wie auf die internationale Stärkung Sachsens als Forschungsstandort.“

Im Human Brain Project, einem der größten Forschungsprojekte der Europäischen Union, arbeiten seit 2013 Wissenschaftler in mehr als einhundert europäischen Einrichtungen an einem Rechner, der wie das menschliche Gehirn funktioniert. An der TU Dresden werden in Kooperation mit der University of Manchester mittlerweile in zweiter Generation spezielle Chips entwickelt, sogenannte SpiNNaker2-Systeme, die auf die Nachahmung neuronaler Netze optimiert sind. An der TU Dresden soll nun ein Prototyp dieses elektronischen Gehirns namens SpiNNcloud aufgebaut werden.

SpiNNcloud besteht aus zehn Millionen ARM-Prozessoren verteilt auf 70.000 Chips in zehn Serverschränken. Der Rechner vereint hocheffizientes maschinelles Lernen, Sensor/Aktor-Verarbeitung mit Millisekunden-Latenz, hohe Energieeffizienz sowie strikte Echtzeitverarbeitung. „Mit der SpiNNcloud erhält Dresden eine einzigartige Forschungs- und Entwicklungsplattform“, erklärt Professor Christian Mayr, Leiter der Professur für Hochparallele VLSI-Systeme und Neuromikroelektronik an der TU Dresden. „Das Thema Künstliche Intelligenz (KI) ist in der Forschungslandschaft Sachsens gerade sehr aktuell. Das neue Exzellenzcluster CeTI (Zentrum für Taktiles Internet) an der TU Dresden beschäftigt sich mit der interaktiven Robotik und wird voraussichtlich der Hauptnutzer für den Rechner sein. Aber auch die regionale Industrie hat großes Interesse geäußert. Wir bekommen schon jetzt Anfragen von zahlreichen potentiellen Nutzern. Die SpiNNcloud eröffnet vielfaltige Forschungsmöglichkeiten und wir schätzen, dass 60 bis 70 Prozent der Zeit mit lokalen KI-Initiativen und Forschungsprojekten ablaufen wird.“

SpiNNcloud wird voraussichtlich einen Durchbruch im Bereich Mensch-Maschine-Echtzeitinteraktion darstellen: Sie wird niedriglatentes „taktiles Internet“ ermöglichen. Der Begriff Taktiles Internet beschreibt eine Echtzeitinteraktion zwischen Menschen und Maschinen und wurde maßgeblich von Forschungsgruppen an der TU Dresden geprägt. Das Taktile Internet ist mit seinen vielfältigen Ausprägungen wie autonomes Fahren, Robotik, Industrie 4.0 und Telemedizin ein wichtiges Forschungsfeld an der TU Dresden.

„Die Auswirkung Künstlicher Intelligenz auf unser aller Leben nimmt rasant zu. Dennoch müssen wir immer noch viel von der Biologie lernen, wenn wir künftig das volle Potenzial Künstlicher Intelligenz ausschöpfen wollen“, ist Professor Steve Furber von der University of Manchester überzeugt. „SpiNNaker2 ist entwickelt worden, um die Lücke zwischen realistischen Hirnmodellen und Künstlicher Intelligenz zu schließen. Damit wird der Informationsaustausch verbessert und es werden notwendige Synergien für den Fortschritt in beiden Forschungsgebieten geschaffen.“

Wissenschaftsministerin Dr. Eva-Maria Stange ergänzt: „Das schon jetzt drängende Interesse aus Forschung und Industrie zeigt das Potenzial für neuromorphes Rechnen etwa in den Bereichen taktiles Internet, Internet of Things, Industrie 4.0 und Künstliche Intelligenz. Sowohl der Exzellenzstatus der Technischen Universität Dresden als auch die zahlreichen universitären und außeruniversitären Forschungseinrichtungen im Land liefern den Nährboden für Projekte dieser Kategorie. Ich wünsche mir, dass die Faszination der Wissenschaft für die noch vor wenigen Jahrzehnten undenkbaren Möglichkeiten begleitet wird von Fragen nach dem Erhalt der menschlichen Würde und Einzigartigkeit in der Zukunft.“

Wissenschaftliche Ansprechpartner:
Prof. Christian Mayr
Technische Universität Dresden
Fakultät Elektrotechnik und Informationstechnik
Professur für Hochparallele VLSI-Systeme und Neuromikroelektronik
Tel.: 0351 463-42392
E-Mail: christian.mayr@tu-dresden.de

Quelle: IDW 

(nach oben)


Land unter: Steigende Hochwassergefahr durch gleichzeitige Sturmfluten und Starkniederschläge in Nordeuropa

Mag. Gudrun Pichler Presse + Kommunikation
Karl-Franzens-Universität Graz

Ein internationales ForscherInnen-Team unter Leitung der Universität Graz hat untersucht, wie sich durch den Klimawandel in Europa die Gefahr von Hochwasser, verursacht durch Starkregen und Sturmfluten, verändern könnte. Die Ergebnisse liefern wichtige Informationen, die im Küstenschutz zusätzlich zum Meeresspiegelanstieg berücksichtigt werden sollten. Die Studie ist in der Fachzeitschrift Science Advances erschienen.

Die Hochwassergefahr an Europas Küsten nimmt zu. Dafür ist vor allem der Anstieg des Meeresspiegels verantwortlich. Treten Sturmfluten gleichzeitig mit Starkniederschlägen auf, steigt die Gefahr zusätzlich. Das abfließende Regenwasser wird an der Küste, vor allem in Flussmündungen, von der Sturmflut aufgestaut. Bisher betrachten Risikoabschätzungen Sturmfluten und Starkniederschläge unabhängig voneinander. Oft werden beide jedoch durch die gleiche Wetterlage ausgelöst, hängen also zusammen. Die Gefahr des gleichzeitigen Auftretens wird unterschätzt.

WissenschafterInnen vom Joint Research Center der Europäischen Kommission in Ispra/Italien haben anhand eines mathematischen Modells der Meeresoberfläche berechnet, wie in Klimamodellsimulationen der Zukunft Sturmfluten auftreten. Diese Ergebnisse hat die Forschungsgruppe um Douglas Maraun am Wegener Center für Klima und Globalen Wandel der Universität Graz zusammen mit Simulationen des Niederschlags in einem komplexen statistischen Modell analysiert. „Es zeigt sich, dass in Nordeuropa die Niederschläge intensiver werden, so dass die Gefahr von gleichzeitig auftretenden Starkniederschlägen und Sturmfluten tendenziell steigen könnte“, berichtet Douglas Maraun. Das bedeutet, dass im Bereich von Flussmündungen verstärkt mit Hochwasser gerechnet werden sollte. In Südeuropa sieht die Situation anders aus: „Dort dürfte die Zahl der Sturmfluten abnehmen, wodurch die Gefahr gleichzeitiger Extremniederschläge insgesamt eher sinken sollte“, so der Klimaforscher.

Die Ergebnisse dieser Analysen können als Grundlage für weitere detaillierte Studien dienen, die zusätzlich lokale Gegebenheiten, wie etwa die genaue Küstenform, Deiche, Hafenanlagen oder Sperrwerke, in Betracht ziehen.

Wissenschaftliche Ansprechpartner:
Assoz. Prof. Dr. Douglas Maraun
Wegener Center für Klima und Globalen Wandel der Universität Graz
Tel.: +43 (0)664/88 32 68 27
E-Mail: douglas.maraun@uni-graz.at

Originalpublikation:
„Higher probability of compound flooding from precipitation and storm surge in Europe under anthropogenic climate change“
E. Bevacqua, D. Maraun, M. I. Vousdoukas, E. Voukouvalas, M. Vrac, L. Mentaschi, M. Widmann
Science Advances, 18 September 2019

Quelle: IDW 

(nach oben)


Fraunhofer IPA und EEP der Universität Stuttgart – Studie zu industriellen Energiespeichern veröffentlicht

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Weil die Elektromobilität immer weiter voranschreitet, ist die kontinuierliche Weiterentwicklung von nachhaltigen Energiespeichertechnologien unerlässlich. Auch in vielen produzierenden Unternehmen sind Energiespeicher integriert, etwa um die unterbrechungsfreie Stromversorgung (USV) für sensible Prozesse zu garantieren. Zusätzliche Einsatzoptionen entstehen durch die Integration von erneuerbaren Energien und deren volatile Erzeugung. Dazu zählen unter anderem die Verringerung des Leistungsbezugs aus dem Netz oder die Eigenverbrauchsoptimierung.

Vor diesem Hintergrund haben das Fraunhofer IPA und das Institut für Energieeffizienz in der Produktion EEP der Universität Stuttgart, gefördert vom Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg, die ESIP-Studie »Energiespeicher in Produktionssystemen« durchgeführt und nun veröffentlicht. Sie identifiziert mögliche Einsatzoptionen für Energiespeicher in Produktionssystemen und beschreibt den Status quo von Energiespeichertechnologien sowie deren aktuellen Herausforderungen und Chancen.

Um das Potenzial für Energiespeicher zu erfassen, wurden Experteninterviews und eine Online-Umfrage durchgeführt. Zwischen dem 1. August und dem 18. Oktober 2018 nahmen 269 Personen an der Studie teil, 136 Datensätze flossen schließlich in die Auswertung ein. Gefragt wurde unter anderem nach technischen Integrationsmöglichkeiten, einsetzbaren Energiespeichertechnologien, Wettbewerb, Herausforderungen, Motivation, und Wirtschaftlichkeit. Darüber hinaus wurden acht Experteninterviews durchgeführt. In den Unternehmen der meisten ausgewählten Experten werden bereits Energiespeicher eingesetzt.

Optionen für den Einsatz
Für Energiespeicher gibt es zahlreiche Einsatzoptionen im industriellen Umfeld. Grundsätzlich kann zwischen den Einsatzoptionen zur Absicherung der Produktion, der Optimierung des Energiebezugs und den Systemdienstleistungen unterschieden werden. Bereits etabliert sind die Einsatzoptionen zur Absicherung der Produktion, während die Einsatzoptionen zur Optimierung des Energiebezugs für produzierende Unternehmen nun immer interessanter werden. Die Einsatzoptionen durch Systemdienstleistungen werden nur als Nebeneffekt zur Erhöhung der Wirtschaftlichkeit gesehen.

Verfügbare Technologien
Schwungmassenspeicher, Kondensatoren und Blei-Säure-Batterien zählen zu den ausgereiften, am Markt verfügbaren Technologien. Lithium-Batterien sind auf dem besten Weg dorthin. Auch Redox-Flow-Batterien können aufgrund der getrennten Dimensionierung von Leistung und Kapazität eine wichtige Rolle einnehmen.

Reduzierung der Kosten
Alle Energiespeichertechnologien haben wegen der geringen Stückzahl hohe Herstellkosten. Eine Senkung der Investitionskosten könnte bei fast allen betrachteten Energiespeichertechnologien durch Massenproduktion erreicht werden. Eine andere Möglichkeit, die hohen Investitionskosten von Energiespeichern zu reduzieren, ist die Nutzung von Second-Life-Batterien aus Elektroautos, denn durch die erneute Verwendung gebrauchter Batterien aus Elektroautos für stationäre Anwendungen können positive ökonomische und ökologische Effekte erzielt werden.

Abbau von Hürden
Neben der Wirtschaftlichkeit sind jedoch auch die Regulierungen eine Herausforderung für die Energiespeicherintegration. Außerdem mangelt es in der Branche an Erfahrung, Know-how und praxisnahen Demonstratoren. Der größte Treiber für die Energiespeicherintegration ist die Notwendigkeit zur Effizienzsteigerung sowohl aus betriebswirtschaftlicher als auch aus energetischer Sicht.

Fazit
Für die stationäre Anwendung werden aktuell am häufigsten elektrische bzw. elektrochemische Energiespeicher eingesetzt. Auch in Zukunft werden diese Energiespeichertechnologien – zumindest für kurz- und mittelfristige Einsatzoptionen – den Markt dominieren. Thermische Energiespeicher werden an Bedeutung gewinnen. Lithium-Batterien haben auch bei stationären Anwendungen ein großes Einsatzpotenzial und noch nicht marktreife Energiespeichertechnologien wie etwa Redox-Flow-Batterien können aus Sicht der Umfrageteilnehmer für stationäre Anwendungen zukünftig interessant werden. Eine große Chance für Unternehmen liegt in der Entwicklung und dem Aufbau von hybriden Energiespeichersystemen. Sie bestehen aus elektrischen und elektrochemischen oder elektrischen und thermischen Energiespeichern.
Die Energiespeicherintegration zur Optimierung des Energiebezugs wird für Unternehmen zunehmend interessanter, jedoch ist die Wirtschaftlichkeit weiterhin die größte Herausforderung. Unternehmen tendieren eher zu einem großen zentralen Energiespeicher, um sich energetisch vom Netz zu entkoppeln. Durch zentrale große Energiespeicher ist deren multifunktionaler Einsatz möglich. So wird der Speicher besser ausgelastet und die Wirtschaftlichkeit wird erhöht. Die Reduzierung der Kosten, getrieben durch die technologische Weiterentwicklung und den zunehmenden Aufbau einer Massenfertigung, ist weiterhin der wichtigste Faktor für die Wirtschaftlichkeit.

Auf einen Blick
Die Studie »Energiespeicher in Produktionssystemen« identifiziert unterschiedliche Einsatzoptionen für stationäre Energiespeicher im industriellen Umfeld. Zudem werden die derzeitigen Energiespeichertechnologien vorgestellt sowie die aktuellen Chancen und Herausforderungen beschrieben.

Gefördert durch:
Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg

Autoren:
Fabian Zimmerman, Alexander Emde
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Raoul Laribi, Diana Wang, Alexander Sauer
Universität Stuttgart, Institut für Energieeffizienz in der Produktion EEP
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart;
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO, Stuttgart

Jahr: 2019

Weitere Informationen und Download der Studie:
https://www.ipa.fraunhofer.de/de/Publikationen/studien.html

Pressekommunikation
Dr. Birgit Spaeth | Telefon +49 711 970-1810 | birgit.spaeth@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de
Wissenschaftliche Ansprechpartner:

Fabian Zimmermann | Telefon +49 711 970-1908 | fabian.zimmermann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

Originalpublikation:
https://www.ipa.fraunhofer.de/de/Publikationen/studien.html

Anhang

Pressemitteilung
https://idw-online.de/de/attachment73049

Quelle: IDW 

(nach oben)


TU Berlin beteiligt sich an „Covering Climate Now“

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

Forschungsprojekte für die Wissenschaftskommunikation im Rahmen der internationalen Aktionswoche „Covering Climate Now

TU Berlin beteiligt sich an internationaler Aktionswoche und berichtet von aktuellen Forschungsprojekten rund um die Themen Klimaschutz und Nachhaltigkeit. Wissenschaftler*innen der TU Berlin stehen außerdem für Interviewmöglichkeiten zur Verfügung.

Vom 15. bis 23. September 2019 stehen auch an der TU Berlin Klimaschutz und Nachhaltigkeit im Mittelpunkt der Kommunikation. In dieser Zeit wirft die Universität einen Blick hinter die Labortüren und berichtet eine Woche lang von aktuellen Forschungsprojekten zu den Themen CO2-Steuer, Kohleausstieg, Windenergie oder innovative Verwertung von Abfall.

Zu der Aktionswoche „Covering Climate Now“ hat das Magazin „Columbia Journalism Review“ von der Columbia School of Journalism an der University of New York gemeinsam mit dem US-Wochenmagazin „The Nation“ aufgerufen. Weltweit sind über 250 Medienhäuser und Wissenschaftseinrichtungen diesem Aufruf gefolgt und werden mit Blick auf den „Climate Action Summit“ der Vereinten Nationen am 23. September 2019 in New York den Schwerpunkt ihrer Berichterstattung auf den Klimawandel legen. Neben der TU Berlin beteiligen sich aus dem Bereich Forschung unter anderem die Princeton University (USA), die Boston University (USA) und die University of Manchester (Großbritannien).

Expert*innendienst
Medienvertreter*innen stehen in der Aktionswoche außerdem folgende Wissenschaftler*innen der TU Berlin für Recherche- und Interviewanfragen zur Verfügung:

Prof. Dr. Felix Creutzig
Tel.: +49 30 314-73331
Institut für Landschaftsarchitektur und Umweltplanung
Fachgebiet Sustainability Economics of Human Settlements
E-Mail: creutzig@tu-berlin.de

Expertise:
• Urbanisierung und globale Umweltveränderungen
• CO2-Bepreisung

Prof. Dr. Matthias Finkbeiner
Institut für Technischen Umweltschutz
Fachgebiet Sustainable Engineering
Tel: +49 30 314-24341
E-Mail: matthias.finkbeiner@tu-berlin.de

Expertise:
• soziale Ökobilanz
• Wasser- und CO2-Fußabdruck

Prof. Dr.-Ing. Markus Hecht
Institut für Land- und Seeverkehr
Fachgebiet Schienenfahrzeuge
E-Mail: markus.hecht@tu-berlin.de

Expertise:
• Verlagerung von Mobilität auf die Schiene
• Energie und Antrieb von Schienenfahrzeugen

Prof. Dr. Melanie Jaeger-Erben
Institut für Hochfrequenz- & Halbleiter-Systemtechnologien
Fachgebiet Transdisziplinäre Nachhaltigkeitsforschung in der Elektronik
Tel.: +49 30 46403-206
E-Mail: jaeger-erben@tu-berlin.de

Expertise:
• Transdisziplinäre Nachhaltigkeitsforschung in der Elektronik

Prof. Dr.-Ing. Julia Kowal
Institut für Energie- und Automatisierungstechnik
Fachgebiet Elektrische Energiespeichertechnik
Tel.: +49 30 314-21633
E-Mail: julia.kowal@tu-berlin.de

Expertise:
• Energiespeichertechnik
• Batterietechnik

Prof. Dr.-Ing. Martin Kriegel
Institut für Energietechnik
Fachgebiet Gebäude-Energie-Systeme
Tel.: +49 30 314-24176
E-Mail: m.kriegel@tu-berlin.de

Expertise:
• Energiewende im Gebäudebereich
• CO2-neutrale Gebäudeenergieversorgung
• Wohlbefinden und Gesundheit des Menschen im Gebäude

Prof. Dr.-Ing. Vera Rotter
Institut für Technischen Umweltschutz
Fachgebiet Kreislaufwirtschaft und Recyclingtechnologie
Tel.: +49 30 314-22619
E-Mail: vera.rotter@tu-berlin.de

Expertise:
• Recycling
• zirkuläres Wirtschaften und geschlossene Produktionskreisläufe
• Rohstoffe für die Energiewende und Energieerzeugung aus Biomasse-Reststoffen

Prof. Dr. Tilman Santarius
Institut für Berufliche Bildung und Arbeitslehre
Fachgebiet Sozial-ökologische Transformation sowie Einstein Center Digital Future
Tel.: +49 30 314-78869
E-Mail: santarius@tu-berlin.de

Expertise:
• Klimapolitik
• Digitalisierung und Nachhaltigkeit
• nachhaltiges Wirtschaften

Prof. Dr. Dr. Martina Schäfer
Zentrum Technik und Gesellschaft
Tel.: +49 0 314-23665
E-Mail: schaefer@ztg.tu-berlin.de

Expertise:
• nachhaltiger Konsum und klimafreundliches Alltagshandeln
• nachhaltige Regionalentwicklung, insbesondere regionaler Wertschöpfungsketten im Bereich Landwirtschaft und Ernährung

Prof. Dr. Ulf Schrader
Institut für Berufliche Bildung und Arbeitslehre
Fachgebiet Arbeitslehre/Ökonomie und Nachhaltiger Konsum
Tel.: +49 30 314-28769/-78838
E-Mail: schrader@tu-berlin.de

Expertise:
• nachhaltiger Konsum und Verbraucherpolitik
• Corporate Social Responsibility und Nachhaltigkeitsmarketing
• Innovationsmanagement

Prof. Dr. Dodo zu Knyphausen-Aufseß
Institut für Technologie und Management
Fachgebiet Strategische Führung und Globales Management
Tel.: +49 30 314-28744
E-Mail: knyphausen@strategie.tu-berlin.de

Expertise:
• Nachhaltigkeit und Wirtschaft, Globalisierung

Weiterführende Informationen:
• Alle Forschungsthemen zur Aktionswoche „Covering Climate Now“ werden veröffentlicht unter: http://www.tu-berlin.de/?208333 und auf Twitter @tuberlin (https://twitter.com/tuberlin).
• Informationen zu „Fridays for Future an der TU Berlin“: http://www.tu-berlin.de/?205334

Kontakt:
Stefanie Terp
Pressesprecherin der TU Berlin
Tel.: 030 314-23922
E-Mail: pressestelle@tu-berlin.de

Quelle: IDW 

(nach oben)


Neue Studienergebnisse zur aktuellen Situation im Mittelstand – jetzt im IfM-Forschungsnewsletter 3/19

Dr. Jutta Gröschl Presse- und Öffentlichkeitsarbeit
Institut für Mittelstandsforschung (IfM) Bonn

Der Mittelstand wird mit Werten wie beispielsweise Innovationskraft und Anpassungsfähigkeit oder Verantwortungs- und Risikobereitschaft verbunden. Viele Unternehmerinnen und Unternehmer in Deutschland sind stolz darauf, dem Mittelstand anzugehören. Wie gerechtfertigt ist jedoch diese Wahrnehmung?

Im Rahmen einer Studie haben die Wissenschaftler des IfM Bonn untersucht, ob sich tatsächlich die Unternehmensziele von mittelständischen Unternehmen und managergeführten Unternehmen unterscheiden. Dabei konnten sie teilweise signifikante Unterschiede bei den Unternehmenszielen feststellen.

Weitere Themen der Ausgabe 3/19:
• Warum weniger Frauen gründen.
• Welche Chancen und Risiken Unternehmensnachfolgen von Arbeitnehmern und
Arbeitnehmerinnen beinhalten.

Der IfM-Forschungs-Newsletter informiert alle 3 Monate kostenfrei über die jüngsten Studienergebnisse des IfM Bonn.

Weitere Informationen:

https://www.ifm-bonn.org/meta/news/newsletter/

Quelle: IDW 

(nach oben)


Umweltsündern auf der Spur

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Kriminelle Machenschaften nachzuweisen, kann mitunter schwierig sein: Etwa bei Akteuren, die schädliche Abwässer heimlich in die Kanäle einleiten. Ein neues Sensorsystem von Fraunhofer-Forscherinnen und Forschern und ihren Partnern könnte die Sicherheitsbehörden künftig bei dem Nachweis unterstützen: Im Abwasserkanal positioniert, spürt es entsprechende Inhaltstoffe auf und hilft, Umweltsünder einzugrenzen und zu entlarven.

Schwarze Schafe gibt es immer wieder – auch in der Industrie. Denn während der Großteil der Firmen ihre Abwässer ordnungsgemäß entsorgt, scheuen einige wenige die damit verbundenen Kosten und leiten das schädliche Abwasser heimlich, still und leise in die Kanäle ein. Bislang fehlen den Sicherheitsbehörden größtenteils die Möglichkeiten, einer solchen Umweltkriminalität großflächig auf die Schliche zu kommen: Dies würde die Kapazitäten der Mitarbeiterinnen und Mitarbeiter bei Weitem übersteigen. Die Betreiber von Kläranlagen stellen solche gesetzeswidrigen Abwässer jedoch vor große Herausforderungen – sie können sogar dazu führen, dass die Kläranlagen kippen.

Umweltschädigende Substanzen im Abwasser nachweisen
Ein neuartiges Sensorsystem könnte es den Sicherheitsbehörden künftig erleichtern, solche Delikte aufzudecken. Entwickelt haben die Technologie – gemeinsam mit Partnern – die Forscherinnen und Forscher der Fraunhofer-Institute für Integrierte Schaltungen IIS und für Zuverlässigkeit und Mikrointegration IZM im EU-Projekt Micromole. »Das Sensorsystem soll bestimmte Substanzen im Wasser nachweisen, die in solchen Abwässern typischerweise enthalten sind«, erläutert Dr. Matthias Völker, Gruppenleiter am Fraunhofer IIS. »Es besteht aus zwei Sensorkomponenten: Physikalischen Sensoren und einem chemischen Sensor. Weitere Systeme sind: Energiemanagement, Steuerung- und Kommunikation und ein Probenentnahmesystem.« Führen solche Abwässer an Kläranlagen wiederholt zu Problemen, könnten die Sicherheitsbehörden das Abwassersystem an bestimmten Stellen überprüfen, den Übeltäter durch mehrere Messungen immer weiter eingrenzen und schließlich enttarnen.

Für solche Messungen setzt ein Roboter im Abwasserrohr drei Ringe ein. Der erste Ring wird direkt vor dem Zulauf der verdächtigen Firma positioniert, der zweite direkt dahinter. An beiden dieser Ringe befindet sich jeweils ein physikalischer Sensor, der Parameter wie die Temperatur, den pH-Wert oder auch die Leitfähigkeit des Wassers misst. Über eine Funkverbindung stehen diese beiden Ringe miteinander in Kontakt und vergleichen die von ihren Sensoren gemessenen Werte. Unterscheiden sie sich, könnte dies darauf zurückzuführen sein, dass aus dem fokussierten Gebäude schädliche Abwässer eingeleitet wurden. Auf das entsprechende Signal des zweiten Rings »erwachen« nun die Systeme am dritten Ring, der etwas weiter hinten im Abwasserkanal befestigt ist: Genauer gesagt ein chemischer Sensor und ein Probenentnahmesystem. Für den chemischen Sensor entnimmt eine Mikropumpe einige Mikroliter des Abwassers, verdünnt diese und leitet sie auf den chemischen Sensor. Auf diesem befinden sich sechs Elektroden, die jeweils mit einer speziellen Beschichtung aus Polymeren überzogen sind. Das Besondere: In diesen Polymerschichten befinden sich Lücken, in die bestimmte Schadstoffe jeweils genau hineinpassen – ähnlich wie Puzzleteilchen. Binden sie auf diese Weise an die Polymerschicht, ändert sich ihre elektrische Kapazität. Solche Kapazitätsänderungen auf den Elektroden legen also nahe, dass sich bestimmte Schadstoffe im Abwasser befinden. Vor Gericht gilt dies jedoch nicht als Beweis. Daher entnimmt das System zudem eine kleine Probe des Abwassers, das dann von Menschenhand im Labor genau überprüft werden kann. Damit der chemische Sensor für mehrere Messungen eingesetzt werden kann, spült eine Waschlösung die angebundenen Moleküle nach jeder Messung wieder heraus.

Das Sensorsystem ist in einer Kooperation mehrerer Forschungseinrichtungen und weiterer Partner entstanden. Die Forscherinnen und Forscher des Fraunhofer IIS haben dabei die Entwicklung der Elektronik, der Signalerfassung und -auswertung des Sensormoduls sowie der Energieversorgung des Systems übernommen. Ihre Kolleginnen und Kollegen vom Fraunhofer IZM waren für das BUS-System auf dem Metallring zuständig und für den Entwurf der wasserdichten Steckkontakte zu den einzelnen Komponenten sowie der wasser- und chemikaliendichten Gehäuse. Zudem haben sie die physikalischen Sensoren miniaturisiert.

Großangelegter Testlauf geplant
Die einzelnen Komponenten wurden zunächst bei den Partnern im Labor geprüft, anschließend im Zusammenspiel in einem künstlichen Abwassersystem mit realem Abwasser. In einem dritten Schritt wurden verschiedene Komponenten in einem realen Abwasserrohr getestet. Die ersten Ergebnisse sind vielversprechend: »Das System konnte verdächtige Abwässer aufspüren und einen entsprechenden Alarm auslösen«, fasst Harald Pötter, Abteilungsleiter am Fraunhofer IZM, zusammen. In einem Nachfolge-Projekt wollen die Forscherinnen und Forscher des Fraunhofer IZM nun mit Partnern in fünf europäischen Städten einen großangelegten Testlauf der physikalischen Sensoren des Systems durchführen.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2019/september/umweltsue…

Quelle: IDW 

(nach oben)


Wird Wasser jetzt digital?

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Apps, die Badegewässerqualität voraussagen, Sensoren, die bei Regen potenzielle Überflutungsflächen anzeigen: Digitale Tools ermöglichen in Zeiten des Klimawandels ein effizienteres und nachhaltigeres Wassermanagement.

Im EU-Verbundvorhaben „Digital-Water.City (DWC)“, das vom Kompetenzzentrum Wasser Berlin (KWB) koordiniert wird, werden solche neuen Tools entwickelt.

– Christian Rickerts, Staatssekretär bei der Senatsverwaltung für Wirtschaft, Energie und Betriebe
– Dr. Frank Nägele, Staatssekretär für Verwaltungs- und Infrastrukturmodernisierung/Wachsende Stadt in der Senatskanzlei Berlin

Beide werden das Projekt in die Digitalisierungsstrategie des Landes Berlin einordnen und die Bedeutung einer digitalen Infrastruktur für Smart City erläutern. Anschließend geben die Geschäftsführerinnen des KWB, Edith Roßbach und Regina Gnirß, einen Überblick über das Projekt und stellen beispielhafte Einzelaktivitäten vor.

Jörg Simon, Vorstandvorsitzender der Berliner Wasserbetriebe, und Nicolas Zimmer, Vorstandvorsitzender der Technologiestiftung Berlin, stehen für Fragen zur Verfügung.

Wir freuen uns über Ihre Anmeldung per E-Mail.

Anhang
Einladung Pressegespräch: Start EU-Vorhaben Digital-Water.City
https://idw-online.de/de/attachment72841

Quelle: IDW 

(nach oben)


Was verursacht digitalen Stress und welche Rahmenbedingungen machen besonders anfällig?

Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT

Das seit November 2017 laufende BMBF-Projekt »PräDiTec« hat erste Erkenntnisse über die größten Auslöser von digitalem Stress gewonnen. In einer Studie mit mehr als 5.000 Erwerbstätigen wurde untersucht, wie sich das Belastungs- und Beanspruchungsprofil durch den Einsatz von neuen Technologien verändert. Neben den Belastungsfaktoren und Auswirkungen von digitalen Stress wurden Rahmenbedingungen analysiert, unter denen digitaler Stress besonders hoch oder gering ausfällt. Am 4. September 2019 ab 16:00 Uhr können Sie der Ergebnisveröffentlichung per Livestream beiwohnen. Genauere Details und die gesamte Studie zum Download finden Sie auf der Projektwebsite https://gesund-digital-arbeiten.de.

>>Ständige Erreichbarkeit, Angst vor Leistungsüberwachung und eine Beschleunigung der Arbeitstätigkeit als Auslöser für digitalen Stress
Aus der Studie heraus konnten 12 verschiedene Belastungsfaktoren bei der Arbeit mit digitalen Technologien und Medien identifiziert werden. Dazu gehört beispielsweise die Omnipräsenz, das Gefühl der ständigen Erreichbarkeit und einer kürzeren Reaktionszeit durch das Auflösen der Grenzen zwischen Arbeits- und Privatleben. Ein weiterer Belastungsfaktor, die Überflutung, beschreibt das Gefühl, aufgrund der höheren Menge an bereitgestellten Informationen mehr und schneller arbeiten zu müssen. Von den Befragten werden am häufigsten Leistungsüberwachung sowie die Verletzung der Privatsphäre als Belastungsfaktor genannt. Bemerkenswert ist nicht nur, dass jeder dritte Befragte mindestens einem der Belastungsfaktoren sehr stark ausgesetzt ist, sondern auch, dass fast jeder fünfte aufgrund des Belastungsfaktors sehr starken digitalen Stress wahrnimmt.

>>Stressempfinden geht mit der Nutzungsintensivität und der Anzahl genutzter Technologien einher
Doch nicht jeder Arbeitsplatz, der mit digitalen Technologien ausgestattet ist, verursacht digitalen Stress im gleichen Maß. Die Kombination aus der Anzahl genutzter digitaler Technologien und Medien sowie die Nutzungsintensität hat Einfluss auf die Belastung. So ist diese bei einer hohen Anzahl an verschiedenen Technologien, die nur wenig genutzt werden, am höchsten, da die Fähigkeiten und Kenntnisse zur Nutzung der Technologien bei geringer Nutzung schwieriger zu erhalten sind und die Verunsicherung größer wird.

>>Gesundheitliche und arbeitsbeeinträchtige Auswirkungen
Erschöpfung, Gereiztheit sowie psychischen Beeinträchtigungen bis hin zu Erkrankungen des Muskel-Skelett-Systems gehen mit digitalem Stress einher. Unzufriedenheit mit der Arbeitsstelle und eine schlechtere Leistung sind ebenso mögliche Folgen von digitalen Stresses. Doch organisationale und soziale Faktoren können digitalem Stress am Arbeitsplatz entgegenwirken. Dazu gehören beispielsweise ein erweiterter Handlungsspielraum hinsichtlich arbeitsrelevanter Entscheidungen sowie eine gute Beziehung zu dem Vorgesetztem.

Sie möchten mehr über die neusten Ergebnisse der Studie erfahren und darüber diskutieren? Am 04. September 2019 können Sie ab 16:00 Uhr per Livestream (https://www.youtube.com/watch?reload=9&v=t8R9X6D3TE8) an der Vorstellung des Studienberichts und einer regen Podiumsdiskussion über die Kernergebnisse mit Vertretern aus der Praxis und der Wissenschaft teilnehmen. Mit dabei sind unter anderem Frau Dr. Patricia Tegtmeier von der Bundesagentur für Arbeitsschutz und Arbeitsmedizin und Herr Guido Fuhrmann, Personalleiter Deutschland bei der Deutschen Bank. Ihre formlose Anmeldung zum Stream oder Ihr Teilnahmeinteresse an der Ergebnisveröffentlichung richten Sie gerne an praeditec@ias-gruppe.de.

>>Ansprechpartner
Prof. Dr. Henner Gimpel (henner.gimpel@fit.fraunhofer.de) und Prof. Dr. Nils Urbach (nils.urbach@fit.fraunhofer.de), Projektgruppe Wirtschaftsinformatik, Fraunhofer-Institut für Angewandte Informationstechnik FIT

Quelle: IDW 

(nach oben)


Starkregen und Trockenheit – digitale Technologien für das Wassermanagement

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Apps, die Badegewässerqualität voraussagen, Sensoren, die bei Regen potenzielle Überflutungsflächen anzeigen: Digitale Tools ermöglichen in Zeiten des Klimawandels ein effizienteres und nachhaltigeres Wassermanagement. Welche Tools das sind und wie sie funktionieren, erforscht das Kompetenzzentrum Wasser Berlin (KWB) ab sofort im europäischen Ver-bundvorhaben Digital-Water.City (DWC). In Paris, Sofia, Kopenhagen,
Mailand und Berlin arbeiten Forscher am Wassermanagement der intelligenten Stadt. Das KWB, das gleichzeitig Initiator und Koordinator des Projekts ist, hat es heute im CityLAB Berlin vorgestellt.

Überflutete Straßen, unter Wasser stehende Keller und verschmutzte (Bade)gewässer einerseits; anhaltende Trockenheit mit Ernteausfällen und überhitzten Innenstädten andererseits. Die Extreme im Wettergeschehen haben erhebliche Auswirkungen auf Wassermengen und Wasserqualität, besonders in Metropolen. Die intelligente Erfassung und Verarbeitung von Daten können dabei helfen, Entwicklungen früher zu erkennen und besser zu managen. Schon heute erfassen Sensoren im Fluss Daten in Echtzeit, eine lernfähige Software macht daraus eine Prognose zur Wasserqualität, in einer Bade-App können sich die Berliner*innen täglich über die erwartete Badegewässerqualität informieren. Ähnliche Tools sollen etwa künftig bei Starkregen auf Überflutungsflächen hinweisen.

Christian Rickerts, Staatssekretär in der Senatsverwaltung für Wirtschaft, Energie und Be-triebe, sagt: „Berlin spielt im Bereich des digitalen Wassermanagements eine führende Rol-le in Europa. Das Kompetenzzentrum Wasser und die Berliner Wasserbetrieben zeigen seit Jahren, wie Digitalisierung beim Wassermanagement, bei der Instandhaltung der Abwasserrohre oder bei der Beurteilung von Wasserqualität unserer Stadt helfen kann. Diese Erfolgsgeschichte schreiben wir heute international fort: Zusammen mit 24 Partnern aus zehn europäischen Städten macht das Verbundvorhaben Digital-Water.City die Wasserver- und -entsorgung noch effizienter – und leistet damit gleichzeitig einen Beitrag zum nachhaltigen Energie- und Ressourceneinsatz.“

Neben der Information zur Badewasserqualität werden im Rahmen des Projekts weitere Vorhaben verfolgt wie die digitale Überwachung und Steuerung von Abwasserströmen im Kanalnetz. Die Daten dazu liefert ein dichtes Netz von einfachen kostengünstigen Temperarursonden. „Wenn es uns tatsächlich gelingt, über Temperaturmessungen die hydraulische Belastung in der Kanalisation besser als bisher zu bestimmen, könnten unerwünschte Über-läufe der Mischwasserkanalisation viel effizienter vermieden werden. Dies wäre ein großer Gewinn für den Gewässerschutz“, betont Jörg Simon, Chef der Berliner Wasserbetriebe.

Nicolas Zimmer, Vorstandsvorsitzender der Technologiestiftung, fasst zusammen: „Das große Verbundprojekt Digital-Water.City gibt uns die Möglichkeit, die Expertise, die das KWB vorhält, weiter auszubauen. Im Wassermanagement können wir exemplarisch zeigen, wie die Digitalisierung effiziente und nachhaltige öffentliche Infrastruktur ermöglicht.“
Wissenschaftliche Ansprechpartner:

nicolas.caradot@kompetenz-wasser.de

Anhang
Projekt Digital-Water.City: Kompakte Projektinformationen
https://idw-online.de/de/attachment72890

Quelle: IDW 

(nach oben)


Unstatistik des Monats: Verwirrung um Nitrat

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Laut eines Artikels in der Rheinischen Post ist die Nitratbelastung deutscher Böden in den Jahren 2013 bis 2017 insgesamt gestiegen. Diese Aussage ist durch die zugrundeliegenden Daten aber nicht gedeckt, weil Messpunkte verändert und 2017 Höchstwerte statt Jahresdurchschnittswerte verwendet wurden.

Die Unstatistik des Monats August ist ein Artikel aus der Rheinischen Post vom 8. des Monats. Unter der Überschrift „Immer mehr Nitrat im Grundwasser“ kommentiert die Rheinische Post darin die Antwort der Bundesregierung auf eine kleine Anfrage der Grünen. Demnach nahm der mittlere Nitratgehalt an den 15 am stärksten belasteten deutschen Messpunkten von 2013 bis 2017 um rund 40 Milligramm pro Liter zu. Daraus folgt aber nicht, wie von der Rheinischen Post fälschlicherweise kolportiert, dass die Nitratbelastung insgesamt gestiegen ist. Sie ist vermutlich, wie schon in den Vier-jahres-Zeiträumen davor, weiter gefallen.

Erstens sind die Messpunkte nicht die gleichen – im Jahr 2017 wurden verschiedene Messpunkte aus dem Jahr 2013 gegen bekannte Hochnitrat-Messstellen ausgetauscht. Die Werte an den 2013er Messpunkten sind bis 2017 im Mittel gefallen. Und zweitens gingen 2013 die Jahresdurchschnitts-werte, im Jahr 2017 aber die Höchstwerte (über ausgewählte Tage) in die Analyse ein. Die Meldung aus der Rheinischen Post ist also statistisch gesehen der gleiche Unfug, als wollte man die Veränderung der jährlichen landesweiten Niederschlagsmenge durch einen Vergleich der 15 jeweils feuchtesten Orte ermitteln (und dann auch noch für ein Jahr basierend auf dem Durchschnitt pro Ort, das andere Jahr basierend auf dem Tagesmaximum).

Damit ist natürlich nichts gegen eine sinnvolle Messung der Nitratbelastung in Flüssen, Seen und im Grundwasser gesagt. Deren Begrenzung und Absenkung ist Gegenstand einer der ersten Umweltschutzdirektiven der EU, der Nitratrichtlinie von 1991. Das dazu nötige europaweite Messnetz ist allerdings wissenschaftlich durchaus angreifbar. Wie schon in der Meldung der Rheinischen Post werden speziell in Deutschland Messstellen gerne ausgetauscht beziehungsweise mit Bedacht in Hochbelastungsregionen angelegt. Dagegen wäre auch nichts einzuwenden, wäre man an der zeitlichen Entwicklung der Maxima interessiert. Zum Betrug wird diese Vorgangsweise immer dann, wenn man das Ergebnis als landesweiten Durchschnitt verkauft. Hier zeigt sich, dass bei unveränderten Messpunkten die Belastung eher sinkt.

Ansprechpartner/in:
Prof. Dr. Walter Krämer, Tel.: (0231) 755-3125
Sabine Weiler (Pressestelle RWI), Tel.: (0201) 8149-213

Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer, die STAT-UP-Gründerin Katharina Schüller und RWI-Vizepräsident Thomas K. Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Alle „Unstatistiken“ finden Sie im Internet unter http://www.unstatistik.de und unter dem Twitter-Account @unstatistik.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Walter Krämer, Tel.: (0231) 755-3125

Weitere Informationen:
http://www.unstatistik.de (Alle „Unstatistiken“ im Internet)

Anhang

Die Unstatistik-Pressemitteilung im pdf-Format
https://idw-online.de/de/attachment72814

Quelle: IDW 

(nach oben)


Forscher der Jacobs University finden Gadolinium aus MRT-Kontrastmitteln in Getränken aus Fast-Food-Restaurants

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Nachdem die Forschungsgruppe um Michael Bau, Professor für Geowissenschaften an der Jacobs University Bremen, Kontrastmittel-Gadolinium weltweit bereits in vielen Flüssen und auch im Trinkwasser einiger deutscher Städte nachweisen konnte, wurde sie jetzt auch in Nahrungsmitteln fündig. In Cola-Getränken aus Restaurants bekannter Fast-Food-Ketten in Berlin, Düsseldorf, Essen, Karlsruhe, München und Dresden konnte das Kontrastmittel-Gadolinium jetzt identifiziert werden. Gadolinium kommt insbesondere bei radiologischen Untersuchungen in der Magnetresonanztomographie (MRT) zum Einsatz.

Die gemessenen Konzentrationen sind nach aktuellem Wissensstand nicht gesundheitsgefährdend, jedoch ein Indikator für die mögliche Anwesenheit anderer Rückstände aus dem Abwasser in den Getränken.

Kontrastmittel sind aus der medizinischen Diagnostik nicht mehr wegzudenken, die verbrauchten Mengen steigen von Jahr zu Jahr. Das gilt auch für MRT-Kontrastmittel, die auf dem Selten-Erd-Element Gadolinium basieren. Patienten scheiden es im Krankenhaus oder zuhause wieder aus und mit dem Abwasser gelangt es in die lokalen Klärwerke. Diese können die Kontrastmittel, wie auch manch andere Arzneimittelrückstände, nicht aus dem Wasser entfernen und leiten sie mit dem vermeintlich gereinigten Abwasser in Flüsse und Seen ein. Dies ist ein weltweites Phänomen, wie viele Untersuchungen von Michael Bau und seiner Forschungsgruppe an der Jacobs University belegen.

Von den Flüssen wird ein Teil dieses Gadoliniums ins Meer eingetragen, wo es beispielsweise bereits die Nordsee verunreinigt, während es mit dem versickernden Flusswasser auch ins Grundwasser gelangt. Durch die Trinkwassergewinnung aus Grundwasser und Uferfiltrat findet sich das Kontrastmittel-Gadolinium letztlich auch im Leitungswasser. Dies haben Michael Bau und seine Mitarbeiterinnen Katja Schmidt, Gila Merschel und Nathalie Tepe nun nach Berlin, Essen, Köln und London auch für die Städte Bremen, Düsseldorf, Dresden, Karlsruhe und München nachgewiesen.

Zudem belegen aktuelle Daten für Berlin, dass das Trinkwasser in einzelnen Berliner Bezirken, wie zum Beispiel in Proben vom Bahnhof Zoo oder der Clay Allee, nicht nur die weltweit höchsten im Leitungswasser gemessenen Anteile (99 Prozent) an anthropogenem – also durch Menschen verursachtem – Gadolinium aufweist, sondern dass diese in den vergangenen Jahren nochmals deutlich zugenommen haben. Aber auch in den anderen untersuchten Städten stammt ein Teil des Gadoliniums im Trinkwasser aus MRT-Kontrastmitteln: 31 Prozent in Bremen, 34 Prozent in Karlsruhe, 63 Prozent in Dresden, 85 Prozent in Düsseldorf und 91 Prozent in München. Und weil die Zahl der MRT Untersuchungen weiter ansteigt, wird sich dieser Trend zu höheren Kontrastmittelkonzentrationen im Trinkwasser weiter verstärken.

Das Hauptaugenmerk der jetzt in der renommierten internationalen Fachzeitschrift „Science of the Total Environment“ veröffentlichten Studie lag allerdings auf der Frage, ob in verschiedenen deutschen Ballungszentren das Kontrastmittel-Gadolinium über das Trinkwasser auch in Nahrungsmittel gelangen kann. Dafür wurden in den Städten Berlin, Düsseldorf, Essen, Karlsruhe, München und Dresden Cola-Getränke aus Filialen bekannter Fast-Food-Ketten untersucht und mit den Leitungswasserproben aus dem jeweiligen Stadtteil verglichen. Das Ergebnis ist eindeutig: Die Getränke zeigen nahezu dieselben Gehalte an Kontrastmittel-Gadolinium wie das jeweils lokale Leitungswasser.

Für den Geochemiker Michael Bau ist das wenig überraschend: „In Filialen von Schnellrestaurants wird der Cola-Sirup mit Leitungswasser und CO2 vermischt. Obwohl die Restaurants angeben, dass dieses Leitungswasser zuvor zusätzlich gereinigt wird, ist dieser Reinigungsschritt offensichtlich nicht in der Lage, die Kontrastmittelrückstände zu entfernen.“
Auch wenn das Gadolinium in den gemessenen Konzentrationen nach jetzigem Wissensstand gesundheitlich unproblematisch ist, so ist es doch ein Indikator dafür, dass auch andere chemische Substanzen aus dem Abwasser im Trinkwasser und damit zubereiteten Nahrungsmitteln sein können. „Dies sind zum Beispiel Arzneimittelrückstände und besonders die sogenannten ‚endokrinen Disruptoren‘, die bei Menschen und Tieren hormonähnliche Wirkungen haben und im Gegensatz zum Kontrastmittel-Gadolinium schon in sehr geringen Konzentrationen die Gesundheit beeinflussen“, sagt Bau. Insofern, meint Bau, sei das anthropogene Gadolinium dabei hilfreich, Grund- und Trinkwasser aber auch Nahrungsmittel auf die mögliche Anwesenheit sogenannter „abwasserbürtiger“ Stoffe zu testen – also Verunreinigungen, die auch nach Durchlauf einer Kläranlage noch im Wasser vorhanden sind.

Gadolinium und andere Selten-Erden gehören zur Gruppe der „kritischen Metalle“, wie Niob, Antimon, Gallium oder Germanium, die für moderne Hochtechnologien und damit für Energiewende, Elektromobilität und Digitalisierung nahezu unersetzlich sind, für die aber keine Versorgungssicherheit besteht. Während dies zu verstärkten Anstrengungen im Bereich Rohstoffsuche und Recycling geführt hat, ist über die Verbreitung und das Verhalten der kritischen Metalle in der Umwelt nur wenig bekannt. Eine integrierte Betrachtung sowohl der Rohstoff- als auch der Umweltproblematik ist einer der Schwerpunkte in der Forschungsgruppe Rohstoff- und Umweltgeochemie an der Jacobs University Bremen, die im vielfach ausgezeichneten Earth and Environmental Science Programm angesiedelt ist.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Michael Bau
Jacobs University Bremen, Campus Ring 1, 28759 Bremen
Tel. +49 (0)421 2003564
Email: m.bau@jacobs-university.de

Originalpublikation:

K. Schmidt, M. Bau, G. Merschel, N. Tepe, 2019. Anthropogenic gadolinium in tap water and in tap water-based beverages from fast-food franchises in six major cities in Germany. Science of the Total Environment.
https://www.sciencedirect.com/science/article/pii/S0048969719331882

Anhang
Gadolinium Verteilung in Deutschland nach Regionen
https://idw-online.de/de/attachment72811

Quelle: IDW 

(nach oben)


Erfolgsfaktor Mensch – Wie die Transformation von Arbeitswelten gelingt

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

Fraunhofer IAO ermittelt Erfolgsfaktoren für den Wandel von Arbeitswelten
Die aktuelle Studie des Fraunhofer IAO unter 1600 Büroarbeitenden zeigt auf: Ist die Unternehmensleitung treibende Kraft der gewünschten Veränderungen im Unternehmen und können sich die Mitarbeitenden wirkungsvoll in den Wandel einbringen, werden sowohl neu eingeführte Arbeitstechnologien als auch eine Vielfalt in der Arbeitsumgebung intensiver genutzt. Darüber hinaus intensiviert sich auch die Kollaboration unter den Mitarbeitenden enorm.

Die Arbeitswelt unterliegt einem rasanten Wandel. Mehr Flexibilität im Arbeitsalltag und neue Führungskonzepte sind nur einige Schlüsselbegriffe, die in der öffentlichen Debatte fallen. Um den Weg für Veränderungen in der Arbeitswelt freizumachen, müssen verkrustete Strukturen zwingend aufgebrochen und transformiert werden. Viele Unternehmen und Organisationen möchten die Chance ergreifen, die eigene Organisation zukunftsfähig zu gestalten. Aber wie kann eine erfolgreiche Umsetzung von wirksamen Arbeitswelten gelingen? Diese wesentliche Fragestellung hat das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO im Rahmen der Studie »Transformation von Arbeitswelten« untersucht.

Die Unternehmensleitung als treibende Kraft von Veränderungen
Grundlage der Studie ist die Befragung von rund 1600 Büroarbeitenden aus allen Hierarchieebenen, Funktionsbereichen und vielen verschiedenen Branchen. Je gesamtheitlicher und konsequenter die Veränderungen der Arbeitsgestaltung in der Organisation angegangen wird, umso stärker gelingt die Transformation hin zu einer höheren Nutzungsintensität von technologischen und räumlichen Infrastrukturen sowie zu einer stärkeren Kollaborationsintensität in der Belegschaft – auch über Abteilungsgrenzen hinweg.

Eine transformationale Führung der Organisation trägt maßgeblich dazu bei, dass der Wandel überhaupt vollzogen wird. Hierbei ist die oberste Führungsebene in der Organisation die treibende Kraft der geplanten Veränderungen – z. B. stellt sie sicher, dass einzelne Neuerungen im Unternehmen aufeinander abgestimmt sind, ausreichend Ressourcen für die erfolgreiche Umsetzung von Veränderungsprojekten zur Verfügung stehen, lebt die angestrebten Handlungsweisen sichtbar vor und vieles mehr. Organisationen ohne diesen Erfolgsfaktor nutzen technologische und räumliche Infrastrukturen weniger intensiv und weisen eine niedrigere Kollaborationsintensität in der Belegschaft auf.

Ein erfolgreicher Wandel braucht eine aktiv mitwirkende Belegschaft
Die umfangreiche Partizipation der Menschen an den Veränderungen ist ebenfalls ein kritischer Erfolgsfaktor für den Veränderungsprozess. Der Wandel kann umso besser gelingen, je stärker die Menschen in der Organisation die Arbeit mitgestalten und ihre Arbeitsanforderungen einfließen lassen. Bislang wird die Belegschaft vorwiegend bei Entscheidungen einbezogen, die sich auf sie persönlich auswirken. Dabei ist es ebenso bedeutsam, sie bei Entscheidungen einzubeziehen, die das gesamte Unternehmen betreffen.

Eckdaten zur Studie
Die Studie erfasste die Angaben von 1676 Unternehmens- oder Organisationsleitungen, Führungskräften und Angestellten in der Büro- und Wissensarbeit aus völlig unterschiedlichen Unternehmen vieler verschiedener Branchen. Bei allen Teilnehmenden fanden in den letzten drei Jahren Veränderungen im Bereich der Arbeitsgestaltung statt – organisatorisch, technologisch und/oder räumlich. Der Frauenanteil liegt bei ca. 45 Prozent, ebenfalls ca. 45 Prozent der Teilnehmenden stammen aus KMUs bis 500 Mitarbeitende, ca. 55 Prozent aus Großunternehmen bis über 50.000 Mitarbeitende. Das Studiendesign umfasst zwei verschiedene Stichproben. Die erste Stichprobe besteht aus 1028 Personen mit einer aktiven Rolle in einem Veränderungsprojekt (z. B. Projektmitarbeitende, Projektleitungen, oberste Entscheidungsebene in einem Projekt). In der zweiten Stichprobe befinden sich 648 Personen, die nicht aktiv an einem Veränderungsprojekt mitgewirkt.

Wissenschaftliche Ansprechpartner:
Stephanie Wackernagel
Workspace Innovation
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-5467
E-Mail: Stephanie.Wackernagel@iao.fraunhofer.de

Udo-Ernst Haner
Forschungskoordination
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-5470
E-Mail: udo-ernst.haner@iao.fraunhofer.de

Originalpublikation:
Wackernagel, Stephanie; Haner, Udo-Ernst: Ergebnisbericht zur Studie »Transformation von Arbeitswelten«. Faktoren für einen erfolgreichen Wandel in Organisationen
https://www.iao.fraunhofer.de/images/iao-news/transformation-von-arbeitswelten-s…

Weitere Informationen:
https://www.iao.fraunhofer.de/lang-de/presse-und-medien/aktuelles/2182-erfolgsfa…

Quelle: IDW 

(nach oben)


Kaum Wasser unterm Kiel – Messungen im Extrembereich / Helmholtz-Forscher starten neuntägige Messkampagne auf der Elbe

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Auf mehr als 580 Kilometer zieht sich die Elbe von der deutsch-tschechischen Grenze in Schmilka bis nach Geestnacht kurz vor Hamburg. Wie sich das extreme Niedrigwasser auf die Wasserqualität auswirkt, ist eine der zentralen Fragen, auf die Wissenschaftler des UFZ Antworten finden wollen. Sie starten deshalb heute ihre neuntägige Fahrt auf dem UFZ-Forschungsschiff Albis. Eingebettet ist die Messkampagne in die MOSES-Initiative, bei der Wissenschaftler*innen aus neun Helmholtz-Zentren u.a. untersuchen, wie sich infolge des Klimawandels hydrologische Extremereignisse (Hoch-, Niedrigwasser) auf die Wasserqualität der Binnengewässer, den Boden und den stofflichen Eintrag ins Meer auswirken.

An 24 Standorten von Schmilka bis Geesthacht, jeweils links- und rechtsseitig sowie mittig der Elbe, werden die UFZ-Wissenschaftler Proben nehmen. In Absprache mit den Landesbehörden in Sachsen und Sachsen-Anhalt messen sie mit einer Multiparametersonde Temperatur, Sauerstoff, die Konzentrationen schwebender Algen oder die Trübung des Fließgewässers sowie chemische Parameter von Wasserproben wie partikuläre und gelöste Nährstoffe, Schwermetalle, seltene Erden und Mikroschadstoffe.

Ein Schwerpunkt der Messkampagne ist die Analyse von Phytoplankton, das sind im Wasser schwebende einzellige Algen. Sie dienen vielen Tieren im Gewässer als Nahrung und nehmen gleichzeitig Nährstoffe wie Phosphat und Nitrat auf. So kann moderates Algenwachstum einen positiven Einfluss auf das Gewässer haben. Übermäßiges Algenwachstum führt hingegen zu einer Abwertung der Wasserqualität – man spricht dann von Eutrophierung. Es kommt also für die Elbe und auch für die nachgelagerten Küstengewässer auf die richtige Balance an. Und diese kann durch ein extremes Niedrigwasser gestört werden. Im Fokus der Testfahrt steht zudem eine genaue Charakterisierung von gelöstem organischem Material. Dabei können die Wissenschaftler mithilfe hochauflösender Massenspektrometrie mehr als 1.000 Elementarkomponenten in diesen hoch komplexen Gemischen identifizieren und deren Veränderung entlang der Elbe auf bakterielle Aktivität und Biomasseproduktion zurückführen. Zusätzlich finden auf der Flussfahrt nach dem gleichen Schema auch Messungen an den Mündungen von Saale, Mulde, Schwarzer Elster und Havel statt. Diese Zuflüsse sind von großem Interesse, weil sie die Wasserqualität der Elbe stark beeinflussen können. So prägt beispielsweise die Saale als größter Zufluss die Elbe durch eine hohe Salzbelastung.

Anders als mit Standardmessungen vom Ufer aus ist es mit dieser Messfahrt möglich, sich über 580 Kilometer ein detailliertes Bild zu machen, welche Prozesse etwa bei der Umwandlung von Nährstoffen und Schadstoffen im Wasserkörper der Elbe ablaufen. Zudem fanden die Messkampagnen der vergangenen Jahre nie bei einem solch extremen Niedrigwasser statt. So liegt derzeit zum Beispiel in Magdeburg der Pegel bei rund 53 Zentimetern nur knapp über dem Rekordniedrigstand von 46 Zentimetern. „Die Umsetzung von Kohlen- und Stickstoff sowie Phosphor bei diesem extremen Niedrigwasser zu analysieren, ist für uns besonders interessant und hilft uns, Prognosen für zukünftige Extremsituationen zu erstellen“, sagt UFZ-Fließgewässerökologe Prof. Dr. Markus Weitere und Mitglied der MOSES-Arbeitsgruppe Hydrologische Extreme. Da bei diesem Wasserstand die Elbe sehr langsam fließe und stark besonnt sei, könnte es besonders in unteren Flussabschnitten zu starken Eutrophierungserscheinungen kommen.

Eingebettet ist die jetzige Elbe-Fahrt in weitere Testkampagnen, die im Rahmen der MOSES-Initiative im April und Juni zwischen der Elbemündung in Cuxhaven und Helgoland stattfanden und die im September noch um eine weitere Fahrt ergänzt werden soll. Beteiligt sind daran Helmholtz-Wissenschaftler auf Forschungsschiffen des Helmholtz-Zentrums Geesthacht, des Alfred-Wegener-Institut Helmholtz-Zentrums für Polar- und Meeresforschung und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel. „Die Testfahrten in diesem Jahr dienen dazu, wichtige wissenschaftliche Daten zu erheben und in Kooperation zwischen den Helmholtz-Einrichtungen die Abläufe der umfangreichen Messeinsätze zu üben“, sagt die MOSES-Projektleiterin Dr. Ute Weber. Sie seien zugleich Generalprobe für eine noch größere Elbe-Testkampagne, die im kommenden Jahr unter Leitung des UFZ stattfindet und an der weitere sieben an MOSES beteiligte Helmholtz-Einrichtungen dabei sein werden. Diese soll sich von Schmilka bis in die Nordsee erstrecken. Ziel wird dann sein, in einer Prozesskette die Auswirkungen auf terrestrische und marine Ökosysteme zu analysieren – beginnend von Starkregen- und Gewitter-Ereignissen an Land, über hydrologische Abflüsse bis hin zur Analyse einer Vielzahl von Stoffen, die in der Elbe und schließlich in der Nordsee landen.

MOSES steht für „Modular Observation Solutions for Earth Systems“. In dieser vom UFZ koordinierten Initiative bauen neun Forschungszentren der Helmholtz-Gemeinschaft zwischen 2017 und 2022 gemeinsam mobile und modular einsatzfähige Beobachtungssysteme auf, um die Auswirkungen zeitlich und räumlich begrenzter dynamischer Ereignisse, wie extremer Niederschlags- und Abflussereignisse, auf die langfristige Entwicklung von Erd- und Umweltsystemen zu untersuchen.

Aktuelle Informationen zu MOSES:
https://blogs.helmholtz.de/moses

Wissenschaftliche Ansprechpartner:
Prof. Markus Weitere
Leiter UFZ-Department Fließgewässerökologie
markus.weitere@ufz.de

Dr. Norbert Kamjunke
UFZ, Leiter Elbe-Kampagnen
norbert.kamjunke@ufz.de

Weitere Informationen:
https://blogs.helmholtz.de/moses

Quelle: IDW 

(nach oben)


IFA 2019: Eine bessere Haltung am Arbeitsplatz dank neuer Sensortechnik

Udo Urban DFKI Kaiserslautern
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI

Ob Schmerzen im Rücken, an Schultern oder Knien: Die falsche Haltung am Arbeitsplatz kann Folgen haben. Helfen kann ein Sensorsystem, an dem Forscher der TU Kaiserslautern und des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) arbeiten. Sensoren etwa an Armen, Beinen und Rücken ermitteln Bewegungsabläufe. Eine Software wertet die Daten aus. Über eine Smartwatch gibt das System dem Nutzer direkt Rückmeldung, damit er Bewegung oder Haltung korrigiert. Die Sensoren könnten in Arbeitskleidung und -schuhe eingebaut werden. Auf der Internationalen Funkausstellung (IFA) in Berlin stellen die Forscher die Technik vom 6. bis 11. September (IFA Next, Halle 26, Stand 324/325) vor.

Über seine Smartwatch soll der Nutzer direkt informiert werden, um seine Bewegung oder Haltung zu korrigieren. Die Forscher planen unter anderem, die Sensoren in Arbeitskleidung und -schuhe einzubauen. Interessant ist die Technik beispielsweise für Unternehmen in der Industrie, aber auch im Büroalltag am Schreibtisch kann sie helfen, mehr auf den eigenen Körper zu achten.

Bis die Technik erhältlich ist, wird es noch dauern. Die Arbeiten haben erst vor ein paar Monaten begonnen. Sie sind eingebunden in das Projekt BIONIC, das von der Europäischen Union gefördert wird. BIONIC steht für „Personalized Body Sensor Networks with Built-In Intelligence for Real-Time Risk Assessment and Coaching of Ageing workers, in all types of working and living environments“. Koordiniert wird es von Professor Didier Stricker, Leiter des Forschungsbereichs Augmented Vision/Erweiterte Realität am DFKI. Ziel ist es, ein Sensorsystem zu entwickeln, mit dem sich Fehlhaltungen und andere Belastungen am Arbeitsplatz reduzieren lassen.

Am Vorhaben beteiligt sind neben dem DFKI und der TUK: die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in Dortmund, das spanische Instituto de Biomechanica de Valencia, das Fundación Laboral de la Construcción, ebenfalls in Spanien, das Forschungszentrum Roessingh Research and Development an der Universität von Twente in den Niederlanden, das Systems Security Lab der griechischen Universität von Piräus sowie die Unternehmen Interactive Wear GmbH aus München, Hypercliq IKE aus Griechenland, ACCIONA Construcción S.A. aus Spanien und die Rolls-Royce Power Systems AG in Friedrichshafen.

Auf der IFA stellt das Team seine Technik vor. Sie präsentieren ihr Projekt am Gemeinschaftsstand des Messearbeitskreises Wissenschaft im Bereich „IFA Next“.

Fragen beantworten:
Mathias Musahl
DFKI / Forschungsbereich Augmented Vision/Erweiterte Realität
Tel.: 0631 20575 3606
Mathias.Musahl@dfki.de

Dr. Gabriele Bleser
TU Kaiserslautern / AG wearHEALTH
Tel.: 0631 205 3327
bleser@cs.uni-kl.de

Ergänzung vom 22.08.2019
3. Absatz: Abhilfe kann künftig eine Technik schaffen, an der ein Forscherteam des DFKI und der Technischen Universität Kaiserslautern (TUK) derzeit arbeitet. Zum Einsatz kommen Sensoren, die einfach an verschiedenen Körperstellen wie Armen, Wirbelsäule und Beinen aufgebracht werden. „Diese messen unter anderem Beschleunigungen und sogenannte Winkelgeschwindigkeiten. Diese Daten werden im Anschluss von unserer Software verarbeitet“, sagt Dr. Gabriele Bleser, die an der TUK die Arbeitsgruppe wearHEALTH leitet. Daraus berechnet sie Bewegungsparameter wie zum Beispiel Gelenkwinkel an Arm und Knie oder den Grad der Beugung oder Verdrehung der Wirbelsäule. „Die Technik erkennt dabei sofort, wenn eine Bewegung falsch ausgeführt oder eine falsche Haltung eingenommen wird“, fährt ihr Kollege Mathias Musahl vom Forschungsbereich Augmented Vision/Erweiterte Realität am DFKI fort.

Quelle: IDW 

(nach oben)


Vom Satellitenbild zum Trinkwasserkonzept

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Wasser ist eine der wichtigsten Ressourcen – als Trinkwasser oder zur Bewässerung in der Landwirtschaft. In einigen Regionen, die bereits mit Wasserknappheit kämpfen, ist die Versorgung etwa durch den Klimawandel stark gefährdet. Gleichzeitig steigt weltweit der Wasserbedarf. Für Trinkwasserkonzepte von Städten in Wassermangelregionen sind präzise Informationen über die Böden im Einzugsgebiet von Flüssen entscheidend. Sie zu bekommen, ist vor allem in unwegsamen Geländen bisher schwierig. Forscher des Karlsruher Instituts für Technologie (KIT) arbeiten an einer KI-basierten Methode, die anhand von Luftaufnahmen und Satellitenbildern verlässliche Angaben über Bodeneigenschaften machen kann.

„Einige Bodeneigenschaften können wir zwar jetzt schon mit herkömmlichen Bildanalysemethoden erhalten. Parameter wie etwa die Bodenfeuchte und Bodenart können wir jedoch nur durch aufwendige Proben erfassen“, sagt Felix Riese vom Institut für Photogrammmetrie und Fernerkundung (IPF) des KIT. Dies ist bei unwegsamem Gelände nur schwer oder gar nicht möglich. Hier setzt der Physiker in seinem Forschungsprojekt an: „Wir arbeiten an einer Künstlichen Intelligenz, die nur aus Satelliten- und Luftbildern Angaben über zum Beispiel die Bodenfeuchte, die Art der Vegetation oder die Bodenzusammensetzung ermittelt. Diese Zusammenhänge sind oft so komplex, dass ein Mensch sie nicht mit einem herkömmlichen Algorithmus beschreiben kann. Unsere KI soll sie selbstständig erkennen und miteinander verknüpfen.“

Bei einer gemeinsamen Kampagne mit dem Institut für Wasser und Gewässerentwicklung des KIT, die Riese koordinierte, haben die Forscherinnen und Forscher des KIT in Peru Bodenproben genommen. Außerdem haben sie ihr gesamtes Untersuchungsgebiet mit einer speziellen Kamera gescannt, die auf einem Hexakopter montiert ist. Sie macht Aufnahmen im Hyperspektralbereich und bildet das Hundertfache an sichtbaren Informationen im Vergleich zu normalen Kameras ab. „Mit diesen Daten trainieren wir die KI so lange, bis sie die Luftaufnahmen so auswertet, dass sie mit den von uns gemessenen Werten übereinstimmen.“

Um die Methode auch außerhalb der Testregion in Peru anwenden zu können, speisen Riese und seine Kolleginnen und Kollegen Daten aus Gebieten in die KI ein, die etwa trockener sind, oder eine andere Vegetation haben. „Wenn wir die KI richtig trainieren, sind mühsame und teure Messkampagnen vor Ort nicht mehr nötig, um genaue Informationen über den Zustand des Grundwassers zu ermitteln“, sagt Riese. Ziel ist, dass dafür ein Satellitenbild ausreicht. Diese Auswertungen könnten künftig beispielsweise die schnellere und günstigere Umsetzung von Trinkwasserkonzepten für Städte unterstützen.

TRUST: Trinkwasserversorgung nachhaltig, gerecht und ökologisch
Felix Rieses Forschung ist Teil des Projekts TRUST unter der Koordination von Sina Keller. Hier arbeiten Expertinnen und Experten verschiedener Einrichtungen und Disziplinen zusammen, um am Beispiel des Wassereinzugsgebiets der Region Lima/Peru ganzheitliche Planungswerkzeuge und neuartige, nachhaltige Wasserver- und Abwasserentsorgungskonzepte zu entwickeln, vor allem für die Trinkwasserversorgung. In TRUST arbeiten die Universität Stuttgart (Koordination), das KIT, das Technologiezentrum Wasser, Disy Informationssysteme GmbH, decon International GmbH, Ingenieurbüro Pabsch & Partner sowie die Ingenieurgesellschaft mbH zusammen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt.

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Originalpublikation:
https://www.kit.edu/kit/pi_2019_110_vom-satellitenbild-zum-trinkwasserkonzept.ph…

Anhang

Vom Satellitenbild zum Trinkwasserkonzept
https://idw-online.de/de/attachment72810

Quelle: IDW 

(nach oben)


Ausmaß eines Herzinfarkts unabhängig von Tageszeit

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.

Ob ein Herzinfarkt mitten in der Nacht oder am helllichten Tag auftritt, bestimmt nicht, wie schwer seine Folgen sind. Herausgefunden haben das Wissenschaftler des Deutschen Zentrums für Herz-Kreislauf-Forschung (DZHK) am Deutschen Herzzentrum München, Klinik an der Technischen Universität München (TUM).

Die Brust schmerzt und Tonnen scheinen auf dem Brustkorb zu liegen – so kann es sich anfühlen, wenn ein Herzinfarkt das Leben bedroht. In diesem Notfall gilt es, sofort die Rettungskräfte zu alarmieren. Am häufigsten treten die gefährlichen Attacken zwischen sechs Uhr morgens und zwölf Uhr mittags auf. Auch andere Herz-Kreislauf-Erkrankungen wie Herzrhythmusstörungen oder plötzlicher Herztod scheinen einem Tagesrhythmus zu folgen, sie ereignen sich ebenso gehäuft morgens oder vormittags. Einige Studien deuten außerdem darauf hin, dass der Zeitpunkt, zu dem die Beschwerden beginnen beziehungsweise der Herzinfarkt einsetzen, beeinflusst, wie Herzerkrankungen verlaufen. Privatdozent Dr. Hendrik Sager, Dr. Thorsten Kessler und ihre Kollegen sind diesem Aspekt genauer nachgegangen. In einer Studie mit rund 1.200 Patienten haben sie untersucht, ob die Uhrzeit, zu der sich der Herzinfarkt ereignet, auch bestimmt, welche Folgen er hat. Sie kommen zu dem Ergebnis, dass es nicht von der Tageszeit abhängt, wie ein Herzinfarkt sich langfristig auswirkt.

Für ihre Untersuchung haben die Wissenschaftler den Tag in vier Zeitfenster unterteilt: 0 bis 6 Uhr, 6 bis 12 Uhr, 12 bis 18 Uhr und 18 bis 24 Uhr. In allen untersuchten Fällen lag ein sogenannter ST-Hebungsinfarkt (STEMI) vor und ein verschlossenes Blutgefäß im Herzen, nämlich ein Herzkranzgefäß, löste den Infarkt aus. Dadurch wird das Herz schlechter durchblutet und Herzmuskelzellen sterben ab.

Blutfluss sichtbar machen
Bei einem Herzinfarkt eröffnen die Ärzte das verschlossene Blutgefäß mithilfe eines Katheters. Noch vor diesem Eingriff bekamen alle Studienteilnehmer eine Substanz gespritzt. Die Substanz reichert sich im Herzen überall da an, wo das Blut fließt. Dadurch konnten die Mediziner bei der anschließenden Aufnahme des Herzens mit einer speziellen Kamera bestimmen, welche Bereiche des Herzens nicht durchblutet sind. Sieben Tage nach dem Eingriff verabreichten sie die Substanz erneut, um zu beurteilen, welche Bereiche des vormals nicht durchbluteten Herzgewebes durch das Wiedereröffnen des verschlossen Herzkranzgefäßes gerettet werden konnten. Außerdem ermittelten Sager und seine Kollegen auch, wie viele der Patienten nach fünf Jahren noch lebten. Hiermit konnten sie Rückschlüsse ziehen, ob die Tageszeit, zu der ein Herzinfarkt auftritt, die langfristige Prognose verändert. „Natürlich gibt es viele Faktoren, die bestimmen, wie schwer ein Herzinfarkt verläuft“, sagt DZHK-Wissenschaftler Sager. „Etwa wie lange es dauert, bis das Gefäß wiedereröffnet wird oder welches der drei Herzkranzgefäße verschlossen ist. Diese Faktoren haben wir herausgerechnet.“

Bisherige Studien lieferten widersprüchliche Ergebnisse, ob sich die Tageszeit auf Infarktgröße und Überlebensrate auswirkt. Den Grund hierfür sieht Sager in den zu kleinen Patientenkollektiven und zu kurzen Beobachtungszeiträumen dieser Untersuchungen. Mit ihrer umfangreichen Analyse haben die Forscher nun erstmals eindeutig geklärt, dass die Tageszeit den Verlauf eines Herzinfarktes nicht beeinflusst und die Ärzte bei der Behandlung ihrer Patienten nicht berücksichtigen müssen, zu welcher Uhrzeit der Herzinfarkt auftrat.

Wissenschaftliche Ansprechpartner:
PD Dr. Hendrik Sager, Dr. Thorsten Kessler, Klinik für Herz- und Kreislauferkrankungen, Deutsches Herzzentrum München, Klinik an der Technischen Universität München, hendrik.sager@tum.de, thorsten.kessler@tum.de

Originalpublikation:
Time-of-day at symptom onset was not associated with infarct size and long-term prognosis in patients with ST-segment elevation myocardial infarction. Sager HB, Husser O, Steffens S, Laugwitz KL, Schunkert H, Kastrati A, Ndrepepa G, Kessler T. J Transl Med. 2019 May 29;17(1):180. DOI: 10.1186/s12967-019-1934-z

Weitere Informationen:

https://dzhk.de/aktuelles/news/artikel/ausmass-eines-herzinfarkts-unabhaengig-vo…

Quelle: IDW 

(nach oben)


1,8-Millionen-Euro-Projekt zur Anpassung des Wasserspeichers Harz an den Klimawandel startet

Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal

Das Projekt „Energie- und Wasserspeicher Harz“ (EWAZ) hat ein Gesamtvolumen von 1,8 Millionen Euro und wird in den kommenden drei Jahren mit rund 1,6 Millionen Euro durch Fördermittel aus dem Europäischen Fonds für regionale Entwicklung (EFRE) sowie aus Landesmitteln finanziert werden. Frau Dr. Sabine Johannsen, Staatssekretärin im Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK), informierte sich über das Forschungsvorhaben anlässlich der Kick-off-Veranstaltung am 28. August auf dem EnergieCampus der TU Clausthal in Goslar. Zudem übergab sie die Bewilligungsbescheide.

Das Projekt „Energie- und Wasserspeicher Harz“ (EWAZ) hat ein Gesamtvolumen von 1,8 Millionen Euro und wird in den kommenden drei Jahren mit rund 1,6 Millionen Euro durch Fördermittel aus dem Europäischen Fonds für regionale Entwicklung (EFRE) sowie aus Landesmitteln finanziert werden. Frau Dr. Sabine Johannsen, Staatssekretärin im Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK), informierte sich über das Forschungsvorhaben anlässlich der Kick-off-Veranstaltung am 28. August auf dem EnergieCampus der TU Clausthal in Goslar. Zudem übergab sie die Bewilligungsbescheide.

Hintergrund des Projektes sind die Auswirkungen des Klimawandels im Harz, wie sie in den Jahren 2017 und 2018 aufgetreten sind. Erst traf die Region ein Jahrtausend-Hochwasser, darauf folgte eine Dürreperiode mit Minusrekorden beim Niederschlag. Jetzt erforschen die TU Clausthal, die TU Braunschweig sowie die Ostfalia Hochschule für angewandte Wissenschaften gemeinsam mit den Kooperationspartnern Harzwasserwerke und HarzEnergie, wie sich der Harz mit seinen multifunktionalen Aufgaben im Bereich der Wasserwirtschaft und des Energiesystems an den Klimawandel anpassen kann. Denn der Wasserspeicher Harz nimmt seit Jahrzehnten Aufgaben zum Hochwasser- und Niedrigwasserschutz sowie zur Trinkwasser- und regenerativen Energiebereitstellung wahr. „Auch an der TU Clausthal zählt Wasser zu den zentralen Themen, dessen historische Bedeutung für das Umfeld durch das Oberharzer Wasserregal nachhaltig dokumentiert ist. Heute beschäftigen wir uns in Lehre und Forschung mit Wasser als Ressource unter aktuellen Aspekten bis hin zum Einsatz von Wasserkraft, z.B. zum Betrieb von untertägigen Pumpspeichern für erneuerbare Energie“, so Professor Joachim Schachtner, Präsident der TU Clausthal.

Das Projekt EWAZ ist nach einer wettbewerblichen Ausschreibung der EFRE-Innovationsrichtlinie des MWK ausgewählt worden. Das Thema lautete „Energieversorgung neu denken – Forschung und Entwicklung für eine ressourcen- und umweltschonende, zuverlässige und saubere Energieversorgung sowie intelligente Speicherung und Netzstrukturen“. Über drei Jahre wird der Harz nun in verschiedenen Arbeitsschritten untersucht. Meteorologische Klimaszenarien werden beleuchtet, Systemoptimierungen ermittelt und mögliche Verbesserungen im Kontext mit sozio- und ökonomischen Fragen bewertet. „Die Region Harz ist für ein derartiges Vorhaben, das sich aktuellen gesellschaftlichen und wirtschaftlichen Herausforderungen im Zusammenhang mit Klimawandel und Energiewende widmet, aufgrund seiner Geschichte und geologischen Gegebenheiten prädestiniert“, sagte Staatssekretärin Dr. Johannsen.

„Es stellt sich für die Harzwasserwerke und das Land Niedersachsen die Grundsatzfrage, wie der Wasserspeicher Harz zunächst im Westteil mittelfristig ertüchtigt werden muss, um seine vielfältigen Funktionen bei zunehmenden Extremwetterereignissen auch zukünftig verlässlich erfüllen zu können“, erläuterte Professor Hans-Peter Beck, der Leiter des Projektes. Durch den jahrhundertelangen Bergbau existieren im Harz eine Vielzahl von unterirdischen Stollen und Schächten, die zum Beispiel mit Talsperren verbunden werden können, um Wasser noch besser zu verteilen. Schon im Zuge der extremen Trockenheit im vergangenen Jahr haben die Harzwasserwerke das vernetzte System von Teichen und Gräben der Oberharzer Wasserwirtschaft, auch Wasserregal genannt, genutzt. Neben der Verbesserung bereits existierender Anlagen thematisiert das Projekt mögliche Neubauten und Erweiterungen von Talsperren.

„Das Vorhaben adressiert mit der systemischen Betrachtung von Energie- und Wasseranwendungen die wissenschaftlichen Themengebiete der TU Clausthal“, sagte Dr. Jens zum Hingst, der stellvertretende Projektleiter. Die Kombination von Stoff und Energie (allgemein Power-to-X, hier X = Wasser) stellt schon lange einen Schwerpunkt an der Harzer Universität dar, der mit diesem Projekt weiter ausgebaut werden soll. Insbesondere erfolgt hier eine Zusammenarbeit der relevanten Forschungszentren EST (Forschungszentrum Energiespeichertechnologien) und CUTEC (Clausthaler Umwelttechnik Forschungszentrum) innerhalb der TU Clausthal. Das transdisziplinäre Projekt ist für die Harzregion von wirtschaftlicher Bedeutung und bietet ein Alleinstellungsmerkmal auf nationaler und internationaler Ebene zur Kopplung von Wasser und Energie.

Geplant ist, in spätestens zwei Jahren mit ersten praktikablen Lösungsvorschlägen an die Öffentlichkeit zu gehen. „Wir haben zu diesem stringenten Vorgehen in der Vergangenheit in dem ebenfalls öffentlich geförderten Projekt ,Pumpspeicher unter Tage‘ in Kooperation mit der HarzEnergie Erfahrungen gesammelt“, bekräftigte der damalige und heutige Leiter des Vorhabens. Das seinerzeit entwickelte untertägige Pumpspeicher-Kraftwerk konnte allerdings aus Kostengründen nicht gebaut werden. Dies könnte vor dem Hintergrund des Klimawandels und aus volkswirtschaftlicher Sicht betrachtet heute anders aussehen.

Wissenschaftliche Ansprechpartner:
Prof. Hans-Peter Beck
Forschungszentrum Energiespeichertechnologien (EST)
hans-peter.beck@tu-clausthal.de

Quelle: IDW 

(nach oben)


Jeder Mensch hört anders gut!

Christian Colmer Press & Public Relations
Fraunhofer-Institut für Digitale Medientechnologie IDMT

Einfach zum persönlichen Wohlklang mit dynamischen Hörprofilen
Der Institutsteil Hör-, Sprach- und Audiotechnologie des Fraunhofer IDMT in Oldenburg entwickelt Algorithmen für Hörprofile, die sich automatisch und dynamisch an das akustische Eingangssignal anpassen. Trägern von Hörhilfen, Kopfhörern und Hearables ermöglicht dies einen einfachen Weg zu persönlichem Wohlklang und guter Sprachverständlichkeit. Die Humantechnik GmbH aus Weil am Rhein präsentiert diese gemeinsam weiterentwickelte Technologie aktuell in einem neuen Kinnbügel-Kopfhörer für häusliche Anwendungen.

Jeder Mensch hört anders gut. Aber wie genau, und welche Konsequenzen ergeben sich dadurch für die Entwicklung von Audio-Geräten? Die Medienaffinität der Menschen wächst und bleibt auch im Alter erhalten. Das Hörvermögen hingegen nimmt ab und Klangpräferenzen können sich im Laufe der Lebensphasen oder sogar situationsabhängig ändern. Eine Tatsache, die in bisherigen Hörsystemen nur wenig Beachtung findet. Gleichzeitig ist die einfache Bedienbarkeit für optimales, individuelles Hören wichtig für die Endnutzer.

Individueller Klangkomfort, „adaptive“ Algorithmen
In mehrstufigen Anpassungsexperimenten hat das Fraunhofer IDMT in Oldenburg Klangpräferenzen ermittelt, welche die gängigsten Facetten persönlichen Wohlklangs abbilden. Diese stellen die Grundlage für intelligente und dynamische Presets dar, die über ein leicht bedienbares Interface in Produkte integriert werden können, z.B. in TV-Hörsystemen. Besonders angenehm für den Endnutzer: Auch beim Umschalten oder bei Werbeeinblendungen werden Klang- und Lautstärkeeigenschaften automatisch an die Hörpräferenzen angepasst.

»Unsere Algorithmen haben wir für Menschen entwickelt, die Wert auf guten Klang und beste Sprachverständlichkeit legen. Das können Träger von Headsets im Call Center sein, aber auch Nutzer von Hörhilfen, Kopfhörern für den Fernseh- oder Musikkonsum und das Telefonieren oder anderer Hearables. Damit schaffen wir eine neue Ebene des Klangkomforts, von der sowohl Normalhörende als auch Hörbeeinträchtigte profitieren.« sagt Dr. Jan Rennies-Hochmuth, Gruppenleiter Persönliche Hörsysteme am Fraunhofer IDMT.

Unter dem Namen »earis®« stellt das Unternehmen Humantechnik GmbH derzeit ein in der Zusammenarbeit mit dem Fraunhofer IDMT in Oldenburg entwickeltes TV-Hörsystem vor. Dabei handelt es sich um einen Kinnbügel-Kopfhörer und einen Pocket-Empfänger, der auch mit anderen Kopfhörern genutzt werden kann.

„Individueller Bedienkomfort und höchste Klangqualität: diese Attribute verbinden wir mit unserem TV-Hörsystem »earis«. Das Audio-Know-How und die innovativen Algorithmen für den persönlichen Wohlklang auf Tastendruck kommen vom Fraunhofer IDMT.“ erklärt Gerhard Sicklinger, Geschäftsführer Humantechnik GmbH.

Ein großes Stellrad ermöglicht die einfache Lautstärkeregelung. Das Novum: Die fünf voreingestellten Hörprofile, über eine Drucktaste leicht und intuitiv einzustellen, sind nicht statisch, sondern dynamisch angelegt. Ein vom Institutsteil Hör-, Sprach- und Audiotechnologie des Fraunhofer IDMT speziell für Nutzer mit nachlassendem Hörvermögen entwickelter Algorithmus passt den Klang kontinuierlich und dynamisch entsprechend der persönlichen Einstellungen des Fernsehzuschauers an. Auch bei verändernden akustischen Situationen sorgt er stets automatisch für eine Anpassung auf die individuell empfundene beste Hörqualität.

Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg
Ziel des Institutsteils Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer IDMT ist es, wissenschaftliche Erkenntnisse über die Hörwahrnehmung und Mensch-Technik-Interaktionen in technologischen Anwendungen umzusetzen. Schwerpunkte der angewandten Forschung sind die Verbesserung von Klang und Sprachverständlichkeit, die personalisierte Audiowiedergabe sowie die akustische Sprach- und Ereigniserkennung mit Hilfe künstlicher Intelligenz (KI). Einen weiteren Fokus setzt der Institutsteil auf mobile Neurotechnologien, um auch außerhalb des Labors Gehirnaktivitäten zu erfassen und die dabei gewonnen Daten zu nutzen. Zu den Anwendungsfeldern gehören Consumer Electronics, Verkehr, Automotive, Produktion, Sicherheit, Telekommunikation und Gesundheit. Über wissenschaftliche Kooperationen ist das Fraunhofer IDMT-HSA eng mit der Carl von Ossietzky Universität, der Jade Hochschule und anderen Einrichtungen der Oldenburger Hörforschung verbunden. Das Fraunhofer IDMT-HSA ist Partner im Exzellenzcluster »Hearing4all«.

Weitere Informationen auf www.idmt.fraunhofer.de/hsa

Kontakt für die Medien:
Christian Colmer
Leiter Marketing & Public Relations

Fraunhofer-Institut für Digitale Medientechnologie IDMT
Institutsteil Hör-, Sprach- und Audiotechnologie HSA
Marie-Curie-Str. 2
26129 Oldenburg

Telefon +49 441 2172-436
christian.colmer@idmt.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr. Jan Rennies-Hochmuth
Gruppenleiter Persönliche Hörsysteme
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Institutsteils Hör-, Sprach- und Audiotechnologie HSA

Marie-Curie-Straße 2
26129 Oldenburg

Telefon +49 441 2172-433
jan.rennies-hochmuth@idmt.fraunhofer.de

Weitere Informationen:

http://www.idmt.fraunhofer.de/hsa

Quelle: IDW 

(nach oben)


Klimawandel beeinflusst Überschwemmungen

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Ein internationales Forschungsprojekt zeigt erstmals in großem Umfang, dass der Klimawandel das Ausmaß der Hochwasserereignisse in Europa verändert. Demnach nehmen Hochwasserereignisse in Nordwesteuropa zu und in Südosteuropa ab. Die Studie, an der auch Bruno Merz vom Deutschen GeoForschungsZentrum GFZ beteiligt war, erscheint in der Zeitschrift Nature.

Der Klimawandel beeinflusst nicht nur das zeitliche Muster von Überschwemmungen, sondern auch ihr Ausmaß. Das zeigt eine internationale Studie, die Daten von mehr als 3.700 Hochwassermessstellen aus ganz Europa in einem Zeitraum von 50 Jahren auswertete. Demnach nehmen Hochwasserereignisse in Nordwesteuropa zu und in Südosteuropa ab. Die Studie, an der auch Bruno Merz vom Deutschen GeoForschungsZentrum GFZ beteiligt war, erscheint in der Zeitschrift Nature.

Über die Ufer tretende Flüsse verursachen weltweit jedes Jahr rund 100 Milliarden Dollar Schaden. Und schon länger vermuten Forschende, dass der Klimawandel das Problem verschärfen könnte. Doch es fehlten Daten. „Nachdem wir vor zwei Jahren zeigen konnten, dass sich die zeitlichen Muster ändern, haben wir gemeinsam mit internationalen Kolleginnen und Kollegen jetzt nachgewiesen, dass auch die Schwere der Ereignisse vom Klimawandel beeinflusst wird“, sagt Bruno Merz, Leiter der Sektion Hydrologie am GFZ. Er war an der Studie beteiligt, die von Günter Blöschl aus Wien geleitet wurde. Blöschl, der an der Technischen Universität Wien forscht, war sechs Jahre lang Mitglied des wissenschaftlichen Beirats des GFZ und ist Helmholtz International Fellow am GFZ. Der österreichische Hochwasserexperte sagt: „Unabhängig von den notwendigen Anstrengungen zur Bekämpfung des Klimawandels werden wir in den kommenden Jahrzehnten die Auswirkungen dieser Veränderungen sehen. Das Hochwassermanagement muss sich an diese neuen Gegebenheiten anpassen.“

Die Studie von 35 Forschungsgruppen aus ganz Europa wertete Daten von 3738 Hochwassermessstellen in ganz Europa aus. Die Daten umfassen fünfzig Jahre zwischen 1960 und 2010. „Es wird seit langem vermutet, dass der Klimawandel Auswirkungen auf das Ausmaß von Hochwasser hat, da eine wärmere Atmosphäre mehr Wasser speichern kann“, erklärt Günter Blöschl. „Aber das ist nicht der einzige Effekt, Hochwasseränderungen sind komplizierter.“

Die Auswertung der Daten ergab unterschiedliche Trends in den verschiedenen Regionen Europas: In Mittel- und Nordwesteuropa, zwischen Island und den Alpen, nehmen die Überschwemmungen zu, weil die Niederschläge zunehmen und die Böden feuchter werden. In Südeuropa hingegen sinken die Hochwasserstände tendenziell – denn der Klimawandel führt dort zu sinkenden Niederschlägen und die höheren Temperaturen führen zu einer erhöhten Verdunstung des Bodenwassers. Bei kleinen Flüssen können die Überschwemmungen jedoch aufgrund häufigerer Gewitter und Veränderungen im Landmanagement (z.B. Entwaldung) größer werden.

Im kontinentaleren Klima Osteuropas sinken auch die Überschwemmungsniveaus, was auf weniger Schnee im Winter zurückzuführen ist. „Es gibt in ganz Europa klare Muster des Hochwasserrisikos, die mit den prognostizierten Auswirkungen des Klimawandels übereinstimmen“, sagt Blöschl. Bisher reichten die Daten nicht aus, um festzustellen, ob sich beides – Ausmaß und zeitliches Muster – von Hochwasserereignissen europaweit verändert. Jetzt sagen die Autorinnen und Autoren: Ja, die Auswirkungen des Klimawandels sind hier deutlich sichtbar.

Das Ausmaß der Hochwasseränderungen ist bemerkenswert: Sie reichen von einem Rückgang des erwarteten Hochwasserniveaus um 23% pro Jahrzehnt bis zu einem Anstieg um 11% pro Jahrzehnt (im Vergleich zu den langfristigen Durchschnittswerten). Wenn sich diese Trends auch in Zukunft fortsetzen, sind in vielen Regionen Europas erhebliche Auswirkungen auf das Hochwasserrisiko zu erwarten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bruno Merz
E-Mail: bruno.merz@gfz-potsdam.de
Telefon: 0331 288-1500

Originalpublikation:
Originalstudie: G. Blöschl et al.: „Changing climate both increases and decreases European river floods“ in Nature, 2019; DOI: 10.1038/s41586-019-1495-6

Quelle: IDW 

(nach oben)


Dresdner Studie zu Kopfschmerz bei Kindern und Jugendlichen: nur wenige Betroffene suchen Hilfe bei einem Arzt

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

Schmerz-Experten des Universitätsklinikums Carl Gustav Carus Dresden beklagen ein mangelndes Bewusstsein der Gesellschaft für die Kopfschmerzproblematik bei Kindern und Jugendlichen. Ein Team des Universitäts SchmerzCentrums und der Klinik für Kinder- und Jugendmedizin stellte im Rahmen einer im Frühjahr 2019 in der Fachzeitschrift „Cephalalgia“ publizierten Studie (doi: 10.1177/0333102419837156) fest, dass über ein Fünftel aller Kinder und Jugendlichen, die mehr als zweimal im Monat Kopfschmerzen hatten, aufgrund dieses Problems häufiger in der Schule fehlten.

Bleiben die Kopfschmerzen unbehandelt, geraten Betroffene in einen Teufelskreis: Schulfehltage können zu Leistungsabfall, Schulversagen, Schulangst führen, viele betroffene Kinder isolieren sich sozial, auch die Gefahr einer Depression ist erhöht. Umso wichtiger sind eine rechtzeitige ärztliche Diagnose und individuelle Therapie dieser Kinder und Jugendlichen. Doch die Dresdner Studie zeigt, dass nahezu alle Kinder, die nur einmal im Monat Kopfschmerzen aufwiesen, und etwa 80 Prozent derjenigen, die mehr als zweimal im Monat unter Kopfschmerzen litten, keinen Arzt aufgesucht hatten.

Mehr als zwei Drittel aller Schulkinder leiden regelmäßig an Kopfschmerzen, stellte das von Privatdozentin (PD) Dr. Gudrun Goßrau geleitete Wissenschaftler-Team in der Studie fest, die unter dem Titel „The prevalence of headache in German pupils of different ages and school types“ in der Fachzeitschrift der internationalen Kopfschmerzgesellschaft „Cephalalgia“ erschienen ist. Ein Ergebnis der wissenschaftlichen Erhebung, dass mehr als zwei Drittel der in Deutschland befragten Kinder und Jugendlichen regelmäßig Kopfschmerzen haben. Bei den Oberschülern lag der Anteil sogar bei fast 80 Prozent. Einen Arzt suchten jedoch nur die wenigsten auf, was auch zeigt, dass Kopfschmerzen in unserer Gesellschaft nicht als „echte“ Krankheit wahrgenommen werden. „Dabei stellen Kopfschmerzen bereits im Kindes- und Jugendalter ein relevantes Gesundheitsproblem dar und sollten rechtzeitig und individuell von einem Arzt behandelt werden“, erklären Prof. Reinhard Berner, Direktor der Klinik für Kinder- und Jugendmedizin des Dresdner Uniklinikums und Dr. Matthias Richter. Beide Pädiater sind Co-Autoren der Publikation.

Für die Studie beantworteten 2.706 Schülerinnen und Schüler, die in Dresden eine Grund- oder weiterführende Schule besuchten, den Fragebogen. Erhoben wurde darin, wie oft Kopfschmerzen bei Kindern und Jugendlichen in den vergangenen drei Monaten auftraten, in welcher Stärke und welche Maßnahmen ergriffen wurden. Das Ergebnis: Nur knapp 32 Prozent der Befragten gaben an, gar nicht unter Kopfschmerzen zu leiden, fast 37 Prozent hatten einmal pro Monat Kopfschmerzen, fast 32 Prozent, mehr als zweimal im Monat. Die letztgenannte Gruppe untersuchte das USC-Team genauer: 55 Prozent hatten an zwei bis fünf Tagen pro Monat Kopfschmerzen, 27 Prozent an fünf bis zehn Tagen. Sieben Prozent derjenigen, die mehr als zweimal im Monat Kopfschmerzen hatten, gab sogar an, an mehr als 15 Tagen pro Monat unter diesen Schmerzen zu leiden.

Insgesamt gaben 624 der befragten Kinder und Jugendliche an, Schmerzmedikamente oder homöopathische Mittel gegen Schmerzen einzunehmen. In der Gruppe, die nur einmal im Monat unter Kopfschmerzen litt, nahm knapp ein Fünftel Schmerzmittel ein, in der Gruppe derer, die mehr als zweimal im Monat von Kopfschmerzen gequält wurden, gab fast die Hälfte an, regelmäßig Schmerzmittel einzunehmen. Auffällig war dabei, dass nahezu alle Kinder, die nur einmal im Monat Kopfschmerzen aufwiesen, und etwa 80 Prozent derjenigen, die mehr als zweimal im Monat Kopfschmerzen hatten, keinen Arzt aufgesucht hatten.

PD. Dr. Gudrun Goßrau sieht in der mangelnden Bereitschaft, sich ärztlich behandeln zu lassen, auch als Ausdruck eines fehlenden Bewusstseins für Kopfschmerzen als ernstzunehmende Krankheit in unserer Gesellschaft: „Doch diese Form des Schmerzes ist bereits in Kindheit und Jugend ein relevantes Gesundheitsproblem. Wie unsere Erhebung gezeigt hat, sind bei jungen ebenso wie bei älteren Menschen Lebensqualität und Leistungsfähigkeit stark beeinträchtigt.“ Beispielsweise zeigte die Studie auch, dass über ein Fünftel aller Kinder und Jugendlichen, die mehr als zweimal im Monat Kopfschmerzen hatten, aus diesem Grund häufiger in der Schule fehlen. Kopfschmerz ist damit dritthäufigste Ursache für Fehltage in der Schule. „Oft führen Kopfschmerzen dann in einen Teufelskreis. Schulfehltage können zu Leistungsabfall, Schulversagen, Schulangst führen, viele betroffene Kinder isolieren sich sozial, auch die Gefahr einer Depression ist erhöht“, so Dr. Goßrau. Umso wichtiger sind eine rechtzeitige ärztliche Diagnose und individuelle Therapie der betroffenen Kinder und Jugendlichen. „Es ist eine irrige Annahme, dass jeder seine Kopfschmerzen selbst therapieren kann und keine Diagnose vom Arzt nötig ist“, betont Prof. Berner und verweist auf die aus ärztlicher Sicht sehr unterschiedlichen Therapie für die einzelnen Schmerzarten: „Eine Migräne muss anders behandelt werden, als ein Clusterkopfschmerz.“ Ebenso kritisch sehen die Pädiater die häufig zu beobachtende unbedachte Schmerzmitteleinnahme. Schließlich können häufig eingenommene, frei verkäufliche Kopfschmerzmedikamente ihrerseits Kopfschmerzen verursachen oder verstärken.

Frühes Eingreifen verhindert spätere Chronifizierung
Das Wissen über das häufige Auftreten unterschiedlicher Formen des Kopfschmerzes bei Kindern und Jugendlichen ist ein wichtiger Ansatzpunkt dafür, verstärkt Versorgungsangebote für die Betroffenen zu schaffen. Die interdisziplinäre Kinderkopfschmerzambulanz am Universitäts SchmerzCentrum und das dort in Zusammenarbeit mit der Klinik für Kinder- und Jugendmedizin entwickelte und etablierte DreKiP- Konzept (Dresdner KinderKopfschmerzprogramm) sind erste Aktivitäten, um der aktuellen Unterversorgung der Schmerzpatienten im Schulalter zu begegnen. Nach Ansicht der Dresdner Schmerzexperten eine gute Investition in die Zukunft. Denn ein unbehandelter Kopfschmerz, der bereits im Kindes- und Jugendlichenalter zu Fehltagen in der Schule führt, droht im weiteren Verlauf sich zu einer chronischen Erkrankung zu entwickeln, an deren Ende auch eine Erwerbsunfähigkeit und Frühverrentung steht.

Lebensstil-Wandel von Kindern und Jugendlichen begünstigt Kopfschmerz
Der Trend zu elektronischen Spielen und medialer Unterhaltung aber auch eine weiter komprimierte Wissensvermittlung in der Schule sind bei Kindern und Jugendlichen ebenso Risikofaktoren für das Auftreten häufiger Kopfschmerzattacken wie körperliche Inaktivität oder seelischer Stress. Mit den unterschiedlichen Formen der in das DreKiP-Programm integrierten Therapien gelingt es, dieser Entwicklung gegenzusteuern. Der Schlüssel dazu sind Aktivitäten, in denen die Betroffenen in einer Gruppe agieren, wieder einen Zugang zu körperlicher Bewegung bekommen, kreativ werden und ihren eigenen Körper wahrnehmen. Diese Erkenntnis sollte nicht nur die von häufigen Kopfschmerzen heimgesuchten Kindern und Jugendlichen anregen, ihren Lebensstil auf den Prüfstand zu stellen, sondern auch ihren Altersgenossen, die bisher von diesen Problemen verschont wurden. Denn die Wahrscheinlichkeit, künftig selbst häufiger unter Kopfschmerzen zu leiden, steigt bereits in der Schulzeit.

Wissenschaftliche Ansprechpartner:

Universitätsklinikum Carl Gustav Carus Dresden
Universitäts SchmerzCentrum
Direktor: Prof. Dr. med. Rainer Sabatowski
Tel.: 0351 458 33 54

Originalpublikation:

Nieswand V, Richter M, Berner R, von der Hagen M, Klimova A, Roeder I, Koch T, Sabatowski R, Gossrau G. – The prevalence of headache in German pupils of different ages and school types. In Cephalalgia; doi: 10.1177/0333102419837156

Weitere Informationen:

https://journals.sagepub.com/doi/abs/10.1177/0333102419837156
http://www.uniklinikum-dresden.de/usc

Anhang

Pressemitteilung
https://idw-online.de/de/attachment72687

Quelle: IDW 

(nach oben)


DGKN: Kribbeln in Fingern und Händen – Nutzung von Smartphones und Nerven-Engpass-Syndrom

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Die intensive Nutzung von Smartphones fördert vermutlich einen Nerven-Engpass im Handgelenk mit schmerzhaften Taubheitsgefühlen, das sogenannte Karpaltunnelsyndrom (KTS). Das belegen aktuelle Studien aus Asien. „Drehende Bewegungen im Handgelenk verstärken das KTS, das ist bekannt“, bestätigt Professor Dr. med. Helmut Buchner von der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN). Wer häufig Kribbeln im zweiten und dritten Finger spürt, sollte einen Neurologen aufsuchen. Für Schwangere sind örtliche Kortison-Spritzen zur Behandlung besonders geeignet.

Seit langem wissen Mediziner, dass Karpaltunnel-Beschwerden durch intensive Handarbeit entstehen können. „Bei Fleischern etwa gilt das KTS als Berufskrankheit“, berichtet Buchner. „Die drehenden Bewegungen im Handgelenk mit dem Messer fördern den Nerven-Engpass.“ Das gilt gleichermaßen für intensives Stricken oder Reinigungskräfte, die unablässig Wäsche auswringen. „Insofern ist es plausibel, dass der dramatische Mehrgebrauch von Smartphones und Computertastaturen ein KTS auslösen kann, auch wenn dies bisher nur Studien aus Asien belegen“, führt der Neurologe aus. „Ich kann keinen Grund erkennen, warum es bei uns anders sein sollte.“

Beim Karpaltunnel-Syndrom gerät der Nervus medianus unter Druck, der an einer Engstelle durch das Handgelenk führt. Ursache ist meist eine Schwellung, die durch belastende Bewegungen entsteht, ferner durch nächtliches Schlafen mit abgeknickten Handgelenken, starke Gewichtszunahme oder hormonelle Einflüsse wie Schwangerschaft und Wechseljahre. „Frauen sind drei bis vier Mal häufiger als Männer betroffen“, erläutert Buchner. „Schon aufgrund ihres Monatszyklus können Schwellungen leichter entstehen.“ Die Schwellung führt häufig zu Entzündungen, die wiederum Vernarbungen hervorrufen können, was die Durchblutung weiter verschlechtert und die Schwellung befördert.

Erste Symptome sind ein Kribbeln in den Spitzen der ersten drei Finger, vom Daumen bis zum Mittelfinger. „Das Kribbeln fühlt sich elektrisierend und brennend an“, so Buchner. Schüttelt man die Hände, verschwinden die Missempfindungen häufig. Im weiteren Verlauf können Schmerzen auftreten, die nachts sogar bis in den Arm ziehen. „Zum Schluss kann das Kribbeln in ein permanentes Taubheitsgefühl übergehen und sich die Muskulatur am seitlichen Daumenballen der betroffenen Hand zurückbilden“, erklärt DGKN-Experte Buchner, der an der Klinik für Neurologie und Klinische Neurophysiologie am Knappschaftskrankenhaus Recklinghausen tätig ist.

Um zu klären, ob ein KTS vorliegt, erfragt der Neurologe zunächst Vorgeschichte und Beschwerden. Dann folgen meist zwei einfache Tests. Beim Phalen-Test presst der Patient die Handflächen wie beim Beten aneinander und knickt zugleich die Handgelenke im 90-Grad-Winkel ab. „Mit dieser Haltung provoziert man die Enge“, erläutert Buchner. „Tritt nach zwei Minuten kein Kribbeln auf, liegt kein KTS vor.“ Beim Hoffmann-Tinel-Zeichen beklopft der Arzt den Mediannerv in der Innenseite des Handgelenks mit dem Finger. Führt das zum Kribbeln in den Fingerspitzen, ist dies ein Hinweis auf ein KTS.

Eine eindeutige Aussage erlaubt die elektrische Diagnostik, die Elektroneurographie. „Mit leichten Stromimpulsen messen wir, wie viel Zeit der Mediannerv für die Weiterleitung eines Reizes benötigt“, so Buchner. Dauert es zu lange, das heißt länger als 4,2 bis 4,5 Millisekunden, hat der Nerv eine Funktionsstörung erlitten. Dann kann eine Therapie erforderlich werden. „Dafür eignet sich ein dreistufiges Vorgehen“, rät Buchner.

Im Anfangsstadium hilft es mitunter, Belastungen zu vermeiden – etwa mit einer Handschiene, die ein Abknicken der Gelenke verhindert. „Oder durch den Verzicht auf intensive Smartphone-Nutzung, vor allem auf drehende Handgelenkbewegungen wie beim Wischen auf dem Display“, rät Buchner. Verhaltensänderungen lösen allerdings die Engstelle nicht auf, räumt der DGKN-Experte ein.

Gut schlägt häufig das einmalige Spritzen von entzündungshemmendem Kortison in die Engstelle an, ein in Deutschland eher selten angewandtes Verfahren. „Diese Behandlung ist besonders für Schwangere geeignet, deren Hormonhaushalt sich nach der Geburt wieder umstellt“, meint Buchner. Sorgen um das ungeborene Kind sind laut Buchner unbegründet: „Die Kortison-Dosis ist minimal und nur örtlich wirksam.“

Am häufigsten und am wirksamsten ist jedoch nach wie vor die Operation, die bei anhaltenden Beschwerden unumgänglich wird. Dabei spalten Hand- oder Neurochirurgen über einen kleineren Schnitt in örtlicher Betäubung das Bindegewebsgewebsband über dem Karpaltunnel, so dass der eingeklemmte Nerv mehr Platz bekommt und der Druck sinkt. Jährlich erfolgen etwa 300.000 Eingriffe dieser Art in Deutschland.

Quellen:
Studien zum Thema:

• Woo EHC, White P, Lai CWK. Effects of electronic device overuse by university students in relation to clinical status and anatomical variations of the median nerve and transverse carpal ligament. Muscle Nerve. 2017 Nov;56(5):873-880. doi: 10.1002/mus.25697. Epub 2017 Jun 21. (https://onlinelibrary.wiley.com/doi/abs/10.1002/mus.25697)

• İnal EE et al. Effects of smartphone overuse on hand function, pinch strength, and the median nerve. Muscle Nerve. 2015 Aug;52(2):183-8. doi: 10.1002/mus.24695. Epub 2015 Jun (https://onlinelibrary.wiley.com/doi/pdf/10.1002/mus.24695)

Kontakt für Journalisten:
Katharina Weber
DGKN Pressestelle
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-641
Fax: 0711 8931-167
weber@medizinkommunikation.org
http://www.dgkn.de

Die Deutsche Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN) ist die medizinisch-wissenschaftliche Fachgesellschaft für Ärzte und Wissenschaftler in Deutschland, die auf dem Gebiet der klinischen und experimentellen Neurophysiologie tätig sind. Anliegen der DGKN ist es, die Forschung auf diesem Gebiet zu fördern sowie eine qualitätsgesicherte Aus-, Weiter- und Fortbildung zu garantieren. Zu diesem Zweck richtet die DGKN wissenschaftliche Tagungen, Symposien und Fortbildungsveranstaltungen aus. Sie erarbeitet Richtlinien und Empfehlungen für die Anwendung von Methoden wie EEG, EMG oder Ultraschall. Darüber hinaus setzt sich die DGKN für den wissenschaftlichen Nachwuchs ein, indem sie etwa Stipendien und Preise vor allem für junge Forscher vergibt. Die Methoden der klinischen Neurophysiologie kommen Patienten bei der Diagnose und Therapie neurologischer Erkrankungen wie Parkinson, Alzheimer, Migräne, Epilepsie, Schlaganfall oder Multiple Sklerose zugute.

Weitere Informationen:

http://www.dgkn.de

Quelle: IDW 

(nach oben)


Statement: Elektroautos gehen auch bei Rekordhitze nicht in Flammen auf

Claudia Staat Pressestelle
Frankfurt University of Applied Sciences

Sicherheit auch bei hohen Außentemperaturen: Prof. Dr.-Ing. Schilder von der Frankfurt UAS nimmt Stellung zu aktuellen Medienberichten und verweist auf Thermomanagement-Systeme für Batteriezellen

Über brennende Elektroautos berichten Medien immer wieder. Angesichts des heißen Sommers steht die Frage im Raum, ob E-Autos bei diesen Rekordtemperaturen in Flammen aufgehen könnten. Dies ist Anlass für Prof. Dr.-Ing. Boris Schilder, Professor für Thermodynamik und Strömungslehre an der Frankfurt University of Applied Sciences (Frankfurt UAS), mit einigen Fakten das vermeintlich heiße Thema etwas abzukühlen.

„Lithium-Ionen-Batteriezellen, die Standard sind bei aktuellen Elektroautos, sollten in einem Temperaturfenster von ca. 15 bis 35 Grad betrieben und gelagert werden. Bei niedrigeren Temperaturen sinkt die Leistung, und der elektrische Widerstand der Batterie steigt an. Dadurch verringert sich die Reichweite des Elektroautos. Bei Temperaturen oberhalb von 35 Grad reduziert sich dagegen die Lebensdauer von Batterien. Thermomanagement-Systeme, die kühlen und häufig auch heizen können, sorgen in Elektroautos dafür, dass die Batterietemperatur im oben genannten Temperaturfenster gehalten wird“, erläutert der Wissenschaftler, der selbst solche Thermomanagement-Systeme für die Autoindustrie entwickelt hat. „Sicherheitskritisch werden erst Batterietemperaturen im Bereich ab ca. 130 Grad. Bei diesen Temperaturen können Kurzschlüsse und/oder chemische Reaktionen auftreten und Brände ausgelöst werden.“

Elektroautos geraten laut Schilder trotz sehr hoher Außentemperaturen nicht in Brand. Die Gründe dafür sind:
1. Das Thermomanagement-System sorgt dafür, dass die Batterietemperatur im oben genannten Bereich bleibt. Bei einigen Herstellern arbeitet das System auch bei geparkten Fahrzeugen, hauptsächlich, um die Lebensdauer der Batterie zu verlängern.
2. Selbst wenn kein Thermomanagement-System die Batterie kühlt, weil entweder keines vorhanden ist oder es versagt, sorgt eine Temperaturüberwachung dafür, dass die sich im Betrieb befindende Batterie abgeschaltet wird und zwar lange, bevor sicherheitskritische Temperaturen erreicht werden.
3. Ist das E-Auto geparkt, befindet sich die Batterie nicht im Betrieb und generiert auch keine Abwärme. Selbst bei sehr hohen Außentemperaturen, Sonneneinstrahlung und ohne aktives Thermomanagement werden innerhalb der Batterie keine sicherheitskritischen Temperaturen von mehr als 130 Grad erreicht.

„Elektrofahrzeuge sind relativ sicher, und ich halte einen Brand bei einem Fahrzeug mit konventionellem Antrieb mit Verbrennungsmotor für wahrscheinlicher. Aufgrund der Neuheit der Technologie stehen Elektrofahrzeuge jedoch stärker im Fokus der Berichterstattung, und einzelne Unfälle fallen daher stärker auf“, nimmt Schilder an. „In der Regel werden diese Brände jedoch durch Unfälle, fehlerhafte Batteriezellen, Elektronik- oder Software-Fehler verursacht und nicht durch hohe Außentemperaturen.“

Auch wenn durch hohe Umgebungstemperaturen die Sicherheit nicht beeinträchtigt wird, reduzieren sie die Batterielebensdauer und die Reichweite des Elektroautos. Der Energieverbrauch des Thermomanagement-Systems und insbesondere der Klimaanlage kann die Reichweite des Elektroautos bei Umgebungstemperaturen von 40 Grad gegenüber moderaten Temperaturen von 20 Grad im Extremfall um bis zu ca. 50 Prozent reduzieren. Leistungslimitierungen aufgrund hoher Umgebungstemperaturen sind dagegen nicht die Regel, können aber bei Elektroautos auftreten, die über ein unzureichendes Thermomanagement-System verfügen.

Zur Person:
Prof. Dr.-Ing. Boris Schilder ist Professor für Thermodynamik und Strömungslehre an der Frankfurt University of Applied Sciences. Einer seiner Arbeitsschwerpunkte ist das Thermomanagement von Fahrzeugen, Batterien, Brennstoffzellen und Elektronik. Vor seinem Ruf an die Frankfurt UAS war Schilder beim Autohersteller Opel u.a. für die Entwicklung von Thermomanagement-Systemen für Batterien von Elektroautos zuständig.
Wissenschaftliche Ansprechpartner:

Kontakt: Frankfurt University of Applied Sciences, Fachbereich 2: Informatik und Ingenieurwissenschaften, Prof. Dr.-Ing. Boris Schilder, Telefon: +49 69 1533-2293, E-Mail: b.schilder@fb2.fra-uas.de

Weitere Informationen:
http://www.frankfurt-university.de/fb2 (weitere Informationen zum Fachbereich Informatik und Ingenieurwissenschaften)

Quelle: IDW 

(nach oben)


Nächtliche Schichtarbeit als Krebsauslöser: Expertengremium bestätigt wahrscheinlichen Zusammenhang

Rasmus Cloes Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS

Nachtschichtarbeit löst wahrscheinlich Krebs aus. Diese Einschätzung bestätigte im Juni ein international besetztes Gremium aus 27 Wissenschaftlern für die Internationale Agentur für Krebsforschung (IARC). Ihre Einschätzung erschien nun in der Fachzeitschrift „Lancet Oncology“.

Etwa 20 Prozent aller Beschäftigten arbeiten außerhalb der typischen Arbeitszeit am Tag. Bereits im Jahr 2007 stufte eine Arbeitsgruppe der IARC Nachtschichtarbeit als „wahrscheinlich für Menschen krebserregend“ (probably carcinogenic to humans) ein. Schichtarbeit, bei der der Tag-Nacht-Rhythmus gestört wird, fällt damit in die Gruppe 2A, zu der auch Glyphosat oder rotes Fleisch gehören. Diese Einschätzung wurde nun in einer Folgeevaluation bestätigt. Grund für die Neubewertung war die relativ hohe Zahl neuer Studien zum Thema, die in den letzten Jahren veröffentlicht worden sind. Ihre Schlussfolgerung ziehen die beteiligten Wissenschaftler auf der Basis einer beschränkten Datenlage in Studien am Menschen, einer guten in Tierexperimenten und einer starken biologischen Plausibilität, wie sie in ihrer Begründung schreiben.

„Es war eine in weiten Teilen durchaus kontrovers geführte Diskussion der wissenschaftlichen Daten zum Thema. Einige neuere Studien fanden keinen Zusammenhang zwischen Nachtschichtarbeit und Krebs, andere wiederum zeigten überzeugend Risiken auf. Und die Einordnung der biologischen Befunde ist teils hoch kompliziert“, sagt Prof. Dr. Hajo Zeeb, Leiter der Abteilung Prävention und Evaluation am Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS, der als einziges deutsches Mitglied in der Expertenkommission an der neuen Klassifikation mitwirkte. „Es gibt eine relativ deutliche Assoziation zwischen Nachtarbeit und malignen Tumoren der Brust, der Prostata und des Darms. Allerdings lassen sich, bedingt durch die Studiendesigns, andere Erklärungen nicht vollkommen ausschließen – darum mussten wir uns den Entscheidungskriterien der IARC gemäß für die Gruppe 2A, wahrscheinlich krebserregend, entscheiden“, so Zeeb.

Für die Neubewertung trafen sich 27 Wissenschaftler aus 16 Ländern im Juni für acht Tage in Lyon, Frankreich. In der Zeit vor und während des Treffens analysierten die Experten die gesamte zum Thema verfügbare wissenschaftliche Literatur. Dabei bewerteten sie die Stärke der Evidenz für die Kanzerogenität des zu beurteilenden Faktors auf Basis der von der IARC vorgegebenen Kriterien. Diese Einstufung gilt explizit nicht als Risikobewertung. Sie kann also nichts über die Wahrscheinlichkeit aussagen, mit der ein Stoff oder Agens Krebs auslöst.

Das BIPS – Gesundheitsforschung im Dienste des Menschen
Die Bevölkerung steht im Zentrum unserer Forschung. Als epidemiologisches Forschungsinstitut sehen wir unsere Aufgabe darin, Ursachen für Gesundheitsstörungen zu erkennen und neue Konzepte zur Vorbeugung von Krankheiten zu entwickeln. Unsere Forschung liefert Grundlagen für gesellschaftliche Entscheidungen. Sie klärt die Bevölkerung über Gesundheitsrisiken auf und trägt zu einer gesunden Lebensumwelt bei.

Das BIPS ist Mitglied der Leibniz-Gemeinschaft, zu der 95 selbstständige Forschungseinrichtungen gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 19.100 Personen, darunter 9.900 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.
Originalpublikation:

Originalveröffentlichung: IARC Monographs Vol 124 group, with the collaboration of Zeeb, Hajo. Carcinogenicity of night shift work. The Lancet Oncology. 2019; forthcoming. DOI: https://doi.org/10.1016/S1470-2045(19)30455-3

Weitere Informationen:

http://Weitere Information unter https://www.iarc.fr/news-events/iarc-monographs-evaluation-of-the-carcinogenicit…

Quelle: IDW 

(nach oben)


Wie das Gehirn von Menschen mit großem Allgemeinwissen aussieht

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Die Gehirne von Menschen mit hohem Allgemeinwissen sind besonders effizient vernetzt. Das zeigten Neurowissenschaftlerinnen und -wissenschaftler der Ruhr-Universität Bochum und der Humboldt-Universität zu Berlin mittels Magnetresonanztomografie. „Obwohl wir das Allgemeinwissen von Menschen präzise messen können und dieser Wissensschatz sehr bedeutend für die individuellen Lebenswege ist, wissen wir bislang wenig über die Zusammenhänge zwischen Allgemeinwissen und der Beschaffenheit des Gehirns“, sagt Dr. Erhan Genç aus der Bochumer Arbeitseinheit für Biopsychologie. Die Ergebnisse schildert das Team im European Journal of Personality vom 28. Juli 2019.

Die Forscherinnen und Forscher untersuchten die Gehirne von 324 Männern und Frauen mit einer besonderen Form der Magnetresonanztomografie, der sogenannten Diffusions-Tensor-Bildgebung. Sie ermöglicht es, die Verläufe von Nervenfasern zu rekonstruieren und so einen Einblick in die strukturelle Vernetzung des Gehirns zu erhalten. Mithilfe von mathematischen Berechnungen wiesen die Forscherinnen und Forscher dem Gehirn jedes Teilnehmers einen individuellen Wert zu, welcher die Effizienz eben dieser strukturellen Vernetzung widerspiegelte.

Außerdem absolvierten die Probandinnen und Probanden einen in Bochum von Dr. Rüdiger Hossiep entwickelten Allgemeinwissenstest, Bochumer Wissenstest genannt. Er umfasst mehr als 300 Fragen aus unterschiedlichen Wissensgebieten wie Kunst und Architektur oder Biologie und Chemie. Zuletzt untersuchte das Team um Erhan Genç, ob die Effizienz der strukturellen Vernetzung mit der Menge an gespeichertem Allgemeinwissen assoziiert ist.

Das Ergebnis: Menschen mit einem sehr effizienten Fasernetzwerk verfügten über mehr Allgemeinwissen als jene mit einer weniger effizienten strukturellen Vernetzung.

Teilinformationen verbinden
„Wir nehmen an, dass einzelne Wissensinhalte in Form von Teilinformationen über das gesamte Gehirn verstreut sind“, erklärt Erhan Genç. „Um die Informationen, die in unterschiedlichen Gehirnarealen abgelegt sind, zusammenzufügen und einen Wissensinhalt erfolgreich abzurufen, ist eine effiziente Vernetzung des Gehirns unabdingbar.“

Ein Beispiel: Um die Frage zu beantworten, welche Konstante in Einsteins Relativitätstheorie vorkommt, muss man die Bedeutung des Begriffs „Konstante“ mit dem Wissen über die Relativitätstheorie verbinden. „Wir vermuten, dass eine effizientere strukturelle Vernetzung des Gehirns zu einer besseren Integration der Teilinformationen beiträgt und somit zu besseren Ergebnissen in einem Allgemeinwissenstest führt“, so der Bochumer Forscher.

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen des Sonderforschungsbereiches 1280 sowie der Projekte mit den Grantnummern Gu227/16-1 und GE2777/2-1. Weitere Förderung kam von der Mercur-Stiftung im Rahmen des Projektes An-2015-0044.

Wissenschaftliche Ansprechpartner:
Dr. Erhan Genç
Arbeitseinheit Biopsychologie
Institut für Kognitive Neurowissenschaft
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 24323
E-Mail: erhan.genc@rub.de

Originalpublikation:

Erhan Genç, Christoph Fraenz, Caroline Schlüter, Patrick Friedrich, Manuel C. Voelkle, Rüdiger Hossiep, Onur Güntürkün: The Neural Architecture of General Knowledge, in: European Journal of Personality, 2019, DOI: 10.1002/per.2217

Quelle: IDW 

(nach oben)


Rettungsplan für das Weltmeer

Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.

Ein umfassendes Hochseeabkommen mit großflächigen Schutzgebieten im Ozean zählen zu den Maßnahmen, die innerhalb des nächsten Jahrzehnts umzusetzen sind, um die lebenserhaltende Funktion der Ozeane zu bewahren. Dies ist die Empfehlung einer aktuellen Studie, die unter Beteiligung von Wissenschaftler Torsten Thiele entstand, der am Institut für transformative Nachhaltigkeitsforschung (IASS) im Team Ocean Governance arbeitet.

„Es besteht schneller Handlungsbedarf, denn es mehren sich die Anzeichen von Veränderungen der Ozeane, die rascher auftreten als dies selbst jüngere Modelle prognostiziert haben“, sagt Mitautor Thiele vom IASS, der zu den Experten des Internationalen Programms zum Zustand der Ozeane (IPSO) zählt.

Folgende Veränderungen seien laut der internationalen Expertengruppe von IPSO besonders gefährlich:
● Die Ozeane erwärmen sich schneller als Schätzungen eines Gremiums der Vereinten Nationen vor fünf Jahren annahmen: durchschnittlich um 40 Prozent schneller.
● Die Erwärmung der oberen Ozeanschichten verändert weltweit die Wellenbedingungen: die Wellen werden verstärkt.
● Ozeane setzen allmählich einen Teil der gespeicherten Wärmeenergie frei, was in den kommenden Jahren weltweit zu einem erheblichen Temperaturanstieg beitragen könnte.
● Der sinkende Sauerstoffgehalt der Ozeane führt dazu, dass in Kombination mit chemischen Schadstoffen weite Gebiete für Lebewesen unbewohnbar werden.
● Das arktische und antarktische Eis schmilzt schneller als von Wissenschaftlern prognostiziert. Der daraus folgende Anstieg des Meeresspiegels hat katastrophale Folgen für Städte weltweit.
„Oberste Priorität hat daher die konsequente Bekämpfung der globalen Erderwärmung und die Begrenzung des Anstiegs der Oberflächentemperatur auf 1,5 Grad Celsius bis 2100″, sagt Wissenschaftler Thiele – „und es sollten jedoch zusätzliche Maßnahmen ergriffen werden, um auf einen Temperaturanstieg von zwei bis drei Grad Celsius vorbereitet zu sein.“

Das multidisziplinäre Team, bestehend aus Meeresforschern und Experten aus den Bereichen Recht, Politik und Finanzen, überprüfte die Ergebnisse von 131 wissenschaftliche Arbeiten, um sowohl die auftretenden Veränderungen als auch die Folgen der Untätigkeit zu bewerten.

Die heute und aus der Analyse hervorgegangene Bewertung geht davon aus, dass die Verarmung der Nahrungsketten in den Meeren, die verminderte Kapazität zur Einlagerung von Kohlenstoff, der sinkende Sauerstoffgehalt und das Risiko, dass die gespeicherte Wärme wieder an die Erdatmosphäre abgegeben wird, zu den Folgeprobleme der Veränderungen zählen, die entweder bereits aufgetreten sind oder nachgewiesenermaßen auftreten können, weil die Weltmeere aufgrund der menschliche Aktivitäten unter einer Art Dauerbeschuss stehen.

Die IPSO-Publikation in „Aquatic Conservation“ nennt die Schwerpunktmaßnahmen, die zeitgleich umgesetzt werden müssen, um die Worst-Case-Szenarien und möglicherweise irreversible Veränderungen der Ozeane abzuwenden. Dazu gehört insbesondere auch ein angemessener Finanzierungsmechanismus zum Schutz der Ozeane.

Weitere dringliche Sofortmaßnahmen:
● Abschluss eines belastbaren und umfassenden Schutzabkommens für die Hohe See mit Vertragsstaatenkonferenz und wissenschaftlichem Ausschuss. Zudem reformierte Stimmrechte für Organisationen wie die Internationale Meeresbodenbehörde, um zu verhindern, dass das Vorsorgeprinzip von Einzelinteressen untergraben wird.

● Durchsetzung bestehender Standards für wirksame Meeresschutzgebiete (MPAs), insbesondere für vollständig geschützte Meeresschutzzonen sowie deren Ausweitung auf mindestens 30 Prozent der Ozeanfläche. Gleichzeitige Gewährleistung einer effektiven Bewirtschaftung für die restliche Ozeanfläche.

● Beendung der Überfischung und zerstörerischer Praktiken, einschließlich illegaler, nicht gemeldeter und nicht regulierter Fischerei.
● Drastische Reduzierung der Verschmutzung der Meeresgewässer, einschließlich Stickstoffdünger, Abwasser und Plastik.

● Vor Beginn jeglichen Tiefseebergbaus eine Gedenkpause, um ausreichendes Wissen zu sammeln und nachhaltiges Management zu ermöglichen.

● Steigerung der Meeresforschung und Erhöhung der Zugänglichkeit von Daten aller Quellen von Wissenschaft über Regierung bis Industrie. Forschungsfokus sollte ein besseres Verständnis der Wärmeaufnahme und -abgabe der Meere an die Atmosphäre sein. Die von der UNO ausgerufene Internationale Dekade der Meeresforschung für Nachhaltige Entwicklung ab 2021 wäre die Gelegenheit, um dies zu forcieren.

Wissenschaftliche Ansprechpartner:
Torsten Thiele
Senior Wissenschaftlicher Mitarbeiter
IASS-Team Ocean Governance
Telefon: +49 331 28822 360
E-Mail: torsten.thiele@iass-potsdam.de

Originalpublikation:
Laffoley, D. et al.: Eight urgent fundamental and simultaneous steps needed to restore ocean health, and the consequences for humanity and the planet of inaction or delay, Ipso 07/2019.
http://www.stateoftheocean.org/wp-content/uploads/2019/07/IPSO-2019-Report-Final…

Weitere Informationen:
https://www.iass-potsdam.de/de/news/rettungsplan-fuer-das-weltmeer
http://www.stateoftheocean.org/science/current-work/

Quelle: IDW 

(nach oben)


Vor allem Geringverdiener und gut Ausgebildete bleiben auch im Rentenalter in Beschäftigung

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Aus dem Geburtsjahrgang 1950 gingen etwa 170.000 Personen sechs Monate nach Erreichen des Regelrentenalters 65 plus, also dem je nach Geburtsjahr geltenden gesetzlichen Renteneintrittsalter, einer abhängigen Beschäftigung nach. Dabei arbeiten besser ausgebildete Beschäftigte häufiger als geringqualifizierte im Rentenalter weiter – und auch öfter für denselben Arbeitgeber. Das geht aus einer am Donnerstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Dieser Befund lasse sich unter anderem durch Fachkräfteengpässe erklären, denn qualifiziertes Personal sei derzeit schwer zu ersetzen, erläutert der IAB-Forscher Christian Westermeier. Auch Personen, die im Alter von Mitte 50 besonders wenig verdient haben, arbeiten signifikant häufiger noch mit 65 plus und bleiben öfter beim selben Arbeitgeber. „Dies erklärt sich auch daraus, dass diese Personen meist schon in der Vorruhestandsphase nur geringfügig beschäftigt waren und sich Minijobs aus steuerlichen und rentenrechtlichen Gründen leicht neben einer Altersrente fortführen lassen“, so Westermeier.

Zwischen Frauen und Männern sowie zwischen Ost und West gibt es kaum quantitative Unterschiede bei der Erwerbsbeteiligung nach der Altersgrenze. Auch die Branche, in der vor Erreichen des Rentenalters gearbeitet wurde, hat kaum einen Einfluss auf die Erwerbsbeteiligung 65 plus. Allerdings ist in einigen Branchen ein Wechsel in einen anderen Betrieb deutlich wahrscheinlicher als in anderen. Dies ist etwa in der öffentlichen Verwaltung oder in der Finanz- und Versicherungsbranche der Fall. Relevant ist das auch insofern, weil diejenigen, die nach dem 58. Lebensjahr noch einmal den Betrieb wechseln, im Mittel eine ungünstigere Lohnentwicklung im Vergleich zu Personen ohne Betriebswechsel haben.

Zwischen den Geburtskohorten 1945 und 1950 ist die Beschäftigung kurz nach der Regelaltersgrenze 65 plus relativ zur Größe der Gruppe um drei Prozentpunkte auf 14 Prozent gestiegen. In absoluten Zahlen hat sie sich zwischen den Jahrgängen 1945 und 1950 verdoppelt.

Weitere Informationen:
http://doku.iab.de/kurzber/2019/kb1519.pdf

Quelle: IDW 

(nach oben)


Grauer Star: Wenn die Sicht trüb wird

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

In Deutschland leiden schätzungsweise rund 10 Millionen Menschen an Grauem Star (Katarakt). Mit zunehmendem Alter steigt das Risiko dieser Eintrübung der Augenlinse. Bilder erscheinen getrübt, Farben verblassen und die Blendeempfindlichkeit nimmt zu. Dabei lässt sich die Erkrankung heute sehr gut behandeln. Die Stiftung Auge informiert über Symptome und Therapiemöglichkeiten bei Katarakt.

Unter einer Katarakt, im Volksmund auch Grauer Star genannt, versteht man die Eintrübung der Augenlinse. Die Erkrankung tritt vermehrt bei Menschen im fortgeschrittenen Alter auf. Jeder Zweite der 52- bis 64-Jährigen sowie über 90 Prozent der Menschen über 75 Jahren leiden an einer getrübten Linse. Frauen sind häufiger betroffen als Männer. Neben dem Alter können auch Verletzungen, Medikamente oder Erkrankungen wie Diabetes die Entstehung eines Grauen Stars begünstigen.

Nachlassende Sehstärke und -schärfe können erste Anzeichen eines Grauen Stars sein. Viele Betroffene verwechseln dies zu Beginn mit einer Alterssehschwäche und suchen oft erst Hilfe beim Augenarzt, wenn die Erkrankung sie in ihrem Alltag erheblich einschränkt. Da das Risiko einer Katarakt mit dem Alter steigt, rät Professor Dr. med. Frank G. Holz, Vorsitzender der Stiftung Auge, zu regelmäßigen Vorsorgeuntersuchungen ab dem 60. Lebensjahr. „Betroffene mit einer getrübten Linse laufen Gefahr, im Alltag zu stürzen oder in Verkehrsunfälle verwickelt zu werden. Ein jährliches Check-up beim Augenarzt hilft, die Erkrankung frühzeitig zu erkennen und zu therapieren und damit solche Unglücksfälle zu verhindern“, so der Direktor der Universitätsaugenklinik Bonn.

Der Graue Star lässt sich nur operativ beseitigen. Die Katarakt-OP ist einer der häufigsten Eingriffe in Deutschland überhaupt – rund 800.000 Mal führen deutsche Augenärzte diesen jedes Jahr durch. „Wenn die Linseneintrübung Patienten im Alltag, im Beruf oder im Verkehr beeinträchtigt, ist meist eine Operation sinnvoll und notwendig“, so Holz. „Die Operation gibt den Patienten ein großes Stück Lebensqualität zurück. Komplikationen treten dabei dank der großen Erfahrung der Kollegen und der fortschrittlichen, minimal-invasiven Operationstechnik äußerst selten auf“, sagt der Bonner Experte.

Bei der Operation ersetzt der Arzt die getrübte natürliche Linse durch eine passgenau auf den Patienten abgestimmte Kunstlinse, eine sogenannte Intraokularlinse. Diese gibt es als Monofokallinsen, die entweder Fern- oder Nahsicht ermöglichen. Die Krankenkassen übernehmen die Kosten für die Monofokallinsen vollständig. Gegen eine Zuzahlung können sich Patienten auch sogenannte Multifokallinsen einsetzen lassen. Sie ermöglichen es dem operierten Auge, Objekte in unterschiedlichen Distanzen anzuvisieren. Träger dieser Linsen können so auch ohne Brille Zeitung lesen, am Computer arbeiten und Dinge in der Ferne betrachten.

In den meisten Fällen können die Patienten das Krankenhaus noch am Tag der Operation wieder verlassen. Die Nachsorge erfolgt ebenfalls ambulant beim niedergelassenen Augenarzt oder in der Klinik. Nach der OP benötigt das behandelte Auge etwas Schonung. „Da sich die Sehstärke in der Zeit nach der Operation noch anpassen kann, ist auch zunächst auf Autofahren zu verzichten. Gegebenenfalls ist eine Brillenkorrektur nötig“, erläutert Professor Dr. med. Christian Ohrloff, Mediensprecher der Stiftung Auge und ehemaliger Direktor der Universitäts-Augenklinik in Frankfurt am Main. Neun von zehn Katarakt-Patienten berichten nach der Operation von einer wesentlichen Verbesserung des Sehvermögens. „Die Betroffenen profitieren besonders von einer verbesserten Lebensqualität, da die OP Dinge wie Lesen oder Autofahren wieder ohne trübe Sicht möglich macht“, so der Experte.

Quellen:
[1] Deutsche Ophthalmologische Gesellschaft: Weißbuch zur Situation der ophthalmologischen Versorgung in Deutschland, September 2012.
[2] Homepage des Berufsverbandes der Augenärzte Deutschlands e.V., Statstiken: Katarakt.
[3] Deutsche Ophthalmologische Gesellschaft: Leitlinie Nr. 19, Januar 2012.
[4] Deutsche Ophthalmologische Gesellschaf: Lebensstil kann Grauen Star beeinflussen: Diabetes, Rauchen und Übergewicht trüben die Augenlinse, Pressemitteilung Februar 2017.

Kontakt für Journalisten:
Stiftung Auge der DOG Deutsche Ophthalmologische Gesellschaft
Pressestelle
Sabrina Hartmann
Postfach 30 11 20
70451 Stuttgart
Telefon: 0711 8931-649
Telefax: 0711 8931-167
hartmann@medizinkommunikation.org
http://www.stiftung-auge.de

Quelle: IDW 

(nach oben)


Naturtourismus in den Tropen: Wie kann Abwassermanagement verbessert werden?

Andrea Daschner Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)

Gemeinsame Pressemitteilung Leibniz-Zentrum für Marine Tropenforschung (ZMT) und Universität Bremen
Sozial-ökologische Forschung und eine neue Arbeitsgruppe am Leibniz-Zentrum für Marine Tropenforschung (ZMT) in Kooperation mit dem Fachbereich Sozialwissenschaften der Universität Bremen fördert das Bundesministerium für Bildung und Forschung (BMBF) mit knapp zwei Millionen Euro. Die Ergebnisse des Forschungsprojekts sollen zur Entwicklung eines nachhaltigen Tourismus beitragen.

Im Mittelpunkt des fünfjährigen Forschungsprojekts „Transdisziplinäre Wissenschaft für nachhaltigen Tourismus“ (TransTourismus) steht das Problem der Abwasserentsorgung an tropischen Küsten. Diese sind für den derzeit boomenden Naturtourismus besonders attraktiv und entwickeln sich schnell. Unzureichend gereinigte Abwässer aus touristischen Anlagen gelangen ins Meer und können Folgen für Küstenökosysteme, menschliche Gesundheit und die Tourismusindustrie vor Ort haben. Die Gemeinden müssen daher handeln, aber was ist zu tun? Was sind die besten Wege, um herauszufinden, wie die Situation verbessert werden kann?

Forschung bindet Expertinnen und Experten vor Ort ein
Projektleiterin Dr. Marie Fujitani, Sozialwissenschaftlerin am Leibniz-Zentrum für Marine Tropenforschung (ZMT) und an der Universität Bremen, will Tourismusgemeinden in Tansania, Indonesien und Costa Rica dabei unterstützen, ihr Abwassermanagement zu verbessern. Um ausgewogene Lösungsvorschläge zu finden, bindet sie verschiedene Interessengruppen ein, wie etwa Hotel-, Restaurant- und Ladenbesitzende, Reiseveranstaltende, politische Entscheidungsträgerinnen und -träger und Umweltorganisationen. „So können ein ganzheitliches Bild der tourismusbedingten Abwasserbelastung entwickelt und Lösungen zur Entsorgung erarbeitet werden“, sagt sie. Das Projekt besteht aus Teilstudien, die Natur- und Sozialwissenschaften integrieren, um den Zusammenhang zwischen Dienstleistungen der Ökosysteme, Tourismus, Gesundheit und menschlichem Wohlbefinden zu identifizieren. „In dem Prozess der Entscheidungsfindung, werden wir nicht nur verschiedene marine Ökosysteme, sondern auch die unterschiedlichen Prioritäten von Gemeindemitgliedern und Touristen berücksichtigen“, so Fujitani.

Das Ziel: Ein umweltschonender und sozialverträglicher Tourismus
„Unsere Forschungsgruppe Deliberation, Bewertung und Nachhaltigkeit untersucht Prozesse für das Management gemeinsamer natürlicher Ressourcen, die Entscheidungen unterstützen sollen. Dabei liegt unser Fokus darauf, wie man Naturtourismus nachhaltiger gestalten kann“, so Fujitani. „Wir untersuchen, wie Einflüsse ausgewählter Indikatoren und Informationsquellen und verschiedene Vorstellungen vom Wert der Umwelt unsere Entscheidungen auf sozial, ökologisch und ökonomisch nachhaltige Pfade leiten können.“ Das transdiziplinäre Forschungsprojekt bezieht bereits bei der Erarbeitung der Forschungsfragen unterschiedliche Interessengruppen aus Wissenschaft und Gesellschaft in tropischen Partnerländern des ZMT ein. Für die Studien wird Dr. Marie Fujitani zunächst eine neue Nachwuchsarbeitsgruppe am ZMT aufbauen. Drei Doktoranden und ein Postdoc werden sie in ihrer Arbeit unterstützen, ebenso wie Forschende aus verschiedenen naturwissenschaftlichen Arbeitsgruppen des ZMT.

Weitere Informationen:
www.leibniz-zmt.de/de/forschung/wissenschaftliche-projekte/transtourismus.html
www.uni-bremen.de

Wissenschaftliche Ansprechpartner:
Dr. Marie Fujitani
AG Deliberation, Bewertung und Nachhaltigkeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT) GmbH
Tel.: +49 421 23800126
E-Mail: marie.fujitani@leibniz-zmt.de

Quelle: IDW 

(nach oben)


Lange Arbeitszeiten von Eltern erhöhen das Risiko für Übergewicht ihrer Kinder

Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Kinder aus Familien mit mittlerem und hohem Einkommen besonders betroffen

Lange Arbeitszeiten von Müttern und Vätern erhöhen das Risiko für ihre Kinder, im Vorschulalter an Übergewicht oder Fettleibigkeit zu leiden. Das ist das Ergebnis einer von WZB-Forscherin Jianghong Li geleiteten Studie, die die Auswirkung elterlicher Arbeitszeiten auf das Körpergewicht von Kindern untersucht hat. Die Studie nutzt Daten des Sozio-oekonomischen Panels (SOEP) für 2.400 Kinder im Alter zwischen 0 und 6 Jahren.

Das Vorschulalter ist eine entscheidende Entwicklungsphase für das Körpergewicht von Kindern. Die Studie zeigt, dass Kinder von Müttern, die 35 Stunden oder mehr pro Woche arbeiten, einem erhöhten Risiko für Übergewicht und Fettleibigkeit ausgesetzt sind – im Vergleich zu Kindern, deren Mütter nicht erwerbstätig sind. Das Risiko erhöht sich, wenn auch die Väter lange arbeiten (55 Stunden oder mehr pro Woche). In diesem Fall wirken sich bereits kürzere Arbeitszeiten der Mutter (24-34 Wochenstunden) negativ auf das Körpergewicht der Kinder aus. Dies zeigt, dass auch die Arbeitszeit von Vätern einen wesentlichen Einfluss auf die Gesundheit von Kindern hat. Die Studie ist eine von wenigen Untersuchungen, die den Effekt der mütterlichen und väterlichen Arbeitszeiten gemeinsam betrachtet.
WZB-Forscherin Jianghong Li vermutet, dass die Ernährungsqualität und das körperliche Aktivitätsniveau von Vorschulkindern mit längeren Arbeitszeiten der Mütter sinken – ein Zusammenhang, den Studien bereits für Deutschland und andere Industrieländer nachgewiesen haben. Eine andere Ursache könnten unterbrochene Schlafrhythmen bei Kindern sein, deren Eltern lange arbeiten. Um diese Erklärungsansätze empirisch zu belegen, seien aber umfangreichere Daten notwendig, so Li.

Der negative Einfluss langer Arbeitszeiten auf das Körpergewicht wurde hauptsächlich bei Kindern aus Familien mit mittlerem und hohem Einkommen festgestellt. Bei Familien mit niedrigem Einkommen lässt sich dagegen dieser Zusammenhang nicht nachweisen. „Eltern mit niedrigem Einkommen sind vielleicht weniger informiert, welchen Einfluss Ernährung und körperliche Bewegung auf das Risiko für Übergewicht und Fettleibigkeit ihrer Kinder haben. Deshalb ändern weniger oder mehr Arbeitsstunden an der Ernährungsqualität oder der körperlichen Betätigung möglicherweise nicht viel. Es ist auch denkbar, dass in einkommensschwächeren Familien die Vorteile eines höheren Verdiensts durch längere Arbeitsstunden die negativen Folgen des Zeitmangels ausgleichen“, erklärt Li.
Ein Kita-Besuch mindert das Risiko für Übergewicht oder Fettleibigkeit hingegen unabhängig vom sozialen Hintergrund der Kinder. „Staatliche Investitionen zur Verbesserung der Kitas, insbesondere der Ernährungsqualität und angemessener körperlicher Bewegung können erwerbstätige Eltern bei ihren Erziehungsaufgaben unterstützen“, sagt Li.

Die Forscher*innen analysierten Langzeitdaten zum Body-Mass-Index (BMI) von Kindern und den Arbeitsstunden ihrer Eltern. Es wurden Daten von 2.413 Kindern im Alter zwischen 0 und 1, 2 und 3 sowie 5 und 6 ausgewertet, die zwischen 2003 und 2014 im Sozio-oekonomischen Panel (SOEP) erhoben wurden.
Die Studie ist im Journal of Epidemiology and Community Health erschienen:
Jianghong Li, Till Kaiser, Matthias Pollmann-Schult, Lyndall Strazdins: „Long work hours of mothers and fathers are linked to increased risk for overweight and obesity among preschool children: Longitudinal evidence from Germany“

Wissenschaftliche Ansprechpartner:
Jianghong Li, Ph.D. ist wissenschaftliche Mitarbeiterin in der Forschungsgruppe der Präsidentin.

Quelle: IDW 

(nach oben)


Wie geht es weiter nach dem EEG? Fraunhofer ISE befragt Besitzer der frühen EEG-geförderten PV-Anlagen

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Im Jahr 2000 wurde das EEG-Gesetz mit dem Ziel verabschiedet, die Entwicklung von Stromerzeugungstechnologien aus erneuerbaren Energien wie die Photovoltaik zu fördern, Energieimporte zu reduzieren und den Klimaschutz voranzutreiben. Besitzern von Solaranlagen wurde eine auf 20 Jahre festgelegte Vergütung für die Einspeisung von Strom ins öffentliche Netz zugesichert. Anfang 2021 laufen nun die ersten EEG-Vergütungen aus. Im Rahmen des SINTEG Projekts »C/sells« ruft das Fraunhofer-Institut für Solare Energiesysteme ISE die Besitzer von älteren PV-Anlagen auf, an einer Befragung zu Betriebsoptionen nach dem EEG teilzunehmen.

Die Umfrage wendet sich vor allem an jene Betreiber, deren PV-Anlagen bis 2025 aus der EEG-Förderung fallen und die nun vor der Frage stehen, wie sie ihre Anlage zukünftig wirtschaftlich betreiben. Das Fraunhofer ISE untersucht die künftigen Betriebsformen für solche Alt-Anlagen. Dabei geht es den Forschenden auch um die Frage, inwieweit die Anlagen weiter einen Beitrag zu Energiewende leisten können: »Viele Betreiber alter PV-Anlagen sind verunsichert darüber, wie sie nach Ablauf der 20 Jahre EEG-Förderung mit ihrer Anlage verfahren sollen. Dabei könnten Haushalte mit PV-Anlagen vor dem Hintergrund fluktuierender Stromeinspeisung aus Solar- und Windanlagen sogar einen Beitrag zur Netzstabilität und damit zur Versorgungssicherheit leisten. Durch die Teilnahme an unserer Studie erfahren PV-Prosumenten, welche Betriebsmöglichkeiten ihnen offen stehen «, so Dr. Sebastian Gölz, Teilprojektleiter des C/sells-Projekts.

Im Wesentlichen stehen den Besitzern alter Solar-Anlagen (sogenannte PV-Prosumenten) fünf Optionen offen:
1. Weiterbetrieb der Anlage mit Speicher: Durch die Investition in einen Speicher können PV-Anlagenbesitzer hohe Eigenverbrauchsgrade realisieren und so die Spitzenlasten von Erzeugung und Verbrauch signifikant absenken. In einer Energy Community mit vernetzten Speichern können mehrere PV-Prosumenten den erzeugten PV-Strom gemeinsam nutzen.

2. Vermarktung des PV-Stroms über Drittanbieter oder eine Plattform: Neben der reinen
Vermarktung (Strombörse oder lokale Grünstromvermarktung) gibt es hier die Möglichkeit, die Erzeugungsleistung der PV-Anlage als Flexibilitätsleistung anzubieten. Der Drittanbieter kann den PV-Strom dann als Regelenergie/Flexibilität an überregionalen Märkten anbieten. Die Vermarktung über eine Plattform, bei der die Teilnehmer direkt interagieren- durch entsprechende Sicherheitstechnologien- ist zukünftig denkbar.
Volleinspeisung: Falls nichts aktiv unternommen wird, wird der erzeugte Strom weiter ins Netz eingespeist und mit einer festen Vergütung pro KWh vergütet, die sich am Börsenstrompreis orientiert

3. Verpachtung der Anlage: Die PV-Anlage wird an einen Anlagenbetreiber verpachtet, der dafür eine Miete zahlt. Der Pächter nutzt den Strom der PV-Anlage (z.B. durch Direktvermarktung) und kümmert sich um die Anlage, falls Defekte auftreten.

4. Abbau der Solaranlage

»Uns interessiert bei der Befragung insbesondere, was den Prosumenten beim Weiterbetrieb selbst besonders wichtig ist – das Geld, die Eigenversorgung oder netzdienliche Beiträge«, erläutert Jessica Berneiser, Projektleiterin der PV-Prosumentenstudie.

Die Sozialwissenschaftlerinnen und Sozialwissenschaftler des Fraunhofer ISE kooperieren bei dieser Befragung mit den Verteilnetzbetreibern Netze BW, EnergieNetz Mitte und der MVV Energie, die alle PV-Prosumenten in ihrem Kundenkreis direkt zur Befragung einladen.

Das Fraunhofer ISE bietet diese Kooperation auch allen anderen bundesdeutschen Verteilnetzbetreibern bis zum Ende der Erhebungszeit an, im Gegenzug erhalten Kooperationspartner eine gesonderte Auswertung nur für ihre Kunden.

Die Umfrage läuft von Juli bis Anfang September auf der Webseite https://www.csells.net/PV-Studie

C/sells ist ein Demonstrationsprojekt im Rahmen des Förderprogramms »Schaufenster intelligente Energie – Digitale Agenda für die Energiewende« (SINTEG) des Bundesministeriums für Wirtschaft und Energie (BMWi) und trägt das Förderkennzeichen 03SIN125.

Weitere Informationen:
https://www.ise.fraunhofer.de/de/presse-und-medien/presseinformationen/2019/wie-…

Anhang
Presseinformation [PDF]
https://idw-online.de/de/attachment72556

Quelle: IDW 

(nach oben)


Höherer Rentenbeitrag würde weder Wachstum noch Beschäftigung bremsen – positive und negative Effekte heben sich auf

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Forscher berechnen volkswirtschaftliche Folgen
In den kommenden Jahren gehen viele Beschäftigte aus geburtenstarken Jahrgängen – die sogenannten Babyboomer – in den Ruhestand. Das wird nicht ohne Folgen für das deutsche Rentensystem bleiben. Dass die Beitragssätze steigen werden, erscheint längerfristig unvermeidlich. Denn ohne eine finanzielle Stärkung der gesetzlichen Rentenversicherung lässt sich künftig kein auskömmliches Sicherungsniveau für alte Menschen erreichen.

Sind höhere Ausgaben für die Rente ein Problem für die wirtschaftliche Entwicklung in Deutschland? Nein, ergibt eine neue Studie des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung. Eine Ausweitung der Finanzierung ist möglich, ohne Wirtschaftswachstum und Beschäftigung zu bremsen. Das liegt daran, dass dann Menschen im Ruhestand insgesamt mehr Geld für ihren Konsum zur Verfügung haben. Es geht also keine Kaufkraft verloren, sondern sie wird zwischen Rentnern, aktiv Beschäftigten und Unternehmen umverteilt, zeigt die Untersuchung von Dr. Fabian Lindner, Dr. Rudolf Zwiener und Dr. Florian Blank (Hans-Böckler-Stiftung) sowie Prof. Dr. Camille Logeay (Hochschule für Wirtschaft und Technik Berlin).* Die Ökonomen stützen ihre Untersuchung auf umfassende Berechnungen mit dem makroökonomischen Modell des IMK, das die Verflechtungen der deutschen Gesamtwirtschaft Daten gestützt nachbildet.

Nach einer weit verbreiteten Meinung schaden höhere Rentenbeiträge der Wirtschaft, weil sie die Arbeitskosten steigern und damit die internationale Wettbewerbsfähigkeit gefährden. Sie würden das Wirtschaftswachstum bremsen und zu steigender Arbeitslosigkeit führen, wird argumentiert. So einfach ist der Zusammenhang jedoch nicht, erklären die Wissenschaftler. Sie haben berechnet, wie sich das Bruttoinlandsprodukt langfristig entwickelt, wenn die Beitragssätze um einen Prozentpunkt steigen. Ergebnis: Es bleibt nahezu unverändert, nominal würde es sogar minimal um 0,3 Prozent höher ausfallen als ohne Erhöhung. Die Beschäftigungsentwicklung wäre nicht negativ betroffen.

Das liegt daran, dass sich verschiedene Effekte gegenseitig aufheben: Zwar fallen die Lohnstückkosten dann tatsächlich etwas höher aus. Das dürfte in erster Linie die Exportwirtschaft treffen. Auf der anderen Seite kämen die höheren Beiträge einer großen Zahl von Rentnerinnen und Rentnern zugute. Diese hätten in der Summe mehr Geld zur Verfügung, was wiederum die Binnennachfrage stärken würde. Selbst wenn man einrechnet, dass die Reallöhne der Arbeitnehmer wegen ihres nun höheren Beitrags zur Rentenversicherung weniger stark zulegen, bleibt unter dem Strich eine leicht positive Wirkung für den Konsum. Steigen die Beitragssätze um mehr als einen Prozentpunkt, erhöhen sich die gesamtwirtschaftlichen Effekte proportional stärker.

– Forscher empfehlen Mix aus höherem Beitrag und Steuermitteln –
Die Folgen für das Wachstum wären nach Berechnungen des IMK ähnlich gering, wenn man die Rentenkasse nicht durch höhere Beiträge, sondern alternativ mit höheren direkten Steuern stärken würde. Allerdings würden sich dann insbesondere die Nettolöhne pro Kopf etwas schlechter als bei einer Beitragssatzerhöhung entwickeln, weil nun die Unternehmen – im Unterschied zur Beitragsfinanzierung – weit weniger an der Finanzierung beteiligt würden. Einen Vorteil hätten Zuschüsse aus Steuermitteln aber: Besserverdiener würden stärker belastet als im Falle der Beitragsfinanzierung und Beamte und Selbständige würden einbezogen. Gesamtgesellschaftlich betrachtet könne dies „die notwendige Akzeptanz von steigenden Rentenausgaben erhöhen“.

Das Fazit der Ökonomen lautet: Die steigenden Rentenausgaben sollten durch eine Kombination aus höheren Beitragssätzen und Steuermitteln finanziert werden. Dadurch seien „keine nennenswerten negativen Wachstums- und Beschäftigungseffekte“ zu befürchten. Zusätzlich sollten Selbstständige und Beamte schrittweise in die gesetzliche Rentenversicherung einbezogen werden, um die notwendigen Ausgaben auf mehr Schultern zu verteilen.

Wissenschaftliche Ansprechpartner:

Dr. Rudolf Zwiener
Rentenexperte IMK
Tel.: 0211-7778-648
E-Mail: Rudolf-Zwiener@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:

*Fabian Lindner, Camille Logeay, Rudolf Zwiener, Florian Blank: Demografischer Wandel: Zu den gesamtwirtschaftlichen Effekten höherer Beitragssätze und Steuern, IMK Policy Brief, Juli 2019. Download: https://www.boeckler.de/pdf/p_imk_pb_2_2019.pdf

Quelle: IDW 

(nach oben)


Für Gutverdiener ist der Renteneintritt ein Gesundheitsrisiko

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Die Erwerbsbiografie hat einen wesentlichen Einfluss darauf, wie der Renteneintritt die Sterblichkeit beeinflusst. So profitieren Männer aus manuellen Routinejobs davon, mit 63 Jahren in den Ruhestand zu gehen. Für Männer und Frauen, die aus gut bezahlten Jobs mit 65 Jahren ihr Berufsleben beenden, steigt hingegen die Sterblichkeit kurz nach der Verrentung. Eine Schlüsselrolle für die Sterblichkeitseffekte spielt die Aktivitätsveränderung um den Renteneintritt. Zu diesem Ergebnis kommt eine aktuelle Studie des RWI – Leibniz-Institut für Wirtschaftsforschung. Grundlage sind Daten der Deutschen Rentenversicherung zu knapp 800.000 Rentnerinnen und Rentnern der Geburtsjahrgänge 1934 bis 1936.

Die wichtigsten Ergebnisse:
– Der Eintritt in den Ruhestandkann die Sterblichkeit positiv oder negativ beeinflussen. So sinkt bei Männern aus der unteren Hälfte der Einkommensverteilung, die mit 63 Jahren ihr Berufsleben beenden, die Sterblichkeit kurz nach der Verrentung um gut ein Prozent.

– Bei Männern und Frauen aus der oberen Hälfte der Einkommensverteilung, die mit 65 Jahren in Rente gehen, steigt die Sterblichkeit hingegen um zwei bis drei Prozent.

– Ausschlaggebend für den Effekt des Renteneintrittsist die Erwerbsbiografie vor der Rente. Männer, die mit 63 Jahren in Rente gehen, kommen überwiegend aus Berufen mit manuellen Routinetätigkeitenund relativ geringem Verdienst. Viele dieser Jobs sind körperlich anstrengendoder mit Gefährdungenam Arbeitsplatz verbunden. Weniger Stress und Gefahrensowie ein relativ hoher Freizeitwert senkenbei dieser Gruppe nach dem Renteneintritt die Sterblichkeit.

– Noch positiverwirkt sich die Verrentung auf Männer aus, die mit 63 Jahren aus vorheriger Arbeitslosigkeitin Rente gehen. Sie profitieren davon, dann nicht mehr dem Stigma der Arbeitslosigkeitausgesetzt zu sein.

„Die Studie zeigt erstmals, welch großen Einfluss die Erwerbsbiografie auf die Gesundheit im Rentenalter hat“, sagt Matthias Giesecke, RWI-Wissenschaftler und Studienautor. „Die Erwerbsbiografie ist entscheidend für die Art der Aktivitätsveränderung um den Renteneintritt. Gerade frühere Gutverdiener sind durch den Renteneintritt offenbar größeren Gesundheitsrisiken ausgesetzt. Bei Ihnen steht wahrscheinlich die soziale Isolation im Rentenalter im Vordergrund, weil sie mit der Berufstätigkeit auch Berufsprestige und soziale Netzwerke verlieren.“

Die Untersuchung basiert auf Daten des Forschungsdatenzentrums der Rentenversicherung (FDZ-RV) der Deutschen Rentenversicherung. Analysiert wurden Informationen zu rund 280.000 Rentnerinnen und gut 500.000 Rentnern der Geburtsjahrgänge 1934 bis 1936, die für den Zeitraum 1994 bis 2013 ausgewertet wurden. Als zweite Datenquelle diente das Sozio-oekonomische Panel (SOEP).

Wissenschaftliche Ansprechpartner:
Dr. Matthias Giesecke, Tel.: (0201) 81 49-235
Leonard Goebel (Kommunikation), Tel.: (0201) 81 49-210

Originalpublikation:
http://www.rwi-essen.de/publikationen/ruhr-economic-papers/1010/

Quelle: IDW 

(nach oben)


Wie Meeressedimente zur Bildung von Treibhausgasen beitragen

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Forschungsteam der Universität Tübingen untersucht Mikroben und chemische Prozesse an Küsten als natürliche Quelle für Lachgas
Lachgas (Distickstoffmonoxid) ist als Treibhausgas fast 300 Mal so schädlich wie Kohlendioxid. Neben menschengemachten Einflüssen wie der Freisetzung aus Düngemitteln sowie Auto- und Industrieabgasen gibt es auch natürliche Quellen. Bisher kennt man jedoch längst nicht alle Prozesse der Lachgasbildung und deren Größenordnung. Nun hat ein Forschungsteam in der Geomikrobiologie unter der Leitung von Professor Andreas Kappler und Dr. Caroline Schmidt vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen eine bedeutende Quelle für das klimaschädliche Gas ausgemacht. Es fand heraus, dass nicht allein die Aktivität von Bakterien, sondern auch chemische Prozesse in Sedimenten der Meeresküste zur Bildung von Lachgas führen. Dieser Quelle ist dort bis zu einem Viertel des gebildeten Lachgases zuzuschreiben. Herkunft und Umfang der Produktion klimaschädlicher Gase sind wichtige Informationen, um die künftige Klimaentwicklung einzuschätzen. Die Studie wird in der Fachzeitschrift Scientific Reports veröffentlicht.

„Bisher ging man davon aus, dass in klassischen marinen Küstensedimenten Lachgas hauptsächlich als Zwischenprodukt bei der Umsetzung von Nitrat durch Bakterien entsteht“, sagt Andreas Kappler. Doch habe man damit nicht den ganzen Umfang der Gasbildung erklären können. Ungeklärte Lachgasquellen hätten sich auch bei verschiedenen Studien an natürlichen Systemen wie den Böden von Reisfeldern und an Flusssedimenten ergeben. In der neuen Studie nahm das Forschungsteam Sedimentproben von der dänischen Ostseeküste und stellte im Labor in einem künstlichen Mikrokosmos die draußen herrschenden Bedingungen nach. In der kontrollierten Umgebung ließen sich die ablaufenden Einzelprozesse identifizieren und mengenmäßig erfassen.

Nur die Ausgangssubstanzen stammen von Mikroorganismen
Dabei zeigte sich, dass für einen erheblichen Teil der Lachgaserzeugung die chemische Denitrifikation (Chemodenitrifikation) verantwortlich ist. Als Denitrifikation wird ansonsten die mikrobielle Umwandlung des im Nitrat gebundenen Stickstoffs zu molekularem Stickstoff und Stickoxiden wie dem Lachgas bezeichnet. „Zwar werden die Ausgangssubstanzen der Chemodenitrifikation, zweiwertiges Eisen und Nitrit, ebenfalls durch mikrobielle Prozesse im Sediment gebildet“, erklärt Caroline Schmidt. Doch die Umsetzung zu Lachgas geschehe ohne Beteiligung von Mikroorganismen. Die chemische Reaktion laufe spontan ab. „Dabei wird extrem schnell Lachgas gebildet und freigesetzt“, sagt die Forscherin. Der Umfang der Lachgasbildung durch diese Reaktion könne die bisher rätsel-hafte Herkunft des klimaschädlichen Gases erklären.

„Wir müssen alle durch Menschen verursachten und natürlichen Quellen der Bildung von Treib-hausgasen verstehen, um die künftige Klimaentwicklung abschätzen zu können“, betont Kappler. Schmidt ergänzt: „Die Studie verdeutlicht, wie Prozesse auf kleinster Skala – Interaktionen zwischen Mikroorganismen und der Sedimentchemie – massive Auswirkungen auf globale Umweltphänomene wie die Treibhausgasemission haben können.“
Wissenschaftliche Ansprechpartner:

Universität Tübingen
Mathematisch-Naturwissenschaftliche Fakultät
Zentrum für Angewandte Geowissenschaften
Prof. Dr. Andreas Kappler
Telefon +49 7071 29-74992
andreas.kappler@uni-tuebingen.de

Dr. Caroline Schmidt
Telefon +49 7071 29-75496
caroline.schmidt@uni-tuebingen.de

Originalpublikation:

Otte JM, Blackwell N, Ruser R, Kappler A, Kleindienst S, Schmidt C. 2019. Cause and effects of N2O formation by nitrite-induced (chemo)denitrification in coastal marine sediment. Scientific Reports, 31. Juli 2019, https://dx.doi.org/10.1038/s41598-019-47172-x

Quelle: IDW 

(nach oben)


Immer schön absichern! Häufigkeit und Ursachen von defensiven Entscheidungen

Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Obwohl sie es eigentlich besser wissen, entscheiden sich Entscheidungsträger*innen häufig nicht für die sachlich beste Option. Stattdessen wählen sie die Option, welche das geringste Risiko für die eigene Person birgt. Wie häufig Entscheidungsträger*innen auf solche sogenannten defensiven Entscheidungen setzen und wie eine mangelnde Kommunikations- und Fehlerkultur dieses Verhalten bedingt, hat ein Forscherteam des Max-Planck-Instituts für Bildungsforschung untersucht. Dafür befragten sie 950 Führungskräfte einer öffentlichen Einrichtung. Die Ergebnisse der Studie sind im Journal Business Research erschienen.

Ob in einem privaten Großunternehmen oder in einer öffentlichen Einrichtung: Führungskräfte und Manager*innen müssen ständig Entscheidungen treffen, die Auswirkungen auf Kolleg*innen, die Organisation und natürlich auch auf die eigene Person haben. Idealerweise entscheiden sie sich für die Option, die für die Organisation am besten ist. Doch dies geschieht bei weitem nicht immer. Häufig entscheiden sie sich für die aus Sicht der Organisation schlechtere Alternative, um sich selbst zu schützen. Diese Alternative kann bequemer sein, weniger Gegenwind mit sich bringen oder die Möglichkeit bieten, dass jemand anderes die Verantwortung trägt, falls etwas schiefgeht.

Um die Häufigkeit und Gründe für diese sogenannten defensiven Entscheidungen zu erforschen, befragte ein Team des Max-Planck-Instituts für Bildungsforschung in einer anonymen Studie 950 Führungskräfte aller Hierarchiestufen einer öffentlichen Einrichtung. Rund 80 Prozent der Befragten gaben an, dass mindestens eine der zehn wichtigsten Entscheidungen der vergangenen zwölf Monate defensiv war. Im Durchschnitt waren etwa 25 Prozent der wichtigsten Entscheidungen nicht im besten Interesse der Organisation. Gleichzeitig zeigen erste Ergebnisse aus DAX-Unternehmen, dass hier defensive Entscheidungen noch weiter verbreitet sind.

„Defensive Entscheidungen sind in vielen Organisationen weit verbreitet. Es gibt sie in öffentlichen Einrichtungen, in der privaten Wirtschaft genauso wie in Krankenhäusern. Selbst in den obersten Führungsebenen trifft man Entscheider, bei denen viele der wichtigsten Entscheidungen nicht primär im besten Interesse der Organisation sind, sondern zuerst dazu dienen, sich selbst zu schützen. In unserer Studie konnten wir darüber hinaus zeigen, dass es einen Zusammenhang zwischen der Arbeitskultur im Team und der Häufigkeit von defensiven Entscheidungen gibt“, sagt Florian Artinger, Wissenschaftlicher Mitarbeiter im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und Mitgründer der Simply Rational GmbH, einer Ausgründung des Instituts.

Entscheidungsträger*innen wurden danach gefragt, wie sie die Kommunikations- und Fehlerkultur in ihrem Team empfinden, beides wichtige Aspekte einer Organisationskultur. Wer die Fehlerkultur als schlecht bewertete, traf deutlich häufiger defensive Entscheidungen als jemand, der die Fehlerkultur als gut empfand. Häufig müssen Entscheidungen in einem komplexen und dynamischen Umfeld gemacht werden, in dem das Risiko besteht, dass man scheitert. In einer Organisation mit einer positiven Fehlerkultur werden Misserfolge nicht stigmatisiert und man unterstützt sich gegenseitig, auch wenn Fehler passieren. Ebenfalls konnte in Bezug auf die Kommunikationskultur ein Zusammenhang festgestellt werden. In einer positiven Kommunikationskultur haben alle Mitarbeiter*innen eines Teams die Möglichkeit, über Ideen, Meinungen oder Bedenken zu sprechen, ohne Nachteile zu befürchten. Entscheidungsträger*innen, die angaben, in einem Team mit guter Kommunikationskultur zu arbeiten, trafen weniger defensive Entscheidungen.

„Defensive Entscheidungen verursachen nicht nur erhebliche Mehrkosten. Sie haben auch negative Auswirkungen auf die Innovationskraft, Mitarbeiterführung oder Kundenzufriedenheit. Damit Manager wieder die für die Organisation besten Entscheidungen treffen, braucht es eine Fehlerkultur statt einer Absicherungskultur“, sagt Gerd Gigerenzer, Mitautor der Studie und Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung sowie Mitgründer von Simply Rational.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Artinger, F. M., Artinger, S., & Gigerenzer, G. (2019). C. Y. A.: Frequency and causes of defensive decisions in public administration. Business Research, 12(1), 9-25. https://doi.org/10.1007/s40685-018-0074-2

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2019/08/immer-schoen-absichern-haeufigk…

Quelle: IDW 

(nach oben)


Listerien im Tiefkühlgemüse und Melamin in Bambusgeschirr

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Bericht aus dem Europäischen Schnellwarnsystem für Lebensmittel und Futtermittel 2018

Informationen zu mehr als 3.600 Fällen wurden im vergangenen Jahr über das Europäische Schnellwarnsystem für Lebensmittel und Futtermittel (RASFF) ausgetauscht. Dank des Behördennetzwerkes konnte z. B. ein internationaler Listeriose-Ausbruch aufgeklärt und Bambusgeschirr mit einer gesundheitsgefährdenden Menge an Melamin vom Markt genommen werden. „Die Zahlen des Vorjahres zeigen, wie wichtig in Zeiten des grenzüberschreitenden Handels ein europäisches Netzwerk zur Wahrung eines hohen Maßes an Lebensmittelsicherheit ist“, so der Präsident des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit (BVL) Dr. Helmut Tschiersky. „Die europäischen Behörden arbeiten im RASFF sehr eng, schnell und erfolgreich zusammen.“

Mithilfe des Schnellwarnsystems RASFF informieren sich die Staaten der Europäischen Union und assoziierte Länder seit nunmehr 40 Jahren gegenseitig über potentiell gesundheitsgefährdende Lebensmittel, Futtermittel und Lebensmittelkontaktmaterialien wie Geschirr, Besteck oder Verpackungen. 2018 hatten 926 aller RASFF-Meldungen einen Bezug zu Deutschland. Besonders häufig wurde dabei vor Nüssen und Nusserzeugnissen gewarnt (16,2 % aller Meldungen), gefolgt von Obst und Gemüse (13,7 %) und Nahrungsergänzungsmitteln, diätetischen und angereicherten Lebensmitteln (8,9 %).

In über 30 % der Meldungen wurde auf eine potentielle Gesundheitsgefahr durch Mikroorganismen wie Salmonellen und Listerien hingewiesen. Schimmelpilzgifte (14,7 %) und eine gesundheitsgefährdende Zusammensetzung (8,2 %), wie beispielsweise nicht zugelassene Inhaltstoffe, waren ebenfalls häufige Gründe für einen Informationsaustausch über das europäische Netzwerk.

Die in den Meldungen mit Deutschlandbezug genannten Produkte stammten zu 14,8 % aus der Bundesrepublik selbst. Danach folgten die Herkunftsländer China (8,3 %) und Türkei (8,0 %). Bei einem großen Teil der chinesischen Produkte handelte es sich um Lebensmittelkontaktmaterialien, die aufgrund des Übergangs unerwünschter Stoffe aus dem Material in Lebensmittel beanstandet wurden. Die aus der Türkei stammenden Produkte wurden meistens bereits an den europäischen Außengrenzen beanstandet und zurückgewiesen und gelangten somit nicht auf den europäischen Markt. Dies betraf vor allem Obst, Gemüse und Nüsse, bei denen häufig Schimmelpilzgifte nachgewiesen wurden.

Listerien in Tiefkühlgemüse
2018 konnte mittels des Europäischen Schnellwarnsystems RASFF auch ein lebensmittelbedingter Krankheitsausbruch aufgeklärt werden. Bereits im Vorjahr hatte die Europäische Kommission die EU-Mitgliedstaaten auf eine Häufung von Listeriose-Erkrankungen in mehreren europäischen Staaten aufmerksam gemacht.
Im Januar 2018 informierte zunächst Finnland die übrigen Staaten des Netzwerks über einen Fund von Listeria monocytogenes in gefrorenem Mais. Der Mais, wie auch anderes kontaminiertes Tiefkühlgemüse, stammte aus Ungarn. Von dort aus wurde der Mais an Unternehmen in mehreren Staaten geliefert, in denen er in verschiedenen Produkten weiterverarbeitet wurde. Diese verarbeiteten Produkte wiederum wurden in mehr als 80 Ländern weltweit verkauft.

Nach der finnischen Erstmeldung folgten über 300 weitere Meldungen aus ganz Europa sowie von der Europäischen Behörde für Lebensmittelsicherheit (EFSA). Sie alle trugen dazu bei, die Lieferwege des Maises zu rekonstruieren, die betroffenen Produkte vom Markt zu nehmen und damit weitere Infektionen zu verhindern.

Melamin in Bambusgeschirr
Neben Lebensmitteln und Futtermitteln wird das RASFF auch zum Informationsaustausch über Lebensmittelkontaktmaterialien wie Verpackungen, Besteck und Geschirr genutzt. Geht von diesen ein Gesundheitsrisiko für die Verbraucher aus, z. B. durch den Übergang gesundheitsschädlicher Inhaltsstoffe vom Material auf das Lebensmittel, so wird eine Meldung ins Schnellwarnsystem eingestellt.

Geschirr aus Bambusfasern, besonders für Kinder, ist seit einigen Jahren auf dem deutschen Markt sehr präsent. Im Jahr 2018 wurden aufgrund einer amtlichen Marktkontrolle in Deutschland Bambusteller beanstandet. In diesem Fall waren die Migrationsgrenzwerte für Melamin überschritten, d. h. ein nicht akzeptabler Übergang von Melamin aus dem Kunststoff auf das Lebensmittel fand statt. Zudem suggerierte die Aufmachung des Produktes, dass es ausschließlich aus Bambusfasern und Maisstärke hergestellt wurde. Für den Verbraucher war nicht ersichtlich, dass die Teller zu einem erheblichen Anteil aus dem Kunststoff Melamin-Formaldehydharz bestanden.

Da das beanstandete Produkt auch online vertrieben wurde, wurde die beim BVL angesiedelte Zentralstelle der Bundesländer für die Kontrolle des Internethandels „G@ZIELT“ aktiv. Mit ihrer Hilfe konnten neben dem stationären Vertrieb auch Onlinehändler in Deutschland und Großbritannien identifiziert werden. Diese Informationen wurden über das RASFF mit den übrigen europäischen Staaten geteilt, so dass auch dort die entsprechenden Maßnahmen eingeleitet werden konnten.

Von der Meldung zum Rückruf
Als nationale RASFF-Kontaktstelle erhält das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) alle Meldungen des Schnellwarnsystems. Ist ein gesundheitsgefährdendes Produkt nach Deutschland gelangt, so prüft das BVL die Meldung und leitet sie an die zuständigen Überwachungsbehörden in den Bundesländern weiter.

Vor Ort treten die Behörden an die betroffenen Unternehmen heran. Alle erforderlichen Maßnahmen – z. B. ein öffentlicher Rückruf – werden eingeleitet, damit das Produkt schnellstmöglich vom Markt genommen und somit die Verbraucher geschützt werden können.

Stellt sich währenddessen heraus, dass noch weitere Staaten mit dem Produkt beliefert wurden, so wird dies ebenfalls über das RASFF kommuniziert. Zusätzlich zu der eigentlichen Meldung werden auch weiterführende Informationen zu Vertriebswegen und Analyseergebnissen über das Netzwerk geteilt.

Neben der Europäischen Kommission, der Europäischen Behörde für Lebensmittelsicherheit (EFSA) und der EFTA-Überwachungsbehörde (ESA) sind inzwischen 32 Länder Mitglieder des RASFF-Netzwerks, darunter sämtliche EU-Mitgliedstaaten sowie Norwegen, die Schweiz, Liechtenstein und Island als assoziierte Staaten. Für Deutschland stellt das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) als nationale Kontaktstelle 24 Stunden am Tag und sieben Tage die Woche den Informationsaustausch sicher.

Weiterführende Informationen
• Grafiken zu den Meldungen im RASFF (mit Bezug zu Deutschland) 2018: https://www.bvl.bund.de/rasff_grafiken
• Das RASFF im Video: https://www.bvl.bund.de/rasff_video
• Europäische Schnellwarnsysteme: https://www.bvl.bund.de/schnellwarnsysteme
• Blick ins RASFF-Portal: https://webgate.ec.europa.eu/rasff-window/portal/?event=SearchForm&cleanSear…
• EU-Kommission zum RASFF: https://ec.europa.eu/food/safety/rasff_en

Anhang
2019 08 06 PI RASFF
https://idw-online.de/de/attachment72615

Quelle: IDW 

(nach oben)


Meeresspiegel steigt seit 50 Jahren schneller

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Wissenschaftler der Universität Siegen haben herausgefunden: Der Anstieg des globalen Meeresspiegels hat früher Fahrt aufgenommen, als bisher bekannt. Demnach lässt sich schon ab Ende der 1960er Jahre eine deutliche Beschleunigung nachweisen.

Der Himmel ist blau, die Sonne scheint – und trotzdem stehen die Straßen knietief unter Wasser. Das Phänomen des „sunny day flooding“, also Überflutungen trotz schönen Wetters, ist an der amerikanischen Ostküste bereits weit verbreitet. Wenn die reguläre Flut ihren Höhepunkt erreicht, strömt das Meerwasser in tiefliegende Straßen und Wohngebiete. Grund ist der globale Meeresspiegel-Anstieg, er macht sich hier unmittelbar bemerkbar. Wissenschaftlern der Universität Siegen ist es gemeinsam mit KollegInnen aus Großbritannien, den USA und Spanien gelungen, die Entwicklung des Meeresspiegels seit dem Jahr 1900 mit bisher unerreichter Präzision zu rekonstruieren. Die Studie zeigt: Bereits Ende der 1960er Jahre hat sich der Anstieg des Meeresspiegels deutlich beschleunigt, seither verläuft die Entwicklung auf konstant hohem Niveau. Die Studie ist jetzt in der Fachzeitschrift „Nature Climate Change“ veröffentlicht worden.

„Seit den frühen 1990er Jahren wird der globale Meeresspiegel sehr präzise durch Satelliten gemessen, daher wissen wir, dass er in dieser Zeit beschleunigt gestiegen ist. Was wir bisher nicht sagen konnten, war, wann diese Beschleunigung eigentlich begonnen hat, von welcher Region sie ausgegangen ist – und welche Prozesse hauptsächlich dazu beigetragen haben“, sagt Dr. Sönke Dangendorf vom Forschungsinstitut Wasser und Umwelt (fwu) der Universität Siegen. Das Problem: Für den Zeitraum vor 1992 stehen den WissenschaftlerInnen lediglich Daten lokaler Tidepegel zur Verfügung, die für die Schifffahrt entlang der Küsten installiert wurden.

Präzise Berechnungen seien mit den Pegel-Daten bisher nicht möglich gewesen, erklärt Dangendorfs Kollege Carling Hay vom Boston College: „In unserer Studie haben wir durch die Kombination zweier Berechnungsmethoden jedoch eine Möglichkeit gefunden, die Entwicklung des Meeresspiegels anhand der Pegel-Daten ähnlich exakt zu rekonstruieren, wie mit Satellitenmessungen.“ Den Wissenschaftlern ist es damit erstmals gelungen, detaillierte Erkenntnisse zum Meeresspiegel-Anstieg zu gewinnen, die bis zum Jahr 1900 zurückreichen. Die Berechnungen zeigen, dass die von Satelliten gemessene, jüngste Beschleunigung des Meeresspiegel-Anstiegs bereits Ende der 1960er Jahre begonnen hat und damit seit rund 50 Jahren andauert.

Die Studie lässt außerdem Schlüsse darauf zu, wo die zu beobachtende Beschleunigung entstanden ist und welche Prozesse sie begünstigt haben, erklärt Dangendorf: „Der Meeresspiegel steigt nicht in jeder Region gleich stark an, sondern variiert regional sehr stark. Anhand unserer Daten konnten wir feststellen, dass der beschleunigte Anstieg seinen Ursprung hauptsächlich in der südlichen Hemisphäre hat, vor allem im subtropischen Südpazifik, östlich von Australien und Neuseeland.“ In dieser Region konnten die WissenschaftlerInnen eine fünfmal stärkere Beschleunigung nachweisen, als im globalen Schnitt.

Zu erklären sei dieses Phänomen mit starken, westlichen Winden in der südlichen Hemisphäre, sagt Dangendorf: „Es gibt deutliche Anzeichen dafür, dass die Westwinde den schnelleren Anstieg des Meeresspiegels seit dem Ende der 60er Jahre verursacht haben. Unsere Messdaten zeigen, dass sich die Winde um diese Zeit intensiviert haben. Außerdem hat sich ihre Position im Südpazifik leicht verändert.“ Aus Sicht der Wissenschaftler mit direkten Auswirkungen auf den Meeresspiegel: Zum einen haben die Winde wärmere Wassermassen aus den oberen Schichten des Ozeans Richtung Norden transportiert, was den beschleunigten Anstieg des Meeresspiegels im Subtropischen Südpazifik erklärt. Zum anderen wurden kühlere Wassermassen, die Wärme schneller speichern, durch die Winde an die Oberfläche bewegt. „So konnte mehr Wärme aus der Atmosphäre in den Ozean gepumpt werden, wodurch sich der Wasserkörper ausgedehnt hat und der Meeresspiegel gestiegen ist“, erklärt Dangendorf.

Spielten in den 60er Jahren vor allem die stärkeren Westwinde und die damit einhergehende thermale Expansion eine wichtige Rolle für den beschleunigten Meeresspiegel-Anstieg, kommt seit Beginn der 90er Jahre das Abschmelzen der Gletscher in Grönland und der Antarktis hinzu. Zurückzuführen seien beide Phänomene mit großer Sicherheit auf die vom Menschen verursachte Erderwärmung, sagt Dangendorf: „Der Meeresspiegel ist auch früher schon zeitweise beschleunigt angestiegen, beispielsweise in den 1930er Jahren. Die Tatsache, dass die aktuelle Beschleunigung bereits seit 50 Jahren andauert, ist jedoch sehr außergewöhnlich. Sie zeigt, dass sich hier ein nachhaltiges Muster entwickelt hat und bestätigt die Prognosen aktueller Klimamodelle, dass der Meeresspiegel auch im 21. Jahrhundert beschleunigt ansteigen wird.“

Hintergrund:
An der Studie waren auch Prof. Dr. Jürgen Jensen und Kevin Berk von der Universität Siegen beteiligt. Außerdem Francisco M. Calafat vom „National Oceanography Centre“ in Southampton, Christopher G. Piecuch von der „Woods Hole Oceanographic Institution“ in den USA, sowie Marta Marcos von der „University of the Balearic Islands“ in Spanien.

Wissenschaftliche Ansprechpartner:

Dr. Sönke Dangendorf (Forschungsinstitut „Wasser und Umwelt“, Universität Siegen)
E-Mail: soenke.dangendorf@uni-siegen.de
Tel.: 0271 – 740 2518

Originalpublikation:
https://www.nature.com/articles/s41558-019-0531-8

Anhang
Eine Intensivierung und leichte Verschiebung der westlichen Winde haben dazu geführt, dass der Meeresspiegel im Südpazifik deutlich schneller ansteigt, als im globalen Schnitt.
https://idw-online.de/de/attachment72599

Quelle: IDW 

(nach oben)


Geplatzte Hoffnung: Keine Chance für Umwelt-entlastende Plastik-Zersetzung durch Bakterien

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Nein, sie werden uns bei diesem Umweltproblem nicht helfen: Bakterien sind definitiv nicht in der Lage, in die Meeresumwelt geratenes Plastik zu zersetzen und sie werden diese Fähigkeit voraussichtlich auch nicht evolutionär erwerben. Zu diesem Schluss kommen die Mikrobiologen Sonja Oberbeckmann und Matthias Labrenz vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) in einer groß angelegten Übersichtsstudie über Biofilme auf Mikroplastik. Die Ergebnisse wurden nun in der renommierten internationalen Fachzeitschrift Annual Review of Marine Science veröffentlicht.

Unsere Gewässer sind mit Mikroplastik verschmutzt. Seien es Fasern aus Fleece Pullovern, Plastikkügelchen aus Zahncreme, oder zerfallende Plastiktüten und -flaschen: All diese kleinen Plastikteilchen landen irgendwann im Ozean, mit zurzeit noch nicht absehbaren Folgen für die marine Umwelt. Da die Mini-Partikel im Meer aber auch von Bakterien besiedelt werden, stellte sich recht früh die Frage, ob sich spezifische Bakterien auf Mikroplastik anreichern könnten. Vielleicht wären solche Spezialisten sogar in der Lage, irgendwann das unverwüstliche Material abzubauen und damit die Meere auf längere Sicht von dieser Kontamination zu befreien.

Die IOW-Mikrobiologen Sonja Oberbeckmann und Matthias Labrenz beschäftigen sich bereits seit einigen Jahren mit dieser Frage und haben nun, neben ihren eigenen, die weltweit zu diesem Thema erschienenen Ergebnisse aus mehreren hundert Studien zusammengefasst und neu ausgewertet. Sie kommen zu dem Schluss, dass die Wechselwirkungen zwischen Bakterien und Mikroplastik-Partikeln in marinen Lebensräumen äußerst begrenzt sind. Bakterien besiedeln zwar diese Partikel, sie bauen sie aber nicht ab, da der Energieaufwand für sie viel zu hoch wäre. Mehr noch: Mikroplastik ist so schwer abbaubar für Bakterien, dass sie unter marinen Bedingungen mit hoher Wahrscheinlichkeit auch in Zukunft keinen Plastik-Abbaumechanismus entwickeln werden. „Somit sind wir mit der Herausforderung, das Mikroplastik loszuwerden, weiterhin auf uns alleine gestellt. Da wir es aber nicht aus unseren Meeren entfernen können, wird es sich auch in Zukunft dort immer mehr anreichern. Und wir wissen nicht, ob es sich dort letztendlich zu einer ‚chronischen Krankheit‘ entwickeln könnte“, kommentieren Oberbeckmann und Labrenz dieses Ergebnis ihrer Studie. Aus diesem Grunde fordern die beiden Mikrobiologen proaktive und konsequente Maßnahmen zum Schutz der Meere vor Plastikvermüllung, wie zum Beispiel eine signifikante und zeitnahe Reduzierung von Wohlstandsplastik (von der Plastiktüte bis zum Plastikspielzeug) sowie Recyling-Systeme, die ihr Potential vollständig ausschöpfen und weltweit kostengünstig eingesetzt werden können.

Gute Nachrichten erbrachte die umfangreiche Übersichtsstudie aber auch: Die häufig postulierte Annahme, dass sich pathogene Bakterien spezifisch auf Mikroplastik anreichern könnten, und auf diese Weise besonders rasch und weit verbreitet werden, ließ sich nicht erhärten. Die auf Mikroplastik wachsenden Mikroorganismen gehören in der Regel zu Gruppen, die typische Besiedler von im Meer treibenden Partikeln sind und dabei nicht zwischen natürlichen und künstlichen Oberflächen unterscheiden. Unter ihnen sind zwar auch einige schädliche Bakterien, aber nicht mehr als auf anderen Partikeln, wie Holz oder andere organische Substanzen. In dieser Hinsicht stellt Mikroplastik in marinen Lebensräumen also kein erhöhtes Risiko dar.

Kontakt IOW-Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Sonja Oberbeckmann, IOW-Sektion Biologische Meereskunde
Tel.: 0381 – 5197 3464 | sonja.oberbeckmann@io-warnemuende.de

PD. Dr. Matthias Labrenz, IOW-Sektion Biologische Meereskunde
Tel.: 0381 – 5197 378 | matthias.labrenz@io-warnemuende.de

Originalpublikation:
Oberbeckmann, S., Labrenz, M. (2019). Marine microbial assemblages on microplastics: diversity, adaptation, and role in degradation. Annu Rev Mar Sci, https://doi.org/10.1146/annurev-marine-010419-010633

Quelle: IDW 

(nach oben)


Sorgt der Videobeweis im Fußball wirklich für mehr Gerechtigkeit?

Anneliese Odenthal Presse und Kommunikation
Universität zu Köln

Statement von Dr. Christian Deckenbrock vom Institut für Arbeits- und Wirtschaftsrecht
Er empfiehlt Wiederholungen strittiger Szenen auf den Bildschirmen im Stadion und Offenlegung des Funkverkehrs

„Ich bin nach wie vor der Meinung, dass der Videobeweis Blödsinn ist. Vor allem die Diskussionen am Arbeitsplatz werden uns fehlen – die vermisse ich jetzt schon“, sagte Bayern-Präsident Uli Hoeneß anlässlich der Einführung des Videobeweises in der Fußball-Bundesliga zur Saison 2017/18. Die Befürchtung oder Hoffnung – je nach Sichtweise -, dass über Schiedsrichterentscheidungen nicht mehr diskutiert wird, hat sich allerdings nicht bewahrheitet. Im Gegenteil: Seither gibt es rund um den Begriff der „klaren und offensichtlichen“ Fehlentscheidung, die Voraussetzung für einen Eingriff des „Video-Assistant-Referees“ (VAR) ist, ganz neues Diskussionspotenzial.

Gleichwohl lässt sich nicht leugnen, dass dank des Videobeweises die Anzahl solcher klaren und offensichtlichen Fehlentscheidungen abgenommen hat – der Deutsche Fußball-Bund (DFB) spricht für die Saison 2018/19 davon, dass 82 von 92 Fehlentscheidungen verhindert wurden. Es verwundert daher nicht, dass der Videobeweis immer flächendeckender eingesetzt wird. Nach seiner Premiere bei WM und Champions League werden ab der kommenden Saison auch die Schiedsrichter der 2. Bundesliga den sogenannten „Kölner Keller“ anrufen können.

Mithilfe des Videobeweises können offensichtliche und klare Fehlentscheidungen unmittelbar, also noch vor der nächsten Spielfortsetzung, korrigiert werden. Der Videobeweis steht daher nicht im Widerspruch zum sportrechtlich anerkannten „Grundsatz der Unanfechtbarkeit der Tatsachenentscheidung“. Dieser besagt nur, dass Fehlentscheidungen von Schiedsrichterinnen und -richtern in der Regel nicht im Wege eines auf Spielwiederholung gerichteten Einspruchs nachträglich überprüft werden dürfen. Denn der Reiz und die Attraktivität sportlicher Wettkämpfe leben davon, dass die Spiele auf dem Feld und nicht am grünen Tisch entschieden werden. Es verwundert daher nicht, dass auch Entscheidungen, die trotz – oder wegen – des Videobeweises falsch getroffen werden, in der Regel nicht eine Neuansetzung eines Meisterschaftsspiels nach sich ziehen dürfen. Erhobene Einsprüche gegen die Spielwertung haben daher praktisch keine Erfolgsaussicht.

Dass mit der Einführung des Videobeweises verbundene „Mehr an Gerechtigkeit“ hat aber seine natürlichen Grenzen: Menschliche Fehler lassen sich bei „Interpretationsentscheidungen“ auch mithilfe der Technik und von fortwährenden intensiven Schulungen nicht vollständig vermeiden, zumal bei der Entscheidungsfindung erheblicher Zeitdruck besteht. Der Begriff „Videobeweis“ gaukelt eine Objektivität vor, die längst nicht immer gegeben ist und auch nicht gegeben sein kann.

Fehlerfreiheit wird man auch künftig nicht erwarten können, und manchmal kommt es sogar erst aufgrund des Videobeweises zu einer Fehlentscheidung (der DFB spricht für die Saison 2018/19 von zwei Fällen). Zudem ist der Einsatz des Videobeweises – zur Wahrung des Spielflusses – von vornherein auf bestimmte Spielsituationen beschränkt. Die Verhängung einer gelb-roten Karte oder eines Freistoßes an der Strafraumgrenze etwa zählen nicht hierzu. Aber auch aus einem zu Unrecht gegebenen Eckball kann das spielentscheidende Tor fallen. Mehr Gerechtigkeit „insgesamt“ bedeutet daher nicht zwingend, dass das Endergebnis im konkreten Spiel tatsächlich „gerecht“ ist.
Damit der Videobeweis auch bei seinen Kritikern weiter an Akzeptanz gewinnt, bedarf es mehr Transparenz für die Zuschauer und Zuschauerinnen in den Stadien und vor den Bildschirmen. Dabei darf auch die Wiederholung strittiger Entscheidungen auf der Videoleinwand oder die Offenlegung des Funkverkehrs zwischen Schiedsrichterteam und Videoassistenten kein Tabu sein. Zudem sollte die FIFA überlegen, die Entscheidung, ob es zur Überprüfung einer Situation kommt, grundsätzlich den Mannschaften zu überantworten (das sogenannte Prinzip der „Challenge“ oder Anrufung). Sofern ein Team von ihrem (in der Anzahl zu begrenzenden) Anrufungsrecht Gebrauch macht, sollte die Überprüfung stets vom Feldschiedsrichter selbst vorgenommen werden. Der Video-Assistent sollte sich dagegen nur bei „Schwarz-Weiß“-Entscheidungen (insbesondere Abseits oder Vergehen innerhalb oder außerhalb des Strafraums) von sich aus einmischen dürfen.

Kurzbiographie:
Dr. Christian Deckenbrock ist Akademischer Rat am Institut für Arbeits- und Wirtschaftsrecht d3er Universität zu Köln. Er engagiert sich ehrenamtlich als Vizepräsident Recht des Deutschen Hockey-Bundes e.V. Zudem ist er Schiedsrichter in der Hockey-Bundesliga (470 Einsätze) sowie Turnieroffizieller für den internationalen Hockey-Verband mit Einsätzen auf allen Ebenen einschließlich Weltmeisterschaften und Olympische Spiele.

Presse und Kommunikation:
Anneliese Odenthal
+49 221 470-5602
odenthal@uni-koeln.de

Das Statement auf YouTube:
Wie gerecht ist der Videobeweis im Fußball? // Statement aus Sicht eines Juristen https://youtu.be/EnPAIjp1X1s

Wissenschaftliche Ansprechpartner:

Dr. Christian Deckenbrock
Institut für Arbeits- und Wirtschaftsrecht
+49 221 470-2940
c.deckenbrock@uni-koeln.de

Quelle: IDW 

(nach oben)


E-Autos, Smartphones und Co. – Welche Geräte stören Funktionen von Herzschrittmachern und implantierten Defibrillatoren?

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Können elektromagnetische Felder, die durch Geräte in unserem privaten und beruflichen Alltag entstehen, Herzrhythmusimplantate wie Herzschrittmacher und implantierte Defibrillatoren stören? Und wie gefährlich sind diese Einflüsse? Diese Fragen stellen Herzpatienten sich und ihren Ärzten häufig. Eine Stellungnahme der Deutschen Gesellschaft für Kardiologie (DGK) und der Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin (DGAUM) fasst die aktuelle Studienlage zu dem Thema zusammen und spricht Empfehlungen für den Umgang mit unterschiedlichen elektronischen Geräten aus.

Die gute Nachricht gleich vorweg: Die modernen Aggregate von Schrittmachern und Defibrillatoren werden von elektromagnetischen Feldern im Alltag in der Regel nicht beeinträchtigt, sofern sie nach Herstellerempfehlung programmiert sind. Dennoch gilt es für Patienten, denen diese Devices implantiert wurden, eine gewisse Vorsicht im Umgang mit einigen elektrischen Alltagsgeräten walten zu lassen.

Pro Jahr werden in Deutschland mehr als 77.000 Herzschrittmacher und über 25.000 Defibrillatoren implantiert, immer öfter auch bei jüngeren Patienten. Zugleich nimmt die Zahl der elektromagnetischen Felder in unserem beruflichen und privaten Umfeld durch mehr technische Geräte weiter zu. Interferenzen dieser Felder mit aktiven kardialen Implantaten können unterschiedliche Auswirkungen haben. Beispielsweise kann es in vergleichsweise harmlosen Fällen zu einem Moduswechsel des Herzschrittmachers und in schwerwiegenden Fällen gar zu inadäquaten, schmerzhaften Schockabgaben bei implantierten Defibrillatoren (ICDs) kommen. Bei heute gängigen Implantaten kommen diese Interferenzen aufgrund von technischen Verbesserungen gegenüber früheren Geräten jedoch nur noch sehr selten vor. Je nach Studie und Implantat konnten lediglich 0,3 bis 0,7 Fälle pro 100 Patientenjahre nachgewiesen werden.

Dennoch verunsichern die Gefahren möglicher Wechselwirkungen die Patienten häufig: Im Rahmen von Nachsorgeuntersuchungen spricht etwa ein Viertel der Patienten dieses Thema an. Viele Patienten schränken sich zudem aus Furcht vor Interferenzen im Alltagsleben unnötig ein.

Daher finden sich in der Stellungnahme der DGK und der DGAUM dezidierte Empfehlungen für den Umgang mit vielen Alltagsgeräten, die auf der aktuellen Datenlage der verfügbaren Studien basieren.

Mobiltelefone
Moderne Mobiltelefone und Smartphones mit Internetfunktion stellen ein nur sehr geringes Interferenzrisiko dar. Ein Sicherheitsabstand von 15 cm zum Implantat, wie er noch vor zehn Jahren empfohlen wurde, ist aufgrund der Telefonie- und Internetfunktion nicht mehr erforderlich. In Studien mit Smartphones trat nur ein einziger Fall auf, in dem Störsignale nachgewiesen wurden, nachdem das Handy direkt auf die Hautstelle gelegt wurde, unter der sich das Implantat befindet.
Zu induktiven Ladestationen hingegen sollten Schrittmacher- und ICD-Träger einen Mindestabstand von 10 cm einhalten.

Unterhaltungselektronik und Kopfhörer
MP3-Player können ohne Bedenken genutzt werden. Interferenzen konnten in Studien nicht nachgewiesen werden. Da sie allerdings während der Nachsorgeuntersuchung die Telemetrie zwischen Programmiergerät und Implantat stören können, sollten sie während dieses Zeitraums nicht in Betrieb sein.
Die in Kopfhörern oder Lautsprechern verarbeiteten Dauermagnete können Störungen an Herzschrittmachern und Defibrillatoren erzeugen. Daher sollten sie niemals direkt auf der Stelle platziert sein, an der das Gerät implantiert ist.

Diebstahlsicherungen in Geschäften
Die elektronischen Warensicherungssysteme in den Ein- und Ausgangsbereichen von Kaufhäusern sollten von Device-Trägern zügig passiert werden. Sie sollten sich nicht unnötig lange in deren Magnetfeld aufhalten.
Die größte Interferenzgefahr geht dabei von akustomagnetischen Diebstahlsicherungen aus. Zu RFID-Scannern sollten Herzschrittmacherträger 60 cm und Defibrillator-Träger 40 cm Abstand einhalten.

Metalldetektoren
Sowohl Torbogenmetalldetektoren als auch handbetriebene Detektoren, wie sie an Flughäfen verwendet werden, stellen der Datenlage zufolge kein Risiko für Implantat-Träger dar.

Reisen/Mobilität
Besonders häufig sorgen Patienten sich, ob sie gefahrlos Hybrid- und Elektrofahrzeuge nutzen können. Hier geben die Experten nun Entwarnung: Es konnten bei den Autos keine Wechselwirkungen mit den Devices festgestellt werden.
Auch für die Reise mit dem Flugzeug oder der Bahn gelten keine ärztlichen Einschränkungen.
„Reiserestriktionen für Patienten mit aktiven Herzrhythmusimplantaten können auf Basis der zugrunde liegenden Herzerkrankung indiziert sein, nicht jedoch wegen des reinen Vorhandenseins eines kardialen Implantates“, heißt es in der Stellungnahme der beiden Gesellschaften.

Stromleitungen
Korrekt installierte Stromleitungen im Haus stellen für Schrittmacher- und ICD-Träger kein Gefährdungspotential hinsichtlich elektromagnetischer Interferenzen dar. Zur Vermeidung von Interferenzen sollten Schrittmacher- und ICD-Träger in besonderem Maße auf eine korrekte Erdung von elektrischen Geräten achten und defekte Haushaltsgeräte nicht in Betrieb halten. Auch das Unterqueren von Hochspannungsleitungen oder das Überqueren von Erdkabeln kann sicher erfolgen.

Induktionsherde
Insbesondere schrittmacherabhängige Patienten und ICD-Träger sollten einen Sicherheitsabstand von mindestens 25 cm zwischen Implantat und Induktionsherd einhalten. Einem normalen Gebrauch des Herdes steht somit nichts im Wege.

Körperfettwaagen
Grundsätzlich erscheint das Risiko einer Interferenz gering und rechtfertigt eine Einschränkung hinsichtlich Körperfettwaagen nur bedingt. Schrittmacherpatienten ohne einen ausreichenden eigenen Herzrhythmus sowie ICD-Träger sollten aber vorerst von der Verwendung absehen, da die geringe Fallzahl der bisher untersuchten Patienten keine eindeutige Risikoeinschätzung erlaubt.

Da elektrischen Geräten die Stärke der von ihnen verursachten elektromagnetischen Felder nicht angesehen werden kann, sollte bereits vor der Implantation geklärt werden, ob der Patient im privaten oder beruflichen Umfeld starken Störquellen ausgesetzt ist. Gegebenenfalls kann der behandelnde Arzt vor dem Eingriff Kontakt zu der zuständigen Berufsgenossenschaft aufnehmen, um das Risiko schon im Vorfeld durch die individuell richtige Implantatauswahl und die Einstellung der Geräteparameter zu minimieren.

Bei der Rückkehr an den Arbeitsplatz muss jeweils im Einzelfall entschieden werden, ob der betroffene Beschäftigte auch weiterhin an seinem bisherigen Arbeitsplatz eingesetzt werden kann oder ob Einschränkungen erforderlich sind. Dies gilt beispielsweise für die Arbeit mit technischem Gerät oder falls der Patient starken Permanentmagneten ausgesetzt ist. Die Beurteilung des Arbeitsplatzes sollte immer in enger Abstimmung zwischen Arbeitgeber, Betriebsarzt und Fachkraft für Arbeitssicherheit erfolgen. „Das primäre Ziel ist immer der Erhalt des Arbeitsplatzes“, bekräftigen die Experten in der Stellungnahme. „Die Erfahrung zeigt, dass in vielen Fällen eine Wiedereingliederung des Implantatträgers in den betrieblichen Alltag möglich ist.“

Keine Empfehlungen können bisher zu neuen Implantaten wie elektrodenfreien Herzschrittmachern oder rein subkutanen Defibrillatoren gegeben werden, da noch keine ausreichenden Daten vorliegen.

Grundsätzlich gilt für Patienten, dass ihnen bei allen Fragen und Unsicherheiten die jeweiligen Kardiologen oder Betriebsärzte mit fundierten Ratschlägen gerne und kompetent zur Seite stehen.

Medienkontakt DGK:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Michael Böhm (Homburg/Saar)
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Medienkontakt DGAUM:
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Dr. Thomas Nesseler
Tel. 089/330 396-10
Fax 089/330 396-13
tnesseler@dgaum.de

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 10.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org

Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1.100 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind. Weitere Informationen unter www.dgaum.de.

Originalpublikation:

https://leitlinien.dgk.org/2019/elektromagnetische-interferenz-von-aktiven-herzr…

Weitere Informationen:

http://www.dgk.org

Quelle: IDW 

(nach oben)


Eisvolumen an Land beeinflusst Methanaustritte am Meeresboden

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen

Die wechselnde Eismenge in der Arktis steht in direkter Beziehung zu Methanemissionen aus dem Meeresboden westlich von Spitzbergen (Norwegen). Das bedeutet, die Dicke der Eisdecke an Land steuert, wann Methan aus dem Ozeanboden austritt. Dazu ist jetzt eine Studie in Science Advances erschienen, an der auch Forschende des MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen beteiligt sind.

Große Eisbewegungen aktivieren Verwerfungen der Erdkruste und tragen so zu Methanleckagen am Meeresboden entlang des Kontinentalrandes westlich von Spitzbergen bei. „Unsere Ergebnisse zeigen einen Zusammenhang zwischen sich ändernden kontinentalen Eismengen und Tiefsee-Methanemissionen in der Arktis“, sagt Erstautor Dr. Tobias Himmler vom Norwegischen Geologischen Dienst (NGU).

Forschende des NGU und des Zentrums für arktische Gashydrate, Umwelt und Klima (CAGE) an der Arctic University von Tromsø (Norwegen) haben auf einer Expedition 2016 mehrere Kalksteinproben – sogenannte Seep-Karbonate am Meeresboden – an aktiven Methanaustritten auf dem Vestnesa-Rücken in 1.200 Metern Wassertiefe beprobt. Seep-Karbonate entstehen durch einen mikrobiellen Prozess, bei dem Methan im Meeresboden mit Sulfat reagiert. So geben diese Karbonate einen eindeutigen Hinweis auf Methan, das von unten durch das Sediment aufgestiegen ist. Eine detaillierte Analyse der Seep-Karbonate hat jetzt gezeigt, dass es wiederholt Methanaustritte in den vergangenen 23.000 Jahren seit der letzten Eiszeit gegeben hat.

In Kooperation mit Wissenschaftlerinnen und Wissenschaftlern des MARUM haben die norwegischen Forschenden dann während einer Folgeexpedition an Bord des Forschungsschiffs MARIA S. MERIAN mit dem Meeresbodenbohrgerät MARUM-MeBo70 Seep-Karbonate in tiefen Schichten erbohren können. Anhand von Datierungen der erbohrten Seep-Karbonate mittels der natürlichen radioaktiven Isotope Uran und Thorium konnte das Team zwei weitere Episoden von Methanleckagen nachweisen, und zwar zwischen 160.000 und 133.000 Jahren sowie 50.000 und 40.000 Jahren. In diesen Zeiträumen gab es aktive Methanaustritte am Vestnesa-Rücken, die in den gewonnenen Bohrkernen aufgezeichnet sind. Diese beiden Zeitabschnitte sind durch Kaltzeiten gekennzeichnet, in denen in der Barentssee und auf Spitzbergen das Eisvolumen deutlich zugenommen hatte. Durch die Eisauflast wurde die vom Eis bedeckte Erdkruste eingedrückt. Zum Ausgleich hebt sich außerhalb der Eisbedeckung der Meeresboden – in diesem Fall der Vestnesa-Rücken. Das führte zu Bewegungen entlang von bereits existierenden Störungen in der Erdkruste und ermöglicht den Aufstieg von Methan aus größeren Tiefen.

Während der vergangenen 23.000 Jahre ist das Eis abgeschmolzen – und die darunterliegende Landmasse wieder gestiegen. Das wiederum führte durch einen iso-statischen Ausgleich zum Absenken des Vestnesa-Rückens. Die Resultate des Teams deuten nun darauf hin, dass Methan vor allem dann ausgetreten ist, wenn Eisschildbewegungen die Störungszonen aktiviert haben.

„Seep-Karbonate sind geologische Archive für Methanemissionen am Meeresboden. Wir sind sehr froh, dass wir mit dem Meeresbodenbohrgerät MARUM-MeBo diese Archive auf dem Vestnesa-Rücken erstmals erbohren konnten“, berichtet Gerhard Bohrmann, Fahrtleiter der Expedition. „Methanemissionen sind dabei sowohl während Zeiten der Festlandeiszunahme als auch während der Eisabnahme dokumentiert.“

Die MeBo-Bohrungen wurden mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) in Kooperation mit CAGE realisiert. Die weiteren Untersuchungen wurden im Projekt „Norwegian margin fluid systems and methane-derived carbonate crusts“ (NORCRUST) vom norwegischen Forschungsrat finanziert.

Beteiligte Institute:
Geological Survey of Norway, Trondheim (Norwegen)
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
British Geological Survey, Nottingham (Großbritannien)
Department of Geology, Tallinn University of Technology (Estland)
Centre for Arctic Gas Hydrate, Environment and Climate, Department of Geosciences, UiT-The Arctic University of Norway, Tromsø (Norwegen)

Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerhard Bohrmann
Allgemeine Geologie – Marine Geologie
Telefon: 0421 218 65050
E-Mail: gbohrmann@marum.de

Originalpublikation:
Tobias Himmler, Diana Sahy, Tõnu Martma, Gerhard Bohrmann, Andreia Plaza-Faverola, Stefan Bünz, Daniel J. Condon, Jochen Knies, and Aivo Lepland: A 160,000-year-old history of tectonically controlled methane seepage in the Arctic. Science Advances 2019, DOI: 10.1126/sciadv.aaw1450

Weitere Informationen:
http://www.marum.de/Forschung/MSM-57-1.html – Informationen zur Expedition MSM 57
http://www.marum.de/en/Infrastructure/Sea-floor-drill-rig-MARUM-MeBo70.html – Informationen zum Meeresbodenbohrgerät MARUM-MeBo 70
http://www.marum.de/Entdecken/Meldungen.html

Quelle: IDW 

(nach oben)


Doch keine Wassermoleküle im Selektivitätsfilter von Kaliumkanälen

Silke Oßwald Presse- und Öffentlichkeitsarbeit
Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP)

Passieren Kaliumionen alleine den Selektivitätsfilter eines Kaliumkanals oder sitzen Wassermoleküle zwischen den Ionen? Diese Frage ist seit Jahren umstritten. Forscher um Prof. Adam Lange vom Berliner Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP) haben nun zeigen können, dass keine Wassermoleküle durch den Kaliumkanal wandern. Da die Versuche erstmals an Zellmembranen unter natürlichen Bedingungen durchgeführt wurden, haben die Forscher einen starken Beweis in der Hand. Ihre Arbeit ist soeben im Fachjournal „Science Advances“ erschienen.

Unsere Zellen brauchen Kaliumionen, zum Beispiel um Nervenimpulse weiterzuleiten oder die Herzfrequenz zu steuern. Darum ist fast jede menschliche Zelle – oder genauer gesagt die Membran einer Zelle – mit Kaliumkanälen ausgestattet. Weil Kaliumkanäle eine fundamentale Bedeutung für biologische Prozesse haben und schon kleinste Veränderungen zu schweren Krankheiten führen können, werden die winzigen Eiweißmoleküle weltweit erforscht. Für die Aufklärung der Struktur von Kaliumkanälen hat ein US-Forscher im Jahr 2003 sogar den Nobelpreis für Chemie erhalten.

Kontroverse Debatte um zwei verschiedene Mechanismen
Unklar war jedoch, wie genau Kalium den Kanal passiert, um über die Zellmembran zu gelangen. Lange Zeit ging man davon aus, dass auf jedes Kaliumion ein Wassermolekül folgt und die Elemente dann aufgereiht wie an einer Kette nacheinander den engsten Teil des Kaliumkanals, den sogenannten Selektivitätsfilter, passieren. Erklärt wurde das damit, dass Kaliumionen positiv geladen sind und sich ohne die Zwischenmoleküle gegenseitig abstoßen würden. Dieser Mechanismus wurde 2014 von Göttinger Forschern um Prof. Bert de Groot jedoch in Frage gestellt: Computersimulationen zeigten, dass im Selektivitätsfilter von Kaliumkanälen gar keine Wassermoleküle vorhanden sind. Doch klar war die Sache damit noch nicht. Denn anschließend wurden weitere Arbeiten publiziert, die den älteren Mechanismus stützten und den neuen anscheinend widerlegten.
Nun haben Forscher vom Berliner Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP) Klarheit in die kontroverse Debatte gebracht: Dr. Carl Öster und Kitty Hendriks aus der Arbeitsgruppe von Prof. Adam Lange konnten zusammen mit weiteren Kollegen am FMP erstmals mittels Festkörper-Kernspinresonanz (NMR)-Spektroskopie zeigen, dass Kaliumionen tatsächlich ohne Wassermoleküle durch die Kaliumkanäle wandern. Die Kaliumionen sitzen demnach direkt hintereinander und schieben sich gegenseitig von unten nach oben durch den Kaliumkanal.

Unter natürlichen Bedingungen ist der Selektivitätsfilter von Kaliumkanälen frei von Wasser
„Die Technik, die wir verwendet haben, erlaubt es, Membranproteine in echten Zellmembranen unter natürlichen Bedingungen anzuschauen, also etwa bei Raumtemperatur oder physiologischen Salzkonzentrationen“, erklärt Kitty Hendriks. „Damit konnten wir zeigen, dass unter diesen Bedingungen definitiv kein Wasser zwischen den Kaliumionen im Selektivitätsfilter zu finden ist.“
Die ersten Hinweise darauf kamen aus Computersimulationen und es gibt auch röntgenkristallografische Daten, die für die Abwesenheit von Wassermolekülen im Selektivitätsfilter von Kaliumkanälen sprechen. „Diese Untersuchungen wurden allerdings unter künstlichen Bedingungen durchgeführt“, betont Dr. Carl Öster. „Mit unseren ergänzenden Daten aus der NMR-Spektroskopie haben wir jetzt ein schwergewichtiges Argument in der Hand, dass der neuere Mechanismus der richtige ist.“
Den Nachweis, dass keine Wassermoleküle zwischen den Kaliumionen sitzen, haben die FMP-Forscher zusammen mit Kollegen vom Max Planck Institut für Biophysikalische Chemie um Prof. Bert de Groot erbracht, deren computergestützte Molekulardynamiksimulationen ebenfalls mit in die Arbeit eingeflossen sind.

Ein Fortschritt für die Forschung
Entscheidend für die Aufklärung des Mechanismus war, dass das FMP ein weltweit führendes Zentrum für NMR-spektroskopische Untersuchungen ist und diese komplexe Technik ständig weiterentwickelt. „Vor fünf Jahren hätten wir das sicher so noch nicht zeigen können, aber jetzt sind wir so weit, dass wir diese wichtige Fragestellung gut beantworten können“, sagt Arbeitsgruppenleiter Prof. Adam Lange, dessen Schwerpunkt auf der Erforschung von Membranproteinen wie Ionenkanälen liegt. Er fügt hinzu: „Da die Abläufe in den Kaliumkanälen elementar für unsere Gesundheit sind, haben unsere Ergebnisse eine große Bedeutung, auch über die Grundlagenforschung hinaus.“
Finanziell unterstützt wurde die Arbeit durch das European Research Council im Rahmen eines ERC Grants an Prof. Lange und durch die Deutsche Forschungsgemeinschaft (DFG; Forschergruppe 2518).

Wissenschaftliche Ansprechpartner:
Prof. Adam Lange
Abteilung Molekulare Biophysik (FMP)
alange@fmp-berlin.de
Tel: 0049 30 94793-190
www.leibniz-fmp.de/lange

Originalpublikation:
Carl Öster*, Kitty Hendriks*, Wojciech Kopec, Veniamin Chevelkov, Chaowei Shi, Dagmar Michl, Sascha Lange, Han Sun, Bert L. de Groot, Adam Lange. The conduction pathway of potassium channels is water free under physiological conditions, Science Advances 31. Juli 2019, DOI: 10.1126/sciadv.aaw6756

Weitere Informationen:
https://www.leibniz-fmp.de/de/press-media/filmportraits-2017/filmportraits-2017-…

Quelle: IDW 

(nach oben)


Blut ist dicker als Wasser – und strömt daher anders

Birgit Kinkeldey Presse- und Öffentlichkeitsarbeit
Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation (ZARM)

Die Art und Weise, wie Blut durch die Gefäße strömt, spielt eine wesentliche Rolle bei der Entstehung von Herz-Kreislauf-Erkrankungen, etwa Thrombosen und Arteriosklerose. Allerdings sind die physikalischen Grundlagen des Blutstroms kaum bekannt. Blut ist heterogener als Wasser und wird von einer Pumpe, dem Herzen, angetrieben, es pulsiert. Bisherige Experimente zum Strömungsverhalten basieren aber in der Regel auf Wasser, das sich gleichförmig bewegt. Ein interdisziplinäres Team aus der Physik, den Ingenieurswissenschaften und der Medizin will diese Wissenslücke nun schließen – mit dabei ist das Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation (ZARM) der Universität Bremen.

Pumpen und Kanäle, Herzen und Gefäße
Sowohl in technischen als auch biologischen Systemen sind pulsierende Strömungen allgegenwärtig. Durch die getaktete Beschleunigung der Flüssigkeit durch Pumpen – oder durch das menschliche Herz – entstehen häufig Phänomene, die zu technischen Problemen oder kardiovaskulären Erkrankungen führen können. Die neu eingerichtete Forschungsgruppe „Instabilitäten, Bifurkationen und Migration in pulsierender Strömung“ beschäftigt sich mit Krankheiten, die viele Menschen betreffen und nicht selten tödlich verlaufen: Ablagerungen in den Blutgefäßen, Thrombosen und ähnliche Leiden, bei denen sich Feststoffe im Blutkreislauf ablagern und den Blutfluss behindern, so dass im schlimmsten Fall das Herz-Kreislauf-System zusammenbricht. Diese Ablagerungen entstehen unter anderem dort, wo das Blut nicht mehr ideal strömen kann. Genaue Kenntnis des Strömungsverhaltens von Blut könnte also dabei helfen, die Ursachen dieser Krankheiten besser zu verstehen – und mittelfristig auch, diese Krankheiten zu vermeiden oder effektiver zu therapieren.

Die Grundlagen der Strömungsphysik von Blut und anderen ähnlich komplexen Flüssigkeiten, die überdies von einer Pumpe angetrieben werden, sind weitestgehend unerforscht. Nicht nur im menschlichen Körper, sondern auch in der Industrie fließen Flüssigkeiten nicht gleichförmig durch ein einfaches Röhrensystem. In den allermeisten Fällen pulsieren sie in einem bestimmten Takt. Vereinfacht gesagt: Sie sind mal langsamer (wenn die Pumpe gerade nicht pumpt) und mal schneller (wenn sie pumpt). Auch an verschiedenen Stellen des Röhrensystems variiert die Strömungsgeschwindigkeit oder es kommt zu Wechselwirkungen zwischen Strömung und Wand, was zu Verwirbelungen und Turbulenzen führt. Fließt zudem etwas anderes als Wasser durch die Leitungen, also etwa Blut oder Dispersionsfarben, und ist das Röhrensystem, durch das diese Flüssigkeiten strömen, so komplex wie das Blutgefäßsystem, werden Simulationen dieser Strömungen zu einer hochkomplizierten Angelegenheit.

Simulation des Blutkreislaufs
Dieser Herausforderung möchte sich die Forschungsgruppe nun stellen. In den kommenden Jahren erforscht sie, nach welchen Gesetzmäßigkeiten komplexe Flüssigkeiten durch solche Leitungssysteme fließen. Zunächst wird der Einfluss eines pulsierenden Antriebs auf das einfachste System, also Wasser, untersucht. Darauf aufbauend wird die Komplexität der Flüssigkeit erhöht, bis hin zur Zusammensetzung von Blut. Neben geraden Röhren werden verschiedene Strömungsgeometrien zum Einsatz kommen, wie zum Beispiel Krümmungen oder elastische Wände. Die eingesetzten Methoden reichen von Experimenten mit turbulenten Strömungen über Computersimulationen bis hin zu Messungen in Blutgefäßen. Das Ziel ist es, ein grundlegendes Verständnis von Blutströmungen zu erlangen und dadurch auch hochkomplexe wechselwirkende Prozesse in seine Bestandteile zerlegen zu können. Auf dieser Basis kann dann die dringend benötigte theoretische Beschreibung der Instabilitäten in Blutströmungen entwickelt werden.

Projektperspektive und Beteiligte
Am Ende der ersten Förderperiode von drei Jahren möchten die Wissenschaftlerinnen und Wissenschaftler die Grundlagen für ein tragfähiges theoretisches Modell für das Strömungsverhalten von Blut und ähnlichen Flüssigkeiten erarbeitet und mit Experimenten verifiziert haben. Falls die Deutsche Forschungsgemeinschaft (DFG) beschließt, die Forschungsgruppe in einer weiteren Periode zu fördern, könnten die Wissenschaftlerinnen und Wissenschaftler die Erkenntnisse zu einem vollständigen physikalischen Modell der Blutströmung ausbauen.

Die Forschungsgruppe FOR 2688 „Instabilitäten, Bifurkationen und Migration in pulsierender Strömung“ wird von der DFG ab August 2019 für drei Jahre mit rund zwei Millionen Euro gefördert. 700.000 Euro davon erhält die Universität Bremen. Weitere Partner im Verbund sind die Universität des Saarlandes, die Universität Bayreuth sowie das Helmholtz-Institut Nürnburg-Erlangen, das IST in Klosterneuburg bei Wien und die eidgenössische Forschungsanstalt WSL in Zürich.

Wissenschaftliche Ansprechpartner:

Dr. Kerstin Avila
Tel.: 0421 218-57827
E-Mail: kerstin.avila@zarm.uni-bremen.de

Weitere Informationen:

https://www.zarm.uni-bremen.de/de/presse/einzelansicht/article/blood-is-thicker-…

Quelle: IDW 

(nach oben)


Das Moralverständnis von Kindern näher erforschen

Christoph Möckel Marketing / PR
SRH Hochschule für Gesundheit

Prof. Dr. Susanne Hardecker beschäftigt sich in ihrer neuen Publikation mit der Fragestellungen wie: „Werden Kinder rigide in ihrer eigenen Moral, wenn sie Anweisung von Erwachsenen erhalten?“

„Die Aufgabe der Umgebung ist es nicht, das Kind zu formen, sondern ihm zu erlauben, sich zu offenbaren“, behauptete die berühmte Reformpädagogin Maria Montessori einmal. Doch wie verhalten sich Kinder, wenn man ihnen klare Anweisungen gibt und wie beeinflusst dies deren Moralvorstellungen?

Dieser Frage geht Prof. Dr. Susanne Hardecker, Professorin für Methodenlehre in den Gesundheits- und Sozialwissenschaften an der SRH Hochschule für Gesundheit, auf den Grund. Im Journal of Experimental Child Psychology veröffentlicht sie nun eine Studie mit dem Titel „Adult instruction limits children’s flexibility in moral decision-making“, die sich thematisch mit der moralischen Entwicklung von Kindern beschäftigt.

Zu diesem Zweck wurden 48 Paare aus jeweils zwei 5-jährigen Kindern bei einem gemeinsamen Spiel beobachtet, in dem sie gemeinsam durch Kooperation versuchen mussten, Bauklötze zu erspielen. Diese Bauklötze konnten sie später individuell gegen Überraschungen eintauschen, wobei ein Kind umso mehr Überraschungen erhielt, je mehr Bausteine es hatte. Die Paare wurden einer von drei Bedingungen zugeteilt: (a) entweder erhielten sie die Anweisung durch einen Erwachsenen die Bausteine, die sie durch das Spiel erzielt hatten, gleich aufzuteilen, oder (b) durften selbst Regeln bilden wie die Bausteine aufgeteilt werden oder (c) erhielten keinerlei Form der Instruktion. In allen Bedingungen teilten die Kinder die Bausteine jedoch immer gleich auf, es unterschied sich also lediglich der Weg, wie sie zur Gleichaufteilung kamen.

Anschließend wurde dieser Test mit den Kindern wiederholt, allerdings mit neuen Interaktionspartnern, die sich mehr im Spiel anstrengen mussten als die Kinder selbst und bedürftiger waren, da sie mehr Bausteine brauchten als das Kind, um eine Überraschung zu gewinnen. Die Studie untersuchte nun, wie sehr die Kinder bereit sein würden, von der vorangegangenen Gleichaufteilung abzuweichen, wenn es einen guten Grund, also mehr Leistung oder Bedürftigkeit, dafür gibt.

Prof. Dr. Susanne Hardecker und ihr Team fanden heraus, dass Kinder, die eine Instruktion durch einen Erwachsenen erhielten, dem bedürftigen bzw. schwerer arbeitenden Partner weniger Bausteine abgaben, als die Kinder, die keine Instruktion erhielten. Kinder ließen sich also durch das erwachsene Urteil in ihren moralischen Entscheidungen einschränken und blieben häufiger bei der Gleichaufteilung.

Diese Studie ist ein wichtiger Beitrag dahingehend, die Komplexität des moralischen Lernens von Kindern zu begreifen und die vielseitigen Rollen zu verstehen, die Erwachsene und Gleichaltrige dabei spielen.

Die Studie können Sie hier [https://www.sciencedirect.com/science/article/pii/S0022096519301262?via%3Dihub] im Detail lesen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Susanne Hardecker, Professorin für Methodenlehre in den Gesundheits- und Sozialwissenschaften
E-Mail: susanne.hardecker@srh.de
Campus Gera
Telefon: +49 365 773407-23

Quelle: IDW 

(nach oben)


Fakten: Sonne belastet etwa jeden siebten Beschäftigten

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Etwa jeder siebte Beschäftigte in Vollzeit (14 Prozent) verbringt mehr als die Hälfte seiner Arbeitszeit im Freien. Jedoch erhält nur rund jeder dritte Betroffene (39 Prozent) eine regelmäßige Unterweisung über Gefährdungen durch die Sonnenstrahlung. Diese und andere Ergebnisse der BIBB/BAuA-Erwerbstätigenbefragung 2018 enthält das jetzt von der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) veröffentlichte Faktenblatt „Arbeiten im Freien – Beschäftige vor UV-Strahlung schützen“.

Rund 290.000 Menschen erkranken jährlich in Deutschland neu an Hautkrebs. Die UV-Anteile der Sonnenstrahlung lösen dabei häufig aktinische Keratosen und das Plattenepithelkarzinom aus. Diese Formen des weißen Hautkrebses sind seit 2015 als Berufskrankheit anerkannt. Bei der BIBB/BAuA-Erwerbstätigenbefragung 2018 gab etwa jeder siebte in Vollzeit arbeitende Befragte (14 Prozent) an, mehr als die Hälfte der Arbeitszeit im Freien zu verbringen. Sie arbeiten zumeist im Baugewerbe (91 Prozent), dem Gartenbau und der Floristik (85 Prozent) oder der Land- und Forstwirtschaft (81 Prozent). Jedoch liegt der Anteil auch in Berufen wie beispielsweise Fahrern oder Gebäudetechnikern bei rund 40 Prozent. Bei den Betroffenen handelt es sich überwiegend um Männer (87 Prozent).

Die Beschäftigten sehen sich im Freien nicht nur der UV-Strahlung der Sonne ausgesetzt. Rund zwei von drei Betroffenen (69 Prozent) arbeiten auch häufig unter Hitze, Kälte, Feuchtigkeit und Zugluft. Auch befinden sich Dreck und Schmutz sowie Rauch, Staub und Gase häufiger in ihrer Arbeitsumgebung. Insgesamt berichten die viel im Freien Arbeitenden häufiger über Reizungen der Haut (16 Prozent) als andere Beschäftigte (11 Prozent).

Von den Erwerbstätigen, die überwiegend im Freien arbeiten, erhält nur jeder etwa Dritte (39 Prozent) eine regelmäßige Unterweisung über die Gefährdungen durch Sonnenstrahlung. Dabei finden in größeren Betrieben, in der Bauwirtschaft sowie in Betrieben, die eine Mitarbeitervertretung haben oder Maßnahmen der Gesundheitsförderung durchführen, deutlich häufiger Unterweisungen statt.

Die Ergebnisse zeigen, dass es verschiedene Berufe gibt, in denen Beschäftigte durch die Arbeit im Freien ein erhöhtes Hautkrebsrisiko tragen. Rund 60 Prozent der Betroffenen erhalten keine regelmäßige Unterweisung. Letztlich lassen sich die Risiken durch die UV-Anteile der Sonnenstrahlung durch angepasste Schutzmaßnahmen und angepasstes Verhalten verringern. Neben der Aufklärung der Beschäftigten durch den Arbeitgeber gehören dazu Maßnahmen wie beispielsweise eine ausreichende Verschattung der Arbeitsplätze oder das Tragen angemessener Kleidung zum Sonnenschutz.

baua: Fakten „Arbeiten im Freien – Beschäftige vor UV-Strahlung schützen“ gibt es als PDF im Internetangebot der BAuA unter http://www.baua.de/dok/8819866.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Quelle: IDW 

(nach oben)


„Ihr ganz persönlicher Einsatz für die Umwelt“ – Citizen-Science-Projekt zum Gewässerschutz

Dr. Utz Lederbogen Stabsstelle Kommunikation und Marketing
Universität Osnabrück

OSNABRÜCK.- Zum ersten Mal haben Bürgerinnen und Bürger aus dem Weser-Ems-Gebiet die Möglichkeit, aktiv an einem Forschungsprojekt zum Gewässerschutz der Universitäten Osnabrück und Oldenburg teilzunehmen. Das von der Deutschen Bundesstiftung Umwelt inhaltlich und finanziell geförderte Projekt „Schüler und Bürger forschen zusammen mit Wissenschaftlern zum Thema Stickstoffbelastung von Gewässern“ bietet dabei die Möglichkeit, sich für die nachhaltige Wassernutzung einzusetzen. Ab sofort können sich Bürgerinnen und Bürger unter www.nitrat.uos.de für das Nitrat-Monitoring anmelden.

An dem Monitoring teilnehmen können alle Bürgerinnen und Bürger aus den Landkreisen Osnabrück (Nord), Cloppenburg, Vechta und Emsland sowie aus der Stadt Osnabrück. Nach der Anmeldung erhalten sie kostenlos von den Universitäten in Osnabrück und Oldenburg alle Materialien zur Messung der Nitrat-Konzentration in einem beliebigen Gewässer in ihrer Region. Die Federführung für das Projekt hat an der Universität Osnabrück die AG Chemiedidaktik (Prof. Dr. Marco Beeken) und an der Universität Oldenburg die AG Chemiedidaktik (Prof. Dr. Verena Pietzner)

Das Nitrat-Monitoring läuft über einen Zeitraum von anderthalb Jahren (September 2019 – Februar 2021), wobei die einzelnen Messungen etwa zweiwöchentlich stattfinden. Die Messung ist ganz einfach: Sie erfolgt in den meisten Fällen über Nitrat-Teststäbchen, welche für einige Sekunden in eine Gewässerprobe gehalten werden. Anschließend wird die Farbe eines Testfeldes mit einer Farbskala verglichen und die entsprechende Nitratkonzentration einfach abgelesen und in einer App hochgeladen.

Begleitet werden die teilnehmenden Bürgerinnen und Bürger über den gesamten Zeitraum von sogenannten Forschungspaten, also von Schülerinnen und Schülern aus ihrer Region, welche ein Seminarfach rund um das Thema Nitrat belegen und sie bei Fragen zum Nitrat-Monitoring unterstützen können. Fragen zur Anmeldung oder zum allgemeinen Ablauf des Nitrat-Monitorings beantwortet die wissenschaftliche Mitarbeiterin Frauke Brockhage unter frauke.brockhage@uos.de

Zwischenergebnisse und Ergebnisse des Nitrat-Monitorings werden regelmäßig als Wanderausstellung an den Regionalen Umweltzentren in der Region ausgestellt – hier wird vor Beginn des Nitrat-Monitorings auch eine offizielle Eröffnungsveranstaltung stattfinden.

„Das Projekt an den Universitäten Osnabrück und Oldenburg ist entstanden, weil insbesondere im Weser-Ems-Land und im nördlichen Osnabrücker Land das Thema Nitratbelastung in der gesellschaftlichen und politischen Diskussion einen immer größer werdenden Stellenwert einnimmt“, so der Chemiedidaktiker an der Universität Osnabrück, Prof. Dr. Marco Beeken. Seit Jahren werde von einer steigenden Nitratbelastung berichtet, wobei die Schuldzuweisungen oftmals einseitig seien und es trotz des hohen Interesses seitens der Bürgerinnen und Bürger es an fachlichen Informationen mangele. „Gleichzeitig ist in der modernen Gesellschaft ein zunehmender Bedarf am Verständnis fachwissenschaftlicher Errungenschaften erkennbar. In diesem Kontext ist der Citizen-Science-Ansatz entstanden, bei denen interessierte Bürgerinnen und Bürger unmittelbar an der Forschung zu hochaktuellen Fragestellungen teilnehmen“, erläutert Beeken.

Im Weser-Ems-Gebiet werden folgende Schulen an dem Projekt teilnehmen: Albertus-Magnus Gymnasium Friesoythe (LK Cloppenburg), Clemens-August-Gymnasium Cloppenburg (LK Cloppenburg), Gymnasium Liebfrauenschule Cloppenburg (LK Cloppenburg), Copernicus Gymnasium Löningen (LK Cloppenburg), Gymnasium Damme (LK Vechta), Gymnasium Bersenbrück (LK Osnabrück), Gymnasium Angelaschule Osnabrück (Stadt Osnabrück), Windthorst-Gymnasium Meppen (LK Emsland), BBS am Museumsdorf, Cloppenburg (LK Cloppenburg).

Wissenschaftliche Ansprechpartner:

Prof. Dr. Marco Beeken und Frauke Brockhage, Universität Osnabrück
Chemiedidaktik
Barbarastraße 11, 49076 Osnabrück
Tel: +49 541 969 2351
E-Mail: frauke.brockhage@uni-osnabrueck.de

Prof. Dr. Verena Pietzner und Mientje Lüsse, Universität Oldenburg
Chemiedidaktik
Carl-von-Ossietzky-Str. 9-11, 26129 Oldenburg
Tel: +49 441 798 3691
Email: mientje.luesse@uni-oldenburg.de

Weitere Informationen:

https://www.chemie.uni-osnabrueck.de/forschung/didaktik_der_chemie/forschung/cit…

Quelle: IDW 

(nach oben)


Neue Studie zur Bedeutung von Influencerinnen für gestörtes Essverhalten bei Mädchen und Frauen

Kristina Staudinger Presse- und Öffentlichkeitsarbeit
Hochschule Landshut

Hochschule Landshut und IZI führen Studie zur Bedeutung von Influencerinnen für gestörtes Essverhalten bei Mädchen und Frauen durch. Das Ergebnis: Die Nutzung von Instagram kann Essstörungen verstärken.

Instagram ist für viele Mädchen und Frauen ein Begleiter auf dem Weg in die Essstörung, kann in Einzelfällen aber auch zur Genesung beitragen. Dies zeigt eine aktuelle Studie, die das Internationale Zentralinstitut für das Jugend- und Bildungsfernsehen (IZI) gemeinsam mit der Hochschule Landshut durchführte und auf der Jahrestagung des Bundesfachverbands Essstörungen (BFE) vorstellte. Dazu wurden in Kooperation mit dem Bundesfachverband Essstörungen BFE und der Schön Klinik 143 Menschen befragt, davon 138 Mädchen und Frauen, die sich aktuell in Behandlung wegen Essstörungen befanden. Das Ergebnis: Influencerinnen aus dem Modemodel-Bereich, wie Heidi Klum oder Lena Gercke, können ein überkritisches Verhältnis zum eigenen Körper verstärken. Fitness-Influencerinnen, wie Pamela Reif oder Anne Kissner, regen zu vermehrtem Training und zur Nachahmung des Essverhaltens der Influencerinnen an und begleiten so Mädchen und Frauen auf ihrem Weg in die Essstörung. Influencerinnen wie Fine Bauer, die als Curvy Model für Body Positivity steht, können aber auch bei der Heilung einer Essstörung unterstützen.

Influencerinnen als Vorbild für junge Menschen
Prof. Dr. Eva Wunderer, die an der Hochschule Landshut die Studie wissenschaftlich begleitet, betont: „Influencerinnen haben eine starke Wirkung auf junge Menschen. Sie müssen sich dieser Verantwortung bewusst sein. Was viele Klicks erzeugt, ist nicht zwangsläufig auch gut für die Followerinnen und Follower.“ Da Essstörungen komplexe psychosomatische Erkrankungen sind, sind es zwar nicht die Influencerinnen allein, die eine Essstörung auslösen. Doch sie leben Werte vor, zeigen Ziele im Leben auf und können zum konkreten Vorbild für essgestörtes Verhalten werden.

Konsequenzen von Instagram-Postings im realen Leben
So gaben drei Viertel (74 %) der Mädchen und Frauen mit Essstörungen an, aktiv auf Instagram Bilder von sich zu posten. Dabei sei es ihnen besonders wichtig, „schlank“ auszusehen, aber auch, sich „von der besten Seite zu zeigen“ und „natürlich“ zu erscheinen. Um dies zu erreichen, nutzen sieben von zehn (72 %) Befragte Filter-Apps, um z.B. die Haut zu korrigieren, die Zähne aufzuhellen oder Gesicht und Körper schlanker zu gestalten. Doch trotz Nachbearbeitung können die eigenen Bilder in den Augen der Befragten dem Vergleich mit anderen nicht standhalten. Die Unzufriedenheit mit dem eigenen realen Körper steigt. Die Mädchen und jungen Frauen beginnen, ihr Ess- und Trainingsverhalten zu verändern; die virtuelle Lebenswelt greift in den realen Alltag ein.

Influencerinnen als Begleiterinnen in die Krankheit
Auf die Frage nach bekannten Persönlichkeiten, die besonderen Einfluss auf die Entwicklung der Essstörung hatten, nennen die Befragten eine ganze Reihe von Namen. So gibt die Hälfte der befragten Frauen und Mädchen an, Heidi Klum habe mindestens „ein wenig Einfluss“ auf die Entwicklung ihrer Essstörung gehabt. Lena Gercke, die Gewinnerin der ersten Staffel von Germany’s Next Topmodel, wird von jeder Dritten als bedeutsam beschrieben. Jede vierte Befragte schreibt Fitness-Influencerin Pamela Reif einen Einfluss auf die Essstörung zu, 18% aller Befragten geben an, sie hätte sogar einen „sehr starken Einfluss“ auf ihre Erkrankung gehabt. Ein weiterer, mehrfach als bedeutsam genannter Name ist Anne Kissner.

Wo Influencerinnen bei der Heilung unterstützen
Die Studie zeigt allerdings auch, dass Influencerinnen zur Erweiterung des Schönheitsideals und zu einer positiven Auseinandersetzung mit dem eigenen Körper beitragen können. Explizit genannt wird zum Beispiel Fine Bauer: Als Model für große Größen half sie einer Betroffenen, ihren Körper so zu akzeptieren, wie er ist. „Diese Positivbeispiele zeigen: Wir brauchen dringend mehr Realitätsnähe, Individualität und diversere Körperbilder in der Medienlandschaft insgesamt, insbesondere aber auch bei den Influencerinnen“, sagt Dr. Maya Götz, Leiterin der Studie am Internationalen Zentralinstitut für das Jugend- und Bildungsfernsehen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Wunderer
Hochschule Landshut
eva.wunderer@haw-landshut.de

Dr. Maya Götz
Leiterin der Studie am
Internationalen Zentralinstitut für das Jugend- und Bildungsfernsehen
Tel.: +49 (0)89 – 5900 42264
Maya.Goetz@br.de
www.izi.de
www.maya-goetz.de

Anhang
Pressemeldung_Studie Essstörung und Social Media
https://idw-online.de/de/attachment72545

Quelle: IDW 

(nach oben)


KIT-Experte zu aktuellem Thema: Hitzewellen und Rekordtemperaturen – was bringt die Zukunft?

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Die aktuelle Hitzewelle hat Deutschland fest im Griff, der Temperaturrekord aus dem Jahr 2015 in Kitzingen, wurde bereits am Mittwoch, 24. Juli 2019, um mehr als ein Grad übertroffen und wurde gestern (25. Juli) geradezu pulverisiert: 42,6 Grad Celsius wurden in Lingen (Ems) gemessen, wie der Deutsche Wetterdienst inzwischen bestätigt. Eine Frage, die daraus gerade angesichts des Klimawandels folgt und an der das KIT forscht, lautet: Werden diese Extreme bald Normalität?

„Aussagen von neuen Modellen, die wir hier am KIT in hoher räumlicher Auflösung errechnet haben, lassen Temperaturen von mehr als 40 Grad Celsius in den nächsten zehn Jahren fast jährlich erwarten“, sagt Christoph Kottmeier, Leiter des Instituts für Meteorologie und Klimaforschung – Department Troposphärenforschung des Karlsruher Instituts für Technologie (KIT). Auch Hitzewellen, wie wir sie zurzeit erleben, würden künftig häufiger, so der Klimaforscher: „Insbesondere bis Mitte des Jahrhunderts erwarten wir eine signifikante Änderung. Hitzewellen werden dann deutlich wahrscheinlicher sein als heute.“

Die Angst vor Temperaturen jenseits der 45-Grad-Marke, sei in naher Zukunft jedoch unbegründet. „Davon sind wir noch sehr weit weg. Unsere Modelle zeigen, dass gegen Mitte des Jahrhunderts 42 Grad so oft knapp erreicht werden dürften wie heute 40 Grad Celsius. Erst in der zweiten Jahrhunderthälfte dürften in Deutschland Temperaturen von mehr als 45 Grad Celsius erreicht werden“, betont Kottmeier. „Nicht zu unterschätzen sind aber lokale Hitzespitzen in Städten, etwa an Kreuzungen oder Baustellen. Auch in Karlsruhe konnten wir gestern an einem solchen Hotspot 42 Grad Celsius messen.“

Für weitere Informationen stellt der Presseservice des KIT gern Kontakt zu Christoph Kottmeier her. Bitte wenden Sie sich an Timo Schreck, Tel. 0721 608-21152, E-Mail an timo.schreck@kit.edu, oder das Sekretariat, Tel. 0721 608-21105, E-Mail an presse@kit.edu.

Im Portal „KIT-Expertinnen und -Experten“ finden Sie weitere Ansprechpartner zu Highlights aus der Forschung des KIT sowie zu tagesaktuellen Themen: https://www.sek.kit.edu/kit_experten.php.

Freundliche Grüße
Karlsruher Institut für Technologie (KIT)
Strategische Entwicklung und Kommunikation (SEK)

Monika Landgraf
Leiterin Gesamtkommunikation
Pressesprecherin

Kaiserstraße 12
76131 Karlsruhe
Telefon: +49 721 608-21105
E-Mail: presse@kit.edu
http://www.kit.edu

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Wissenschaftliche Ansprechpartner:
Timo Schreck
Tel. 0721 608-21152
timo.schreck@kit.edu

oder

Sekretariat
Tel. 0721 608-21105
presse@kit.edu

Weitere Informationen:
https://www.sek.kit.edu/kit_experten.php

Quelle: IDW 

(nach oben)


Arbeitsgedächtnis von Schimpansen ähnelt unserem

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie

Anders als Menschen verwendeten die Schimpansen keine Suchstrategie, um die Aufgabe zu vereinfachen
Frühere Studien zeigten bereits, dass Schimpansen ein exzellentes Langzeitgedächtnis besitzen. Bisher war allerdings wenig über ihr Arbeitsgedächtnis bekannt. Um dieses näher zu erforschen, präsentierten die Forscher Schimpansen eine Aufgabe: Die Schimpansen konnten zunächst beobachten, wie Futter in verschiedenen undurchsichtigen Boxen versteckt wurde. Dann konnten die Menschenaffen eine Box auswählen, indem sie auf sie zeigten. War Futter in der Box enthalten, erhielten sie diese als Belohnung. Nach jeder Wahl wurden die Boxen für 15 Sekunden abgedeckt, dann durften die Schimpanse erneut wählen.

Um an alle Futterstücke zu gelangen müssen sich die Schimpansen fortlaufend merken, welche Boxen sie bereits ausgewählt haben und daher kein Futter mehr enthalten. Die Wissenschaftler erhöhten die Schwierigkeit der Aufgabe je nach Fähigkeit des einzelnen Schimpansen, indem sie entweder weitere Boxen hinzufügten oder die Reihenfolge der Boxen nach jeder Wahl änderten. Die Ergebnisse der Studie zeigen, dass sich das Arbeitsgedächtnis von Schimpansen und Menschen ähnlicher ist, als bislang angenommen: Die Schimpansen erinnerten sich mindestens an vier zuvor ausgewählte Boxen, ein junger Schimpanse sogar an mehr als sieben Boxen. Dabei spielt sowohl das Aussehen der Boxen als auch deren Position eine Rolle, berichten die Forscher.

Menschen schneiden normalerweise schlechter ab in Arbeitsgedächtnisaufgaben, wenn sie zwischendurch abgelenkt werden. Auch die Schimpansen haben in dieser Aufgabe schlechter abgeschnitten, wenn sie gleichzeitig eine zweite, ähnliche Aufgabe durchführen sollten. Die individuellen Unterschiede in dieser Arbeitsgedächtnisaufgabe waren über mehrere Monate stabil. Anders als Menschen verwendeten die Schimpansen allerdings keine Suchstrategie, um die Aufgabe zu vereinfachen. Keiner der Schimpansen kam auf die Idee, die Boxen der Reihe nach zu durchsuchen.

Die Studie zeigt, dass Schimpansen ähnlich wie Menschen ein Arbeitsgedächtnis besitzen, das es ihnen erlaubt, sich fortlaufend an eine Reihe von vorangegangen Ereignissen und Handlungen zu erinnern. Ihre Arbeitsgedächtniskapazität scheint sich dabei nicht grundlegend von der des Menschen zu unterschieden. „Unsere Studie zeigt, dass Schimpansen ähnlich abschneiden wie siebenjährige Kinder in einer für sie leicht verständlichen Arbeitsgedächtnisaufgabe, die ohne langwieriges Training auskommt“, sagt Christoph Völter, Forscher am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig und an der Veterinärmedizinischen Universität Wien.

Wissenschaftliche Ansprechpartner:

Dr. Christoph Völter
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig &
Veterinärmedizinische Universität Wien
+43 1 25077-2670
christoph.voelter@vetmeduni.ac.at

Originalpublikation:

Völter C. J., Mundry R., Call J., Seed A. M.
Chimpanzees flexibly update working memory contents and show susceptibility to distraction in the self-ordered search task
Proceedings of the Royal Society B, 24 July 2019, http://dx.doi.org/10.1098/rspb.2019.0715

Quelle: IDW 

(nach oben)


„Hepatitis ist für mehr Todesfälle verantwortlich als HIV oder Tuberkulose!“

Karola Neubert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Infektionsforschung

„Findet die fehlenden Millionen!“ lautet das Motto des diesjährigen Welt-Hepatitis-Tages am 28. Juli 2019. Nach wie vor ist von einer großen Dunkelziffer von Menschen mit unentdeckter Hepatitis B und C auszugehen: Etwa 290 Millionen Menschen – so die Schätzungen – ahnen nichts von ihrer Infektion und den möglichen Folgen. Prof. Ulrike Protzer, Hepatitis-Forscherin am DZIF, sieht dringenden Handlungsbedarf.

Was macht die Hepatitis so gefährlich?
Ulrike Protzer: Die Virushepatitis ist für mehr Todesfälle verantwortlich als HIV oder Tuberkulose. Viel zu lange ist die Zahl der Betroffenen komplett unterschätzt worden, sodass zu wenig politische Maßnahmen ergriffen wurden. Es gab beispielsweise keine Diagnosekampagnen wie bei HIV. Die WHO hat das Problem jetzt erkannt und ruft dazu auf, mehr zu tun. Ihr Ziel ist die drastische Senkung der Zahlen für Neuerkrankungen und Todesfälle bis 2030. Dazu gehört auch der Aufruf zum Welt-Hepatitis-Tag, die fehlenden Millionen zu finden. Denn die Dunkelziffer ist enorm groß.

Wie kann man die Betroffenen aus dem Dunkel holen, um ihnen zu helfen?
Ulrike Protzer: Es müssen massive Screening-Kampagnen gefahren werden, nur durch Aufklärung können wir die Patienten ausfindig machen. Das Tückische an der Hepatitis ist ja ihre Fähigkeit, lange ohne Symptome im Körper zu sein. Der Betroffene merkt nichts von der Infektion, aber trotzdem geht seine Leber kaputt. Hier hilft Aufklärung und dann Behandeln – dafür benötigt man mehr Geld. Wichtig wird es auch sein, die Stigmatisierung der Krankheit zu durchbrechen. Keiner möchte gerne zugeben, Überträger einer Krankheit zu sein. Viele Betroffene scheuen daher eine Diagnose, weil sie – und das zu Recht – Nachteile befürchten.

Was wird im DZIF im Kampf gegen die Virushepatitis getan?
Ulrike Protzer: Es gibt drei Maßnahmen, die entscheidend sind, um die WHO-Ziele zu erreichen. Erstens: Impfen, um eine Erkrankung zu verhindern. Hier fehlt uns ein Impfstoff für Hepatitis C, für die Hepatitis B müssen wir die Impfraten weiter verbessern. Zweitens: Diagnostizieren, um behandeln zu können. Dies setzt Aufklärungskampagnen voraus, wie wir das im Rahmen eines internationalen Konsortiums mit der „B“ Aware Kampagne“ begonnen haben. Und drittens: Behandeln, was insbesondere bei Hepatitis B bisher nicht ausreichend funktioniert. In allen drei Bereichen ist das DZIF aktiv und kann bereits wichtige Erfolge vorweisen.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Ulrike Protzer
protzer@tum.de

Weitere Informationen:

https://www.dzif.de/de/hepatitis Hepatitis-Forschung im DZIF

Quelle: IDW 

(nach oben)


Trockenzeiten und Starkregen: Was der Klimawandel für die Wasserqualität in Talsperren bedeutet

Kim-Astrid Magister Pressestelle
Technische Universität Dresden

Die Trinkwasserversorgung in Sachsen wird durch ein stabiles Talsperrennetz gesichert. Doch die Folgen des Klimawandels beeinflussen die Gewässer zunehmend. Die Talsperren müssen längere Trockenzeiten ebenso ausgleichen können wie plötzlich auftretenden Starkregen. Aufgrund der steigenden Wassertemperaturen, verstärkt sich das Wachstum von Algen; das wertvolle Rohwasser wird knapper.

Das sind die Ergebnisse einer Studie, für die Kathrin Jäschke, Doktorandin am Institut für Hydrobiologie an der TU Dresden die seit den 60er, 70er und 80er Jahren erhobenen Daten von 43 Talsperren und die Gewässergüte von sechs Trinkwassertalsperren in Kooperation mit der Arbeitsgemeinschaft Trinkwassertalsperren e.V. ausgewertet hat.
Auf einem Symposium mit Talsperrenbetreibern, Wasserversorgern, Behörden und Wissenschaftlern im thüringischen Erfurt stellte sie die Ergebnisse vor und diskutierte mit den Teilnehmern Strategien zur künftigen Bewirtschaftung.

„Die Wassertemperaturen zeigen in den oberen Wasserschichten steigende Trends zu allen Jahreszeiten. Vor allem im Frühjahr haben sie bis zu 3 Kelvin seit den 80er Jahren zugenommen. Insbesondere in den tieferen Lagen bis 500 Meter frieren die Gewässer im Winter nur noch selten über einen längeren Zeitraum zu. Dadurch setzt das Algenwachstum früher ein bzw. wird kaum noch unterbrochen. Da die Gewässer im Frühjahr gut durchmischt sind, verteilen sich die Algen über die gesamte Wassersäule und ein Ausweichen der Rohwasserentnahme auf andere, algenärmere, Bereiche ist nicht möglich“, erläutert Jäschke. „Für die Wasseraufbereitung bedeutet ein verstärktes Algenwachstum mehr Filtrationsleistung im Wasserwerk.“

Die durch den Klimawandel verursachten Veränderungen gehen im Sommer weiter. Die Sommerstagnation, also die Warm-Kalt-Schichtung der Gewässer, setzt ebenfalls früher ein. In die tieferen Schichten dringt dann kein Sauerstoff mehr vor. Theoretisch müsste der Vorrat an kaltem, sauerstoffreichen und klarem Tiefenwasser für die Rohwasserbereitstellung also länger halten. Allerdings wird der Sauerstoff durch den mikrobiellen Abbau von abgestorbenen Algen und Kleinstlebewesen aufgezehrt. Je nährstoffreicher die Talsperre, desto mehr wachsen die Algen, es wird mehr Sauerstoff beim Abbau verbraucht und der Vorrat geht schneller zur Neige.

„Auch das ist für die Wasseraufbereitung ungünstig, da ohne Sauerstoff Nährstoffe wie Phosphor und die Elemente Mangan und Eisen in Lösung gehen. Die Nährstoffe gelangen bei der Herbstdurchmischung in die oberen Schichten und sind ein idealer Dünger für Algen. Außerdem fallen im Wasserwerk das gelöste Eisen und Mangan unter Sauerstoffzufuhr wieder aus und führen zu einer Verockerung, also einem Zusetzen der Rohrleitungen. Wenn der Herbst warm ist und die Sommerstagnation dadurch lange anhält, verstärken sich diese Prozesse“, fasst Kathrin Jäschke die Ergebnisse zusammen. Die Wasserwerke können diesen Entwicklungen mit einem Aufbereitungsprozess, der sogenannten „Enteisenung und Entmanganung“ bei der Rohwasseraufbereitung entgegenwirken. Sauerstoffmatten oder Belüftung beugen schon jetzt in stark betroffenen Talsperren sauerstoffarmen Verhältnissen vor. „Weiterhin ist durch einen früheren Beginn der Sommerstagnation bei einigen Talsperren der Rohwasservorrat bereits zeitig, weit vor Beginn der Herbstdurchmischung, aufgebraucht und es bleibt nur das warme, und in nährstoffreicheren Talsperren algenreiche Oberflächenwasser übrig, das sich schwerer aufbereiten lässt“, sagt die Hydrobiologin. Talsperren über 500 Meter, Talsperren mit einem großen Volumen und nährstoffarme Talsperren haben mit diesen Problemen insgesamt weniger zu kämpfen, da sie im Sommer trotz des Temperaturanstiegs noch relativ kühl sind und das unerwünschte Algenwachstum gering ist.

Deutlich geworden ist auf dem Symposium, dass es viele Lösungsansätze gibt. Auch die sächsische Landestalsperrenverwaltung hat bereits Ideen entwickelt und umgesetzt, wie das wertvolle Rohwasser geschützt werden kann. Allerdings bleibt die Tatsache, dass die Produktion von Trinkwasser in einigen Talsperren aufwendiger und teurer wird. „Künftig kommt es noch viel mehr darauf an, jede Talsperre aufgrund ihrer regionalen Besonderheiten und ihrem Nährstoffgehalt einzeln zu betrachten, damit die Wasserqualität erhalten bleibt“, sagt Jäschke.

Wissenschaftliche Ansprechpartner:

Kathrin Jäschke
Institut für Hydrobiologie
Tel.: 0351 463-38631
E-Mail: Kathrin.Jaeschke@mailbox.tu-dresden.de

Quelle: IDW 

(nach oben)


Der Wert einer Idee liegt in ihrer Umsetzung

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Aus der Wissenschaft in die Praxis – BfG bringt Forschungsergebnisse zum Gewässerschutz in die Anwendung
Der amerikanische Erfinder und Unternehmer Thomas Edison sagte einst, dass gute Ideen alleine nicht ausreichen, um Wirkung zu erzielen. Erst die Umsetzung einer guten Idee zeigt ihren Wert. Badegewässer-App, autonomer Messkatamaran, Starkregenvorhersage: Mit Auslaufen der Fördermaßnahme „Regionales Wasserressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland (ReWaM)“ stehen der Wasserwirtschaft eine Vielzahl neuer Methoden, Lösungen und praxisnaher Produkte zur Verfügung. Damit sie ihren Weg aus der „Schublade“ in die Anwendung finden, unterstützte die Bundesanstalt für Gewässerkunde in den vergangenen vier Jahren die ReWaM-Verbundprojekte, ihre Erkenntnisse in Politik und wasserwirtschaftliche Praxis zu übertragen. Die Aktivitäten förderte das Bundesministerium für Bildung und Forschung (BMBF) mit dem Transfer- und Vernetzungsvorhaben ReWaMnet,

Die BfG als Wissensdrehscheibe
Der Weg von der Idee zu einer konkreten Anwendung ist oftmals lang und steinig. „Begleitvorhaben wie ReWaMnet sind ein wichtiges Instrument in der Wissenschaft. Sie eröffnen viele Wege, damit noch mehr Ideen ihren Weg in die Praxis finden“, sagt Dr. Birgit Esser, Leiterin der BfG. „Dieser Ergebnistransfer war wesentliche Motivation der Bundesanstalt für Gewässerkunde, sich in ReWaMnet zu engagieren. Auch in Zukunft steht die BfG wieder gern für diese Rolle zur Verfügung.“

Die BfG engagiert sich als Ressortforschungseinrichtung traditionell an der Schnittstelle von Wissenschaft und Politik und ist eingebunden in verschiedene Gremien des Bundes und der Länder. Neben der großen Erfahrung in der anwendungsorientierten Forschung war dies entscheidend für das BMBF, um das Vernetzungs- und Transfervorhaben in die Hände der Bundesanstalt zu legen. „Die BfG wirkt als Multiplikator für die in ReWaM und anderen Forschungsprogrammen erarbeiteten wissenschaftlichen und praktischen Erkenntnisse“, sagt Esser. Andere Forschungsprogramme, wie das Bundesprogramm Blaues Band Deutschland oder das LIFE Förderprogramm der EU bilden dabei wichtige Anknüpfungspunkte zur Anwendung der Resultate aus ReWaM.

In diesem Sinne hat die BfG auf der ReWaM-Homepage eine „Produktbibliothek„ eingerichtet. So sollen die ReWaM-Ergebnisse auch nach dem Ende der Förderlaufzeit gut auffindbar und verfügbar bleiben. Das Online-Archiv erlaubt neben verschiedenen Filtermöglichkeiten auch eine Freitextsuche nach bestimmten Stichworten (z. B. Ökosystemleistungen oder Phosphor).

Forschung und Praxis im Dialog
Das Vernetzungs- und Transfervorhaben ReWaMnet führte seit dem Frühjahr 2015 die Forschungsergebnisse der 15 ReWaM-Verbundprojekte zusammen und entwickelte Formate und Produkte, um die Ergebnisse potenziellen Anwendern gezielt zur Verfügung zu stellen. Neben drei Konferenzen und zahlreichen Arbeitstreffen waren zwei Anwenderworkshops besondere Höhepunkte der Vernetzungstätigkeit. Große Aufmerksamkeit erfuhren außerdem ein Politikpapier, die ReWaM-Themenhefte u. A. in den Zeitschriften Hydrologie und Wasserbewirtschaftung und KW Korrespondenz Wasserwirtschaft sowie eine Dokumentation, die der Deutsche Städte- und Gemeindebund herausgegeben hat.

Eine nachhaltige Gewässerbewirtschaftung ist mehr als eine rein wasserwirtschaftliche Aufgabe. Für eine erfolgreiche Umsetzung von Maßnahmen müssen alle relevanten gesellschaftlichen und politischen Akteure beteiligt werden. Um die Implementierung der ReWaM-Ergebnisse zu unterstützen, förderte ReWaMnet die Zusammenarbeit der Projektpartnern mit Wasserverbänden und Landesbehörden.

Über die BMBF-Fördermaßnahme ReWaM
ReWaM ist Teil des BMBF-Förderschwerpunktes „Nachhaltiges Wassermanagement“ (NaWaM) im BMBF-Rahmenprogramm „Forschung für Nachhaltige Entwicklung“ (FONA^3). Neben Vernetzung und Transfer leistete die BfG in den ReWaM-Verbundprojekten FLUSSHYGIENE, NiddaMan und RESI einen Forschungsbeitrag.

Wissenschaftliche Ansprechpartner:

Dr. Sebastian Kofalk, Pressesprecher und Leiter ReWaMnet, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5331 und Dominik Rösch, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5448, E-Mail: rewamnet@bafg.de

Quelle: IDW 

(nach oben)


Wälder in Deutschland sind wichtige Kohlenstoffsenke

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

In deutschen Wäldern wächst mehr Holz nach als genutzt wird / Deutschland ist das holzreichste Land der EU

Die Wälder in Deutschland sind ein wichtiger Faktor im Klimageschehen, denn sie binden große Mengen Kohlenstoff, der ursprünglich als CO₂(Kohlendioxid) in der Atmosphäre war. Dass die Bedeutung der Wälder als Kohlenstoffsenke und damit Bremser des Klimawandels weiter ansteigt, belegt die Kohlenstoffinventur 2017, die jetzt ausgewertet ist. Danach sind in deutschen Wäldern rund 1,23 Milliarden Tonnen Kohlenstoff in der lebenden Biomasse gespeichert, fünf Prozent mehr als vor fünf Jahren. Hinzu kommen 33,6 Millionen Tonnen Kohlenstoff im Totholz. Die Kohlenstoffvorräte haben mit 113,7 Tonnen pro Hektar ein neues Rekordhoch erreicht. Diese und weitere Ergebnisse haben Wissenschaftler des Thünen-Instituts für Waldökosysteme jetzt in der aktuellen Ausgabe der Zeitschrift „AFZ-Der Wald“ veröffentlicht.

Die Kohlenstoffinventur ist eine Art kleine Bestandsaufnahme zwischen den großen, alle zehn Jahre stattfindenden Bundeswaldinventuren. Sie wird vom Thünen-Institut mit Unterstützung der Bundesländer durchgeführt und erfasst den Zustand des deutschen Waldes.

Der Holzvorrat in deutschen Wäldern ist gegenüber der letzten Bundeswaldinventur 2012 um sechs Prozent gestiegen, weil deutlich mehr Holz nachgewachsen ist als genutzt wurde. Damit hat sich der Vorratsanstieg deutlich beschleunigt: In den letzten fünf Jahren wurde genauso viel Vorrat aufgebaut (19 Vorratsfestmeter pro Hektar) wie in den zehn Jahren davor. Mit einem Holzvorrat von aktuell 3,9 Milliarden Kubikmetern ist Deutschland das holzreichste Land der Europäischen Union. Auch die Waldstruktur hat sich verändert: Es gibt 12 Prozent mehr alte Wälder über 120 Jahre – damit hat sich der Trend zu älteren Wäldern mit dickeren Bäumen fortgesetzt. Auch der Totholzvorrat ist um einen Kubikmeter pro Hektar gestiegen. Etwa 50 Prozent des Totholzes sind liegende Stücke, 25 Prozent sind stehendes Holz und 25 Prozent Wurzelstöcke.

Der höhere Holzvorrat und damit einhergehend die weiterhin hohe Kohlenstoffanreicherung macht die Wälder zu Klimaschützern: Sie haben die Atmosphäre zuletzt jährlich um 62 Millionen Tonnen CO₂ entlastet. Das kommt in die Größenordnung dessen, was die deutsche Industrie pro Jahr an Treibhausgasen ausstößt (2017: 64 Millionen Tonnen CO₂-Äquivalente). Der gestiegene Holzvorrat hat damit jedes Jahr rund sieben Prozent der gesamten deutschen Treibhausgas-Emissionen kompensiert.

Die häufigsten Baumarten in den deutschen Wäldern sind Fichte (25 Prozent) und Kiefer (23 Prozent), gefolgt von den Laubbaumarten Buche (16 Prozent) und Eiche (10 Prozent). Der Flächenanteil der Laubbäume ist um zwei Prozent gestiegen, die Dynamik hin zu mehr Laubbäumen hat sich damit allerdings verlangsamt. Das Flächenverhältnis von Laub- zu Nadelbäumen beträgt 45 zu 55 Prozent.

Die Ergebnisse der Kohlenstoffinventur 2017 sind ebenso wie die der Bundeswaldinventur 2012 unter https://bwi.info abrufbar.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Riedel
Thünen-Institut für Waldökosysteme, Eberswalde
Tel.: 03334 3820-315
Mail: thomas.riedel@thuenen.de

Quelle: IDW 

(nach oben)


Depressiv durch Facebook und Co.

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Toller Urlaub, super Party, süße Kinder, abgefahrenes Essen: In sozialen Netzwerken zeigen alle ihr Leben von der Sonnenseite. Wer sich hier umschaut, dessen Selbstwertgefühl kann leicht leiden, weil vermeintlich alle besser sind als man selbst. In Gefahr, dadurch depressive Symptome zu entwickeln, sind vor allem Nutzer, die soziale Netzwerke passiv nutzen, also selbst nicht posten, und dazu neigen, sich mit anderen zu vergleichen. Das hat ein Team der Psychologie der Ruhr-Universität Bochum (RUB) um Dr. Phillip Ozimek herausgefunden. Über die Ergebnisse berichtet die Zeitschrift Behaviour and Information Technology am 12. Juli 2019.

Infos über die ersten fünf Personen
Die Frage, ob die Nutzung sozialer Netzwerke depressive Tendenzen hervorrufen kann, wurde bisher widersprüchlich beantwortet. Die Bochumer Forscherinnen und Forscher haben dazu eine experimentelle und zwei Fragebogenstudien durchgeführt. In der ersten Studie ließen sie zwei Gruppen von Versuchspersonen fünf Minuten lang entweder auf ihrer Facebook-Pinnwand oder auf der Mitarbeiterwebseite der Katholisch-Theologischen Fakultät der RUB Informationen über die ersten fünf Personen herausschreiben, die sie sahen. Eine dritte Gruppe übersprang diese Aufgabe. Alle drei Gruppen füllten danach einen Fragebogen aus, der über ihr Selbstwertgefühl Auskunft gab.
Dr. Phillip Ozimek (links) und Prof. Dr. Hans-Werner Bierhoff haben untersucht, welche Folgen die Nutzung sozialer Medien hat.
© RUB, Kramer

„Es hat sich gezeigt, dass die Konfrontation mit sozialen Informationen im Internet – die sowohl auf Facebook als auch auf Mitarbeiterseiten selektiv und nur positiv und vorteilhaft sind – zu einem geringeren Selbstwertgefühl führen“, berichtet Phillip Ozimek. Da ein niedriges Selbstwertgefühl eng mit depressiven Symptomen zusammenhängt, sehen Forscher schon in dieser kurzfristigen Auswirkung eine mögliche Gefahrenquelle.

Über 800 Versuchspersonen
Die langfristige Perspektive untersuchten sie mittels Fragebogenstudien. Sie befragten über 800 Personen zu ihrer Facebook-Nutzung, zu ihrer Tendenz, sich mit anderen vergleichen zu wollen, zu ihrem Selbstwertgefühl und zum Auftreten depressiver Symptome. Dabei zeigte sich, dass es dann einen positiven Zusammenhang zwischen vor allem passiver Facebook-Nutzung und depressiven Symptomen gibt, wenn Probanden ein verstärktes Bedürfnis nach sozialen Vergleichen ihrer Fähigkeiten haben. „Wenn ich also ein starkes Bedürfnis nach Vergleichen habe und im Internet immer wieder auf meiner Startseite sehe, dass andere tolle Urlaube haben, tolle Abschlüsse machen, sich teure und tolle Dinge kaufen, während ich aus meinem Büro das trübe Wetter draußen sehe, senkt das meinen Selbstwert“, fasst Ozimek zusammen. „Und wenn ich dies Tag für Tag und immer wieder erlebe, kann das langfristig höhere depressive Tendenzen begünstigen.“

In einer dritten Studie haben die Forscher per Fragebogen untersucht, ob sich ihre Befunde auch auf andere Netzwerke übertragen lassen. Weil professionelle Netzwerke etwas anders funktionieren, entschieden sie sich für Xing. „Da betreibt man zwar auch ein beschönigtes Profil, bleibt aber auf dem Teppich, um möglichst authentisch, aber positiv zu wirken“, erläutert Phillip Ozimek. Die Auswertung ergab ein sehr ähnliches Ergebnis wie die Facebookstudie.

Die Art der Nutzung ist entscheidend
„Insgesamt konnten wir zeigen, dass nicht die Nutzung sozialer Netzwerke generell und unmittelbar zu Depressionen führt oder mit ihnen im Zusammenhang steht, sondern dass gewisse Voraussetzungen und eine bestimmte Art der Nutzung das Risiko für depressive Tendenzen erhöhen“, so Ozimek. Private wie professionelle soziale Netze können höhere Depressionswerte begünstigen, wenn Nutzer hauptsächlich passiv unterwegs sind, sich mit anderen sozial vergleichen und diese Vergleiche den Selbstwert negativ beeinflussen.

„Wichtig ist, dass dieser Eindruck, dass es alle besser haben, ein absoluter Trugschluss sein kann“, so der Psychologe. „Tatsächlich posten nur die wenigsten Menschen auch negative Erlebnisse und Erfahrungen in sozialen Medien. Dadurch, dass wir mit diesen positiven Erlebnissen im Netz überflutet werden, gewinnen wir jedoch einen ganz anderen Eindruck.“

Originalveröffentlichung
Phillip Ozimek, Hans-Werner Bierhoff: All my online-friends are better than me – three studies about ability-based comparative social media use, self-esteem, and depressive tendencies, in: Journal Behaviour & Information Technology 2019, DOI: 10.1080/0144929X.2019.1642385

Pressekontakt
Phillip Ozimek
Arbeitseinheit Sozialpsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 22592
E-Mail: phillip.ozimek@rub.de

Wissenschaftliche Ansprechpartner:
Phillip Ozimek
Arbeitseinheit Sozialpsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 22592
E-Mail: phillip.ozimek@rub.de

Originalpublikation:
Phillip Ozimek, Hans-Werner Bierhoff: All my online-friends are better than me – three studies about ability-based comparative social media use, self-esteem, and depressive tendencies, in: Journal Behaviour & Information Technology 2019, DOI: 10.1080/0144929X.2019.1642385

Quelle: IDW 

(nach oben)


Was für unser Klima zählt: CO2-Budgets erklärt

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Je mehr CO2 wir bei der Verbrennung von Kohle, Öl und Gas emittieren, desto mehr erwärmen wir unser Klima – das klingt einfach und das ist es auch. Verschiedene Analysen haben unterschiedliche Schätzungen darüber vorgelegt, wie viel CO2 die Menschheit noch ausstoßen kann, wenn wir die globale Erwärmung auf die international vereinbarten 1,5 und deutlich unter 2 Grad Celsius begrenzen wollen. Eine neue Studie zeigt, dass fehlende Klarheit über die Gründe dieser Abweichungen zu unnötiger Verwirrung geführt hat.

Die Studie erleichtert den Vergleich unterschiedlicher Analysen, indem sie die relevanten Faktoren zur Schätzungen der verbleibenden CO2-Budgets identifiziert. Dadurch macht sie die Schätzungen leichter vergleichbar, was auch ihre Nutzung durch Entscheidungsträger erleichtern wird. Aus klimapolitischer Sicht bleibt die Grundaussage gleich: Selbst wenn das verbleibende Kohlenstoffbudget zur Begrenzung der Erwärmung auf 1,5°C um die Hälfte höher wäre, hätten wir nur noch 10 Jahre Zeit, bis die Emissionen auf Null reduziert werden müssen.

„Die CO2-Emissionen von der Industrie bis zum Verkehr auf Null zu bringen, erfordert sofortige Maßnahmen. Ob wir das ein paar Jahre früher oder später erreichen, ist unerheblich dafür, dass wir jetzt Maßnahmen ergreifen müssen“, sagt Elmar Kriegler vom Potsdam-Institut für Klimafolgenforschung (PIK), einer der Autoren der Studie. „Doch die Klärung verschiedener Berechnungen des CO2-Budgets ist mehr als nur eine akademische Frage. Es sagt uns etwas über die Risiken“. Eine der wichtigsten Erkenntnisse der jetzt in Nature veröffentlichten Studie ist, dass Rückkopplungen im Erdsystem, wie etwa das Tauen des Permafrostes und damit die Freisetzung des starken Treibhausgases Methan, ein unterschätzter wichtiger Faktor für den Umfang des verbleibenden CO2-Budgets sein könnten.

„Vorliegende Schätzungen des Kohlenstoffbudgets vernachlässigen oft das Tauen des Permafrostes und andere langsame Rückkopplungen des Erdsystems, die zu einer weiteren Erwärmung des Planeten führen könnten. Das bedeutet, dass unser Spielraum noch kleiner sein könnte, als wir dachten“, erklärt Kriegler. „Die impliziten Grundannahmen für CO2-Budgetberechnungen wie diese zu präzisieren, ist wichtig, um politische Entscheidungsträger mit fundierten Informationen zu unterstützen“.

Rückkopplungen des Erdsystems und andere wichtige Faktoren
Ein weiteres Beispiel für Unterschiede zwischen den Schätzungen des Kohlenstoffbudgets ist die Art der Temperaturmessung, die sie veranschlagen. Einige Schätzungen beziehen sich auf die Oberflächenlufttemperatur der Erde. 1,5 Meter über dem Boden gemessen, ist dies im Grunde die Temperatur, die die Menschen empfinden. Einige Schätzungen des Kohlenstoffbudgets beziehen jedoch die Temperaturen der Meeresoberfläche in ihre Bemessung der Erderwärmung ein. Da sich die Meeresoberflächentemperaturen langsamer erwärmen als die Lufttemperaturen, scheint es, als könne mehr CO2 ausgestoßen werden, bevor die 1,5 Grad Celsius-Grenze überschritten wird. Doch die so berechneten Budgets hätten auch klare Klimafolgen: eine verhältnismäßig heißere Erde. In ihrer Studie empfehlen die Autoren, ausschließlich die Oberflächenlufttemperatur für die Schätzung des verbleibenden CO2-Budgets zu wählen.

In einer Schlüsselgleichung für aktuelle und zukünftige Schätzungen des verbleibenden Kohlenstoffbudgets definieren die Wissenschaftler fünf Faktoren. Einer davon, die zukünftige Erwärmung durch Nicht- CO2-Emissionen, hängt stark von den politischen Entscheidungen über Treibhausgase jenseits von CO2 ab, die wir weiterhin emittieren werden. Je weniger wir den Planeten mit Treibhausgasen wie Methan erwärmen, desto größer wird unser verbleibendes Budget für CO2-Emissionen sein. Neben den Rückkopplungen des Erdsystems bezieht sich die größte Unsicherheit auf unsere Schätzung, wie stark sich das Klima als Reaktion auf die gesamten CO2-Emissionen erwärmt. Weitere Unsicherheiten ergeben sich aus der Bandbreite der historischen vom Menschen verursachten Erwärmung und dem Ausmaß der zusätzlichen Erwärmung nach Erreichen des Netto-Nullpunktes der CO2-Emissionen. Als wichtigen Meilenstein zur Verringerung dieser Unsicherheiten weisen die Autoren auf den sich derzeit in Vorbereitung befindlichen 6. Sachstandsbericht des Intergovernmental Panel on Climate Change (IPCC) hin.

Der Ansatz der Autoren baut auf der Argumentation des IPCC-Sonderberichts über 1,5 Grad globale Erwärmung auf, an dem sie mitgearbeitet haben. Der Bericht schätzt das verbleibende CO2-Emissionsbudget ab 2018 auf 420 GtCO2, wenn mit einer 66-prozentigen Wahrscheinlichkeit die Erderwärmung auf 1,5°C begrenzt werden soll, bzw. 580 GtCO2 für eine 50-prozentige Wahrscheinlichkeit. Die Annahmen über zukünftige Nicht- CO2-Emissionen können diese Schätzungen um 250 GtCO2 nach oben und unten verändern. Von diesen Schätzungen müsste man die CO2-Emissionen aus dem Tauen des Permafrosts und anderen nicht erfassten Rückkopplungen des Erdsystems abziehen, die vorläufig auf mindestens 100 GtCO2 geschätzt werden. „Wie groß das Budget am Ende ist, können wir nicht genau sagen, weil es auch von künftigen Entscheidungen über andere Treibhausgase als CO2 und von Unsicherheiten in natürlichen Systemen abhängt. Aber wir wissen genug, um sicher zu sein, dass keine Zeit mehr zu verlieren ist, um die Treibhausgasemissionen deutlich zu reduzieren“, sagt Kriegler.

Auf dem Laufenden bleiben, um fundierte Entscheidungen treffen zu können
„Alle Faktoren unserer Gleichung werden im Verlauf des wissenschaftlichen Fortschritts aktualisiert werden – einige dieser Aktualisierungen werden die CO2-Budgets kleiner machen, während andere sie etwas größer machen“, sagt Joeri Rogelj vom Grantham Institute am Imperial College London, einer der Leitautoren der Studie. „Die explizite Darstellung dieser regelmäßigen Aktualisierungen hilft aber dabei, sie transparent zu kommunizieren. Es ist wichtig, dass die politischen Entscheidungsträger über den neuesten Stand der Wissenschaft auf dem Laufenden gehalten werden, denn der nächste Bericht des IPCC im Jahr 2021 soll unser Wissen über die verbleibenden CO2-Budgets konsolidieren, um die Erwärmung auf 1,5°C und deutlich unter 2°C zu begrenzen.“

„Wie wir uns heute verhalten, wird entscheiden, ob wir eine realistische Chance haben, die Erwärmung auf 1,5°C zu begrenzen. An diesem Ergebnis ändert unsere Studie nichts“, fügt Rogelj hinzu. „Alles, was wir über die Größenordnung der erwarteten Klimaauswirkungen in einer Welt mit mehr als 1,5 Grad Temperaturzunahme wissen und unser besseres Verständnis der verschiedenen Faktoren, die die Größe des verbleibenden Kohlenstoffbudgets beeinflussen, lässt keinen Zweifel: Wir brauchen einen Vorsorgeansatz mit entschlossenen Klimaschutzmaßnahmen in den nächsten fünf bis zehn Jahren, um die Risiken zu begrenzen und Optionen offen zu halten – egal, in welche Richtung die Schätzungen des verbleibenden Kohlenstoffbudgets variieren.“

Artikel: Joeri Rogelj, Piers M. Forster, Elmar Kriegler, Christopher J. Smith, Roland Séférian (2019): Estimating and tracking the remaining carbon budget for stringent climate targets. Nature [DOI: 10.1038/s41586-019-1368-z]

Weblink zum Artikel nach Veröffentlichung: https://doi.org/10.1038/s41586-019-1368-z

Quelle: IDW 

(nach oben)


Meeresspiegelanstieg: Eiskollaps in Westantarktis könnte durch Beschneien mit Meerwasser verhindert werden

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Westantarktische Eisschild droht auf lange Sicht ins Meer zu rutschen. Während eine weitere Destabilisierung der Eisflächen in anderen Teilen des Kontinents durch eine Verringerung von Treibhausgasemissionen begrenzt werden könnte, wird der langsame, aber unwiederbringliche Eisverlust in der Westantarktis wohl auch im Falle einer Klimastabilisierung noch weiter fortschreiten. Ein Zusammenbruch der Eismassen würde zwar Jahrhunderte dauern, aber den Meeresspiegel weltweit um mehr als drei Meter ansteigen lassen.

Eine Gruppe von Wissenschaftlern des Potsdam-Instituts für Klimafolgenforschung (PIK) hat jetzt einen besonders kühnen Weg untersucht, das Eis zu stabilisieren: mit Billionen Tonnen zusätzlichen Schnees, erzeugt aus Meerwasser, könnten die instabilen Gletscher beschneit werden. Das würde beispiellose Ingenieurslösungen erfordern und eine der letzten unberührten Regionen der Erde erheblichen Umweltrisiken aussetzen – um den langfristigen Anstieg des Meeresspiegels in einigen der am dichtesten besiedelten Gegenden der Welt entlang der Küsten von den Vereinigten Staaten über China bis an die Nordseeküste zu verhindern.

„Im Kern geht es um die Abwägung, ob wir als Menschheit die Antarktis opfern wollen, um die heute bewohnten Küstenregionen und das dort entstandene und entstehende Kulturerbe zu retten. Hier geht es um globale Metropolen, von New York über Shanghai bis nach Hamburg, die langfristig unterhalb des Meeresspiegels liegen werden, wenn wir nichts tun“, sagt Anders Levermann, Physiker am Potsdam-Institut für Klimafolgenforschung (PIK) und der Columbia University in New York und einer der Autoren der Studie. „Der Westantarktische Eisschild ist das erste Kippelement in unserem Klimasystem, das wir gerade kippen sehen. Der Eisverlust beschleunigt sich und hört wahrscheinlich erst auf, wenn das Eisschild der Westantarktis praktisch schon verschwunden ist.“

Beispiellose Maßnahmen zur Stabilisierung des Eisschilds
Warme Meeresströmungen haben das Gebiet der Amundsensee in der Westantarktis erreicht – eine Region mit mehreren Gletschern, die durch ihre topografische Beschaffenheit instabil werden können. Das Abschmelzen dieser Gletscher unterhalb der Wasseroberfläche war der Auslöser für ihre Beschleunigung und ihren Rückzug. Das ist bereits jetzt Ursache für den größten Eisverlust des Kontinents und trägt zu einem immer schnelleren Beitrag zum globalen Meeresspiegelanstieg bei. In ihrer Studie haben die Forscher mit Hilfe von Computersimulationen errechnet, wie sich der Eisverlust in Zukunft entwickelt. Ihre Ergebnisse bestätigen frühere Arbeiten, die darauf hindeuteten, dass selbst eine deutliche Reduzierung der Treibhausgasemissionen den Zusammenbruch des Eisschildes der Westantarktis wahrscheinlich nicht verhindern könnte.

„Also haben wir untersucht, was einen möglichen Kollaps stoppen könnte und in unseren Simulationen den Schneefall in der destabilisierten Region weit über das beobachtete Niveau hinaus erhöht“, sagt PIK-Koautor Johannes Feldmann. „Tatsächlich stellen wir fest, dass eine riesige Menge Schnee den Eisschild tatsächlich in Richtung Stabilität zurückdrücken und die Instabilität stoppen kann. Umgesetzt werden könnte dies durch eine enorme Umverteilung von Wassermassen erreicht werden – mehreren hundert Milliarden Tonnen Wasser müssten pro Jahr aus dem Ozean gepumpt und über einige Jahrzehnte hinweg auf das Eis geschneit werden.“

Eine gewaltige Abwägung zwischen Gefahren und Hoffnungen
„Wir sind uns der Schwere bewusst, die ein solcher Eingriff hätte“, ergänzt Feldmann. Das Hochpumpen, das Entsalzen und die Erwärmung des Meerwassers sowie das Betreiben der Schneekanonen würden eine Strommenge in der Größenordnung von mehreren zehntausend High-End-Windturbinen erfordern. „Einen solchen Windpark inklusive der dafür nötigen Infrastruktur in der Amundsensee zu errichten und derartige enorme Mengen an Meerwasser zu entnehmen , würde im Wesentlichen den Verlust eines einzigartigen Naturreservates bedeuten. Darüber hinaus macht das raue antarktische Klima die technischen Herausforderungen kaum absehbar und schwer zu bewältigen, während die potenziellen schädlichen Auswirkungen auf die Region wahrscheinlich verheerend sein würden.“ Daher müssen die Risiken und Kosten eines solch beispiellosen Projekts sehr sorgfältig gegen die potenziellen Nutzen abgewogen werden. „Außerdem berücksichtigt unsere Studie nicht die zukünftige menschengemachte globale Erwärmung. Daher wäre dieses gigantische Unterfangen nur dann überhaupt sinnvoll, wenn das Pariser Klimaabkommen eingehalten wird und die CO2-Emissionen schnell und drastisch reduziert werden.“

„Die offensichtliche Absurdität des Unterfangens, die Antarktis künstlich zu beschneien um eine Eisinstabilität zu stoppen, spiegelt die atemberaubende Dimension des Meeresspiegelproblems wider“, schließt Levermann. „als Wissenschaftler sehen wir es jedoch als unsere Pflicht an, die Gesellschaft über jede einzelne mögliche Option zur Bewältigung der anstehenden Probleme zu informieren. So unglaublich es auch erscheinen mag: Um ein noch nie dagewesenes Risiko zu vermeiden, muss die Menschheit vielleicht auch noch nie da gewesene Anstrengungen unternehmen.“

Artikel: Johannes Feldmann, Anders Levermann, Matthias Mengel (2019): Stabilizing the West Antarctic Ice Sheet by surface mass deposition. Science Advances [DOI: 10.1126/sciadv.aaw4132]

Weblink zum Artikel nach Veröffentlichung: https://www.doi.org/10.1126/sciadv.aaw4132

Vorherige Forschung zu diesem Thema: Anders Levermann, Johannes Feldmann (2019): Scaling of instability timescales of Antarctic outlet glaciers based on one-dimensional similitude analysis. The Cryosphere https://doi.org/10.5194/tc-2018-252

Pressemitteilung zur Studie:
https://www.pik-potsdam.de/aktuelles/pressemitteilungen/beginnende-instabilitaet…

Quelle: IDW 

(nach oben)


Sensibel trotz dicker Hornhaut

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz

Bewegungswissenschaftler aus Chemnitz und Biologen aus Harvard untersuchen in aktueller „Nature“-Veröffentlichung den Einfluss des Barfußgehens auf die Sensibilität unserer Fußsohlen

Bereits vor sechs Millionen Jahren begann der Mensch, auf zwei Beinen zu laufen. Die ältesten bekannten Nachweise für Schuhe sind nur 40.000 Jahre alt – demnach ist die menschliche Anatomie bestens an ein Leben ohne Schuhe in natürlicher Umgebung angepasst. Ein Teil dieser Anpassung ist die Hornhaut, eine natürliche Schutzschicht der Füße – die heute allerdings eher als kosmetisches Problem gesehen wird. Doch welchen Einfluss hat die dicke Hornhaut auf die Empfindlichkeit der Fußsohlen? Das untersuchten Prof. Dr. Thomas Milani, Professur Bewegungswissenschaft der Technischen Universität Chemnitz, und Professor Daniel Lieberman von der Harvard University.

Kooperation zischen Chemnitz und Harvard
In der Theorie liegt die Hornhautschicht zwischen dem Boden und den menschlichen Sensoren in der Haut. Diese nehmen beispielsweise die Bodenbeschaffenheit war. Demnach wäre die logische Schlussfolgerung: Durch die Zunahme von Hornhaut müsste diese Wahrnehmung beim Gehen gedämpft sein. Dementgegen steht allerdings die evolutionsbiologische Theorie, dass der Mensch sich über Millionen von Jahren ideal an ein Leben mit Hornhaut angepasst hat, sodass die Funktion der Sensoren nicht in relevantem Maße beeinträchtigt sein sollte.

Zur Untersuchung der Hypothesen reiste das internationale Forscherteam um den Chemnitzer Wissenschaftler Milani und seinen Kollegen Liebermann von der Harvard University im Juni 2016 nach Kenia und testete mithilfe eines Ultraschallgerätes die Dicke der Fußsohlenhaut von 40 barfuß laufenden Personen.

Mit einem Vibrationsgerät konnte zudem die Empfindlichkeit der Fußsohlen gemessen werden. Dazu wurden unterschiedlich große Vibrationen über ein Messgerät abgefragt, um die Wahrnehmungsschwelle jedes Probanden zu finden. Als Kontrollgruppe dienten Kenianerinnen und Kenianer, die regelmäßig Schuhe tragen. Unterstützung erhielten die Forscherinnen und Forscher vom Institut für Physiologie der Moi University (Kenia).

Verblüffende Erkenntnis
Das verblüffende Ergebnis dieser Untersuchungen: Trotz 30 Prozent dickerer Hornhaut konnte kein Sensibilitätsunterschied zwischen den Gruppen festgestellt werden. Das Forschungsteam schlussfolgerte, dass Hornhaut damit ihre Schutzfunktion erfüllt, ohne die darunter liegenden Sensoren in ihrer Funktion einzuschränken.

„Fest steht, dass unsere Füße evolutionsbiologisch nicht für Schuhe vorgesehen sind“, sagt Milani. Daraus zu folgern, grundsätzlich barfuß zu laufen und auf Schuhe zu verzichten, wäre jedoch in Anbetracht der asphaltierten Straßen ebenfalls falsch.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Milani, Professur Bewegungswissenschaft der TU Chemnitz, Tel. +49 371 531-34536, E-Mail thomas.milani@hsw.tu-chemnitz.de

Originalpublikation:
Holowka, N.B., Wynands, B., Drechsel, T., Yegian, A., Tobolsky, V.P., Okutoyi, R., Ojiambo Mang’Eni, Haile, D.K., Sigei, T., Zippenfennig, C., Milani, T.L. & Lieberman, D.E. (2019). Foot callus thickness does not trade off protection for dynamic skin sensitivity during walking. DOI: https://doi.org/10.1038/s41586-019-1345-6

Quelle: IDW 

(nach oben)


Erste globale Analyse von Höhlentropfwasser

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Die in Karsthöhlen vorkommende Tropfsteine Stalagmiten und Stalaktiten geben wertvolle Hinweise auf das bisherige Erdklima. Wissenschaftlerinnen und Wissenschaftler benutzen die Zusammensetzung von Sauerstoffisotopen in Stalagmiten als Klimaarchiv, das wichtige Informationen zu früheren Klimawandeln gespeichert hat. Der Sauerstoff in den Stalagmiten kommt aus dem Wasser, das von den Stalaktiten auf die Stalagmiten tropft. Dieses Tropfwasser stammt ursprünglich aus Niederschlägen und stellt eine direkte Verbindung zum Oberflächenklima her.

Forschende wollen herausfinden, wie die Zusammensetzung der Sauerstoffisotopen im Tropfwasser mit dem Niederschlag zusammenhängt, um dadurch das so genannte Klimaarchiv besser zu analysieren.

Juniorprofessor Dr. Andreas Hartmann von der Professur für Hydrologische Modellierung und Wasserressourcen der Universität Freiburg hat mit einem Team unter der Leitung von Prof. Dr. Andy Baker von der Universität von New South Wales in Sydney/Australien die weltweit erste globale Analyse von Tropfwasser in Karsthöhlen in der aktuellen Ausgabe von Nature Communications veröffentlicht.

In ihrer Studie verglichen die Wissenschaftler die Sauerstoffisotopenzusammensetzung des Tropfwassers mit der von Niederschlägen. Mittels statistischer Analyse identifizierten sie wichtige klimatische Schwellenwerte: In kühlen Klimazonen ähnelt die Sauerstoffisotopenzusammensetzung von Tropfwasser in Höhlen der von Niederschlägen, was bedeutet, dass Stalagmiten-Sauerstoffisotope die vergangenen Niederschläge in diesen Regionen am besten speichern können. In wärmeren und stark saisonalen Klimazonen ähnelt die Sauerstoffisotopenzusammensetzung des Tropfwassers der Grundwasserneubildung, die auf Basis des großskaligen Karstsimulationsmodells von Hartmann bestimmt wurde.

Die Forschenden zeigen damit, dass in diesen wärmeren Klimazonen, zu denen auch der Mittelmeerraum gehört, Stalagmiten-Sauerstoffisotopen Information über die Menge der Grundwasserneubildung in der Vergangenheit gespeichert haben. In Zeiten wiederkehrender Hitzewellen im Mittelmeerraum sind diese Erkenntnisse besonders wichtig, da sie Rückschlüsse über die frühere Grundwasserneubildung und die damit zusammenhängende Wasserverfügbarkeit ermöglichen.

Originalpublikation:
Baker, A., Hartmann, A., Duan, W., Hankin, S., Comas-bru, L., Cuthbert, M.O., Treble, P.C., Banner, J., Genty, D., Baldini, L.M., Bartolomé, M., Moreno, A., Pérez-Mejías, C., Werner, M. (2019): Global analysis reveals climatic controls on the oxygen isotope composition of cave drip water. In: Nature Communications, 10. S. 1-7. DOI: 10.1038/s41467-019-11027-w

Kontakt:
Juniorprofessor Dr. Andreas Hartmann
Professur für Hydrologische Modellierung und Wasserressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3520
E-Mail: andreas.hartmann@hydmod.uni-freiburg.de
Internet: http://www.hydmod.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2019/archiv-des-klimawandels

Quelle: IDW 

(nach oben)


Arbeitslosenversicherung bewirkt finanziellen Ausgleich zwischen Bundesländern

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Wirtschaftlich starke Regionen mit niedriger Arbeitslosigkeit zahlen mehr Beiträge als sie Leistungen aus der Arbeitslosenversicherung erhalten. Regionen mit hoher Arbeitslosigkeit empfangen dagegen mehr Leistungen als sie Beiträge zahlen. Eine am Dienstag veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zeigt: Die regionalen Verteilungsmuster von Arbeitslosenversicherung und Länderfinanzausgleich ähneln sich.

Die regionale Umverteilung ist sowohl bei der Arbeitslosenversicherung wie beim Länderfinanzausgleich nach wie vor von einem starken West-Ost-Gefälle geprägt. Innerhalb Westdeutschlands zeichnet sich ein Süd-Nord-Gefälle ab. Insbesondere in Bremen, das unter den westdeutschen Bundesländern die höchste Arbeitslosigkeit aufweist, liegen die Beiträge zur Arbeitslosenversicherung deutlich unter den Ausgaben. In den süddeutschen Regionen werden hingegen – abgesehen von den Krisenjahren von 2008 bis 2010 – mehr Beiträge erzielt als Ausgaben getätigt.

In den Krisenjahren von 2008 bis 2010 lagen in allen Bundesländern die Einnahmen der Arbeitslosenversicherung unter den Ausgaben. Beim Kurzarbeitergeld zeigt die IAB-Studie zudem ein völlig anderes räumliches Verteilungsmuster. Die besonders unter der Wirtschaftskrise leidenden süddeutschen Industriegebiete erhielten deutlich mehr Kurzarbeitergeld als andere Teile Deutschlands. Baden-Württemberg bekam in den Jahren 2009 bis 2011 ein Viertel des gesamten Kurzarbeitergeldes. Dies stützte die Kaufkraft in Baden-Württemberg mit fast 2,4 Milliarden Euro, in Mecklenburg-Vorpommern dagegen mit rund 100 Millionen Euro. Im Juni 2009 bezogen 8,3 Prozent der abhängig Beschäftigten in Baden-Württemberg Kurzarbeitergeld, während es in Mecklenburg-Vorpommern 1,5 Prozent waren. „Das Kurzarbeitergeld eignet sich gut, um die Folgen von Konjunkturschocks abzufedern, die sich regional unterschiedlich stark auswirken“, erklären die Forscher Kerstin Bruckmeier, Karl Heinz Hausner und Enzo Weber.

Die regionale Umverteilung durch die Arbeitslosenversicherung ist im Laufe der Jahre stark zurückgegangen. Während bis zum Jahr 2010 bei den ostdeutschen Bundesländern ein zum Länderfinanzausgleich vergleichbar hohes Niveau erreicht wurde, fallen die regionalen Defizite seit dem Jahr 2011 deutlich geringer aus. Dies ist den Forschern zufolge darauf zurückzuführen, dass sich gerade in Regionen mit vormals sehr hoher Arbeitslosigkeit wie Ostdeutschland die Arbeitslosigkeit stark reduziert hat: „Mit der Verbesserung der Arbeitsmarktlage ist auch der auf die Arbeitslosigkeitssituation bezogene regionale Umverteilungsbedarf gesunken.“ Bei der Diskussion um den Länderfinanzausgleich sei aber auch zu beachten, dass ein anderer Umverteilungskanal, über die Arbeitslosenversicherung, stark an Bedeutung verloren habe.

Weitere Informationen:
http://doku.iab.de/kurzber/2019/kb1219.pdf

Quelle: IDW 

(nach oben)


Neues Berechnungskonzept: Wie hoch kann der Meeresspiegel maximal steigen?

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Ein internationales Forschungsteam um Prof. Dr. Detlef Stammer vom Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg hat ein Konzept zur Berechnung des maximal möglichen Meeresspiegelanstiegs entwickelt und im Fachjournal „Earth´s Future“ vorgestellt. Im Forschungsprogramm „SeaLevel“, das den Zuschlag für eine zweite Förderphase bekommen hat und sechs Millionen Euro erhält, wird ein Teil der neuen Berechnugen erstellt werden.

Die Forscherinnen und Forscher zeigen in der Studie, wie in Zukunft zuverlässige Informationen zum maximalen Anstieg des Meeresspiegels bereitgestellt werden können (high-end sea-level rise). „Mit dem neuen Konzept können wir viele Missverständnisse zum Thema, auch in der Fachliteratur, auflösen und zu tragfähigen Aussagen kommen“, sagt Stammer. Physikalische Prozesse wie das Abschmelzen von Landeis in Grönland oder in der Antarktis werden erstmals mit ihren Unsicherheiten in die Berechnungen miteinbezogen.

Bisher wurden diese Prozesse international sehr unterschiedlich berechnet oder bezogen sich auf andere Fragestellungen – und sind daher nicht vergleichbar. Zum Beispiel gibt der IPCC-Bericht des Weltklimarats jeweils nur eine wahrscheinliche Spanne für den Anstieg an, keine Werte für den maximal möglichen Ausschlag.

Dabei ist der Informationsbedarf hoch: Da sich im Zuge des Klimawandels der Meeresspiegel lokal völlig unterschiedlich entwickeln wird – in einigen wenigen Regionen kann er sogar sinken -, brauchen Akteurinnen und Akteure vor Ort weniger die Angaben zum globalen Mittelwert, sondern konkrete Prognosen für den maximalen Anstieg in ihrer Region. Dieser Wert setzt den Rahmen für das höchste Risiko und die größten Schäden, aber auch für die höchsten Kosten für anstehende Schutzmaßnahmen.

Doch je weiter der Anstieg des Meeresspiegels in die Zukunft hinein berechnet werden soll, desto unsicherer wird die Prognose. Das neue Konzept lässt sich deshalb an verschiedene Zeitskalen anpassen. „In den nächsten 50 Jahren kann das Eis der Westantarktis nicht vollständig abschmelzen. Das funktioniert physikalisch in dieser Zeitspanne nicht“, sagt Detlef Stammer. „Aber in 100 Jahren wäre dies rein theoretisch möglich. Also muss dieses Risiko dann in die Berechnung des maximalen Anstiegs einfließen.“

Im Programm „SeaLevel“ wird ein Teil dieser Berechnungen erstellt werden. In weiteren Schritten geht es darum, die Eispakete in Grönland und der Antarktis zu quantifizieren, um später konkrete Werte für den höchstmöglichen Meeresspiegelanstieg in den ausgewählten Beispielregionen des Projekts, Indonesien und Norddeutschland, zu berechnen. Die Deutsche Forschungsgemeinschaft bewilligte jetzt sechs Millionen Euro für die kommenden drei Jahre. Das Schwerpunktprogramm „Regional Sea Level Change and Society“ (SeaLevel) startete 2015 und erhielt für die erste Phase ebenfalls sechs Millionen Euro.

Für Rückfragen:
Prof. Dr. Detlef Stammer
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Exzellenzcluster „Climate, Climatic Change, and Society“ (CLICCS)
Tel.: +49 40 42838-5052
E-Mail: detlef.stammer@uni-hamburg.de

Stephanie Janssen
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Exzellenzcluster „Climate, Climatic Change, and Society“ (CLICCS)
Öffentlichkeitsarbeit / Outreach
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de

Originalpublikation:
Stammer, D., Wal, R. S. W., Nicholls, R. J., Church, J. A., Le Cozannet, G., Lowe, J. A., et al (2019): Framework for high‐end estimates of sea‐level rise for stakeholder applications. Earth’s Future, 7. https://doi.org/10.1029/2019EF001163

Weitere Informationen:
Webseite des Projektes „Regional Sea Level Change and Society“ (SeaLevel): https://www.spp-sealevel.de/index.php?id=3130

Quelle: IDW 

(nach oben)


Gezielter Klimaschutz braucht faire und wirkungsvolle CO2-Steuer

Christin Hasken Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH

Wuppertal Paper liefert Diskussionsgrundlage zur CO2-Bepreisung

Wie kann Deutschland seine Klimaziele bis 2030 erreichen? Die derzeit heiß diskutierte CO2-Steuer verbunden mit weiteren gezielten Klimaschutzmaßnahmen ist eine Möglichkeit, womit diese Ziele in greifbare Nähe rücken. Dabei kommt es auf die konkrete Ausgestaltung an. Liegt der CO2-Preis zwischen 30 und 50 Euro pro ausgestoßener Tonne CO2, ist es zielorientiert die Hälfte der Einnahmen für Klimaschutzmaßnahmen zu investieren. Sozial gerecht ist eine Steuer, wenn die andere Hälfte der Einnahmen direkt an Haushalte und Unternehmen zurückerstattet wird. Eine Diskussionsgrundlage dafür liefert das neue Wuppertal Paper „Ein CO2-Preis als Instrument der Klimapolitik: notwendig, aber nur im Gesamtpaket wirkungsvoll und sozial gerecht“.

Wuppertal, 11. Juli 2019: Der Sonderbericht des Intergovernmental Panel on Climate Change (IPCC) im vergangenen Herbst zum 1,5-Grad-Ziel sowie die Proteste der Fridays-for-Future-Bewegung setzte die Dringlichkeit eines raschen Klimaschutzes wieder neu auf die öffentliche und politische Agenda. Das eröffnet neue politische Möglichkeiten für eine verschärfte Klimapolitik in Deutschland und ist angesichts des von Tag zu Tag steigenden Handlungsdrucks aufgrund des fortschreitenden Klimawandels auch zwingend notwendig.
Ein Preis für das klimaschädliche Kohlenstoffdioxid (CO2) gilt seit vielen Jahren als ein essenzieller klimapolitischer Baustein zur langfristigen Dekarbonisierung aller Sektoren. Inzwischen rückt das Thema in den Fokus der Debatten. Doch ist die Streitfrage des CO2-Preises in puncto Umsetzung noch offen. Soll er über eine CO2-Besteuerung oder eine Ausweitung des Emissionshandels eingeführt werden? Wie hoch soll er sein? Wofür sollen die Einnahmen verwendet werden?

Eine mutige CO2-Bepreisung sei längst überfällig, aber: „Obwohl ein CO2-Preis ein zentraler Baustein für erfolgreichen Klimaschutz ist, wäre es aufgrund der Vielschichtigkeit der zu überwindenden Hemmnisse zu kurz gegriffen, sich allein darauf zu verlassen“, sagt Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts.
Das Pariser Klimaabkommen gibt vor, dass alle Sektoren umgehend auf einen Dekarbonisierungspfad einschwenken müssen und dieser spätestens bis 2050 vollständig umgesetzt sein muss. Angesichts der vielfältigen sektorenspezifischen Herausforderungen braucht es ein ganzes Paket sich ergänzender Maßnahmen. Eine CO2-Steuer könnte dafür die notwendige Basis liefern.

„Beispielsweise würde ein moderater Einstieg in eine CO2-Steuer von 30 bis 50 Euro pro ausgestoßener Tonne CO2 bei Gebäuden und Verkehr zunächst ausreichende Mittel generieren, um sektorale Politiken und Infrastrukturmaßnahmen besser finanzieren zu können und so die Energie-, Verkehrs- und Klimaziele 2030 zu erreichen“, sagt Dr. Stefan Thomas, Leiter der Abteilung Energie-, Verkehrs- und Klimapolitik am Wuppertal Institut. Vorrangig sollten zusätzliche Maßnahmen für Energieeffizienz in allen Sektoren umgesetzt werden, aber auch für umweltfreundlichen Verkehr – also eine attraktivere Infrastruktur um zu Fuß, mit dem Rad, per Bus und Bahn sowie elektromobil unterwegs zu sein -, erneuerbare Energien zur Wärmeversorgung sowie Impulse für die Entwicklung innovativer Technologien wie Energiespeicher gesetzt werden. Damit ließen sich auch mögliche Strafzahlungen an die Europäische Union vermeiden. Solche Strafzahlungen entstehen zwangsläufig, wenn die Klimaschutzziele, zu denen sich Deutschland für das Jahr 2030 verpflichtet hat, nicht erreicht werden. Gleichzeitig könnte etwa die Hälfte der Einnahmen als Rückzahlungen einen sozialen Ausgleich für Haushalte und einen wettbewerblichen Ausgleich für Unternehmen schaffen.

Eine wirkungsvolle und faire CO2-Steuer
Eine Diskussionsgrundlage für die Ausgestaltung einer CO2-Steuer liefert das Wuppertal Institut im neuen Wuppertal Paper „Ein CO2-Preis als Instrument der Klimapolitik: notwendig, aber nur im Gesamtpaket wirkungsvoll und sozial gerecht“. Das Autorenteam ist sich einig: Eine CO2-Bepreisung hat zweifellos eine wichtige Lenkungswirkung für den Kauf und Einsatz von effizienten Produkten, Fahrzeugen und Anlagen. Die volle Wirkung erzeuge sie aber erst, wenn die eingenommenen Mittel richtig verwendet werden. In ihrem Diskussionspapier beziehen sie mit neun Thesen Stellung, wann und wie eine CO2-Steuer sinnvoll ist und wie sie sich am besten umsetzen lässt. Eine CO2-Steuer:

1) ist sinnvoll für die Verkehrs- und Gebäudesektoren, die bisher nicht in den EU-Emissionshandel einbezogen sind und muss hoch genug sein, um eine Lenkungswirkung erzielen zu können,
2) muss mit einer verstärkten Förderung von Energieeinsparung oder erneuerbaren Energien sowie Infrastruktur- und Technologieentwicklung einhergehen und Innovationsakzente setzen,
3) führt je nach Rückvergütungsmechanismen nicht zu Mehrkosten für die Verbraucherinnen und Verbraucher, sondern zu Entlastungen für energiebewusste Verbrauchergruppen
4) wird in Verbindung mit solchen gezielten (flankierenden) Klimaschutzmaßnahmen im Zuge der Ausschöpfung von Energieeffizienzpotenzialen einen höheren Entlastungseffekt ermöglichen und die Gesamtkosten aller Haushalte und Unternehmen stärker senken können
5) führt in dieser Verbindung zu substantiellen Investitionseffekten, wodurch positive Effekte auf die Staatseinnahmen ausgelöst werden,
6) muss dynamisch anwachsen, um die langfristigen Klimaziele zu erreichen mit entsprechend höherer Rückerstattung,
7) muss additiv wirken und bringt insgesamt für den Klimaschutz wenig, wenn nur die bestehende Energiesteuer auf eine CO2-Basis gestellt oder von Strom zu Heizenergien und Kraftstoffen verlagert wird,
8) sollte daher mit zunächst 30 bis 50 Euro pro ausgestoßener Tonne CO2 zusätzlich zur momentanen Energiesteuer eingeführt werden und
9) wirkt besser und lässt sich aufgrund der nationalen Handlungsautonomie schneller umsetzen als eine Ausweitung des Emissionshandels auf die Bereiche Verkehr und Gebäude.

„Der Politik in Deutschland bleibt daher der Mut zu wünschen, nun rasch einen solchen Schritt zu einer wirksamen und sozial ausgewogenen CO2-Bepreisung zu gehen. Dabei kommt es heute mehr denn je auf Geschwindigkeit an, einen monatelangen Streit über das vermeintlich beste Modell können wir uns nicht leisten“, ergänzt Fischedick.
Wissenschaftliche Ansprechpartner:

Prof. Dr. Manfred Fischedick, Vizepräsident Wuppertal institut (https://wupperinst.org/c/wi/c/s/cd/5/)
Dr. Stefan Thomas, Abteilungsleiter Energie-, Verkehrs- und Klimapolitik (https://wupperinst.org/c/wi/c/s/cd/94/)

Originalpublikation:

Wuppertal Paper Nr. 195 (2/2019):
Ein CO2-Preis als Instrument der Klimapolitik: notwendig, aber nur im Gesamtpaket wirkungsvoll und sozial gerecht
https://epub.wupperinst.org/frontdoor/index/index/docId/7340

Anhang

Wuppertal Paper Nr. 195 (2/2019): Ein CO2-Preis als Instrument der Klimapolitik: notwendig, aber nur im Gesamtpaket wirkungsvoll und sozial gerecht
https://idw-online.de/de/attachment72439

Quelle: IDW 

(nach oben)


CO2-Bepreisung als Innovationstreiber für klimafreundliche Technologien

Petra Szczepanski Öffentlichkeitsarbeit
ForschungsVerbund Erneuerbare Energien (FVEE)

Der ForschungsVerbund Erneuerbare Energien (FVEE) befürwortet die rasche Einführung einer CO2-Bepreisung und begrüßt die aktuellen politischen und gesellschaftlichen Initiativen. „Im Gebäudebereich und im Verkehrssektor sind wir am weitesten von der Einhaltung des Zielpfades entfernt und müssen neue Instrumente zur Erreichung der deutschen Klimaschutzziele einsetzen. Ein angemessener CO2-Preis kann hier eine wirksame Dynamik zur Treibhausgasreduzierung entfalten“, betont Prof. Dr. Harald Bolt, Vorstand des Forschungszentrums Jülich und Sprecher des FVEE.

Die FVEE-Mitglieder sehen die CO2-Bepreisung auch als große Chance für die Etablierung neuer Energietechnologien: „Angemessene Preise für fossile Energieträger verbessern die Wettbewerbsfähigkeit klimafreundlicher Technologien, die Strom, Wärme und Mobilität bereitstellen. Im Sinne eines Innovationstreibers kann eine CO2-Bepreisung auch die Marktentwicklung für neue technische Komponenten zur Bereitstellung, Verteilung, Wandlung und Speicherung von Energie befördern und damit die Energiewende beschleunigen“, erläutert Bolt. Diese Technologien werden für ein integriertes erneuerbares Energiesystem dringend benötigt, in Deutschland genauso wie auf den wachsenden globalen Klimaschutzmärkten.

Ein CO2-Preis kann zudem die Wirtschaftlichkeit von Energieeffizienz-Maßnahmen verbessern und aus volkswirtschaftlicher Sicht dazu beitragen, Kosten einzusparen. Eine wirkungsvolle CO2-Bepreisung sollte auch dazu beitragen, staatlich induzierte Stromkostenbestandteile zu senken und damit die Verzerrung zwischen fossilen Brennstoffen und Strom zu korrigieren. Zugleich muss die CO2-Bepreisung zur Sicherung der gesellschaftlichen Akzeptanz sozial austariert werden. Weitere Schritte wie die Einführung einer länderübergreifenden Mengenbegrenzung von CO2-Emissionen in wirksamer Höhe sind für die Einhaltung der Klimaschutzziele mittelfristig unabdingbar.

Die folgenden Aspekte sind den Forschungseinrichtungen im FVEE für die Einführung einer CO2-Bepreisung besonders wichtig:

„Durch das Emittieren von Klimagasen nehmen wir faktisch einen Kredit bei den nachfolgenden Generationen auf, da die Kosten unseres derzeitigen Energie-Wohlstands erst in der Zukunft anfallen werden. Die Einführung einer angemessenen sektorenübergreifenden CO2-Mindestbepreisung ist daher ein sinnvolles Element eines zeitgemäßen Generationenvertrags. Gleichzeitig würde die Attraktivität von Investitionen in klimafreundliche Technologien deutlich erhöht werden. Dies gilt insbesondere für den Wärme- und Verkehrssektor, wobei wir im Stromsektor weiterhin den Emissionshandel wirksam ausgestalten sollten. Eine sektorenübergreifende CO2-Bepreisung stellt ein marktnahes, schlankes und effizientes Instrument dar, mit dem dringend benötigte CO2-arme bzw. -neutrale Technologien wirtschaftlich attraktiver werden.“
Prof. Dr. Carsten Agert, Institutsleiter, DLR Institut für Vernetzte Energiesysteme

„Klimaschädliches Handeln ist gerade im Gebäude- und Verkehrssektor derzeit noch wirtschaftlich zu attraktiv. Eine wirksame und sozial abgefederte CO2-Bepreisung muss daher relevanter Bestandteil eines wirksamen Maßnahmenkatalogs sein: Gemeinsam mit ordnungsrechtlichen Vorgaben, zielorientierten Förderprogrammen sowie einer Streichung kontraproduktiver Subventionen unterstützt ein CO2-Preis die Attraktivität von klimafreundlichen Technologien und führt zu einem Innovationsschub bei deren Umsetzung. Ein für die kommenden Dekaden definierter ambitionierter Mindestpreispfad für CO2 gibt dabei Unternehmen sowie Verbraucherinnen und Verbrauchern mehr Planungssicherheit für ihre (Investitions-) Entscheidungen.“
Prof. Dipl.-Ing. Frank Baur, Wissenschaftlicher Geschäftsführer,
Institut für ZukunftsEnergie- und Stoffstromsysteme (IZES)

„Die Bepreisung von CO2 darf nicht an den Grenzen von Deutschland halt machen. Importe müssen – wie in Deutschland produzierte Produkte – einen entsprechenden CO2-Preisaufschlag erfahren. Dadurch werden Impulse für eine nachhaltige Produktion vor Ort in Deutschland gesetzt. Bei der Photovoltaik kann dies – als Beispiel – im Zusammenspiel mit den neusten Innovationen aus unseren Laboren der Trigger sein, der bewirkt, dass die gesamte Wertschöpfungskette industriell in Deutschland aufgebaut wird und global wettbewerbsfähig agieren kann. Somit schafft eine CO2-Bepreisung Innovation und Wertschöpfung in Deutschland in einem Zukunftsmarkt.“
Dr. Andreas Bett, Leiter des Fraunhofer Instituts für Solare Energiesysteme (ISE)

„Unter den bestehenden Regeln schreitet die Transformation des Energiesystems in Deutschland zu langsam voran. Eine sektorübergreifende Bepreisung der CO2-Emissionen kann rasch eingeführt werden. Zu detailreiche Einzelreglungen mit schwer überschaubaren Auswirkungen können so vermieden werden. Eine CO2-Bepreisung erzeugt eine treibende Kraft hin zu mehr Markt für innovative Komponenten und innovative Systemlösungen. Auch der dringend benötigte Ausbau der Solarenergie könnte so schneller vorankommen.“
Prof. Dr.-Ing. Rolf Brendel, Leiter des Instituts für Solarenergieforschung in Hameln (ISFH)

„Eine CO2-Bepreisung mit Augenmaß stellt ein starkes Steuerungsinstrument zur Realisierung einer umwelt- und energieeffizienten Volkswirtschaft dar. Insbesondere im Gebäude- und Mobilitätsbereich wird eine solche Maßnahme wichtige Impulse setzen und eine Beschleunigung der Energiewende herbeiführen. Wesentlich dabei ist die Schaffung eines breiten Konsenses in der Bevölkerung für eine CO2-Bepreisung, d.h. ein sozialverträgliches und transparentes Erhebungs- und Rückverteilungsmodell, das CO2-sparsames Verhalten belohnt.“
Prof. Dr. Vladimir Dyakonov, Wissenschaftlicher Leiter und Vorstand, Bayerisches Zentrum für Angewandte Energieforschung e.V. (ZAE Bayern)

„Die Einführung eines CO2-Preises ist sinnvoll, um stärkere Anreize für klimafreundliche Investitionen zu setzen. Dies gilt insbesondere in den Sektoren Verkehr und Gebäude, die bislang nicht in den EU-Emissionshandel einbezogen sind. Ein CO2-Preis kann die bestehenden Instrumente z.B. zur Förderung von Energieeinsparung oder erneuerbaren Energien verstärken aber nicht ersetzen. Um auch nicht-wirtschaftliche Hemmnisse zu überwinden, muss er mit verstärkten Maßnahmen des „Fördern, Fordern und Informieren“ sowie der Infrastruktur- und Technologieentwicklung gekoppelt werden.“
Prof. Dr. Manfred Fischedick, Vizepräsident des Wuppertal Instituts

„CO2-Bepreisung mobilisiert das nötige Eigeninteresse privater Akteure an der Erreichung der Klimaziele und nutzt zugleich Märkte als Entdeckungsverfahren für sinnvolle und günstige Lösungen. Sie trägt dazu bei, den klimapolitisch falsch gesetzten Preisvorteil fossiler Strukturen zu korrigieren und alte Strukturen ohne direkten staatlichen Zwang aus dem Markt auslesen zu lassen. Wird sie über alle Sektoren hinweg möglichst einheitlich gesetzt, hilft sie zugleich dabei, die Klimaziele kostengünstig zu erfüllen. Bereits vorhandene Instrumente wie Energie- und Stromsteuer, CO2-Komponente der Kfz-Steuer oder der Emissionshandel müssen dafür konsequent auf die Dekarbonisierungsziele ausgerichtet und aufeinander abgestimmt werden.“
Prof. Dr. Erik Gawel , Leiter Department Ökonomie,
Helmholtz-Zentrum für Umweltforschung und Universität Leipzig (UFZ)

„Strom aus erneuerbaren Energien wird zu einem der wichtigsten Energieträger eines klimaneutralen Energiesystems. Seine Nutzung in Wärmepumpen für den Gebäudesektor, in Elektromotoren für die Mobilität oder zur Herstellung von Wasserstoff wird umso wirtschaftlicher, je stärker die Klimawirkung fossiler Energieträger in deren Preis enthalten ist. Deshalb entfaltet eine sektorenübergreifende CO2-Bepreisung eine steuernde Wirkung in Richtung einer klimaverträglichen Energieversorgung. Und sie unterstützt zugleich die Entwicklung und Produktion der dafür benötigten Technologien in Deutschland und Europa.“
Prof. Dr. Hans-Martin Henning, Leiter des Fraunhofer Instituts für Solare Energiesysteme (ISE)

„Durch die Einführung eines CO2-Preises wird geothermische Wärmebereitstellung im Vergleich zu klimaschädlichen Optionen kostengünstiger. Mit dieser Maßnahme wird in urbanen Räumen Geothermie schneller fossile Heizungen ersetzen und das würde zu einer signifikanten CO2-Reduktion beitragen. Auch die Speicherung von Überschusswärme im geologischen Untergrund und deren spätere Nutzung zum Heizen würde dadurch befördert.“
Prof. Dr. Dr. h.c. Reinhard F. Hüttl, Wissenschaftlicher Vorstand und Vorstandsvorsitzender, Helmholtz-Zentrum Potsdam Deutsches GeoForschungsZentrum GFZ

„Eine direkte Bepreisung von CO2-Emissionen aus der Wandlung, dem Transport, der Speicherung und Nutzung von Energie muss so erfolgen, dass sie zu einem sorgsameren und sparsameren Umgang mit Energie über vollständige Wertschöpfungketten hinweg führt. Ein in diesem Sinne ausgestaltetes Bepreisungssystem führt zur Reduktion von Emissionen durch Innovationen und einen intensiveren Einsatz erneuerbarer Energien. Dieser Denkansatz sollte alle Bereiche, also Strom, Gas, Wärme, Kraftstoffe und chemische Rohstoffe, einbeziehen. Durch die Kraft der Innovationen kann die gemeinsame Hinwendung zu einem klimaneutralen Energiesystem in Deutschland und den in enger Wechselwirkung stehenden Ländern Europas gelingen. Eine Einbeziehung der europäischen Bürgerinnen und Bürger in diesen Prozess ist unerlässlich.“
Prof. h.c. Dr.-Ing. Joachim Knebel, Leiter des Bereichs Maschinenbau und Elektrotechnik, Karlsruher Institut für Technologie (KIT)

„Die CO2-Bepreisung macht den ökonomischen Wert der CO2-Vermeidung sichtbar und bildet eine monetäre Grundlage für Investitionsentscheidungen und Nutzungsverhalten von Akteuren des Energiesystems. Sie stärkt das Prinzip der Kosteneffizienz im Klimaschutz, übt Lenkungswirkung im Rahmen der Energiewende aus und stimuliert Innovationen für klimafreundliche Technologien in allen Sektoren. Sie kann zusätzlich strukturelle Wirkung z.B. in Richtung Sektorkopplung entfalten, wenn mit den Einnahmen aus der CO2-Bepreisung Stromkostenbestandteile wie z.B. der EEG-Beitrag finanziert werden oder die Stromsteuer gesenkt wird. Da insbesondere in den Bereichen Mobilität und Wohnen ein großer Teil der Bevölkerung kurzfristig nur eingeschränkt auf emissionsarme Techniken ausweichen kann, bedarf es zusätzlicher Maßnahmen, um eine entsprechende Steuerreform sozialverträglich auszugestalten. Die CO2-Bepreisung sollte so angelegt sein, dass eine steuerliche Mehrbelastung vermieden wird.“
Dr. Wilhelm Kuckshinrichs, Leiter Institut für Energie- und Klimaforschung – Systemforschung und Technologische Entwicklung, Forschungszentrum Jülich

„Bis 2050 brauchen wir eine klimaneutrale Gesellschaft und dies ist eine riesige globale Herausforderung! Um dieses Ziel zu erreichen, sind kurzfristig greifende Anreize mit Lenkungsfunktion für klimafreundliche Investitionen und Verhaltensweisen zwingend erforderlich. Die Einführung eines sozialverträglichen CO2-Preises ist ein wichtiger Schritt in Richtung des notwendigen 100 % Erneuerbaren Energiesystems und einer zumindest klimaneutralen, biobasierten Wirtschaft mit optimierten, erneuerbaren Kohlenstoffkreisläufen.“
Prof. Dr. mont. Michael Nelles, Wissenschaftlicher Geschäftsführer,
Deutsches Biomasseforschungszentrum (DBFZ)

„Aus europäischer Sicht sind neben der Einführung eines CO2-Preises klare Mengenbegrenzungen (jährlich abschmelzende Budgets) der CO2-Emissionen umzusetzen. Bei einer Einführung eines CO2-Preises muss gleichzeitig auch der Strompreis stark gesenkt werden. Die Einnahmen aus dem CO2-Preis sollten insbesondere zur Senkung der EEG-Umlage verwendet werden. Eine alleinige Senkung der Stromsteuer reicht für viele Technologien nicht aus. So ist es zum Beispiel notwendig, in den nächsten 10 Jahren massiv in Wärmenetze und auch Großwärmepumpen zu investieren. Sonst wäre auch in den nächsten 15 Jahren ein Einsatz von Wärmepumpen selbst bei steigenden CO2-Preisen nicht wirtschaftlich.“
Prof. Kurt Rohrig, Stellvertretender Institutsleiter des
Fraunhofer Instituts für Energiewirtschaft und Energiesystemtechnik (IEE)

„Eine CO2-Bepreisung fossiler Energieträger stellt DEN ökonomisch effizienten, stabilen und langfristigen Rahmen für die Transformation des Energiesystems dar und sollte als Leitinstrument der Energiewende schnellstmöglich implementiert werden. Kurzfristig kann ein CO2-Preis entscheidende Impulse zur Auflösung des Innovationstaus insbesondere in den Bereichen Sektorenkopplung, Speicherentwicklung und Systemflexibilisierung liefern. Bleiben diese Impulse aus, wird die Chance vertan, wichtige Innovationen in zukünftigen Schlüsseltechnologien wie Power-to-X umzusetzen und die beträchtlichen Exportpotenziale für die deutsche Wirtschaft zu heben.“
Prof. Dr. Frithjof Staiß, Geschäftsführendes Vorstandsmitglied des
Zentrums für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW)

Über den ForschungsVerbund Erneuerbare Energien

Der ForschungsVerbund Erneuerbare Energien ist eine bundesweite Kooperation von Forschungseinrichtungen. Die Mitglieder erforschen und entwickeln Technologien für erneuerbare Energien, Energieeffizienz, Energiespeicherung und das optimierte technische und sozio-ökonomische Zusammenwirken aller Systemkomponenten. Gemeinsames Ziel ist die Transformation der Energieversorgung zu einem nachhaltigen Energiesystem.

Kontakt für inhaltliche Fragen
Dr. Niklas Martin (Geschäftsführung)
Telefon 030 288 7565 71, www.fvee.de, fvee@helmholtz-berlin.de

Kontakt für Medien
Petra Szczepanski (Leiterin Öffentlichkeitsarbeit)
Telefon 030 288 7565 72, www.fvee.de, fvee@helmholtz-berlin.de

Quelle: IDW 

(nach oben)


Wie sich Aufschieber und Macher genetisch unterscheiden

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Manche Menschen neigen dazu, Handlungen aufzuschieben. Bei Frauen geht dieser Charakterzug mit der genetischen Veranlagung einher, einen höheren Dopaminspiegel im Gehirn zu besitzen. Das fanden Forscherinnen und Forscher der Ruhr-Universität Bochum und der Technischen Universität Dresden mit genetischen Analysen und Fragebögen heraus. Bei Männern konnten sie diesen Zusammenhang nicht feststellen.

„Der Botenstoff Dopamin ist in der Vergangenheit immer wieder mit einer erhöhten kognitiven Flexibilität in Verbindung gebracht worden“, sagt Dr. Erhan Genç aus der Bochumer Abteilung für Biopsychologie. „Das ist nicht grundsätzlich schlecht, aber geht oftmals mit einer erhöhten Ablenkbarkeit einher.“

In der Zeitschrift Social Cognitive and Affective Neuroscience, vorab online veröffentlicht am 3. Juli 2019, berichtet Erhan Genç unter anderem zusammen mit Caroline Schlüter, Dr. Marlies Pinnow, Prof. Dr. Dr. h. c. Onur Güntürkün, Prof. Dr. Christian Beste und Privatdozent Dr. Sebastian Ocklenburg über die Ergebnisse.

Nur bei Frauen
Die Forschungsgruppe untersuchte die genetische Ausstattung von 278 Männern und Frauen. Sie interessierten sich vor allem für das sogenannte Tyrosinhydroxylase-Gen (TH-Gen). Je nach Ausprägung des Gens besitzen Menschen im Gehirn viel oder wenig Botenstoffe aus der Katecholamin-Familie, zu denen der Botenstoff Dopamin gehört. Außerdem erfasste das Team mit einem Fragebogen, wie gut die Teilnehmerinnen und Teilnehmer ihre Handlungen kontrollieren können. Frauen mit schlechterer Handlungskontrolle hatten die genetische Anlage für höhere Dopaminlevel.

Dopamin und Handlungskontrolle
Ob jemand dazu neigt, Aufgaben aufzuschieben oder direkt anzugehen, hängt von der individuellen Fähigkeit ab, eine Handlungsabsicht aufrechtzuerhalten, ohne sich von Störfaktoren ablenken zu lassen. Genau hierfür könnte Dopamin entscheidend sein. Der Botenstoff wurde in früheren Studien nicht nur mit erhöhter kognitiver Flexibilität in Zusammenhang gebracht, sondern scheint auch dafür zu sorgen, dass Informationen leichter ins Arbeitsgedächtnis gelangen.

„Wir nehmen an, dass es dadurch schwerer wird, eine einmal gefasste Handlungsabsicht aufrechtzuerhalten“, sagt Doktorandin Caroline Schlüter. „Frauen, die aufgrund ihres Genotyps einen höheren Dopaminspiegel haben, könnten also eher dazu neigen, Handlungen aufzuschieben, weil sie sich stärker von Umwelteinflüssen und anderen Störfaktoren ablenken lassen.“

Empfänglicher für die genetischen bedingten Unterschiede?
Auch frühere Studien haben bereits geschlechtsspezifische Unterschiede zwischen der Ausprägung des TH-Gens und dem Verhalten zutage gefördert. „Der Zusammenhang ist noch nicht vollständig geklärt, aber das weibliche Sexualhormon Östrogen scheint eine Rolle zu spielen“, erläutert Erhan Genç. Östrogen beeinflusst indirekt die Dopamin-Produktion im Gehirn und erhöht die Anzahl bestimmter Nervenzellen, die auf Signale aus dem Dopaminsystem reagieren. „Frauen könnten also aufgrund des Östrogens empfänglicher für die genetisch bedingten Unterschiede im Dopaminlevel sein, was sich wiederum im Verhalten niederschlägt“, so der Biopsychologe.

Ausblick
In künftigen Studien will das Forschungsteam untersuchen, inwiefern der Östrogenspiegel tatsächlich einen Einfluss auf den Zusammenhang zwischen TH-Gen und Handlungskontrolle hat. „Hierzu wäre es erforderlich, den Menstruationszyklus und die damit verbundenen Schwankungen im Östrogenspiegel der Teilnehmerinnen genauer unter die Lupe zu nehmen“, erklärt Caroline Schlüter.

Neben Dopamin beeinflusst das TH-Gen auch Noradrenalin, einen weiteren wichtigen Botenstoff aus der Katecholamin-Familie. Die Rolle dieser beiden Neurotransmitter für die Handlungskontrolle wollen die Forscherinnen und Forscher in weiteren Untersuchungen beleuchten.

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Grants mit den Nummern GU 227/16-1 und GE 2777/2-1 sowie im Rahmen der Sonderforschungsbereiche 940, Projekt B08, und 1280, Projekt A03. Weitere Unterstützung kam vom Mercator Research Center Ruhr durch den Grant An-2015-0044.

Wissenschaftliche Ansprechpartner:

Caroline Schlüter
Arbeitseinheit Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 21453
E-Mail: caroline.schlueter@rub.de

Originalpublikation:

Caroline Schlüter, Larissa Arning, Christoph Fraenz, Patrick Friedrich, Marlies Pinnow, Onur Güntürkün, Christian Beste, Sebastian Ocklenburg, Erhan Genc: Genetic variation in dopamine availability modulates the self-reported level of action control in a sex-dependent manner, 2019, Social Cognitive and Affective Neuroscience, DOI: 10.1093/scan/nsz049

Quelle: IDW 

(nach oben)


5 Jahre internationale Wasserpolitik in Koblenz: Das ICWRGC feiert Jubiläum

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Am 9. Juli 2014 unterzeichneten die Bundesregierung und die UNESCO in Berlin den Vertrag zur Gründung des ersten UNESCO-Kategorie 2 Wasserzentrums in Deutschland. Das Zentrum ist angesiedelt an der BfG in Koblenz.

Das Internationale Zentrum für Wasserressourcen und globalen Wandel (ICWRGC) an der BfG feiert 5-jähriges Bestehen. Das ICWRGC wurde am 9. Juli 2014 als besondere Wertschätzung der UNESCO gegründet. In den vergangenen Jahren wuchs die Bedeutung des Zentrums und neue Aufgaben kamen hinzu: Beispielsweise übertrug die Weltorganisation für Meteorologie (WMO) im Jahr 2017 die Koordination des Globalen Terrestrischen Netzwerkes Hydrologie (GTN-H) an das ICWRGC und verlängerte 2019 das Mandat. Das Zentrum ging aus dem deutschen Sekretariat des Nationalen Komitees für das Internationale Hydrologische Programm (IHP) der UNESCO und das Hydrologische Wasserressourcenprogramm (HWRP) der WMO hervor. Das Sekretariat ist seit 1974 an der BfG angesiedelt. Das ICWRGC in Koblenz ist eines von derzeit 36 sogenannter Kategorie 2-Wasserzentren unter der Schirmherrschaft der UNESCO.

Sprachrohr für die deutsche Wasserforschung und -politik auf dem UN-Parkett
Das ICWRGC ist eng mit Partnern aus der Wissenschaft, operationellen hydrologischen Diensten, Datenzentren und anderen wasserrelevanten UN-Organisationen vernetzt. Für diese Partner erstellt das Zentrum maßgeschneiderte Produkte, als Grundlage für wissenschaftliche Untersuchungen, zur Verbesserung operationeller Fähigkeiten, Politikberatung und Kompetenzförderung im Wasserbereich. „Das ICWRGC ist auch ein Sprachrohr der BfG, um unser Wissen und neue Methoden sowie die Interessens Deutschlands zur Entwicklung der Wasserressourcen auf internationaler Ebene einzubringen“, sagt Birgit Esser, Leiterin der BfG. Besonders stolz ist die Leiterin, auf die Mandatierung des Zentrums durch verschiedene UN-Einrichtungen sowie auf die erzielten Ergebnisse auf dem letzten WMO-Kongress im Juni 2019, wo die wichtige Rolle der Hydrologie mit zahlreichen Resolutionen bekräftigt wurde.

Das ICWRGC ist an der BfG angesiedelt. Die intensive Zusammenarbeit zeigt sich unter anderem in der globalen Datenbank zur Wasserqualität von Grund- und Oberflächengewässern GEMStat, die gemeinsam von BfG und ICWRGC betrieben wird. „Ich möchte mich bei den zwölf Mitarbeiterinnen und Mitarbeitern des ICWRGC für die herausragende Arbeit der vergangenen fünf Jahre bedanken. Sich verändernde globale Rahmenbedingungen wie der Klimawandel oder das Bevölkerungswachstum machen die Expertise und das Engagement des Zentrums auch für die kommenden Jahrzehnte notwendig“, sagt Esser.

Wissenschaftliche Ansprechpartner:
Harald Köthe, Direktor ICWRGC (koethe@bafg.de)

Quelle: IDW 

(nach oben)


Projektstart: Biobasierte Dünger sollen künftig Mineraldünger ersetzen

Johannes Kaufmann Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen

JKI-Wissenschaftlerinnen untersuchen bio-basierte Düngemittel auf organische Schadstoffe und koordinieren ein Arbeitspaket in EU-Projekt, das die Stickstoff- und Phosphordüngung in der Landwirtschaft optimieren will, um Europas Abhängigkeit von Mineraldüngerimporten zu reduzieren.

(Braunschweig) Die mineralischen Düngerreserven insbesondere für Phosphor sind endlich. Rentable Abbaugebiete könnten in einigen Jahrzehnten erschöpft sein. Biobasierte Düngemittel aus Gülle, Mist, Klärschlamm oder Gärresten gewinnen in der europäischen Landwirtschaft zunehmend an Bedeutung. Sie können mineralischen Dünger ersetzen, der nicht nur wegen seiner energieaufwendigen Herstellung klimaschädlich ist, sondern überwiegend aus dem Ausland importiert werden muss. Eine optimierte Kreislaufwirtschaft von Tier- und Pflanzenproduktion hingegen könnte in Europas ländlichen Regionen Arbeitsplätze schaffen. Hierzu will das kürzlich gestartete Projekt LEX4BIO beitragen, das über das EU-Förderprogramm für Forschung und Innovation Horizon 2020 finanziert wird.

Die an LEX4BIO beteiligten Partner, darunter das Julius Kühn-Institut (JKI) in Braunschweig, wollen nährstoffreiche, bisher unzureichend genutzte Materialströme identifizieren und ihre Nährstoffgehalte ermitteln. Das Projekt soll die Basis schaffen für notwendige Technologien, um sichere bio-basierte Dünger zu produzieren und schließlich auf den Markt zu bringen.

Am JKI untersuchen Forscherinnen organische Schadstoffe in bio-basierten Düngemitteln. „Dazu zählen zum Beispiel Rückstände von Medikamenten, wobei wir uns auf die Analytik von Antibiotikarückständen spezialisiert haben. Wir planen zusätzlich ökotoxikologische Verfahren weiterzuentwickeln, um die möglichen Risiken verschiedener Düngemittel beurteilen zu können“, sagt Dr. Elke Bloem vom JKI-Institut für Pflanzenbau und Bodenkunde in Braunschweig. „Zu diesem Zweck führen wir Versuche durch, indem wir die verschiedenen Produkte in Pflanzgefäßen anwenden und ihren Einfluss auf das Pflanzenwachstum und das Bodenleben prüfen“.
Neben diesen eigenen Untersuchungen leiten die Wissenschaftlerinnen das Arbeitspaket 1 (WP1) zur Erfassung und Bewertung nährstoffreicher Nebenströme. Denn neben den bekannten Hauptquellen wie Gülle, Klärschlamm oder Gärresten aus Biogasanlagen sind auch Abfälle aus papier- und holzverarbeitenden Betrieben aussichtsreiche Kandidaten für bio-basierte Dünger. Auch die Harmonisierung der rechtlichen Rahmenbedingungen für den Einsatz dieser Dünger in der EU ist Teil des Projekts.

Hintergrund
Das bei einem Kickoff-Meeting am 12.-13. Juni im finnischen Hämeenlinna gestartete Projekt LEX4BIO wird im Rahmen des EU-Programms Horizon 2020 für vier Jahre mit insgesamt sechs Millionen Euro gefördert. Koordiniert wird das Projekt mit seinen 21 Partnern aus 14 europäischen Ländern vom Natural Resources Institute Finland (Luke). Beteiligt sind Forschungseinrichtungen und Universitäten sowie kleinere Unternehmen und Industriepartner.

Ziel des Projekts ist die Förderung der Kreislaufwirtschaft durch den verstärkten Einsatz bio-basierter Dünger. Unterschiedliche Dünger werden unter diversen europäischen Anbaubedingungen an verschiedenen Kulturpflanzen getestet und hinsichtlich ihrer Stickstoff- und Phosphordüngewirkung evaluiert. Empfehlungen zur Phosphordüngung basierend auf dem Pflanzenbedarf sollen auf europäischer Ebene erarbeitet werden. Um die Vergleichbarkeit pflanzenverfügbarer Phosphorgehalte zu garantieren, strebt das Projekt eine EU-weite Harmonisierung der bodenanalytischen Methoden an.

Wissenschaftliche Ansprechpartner:
Dr. Elke Bloem
Julius Kühn-Institut (JKI), Institut für Pflanzenbau und Bodenkunde, Bundesallee 69,
38116 Braunschweig
Tel.: 0531 596-2200
E-Mail: elke.bloem@julius-kuehn.de

Dr. Sylvia Kratz
Julius Kühn-Institut (JKI), Institut für Pflanzenbau und Bodenkunde, Bundesallee 69,
38116 Braunschweig
Tel.: 0531 596-2144
E-Mail: sylvia.kratz@julius-kuehn.de

Weitere Informationen:
https://www.lex4bio.eu/

Quelle: IDW 

(nach oben)


Mehr Sonnenstunden erfordern mehr UV-Schutz

Nicole Meßmer PB2/ Pressearbeit
Bundesamt für Strahlenschutz

Wer Schatten sucht, der muss ihn auch finden
Pünktlich zum Start der Ferien in mehreren Bundesländern versprechen die Meteorologen auch weiterhin Sonne pur von Sonnenaufgang bis Sonnenuntergang. Doch die Sonne bringt nicht nur extreme Temperaturen mit sich, sondern auch hohe UV-Werte. Aufgrund des hohen Sonnenstandes ist zurzeit mit hoher solarer UV-Strahlung in ganz Deutschland zu rechnen. Das Bundesamt für Strahlenschutz (BfS) rät, sich vor Hitze und UV-Strahlung zu schützen und fordert mehr Schattenplätze im öffentlichen Raum.

„Durch den Klimawandel gibt es immer mehr warme wolkenlose Tage, sodass die Zahl der Sonnenstunden und damit die Stunden, in denen man sich der UV-Strahlung aussetzt, steigt. UV-Strahlung erhöht das Hautkrebsrisiko“, warnt BfS-Präsidentin Dr. Inge Paulini. „Der sicherste Schutz davor ist: Starke Sonne meiden. Vor allem mittags sollte man bei der derzeit herrschenden UV-Belastung drinnen bleiben. Wer den Aufenthalt im Freien nicht vermeiden kann, sollte sich mit entsprechender Kleidung, Kopfbedeckung, Sonnenbrille und Sonnencreme schützen – auch im Schatten.“

Um dem UV-Risiko zu begegnen, hält Paulini auch Veränderungen im öffentlichen Raum für notwendig: „Bis jeder, der Schatten sucht, auch welchen findet, ist noch einiges zu tun. Als Anpassung an den Klimawandel müssen Kindergärten, Schulen, Freizeiteinrichtungen wie Spielplätze und Schwimmbäder, aber auch Marktplätze und Innenstädte viel mehr Schatten bieten. Zum Beispiel durch Sonnensegel oder Bäume.“

Orientierung bei der Frage, welcher Sonnenschutz notwendig ist, bietet der UV-Index. Das BfS informiert montags, mittwochs und freitags via Newsletter über die zu erwartenden UV-Werte. Der Newsletter kann unter www.bfs.de/uv-newsletter abonniert werden.

Klimawandel und UV-Strahlung
Daten des Deutschen Wetterdienstes zeigen, dass sich die durchschnittliche Sonnenscheindauer seit 1951 bis 2018 um etwa 96 Sonnenstunden erhöht hat. Auswertungen des BfS legen nahe, dass eine steigende Anzahl an sonnigen Tagen und damit der Sonnenscheindauer über das Jahr direkt mit einem Anstieg der UV-Jahresdosis einhergeht. Gezeigt hat sich dies auch im vergangenen Jahr, in dem die Sonnenscheindauer etwa 30 Prozent über dem langjährigen Mittelwert lag. Das BfS geht davon aus, dass es künftig aufgrund der globalen Erwärmung mehr Tage mit Wohlfühltemperaturen gibt, an denen sich die Menschen im Freien aufhalten und sich damit vermehrt der UV-Strahlung aussetzen. Die Erhöhung der UV-Belastung durch den Klimawandelt sieht auch das UV-Schutz-Bündnis und fordert darum in seinem Grundsatzpapier, deutschlandweit verhältnispräventive Maßnahmen zur Reduzierung der UV-Belastung zu schaffen.

UV-Strahlung und Gesundheit
UV-Strahlung der Sonne fördert die Bildung von Vitamin D im Körper, ist aber gleichzeitig Ursache für Gesundheitsschäden wie Sonnenbrand, Bindehautentzündung und Hornhautentzündung, grauer Star, vorzeitige Hautalterung und im schlimmsten Fall Hautkrebs. Hochrechnungen auf Basis der Daten des Krebsregisters Schleswig-Holstein zeigen, dass 2015 in Deutschland 293.285 Menschen neu an Hautkrebs erkrankten. Die Zahl der Neuerkrankungen lag damit um 10 Prozent höher als noch im Jahr 2013. Insgesamt hat sich die Anzahl der Hautkrebsneuerkrankungen in Deutschland seit dem Jahr 2000 mehr als verdoppelt.

Bundesamt für Strahlenschutz:
Das Bundesamt für Strahlenschutz (BfS) arbeitet für den Schutz des Menschen und der Umwelt vor Schäden durch Strahlung. Das BfS informiert die Bevölkerung und berät die Bundesregierung in allen Fragen des Strahlenschutzes. Die über 500 Mitarbeiterinnen und Mitarbeiter bewerten Strahlenrisiken, überwachen die Umweltradioaktivität, unterstützen aktiv im radiologischen Notfallschutz und nehmen hoheitliche Aufgaben wahr, darunter im medizinischen und beruflichen Strahlenschutz. Ultraviolette Strahlung und strahlenrelevante Aspekte der Digitalisierung und Energiewende sind weitere Arbeitsfelder. Als wissenschaftlich-technische Bundesoberbehörde betreibt das BfS Forschung und ist mit nationalen und internationalen Fachleuten vernetzt.

Weitere Informationen unter www.bfs.de.

Quelle: IDW 

(nach oben)


Ehrenpromotion für Ranga Yogeshwar

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Eine außergewöhnliche Auszeichnung hat der Physiker und Wissenschaftsjournalist Ranga Yogeshwar von der Universität Koblenz-Landau erhalten: Ihm wurde am 27. Juni 2019 in einem Festakt am Campus Koblenz die Ehrendoktorwürde verliehen. Denn der 60-Jährige setzt sich intensiv mit aktuellen gesellschaftlichen Entwicklungen und der Frage auseinander, wie man sie mithilfe von Wissenschaft erklären und verstehen kann.

Dem Grenzgänger Yogeshwar gehe es darum, Naturwissenschaften für Laien fassbar zu machen. Er beschäftige sich nicht nur mit der Wissenschaftsvermittlung, sondern hinterfrage diese auch immer kritisch und zeige einen hohen Anspruch an Bildung, erklärte die Präsidentin der Universität Koblenz-Landau, Prof. Dr. May-Britt Kallenrode.

Sein größter Verdienst sei, dass er die Faszination an Alltagsfragen und Alltagsphänomenen wecke und Menschen dazu bringe, mit offenen Augen durch das Leben zu gehen und zu staunen, betonte Prof. Dr. Claudia Quaiser-Pohl, Dekanin des Fachbereichs Bildungswissenschaften der Universität. Besonders wichtig sei dies in einem Zeitalter, in dem man – einerseits durch die vorgegebenen Lehr- und Lernformen in der Schule, durch das Bachelor-Master-System, aber auch durch Reiz- und Wissensüberflutung durch Smartphones etc. – fast verlernt, Fragen zu stellen, so die Dekanin weiter.

Yogeshwar‘s Sendungen und Themen haben häufig auch Bezug zu den Bildungswissenschaften. Darüber hinaus setzt er sich auch mit der Forschung von Prof. Dr. Claudia Quaiser-Pohl zu Geschlechterunterschieden in der Mentalen Rotation, insbesondere mit der Frage, ob Frauen wirklich schlechter einparken können, auseinander. Umgekehrt verwenden Dozierende der Bildungswissenschaften an der Universität seine Sendungen in ihren Vorlesungen sowie Seminaren und befassen sich damit. Yogeshwar‘s Beiträge sind somit auch ein Input für die universitäre Lehre.

In ihrer Laudatio hob Prof. Dr. Nicole Hoffmann vom Fachbereich Bildungswissenschaften Yogeshawar‘s Gabe, alltägliche Phänomene und neue Entwicklungen generell erfahrbar zu machen, hervor. Er wende sich einem breiten Publikum durch ein breites Spektrum der Vermittlung zu: durch Wissenschaftssendungen, Bücher, Magazine sowie durch die aktive Teilnahme an Talkshows. Der Wissenschaftsjournalist transformiere das Wissen aber nicht nur zu den Menschen, sondern frage auch, was diese damit machen. Yogeshwar sei ein Mittler in der Mediengesellschaft, ein Wanderer in der Wissensgesellschaft, ein Kritiker der Konsumgesellschaft, vor allem aber ein Botschafter der Neugierde.

Ranga Yogeshwar hielt seinen Festvortrag unter dem Titel „Mensch und Maschine – wer programmiert wen?“ zum Thema Veränderung. Diese gehe vor allem in Deutschland auch mit Ängsten einher. Trotzdem gebe es immer wieder gewaltige Innovationsschübe, zum Beispiel in der IT von den Computer Centern der 1980er Jahre mit großen, langsamen Rechnermaschinen hin zu Smartphones der heutigen Zeit. Der Gebrauch von Smartphones sei ein globales Phänomen. Man solle überlegen, wie sich die Kultur verändere, wenn viele Menschen auf der ganzen Welt auf dieselben Informationen zugreifen können.

Maschinen seien lernfähig geworden. Beispielsweise könne ein Computer lernen, durch die Analyse von Röntgenaufnahmen die jeweils richtige Diagnose zu stellen, wie es ein guter Radiologe könne.

Der Einsatz Künstlicher Intelligenz werfe allerdings ethische Fragen auf, wenn zum Beispiel anhand von Internetdaten über die Kreditwürdigkeit eines Menschen entschieden wird. Oder wenn ein Fotobuchhersteller durch moderne Gesichtserkennung Menschen mit einem Alkoholproblem identifizieren könne, und diese Information weitergäbe, womöglich an Versicherungen. Es gelte daher, die Sinnhaftigkeit und mögliche Konsequenzen der Künstlichen Intelligenz nicht nur im Vorfeld auszuloten, sondern sie in einem ethischen Prozess auf Basis begründeter gemeinsamer Werte ständig zu prüfen und zu bewerten. „Wir müssen den Fortschritt diskutieren“, appellierte Yogeshwar.

Auch dem Ada-Lovelace-Projekt der Universität stattete Yogeshwar einen Besuch ab. Nach einer kurzen Begrüßung ließ er sich ausführlich erklären und zeigen, was die Teilnehmerinnen des RobertaLabs programmiert, gebaut und ausgetüftelt haben. Drei Mitmachstationen mit unterschiedlichen Robotern und Controllern wurden ihm präsentiert.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Claudia Quaiser-Pohl
Dekanin Fachbereich 1: Bildungswissenschaften
Universität Koblenz-Landau, Campus Koblenz
Universitätsstraße 1, 56070 Koblenz

Tel.:+49-(0)261-287-1800
E-Mail: quaiser@uni-koblenz.de

Quelle: IDW 

(nach oben)


Braune Hundezecke gesucht: Uni Hohenheim forscht an eingewanderter Zeckenart

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Warmes Klima und Wohnungen ideal für die Braune Hundezecke / Zecken-Expertin bittet um Zusendung auffälliger Zeckenfunde / alle Infos http://hundezecken.uni-hohenheim.de

Sie ist unauffällig, flink, und kann schnell zur Plage werden: Die Braune Hundezecke (Rhipicephalus sanguineus). Die eigentlich im Mittelmeerraum und Nordafrika heimische Zecke scheint sich neuerdings auch in Deutschland wohl zu fühlen – vor allem in Wohnungen, warnt Katrin Fachet vom Fachgebiet Parasitologie der Universität Hohenheim in Stuttgart. In einem neuen Forschungsprojekt soll die Zeckenart genau untersucht werden: Von ihrer Häufigkeit, Verbreitung, über mögliche Krankheitserreger bis zur Frage, wie man sie eigentlich richtig loswird. Für die Forschung bittet die Universität Hohenheim die Bevölkerung, Funde der Braunen Hundezecke mit Bild zu melden. Bereits im Frühjahr hatte die Universität Hohenheim darum gebeten, Exemplare einer neuen Zeckenart, der auffälligen Hyalomma-Zecke, einzusenden. Alle Informationen unter: http://hundezecken.uni-hohenheim.de

Um die 25 Grad und trocken hat sie es am liebsten, lauert in kleinen, steinigen Spalten. Und wenn dann noch ein Hund in der Nähe ist, hat die Braune Hundezecke (Rhipicephalus sanguineus) den idealen Lebensraum für sich entdeckt.

„Anders als unser Gemeiner Holzbock kann die Braune Hundezecke sehr gut in Wohnungen überleben“, sagt Katrin Fachet vom Fachgebiet Parasitologie der Uni Hohenheim. „Heimisch ist sie eigentlich im Mittelmeerraum und Nordafrika, in unseren warmen und vor allem trockenen Wohnungen gefällt es ihr also sehr gut.“

Nach Deutschland gebracht wird sie wohl mit Urlaubern, vermutet auch Prof. Dr. Ute Mackenstedt, Parasitologin und Expertin für Zecken an der Universität Hohenheim. „Wir können davon ausgehen, dass Besitzer, die mit ihren Hunden im Ausland im Urlaub waren, die Braune Hundezecke nach Deutschland bringen. Es wurden aber auch bereits Exemplare an Hunden gefunden, die ihren Hof nie verlassen hatten – ein Hinweis darauf, dass die Art hier möglicherweise bereits Fuß gefasst hat.“

Rasche Verbreitung: Nester mit bis zu 100.000 Zecken möglich
Einmal eingenistet, weiß Katrin Fachet, kann die Braune Hundezecke sehr schnell zu einer sehr unangenehmen Plage werden. „Ein Holzbockweibchen kann bis zu 2.000 Eier legen – ein Hundezeckenweibchen bis zu 4.000. Innerhalb weniger Monate hat man dann schnell mehrere 100.000 Zecken in der Wohnung.“

Das könnte dann u.U. auch gefährlich für den Menschen werden. „Normalerweise befällt die Braune Hundezecke – wie es der Name schon sagt – fast ausschließlich Hunde. Ist die Population aber zu groß und der Wirt reicht nicht mehr aus, dann ist sie nicht wählerisch und sucht sich das Nächstbeste: Den Menschen.“

FSME oder Borreliose-Erreger wurde bisher nicht in dieser Zeckenart festgestellt. Dafür jedoch andere Krankheiten, so Fachet. „Die Braune Hundezecke kann zu schweren Erkrankungen der Hunde führen.“ Auch auf den Menschen übertragbare Krankheiten wie das Mittelmeer-Fleckfieber, ausgelöst durch Rickettsien, bringt sie mit sich.

„Wenn Sie annehmen, dass es in Ihrem Haushalt zu einem Befall mit den braunen Hundezecken gekommen ist, sollten Sie sich mit einem Experten zu dieser Art in Verbindung setzen, der Sie beim weiteren Vorgehen beraten kann“, empfiehlt Katrin Fachet. „Werden in Eigeninitiative die falschen Maßnahmen ergriffen, kann es zu einer erheblichen Verschlimmerung des Befalls mit stark erhöhtem Gesundheitsrisiko für Mensch und Tier kommen.“

Aufruf an die Bevölkerung: Auffällige Zeckenfunde melden / einsenden
Die Wissenschaftlerin der Universität Hohenheim bittet daher die Bevölkerung um Hilfe bei ihrem Forschungsprojekt: „Wir wollen die betroffenen Fälle gerne betreuen – vom Anfang bis zum Ende des Befalls. Sollten Sie daher häufiger eine ungewöhnliche Anzahl an braunen Zecken in einem Gebäude bemerken oder sollte Ihr Hund sehr stark von Zecken befallen sein, die der braunen Hundezecke ähnlich sehen, dann schicken Sie bitte eine E-Mail mit Bild der Zecke an hundezecken@uni-hohenheim.de.“

Weiterhin ruft die Parasitologie der Universität Hohenheim auch dazu auf, gefangene Exemplare der auffälligen Hyalomma-Zecke einzusenden. Alle Informationen zur Hyalomma unter: https://zecken.uni-hohenheim.de/hyalomma

Auch am Tag der offenen Tür am Samstag, 6.7., haben Interessierte die Möglichkeit, sich genauer über die Braune Hundezecke und das Forschungsprojekt zu informieren. Ein Stand mit Informationen und den Experten ist im oberen Foyer von Schloss Hohenheim.

Alle weiteren Informationen gibt es unter: http://hundezecken.uni-hohenheim.de

HINTERGERUND: Zeckenforschung an der Universität Hohenheim
Seit Jahrzehnten beschäftigen sich die Wissenschaftlerinnen und Wissenschaftler in Hohenheim mit der Erforschung von Zecken. Sie studieren das Verhalten der Tiere, sammeln sie mit verschiedenen Techniken oder untersuchen sie auf Krankheitserreger. Unterstützung von außen (von Tierheimen, Veterinären, Jägern und direkt aus der Bevölkerung) stellt dabei eine wichtige Säule der Zeckenforschung dar. Zwischen 2014 und 2016 konnte so dank der Unterstützung hunderter Gartenbesitzer wichtigen Fragen zur Häufigkeit und Erregerlast in Zecken aus Gärten auf den Grund gegangen werden. Die Beteiligung an Hohenheimer Zeckenstudien ist dabei hilfreich für beide Seiten: Eingesendete Zecken werden bestimmt und je nach Studie auch auf Krankheitserreger untersucht. Die gewonnenen Informationen werden den Einsendern zur Verfügung gestellt.

Auch exotischere Zecken werden in Hohenheim studiert und erforscht. Vögel und Reisende, vor allem mit Haustieren, bringen immer wieder ungewöhnliche Arten nach Deutschland. Nicht nur können die neuen Arten andere Erreger in sich tragen als die heimischen Zecken. Denn neue Arten zeigen häufig auch ein völlig anderes Verhalten.

Seit dem Rekordsommer 2018 steht neben der Braunen Hundezecke auch eine weitere Zeckenart im Fokus der Experten: Vermutlich eingeschleppt durch Vögel haben sich die Hyalomma-Zecken bei den warmen Wetterbedingungen mit einer nie da gewesenen Häufigkeit gezeigt. Diese Zecken sind aktive Jäger. Entdecken sie mit ihren Augen oder chemischen Sinnen einen Warmblüter im Umkreis von bis zu 10 Metern, so können sie diesen auf mehrere hundert Meter verfolgen. Und die spinnenähnlichen Tiere mit den auffällig gestreiften Beinen sind dabei äußerst schnell. Besonders häufig wurden die Zecken an Pferden gefunden.

Text: C. Schmid

Weitere Informationen
http://hundezecken.uni-hohenheim.de

Kontakt für Medien
Prof. Dr. Ute Mackenstedt, Universität Hohenheim, Leiterin des Fachgebiets Parasitologie
T 0711 459-22275, E Mackenstedt@uni-hohenheim.de

Katrin Fachet, Universität Hohenheim, Fachgebiet Parasitologie
T 0711 459- 23071, E hundezecken@uni-hohenheim.de

Weitere Pressemitteilungen der Universität Hohenheim
Pressemitteilungen: www.uni-hohenheim.de/presse

Quelle: IDW 

(nach oben)


Istanbul: Erstmals beweisen Unterwasser-Messungen Erdbebengefahr

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

GeoSEA-Sensoren belegen Spannungsaufbau unter dem Marmarameer
Istanbul mit seinen mehr als 15 Millionen Einwohnern liegt genau an der Nordanatolischen Störung, einer Grenze zwischen zwei Erdplatten. Hier kommt es immer wieder zu verheerenden Erdbeben. Ausgerechnet der Abschnitt vor Istanbul konnte bisher nur indirekt beobachtet werden, weil er im Marmarameer unter Wasser liegt. Mit Hilfe des neuartigen Messsystems GeoSEA haben Forscherinnen und Forscher des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zusammen mit Kolleginnen und Kollegen aus Frankreich und der Türkei jetzt erstmals einen erheblichen tektonischen Spannungsaufbau unterhalb des Marmarameers nachgewiesen.

Zerstörte Häuser, beschädigte Hafenanlagen und tausende Opfer – am 22. Mai 1766 lösten ein Erdbeben mit einer Magnitude von ungefähr 7,5 und eine darauf folgende Flutwelle in Istanbul eine Katastrophe aus. Der Ursprung des Bebens wird heute entlang der Nordanatolischen Störung im Marmarameer verortet. Es war bislang das letzte schwere Erdbeben, das die Metropole am Bosporus getroffen hat.

Forscherinnen und Forscher des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel konnten jetzt zusammen mit Kolleginnen und Kollegen aus Frankreich und der Türkei erstmals mit direkten Messungen am Meeresboden nachweisen, dass sich mittlerweile wieder eine erhebliche tektonische Spannung in der Nordanatolischen Störung unterhalb des Marmarameers aufgebaut hat. „Sie würde reichen, um erneut ein Beben der Stärke 7,1 bis 7,4 auszulösen“, sagt der Geophysiker Dr. Dietrich Lange vom GEOMAR. Er ist der Erstautor der Studie, die heute in der internationalen Fachzeitschrift Nature Communications erscheint.

Die Nordanatolische Störungszone markiert die Grenze zwischen der eurasischen und der anatolische Erdplatte. Beide schieben sich sehr langsam aneinander vorbei. „Zu starken Erdbeben kommt es, wenn sich die Störungszone verhakt. Dann bauen sich tektonische Spannungen auf, die sich irgendwann in einem Moment entladen“, erklärt Dr. Lange. Zuletzt geschah dies 1999 an einem Abschnitt der Nordanatolischen Störung bei Izmit, etwa 90 Kilometer östlich von Istanbul. Damals kam es zu einem Versatz der Störung um zwei bis vier Meter.

Der tektonische Spannungsaufbau entlang von Störungszonen an Land wird seit Jahren regelmäßig mit GPS oder Landvermessungsmethoden überwacht. Bei Störungszonen am Meeresboden ist dies aufgrund der geringen Eindringtiefe der Satellitensignale unter Wasser nicht möglich. Ausgerechnet der Abschnitt der Nordanatolischen Störung, der ein erhebliches Gefährdungspotential für den Stadtkern Istanbuls birgt, liegt aber im Marmarameer.

Ob sich die Plattengrenzen dort bewegen oder verhaken, konnte bisher nur indirekt, zum Beispiel mit Beobachtungen von Land, extrapoliert werden. Die Methoden konnten allerdings nicht zwischen einer Kriechbewegung oder der kompletten Verhakung der Erdplatten unterscheiden. Das am GEOMAR entwickelte, neuartige GeoSEA-Systems zur akustischen Abstandsmessung am Meeresboden ermöglichte jetzt erstmals eine direkte Messung der Plattenbewegung im Marmarameer. Über einen Zeitraum von zweieinhalb Jahren standen insgesamt zehn Messgeräte in 800 Metern Wassertiefe beiderseits der Störung. Sie führten in dieser Zeit mehr als 650.000 Abstandmessungen durch.

„Damit diese Messungen über mehrere hundert Meter auf wenige Millimeter genau sind, benötigt man auch sehr genaue Kenntnisse über die Schallgeschwindigkeit unter Wasser. Deswegen müssen auch Druck- und Temperaturschwankungen des Wassers sehr präzise über den gesamten Zeitraum gemessen werden“, erklärt Prof. Dr. Heidrun Kopp, GeoSEA-Projektleiterin und Co-Autorin der aktuellen Studie.

„Unsere Messungen zeigen, dass die Verwerfungszone im Marmarameer verhakt ist und sich deswegen tektonische Spannungen aufbauen. Das ist der erste direkte Nachweis über den Spannungsaufbau am Meeresboden südlich von Istanbul“, betont Dr. Lange.

„Wenn sich die angestaute Spannung während eines Erdbebens löst, würde sich die Verwerfungszone auf einen Schlag um mehr als vier Meter bewegen. Dies entspricht einem Erdbeben mit einer Magnitude zwischen 7,1 und 7,4″, ergänzt Professorin Kopp. Ein solches Ereignis hätte für das nahegelegene Istanbul sehr wahrscheinlich ähnlich weitreichende Folgen wie das Erdbeben 1999 für Izmit mit über 17.000 Opfern.

Originalpublikation:

Lange, D., H. Kopp, J.-Y. Royer, P. Henry, Z. Çakir, F. Petersen, P. Sakic, V. Ballu, J. Bialas, S. Ozeren, S. Ergintav, L. Géli (2019): Interseismic Strain Build-up on the Submarine North Anatolian Fault Offshore Istanbul. Nature Communications,
https://doi.org/10.1038/s41467-019-11016-z

Quelle: IDW 

(nach oben)


Kalkschulter per Ultraschall gezielt aufspüren und Schmerzen mit Stoßwellen lindern

Friederike Gehlenborg Pressestelle
Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM)

Wenn die Schulter in der Nacht schmerzt und das vom Schlafen abhält oder Haare kämmen nahezu unmöglich erscheint – dann kann eine Kalkschulter die Ursache sein. Bei Kalkansammlungen, die starke Schmerzen verursachen, wird den Patienten manchmal zur Operation geraten. Eine schonende Alternative dazu kann die extrakorporale Stoßwellentherapie (ESWT) sein. Dabei richtet der behandelnde Arzt mit einem Ultraschallgerät energiereiche Stoß- oder Druckwellen gezielt auf die betroffene Schulter. Und auch bei der Diagnose kann das Ultraschallverfahren sehr hilfreich sein.

Wie die Diagnostik und die Stoßwellentherapie genau funktionieren und warum sie so erfolgsversprechend sind, erläutert Dr. Rainer Berthold, Experte der Deutschen Gesellschaft für Ultraschall in der Medizin e.V. (DEGUM).

Bei einer Kalkschulter bilden sich Kalkansammlungen in einer Sehne in der Schulter. Ursache können mechanische Faktoren sowie lokale Durchblutungs- oder Stoffwechselstörungen sein. „Bewegungen über Kopf, aber auch nach hinten oder zur Seite mit Belastung sind äußerst schmerzhaft“, so beschreibt Dr. Rainer Berthold, einer der stellvertretenden DEGUM-Sektionsleiter Chirurgie, die Symptome einer Kalkschulter. Die Vielfalt der Beschwerden lässt die Kalkschulter als Chamäleon erscheinen. Wegen der starken Schmerzen können die Patienten den Arm oft kaum noch bewegen und nicht auf der betroffenen Schulter liegen; durch eine Schonhaltung kann es sogar zur Versteifung der Schulter kommen.
Von einer Kalkschulter sind vor allem Menschen zwischen 35 und 50 Jahren betroffen, rund zwei Drittel davon sind Frauen. Die Erkrankung wird meistens erst recht spät diagnostiziert, denn solange die Ablagerungen klein sind, verursachen sie keine Symptome. Es ist davon auszugehen, dass ein asymptomatischer Kalkherd zu etwa 40 Prozent im weiteren Verlauf zu Beschwerden führt. „Wir können die Verdachtsdiagnose, die wir aufgrund des Beschwerdebildes und der Bewegungseinschränkung gewonnen haben, mit Hilfe des Ultraschallverfahrens und einer Röntgenuntersuchung bestätigen“, erklärt Dr. Berthold. „Diese Kombination ist im Vergleich zur Kernspintomographie von hoher Treffsicherheit und sie ist schnell und kostengünstig durchführbar.“
Warum sich die Kalkansammlungen bilden, ist noch nicht endgültig geklärt. Eine Ursache könnte eine Mangeldurchblutung und damit ein Sauerstoffmangel in den Schultersehnen sein. Ein therapeutischer Ansatz ist deshalb die Aktivierung des Stoffwechsels – und somit auch der Durchblutung – durch gezielte Bewegung. Spezielle Dehnübungen helfen, den Schmerz zu lindern. Bei Bedarf verordnet der Arzt zudem noch Medikamente gegen Schmerzen oder Entzündungen, um die Patienten, die häufig im Alltag und im Beruf stark eingeschränkt sind, kurzfristig zu entlasten. Manchmal setzen auch Physiotherapeuten therapeutischen Ultraschall unterstützend zur Schmerzbehandlung ein.

Solange die Patienten mit ihren Beschwerden gut zurechtkommen, kann der meist gutartige Spontanverlauf der Erkrankung abgewartet werden. Denn oft lösen sich die Verkalkungen im Laufe der Zeit wieder von allein auf – das kann aber Monate dauern und ist mit starken Schmerzen verbunden. Bei großen Kalkansammlungen wird den Patienten manchmal zur Operation geraten. Eine schonende Alternative dazu kann jedoch die Stoßwellentherapie sein. Der Nutzen der Behandlung in Bezug auf eine Besserung der Symptome und Verkleinerung der Kalkdepots ist inzwischen in vielen Studien nachgewiesen. Dabei setzen Ärzte das Ultraschallverfahren nicht nur zur Diagnose, sondern auch zur präziseren Behandlung ein.

Bei der fokussierten extrakorporalen Stoßwellentherapie (ESWT) werden mit Hilfe der sogenannten Piezoelektrik außerhalb des Körpers Impulse erzeugt, die innerhalb des Körpers wirksam werden. Bei der Therapie der Kalkschulter richtet der Arzt fokussierte Stoßwellen gezielt auf das Kalkdepot in der Schultersehne. Dieser Fokus lässt sich berechnen und das Gerät je nach Position des Kalkdepots adaptieren. Die Stoßwellenwirkung kann dann exakt auf die gewünschte Zone ausrichtet werden. Das Gewebe um die Kalkansammlung – also die Haut, die Muskulatur und das Bindewebe – wird somit nicht beeinträchtigt. „Oft wird angenommen, die Stoßwellen würden das Kalkdepot zerstören. Dies ist aber nicht richtig – vielmehr bewirkt der Druckimpuls die Induktion zellulärer Reaktionen“, erklärt Dr. Berthold. „Die vermehrte Durchblutung mit Gefäßneubildungen im betroffenen Areal führt danach zur Auflösung der Kalkdepots.“
Alternativ gibt es die kostengünstigere radiale Stoßwellentherapie. Sie arbeitet meist mit Druckluft. Durch den Aufschlag eines Projektils auf einen Applikator werden hier die nicht fokussierten Druckwellen erzeugt. Allerdings ist die Effektivität dieses niederenergetischen Verfahrens geringer – die Anzahl der notwendigen Behandlungen damit meist höher.
Die Anwendung gehört für gesetzlich Versicherte zu den individuellen Gesundheitsleistungen (IGeL); der Patient muss die Kosten selbst tragen. Die meisten privaten Kassen und Beihilfestellen übernehmen die Behandlung. „Ein bis drei Behandlungen, die jeweils etwa zehn Minuten dauern, reichen bei der fokussierten Stoßwelle meistens aus“, versichert Dr. Berthold. „Die Nebenwirkungen sind gering, die Patienten werden durch dieses schonende Verfahren häufig wieder schmerzfrei und in der Schulter beweglich. Die Krankheitsdauer wird verkürzt und eine Operation in der Regel vermeidbar. Die ESWT lässt sich mit vorheriger Lokalisierung des Kalkdepots mittels Sonografie nach meiner Erfahrung exakter durchführen.“

Quelle: F. Dehlinger, T. Ambacher. Die Kalkschulter. Orthopädie und Unfallchirurgie up2date.2014; 439-458

Über die DEGUM:
Die Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM) bietet ein Forum für den wissenschaftlichen und praktischen Erfahrungsaustausch auf dem Gebiet des medizinischen Ultraschalls. Sie vereint rund 10 000 Ärzte verschiedener Fachgebiete, medizinische Assistenten, Naturwissenschaftler und Techniker. Ultraschalldiagnostik ist heute das am häufigsten eingesetzte bildgebende Verfahren in der Medizin. Ultraschallanwendern bescheinigt die DEGUM eine entsprechende Qualifikation mit einem Zertifikat der Stufen I bis III. Patienten finden DEGUM-zertifizierte Ärzte im Internet unter: http://www.degum.de

Kontakt für Journalisten:
Pressestelle der Deutsche Gesellschaft für Ultraschall in der Medizin e.V. (DEGUM)
Katharina Weber
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-583
Fax: 0711 8931-167
E-Mail: weber@medizinkommunikation.org

Originalpublikation:
F. Dehlinger, T. Ambacher. Die Kalkschulter. Orthopädie und Unfallchirurgie up2date.2014; 439-458

Weitere Informationen:
http://www.degum.de

Quelle: IDW 

(nach oben)


Wer bewältigt die tägliche Informationsflut am Arbeitsplatz besser: „Jung“ oder „Alt“?

Alexander Pradka Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Wer geht am Arbeitsplatz eigentlich besser mit der täglichen Informationsflut um – jüngere oder ältere Kollegen? Die Jüngeren, sagen viele – weil sie fitter sind beim Bedienen moderner Medien und sie ihre gesamte berufliche Entwicklung schon in einem digitalisierten Umfeld durchlebt haben. Indes gibt es gute Gründe, auch bei diesem Thema die Älteren keinesfalls abzuschreiben.

Studien zeigen, dass wir in jungen Jahren Informationen schneller aufnehmen und verarbeiten können. Mit zunehmendem Alter nimmt die Verarbeitungsgeschwindigkeit ab. Aber während es früher vor allem auf das Sammeln von Informationen ankam, ist es heute viel wichtiger, Informationen zu filtern. Das sagt Prof. Dr. Ingo Aberle, Wirtschaftspsychologe an der Hochschule Fresenius in Wiesbaden. „Informationen sind leicht verfügbar und wir werden permanent über diverse Kanäle mit immer neuen beliefert. Dabei steigt natürlich auch der Anteil der für mich irrelevanten Informationen stark an. Das kann leicht zu Stress führen.“

An dieser Stelle kommt ins Spiel, was Aberle „Erfahrungswissen“ nennt: Es sind Fähigkeiten und Strategien gefragt, um den passenden Filter anzuwenden und Wichtiges von Unwichtigem zu unterscheiden. „Da haben definitiv Menschen, die schon länger im Beruf stehen, Vorteile – ebenso diejenigen, die schon länger im Unternehmen sind und die Prozesse kennen.“ Aberle ordnet dem strategischen Umgang mit Informationen eine höhere Relevanz zu als der reinen Verarbeitungsgeschwindigkeit.

„Jung lernt von Alt“ hat also keinesfalls ausgedient – es gibt allerdings Einschränkungen. Aufgrund sich verändernder Prozesse kann es passieren, dass funktionale Strategien ihre Gültigkeit verlieren. Schnelle Anpassungen an neue Rahmenbedingungen sind vonnöten. „Ein aktuelles Beispiel ist der Umgang mit den sozialen Medien und Netzwerken“, sagt Aberle. „Dort finden wir neue Regeln der Kommunikation vor und um diesen geänderten Verhältnissen gerecht zu werden, wird teilweise Reversed Mentoring angewandt.“ Entgegen dem klassischen Mentoring – ein erfahrener Mitarbeiter steht einem jüngeren Mitarbeiter zur Seite – wird in diesem Ansatz ein jüngerer Mitarbeiter zum Mentor eines älteren Mitarbeiters. „Das klingt in der Theorie gut, ist aber in der Praxis nicht immer leicht umzusetzen, da beim Miteinander von Jung und Alt viele Konflikte am Arbeitsplatz entstehen können.“

Wie lassen sich diese vermeiden – und wie können die Stärken beider Altersgruppen am besten genutzt werden? „Es bedarf einer Kultur des lebenslangen Lernens. Das gilt für jüngere und ältere Mitarbeiter gleichermaßen“, antwortet Aberle. Außerdem ist der generelle Umgang mit Altersunterschieden relevant. Hier gilt es, eine Kultur der Wertschätzung und Anerkennung von Altersdiversität zu etablieren: „Diese Wertschätzung betrifft explizit sowohl ältere als auch jüngere Mitarbeiter. Denn nur gemeinsam können wir den steigenden Anforderungen einer immer schneller und komplexer werdenden Informationsgesellschaft gerecht werden.“

Ein ausführliches Interview dazu, wie wir mit der täglichen Informationsflut am Arbeitsplatz umgehen und welche Konflikte möglicherweise dabei entstehen können, findet sich im Wissenschaftsblog adhibeo (unten stehender Link).

Weitere Informationen:

https://www.adhibeo.de/wie-wir-die-informationsflut-bewaeltigen-die-mechanik-der..

Quelle: IDW 

(nach oben)


Gutes Gespür für Moskitos

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Venusfliegenfallen können sogar Berührungen von extrem leichten Tieren wahrnehmen. Auf diese Weise schützen sie sich vor dem Verhungern durch Überaktivität. Das zeigt eine neue Studie von Forschern aus Würzburg und Cambridge.

Weil Pflanzen nicht dazu in der Lage sind, ihren Standort zu verlassen, müssen sie eine andere Technik entwickeln, um sich mit lebenswichtigen Nährstoffen zu versorgen. Die meisten von ihnen bilden dafür ein Wurzelsystem aus und holen sich aus dem Boden, was sie zum Leben benötigen. Was aber, wenn der Boden dauerhaft nichts hergibt? Einen Ausweg aus dieser Zwangslage haben fleischfressende Pflanzen gefunden, wie beispielsweise die Venusfliegenfalle.

Die Venusfliegenfalle wächst in den nährstoffarmen Sümpfen von North und South Carolina an der Ostküste der USA. Sie hat ihre Blätter zu Insektenfallen umgewandelt, die in einem Bruchteil einer Sekunde zuschnappen können. Ihre Beute nimmt die Pflanze über Sinneshaare auf der Fallenoberfläche war. Und weil die Beutetiere in unterschiedlichen Größen daherkommen, die Venusfliegenfalle aber fast alles nehmen muss, was sie bekommen kann, bildet die Pflanze unterschiedlich große Fallen aus.

Forscher der Universitäten Würzburg und Cambridge haben jetzt herausgefunden, dass die Berührungssensoren in diesen Fallen selbst auf mikroskopisch kleine Drücke anspringen, diese in elektrische Signale umwandeln und so das Zuschnappen der Falle auslösen. Ihre Ergebnisse haben sie in der aktuellen Ausgabe der Fachzeitschrift Nature Plants publiziert.

Sinneshaar wandelt Berührung in elektrischen Strom
„Aus der Oberseite jeder Fallenhälfte entspringen drei bis vier multizelluläre Haare, die insgesamt verwindungssteif sind, bis auf eine Einkerbung an der Basis. Wenn ein Insekt, angelockt von Duft, Farbe oder Nektar der Falle, gegen das Sinneshaar stößt, gibt dieses im Bereich der nicht verstärkten Einkerbung nach. Dies führt dazu, dass die in diesem Bereich befindlichen Sinneszellen auf der einen Seite gedehnt und auf der anderen eingedrückt werden“, erklärt Professor Rainer Hedrich die Arbeitsweise der Venusfliegenfalle. Der Biophysiker und Pflanzenforscher hat an der Julius-Maximilians-Universität Würzburg (JMU) den Lehrstuhl für Botanik I inne und forscht schon lange an der fleischfressenden Pflanze.

Werden die Sinneszellen dementsprechend verformt, reagieren in einem nächsten Schritt die Berührungssensoren und wandeln die mechanische Energie in elektrische um; ein Aktionspotential wird ausgelöst und breitet sich von der Basis des Sinneshaars schnell über die ganze Falle aus. Kommt es innerhalb kurzer Zeit zu einer zweiten Berührung, wiederholt sich dieser Prozess – und erst dann schnappt die Falle zu.

Wie weit verbiegt aber ein Insekt das Sinneshaar? Wie groß und schwer muss es sein, damit es von der Venusfliegenfalle wahrgenommen wird? Diese Fragen wollte Hedrich mit seiner jüngsten Studie beantworten. „Es war von Anfang an klar, dass wir die Antworten mit Insekten, die fliegen können, nicht so leicht bekommen würden“, so Hedrich. Bei der Suche nach einem geeigneten Forschungstier hätten er und sein Team sich deshalb für Ameisen entschieden. Das entsprechende Fachwissen und die notwendige Unterstützung in ihren Experimenten erhielten die Würzburger Pflanzenwissenschaftler von Professor Walter Federle, einem Biomechaniker und Ameisenexperten der Universität von Cambridge.

Minimale Verbiegung löst elektrische Reizung aus
Wie kann man Ameisen dazu bewegen, auf Befehl gegen ein Sinneshaar zu stoßen? Zur Lösung dieses Problems setzte der Ameisenkenner Federle auf Blattschneideameisen. Diese Ameisenart pendelt regelmäßig zwischen der Blattsammelstelle und dem Nest. Im Experiment führte Federle die Tiere auf ihrem Heimweg über eine Brücke, auf der das letzte Teilstück durch eine Fliegenfallenhälfte ersetzt wurde. Den Ameisenverkehr über die Fliegenfallenbrücke überwachte er mit einer Hochgeschwindigkeitskamera, die alle Zusammenstöße festhielt. Das Ergebnis: Federles Auswertung ergab eine minimale und maximale Sinneshaarauslenkung von 3,5 und 7,5 Grad.

Um nun den Biegewinkel und die Kraft zu bestimmen, die nötig ist, um bei der Venusfliegenfalle ein Aktionspotential auszulösen, haben die Wissenschaftler die Ameisen gegen computergesteuerte Mikromanipulatoren mit speziellen Kraftaufnehmern eingetauscht. Nachdem die Mikromanipulatoren auf dem Sinneshaar aufsetzten, wurde schrittweise der Abknickwinkel verändert. „Zu unserer Überraschung zeichneten unsere Spannungsdetektoren schon bei einer Auslenkung um 2,9 Grad ein Aktionspotential auf“, so Dr. Sönke Scherzer, Erstautor der Arbeit und wissenschaftliche Mitarbeiter an Hedrichs Lehrstuhl. Das bedeute, dass schon der schwächste Zusammenstoß mit der Blattschneideameise von der Fliegenfalle bemerkt wird.

Eine Falle für jede Fliegengröße
Eine Ameise oder Stubenfliege bringt beim Laufen eine Kraft auf, die in etwa ihrem Körpergewicht entspricht. Eine Fliege mit einem Gewicht von zehn Milligramm schafft demnach 100 Mikro-Newton, eine Kraft, die gut ausreicht, eine große Falle elektrisch zu erregen. Verirrt sich aber beispielsweise ein Moskito, der nicht mehr als drei Milligramm wiegt, in solch eine große Falle, verbiegen sich die Sinneshaare nicht.

Weil aber auch ein Moskito eine wichtige Nahrungsquelle sein kann, hat die Venusfliegenfalle im Laufe der Evolution auch kleinere Fallen entwickelt. Dort reagieren die Sinneshaare auch auf den Druck eines Moskitogewichts. „Diese fallengrößenabhängige Berührungsempfindlichkeit der Sinneshaare ist für die Wirtschaftlichkeit der Fallen wichtig“, erklärt Rainer Hedrich. Schließlich kostet es die Pflanze deutlich mehr Energie, eine große Falle wieder zu öffnen als eine kleine. „Wenn selbst untergewichtige, nährstoffarme Beutetiere den Verschluss großer Fallen auslösen könnten, fiele die Kosten-Nutzen-Bilanz negativ aus und die Venusfliegenfalle würde im Extremfall langsam verhungern“, so Hedrich.

Wenn das Sinneshaar ermüdet
Wenn die Falle geschlossen ist, ergeben sich die Beutetiere in der Regel nicht ihrem Schicksal. Stattdessen versuchen sie auszubrechen. In ihrer Panik berühren sie dabei fortwährend die Sinneshaare und lösen so bis zu 100 Aktionspotentiale innerhalb von zwei Stunden aus. Diese elektrischen Signale verrechnet die Fliegenfalle und setzt eine der Anzahl entsprechende Reaktion in Gang, die von der Herstellung und dem Ausschütten eines Verdauungssekret bis zur Aufnahme der Nahrungsbestandeile aus dem zersetzten Tierischen reicht, erklärt Hedrich.

Die Frage, wie oft in einer Stunde ein einzelnes Sinneshaar stimuliert werden kann, haben die Wissenschaftler in einem weiteren Experiment untersucht. Das Ergebnis: „Ab einer Frequenz von einem Zehntel Hertz, also einer Stimulation alle zehn Sekunden, stellen sich beim Sinneshaar Ermüdungserscheinungen ein“, sagt Sönke Scherzer. Bei noch höheren Frequenzen löste nicht mehr jede Berührung ein Aktionspotential aus, und schließlich blieben die elektrischen Ereignisse völlig aus. Unterbrachen die Forscher die wiederholte Stimulationsfolge für eine Minute, erlangte das Haar seine mechano-elektrischen Eigenschaften wieder vollständig.

Die sensorischen Zellen unter der Lupe
In einem nächsten Schritt wollen die Wissenschaftler nun herausfinden, wie die Fliegenfalle zählt und was der Grund für die Aussetzer des Sinneshaars bei hochfrequenter Beanspruchung ist. Dazu werden sie Sinneshaare und Sinneszellen isolieren und eine Reihe von Eigenschaften bestimmen, wie beispielsweise die Ermüdung und Erholung der Ionenkanäle, die Berührung in ein elektrisches Ereignis umsetzen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rainer Hedrich, Lehrstuhl für Botanik I (Pflanzenphysiologie und Biophysik), Universität Würzburg, T +49 931 31-86100, hedrich@botanik.uni-wuerzburg.de

Originalpublikation:

Venus flytrap trigger hairs are micronewton mechano-sensors that can detect small insect prey, S. Scherzer, W. Federle, K. A. S. Al-Rasheid and R. Hedrich. Nature Plants, DOI: 10.1038/s41477-019-0465-1.

Weitere Informationen:

https://www.nature.com/articles/s41477-019-0465-1 Die Originalpublikation

Quelle: IDW 

(nach oben)


Gießener Lungenforscher behandeln Lungenhochdruck mit einem Krebsmedikament

Lisa Dittrich Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Erfolg für Sonderforschungsbereich 1213 „Pulmonale Hypertonie und Cor pulmonale“
Lungenhochdruck ist eine schwere, zum Tode führende Erkrankung, die durch eine starke Verengung der Lungengefäße gekennzeichnet ist. Die Betroffenen leiden bereits bei geringster Belastung oder sogar in Ruhe unter Atemnot, blauen Lippen, Beinödemen, Brustschmerzen, und klagen allgemein über schnelle Erschöpfung und Ermüdung. Die richtige Diagnose wird zumeist erst gestellt, wenn es durch die fortschreitende Überlastung zum Herzversagen kommt. Im an der Justus-Liebig-Universität Gießen (JLU) angesiedelten Sonderforschungsbereich 1213 „Pulmonale Hypertonie und Cor pulmonale“ (Sprecher Prof. Norbert Weißmann) wird genau die Erkrankung untersucht und die Entwicklung neuer Therapien angestrebt.

Das scheint nun gelungen zu sein: In der aktuellen Ausgabe von „Nature Communications“ berichten Prof. Dr. Friedrich Grimminger und Prof. Dr. Ralph Schermuly vom Fachbereich Medizin der JLU von der Identifizierung eines molekularen Mechanismus, der die Erkrankung aus der Wand der Gefäße heraus steuert. Die Zyklin-abhängigen Kinasen (CDKs) 2, 4 und 6 sind im Lungengewebe und in isolierten Zellen von PAH Patienten in so auffälligen Konzentrationen vorhanden wie man sie sonst nur bei Krebspatientinnen mit Brustkrebs kennt. Die moderne Krebstherapie umfasst deshalb auch eine medikamentöse Blockade dieser Schlüsselproteine.

Die Autoren setzten nun diese in der Krebstherapie etablierten CDK-Inhibitoren – also künstlich hergestellte Wirkstoffe, die die Wirkung der CDK hemmen – in vorklinischen Studien ein. Sie folgten der Hypothese, dass diese CDK-Inhibitoren auch den überaktivierten Signalweg bei den Lungenkranken so wirksam hemmen, dass die Erkrankung zum Stillstand kommt. Ihre Hoffnung, den krankhaften Umbau der Blutgefäße zu stoppen, wurde bestätigt. Überraschenderweise gelang es sogar, die bereits krankhaft verengten Blutgefässe zu regenerieren.

Die Beobachtung, dass bereits entstandene krankhafte Wandververdickungen der Blutgefäße „repariert“ werden konnten, ist ein unerwarteter Erfolg. Der Einsatz von Krebsmedikamenten beim Herzversagen ist eine völlig neue Perspektive. Dafür wurden zwei CDK-Inhibitoren, Dinaciclib und Palbociclib, verwendet, die bereits in der Tumorbehandlung erfolgreich getestet wurden. „So ist Palbociclib aufgrund seiner hemmenden Eigenschaften auf Tumorzellen für die Behandlung des fortgeschrittenen Brustkrebses zugelassen“, erklärt Prof. Grimminger, der selbst als Onkologe arbeitet. In den isolierten Zellen führte die gezielte Hemmung der CDKs durch Abschaltung eines nachgeschalteten Signalwegs (CDK-Retinoblastoma-Protein-E2F-Signalweg) zu einer Unterbrechung des Zellwachstums und damit zur signifikanten Abnahme der übermäßigen Zellvermehrung. In zwei experimentellen Modellen der PAH zeigte Palbociclib eine Reduzierung des krankhaften Gefäßumbaus. Damit einhergehend zeigte sich insgesamt eine deutliche Verbesserung der Herzleistung.

„Die Daten zeigen, dass die Hemmung von CDK durch Wirkstoffe wie Palbociclib eine neue Therapieoption für die Behandlung von PAH-Patienten darstellt, die am krankhaften Gefäßumbau der Lunge und des rechten Herzens ansetzt“, erklärt Prof. Schermuly. Auch wenn die Entstehung und Entwicklung einer PAH insgesamt komplex sind, lassen die Ergebnisse hoffen, dass sich das Fortschreiten der Erkrankung durch die Hemmung des Gefäßumbaus eindämmen lässt und somit der Leidensdruck der Patienten verringert wird. Die Erstautoren der Arbeit Dr. Astrid Weiß und Moritz Neubauer erhielten für diese Arbeit den hochrenommierten Preis der Rene-Baumgart Stiftung bei dem diesjährigen Kongress der Deutschen Gesellschaft für Pneumologie.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Ralph Schermuly, Innere Medizin
E-Mail: Ralph.Schermuly@innere.med.uni-giessen.de

Originalpublikation:

Weiss A, Neubauer MC, Yerabolu D, Kojonazarov B, Schlueter BC, Neubert L, Jonigk D, Baal N, Ruppert C, Dorfmuller P, Pullamsetti SS, Weissmann N, Ghofrani HA, Grimminger F, Seeger W, Schermuly RT. Targeting cyclin-dependent kinases for the treatment of pulmonary arterial hypertension.
Nature Communication, 2019 May 17;10(1):2204. doi: 10.1038/s41467-019-10135-x.
https://www.nature.com/articles/s41467-019-10135-x

Quelle: IDW 

(nach oben)


Mehr Insektenvielfalt auf Äckern und Weiden

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg

Wie lassen sich landwirtschaftliche Flächen für Insekten attraktiver machen, ohne dass der Ertrag abnimmt? Das untersuchen Oldenburger Biologen in einem EU-Projekt.

Die Bestäubung durch Insekten ist ein wichtiger Wirtschaftsfaktor. Doch in ganz Europa nimmt die Zahl von Wildbienen, Hummeln, Schmetterlingen oder Schwebfliegen ab, weil es immer weniger Blühpflanzen gibt. Das EU-Projekt BEESPOKE (Benefitting Ecosystems through Evaluation of food Supplies for Pollination to Open up Knowledge for End users), an dem auch Biologen der Universität Oldenburg beteiligt sind, soll dies nun ändern: Ziel ist es, neue Methoden, Saatmischungen und Empfehlungen für Landwirte zu entwickeln, damit die Insektenvielfalt auf Äckern und Wiesen wieder zunimmt. Das Europäische Interreg-Programm „Nordsee“ fördert das Projekt über dreieinhalb Jahre mit 4,1 Millionen Euro. Insgesamt sind 16 Partner aus sechs Nordsee-Anrainerstaaten beteiligt, die Leitung liegt beim britischen Game & Wildlife Conservation Trust.

Im Mittelpunkt des Projekts steht die Frage, wie sich landwirtschaftliche Flächen für Insekten attraktiver machen lassen, ohne dass der Ertrag abnimmt. Die Projektpartner führen dazu rund 70 Feldversuche für zahlreiche verschiedene Nutzpflanzen durch. Im deutschen Teilprojekt, an dem neben der Universität Oldenburg auch das Grünlandzentrum Niedersachsen/Bremen beteiligt ist, geht es um Weiden und Grünland. „Wir untersuchen beispielsweise, welchen Einfluss ein Schnitt pro Jahr mehr oder weniger hat, oder wie sich die genetische Vielfalt der Pflanzenarten im Grünland auf die Bestäuber auswirkt“, erläutert Prof. Dr. Dirk Albach, Leiter der Arbeitsgruppe Biodiversität und Evolution der Pflanzen und Direktor des Botanischen Gartens. Für die Experimente stehen dem Team 20 Hektar Weideflächen im Oldenburger Umland zur Verfügung, darüber hinaus finden auch im Botanischen Garten Versuche statt. Als Ergebnis des Projekts sollen zum Beispiel verbesserte Saatmischungen, Trainingsmaterial und Richtlinien entwickelt werden. Dieser Ansatz soll Landwirte in die Lage versetzen, belastbare und nachhaltigere Agrar-Ökosysteme zu schaffen und dabei routinemäßig auch das Wohlergehen der Bestäuber zu fördern.

Partner der Universität und des Grünlandzentrums ist die Firma Meiners Saaten in Harpstedt. Am Interreg-Programm Nordsee sind die Länder Großbritannien, Belgien, die Niederlande, Schweden, Dänemark und Deutschland beteiligt. Das Projekt BEESPOKE ist Teil der Priorität 3 „Nachhaltige Nordseeregion“. Das Programm wird vom European Regional Development Fund (ERDF) der Europäischen Union finanziert.

Wissenschaftliche Ansprechpartner:
Kontakt: Prof. Dirk Albach, Tel.: 0441/798-3339, E-Mail: dirk.albach@uol.de

Weitere Informationen:
http://uol.de/plant-evol/
http://www.northsearegion.eu

Quelle: IDW 

(nach oben)


Bissula erklärt die antike Wirtschaftsgeschichte

Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier

Mehr als zwei Jahre lang wurde an der Universität Trier ein römisches Schiff für den Seehandel nachgebaut. Nun tritt es seine wissenschaftliche Mission an.

In den vergangenen Jahren hat sich die Universität Trier zu einem führenden Standort für experimentelle Archäologie entwickelt. Das bislang spektakulärste Projekt dieser Forschungsrichtung ist der originalgetreue Nachbau eines 16 Meter langen römischen Handelsschiffs. Die rheinland-pfälzische Ministerpräsidentin Malu Dreyer hat es heute in Trier auf den Namen „Bissula“ getauft, die Geliebte des römischen Dichters Ausonius.
Althistoriker Prof. Dr. Christoph Schäfer ist die treibende Kraft hinter den Rekonstruktionen antiker Vorbilder. Unter seiner wissenschaftlichen Leitung sind bereits römische Feldgeschütze und drei römische Militärschiffe wiedererschaffen und wissenschaftlich untersucht worden. Ein wichtiger Bestandteil des nun fertiggestellten Nachbaus eines Handelsschiffs vom Typ Laurons 2 ist die Kooperation mit Michael Hoffmann und Prof. Dr. Ing. Karl Hofmann-von Kap-herr vom Fachbereich Technik der Hochschule Trier.

Ministerpräsidentin Malu Dreyer, Taufpatin für Laurons 2, bezeichnete es als Leuchtturmprojekt der Wissenschaftsallianz Trier. „Es ist ein treffendes Sinnbild für die besonderen Qualitäten der Stadt Trier und der gesamten Region. Die Realisierung des Projekts bestätigt auf eindrucksvolle Weise, dass wir in Trier einen leistungs- und innovationsstarken Wissenschaftsstandort haben, der durch das Projekt noch einmal nachhaltig gestärkt wird“, sagte sie. Zum anderen unterstreiche das Projekt erneut die Bedeutung der Stadt als Zentrum der Antike. „Mich persönlich beeindruckt neben den historischen Aspekten vor allem, dass Studierende der Universität und weitere Helfer und Helferinnen auch ehrenamtlich sehr viel Zeit in das Projekt investiert haben. Es ist toll, mit welcher Einsatzbereitschaft sie sich einbringen. Das verdient Anerkennung und dafür möchte ich mich bei ihnen sowie bei allen anderen Verantwortlichen und Beteiligten ausdrücklich bedanken.“

Für den Wissenschaftsstandort Trier und das Transmare-Institut an der Universität Trier ist das Projekt von besonderer Bedeutung. In Transmare haben sich über 20 Wissenschaftler zusammengeschlossen, um gemeinsam Forschung maritimer Art von der Antike bis ins 21. Jahrhundert zu betreiben. Dabei geht es um den Transfer von Menschen, Gütern und Ideen sowohl aus kultur- wie wirtschaftsgeschichtlicher Perspektive von der Antike bis heute.

„Für alle Beteiligten war es ein `duales Studium´ der besonderen Art an einem besonderen Ort. Theorie und Praxis haben sich in der gesamten Rekonstruktionsphase des Schiffs die Hand gegeben. Entstanden ist ein Vorzeigeobjekt, das nun zu einer schwimmenden Forschungsstation wird. Das nenne ich moderne Altertumswissenschaft“, sagte Prof. Dr. Michael Jäckel, Präsident der Universität Trier.

Die „Bissula“ soll dabei helfen, mehr über die Wirtschaftsgeschichte der römischen Kaiserzeit zu erfahren. Ohne den Seehandel hätte das römische Imperium nicht existieren können. Getreide, Olivenöl, Wein oder andere Massengüter mussten über weite Strecken auf Mittelmeer, Atlantik oder Nordsee transportiert werden, um die dortige Bevölkerung zu versorgen. Historiker stehen vor dem Dilemma, lediglich über wenige überlieferte Informationen zum Seehandel zu verfügen. Die anstehenden Messungen und Datenerhebungen mit der seegängigen „Bissula“ sollen daher belastbare Rückschlüsse auf das Potential und die Intensität der römischen Handelsschifffahrt und des Seehandels erbringen. „Darüber lassen sich höchst aufschlussreiche Globalisierungsphänomene entdecken, die uns helfen können, die Globalisierung heute besser zu verstehen“, erklärt Prof. Dr. Christoph Schäfer.

Auf der Basis gut erhaltener Funde mehrerer römischer Schiffe an der französischen Küste bei Laurons haben Maschinenbauer der Hochschule Trier ein digitales dreidimensionales Modell erstellt. Damit können Simulationen und Berechnungen durchgeführt und mit Daten verglichen werden, die sich bei den realen Messfahrten mit der „Bissula“ ergeben. Letztlich soll der Abgleich dieser beiden Messvarianten zeigen, inwieweit digitale Modelle künftig aufwendige Nachbauten ersetzen können.
„Für die 3D-Rekonstruktion, die numerischen und Virtual Reality Simulationen setzen wir in diesem Projekt Technologien, Software und Methoden ein, die in der heutigen Automobil-, der Luftfahrt- und auch der Schifffahrtindustrie zum Einsatz kommen. Diese Technologien können natürlich auch historische Fragestellungen vorantreiben, denn sicher wird man nicht tausende Schiffswracks im Nachbau rekonstruieren können“, so Michael Hoffmann von der Hochschule Trier.
„Dieses Projekt zeigt erneut, dass Trier prädestiniert ist für eine Wissenschaftsallianz zwischen der Universität Trier und der Hochschule Trier. Wir sind als Hochschule stolz, unseren Beitrag zum Erfolg dieses Projektes beizutragen“, sagte Claudia Hornig, Kanzlerin der Hochschule Trier.
Bei der nun anstehenden wissenschaftlichen Mission der Bissula werden Prof. Dr. Christoph Schäfer und Prof. Dr. Karl Hofmann-von Kap-herr von der Hochschule Trier in erprobter Zusammenarbeit mit modernsten nautischen Instrumenten Messungen zur Leistungsfähigkeit derartiger Handelsschiffe durchführen. Den Fahrten auf der Mosel könnten weitere Tests auf hoher See folgen.
Weitere Informationen zum Projekt: https://www.uni-trier.de/index.php?id=62438

Zum Projekt
Die 1:1-Rekonstruktion des römischen Handelsschiffes unter der Leitung von Prof. Dr. Christoph Schäfer begann im Frühjahr 2016 mit dem Fällen geeigneter Bäume. Nach einer einjährigen Trocknungszeit begann der Schiffsbau, für den Studierende der Universität und weitere Helfer unzählige ehrenamtliche Arbeitsstunden leisteten. Anleiter waren ein spezialisierter Bootsbaumeister und erfahrene Bauleiter. Den Studierenden eröffneten sich Bezüge zur handwerklichen Praxis und tiefere Einblicke in die Leistungen der antiken Handwerker. Nach knapp zweijähriger Bauzeit wurde das Schiff Anfang Juni von der Baustelle auf dem Campus der Universität zum Liegeplatz des Wasserstraßen- und Schifffahrtsamtes Trier transportiert. Nun folgen Mess- und Testfahrten der Bissula – zunächst auf der Mosel, später möglicherweise auch auf See. Hauptförderer des Projekts sind die Deutsche Forschungsgemeinschaft (DFG) und die Nikolaus Koch Stiftung.

Zum Namen des Schiffs
Die Alemannin Bissula kam im Jahr 368 bei einem Feldzug in römische Kriegsgefangenschaft. Sie wurde Sklavin des in Trier als Prinzenerzieher tätigen Dichters Decimus Magnus Ausonius. Er verliebte sich in Bissula und setzte ihr in dem Gedicht „de Bissula“ ein literarisches Denkmal.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Schäfer
Alte Geschichte
Tel. +49 651 201-2435
christoph.schaefer@uni-trier.de

Quelle: IDW 

(nach oben)


Wie Bäume das Klima retten könnten

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)

Die weltweite Aufforstung von Wäldern wäre auf einer Fläche von 0,9 Milliarden Hektar möglich und könnte so zwei Drittel der vom Menschen verursachten CO2-Emissionen aufnehmen. Dies wäre die effektivste Massnahme gegen den Klimawandel. Zu diesem Schluss kommt eine aktuell in Science publizierten Studie der ETH Zürich.

Das Crowther Lab an der ETH Zürich forscht an naturbasierten Lösungen für den Klimawandel. In der neuen Studie zeigten die Forschenden erstmals auf, wo auf der Welt neue Bäume wachsen könnten und wie viel Kohlenstoff sie speichern würden. Jean-François Bastin, Studienleiter und Postdoc am Crowther Lab erklärt: «Ein Aspekt war für uns bei den Berechnungen besonders wichtig: Wir haben Städte und landwirtschaftliche Flächen von der gesamten Fläche, die das Potenzial zur Wiederaufforstung hat, ausgeschlossen, denn diese Gebiete braucht der Mensch anderweitig.“

Ein Gebiet von der Grösse der USA aufforsten
Die Forschenden berechneten, dass unter den aktuellen klimatischen Bedingungen die Erde mit rund 4,4 Milliarden Hektar Wald bedeckt sein könnte. Das sind 1,6 Milliarden mehr als die derzeit vorhandenen 2,8 Milliarden Hektar. Von diesen 1,6 Milliarden Hektar erfüllen 0,9 Milliarden Hektar das Kriterium nicht von Menschen genutzt zu werden. Derzeit stünde also ein Gebiet von der Grösse der USA für die Aufforstung zur Verfügung. Einst herangewachsen könnten diese neuen Wälder 205 Milliarden Tonnen Kohlenstoff speichern. Das sind etwa zwei Drittel der 300 Milliarden Tonnen Kohlenstoff, die seit der industriellen Revolution durch den Menschen verursacht in die Atmosphäre gelangten.

ETH-Professor Tom Crowther, Mitautor der Studie und Gründer des Crowther Lab, meint dazu: «Wir alle wussten, dass die Aufforstung der Wälder einen Beitrag zur Bekämpfung des Klimawandels leis-ten könnte, aber bislang war unklar, wie gross der Effekt wäre. Unsere Studie zeigt deutlich, dass Flä-chen zu bewalden derzeit die beste verfügbare Lösung gegen den Klimawandel ist. Allerdings müssen wir schnell handeln, denn es wird Jahrzehnte dauern, bis die Wälder reifen und ihr Potenzial als natürliche CO2-Speicher ausschöpfen.»

Russland wäre am besten geeignet
Die Studie zeigt auch, wo eine Aufforstung am besten möglich wäre. Die meiste Fläche entfällt auf nur sechs Länder: Russland (151 Millionen Hektar), USA (103 Millionen Hektar), Kanada (78,4 Millionen Hektar), Australien (58 Millionen Hektar), Brasilien (49,7 Millionen Hektar) und China (40,2 Millionen Hektar).

Die Studie warnt schliesslich davor, dass viele aktuelle Klimamodelle fälschlicherweise erwarten, dass der Klimawandel die globale Baumbedeckung erhöhe. Zwar werden die Flächen der nördlichen Wälder in Regionen wie Sibirien wahrscheinlich zunehmen. Aber dort beträgt die Baumdichte durchschnittlich nur 30 bis 40 Prozent. Dem gegenüber steht allerdings der Verlust von dichten tropischen Wäldern, die typischerweise eine Baumbedeckung von 90 bis 100 Prozent aufweisen.

Bäume im Blick – auch an der Scientifica
Ein Tool auf der Website des Crowther Lab [https://gee.ethz.ch/] ermöglicht es Nutzern, einen beliebigen Ort der Welt zu wählen und herauszufinden, wie viele Bäume dort wachsen könnten und wie viel Kohlenstoff sie speichern würden. Zudem bietet es auch Listen von Waldrestaurierungsorganisationen. Das Crowther Lab wird an der diesjährigen Scientifica [https://www.scientifica.ch/] teilnehmen und das neue Werkzeug vorstellen.

Das Crowther Lab setzt auf naturbasierte Lösungen für den Klimawandel. Es will so erstens die Ressourcen besser zuteilen, indem es Regionen identifiziert, die bei der Aufforstung den grössten Klimaeffekt haben könnten. Zweitens will das Lab realistische und messbare Ziele setzen, um die Wirkung von Sanierungsprojekten zu maximieren; und drittens den Fortschritt laufend überprüfen und gegebenenfalls Korrekturmassnahmen einleiten.

Originalpublikation:

Bastin JF, Finegold Y, Garcia C, Mollicone D, Rezende M, Routh D, Zohner CM, Crowther TW: The global tree restoration potential, Science, 5 July 2019, doi: 10.1126/science.aax0848 [http://dx.doi.org/10.1126/science.aax0848]

Anhang

Medienmitteilung
https://idw-online.de/de/attachmentdata72372.pdf

Quelle: IDW 

(nach oben)


Berufsbegleitend für eine Ingenieur-Karriere studieren

Sigrid Neef Öffentlichkeitsarbeit und Kommunikation
Ernst-Abbe-Hochschule Jena

Am 28. August findet um 18.00 Uhr in der Ernst-Abbe-Hochschule (EAH) Jena, Raum 05.01.43, eine Informationsveranstaltung zu einem neuen Weiterbildungsmasterstudiengang für Ingenieure statt. Der schnelle technologische und digitale Wandel eröffnet Möglichkeiten für neue Geschäftsfelder, moderne Produktionsverfahren und innovative Erlösmodelle. Um diese Chancen erfolgreich zu nutzen, braucht es Fach- und Führungskräfte, die in Unternehmen kompetent und effizient agieren können.

Ob Produktionsleiter, Qualitätsingenieur, Produkt- oder Projektmanager – Ingenieure arbeiten zunehmend mit vielen Abteilungen im Unternehmen zusammen und benötigen bereichsübergreifendes Wissen.

Diese interdisziplinären Kompetenzen können interessierte Ingenieure im Rahmen des neuen berufsbegleitenden Masterstudiengangs „Wirtschaftsingenieurwesen“ an der EAH Jena erwerben. Das fünfsemestrige Masterstudium vermittelt praxisrelevantes Wissen in einer erfolgversprechenden Kombination aus technischen, wirtschaftlichen und rechtlichen Inhalten. Als Alternative zum MBA fokussiert dieses Masterprogramm speziell auf die Herausforderungen in technologiegeprägten Unternehmen.

Die Teilnehmer erhalten fundierte Einblicke in Erkenntnisse und Methoden, die es ihnen ermöglichen, in ihrem Beruf komplexe Koordinationsaufgaben wahrzunehmen. Der Studiengang verfolgt die Philosophie, ein integriertes Gesamtverständnis für die Erfolgsfaktoren bei der Entwicklung, Realisierung und Vermarktung von Produkten in einer zunehmend digitalisierten Welt zu vermitteln. Damit ist dieses Masterprogramm einmalig unter den Weiterbildungsstudiengängen an Thüringer Hochschulen.

Die Studiengangsteilnehmer werden durch speziell für das Selbststudium entwickelte Lehrmaterialien unterstützt. Zudem garantieren regelmäßig stattfindende Präsenzphasen eine zielgerichtete und zeiteffiziente Aneignung von Wissen.

Der Masterstudiengang wurde vom Fachbereich Wirtschaftsingenieurwesen der EAH entwickelt und wird in Zusammenarbeit mit der Jenaer Akademie für Lebenslanges Lernen e.V. durchgeführt. Er richtet sich an im Beruf stehende Ingenieure und Wirtschaftsingenieure, die über einen Diplom- oder Bachelorabschluss verfügen. Das Masterstudium ist ausgerichtet auf 5 Semester und erfordert eine Präsenzzeit von 24 Tagen am Studienort Jena. Die Seminare finden freitags und samstags statt. Die Seminarsprache ist Deutsch.

Die Kosten betragen 2.380 Euro pro Semester. Die Studieninhalte sind in 13 Module unterteilt, die auch einzeln gebucht werden können. Die Bewerbungsfrist für das Wintersemester 2019 endet am 15.09.2019.

Im Rahmen der Infoveranstaltung am 28. August, 18.00 Uhr, im Raum 05.01.43 (Haus 5, Etage 1), können sich Interessenten über das Studienangebot informieren und haben die Möglichkeit, Fragen zu Inhalten, Zulassungsvoraussetzungen und organisatorischem Ablauf des berufsbegleitenden Weiterbildungsstudiums zu stellen.

Weitere Informationen:
http://www.jenall.de/studium
http://www.eah-jena.de/weiterbildungsstudium

Prof. Dr. Uwe Herbst, Studiengangsleiter (EAH Jena)
Peter Perschke, Geschäftsführer (JenALL e.V.)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Uwe Herbst
uwe.herbst@eah-jena.de

Weitere Informationen:

http://www.eah-jena.de
http://www.jenall.de/studium
http://www.eah-jena.de/weiterbildungsstudium

Quelle: IDW 

(nach oben)


Neuer Windatlas für Europa fertiggestellt

Lisa Bösch Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES

Wissenschaftlerinnen und Wissenschaftler aus ganz Europa haben im Forschungsprojekt NEWA den Neuen Europäischen Windatlas fertiggestellt. Die Universität Oldenburg mit dem Zentrum für Windenergieforschung (ForWind), das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE und das Fraunhofer-Institut für Windenergiesysteme IWES bilden das deutsche Konsortium des europäischen Forschungsprojektes NEWA (Neuer Europäischer Windatlas).

Gemeinsam mit ihren Partnern aus ganz Europa haben sie daran gearbeitet, neue Methoden zur Bewertung der Windverhältnisse zu entwickeln und zu validieren, um so bei der Suche nach optimalen Standorten für neue Windparks zu helfen. Der fertiggestellte Atlas wird der deutschen Windbranche am 2. Juli 2019 auf der NEWA-Stakeholder-Abschlussveranstaltung in Hannover präsentiert. International wurde der Atlas am 27. Juni 2019 in Brüssel vorgestellt.

30 Partner aus Wissenschaft und Wirtschaft aus acht verschiedenen Ländern haben europaweit an der Realisierung des Neuen Europäischen Windatlas (NEWA) zusammengearbeitet. Die Forscherinnen und Forscher haben neue Methoden zur Bewertung der Windverhältnisse entwickelt und validiert. Ein zentrales Ziel des Windatlas war die Entwicklung von standardisierten Online-Karten für die Standortbewertung.

Jakob Mann, Professor an der DTU Windenergie und Koordinator des internationalen Konsortiums, erklärt: „NEWA ist der größte und detaillierteste Datensatz zur Validierung und Bewertung der Windverhältnisse.“

Mit Hilfe eines Wettermodells wurden die Windverhältnisse der zurückliegenden 30 Jahre über ganz Europa mit einer Auflösung von drei Kilometern nachsimuliert. Online können jetzt für jeden Punkt in der EU Informationen über das langjährige Windklima abgerufen werden: unter anderem interaktive Karten, Zeitreihen und Statistiken von Windgeschwindigkeit und anderen windenergierelevanten Parametern in verschiedenen Höhen. „Der Umfang und die Genauigkeit des Neuen Europäischen Windatlas werden eine neue Grundlage für die Planung der Windenergienutzung in Europa darstellen“, sagt IWES-Wissenschaftler und Projektkoordinator Dr. Bernhard Lange.

Das internationale Projekt NEWA startete 2015 und wurde aus nationalen Förderprogrammen der Partnerländer sowie EU-Mitteln mit einer Gesamtsumme von 13,5 Millionen Euro finanziert. Von deutscher Seite wurde NEWA vom Bundesministerium für Wirtschaft und Energie mit ca. 1,5 Millionen Euro gefördert. Mit den Projektergebnissen soll das europäische Windenergiepotenzial genauer bestimmt und so ein Beitrag zur Kostenreduzierung für die Stromerzeugung aus Windparks geleistet werden.

NEWA ist ab sofort für alle frei verfügbar unter: https://map.neweuropeanwindatlas.eu/.

ForWind ist das gemeinsame Zentrum für Windenergieforschung der Universitäten Oldenburg, Hannover und Bremen und bildet einen bundesweit einmaligen Forschungsverbund. ForWind deckt ein breites ingenieurwissenschaftliches sowie physikalisches Spektrum ab und begleitet industriell ausgerichtete Projekte wissenschaftlich.
Kontakt: Dr. Björn Witha, Tel.: +49 441 798-5075,
E-Mail: bjoern.witha@forwind.de, www.forwind.de

Das Fraunhofer IEE in Kassel forscht für die Transformation der Energieversorgungssysteme und entwickelt Lösungen für technische und wirtschaftliche Herausforderungen. Es hat sich in den Geschäftsbereichen Energiewirtschaft und Energiesystemtechnik etabliert.
Kontakt: Dr.-Ing. Paul Kühn, Telefon +49 561 7294-351,
E-Mail: Paul.kuehn@iee.fraunhofer.de, www.iee.fraunhofer.de

Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Windenergie.
Kontakt: Dr. Julia Gottschall. Tel.: +49 471 14290-354,
E-Mail: julia.gottschall@iwes.fraunhofer.de, www.iwes.fraunhofer.de

Quelle: IDW 

(nach oben)


Forschungskooperation mit DLR-Institut: Kohlendioxid-Reduktion in industriellen Prozessen

Carmen Richter Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg

Wie aus fossilen Kraftwerken kohlenstoffarme Energielieferanten werden, erforschen BTU-Wissenschaftler gemeinsam mit dem neuen Institut des Deutschen Zentrums für Luft- und Raumfahrt (DLR)

Deutschlands Klimaschutzziele sehen bis 2030 eine Reduzierung der Treibhausgasemissionen um mindestens 55 % gegenüber 1990 vor. Bis 2050 soll eine weitgehende Treibhausgasneutralität erreicht sein. Um diese Ziele zu erreichen, sind unter anderem verstärkte Anstrengungen erforderlich, um die Dekarbonisierung energieintensiver industrieller Prozesse, wie der Stahl- oder Aluminiumproduktion, zu beschleunigen. Zudem gilt es, Kohlekraftwerke in kohlenstoffarme Energiewandlungssysteme umzubauen, um Emissionen zu vermeiden.

Gemeinsam mit dem DLR-Institut für dekarbonisierte Industrieprozesse arbeiten BTU-Forscher künftig daran, alternative, emmissionsarme Technologien für energieintensive Industrien zu entwickeln, die nicht mit fossilen Brennstoffen arbeiten. „Die Industrie mittel- bis langfristig klimaneutral umzubauen, ist eine internationale Mammutaufgabe. Ideen und Innovationen für diesen Umbau werden künftig aus der Lausitz kommen und einen wichtigen Beitrag zur klimafreundlichen Entwicklung am Industriestandort Deutschland leisten“, so die amtierende BTU-Präsidentin Prof. Dr. Christiane Hipp.

Wie die künftige Forschungskooperation gestaltet werden soll, haben das Deutsche Zentrum für Luft- und Raumfahrt, der kommissarische Leiter des Instituts Prof. Dr. Uwe Riedel gemeinsam mit der BTU, Prof. Dr.-Ing. Christoph Egbers und einem Wissenschaftlerteam erarbeitet. Prof. Egbers: „Die Ansiedlung des neuen DLR-Instituts im Bereich der Energieforschung ist ein entscheidendes Signal und ein wichtiger Baustein für die weitere Entwicklung des Wissenschaftsstandortes Cottbus. Sie hat große strukturelle und technologische Bedeutung für die Lausitz“, sagt er und ergänzt: „Gemeinsam mit dem DLR-Institut werden wir an der Entwicklung von Hochtemperatur-Wärmepumpen und virtuellen Modellen arbeiten, anhand derer wir industrielle Prozesse optimieren können.“ Am Standort Cottbus sind drei gemeinsamen Berufungen zwischen BTU und DLR in Planung. Gegenwärtig gehen DLR und BTU davon aus, dass das Institut mit einer Personalausstattung von insgesamt 60 Mitarbeiterinnen und Mitarbeitern seine Arbeit aufnimmt und im weiteren Verlauf – abhängig von der Nachfrage am Markt – auch noch wachsen kann.

Hintergrund
Die Ansiedlung des neuen Instituts des Deutschen Zentrums für Luft- und Raumfahrt (DLR) gehört zu den vom Bund geförderten Vorhaben, die zur Strukturentwicklung beitragen sollen. 60 Wissenschaftlerinnen und Wissenschaftler werden an den beiden Standorten in Cottbus und Zittau arbeiten, 30 in Cottbus. Zusätzlich werden weitere 60 Forschende über Projekte drittmittelfinanziert. Für die Administration und technische Unterstützung sind weitere 15 Stellen geplant.

Das Bundesministerium für Wirtschaft und Energie stellt jährlich 10 Mio. € Grundfinanzierung zur Verfügung. Brandenburg und Sachsen kofinanzieren das Institut an beiden Standorten mit jeweils 0,55 Mio. € jährlich und leisten eine einmalige Anschubfinanzierung in Höhe von je 10 Mio. €.

Quelle: IDW 

(nach oben)


DDG/DGE: Essstörungen bei Diabetes können lebensgefährlich sein

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Essstörungen treten bei jungen Patientinnen mit Typ-1-Diabetes zwei- bis dreimal häufiger auf als bei gesunden Frauen. Die Betroffenen hoffen, Gewicht zu verlieren, indem sie zeitweise darauf verzichten, sich Insulin zu spritzen. Damit riskieren sie unumkehrbare Schäden an Nerven und Gefäßen und im schlimmsten Fall sogar ihr Leben. Anlässlich einer gemeinsamen Pressekonferenz am 18. Juni in Berlin rufen Diabetes- und Hormonexperten dazu auf, die Kombination dieser beiden Erkrankungen stärker in den Fokus zu rücken. Insbesondere Ärzte und Familienangehörige sollen bei jungen Diabetespatientinnen stärker auf Anzeichen möglicher Essstörungen achten.

Vor allem die Bulimie ist bei jungen Frauen mit Diabetes Typ 1 besonders verbreitet. Die Betroffenen haben Essanfälle, bei denen sie große Mengen an Nahrung förmlich verschlingen. Aus Angst, zuzunehmen, greifen sie zu verschiedenen Strategien: Sie erbrechen das Essen beispielsweise oder nehmen Abführmittel in hohen Dosen ein. Patientinnen mit Typ-1-Diabetes wenden eine weitere Methode an: Sie verzichten auf das Spritzen von Insulin. Ohne das lebenswichtige Hormon kann ihr Körper den Zucker aus der Nahrung nicht aufnehmen, sodass er mit dem Urin ausgeschieden wird. Das sogenannte Insulin-Purging hat jedoch fatale Folgen: Da der Körper von Menschen mit Diabetes keinen Zucker aufnehmen kann, verbleiben zu große Mengen davon im Blut. Das schadet Blutgefäßen, Nerven und Nieren. Im Extremfall kann es zu lebensgefährlichen Übersäuerungen des gesamten Körpers kommen.

„Durch den Diabetes müssen sich Mädchen und junge Frauen täglich mit Inhalt und Menge des Essens auseinandersetzen“, erklärt Susan Clever, Diplom-Psychologin aus Hamburg. „Gerade in der Pubertät ist die Gefahr groß, dass Maßnahmen, die den Diabetes behandeln sollen, in ein krankhaftes Verhältnis zum Essen und zum eigenen Körper führen.“ Viele Menschen legen auch an Gewicht zu, wenn sie eine Insulintherapie beginnen. Hinzu kommen der tägliche Stress, den die Erkrankung verursacht, ein geringes Selbstwertgefühl und eventuell beschämende Aussagen von Mitschülern und Freunden – die Patientinnen flüchten sich in ein gestörtes Essverhalten. Die Expertin aus der Diabetespraxis Blankenese weiß, dass durch Essstörungen auch die Therapie des Diabetes gefährdet ist: Diese Patientinnen essen unregelmäßig und messen ihren Blutzucker seltener.

„Da die Betroffenen aus Scham nicht über ihre Erkrankung sprechen, sind Ärzte und Angehörige gefragt, bei jungen Patientinnen mit Diabetes Typ 1 verstärkt auf Anzeichen von Essstörungen zu achten“, sagt Clever. Schwankendes Körpergewicht und sehr hohe Blutzuckerwerte können ein wichtiger Hinweis sein. Aber auch wenn eine Patientin ihren Blutzucker nur selten misst oder mehrere Messgeräte dafür benutzt, sollten Eltern und Behandler nachforschen.

Wie Essstörungen bei Diabetes behandelt werden können und was zu tun ist, um ihnen vorzubeugen, erklären Experten auf einer gemeinsamen Pressekonferenz der Deutschen Diabetes Gesellschaft und der Deutschen Gesellschaft für Endokrinologie am 18. Juni in Berlin.

Ihr Kontakt für Rückfragen:
DDG- und DGE-Pressestelle
Stephanie Balz
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-168
Fax: 0711 8931-167
balz@medizinkommunikation.org

Quelle: IDW 

(nach oben)


Gegen globale Erderwärmung: Waldböden sind bessere Kohlenstoffspeicher als erwartet

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Pilze im Unterboden ermöglichen langfristige Kohlenstoff-Speicherung / Uni Hohenheim erforscht Mikroorganismen in einer Bodentiefe von bis zu 1,5 Metern / ein Werkstattbericht

Pilze in tiefen Waldbodenschichten sind winzig klein – doch sie besitzen eine große Fähigkeit: Sie können Kohlenstoffe nachhaltig speichern. Dies hat ein Forscherteam der Universität Hohenheim in Stuttgart herausgefunden. Mit einem aufwändigen Verfahren sind die Wissenschaftlerinnen und Wissenschaftler in bislang unerforschte Tiefen vorgedrungen. Das Ergebnis kann für konkrete Maßnahmen gegen die globale Erderwärmung bedeutend sein. Die Deutsche Forschungsgemeinschaft (DFG) fördert das Projekt der Universität Hohenheim mit insgesamt 411 500 Euro. Damit zählt es zu den Schwergewichten der Forschung.

Bodenbiologen haben sich in der Vergangenheit bei der Erforschung von Böden lediglich einem Bereich bis zu 30 Zentimeter Bodentiefe gewidmet, weil dort rund die Hälfte der Mikroorganismen wie Pilze und Bakterien zu finden sind. „Die anderen 50 Prozent liegen darunter in einer Tiefe bis mindestens 1,8 Metern“, erklärt Prof. Dr. Ellen Kandeler vom Institut für Bodenkunde und Standortslehre.

Für ihre Versuche schufen Projektpartner mehrere Observatorien im Grinderwald bei Hannover. 13C markierte Buchenblätter wurde auf diese Observatorien aufgebracht, um das Kohlenstoffsignal bis in den Unterboden verfolgen zu können.

Das Team um Bodenbiologin Prof. Dr. Kandeler stellt fest: „Der markierte Kohlenstoff wird auch in tiefe Bodenschichten verlagert und dort bevorzugt von Pilzen in ihre Biomasse eingebaut.“

Pilze besitzen eine höhere Kohlenstoffnutzungseffizienz als Bakterien
Diese Erkenntnis war für das Forscherteam völlig neu. „Die Pilze haben eine deutlich höhere Kohlenstoffnutzungseffizienz als Bakterien und tragen somit sehr viel mehr zur Kohlenstoffspeicherung im Unterboden bei als zunächst angenommen“, sagt Prof. Dr. Kandeler. „Während Bakterien den Kohlenstoff sofort wieder verbrennen, sind die Pilze in der Lage ihn längerfristig zu speichern.“

Dies könnte der Wissenschaft bei der Suche nach neuen Möglichkeiten, den Kohlenstoff lange im Boden zu halten um die globale Erderwärmung einzudämmen, nützlich sein. „Da Waldböden reicher an Pilzen sind als andere Böden, könnten diese künftig als ein möglicher Kohlenstoffspeicher dienen“, sagt Prof. Dr. Kandeler.

HINTERGRUND zum Projekt SUBSOM
Der Projekt-Titel lautet „SUBSOM – The forgotten part of carbon cycling: organic matter storage and turnover in subsoils, Teilprojekt: Biological regulation of subsoil C-cycling under field conditions“. Das interdisziplinäre Projekt SUBSOM besteht aus insgesamt neun Teilprojekten. Beteiligt sind insgesamt sieben deutsche Hochschulen und zwei Forschungseinrichtungen. Die Projektleitung liegt bei Prof. Dr. Bernd Marschner von der Ruhr-Universität Bochum.

SUBSOM startete am 1. 1. 2017 und wird vorerst bis zum 31.12.2019 laufen. Die Universität Hohenheim erhält für das Projekt von der Deutschen Forschungsgemeinschaft (DFG) 411 500 Euro. Ein Verlängerungsantrag für das Projekt wird bei der DFG im Herbst 2019 gestellt.

HINTERGRUND: Schwergewichte der Forschung
32,5 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2018 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.
Text: A.Schmid

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ellen Kandeler, Universität Hohenheim, Institut für Bodenkunde und Standortslehre, Fachgebiet Bodenbiologie
T+49 711 459 24220, E kandeler@uni-hohenheim.de

Weitere Informationen:
http://www.subsom.de/index.php?id=47 „Projekt-Homepage SUBSOM“

Quelle: IDW 

(nach oben)


Raus aus der Raucherecke: Frühwarnsystem für Heizkessel reduziert Feinstaub

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Forscher am Fraunhofer Institut für Bauphysik (IBP) entwickelten gemeinsam mit den Unternehmen HDG Bavaria und LAMTEC ein Kombinationssystem zur Früherkennung von Bedienungsfehlern durch die Betreiber von Heizkesselanlagen. Die Verbesserung der Verbrennung bei kontinuierlicher Prozessüberwachung reduziert nicht nur in erheblichem Maße schädliche Emissionen, sondern erhöht auch den Wirkungsgrad im Praxisbetrieb auf über 93 Prozent.

Die Debatte um Feinstaub aus Kleinfeuerungsanlagen wird so heiß geführt, wie die Sache an sich auch ist. Einerseits erzeugen die ca. 11 Mio. Holzkamine und 0,7 Mio. Heizkessel in Deutschland einen hohen Anteil an erneuerbarer Wärme und tragen zum Klimaschutz bei, auf der anderen Seite schlagen die Zahlen des Umweltbundesamts Alarm. Denn Holzfeuerungsanlagen verursachen einen vergleichsweise hohen Ausstoß an Feinstaub und anderen Schadstoffen, etwa organischen Verbindungen aus einer unvollständigen Verbrennung. Einige dieser Stoffe, vor allem polyzyklische aromatische Kohlenwasserstoffe (PAK) sind krebserregend. Mit Blick auf den Trend zum gemütlichen „Komfortkamin“ in den eigenen vier Wänden und dem Ausbau der Erneuerbaren durch Wärmegewinnung aus Biomasse werden dringend Lösungen für saubere Feuerungsanlagen gesucht. Nun gibt das Forschungsprojekt „Kombinationssystem“ (FKZ-Nr.: 03KB109) Hoffnung auf rauchfreiere Zeiten. Das Projekt wird im BMWi-Förderbereich „Energetische Biomassenutzung“ im Rahmen des 7. Energieforschungsprogramms gefördert.

Worum geht es genau?
Der Fokus des Vorhabens liegt speziell auf Heizkesseln, die also nicht nur die kleine Stube, sondern ganze Wohnanlagen beheizen.
„Unsere Idee war, dass neben den konstruktiven Gegebenheiten der Verbrennungstechnik, vor allem das Verhalten des Betreibers von entscheidender Bedeutung für die Verbrennungsqualität und somit die Feinstaubemissionen ist.“, so Dr. Mohammad Aleysa, Projektleiter am IBP.
Denn nur durch eine gute Auswahl des Brennstoffs und die richtige Bedienung der Verbrennungstechnik kann ein effizienter und schadstoffarmer Betrieb des Kessels gewährleistet werden. Das nun von den Forschern entwickelte VREM-System (Verbrennungsregelungs- und Emissionsmonitoringsystem) zur kombinierten regelungstechnischen Optimierung der Verbrennung bei gleichzeitiger Überwachung der Prozesse soll künftig eine Fehlbedienung der Biomasseheizkessel vermeiden.

Wie funktioniert das VREM-System?
O2/COe-sondengestützte Analysen und intelligente Überwachungsalgorithmen regeln den Verbrennungsprozess mit niedrigerem Sauerstoffüberschuss und der Vermeidung hoher Wärmeverluste. Letztere können über nicht verbrannte Bestandteile oder über die freie Wärme im Abgas entstehen. Die Regelung des Verbrennungsprozesses ermöglicht eine präzise Luftzufuhr, welche wiederum eine optimale Verbrennung gewährleistet – ganz unabhängig vom eingesetzten Brennstoff. Beim Auftreten von Komplikationen bzw. Betriebsstörungen, die sich regelungstechnisch nicht beheben lassen wie z. B. beim Einsatz illegaler Brennstoffe wie Haushaltsabfälle und Althölzer oder technischen Defekten, wird der Betreiber per E-Mail und SMS informiert. Durch diese frühzeitige Fehlererkennung und ihre Beseitigung können gefährliche Schadstoffe wie bspw. Feinstaub, CO, CnHm (Kohlenwasserstoffe) oder PAKs vermieden werden. Darüber hinaus werden durch das VREM-System nicht nur Emissionen erheblich reduziert, sondern auch der Wirkungsgrad auf über 93 Prozent erhöht.

Wie lief der Praxistest?
Die Überwachungsalgorithmen mit der O2/COe-Sonde wurden nach der Erprobung auf dem Prüfstand erfolgreich in zwei in der Praxis befindlichen Biomasseheizkesseln der Firma HDG Bavaria über eine Heizperiode dauererprobt. Hierbei handelte es sich um hand- und automatisch beschickte Heizkessel für die Verbrennung von Scheitholz und Holzpellets. Sowohl die O2/COe-Sonde, als auch die Überwachungsalgorithmen haben eine sehr gute Eignung für den Dauereinsatz in der Praxis gezeigt.

Was kommt nun?
Das Projekt hat sehr gute Erkenntnisse hervorgebracht, wie der Betrieb von Biomasseheizkesseln energetisch und wirtschaftlich optimiert sowie umweltverträglicher gestaltet werden kann. Entscheidend für die Umsetzung der Projektergebnisse ist die Entwicklung einer kompakten für den Einsatz in Biomasseheizkesseln angepassten Elektronik für die O2/COe-Sonde, welche im Rahmen eines laufenden ZIM-Projekts (Zentrales Innovations-programm Mittelstand, BMWi) in Kooperation mit der Firma SABO Elektronik GmbH seit eineinhalb Jahren erfolgt. Auf Basis der beiden Projekte soll in einem Nachfolgeprojekt eine hard- und softwaremäßig praxistaugliche O2/COe-Regelung entwickelt werden. Diese soll anschließend im Praxisbetrieb an fünf Heizkesseln unterschiedlicher Hersteller über zwei Heizperioden erprobt werden. Die Beantragung des Folgeprojekts soll bis April 2020 erfolgen.

Wissenschaftliche Ansprechpartner:
Fraunhofer Institut für Bauphysik (IBP)
Nobelstraße 12
70569 Stuttgart

Dr. Mohammad Aleysa – Projektleiter
Telefon: +49 (0)711-970-3455
E-Mail: mohammadshayesh.aleysa@ibp.fraunhofer.de

Begleitvorhaben des BMWi-Förderbereichs „Energetische Biomassenutzung“
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0)341 2434-554
E-Mail: diana.pfeiffer@dbfz.de

Bianca Stur – Öffentlichkeitsarbeit
Telefon: +49 (0)341 2434-582
E-Mail: bianca.stur@dbfz.de

Weitere Informationen:

https://www.energetische-biomassenutzung.de/news-media/presse/news-details/newsa…

Anhang

Pressemitteilung Kombinationssystem

Quelle: IDW 

(nach oben)


Kostenfreie Weiterbildung zur Digitalisierung für KMU-Mitarbeiter

Anja-Maria Meister Pressestelle
Universität Bayreuth

Die Universität Bayreuth sucht kleine und mittlere Unternehmen (KMU), die Mitarbeiter und Mitarbeiterinnen berufsbegleitend auf dem Feld der Digitalisierung weiterbilden möchten. Hierfür werden zwei Weiterbildungsmaßnahmen entwickelt, die durch den Europäischen Sozialfonds (ESF) gefördert werden sollen und damit kostenfrei angeboten werden können. Die Themen sind: „Agile Zusammenarbeit 4.0″ und „Digital Future Factory – Digitalisierung in Arbeit und Fertigung für KMU“.

Lebenslanges Lernen ist mehr als ein Schlagwort: Der Wissens- und Qualifikationsstand von Mitarbeiter/-innen ist für kleine und mittlere Unternehmen der entscheidende Wettbewerbsfaktor inmitten der digitalen Revolution. Eine Kollaboration von Wirtschaft und Wissenschaft hat hier das größte Potenzial, auch KMU an den digitalen Entwicklungen teilhaben zu lassen. Denn maßgeschneiderte Weiterbildung hilft, den notwendigen Paradigmenwechsel von starren hin zu agilen Strukturen, von der Fabrik zur Digital Factory zu meistern.

Doch zur Bewältigung bedarf es einer ganzen Bandbreite an interdisziplinärem Methodenwissen. Dieses wird die Weiterbildungsmaßnahme „Agile Zusammenarbeit 4.0″ vermitteln. Die acht Lehrgangsmodule – u. a. Teamdynamiken, Assistenzsysteme, Technologieanalyse 4.0, Mass Customization und Circular Ecomomy – finden ab April 2020 bzw. Februar 2021 berufsbegleitend statt.

Die zweite Weiterbildungsmaßnahme „Digital Future Factory“ vermittelt ab Mai 2020 bzw. Februar 2021 Anwendungswissen zum Einsatz innovativer Technologien und Methoden der Digitalisierung. Hier werden zehn Lehrgangsmodule ebenfalls berufsbegleitend angeboten – u. a. digitale Bauteilkonstruktion und -fertigung, digitale Prozess- bzw. Auftragsüberwachung, digitale Qualitätssicherung, digitale Fabrikplanung und der digitale Zwilling.

Neben den acht bzw. zehn Präsenztagen beinhalten die beiden Weiterbildungsmaßnahmen ein umfangreiches E-Learning-Angebot sowie diverse Netzwerkveranstaltungen und somit einen Wissenstransfer mit hohem Praxisbezug. Beide Angebote sind für Mitarbeiter/-innen teilnehmender KMU kostenfrei. Um Teilnahmeerklärung für die beiden Weiterbildungsmaßnahmen wird bis zum 01. Juli 2019 gebeten.

Der Mehrwert für Unternehmen liegt auf der Hand: direkter Draht zu Wissenschaft, Input für ungeklärte Digitalisierungs- oder Führungs-Themen in der Organisation, Einfluss auf die Weiterbildungsinhalte, hochwertige Zusatzqualifizierung, kostenfrei. Der Anbieter der Weiterbildungsmaßnahmen ist die Universität Bayreuth, vertreten durch die Lehrstühle Umweltgerechte Produktionstechnik und Strategisches Management und Organisation sowie die Campus Akademie, als Impulsgeber für die Region Oberfranken.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Sebastian Schötz
Lehrstuhl Umweltgerechte Produktionstechnik
Universität Bayreuth
Tel.: +49 (0) 921 – 78516-421
Mail: sebastian.schoetz@uni-bayreuth.de

Quelle: IDW 

(nach oben)


Studie: Übergewichtig durch Videospiele?

Kristian Lozina Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Sind Kinder, Jugendliche und Erwachsene, die intensiv Computer spielen, tatsächlich fettleibiger? Eine Meta-Studie mit Beteiligung der Universität Würzburg hat das nun untersucht. Das Klischee stimmt – aber nur bei Erwachsenen.

Ein pummeliger Jugendlicher sitzt stundenlang auf dem Sofa mit dem Controller in der Hand, direkt daneben die fettigen Chips und die ungesunde Cola auf dem Couchtisch. So stellen sich viele Menschen die typischen Gamerinnen und Gamer vor. Daher ist auch das Vorurteil, das intensives Spielen von Videospielen dick macht, weit verbreitet. Zurecht?

„Die Studienlage bei Kindern und Jugendlichen widerspricht dem Stereotyp, bei Erwachsenen gibt es kleine Zusammenhänge zwischen Computerspielen und Körpermasse“, erklärt Professor Markus Appel, Kommunikationspsychologe an der Julius-Maximilians-Universität (JMU) Würzburg. Forscher der JMU (Markus Appel, Caroline Marker) und der Johannes-Kepler-Universität Linz bzw. dem Leibniz-Institut für Bildungsverläufe in Bamberg (Professor Timo Gnambs) haben mit einer Meta-Analyse insgesamt 20 aussagekräftige Studien mit mehr als 38.000 Teilnehmerinnen und Teilnehmern ausgewertet. Der Zusammenhang zwischen Videospielen und Übergewicht bzw. Körpermasse zeigt sich aber nur in geringem Umfang. Lediglich ein Prozent des individuellen Übergewichts kann demnach durch die Zeit mit Videospielen erklärt werden.

Kein Zusammenhang bei Kindern und Jugendlichen
Der Zusammenhang konnte auch nur bei Erwachsenen nachgewiesen werden, bei Kindern und Jugendlichen jedoch nicht. „Möglicherweise bleiben fettleibigere Personen beim Übergang ins Erwachsenenalter eher ihrem Hobby Videospielen treu, während für andere neue Freizeitangebote wichtiger werden“, vermutet Appel.

In der Vergangenheit haben sich schon einige Forscherinnen und Forscher mit der Frage beschäftigt, inwiefern Videospiele und Übergewicht zusammenhängen. „Übergewicht und Fettleibigkeit werden meist mit Medienkonsum im Sitzen verbunden, wie Fernsehen oder nicht-aktive Videospiele“, schreibt das Forscherteam in seiner aktuellen Studie, die im Fachmagazin „Social Science and Medicine“ erschienen ist. Doch die einzelnen Untersuchungen kamen bislang zu unterschiedlichen Ergebnissen, daher der aktuelle Vergleich.

Weniger Zeit beim Sport
Warum es zu dem Zusammenhang kommt? „Wir haben einen signifikanten indirekten Effekt gefunden, der zeigt, dass Menschen, die mehr Zeit mit Videospielen verbringen auch weniger Zeit mit Sport verbringen und daher ein höheres Körpergewicht bzw. mehr Körpermasse haben“, schreibt die das Team aus Würzburg und Linz. Andere Faktoren, wie zum Beispiel eine ungesunde Ernährung vor der Spielekonsole oder Schlafmangel, konnten aufgrund zu weniger Studien nicht überprüft werden.
Die Forscherinnen und Forscher haben bei ihrer aktuellen Analyse lediglich nicht-aktive Videospiele berücksichtigt – also solche, die man im Sitzen spielen kann. Aktive Videospiele, zum Beispiel Wii-Sports oder Pokémon Go, bei denen Bewegung erforderlich ist, wurden bewusst nicht berücksichtigt.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Markus Appel, Lehrstuhl für Kommunikationspsychologie und Neue Medien, Universität Würzburg, T: +49 (931) 31-86176 (Sekretariat), markus.appel@uni-wuerzburg.de

Originalpublikation:

Exploring the myth oft he chubby gamer: A meta-analysis on sedentary video gaming and body mass. Caroline Marker, Timo Gnambs, Markus Appel. Social Science and Medicine, 2019

Quelle: IDW 

(nach oben)


Studie: Saunabesuche belasten den Körper wie moderates Sportprogramm

Tom Leonhardt Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Schwitzen für die Wissenschaft: Anders als bisher angenommen sinkt der Blutdruck bei einem Saunabesuch nicht – er steigt. Und das sogar in einem vergleichbaren Maß wie bei einer kurzen, moderaten Sporteinheit. Das zeigt eine neue Studie von Sportwissenschaftlern der Martin-Luther-Universität Halle-Wittenberg (MLU) in Zusammenarbeit mit dem Medical Center Berlin (MCB), die ihre Versuchsteilnehmer sowohl in die Sauna geschickt als auch auf ein Fahrradergometer gesetzt haben. Auch der Puls erhöhte sich beim Saunieren und beim Sport gleichermaßen. Die Studie wurde kürzlich im internationalen Fachjournal „Complementary Therapies in Medicine“ veröffentlicht.

Bisher galt es als allgemein anerkannt, dass ein Saunabesuch den Blutdruck senkt. „Man ging davon aus, dass sich die Körpergefäße durch die Hitze weiten und so der Blutdruck abfällt“, sagt der Sportwissenschaftler Dr. Sascha Ketelhut von der MLU. Deshalb werde Menschen mit niedrigem Blutdruck und Herz-Kreislaufstörungen von Saunabesuchen abgeraten, da es durch den Blutruckabfall zum Bewusstseinsverlust kommen kann. „Hier sollte man jedoch zwischen akuten Auswirkungen eines Saunagangs und denen in der Ruhephase nach der Sauna unterscheiden. Über die akute Wirkung von Saunabesuchen wird viel vermutet, untersucht ist dagegen noch nicht viel“, so Ketelhut weiter.

Für ihre seine Studie rekrutierten die Wissenschaftler 19 Freiwillige, um die unmittelbare Wirkung von Saunabesuchen auf das Herzkreislauf-System zu überprüfen: Die Probanden nahmen an einer 25-minütigen Saunasitzung teil, währenddessen wurden sowohl ihr Blutdruck als auch ihr Puls regelmäßig gemessen. Dabei zeigte sich, dass Blutdruck und Herzfrequenz unmittelbar während des Saunabesuchs ansteigen. Die Werte sanken erst einige Zeit nach dem Saunabesuch unter das Ruheniveau vor der Sauna. Für den zweiten Teil der Studie setzten die Forscher die Versuchsteilnehmer auf ein Fahrradergometer und ließen sie ein kurzes, einfaches Trainingsprogramm absolvieren. „Die gleichen Blutdruck- und Herzfrequenzwerte wie beim Saunabesuch erzielten die Probanden bei einer Belastung von etwa 100 Watt auf dem Fahrradergometer“, so Ketelhut. Das zeige, dass ein Saunabesuch durchaus eine gewisse körperliche Belastung darstelle. Für Menschen mit einem niedrigen Blutdruck kann Sportwissenschaftler Ketelhut Entwarnung geben: „Eigentlich kann jeder in die Sauna gehen, der moderate körperliche Belastungen beschwerdefrei toleriert. Nach dem Saunabesuch müssen Menschen mit einem niedrigen Blutdruck jedoch aufpassen, da dieser dann noch weiter als vor Beginn des Saunaaufenthalts gesenkt werden kann.“

Die Beobachtung des Forschers aus Halle deckt sich mit anderen Studien, die sich vor allem auf die langfristigen Folgen von Saunabesuchen konzentrierten und zum Beispiel positive Effekte für das Herzkreislauf-System nachweisen konnten. „Ein Saunabesuch ist eine körperliche Belastung. Längerfristig stellen sich dabei auch ähnliche positive Effekte wie beim Sport ein“, so Ketelhut. Beim Abnehmen würde das gesundheitsförderliche Schwitzen allerdings nicht helfen. „Der Effekt ist aufgrund der fehlenden Muskelaktivität sehr gering. Zwar verliert man beim Saunieren Gewicht, aber das ist nur die Flüssigkeit, die man ausschwitzt und später wieder zu sich nehmen sollte“, erklärt Ketelhut abschließend.

Originalpublikation:

Ketelhut S., Ketelhut R. G. The blood pressure and heart rate during sauna bath correspond to cardiac responses during submaximal dynamic exercise. Complementary Therapies in Medicine (2019). doi: 10.1016/j.ctim.2019.05.002

Quelle: IDW 

(nach oben)


Einfach, präzise, günstig: Neue Methode zur Erforschung des Grundwassers

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Wasser ist eine lebenswichtige Grundlage für Mensch und Umwelt. Eine der wichtigsten Quellen ist Grundwasser, das von Niederschlägen oder oberirdischen Gewässern erneuert wird. Bevölkerungswachstum sowie Landwirtschaft und Industrie beeinflussen stark die Menge und Qualität des Grundwassers. Um Grundwasserressourcen kostengünstiger, einfacher und flächendeckender als bisher untersuchen zu kann, haben Forscherinnen und Forscher des Karlsruhers Institut für Technologie (KIT) gemeinsam mit australischen Kollegen eine neue Methode entwickelt, die sie nun im Fachmagazin Reviews of Geophysics vorstellen.

Mehr als 70 Prozent des Trinkwassers stammen laut Umweltbundesamt allein in Deutschland aus Grundwasser. Weltweit nimmt die Gewinnung so rasant zu, dass die Grundwasserspiegel fallen, sich die Qualität verschlechtert und ganze Städte absinken. Dementsprechend wichtig ist es, die Untergrundeigenschaften zu erforschen um die Reserven nachhaltiger zu bewirtschaften.

„Derzeitige Testmethoden wie etwa der klassische Pumpversuch erfordern, dass Wasser aus speziell angelegten Brunnen aktiv abgepumpt und gleichzeitig der Wasserstand in nahegelegenen Brunnen beobachtet wird“ sagt Dr. Gabriel Rau vom Institut für Angewandte Geowissenschaften (AGW) des KIT. Hierfür müssten zwei bis drei Personen eine entsprechenden Pumpversuch einrichten und für einen längeren Zeitraum für Messungen betreuen. Dieses Verfahren ist äußerst kostspielig, kann je nach Untergrundeigenschaften von einigen Stunden bis zu mehreren Monaten dauern und das Ergebnis ist nur für den getesteten Standort gültig. „Unterirdische Grundwasserspeicher unterscheiden sich jedoch räumlich stark voneinander und es wäre viel zu teuer und umständlich, überall Förderbrunnen zu bauen.“

Gemeinsam mit den australischen Universitäten University of New South Wales (UNSW) in Sydney und der Deakin University in Melbourne hat das KIT nun eine neue Methode entwickelt. Diese wertet Informationen über die Gezeiteneinwirkung auf den Grundwasserspiegel aus. Ähnlich wie bei Ebbe und Flut im Ozean, verändern die Gezeiten auch den Grundwasserstand: So drückt die sich ändernde Gravitation beispielsweise poröse Gesteine im Untergrund zusammen und beeinflussen dadurch den Porendruck. Zusätzlich gibt es atmosphärische Gezeiten, die den Druck im Untergrund zyklisch verändern. „Diese Veränderung können wir mit geringem technischem, personellem und finanziellem Aufwand messen, um die Beschaffenheit des Untergrunds zu quantifizieren“, sagt Rau. Hierfür müssen die Ingenieure keine speziellen Gewinnungsbrunnen anlegen, sondern können einen automatischen Wasserdruck-Datenlogger in eine gewöhnliche Grundwassermessstelle platzieren. Der Drucksensor misst dann für mindestens einen Monat regelmäßig den Grundwasserspegel. Anhand der Messungen können die Forscher die physikalischen Eigenschaften des Untergrundes wie zum Beispiel Porösität, hydraulische Leitfähigkeit und Kompressibilität berechnen und die Erkenntnisse in eine nachhaltige Nutzung der Grundwasserressourcen umsetzen. „Da die Bohrungen der Beobachtungsstellen deutlich günstiger sind als das Anlegen von ganzen Brunnen, können wir an mehr Standorten messen und somit die Anzahl der bestimmten Untergrundeigenschaften deutlich und flächendeckend erhöhen“, so Rau.

Für ihre Methode haben die Forscher internationale Studien und Fachartikel aus verschiedenen Disziplinen untersucht und zusammengefasst: „Dabei haben wir gesehen, dass die jüngsten Fortschritte in der Grundwasserforschung das Potenzial für wesentlich kostengünstigere Langzeituntersuchungen des Grundwassers aufzeigen“, sagt Timothy McMillan vom Connected Waters Initiative Research Centre der UNSW Sydney. „Mit unserer Methode kombinieren wir Ingenieurwesen, Naturwissenschaften und Mathematik und können so durch die Auswirkungen der Gezeiten auf das Grundwasser die Untergrundeigenschaften berechnen.“ Diese Erkenntnisse können auch dazu beitragen, räumliche und zeitliche Schwankungen des Klimasystems und dessen Einfluss auf die Grundwasserreserven vorherzusagen. „Hier stehen wir in Zukunft vor gewaltigen Herausforderungen. Mit unserer Methode können wir die Ressourcen unter der Oberfläche einfacher untersuchen und damit auch nachhaltiger verwalten“, sagt Rau.

Presseinformation der University of New South Wales:
https://newsroom.unsw.edu.au/news/science-tech/low-cost-way-explore-groundwater-…

Fachartikel:
https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2018RG000630

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Weiterer Pressekontakt:
Sarah Werner, Redakteurin/Pressereferentin, Tel.: +49 721 608-21170, sarah.werner@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Originalpublikation:
https://www.kit.edu/kit/pi_2019_079_einfach-prazise-gunstig-neue-methode-zur-erf…

Anhang

Einfach, präzise, günstig: Neue Methode zur Erforschung des Grundwassers
https://idw-online.de/de/attachment72176

Quelle: IDW 

(nach oben)


Beginnende Instabilität in der Westantarktis könnte die schnellste auf dem Kontinent sein

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Entlang der antarktischen Küste gibt es vielfach Instabilitäten im Eis, die gleichsam darauf warten, ausgelöst zu werden. Wenn das geschieht, werden die Eismassen langsam und unaufhaltsam in den Ozean fließen und damit weltweit den Meeresspiegel ansteigen lassen. Dabei ist genau jene Region, in der die Instabilität durch eine Erwärmung des Ozeans wahrscheinlich bereits eingesetzt hat, auch die Region, die schneller kollabieren wird als jede andere, so Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung (PIK).

Auch wenn der vergleichsweise schnelle Eisverlust sich nur über Jahrzehnte hinweg entfaltet und Jahrhunderte andauert, ist die Geschwindigkeit des Eisverlustes in der Antarktis bereits heute ein wichtiger Faktor für den weltweiten Anstieg des Meeresspiegels. Davon werden Hunderte von Millionen Menschen an den Küsten der Welt betroffen sein, von Miami bis Shanghai.

„Wir denken oft, dass uns beim Verlust von Eis in der Antarktis das Schlimmste erst noch bevorsteht. Das stimmt auch, aber es scheint, dass dieses ‚Schlimmste‘ durchaus bereits in Gang gesetzt wurde“, sagt Anders Levermann vom PIK und dem Lamont-Doherty Earth Observatory der Columbia University in New York, Leitautor der in The Cryosphere erscheinenden Studie. „Der Pine-Island-Gletscher und der Thwaites-Gletscher im Westen des antarktischen Kontinents verlieren bereits seit drei Jahrzehnten zunehmend Eis. Computersimulationen belegen, dass wir hier eine Instabilität der auf dem Meer aufschwimmenden Eismassen sehen, die zu einem zusätzlichen globalen Meeresspiegelanstieg von mehr als 3 Metern führen kann. Unsere Berechnungen zeigen nun, dass diese Instabilität viel schneller voranschreitet als ähnliche Prozesse in anderen Teilen der Antarktis, die vergleichbar große Eismassen enthalten. Die gute Nachricht ist, dass die Eismassen im Osten des Kontinents langsamer sein könnten, zumindest wenn wir die weitere globale Erwärmung rasch begrenzen. Die schlechte Nachricht ist, dass der schlimmste Anstieg des Meeresspiegels bereits im Gange sein könnte.“

+++ „Das erste Kippelement, das wir kippen sehen.“ +++
Es ist noch unklar, ob die Instabilität der Eismassen in der Westantarktis durch menschliche Aktivitäten ausgelöst wurde. Die Oberflächentemperaturen auf den meisten Teilen des eisigen Kontinents liegen dauerhaft unter dem Gefrierpunkt, aber der Ausstoß von Treibhausgasen aus der Verbrennung fossiler Brennstoffe wird nicht nur zu einer weltweit wärmeren Atmosphäre führen, sondern auch zu wärmeren Meeresströmungen, die bis in die Antarktis vordringen und den Schmelzprozess unter Wasser starten. Wenn sich die Aufsetzlinie – also die Linie, die am Rande des Kontinents das noch auf Felsboden ruhende Eis von dem Eis trennt, das bereits auf dem Wasser aufschwimmt – zurückzieht, und wenn sie das in einem Gebiet tut, in dem der Felsboden sich zum Landesinneren hin absenkt statt ansteigt, kann dies zu einem sich selbst beschleunigenden Eisverlust führen. Deshalb gelten Teile der Antarktis als sogenannte Kippelemente des Erdsystems. „Das erste Kippelement, das wir kippen sehen, ist das schnellste – zumindest das schnellste der Antarktis“, sagt Levermann.

„Unsere Ergebnisse müssen natürlich im Licht der damit verbundenen Unsicherheiten betrachtet werden. Wir haben etwa den Effekt der Abstützung nicht berücksichtigt – bestimmte aufschwimmende Eismassen oder massive und spitze Felsen auf dem Meeresboden können den Eisfluss vom Land ins Meer verlangsamen. Auch die Daten, die wir für unsere Berechnungen aus diesem wildesten aller Kontinente verwenden, sind von Natur aus nicht perfekt“, sagt Co-Autor Johannes Feldmann vom PIK.

+++ Die Anwendung reiner Physik, der Skalierungsgesetze, auf die reale Welt +++
Die Wissenschaftler nutzten jedoch ein bekanntes Prinzip auf neuartige Weise. „Indem wir das so genannte Konzept der Ähnlichkeit auf die wesentlichen Gleichungen für einen schnellen, flachen Eisfluss angewandt haben, konnten wir bereits in einer früheren Studie so genannte Skalierungsgesetze entwickeln“, sagt Feldmann. „Diese Gesetze gewährleisten ähnliche Strömungsmuster des Eises unter Variation seiner geometrischen Abmessungen, Geschwindigkeit, Reibung, Schneefall und Viskosität. Das ist reine Physik. Wir haben diese Theorie nun auf die reale Welt, auf verschiedene antarktische Auslassgletscher angewendet, unter Berücksichtigung ihrer beobachteten individuellen Geometrie und ihrer physikalischen Eigenschaften. So können wir die Geschwindigkeit potenzieller Instabilitäten in der Antarktis vergleichen.“

„Die Ergebnisse sind faszinierend“, fügt Feldmann hinzu. „Zugleich sind sie aber auch ein klares Zeichen, dass wir mehr tun müssen bei der Anpassung an Folgen des Klimawandels und bei der konsequenten Reduzierung der Treibhausgasemissionen, um den globalen Anstieg des Meeresspiegels einzudämmen.“

Originalpublikation:

Anders Levermann, Johannes Feldmann (2019): Scaling of instability timescales of Antarctic outlet glaciers based on one-dimensional similitude analysis. The Cryosphere [DOI:10.5194/tc-2018-252]

Weitere Informationen:
https://doi.org/10.5194/tc-2018-252

Quelle: IDW 

(nach oben)


Flussfische vertragen keinen starken Schiffsverkehr

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Deutschland ist einer der wichtigsten Märkte für den Güterverkehr per Schiff. Hinzu kommt eine wachsende, aber kaum regulierte Freizeitschifffahrt. Wissenschaftler vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben erforscht, wie sich dieser Schiffs- und Bootsverkehr auf die Fischgemeinschaften in sechs großen europäischen Flüssen auswirkt. Sie analysierten dafür fast 400 Befischungen an 88 verschiedenen Stellen. Das Ergebnis: Starker Schiffsverkehr verringert die Anzahl an Fischen deutlich. Die Forscher empfehlen, diese Ergebnisse auch im Bundesprogramm „Blaues Band Deutschland“ zu berücksichtigen, zu dem heute die 3. Statuskonferenz in Berlin stattfindet.

Deutschland ist mit rund 7.500 Kilometern an Wasserstraßen einer der wichtigsten europäischen Standorte für die Binnenschifffahrt. Auf zu Wasserstraßen ausgebauten Flüssen und Seen fahren neben Transportschiffen auch Sportboote und Personenschiffe. Der Markt für die Freizeit -und Erholungsschifffahrt wächst stetig. Ein weiterer Trend geht zu stärkeren Motorisierungen und höheren Transportkapazitäten.

Blaues Band fördert Wassertourismus und gefährdet dabei Fischpopulationen:
Im Rahmen des Bundesprogramms Blaues Band Deutschland, sollen Schifffahrtsstraßen von geringer verkehrlicher Bedeutung ökologisch aufgewertet und parallel auch verstärkt touristisch entwickelt werden. Bis spätestens 2050 sollen diese Wasserstraßen einerseits europäische Umweltziele erfüllen und andererseits die regionale Wirtschaft stärken – auch durch eine Förderung des Wassertourismus auf diesen Gewässern. Die ökologischen Auswirkungen eines regen Schiffs- und Bootsverkehrs auf Fischgemeinschaften in diesen Flüssen waren bisher jedoch eher unzureichend erforscht.

Wissenschaftler des IGB haben deshalb untersucht, wie sich der Schiffsverkehr auf unterschiedliche Fischgemeinschaften in sechs großen europäischen Flüssen auswirkt. Sie analysierten insgesamt fast 400 Probebefischungen an 88 Stellen. Mit Hilfe mathematischer Modelle arbeiteten sie heraus, wie stark Fischgemeinschaften abhängig vom Schiffstyp (Frachtschiff, Passagierdampfer oder Sportboot) oder abhängig von Schiffsfrequenz, transportierter Fracht, Schiffsgröße oder Anzahl der Leerfahrten beeinflusst und gefährdet werden.

Viel zu wenige Fischarten im Rhein – auch eine Folge des Schiffsverkehrs:
Der Rhein ist der am meisten befahrene Fluss der Welt. Er trägt rund zwei Drittel der in Europa mit Schiffen transportierten Frachtmenge, nämlich 200 Millionen Tonnen Güter pro Jahr. Täglich fahren hier 264 Frachtschiffe. Zum Vergleich: Auf der Oder fahren im Durchschnitt nur 15 Frachtschiffe pro Tag, die insgesamt 500.000 Tonnen Güter pro Jahr transportieren.
„Der Unterschied im Schiffsverkehr schlägt sich auf die Artenvielfalt nieder. Unsere Analysen bestätigten für den Rhein unterdurchschnittlich wenige Fischarten, für die Oder dagegen überdurchschnittlich viele“, erläutert der Erstautor der Studie, Dr. Petr Zajicek, die Ergebnisse.

Frachtschiffe schaden vor allem durch ihren Tiefgang, Freizeitboote durch starke Sekundärwellen:
Frachtschiffe mit voller Ladung haben den größten Tiefgang und damit potenziell einen besonders negativen Einfluss auf die Artenvielfalt in einem Fluss. Je schneller sie fahren, desto stärker wirken die physikalischen Kräfte einer Vorbeifahrt: Bug- und Heckwellen führen zu „Absunk“ und Rückströmung. Beides zusammen beeinträchtigt Fische und andere Wasserlebewesen in ihren Lebensräumen. Passagierdampfer und Sportboote haben spezifische ökologische Wirkungen: Diese Bootstypen fahren im Vergleich zu Frachtschiffen besonders schnell und erzeugen dadurch starke Sekundärwellen, die sich nahezu ungebremst im Gewässer ausbreiten und die Fischgemeinschaft noch in weit entfernten Uferzonen schädigen können. Alle Schiffstypen führen dazu, dass die Anzahl der Fische mit zunehmender Schiffsfrequenz sinkt. Dieser Effekt lässt sich beispielsweise bereits ab einer durchschnittlichen Vorbeifahrt von acht Frachtschiffen pro Tag nachweisen. Besonders empfindlich reagieren Fischarten, die auf Kies-Laichplätze und flache Uferzonen angewiesen sind.

Forscher befürchten beschleunigten Rückgang der Biodiversität:
Studienleiter und IGB-Forscher Dr. Christian Wolter kommentiert die Ergebnisse der Studie im Hinblick auf das Bundesprogramm Blaues Band Deutschland: „Ohne die Revitalisierung flusstypischer Lebensräume wird die geplante touristische Entwicklung der Nebenwasserstraßen den Biodiversitätsverlust in unseren Flüssen eher beschleunigen als stoppen. Deshalb sollten nicht Wachstumserwartungen neuer Nutzungen, sondern ökologische Entwicklungspotenziale die Zielsetzungen künftiger Entwicklungsprogramme wie die des Blauen Bandes bestimmen. Eine ökologisch intakte, artenreiche und vielfältige Flusslandschaft wird mit Sicherheit neue und nachhaltige Nutzungspotenziale erschließen.“

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de

Service für Journalistinnen und Journalisten:
Medieninformationen im Überblick: www.igb-berlin.de/news
Anmeldung für den Newsletter: www.igb-berlin.de/newsletter
IGB bei Twitter: www.twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:
Dr. Christian Wolter
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: wolter@igb-berlin.de
Telefon: 030/64181633

Originalpublikation:
Petr Zajicek; Christian Wolter: The effects of recreational and commercial navigation on fish assemblages in large rivers; Science of the Total Environment. – 646(2019), S. 1304-1314. https://doi.org/10.1016

Quelle: IDW 

(nach oben)


Mechanismus zum Zusammenhang von Alter, Stress und Herzinfarkt gefunden

Anke Schlee Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Psychiatrie

Alter und Stress führen zu einem erhöhten Krankheitsrisiko sowie zu verstärkten Entzündungsprozessen. Welche molekularen Vorgänge dahinter stecken, weiß man nicht. Bekannt ist, dass Alter und Stress sich epigenetisch auswirken, sprich sie beeinflussen, ob bestimmte Gene stärker, schwächer oder überhaupt nicht abgelesen werden. Epigenetische Veränderungen sind normal, werden aber durch den Alterungsprozess sowie durch Stress beschleunigt. Je mehr Stress, desto schneller schreitet das „epigenetische Altern“ voran. Forscher des Max-Planck-Instituts für Psychiatrie haben untersucht, ob diese epigenetischen Effekte Moleküle beeinflussen, die an Entzündungsprozessen beteiligt sind.

Im renommierten Fachjournal PNAS wurden ihre Studienergebnisse jüngst veröffentlicht. Erstautor Anthony S. Zannas und seine Kolleginnen sowie Kollegen werteten Daten von mehr als 3000 Teilnehmenden im Alter zwischen 18 und 87 Jahren aus. Sie konnten zeigen, dass epigenetische Veränderungen, die durch Stress und Alter entstanden sind, mit Veränderungen im Immunsystem zusammenhängen, die entscheidend für entzündliche Prozesse bei cardiovaskulären Erkrankungen sind. Durch viel Stress erfolgt eine schnellere epigenetische Alterung in Genen, die das Immunsystem regulieren und dadurch ein höheres Risiko für einen Herzinfarkt.

Der epigenetische Effekt von Stress und Alter zeigt sich durch die Reduzierung der so genannten Methylierung des Gens FKBP5. Das an der Stress-Physiologie beteiligte Protein wird durch diesen Prozess stärker abgelesen. Das führt zu einer gesteigerten Entzündungsreaktion durch die Aktivierung des wichtigen Immunregulators NF-kB. Dadurch entsteht ein höheres Risiko für cardiovaskuläre Erkrankungen. „Die durch den Alterungsprozess und Stress hervorgerufenen epigenetischen Veränderungen im Immunsystem können ein Risikofaktor für Entzündungen sowie Herzinfarkte sein“, fasst Zannas zusammen. Anders gesagt zeigen Patienten, die einen Herzinfarkt erlitten haben, genau die epigenetischen Veränderungen, die durch vermehrten Stress und den dadurch beschleunigten Alterungsprozess entstehen.

Die MPI-Forscher haben auch den umkehrten Effekt auf Zellebene überprüft: durch die Hemmung oder Löschung von FKBP5 in Immunzellen wurde die Reaktion auf das Immunsystem unterbunden.

Neue Behandlungsansätze
Die Ergebnisse lassen den Schluss zu, dass durch Alter und Stress entstandene epigenetische Effekte Entzündungsprozesse beschleunigen. Sie könnten dadurch eine entscheidende Rolle für die Entstehung cardiovaskulärer Erkrankungen spielen. „Damit konnten wir einen Mechanismus identifizieren, der verantwortlich sein könnte für die Häufigkeit cardiovaskulärer Erkrankungen bei Personen mit Stress-bedingten psychiatrischen Erkrankungen“, sagt Elisabeth Binder, Direktorin am Max-Planck-Institut für Psychiatrie.

Die beschriebenen epigenetischen Modifikationen sowie die Immunveränderungen könnten als Biomarker dienen und helfen, ein erhöhtes Risiko für Erkrankungen wie einen Herzinfarkt vorherzusagen. Das Wissen um die Zusammenhänge von Stress, Alter und Herzerkrankungen bzw. epigenetische Veränderungen und Entzündungsprozesse kann außerdem zu neuen Behandlungsansätzen für Stress-bedingte Erkrankungen führen.

Originalpublikation:

https://doi.org/10.1073/pnas.1816847116

Quelle: IDW 

(nach oben)


PM des MCC: Elektroautos können erst ab 2040 die CO₂-Emissionen deutlich senken

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Die Vorstellung, Deutschland könnte im Wesentlichen mit Elektroautos seine Klimaschutzziele im Verkehrssektor realisieren, wird durch eine Studie des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) und der Uni Newcastle stark relativiert: Selbst in England, wo zwei wesentliche Rahmenbedingungen deutlich günstiger sind, kann die Elektrifizierung der Fahrzeugflotte die verkehrsbedingten CO₂-Emissionen für sich genommen bis 2030 kaum und bis 2040 nur um maximal 10 Prozent senken.

Erstens hat Großbritannien bereits entschieden, die Neuzulassung konventioneller Benziner und Diesel ab 2040 zu verbieten, zweitens ist der Anteil fossiler Energieträger an der Stromerzeugung auf der Insel etwas niedriger als in Deutschland. Die Studie wurde jetzt in der renommierten Fachzeitschrift Applied Energy veröffentlicht.

„Langfristig muss E-Mobilität eine tragende Rolle spielen – aber damit auch kurzfristig die Emissionen sinken, muss die Politik durch höhere Spritsteuern an der Fahrleistung ansetzen und den Umstieg auf Bus, Bahn oder Fahrrad begünstigen“, sagt Felix Creutzig, ein Autor der Studie und Leiter der Arbeitsgruppe Landnutzung, Infrastruktur und Transport am MCC. „Zugleich ist es wesentlich, dass sie den Kohleausstieg und die Energiewende vorantreibt.“ Denn beim derzeitigen Strom-Mix fahren Elektroautos eben de facto doch nicht emissionsfrei. Und bei ihrer Herstellung entstehen der Studie zufolge rund 8,8 Tonnen CO₂, etwa 60 Prozent mehr als bei der Herstellung eines Fahrzeugs mit Verbrennungsmotor. „Unserer Studie zufolge können Elektroautos erst nach dem Jahr 2040 die Klimabilanz deutlich verbessern“, so Creutzig, „sofern dann Betrieb und Herstellung weitgehend mit Grünstrom laufen.“

Der verkehrsbedingte CO₂-Austoß in Großbritannien ist, wie in Deutschland, immer noch so hoch wie 1990. Bis 2030 dürfte er der Studie zufolge insgesamt um etwa 20 Prozent sinken – aber weitgehend unabhängig vom Thema E-Mobil, sondern weil die ehrgeizigen Flottenstandards die Emissionen von Verbrennungsmotoren drosseln. 2050 könnte der Gesamtausstoß, inklusive der bei der Autoproduktion entstehenden Emissionen, in einem Best-Case-Szenario tatsächlich um 80 Prozent niedriger liegen als heute. Voraussetzung ist, dass bis dahin auch der CO₂-Aussoß der Stromerzeugung um vier Fünftel sinkt.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/creutzig-felix.html

Originalpublikation:
Hill, G., Heidrich, O., Creutzig, F., Blythe, P., 2019, The role of electric vehicles in near-term mitigation pathways and achieving the UK’s carbon budget, Applied Energy
https://www.sciencedirect.com/science/article/pii/S0306261919307834

Weitere Informationen:
http://www.mcc-berlin.net

Anhang

PM des MCC: Elektroautos können erst ab 2040 die CO₂-Emissionen deutlich senken
https://idw-online.de/de/attachment72106

Quelle: IDW 

(nach oben)


Sport im Alter – was geht noch?

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)

Obwohl es im Sport ständig neue Alters-Rekorde gibt, nimmt die physiologische Leistungsfähigkeit insgesamt mit zunehmendem Alter ab. Woran liegt das? Welche physiologischen Prozesse sind dafür hauptsächlich verantwortlich? Und welcher Sport geht im Alter am besten? Wissenschaftler werteten umfangreiche Datensätze aus den Weltmeisterschaften der Senioren aus. Die Ergebnisse präsentieren sie auf dem Kongress der Gesellschaft für Orthopädisch-Traumatologische Sportmedizin im Juni in Salzburg.

Prof. Dr. med. habil. Georg Neumann forschte am Institut für Körperkultur und Sport (FKS) Leipzig, arbeitete für das Institut für Angewandte Trainingswissenschaft (IAT) Leipzig im Bereich Leistungssport und zuletzt für die Universität Halle im Bereich Trainingswissenschaft.

Sein Fazit: „Bis Mitte, manchmal Ende 30 werden Rekorde erbracht. Danach ist man als Sportler ´alt´. Ab 40 Jahren beginnt bei jedem Menschen dann ein Muskelschwund (Sarkopenie) von durchschnittlich ein bis zwei Prozent pro Jahr. Frauen sind im Leistungssport ein Leben lang durchschnittlich 10 Prozent weniger leistungsfähig als Männer. Im Alter wird dieser Unterschied noch größer.“
In der Sportart Leichtathletik wurden Datensätze von der Altersklasse (AK) 35 bis zur AK 70 ausgewertet. Doch trotz intensiven Trainings nimmt die sportliche Leistungsfähigkeit kontinuierlich ab. Dafür gibt es verschiedene Gründe.
Erste Ursache ist der Muskelschwund. Ab 40 Jahren verschwinden zuerst vor allem die schnellen Muskelfasern. Sie werden durch Fett- und Bindegewebseinlagerungen ersetzt. Mit 80 Jahren steht dem Alterssportler dann nur noch rund 50 Prozent der aktiven Muskelmasse zu Verfügung.

Neumann: „Die, die trainieren, trainieren also ihren „Muskelrest“. Empfehlungen aus Amerika legen den Alten als Minimum 150 Minuten schnelles Gehen pro Woche, jeweils mit anschließender Dehnung (Stretching), ans Herz. Das Optimum liegt bei 150 min Belastung pro Woche im aeroben Bereich und etwas Krafttraining.“

Zu den Ursachen des Alterns gibt es verschiedene Theorien. Forscher haben erkannt, dass sogenannte Telomere- die Endpunkte an den Chromosomen- sich mit zunehmendem Alter vermindern. Neue Daten in der Telomerenforschung belegen, dass nur das Ausdauertraining die Telomerenaktivität erhöht und die Telomerenlänge positiv beeinflusst. Die Telomerenlänge soll die Lebenserwartung beeinflussen. Das Krafttraining war in diesem Punkt wirkungslos.

In den Leistungsklassen bringen Senioren sehr lange gute Ergebnisse in den Ausdauersportarten (Marathon, Halbmarathon, 10.000 m, Radsport). Auch in weiteren leichtathletischen Disziplinen (Speerwerfen, Weit- und Hochsprung) werden im Alter noch beachtliche Leistungen erbracht. Ein einhundert Jahre alter Inder zum Beispiel bewältigte den Marathon 2011 noch in 8 Stunden, 25 Minuten und 11 Sekunden. Ein 105 jähriger Franzose fuhr mit dem Rennrad auf der Bahn 22,5 km in der Stunde.
Die Sportart der Zukunft für den Alterssport allgemein wird aber wohl das Joggen, schnelle Gehen, Nordic Walking (Walken), meint der renommierte Wissenschaftler. Dazu kommen Schwimmen und Radfahren. Insgesamt verletzungsarme Dauerbelastungen.

Warum aber brauchen die Senioren überhaupt Bewegung und Sport?
Neumann: „Das Gehirn gibt für Bewegungen einen Befehl an den Muskel. Der Muskel muss sich mit Stoffwechsel, Energiezufuhr, Hormonen, Durchblutung und vielem mehr auseinander setzen. Über Botenstoffe, sogenannte Myokine, kommuniziert der Muskel dann mit anderen Organen, um die gewünschte Funktion ausführen zu können. Der Muskel ist als größtes Organ im Körper viel aktiver als bisher angenommen. Nichtstun reduziert die Myokinexpression auf ein Minimum. Beim Skifahren beispielsweise merkt jeder besonders, wenn einmal der Muskel nicht vorbereitet ist, die Verletzungsgefahr steigt. Bekannt ist, dass Astronauten nach dem Leben in Schwerelosigkeit nicht einmal mehr stehen oder Gehen können, wenn sie zurück zur Erde kommen. Auch hier sind die fehlenden Impulse, wie sie durch Bewegung bei Schwerkraft auf der Erde stattfinden und auf die Myokinaktivität wirken, ´schuld´“.

Prof. Dr. Georg Neumann, der seit kurzem im Ruhestand ist, hat lange Zeit Leistungssportler im Skilanglauf, Radsport, in der Leichtathletik und zuletzt im Triathlon betreut.

Weitere Informationen:

http://gots-kongress.org/news-presse/

Quelle: IDW 

(nach oben)


Kohleausstieg: Nur mit CO2-Preis hilft er wirklich dem Klima

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Plan für den deutschen Kohleausstieg bis 2038 bietet keine Sicherheit, dass der Ausstoß des Treibhausgases CO2 unter dem Strich wirklich sinkt. Im Gegenteil könnten der Ausstieg die Emissionen durch die komplizierten Mechanismen im Europäischen Emissionshandel sogar noch steigen lassen, wie ein Team von Forschern in einer neuen Analyse zeigt. Damit der Kohleausstieg wirklich etwas bringt für die Stabilisierung unseres Klimas, muss er kombiniert werden mit einem Mindestpreis auf CO2 oder der Löschung von Emissionszertifikaten.

„Dass ein Industrieland mit hohem Kohleverbrauch wie Deutschland den Ausstieg aus der Kohle beschließt, ist ein starkes Signal – jetzt aber brauchen wir wirksame politische Werkzeuge, damit die nun anstehende Umsetzung des Beschlusses der Kohlekommission auch tatsächlich die klimaschädlichen CO2-Emissionen senkt“, erklärt Michael Pahle vom Potsdam-Institut für Klimafolgenforschung (PIK), Leit-Autor der im Fachjournal Energiewirtschaftlichen Tagesfragen veröffentlichten Untersuchung. „Es besteht sonst ernsthaft das Risiko, dass ein Kohleausstieg allein durch Abschaltungen von Kraftwerken das Gegenteil von dem bewirkt, was er bewirken soll. Das wäre für die dringend nötige Stabilisierung unseres Klimas fatal – und es wäre schädlich für das Vertrauen der Menschen in die deutsche Politik und das Ansehen der deutschen Klimapolitik in der Welt. Deshalb sollte man jetzt gegensteuern: mit einer verlässlichen und gerechten Bepreisung von CO2.“

Die Analyse ist Teil der Arbeit des vom Bundesministerium für Bildung und Forschung geförderten Kopernikus-Projekts „ENavi“. Eingeflossen sind auch die Forschungen zu einem Mindestpreis im europäischen Emissionshandel im Rahmen des von der Stiftung Mercator geförderten Projekts „AHEAD“. Vorgestellt werden die Ergebnisse von Ko-Autor Ottmar Edenhofer auch beim Kongress des Bundesverbandes der Energie- und Wasserwirtschaft an diesem Donnerstag.

+++Europäischer Emissionshandel: Nur Verlagerung über die Grenze?+++
Zwei Effekte haben die Forscher in ihren Wirkungen analysiert. Erstens: Wenn Kohlekraftwerke in Deutschland abgeschaltet werden, sinkt das Angebot von Strom im Markt, und entsprechend steigt der Strompreis. Dadurch aber können die immer noch im Markt verbleibenden Kohlekraftwerke häufiger kostendeckend produzieren – sie erhöhen ihre Produktion, und damit steigt ihr Ausstoß an CO2. Zweitens: Durch den deutschen Kohleausstieg sinkt die Nachfrage nach Emissions-Berechtigungs-Zertifikaten im Europäischen Emissionshandel und nach den Marktgesetzen damit auch deren Preis. Stromproduzenten im Ausland kaufen mehr der dann billigeren Emissions-Berechtigungen und steigern ihren CO2-Ausstoß.

„Diese Risiken werden bislang unterschätzt“, sagt Christian Flachsland, Ko-Autor vom Mercator Research Institute on Global Commons and Climate Change (MCC). Die Forscher haben eine Reihe von Szenarien durchgerechnet. So kann etwa die Stromnachfrage stark steigen, insbesondere wenn der Wärmesektor und der Verkehrssektor – Stichwort Elektro-Autos – umfassend elektrifiziert werden. Diese Nachfragesteigerung kann die CO2-Emissionen in Deutschland trotz Kohleausstiegsplan steigen lassen.

Wichtig: Auch die neu eingeführte sogenannte Markt-Stabilitäts-Reserve im Europäischen Emissionshandel hilft nicht. „Hier werden zwar Emissions-Zertifikate vom Markt genommen“, so Flachsland. „Aber dies passiert im Wesentlichen vor 2035 – und erst dann soll der Großteil der Emissionsreduktionen durch den deutschen Kohleausstieg erfolgen. Unter dem Strich kann der Emissionshandel, so wie er heute ist, nicht garantieren, dass der Kohleausstieg wirklich zusätzliche Emissionsreduktionen bringt.“

+++Edenhofer: Eine Versicherung gegen die Unsicherheiten auf den Märkten+++
Helfen kann ein CO2-Preis. Wird er in Deutschland eingeführt, je nach Szenario mit 30 bis 60 Euro pro Tonne im Jahr 2030, werden die nationalen Klimaziele im Stromsektor erreicht. Um eine bloße Verlagerung der Kohle-Verstromung und damit des CO2-Ausstoßes im Europäischen Emissionshandel von Deutschland zu seinen Nachbarn zu verhindern, könnten Emissions-Zertifikate gelöscht werden. Dies würde Deutschland allerdings bis zum Jahr 2050 möglicherweise grob 19 Milliarden Euro kosten. Die Einführung eines Mindestpreises für versteigerte CO2-Zertifikate im gesamten Europäischen Emissionshandel analog zu einem Mindestgebotspreis auf Ebay wäre hierbei eine besonders elegante Lösung: Liegt der Marktpreis unter dem Mindestpreis der Zertifikate, werden automatisch Zertifikate zurückgehalten und können gelöscht werden.

„Bereits wenn eine Pioniergruppe aus Deutschland, Frankreich, den Niederlanden und wenigen anderen einen solchen Mindestpreis einführen würde, könnte das ein wichtiger Schritt zu einem EU-weiten Mindestpreis sein“, betont Ottmar Edenhofer, Direktor von PIK und MCC sowie Ko-Autor. Die Kosten der Löschung von Zertifikaten würden auf mehrere Schultern verteilt, unter Umständen könnte Deutschland hier sogar Einnahmen erwarten. „Der Mindestpreis ist eine Versicherung gegen die Unsicherheiten auf den Märkten – und damit letztlich auch gegen die realen Risiken des Klimawandels wie etwa immer mehr Extremwetter“, so Edenhofer. „Und er wäre eine Versicherung für die Politik, dass sie glaubwürdig bleibt. Wenn sie die Bepreisung so gestaltet, dass die Stromsteuer sinkt und insbesondere ärmere Familien Rückerstattungen bekommen, gewinnen am Ende alle.“

Originalpublikation:
Michael Pahle, Ottmar Edenhofer, Robert Pietzcker, Oliver Tietjen, Sebastian Osorio und Christian Flachsland (2019): Die unterschätzten Risiken des Kohleausstiegs. Energiewirtschaftliche Tagesfragen, 69 Jg., H.6. S.1-4

Weitere Informationen:

https://www.ew-online.de/medien/fachzeitschriften-fuer-die-energiewirtschaft/et-…

Quelle: IDW 

(nach oben)


Mikroorganismen auf Mikroplastik

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Organismen können auf Mikroplastik wachsen und sich im Gewässer anreichern. Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und dem Leibniz-Institut für Ostseeforschung (IOW) zeigen in einer Studie, dass auch potenziell giftbildende Mikroorganismen wie der Dinoflagellat Pfiesteria piscicida Plastikteilchen besiedeln und dort etwa fünfzig Mal so hohe Konzentrationen erreichen wie im umgebenden Wasser und etwa zwei bis drei Mal so hohe Dichten wie auf vergleichbaren Treibholzpartikeln.

Ein Plastikteilchen von einem Gramm Gewicht kann mehr lebende Organismen beherbergen als eintausend Liter Seewasser, in denen es schwimmt. Bisher ist kaum erforscht, in welchem Ausmaß Mikroorganismen Mikroplastik im Brackwasser besiedeln und welche Arten dabei dominieren. Ein Team aus Gewässerforscherinnen und Gewässerforschern untersuchte die natürliche Besiedlung von Mikroplastik aus Polyethylen (PE) und Polysterol (PS) mit eukaryotischen Mikroorganismen. Eukaryotische Mikroorganismen sind beispielsweise Planktonarten, die – anders als Bakterien und Viren – einen Zellkern besitzen.

Die Forschenden inkubierten wenige Millimeter große PE- und PS-Teilchen für 15 Tage an verschiedenen Stellen in der Ostsee, der Warnow und in einer Kläranlage mit der natürlichen Mikrofauna. Anschließend untersuchten sie mittels Sequenzanalysen die komplexen Lebensgemeinschaften auf dem Mikroplastik. Rund 500 verschiedene Eukaryoten-Arten tummelten sich auf den winzigen Teilchen.

Die Top-Besiedler von Mikroplastik stellen eine potenzielle Gesundheitsgefährdung für Tier und Mensch dar:
Die Top-20-Liste der Mikroplastik Mikroorganismen wurde von einer potenziell giftigen Planktonart, dem Dinoflagellaten Pfiesteria piscicida angeführt. Er erreichte etwa fünfzig Mal so hohe Dichten wie wie im umgebenden Wasser und etwa zwei bis drei Mal so hohe Dichten wie auf vergleichbaren im Wasser schwimmenden Holzpartikeln. Der Name „piscicida“ bedeutet fischtötend, denn der Erreger kann die Haut von Fischen durch die Bildung von Giftstoffen schädigen. Diese Gifte können bei Massenentwicklung die Gesundheit von Mensch und Tier stark gefährden. Die Forschenden wählten zur Dichteabschätzung der unterschiedlichen Mikroorganismen eine Methode zur Quantifizierung spezifischer ribosomaler RNA. Bei dieser Methode wird nicht die tatsächliche Zellzahl der besiedelnden Organismen erfasst. Sie gilt aber als guter Indikator dafür, in welchem Maß bestimmte Organismen eine mikrobielle Lebensgemeinschaft prägen.

„Mikroplastik kann ein bedeutender Lebensraum und ein Transportmittel für Mikroorganismen sein – auch für giftige oder schädigende. Wir konnten in unseren Untersuchungen feststellen, dass Mikroorganismen, beispielsweise potenziell giftige Dinoflagellaten wie Pfiesteria piscicida, sich auf Plastikteilchen anreichern und dort höhere Dichten als auf Treibholzteilchen oder im umgebenden Wasser erreichen,“ erläutert die Erstautorin der Studie, Maria Therese Kettner vom IGB, die Ergebnisse. Der Leiter der Studie, IGB-Forscher Hans-Peter Grossart, spricht eine weitere Problematik an: „Im Gegensatz zu natürlichen Substanzen wie Holz oder Algenkolonien, zerfallen die Mikroplastikpartikel nur extrem langsam und können so die anhaftenden Lebewesen über weite Strecken transportieren“. Schwimmendes Plastik könnte damit zur Ausbreitung von verschiedensten Organismen, darunter invasive, parasitäre oder pathogene Arten, beitragen. „Allerdings verändern sich die Gemeinschaften auf Mikroplastikpartikeln auch häufig, wenn sie ‚auf Reisen sind‘ und passen sich ihrer neuen Umgebung an“, so Meeresmikrobiologe Matthias Labrenz. „Daher benötigen diese Aspekte noch weitere Untersuchungen“, so der IOW-Forscher abschließend.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de

Service für Journalistinnen und Journalisten:
Medieninformationen im Überblick: www.igb-berlin.de/news
Anmeldung für den Newsletter: www.igb-berlin.de/newsletter
IGB bei Twitter: www.twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:

Prof. Dr. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Alte Fischerhütte 2, OT Neuglobsow, 16775 Stechlin
E-Mail: hgrossart@igb-berlin.de
Telefon: 03308269991

Originalpublikation:
Marie Therese Kettner; Sonja Oberbeckmann; Matthias Labrenz; Hans-Peter Grossart:
The eukaryotic life on microplastics in brackish ecosystems.
Frontiers in Microbiology. – 10(2019)art. 538

Quelle: IDW 

(nach oben)


Badeseen in NRW: Nur geringe Antibiotika-Belastung

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Die Temperaturen steigen, viele suchen Abkühlung in Gewässern. Doch wie sieht es mit der Wasserqualität in den Badeseen aus? Muss man sich vor antibiotika-resistenten Keimen fürchten? Wissenschaftler vom Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikum Bonn geben weitgehend Entwarnung. Sie haben Badegewässer in NRW beprobt. Die Wissenschaftler fanden in 16 Seen nur sehr geringe Mengen an Antibiotika und entsprechenden resistenten Keimen. Die Ergebnisse sind nun im Journal „Exposure and Health“ vorab online veröffentlicht. Die Druckfassung erscheint demnächst.

Antibiotika in Badegewässern sorgten vergangenen Sommer für Schlagzeilen. Die Substanzen, die im Kampf gegen zahlreiche Infektionskrankheiten eingesetzt werden, können vor allem mit dem Abwasser in die Umwelt gelangen. Wird der Mensch häufig Antibiotika ausgesetzt, können sich resistente Keime bilden, gegen die fortan diese medizinischen Waffen stumpf sind. Das Ministerium für Umwelt, Landwirtschaft, Natur- und Verbraucherschutz (MULNV) und das Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) beauftragten deshalb Wissenschaftler der „One Health“-AG unter Leitung von Dr. med. Dr. agr. Ricarda Schmithausen am Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn (UKB) mit der Untersuchung von zehn Badegewässern in Nordrhein-Westfalen. Die Hygieniker untersuchten zudem sechs weitere Gewässer.

Zwei Badegewässer scheinen dauerhafter gering belastet zu sein
Die Wissenschaftler des UKB beprobten mit dem LANUV während der Badesaison im Jahr 2018 insgesamt vier Mal die Gewässer, darunter den Baldeneysee, den Fühlinger See und den Zülpicher See. Die Hygieniker untersuchten die Wasserproben auf Bakterien, Antibiotika-Rückstände und entsprechende Resistenzgene. „Wir können Entwarnung geben: Die Wasserqualität entsprach der EU-Badegewässerrichtlinie, und die enthaltenen Mengen an Antibiotika und -resistenten Keimen war sehr gering“, bestätigt Prof. Dr. med. Dr. h.c. Martin Exner, Direktor des IHPH. In drei Badegewässern wurden niedrige Konzentrationen an Antibiotika-Rückständen gemessen. Nur bei zwei Badegewässern gab es Hinweise auf eine geringe Belastung mit Antibiotika und -Resistenzgenen (Baldeneysee und Seebad Haltern). Vier Proben zeigten vereinzelte, geringe Antibiotika-Verunreinigungen (Elfrather See, Freilinger See, Großer Weserbogen und Naturheilbad Heil). Zehn Badeseen waren völlig unbelastet.

Die Wissenschaftler gehen davon aus, dass diese geringen Belastungen mit Antibiotika und -resistenzgenen für gesunde Menschen kein Gesundheitsrisiko darstellen. „Allerdings sollten Patienten mit Beeinträchtigungen des Immunsystems generell natürliche Badegewässer meiden“, sagt Prof. Dr. Dr. Exner. Menschen mit Risikofaktoren, wie etwa chronischen Wunden, offenen Hauterkrankungen, andauernden Antibiotikabehandlungen oder etwa Urinkatheter, rät der Mediziner davon ab, in belasteten Gewässern zu baden.

Andere Untersuchungen weisen in eine ähnliche Richtung
„Die Ergebnisse der Studie sind nicht direkt auf andere Badegewässer übertragbar“, sagt der Erstautor der Publikation Dr. Manuel Döhla. Allerdings zeigten auch Gewässeruntersuchungen aus Niedersachsen, Bayern und Rheinland-Pfalz ähnlich geringe Werte zu Antibiotika und -resistenzgenen. Die Wissenschaftler des Instituts für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn wollen ihre Untersuchung der Badegewässer auf Antibiotika und entsprechende Resistenzen ausweiten. Döhla: „Wir brauchen mehr Daten, um die Risiken für die Badenden noch besser klassifizieren zu können.“
Wissenschaftliche Ansprechpartner:

Dr. med. Manuel Döhla
Institut für Hygiene und Öffentliche Gesundheit
Universitätsklinikum Bonn
Tel. 0228/28714921
E-Mail: Manuel.Doehla@ukbonn.de

Dr. med. Dr. agr. Ricarda Schmithausen
Institut für Hygiene und Öffentliche Gesundheit
Universitätsklinikum Bonn, AG One Health
Tel. 0228/28713452
E-Mail: Ricarda.Schmithausen@ukbonn.de

Wilhelm Deitermann
Leitung Pressestelle, Pressesprecher
Landesamt für Natur, Umwelt und Verbraucherschutz NRW
Tel. 0201/79951337
E-Mail: wilhelm.deitermann@lanuv.nrw.de

Originalpublikation:
Manuel Döhla, Esther Sib, Barbara Dericks, Susanne Grobe, Katja Behringer, Monika Frechen, Katharina Simon, Harald Färber, Franziska Lenz, Marijo Parcina, Dirk Skutlarek, Alexander Voigt, Carsten Felder, Martin Exner, Ricarda Maria Schmithausen: Assessment of the Prevalence of Antibiotic Resistant Bacteria and the Concentration of Antibiotics in EU Bathing Waters in Western Germany, Exposure and Health, DOI: 10.1007/s12403-019-00313-z

Quelle: IDW 

(nach oben)


Zukünftig Arbeiten – Arbeit in Zukunft

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

FAU-Forscherin koordiniert DFG-Programm, das die digitalisierte Arbeitswelt untersucht

Die digitale Transformation ist in vollem Gange – die ganze Gesellschaft spricht darüber. Gemeint ist die Digitalisierung der Arbeitswelt oder: Industrie 4.0. Neue Ansätze in der Robotik, Künstliche Intelligenz und Machine Learning sowie eine neue Dimension der Vernetzung von physischer und digitaler Welt haben das Potenzial, das Verhältnis von Mensch und Technik grundlegend zu verändern. Dies hat nicht nur Einfluss auf die Art und Weise wie wir arbeiten, sondern wird auch Auswirkungen auf die klassischen Wertschöpfungsketten und letztlich auf den Arbeitsmarkt, auf Betriebe, Unternehmenskulturen und Beschäftigung sowie auf die Gesellschaft als Ganzes haben. Wie dieser Wandel sich gegenwärtig zeigt und ausgestaltet, untersucht ein von der Deutschen Forschungsgemeinschaft (DFG) eingerichtetes Schwerpunktprogramm unter der Leitung von Prof. Dr. Sabine Pfeiffer, Inhaberin des Lehrstuhls für Soziologie mit dem Schwerpunkt Technik – Arbeit – Gesellschaft an der Friedrich-Alexander-Universität Erlangen- Nürnberg (FAU). In dem Programm werden Wissenschaftlerinnen und Wissenschaftler aus den Geschichts- und Wirtschaftswissenschaften sowie der Soziologie zusammenarbeiten, wobei Zukunftsprognosen nicht das Ziel sind. Vielmehr wollen die Forscherinnen und Forscher die gegenwärtig ablaufenden Prozesse sicht- und verstehbar machen, dem aktuellen gesellschaftlichen Diskurs – also wie der technologische Wandel in der Gesellschaft thematisiert wird – eine historische Rückbindung verleihen, indem frühere Veränderungsprozesse beleuchtet werden, und im Entstehen begriffene Arbeitswelten nachzeichnen. Das Forschungsvorhaben ist zunächst für drei Jahre bewilligt worden.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Sabine Pfeiffer
Tel.: 0911/5302-96670
sabine.pfeiffer@fau.de

Weitere Informationen:
http://www.digitalisierung-der-arbeitswelten.de
http://www.sabine-pfeiffer.de Homepage von Prof. Dr. Sabine Pfeiffer
http://www.soziologie.phil.fau.de/person/sabine-pfeiffer Homepage von Sabine Pfeiffer am Lehrstuhl für Soziologie mit dem Schwerpunkt Technik – Arbeit – Gesellschaft
http://www.youtube.com/watch?v=pFUNUTSpfb4 Video zu Prof. Dr. Sabine Pfeiffer und ihren Forschungsschwerpunkten

Quelle: IDW 

(nach oben)


Zähneknirschen ist keine Krankheit – ernste Folgen für die Gesundheit sind aber möglich

Markus Brakel Öffentlichkeitsarbeit
Deutsche Gesellschaft für Zahn-, Mund- und Kieferheilkunde e.V.

DGFDT und DGZMK stellen neue S3-Leitlinie und Patienteninformation zum Thema Bruxismus vor

Berlin. Zähneknirschen (Fachbegriff Bruxismus) entsteht durch wiederholte Aktivität der Kaumuskulatur. Davon ist jede/r Fünfte in Deutschland betroffen. „Das Zähneknirschen selbst wird nicht als Krankheit angesehen, es kann jedoch ernsthafte Folgen für die Gesundheit der Zähne, Kaumuskulatur und Kiefergelenke haben“, fasst die Präsidentin der Deutschen Gesellschaft für Funktionsdiagnostik und -therapie (DGFDT), Prof. Dr. Ingrid Peroz (Charité Berlin), die Ergebnisse der ersten deutschen Leitlinie zum Bruxismus zusammen. Die S3-Leitlinie wurde von DGFDT, DGZMK sowie 30 involvierten Fachgesellschaften und Institutionen erarbeitet und wird heute veröffentlicht (https://www.dgzmk.de/zahnaerzte/wissenschaft-forschung/leitlinien/details/docume…). Diese Zusammenfassung der aktuellen wissenschaftlichen Erkenntnisse auf abgesichertem Niveau ist ein Meilenstein und trägt zu mehr Sicherheit beim Umgang mit dem häufigen Phänomen Bruxismus bei.

Auf der wissenschaftlichen Pressekonferenz der Deutschen Gesellschaft für Zahn-, Mund- und Kieferheilkunde (DGZMK) in Berlin erläuterte Prof. Peroz gemeinsam mit Dr. Matthias Lange (Europäischen Akademie für kraniomandibuläre Dysfunktionen
/Berlin) den aktuellen wissenschaftlichen Stand. Neben Schädigungen an der Zahnhartsubstanz oder Funktionsstörungen im Kauorgan könne Bruxismus auch schützende Funktionen für die Gesundheit erzeugen. Der aktuelle Wissensstand steht Interessierten in einer anschaulichen Patienteninformation zum Zähneknirschen kostenfrei unter dem Link
www.zahnmedizinische-patienteninformationen.de/patienteninformationen
zur Verfügung. Sie klärt über die Diagnose und mögliche Folgen des Bruxismus auf und stellt verschiedene, wissenschaftlich fundierte Therapieansätze (auch zur Selbsthilfe) vor.

Zähneknirschen ist wie das Zähnepressen oder das Anspannen der Kiefer ohne Zahnkontakt eine wiederholte Aktivität der Kaumuskulatur, die man unter dem Begriff Bruxismus zusammenfasst. Diese Aktivitäten können rhythmisch verlaufen (phasischer Bruxismus) oder aber über einen gewissen Zeitraum andauern (tonischer Bruxismus). Zudem unterscheidet man, ob Bruxismus im Wachzustand auftritt (Wachbruxismus) oder während des Schlafs (Schlafbruxismus). Bruxismus kann bereits mit dem Durchbruch der ersten Zähne beginnen, tritt am häufigsten im zweiten bis dritten Lebensjahrzehnt auf und nimmt mit zunehmendem Alter eher ab. Wachbruxismus ist bei Erwachsenen häufiger als Schlafbruxismus. Männer und Frauen sind gleichermaßen betroffen.

Ursachen nicht eindeutig identifiziert
Die Ursachen für Bruxismus sind nicht eindeutig identifiziert. Während man früher noch annahm, dass fehlerhafte Zahnkontakte Auslöser seien, stehen heute zentrale Faktoren im Vordergrund, wie emotionaler Stress, Angststörungen, Schlafstörungen (z. B. Insomnie), Reflux, Nikotin-, Alkohol-, Koffein- und Drogenkonsum, Nebenwirkungen von Medikamenten oder genetische Faktoren. Wachbruxismus scheint eher psychologisch bedingt (emotionaler Stress und andere emotionale Faktoren), während Schlafbruxismus eher als zentralnervöse Störung angesehen wird. Es wird diskutiert, dass Bruxismus eine stressabbauende Funktion hat. Dies wäre eine Erklärung für eine physiologische Funktion des Bruxismus in Zusammenhang mit Stress.

Gelegentlich durchgeführte wiederholte Muskelaktivitäten sind ein völlig harmloses Verhalten. Häufig sind sich Patienten dieser Muskelaktivitäten gar nicht bewusst. Jeder kennt aber Situationen, in denen solche Muskelanspannungen vorkommen. Auch Sprachbilder weisen auf Bruxismus hin: z. B. die Zähne zusammenbeißen, sich in ein Problem verbeißen, zerknirscht sein.

Bruxismus kann auch protektive Auswirkungen auf die Gesundheit haben. So tritt er häufig in Verbindung mit schlafbezogenen Atmungsstörungen auf (z. B. Schlafapnoe), wobei die Muskelanspannungen die oberen Atemwege offenhalten. Bei Sodbrennen (Reflux) bewirkt Bruxismus eine vermehrte Speichelproduktion und damit eine Reduktion der Säurewirkung.

Entstehen von Funktionsstörungen möglich
Bruxismus ist ein Risiko für das Entstehen von Beschwerden und/oder Funktionsstörungen an den Zähnen, der Kaumuskulatur oder den Kiefergelenken (craniomandibuläre Dysfunktionen). Durch die Überbelastung der Zähne und durch den Abrieb von Zahnsubstanz werden die Zähne überempfindlich auf Heiß und Kalt, Süß oder Sauer. Die Kaumuskulatur kann auf die wiederholten Aktivitäten mit Muskelbeschwerden reagieren, wobei die Regionen der Wange und der Schläfe am häufigsten betroffen sind. Es sind die weniger starken Muskelanspannungen, die zu schmerzhaften Muskelreaktionen oder zur morgendlicher Muskelsteifigkeit führen.

Die Anspannung der Kaumuskulatur kann auch zur Überlastung der Kiefergelenke führen. Als Symptome treten Schmerzen im Bereich der Kiefergelenke auf z. B. beim Kauen harter Speisen, bei weiter Kieferöffnung oder bei Seitwärtsbewegungen des Unterkiefers. Kiefergelenkgeräusche oder blockierte Kiefergelenke sind ebenfalls häufiger mit Bruxismus verknüpft.

Diagnose durch Screening
Mit Hilfe eines kurzen Befundes (Screening) können Anzeichen für Bruxismus aufgedeckt werden. Erste Hinweise liefern Berichte von Patienten, die von ihrer Familie oder ihrem Partner auf Knirschgeräusche im Schlaf aufmerksam gemacht werden oder nachts mit zusammengebissenen Zähnen erwachen. Typische Anzeichen, wie Schäden und Abnutzungserscheinungen an den Zähnen, Schmerzen in der Kaumuskulatur und Berichten über kurzzeitige Schwierigkeiten bei der Mundöffnung oder im Tagesverlauf auftretender Überempfindlichkeit der Zähne ergänzen das Bild. Die klinische Untersuchung beginnt mit der Beurteilung der Kaumuskulatur. Es folgt eine Bestandsaufnahme der durch das Knirschen und Pressen verursachten Schäden an der Zahnhartsubstanz und die Bewertung des Zahnabnutzungsgrades.

Therapie zielt auf Schutz der Zähne
Da gegenwärtig keine Therapie zur Heilung oder zur Beseitigung von Bruxismus bekannt ist, zielt die Behandlung vor allem auf den Schutz der Zähne und der Restaurationen, die Reduktion der Bruxismusaktivität und die Linderung von Schmerzen ab. Als Interventionsmaßnahmen werden Aufklärung/Beratung, Schienen, Verhaltenstherapie und Biofeedback empfohlen. Botulinumtoxininjektionen können erwogen werden. Bruxismus gilt als eine Ursache für die übermäßige Abnutzung der Zähne. Ob und wann eine zahnärztliche Intervention eingeleitet werden muss, hängt neben dem Grad der Abnutzung und der Anzahl der betroffenen Zähne auch vom Alter der Patienten, der Abnutzungsgeschwindigkeit und der Art der auslösenden Faktoren ab.

Quelle: IDW 

(nach oben)


Neues Horizon 2020-Verbundprojekt zu Bioplastik: HAW Hamburg wirbt 8,4 Millionen Fördermittel ein

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg

Wieder gute Nachrichten für das Forschungs- und Transferzentrum Nachhaltigkeit und Klimafolgenmanagement der HAW Hamburg. Die Europäische Union fördert in ihrem Forschungsprogramm HORIZON 2020 das durch die HAW Hamburg initiierte Projekt BIOPLASTIC EUROPE mit insgesamt 8,4 Millionen Euro – Davon erhält die HAW Hamburg knapp eine Millionen Euro.

Die HAW Hamburg ist Konsortialführer des internationalen Verbundprojektes BIOPLASTIC EUROPE. Das Partnerkonsortium untersucht Probleme, die mit der Behandlung und Entsorgung von Plastikabfällen einhergehen. Dazu sollen Innovationen im Bereich der Produktion von Bioplastik angestoßen werden. Das Verbundprojekt mit einem Gesamtvolumen von 8,4 Millionen Euro umfasst 22 Partner aus Wissenschaft, Wirtschaft und Verbänden aus elf Ländern. Weitere 20 Netzwerkpartner, darunter Unternehmen wie TetraPak und Adidas sind ebenfalls involviert.

Der geplante Start des vierjährigen Forschungsprojekts ist im Herbst 2019. Projektkoordinator ist Prof. Dr. Dr. Walter Leal, ansässig an der Fakultät Life Science der HAW Hamburg und Leiter der European School of Sustainability Science and Research (ESSSR). Ebenso ist Frau Prof. Dr. habil. Gesine Witt, Professorin für Umweltchemie an der HAW Hamburg, an dem Projekt beteiligt. Koordinator Professor Dr. Walter Leal, den diese gute Nachricht überaus erfreut, erläutert: „Es reicht nicht mehr aus, den Plastikverbrauch zu reduzieren. Dies ist zwar ein wichtiger Schritt, genauso aber müssen neuartige Plastikersatzstoffe hergestellt werden, und zwar mit biobasierten Materialien. Das ist ein Plastik, das auf Basis nachwachsender Rohstoffe erzeugt wird, biologisch abbaubar ist und somit für die Fauna, Flora und die Gesundheit von Menschen weniger Gefahren darstellt.“

Prof. Dr.-Ing. Thomas Netzel, Vizepräsident für Forschung, Transfer und Internationales, freut sich ebenfalls über das europäische Forschungsprojekt HORIZON 2020 an der HAW Hamburg: „Die HAW Hamburg arbeitet seit Jahren konsequent daran, europäische Fördermittel einzuwerben. Dass wir mit dem Projekt BIOPLASTIC EUOROPE einen solchen Erfolg erzielen konnten, ist das Ergebnis sorgfältiger Vorarbeit vieler Kolleginnen und Kollegen an der HAW Hamburg.“

Der Hamburger Umweltsenator Jens Kerstan ergänzt: „Als vor wenigen Wochen ein Tauchboot einen neuen Tiefenrekord aufgestellt hat, haben die Forscher elf Kilometer tief am Meeresboden eine Plastiktüte gefunden. Das zeigt drastisch: Plastikmüll ist ein riesiges, globales Problem. Wenn unser Planet nicht daran ersticken soll, brauchen wir dringend alternative, umweltverträgliche Materialien. Ich freue mich, dass die HAW Hamburg dieses vielversprechende internationale Projekt koordiniert, das einen wichtigen Lösungsbeitrag liefern kann.“ (http://bit.ly/2WOr0b3)

Plastikabfälle stellen eine große Gefährdung für die Umwelt und damit auch für die menschliche Gesundheit dar. Knapp 70 Prozent der rund 10 Millionen Tonnen Müll, die jährlich in die Weltmeere gespült werden, bestehen aus Plastik. Mit Plastikmüll verbundene Probleme haben mittlerweile ein solches Ausmaß erreicht, dass die Vereinten Nationen Alarm geschlagen haben. Alle Länder sind aufgerufen, sich dringend an der Bekämpfung des Problems zu beteiligen. Neben der Bundesregierung, die vor kurzem konkrete Maßnahmen zur Reduzierung des Verbrauchs von Plastik angestoßen hat, trägt auch die Europäische Union dazu bei, dem Plastikmüll den Kampf anzusagen.

Wissenschaftliche Ansprechpartner:
KONTAKT

HAW Hamburg
Fakultät Life Sciences
Franziska Wolf
Geschäftsführerin „European School of Sustainability Science and Research“ (ESSSR)
T: +49 (0)40 42875 6343
franziska.wolf@haw-hamburg.de

Weitere Informationen:
http://www.haw-hamburg.de/ftz-nk.html

Quelle: IDW 

(nach oben)


Dürrerisiken neu bewerten: Beispiel Namibia und Angola

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Dürren bedrohen weltweit Millionen von Menschen. Durch den Klimawandel werden sich Hungersnöte und Wasserknappheit voraussichtlich noch verschärfen. Vor allem Menschen in Staaten südlich der Sahara sind vom Risiko häufigerer Dürren betroffen. Wissenschaftliche Instrumente, die das Ausmaß dieser Dürrerisiken erfassen, werden immer wichtiger, denn nur so können wirkungsvolle Gegenmaßnahmen ergriffen werden. Für Namibia und Angola haben ISOE-Forscher*innen nun ein Instrument entwickelt, das neben konventionellen Umweltparametern auch die sozialen Aspekte von Dürren erfasst.

Die daraus resultierenden Vorschläge für integrierte Maßnahmen zur Verringerung von Dürrerisiken fassen die Autoren Stefan Liehr und Robert Lütkemeier im aktuellen ISOE-Policy Brief zusammen.

Nur mit einer umfassenden Strategie lassen sich die Ziele einer nachhaltigen Entwicklung, wie sie in den Sustainable Development Goals (SDG) der Vereinten Nationen beschrieben sind, erreichen. Zu einer umfassenden Strategie zählt auch, geeignete Maßnahmen im Umgang mit Dürren zu entwickeln. Hierfür ist es wichtig, neben ökologischen auch die sozialen Folgen von Dürren zu kennen. Denn erst durch diese ganzheitliche Betrachtungsweise wird das tatsächliche Ausmaß von Dürrerisiken – und damit die Anfälligkeit von Mensch und Natur gegenüber Umweltereignissen – deutlich. Zur Bekämpfung von Hunger, Wasserknappheit und Flucht als Folgen von Dürren sind mittel- und langfristige Strategien notwendig. Diese vereinen ganz unterschiedliche technische wie auch institutionelle Anpassungsmaßnahmen. Und da Umweltereignisse nicht an Ländergrenzen haltmachen, wie das Beispiel des Cuvelai-Einzugsgebiets in der Grenzregion zwischen Namibia und Angola zeigt, muss diese Risikobewertung auch länderübergreifend ausgerichtet sein.

Der ISOE Policy Brief No. 6 „Integrated responses to drought risk in Namibia and Angola“ beschreibt die Anforderungen für eine solche integrierte, transnationale Risikobewertung für Dürren. Die Autoren Stefan Liehr und Robert Lütkemeier lassen darin ihre Expertise aus dem internationalen Forschungsprojekt SASSCAL (Southern African Science Service Centre for Climate Change and Adaptive Land Management) einfließen, in dem sie wasserbezogene Verwundbarkeiten und Risiken für Bevölkerung und Ökosysteme im Cuvelai-Einzugsgebiet untersucht haben. Der Großteil der ländlichen Bevölkerung lebt dort von Ackerbau und Viehwirtschaft, ist also von Dürren und ihren Folgen unmittelbar betroffen. Die unter anderem mithilfe von Haushaltsbefragungen erhobenen Daten wurden in einem modellbasierten Ansatz räumlich differenziert analysiert, um Gebiete mit besonders hoher Vulnerabilität und zugleich häufig auftretenden Dürren zu identifizieren.

Multi-Ressourcen-Mix: Potenzial für nachhaltige Wassernutzung
Die daraus abgeleiteten Vorsorge- und Anpassungsmaßnahmen konzentrieren sich vor allem auf eine nachhaltige Nutzung der verfügbaren Wasserressourcen. Es geht darum, dass zentrale Wasserversorgungsnetze mit dezentralen Wasserressourcen auf effiziente Weise zusammengeführt werden. Diesen sogenannten „Multi-Ressourcen-Mix“ erforschte und erprobte das ISOE bereits im Projekt CuveWaters. Leitungswasser ist im Norden Namibias für einen Großteil der Bevölkerung eine zentrale Säule der Versorgungssicherheit. Doch ebenfalls unabdingbar ist das während der Regenzeit verfügbare Wasser, um den häuslichen und landwirtschaftlichen Wasserbedarf zu decken. Wichtig ist daher, dieses Wasser auch in der Trockenzeit verfügbar zu machen, beispielsweise durch Regen- und Flutwassersammlung oder kontaminationsgeschützte Brunnen. Eine solche effizientere Wassernutzung könnte dann auch einen Beitrag zur landwirtschaftlichen Entwicklung leisten. Indem die kleinbäuerlichen Betriebe ausreichend Wasser für Ackerbau und Viehwirtschaft zur Verfügung haben, könnten Engpässe in der Nahrungsmittelverfügbarkeit vermindert werden.

Unerlässlich für die Wasser- und Ernährungssicherheit sind neben diesen technologischen Maßnahmen auch soziale Innovationen. Ganz entschieden gilt es hier, vor allem die Bewohner*innen im ländlichen Raum im Hinblick auf ihren gemeinschaftlichen Zusammenhalt und die Solidarität untereinander in den Dörfern zu fördern, denn die nachbarschaftliche und familiäre Unterstützung ist eine wichtige Strategie im Umgang mit Notlagen, wie Dürrezeiten sie darstellen.

Betroffenen Staaten empfehlen die Autoren des ISOE-Policy Briefs, grundsätzlich die wichtigsten Parameter für das Dürrerisiko kontinuierlich zu überwachen. Neben der Beobachtung von Naturgefahren (z.B. hydrometeorologische Messungen) sollte auch die gesellschaftliche Dimension der Vulnerabilität in ein solches Monitoring aufgenommen werden.

Über das ISOE – Institut für sozial-ökologische Forschung
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Seit 30 Jahren entwickelt das Institut wissenschaftliche Grundlagen und zukunftsfähige Konzepte für Politik, Zivilgesellschaft und Wirtschaft – regional, national und international. Zu den Forschungsthemen gehören Wasser, Energie, Klimaschutz, Mobilität, Urbane Räume, Biodiversität und sozial-ökologische Systeme.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Liehr
Forschungsschwerpunktleiter
Wasserressourcen und Landnutzung
liehr@isoe.de

Dr. Robert Lütkemeier
Wissenschaftlicher Mitarbeiter
Wasserressourcen und Landnutzung
luetkemeier@isoe.de

Originalpublikation:
Luetkemeier, Robert/Stefan Liehr (2019): Integrated responses to drought risk in Namibia and Angola. ISOE Policy Brief, No. 6. ISOE – Institute for Social-Ecological Research (ed.). Frankfurt am Main, Germany

Weitere Informationen:

https://www.isoe.de/aktuelles/news/detail-all/news/duerrerisiken-neu-bewerten-be…

Anhang

Integrated responses to drought risk in Namibia and Angola. ISOE Policy Brief, No. 6. ISOE – Institute for Social-Ecological Research (ed.). Frankfurt am Main, Germany
https://idw-online.de/de/attachment72163

Quelle: IDW 

(nach oben)


International vernetzte Hochschulen haben bessere Ergebnisse bei Forschung und Wissenstransfer

Britta Hoffmann-Kobert Bereich Dialog und Veranstaltungen
CHE Centrum für Hochschulentwicklung

International vernetzte Hochschulen schneiden bei vielen Indikatoren zu Forschung und Wissenstransfer besser ab als Hochschulen mit wenig internationalem Austausch. Sie sind erfolgreicher darin, Forschungsergebnisse in Industrie und Wirtschaft zu transferieren, in der Gründung von Spin off Firmen (80% höher) und im Patentieren ihrer Forschungsergebnisse (2,5 mal mehr Patente). Ebenso haben ihre Forschungsergebnissen einen höheren Impact (der Anteil der Publikation, die zu den weltweit am häufigsten zitierten gehören, ist um 36 % höher). Aber auch in Studium und Lehre stehen sie gut da: Ihre Studierenden sind zufriedener mit ihren Studienbedingungen und ihrer Lernerfahrung.

Dies sind exklusive Ergebnisse der neuen Ausgabe von U-Multirank, die 1.711 Hochschulen aus 96 Länder miteinander vergleicht. International vernetzte Hochschulen sind gekennzeichnet durch höhere Anteile internationale Studierender und Doktoranden, mehr internationalem akademischen Personal und einem höherer Anteil von gemeinsamen Publikation mit Autoren aus anderen Ländern. Im Bereich des Wissenstransfer, gemessen an er Zahl der Spin Offs gehören Telecom ParisTech und die Grenoble Ecole de Management zu den besten international vernetzten Hochschulen. Schaut man auf den Anteil gemeinsamer Publikationen mit Wirtschaft und Industrie, zählen z.B. Luiss Guido Carli in Rom und die Montanuniversität Leoben zu den führenden vernetzten Hochschulen. Die beiden international vernetzten Hochschulen mit den höchsten Anteilen der am häufigsten zitierten Publikationen sind mit der Rockefeller University in New York und dem Massachusetts Institute of Technology (MIT) zwei US Universitäten; die beste europäische diesbezüglich ist die ETH Zürich.

„Die internationale Vernetzung öffnet den Hochschulen ein Reservoir an Studierenden und Personal, die zu den hervorragenden Leistungen beitragen. Die Ergebnisse von U-Multirank zeigen, dass Universitäten besser sind, wenn sie international offen und vernetzt sind. Abgrenzung und Nationalismus gefährden die Qualität der Hochschulen“, sagen Professor Frans van Vught und Profesor Frank Ziegele, beide Leiter von U-Multirank.

2019 wurden die Naturwissenschaften mit Mathematik, Physik, Chemie und Biologie sowie die Ingenieurwissenschaften (Maschinenbau, Elektro- und Informationstechnik, Informatik /“Computer Engineering“, Chemieingenieurwesen, Bauingenieurwesen, Wirtschaftsingenieurwesen / Produktion) aktualisiert. Erstmals beteiligt sind die Fächer Umweltingenieurwesen und Materialingenieurwesen.

Die neuen Ergebnisse von U-Multirank geben nicht nur Einblick in die Wirkung offener Grenzen und internationalem Austausch, sondern schaffen auf einer breiten Basis Transparenz über die Leistungen der Hochschulen. Sie unterstützen Studierende bei der Wahl der für sie besten Hochschule. Für die Hochschulen bietet U-Multirank vielfältige Möglichkeiten, sich mit im Profil ähnlichen Hochschulen aus aller Welt zu vergleichen, um Anhaltspunkte für Verbesserungen ihrer Qualität zu finden.

U-Multirank bietet das umfassendste nutzerorientierte, interaktive globale Ranking, da es nicht nur die Forschungsexzellenz, sondern die ganze Vielfalt von Leistungen der Hochschulen bewertet und sichtbar macht.

Wissenschaftliche Ansprechpartner:

Gero Federkeil
Leiter internationale Rankings
Tel: 05241 9761 30
Gero.Federkeil@che.de

Weitere Informationen:
http://www.che.de/cms/?getObject=5&getNewsID=2218&getCB=398&getLang=… Pressemitteilung
https://www.umultirank.org/export/sites/default/press-media/documents/UMR-Propos… Ergebnisse für Deutschland
https://www.umultirank.org/university-rankings/top-performing-universities/2019/
https://www.umultirank.org/university-rankings/top-performing-universities/2019/… Top performing universities 2019

Quelle: IDW 

(nach oben)


Einkorn, Emmer, Dinkel: Weltgrößter Feldversuch & Fachtag an der Universität Hohenheim

Florian Klebs Hochschulkommunikation
Universität Hohenheim

– Mo, 8. Juli 2019, 11:00: Pressetermin „Weltgrößter Feldversuch Einkorn, Emmer & Dinkel“
– ab 13 Uhr: Feldtag Urgetreide für Fachpublikum u.a. mit Backartist Tom the Baker
– Beide Termine: Heidfeldhof der Uni Hohenheim, Filderhauptstraße 201, 70599 Stuttgart

Ungeahnte Mengen an Urgetreide: Je 150 Sorten Einkorn, Emmer und Dinkel wachsen derzeit auf den Versuchsfeldern der Universität Hohenheim in Stuttgart zu circa 2 Tonnen Getreide heran. Anschließend sollen sie zu 500 sortenreinen Mehlen vermahlen werden. Daraus entstehen 3.000 Brötchen für wissenschaftliche Untersuchungen. Laut Studienleiter PD Dr. Friedrich Longin von der Universität Hohenheim handelt es sich um den weltweit größten Feldversuch zu Urgetreidesorten. Der Versuch soll Auskunft geben, wie sich die unterschiedlichen Sorten im Feld behaupten, welche Risiken es beim Anbau gibt, welche Unterschiede es beim Backen gibt und für welche Produkte welche Getreidesorte ideal ist. Am 8. Juli haben Medienvertreter die Gelegenheit, eines der Versuchsfelder in Hohenheim zu besichtigen und die Experten zum Versuch zu befragen. Im Anschluss findet der Hohenheimer Feld- und Fachtag zu Einkorn, Emmer und Dinkel statt. Fachleute aus allen Bereichen des Getreideanbaus, der Verarbeitung und der Vermarktung sind herzlich eingeladen.

Feldvorführungen, Produktdemonstrationen und Erfahrungsaustausch: das und mehr bietet der Feldtag zu Einkorn, Emmer und Dinkel an der Universität Hohenheim. Zum 7. Mal treffen sich Getreide-Spezialisten in Hohenheim und besprechen die neuesten Erkenntnisse zum Thema Urgetreide.

Unter dem Motto „Biodiversität erfolgreich umsetzen“ lädt die Universität Hohenheim zusammen mit dem Landesinnungsverband für das württembergische Bäckerhandwerk e.V. zum Fachtag auf die Versuchsstation Heidfeldhof, Filderhauptstraße 201, 70599 Stuttgart, ein.

Kurze Vorträge zeigen Probleme und Lösungsansätze zur erfolgreichen Etablierung einer Wertschöpfungskette mit alten Arten, Auswirkungen des Einsatzes von Emmermehlen in Backwaren auf Qualität und Geschmack und Reaktionsmöglichkeiten.

Besonderes Highlight ist dieses Jahr der Bäckermeister und Backartist Tom the Baker. Unter dem Titel „Diversität auf dem Teller“ verrät er Tipps und Tricks für leckere Backwaren aus Einkorn, Emmer, Dinkel und Waldstaudenroggen.

Pressetermin zum weltgrößten Feldversuch Einkorn, Emmer und Dinkel

Ab 11:00 Uhr zeigt PD Dr. Friedrich Longin Medienvertretern eines der Versuchsfelder und erläutert den Versuch. Es wird Zeit für Fragen und Fotos geben.

Längere Interviews können über die Pressestelle vermittelt werden. Medienvertreter sind außerdem herzlich eingeladen, im Anschluss den Feld- und Fachtag zu besuchen. Anmeldung bitte per Antwortfax.

Das Programm des Feldtages Urgetreide 2019 an der Universität Hohenheim

13:00 – 13:15 Uhr: Start des Feldtags und Begrüßung

13:15 – 14:40 Uhr: Kurzvorträge und Diskussion

Probleme und Lösungsansätze zur erfolgreichen Etablierung einer Wertschöpfungskette mit alternativen Arten (PD Dr. F. Longin, Universität Hohenheim)

Wie wird Geschmack und Qualität des Brotes durch 25, 50, 75 und 100% Einsatz von Emmermehl beeinflusst? (F. Keßler und H. Glaser, Schapfenmühle Ulm)

Diversität auf dem Teller – Tipps und Tricks für leckere Backwaren aus Einkorn, Emmer, Dinkel und Waldstaudenroggen (Bäckermeister und Backartist Tom the Baker)

14:30 – 15:00 Uhr: Pause

15:00 – 16:00 Uhr: Feld-Demonstrationen, u.a. Besichtigung des weltgrößten Einkorn- und Emmerversuchs (PD Dr. F. Longin, Universität Hohenheim)

Ab 13:00 Uhr: Vorführung von Produkten mit Einkorn, Emmer und Dinkel & Networking

Landesinnungsverband für das württembergische Bäckerhandwerk e.V.
Schapfenmühle Ulm – neue Backwaren aus Emmer und Dinkel
Schnitzer GmbH & Co. KG – Biovollkornbackwaren aus Einkorn, Emmer und Dinkel
CSM – Urgetreidespezialitäten
AlbGold
Richemont Kompetenzzentrum Luzern
Urkornexperten – Altes neu erleben

Ort: Heidfeldhof, Filderhauptstraße 201, 70599 Stuttgart

Kontakt für Medien
PD Dr. Friedrich Longin, Universität Hohenheim, Landessaatzuchtanstalt, Arbeitsgebiet Weizen
T 0711 459 23846, E friedrich.longin@uni-hohenheim.de

Zu den Pressemitteilungen der Universität Hohenheim
www.uni-hohenheim.de/presse

Quelle: IDW 

(nach oben)


Menschliche Vorfahren haben Steinwerkzeuge mehrmals erfunden

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie

Bisher dachte man, dass unsere Vorfahren frühestens vor 2,58 bis 2,55 Millionen Jahren Steinwerkzeuge systematisch angefertigt und genutzt haben. Die Entdeckung einer neuen Fundstelle in Äthiopien beweist jedoch, dass die Ursprünge der Produktion solcher Werkzeuge älter als 2,58 Millionen Jahre sind. Eine Gruppe von Wissenschaftlern unter der Leitung von David Braun von der George Washington University und dem Max-Planck-Institut für evolutionäre Anthropologie vermutet, dass Steinwerkzeuge mehrmals auf unterschiedliche Weise erfunden wurden, bevor sie zu einem wesentlichen Bestandteil im täglichen Leben unserer Vorfahren wurden.

Die Ausgrabungsstätte Bokol Dora 1 (BD 1) befindet sich in der Region Afar im Nordosten Äthiopiens. Dort haben Forscher im Jahr 2013 das älteste der Gattung Homo zugeschriebene Fossil entdeckt. Der Kieferknochen stammt aus der Zeit vor etwa 2,78 Millionen Jahren und ist somit etwa 200.000 Jahre älter als die ältesten bis dahin bekannten Steinwerkzeuge. Seit fünf Jahren erforscht das Team einen möglichen Zusammenhang zwischen dem Ursprung unserer Gattung und der systematischen Steinwerkzeugherstellung.

Dabei gelang Christopher Campisano, Geologe an der Arizona State University, eine wichtige Entdeckung, als er vor Ort scharfkantige Steinwerkzeuge entdeckte, die an einem steilen Hang aus den Sedimenten herausragten. „Zuerst haben wir mehrere Gegenstände an der Oberfläche gefunden, wussten aber nicht, aus welchen Sedimentschichten sie stammten“, sagt Campisano. „Doch als ich über den Rand einer kleinen Klippe blickte, sah ich Gesteinsbrocken aus der Tonsteinwand ragen. Ich stieg an die Gesteinswand und fand zwei gut erhaltene Steinwerkzeuge, die aus den Hangsedimenten herauswitterten.“

Sedimentschicht mit Tierknochen und Steinabschlägen
Die Ausgrabung nahm mehrere Jahre in Anspruch, in denen die Forscher von Hand mehrere Meter Sediment abtrugen. Schließlich gelang es ihnen, eine archäologische Schicht freizulegen, die Tierknochen und Hunderte von kleinen Steinabschlägen enthielt. Bei diesen Steinabschlägen handelt es sich um die frühesten Zeugnisse, wie unsere direkten Vorfahren aus Stein Werkzeuge hergestellt und verwendet haben. Die Fundstelle enthält eine Fülle an Informationen darüber, wie und wann Menschen begannen, Steinwerkzeuge zu benutzen.

Dass die Artefakte nahe an einem Gewässer ins Erdreich gelangten, trug zu ihrer Erhaltung bei. „Unter dem Mikroskop zeigte sich, dass der Fundort nur kurze Zeit der Witterung ausgesetzt war. Die Werkzeuge wurden von frühen Menschen am Rande eines Gewässers abgelegt und dann rasch von Sediment bedeckt. Die Fundschicht blieb dann Millionen von Jahre so erhalten“, sagt Vera Aldeias, Geoarchäologin am Interdisziplinären Zentrum für Archäologie und Verhaltensevolution an der Universität der Algarve in Portugal.

Veränderung des Lebensraums
Kaye Reed, Direktorin des Ledi-Geraru-Forschungsprojekts und zusammen mit Campisano Forscherin am Institute of Human Origins der Arizona State University, untersuchte die Ökologie der Fundstelle. Dabei fand sie heraus, dass die bei den Werkzeugen gefundenen Überreste von Tieren denen ähnelten, die nur wenige Kilometer entfernt bei den frühesten Homo-Fossilien gefunden wurden. „Die ersten Menschen, die diese Steinwerkzeuge herstellten, lebten in einem völlig anderen Lebensraum als Lucy“, sagt Reed. Lucy ist der Spitzname einer älteren Homininenart namens Australopithecus afarensis, die an der Fundstelle Hadar in Äthiopien entdeckt wurde, etwa 45 Kilometer südwestlich des neuen Fundplatzes. „Der Lebensraum veränderte sich von einem Strauchland mit wenigen Bäumen und Auenwäldern zu einem offenen Grasland mit wenigen Bäumen. Sogar die fossilen Giraffen fraßen Gras!“

Zusätzlich zur Datierung von Vulkanasche, die sich mehrere Meter unterhalb des Fundortes befand, untersuchten Geologen die magnetische Signatur der Sedimente. Die Ergebnissen lassen den Schluss zu, dass die neue Fundstelle älter als alle bisher bekannten ist.

Zusammen mit Funden von zerlegten Tierknochen aus Äthiopien zeigt die jüngste Entdeckung von 3,3 Millionen Jahre alten, hammerartigen Schlagsteinen aus Kenia, die dem sogenannten „Lomekwian“ zugeordnet werden, wie tief verwurzelt die Herstellung und der Gebrauch von Werkzeugen in der Geschichte unserer Vorfahren ist. Andererseits stellen jüngste Funde von Werkzeugen, die von Schimpansen und anderen Affen hergestellt wurden, jedoch die Idee des „technologischen Affen“ in Frage, die den Werkzeuggebrauch als Alleinstellungsmerkmal in der Menschwerdung betrachtet.

Kaum Gemeinsamkeiten mit anderen Werkzeugen
Den Archäologen der neuen Fundstelle zufolge sind die dort entdeckten Steinwerkzeuge nicht nur die ältesten Artefakte des sogenannten Oldowan-Technokomplexes, sondern sie unterscheiden sich auch von den Werkzeugen der Schimpansen, anderer Affen oder noch früherer menschlicher Vorfahren. „Wir haben erwartet, Hinweise für eine Entwicklung von Lomekwian- hin zu diesen frühesten Oldowan-Werkzeugen zu finden. Doch als wir uns die Steinartefakte genauer ansahen und mit statistischen Methoden untersuchten, wurde uns klar, dass sie nur wenig mit den Steinwerkzeugen verbindet, die uns aus älteren archäologischen Fundstellen bekannt sind oder die von heute lebenden Primaten hergestellt werden“, sagt Will Archer vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig und der University of Cape Town in Südafrika.

Der Hauptunterschied ist die Fähigkeit, kleinere scharfkantige Werkzeuge systematisch von größeren Gesteinsbrocken abzutrennen. Schimpansen und andere Affenarten benutzen Werkzeuge aber im Allgemeinen für schlagende Tätigkeiten, zum Beispiel um Nahrungsmittel wie Nüsse und Schalentiere durch Hämmern aufzuschlagen. Dies scheint auch bei den 3,3 Millionen Jahre alten Werkzeugen aus dem Lomekwian der Fall zu sein.

Vor etwa 2,6 Millionen Jahren änderte sich dies, und unsere Vorfahren konnten Steine geschickter zu scharfkantigen Werkzeugen zurechtschlagen. Die nun gefundenen Steinabschläge belegen diesen Paradigmenwechsel. Es scheint, dass dieser Wechsel bei der Werkzeugproduktion etwa zur gleichen Zeit stattgefunden hat wie eine Veränderung der Zahngröße unserer Vorfahren. Dies zeigt sich am Beispiel des Homo-Kiefer an der Fundstelle: Als unsere Vorfahren begannen, Nahrungsmittel vor dem Verzehr mit Steinwerkzeugen zu bearbeiten, fingen ihre Zähne an sich zu verkleinern. Schon vor 2,6 Millionen Jahren waren Technologie und Biologie des Menschen eng miteinander verknüpft.

Neue Wege für die Herstellung von Werkzeugen
Der Mangel an eindeutigen Verbindungen zu früheren Methoden der Steinwerkzeugbearbeitung deutet darauf hin, dass der Werkzeuggebrauch in der Vergangenheit mehrfach erfunden wurde. „Da Primatenarten auf der ganzen Welt routinemäßig Steinhämmer benutzen, um sich neue Nahrungsressourcen zu erschließen, scheint es sehr wahrscheinlich, dass in ganz Afrika viele verschiedene menschliche Vorfahren jeweils neue Wege gefunden haben, um mit Hilfe von Steinartefakten Ressourcen aus ihrer Umwelt zu gewinnen“, sagt David Braun, Archäologe an der George Washington University und Erstautor der Studie. „Wenn unsere Annahme richtig ist, dann würden wir erwarten, dass wir ab einem Zeitpunkt vor etwa 2,6 Millionen Jahren, jedoch nicht vorher, eine Art Kontinuität bezüglich der Form dieser Steinartefakte vorfinden. Um diese Annahme hinreichend zu belegen, müssen wir weitere Fundstellen ausfindig machen.“

Vor etwa 2,6 Millionen Jahren scheinen Menschen also damit begonnen zu haben, langfristig in den Werkzeuggebrauch als Teil des Menschseins zu investieren. Fortlaufende Arbeiten im Projektgebiet des Fundorts liefern bereits jetzt erste Erkenntnisse über die Verhaltensmuster unserer frühesten Vorfahren hinsichtlich des Werkzeuggebrauchs. Neue Ausgrabungsorte wurden bereits identifiziert und das Team wird noch in diesem Jahr mit weiteren Grabungen beginnen.

Wissenschaftliche Ansprechpartner:

Prof. David R. Braun
George Washington University &
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
+1 908 251-4523
david_braun@gwu.edu

Dr. Will Archer
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig &
University of Cape Town
+49 174 517-4785
william_archer@eva.mpg.de

Originalpublikation:

Braun, David R., et al.
Earliest known Oldowan artifacts at >2.58 Ma from Ledi-Geraru, Ethiopia, highlight early technological diversity
Proceedings of the National Academy of Sciences, 03 June 2019

Quelle: IDW 

(nach oben)


DGP: E-Zigaretten nicht verharmlosen. Dampfen in der Schwangerschaft gefährdet das Kind

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Zum Weltnichtrauchertag 2019 am 31. Mai 2019 fordern die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) und die Deutsche Lungenstiftung (DLS), Kinder und Schwangere besser vor den schädlichen Einflüssen von Tabakrauch und E-Zigarettenaerosol zu schützen. Neben einem umfassenden Werbeverbot und dem Verbot im Auto zu rauchen oder zu dampfen fordert sie auch, werdende Eltern über die Gefahren der E-Zigarette aufzuklären. Aktuelle Erhebungen legen nämlich nahe, dass Schwangere die Risiken des Dampfens unterschätzen und fälschlicherweise davon ausgehen, dass E-Zigaretten bei der Entwöhnung von Tabakzigaretten helfen.

Laut Schätzungen des Robert Koch-Instituts raucht jede zehnte Frau in Deutschland während der Schwangerschaft Zigaretten (1). Damit stören sie die Entwicklung des Kindes im Mutterleib und erhöhen sein Risiko für diverse Erkrankungen im späteren Leben. „Da die E-Zigarette als Hilfsmittel zu sanften Ausstieg aus der Tabakabhängigkeit beworben wird, müssen wir annehmen, dass Schwangere, die das Rauchen aus eigener Kraft nicht aufgeben können, E-Zigaretten als Alternative nutzen, sagt Professor Dr. med. Robert Loddenkemper als Vertreter der DGP. Diese Vermutung wird von einer amerikanischen Langzeitstudie bestätigt, an der über 3.000 Frauen teilnahmen, die währenddessen Mütter wurden (2). Sieben Prozent von ihnen gaben an, während der Schwanger-schaft E-Zigaretten geraucht zu haben. Die Hälfte von ihnen nannte als Begründung, dass E-Zigaretten weniger schädlich für das Kind seien und zudem bei der Tabakentwöhnung helfen würden. Jede vierte Schwangere wusste nicht, dass ihre E-Zigarette den Suchtstoff Nikotin enthielt.

Lungenexperten halten diese Ergebnisse für besorgniserregend, wenngleich für Deutschland noch keine Zahlen erhoben wurden. „Die Studie zeigt, dass die Vermarktungsstrategie der Industrie auf-geht, die die schädlichen Effekte von E-Zigaretten verharmlost“, sagt Professor Dr. med. Stefan Andreas, der die Deutsche Lungenstiftung vertritt. Zwar sind die gesundheitlichen Langzeitfolgen der E-Zigarette nicht so gut untersucht wie die des Tabakkonsums. Als belegt gilt aber, dass Nikotin die embryonale Entwicklung stört: Zu den Folgen zählen Früh- oder Totgeburten, ein niedriges Geburtsgewicht und ein erhöhtes Asthmarisiko (3). Auch in nikotinfreien E-Zigaretten fanden Forscher Substanzen, die akute Entzündungen im Lungengewebe hervorrufen können (4). Um werdende Mütter und ungeborene Kinder zu schützen, fordert die DGP deshalb eine bessere Aufklärung und Angebote, um rauchende Schwangere bei der Tabakentwöhnung zu unterstützen. „Der überwiegende Anteil der unabhängigen Studien konnten nicht zeigen, dass E-Zigaretten beim Rauchstopp helfen“, ergänzt Andreas. „Vielmehr wird deutlich, dass mit dem Umstieg auf E-Zigaretten eine neue Sucht geschaffen wird.“

Zum Schutz von Schwangeren und Kindern fordern DGP und DLS auch ein Rauchverbot in geschlossenen Räumen und Autos. Schon das Rauchen einer Zigarette oder E-Zigarette führt zu einer hohen Konzentration verschiedener Schadstoffe wie Feinstäube, Nikotin, Propylenglykol und Ace-ton, die bei Kindern chronische Erkrankungen der Atemwege verursachen können (5). „Nicht zuletzt müssen Kinder auch durch ein umfangreiches Werbeverbot für Tabak und E-Zigaretten geschützt werden“, betont Loddenkemper. Untersuchungen ergaben, dass jeder zehnte Jugendliche über Anzeigen auf dem sozialen Netzwerk Facebook dazu gebracht wurde, E-Zigaretten auszuprobieren (6). Mit zahlreichen süßlichen Aromen sind sie vor allem für diese Zielgruppe besonders ansprechend. Eine Studie der Bundeszentrale für gesundheitliche Aufklärung ergab, dass 22 Prozent der Jugendlichen, die bereits mit E-Zigaretten Erfahrungen gemacht hatten, in der Folge auch Tabakzigaretten rauchten – bei ihren nie-rauchenden Altersgenossen waren es nur 10 Prozent (7).

Quellen:
(1) Kuntz B, Zeiher J, Starker A, et al. Rauchen in der Schwangerschaft – Querschnittsergebnisse aus KIGGS Welle 2 und Trends. J Health Monitor 2018; 3:47-54
(2) Kapaya M, D’Angelo DV, Tong VT, et al. Use of Electronic Vapor Products Before, During, and After Pregnancy Among Women with a Recent Live Birth – Oklahoma and Texas, 2015. MMWR Morb Mortal Wkly Rep 2019; 68:189-194
(3) Deutsches Krebsforschungszentrum. Gesundheitsrisiko Nikotin. Fakten zum Rauchen. Heidelberg: DKFZ; 2015.
(4) Brożek GM , Jankowski M& Zejda JA. Acute respiratory responses to the use of e-cigarette: an in-tervention study, Scientific Reports 2019; 9:6844
(5) Schober W, Fembacher L, Frenzen A, Fromme H. Passive exposure to pollutants from conventional cigarettes and new electronic smoking devices (IQOS, e-cigarette) in passenger cars. Int J Hygiene Environ Health 2019; 222: 486-493
(6) Camenga D, Gutierrez KM, Kong G, et al. E-cigarette advertising exposure in e-cigarette naïve ado-lescents and subsequent e-cigarette use: A longitudinal cohort study. Addict Behav 2018; 81:78-83
(7) Morgenstern M, Nies A, Goecke M, Hanewinkel R. E-Zigaretten und Einstieg in den Konsum kon-ventioneller Zigaretten – Eine Kohortenstudie bei Jugendlichen der Klasse 10. Dtsch Arztebl Int 2018; 115:243-248.

Pressekontakt
Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin e.V.
Lisa Ströhlein
Tel: 0711 8931-173
stroehlein@medizinkommunikation.org

Quelle: IDW 

(nach oben)


Lebensmittel im Blickpunkt: Milch ist nicht gleich Milch

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Empfindliche Personengruppen sollten wegen der Keimbelastung auf Roh- und Vorzugsmilch verzichten
Verbraucher können Milch mittlerweile nicht nur im Supermarkt kaufen. Milchtankstellen oder Milchausgabeautomaten auf dem Hof erfreuen sich wachsender Beliebtheit. Doch Milch ist nicht gleich Milch. Anlässlich des Weltmilchtags am 1. Juni weist das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) in Berlin auf die unterschiedlichen Angebotsformen und die damit verbundene Keimbelastung hin. Da Rohmilch nicht wie Konsummilch einer Wärmebehandlung unterzogen wird, werden krankheitsauslösende Keime nicht abgetötet und können bei empfindlichen Personengruppen schwere Erkrankungen auslösen.
Als tierisches Lebensmittel kann Milch sogenannte Zoonoseerreger enthalten, die von der Kuh selbst stammen oder über den Melkprozess eingetragen werden. Zoonoseerreger wie Salmonellen, Campylobacter oder Listerien sind Keime, die vom Tier auf den Menschen übertragen werden und bei diesem Erkrankungen auslösen können. Die Lebensmittelüberwachungsbehörden der Bundesländer kontrollieren daher Milch und Milchprodukte regelmäßig auf ihre Keimgehalte. Lebensmittelrechtlich wird bei Milch zwischen Rohmilch, Vorzugsmilch und Konsummilch unterschieden.

Rohmilch
Rohmilch wird nicht über 40 °C erhitzt oder einer ähnlich wirkenden Behandlung unterzogen, die Bakterien abtötet. Rohmilch darf nur direkt im milcherzeugenden Betrieb, in dem sie gewonnen wurde mit dem gut sichtbaren Hinweis „Rohmilch, vor dem Verzehr abkochen“ an Verbraucher abgegeben werden („Milch ab Hof“). Milchausgabeautomaten oder Milchtankstellen werden immer beliebter. Daher wurden bei den vom BVL koordinierten Programmen des Zoonosen-Monitorings und des Bundesweiten Überwachungsplans (BÜp) Proben von Rohmilch auf krankmachende Keime untersucht.
Bis zu 4 % der Proben von Rohmilch, die zur weiteren Bearbeitung bestimmt war, als auch der Rohmilch aus Milch-ab-Hof-Zapfautomaten waren mit den Krankheitserregern Campylobacter spp., Listeria monocytogenes und shigatoxin-/verotoxinbildenden Escherichia coli (STEC/VTEC) kontaminiert. Die Ergebnisse der Untersuchungen der „Milch ab Hof“ auf Hygieneindikatoren wie Escherichia coli und koagulasepositive Staphylokokken zeigten zudem, dass Rohmilch, die direkt an den Verbraucher abgegeben wird, nicht immer eine zufriedenstellende hygienische Qualität aufweist. Die Ergebnisse bestätigen, dass von Rohmilch ein Risiko für eine Infektion des Menschen mit Krankheitserregern ausgehen kann und Verbraucher Rohmilch deshalb grundsätzlich vor dem Verzehr erhitzen sollten. Dem BVL wurden im Jahr 2017 insgesamt 18 Krankheitsausbrüche gemeldet, die durch den Verzehr von nicht abgekochter Rohmilch verursacht wurden. Dabei erkrankten 221 Menschen an Campylobacter, weitere infizierten sich durch die verzehrte Rohmilch mit dem EHEC-Krankheitserreger und dem Frühsommer-Meningoenzephalitis-Erreger (FSME-Virus).

Vorzugsmilch
Abgepackt darf Rohmilch nur als Vorzugsmilch an Verbraucher verkauft werden. Sie darf nur aus bestimmten, zuvor genehmigten und regelmäßig kontrollierten Milcherzeugungsbetrieben stammen. An den Tierbestand, den Betrieb sowie die Vorzugsmilch werden besondere rechtliche Anforderungen gestellt. Als besonders leicht verderbliches Lebensmittel ist Vorzugsmilch mit einem Verbrauchsdatum und dem Hinweis „Aufbewahren bei höchstens + 8 °C“ zu kennzeichnen. In Proben von Vorzugsmilch wurden in den genannten Überwachungsprogrammen keine krankmachenden Keime nachgewiesen, so dass die hohen hygienischen Anforderungen die Kontamination der Milch offenbar weitgehend vermeiden.

Rohmilchkäse
Konsummilch wird vor der Abgabe an Verbraucher grundsätzlich wärmebehandelt (z. B. durch Pasteurisation oder Ultrahocherhitzung), so dass vorhandene Krankheitserreger sicher abgetötet werden. Eine gesundheitliche Gefahr kann aber dann von Produkten ausgehen, bei deren Herstellung die Rohmilch nicht erhitzt wird, wie Rohmilchkäse. Dies zeigen auch weitere Ergebnisse aus dem Zoonosen-Monitoring. Bis zu 1,6 % der Proben von Rohmilchkäse wurden positiv für Salmonella spp., STEC/VTEC und Listeria monocytogenes getestet. In einer Probe von Weichkäse/halbfestem Schnittkäse wurden so hohe Keimzahlen von Listeria monocytogenes nachgewiesen, dass sie eine potenzielle Gesundheitsgefahr für den Menschen darstellten.

Verzehrsempfehlungen
Salmonellen und Campylobacter sind häufig Auslöser von Magen-Darm-Erkrankungen beim Menschen. Infektionen mit Listeria monocytogenes treten im Vergleich dazu zwar insgesamt seltener auf. Sie können aber schwere Erkrankungen wie Hirnhautentzündungen auslösen und sogar zum Tode führen. Die Untersuchungsergebnisse unterstreichen daher die Empfeh-lung des Bundesinstituts für Risikobewertung, dass empfindliche Verbrauchergruppen wie Kleinkinder, ältere und immunsupprimierte Menschen sowie Schwangere auf den Konsum von nicht wärmebehandelter Rohmilch und Rohmilchkäse verzichten sollten. Diese Empfeh-lung gilt auch für den Konsum von Vorzugsmilch, da Vorzugsmilch zum direkten Verzehr be-stimmt ist und ein Vorkommen von pathogenen Keimen nicht gänzlich ausgeschlossen wer-den kann.

Rückstände und Kontaminanten
Die Behörden der Bundesländer untersuchen Milch auch auf Rückstände von Pflanzenschutzmitteln, Tierarzneimitteln und Umweltkontaminanten. Überschreitungen von geltenden Höchstgehalten sind dabei die Ausnahme. So wurden 2017 im Rahmen des Nationalen Rückstandskontrollplanes lediglich in zwei von 1.510 Proben der zulässige Höchstgehalt des entzündungshemmenden Wirkstoffs Diclofenac überschritten. Die übrigen Untersuchungen auf verbotene und nicht zugelassene Stoffe, sonstige Tierarzneimittel und Umweltkontaminanten waren unauffällig. Dies traf auch auf die Untersuchungen von Vollmilch und Rohmilch auf Glyphosat zu, die im Rahmen des Monitorings durchgeführt wurden. Keine der untersuchten Proben wies messbare Rückstände dieses Pflanzenschutzmittelwirkstoffs auf. Ebenso waren die Befunde in Bezug auf weitere organische Substanzen wie DDT/DDE, Hexachlorbenzol und Lindan unauffällig. Diese Stoffe werden zwar seit Jahren nicht mehr eingesetzt, verbleiben aber in der Umwelt und reichern sich aufgrund ihrer hohen Fettlöslichkeit insbesondere in tierischen Lebensmitteln an.

Weiterführende Informationen
Bundesweiter Überwachungsplan: www.bvl.bund.de/buep
Monitoring: www.bvl.bund.de/monitoring
Zoonosen-Monitoring: www.bvl.bund.de/zoonosenmonitoring
Berichte zu lebensmittelbedingten Krankheitsausbrüchen in Deutschland: www.bvl.bund.de/bela
Fragen und Antworten des Bundesinstituts für Risikobewertung zum Verzehr von Rohmilch: https://www.bfr.bund.de/de/fragen_und_antworten_zum_verzehr_von_rohmilch-197200….

Hintergrundinformation
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist eine eigenständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft. Das BVL ist für die Zulassung von Pflanzenschutzmitteln, Tierarzneimitteln und gentechnisch veränderten Organismen in Deutschland zuständig. Im Bereich der Lebensmittel- und Futtermittelsicherheit übernimmt es umfassende Managementaufgaben und koordiniert auf verschiedenen Ebenen die Zusammenarbeit zwischen dem Bund, den Bundesländern und der Europäischen Union. In der Rubrik „Lebensmittel im Blickpunkt“ stellt das BVL regelmäßig Informationen zu bestimmten Lebensmitteln zusammen.

Anhang
Anhang zur Pressemitteilung
https://idw-online.de/de/attachment72082

Quelle: IDW 

(nach oben)


Recht im Angebot: Wenn Gesetzgeber konkurrieren

Christa Manta Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Staaten sehen sich in immer mehr Rechtsbereichen im Wettbewerb um die Gunst mobiler Nachfrager, zeigt Johanna Stark vom Max-Planck-Institut für Steuerrecht und Öffentliche Finanzen in ihrer jüngst erschienenen Monographie „Law for Sale“. Sie erläutert, warum sich unter marktähnlichen Prozessen geformtes Recht anders entwickelt als etwa nach dem Ideal demokratischer Entscheidungsfindung oder nach der Vorgabe moralischer und politischer Werte.

Stellen Sie sich vor, Sie sind Schifffahrtsunternehmer und wollen Ihren neuen Frachter registrieren. Mit einiger Wahrscheinlichkeit werden Sie nicht unter deutscher Flagge in See stechen, sondern sich für die Flagge Panamas, Liberias oder der Marshallinseln entscheiden. Diese „Billigflaggen“ bringen gemeinsam etwa 40 Prozent der weltweit registrierten Tonnage zu Waage. Sie locken mit niedrigeren Steuern, geringeren Lohnkosten und Sozialabgaben sowie laxeren Umweltvorschriften. Sollten Sie unter liberianischer Flagge fahren, tragen Sie zu Liberias größter Einnahmequelle in US-Dollar seit den 1990er Jahren bei. Und dabei befinden Sie sich in bester Gesellschaft: Jedes vierte im Dezember 2018 registrierte Handelsschiff im Eigentum deutscher Gesellschafter fährt unter liberianischer Flagge, nur 15 Prozent der 2104 Schiffe deutscher Eigner fahren unter deutscher Flagge.

„Wegen hoher Arbeits- und Sozialstandards in Deutschland kann es für deutsche Schifffahrtsgesellschaften zurzeit günstiger sein, ihre Frachter in Flaggenstaaten wie Zypern oder Liberia zu registrieren“, teilte die Bundesregierung im Juni 2016 mit. Sie sieht sich im Rechtswettbewerb mit den Flaggenstaaten, passt die Schiffsbesetzungsordnung an, entlastet die Reeder bei der Lohnsteuer und beim Arbeitgeberanteil zur Sozialversicherung. „Auf Druck der Reeder hat der deutsche Staat Erleichterungen beschlossen“ schrieb die Tageszeitung Die Welt daraufhin und prangerte „das brutale System der Billigflaggen“ an: „Die Flaggenstaaten setzen die Standards für die Arbeit und teilweise auch für die Technik an Bord.“

Das Flaggenbeispiel veranschaulicht ein Phänomen, dem sich Staaten zunehmend in immer mehr Rechtsbereichen ausgesetzt fühlen, ob im Privatrecht, im Gesellschaftsrecht, im Arbeitsrecht, im Steuerrecht oder im Insolvenzrecht – dem Wettbewerb zwischen den Rechtssystemen. Im Zuge der Globalisierung und Digitalisierung sind die Mobilitätskosten für natürliche und juristische Personen sowie für Kapital deutlich gesunken. Individuen und Unternehmen können sich immer leichter aus einem Rechtssystem heraus- und in ein anderes hineinwählen, und so Einfluss darauf nehmen, welche Rechtsnormen für ihr Unternehmen, ihren Vertrag, ihre Ehe oder ihr Insolvenzverfahren gelten sollen.

Der Rechtwettbewerb begünstigt mobile Nachfrager
In ihrem jüngst bei Oxford University Press erschienen Buch „Law for Sale“ ergründet Johanna Stark, wissenschaftliche Referentin am Max-Planck-Institut für Steuerrecht und Öffentliche Finanzen, das Phänomen des Rechtswettbewerbs und was es bedeutet, wenn Gesetzgeber ihre ‚Rechtsprodukte‘ auf die Interessen potenzieller ‚Käufer‘ zuschneiden, manchmal sogar aktiv vermarkten. Wie wird sich das Recht entwickeln, das als Produkt begriffen wird, in der Marktinteraktion geformt wird und einem gewissen Preisbildungsmechanismus zwischen Anbietern und Nachfragern unterliegt? Johanna Stark beleuchtet diese Fragen aus verschiedenen wissenschaftlichen Perspektiven. Sie nimmt die philosophischen Grundlagen des Rechtswettbewerbs sowie dessen Auswirkungen in den Blick und kontrastiert Recht als Gegenstand von Markt und Wettbewerb mit anderen Vorstellungen von den Aufgaben des Staates und der Rolle, die das Recht bei deren Erfüllung spielt.

Stark zeigt die Nähe zwischen den positiven Effekten, die dem Rechtswettbewerb aus ökonomischer Sicht zugeschrieben werden, und den Grundannahmen eines politischen Utilitarismus auf. Die Einwände, die gegen Utilitarismus im Allgemeinen erhoben werden, lassen sich in eine Kritik am Rechtswettbewerb übersetzen, argumentiert die Juristin.

Weiter legt Stark dar, dass die Idee von Rechtsregeln als Marktprodukte nicht konfliktfrei mit unserem Verständnis politischer Werte und Strukturprinzipien wie Demokratie, Autonomie und politischer Autorität zusammenpasst. So zeigt sie etwa, dass durch Marktinteraktion und somit durch eine ‚demand rule‘ geprägte Gesetze mit der demokratischen Verpflichtung auf eine ‚majority rule‘, auf im Parlament geformte Rechtsregeln, kollidieren, und dass der Rechtswettbewerb zu einem Ungleichgewicht von Markt und Verhandlungsmacht zugunsten besonders mobiler Nachfrager führt. Dies wiederum widerspricht unserer Vorstellung, dass die Interessen aller Mitglieder eines Gemeinwesens gleichermaßen Achtung verdienen.

Widersprüchliche Interessen werden nicht mehr ausgeglichen
Schließlich zeichnet Stark nach, wie sich die in den Sozialwissenschaften seit einigen Jahrzehnten geführte Debatte um „contested commodities“ mit ihren Argumenten und Folgerungen auch auf Rechtsregeln übertragen lässt. Bei solchen „contested commodities“ handelt es sich um Güter, für deren Produktion und Verteilung wir den Marktmechanismus für nicht angemessen halten, wie etwa menschliche Organe oder akademische Titel. Stark argumentiert, dass unter Marktbedingungen geformtes Recht zwei seiner gesellschaftlichen Funktionen nicht mehr ausfüllen kann wie bisher. Zum einen verliert kommodifiziertes Recht seinen universellen Geltungsanspruch, kann seiner Funktion nicht mehr nachkommen, widersprüchliche Interessen auszugleichen sowie Vorhersehbarkeit und Erwartungssicherheit in Bezug auf das Verhalten anderer zu schaffen. Zum anderen leidet die expressive Funktion des Rechts, im Sinne einer Kommunikation kollektiver Wertentscheidungen: Je mehr die Rolle des Rechts als Standortfaktor an Bedeutung gewinnt, desto mehr wird sich auch seine inhaltliche Gestaltung an dieser Funktion orientieren.

Man sollte daher, schlussfolgert Stark, bei allen Vorzügen, die ein Wettbewerb der Gesetzgeber haben mag, etwa dass er die Qualität der Rechtsnormen erhöht und sie besser auf die Bedürfnisse der Adressaten zuschneidet, dessen „Nebenwirkungen“ nicht aus dem Blick verlieren. Diese Implikationen des Rechtswettbewerbs müssten offen diskutiert werden, anstelle „durch die Hintertür“ vermeintlich gezwungen, das Recht den Anforderungen eines Wettbewerbs anzupassen, dessen Voraussetzungen die Gesetzgeber zuvor selbst erst geschaffen haben.
Wissenschaftliche Ansprechpartner:
Dr. Johanna Stark, M.Phil.

Wissenschaftliche Referentin
Max-Planck-Institut für Steuerrecht und Öffentliche Finanzen, München
+49 89 24246-5412
johanna.stark@tax.mpg.de

Originalpublikation:
Johanna Stark
Law for Sale. A Philosophical Critique of Regulatory Competition
Oxford University Press. 2019

Quelle: IDW 

(nach oben)


Schmerzfrei dank Evolution

Jana Schlütter Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft

Afrikanische Mulle sind gegen viele Schmerzen unempfindlich. Wie ein internationales Team um den MDC-Forscher Gary Lewin in „Science“ berichtet, eröffnen sich ihnen dadurch sogar neue Lebensräume. So lebt der Highveld-Mull dank eines mutierten Gens mit Ameisen zusammen, die von anderen Mullen gemieden werden.

Vor gut zehn Jahren wurden die Nacktmulle des Max-Delbrück-Centrums für Molekulare Medizin (MDC) quasi über Nacht berühmt. Zu verdanken hatten sie das Gary Lewin (Berlin) und Thomas Park (Chicago), die gemeinsam die seltsame Sinneswelt der Nacktmulle untersuchen. Lewin, Park und ihre Teams konnten zeigen, dass die aus Afrika stammenden Nager gegen Schmerzen erstaunlich resistent sind: Wie sie 2008 im Fachblatt „PLOS Biology“ berichteten, konnten weder Säure noch Capsaicin – die Substanz, die Chilischoten scharf macht – den unterirdisch lebenden Tieren etwas anhaben. Die Experimente stießen weltweit auf großes Interesse.

Für seine neueste in „Science“ veröffentlichte Studie haben sie sich mit Kolleginnen und Kollegen aus Südafrika und Tansania zusammengetan, um die ungewöhnliche Schmerzresistenz der afrikanischen Nager weiter zu ergründen. „Die Erkenntnisse, die wir an den Tieren gewinnen, sollen unter anderem bei der Entwicklung neuer Schmerzmedikamente helfen“, erklärt der Leiter der MDC-Arbeitsgruppe „Molekulare Physiologie der somatosensorischen Wahrnehmung“.

In enger Zusammenarbeit mit einem weltweit führenden Experten für Mulle, Nigel Bennett von der Universität Pretoria in Südafrika, haben Lewin, Park und ihre Kolleginnen und Kollegen daher untersucht, wie der Nacktmull und acht weitere, mit ihm verwandte Arten auf drei Substanzen reagieren, die bei Menschen und anderen Säugetieren auf der Haut gewöhnlich für kurze Zeit einen brennenden Schmerz auslösen: verdünnte Salzsäure, Capsaicin und Allylisothiocyanat, kurz AITC. AITC verleiht dem vom Sushi-Essen bekannten Wasabi seine extreme Schärfe. Solchen und ähnlichen Substanzen sind die Mulle auch in der Natur ausgesetzt.

Nur der Highveld-Mull ist von der Wasabi-Schärfe unbeeindruckt
Wie die Wissenschaftlerinnen und Wissenschaftler um die beiden Erstautoren der Studie, Ole Eigenbrod und Karlien Debus, in „Science“ schreiben, waren insgesamt drei Mullarten unempfindlich gegen Säure. Sie sind evolutionär nicht sehr eng miteinander verwandt. Zwei Spezies zeigten keinerlei Reaktion, wenn sie eine Lösung mit Capsaicin in die Pfote injiziert bekamen. „Die anderen hoben ihre Pfote kurz an oder leckten sie ab – was uns zeigte, dass die Tiere einen kurzzeitigen Schmerzreiz empfanden“, erläutert Lewin.

Nur eine einzige Mullart erwies sich als resistent gegen AITC. Und dabei handelte es sich nicht um den Nacktmull, sondern um den ebenfalls in unterirdischen Gängen lebenden Highveld-Mull – benannt nach der gleichnamigen Region im östlichen Südafrika, in der die Tiere ausschließlich vorkommen. „Diese Beobachtung war für uns äußerst spannend“, sagt Lewin. „Denn AITC kann im Körper Aminosäuren und somit auch ganze Proteine zerstören. Deswegen vermeiden es alle anderen Tierarten, die wir kennen, mit der Substanz in Kontakt zu kommen.“ Lediglich der Highveld-Mull zeigte sich von AITC in den Experimenten völlig unbeeindruckt.

Der Grund für die Schmerzresistenz sind veränderte Ionenkanäle
Um den molekularen Gründen für die ungewöhnliche Schmerzresistenz der Mulle auf die Spur zu kommen, isolierten die Forscherinnen und Forscher von allen neun untersuchten Arten sensorisches Gewebe aus dem Rückenmark sowie Spinalganglien. Dabei handelt es sich um Ansammlungen von Nervenzellkörpern, die Schmerzsignale an das Rückenmark weiterleiten. „Mithilfe moderner Sequenziertechniken haben wir dann in den Geweben die Aktivität von rund 7000 Genen miteinander verglichen“, berichtet Lewin.

Zunächst konnte das Team feststellen, dass bei den schmerzunempfindlichen Tieren insbesondere die Aktivität von zwei Genen verändert war, die den Bauplan für die Ionenkanäle TRPA1 und NaV1.7 enthalten. Von beiden Kanälen ist bekannt, dass sie an der Schmerzwahrnehmung beteiligt sind.

„AITC und viele andere ätzende Substanzen, die in Wurzeln, einem der Hauptnahrungsmittel von Mullen, vorkommen, aktivieren TRPA1″, sagt Lewin. Deshalb sei bei vielen Arten im Laufe der Evolution das Gen für diesen Kanal offenbar herunterreguliert worden. „Gänzlich stummgeschaltet ist der Wasabi-Kanal aber nur bei den Highveld-Mullen“, sagt der Forscher. Wie er und sein Team herausfanden, liegt das an einem besonders aktiven Gen für einen weiteren Kanal, den stets offen stehenden sogenannten Leckkanal NALCN. Auf diese veränderte Genexpression stieß die Forschungsgruppe ausschließlich bei den Highveld-Mullen.

Die Schmerzresistenz der Mulle ließ sich in Experimenten ausschalten
Besonders überrascht war Lewin jedoch von den Ergebnissen eines weiteren Experiments: „Wenn wir den NALCN-Kanal mit einem Wirkstoff blockierten, wurden die Highveld-Mulle auf einmal wieder empfindlich für AITC“, berichtet der Wissenschaftler. Und nur einen Tag nach der Gabe des Kanal-Antagonisten hätten sich die Tiere von AITC erneut unbeeindruckt gezeigt. „Offenbar hatten wir unter den Tausenden von untersuchten Genen das entscheidende für die besondere Schmerzresistenz der Highveld-Mulle gefunden“, sagt Lewin – was er persönlich für einen riesengroßen Glücksfall halte.

Daniel Hart, ein Doktorand, der mit Nigel Bennett zusammenarbeitet, fand zudem heraus, dass die Highveld-Mulle in ihren Höhlen oft mit Ameisen der Art Myrmicaria natalensis, auch Natal-Droptail-Ameisen genannt, zusammenleben. „Diese Insekten sind für ihre Aggressivität und ihr sehr ätzendes Gift bekannt“, sagt Lewin. Tatsächlich reagierten alle untersuchten Mullarten auf einen Cocktail des Ameisengiftes in ihrer Pfote mit einer kurzen Schmerzreaktion – nur nicht der Highveld-Mull. Blockierten die Forscherinnen und Forscher bei ihm jedoch den NALCN-Kanal, wurde auch er empfindlich für das Gift.

Das neue Wissen dient womöglich auch der Arzneimittelforschung
„Mithilfe eines besonders aktiven Gens für einen Ionenkanal konnte sich der Highveld-Mull im Laufe der Evolution ganz offensichtlich einen Lebensraum erobern, der von anderen Mullen gemieden wird“, schlussfolgert Lewin. Für ihn sei es ein besonders schönes Beispiel dafür, wie die Umwelt die langfristige Entwicklung von Tieren beeinflusse. Nutzen lassen könne sich das jetzt erworbene Wissen womöglich aber auch zur Entwicklung sehr wirksamer Analgetika, sagt der MDC-Forscher: „Das Hochexprimieren des NALCN-Kanals ist anscheinend ein sehr effektives Mittel, um Schmerzen zu stillen.“ (bro)

Das Max-Delbrück-Centrum für Molekulare Medizin
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) wurde 1992 in Berlin gegründet. Es ist nach dem deutsch-amerikanischen Physiker Max Delbrück benannt, dem 1969 der Nobelpreis für Physiologie und Medizin verliehen wurde. Aufgabe des MDC ist die Erforschung molekularer Mechanismen, um die Ursachen von Krankheiten zu verstehen und sie besser zu diagnostizieren, verhüten und wirksam bekämpfen zu können. Dabei kooperiert das MDC mit der Charité – Universitätsmedizin Berlin und dem Berlin Institute of Health (BIH) sowie mit nationalen Partnern, z.B. dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DHZK), und zahlreichen internationalen Forschungseinrichtungen. Am MDC arbeiten mehr als 1.600 Beschäftigte und Gäste aus nahezu 60 Ländern; davon sind fast 1.300 in der Wissenschaft tätig. Es wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Berlin finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren. www.mdc-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gary Lewin
Leiter der Arbeitsgruppe „Molekulare Physiologie der somatosensorischen Wahrnehmung“
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)
+49 173 6155 51
glewin@mdc-berlin.de

Originalpublikation:
Ole Eigenbrod, Karlien Debus et al. (2019): „Rapid molecular evolution of pain insensitivity in multiple African rodents“, Science, doi/10.1126/science.aau0236.

Weitere Informationen:
https://www.mdc-berlin.de/lewin (Webseite der AG Lewin)
https://science.sciencemag.org/content/364/6443/852 (Studie in Science)
https://www.mdc-berlin.de/de/news/press/molekulare-mechanismen-entschluesseln-un… (Gary Lewin erhält Ernst-Jung-Preis)
https://www.mdc-berlin.de/de/news/news/beruehrung-schmerz-und-die-seltsame-sinne… (Gary Lewin im Porträt)

Quelle: IDW 

(nach oben)


Blitze auf dem Mond

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Auf dem Mond sind immer wieder Blitze und andere rätselhafte Lichterscheinungen zu beobachten. Mit einem neuen Teleskop will ein Professor der Uni Würzburg diesen Phänomenen auf den Grund gehen.

Es passiert mehrere Male in der Woche. Manchmal sind es nur kurze Lichtblitze, die an der Oberfläche des Mondes aufscheinen. Andere Leuchtphänomene auf dem Erdtrabanten können länger dauern. Und bisweilen sind auch Stellen zu beobachten, die sich vorübergehend verdunkeln.

Die Wissenschaft weiß nicht genau, wie diese Phänomene auf dem Mond zu Stande kommen. Sie hat aber Erklärungsversuche: Der Aufprall eines Meteors etwa dürfte für ein kurzzeitiges Aufleuchten sorgen. Solche Blitze könnten auch entstehen, wenn elektrisch geladene Teilchen des Sonnenwindes mit Partikeln aus Mondstaub reagieren.

„Auf dem Mond wurden auch seismische Aktivitäten beobachtet. Bei Bewegungen der Oberfläche könnten aus dem Mondinneren Gase austreten, die das Sonnenlicht reflektieren. Das würde die Leuchterscheinungen erklären, die teils über Stunden anhalten“, sagt Hakan Kayal, Professor für Raumfahrttechnik an der Julius-Maximilians-Universität Würzburg (JMU).

Mondteleskop in Spanien aufgestellt
Kayal ist an diesen Erscheinungen höchst interessiert. „Man kennt die sogenannten transienten lunaren Phänomene schon seit den 1950er-Jahren, aber sie wurden nicht ausreichend systematisch und langfristig beobachtet.“ Das ändert sich zurzeit, und der JMU-Professor will seinen Beitrag dazu leisten.

Als ersten Schritt hat Kayals Team ein Mondteleskop gebaut und im April 2019 in Betrieb genommen. Es steht in einem privaten Observatorium in Spanien, etwa 100 Kilometer nördlich von Sevilla in einer ländlichen Gegend. Warum Spanien? „Dort herrschen einfach bessere Wetterbedingungen für die Mondbeobachtung als in Deutschland“, so Kayal.

Das Teleskop wird vom JMU-Campus aus ferngesteuert. Es besteht aus zwei Kameras, die Nacht für Nacht den Mond im Blick behalten. Nur wenn beide Kameras gleichzeitig eine Leuchterscheinung registrieren, löst das Teleskop weitere Aktionen aus. Es speichert dann Fotos und Videosequenzen von dem Ereignis und schickt via E-Mail eine Nachricht an Kayals Team.

Feilen an der intelligenten Software
Noch ist das System nicht komplett fertig – an der Software, die Blitze und andere Leuchtphänomene automatisch und zuverlässig erkennen soll, wird weiter gefeilt. Kayal will dafür unter anderem Methoden der Künstlichen Intelligenz einsetzen: Neuronale Netzwerke sorgen dafür, dass das System nach und nach lernt, einen Mondblitz von technischen Störungen oder von Objekten wie Vögeln und Flugzeugen zu unterscheiden, die vor der Kamera vorbeifliegen. Bis dahin ist schätzungsweise noch ein Jahr Arbeit nötig.

Die Rate der Fehlalarme möglichst stark zu reduzieren, ist für Kayal nur das erste Etappenziel in diesem Projekt. Das System, das er auf spanischem Boden entwickelt, soll später einmal auf einer Satellitenmission zum Einsatz kommen. Die Kameras könnten dann im Orbit der Erde oder des Mondes arbeiten. Davon verspricht sich der Professor wesentlich bessere Ergebnisse: „Wir sind dann die Störungen los, die sich durch die Atmosphäre ergeben.“

Wie geht es weiter, sobald das Teleskop eine Leuchterscheinung dokumentiert hat? Kayals Team würde das Ergebnis dann mit der Europäischen Raumfahrtagentur ESA abgleichen, die ebenfalls den Mond beobachtet. „Wenn dort das Gleiche gesehen wurde, kann das Ereignis als bestätigt gelten.“ Bei Bedarf könne man dann gemeinsam weitere Forschungen in die Wege leiten.

Neuer Wettlauf zum Mond
Das Interesse an den lunaren Leuchterscheinungen ist derzeit groß. Das liegt auch an einem neuen „Wettlauf zum Mond“, der im Gange ist: China hat ein umfassendes Mondprogramm aufgelegt und Anfang Januar 2019 eine Sonde auf der erdabgewandten Seite des Mondes abgesetzt. Indien plant eine ähnliche Mission. Als Reaktion auf diese Initiativen hat US-Präsident Donald Trump im Mai von einer Rückkehr der USA zum Mond gesprochen und angekündigt, die NASA „zu alter Größe“ zurückführen zu wollen.

Hinter all diesen Aktivitäten stehen Prestigegründe und ein Streben nach der technologischen „Vorherrschaft“ im All. China und andere Akteure wie die Firma Space X aber ziehen auf lange Sicht den Mond auch als Lebensraum für Menschen in Betracht. Dazu kommt, dass es auf dem Mond Rohstoffe gibt – zum Beispiel seltene Metalle, die für Smartphones und andere Geräte nötig sind.

„Wer irgendwann eine Mondbasis bauen will, muss die Gegebenheiten vor Ort natürlich bestens kennen“, sagt Professor Kayal. Was, falls derartige Pläne einmal konkret werden sollten? Spätestens dann sollte klar sein, was es mit den geheimnisvollen Blitzen und Leuchterscheinungen auf sich hat.

Luft- und Raumfahrtinformatik studieren
In die Erforschung der Mondphänomene sind auch Studierende der JMU eingebunden. Sie können zum Beispiel Bachelor- oder Masterarbeiten über das Thema schreiben. An der Universität Würzburg gibt es einen zulassungsfreien Bachelor-Studiengang für Luft- und Raumfahrtinformatik. Dazu passt der Master-Studiengang „Satellite Technology“, der in englischer Sprache unterrichtet wird. Außerdem kann man im Masterstudium Informatik den Schwerpunkt Luft- und Raumfahrttechnik wählen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hakan Kayal, Informatik und Raumfahrttechnik, Universität Würzburg, T +49 931 31-86649, hakan.kayal@uni-wuerzburg.de

Weitere Informationen:
https://www.youtube.com/watch?v=7KjVPSnTNLg
Video über das Mondteleskop auf dem Youtube-Kanal der Uni Würzburg
http://www8.informatik.uni-wuerzburg.de/mitarbeiter/kayal0/
Website Prof. Hakan Kayal
https://www.uni-wuerzburg.de/studium/angebot/faecher/luri
Luft- und Raumfahrtinformatik an der Uni Würzburg studieren

Quelle: IDW 

(nach oben)


Hochschulübergreifende Arbeitsgruppe untersucht Auswirkungen veränderter Grubenwassereinleitungen

Christiane Gandner M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Koblenz – University of Applied Sciences

Die Steinkohleförderung in Deutschland ist im vergangenen Jahr zu Ende gegangen. Dennoch ist es weiterhin nötig, sich mit ihren ökologischen und wasserwirtschaftlichen Folgen auseinander zu setzen. Es zählt zu den sogenannten Ewigkeitsaufgaben der RAG AG, über das Ende des aktiven Bergbaus hinaus die Grubenwässer zu bewirtschaften, um Schäden in der Region wie Senkungen oder Versalzung desGrundwassers zu vermeiden. Dafür hat die RAG AG ein Grubenwasserkonzept entwickelt, dessen Auswirkungen nun eine interdisziplinäre, hochschulübergreifende Forschungsgruppe der Hochschule Koblenz, der Universität Koblenz-Landau sowie der Hochschule Rhein-Waal, Kleve untersucht.

Um Bergbau betreiben zu können, muss das in die Gruben eindringende Wasser gehoben und abgeleitet werden. Diese sogenannten Grubenwässer sind keine verunreinigten Abwässer, sondern stammen aus Grundwasser, das aus den umliegenden Gesteinsschichten in die Gruben einsickert. Auf dem Sickerweg nimmt das Wasser unter anderem Salze auf und ist aufgrund der Tiefe bis zu 28°C warm, so dass diese Grubenwässer sich negativ auf die Ökologie der aufnehmenden Flüsse auswirken können. Höhere Temperaturen verändern zum Beispiel Verhalten und Entwicklung von Fischen, wodurch Nahrungsnetzbeziehungen gestärkt oder geschwächt werden können. Das Wissenschaftsteam untersucht, ob das neue Grubenwasserkonzept der RAG AG die ökologischen Auswirkungen reduzieren kann. Mit Hilfe von Experimenten und Modellsimulationen analysieren sie, wie sich in Zukunft Salzgehalt und Wassertemperatur des Rheins verändern können und welche Einflüsse auf die Lebensgemeinschaft zu erwarten sind.

„Wir betrachten dabei wasserwirtschaftliche und ökologische Auswirkungen integriert, da die ökologischen Konsequenzen stark von den Änderungen der Wassermenge und den Wassereigenschaften abhängen“, erklärt Prof. Dr. Lothar Kirschbauer vom Fachbereich bauen-kunst-werkstoffe der Hochschule Koblenz. Es soll untersucht werden, ob die veränderten Grubenwassereinleitungen die ökologische Qualität und die Stabilität der Lebensgemeinschaft im Rhein beeinflussen und die Struktur und Funktion des Nahrungsnetzes verändern kann: „Hier beschäftigen wir uns hauptsächlich mit dem Problem hoher Wassertemperaturen im Sommer und der Erhöhung der Minimaltemperaturen im Winter, insbesondere unter dem Aspekt der vorhergesagten Klimaänderungen und den Einflüssen hoher Salzkonzentrationen auf Fische und Wirbellose wie Krebse, Schnecken und Insektenlarven.“

Um dieser komplexen Frage gerecht zu werden, haben sich Wissenschaftlerinnen und Wissenschaftler der Hochschule Koblenz, der Universität Koblenz-Landau sowie der Hochschule Rhein-Waal, Kleve zu einem Forschungsteam zusammengeschlossen. Das gemeinsame Projekt besteht aus einem wasserwirtschaftlichen und einem ökologischen Teil. Im wasserwirtschaftlichen Teil untersuchen sie mit Hilfe eines mathematischen Modells, welche Auswirkungen die veränderten Einleitungen auf die Wassertemperatur und die Salzkonzentration in den Gewässern haben werden. Durch eine Simulation verschiedener Szenarien werden Wassertemperaturen und Salzkonzentrationen in verschiedenen zukünftig möglichen Situationen berechnet. So wird zum Beispiel simuliert, welche Maximaltemperaturen, insbesondere im Zusammenhang mit den Klimaveränderungen, im Sommer während Niedrigwassersituationen in Hitzeperioden auftreten können, aber auch welche Veränderungen sich gegebenenfalls im Winter beim Verhalten der Fische und Wirbellosen ergeben können.

In den beiden ökologischen Teilprojekten sollen zuerst die Effekte der Temperatur und Salzkonzentration auf das Verhalten und die Entwicklung von Fischen und auf die Nahrungsnetzbeziehung von Fischen und Wirbellosen ermittelt werden. Sehr hohe Wassertemperaturen könnten zum Beispiel dafür sorgen, dass sich die invasive Schwarzmundgrundel ausbreitet, welche höhere Temperaturen besser erträgt als einheimische Arten wie zum Beispiel Flussbarsche. Anschließend entwickelt die Gruppe ein Modell, das auf Basis der Ergebnisse des wasserwirtschaftlichen Teilprojekts und der Experimente die mittelfristige Entwicklung der Lebensgemeinschaft vorhersagt. „Auch methodisch ist dieses Projekt sehr vielfältig und herausfordernd“, so Kirschbauer, „es beinhaltet sowohl Verhaltensexperimente mit Fischen und Wirbellosen, als auch Beprobungen der Lebensgemeinschaft in der Nähe aktueller Einleitungsstellen und die Anpassung beziehungsweise Neuentwicklung hydrologischer und ökologischer Modelle.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lothar Kirschbauer
kirschbauer@hs-koblenz.de

Quelle: IDW 

(nach oben)


Elektrische Zahnbürsten beugen Zahnverlust vor

Constanze Steinke Pressearbeit
Universität Greifswald

Studie von Greifswalder Wissenschaftlern in internationaler Fachzeitschrift veröffentlicht

Die Verwendung einer elektrischen Zahnbürste beugt dem Zahnverlust vor. Dies geht aus einer Studie Greifswalder Zahnmediziner hervor, die im Journal of Clinical Periodontology veröffentlicht worden ist. Der Zahnverlust bei Nutzern elektrischer Zahnbürsten war im Schnitt ein Fünftel geringer als bei denjenigen, die konventionelle Bürsten verwenden.

Die elfjährige Beobachtungsstudie untersuchte den Zusammenhang zwischen der Benutzung einer elektrischen Zahnbürste und Parodontitis, Karies und Anzahl der vorhandenen Zähne. Die Studie umfasste 2.819 Erwachsene aus der Greifswalder Gesundheitsstudie „Study of Health in Pomerania“ (SHIP), die von 2002 bis 2006 sowie nach sechs und elf Jahren erneut untersucht worden sind. Zu Studienbeginn verwendeten 18 Prozent der Studienteilnehmer und nach elf Jahren 37 Prozent eine elektrische Zahnbürste. „Elektrische Zahnbürsten sind in Deutschland in allen Altersgruppen beliebter geworden, aber nur wenige Studien haben ihre Langzeitwirksamkeit getestet“, sagt der Studienautor Dr. Vinay Pitchika von der Universitätsmedizin Greifswald. „Unsere Studie zeigt, dass elektrische Zahnbürsten für die Aufrechterhaltung einer guten Mundgesundheit am vorteilhaftesten sind und mit einem verminderten Fortschreiten von Parodontitis und mehr erhaltenen Zähnen einhergehen.“

Ein Fünftel weniger Zahnverlust
Die Studie ergab, dass das elektrische Zähneputzen mit weniger Taschen und weniger Verlust an Zahnhalteapparat verbunden war. Dies zeigte sich in einem um 22 Prozent bzw. 21 Prozent geringeren Zuwachs an der Zahntaschentiefe (Sondierungstiefe) und an klinischen Substanzverlust im Zahnfleischhalte¬apparat (Attachmentverlust) im Vergleich zu manuellen Zahnbürstenbenutzern. Insgesamt hatten Anwender von elektrischen Zahnbürsten während der Beobachtungszeit 20 Prozent weniger Zahnverlust als Anwender von manuellen Zahnbürsten. So verloren sie durchschnittlich 0,4 Zähne weniger in den elf Jahre Beobachtungszeit.

In einem gesunden Mund sitzt das Zahnfleisch fest um jeden Zahn. Bei der Parodontitis handelt es sich um eine durch bakteriellen Zahnbelag verursachte Entzündung des Zahnfleisches, die im weiteren Verlauf zur Zerstörung des Zahnhalteapparates und zum Zahnverlust führt. Mehr als jeder zweite Erwachsene in Deutschland leidet unter der „Volkskrankheit“ Parodontitis, die nachweislich weitere gesundheitliche Auswirkungen haben kann.

„Wenn die Teilnehmer nach Schweregrad der Parodontitis eingeteilt wurden, wurden signifikante Zusammenhänge zwischen elektrischem Zähneputzen und weniger Schäden am Zahnfleisch nur bei Personen mit leichter und mäßiger Parodontitis gefunden. Bei Probanden mit schwerer Parodontitis bestand kein Zusammenhang zwischen dem elektrischen Zähneputzen und dem weiteren Zuwachs an Sondierungstiefe und Attachmentverlust“, erläuterte Zahnmediziner Pitchika. „Menschen, die bereits eine relativ gute Mundgesundheit und keine oder eine geringfügige Parodontalerkrankung haben, profitieren am meisten von der elektrischen Zahnbürste. Patienten mit schwerer Parodontitis benötigen jedoch eine medizinische Parodontalbehandlung.“

Dr. Vinay Pitchika stellte fest, dass Frauen und Männer mit guter Mundgesundheit tendenziell jünger sind, während diejenigen mit Parodontitis in der Regel älter sind. „Frühere Studien haben allerdings gezeigt, dass elektrische Zahnbürsten für die Plaquekontrolle bei älteren Menschen geeignet sind, die eine verringerte Feinmotorik haben.“

Kein Zusammenhang konnte dagegen zwischen der Verwendung von elektrischen Zahnbürsten und einer Karies festgestellt werden: „Es ist davon auszugehen, dass Fluorid in Zahnputzcremes eine wichtigere Rolle bei der Vorbeugung von Karies oder der Verringerung der Kariesprogression spielt“, so Pitchika abschließend.

Originalartikel
Pitchika V, Pink C, Völzke H, Welk A, Kocher T, Holtfreter B.
Long-term impact of powered toothbrush on oral health: 11-year cohort study.
First published: 22 May 2019
J Clin Periodontol. 2019. doi: 10.1111/jcpe.13126.
https://onlinelibrary.wiley.com/doi/full/10.1111/jcpe.13126

Universitätsmedizin Greifswald
Zentrum für Zahn-, Mund-, und Kieferheilkunde
Poliklinik für Zahnerhaltung, Parodontologie und Endodontologie
Leiter: Prof. Dr. med. dent. Thomas Kocher
Studienautor: Dr. Vinay Pitchika
Walther-Rathenau-Straße 42a, 17475 Greifswald
T + 49 3834 86-71 72
E kocher@uni-greifswald.de
E pitchikav@uni-greifswald.de

Stabsstelle Kommunikation und Marketing
Leiter: Christian Arns
T +49 3834 86-52 88
E christian.arns@med.uni-greifswald.de
http://www.medizin.uni-greifswald.de
http://www.facebook.com/UnimedizinGreifswald
Instagram/Twitter @UMGreifswald

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. dent. Thomas Kocher
Dr. Vinay Pitchika
Tel. +49 3834 86-71 72
E-Mail kocher@uni-greifswald.de
E-Mail pitchikav@uni-greifswald.de

Originalpublikation:

Pitchika V, Pink C, Völzke H, Welk A, Kocher T, Holtfreter B.
Long-term impact of powered toothbrush on oral health: 11-year cohort study.
First published: 22 May 2019
J Clin Periodontol. 2019. doi: 10.1111/jcpe.13126.
https://onlinelibrary.wiley.com/doi/full/10.1111/jcpe.13126

Quelle: IDW 

(nach oben)


RWI: Spitzenökonomen fordern Städte-Maut statt Fahrverbote

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

In einem gemeinsamen Plädoyer sprechen sich 30 Ökonominnen und Ökonomen aus ganz Deutschland für die Einführung einer Städte-Maut in Deutschland aus. Sie wäre eine ökono-misch und ökologisch sinnvolle Antwort auf die vielfältigen Probleme, die mit dem zuneh-menden Autoverkehr in deutschen Städten einhergehen. Gleichzeitig könnte sie helfen, sozial ungerechte und ökologisch wenig zielführende Fahrverbote zu vermeiden. Initiiert wurde das Plädoyer vom RWI – Leibniz-Institut für Wirtschaftsforschung und der Stiftung Mercator. Es wird u.a. unterstützt von den Mitgliedern des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung (SVR).

Die wichtigsten Ergebnisse:
• 30 Ökonominnen und Ökonomen haben sich zu einem Plädoyer für eine Städte-Maut zusammengeschlossen, darunter alle fünf Mitglieder des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Mitglieder des Wissenschaftlichen Beirats beim Bundesministerium für Wirtschaft und Energie und Wissenschaftlerinnen und Wissenschaftler von Forschungsinstituten und Universitäten aus ganz Deutschland.

• Um deutsche Innenstädte vom zunehmenden Autoverkehr zu entlasten, sollte schrittweise eine Städte-Maut eingeführt werden. Die entfernungs- und schadstoffabhängige Straßennutzungsgebühr sollte zeitlich fein gestaffelt alle negativen externen Effekte wie Stau, Lärm und Luftschadstoffe berücksichtigen.

• Zusammen mit einer adäquaten Bepreisung öffentlicher Parkplätze böte eine Städte-Maut die aus ökonomischer Sicht beste Möglichkeit, um die Überlastung von Straßen und Parkflächen zu reduzieren.

• Eine Städte-Maut wäre anderen Regulierungsinstrumenten wie etwa Fahrverboten deutlich überlegen. Sie verteuert die Fahrzeugnutzung und macht es auf diese Weise attraktiver, umweltfreundlichere Verkehrsmittel zu nutzen, etwa den öffentlichen Nahverkehr (ÖPNV) oder das Fahrrad. Gleichzeitig erlaubt sie Haushalten mit niedrigeren Einkommen einen größeren Handlungsspielraum als die nun drohen-den oder bereits erlassenen Fahrverbote für ältere Dieselfahrzeuge.

• Die Einnahmen aus der Städte-Maut sollten für eine Verbesserung des ÖPNV und der Fahrradinfrastruktur sowie zur Finanzierung von Sozialtickets genutzt werden, um wünschenswerte Alternativen zum Autoverkehr anzubieten.

• Kurzfristig sollten in Modellgebieten „regulative Experimente“ mit Mautmodellen umgesetzt werden, an deren Ausgestaltung die Bürgerinnen und Bürger umfänglich und von Anfang an beteiligt sind.

• In einer aktuellen, noch unveröffentlichten Befragung im Rahmen eines von der Stiftung Mercator geförderten Forschungsprojekts des RWI und des Wissenschaftszentrum Berlin für Sozialforschung (WZB) zum Verkehrsverhalten und zu verkehrspolitischen Einstellungen in Deutschland wird erkennbar, dass die Mehrheit der Bevölkerung einige einschneidende Maßnahmen akzeptieren würde. Dazu gehören der Ausbau von Fahrradwegen auf Kosten von Autoparkplätzen oder die Bevorrechtigung von Bus und Bahn auf staubelasteten Straßen. Es ist daher zu erwarten, dass sich die Bevölkerung auch gegenüber einer sozial abgefederten Städte-Maut offen zeigen würde. Weitere Befragungen hierzu laufen derzeit und werden im Laufe des Jahres veröffentlicht.

„Eine Städte-Maut bietet die Möglichkeit, mit einer modernen Verkehrspolitik sozial ungerechte und ökologisch wenig zielführende Fahrverbote zu umgehen“, sagt Manuel Frondel, Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI. „Um eine hohe Akzeptanz der Städte-Maut in der Bevölkerung zu erreichen, sollte die Bevölkerung von Anfang an in entsprechende Modellprojekte eingebunden werden“, sagt Lars Grotewold, Leiter des Bereichs Klimawandel bei der Stiftung Mercator.

Ihre Ansprechpartner/in dazu:
Prof. Dr. Manuel Frondel, Tel. 0201/8148-204
Sabine Weiler (Pressestelle RWI), Tel.: (0201) 81 49-213

Dieser Pressemitteilung liegt die RWI Position „Weniger Staus, Staub und Gestank per sozial ausgewogener Städte-Maut – Gemeinsames Plädoyer initiiert vom RWI und der Stiftung Mercator“ zugrunde. Sie kann unter http://www.rwi-essen.de/publikationen/rwi-positionen/ als pdf-Datei heruntergeladen werden. Über die Inhalte des Plädoyers berichtet „Spiegel online“ unter der Überschrift „Regierungsberater wollen City-Maut und Ausbau des Nahverkehrs“.

Der Wissenschaftliche Beirat beim Bundesministerium für Wirtschaft und Energie hat in ei-nem ebenfalls am Samstag veröffentlichten Brief an Bundesminister Peter Altmaier seine Unterstützung für den Vorschlag einer Städte-Maut bekundet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, Tel. 0201/8148-204

Originalpublikation:
RWI Position „Weniger Staus, Staub und Gestank per sozial ausgewogener Städte-Maut – Gemeinsames Plädoyer initiiert vom RWI und der Stiftung Mercator“ Download unter http://www.rwi-essen.de/publikationen/rwi-positionen/

Quelle: IDW 

(nach oben)


Vorkommen und Verbleib von Mikroplastik im Meer / Projekt MICRO-FATE startet mit Pazifik-Expedition

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Bisher ist sehr wenig darüber bekannt, was mit Mikroplastik im Meer geschieht. Mit dem Projekt MICRO-FATE, das jetzt unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) startet, soll sich das ändern. Das internationale Wissenschaftlerteam will herausfinden, wo sich Mikroplastik im Meer ansammelt, wie es abgebaut wird und welche Effekte es auf die Umwelt hat. Eine fünfwöchige Expedition über den Pazifik markiert den Start des Projekts. Die Reise mit dem Forschungsschiff „Sonne“ führt die Wissenschaftler*innen von Vancouver nach Singapur. Ihr wichtigstes Ziel ist es, Proben für die spätere Laboranalyse zu nehmen und zu konservieren sowie erste Versuche durchzuführen.

Millionen Tonnen Plastikabfälle gelangen jährlich über Flüsse, durch Wind und Abwässer ins Meer und verbleiben dort. „Detaillierte Daten darüber, wo sich welche Mengen Plastik ansammeln, gibt es bisher nicht“, sagt UFZ-Umweltchemikerin Dr. Annika Jahnke. Die bisherigen Schätzungen beruhen auf Computermodellen, Einzeldaten und Beobachtungen aus der Luft. „Das wollen wir konkretisieren und herausfinden, was mit dem Plastik im Ozean passiert und welche Effekte Mikroplastik auf die Umwelt hat“, erklärt Jahnke. Die Umweltchemikerin leitet am UFZ das bis zum Jahr 2021 laufende und vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt MICRO-FATE, an dem auch Wissenschaftlerinnen und Wissenschaftler des Fraunhofer-Instituts für keramische Technologien und Systeme (IKTS), des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) und der Stockholm University (SU) in Schweden beteiligt sind. Am 30. Mai startet in Vancouver (Kanada) ein Team von 19 Projektteilnehmern eine Expedition über den Pazifik. An Bord des Forschungsschiffs „Sonne“, das am 5. Juli in Singapur ankommen soll, sind vor allem Biologen, Ökotoxikologen und Umweltchemiker. Sie werden während der Überfahrt an mehreren Stationen Proben sammeln – darunter auch im North Pacific Garbage Patch, einem der größten Müllteppiche im Pazifik – aber auch an weniger belasteten Orten.

Den Wissenschaftlern geht es vor allem darum, Proben aus dem Oberflächenwasser, der Wassersäule und vom Meeresboden zu sammeln. „Die Wassersäule wurde bislang wenig untersucht“, erläutert Annika Jahnke. Die Forscher hoffen, dadurch mehr über die vertikale Verteilung der Kunststoffpartikel herauszufinden und mögliche Gradienten in Hinblick auf ihre Konzentration, Zusammensetzung, Alter und Bewuchs mit Biofilmen zu identifizieren.

Eine Analyse der Proben vom Meeresboden soll zudem Informationen über Plastikmaterial in den Sedimenten liefern und darüber, wo Mikroplastik im Meer verbleibt. Die Wissenschaftler vermuten, dass sich die Mehrheit des Materials am Meeresboden ablagert. „Durch die Messungen werden wir feststellen können, ob sich tatsächlich nur ca. ein Hundertstel des gesamten Plastiks an der Wasseroberfläche befindet“, sagt die Umweltchemikerin. Sowohl die Sedimentproben als auch das Wasser werden außerdem auf Schadstoffe untersucht, um herauszufinden, welche Stoffe Mikroplastik an die Meeresumwelt abgibt oder daraus aufnimmt.

Ein weiteres Anliegen der Forscher ist es zu analysieren, wie sich die Polymerstruktur der Plastikpartikel infolge der Verwitterung verändert. „Wir wissen bislang nur wenig über die Verwitterung von marinem Plastik“, sagt Jahnke. „Es gibt zwar Schätzungen, aber keine soliden Daten.“ Bisher wurde die Verwitterung zumeist im Labor simuliert. Daher gibt es an Bord des Forschungsschiffs Stahlbecken, die mit Meerwasser gefüllt sind. In denen wollen die Wissenschaftler untersuchen, welchen Einfluss die Sonnenstrahlung, der Salzgehalt und die Temperatur auf den Verwitterungsprozess von Plastik haben. „Hier geht es darum, unsere vorherigen Laborexperimente mit den Feldexperimenten zu ergänzen“, erläutert die Forscherin.

Die Verwitterung hat zur Folge, dass Plastikgegenstände allmählich zerfallen und sich letztlich feine Polymerpartikel bilden. Diese neigen dazu, sich mit Mikroorganismen-Gemeinschaften zu Heteroaggregaten zu verbinden. Die Forscher gehen davon aus, dass diese Biofilme eine entscheidende Rolle für den Verbleib, den Transport und die Verwitterung von marinem Plastik spielen. Daher werden sie die Biofilme analysieren sowie deren Funktion und Rolle für biogeochemische Kreisläufe der Meeresumwelt untersuchen. Studien lassen vermuten, dass sich die kunststoffbesiedelnden Biofilme von anderen marinen mikrobiellen Gemeinschaften unterscheiden, und dass Plastik daher ein neuer Lebensraum für Mikroben in marinen Systemen ist – mit bisher unbekannten Folgen.

„Uns geht es darum, die Felddaten mit bestehenden Modellen abzugleichen“, erklärt die UFZ-Wissenschaftlerin. „Nach der Auswertung können wir besser abschätzen, wieviel Plastik in den Ozeanen vorkommt und welche Auswirkungen Mikroplastik auf die marine Umwelt hat. Wir werden mehr über das Vorkommen und den Verbleib von Plastik erfahren und darüber, ob der Meeresboden so wie angenommen eine so große Senke von Plastik ist.“

Das Projekt MICRO-FATE steht für Characterizing the fate and effects of microplastic particles between hotspots and remote regions in the Pacific Ocean. An dem Projekt sind Wissenschaftlerinnen und Wissenschaftler des Fraunhofer-Instituts für keramische Technologien und Systeme (IKTS), des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) und der Stockholm University (SU) in Schweden beteiligt. Dazu kommen das Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung AWI und das Senckenberg Forschungsinstitut, die als Gastinstitutionen an der Expedition teilnehmen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt bis 2021 mit circa 820.000 Euro.

Aktuelle Informationen von der Reise auf dem Helmholtz-Expeditionsblog: https://blogs.helmholtz.de/on-tour/

Wissenschaftliche Ansprechpartner:

Dr. Annika Jahnke
Helmholtz-Zentrum für Umweltforschung (UFZ)
Department Zelltoxikologie
E-Mail: annika.jahnke@ufz.de
https://www.ufz.de/index.php?de=38512

Quelle: IDW 

(nach oben)


Eliminierung von Spurenstoffen durch nachhaltige Adsorbenzien

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Die Verunreinigung durch Medikamente, Biozide und Industriechemikalien im Abwasser nimmt immer weiter zu. Fraunhofer-Forschende entwickeln ein neues Adsorptionsmittel für die Eliminierung von Spurenstoffen in kommunalen Abwässern – auf Basis nachwachsender Rohstoffe und mit weiteren Vorteilen gegenüber bisher verwendeter Aktivkohle.

Nicht alle Substanzen werden in Kläranlagen abgebaut. Rückstände von Medikamenten, Bioziden und Industriechemikalien etwa gelangen daher in die Umwelt. Zwar verfügen Kläranlagen häufig über eine nachgeschaltete Aktivkohleadsorption, aber auch hier können diese Spurenstoffe nur zum Teil zurückgehalten werden. Hinzu kommt, dass Aktivkohle ein fossiler Rohstoff ist, der in erster Linie unpolare oder we­nig polare Substanzen binden kann. Polare und ionisierte Stoffe hingegen bleiben meist im Wasser zurück. Hier setzt das Projekt BioSorb an.

Das Fraunhofer UMSICHT entwickelt gemeinsam mit dem Fraunhofer ITWM neue Adsorptionsmittel für die Eliminierung von Spurenstoffen in kommunalen Abwässern. Die Adsorptionsmittel sollen auf nachwachsenden Rohstoffen basieren und dabei deutlich ressourcenschonender und auch selektiver als herkömmliche Aktivkohle vorgehen. Besonders proteinbasierte Materialien sind vielversprechende Biosorbenzien, da diese weltweit in großem Umfang und endlos vorhanden sind; oft sogar als Abfallstoffe.

Schritt für Schritt zu sauberem Wasser
Dazu wird beim Fraunhofer UMSICHT zunächst ein Screening verschiedener proteinhaltiger Materialien durchgeführt. Die natürlich nachwachsenden Rohstoffe werden genau untersucht und in ersten Adsorptionsversuchen in kleinem Maßstab auf ihre Eignung getestet. Erste Versuche zeigen, dass oftmals eine einfache chemische Behandlung – wie eine Kombination aus Säure- und Wärmebehandlung – die Adsorptionsfähigkeit deutlich verbessern kann.

Anschließend werden im Rahmen einer groß angelegten Versuchsreihe vielversprechende Materialien auf ihre Wirksamkeit als Adsorbenz gegenüber Perfluorbutansulfonsäure (PFBS) geprüft. PFBS ist ein Vertreter der 850 verschiedene Substanzen umfassenden Stoffgruppe der perfluorierten Tenside. Diese sind nahezu überall verbreitet, kaum abbaubar und oft gesundheitsschädlich. Eingesetzt werden sie z. B. als Imprägnierungsmittel für Papier, Kleidung und viele andere Materialien, in Feuerlöschschäumen und Reinigungsmitteln sowie als Antistatika bei der Chipherstellung. Über das Grund- und Oberflächengewässern gelangen sie in Kläranlagen, wo sie jedoch nicht abgebaut werden.

Fraunhofer ITWM liefert Simulationsexpertise
Parallel zur Versuchsreihe erfolgt die Entwicklung eines numerischen Adsorptionsmodells. Das Fraunhofer ITWM nutzt dazu selbst entwickelte Simulationswerkzeuge. Dieses Vorgehen ermöglicht es, in Kombination mit hoher Rechnerkapazität und der Erfahrung mit Simulationsstudien, die Adsorbenzien und insbesondere Effekte chemischer Behandlungen mit einer Multiskalensimulation virtuell zu bewerten.

Basierend auf den Laborexperimenten und Erkenntnissen aus den Simulationen optimieren die Forschenden daraufhin die Biosorbenzien. In einem nächsten Schritt werden sie in Wasser getestet, das aus dem Kläranlagenablauf in Wuppertal-Buchenhofen stammt.

Wissenschaftliche Ansprechpartner:

Sebastian Hagedorn M. A.
Redaktion
Telefon +49 208 8598-1303
Fax +49 208 8598-1289

Dipl.-Chem. Annette Somborn-Schulz
Telefon +49 208 8598-1257

Originalpublikation:

https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2019/bioso…

Weitere Informationen:

https://www.itwm.fraunhofer.de/en.html
https://www.umsicht.fraunhofer.de/de/kompetenzen/photonik-umwelt.html

Quelle: IDW 

(nach oben)


Klimawandel: wie sich Malaria in Europa und dem Mittelmeerraum ausbreiten wird

Corina Härning Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg

Malaria-übertragende Mücken-Arten profitieren vom Klimawandel und werden sich infolgedessen in Europa und dem Mittelmeerraum weiter ausbreiten. In welchem Ausmaß diese Ausbreitung voranschreitet, lässt sich nach einer aktuellen Studie von PD Dr. Elke Hertig, Geographin an der Universität Augsburg, ziemlich genau vorhersagen.

Ein Aspekt des Klimawandels, der in der öffentlichen Debatte bislang wenig Beachtung fand, ist die Ausbreitung so genannter vektorübertragener Krankheiten, also Krankheiten, die von einem Erreger tragenden Organismus übertragen werden. Dazu zählt zum Beispiel die Malaria, die von Anopheles, einer Stechmücken-Gattung übertragen wird.

Das verstärkte Auftauchen Anopheles-freundlicher Wetterlagen könnte zu einer Ausbreitung dieser Stechmücken und infolgedessen zu einem Erstarken von Malaria in Europa und dem Mittelmeerraum führen. Wie genau diese Ausbreitung aussehen und in welchem Tempo sie vor sich gehen könnte, war bislang nicht genau prognostizierbar. Die Geographin PD Dr. Elke Hertig von der Universität Augsburg hat nun ein Modell vorgelegt, das genauere Aussagen ermöglicht.

Mit dem geostatistischen Ansatz boosted regression tree, BRT, modelliert Hertig das Vorkommen der Mücken in Europa bis zum Ende dieses Jahrhunderts. Sie kommt zu dem Ergebnis, dass Veränderungen in Temperatur und Niederschlag zu einem deutlichen Ausbreiten von Malariamücken in Richtung Norden führen werden. Günstig für die Insekten sind vor allem die zu erwartenden wärmeren Frühlingstemperaturen und die kräftigeren Niederschläge in Sommer und Herbst.

Die deutlichsten Zuwächse der Mückenpopulationen sind gegen Ende unseres Jahrhunderts in Süd- und Südosteuropa zu erwarten. Nur in einzelnen Gebieten des Mittelmeerraums, für die sinkende Niederschlagsmengen vorausgesagt werden, wird das Mückenvorkommen sinken.

Wissenschaftliche Ansprechpartner:
PD Dr. Elke Hertig
Institut für Geographie, Universität Augsburg
Telefon 0821/598 2752
elke.hertig@geo.uni-augsburg.de

Originalpublikation:
https://www.researchgate.net/publication/330233392_Distribution_of_Anopheles_vec…

Quelle: IDW 

(nach oben)


Universität Stuttgart benennt neue Bärtierchen-Art: Milnesium inceptum entdeckt

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart

Eine neue Bärtierchen-Art wurde von Dr. Ralph Schill vom Institut für Biomaterialien und biomolekulare Systeme der Universität Stuttgart entdeckt. Es handelt sich um die nun als Milnesium inceptum bezeichnete Bärtierchenart, abgeleitet von dem lateinischen Begriff für Pionier oder Initiator. Gleichzeitig klassifizierte Schill zusammen mit Kollegen aus England, Polen und Japan eine andere Bärtierchenart, Milnesium alpigenum, die bereits Mitte des 19. Jahrhunderts beschrieben, aber nicht mehr als Präparat vorhanden war, neu als Neotyp.

Bärtierchen sind Überlebenskünstler. Sie kommen in unterschiedlichsten Lebensräumen vor und haben die Fähigkeit, lange Zeiten in einem Überdauerungsstadium auf bessere Umweltbedingungen zu warten, ohne dass ein Stoffwechsel nachweisbar ist. Deshalb interessiert sich eine stetig wachsende Zahl von Wissenschaftlerinnen und Wissenschaftlern für diese faszinierenden Tiere.

Eine der ersten Arten überhaupt, die in der ersten Hälfte des 19. Jahrhunderts beschrieben wurde, ist die Art Milnesium tardigradum, der der französische Zoologe Louis Michel François Doyère seinen Namen gab. 13 Jahre später beschrieb der deutsche Zoologe Christian Gottfried Ehrenberg mit der Milnesium alpigenum eine weitere Art, die im Monte Rosa Gebirgsmassiv in den Walliser Alpen an der Grenze zwi¬schen Italien und der Schweiz erstmals gefunden wurde. Mit einer eigenen, im Naturpark Schönbuch gefundenen Bärtierchenart „Milnesium tardigradum Doyère 1840″ zugeordneten Tierkultur kam 2003 der Zoologe Ralph Schill an die Universität Stuttgart. Mit dieser von ihm dann als Modellorganismus etablierten Art schuf er eine der renommiertesten Bärtierchenforschergruppen weltweit. Zwischen 2003 und 2016 entstanden darüber über 30 wissenschaftliche Publikationen. Das weltweit größte Bärtierchenprojekt „FUNCRYPTA“ wurde durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftler bestimmen neue Art
Ausschlaggebend für eine Artbeschreibung ist der Vergleich mit dem sogenannten Holotyp, dem Tier, dass zur erstmaligen Beschreibung verwendet wurde. Nachdem sowohl die Präparate von Doyère als auch Ehrenberg nicht mehr erhalten sind, wurden so genannte Neotypten definiert, Präparate, die stattdessen die jeweilige Art repräsentieren und als Vergleichsmaterial dienen. Zu den dafür bislang verwendeten morphologischen Merkmalen kommen inzwischen noch molekulare Informationen wie DNA-Sequenzen hinzu. Beim Vergleich vieler Exemplare von der Art Milnesium tardigradum aus verschiedenen Regionen der Welt stellten Zoologen fest, dass sowohl die Stuttgarter Art als auch die eines japanischen Wissenschaftlers zu einer neuen Art gehören müssen. Daraufhin wurde eine Milnesium-Art als neuen Neotyp der nicht mehr vorhandenen Art Milnesium alpigenum neu beschrieben und die Stuttgarter Bärtierchen als neue Art Milnesium inceptum in die Wissenschaft eingeführt. Der Name der neuen Art stammt vom lateinischen „inceptor“, was „ein Initiator“ oder „ein Pionier“ bedeutet, nachdem Ralph Schill diese Art zum neuen Mo-dellorganisms in der Bärtierchenforschung etabliert hatte.

Neues Standardwerk über die kleinen Wasserbären erschienen
In Zusammenarbeit mit 25 führenden Bärtierchenforschern und heraus-gegeben von Schill ist jetzt ein Standardwerk „Water Bears: The Biology of Tardigrades“ erschienen. Es enthält erstmals eine vollständige Be¬schreibung der ersten knapp zweihundert Jahre Bärtierchenforschung. Das über 400 Seiten umfassende Buch mit 51 Schwarz-Weiß-Illustrationen und 65 farbigen Abbildungen dokumentiert die Entdeckung der Tiere und die erste Beschreibung 1773 bis hin zum aktuelle Stand des Wissens über die Morphologie, Taxono¬mie, Phylogenie, Biogeographie, Paläontologie, Zytologie und Zytogenetik der Bärtierchen. Das Buch gibt Einblicke in die Ökologie der Bärtierchen, die im Meer, in Seen und Flüssen und terrestrischen Lebens¬räumen vorkommen können. Weitere Kapitel enthalten einen Überblick über die Fortpflanzung, Entwicklungs- und Lebenszyklen sowie die außergewöhnlichen Umweltanpassungen wie unter anderem der Trocken- und Gefriertoleranz, für die die Tiere bekannt sind. Auch neueste molekulare Techniken, die in der Bärtierchenforschung angewandt werden, sowie praktische Tipps für die Probenahme und Proben-verarbeitung sind beschrieben. Das Buch schließt mit einem vollständi-gen Überblick über die bisher bekannten Bärtierchengruppen.

Wissenschaftliche Ansprechpartner:
Prof. apl. Ralph O. Schill, Institut für Biomaterialien und biomolekulare Systeme, Pfaffenwaldring 57, 70569 Stuttgart, Tel. 0172 7304726, ralph.schill@bio.uni-stuttgart.de

Originalpublikation:
W. Morek et. al 2019. Redescription of Milnesium alpigenum Ehrenberg, 1853 (Tardigrada: Apochela) and a description of Milnesium inceptum sp. nov., a tardigrade laboratory model. Zootaxa 4586 (1): 035-064
https://doi.org/10.11646/zootaxa.4586.1.2 (open access)

„Water Bears: The Biology of Tardigrades“, Springer Verlag, 2018
419 Seiten, 118 Illustrationen, ISBN 978-3-319-95702-9

Quelle: IDW 

(nach oben)


Vom Regen zum Hochwasser

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Extreme Wetterereignisse wie Gewitter oder starke Regenfälle und darauffolgende Überflutungen beeinflussen Erd- und Umweltsysteme langfristig. Um die Auswirkungen hydrologischer Extreme ganzheitlich – vom Niederschlag über den Wassereintrag in den Boden und den Abfluss bis hin zum Eintrag ins Meer – zu untersuchen, startet nun innerhalb der Helmholtz-Initiative MOSES eine Messkampagne im Müglitztal in Sachsen. Koordiniert wird die Messkampagne vom Karlsruher Institut für Technologie (KIT).

Ein einzelnes Starkregenereignis kann schwerwiegende Folgen für ein ganzes Flusssystem haben – von Landveränderungen durch Überflutung über Nährstoff- und Schadstofftransporte bis hin zu Veränderungen im Ökosystem. Die aktuelle MOSES-Messkampagne untersucht hydrologische Extremereignisse übergreifend von der Quelle in der Atmosphäre bis hin zur Reaktion von Biosystemen.

MOSES steht für „Modular Observation Solutions for Earth Systems“. In dieser gemeinsamen Initiative bauen insgesamt neun Forschungszentren der Helmholtz-Gemeinschaft mobile und modular einsatzfähige Beobachtungssysteme auf, um die Auswirkungen zeitlich und räumlich begrenzter dynamischer Ereignisse wie extremer Niederschlags- und Abflussereignisse auf die langfristige Entwicklung von Erd- und Umweltsystemen zu untersuchen. Die aktuelle vom KIT koordinierte Messkampagne zu hydrologischen Extremen läuft von Mitte Mai bis Mitte Juli 2019 im Müglitztal in Sachsen. In diesem Gebiet im Osterzgebirge kommt es bei bestimmten Wetterlagen zu extremen Niederschlägen und Überschwemmungen, wie bei der Flutkatastrophe 2002. Ausgelöst werden solche Extremereignisse entweder durch Tiefdruckgebiete, die verstärkt durch Staueffekte an Gebirgen kräftigen Niederschlag erzeugen, oder durch kleinräumige konvektive Niederschlagsereignisse, das heißt Gewitter, die Hochwasser in einem begrenzten Gebiet wie einem Gebirgstal mit sich bringen können.

An der aktuellen Messkampagne sind neben dem Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO) des KIT auch das Helmholtz-Zentrum für Umweltforschung (UFZ) aus Leipzig, das Forschungszentrum Jülich (FZJ) sowie das Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ mit ihren Messsystemen beteiligt.

Das KIT setzt sein mobiles Observatorium KITcube ein. Dieses liefert Informationen über Entstehung und Entwicklung von Starkniederschlägen, Niederschlagsverteilung und Verdunstung. Zum Einsatz kommen unter anderem ein Radar zur Erfassung des Niederschlags in einem Radius von 100 Kilometern, ein Mikrowellenradiometer zur Bestimmung des atmosphärischen Temperatur- und Feuchteprofils sowie ein Lidar-System zur Erfassung des Windprofils mithilfe von Lasern. Radiosonden liefern Informationen über den Zustand der Atmosphäre bis zu einer Höhe von 18 Kilometern. Ein Netz aus Distrometern – also Messgeräten zur kontinuierlichen Überwachung der Niederschlagsintensität und Größe der Regentropfen – liefert zusätzliche Informationen über die Vorgänge im Beobachtungsgebiet.

Im Fokus der Wissenschaftlerinnen und Wissenschaftler des UFZ steht die Bodenfeuchte. Sie ist eine zentrale Steuergröße für den Abfluss des Regenwassers: Ist der Boden sehr feucht oder extrem trocken, fließt das Regenwasser über die Landoberfläche ab und es kommt schneller zu Überflutungen. Um die Entwicklung der Bodenfeuchte optimal überwachen zu können, installiert das UFZ während der Messkampagne ein mobiles, drahtloses Sensornetzwerk, das Bodenfeuchte und -temperatur in verschiedenen Tiefen misst. Gegenüber klassischen Systemen zeichnet sich das Sensornetzwerk dadurch aus, dass sich die Positionierung und Verteilung der Sensoren sowie die Abtastraten genau auf die lokalen Messbedingungen abstimmen lassen. Zusätzlich zu dem fest installierten Sensornetzwerk kommt der mobile Cosmic Ray Rover mit speziell entwickelten Neutronensensoren zum Einsatz. Durch sie können die Forscher die Variation der Bodenfeuchte im Einzugsgebiet der Müglitz auch großräumig beobachten.

Die Wissenschaftler des Forschungszentrums Jülich lassen Ballonsonden bis in 35 Kilometer Höhe steigen, um unter anderem zu ermitteln, wie sich Gewitter langfristig auf das Klima auswirken. Mit Wasserdampf-, Ozon- und Wolkeninstrumenten untersuchen sie den Spurengastransport durch das Gewitter in die obere Troposphäre – die unterste Schicht der Erdatmosphäre – oder sogar in die darüber liegende Stratosphäre.

Die Forscher des GFZ ermitteln mit mobilen Messeinheiten den Einfluss des gespeicherten Wassers auf den Verlauf eines Hochwassers. Neben Cosmic Ray Sensoren zur Messung des Wassers im Oberboden und Sensoren zur Messung des oberflächennahen Grundwassers verwenden sie dabei auch sogenannte Gravimeter. Diese Geräte detektieren die Änderungen der Schwerkraft der Erde infolge sich ändernder Wassermassen im Untergrund, auch in größeren Tiefen.

Die aktuelle Messkampagne ist Teil der Aktivitäten der MOSES-Arbeitsgruppe innerhalb des Moduls „Hydrologische Extreme“ im Forschungsbereich Erde und Umwelt der Helmholtz Gemeinschaft.

Homepage von MOSES: https://www.ufz.de/moses/

Weitere Materialien:
https://blogs.helmholtz.de/moses/de/

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Weitere Informationen:
https://www.ufz.de/moses/
https://blogs.helmholtz.de/moses/de/
http://www.klima-umwelt.kit.edu
martin.heidelberger@kit.edu
http://www.sek.kit.edu/presse.php

Anhang
KIT: Vom Regen zum Hochwasser
https://idw-online.de/de/attachment71903

Quelle: IDW 

(nach oben)


Intelligente Energiespeicher- und -netze für sieben europäische Inseln

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis-Europa-Zentrum

Das Steinbeis-Europa-Zentrum unterstützt die Stadtwerke Norderney beim ersten Schritt in die Welt der EU-Projekte und begleitet die Insel auf dem Weg zur Dekarbonisierung.Die Insel profitiert vom Wissensaustausch und von den technologischen Maßnahmen.

Nachdem das Steinbeis-Europa-Zentrum als Partner im EU-Projekt NETfficient in den letzten drei Jahren die Stadtwerke Borkum auf dem Weg zur Energieautarkie begleitet hat, lebt die gewonnene Erfahrung nun im Projekt INSULAE in Kooperation mit den Stadtwerken Norderney weiter.

INSULAE startete im April 2019 mit 27 Partnern, darunter Forschungseinrichtungen, Universitäten, Energieversorger, öffentliche Verwaltungen und verschiedene in der Energiebranche tätige Unternehmen. Das spanische Forschungsinstitut CIRCE leitet das Konsortium. Das Steinbeis-Europa-Zentrum begleitet als Projektpartner die Insel Norderney beim Wissenstransfer und der Implementierung. Die EU fördert das Projekt für vier Jahre mit 12 Millionen Euro.

Dekarbonisierung europäischer Inseln
Im Zentrum von INSULAE steht die Dekarbonisierung europäischer Inseln und die Verbreitung von innovativen Lösungen auf den drei Leuchtturminseln Bornholm (Dänemark), Madeira (Portugal) und die Unije in der Kvarner Bucht (Kroatien). Die drei Inseln ergänzen sich gut hinsichtlich Lage, Größe, Anbindung ans Festland, wirtschaftliche Entwicklung, Anteil an erneuerbaren Energien und CO2-Intensität.

Weitere sogenannte Beobachter-Inseln in Deutschland, Griechenland und Spanien profitieren von den Maßnahmen und werden die Ergebnisse als Erstanwender erproben. Eine der Inseln ist Norderney. Darüber hinaus werden andere Inseln, die an der Thematik interessiert sind angesprochen, um einen entsprechenden Diskurs zwischen den Inseln anzuregen.

Die Maßnahmenpalette umfasst die Speicherung von erneuerbarer Energie, intelligentes Management von Wasser und Energie, Einsatz von 5G und IoT-Technologien, Übergang zu Gleichstromnetzen, Einsatz von Biobrennstoffen, E-Mobilität und Stabilisierung von Stromnetzen. Sieben replizierbare Anwendungsfälle dienen dazu, ein Investitionsplanungstool für diese Maßnahmen zu validieren, welches die vier Beobachter-Inseln als Erstanwender erproben werden, um damit selbst Dekarbonisierungspläne zu entwickeln. Die Eingriffe sollen aufzeigen, dass Energiesysteme, die auf erneuerbaren Energieträgern basieren 40-70% billiger sein können als entsprechende dieselbasierte Energieversorgung und dass 11% an fossilen Energieträgern eingespart werden können, bei Umsetzung der Maßnahmen in größerem Stil.

Das Investitionsplanungstool INSULAE IPT soll Entscheidungsträger in der Auswahl und Umsetzung von kosteneffizienten Maßnahmen unterstützen, um Inseln zu dekarbonisieren und um Alternativen zu teuren Gleichstrom- oder Wechselstromhochspannungskabeln vom Festland zu bieten.

Projektlaufzeit: 04/2019 – 03/2023

Beteiligte Länder: Dänemark, Deutschland, Frankreich, Griechenland, Großbritannien, Italien, Kroatien, die Niederlande, Portugal, Spanien

Wissenschaftliche Ansprechpartner:
Andrea Immendörfer, E-mail:immendoerfer@steinbeis-europa.de

Weitere Informationen:

http://www.steinbeis-europa.de/insulae – Informationen zum Projekt
http://netfficient-project.eu/ – Informationen zum Projekt Netfficient:

Quelle: IDW 

(nach oben)


Submarine CO2-Speicherung in der Nordsee – Chance oder Risiko?

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Realistische Abschätzungen zeigen, dass sich die Klimaerwärmung nur dann noch unter 1.5 bzw. 2 Grad begrenzen lässt, wenn Kohlendioxid aus der Atmosphäre entfernt wird. Speicherung unterhalb des Meeresbodens ist eine Option, die von einem internationalen Team von Wissenschaftlerinnen und Wissenschaftlern unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel intensiv untersucht wurde. Die Ergebnisse, die Möglichkeiten und Risiken aufzeigen, wurden nun in der Fachzeitschrift International Journal of Greenhouse Gas Control veröffentlicht.

Es ist möglich, die anthropogenen CO2-Emissionen zu reduzieren, indem CO2 aus Abgasen entfernt und in geologischen Formationen gespeichert wird. Negative Emissionen können durch die Kopplung der Biogaserzeugung mit CO2-Abscheidung und Speicherung erzielt werden. Bewertungen des Weltklimaforschungsrate IPCC zeigen, dass diese Ansätze wesentliche Bestandteile des Technologiemixes sind, der zur Begrenzung der globalen Erwärmung auf unter zwei Grad Celsius erforderlich ist.

In Europa befindet sich das größte CO2-Speicherpotenzial vor der Nordseeküste in tiefen salzhaltigen Grundwasserleitern und in anderen tief unter dem Meeresboden gelegenen geologischen Formationen. In den letzten Jahrzehnten wurden jedoch mehr als 10.000 Bohrungen in den Meeresboden der Nordsee niedergebracht, um Öl und Gas zu fördern. An vielen dieser Bohrlöcher tritt Methangas aus organisch gebildeten Ablagerungen in die Umwelt aus, da die umgebenden Sedimente während des Bohrprozesses mechanisch gestört und geschwächt wurden. Kohlendioxid, das in der Nähe solcher Bohrlöcher gespeichert wird, könnte die Speicherformation ebenfalls verlassen, ins Meerwasser entweichen und schließlich in die Atmosphäre zurückkehren.

„Wir haben im norwegischen Teil der Nordsee ein Freisetzungsexperiment durchgeführt, um die Signatur und die Folgen eines solchen Lecks zu bestimmen“, erläutert Dr. Lisa Vielstädte vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. Sie ist Erstautorin der Studie, die jetzt in der Fachzeitschrift International Journal of Greenhouse Gas Control veröffentlicht wurde. Am Meeresboden wurde in 82 Metern Wassertiefe CO2 mit einer Rate von 31 t / Jahr freigesetzt, was am oberen Ende des Bereichs der Methanemissionen liegt, die an undichten Bohrungen beobachtet wurde. Das freigesetzte CO2 wurde mit Hilfe eines ferngesteuerten Unterwasserfahrzeugs (ROV) mit chemischen und akustischen Sensoren und zusätzlichen Messungen an Bord des irischen Forschungsschiffes Celtic Explorer verfolgt. Das Experiment wurde vom GEOMAR als Beitrag zum europäischen Projekt ECO2 (http://www.eco2-project.eu/) durchgeführt.

„Unsere Daten zeigen, dass sich die CO2-Gasblasen in Bodennähe vollständig gelöst haben“, so Dr. Vielstädte. Der pH-Wert des umgebenden Bodenwassers wurde infolge des Auflösungsprozesses von einem Hintergrundwert von 8,0 auf einen saureren Wert von 7,0 an der Freisetzungsstelle reduziert. „Diese Versauerung des Bodenwassers wirkt sich nachteilig auf die am Meeresboden lebenden Organismen aus“, erklärt Prof. Dr. Klaus Wallmann, Projektleiter von ECO2 vom GEOMAR. „Aber die dort vorhandenen starke Bodenströmungen verteilen das gelöste CO2 rasch, so dass dies Fläche am Meeresboden, auf der potenziell schädliche Auswirkungen auftreten können, gering ist“, so Wallmann weiter. Die Fläche, auf der der pH-Wert um >0,2 Einheiten zurückging, lag bei etwa 50 m2.

„Zusammenfassend können wir sagen, dass die Beobachtungen und die begleitende Modellierung bestätigten, dass Leckagen an Bohrlöchern die lokalen Ökosysteme in unmittelbarer Nähe des Bohrlochs beeinträchtigen können, jedoch keine großen schädlichen Auswirkungen auf das Ökosystem der Nordsee haben. Wir kommen daher vorläufig zu dem Schluss, dass es möglich ist, CO2 sicher in Formationen unter dem Meeresboden zu speichern, wenn sich der Speicherort in einem Gebiet mit wenigen undichten Bohrlöchern befindet“, so Prof. Wallmann.

In diesem Monat wird vom europäischen Projekt STEMM-CCS (https://www.stemm-ccs.eu/) ein zweites Freisetzungsexperiment in der Nordsee durchgeführt. Hochempfindliche Sensoren und Überwachungsgeräte werden eingesetzt, um das freigesetzte CO2 zu verfolgen und die Auswirkungen auf die Umwelt zu untersuchen. Mithilfe dieser zusätzlichen Daten werden wir die Sicherheit von Speicherstätten in der Nordsee und ihren potenziellen Beitrag zur Eindämmung des Klimawandels weiter validieren.

Originalpublikation:
Vielstädte, L., P. Linke, M. Schmidt, S. Sommer, M. Haeckel, M. Braack, and K. Wallmann, 2019: Footprint and detectability of a well leaking CO2 in the Central North Sea: Implications from a field experiment and numerical modelling. International Journal of Greenhouse Gas Control, DOI: https://doi.org/10.1016/j.ijggc.2019.03.012

Weitere Informationen:

http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://www.stemm-ccs.eu/ STEMM-CCS Projekt
http://www.eco2-project.eu/ ECO2 Projekt

Quelle: IDW 

(nach oben)


Unterwasser-Stromversorgung

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Energie aus Meerwasser: Stromgenerator wechselt autonom zwischen zwei Betriebsmodi

Unterwasserfahrzeuge, Tauchroboter oder Detektoren benötigen eine eigene Energieversorgung, wenn sie über längere Zeit unabhängig von Begleitschiffen unter Wasser betrieben werden sollen. Praktikabler als Akkus ist eine direkte elektrochemische Energiegewinnung aus Meerwasser. Ein neuer kostengünstiger Ansatz bietet den Vorteil, bei langen Laufzeiten auch kurzzeitige Belastungsspitzen, etwa für rasche Bewegungen, zu bedienen. Wie Forscher in der Zeitschrift Angewandte Chemie berichten, kann ihr System zu diesem Zweck autonom zwischen zwei Betriebsmodi umschalten.

Unterseeisches Gelände erforschen, Strömungen und Temperaturen aufzeichnen, Pipelines und Tiefseekabel inspizieren und reparieren – das sind nur einige Beispiele für Aufgaben, die Unterwasser-Geräte selbsttätig in den Tiefen der Ozeane ausführen sollen. Die Herausforderung unter diesen extremen Bedingungen: Ihre Stromgeneratoren sollen sowohl eine hohe Energiedichte (lange Laufzeit bei Grundstromverbrauch) als auch eine hohe Leistungsdichte (kurzzeitiger hoher Stromfluss) bieten.

Liang Tang, Hu Jiang und Ming Hu und ihr Team von der East China Normal University in Shanghai der Shanghai University sowie der Chinese Research Academy of Environmental Sciences in Beijing haben sich durch spezielle marine Mikroorganismen inspirieren lassen, die ihre Zellatmung je nach benötigtem Leistungs-Output zwischen einem aeroben und einem anaeroben Modus wechseln, indem sie verschiedene Stoffe als Elektronenakzeptoren verwenden. Nach diesem Prinzip arbeitet auch ihr neuer Stromgenerator.

Erfolgsgeheimnis ist eine Kathode aus „Berliner Blau“, einer offenen Gerüst-Struktur mit Cyanid-Ionen als „Verstrebungen“ und Eisenionen als „Knotenpunkten“, die leicht Elektronen aufnehmen und abgeben können. Mit einer Metallanode kombiniert lässt sich damit Strom aus Meerwasser generieren.

Ist die abgerufene Leistung gering, werden die in die Kathode einfließenden Elektronen sofort auf gelösten Sauerstoff übertragen. Da gelöster Sauerstoff im Meer unerschöpflich ist, kann die Energieversorgung bei niedrigem Stromfluss theoretisch ewig laufen. Die Konzentration des Sauerstoffs jedoch ist gering. Wenn die abgerufene Leistung und damit die Stromstärke stark erhöht werden, ist nicht genug Sauerstoff an der Kathode, um alle ankommenden Elektronen sofort aufzunehmen. Nun muss das Berliner Blau diese speichern, indem Eisenionen vom dreifach in den zweifach positiv geladenen Zustand wechseln. Für den Ladungsausgleich lagern sich positiv geladene Natriumionen in das Gerüst ein. Da diese in hoher Konzentration in Meerwasser vorhanden sind, können viele Natriumionen und damit auch viele Elektronen in kurzer Zeit aufgenommen werden. Nimmt der Stromverbrauch dann wieder ab, werden die Elektronen wie zuvor auf den Sauerstoff übertragen. Der Sauerstoff regeneriert das Gerüst zudem wieder, Fe2+ wird wieder zu Fe3+, die Natriumionen treten aus.

Das neue System zeigte sich in korrosivem Meerwasser sehr stabil und überstand eine Vielzahl an Moduswechseln. Im Hochenergie-Modus lief es kontinuierlich über vier Tage, ohne an Leistung zu verlieren. Im Hochleistungs-Modus konnte es 39 Leuchtdioden versorgen und einen Propeller antreiben.

Angewandte Chemie: Presseinfo 13/2019

Autor: Ming Hu, East China Normal University (China), mailto:mhu@phy.ecnu.edu.cn

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.

Originalpublikation:
https://doi.org/10.1002/ange.201901759

Weitere Informationen:
http://presse.angewandte.de

Quelle: IDW 

(nach oben)


Unkraut jäten leicht gemacht: Institut der FH Aachen entwickelt Feldroboter

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen

Der Feldroboter „ETAROB“ wurde vom Institut MASKOR (Mobile autonome Systeme und kognitive Robotik) der FH Aachen entwickelt. Vollautonom ist es ihm möglich, während der Fahrt über die Felder Pflanzen anhand ihrer Struktur zu erkennen. Das umliegende Unkraut beseitigt er durch den Einsatz von Elektroschocks. Auf diese Weise kann die Menge von Chemikalien bei der Feldarbeit reduziert werden. Prof. Dr. Marcus Baumann, Rektor der FH Aachen, ist begeistert von dem Projekt: „Mit dem Feldroboter leisten wir einen Beitrag für eine zukünftige umweltfreundlichere Landwirtschaft und liefern ein eindrucksvolles Beispiel für die Innovationskraft an Hochschulen für angewandte Wissenschaften.“

Sonnenaufgang in Kempen. Über die Felder der Region rollen bereits die Traktoren. In stundenlanger Arbeit werden die Böden der Felder aufgelockert und das Unkraut gejätet. Dabei ist der Einsatz von Chemikalien für die Feldarbeit und Diesel für die Traktoren nicht unumstritten, doch es fehlt bislang eine wirtschaftliche Alternative. Das sogenannte „Precision Farming“, ein Forschungsfeld des Instituts für angewandte Automation und Mechatronik (IaAM) der FH Aachen, zeigt Lösungswege auf. Gemeinsam mit dem FH-Institut MASKOR (Mobile Autonome Systeme und Kognitive Robotik) wurde der Feldroboter „ETAROB“ entwickelt.

ETAROB ist fahrerlos und damit autonom auf den Feldern unterwegs, lockert Böden auf und beseitigt Unkraut. Während seiner Fahrt über die Felder erkennt er die Pflanzen – er erfasst Struktur, Farbe und Schatten der Blätter und vergleicht die Befunde mit intern abgespeicherten Vergleichsdaten. Anschließend verpasst er dem umliegenden Unkraut Elektroschocks. Diese Technologie zur Unkrautbeseitigung wurde vom Kooperationspartner Zasso GmbH entwickelt.

Das System des Roboters ist zudem so ausgelegt, dass er die Pflanzenerkennung optimieren kann. Dies gelang dem Team hinter ETAROB, indem sie die Veränderbarkeit der Pflanze mit Hilfe von Fotos digital erfasst haben. „Der Roboter ist so wie ein Mensch in der Lage, Pflanzen zu erkennen und aus gesammelter Erfahrung zu lernen“, erklärt Josef Franko, Mitbegründer des Projekts und wissenschaftlicher Mitarbeiter am MASKOR Institut.

„Die Idee wird seit über zwanzig Jahren verfolgt. Ich bin mit der Landwirtschaft groß geworden, aber das Fahren von Landmaschinen wird mit der Zeit sehr monoton. Das möchten wir automatisieren“, erzählt Franko. Die Idee des Feldroboters setzte er gemeinsam mit den beiden FH-Absolventen und wissenschaftlichen Mitarbeitern Enno Dülberg und Heiko Engemann um. Neben dem mobilen Feldroboter entwickelte das Team – zusammen mit dem Unternehmen RIWO Agrarsoftware – die Feldrobotersoftware ETAS. Mit ihr kann der autonome Betrieb gesteuert werden.

Der Antriebsstrang von ETAROB ist elektrisch und somit potenziell umweltfreundlich. Zudem müssen dank des Roboters keine Chemikalien zur Unkrautbekämpfung genutzt werden. Prof. Dr. Marcus Baumann, Rektor der FH Aachen, ist begeistert von dem Projekt: „Mit dem Feldroboter leisten wir einen Beitrag für eine zukünftige umweltfreundlichere Landwirtschaft und liefern ein eindrucksvolles Beispiel für die Innovationskraft an Hochschulen für angewandte Wissenschaften.“ Die Idee des Feldroboters ist auch auf den Weinanbau übertragbar. Zusammen mit der Zasso GmbH wird bereits ein kleinerer Roboter entwickelt, der im Weinberg Unkraut beseitigt. Vorstellbar ist auch, dass der Feldroboter selektiv ernten kann.

Das Team um ETAROB entwickelte den Feldroboter innerhalb von einem Jahr, betreut durch Prof. Dr. Stephan Kallweit. „Das Projekt ist aus der intrinsischen Motivation von Studierenden entstanden“, berichtet Franko. Das Team des MASKOR-Instituts um ETAROB wurde im April mit dem Robotics Award der Hannover Messe ausgezeichnet. Nun beginnt die Unternehmensgründung im Rahmen des Förderprogramms „EFRE“ vom Land NRW.

Quelle: IDW 

(nach oben)


Öffentlichen Nahverkehr nutzen? Oft eine Frage von Kultur, Identität, Status und Prestige

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Weltweit werden die Städte größer und die Straßen voller. Dabei ist der allmorgendliche Stau im Berufsverkehr weder gut für die Nerven noch für die Umwelt. Gerade in Ländern wie China oder Indien platzen die Fahrbahnen aus allen Nähten. Eine naheliegende Alternative zum eigenen Auto bietet da der öffentliche Nahverkehr. Doch nun hat eine Studie der University of Queensland in Australien herausgefunden, dass die Nutzung öffentlicher Verkehrsmittel je nach Land und Kulturkreis unterschiedlich bewertet wird. Im asiatischen Raum etwa ist das Busfahren mit einem gesellschaftlichen Stigma behaftet. In anderen Ländern hingegen hat das Auto an Prestige eingebüßt.

In einer internationalen Studie, an der auch Wissenschaftler der University of Queensland beteiligt waren, wurden große kulturelle Unterschiede bei der persönlichen Einstellung zu öffentlichen Verkehrsmitteln deutlich. Die Forscher befragten Pendler in angelsächsischen und nordischen Ländern, darunter die Vereinigten Staaten, die Niederlande und Australien, sowie in asiatischen Ländern wie China und Indien, um das Image, das die Nutzung öffentlicher Verkehrsmittel hat, zu untersuchen.

Dr. Dorina Pojani von der University of Queensland School of Earth and Environmental Sciences staunt darüber, wie unterschiedlich der öffentliche Nahverkehr in verschiedenen Teilen der Welt bewertet wird: „Im Durchschnitt sind berufstätige und gebildete Haushalte in angelsächsischen und nordischen Ländern wohlhabender, sodass man eigentlich erwarten würde, dass sie mehr an ihren Autos hängen und gegenüber öffentlichen Verkehrsmitteln negativer eingestellt sind. Aber wir haben herausgefunden, dass sie diese Thematik viel gleichmütiger betrachten.

Im Gegensatz dazu haben Berufstätige in China und in Indien – also in Ländern, in denen es noch nicht so lange üblich ist, ein eigenes Fahrzeug zu besitzen – bereits eine sehr starke und negative Einstellung zu öffentlichen Verkehrsmitteln entwickelt. Diese Erkenntnis war ziemlich aufschlussreich. Es hat sich außerdem gezeigt, dass Berufstätige in diesen Ländern glauben, dass es ihren Geschäftsbeziehungen oder sogar ihren Aussichten auf dem Heiratsmarkt schaden könnte, wenn sie mit dem Bus fahren.“

Dr. Pojani – die mit dem Bus zur Arbeit fährt – glaubt, dass Vorurteile gegenüber öffentlichen Verkehrsmitteln tief verinnerlicht werden und dass sie eine gesellschaftliche Befürwortung sowohl fördern als auch behindern können.

„In der Geschichte des öffentlichen Nahverkehrs wurde dieser gesellschaftliche Bereich nahezu vollständig von Ingenieuren dominiert, die der Meinung waren, dass sie die Nutzung der öffentlichen Verkehrsmittel ankurbeln können, indem sie die Infrastruktur ausbauen oder die Fortbewegungsmittel schneller gestalten.

Aber tatsächlich reicht das allein nicht aus. Verkehrsmittel wie Busse, Autos und Fahrräder haben alle eine starke symbolische Bedeutung. Die Verwendung oder Vermeidung eines bestimmten Fortbewegungsmittels ist eine Möglichkeit, um unseren sozialen Status und unsere Identität auszudrücken.

Selbst wenn wir uns dessen nicht bewusst sind, hängt die Entscheidung darüber, ob wir mit dem Bus fahren, möglicherweise nicht davon ab, wie viel die Fahrt kostet oder ob wir damit ans Ziel kommen, sondern davon, wie wir von den anderen wahrgenommen werden wollen. In einigen Ländern hat man eventuell Angst davor, arm zu wirken, oder man möchte nicht mit denjenigen in Verbindung gebracht werden, die normalerweise mit dem Bus fahren.“

Die Studie weist darauf hin, wie wichtig es ist, diese gesellschaftlichen Vorurteile zu ändern, um rund um den Globus häufig genutzte und nachhaltige öffentliche Verkehrssysteme zu entwickeln.

„Wir leben in einer Welt der zunehmenden Treibhausgase, des beschleunigten Klimawandels und der schnellen Erschöpfung von nicht erneuerbaren Ressourcen“, so Dr. Pojani. „Öffentliche Verkehrsmittel müssen beliebter werden, insbesondere in asiatischen Megametropolen wie Peking oder Chennai, wo die Bürger unter den gesundheitlichen Folgen der immer schlechter werdenden Luftqualität leiden. Ein Umdenken im Bereich des öffentlichen Verkehrs kann dazu beitragen, eine bessere Zukunft für alle zu schaffen.“

Die Studie ist im Journal of Transport Geography erschienen (DOI: 10.1016/j.jtrangeo.2019.04.008).

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

The University of Queensland
Dr. Dorina Pojani
Email: d.pojani@uq.edu.au
Tel.: +61 473 989 847

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de

Quelle: IDW 

(nach oben)


Mysterium Bermuda: Geologen entdecken im Vulkangestein eine bisher unbekannte Region des Erdmantels

Svenja Ronge Presse- und Informationsstelle
Westfälische Wilhelms-Universität Münster

Bermuda im westlichen Atlantik ist ein besonderes Terrain, weil es sich auf der Spitze eines 4.570 Meter hohen, erloschenen Vulkans befindet. Ein internationales Forscherteam mit Geologen der Universität Münster hat nun das Gestein unter Bermuda zum ersten Mal im Detail geochemisch untersucht. Die Forscher entdeckten eine bisher unbekannte Region des Erdmantels und vermuten, dass das neu entdeckte Mantelreservoir von Gesteinsplatten stammt, die noch von Pangäa, dem letzten Superkontinent der Erdgeschichte, übriggeblieben und in der sogenannten Übergangszone gespeichert sind. Die Studie ist in der Fachzeitschrift „Nature“ erschienen.

Die Bermudainseln gelten seit jeher nicht nur wegen ihrer weißen Strände als ein besonderes Terrain inmitten des westlichen Atlantiks – die Inselgruppe liegt auf der Spitze eines 4.570 Meter hohen, vor rund 30 Millionen Jahren erloschenen Vulkans. Diese geologische Besonderheit hat jetzt ein internationales Forscherteam genauer unter die Lupe genommen und das aus Magma entstandene Gestein unter Bermuda zum ersten Mal im Detail geochemisch untersucht. Ziel der Forscher war es, Rückschlüsse auf die innere Beschaffenheit der Erde zu ziehen. Der Fund: Die Geologen entdeckten eine bisher unbekannte Region des Erdmantels, also der Schale des Erdinneren, die unter der äußersten Erdkruste beginnt und bis 2.900 Meter tief ins Erdinnere reicht.

Die neu entdeckte Region zeichnet sich durch eine besondere Atomzusammensetzung aus Blei aus, das durch radioaktiven Zerfall entstanden ist, sowie durch Kohlenstoff, Wasser und andere flüchtige Stoffe. „Unsere Studie zeigt, dass unser Verständnis von der Zusammensetzung des Erdmantels immer noch unvollständig ist – obwohl wir ihn seit fast einem Jahrhundert untersucht haben“, betont Studienleiterin Dr. Sarah Mazza vom Institut für Planetologie der Westfälischen Wilhelms-Universität Münster (WWU). Die Studie ist in der Fachzeitschrift „Nature“ erschienen.

Die Forscher vermuten, dass das neu entdeckte Mantelreservoir von Gesteinsplatten stammt, die noch von Pangäa, dem letzten Superkontinent der Erdgeschichte, übriggeblieben und in der sogenannten Übergangszone gespeichert sind – dem Bereich zwischen 410 und 660 Kilometern Tiefe, der als Übergang vom oberen zum unteren Mantel gilt. Dass die neuen Erkenntnisse über die Übergangszone direkt durch Gesteinsproben erhoben wurden, ist eine Besonderheit – das meiste vorherige Wissen hatten Forscher aus anderen Verfahren wie der Untersuchung von tief im Erdmantel liegenden Diamanten und geophysikalischen Berechnungen erlangt. „Die Entdeckungen in Bermuda zeigen, dass wir weiter Inseln, Unterwasserberge und andere vulkanische Regionen im Atlantischen Ozean untersuchen sollten, um unser Verständnis der geochemischen Evolution der Erde zu verbessern“, sagt Prof. Dr. Esteban Gazel von der Cornell University (USA), ebenfalls Leiter der Studie.

Hintergrund und Methode:
Die Forscher nutzten Proben von vulkanischem Gestein, die aus einem in den Siebzigerjahren angelegten Bohrloch auf Bermuda stammen, das rund 770 Meter in die Tiefe ging. Mithilfe von geochemischen Analysen fanden die Wissenschaftler heraus, dass die Erde unter Bermuda aus zwei vulkanischen Gesteinsarten besteht. Eine dieser Lavasorten ist mit Wasser, Kohlendioxid und Spurenelementen angereichert und zudem einzigartig, da sie den höchsten Anteil an bestimmten Blei-Isotopen aufweist, die je auf einer ozeanischen Insel gemessen wurden. Solche durch den Zerfall von Uran entstandenen Atomsorten geben Geologen die Möglichkeit, die Zusammensetzung des Erdmantels zu ergründen, weil diese chemische Zusammensetzung in einem Vulkan dieselbe ist wie die in der Region des Erdmantels, von der die Gesteinsschmelzen stammen.

Ihre Ergebnisse aus der geochemischen Analyse kombinierten die Forscher mit sogenannten geodynamischen Berechnungen, also Modellen von Kräften in der Erde und den dadurch hervorgerufenen Bewegungen. Das gefundene Material kann demnach von Pangäa stammen. Dabei handelt es sich um eine alle Kontinente der Erde miteinander verbindende Landmasse, die bis vor 150 Millionen Jahren existierte – und deren Überreste, alte Gesteinsplatten, aufgrund von Bewegungen in der Erdkruste und im oberen Erdmantel in die Übergangszone gerutscht und dort gespeichert sind. „Wir zeigen, dass die Bildung von Superkontinenten und diese jüngste Wiederaufbereitung des Materials im Erdmantel – ,jüngst‘ bedeutet in den letzten 20 Prozent der Erdgeschichte – wichtig sind, um eine chemische Stoffvielfalt im Mantel aufrechtzuhalten“, betont Sarah Mazza.

Die Studie gibt außerdem Ausschluss darüber, auf welche Weise Wasser und Kohlenstoff im Erdmantel gespeichert sind. So scheint Bermuda ein wichtiger Ort zu sein, um den tief im Erdinneren stattfindenden Kohlenstoffkreislauf zu verstehen. Darüber hinaus könnten die Ergebnisse dabei helfen, herauszufinden, wie viel Kohlenstoff sich in der gesamten Erde befindet.

In Folgestudien möchten die Wissenschaftler dem „Mysterium Bermuda“ weiter auf den Grund gehen und dazu die Mineralogie und Geochemie von Bohrloch-Proben untersuchen.

Wissenschaftliche Beiträge und Förderung:
Neben den Universitäten Münster und Cornell waren aus den USA die University of South Carolina, die Syracuse University, die James Madison University und das United States Geological Survey beteiligt. Weitere Beiträge leisteten die Universität Grenoble in Frankreich und das Vernadsky Institute of Geochemistry and Analytical Chemistry in Russland.

Die Studie erhielt finanzielle Unterstützung von der US-amerikanischen „National Science Foundation“.

Wissenschaftliche Ansprechpartner:

Dr. Sarah Elizabeth Mazza
Westfälische Wilhelms-Universität Münster (WWU)
Institut für Planetologie
+49 251 83-33413
mazza@uni-muenster.de

Originalpublikation:

S. Mazza et al. (2019): Sampling the volatile-rich transition zone beneath Bermuda. Nature; DOI: 10.1038/s41586-019-1183-6

Weitere Informationen:
https://www.nature.com/articles/s41586-019-1183-6 Link zur Originalpublikation in „Nature“
https://www.uni-muenster.de/Planetology/ifp/home.html Institut für Planetologie an der WWU

Quelle: IDW 

(nach oben)


CO2-Steuer auf Diesel und Benzin hat positive Verteilungswirkungen

Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT

In der aktuellen Debatte um die Einführung einer CO2-Steuer wird oftmals auf mögliche negative Verteilungswirkungen hingewiesen. Es wird befürchtet, dass ärmere Haushalte stärker von einer solchen Steuer betroffen sein könnten als Haushalte in höheren Einkommensschichten. Tatsächlich ist genau das Gegenteil der Fall – zumindest bei einer zusätzlichen CO2-Steuer nur auf Pkw-Kraftstoffe, deren Gesamterlös der Fiskus im Rahmen einer jährlichen Pro-Kopf-Pauschale vollständig an die Bevölkerung zurückerstattet. Dies zeigen die Ergebnisse einer Analyse der Abteilung Mikrosimulationsmodelle des Fraunhofer FIT.

Der untersuchte Vorschlag umfasst eine Erhöhung der Energiesteuersätze um eine CO2-Komponente in Höhe von 20 Euro pro Tonne CO2. Unter Berücksichtigung der Mehrwertsteuer wäre eine Erhöhung des Literpreises von Diesel um etwa 6,3 Cent und von Benzin um etwa 5,5 Cent zu erwarten.

»Dabei zeigt sich, dass gerade Haushalte mit geringem Einkommen unterdurchschnittlich von der zusätzlichen Besteuerung betroffen wären. Verteilt der Fiskus das von uns auf etwa 2,2 Mrd. Euro bezifferte Mehraufkommen der Energie- und Mehrwertsteuer in Form eines Verkehrswendebonus in Höhe von rund 28 Euro pro Kopf zurück an die Bevölkerung, so gewinnen diese Haushalte unter dem Strich«, sagt Dr. Sven Stöwhase, Leiter der Abteilung Mikrosimulationsmodelle am Fraunhofer-Institut für Angewandte Informationstechnik FIT.

Wie die Analyse verschiedener Einkommensgruppen in der Abbildung veranschaulicht, würden unter den ärmsten Haushalten in Deutschland fast 80 Prozent von einer solchen CO2-Steuer profitieren. Lediglich die reichsten Haushalte würden mehrheitlich belastet werden. Die beobachtete Verteilungswirkung ist dabei unabhängig von der konkreten Höhe der CO2-Steuer. Insgesamt würde dieser Reformvorschlag für 60 Prozent der Haushalte eine Entlastung bedeuten.

Dabei wären sowohl die finanziellen Ent- als auch Belastungen zumindest im Durchschnitt über alle Haushalte überschaubar: Während Haushalte im untersten Einkommensquartil um durchschnittlich 20 Euro entlastet werden, käme es bei den Haushalten im obersten Einkommensquartil im Durchschnitt zu einer Belastung in Höhe von 20 Euro. Getrieben werden die Ergebnisse, neben der individuellen Fahrleistung, insbesondere auch durch die durchschnittlich stärkere Motorisierung und einen damit einhergehenden höheren Kraftstoffverbrauch der Fahrzeuge in den einkommensstärkeren Haushalten. Ein Vier-Personen-Haushalt, der im Jahr weniger als 32.000 Kilometern mit einem durchschnittlichen Benzin-Pkw fährt, würde demnach zu den Gewinnern der CO2-Abgabe gehören.

Weitere Differenzierungen, beispielsweise hinsichtlich der Mehrbelastung von Familien oder der geographischen Verteilung der Haushalte, deuten darauf hin, dass der hier untersuchte Reformvorschlag zum Einstieg in die verursachergerechte Verteilung der Kosten von CO2-Emissionen sozialpolitisch insgesamt tragfähig wäre. Wie eine bereits im August 2018 von Fraunhofer FIT im Wirtschaftsdienst veröffentlichte Studie (https://doi.org/10.1007/s10273-018-2334-3) aufzeigen konnte, hätte selbst eine vollständige Umwandlung der bisherigen Energiesteuer für Kraftstoffe in eine CO2-Steuer eher positive Verteilungseffekte zur Folge.

Als Datengrundlage für die Mikrosimulationsrechnung des Automobilsteuer-Modells (ASt-Modell) dienen das Deutsche Mobilitätspanel 2017 sowie die Einkommens- und Verbrauchsstichprobe 2013. Simuliert werden die direkten kurzfristigen Effekte auf die privaten Haushalte, ohne Berücksichtigung etwaiger Verhaltensanpassungen in der mittleren bis längeren Frist. Indirekte Effekte, beispielsweise über höhere Preise für transportkostenintensive Konsumgüter, sind nicht berücksichtigt.

Detailliertere Ergebnisse der aktuellen Analyse sowie Informationen zum verwendeten Mikrosimulationsmodell sind auf Anfrage verfügbar.

Kontakt:
Leif Jacobs, Wissenschaftlicher Mittarbeiter der Forschungsgruppe Mikrosimulationsmodelle am Fraunhofer FIT, E-Mail: leif.jacobs@fit.fraunhofer.de, Telefon: +49 2241 14-2511
Lara Quack, Wissenschaftliche Mittarbeiterin der Forschungsgruppe Mikrosimulationsmodelle am Fraunhofer FIT, E-Mail: lara.quack@fit.fraunhofer.de, Telefon:+49 2241 14-2684
Dr. Sven Stöwhase, Abteilungsleiter der Forschungsgruppe Mikrosimulationsmodelle am Fraunhofer FIT, E-Mail: sven.stoewhase@fit.fraunhofer.de, Telefon: +49 2241 14-2345

Quelle: IDW 

(nach oben)


Kreativität: Eine Frage der Impulsivität

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Wie kann die Arbeitszeit von Mitarbeitern so organisiert werden, dass diese die höchstmögliche Leistung bei kreativen und Routineaufgaben zeigen? Dieser Frage sind zwei Wirtschaftswissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) experimentell nachgegangen – und haben eine überraschende Entdeckung gemacht: Welches Arbeitsmodell am besten funktioniert, hängt von der Impulsivität der Mitarbeiter ab.

Erst E-Mails beantworten, dann Rechnungen schreiben; wenn das langweilig wird, an der Konzeption einer neuen Kampagne weiterarbeiten – und sobald die Ideen ausgehen, wieder zurück zu den Routineaufgaben? Oder erst die Routineaufgaben abarbeiten und sich dann in festgelegten Zeitfenstern ganz auf die kreative Aufgabe stürzen? Wie Mitarbeiter ihre Arbeitszeit zwischen kreativen und Routineaufgaben einteilen, handhaben Unternehmen unterschiedlich. Ihr Ziel ist es dabei, den Weg zu wählen, der die kreative Leistung am meisten fördert – denn gesicherte Erkenntnisse, was am besten funktioniert, gab es bisher nicht. Nichtsdestotrotz nutzen Unternehmen wie 3M oder Google teilweise schon seit Jahrzehnten Regeln, welche Mitarbeitern 15 bis 20 Prozent ihrer Arbeitszeit für kreatives Denken und Arbeiten zur Verfügung stellen.

Die beiden FAU-Wirtschaftswissenschaftler Prof. Dr. Alexander Brem, Lehrstuhl für
Technologiemanagement, und Prof. Dr. Verena Utikal, Juniorprofessur für Verhaltensökonomik, sind nun der Frage nachgegangen, wie man kreative Arbeitszeit – und damit gleichzeitig auch Zeit für Routineaufgaben – am besten organisiert, und von welchen Faktoren Höchstleistungen abhängen.

Dafür ließen sie 233 Probanden verschiedene Aufgaben bearbeiten: Einfache Rechenaufgaben zu lösen, stellte die Routineaufgabe dar; aus einem vorgegebenen Set an Buchstaben so viele Wörter wie möglich zu formen, simulierte die kreativen Aufgabe. Während die eine Gruppe zwischen diesen beiden Aufgaben beliebig oft und zu jedem Zeitpunkt wechseln konnte, musste die zweite Gruppe erst die eine Aufgabe erledigen, bevor sie sich der zweiten zuwenden durfte.

Wie impulsiv sind die Beschäftigten?
Das Ergebnis: Ein universell gültiges Arbeitsmodell gibt es nicht. „Welches Modell die besten Ergebnisse bringt, hängt stark von der individuellen Person ab“, erklärt Professor Brem ein zentrales Ergebnis der Studie. In diesem Fall davon, wie impulsiv eine Person ist. „Impulsiv veranlagte Menschen sind kreativer, wenn sie sich ihre Arbeitszeit frei einteilen können, ihrer Impulsivität also keinen Einhalt gebieten müssen. Weniger impulsive Beschäftigte hingegen zeigen genau den gegenteiligen Effekt: Ihre Kreativleistungen sind am schlechtesten, wenn sie Autonomie erhalten.“ Das hat die Forscher durchaus überrascht, denn: „Dieses Ergebnis widerspricht vorherigen Studien, in denen Persönlichkeitseigenschaften wie Durchsetzungsvermögen oder eben Impulsivität wenig Einfluss auf die kreative Leistung nachgesagt wird“, sagt Prof. Utikal.

Und was bedeutet das Ergebnis für Unternehmen, die auf hohe kreative Leistungen Wert legen? „Führungskräfte sollten lernen, ihre Mitarbeiter und die dazugehörigen Teams gut einschätzen zu können, um ihnen das für sie bestmögliche Arbeitsmodell anbieten zu können“, rät Professor Brem. „Oder schon im Bewerbungsgespräch darauf zu achten, ob die Person wohl zum Arbeitszeitmodell des Unternehmens passt.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Brem
Tel.: 0911/65078-64883
alexander.brem@fau.de

Prof. Dr. Verena Utikal
Tel.: 0911/5302-229
verena.utikal@fau.de

Originalpublikation:
Der englischsprachige Zeitschriftenartikel ist unter folgenden Link verfügbar:
https://onlinelibrary.wiley.com/doi/abs/10.1111/caim.12309

Quelle: IDW 

(nach oben)


Phosphor-Recycling-Toilette »P-Bank« eröffnet auf dem Campus der Bauhaus-Universität Weimar

Claudia Weinreich Universitätskommunikation
Bauhaus-Universität Weimar

»Nichts ist Abwasser, alles ist Ressource« – gemäß diesem Motto entwickelten Studierende und Lehrende der Fakultät Bauingenieurwesen an der Bauhaus-Universität Weimar eine interaktive Toilette. Mit dem DBU-geförderten Projekt »P-Bank« sollen nachhaltige Alternativen zum konventionellen Abwassersystem aufgezeigt werden. Bis 16. August 2019 sind Interessierte herzlich eingeladen, das neuartige Sanitärsystem (NASS) in der Marienstraße 11 (LÜCKE) auszuprobieren und Phosphor zu spenden.

Auf dem Gelände der Bauhaus-Universität Weimar steht seit kurzem ein ganz besonderes Toilettenhäuschen: Der knallgelbe Bauwagen, mit einer Spültrenntoilette auf der linken Seite und einem wasserlosen Urinal auf der rechten Seite, lädt seine Benutzerinnen und Benutzer nicht nur zum Toilettengang ein, sondern fordert auf »Come donate your P« (Spende dein P).

 Dahinter steckt ein ausgeklügeltes System zur Gewinnung des lebenswichtigen Rohstoffes Phosphor aus menschlichem Urin. »Phosphor ist eine endliche und durch nichts anderes zu ersetzende Ressource, knapper als Erdöl«, erläutert Projektleiter Prof. Jörg Londong, Professur Siedlungswasserwirtschaft an der Bauhaus-Universität Weimar. »Über Abwasser und Gülle wird Phosphor dispers in Gewässer verteilt und letztlich verschwendet – das wollen wir ändern«. Ab sofort kann daher jeder sein »P« spenden, um daraus den wertvollen Rohstoff zu gewinnen.

Phosphorknappheit entgegenwirken
Das von der Deutschen Bundesstiftung Umwelt (DBU) fachlich und finanziell geförderte Kooperations- und Demonstrationsprojekt »P-Bank« rückt die Umweltthemen Phosphorknappheit und Kreislaufführung von Nährstoffen in den Fokus. Der Buchstabe P steht dabei einerseits für das chemische Element Phosphor und andererseits für die zeitgleich stattfindende umweltschädliche Fehlleitung der Nährstoffe beim Urinieren (englisch: to pee).

»Die vor Ort direkt erlebbare Kreislaufschließung zeigt, dass es relativ einfach ist, den über Urin ausgeschiedenen Phosphor in einen Dünger zu verwandeln«, fährt Prof. Londong fort. Hierzu muss Urin zunächst getrennt gesammelt werden. Wie das funktioniert – nämlich mit einer sogenannten No-Mix-Toilette und wasserlosen Urinalen – wird in der P-Bank demonstriert. Ergebnis ist ein Dünger, der universell einsetzbar ist und beispielsweise auch die Gartenkräuter vor Ort mit den hier produzierten Nährstoffen versorgt.

Nachhaltigkeit, Ressourcenschonung und Recyclingstrategien
Mit der Toilettenanlage für den öffentlichen Raum sollen die Nutzerinnen und Nutzer für nachhaltige Lösungen in der Abfall- und Kreislaufwirtschaft sensibilisiert werden. DBU-Generalsekretär Alexander Bonde unterstützt das Vorhaben: »Wollen wir zukünftig den Phosphorkreislauf schließen, brauchen wir nicht nur die technischen Voraussetzungen dafür, sondern überhaupt ein gesellschaftliches Bewusstsein für die Notwendigkeit. Das Projekt kann in unseren Augen einen wichtigen Beitrag dazu leisten.«

Alternative Lösungsansätze für den Umgang mit Abwasser sind seit Jahren Kernbestandteil der Forschungsarbeiten der Arbeitsgruppe von Professor Londong am Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is). Im Rahmen des Jubiläums zum 100-jährigen Bestehen des Bauhauses zeigt die P-Bank beispielhaft, dass sich die Bauhaus-Universität Weimar aktiv mit gesellschaftlich relevanten Fragen auseinandersetzt und ungewöhnliche, zum Teil radikale Antworten präsentiert.

Bei der Realisierung wurden die Umweltingenieure von den beiden Designerinnen Anniek Vetter und Silvia Debit unter der Leitung von Prof. Wolfgang Sattler, Fakultät Kunst und Gestaltung, sowie der Firma Werkhaus Design + Produktion GmbH, dem prämierten temporären Restaurant »LÜCKE«, der gemeinnützigen Goldeimer gGmbH und der EOOS Design GmbH aus Wien unterstützt. Finanziert wurde das Projekt von der Deutschen Bundesstiftung Umwelt mit einer Förderung in Höhe von 100.000 Euro.

Recycling-Toilette »P-Bank«
3. Mai bis 16. August 2019
Marienstraße 11, 99423 Weimar (LÜCKE)

Die feierliche Eröffnung der P-Bank findet am Freitag, 3. Mai 2019, gemeinsam mit der Einweihung des temporären Restaurants »LÜCKE«, ab 18 Uhr in der Marienstraße 11 in Weimar statt. Bis zum 16. August 2019 wird die P-Bank auf dem Gelände der Bauhaus-Universität Weimar zu finden sein.

Das Projekt wurde gefördert durch den Bauhaus100-Jubiläumsfonds.

Wissenschaftliche Ansprechpartner:

Univ.-Prof. Dr.-Ing. Jörg Londong
Bauhaus-Universität Weimar
Fakultät Bauingenieurwesen
Professur Siedlungswasserwirtschaft
Coudraystr. 7, Zimmer 215
, 99421 Weimar
Tel.: +49 (0) 36 43/58 46 15
E-Mail: joerg.londong@uni-weimar.de

Weitere Informationen:
https://www.uni-weimar.de/de/bauingenieurwesen/professuren/siedlungswasserwirtsc…

Quelle: IDW 

(nach oben)


Drei Viertel der Flüsse weltweit durch menschliche Eingriffe in ihrem Lauf beeinträchtigt

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Globale Studie unter Beteiligung der Universität Tübingen erfasst den Zustand von Flussökosystemen
Weniger als ein Viertel aller Flüsse weltweit fließt auf der gesamten Länge ungehindert durch Staudämme oder menschengemachte Regulierungen ins Meer. Unter den mehr als tausend Kilometer langen Flüssen kann nur rund ein Drittel dem von der Natur vorgegebenen Lauf folgen. Das ergab eine umfangreiche Studie eines großen internationalen Wissenschaftlerteams aus Mitgliedern der Naturschutzorganisation World Wide Fund for Nature (WWF) und von Forschungseinrichtungen. An der Studie waren maßgeblich Professorin Christiane Zarfl vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen sowie auch Klement Tockner, langjähriger Direktor des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und Professor für aquatische Ökologie an der Freien Universität Berlin, beteiligt.

Das Team bezog zwölf Millionen Flusskilometer weltweit in die Studie ein. Untersucht wurde vor allem jeweils die Vernetzung des Flusses mit seinem Überschwemmungsgebiet und dem Grundwasser sowie der Stoffaustausch mit den verbundenen Biotopen – die Forscher fassen diese Eigenschaften als Konnektivität des Flusses zusammen. Diese kann als Maß gelten für den Zustand eines Flusses, der mit ihm verbundenen Ökosysteme und deren Artenvielfalt. Die Quantifizierung und Kartierung sollen außerdem als Grundlage für den Erhalt der letzten naturbelassenen Flüsse dienen und eine Priorisierung von Renaturierungsmaßnahmen unterstützen. Die Studie wurde in der Fachzeitschrift Nature veröffentlicht.

Ökosysteme mit großer Artenvielfalt
Frei fließende Flüsse lassen global die Ökosysteme mit der größten Artenvielfalt und Dynamik ent-stehen, vergleichbar tropischen Regenwäldern und Korallenriffen. Zugleich bieten Flüsse zum Bei-spiel für die Süßwassernutzung, Bewässerung in der Landwirtschaft, durch Fischfang und Energie-gewinnung aus Wasserkraft wichtige Lebensgrundlagen für viele Millionen von Menschen. So zählte das Wissenschaftlerteam in der neuen Studie allein rund 2,8 Millionen Dämme, hinter denen Reser-voire von mindestens tausend Quadratmetern Wasserfläche entstanden sind, auf den zwölf Millionen untersuchten Flusskilometern. „Das führt zur Fragmentierung des Flusslaufs und hat teilweise schwerwiegende Auswirkungen auf das ganze Flusssystem“, sagt Christiane Zarfl. Durch die Weiterentwicklung der Infrastruktur für eine steigende Zahl von Menschen seien Flüsse und ihre Ökosysteme weltweit zunehmend bedroht.

Konnektivität als Maß
Die Wissenschaftlerinnen und Wissenschaftler entwickelten in ihrer Studie eine neue Methode, um den Zustand eines Flusses zu beurteilen. Zentrales Maß ist dabei die Konnektivität eines Flusses mit Bewertungen zum freien Wasserfluss, zu den Bewegungsmöglichkeiten von Organismen sowie zum Transport von Sedimenten, organischen Stoffen, Nährstoffen und Energie. In die umfassende Untersuchung gingen vier Dimensionen ein: in Fließrichtung, flussauf- und abwärts im Flussbett; über die Flussufer hinaus, zwischen dem Hauptbett des Flusses und der Aue; in vertikaler Richtung zwischen dem Grundwasser, dem Fluss und der Atmosphäre sowie in zeitlicher Abhängigkeit bedingt durch die Jahreszeiten. Darüber beurteilte das Wissenschaftlerteam, welche Flüsse noch als frei fließend betrachtet werden können. „Heute sind sie weitgehend auf abgelegene Regionen wie die Arktis, das Amazonasbecken und das Kongobecken beschränkt“, sagt Christiane Zarfl. „In dicht bevölkerten Erdregionen wie Nordamerika, Europa und Südasien sind nur noch wenige sehr lange Flüsse frei fließend, allen voran der Irrawaddy und der Saluen.“

2015 verabschiedeten zahlreiche Nationen beim UNO-Nachhaltigkeitsgipfel in New York Nachhaltigkeitsziele, die auch den Schutz beziehungsweise die Wiederherstellung wassergebundener Ökosysteme vorsehen. Dennoch seien zurzeit mehr als 3.700 neue und große Dämme zur Wasserkraftnutzung in Planung, sagt die Wissenschaftlerin, zum Beispiel in den Balkanstaaten, im Amazonasgebiet, vor allem aber in Asien, in China und im Himalaja. Außerdem seien etwa in Indien, China und Brasilien große Bewässerungsvorhaben geplant oder bereits im Bau, die das Ausbaggern von Flüssen, ihre Kanalisierung oder den Bau von Talsperren oder Dämmen erfordern. „Wir haben nun erstmals ein umfassendes Informationssystem mit hoher Auflösung zu den Flüssen der Erde angelegt. Es soll auch dazu dienen, die Zusammenhänge und Abhängigkeiten der Ökosysteme und die Folgen künftiger Eingriffe deutlich zu machen“, erklärt Christiane Zarfl. Übergeordnetes Ziel sei die Erhaltung der letzten frei fließenden Flüsse der Erde.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Christiane Zarfl
Universität Tübingen
Zentrum für Angewandte Geowissenschaften – Umweltsystemanalyse
Telefon +49 7071 29-76076
christiane.zarfl@uni-tuebingen.de

Prof. Dr. Klement Tockner
Freie Universität Berlin
Aquatische Ökologie
klement.tockner@fwf.ac.at

Originalpublikation:

G. Grill, B. Lehner, M. Thieme, B. Geenen, D. Tickner, F. Antonelli, S. Babu, P. Borrelli, L. Cheng, H. Crochetiere, H. Ehalt Macedo, R. Filgueiras, M. Goichot, J. Higgins, Z. Hogan, B. Lip, M. McClain, J-H. Meng, M. Mulligan, C. Nilsson, J.D. Olden, J. Opperman, P. Petry, C. Reidy Liermann, L. Saenz, S. Salinas-Rodríguez, P. Schelle, R.J.P. Schmitt, J. Snider, F. Tan, K. Tockner, P.H. Valdujo, A. van Soesbergen, C. Zarfl: Mapping the world’s free-flowing rivers. Nature, 9. Mai 2019.

Quelle: IDW 

(nach oben)


Studie: Väter in Elternzeit – Unternehmen in der Verantwortung

Amelie Möller Presse- und Öffentlichkeitsarbeit
SRH Fernhochschule

Bei der Elternzeit sind Männer im Vergleich zu Frauen nach wie vor in der Minderheit. Denn Väter trauen sich nur selten, für sich eine Elternzeit in Anspruch zu nehmen. Welchen Nutzen Arbeitgeber haben, wenn sie ihre männlichen Mitarbeiter dabei unterstützen, untersuchte Kristin Pogorzelski, Absolventin Wirtschaftspsychologie, Leadership & Management an der SRH Fernhochschule in ihrer Masterarbeit „Männliche Mitarbeiter in Elternzeit: Eine qualitative Studie zur Zufriedenheit der Väter und praktische Bedeutung für Unternehmen“.

Dazu wurden 15 Interviews mit männlichen Mitarbeitern durchgeführt, die ihre Berufstätigkeit in den letzten zwei Jahren für mindestens zwei Monate Elternzeit unterbrochen hatten. Die Interviewpartner wurden aus verschiedenen Berufen – von einem Piloten über einen Assistenzarzt, Technischen Leiter bis zu einem Sozialarbeiter – ausgewählt.

„Die Untersuchung hat gezeigt, dass positive Erfahrungen von der Wahrnehmung einer familienfreundlichen Unternehmenskultur und dem ethisch gelebten Führungsverhalten der direkten Vorgesetzten abhängig sind. Das heißt: Wie lange Männer Elternzeit nehmen, ist abhängig von den vermuteten Reaktionen des betrieblichen Umfelds. Positive Erlebnisse stärken das Commitment mit dem Unternehmen, während negative Erlebnisse zu Distanzierung oder Kündigung führen“, erklärt Pogorzelski.

Um Männer bei der Elternzeit zu unterstützen, empfiehlt Pogorzelski: „Ein erster Schritt sollte die Bestimmung eines Väterbeauftragten sein, der zusammen mit den Vätern und den direkten Vorgesetzten den Schritt in die Elternzeit und den Wiedereinstieg danach plant.“ Doch auch die Väter sind gefordert und sollten während der Elternzeit Kontakt zum Unternehmen halten. Dazu bieten sich beispielsweise gemeinsame Mittagspausen mit den Kollegen, die Teilnahme an Teamsitzungen oder auch Firmenfeiern an. Die Kinder sollten dabei ebenfalls willkommen sein.

Durch die Unterstützung bei der Elternzeit wurde die Arbeitszufriedenheit und -motivation der männlichen Mitarbeiter deutlich erhöht. Ein weiterer positiver Effekt: Die Hemmschwelle der Kollegen, eine Elternzeit anzufragen, ist deutlich gesunken. Somit haben sich mehr Väter getraut, in Elternzeit zu gehen. Die Folge davon war, dass die Reputation der Unternehmen deutlich positiver wurde.

Das Fazit der Studie laut Pogorzelski: „Unternehmen, welche die Inanspruchnahme von Elternzeit bei männlichen Mitarbeitern unterstützen, erreichen eine stärkere Bindung ihrer Mitarbeiter an das Unternehmen und erzielen somit einen Wettbewerbsvorteil gegenüber anderen Unternehmen. Dieses wichtige Thema wird aufgrund der Generation Y und der kommenden Generation Z noch deutlich an Bedeutung gewinnen.“

Anhang
Studie: Väter in Elternzeit – Unternehmen in der Verantwortung
https://idw-online.de/de/attachment71877

Quelle: IDW 

(nach oben)


Umsetzung der Klimaziele: Gasinfrastruktur in Deutschland vor Veränderungen

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Die Umsetzung der Klima- und Energieziele wird dazu führen, dass der Gasbedarf in Deutschland in den kommenden Jahrzehnten deutlich zurückgeht. Für den heute bedeutendsten Energieträger Erdgas gilt: Je ambitionierter die Ziele formuliert sind, desto weniger Gas wird nachgefragt werden. Das wird größere Auswirkungen auf die Gasinfrastruktur in Deutschland haben. Insbesondere werden nicht alle Gasverteilnetze wirtschaftlich weiterbestehen können.

Erdgas ist zwar weniger klimaschädlich als Kohle, jedoch hat sich Deutschland im Pariser Klimaabkommen verpflichtet, den Ausstoß klimarelevanter Gase weitestgehend zu vermeiden, weshalb Erdgas langfristig als Energieträger ersetzt werden muss. Die Studie »Roadmap Gas für die Energiewende – Nachhaltiger Klimabeitrag des Gassektors«, die das Fraunhofer ISI im Auftrag des Umweltbundesamtes erstellt hat, hat untersucht, was die Umsetzung der Klimaziele für die Gasinfrastruktur und die Gaswirtschaft in Deutschland bedeutet. Dazu hat die Studie Szenarien aus der Literatur analysiert und darauf aufbauend den infrastrukturellen Bedarf und die damit verbundenen Kosten modelliert.

Rückgang der Gasnachfrage wahrscheinlich
Insbesondere im Gebäudebereich zeichnet sich demnach ein erheblicher Rückgang der Gasnachfrage ab. Dieser Rückgang kann in bestimmten Gebieten dazu führen, dass die Kosten zum Unterhalt des Gasnetzes so stark steigen, dass ein Weiterbetrieb nicht mehr wirtschaftlich ist. Hinzu kommt, dass die Umsetzung der Klimaziele den Ausbau alternativer Energieträger wie beispielsweise Wasserstoff oder E-Methan begünstigt. »Das erfordert unabhängig von der Frage einer möglichen Stilllegung eine technische Anpassung der Gasinfrastruktur und Verteilnetze«, sagt Jakob Wachsmuth, Projektleiter am Fraunhofer ISI.

Jedes dritte Gasverteilnetz könnte unwirtschaftlich werden
Bei einer ambitionierten Klimaschutzstrategie (Treibhausgasminderung um 95 Prozent gegenüber 1990) ergeben die Szenarioauswertungen eine potenzielle Stilllegung von mindestens rund einem Drittel der Verteilnetze. Je nach Region könne dieser Wert auch deutlich höher ausfallen. Selbst bei einer Treibhausgasminderung von 80 Prozent könnte jedes fünfte Verteilnetz stillgelegt werden. Weit weniger stark davon betroffen sei das Fernleitungsnetz, das auch in Zukunft in ähnlichem Umfang wie heute gebraucht werden wird.

Eine Stilllegung eines Teils der Gasinfrastruktur kann helfen, den Ausbau anderer Technologien oder Energieträger voranzutreiben. Dabei ist es laut Studie ratsam, überschüssige Gasinfrastruktur nicht komplett zurückzubauen. »Soweit im Rahmen der regulatorischen Vorgaben möglich raten wir dazu, die Leitungen und Verteiler reversibel zu versiegeln«, sagt Jakob Wachsmuth. »Damit erhält man sich die Option, die Elemente später wiederzuverwenden, beispielsweise für Wasserstoff.« Grundsätzlich ist eine flexible und anpassungsfähige Gestaltung der Gasinfrastruktur und der Gasversorgung erforderlich, wofür in der Studie eine Roadmap in Form einer Reihe politischer Leitplanken entwickelt worden ist.

Über die Studie
Die Studie »Roadmap Gas für die Energiewende – Nachhaltiger Klimabeitrag des Gassektors« wurde vom Fraunhofer-Institut für System- und Innovationsforschung ISI im Auftrag des Umweltbundesamtes erstellt. Bei der Modellrechnung erhielt das Fraunhofer ISI Unterstützung von der Forschungsstelle des Deutschen Verein des Gas- und Wasserfaches am Engler-Bunte-Institut in Karlsruhe.

Wissenschaftliche Ansprechpartner:
Dr. Jakob Wachsmuth
Telefon +49 721 6809-632

Originalpublikation:
https://www.umweltbundesamt.de/publikationen/roadmap-gas-fuer-die-energiewende-n…
Studie: »Roadmap Gas für die Energiewende – Nachhaltiger Klimabeitrag des Gassektors«

https://www.umweltbundesamt.de/themen/klimaschutz-roadmap-fuer-die-gaswirtschaft
Klimaschutz: Roadmap für die Gaswirtschaft und -infrastruktur (Meldung des Umweltbundesamtes)

Quelle: IDW 

(nach oben)


Eliminierung von Spurenstoffen durch nachhaltige Adsorbenzien

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Die Verunreinigung durch Medikamente, Biozide und Industriechemikalien im Abwasser nimmt immer weiter zu. Fraunhofer-Forschende entwickeln ein neues Adsorptionsmittel für die Eliminierung von Spurenstoffen in kommunalen Abwässern – auf Basis nachwachsender Rohstoffe und mit weiteren Vorteilen gegenüber bisher verwendeter Aktivkohle.

Nicht alle Substanzen werden in Kläranlagen abgebaut. Rückstände von Medikamenten, Bioziden und Industriechemikalien etwa gelangen daher in die Umwelt. Zwar verfügen Kläranlagen häufig über eine nachgeschaltete Aktivkohleadsorption, aber auch hier können diese Spurenstoffe nur zum Teil zurückgehalten werden. Hinzu kommt, dass Aktivkohle ein fossiler Rohstoff ist, der in erster Linie unpolare oder we­nig polare Substanzen binden kann. Polare und ionisierte Stoffe hingegen bleiben meist im Wasser zurück. Hier setzt das Projekt BioSorb an.

Das Fraunhofer UMSICHT entwickelt gemeinsam mit dem Fraunhofer ITWM neue Adsorptionsmittel für die Eliminierung von Spurenstoffen in kommunalen Abwässern. Die Adsorptionsmittel sollen auf nachwachsenden Rohstoffen basieren und dabei deutlich ressourcenschonender und auch selektiver als herkömmliche Aktivkohle vorgehen. Besonders proteinbasierte Materialien sind vielversprechende Biosorbenzien, da diese weltweit in großem Umfang und endlos vorhanden sind; oft sogar als Abfallstoffe.
Schritt für Schritt zu sauberem Wasser

Dazu wird beim Fraunhofer UMSICHT zunächst ein Screening verschiedener proteinhaltiger Materialien durchgeführt. Die natürlich nachwachsenden Rohstoffe werden genau untersucht und in ersten Adsorptionsversuchen in kleinem Maßstab auf ihre Eignung getestet. Erste Versuche zeigen, dass oftmals eine einfache chemische Behandlung – wie eine Kombination aus Säure- und Wärmebehandlung – die Adsorptionsfähigkeit deutlich verbessern kann.

Anschließend werden im Rahmen einer groß angelegten Versuchsreihe vielversprechende Materialien auf ihre Wirksamkeit als Adsorbenz gegenüber Perfluorbutansulfonsäure (PFBS) geprüft. PFBS ist ein Vertreter der 850 verschiedene Substanzen umfassenden Stoffgruppe der perfluorierten Tenside. Diese sind nahezu überall verbreitet, kaum abbaubar und oft gesundheitsschädlich. Eingesetzt werden sie z. B. als Imprägnierungsmittel für Papier, Kleidung und viele andere Materialien, in Feuerlöschschäumen und Reinigungsmitteln sowie als Antistatika bei der Chipherstellung. Über das Grund- und Oberflächengewässern gelangen sie in Kläranlagen, wo sie jedoch nicht abgebaut werden.

Fraunhofer ITWM liefert Simulationsexpertise
Parallel zur Versuchsreihe erfolgt die Entwicklung eines numerischen Adsorptionsmodells. Das Fraunhofer ITWM nutzt dazu selbst entwickelte Simulationswerkzeuge. Dieses Vorgehen ermöglicht es, in Kombination mit hoher Rechnerkapazität und der Erfahrung mit Simulationsstudien, die Adsorbenzien und insbesondere Effekte chemischer Behandlungen mit einer Multiskalensimulation virtuell zu bewerten.

Basierend auf den Laborexperimenten und Erkenntnissen aus den Simulationen optimieren die Forschenden daraufhin die Biosorbenzien. In einem nächsten Schritt werden sie in Wasser getestet, das aus dem Kläranlagenablauf in Wuppertal-Buchenhofen stammt.

Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2019/bioso…

Quelle: IDW 

(nach oben)


Wetterextreme im Sommer 2018 waren verbunden durch stockende Riesenwellen im Jetstream

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Rekordhitze und Dürren in Nordamerika und Westeuropa, Starkregen und Überschwemmungen in Südosteuropa und Japan – der Sommer 2018 war geprägt durch eine Reihe von extremen Wetterereignissen auf der Nordhalbkugel, die nahezu gleichzeitig im Juni und Juli auftraten. Diese Ereignisse hatten etwas gemeinsam, wie ein internationales Team von Klimaforschern nun in einer neuen Studie herausgefunden hat: Die Wetterextreme waren verbunden durch ein besonderes Wellenmuster in einer großen Luftströmung, dem Jetstream, der die Erde umrundet.

Die Wellen des Windbands blieben längere Zeit stehen, statt weiter zu wandern – dadurch hielten in den betroffenen Regionen die Wetterbedingungen länger an und wurden zu Wetterextremen. Das gleiche Muster zeigte sich auch bei den europäischen Hitzewellen in den Jahren 2015, 2006 und 2003, die zu den extremsten jemals aufgezeichneten gehören. In den letzten Jahren beobachteten die Wissenschaftler eine deutliche Zunahme dieser Muster.

Der Jetstream ist ein starker Wind, der sich in etwa 10 Kilometern Höhe bewegt und große Wettersysteme von West nach Ost transportiert. Diese Luftströmung kann große Schlängelungen entwickeln, sogenannte Rossby-Wellen, und diese können manchmal über Wochen an einer Stelle verharren. Dann kann aus ein paar warmen sonnigen Tagen eine Hitzewellen oder Dürren entstehen, und aus ein paar regnerischen Tagen können Fluten werden. „Unsere Studie zeigt, dass die spezifischen Orte und der Zeitpunkt der Wetterextreme im Sommer 2018 nicht zufällig waren, sondern direkt mit dem Entstehen eines sich wiederholenden Musters im Jetstream verbunden waren, der sich über die gesamte Nordhalbkugel erstreckt“, sagt Leitautor Kai Kornhuber von der Universität Oxford und dem Potsdam-Institut für Klimafolgenforschung (PIK).

Die brisanten Windmuster waren auch in früheren Sommern mit Wetterextremen vorhanden
„Wir sehen einen starken Zusammenhang zwischen dem Windmuster und den anhaltenden Hitzeextremen in Westeuropa, Nordamerika und der Region um das Kaspische Meer. Das beobachtete Muster war auch in früheren Jahren mit extremen Wetterereignissen wie den Hitzewellen in Europa im Sommer 2015, 2006 und 2003 präsent. Darüber hinaus haben Häufigkeit und Dauer in den letzten zwei Jahrzehnten zugenommen. „In den zwei Jahrzehnten vor 1999 gab es keine Sommer, in denen wir dieses Muster der stockenden Wellen über eine Dauer von zwei Wochen oder noch länger hatten, aber seitdem haben wir bereits sieben solcher Sommer erlebt“, sagt Ko-Autor Dim Coumou von der Vrije Universiteit Amsterdam und dem PIK.

Es ist zu erwarten, dass das beobachtete Wellenmuster durch den Klimawandel und die menschgemachte globale Erwärmung in Zukunft häufiger auftreten wird. Dafür gibt es physikalischen Ursachen: Landmassen neigen dazu, sich schneller zu erwärmen als Meeresgebiete. Das wiederum führt zu einem größeren Temperaturunterschied zwischen Landmassen und Ozean. „Das Entstehen des Wellenmusters könnte durch diesen erhöhten Temperaturkontrast zwischen Landmassen und Ozean begünstigt werden. Ein weiterer relevanter Faktor könnte sein, dass der Nordatlantik kühler ist, als er sein müsste, wahrscheinlich als Folge der Verlangsamung der Atlantischen Meridionalen Umwälzzirkulation, besser bekannt als Golfstrom. Dies bedarf jedoch noch weiterer Untersuchungen“, sagt Stefan Rahmstorf, Leiter der Abteilung Erdsystemanalyse am PIK.

Risiko von sehr extremen Hitzewellen in Nordamerika und Europa
Die Studie macht außerdem deutlich, dass das gleichzeitige Auftreten von extremen Wetterereignissen die Risiken für die Menschen und insbesondere für die globale Nahrungsmittelproduktion erhöht, da sich in den betroffenen Regionen wichtige Kornkammern befinden und die Mehrheit der Menschen auf der nördlichen Erdhalbkugel lebt.

„Diese anhaltenden Hitzewellen, die durch stagnierende Wellenmuster entstehen, kommen auf den bereits beobachteten allgemeinen Temperaturanstieg durch die globale Erwärmung noch obendrauf hinzu. Das erhöht das Risiko besonders extremer Hitzewellen, vor allem in Regionen wie Nordamerika und Europa“, ergänzt Scott Osprey vom britischen National Centre for Atmospheric Science an der Universität Oxford.

Das nun dingfest gemachte Muster bietet eine Möglichkeit, die Vorhersage zukünftiger extremer Wetterereignisse für die gefährdeten Regionen auf der Nordhalbkugel zu verbessern. „Es ist ungeheuer wichtig“, so Kornhuber, „diese stagnierenden Wellenmuster bei der Erforschungen von Wetterextremen zukünftig zu berücksichtigen.“

Artikel: Kai Kornhuber, Scott Osprey, Dim Coumou, Stefan Petri, Vladimir Petoukhov, Stefan Rahmstorf, Lesley Gray (2019): Extreme weather events in early summer 2018 connected by a recurrent hemispheric wave-7 pattern. Environmental Research Letters, Volume 14, Number 5. [DOI: 10.1088/1748-9326/ab13bf]

Weblink zum Artikel:
https://iopscience.iop.org/article/10.1088/1748-9326/ab13bf

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Originalpublikation:
Artikel: Kai Kornhuber, Scott Osprey, Dim Coumou, Stefan Petri, Vladimir Petoukhov, Stefan Rahmstorf, Lesley Gray (2019): Extreme weather events in early summer 2018 connected by a recurrent hemispheric wave-7 pattern. Environmental Research Letters, Volume 14, Number 5. [DOI: 10.1088/1748-9326/ab13bf]

Quelle: IDW 

(nach oben)


„Crowd Oil“: Kraftstoffe aus der Klimaanlage

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Klima- und Lüftungsanlagen, die aus Kohlendioxid (CO2) und Wasser aus der Umgebungsluft synthetische Kraftstoffe herstellen – ein Verfahren, das dies möglich machen soll, haben nun Forscher des Karlsruher Instituts für Technologie (KIT) und der University of Toronto vorgeschlagen. Dabei sollen kompakte Anlagen direkt in Gebäuden CO2 aus der Umgebungsluft abtrennen und synthetische Kohlenwasserstoffe herstellen, die sich dann als erneuerbares synthetisches Öl nutzen lassen. Dieses „crowd oil“-Konzept stellt das Team nun in Nature Communications vor. (DOI: 10.1038/s41467-019-09685-x).

Um katastrophale Auswirkungen des globalen Klimawandels zu verhindern, müssen die vom Menschen verursachten Treibhausgasemissionen in den kommenden drei Jahrzehnten auf „null“ gesenkt werden. Das geht aus dem aktuellen Sonderbericht des Intergovernmental Panel on Climate Change (IPCC) deutlich hervor. Die notwendige Transformation stellt die Weltgemeinschaft vor gewaltige Herausforderung: Ganze Sektoren wie die Stromerzeugung, die Mobilität oder die Gebäudebewirtschaftung müssen umgestaltet werden. In einem zukünftigen klimafreundlichen Energiesystem könnten synthetische Energieträger einen wesentlichen Baustein darstellen: „Wenn wir den erneuerbaren Wind- und Solarstrom sowie Kohlenstoffdioxid direkt aus der Umgebungsluft nutzen, um Kraftstoffe herzustellen, dann können wir große Mengen an Treibhausemissionen vermeiden“, sagt Professor Roland Dittmeyer vom Institut für Mikroverfahrenstechnik (IMVT) des KIT.

Wegen der geringen CO2-Konzentration in der Umgebungsluft – der Anteil liegt heute bei 0,038 Prozent – müssen aber große Mengen Luft in großen Filteranlagen behandelt werden, um signifikante Mengen synthetischer Energieträgern herzustellen. Ein Forscherteam rund um Dittmeyer und Professor Geoffrey Ozin von der University of Toronto (UoT) in Kanada schlägt nun vor, die Herstellung synthetischer Energieträger zukünftig dezentral zu organisieren – und mit bestehenden Lüftungs- und Klimaanlagen in Gebäuden zu koppeln. Die notwendigen Technologien seien dafür im Wesentlichen vorhanden und durch die thermische und stoffliche Integration der einzelnen Prozessstufen ließe sich eine hohe Kohlenstoffausnutzung und eine hohe Energieeffizienz erreichen, so Dittmeyer: „Wir wollen die Synergien zwischen der Lüftungs- und Klimatechnik auf der einen und der Energie- und Wärmetechnik auf der anderen Seite nutzen, um Kosten und Energieverluste bei der Synthese zu senken. Darüber hinaus könnten durch ‚crowd oil‘ viele neue Akteure für die Energiewende mobilisiert werden. Wie gut das funktionieren kann, haben wir bei den privaten Photovoltaikanlagen gesehen.“ Für die Umwandlung des CO2 würden allerdings große Mengen an elektrischem Strom zur Herstellung von Wasserstoff beziehungsweise Synthesegas benötigt. Dieser Strom müsse CO2-frei sein, das heißt er darf nicht aus fossilen Quellen stammen. Ein forcierter Ausbau der erneuerbaren Stromerzeugung, unter anderem auch durch gebäudeintegrierte Photovoltaik, sei daher notwendig, so Dittmeyer.

In einer gemeinsamen Veröffentlichung in der Fachzeitschrift Nature Communications zeigen die Wissenschaftler um Roland Dittmeyer vom KIT und Geoffrey Ozin von der UoT anhand quantitativer Betrachtungen am Beispiel von Bürogebäuden, Supermärkten und Energiesparhäusern das CO2-Einsparungspotenzial ihrer Vision von dezentralen, an Gebäudeinfrastruktur gekoppelten Konversionsanlagen. Sie schätzen, dass ein signifikanter Anteil der in Deutschland für Mobilität eingesetzten fossilen Energieträger durch „crowd oil“ ersetzt werden könnte. Nach den Berechnungen des Teams würde beispielsweise allein die Menge CO2, die potenziell in den Lüftungsanlagen der rund 25 000 Supermärkte der drei größten Lebensmittelhändler Deutschlands abgeschieden werden könnte, ausreichen, um etwa 30 Prozent des Kerosinbedarfs oder rund acht Prozent des Dieselbedarfs in Deutschland zu decken. Zudem wäre eine Verwendung der erzeugten Energieträger in der chemischen Industrie als universelle Synthesebausteine möglich.

Das Team kann dabei auf Voruntersuchungen der einzelnen Prozessschritte und Prozesssimulationen, unter anderem aus dem Kopernikus-Projekt P2X des Bundesministeriums für Bildung und Forschung zurückgreifen. Auf dieser Grundlage rechnen die Wissenschaftler mit einer Energieeffizienz – das heißt hier, dem Anteil der aufgewendeten elektrischen Energie, der in chemische Energie umgewandelt werden kann – von etwa 50 bis 60 Prozent. Darüber hinaus erwarten sie eine Kohlenstoffeffizienz – also den Anteil der aufgewendeten Kohlenstoffatome, die sich im produzierten Kraftstoff wiederfinden – von etwa 90 bis annähernd 100 Prozent. Um diese Simulationsergebnisse bestätigen zu können, bauen die Forscher des IMVT zusammen mit Projektpartnern derzeit am KIT den voll integrierten Prozess auf, mit einem geplanten CO2-Umsatz von 1,25 Kilogramm pro Stunde.

Gleichzeitig arbeiten die Wissenschaftler aber auch heraus, dass das vorgeschlagene Konzept – selbst bei flächendeckender Einführung – nicht in der Lage wäre, den heutigen Bedarf an Rohölprodukten vollständig zu decken. Das Reduzieren des Bedarfs an flüssigen Kraftstoffen bleibe eine Notwendigkeit, beispielweise durch neue Mobilitätskonzepte und den Ausbau des öffentlichen Nahverkehrs. Obwohl die Bausteine der vorgeschlagenen Technologie wie die Anlagen zur CO2-Abtrennung und zur Synthese von Energieträgern teilweise schon heute kommerziell erhältlich sind, so die Forscher, bedürfe es außerdem noch großer Forschungs- und Entwicklungsanstrengungen sowie einer Anpassung der rechtlichen und gesellschaftlichen Rahmenbedingungen, um diese Vision in die Praxis umzusetzen.

Originalpublikation:
Roland Dittmeyer, Michael Klumpp, Paul Kant, Geoffrey Ozin: ‚Crowd oil not crude oil. Nature Communications, 2019. (DOI: 10.1038/s41467-019-09685-x)

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:

Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu

Originalpublikation:

Roland Dittmeyer, Michael Klumpp, Paul Kant, Geoffrey Ozin: ‚Crowd oil not crude oil. Nature Communications, 2019. (DOI: 10.1038/s41467-019-09685-x)

Weitere Informationen:
http://www.energie.kit.edu
martin.heidelberger@kit.edu
http://www.sek.kit.edu/presse.php

Anhang
KIT: „Crowd Oil“: Kraftstoffe aus der Klimaanlage
https://idw-online.de/de/attachment71747

Quelle: IDW 

(nach oben)


Neues Netzteil lässt Elektrogeräte länger leben

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Vom Ladegerät für das Smartphone über das Netzteil des Laptops oder der Waschmaschine bis zu LED-Leuchten oder der Ladestation für E-Autos – bei der Stromversorgung von Elektrogeräten sind Schaltnetzteile allgegenwärtig. Sie wandeln den Wechselstrom aus der Hausleitung in den vom Gerät benötigten Gleichstrom um. Das Problem: Die Netzteile sind fehleranfällig, was auch die Lebensdauer der Endgeräte verkürzt. Forscherinnen und Forscher am Karlsruher Institut für Technologie (KIT) haben jetzt ein deutlich langlebigeres Netzteil entwickelt.

Die heute verbreiteten Schaltnetzteile sind leicht und kompakt, wegen der darin verbauten Elektrolytkondensatoren aber auch fehleranfällig. Wesentlich langlebiger wären Folienkondensatoren. Diese brauchen aber bis zu zehnmal mehr Platz. Wissenschaftlerinnen und Wissenschaftler des Lichttechnischen Instituts (LTI) am KIT haben jetzt ein digitales Regelungsverfahren entwickelt, welches es erlaubt, Folienkondensatoren einzusetzen – bei nur leicht gesteigertem Platzbedarf.

Das Regelungsverfahren, das auf einem im Netzteil eingebauten Mikroprozessor läuft, erkennt störende Umgebungseinflüsse, sodass beispielsweise höhere Spannungsschwankungen ausgeglichen werden können. Dadurch sind Speicherkondensatoren mit geringerer Kapazität ausreichend. Die Vorteile fasst Michael Heidinger vom LTI zusammen: „Die Verwendung dieser Folienkondensatoren eliminiert die Hauptausfallursache von Netzgeräten, die Elektrolytkondensatoren. Dies kann je nach Design die Betriebsdauer verdreifachen.“ Das Ergebnis sei ein viel geringerer Wartungsaufwand. „Ein großer Vorteil vor allem an Stellen, bei denen es auf höchste Zuverlässigkeit ankommt, wie in der Luftfahrt, bei Elektroautos oder industriellen Anwendungen.“

Möglich sei diese Technologie erst mit der Verbreitung von sehr leistungsstarken Mikroprozessoren geworden, erklärt Heidinger. „Man kann die Digitalisierung der Netzteile mit dem Technologiesprung von der analogen zur digitalen Fotografie vergleichen.“ Die Technologie bringt weitere Vorteile der Digitalisierung, wie die Fähigkeit zur Fernwartung und die damit verbundene Integration in das Internet of Things.

Die Forscherinnen und Forscher suchen jetzt Industriepartner, die basierend auf dem existierenden Prototypen für ihre Anwendung passende Netzteile konzipieren. Weitere Informationen auch in der Technologiebörse des KIT: https://www.kit-technology.de/de/technologieangebote/details/664/.

Details zum KIT-Zentrum Information · Systeme · Technologien (in englischer Sprache): http://www.kcist.kit.edu

Weiterer Kontakt:
Dr. Felix Mescoli, Redakteur/Pressereferent, Tel.: +49 721 608 21171, E-Mail: felix.mescoli@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:

felix.mescoli@kit.edu

Weitere Informationen:
https://www.kit-technology.de/de/technologieangebote/details/664/
http://www.kcist.kit.edu
http://www.sek.kit.edu/presse.php

Anhang
Neues Netzteil lässt Elektrogeräte länger leben
https://idw-online.de/de/attachment71751

Quelle: IDW 

(nach oben)


Künstliche Intelligenz in Arbeitsprozesse integrieren

Dr. Jutta Gröschl Presse- und Öffentlichkeitsarbeit
Institut für Mittelstandsforschung (IfM) Bonn

Die Führungskräfte kleiner und mittlerer Unternehmen (KMU) sind dabei, die Chancen und Potenziale von KI zu erkennen. Gleichwohl ist es wichtig, dass sie die Einführung von KI in ihrem Unternehmen bewusst begleiten und gestalten. Im Rahmen des dreijährigen BMBF-Forschungsprojekts „Prävention 4.0″ wurden hierfür Umsetzungshilfen entwickelt.

Experten aus Forschung, Wirtschaft und Verbänden haben im Rahmen des dreijährigen BMBF-Forschungsprojekts „Prävention 4.0″ Umsetzungshilfen Arbeit 4.0 zur Einführung von künstlicher Intelligenz und von 4.0 Technologien entwickelt.„Wir geben mit den Umsetzungshilfen Arbeit 4.0 konkrete praxisnahe Gestaltungsempfehlungen zu allen relevanten Themen der Betriebsführung im Mittelstand.“ erläutert Dr. Rosemarie Kay vom Institut für Mittelstandsforschung (IfM) in Bonn.

Zielgruppe der Gestaltungsempfehlungen sind Experten und interessierte Fachleute aus mittelständischen Betrieben und Interessenvertretungen sowie Berater. „Informiert wird beispielsweise über die Auswirkungen der Integration von KI-Anwendungen auf Entscheidungen und Verantwortung im Betrieb, auf den Umgang mit Daten, die Kompetenzen der Führungskräfte und Beschäftigten, aber auch auf das Thema Ergonomie von KI-Systemen, Betriebssicherheit von smarten Arbeitsmitteln oder Möglichkeiten sowie Grenzen von Tracking und Worklogging“, erläutert die stellvertretende Geschäftsführerin des IfM Bonn weiter.

Die 79 Umsetzungshilfen geben zu jedem Thema Hintergrundinformationen, beschreiben die Chancen und Gefahren, die mit der Integration von KI-Anwendungen entstehen und welche Gestaltungsmaßnahmen hilfreich sein können. Sie geben ganz konkrete Hinweise zu Themen wie Strategie, Unternehmensführung, Betriebsklima, Arbeitsorganisation oder Sicherheit und Gesundheit im Umgang mit KI. Ebenso gehen sie auf grundlegende Fragestellungen wie zum Beispiel Fragen der ethischen Grundlagen von KI-Systemen im Betrieb ein.

„Führungskräfte und Beschäftigte müssen keine IT-Experten werden, um die Chancen und Gefahren von KI erkennen zu können. Sie sollten aber die wesentlichen Gestaltungs-Kriterien kennen, um die Stärken von KI-Systemen im Betriebsalltag nutzen zu können,“ erläutert Prof. Dr. Sascha Stowasser, Direktor des arbeitgebernahen ifaa-Instituts für angewandte Arbeitswissenschaft e.V. Oleg Cernavin, Vorsitzender der Stiftung „Mittelstand – Gesellschaft – Verantwortung“ ergänzt: „Unsere Umsetzungshilfen setzen genau hier an: Sie geben Interessierten praxisnahe Anregungen, wie sie KI produktiv und gesundheitsgerecht nutzen können. Wir wollen ein reflexives KI-Bewusstsein fördern und die Türen in die KI-Welten konkret für kleine und mittlere Unternehmen öffnen.“

Die Umsetzungshilfen Arbeit 4.0 stehen online als PDF-Download unter: www.praeventive-arbeit40.de sowie als Paperback zur Verfügung.

Quelle: IDW 

(nach oben)


Masterplan Uferfiltration zur Wasserversorgung in Vietnam

Constanze Elgleb Presse- und Öffentlichkeitsarbeit
Hochschule für Technik und Wirtschaft Dresden

Ein neues Forschungsprojekt an der HTW Dresden dient der sicheren Trinkwasserversorgung in Vietnam.

Das Forschungsprojekt „AquaViet“, das im Februar an der Fakultät Bauingenieurwesen gestartet ist, soll die Trinkwasserversorgung in Vietnam verbessern. Dazu wollen die Wissenschaftler einen Masterplan zur Uferfiltration entwickeln, um diese naturnahe Methode der Wasseraufbereitung stärker zu nutzen.

An dem Projekt sind neben der HTW Dresden die TU Dresden, die Dresdner Außenstelle des DVGW Technologiezentrums Wasser, sechs deutsche Unternehmen sowie sieben vietnamesische Partner beteiligt. Zunächst sollen mögliche Standorte für die Uferfiltratgewinnung erkundet und für die weitergehende Trinkwasseraufbereitung untersucht werden.

Uferfiltrat wird aus Brunnen in der Nähe des Flussufers gefördert. Nach der Infiltration des Flusswassers werden entlang des Fließweges zu den Brunnen Trübstoffe, Mikroorganismen und organische Schadstoffe weitgehend entfernt. In Dresden wird seit 140 Jahren Uferfiltrat der Elbe gewonnen und aufbereitet. Auch für Vietnam ist dieses Verfahren zur Trinkwassergewinnung interessant, denn diese natürliche Voraufbereitung ermöglicht eine kostengünstige und sichere weitergehende Wasseraufbereitung. Gleichzeitig werden Grundwasserentnahmen verringert, die in Vietnam zu erheblichen Geländesetzungen führen.

Eine große Herausforderung in Vietnam stellen die hohen Ammonium- und Arsenkonzentrationen im Grundwasser dar. Deshalb müssen die Uferfiltratgewinnung und insbesondere die Desinfektion des Trinkwassers so optimiert werden, dass die Anforderungen der Trinkwasserverordnung erfüllt werden.
An zwei Demonstrations-Standorten bei Hanoi, am Cau River und am Red River, werden Pilotanlagen aufgebaut und Lösungen für den Betrieb der Anlagen erarbeitet. Dabei kommen innovative Technologien zur Aufbereitung des Rohwassers und online-Monitoringsysteme zum Einsatz.

„Ich freue mich, dass die HTW Dresden mit AquaViet erneut ein internationales Forschungsprojekt einwerben konnte. Damit wird unsere Fachkompetenz auch in Asien beitragen zu einer sicheren Trinkwasserversorgung und zu einer Erweiterung des Marktes für Anlagen und Dienstleistungen deutscher Unternehmen.“, so der Prorektor für Forschung und Entwicklung Professor Knut Schmidtke.

Das Projekt unter Leitung von Professor Thomas Grischek läuft bis Januar 2022, das Teilprojekt der HTW Dresden wird mit 400.000 Euro vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:
Fakultät Bauingenieurwesen
Prof. Dr. Thomas Grischek
thomas.grischek@htw-dresden.de

Weitere Informationen:
http://www.htw-dresden.de

Quelle: IDW 

(nach oben)


Erhöhtes Cholesterin im Blut: Schaden Eier der Gesundheit?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Neue US-Studie – Herzstiftungs-Experte vor Ostern: Nicht Ei alleine, sondern gesamtes Ernährungskonzept entscheidend

Erhöhen Eier den Cholesterinspiegel und schaden so dem Herzen? Ab wie vielen Eiern pro Woche wird es bedenklich? Immer wieder erreichen die Deutsche Herzstiftung Fragen wie diese. „Erhöhte Cholesterinspiegel im Blut sind ein wichtiger Risikofaktor für koronare Herzkrankheit (KHK), Herzinfarkt und Schlaganfall. Das belegen Studien seit Jahrzehnten“, untermauert der Herzspezialist Prof. Dr. med. Helmut Gohlke vom Vorstand der Deutschen Herzstiftung. Zusätzlich konnte in vielen Studien gezeigt werden, dass sich eine medikamentöse Senkung erhöhter Cholesterinwerte insbesondere durch Statine oder seit kurzem auch durch PCSK9-Inhibitoren günstig auf den Krankheitsverlauf auswirkt. (Infos: www.herzstiftung.de/cholesterin-ratgeber.html)
„Aber weit weniger klar war, welche Bedeutung die Cholesterinzufuhr über die Nahrung für den Cholesterinspiegel im Blut und für das Risiko für Herz-Kreislauf-Erkrankungen hat“, betont Gohlke. Die Cholesterin-Aufnahme durch Konsum cholesterinhaltiger Lebensmittel auf etwa 300 mg Cholesterin pro Tag zu begrenzen, war für Jahrzehnte die Empfehlung der Amerikanischen Herzgesellschaft (AHA). Bis die AHA und das Beratungskomitee für die US-amerikanischen Ernährungs-Leitlinien in Übereinstimmung mit dem American College of Cardiology (ACC) im Jahr 2015 von dieser Position wegen der unzureichenden Studienlage abrückten. Nach deren Ansicht fehlte der Nachweis dafür, dass die Cholesterinzufuhr mit der Ernährung oder speziell mit Eiern einen wesentlichen Einfluss auf die kardiovaskuläre Ereignisrate habe.

US-Studie: Auch Eier können Herz-Kreislauf-Risiko erhöhen
Eine neue Übersichtsarbeit (Meta-Analyse) (1) zu sechs Studien mit über 29.600 Teilnehmern, die sorgfältig zu ihrem Ernährungsverhalten befragt und im Schnitt für 17,7 Jahre nachbeobachtet wurden, kommt zu dem Schluss, dass eine unbeschränkte Cholesterinzufuhr mit der Ernährung doch nicht unbedenklich ist: „Denn bei erwachsenen US-Amerikanern war eine höhere Cholesterinzufuhr deutlich mit einem höheren Erkrankungs- und Sterblichkeitsrisiko durch Herz-Kreislauf-Erkrankungen verbunden“, so Gohlke. „Also je höher der Cholesterinverzehr in Lebensmitteln oder der Eierkonsum war, umso höher war auch das kardiovaskuläre Risiko.“ (*). Dabei spielte es keine Rolle, ob das Cholesterin vorwiegend über den Verzehr von Eiern oder über sonstige Komponenten der Nahrung aufgenommen wurde. Ein Ei enthält etwa 250-280 mg Cholesterin. Allerdings weisen die Autoren der Studie darauf hin, dass sich ihre Auswertungen nicht ohne Weiteres auf Menschen außerhalb der USA übertragen ließen. Gohlke folgt diesem Standpunkt u. a. mit Blick auf Studien in Europa. „Vermutlich spielt die gängige und beliebte Zubereitung der Eier in den USA, beispielsweise mit Speck, eine größere Rolle als das Ei selbst.“

Erkenntnisse aus US-Studien nicht unbedingt auf Europa übertragbar
Die Europäischen Präventions-Leitlinien geben bezüglich des Cholesterin-Konsums keine Empfehlungen mehr ab, auch weil gesättigte Fette eine stärker cholesterinerhöhende Wirkung haben als das mit der Nahrung zugeführte Cholesterin selbst. Eine spanische Beobachtungsstudie (2) an einem Kollektiv von über 14.100 gesunden Universitätsabsolventen konnte auch in der Gruppe der Personen, die mehr als vier Eier pro Woche verzehrten, kein erhöhtes KHK-Risiko feststellen. „Der Blick beim Essen sollte daher nicht nur auf die einzelne Nahrungskomponente Ei fallen. Vielmehr kommt es auf das Gesamternährungskonzept an“, gibt Prof. Gohlke zu bedenken. „Dennoch kann man die neuerlichen Bedenken der US-amerikanischen Kollegen nicht völlig außer Acht lassen.“
In einer schwedischen Studie (3) waren bis zu sechs Eier pro Woche nicht mit einem erhöhten Risiko für Herzinfarkt und Schlaganfall verbunden, bei höherem Konsum nahm das Risiko jedoch zu. Das würde einer täglichen Cholesterinzufuhr nur durch Ei-Konsum von 240 mg pro Tag entsprechen und damit die Bedenken der neueren US-amerikanischen Studien gegen einen „ungebremsten“ Cholesterinkonsum unterstützen. In diesen Studien geht es allerdings um einen dauerhaft hohen Cholesterin- bzw. Eierkonsum und nicht um den über einen kurzen Zeitraum zu Ostern erhöhten Cholesterin- bzw- Eierkonsum. „Deshalb sollte man sich die Freude am Osterfrühstück auch nicht durch ein schlechtes Gewissen verderben lassen.“

Wichtig: Ungesunde gesättigte Fette in Wurst, Speck & Co. vermeiden!
Die Auswirkung der Cholesterinzufuhr durch die Nahrung auf den Cholesterinspiegel im Blutserum ist außerdem stark von der übrigen Ernährung abhängig. Ein hoher Anteil an mehrfach ungesättigten Fetten in der Ernährung reduziert die Cholesterinaufnahme. „Je höher jedoch der Anteil der gesättigten Fette in der Nahrung ist, umso stärker fällt die Cholesterinerhöhung aus. Außerdem verstärken die gesättigten Fette die Gerinnungsaktivität im Blut. Dadurch begünstigen sie die KHK, Herzinfarkt und Schlaganfall“, erläutert Gohlke. Gesättigte Fette verstecken sich in erheblichen Mengen z. B. in Fleisch, Speck, Wurst, Schinken und Schweineschmalz. Gesättigte Fette finden sich zwar auch in Milchprodukten, z. B. Käse, aber die gesättigten Fette aus der Milch von Kühen, Schafen und Ziegen werden als eher günstig beurteilt. Die Erkenntnisse der US-Studie im JAMA (1) unterstreichen die Bedeutung der von den kardiologischen Gesellschaften und der Herzstiftung empfohlenen Mittelmeerküche (www.herzstiftung.de/Rezept-Tipps-Mittelmeerkueche) für die Verbesserung der Prognose von Patienten mit KHK. Wer sich daher herzgesund ernähren möchte, legt am besten die Betonung seiner Ernährung auf Gemüse, Obst, Vollkornprodukte, Geflügel, Fisch, Hülsenfrüchte, Raps- und Olivenöl (kein Kokosnuss- oder Palmöl) und Nüsse. Beobachtungsstudien zeigen: Bei 200 g Obst und Gemüse pro Tag sinkt das Risiko für die Arteriosklerose. 30-45 g Ballaststoffe aus Vollkornprodukten, Obst und Gemüse sind wünschenswert. Auch Fisch (ca. 2-mal pro Woche) wirkt sich günstig aus. Industrielle Transfette sind möglichst ganz zu vermeiden.

(*) Pro 300 mg Cholesterinzufuhr in Lebensmitteln pro Tag nahm das Risiko für Herz-Kreislauf-Erkrankungen um relative 17% (absolut: 3,24 %), das Sterberisiko um relative 18% (absolut 4,43%) zu.

(1) Zhong Victor W et al., Associations of Dietary Cholesterol or Egg Consumption With Incident Cardiovascular Disease and Mortality. JAMA. 2019;321(11):1081-1095

(2) Zazpe I et al., Egg consumption and risk of cardiovascular disease in the SUN Project. Eur J Clin Nutr. 2011 Jun;65(6):676-82. doi: 10.1038/ejcn.2011.30. Epub 2011 Mar 23.

(3) Larsson SC et al., Egg consumption and risk of heart failure, myocardial infarction, and stroke: results from two prospective cohorts The American Journal of Clinical Nutrition, 102:1007-1013; November 2015

Cholesterin-Ratgeber: Worauf bei ungünstigen Cholesterinwerten zu achten ist, mit welchen Cholesterinsenkern zu hohe Werte behandelt werden und wie wichtig eine gezielte Ernährung ist, darüber informiert der kostenfreie Ratgeber „Hohes Cholesterin: Was tun?“ (32 S.), erhältlich unter www.herzstiftung.de/cholesterin-ratgeber.html oder per Tel. 069 955128-400.

Der Sonderdruck „Länger leben durch Mittelmeerküche: Traum oder Wirklichkeit?“ (16 Seiten) von Prof. Dr. Helmut Gohlke (inkl. 5 Rezepte) kann kostenfrei angefordert werden unter Tel. 069 955128400 oder per E-Mail unter bestellung@herzstiftung.de (Stichwort: Mittelmeerküche-Sonderdruck).

Druckfähiges Bildmaterial unter:
www.herzstiftung.de/presse/bildmaterial/cover-cholesterin-ratgeber-31-2016.jpg

13/2019
Deutsche Herzstiftung e.V.
Pressestelle: Michael Wichert / Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Zhong Victor W et al., Associations of Dietary Cholesterol or Egg Consumption With Incident Cardiovascular Disease and Mortality. JAMA. 2019;321(11):1081-1095

Weitere Informationen:
http://www.herzstiftung.de/cholesterin-ratgeber.html
http://www.herzstiftung.de/Rezept-Tipps-Mittelmeerkueche
http://www.herzstiftung.de/presse/bildmaterial/cover-cholesterin-ratgeber-31-201…
http://www.herzstiftung.de/presse/bildmaterial/sd-mittelmeerkueche-cover-5-2017….
http://www.herzstiftung.de/presse/bildmaterial/sd-mittelmeerkueche-collage-5-201…

Anhang
PM_DHS_Eier-Konsum_Cholesterin-Spiegel_2019-04-15

Quelle: IDW 

(nach oben)


Verbessertes Risikomanagement für die Geothermie

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Um heiße Flüssigkeiten zur Energiegewinnung aus dem Untergrund zu fördern, werden große Mengen Wasser unter hohem Druck in das Gestein injiziert. Diese „hydraulische Stimulation“ schafft die notwendigen Klüfte zur Förderung im Rahmen von Geothermieprojekten, führt aber auch zu Bodenerschütterungen. Die Fachleute sprechen von induzierter Seismizität. Ein Team von Forschenden hat jetzt eine Methode vorgestellt, mit der die induzierte Seismizität kontrolliert werden kann. Die Versuche fanden an einem Reservoir unter Helsinki bei der bisher tiefsten hydraulischen Stimulation eines geothermischen Bohrlochs statt. Das Team berichtet darüber in der Fachzeitschrift Science Advances.

Die induzierte Seismizität bei so genannten Enhanced Geothermal Systems (EGS) hat in der Öffentlichkeit Besorgnis und Skepsis hervorgerufen. In der Vergangenheit kam es deshalb bereits zur Stilllegung mehrerer EGS-Projekte. Das Management des Risikos einer induzierten Seismizität ist daher entscheidend für die Entwicklung und weitere Nutzung der EGS-Technologie zur marktreifen Strom- und Wärmeversorgung in städtischen Gebieten. Die Geothermie bietet viele Vorteile: Sie ist als Energiequelle „sauber“ und eignet sich für die Grundlastversorgung von Städten mit Wärme und Strom.

„Wir haben in Zusammenarbeit mit einem Team von internationalen Forscherinnen und Forschern aus Wirtschaftsunternehmen, akademischen Institutionen und Universitäten eine Strategie entwickelt um Stimulationen sicherer durchführen zu können“, berichtet der Leiter der GFZ-Sektion Geomechanik und Wissenschaftliches Bohren, Marco Bohnhoff. Die finnischen Behörden hatten als Vorgabe festgelegt, dass das dortige Geothermieprojekt „St1 Deep Heat Oy“ nur fortgesetzt werden kann, wenn keine Erdbeben stärker als Magnitude 2 ausgelöst werden.

In der Studie berichten die Forschenden, wie sie das Seismizitätsrisiko in den Griff bekamen: „Die Verarbeitung seismischer Daten, die aus einem ad-hoc installierten Netzwerk von Bohrloch- und Oberflächengeofonen gewonnen wurden, lieferte den entscheidenden Input für den sicheren Betrieb der Stimulation“, sagt der Hauptautor der Studie, Grzegorz Kwiatek vom GFZ. Betreiber und Wissenschaftler arbeiteten dabei über mehrere Monate an und mit einem Ampelsystem. Die seismische Überwachung ermöglichte ein extrem schnelles aktives Feedback. Das heißt, es erfolgte eine sofortige Anpassung der Stimulationsparameter durch Reduzierung der Injektionsrate. Dazu gab es Richtlinien für die Reservoir-Ingenieure zur Anpassung von Raten und Druck während der Injektion. Es gab zudem immer wieder Ruhezeiten, in denen gar kein Wasser injiziert wurde.

Georg Dresen, Leiter der Gruppe Geomechanik am GFZ, erklärt: „Diese Rückmeldung in nahezu Echtzeit war der Schlüssel zum Erfolg. Sie ermöglichte es, das Verständnis der seismischen Reaktion des Reservoirs und der Freisetzung der hydraulischen Energie im Untergrund zu vertiefen, und sie gewährte gleichzeitig eine schnelle technische Reaktion auf die erhöhte seismische Aktivität.“ Das Energieprojekt „St1 Deep Heat Oy“ ist nun für die weitere Entwicklung genehmigt und wird nach Fertigstellung einer zweiten Bohrung mit der Realisierung einer voll funktionsfähigen Geothermieanlage zur Nahwärmeversorgung beginnen.

Zwar seien die Ergebnisse der Studie zur Vermeidung größerer seismischer Ereignisse nicht direkt auf andere tektonische Regionen übertragbar, sagt Grzegorz Kwiatek, „aber die von unserem Team entwickelte Methodik und Konzeption können für andere EGS-Projekte nützlich sein, um das seismische Risiko zu begrenzen und Ad-hoc-Stimulationsstrategien abzuleiten“.

Projektförderung
Das Projekt erfolgte in enger Zusammenarbeit mit der Firma St1 Deep Heat Oy, die das Projekt finanzierte und koordinierte, mit ASIR Ltd. aus den USA, die das seismische Netzwerk entwarf und implementierte, der fastloc GmbH, einem Spin-off-Unternehmen aus dem GFZ, das eine nahezu in Echtzeit seismische Überwachung durchführte, ARUP aus Großbritannien, das das Ampelsystem entwarf und betrieb, und dem Team aus der Sektion Geomechanik und Wissenschaftliches Bohren des GFZ.

Wissenschaftliche Ansprechpartner:
Prof. Georg Dresen
Sektion Geomechanik und Wissenschaftliches Bohren
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1320
Email: georg.dresen@gfz-potsdam.de

Originalpublikation:
Originalstudie: Kwiatek, G., Bluemle, F., Bohnhoff, M., Dresen, G., Leonhardt, M., Malin, P., Martínez-Garzón, P., Wollin, C., 2019. Controlling fluid-induced seismicity during a 6.1-km-deep geothermal stimulation in Finland. Science Advances. DOI: 10.1126/sciadv.aav7224
https://doi.org/10.1126/sciadv.aav7224

Quelle: IDW 

(nach oben)


Wie wirken Omega-3-Fettsäuren? Wuppertaler Lebensmittelchemiker liefern wichtige Erkenntnisse

Dr. Maren Wagner Pressestelle
Bergische Universität Wuppertal

Dass sich Omega-3-Fettsäuren positiv auf die menschliche Gesundheit auswirken, ist wissenschaftlich gut belegt. Welcher molekulare Mechanismus hinter dieser Wirkung steckt, ist dagegen weniger bekannt. Grundlegende Erkenntnisse, um sich dieser noch ungeklärten Frage zu nähern, brachte nun eine Studie, die Lebensmittelchemiker der Bergischen Universität Wuppertal gemeinsam mit einer britischen Arbeitsgruppe über ein Jahr lang durchführten.

Senkung der Blutfettwerte, Regulation von Entzündungen oder der Einfluss auf die Gerinnungsfähigkeit des Blutes – Omega-3-Fettsäuren haben zahlreiche positive Eigenschaften für die Gesundheit. So viel steht fest: Die spezielle Gruppe von mehrfach ungesättigten Fettsäuren wandelt der Körper nach ihrer Aufnahme teilweise in so genannte Eikosanoide und andere Oxylipine um. „Diese oxidierten Fettsäuren sind starke Botenstoffe und damit wichtig für die Signalübertragung und die chemische Kommunikation in den Zellen. Oxylipine aus Omega-3-Fettsäuren wirken so als Mediatoren mit vielen physiologischen Funktionen wie zum Beispiel der Hemmung von Entzündungen“, erklärt Prof. Dr. Nils Helge Schebb, Leiter des Lehrstuhls für Lebensmittelchemie an der Uni Wuppertal. Mit seinem Team ging der Wissenschaftler nun der Frage nach dem Dosis-Wirkung-Zusammengang nach, also wie sich die Einnahme von Omega-3-Fettsäuren auf die Konzentration von diesen Oxylipinen im Blut auswirkt. „Dazu gab es in der Literatur bislang keine Informationen. Für ein molekulares Verständnis der physiologischen Wirkung von ungesättigten Fettsäuren sind diese Kenntnisse jedoch sehr wichtig“, so Nils Helge Schebb.

Besonders reich an Omega-3-Fettsäuren ist fettreicher Fisch aus vor allem kalten Gewässern – z. B. Lachs, Makrele und Hering. Hier kommen vor allem die Eicosapentaen- (EPA) und Docosahexaensäure (DHA) vor. Im Verlauf der Studie verzehrten gesunde Menschen ein Jahr lang die Menge an EPA und DHA von einer, zwei und vier Portionen Fisch pro Woche. „Innerhalb ihrer Gruppe nahmen die teilnehmenden Personen immer die gleiche Menge Omega-3-Fettsäuren zu sich“, erklärt Nils Helge Schebb. Schließlich untersuchte das Studienteam zu bestimmten Zeitpunkten die im Blut befindliche Menge an Oxylipinen. „Wir wollten wissen, wie sich das Oxylipinmuster in Abhängigkeit der Portionen verändert.“ Nach einem Jahr blicken die Wissenschaftler und Wissenschaftlerinnen auf besondere Ergebnisse: „Wir konnten einen klaren linearen Zusammenhang feststellen. Vereinfacht gesprochen: Je mehr Fisch jemand zu sich nimmt, desto mehr Oxylipine bildet der Körper. Es findet entsprechend keine Regulierung der Bildung durch den Körper statt. Was aufgenommen wird, wird auch verarbeitet“, fasst Nils Helge Schebb zusammen. So ein eindeutiger Zusammenhang sei aus Sicht der Wissenschaft spannend und grundlegend für die weitere Erforschung der Wirkung von Omega-3-Fettsäuren.

Von der Wertigkeit der Ergebnisse zeugt zudem ihre Veröffentlichung im American Journal of Clinical Nutrition, das als eines der wichtigsten Fachzeitschriften im Bereich der Ernährungswissenschaften gilt. „Ein schöner Erfolg für die Lebensmittelchemie in Wuppertal“, bewertet Nils Helge Schebb die prominente Platzierung des Beitrags der Forschungsgruppe um die Erstautorin und ehemalige Doktorandin des Teams Dr. Annika Ostermann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Helge Schebb
Lehrstuhl für Lebensmittelchemie
Telefon 0202/439-3457
E-Mail schebb@uni-wuppertal.de

Originalpublikation:
https://doi.org/10.1093/ajcn/nqz016

Quelle: IDW 

(nach oben)


Diskussion: Zwischen Plastikwahn und Plastikvermeidung

Miriam Wienhold Pressestelle
Kulturwissenschaftliches Institut Essen (KWI)

Politischer Salon im Essener Grillo Theater

Montag, 20. Mai 2019, 20.00 Uhr
Grillo Theater Essen, Café Central International
Theaterplatz 11, 45127 Essen

„Die Menge an Kunststoff, die wir seit Beginn des Plastikzeitalters produziert haben, reicht bereits aus, um unseren gesamten Erdball sechs Mal mit Plastikfolien einzupacken.“ (Planet Plastic)

Plastik ist der umgangssprachliche Ausdruck für Kunststoffe aller Art. Kunststoffe sind leicht, hitzebeständig, formbar und billig und kommen fast überall zum Einsatz – ein Leben ohne sie ist kaum mehr vorstellbar. Sie dienen nicht nur als Verpackungsmaterialien, sondern auch als Textilfasern, Kosmetika, in der Elektrotechnik als Material für Isolierungen, im Fahrzeugbau als Material für Reifen und vieles mehr. Die Persistenz, also der Fortbestand von Plastik in unserer Umwelt, ist ein lokales und globales Problem. So zerfallen Plastikprodukte in den meisten Fällen nur in immer kleinere Teile. Gelangen sie als wilder Müll in die Umwelt, braucht die Natur je nach Kunststofftyp Jahrzehnte bis Jahrtausende, um sie wieder abzubauen. Im Gegensatz hierzu benutzen wir Plastikmaterialien oft nur einmalig und kurze Zeit und verpulvern so gedankenlos Rohstoffe und Energie. Um dagegen anzugehen, sind nicht nur Politik, Wirtschaft und Forschung gefordert, sondern auch wir alle als Verbraucherinnen und Verbraucher. Wie können wir Plastikmüll vermeiden? Welche Alternativen gibt es? Welche Lösungen schlägt die Wissenschaft vor?

Zum Einstieg liest Jens Winterstein, Ensemblemitglied des Schauspiels Essen, aus Roland Barthes „Mythen des Alltags“.

PODIUMSGÄSTE
Jürgen Bertling (Fraunhofer UMSICHT)
Uta Scholten (LVR Industriemuseum)
Olga Witt (Zero Waste Lifestyle)

MODERATION
Dodo Schulz (Exile Kulturkoordination e.V.)

ANMELDUNG
Anmeldungen bitte unter: politischer-salon-essen@exile-ev.de. Der Eintritt ist frei

VERANSTALTER
Eine Veranstaltung von Exile e.V. und dem Kulturwissenschaftlichen Institut Essen (KWI)
Wissenschaftliche Ansprechpartner:

plastikbudget@kwi-nrw.de

Weitere Informationen:
https://www.plastikbudget.de/termine/politischer-salon-essen-zu-plastik/ – Link zum Onlinetermin

Anhang
Flyer Politischer Salon
https://idw-online.de/de/attachment71737

Quelle: IDW 

(nach oben)


Schlaf macht den Hippocampus frei für neue Gedächtnisinhalte

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Forschungsteam der Universität Tübingen verfolgt, wie die Großhirnrinde als langfristiger Informationsspeicher arbeitet

Zwei Regionen unseres Gehirns werden zur Speicherung von Gedächtnisinhalten verwendet: der Hippocampus und die Großhirnrinde. Während ersterer vor allem kurzfristig zur Aufnahme neuer Informationen benötigt wird, kann letztere große Informationsmengen für lange Zeit speichern. Lea Himmer, Dr. Monika Schönauer und Professor Steffen Gais vom Institut für Medizinische Psychologie und Verhaltensneurobiologie der Universität Tübingen haben gemeinsam mit ihrem Team untersucht, wie sich die Gehirnbereiche die Aufgaben bei der Verfestigung von neu Gelerntem teilen und welche Rolle Schlaf dabei spielt. Das Forschungsteam wies mithilfe bildgebender Verfahren nach, dass in der Großhirnrinde durch wiederholtes Üben schon innerhalb kurzer Zeit neue Gedächtnisspuren aufgebaut werden können. Allerdings sind diese nur dann allein ausreichend, wenn auf das Lernen eine Schlafphase folgt – anderenfalls muss das Gehirn zur dauerhaften Speicherung der neuen Gedächtnisinhalte zusätzlich auf den Hippocampus zurückgreifen. Die Studie der Tübinger Neurowissenschaftlerinnen und Neurowissenschaftler erscheint im Fachjournal Science Advances.

In der neuen Studie stellten die Wissenschaftler ihren Probanden eine Lernaufgabe, in der diese sich in sieben Wiederholungen eine Wortliste einprägen sollten. Während sie diese Aufgabe ausführten, wurde ihre Gehirnaktivität in einem Magnetresonanztomografen (MRT) aufgezeichnet. Zwölf Stunden später wiederholten die Probanden die gleiche Aufgabe mit der bereits gelernten und einer neuen Wortliste. Die Hälfte der Personen hatte in dieser Zeit geschlafen, die andere Hälfte war wach geblieben. Wiederholtes Üben führte schon innerhalb einer Stunde dazu, dass das Gelernte mithilfe des hinteren Parietallappens, einer Region der Großhirnrinde, abgerufen wurde. Entsprechend verringerte sich die Beteiligung des Hippocampus.

Schnelle Bildung von Gedächtnisspuren
„Dieses Muster weist auf eine schnelle Bildung von Gedächtnisspuren in der Großhirnrinde hin“, sagt Monika Schönauer. „Außerdem zeigt der Parietallappen auch nach zwölf Stunden eine stärkere Aktivität bei gelernten Wörtern im Vergleich zu neuen Wörtern, was für eine Langzeitstabilität dieser Spuren spricht.“ Allerdings blieb der Hippocampus nur dann unbeteiligt, wenn die Probanden nach der ersten Sitzung mehrere Stunden lang schliefen. Blieben sie wach, wurde er auch bei bereits bekannten Wörtern wieder benötigt, ebenso wie bei neuen Wörtern. „Damit zeigen wir, dass im Schlaf Gedächtnisprozesse ablaufen, die über das reine Wiederholen hinausgehen. Lernwiederholungen können langfristige Gedächtnisspuren anlegen. Ob die Inhalte unabhängig vom Hippocampus dauerhaft gespeichert werden können, hängt jedoch entscheidend von einer Schlafphase ab“, sagt Lea Himmer.

Der Schlaf wirkte sich im Experiment also vor allem auf den Hippocampus aus. „Wie Hippocampus und Großhirnrinde genau zusammenspielen, bleibt noch offen“, stellt Steffen Gais, der Leiter der Arbeitsgruppe, fest. „Diese Interaktion zu verstehen, ist ein wichtiger Schritt zur Weiterentwicklung der gängigen Theorien zur Gedächtnisbildung.“ Das Wissen, unter welchen Bedingungen Gedächtnisinhalte direkt in der Großhirnrinde gespeichert werden und welche Rolle der Hippocampus dabei spielt, sei auch zum grundlegenden Verständnis von Lern- und Gedächtnisstörungen von Bedeutung.
Wissenschaftliche Ansprechpartner:
Lea Himmer
Universität Tübingen
Institut für Medizinische Psychologie und Verhaltensneurobiologie
Telefon +49 7071 29-73264
E-Mail lea.himmer@uni-tuebingen.de

Originalpublikation:
L. Himmer, M. Schönauer, D. P. J. Heib, M. Schabus, S. Gais (2019): Rehearsal initiates systems memory consolidation, sleep makes it last. Science Advances, https://dx.doi.org/10.1126/sciadv.aav1695

Quelle: IDW 

(nach oben)


Sinkendes Interesse: Fußball-Wettbewerbe leiden unter WM Debakel 2018

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Studie der Universität Hohenheim: Fußball-Wettbewerbe wecken bei Deutschen aufgrund des WM-Debakels weniger Interesse / Politisierung der Spiele als eine mögliche Ursache

Das Interesse der Deutschen an internationalen sowie nationalen Fußball-Wettbewerben ist aufgrund des Debakels der deutschen Herren-Nationalmannschaft bei der Weltmeisterschaft 2018 gesunken, so das Ergebnis einer repräsentativen Bevölkerungsumfrage der Universität Hohenheim in Stuttgart. Ein Indikator: Knapp mehr als ein Drittel der Befragten gaben an, überhaupt keine Fußball-Wettbewerbe der Saison 2018/2019 live verfolgen zu wollen. Insbesondere sank das Vorhaben Spiele der deutschen Herren-Nationalmannschaft zu verfolgen von 47,3 % auf lediglich 27 % nach der WM 2018. Eine mögliche weitere Ursache: die angebliche Politisierung des Fußballs, wie ein Drittel der Teilnehmerinnen und Teilnehmer angaben.

Das Interesse insgesamt an Fußball-Wettbewerben hat aufgrund des schlechten Abschneidens der deutschen Herren-Nationalmannschaft bei der WM 2018 in Russland gelitten, bilanziert Prof. Dr. Markus Voeth, Inhaber des Lehrstuhls für Marketing & Business Development der Universität Hohenheim: Laut seiner Umfrage gaben 35,4 % der Deutschen an, keine Fußball-Wettbewerbe in der Saison 2018/2019 live (z. B. im Stadion, im TV oder über Online-Streamingdienste) verfolgen zu wollen. Lediglich 34,4 % der Befragten planten weiterhin Bundesliga-Spiele live anzuschauen.

Insbesondere sank das Interesse an Spielen der deutschen Herren-Nationalmannschaft von 47,3 % vor der Fußball-Weltmeisterschaft auf 27 % nach dem sportlichen Großereignis. Dabei ist hervorzuheben, dass die Daten vor dem Abstieg der deutschen Herren-Nationalmannschaft aus der Nations League sowie dem Ausscheiden der deutschen Mannschaften aus der Champions League erhoben wurden, sagt Prof. Dr. Voeth.

Hoher Stellenwert von Fußball-Weltmeisterschaften
„Ein wesentlicher Grund für das sinkende Interesse an internationalen sowie nationalen Fußball-Wettbewerben wie der UEFA Champions League, der UEFA Europa League oder auch dem DFB-Pokal dürfte das Debakel der deutschen Herren-Nationalmannschaft bei der WM 2018 in Russland sein. Interessant ist insbesondere zu sehen, dass sich das Abschneiden bei einer Fußball-Weltmeisterschaft auch auf das Interesse anderer Fußball-Wettbewerbe auswirkt. Das wiederum unterstreicht die Wichtigkeit und den enormen Stellenwert von Fußball-Weltmeisterschaften“, so Prof. Dr. Voeth.

Fans beklagen zunehmende Politisierung des Fußballs
Ein möglicher Grund: die zunehmende Politisierung des Fußballs, die knapp ein Drittel der Befragten beklagen. Auslöser dafür dürfte die Vermischung von Fußball und Politik während der WM 2018 gewesen sein. So äußerten 54 % der Befragten die Meinung, dass Politik und Fußball nicht zusammengehören.

Dennoch trauten die Fans vereinzelten Fußballern durchaus zu, nach der Karriere als Sportler auch noch Karriere in der Politik zu machen. Dabei sehen 35 % der Befragten das größte politische Potenzial bei Philipp Lahm. Ihm folgen an zweiter Stelle Oliver Kahn (28 %) sowie der Ex-Fußballer Rudi Völler (21 %) an dritter Stelle.

Leitmedium Fernsehen mit Live-Berichterstattungen
Wenn die Befragten sich jedoch dazu entschlossen Fußball-Wettbewerbe live zu verfolgen, entschieden sie sich sowohl bei der WM als auch insbesondere bei der Fußball-Bundesliga für Live-Berichterstattungen und Sportsendungen und somit für das Leitmedium Fernsehen. Von denjenigen, die einen Online-Streamingdienst abonniert hatten, entschied sich mehr als ein Viertel für den Streamingdienst Sky (27,3 %), gefolgt von Eurosport (12,8 %) und DAZN (10,3 %). Durchschnittlich gaben sie dafür im Monat 11,57 Euro aus.

HINTERGRUND: Studie Fußball-Vermarktung
„Der Ball rollt auch in der neuen Saison – Ein repräsentatives Stimmungsbild nach dem WM-Debakel in Russland“ lautet der Titel einer repräsentativen Befragung des Lehrstuhls für Marketing & Business Development von Prof. Dr. Markus Voeth an der Universität Hohenheim im Rahmen eines Humboldt reloaded-Forschungsprojekts. Dazu wurden vom 16.11.2018 bis 7.12.2018 deutschlandweit 1000 Probanden, bevölkerungsrepräsentativ in Bezug auf Alter, Geschlecht und Bundeslandzugehörigkeit, anhand von standardisierten Fragebögen befragt. Die Umfrage erfolgte als Online-Umfrage durch Studierende und als Panel-Befragung des Marktforschungsinstituts Research-Now.

Text: A.Schmid

Kontakt für Medien
Prof. Dr. Markus Voeth, Universität Hohenheim, Lehrstuhl für Marketing & Business Development,
T +49 711 459 22925, E marketing@uni-hohenheim.de

Weitere Pressemitteilungen der Universität Hohenheim
www.uni-hohenheim.de/presse

Quelle: IDW 

(nach oben)


Schon der Gedanke an Kaffee sorgt für einen Energie-Kick am Morgen

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Vor der ersten Tasse Kaffee sind viele morgens noch gar nicht richtig ansprechbar. Doch bereits der Duft des frisch aufgebrühten Energielieferanten weckt die Sinne und lässt das Hirn so richtig hochfahren. Aber warum ist das so? Wissenschaftler der Monash University in Melbourne und der University of Toronto haben nun herausgefunden, dass schon der bloße Gedanke an Kaffee bei Kaffeeliebhabern zu einem intensiven Placeboeffekt führen kann, ohne das Heißgetränk tatsächlich zu sich genommen zu haben.

Für viele beginnt jeder Tag mit einer heißen Tasse Kaffee, mit der sie das Gehirn für den Arbeitstag aktivieren. Der morgendliche Kaffee fördert zwischenmenschliche Begegnungen, sorgt für das leibliche Wohl und stellt für einige Genießer ein unumgängliches Ritual dar.

Aber können Kaffeefans die gleichen positiven Effekte des morgendlichen Milchkaffees erzielen, indem sie ganz einfach auf Reize reagieren, die sie an Kaffee erinnern – also etwa auf Gerüche, visuelle Eindrücke und Geräusche?

Eine neue internationale Untersuchung der Monash University und der University of Toronto hat ergeben, dass der Placeboeffekt von Kaffee bei regelmäßigen Kaffeetrinkern dazu führen kann, dass sie sich angeregt, ehrgeizig und konzentriert fühlen, ohne das Getränk tatsächlich konsumiert zu haben.

Dr. Eugene Chan, Dozent für Marketing an der Monash Business School, und Sam Maglio, Professor für Marketing und Psychologie an der University of Toronto, haben den Zusammenhang zwischen Kaffee und dem Erregungszustand des zentralen Nervensystems (fachsprachlich: ‚Arousal‘) untersucht, um herauszufinden, ob die Wahrnehmung von Reizen die gleichen kognitiven Vorteile bringen kann wie ein Koffein-Kick.

„Solange Menschen Kaffee mit einem Erregungszustand verbinden, ganz gleich, woher diese Assoziation auch stammt, kann die Wahrnehmung von Sinnesreizen, die an Kaffee erinnern, das zentrale Nervensystem stimulieren, ohne irgendeine Form von Koffein zu sich zu nehmen“, so Dr. Chan.

„Der bloße Duft von Kaffee ruft dann die psychoaktiven, anregenden Effekte des Heißgetränks hervor. Das liegt daran, dass die Gehirne von regelmäßigen Kaffeekonsumenten darauf konditioniert sind, auf eine bestimmte Art und Weise auf Kaffee zu reagieren, ganz so wie es das berühmte Phänomen des Pawlowschen Hundes beschreibt.

So kann bereits das Vorbeigehen an unserem Lieblingscafé, der Geruch von Kaffeesatz oder die Wahrnehmung von Reizen in Form von Kaffee-Werbung die chemischen Rezeptoren in unseren Körpern so weit triggern, dass wir die gleichen Erregungszustände ohne den tatsächlichen Konsum von Kaffee erreichen können.“

Die Forscher haben 871 Studienteilnehmer aus westlichen und östlichen Kulturen in vier verschiedenen Experimenten Kaffee- und Tee-bezogenen Reizen ausgesetzt, die sie an das Getränk denken ließen, ohne es tatsächlich zu sich zu nehmen.

In einem Experiment wurden die Teilnehmer darum gebeten, Werbeslogans für Kaffee oder Tee zu entwickeln. In einem anderen sollten sie Berichte über die gesundheitlichen Vorteile des Kaffee- oder Teekonsums erfinden. Während der gesamten Untersuchung überwachten die Wissenschaftler die Erregungswerte und die Herzfrequenzen der Teilnehmer.

Im Mittelpunkt der Studie stand ein psychologischer Effekt, der als ‚mentale Abstraktion‘ bezeichnet wird. Die mentale Abstraktion bestimmt, wie der Mensch denkt und Informationen verarbeitet, und ob er sich auf kleinere Details oder eher auf das Gesamtbild konzentriert.

Die Ergebnisse der Untersuchung zeigen, dass die Wahrnehmung von Kaffee-Reizen, also von Bildern, Gerüchen und Geräuschen, die einen an Kaffee denken lassen, die Aufmerksamkeit, Energie und Herzfrequenz der Menschen steigern und ihre kognitiven Leistungen verbessern kann.

Die kognitiv-verändernde Wirkung von Kaffee war bei Teilnehmern aus westlichen Ländern stärker verbreitet, da Kaffee dort im Vergleich zu östlichen Ländern beliebter ist und mit Energie, Konzentration und Ehrgeiz in Zusammenhang gebracht wird. Kaffee wird dort auch ein größerer anregender Effekt nachgesagt als Tee.

„Aus unserer Untersuchung lassen sich faszinierende Schlüsse ziehen, da sie aufzeigt, dass weniger physiologische Aspekte als vielmehr die psychologischen Assoziierungen unsere kognitiven Muster verändern können“, so Dr. Chan.

„Diese Studie könnte sogar helfen zu erklären, wie das Trinken von entkoffeiniertem Kaffee zu schnelleren Reaktionszeiten bei der Lösung von Aufgaben führen kann. Vielleicht ist die mentale Verknüpfung zwischen Kaffee und Erregungszustand so stark, dass sie kognitive Veränderungen hervorrufen kann, selbst wenn es rein physiologisch gar keine Koffeinzufuhr gab.

Dies trägt zu der wachsenden Menge an Literatur bei, die dokumentiert, dass die Lebensmittel, die wir essen, und die Getränke, die wir trinken, uns nicht bloß ernähren oder Vergnügen bereiten – ihre bloße Wahrnehmung oder die Erinnerung an sie beeinflusst, wie wir denken.“

Diese Studie wurde im April 2019 in der Fachjournal Consciousness and Cognition veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Monash University
Dr. Eugene Chan
Senior Lecturer, Department of Marketing
Email: Eugene.Chan@monash.edu

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de

Quelle: IDW 

(nach oben)


Individuelle Ernährung zeigt Nutzen bei Spitalpatienten

Reto Caluori Kommunikation & Marketing
Universität Basel

Durch eine individualisierte Ernährung nehmen Spitalpatienten nicht nur mehr Proteine und Kalorien zu sich, sondern es verbessern sich auch die klinischen Ergebnisse der Behandlung. Das zeigt eine Studie von Forschenden der Universität Basel und des Kantonsspitals Aarau in der Fachzeitschrift «The Lancet».

Wer wegen einer Erkrankung nicht mehr richtig essen und trinken kann, läuft Gefahr, zu wenig Proteine und Energie zu sich zu nehmen. In den medizinischen Abteilungen von Spitälern ist von diesem Phänomen über ein Drittel der stationären Patienten und Patientinnen betroffen.

Durch eine Mangelernährung verschlechtert sich nicht nur die Lebensqualität der hospitalisierten Patienten, sondern sie wirkt sich auch negativ auf den Krankheitsverlauf aus, steigert das Risiko für Komplikationen und erhöht die Sterberate.

Besteht die Gefahr für Ernährungsdefizite, empfehlen Richtlinien eine individuell angepasste Ernährung während des Spitalaufenthalts, um die Versorgung mit Proteinen und Kalorien sicherzustellen. Mögliche Massnahmen reichen von einem Ernährungsplan über die Nährstoffzufuhr mittels Sonde bis zu einer intravenösen Ernährung.

Erste kontrollierte Studie
Da bisher aussagekräftige Studien fehlen, war unklar, ob sich ein individuelles Ernährungsmanagement bei kranken Patienten tatsächlich positiv auswirkt, zumal auch eine Ernährungsunterstützung unerwünschte Nebenwirkungen haben kann.

In einer klinischen Studie mit über 2000 Patientinnen und Patienten in acht Schweizer Spitälern haben Forschende den Nutzen einer solchen Ernährungsunterstützung nun erstmals in einer randomisierten, kontrollierten Studie überprüft.

Dazu wurden medizinische Patientinnen und Patienten, bei denen ein Ernährungsrisiko bestand, zufällig in zwei Gruppen eingeteilt. Die eine Gruppe erhielt während ihres Spitalaufenthalts die herkömmlichen Gerichte aus der Spitalküche. Für die Patienten der zweiten Gruppe stellten Ernährungsberaterinnen ergänzend einen individuellen Ernährungsplan zusammen.

Individuelle Ernährung zeigt Nutzen
Nach 30 Tagen zeigte sich: Durch eine individualisierte Ernährung wurde nicht nur die Versorgung mit Energie und Proteinen besser erreicht, sondern die Behandlungsergebnisse verbesserten sich generell. So traten im Vergleich weniger schwere Komplikationen auf, und die Sterblichkeit ging zurück. Statistisch liess sich bei einer von 25 behandelten Personen eine schwere Komplikation und bei 37 behandelten Personen ein Todesfall verhindern.

«Unsere Ergebnisse zeigen, dass Mangelernährung ein modifizierbarer Risikofaktor ist und die Therapie einen positiven Einfluss auf den Krankheitsverlauf hat», sagt Studienleiter Prof. Dr. Philipp Schütz, SNF-Förderungsprofessor an der Universität Basel und Chefarzt der Inneren und Notfallmedizin am Kantonsspital Aarau. «Diese Studie ist für die Behandlung von polymorbiden Spitalpatienten von grosser Relevanz und dürfte die Bedeutung der Ernährungstherapie bei Risikopatienten stärken.»

Die Effort-Studie (Effect of early nutritional support on frailty, functional outcomes and recovery of malnourished medical inpatients trial) wurde vom Schweizerischen Nationalfonds und dem Forschungsfonds des Kantonsspitals Aarau unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Philipp Schütz, Universität Basel / Kantonsspital Aarau, Tel. +41 62 838 95 24, mobil: +41 79 365 10 06, E-Mail: philipp.schuetz@unibas.ch

Originalpublikation:
Philipp Schuetz, Rebecca Fehr, Valerie Baechli, Martina Geiser, Manuela Deiss, Filomena Gomes, Alexander Kutz, Pascal Tribolet, Thomas Bregenzer, Nina Braun, Claus Hoess, Vojtech Pavlicek, Sarah Schmid, Stefan Bilz, Sarah Sigrist, Michael Brändle, Carmen Benz, Christoph Henzen, Silvia Mattmann, Robert Thomann, Claudia Brand, Jonas Rutishauser, Drahomir Aujesky, Nicolas Rodondi, Jacques Donzé, Zeno Stanga, Beat Mueller
Individualized nutritional support in medical inpatients at nutritional risk: a randomized clinical trial
The Lancet (2018), doi: 10.1016/S0140-6736(18)32776-4
https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(18)32776-4/fullt…

Quelle: IDW 

(nach oben)


Materialbestände und -flüsse bestimmen Energiebedarf und Klimawirkung

Klaus P. Prem Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg

Ein „Young Researcher Seminar on Sustainable Material Cycles“ am Resource Lab der Universität Augsburg diskutierte aktuelle Projekte der Industrial Ecology

Ein Viertel der globalen Treibhausgasemissionen sind allein auf die Bereitstellung von Materialien zurückzuführen. Wie lassen sich der weltweite Materialhunger und die von ihm mit verursachten Klimaschäden in den Griff bekommen? Knapp 30 junge Wissenschaftlerinnen und Wissenschaftler setzten sich mit dieser Herausforderung beim „Young Researcher Seminar on Sustainable Material Cycles“ des Resource Lab am Institut für Materials Resource Management der Universität Augsburg auseinander.

Mit der Konsequenz, dass seine Befriedigung mittlerweile weltweit ein Viertel der Luftbelastung durch Kohlenstoffdioxid und andere Treibhausgase verursacht, hat sich der Materialhunger der Welt innerhalb der letzten dreißig Jahre verdoppelt. Allein auf die Erzeugung von Stahl, Eisen, Zement und Kunststoffen lassen sich jährlich Treibhausgase von über acht Gigatonnen CO2-Äquivalenten zurückführen. Die Einhaltung der Pariser Klimaziele erweist sich damit als eine besondere Herausforderung für die Materialwirtschaft bzw. für die Verringerung der durch sie verursachten Emissionen.

Höhere Ressourceneffizienz und nachhaltige Materialkreisläufe
Eine höhere Ressourceneffizienz und nachhaltige Materialkreisläufe sind deshalb gefragter denn je: Wie lassen sich Ressourcen und Materialien effizienter und intelligenter nutzen und wie müssen ihre Kreisläufe gestaltet werden, damit der Bedarf an ihnen nicht unkontrolliert weiter wächst bzw. damit er ohne fortschreitend katastrophale Klimakonsequenzen gedeckt werden kann?

28 junge Wissenschaftlerinnen und Wissenschaftler – Doktoranden, Postdocs und frisch berufene Professoren aus zehn einschlägigen Forschungseinrichtungen in vier Ländern – nutzten das Augsburger „Young Researcher Seminar on Sustainable Material Cycles“ am 15. und 16. April 2019, um ihre laufenden Projekte und aktuellen Forschungsergebnisse zu globalen Flüssen und Beständen von Materialien und Energie zu präsentieren und um sie insbesondere auch unter den Gesichtspunkten der Methodentransparenz und der Verknüpfbarkeit der jeweiligen Modelle zur Diskussion zu stellen

Langfristige Festlegungen im Großen, verzögerte Wirkung von Maßnahmen im Kleinen
Deutlich wurde in diesen Diskussionen nicht zuletzt, wie dringend die Bewertung verschiedener Szenarien bzw. die Berücksichtigung der zeitlichen Dimensionen in unterschiedlichen Szenarien ist: So stehen z. B. zwei Drittel der Wohngebäude, die im Jahr 2050 genutzt werden, bereits heute, was bedeutet, dass im Großen also Teile des Energie- und Mobilitätsbedarfs, aber auch des Instandhaltungsbedarfs der Zukunft bereits festgelegt sind. Im Kleinen aber – wo es also etwa um die Reduktion von Störstoffen in recycelten Materialien geht – wirken die Maßnahmen aufgrund der Produktlebensdauern erst mit großer Verzögerung.

Interdisziplinarität der Industrial Ecology
„Dass das Forschungsfeld der Industrial Ecology, dem wir uns am Resource Lab der Universität Augsburg widmen, nur in umfassender und ausgeprägter Interdisziplinarität bearbeitet werden kann, wenn es den von Ressourcen- und Materialproblematik aufgeworfenen gesamtgesellschaftlichen und globalen Herausforderungen erfolgreich begegnen will, hat sich auch in unserem Augsburger Nachwuchsseminar einmal mehr gespiegelt: Die Ingenieur- und Naturwissenschaften,“ so die Resource Lab-Projektleiterin Dr. Andrea Thorenz, „waren unter den Teilnehmerinnen und Teilnehmern ebenso vertreten wie die Wirtschafts- und Sozialwissenschaften.“

Neue Vorlesung „Industrial Ecology“ für Master-Studierende
Seit dem laufenden Sommersemester bieten der Augsburger Lehrstuhl für Production and Supply Chain Management (Prof. Dr. Axel Tuma) und das Resource Lab im Masterstudium der Wirtschaftswissenschaften und des Wirtschaftsingenieurwesens erstmals eine neue Vorlesung zur „Industrial Ecology“ an. „Dass wir auf Anhieb mehr als hundert Hörererinnen und Hörer haben, belegt meines Erachtens, wie berechtigt und wichtig es ist, unsere zukunftsweisenden Themen auch in die interdisziplinäre Lehre einzubringen“, so der Wirtschaftswissenschaftler Tuma.

Das „Young Researcher Seminar on Sustainable Material Cycles“ am Resource Lab der Universität Augsburg wurde unterstützt von der Georg-Haindl-Wissenschaftsstiftung.

Ansprechpartner:
Dr. Andrea Thorenz und Dr. Christoph Helbig
Resource Lab
Universität Augsburg
86135 Augsburg
Telefon +49(0)821-598-3948 oder -3945
christoph.helbig@wiwi.uni-augsburg.de

Wissenschaftliche Ansprechpartner:
Dr. Andrea Thorenz und Dr. Christoph Helbig
Resource Lab
Universität Augsburg
86135 Augsburg
Telefon +49(0)821-598-3948 oder -3945
christoph.helbig@wiwi.uni-augsburg.de

Weitere Informationen:
http://www.resource-lab.de/

Quelle: IDW 

(nach oben)


Natrium-Ionen-Batterien: von der Materialentwicklung bis zur technologischen Innovation

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Umweltfreundlich, kostengünstig und hochleistungsfähig sollen die Natrium-Ionen-Batterien der nächsten Generation sein. Passende Aktivmaterialien und Elektrolyte entwickeln Forscherinnen und Forscher des vom Karlsruher Institut für Technologie gegründeten Helmholtz-Instituts Ulm gemeinsam mit dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg und der Friedrich-Schiller-Universität Jena. Im Projekt TRANSITION, vom Bundesforschungsministerium mit 1,15 Millionen Euro gefördert, arbeiten sie an Lösungen für den Technologietransfer und leisten damit einen wesentlichen Beitrag zu einem nachhaltigeren Energiespeichermarkt in Deutschland.

Die Motivation hinter dem Projekt TRANSITION ist, einen zentralen Beitrag zu einer nachhaltigeren Energiespeicherstrategie in Deutschland zu leisten. Die Märkte für Elektromobilität und stationäre Energiespeicherung werden im Zuge der Energiewende deutlich wachsen und erfordern energieeffizientere und leistungsfähigere Speichertechnologien. Derzeit sind Lithium-Ionen-Batterien einer der größten Erfolge für Energiespeicheranwendungen des letzten Jahrhunderts. Lithium-Ionen-Batterien sind leicht, kompakt und bieten eine hervorragende Energie- und Leistungsdichte und dominieren den Markt für tragbare Elektronik, Hybrid- und Elektrofahrzeuge. „Angesichts der zunehmend steigenden Nachfrage nach Lithium und den in der Lithium-Technologie eingesetzten Rohstoffen wie Kobalt werden jedoch Bedenken hinsichtlich der zukünftigen und langfristigen Verfügbarkeit der kritischen Rohstoffe und der Kosten laut. In diesem Szenario stellen Natrium-Ionen-Batterien eine alternative, kostengünstige und umweltfreundlichere Energiespeichertechnologie dar“, sagt Professor Stefano Passerini, Direktor des HIU.

Das Projekt TRANSITION konzentriert sich auf die Entwicklung leistungsfähiger, flüssiger und polymerer Natrium-Ionen-Batterien, die auf der Kathodenseite Übergangsmetallschichtoxide und auf der Anodenseite Hartkohlenstoff aus Biomasse verwenden. „Dies ist das erste vom BMBF geförderte deutsche Konsortium, das an der Entwicklung hochskalierter Natrium-Ionen-Batterien arbeitet und ein breites Spektrum an Herausforderungen von der Materialentwicklung bis zur Herstellung von Prototypenzellen abdeckt“, so Passerini. In dem Projekt wird sein Team einen innovativen, auf Biomasse basierenden Hartkohlenstoff in Kombination mit wässrigen Bindemitteln und Aluminium als Stromabnehmer entwickeln.

„Die Entwicklung von hochskalierten Prototypen der Natrium-Ionen-Batterien und das Erreichen der gewünschten Ziele stellen eine große Herausforderung dar, die sich nur in einem Netzwerk mit den komplementären Kompetenzen der Partner bewältigen lässt“, sagt Stefano Passerini. Das Team der Friedrich-Schiller-Universität Jena (FSU) koordiniert die Forschungsaktivitäten zur Entwicklung fortschrittlicher flüssiger und polymerer Elektrolyte, während das Team des Zentrums für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) die Entwicklung kobaltfreier Kathoden vorantreibt.

Über das TRANSITION-Projekt
Die drei Partner des TRANSITION-Projekts werden gemeinsam an der Entwicklung leistungsfähiger flüssiger und polymerer Prototypen der Natrium-Ionen-Batterien arbeiten, um so die internationale Wettbewerbsfähigkeit zu stärken und die führende Position Deutschlands auf dem Gebiet der elektrochemischen Energiespeicherung zu unterstützen.

Das im Rahmenprogramm Batterien 2020 durch das Bundesministerium für Bildung und Forschung geförderte Projekt umfasst neben den drei wissenschaftlichen Partnern einen umfassenden Industriebeirat. Leiter der wissenschaftlichen Gruppen sind Professor Stefano Passerini (HIU), Dr. Margret Wohlfahrt-Mehrens vom Zentrum für Sonnenenergie- und Wasserstoff-Forschung (ZSW) und Professor Philipp Adelhelm von der Friedrich-Schiller-Universität Jena (FSU).

Über das Helmholtz-Institut Ulm
Das Helmholtz-Institut Ulm (HIU) wurde im Januar 2011 vom Karlsruher Institut für Technologie (KIT) als Mitglied der Helmholtz-Gemeinschaft in Kooperation mit der Universität Ulm gegründet. Mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) sowie dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) sind zwei weitere renommierte Einrichtungen als assoziierte Partner in das HIU eingebunden. Das internationale Team aus rund 120 Wissenschaftlerinnen und Wissenschaftlern forscht im HIU an der Weiterentwicklung der Grundlagen von zukunftsfähigen Energiespeichern für den stationären und mobilen Einsatz.

Mehr zum HIU: http://www.hiu-batteries.de/

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:

Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu

Originalpublikation:

https://www.kit.edu/kit/pi_2019_054_natrium-ionen-batterien-von-der-materialentw…

Weitere Informationen:
http://www.sek.kit.edu/presse.php
http://martin.heidelberger@kit.edu
http://www.hiu-batteries.de/
http://www.energie.kit.edu

Anhang
KIT: Natrium-Ionen-Batterien: von der Materialentwicklung bis zur technologischen Innovation
https://idw-online.de/de/attachment71663

Quelle: IDW 

(nach oben)


Förderung für junge Wissenschaftler

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Das BMEL unterstützt Forscher-Nachwuchsgruppen im Bereich Nachwachsende Rohstoffe – Projektvorschläge bis 16.9. einreichen

Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) ruft Forschungseinrichtungen dazu auf, Konzepte für Arbeiten zu nachwachsenden Rohstoffen einzureichen. Gefördert werden Gruppen mit bis zu fünf jungen Wissenschaftler*innen, die im Themenbereich „Nachwachsende Rohstoffe“ forschen.
Der Förderzeitraum beträgt bis zu fünf Jahre, Projektskizzen können bis zum 16.9.2019 an die Fachagentur Nachwachsende Rohstoffe (FNR), Projektträger des BMEL, gerichtet werden.

Der jetzt veröffentlichte Förderaufruf spricht besonders qualifizierte Nachwuchswissenschaftler*innen an. Sie erhalten die Chance, über einen Zeitraum von bis zu fünf Jahren vertieft zu forschen und damit zugleich die Voraussetzungen für eine Berufung als Hochschullehrer*in zu erfüllen. Die Qualifizierung soll u. a. durch die eigenverantwortliche Leitung einer Nachwuchsgruppe an einer Hochschule oder Forschungseinrichtung in Deutschland erfolgen.

Die Forscher-Nachwuchsgruppen sind aufgerufen, substanziell zur Entwicklung von innovativen Verfahren und Produkten auf Basis nachwachsender Rohstoffe beizutragen. Der Bekanntmachung liegt das Förderprogramm „Nachwachsende Rohstoffe“ des BMEL zu Grunde. Sie richtet sich auf die Themenbereiche

· Nachhaltige Erzeugung und Bereitstellung nachwachsender Ressourcen,
· Rohstoff- und Reststoffaufbereitung und -verarbeitung,
· Herstellung biobasierter Produkte sowie
· Innovative Technologien zur Bioenergiegewinnung und -nutzung.

Der vollständige Förderaufruf steht unter https://www.fnr.de/projektfoerderung/fuer-antragsteller/aktuelle-bekanntmachunge… zur Verfügung.

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e. V.
Torsten Gabriel
Tel.: +49 3843 6930-117
Mail: t.gabriel@fnr.de

Weitere Informationen:
https://www.fnr.de/projektfoerderung/fuer-antragsteller/aktuelle-bekanntmachunge…
https://www.fnr.de/projektfoerderung/fuer-antragsteller/aktuelle-bekanntmachunge…

Quelle: IDW 

(nach oben)


Bald ist Europawahl: Positionen der Parteien zur EU-Hochschulpolitik

Susanne Schilden Kommunikation
Hochschulrektorenkonferenz (HRK)

Die HRK hat die im Bundestag vertretenen Parteien zu ihren hochschulpolitischen Standpunkten auf europäischer Ebene befragt. Die Antworten auf sechs Wahlprüfsteine sind auf der HRK-Website einander gegenübergestellt. HRK-Präsident Prof. Dr. Peter-André Alt heute in Berlin zu den Ergebnissen: „Die Antworten der Parteien lassen zu wünschen übrig. Besonders die Frage nach einer stärkeren Repräsentation der Hochschulen auf EU-Ebene hat keine konkreten Vorschläge hervorgebracht. Dass die Parteien sich mit dem Status quo der Zusammenarbeit zwischen Hochschulen und EU-Kommission zufriedengeben, ist enttäuschend.“

Die Hochschulrektorenkonferenz (HRK) hat die im Bundestag vertretenen Parteien zu ihren hochschulpolitischen Standpunkten auf europäischer Ebene befragt. Die Antworten auf sechs Wahlprüfsteine sind auf der HRK-Website einander gegenübergestellt.

HRK-Präsident Prof. Dr. Peter-André Alt heute in Berlin zu den Ergebnissen:
„Die Antworten der Parteien lassen zu wünschen übrig. Besonders die Frage nach einer stärkeren Repräsentation der Hochschulen auf EU-Ebene hat keine konkreten Vorschläge hervorgebracht. Dass die Parteien sich mit dem Status quo der Zusammenarbeit zwischen Hochschulen und EU-Kommission zufriedengeben, ist enttäuschend. Die Vergangenheit hat gezeigt, dass selbst Leuchtturmprojekte der Wissenschaft wie Erasmus+ eine starke Stimme in den Gremien brauchen, um nicht in Vergessenheit zu geraten.

Die Hochschulautonomie halten die Parteien zwar erfreulicherweise für schützenswert, bieten aber auch hier keine Antworten, wie ein Mindestmaß definiert werden könnte. In Zeiten der Diskussionen um die Central European University in Ungarn und um die Wissenschaftsfreiheit in der Türkei sind verbindlichere Indikatoren zur Autonomie von Forschung und Lehre aber elementar.

Eine auskömmliche Finanzierung von Forschung und Innovation, von Bildung und Mobilität ist unerlässlich – darin sind sich die Parteien einig. Jedoch darf das EU-Parlament sich nicht auf seinen Forderungen nach einem höheren Budget für das kommende EU-Rahmenprogramm für Forschung und Innovation (FRP) ausruhen. Das FRP ist das Kerninstrument der europäischen Forschungsförderung und begünstigt den EU-weiten Austausch von Forschenden. Wir brauchen die wissenschaftliche, internationale Zusammenarbeit, sie ist aus dem hochschulischen Alltag nicht mehr wegzudenken. Das bestätigen die befragten Parteien, die der Mobilität einen hohen Stellenwert zuerkennen. Trotzdem fehlen auch hier politische Modellansätze, wie eine offene und flexible europäische Forschungszusammenarbeit aussehen kann und wie diesen finanziert werden soll. Die Hochschulen brauchen aber eine verlässliche und kompetente Vertretung auf EU-Ebene, um ihre globale Wettbewerbsfähigkeit zu sichern.“

Weitere Informationen:
https://www.hrk.de/themen/eu-wahl-2019/eu-wahlpruefsteine-2019/ Wahlprüfsteine an die Parteien
http://www.hrk.de

Quelle: IDW 

(nach oben)


Neue Behandlungsoptionen bei chronischen Schmerzen durch Früherkennung?

Oliver Grieve, Pressesprecher Stabsstelle Integrierte Kommunikation
Universitätsklinikum Schleswig-Holstein

Der vom BMBF geförderte Forschungsverbund noChro hat sich zum Ziel gesetzt, durch einfache Diagnostik von Biomarkern eine Schmerzchronifizierung vorherzusagen und damit betroffenen Patienten eine auf sie maßgeschneiderte Therapie zu ermöglichen.

Chronischer Schmerz betrifft etwa ein Fünftel der europäischen Bevölkerung und ist ein schwer behandelbares Gesundheitsproblem, das sowohl die Lebensqualität stark einschränkt als auch die Ökonomie stark belastet. Bisher gibt es keine medizintechnischen Lösungen, welche eine Prädisposition für Schmerzchronifizierung diagnostizieren können. Dabei spielt gerade die Früherkennung krankhaft veränderter Schmerzverarbeitung eine entscheidende Rolle, um chronische Schmerzzustände durch frühe zielgerichtete Therapien zu vermeiden. Das Bundesministerium für Bildung und Forschung (BMBF) hat diesen medizinischen Bedarf erkannt und mit der Bekanntmachung „Chronische Schmerzen – Innovative medizintechnische Lösungen zur Verbesserung von Prävention, Diagnostik und Therapie“ zur Einreichung innovativer Projekte aufgefordert. Der zukunftsweisende Vorschlag des noChro-Konsortiums mit dem Titel „Frühdetektion von Schmerzchronifizierung: eine Analyseapplikation zur Integration sensorischer Profile und Biomarker“ hat das BMBF überzeugt und erhielt Anfang 2019 die Bewilligung zur Förderung.
Das ambitionierte Ziel des Projektes verspricht eine deutliche Verbesserung der Lebensqualität der Betroffenen durch eine frühzeitige Diagnostik und eine individuelle Therapie. noChro hat zum Ziel, durch eine verbesserte Diagnostik und ein verbessertes Versorgungsmanagement die Chronifizierung von Schmerzen zu verhindern und neue patientenspezifische Therapien zu entwickeln. noChro soll damit eine innovative Analyseplattform werden, welche anhand von spezifischen Bluttests und neurophysiologischen Messdaten seriöse Vorhersagen zu einer Schmerzchronifizierung erlaubt.

PD Dr. Philipp Hüllemann (Universitätsklinikum Schleswig-Holstein, Campus Kiel), wissenschaftlicher Koordinator, sagt: „Durch neue hochsensitive Analyseverfahren haben wir heute die Möglichkeit nach Markern im Blut zu suchen, welche uns eine Prädisposition für Schmerzchronifizierung anzeigen. Die entscheidenden Fragen sind, welche Marker sind ausschlaggebend, welche korrelieren mit sensorischen Messungen des Nervensystems oder mit der klinischen Ausprägung einer Schmerzerkrankung? Wenn wir unser Projekt abgeschlossen haben, werden wir wissen, ob uns ein einzelner Blutstropfen den Weg Richtung Spontanheilung oder Schmerzchronifizierung weisen kann.“
„Für die Präzisionsmedizin von Patienten mit chronischem Schmerz werden innovative Biomarker gebraucht, um Patienten zu stratifizieren mit dem Ziel, eine frühzeitige Prävention oder Anwendung maßgeschneiderter Therapieoptionen zu erreichen“, ergänzt Prof. Dr. Dirk Roggenbuck (Firma MEDIPAN GmbH). „Das Projekt noChro adressiert diese Herausforderung hervorragend durch die interdisziplinäre Zusammenarbeit von klinischen Forschergruppen mit einer profunden Expertise im Wissenstransfer und kleinen und mittleren Unternehmen mit Erfahrungen bei der Herstellung und Vermarktung von Medizinprodukten.‘
Prof Dr. Ralf Baron (Universitätsklinikum Schleswig-Holstein, Campus Kiel), wissenschaftlicher Berater des Projektes, sagt: „Aus den USA hören wir zurzeit viel von einer sogenannten Opioid-Epidemie. Gerade um dem Fehlgebrauch von hochpotenten Opioiden bei Schmerzerkrankungen entgegenzuwirken, ist eine Verhinderung der Chronifizierung bereits zu Beginn der Erkrankung von entscheidender Bedeutung. Gerade diesem hochaktuellen Thema widmet sich das noChro-Projekt.“

Das Konsortium wird im Rahmen des durch das BMBF für drei Jahre geförderten Projekts Patienten mit schmerzhaften und schmerzlosen Polyneuropathien sowie Radikulopathiepatienten (z.B. lumbale Nervenwurzelkompression nach Bandscheibenvorfall) mit Bluttests und elektrophysiologischen Methoden untersuchen. Die für die Schmerzchronifizierung wichtigsten Blut-Biomarker (Interleukine und Mikro-RNA) sollen anhand modernster bioinformatischer Verfahren mit klinischen und neurophysiologischen Daten (Modalitäten-spezifischen evozierten Potentialen) nachgewiesen werden. noChro entwickelt eine mobile medizintechnische Lösung, welche die Blutergebnisse erfassen und die Prädisposition für Schmerzchronifizierung vorhersagen kann.
Das unternehmensgeführte Konsortium besteht aus der Firma MEDIPAN GmbH (Prof. Dr. Dirk Roggenbuck, Dr. Marc Wegmann), der Firma MicroDiscovery GmbH (Dr. Arif Malik), dem Fraunhofer IZI-BB (PD Dr. Harald Seitz), dem Zentrum für Translationale Medizin am Marien Hospital Herne, der Universitätsklinik der Ruhruniversität Bochum (Prof. Dr. Nina Babel) sowie der Sektion für Neurologische Schmerzforschung und -therapie der Klinik für Neurologie des Universitätsklinikums Schleswig-Holstein, Campus Kiel (PD Dr. Philipp Hüllemann).

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Schleswig-Holstein, Campus Kiel
Klinik für Neurologie, PD Dr. Philipp Hüllemann
Tel.: 0431 500-23911, E-Mail: philipp.huellemann@uksh.de

Quelle: IDW 

(nach oben)


Physikalische Zauberei ermöglicht Kühlen ohne Energiezufuhr

Beat Müller Kommunikation
Universität Zürich

Physiker der Universität Zürich haben eine verblüffend einfache Anordnung entwickelt, bei der Wärme ohne Energiezufuhr von aussen zeitweise von einem kälteren zu einem wärmeren Objekt fliesst. Dieser Vorgang steht jedoch nur scheinbar im Widerspruch zu den Gesetzen der Physik.

Stellt man einen Krug mit kochendem Wasser auf den Küchentisch, so wird dieser mit der Zeit abkühlen. Doch seine Temperatur wird nie unter jene des Tisches fallen. Genau diese Alltagserfahrung beschreibt einer der fundamentalen Sätze der Physik: der Zweite Hauptsatz der Thermodynamik. Er besagt, dass die Entropie eines abgeschlossenen Systems mit der Zeit zunehmen muss. Vereinfacht ausgedrückt heisst das, dass Wärme von selbst nur von einem wärmeren zu einem kälteren Objekt fliessen kann und nicht umgekehrt.

Abkühlen unter Zimmertemperatur
Die Forschungsgruppe von Prof. Andreas Schilling am Physik-Institut der Universität
Zürich (UZH) hat nun ein Experiment durchgeführt, dessen Ergebnis den Zweiten Hauptsatz der Thermodynamik auf den ersten Blick zu verletzen scheint. Den Forschern ist es gelungen, ein neun Gramm schweres Stück Kupfer von über 100°C deutlich unter Zimmertemperatur abzukühlen, ohne dass von aussen Energie zugeführt wird. «Theoretisch könnte man mit dieser Versuchsanordnung kochendes Wasser ohne Energieaufwand zu Eis erstarren lassen», sagt Schilling.

Oszillierende Wärmeströme erzeugen
Die Forscher verwendeten hierfür ein sogenanntes Peltier-Element – ein Bauteil, das beispielsweise für das Kühlen der Minibar in Hotelzimmern eingesetzt wird. Es hat die Fähigkeit, elektrische Ströme in eine Temperaturdifferenz umzuwandeln. Mit Hilfe eines solchen Elements erzeugten die Wissenschaftler in Verbindung mit einer elektrischen Induktivität schon in früheren Versuchen einen oszillierenden Wärmestrom, bei dem der Wärmefluss zwischen zwei Körpern ständig die Richtung wechselt. Dabei wird zeitweise auch Wärme von einem kälteren Objekt auf ein wärmeres Objekt übertragen, so dass das kältere Objekt weiter abkühlt. Ein solcher «thermischer Schwingkreis» enthält faktisch eine «thermische Induktivität». Er funktioniert analog zu einem elektrischen Schwingkreis, bei dem die elektrische Spannung mit ständig wechselndem Vorzeichen oszilliert.

Physikalische Gesetze bleiben intakt
Bis jetzt hatte das Team um Schilling solche thermischen Schwingkreise nur unter Zufuhr von Energie betrieben. Die Forscher konnten nun erstmals zeigen, dass sich ein solcher thermischer Schwingkreis auch passiv – also ohne jegliche Energiezufuhr von aussen – betreiben lässt. Es traten ebenfalls thermische Oszillationen auf und über einige Zeit floss Wärme direkt vom kälteren Kupfer hin zu einem wärmeren Wärmebad von 22°C ohne zwischenzeitlich in eine andere Energieform umgewandelt zu werden. Die Autoren konnten zudem nachweisen, dass bei diesem Vorgang trotzdem keine Gesetze der Physik verletzt wurden. Dazu berechneten sie die Änderung der Entropie des Gesamtsystems und zeigten, dass diese im Verlauf der Zeit zunimmt – genau wie dies der Zweite Hauptsatz der Thermodynamik fordert.

Potenzielle Anwendung noch Zukunftsmusik
Der im Experiment erreichte Unterschied zur Zimmertemperatur betrug zwar nur knapp 2°C, doch liegt dies hauptsächlich an den Eigenschaften des verwendeten kommerziellen Peltier-Elements. Gemäss Schilling wäre rein rechnerisch mit einem (noch nicht existierenden) «idealen» Peltier-Elements unter gleichen Bedingungen eine Abkühlung bis zu -47°C möglich: «Mit dieser sehr einfachen Technik liessen sich theoretisch also grosse Mengen an heissem Material, egal ob fest, flüssig oder gasförmig, ohne jeglichen Energieaufwand unterhalb Umgebungstemperatur abkühlen.» Der passive thermische Schaltkreis könnte dabei beliebig oft verwendet werden.

Schilling räumt allerdings ein, dass eine Anwendung in grossem Massstab noch nicht absehbar ist. Einerseits sind die derzeit erhältlichen Peltier-Elemente nicht effizient genug. Andererseits benötigt die jetzige Versuchsanordnung supraleitende Induktivitäten, um die elektrischen Verluste möglichst klein zu halten.

Altgediente Auffassungen auf den Kopf gestellt
Für den UZH-Physiker ist nicht nur der erstmals erbrachte, prinzipielle Nachweis bedeutsam: «Die Experimente muten zunächst wie thermodynamische Zauberei an und rütteln damit auch in gewissem Masse an unseren gängigen Vorstellungen über Wärmeflüsse.»

Wissenschaftliche Ansprechpartner:

Prof. Dr. Andreas Schilling
Physik-Institut
Universität Zürich
Tel. +41 44 635 57 91
E-Mail: schilling@physik.uzh.ch

Originalpublikation:
A. Schilling, X. Zhang, and O. Bossen. Heat flowing from cold to hot without external intervention by using a „thermal inductor“. Science Advances. April 19, 2019. DOI: 10.1126/sciadv.aat9953

Weitere Informationen:
https://www.media.uzh.ch/de/medienmitteilungen/2019/Thermischer-Schwingkreis.htm…

Quelle: IDW 

(nach oben)


Salmonellen-Infektion – Schützende Darmbakterien identifiziert

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

LMU-Wissenschaftler haben Bakterien identifiziert, die Mäuse vor einer Salmonelleninfektionen schützen.

Salmonellen sind stäbchenförmige Bakterien, die beim Menschen und vielen Tieren Magen-Darm-Infektionen (Gastroenteritis) verursachen können. Insbesondere bei Angehörigen von Risikogruppen wie Säuglingen, Kleinkindern, älteren oder immungeschwächten Menschen kann eine Salmonelleninfektion schwer verlaufen. Menschen mit einer intakten Darmflora dagegen sind meist geschützt. Nur bei etwa 10 bis 20 Prozent derer, die die Keime – meist über kontaminierte Lebensmittel – aufnehmen, kommt es überhaupt zu einer Infektion. Welche Bakterien in der Darmflora aber womöglich die Ursache der schützenden Effekte sind, ist bisher weitgehend unbekannt. Wissenschaftlern um Bärbel Stecher, Professorin am Max von Pettenkofer-Institut der LMU und Mitglied des Deutschen Zentrums für Infektionsforschung (DZIF), ist es nun gelungen, ein Bakterium zu identifizieren, das im Mausmodell vor Infektionen mit Salmonella enterica serovar Typhimurium – eine der beiden in Deutschland häufigsten Subspezies – schützt. Über ihre Ergebnisse berichten die Wissenschaftler im Fachmagazin Cell Host & Microbe.

Der Darm gesunder Menschen und Mäuse ist dicht mit Bakterien und anderen Mikroorganismen besiedelt. Diese natürliche Darmflora kann vor Infektionen mit Salmonellen schützen, weil insbesondere die kommensalen Bakterien dort Inhibitoren produzieren, alle Nischen besetzen und relevante Nährstoffe wie Zucker oder Proteine, aber auch Sauerstoff verbrauchen. Um zu untersuchen, wie eine gesunde Darmflora zusammengesetzt ist, die optimal vor Infektionen schützt, haben Sandrine Brugiroux und Debora Garzetti aus dem Forschungsteam das Mikrobiom diverser Mausgruppen verglichen. Die Tiere einer Gruppe hatten sich als vor Salmonellen-Infektionen geschützt erwiesen, die Mäuse der anderen Gruppen nicht.

Dabei fanden die Wissenschaftler, dass in den geschützten Mäusen Bakterien der Art Mucispirillum schaedleri vorkommen, in der anderen Gruppe fehlen diese. M. schaedleri gehört zu einer Bakteriengroßgruppe, deren Vertreter hauptsächlich in Schlamm oder Sedimenten leben – nur Mucispirillum kommt im Darm von Warmblütern vor, bei Mäusen wie Menschen. „Bisher hat man geglaubt, dass dieses Bakterium bei Menschen nicht so häufig vorkommt“, sagt Stecher, „aber bei Stuhluntersuchungen wird M. schaedleri oft nicht entdeckt, da sich diese Bakterien in der Schleimschicht des Darms anreichern. In Studien, in denen die Darmschleimhaut untersucht wurde, hat man die Bakterien bei 50 Prozent der Probanden gefunden.“

In einem nächsten Schritt setzte Simone Herp, die gerade Ihre Doktorarbeit am Max von Pettenkofer-Institut erfolgreich abgeschlossen hat, ein sogenanntes gnotobiotisches Modell ein. Das sind Mäuse, deren Darm zunächst keimfrei ist und gezielt besiedelt werden kann, sodass sie eine definierte Darmflora in sich tragen. „Wir haben eine Gruppe Mäuse generiert, die Mucispirillum im Darm haben und eine andere ohne diese Bakterien. Beide Gruppen haben wir experimentell mit Salmonellen infiziert und konnten tatsächlich zeigen, dass Mucispirillum kausal mit einem Schutz vor Salmonelleninfektionen in Verbindung steht“, sagt Stecher.

Weitere Untersuchungen der Forscher zeigten, dass die Schutzwirkung von Mucispirillum darauf beruht, dass die Bakterien mit den Salmonellen um bestimmte Nährstoffe konkurrieren, zum Beispiel um Nitrat. Durch diese Konkurrenz wachsen die Salmonellen zwar nicht unbedingt langsamer, aber sie können ihren wichtigsten Virulenzfaktor – die Eigenschaft, auf dem die pathogene Wirkung beruht – nicht mehr bilden. Dieser Virulenzfaktor, ein sogenanntes Typ-III-Sekretionssystem, fungiert als eine Art molekulare Nadel, mit der die Salmonellen Toxine in die Epithelzellen spritzen. In der Folge können sie in die Epithelzellen eindringen und es kommt letztlich zur Entzündung und Gastroenteritis.

Möglicherweise könnten die Ergebnisse der Wissenschaftler langfristig zur Entwicklung neuer Präventionsmethoden führen. „Aber bis dahin ist noch viel Forschung nötig“, betont Stecher, „noch wissen wir beispielsweise nicht, ob und welche anderen – möglicherweise ja auch negativen – Effekte M. schaedleri im Darm hat.“
Cell Host & Microbe 2019

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bärbel Stecher
Medizinische Mikrobiologie und Krankenhaushygiene
Max von Pettenkofer-Institut
Tel: ++49-89-2180-72948
E-Mail: stecher@mvp.lmu.de
http://www.mvp.uni-muenchen.de/en/research/medical-microbiology-and-hospital-epi…

Originalpublikation:
Mucispirillum schaedleri Antagonizes Salmonella Virulence to Protect Mice against Colitis
Simone Herp, Sandrine Brugiroux, Debora Garzetti, Diana Ring, Lara M. Jochum, Markus Beutler, Claudia Eberl, Saib Hussain, Steffi Walter, Roman G. Gerlach, Hans J. Ruscheweyh, Daniel Huson, Mikael E. Sellin, Emma Slack, Buck Hanson, Alexander Loy, John F. Baines
Cell Host & Microbe 2019
DOI: 10.1016/j.chom.2019.03.004

Quelle: IDW 

(nach oben)


Förderaufruf: Welchen Einfluss hat die Energiewende auf die Gesellschaft – und umgekehrt?

Svenja Krämer Kommunikation, Geschäftsentwicklung
Projektträger Jülich

Die Energiewende geht mit tiefgreifenden Veränderungen und Erweiterungen unseres Energiesystems einher. Sie ist ein gesamtgesellschaftlicher Transformationsprozess. Das Gelingen der Energiewende erfordert daher nicht nur innovative Technologien. Auch die gesellschaftlichen und sozio-ökonomischen Rahmenbedingungen müssen erforscht, verstanden und berücksichtigt werden. Das Bundesministerium für Wirtschaft und Energie (BMWi) sucht daher ab sofort Forschungsvorhaben mit system- und technologieübergreifendem Charakter zur Gesellschaft im Kontext der Energiewende. Projektskizzen können bis zum 11.06.2019 beim Projektträger Jülich (PtJ) eingereicht werden.

Durch den Anstieg erneuerbarer Energien im Strommix, die Innovationen bei den Energiespeichertechnologien und die Entwicklung intelligenter Übertragungs- und Verteilnetze nimmt die Energiewende in Deutschland und Europa immer mehr Form an. Ob und wie unser Energiesystem in Zukunft aussehen wird, hängt aber nicht nur von innovativen Technologien ab. Es braucht darüber hinaus Informationen darüber, wie sich tiefgreifende Veränderungen und neue Prozesse auf die Gesellschaft und ihre Akteure auswirken.

Aus diesem Grund fördert das BMWi im Rahmen des 7. Energieforschungsprogramms der Bundesregierung unter dem Titel „Energiewende und Gesellschaft“ explizit Projekte und Vorhaben zu übergeordneten Themen der gesellschaftlichen Implikation der Energiewende. Der erste offizielle Förderaufruf wurde am 10.4.2019 auf https://www.energieforschung.de veröffentlicht. Stichtag für die Skizzeneinreichung ist der 11.06.2019.

Transdisziplinäre Konsortien gesucht
Die Projektvorschläge sollten sich durch eine Zusammenarbeit von mindestens drei Fachdisziplinen auszeichnen. Das BMWi spricht hiermit neben Partnern aus Energie und Umwelt explizit Akteure aus dem sozialwissenschaftlichen, kommunikationswissenschaftlichen oder geisteswissenschaftlichen Forschungsumfeld an. Förderberechtigt sind unter anderem sektorübergreifende Analysen der gesellschaftlichen Rahmenbedingungen der Energiewende hinsichtlich ihrer technischen, ökonomischen, sozialen, institutionellen und gesetzlichen/regulatorischen Dimension, die Erforschung von Akzeptanz und Mitwirkung im Transformationsprozess oder auch die sozio-ökonomische Erforschung der Folgen von Strukturwandelmaßnahmen.

Nicht Gegenstand des Förderaufrufs ist die originäre Politikberatung. Auch technologiespezifische Projektvorschläge mit direktem Bezug zu gesellschaftlichen Fragen werden nicht in diesem Förderaufruf adressiert. Diese Themen sollten im jeweiligen in der Förderbekanntmachung „Innovationen für die Energiewende“ (https://www.bmwi.de/Redaktion/DE/Downloads/B/bekanntmachung-forschungsfoerderung…) aufgeführten energietechnologischen Forschungsbereich eingereicht werden.

PtJ setzt die Fördermaßnahme im Auftrag des BMWi um.

Über den Projektträger Jülich (PtJ)
Als einer der großen Projektträger in Deutschland ist PtJ Partner für Wissenschaft, Wirtschaft und Politik. Mit seinen Kompetenzen im Forschungs- und Innovationsmanagement unterstützt er seine Auftraggeber in Bund und Ländern sowie die Europäische Kommission bei der Realisierung ihrer forschungspolitischen Zielsetzungen. Förderinteressenten und Antragsteller berät er über aktuelle Förderinitiativen und betreut sie bei der Vorbereitung und Umsetzung ihrer Vorhaben.

Weitere Informationen:
https://www.energieforschung.de/antragsteller/foerderangebote/foerderaufruf_gese…
(Weitere Informationen zum Förderaufruf „Energiewende und Gesellschaft“ sowie Kontaktdaten der Ansprechpartner/innen)

Quelle: IDW 

(nach oben)


Drei Forschungsschiffe – ein Auftrag

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Extreme Hoch- und Niedrigwasserereignisse im Fokus von Wissenschaftsteams

Sturmereignisse mit starken Regenfällen und Überschwemmungen wird es laut globaler Prognosen bis zum Ende dieses Jahrhunderts 10 bis 20 Prozent häufiger geben als bisher. Diese verursachen, ebenso wie extreme Niedrigwasserphasen, erhebliche Schäden und haben somit sozioökonomische aber auch ökologische Auswirkungen. Um diese besser zu verstehen, unternehmen drei Forschungsschiffe des Helmholtz-Programms MOSES am 16. und 17. April 2019 eine gemeinsame Forschungsfahrt von der Elbemündung bis nach Helgoland.

Deutlich erkennbare Extreme in Mitteleuropa sind Überschwemmungen im Einzugsgebiet der Elbe in den Sommermonaten der Jahre 2002 und 2013 sowie auch die extreme Niedrigwasserphase 2018. Jedes dieser Ereignisse verursachte Schäden in Milliardenhöhe und zeigte enorme sozioökonomische sowie ökologische Auswirkungen. „Um die hydrologischen Extreme und ihre Rolle in Wasser- und Stoffkreisläufen besser zu verstehen, brauchen wir fundiertes Wissen über das Zusammenspiel zwischen den Entstehungsbedingungen wie Wetterlagen, Niederschlagsmenge und der Topographie der betroffenen Gebiete sowie den Einflussparametern entlang der Fluss- und Meeressysteme wie beispielsweise Nährstoff- und Schadstoffquellen“, sagt Prof. Philipp Fischer. Der Biologe vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) auf Helgoland koordiniert die jetzt stattfindende Sternfahrt dreier Forschungsschiffe, die diese grundlegenden Daten liefern soll.

Die Ausfahrt findet statt im Rahmen des Helmholtz-Programms MOSES (Modular Observation Solutions for Earth Systems – www.moses-helmholtz.de). MOSES hat zum Ziel, die Auswirkungen solcher extremer Hoch- und Niedrigwasserereignisse am Beispiel des Einzugsgebiets der Elbe zu untersuchen und die möglichen chemischen, physikalischen und ökologischen Folgen von Extremereignissen für das Gesamtsystem von Flussoberlauf bis in die Küstengebiete zu bewerten.

Mit Hilfe speziell angepasster und teilweise neu entwickelter mobiler und modularer Sensorik können die Wissenschaftler Situationen im Wasserhaushalt des Einzugsgebietes (Starkregen- oder langanhaltende Trockenheit), die sich „extrem“ entwickeln, situationsangepasst erfassen und bewerten. Diese Messergebnisse können dann mit den Langzeitmessungen von bestehenden Dauerobservatorien oder den autonomen Beobachtungssystemen von Fähren (Ferry Boxes) von Büsum und Cuxhaven nach Helgoland vergleichend analysiert werden. Solche Observatorien und die Kooperation mit Fähren sind im Rahmen des Projektes Cosyna (Coastal Observing Systems for Northern and Arctic Seas) in der Elbmündung etabliert.

In der Zeit vom 16. bis 17. April findet die erste Testkampagne im Rahmen von MOSES mit den Forschungsschiffen Littorina, Mya II und Ludwig Prandtl statt, um den Ernstfall zu proben. Die drei Schiffe von GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, AWI und Helmholtz-Zentrum Geesthacht Zentrum für Material- und Küstenforschung (HZG) sollen künftig bei Hoch- oder Niedrigwasserereignissen eingesetzt werden, um Proben zu sammeln und Echtzeitdaten während Extremereignisse zu nehmen und diese beispielsweise für die Modellierung möglicher Umweltszenarien und Auswirkungen der Extremereignisse bereitzustellen.

Forschende von fünf Forschungszentren werden von Cuxhaven und Büsum aus nach Helgoland und zurück fahren – neben den Schiffsbetreibern sind das Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum (GFZ) und das Helmholtz-Zentrum für Umweltforschung (UFZ) dabei. Dabei werden sie den schiffsübergreifenden Einsatz vernetzter Sensorik zur flächenhaften Messung der Ökosystemqualität in den Küstengewässern erproben. Die Forschungsschiffe werden sich dabei zusätzlich mit den Fähren Helgoland und Funny Girl der Reederei Cassen Eils auf dem Weg nach Helgoland treffen. Diese Schiffe sind ebenfalls mit Sensoren in einer Ferry Box ausgestattet, mit denen sie kontinuierlich Umweltmessdaten aufnehmen, die im Ernstfall die Daten der Forschungsschiffe komplementieren.

Die Testkampagne ist die erste von drei geplanten Übungen in der Elbmündung, welche die Koordination und den Ablauf solcher Messfahrten optimieren sollen. Im Falle eines sich anbahnenden extremen Hochwasserereignisses in der Elbe verfügt das Forscherteam über eine relativ kurze Vorlaufzeit von etwa einer Woche, um die Schiffe mit den Messinstrumenten vorzubereiten, das Einsatzteam zu organisieren und die Flutwelle anzutreffen, wenn sie in der Nordsee einläuft. „Die Folgen von Extremereignissen für Dörfer, Städte und Gemeinden an der Elbe sind größtenteils bekannt, aber unser Wissen über die Auswirkungen auf die Meeresumwelt ist sehr beschränkt. Mit der Übung im April 2019 bereitet MOSES die Durchführung erster Messungen im Abfluss der Elbe für den ‚Ernstfall‘ während eines extremen Hochwassers vor“, sagt AWI-Biologe Philipp Fischer.

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: IDW 

(nach oben)


Vergangenheit trifft Zukunft

Elke Sähn Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme

autartec®-Haus am Fuß der F60 fertiggestellt

Der Hafen des Bergheider Sees beherbergt seinen ersten Bewohner. Das schwimmende autartec®-Haus – entstanden im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Wachstumskerns – soll mit seinem unkonventionellen Aussehen und einer Vielzahl implementierter neuer Technologien das Lausitzer Seenland bereichern.

Bereits seit 2014 entwickelten und erprobten Unternehmen, Hochschulen und außeruniversitäre Forschungseinrichtungen aus Süd-Brandenburg, Sachsen und Ost-Thüringen neue Materialien und Methoden. So entstanden innerhalb des Projekts autartec® verschiedenste Technologien für sich selbst versorgende Siedlungen und schwimmende Architektur. Am 16. April findet die offizielle Abschlussveranstaltung statt.

Insbesondere die Verwendung innovativer Bauwerkstoffe aus Carbonbeton, die Strukturintegration von Energiespeichern, die Erprobung von Wasseraufbereitungsanlagen und die Entwicklung einer umfassenden Steuerung der spezifischen Teilkomponenten sollen dazu beitragen, eine autarke Lebensweise zu ermöglichen.

Mitte letzten Jahres wurde unter Federführung des Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme IVI in Dresden damit begonnen, das Haus als Technologiedemonstrator zu errichten. Das Nutzungsszenario orientiert sich an dem Energie- und Platzbedarf eines 4-Personenhaushaltes. Der 175 qm großen Ponton bildet das Fundament für ein zweistöckiges Gebäude mit umlaufender Terrasse.

Architektonisch spiegelt die Kubatur des Hauses die drei Facetten der im Projekt angestrebten Autarkiebereiche für Wasser/ Abwasser, Elektroenergie und Wärmeenergie wider. Dementsprechend prägen drei sich durchdringende Kuben das skulpturale Erscheinungsbild. Spezifische Gebäudeflächen sind für den jeweiligen Energieertrag optimal ausgerichtet. Die Gesamtkomposition referenziert zu der freiheitlichen und unabhängigen Wohnkultur auf Basis moderner Technologien.

Das schwimmende Haus als Symbolbild für vernetzte alternative Energiekonzepte und moderne Wohnkultur bietet gute Chancen, als Kristallisationskeim für weitere Aktivitäten zu neuen Lebensformen auf dem Wasser und dem Land zu fungieren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Klingner
Institutsleiter

Telefon +49 (0)351/ 46 40-640
matthias.klingner@ivi.fraunhofer.de

Weitere Informationen:
http://www.ivi.fraunhofer.de
http://www.autartec.com

Quelle: IDW 

(nach oben)


Plastikmüll stört Kommunikation: Bayreuther Studie zeigt Risiken für Ökosysteme auf

Christian Wißler Pressestelle
Universität Bayreuth

Plastikmüll beeinträchtigt im Wasser lebende Organismen auf eine bisher wenig beachtete Weise: Botenstoffe, die für die Kommunikation unter Wasser unentbehrlich sind, reichern sich an der Oberfläche von Plastikteilchen an und können dadurch ihre ökologischen Funktionen nicht mehr erfüllen. Dies zeigen Wissenschaftler der Universität Bayreuth in einer neuen Studie am Beispiel von Wasserflöhen. Die Tiere bilden Verteidigungsstrukturen aus, wenn Botenstoffe ihnen signalisieren, dass sie von Fressfeinden bedroht sind. Die Verteidigungen sind jedoch deutlich schwächer ausgebildet, sobald sich Plastikmüll im Wasser befindet. In Scientific Reports stellen die Wissenschaftler ihre Erkenntnisse vor.

„Forschungsarbeiten zu den möglichen Effekten von Plastikpartikeln in der Umwelt haben sich bisher auf direkte Auswirkungen fokussiert, die beispielsweise auftreten können, wenn diese mit der Nahrung aufgenommen werden. Wir haben hingegen an einem Fallbeispiel nachgewiesen, welche potenziellen Risiken die bloße Anwesenheit von Plastikmüll in Ökosystemen hat“, erklärt Prof. Dr. Christian Laforsch, der die Forschungsarbeiten koordiniert hat.

Von kleinen im Plankton lebenden Krebsen der Gattung Daphnia (Wasserflöhe) ist bekannt, dass sie sich vor Fressfeinden durch vergrößerte körpereigene Strukturen schützen: Beispielsweise entwickelt die Art Daphnia longicephala eine große „Kopfhaube“ und einen langen Stachel. Dadurch sind sie vor Angriffen ihrer Fressfeinde, in diesem Fall Wasserwanzen, geschützt. Botenstoffe, sogenannte Kairomone, bewirken, dass sich diese Strukturen ausbilden. Sie werden von natürlichen Fressfeinden im Wasser abgegeben und signalisieren den Daphnien die Anwesenheit der Räuber. Das Team der Bayreuther Biologen hat nun untersucht, wie es um dieses körpereigene Verteidigungssystem bestellt ist, falls sich in der Umwelt der Wasserflöhe auch Plastikpartikel befinden. Für diese Tests haben sie zwei Kunststoffsorten ausgewählt, die besonders häufig in Gewässern gefunden werden. In den Versuchsansätzen, in denen Plastikpartikel im Wasser waren, wurden die der Verteidigung dienenden Strukturen deutlich schwächer ausgebildet. „Die Ergebnisse deuten darauf hin, dass sich die Kairomone zu einem erheblichen Teil an den Plastikpartikeln anlagern – ein Vorgang, der als Adsorption bezeichnet wird. Dadurch können sie im Wasser nicht mehr detektiert werden, so dass den Wasserflöhen fälschlicherweise eine geringere Gefahr signalisiert wird“, sagt der Erstautor der Studie, Benjamin Trotter M.Sc., Doktorand an der Universität Bayreuth.

Die Folgen dieser gestörten Unterwasser-Kommunikation könnten weitreichend sein. Die Wasserflöhe unterschätzen die Gefahren, die ihnen von natürlichen Fressfeinden drohen, entwickeln keine ausreichende Abwehr und fallen daher ihren Fressfeinden häufiger zum Opfer. „Daphnien haben eine entscheidende Bedeutung für das natürliche Nahrungsnetz in stehenden Gewässern“, sagt die Bayreuther Doktorandin Anja Ramsperger M.Sc., die an der Studie ebenfalls mitgewirkt hat. Eine derartige Fehlanpassung, bedingt durch das bloße Vorkommen von Plastik in der Umwelt, könnte das gesamte Nahrungsnetz beeinflussen und somit Auswirkungen auf das entsprechende Ökosystem haben.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Christian Laforsch
Lehrstuhl für Tierökologie I
Universität Bayreuth
Tel.: +49 (0) 921 / 55- 2650
E-Mail: christian.laforsch@uni-bayreuth.de

Originalpublikation:

B. Trotter, A.F.R.M. Ramsperger, P. Raab, J. Haberstroh, C. Laforsch: Plastic waste interferes with chemical communication in aquatic ecosystems, in Scientific Reports (2019), DOI: https://doi.org/10.1038/s41598-019-41677-1

Quelle: IDW 

(nach oben)


Pilze filtern Medikamente aus dem Abwasser

Kim-Astrid Magister Pressestelle
Technische Universität Dresden

Wissenschaftler der TU Dresden entwickeln ein Biofiltersystem auf der Basis von Pilzenzymen, das kritische Chemikalien effektiv und nachhaltig aus gereinigtem Abwasser entfernt. Die Arbeitsgruppe Enzymtechnik am Institut für Naturstofftechnik forscht seit zwei Jahren an dem biochemischen Verfahren zur Entfernung von Xenobiotika, die Flüsse und Seen belasten.

Xenobiotika – dazu gehören Hormone, Schmerzmittel, Antibiotika, aber auch Röntgenkontrastmittel oder Industrie- und Agrarchemikalien – werden durch den Menschen über das Abwasser in die Stoffkreisläufe der Natur eingebracht. Aktuelle Studien zeigen, dass allein in Deutschland jährlich etwa 300.000 Tonnen Mikroschadstoffe in die Wasserkreisläufe gelangen. Schon in sehr geringer Konzentration haben einige dieser Stoffe nachteilige Wirkungen auf unser Ökosystem und beeinflussen die Gewinnung von Trinkwasser negativ.

„Die bestehenden dreistufigen kommunalen Wasser- und Abwasserreinigungsanlagen sind nur teilweise in der Lage, diese Schadstoffe herauszufiltern. Selbst modernste Anlagen können keine vollständige Reinigung leisten. Manche Mikroschadstoffe wie zum Beispiel Anti-Epileptika können bisher überhaupt nicht rausgefiltert werden. Über das Wasser gelangen sie in die Umwelt und verändern Fische und alle anderen lebenden Organismen“, umreißt die Projektleiterin Dr. Anett Werner das Problem. „Noch gibt es für diese Stoffe keine gesetzlichen Grenzwerte, doch das wird sich ändern müssen. Dann steht in vielen Klärwerken in Deutschland der Ausbau einer vierten Reinigungsstufe an. In der Schweiz ist das an vielen Stellen schon erfolgt.“

Die Wissenschaftler der TU Dresden entwickeln ein Verfahren, das die chemischen Verbindungen der naturfremden Rückstände aufspalten kann. Dieses Biofiltersystem funktioniert auf der Basis von bestimmten Pilzenzymen. Nur Ständerpilze (Basidiomyceten) besitzen diesen Enzym-Cocktail. Sie können ringförmige chemische Verbindungen, wie sie auch die kritischen Xenobiotika besitzen, aufspalten und schließlich zu deren Entfernung beitragen.

„Wir wollen ein Filtersystem entwickeln, das zumindest einen Teil der Mikroschadstoffe auf natürlichem Weg entfernt. Dabei helfen uns Pilze, deren Enzyme wie chemische
Scheren arbeiten. Die Scheren zerschneiden die Ringstrukturen der Medikamente, dadurch werden sie biologisch abbaubar. Wir isolieren die Enzyme, binden sie an hochporöse metallische Werkstoffe und bauen sie in Filter am Ende der Kläranlagen ein. Sobald die Enzyme nicht mehr arbeiten, werden die Kugeln entnommen, erhitzt und mit neuen Enzymen versehen“, so Werner.

Für das eigentliche Biofiltersystem mussten die Wissenschaftler eine Technologie zur Immobilisierung (Isolation & Fixierung) der Enzyme auf hochporöse Träger konstruieren. Als Trägermaterial wurden verschiedene Materialien erfolgreich getestet: metallische Hohlkugeln aus einem Sintermaterial, die kaum 4 Millimeter groß sind, Metallschäume, Membranen und Luffa-Schwämme, ein Naturmaterial, das als Naturstoff reichlich und günstig verfügbar ist und nach der Nutzung im Filter auch noch biologisch abgebaut werden kann. Die Fixierung auf einem Träger ist wichtig, damit die Enzyme in einem Filtersystem an Ort und Stelle arbeiten können.

Bisherige Laborversuche haben gezeigt, dass die Enzyme auf metallischen Hohlkugeln selbst nach acht Wochen noch aktiv sind. Dieser Zeitraum soll weiter optimiert werden. In einer Biofilteranlage müsste das Wasser etwa zwei bis acht Stunden verweilen bis die kritischen Substanzen abgebaut sind. Zudem konnten die Wissenschaftler nachweisen, dass sich 15 Substanzen mithilfe der Pilzenzyme auf natürlichem Weg aus dem Wasser entfernen lassen – darunter Antibiotika, Schmerzmittel, Blutdrucksenker, Entwässerungsmittel und ein Anti-Epileptikum, für das es bisher keine praktikable technische Lösung gab. Damit entwickeln die Bioverfahrenstechniker der TU Dresden einen wesentlichen Baustein zur nachhaltigen Wassernutzung. In Kürze wird das Biofiltersystem unter Realbedingungen getestet. Zukünftig soll das Verfahren auch für weitere Xenobiotika, wie Bisphenol-A, verschiedene Antibiotika und Pestizide optimiert werden.

Im Projekt XenoKat arbeiten unter der Leitung des Institutes für Naturstofftechnik an der TU Dresden die ASA Spezialenzyme GmbH, die BfG Bundesanstalt für Gewässerkunde sowie das CIMTT Zentrum für Produktionstechnik und Organisation der TU Dresden zusammen. Das Gesamtprojekt wird mit 700.000 EUR für den Zeitraum Mai 2017 bis Oktober 2019 vom Bundesministerium für Bildung und Forschung gefördert.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Anett Werner
Leiterin Arbeitsgruppe Enzymtechnik
TU Dresden
Institut für Naturstofftechnik
Professur für Bioverfahrenstechnik
Tel.: +49 351 463-32594
Émail: anett.werner@tu-dresden.de

Quelle: IDW 

(nach oben)


BZgA empfiehlt: Jetzt gegen Frühsommer-Meningoenzephalitis (FSME) impfen

Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung

Die Zahl der FSME-Fälle in Deutschland steigt. Daher rät die Bundeszentrale für gesundheitliche Aufklärung (BZgA) allen Reisenden und Bewohnern in FSME-Risikogebiete sich rechtzeitig impfen zu lassen. Die meist durch Zeckenstiche übertragene Infektion mit FSME-Viren kann zu einer Entzündung des Gehirns, der Hirnhäute oder des Rückenmarks führen. Im Jahr 2018 wurden in Deutschland 583 FSME-Erkrankungen und damit fast 100 Fälle mehr als im Vorjahr (2017: 486) an das Robert Koch-Institut (RKI) gemeldet. Das ist die höchste Zahl von FSME-Fällen seit Einführung der Meldepflicht im Jahr 2001. Das RKI hat 2019 fünf weitere Landkreise als neue Risikogebiete ausgewiesen.

Wer eine Reise in FSME-Risikogebiete plant, sollte sich rechtzeitig impfen lassen. Dazu rät die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und informiert auf http://www.impfen-info.de über die FSME-Impfung. FSME wird durch Zecken übertragen und führt zu einer Entzündung der Hirnhäute und des Gehirns. Im Jahr 2018 wurden in Deutschland 583 FSME-Erkrankungen und damit fast 100 Fälle mehr als im Vorjahr (2017: 486) an das Robert Koch-Institut (RKI) gemeldet. Das ist die höchste Zahl von FSME-Fällen seit Einführung der Meldepflicht im Jahr 2001.
Dr. med. Heidrun Thaiss, Leiterin der BZgA, erklärt: „Noch ist es Zeit, sich gegen FSME impfen zu lassen, bevor die aktive Zeit im Freien beginnt. Dies gilt nicht nur für Reisende, die in FSME-Risikogebieten Urlaub machen. Auch für diejenigen, die in Risikogebieten leben, ist der Impfschutz gegen FSME wichtig. Jedem, der sich in einer solchen Region im Freien, insbesondere im Wald, aufhält, wird die Impfung gegen FSME empfohlen.“
In Deutschland tritt FSME derzeit vor allem in Baden-Württemberg und Bayern, aber auch im südlichen Hessen (Odenwald), im südöstlichen Thüringen und in Sachsen auf. Außerdem betroffen sind die Landkreise Marburg-Biedenkopf (Mittelhessen), Saar-Pfalz-Kreis (Saarland), Birkenfeld (Rheinland-Pfalz) und Emsland (Niedersachsen). Das RKI hat in diesem Jahr fünf weitere Landkreise als neue Risikogebiete ausgewiesen. Hierzu gehören neben dem Landkreis Emsland (Niedersachsen) drei Kreise in Bayern (LK Garmisch-Partenkirchen, LK Landsberg a. Lech, SK Kaufbeuren) sowie der Landkreis Sächsische Schweiz-Osterzgebirge.
Die Karte mit den Hochrisikogebieten findet sich unter: https://www.impfen-info.de/mediathek/infografiken/
Die meist durch Zeckenstiche übertragene Infektion mit FSME-Viren kann zu einer Entzündung des Gehirns, der Hirnhäute oder des Rückenmarks führen. Erwachsene erkranken meist schwerer als Kinder. Neben Zecken kann FSME sehr selten auch durch Rohmilchprodukte von erkrankten Ziegen oder Schafen übertragen werden, nicht jedoch von Mensch zu Mensch.
Mit drei Impfungen wird ein länger anhaltender Impfschutz gegen FSME aufgebaut. Nach dem üblichen Impfschema erhält man je nach Impfstoff die ersten beiden Impfungen im Abstand von 14 Tagen bzw. ein bis drei Monaten. Ein kurzzeitiger Impfschutz besteht ab etwa 14 Tagen nach der zweiten Impfung. Für einen längeren Schutz ist eine dritte Impfung nötig. Sie wird nach weiteren fünf bzw. neun bis zwölf Monaten verabreicht. Eine erste Auffrischung wird nach drei Jahren empfohlen, weitere Auffrischungen sind – abhängig vom Alter – alle drei bis fünf Jahre angeraten.
Deutschlandweit können Zecken neben FSME zum Beispiel auch Borreliose übertragen, eine Erkrankung, die im Gegensatz zu FSME durch Bakterien verursacht wird. Sie kann unterschiedlich schwer verlaufen und betrifft vor allem die Haut, das Nervensystem und die Gelenke.
Praktische Tipps zum Schutz vor einem Zeckenstich unter:
http://www.infektionsschutz.de/erregersteckbriefe/fsme/.

Weitere Informationen zum Thema:
Karte „FSME-Risikogebiete in Deutschland“ zum Download: https://www.impfen-info.de/mediathek/infografiken/
Für Kinder: https://www.impfen-info.de/impfempfehlungen/fuer-kinder-0-12-jahre/fsme-fruehsom…
Für Jugendliche: https://www.impfen-info.de/impfempfehlungen/fuer-jugendliche-12-17-jahre/fsme-fr…
Für Erwachsene: https://www.impfen-info.de/impfempfehlungen/fuer-erwachsene/fsme-fruehsommer-men…
Kostenlose Bestellung der BZgA-Materialien unter:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: www.bzga.de/infomaterialien
Fax: 0221/8992257
E-Mail: order@bzga.de

Quelle: IDW 

(nach oben)


KIT-Experte zu aktuellem Thema: Putzen mit Bakterien

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Die Sonnenstunden werden mehr, die Temperaturen steigen – und der Frühjahrsputz steht an. Derzeit geraten Mittel mit Bakterien in Mode: Die probiotischen Reiniger enthielten „freundliche“ Mikroorganismen, die Schmutz, Staub und schädliche Bakterien auf natürliche Weise beseitigten, versprechen die Hersteller. So werde selbst hartnäckiger Schmutz effizient und umweltschonend entfernt. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben die Mikro-Haushaltshilfen unter die Lupe genommen.

Die Reinigungswirkung von probiotischen Reinigern basiert auf dem Konzept, dass Stoffe wie Fette, Eiweiße, Kohlenhydrate oder Harnstoffe, aus denen der Schmutz in unseren Küchen, Bädern und Toiletten größtenteils besteht, Mikroorganismen als Nahrung dienen. Um diese aufnehmen zu können, bilden Bakterien Enzyme, welche die Schmutzpartikel aufspalten. Die Idee, dass man Bakterien auf einer Oberfläche versprühen könne und diese dadurch sauber werde, hält Professor Johannes Gescher vom Institut für Angewandte Biowissenschaften des KIT indes für wenig überzeugend. Zwar seien Mikroorganismen in der Lage, organischen Kohlenstoff zu fressen, wie es zum Beispiel in Klärwerken alltäglich geschehe, wo Bakterien eingesetzt werden, um Abwasser zu reinigen. Aber: „Alles, was Bakterien fressen, setzen sie in CO2 und in neue Biomasse um“, so der Experte für Angewandte Biologie. Sprich, wo Bakterien Nahrung finden, gibt es sehr schnell noch mehr Bakterien, die wiederum eventuell Ausscheidungen zurücklassen könnten. „Damit eignen sich Bakterien eher weniger, Oberflächen so von organischem Kohlenstoff zu befreien, dass man hinterher tatsächlich von Sauberkeit sprechen könnte“, meint Gescher.

Der Forscher hat einige Reiniger im Labor untersucht: In manchen davon fanden sich ein bis zwei Milliarden Zellen pro Milliliter. Darüber hinaus enthielten die probiotischen Allzweckreiniger eine Mischung aus Säuren, die der Verbraucher zum Teil gut kennt: Essigsäure ist ein Bestandteil von vielen Reinigungsmitteln und kam in verdünnter Form vor. Darüber hinaus enthielten die getesteten Reiniger Alkohol, Buttersäure und Propionsäure, was den charakteristischen Geruch der Reiniger erklärt. „Damit liegt der Verdacht nahe, dass die Reinigungsleistung die Zusatzstoffe erbringen und nicht die Mikroorganismen“, sagt Gescher und rät: „Wer umweltschonend putzen möchte, sollte zu schnell abbaubaren Reinigungsmitteln greifen.“

Der Gedanke, „gute“ Bakterien könnten unerwünschte vertreiben, überzeugt den Wissenschaftler nicht. „Die meisten Mikroorganismen leben in Biofilmen, also einer Schleimschicht, in der sie eingebettet sind. Sie haben sich an die Oberflächen und Bedingungen angepasst, auf und mit denen sie wachsen. Mikroorganismen in einem Reiniger sind kaum in der Lage, den natürlichen Film auf einer Oberfläche zu verdrängen.“ Solche Biofilme ließen sich vor allem mit mechanischen oder chemischen Mitteln entfernen, die umweltbewusste Nutzerinnen und Nutzer ja gerade meiden wollten. Zudem seien Bakterien in feuchter Umgebung aktiv. „Wenn man wischt, ist der Boden vielleicht zehn Minuten feucht“, sagt Gescher. Viel zu wenig Zeit für die Mikroorganismen, um etwas zu sich zu nehmen.

Schließlich seien die häufig angepriesenen Fotosynthese- und Milchsäurebakterien als Putzhelfer denkbar ungeeignet: Cyanobakterien, auch Blaualgen genannt, benutzten Sonnenlicht als Energiequelle, wie Bäume und Gräser. „Sie ernähren sich also, salopp gesagt, von Licht und Luft und können an der gewünschten Reinigungsleistung überhaupt nicht beteiligt sein“, so Gescher. Milchsäurebakterien hingegen nehmen zwar organischen Kohlenstoff zu sich und produzieren Milchsäure – wie beim Herstellen von Joghurt. „Das machen sie aber nur, wenn sie keinen Zugang zu Sauerstoff haben. Auch hier muss man also fragen, wie eine Reinigungsleistung erfolgen soll, wenn man diese Organismen auf einer Oberfläche ausbringt.“

Für weitere Informationen stellt der Presseservice des KIT gern Kontakt zu Johannes Gescher her. Bitte wenden Sie sich an Dr. Felix Mescoli, Tel. +49 721 608-21171, felix.mescoli@kit.edu oder an das Sekretariat, Tel. 0721 608-21105, E-Mail an presse@kit.edu.

Im Portal „KIT-Expertinnen und -Experten“ finden Sie weitere Ansprechpartner zu Highlights aus der Forschung des KIT sowie zu tagesaktuellen Themen: https://www.sek.kit.edu/kit_express.php

Wissenschaftliche Ansprechpartner:
felix.mescoli@kit.edu
presse@kit.edu

Weitere Informationen:
https://www.sek.kit.edu/kit_express.php

Quelle: IDW 

(nach oben)


E. coli & Co.: Fäkalkeime in Landschaften und Fließgewässern

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Fäkalkeime – Bakterien, die den Darm von Mensch und Tier bewohnen – können Gewässer verunreinigen. Die Ausbreitung und Verteilung von fäkalen Keimen in Flüssen und der Eintrag aus der umgebenden Landschaft ist bisher nur wenig erforscht. Dörthe Tetzlaff vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) hat zusammen mit Forschenden der Universität Aberdeen in Schottland ein indikatorgestütztes Modell entwickelt, um anhand der hydrologischen Prozesse in der Landschaft und der Vernetzung von Fließgewässern die Dynamik von E. coli & Co. abschätzen zu können – eine wichtige Grundlage, um akute oder länger andauernde mikrobielle Verunreinigungen von Flüssen zu managen.

Um die Ausbreitung und den Verbleib von Fäkalkeimen im Gewässer zu verstehen muss man auch die Herkunftsräume, die Menge und die Fließwege des Wassers in der Landschaft erfassen und die Einträge in das Flussnetz berücksichtigen. IGB-Forscherin Dörthe Tetzlaff, ihr Doktorand Aaron Neill und zwei ihrer Kollegen von der Universität Aberdeen (Chris Soulsby und Norval Strachan) haben in einem Untersuchungsgebiet in Schottland erforscht, wie sich markierte fäkale Indikatorkeime in einem Einzugsgebiet verbreiten. Anschließend verknüpften sie die Daten mit hydrometrischen Werten (mengenmäßige Erfassung des Wasserkreislaufs) und stabilen Isotopenmarkern („Tracer“). Eine solche Kombination ist neuartig. Daraus entwickelten die Forschenden ein mathematisches Modell zur Verbreitung von Fäkalkeimen, welches sich auch auf andere Fließgewässer übertragen lässt.

Modell sagt Verteilung von Fäkalkeimen im Sommer sehr genau voraus:
Die Forschenden konnten in dieser kombinierten Studie zeigen, dass der Grad der Vernetzung des Wasserkreislaufs (Konnektivität) eine entscheidende Rolle für die Verteilung der Fäkalkeime spielt. Die neu entwickelte Methode erlaubte es, genau zu quantifizieren, wann und von wo Keime in das System gelangen. „In unserem Untersuchungsgebiet waren die Konzentrationen von Fäkalkeimen im Gewässer im Sommer am höchsten, dies ist auch in anderen Regionen zu erwarten. Vor allem in den Sommermonaten kommen Starkregenereignisse häufiger vor und spülen Keime von landwirtschaftlich genutzten Flächen in Gewässer. Im Sommer gelangen so auch Keime ins Wasser, die nicht aus der unmittelbaren Nähe des Gewässers stammen, wohingegen im Winter Keime mobilisiert werden, die in der Uferzone gespeichert worden sind. Das von uns entwickelte Modell konnte die tatsächliche Verteilung der Keime im Sommer sehr genau widerspiegeln“, so Dörthe Tetzlaff zu den Ergebnissen der Studie.

Für die Wintermonate müssen die Forschenden das indikatorgestützte Modell noch anpassen. Für diesen Zeitraum unterschieden sich nämlich die berechneten Keimbelastungen von den gemessenen Werten. Grund dafür, so vermuten die Forschenden, sind die erhöhten Absterberaten der Keime bei niedrigen Temperaturen und vor allem aber Bodenfrost; beides Aspekte, die im Modell bisher nicht erfasst wurden. „Es ist eine sehr spannende, aber mühevolle Aufgabe, solch ein zeitlich und räumlich dynamisches mathematisches Modell zu optimieren. Es gibt so viele unbekannte Größen, die es zu berücksichtigen gilt“, resümiert Dörthe Tetzlaff. Die Forscherin ist optimistisch, dass dieses Modell und seine Weiterentwicklungen eines Tages die wissenschaftliche Grundlage bilden, um die Verbreitung von Fäkalkeimen im Einzugsgebiet von Fließgewässern abschätzen zu können.

Weitere Anknüpfungspunkte zum Thema am IGB:
• Stresstest für Flüsse: frei verfügbares Szenario-Analysetool, um verschiedene Stressoren für Europäische Flüsse zu analysieren und zu visualisieren. Dr. Markus Venohr
• Pharmaka in Oberflächengewässern und deren Auswirkungen auf Amphibien und Fische. Prof. Dr. Werner Kloas
• Wasser als Vektor für Krankheitserreger (z.B. Closterium deciphile, MRSA-Bakterien und Influenza A). Prof. Dr. Hans-Peter Grossart im Leibniz-Forschungsverbund INFECTIONS’21

Zu Prof. Dr. Dörthe Tetzlaff: Dörthe Tetzlaff ist Leiterin der Abteilung „Ökohydrologie“ am IGB. Ihr internationales Team untersucht den gesamten Kreislauf von Wasser in der Landschaft: im Boden, im Grundwasser und in Oberflächengewässern, aber auch in Pflanzen und der Atmosphäre. Ziel ist zu erforschen, wie Einzugsgebiete auf unterschiedlichen räumlich-zeitlichen Skalen ökohydrologisch funktionieren. Es werden Interaktionen von Landschaften und Fließgewässern untersucht, um das Verständnis physikalischer Prozesse zur Entstehung von Wasserführung und die Art, wie diese Prozesse die Hydrochemie und Ökohydrologie von Gewässern beeinflussen, zu erhöhen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
Telefon: 030/64181661
E-Mail: d.tetzlaff@igb-berlin.de

Originalpublikation:
Aaron J. Neill; Doerthe Tetzlaff; Norval J. C. Strachan; Chris Soulsby: To what extent does hydrological connectivity control dynamics of faecal indicator organisms in streams? Initial hypothesis testing using a tracer-aided model. Journal of Hydrology. – 570(2019), S. 423-435

Quelle: IDW 

(nach oben)


Sich mental auf die Arbeit einstellen ist genauso wichtig wie das Abschalten nach Feierabend

Linda Schädler Abteilung Kommunikation
Universität Mannheim

Morgens beim Frühstück oder unter der Dusche die mentale „To-Do-Liste“ für den bevorstehenden Arbeitstag durchzugehen, ist für die Zufriedenheit und Leistungsfähigkeit von Arbeitnehmerinnen und Arbeitnehmern genauso wichtig wie das Abschalten nach der Arbeit. Das zeigt eine Studie der Mannheimer Arbeitspsychologinnen Sabine Sonnentag und Kathrin Eck sowie ihrer Kolleginnen von der Universität Ulm und der Portland State University, USA.

Für das Wohlbefinden von Arbeitnehmerinnen und Arbeitnehmern ist es essentiell, dass sie nach der Arbeit mental Abstand von der Arbeit gewinnen und sich erholen. Das belegen zahlreiche Untersuchungen. Eine neue Studie zeigt jedoch, dass das Gegenteil genauso wichtig ist: Berufstätige, die sich morgens schon mental auf die Arbeit vorbereiten – sich also über bevorstehende Aufgaben, Herausforderungen und mögliche Lösungsansätze schon im Vorfeld Gedanken machen – sind am Arbeitsplatz engagierter.

Die im Journal of Management veröffentlichte Studie zeigt, dass das Planen von Aufgaben und das mentale Einstimmen auf den anstehenden Arbeitstag dabei hilft, bei der Arbeit engagierter zu sein. „Aus früheren Untersuchungen wissen wir, dass das gedankliche Abschalten von der Arbeit am Feierabend mit positivem Erleben einhergeht, beispielsweise geringerer Müdigkeit am nächsten Morgen“, sagt Sabine Sonnentag, Autorin der Studie und Professorin für Arbeits- und Organisationspsychologie an der Universität Mannheim. „Die Kehrseite dieser früheren Befunde ist, dass Menschen sich aber auch zum Start des Arbeitstages wieder mit ihrer Arbeit mental ‚verbinden‘ müssen, um den Herausforderungen, die während des Tages auf sie zukommen, gewachsen zu sein.“

Wie Menschen sich mental auf ihre Arbeit vorbereiten, ist personen- und berufsabhängig. Während manche beim Frühstück oder unter der Dusche die bevorstehenden Aufgaben durchgehen, durchdenken andere das Gespräch mit ihrem Vorgesetzten auf dem Weg zur Arbeit oder in der Schlange beim Bäcker. „Das gedankliche Einstimmen auf die Arbeit hängt damit zusammen, dass man am Arbeitsplatz engagierter und mit mehr Energie bei der Sache ist“, sagt Sonnentag. „Konkret haben wir gefunden, dass das gedankliche Einstimmen mit dem Aktivieren von arbeitsbezogenen Zielen einhergeht, wodurch der Arbeitstag dann insgesamt positiver verläuft.“

Auf Grundlage dieser Erkenntnisse schlagen die Forscherinnen Unternehmen neue Verfahren vor, mit denen sie Mitarbeiterinnen und Mitarbeiter dabei helfen können, sich bereits zu Beginn des Arbeitstags mit ihren Aufgaben zu befassen. Möglich wäre es zum Beispiel, den Angestellten am Anfang jedes Arbeitstages ein paar Minuten für sich zu geben, Checklisten oder kurze Planungstreffen zu Beginn des Arbeitstages anzubieten oder ihnen mehr Freiheiten bei der Umsetzung der Aufgaben einzuräumen.

Im Rahmen der Studie wurden 151 Probanden aus einem breiten Spektrum an Industriezweigen befragt, unter anderen aus dem Finanzsektor, der öffentlichen Verwaltung, des Informations- und Kommunikations- sowie dem Gesundheitssektor.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sabine Sonnentag
Lehrstuhl für Arbeits- und Organisationspsychologie
Universität Mannheim
Telefon: 0621 181-2117
E-Mail: sonnentag@uni-mannheim.de

Originalpublikation:
https://journals.sagepub.com/doi/10.1177/0149206319829823

Quelle: IDW 

(nach oben)


Digitalisierung „zum Anfassen“

Sigrid Neef Öffentlichkeitsarbeit und Kommunikation
Ernst-Abbe-Hochschule Jena

Internationale Gäste erlebten an der EAH Jena den Einsatz von Digitalisierung in der Industrie

Am 4. April besichtigte eine Gruppe internationaler Gäste die Ernst-Abbe-Hochschule (EAH) Jena. Die Frauen und Männer, unter anderem aus Industrie und Ministerien, die auf Einladung des Auswärtigen Amtes in Berlin und Jena unterwegs waren, kamen aus Europa, Südamerika, Afrika und Asien.

Im Mittelpunkt ihres Besuches standen Beispiele der digitalen Veränderungsprozesse in der deutschen Wirtschaft. An der Jenaer Hochschule erlebten die Besucher, wie die industrielle Fertigung mit dem Einsatz der Digitalisierung intelligenter und effizienter gestaltet werden kann.

Rektor Prof. Dr. Steffen Teichert und der Leiter des Fachgebietes Fertigungstechnik und Fertigungsautomatisierung, Prof. Dr. Jens Bliedtner, gaben einen Überblick zu Forschungsaktivitäten sowie Kooperationen mit Unternehmen und Digitalisierungsprojekten der EAH.

Michael Seiler, Mitarbeiter im Fachgebiet Fertigungstechnik und Fertigungsautomatisierung, stellte verschiedene Entwicklungsarbeiten vor, die in Zusammenarbeit mit Unternehmen durchgeführt werden. Im anschließenden Rundgang wurden die Labore des Fachgebiets gezeigt und die Projekte im Detail erläutert. Schwerpunkte waren der Bereich der additiven Technologien und die Laserlabore mit dem Einsatz neuester Fertigungstechnologien und Digitalisierungsanwendungen.

Vorgestellt wurden am Donnerstagnachmittag auch die „Modellfabrik 3D-Druck“, die kleinen und mittleren Unternehmen eine „Digitalisierung zum Anfassen“ bereitstellt und das „Thüringer Zentrum für additive Technologien“, ein Gemeinschaftsprojekt von Thüringer Forschungseinrichtungen, das Unternehmen einen schnellen und effizienten Zugang zu neuesten Verfahren der additiven Technologien ermöglicht. Gezielt vernetzt werden Akteure aus Wissenschaft und Wirtschaft bei „Nucleus Jena“, einem gemeinsamen Vorhaben von EAH und Friedrich-Schiller-Universität Jena.

Informationen und Kontakt:
Constance Möhwald
Constance.Moehwald@eah-jena.de

Weitere Informationen:
http://www.eah-jena.de

Quelle: IDW 

(nach oben)


Continental, Deutsche Telekom, Fraunhofer ESK, MHP, Nokia: vernetztes Fahren erfolgreich getestet

Presse Institute Kommunikation
Fraunhofer-Gesellschaft

• Vom Bayerischen Staatsministerium für Wirtschaft gefördertes Car2MEC-Projekt startete 2016

• Edge Computing entscheidend für Fahrsicherheit auf dem Weg zum vollständig automatisierten Fahren

Lokales Cloud-Computing (Multi-Access Edge Computing MEC) ist eine Schlüsseltechnologie, um vernetztes Fahren, v. a. sicheres vernetztes Fahren zu ermöglichen. Von größter Bedeutung ist zudem, dass die beteiligten Branchen eng zusammenarbeiten, damit aus Konzepten nachhaltige Wertschöpfung erwachsen kann. Das zeigt das Car2MEC-Projekt nach zwei Jahren mit intensiven Tests und Feldversuchen durch Continental, Deutsche Telekom, Fraunhofer ESK, MHP und Nokia auf dem digitalen Testfeld Autobahn A9.

Car2MEC wurde vom Bayerischen Staatsministerium für Wirtschaft gefördert. Ziel des Projekts war es, Erkenntnisse zur Tauglichkeit von MEC für vernetztes Fahren unter besonderer Berücksichtigung von Technologie, Netzarchitektur und Wirtschaftlichkeit zu gewinnen. Die Projektpartner testeten auf der A9 verschiedene konkrete Anwendungsfälle wie eine „Notfallwarnung“, eine „Stauendewarnung“, einen „Assistenten für variable Geschwindigkeitsbegrenzungen“ sowie „HD-Karten“. Der vollständige Abschlussbericht des Projekts steht hier zum Download bereit: https://onestore.nokia.com/asset/206173

„Multi-Access Edge Computing wird in Zukunft eine sehr wichtige Kommunikationstechnologie für das vernetzte Fahrzeug sein“, sagt Ronald Hain, Leiter der Backend-Entwicklung bei Continental. „Die Schließung der Lücke zwischen lokalen Echtzeitanwendungen und Cloud-Diensten wird es uns ermöglichen, automatisiertes Fahren zu verbessern und zu erreichen, dass Fahrzeuge miteinander kooperieren. Darüber hinaus können lokale Dienste die Datenrate von LTE- oder 5G-Netzen effektiv nutzen. Continental arbeitet derzeit an einer Fahrzeugarchitektur, die auf dieser Kommunikationstechnologie basiert.“

Die Deutsche Telekom baute eine projektspezifische Infrastruktur mit zwei räumlich getrennten MEC-Ressourcen in dem Testgebiet an der A9 auf. Die Testumgebung nutzte dabei auch das vorhandene LTE-Netz und wurde 12 Monate betrieben, um umfangreiche Testfahrten zu ermöglichen. Dadurch bot sich eine einmalige Gelegenheit, die MEC-Technologie unter realen Bedingungen zu analysieren: auf einer öffentlichen Straße und in einem kommerziellen Mobilfunknetz mit vielen parallelen Nutzern.

„Die Projektergebnisse bestätigen die Leistungsfähigkeit von Edge Computing in unseren 4G-Netzen und die Eignung dieser Technologie für Anwendungen im Automobilbereich, die niedrige Latenz und extrem hohe Zuverlässigkeit benötigten“, erklärt Alexander Lautz, Senior Vice President 5G der Deutschen Telekom. „Wir werden die Zusammenarbeit mit Partnern im Automobilsektor fortsetzen, um die Technologie weiterzuentwickeln und in Lösungen für vernetztes und automatisiertes Fahren umzusetzen, die das Fahren weiter verbessern.“

In dem Projekt ermöglichten die hybriden Kommunikationseinheiten von Fraunhofer ESK zeitkritische Anwendungen für vernetzte Fahrzeuge mit bewährten, standardisierten Protokollen und Nachrichtenformaten. Ein auf den Multi-Access Edge-Knoten implementierter hocheffizienter, verteilter Messaging-Dienst (GeoService) stellte Low-Latency-Konnektivität zwischen den Fahrzeugen und eine direkte Verbindung zu lokalisierten Diensten bereit. In Kombination mit den adaptiven Netzalgorithmen von Fraunhofer ESK, die in Laufzeit den am besten geeigneten Kommunikationspfad auswählen, können die komplementären Stärken unterschiedlicher Technologien genutzt werden, um für jede Anwendung und jeden Kontext eine optimierte Dienstgüte (Quality of Service, QoS) zu bieten.

„Dieses Projekt gab uns die Gelegenheit, unsere ETSI ITS-konforme Hybridlösung in einem kommerziellen Mobilfunknetz zu evaluieren und unter Berücksichtigung neuer Möglichkeiten durch 5G zu optimieren“, so Karsten Roscher, wissenschaftlicher Mitarbeiter am Fraunhofer ESK. „Zwar verbesserte die Edge-Cloud die Ende-zu-Ende-Latenz um mehr als 20 ms, doch das 4G-Funkzugangsnetz ist weiterhin ein begrenzender Faktor für anspruchsvollere zukünftige Dienste. Dennoch sind wir überzeugt, dass die Kombination von Edge-Cloud und 5G völlig neue vernetzte und verteilte Anwendungen schaffen wird.“

MHP lieferte Erkenntnisse zum Wert von MEC für vernetztes Fahren aus betriebswirtschaftlicher Sicht. Das Beratungsunternehmen identifizierte kritische Erfolgsfaktoren für potenzielle kommerzielle Ökosysteme auf Basis der neuen Technologie. Die wirtschaftlichen Möglichkeiten, die MEC der Automobilbranche eröffnet, sind unklar und vielversprechend zugleich. Mehrere mögliche Handlungsfelder wurden in dem Projekt identifiziert. Neben Standardisierung und einem eindeutigen Wertversprechen für das Engagement jedes einzelnen Investors werden Kooperation und Partnerschaften als für die künftige Entwicklung entscheidend angesehen.

Olaf Kleindienst, Partner bei MHP, merkt an: „Alle sprechen vom vernetzten Auto und in gewisser Weise gibt es das vernetzte Auto schon. Doch bis zum vollständig vernetzten Automobil bleibt noch einiges zu tun und viele Fragen müssen noch beantwortet werden. Das vollständig vernetzte Automobil ist ein neues Umfeld für die Automobilindustrie und die großen, etablierten Player müssen sich ein gutes Stück weit neu erfinden, auch mit neuen Geschäftsmodellen. Wir betrachten Projekte wie Car2MEC als hervorragende Möglichkeit, vorauszudenken, frühzeitig Fragen rund um diese neue Umgebung zu diskutieren und das Thema aus unterschiedlichen Perspektiven zu beleuchten.“

Die Multi-Access Edge Computing-Technologie (MEC) von Nokia bringt Cloud-Computing-Ressourcen näher an die Straße und ermöglicht so schnellere Reaktionszeiten (Latenz) im Netz im Vergleich mit zentralisierten Cloud-Architekturen. Dies ist sehr wichtig für Anwendungen wie Notfall- oder Stauendewarnung, wo Millisekunden einen großen Unterschied ausmachen können. Die Tests haben bestätigt, dass zeitkritische Informationen in einem LTE-Netz mit MEC-basierter Edge-Cloud in weniger als 30 ms von einem Fahrzeug an ein anderes übermittelt werden können. Auch die Leistung latenzkritischer und datenintensiver Anwendungen wie HD-Positionsbestimmung und HD-Karten verbesserte sich bei Unterstützung durch eine Edge-Cloud-Infrastruktur erheblich.

„Die Ergebnisse aus diesem Projekt markieren einen großen Schritt vorwärts auf dem Weg zu sicherem und automatisiertem Fahren“, erläutert Uwe Puetzschler, Leiter des Car2MEC-Projekts und Head of Car2X bei Nokia. „Wir haben gezeigt, dass die auf 4G- und 5G-Netzen aufsetzende Edge-Cloud die Implementierung verteilter Anwendungen ermöglicht, die die Anforderungen der Automobilindustrie in Bezug auf Latenz und Zuverlässigkeit erfüllen. Das wird den kommerziellen Einsatz dieser Technologie beschleunigen.“

Weitere Informationen:
https://onestore.nokia.com/asset/206173
https://www.continental-corporation.com/de
https://www.telekom.com/en
https://www.esk.fraunhofer.de/
https://www.mhp.com/de/home/
https://networks.nokia.com/products/vehicle-to-everything

Quelle: IDW 

(nach oben)


Welcher Sport ist gut bei Arthrose?

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)

Arthrose – die Degeneration von Gelenken – ist ein weit verbreitetes Problem durch alle Bevölkerungsschichten, was mit steigendem Alter zunimmt. Wissenschaftler und Ärzte der GOTS (Gesellschaft für Orthopädisch-Traumatologische Sportmedizin) beschäftigt nun, inwieweit Sport und Arthrose kompatibel und welche Sportarten empfehlenswert sind.

Besonders geeignet sind Sportarten wie Radfahren, Wandern mit Stöcken oder Nordic Walken, Skilanglauf klassisch oder Wassergymnastik. Speziell beim Radfahren ist die zyklische Bewegung in entlastender Sitzposition für die untere Extremität besonders günstig. Bei schon eingeschränkter Beweglichkeit ist vor allem das Fahrradergometer zu empfehlen, was die Koordination zum Auf- und Abstieg erleichtert. Durch das Verwenden eines Damenrades oder eines Rades mit niedrigem Holm kann das Absteigen im Gelände gut erleichtert werden. Entsprechende Gangschaltung, aber auch Wahl der Touren und Ausrüstung sind hier entscheidend für die Gelenkbelastung.

Beim Nordic Walken ist die verminderte Belastung der Gelenke der unteren Extremität doch etwas geringer als zunächst angenommen. Durch die Verwendung der Stöcke wird der Schritt etwas größer, somit auch teilweise der Impact höher, sodass dies nur bei gutem Beherrschen der Sportart empfohlen werden kann.

Sportarten mit höherem technischem Anspruch müssen schon vor der Arthrose-Entstehung beherrscht worden sein, da ein Erlernen mit Arthrose schwierig oder unmöglich ist. Zu diesen Sportarten zählen vor allem Tennis, Golf, Skilauf, Tischtennis, Segeln und Reiten. Bei entsprechender Erfahrung und Akzeptanz für das etwas eingeschränkte Leistungsniveau, können diese Sportarten durchaus weiter betrieben werden. Wichtig erscheint hier das Verwenden von gedämpften Schuhen, eventuell Gehhilfen oder beim Golfen das Verwenden des Carts. Die Modifikationen der Technik- wie beim Tennis ohne ausgeprägte Rumpfrotation oder beim Golfen unter Durchführen des Golfschwunges ohne entsprechender Körperverdrehungen und Knieausgleichsbewegung sind diese Sportarten durchaus sinnvoll.

Welchen Sport besser nicht?
Ungeeignete Sportarten bei Arthrose sind Mannschaftssportarten oder Sportarten, die mit hohem Tempo, nicht vorhersehbarem Richtungswechsel und Fremdeinwirkung einhergehen. Das sind z.B. Squash, Trampolinspringen, Basketball, Handball, Fußball, Volleyball oder auch Disziplinen wie Gewichtheben und Leichtathletische Disziplinen.
„Belastungen im Spitzensport bei gelenkbelastenden Sportarten gehen häufiger mit Arthrose-Entstehung einher. Moderate Trainingsformen mit mittlerer Intensität können dagegen günstige Auswirkungen auf die Knorpeladaptation haben. Sporttherapeutische Ansätze zeigen, dass Sport und Bewegung auch ein wichtiges Mittel gegen Arthrose bzw. in der Arthrose-Prävention sind“, sagt Prof. Dr. Stefan Nehrer, GOTS-Vorstand und Universitätsprofessor an der Donau-Universität Krems.

Im Wesentlichen kann eine Arthrose alle Gelenke betreffen. Für den Sport relevant jedoch ist die Arthrose im Kniegelenk, oberen Sprunggelenk, gefolgt von der Hüfte und dem Schulterbereich.
Die Entstehung von solchen Gelenkdefekten wird durch Verletzungen, gerade auch im Sport, forciert. Im Knie sind dies meist Meniskus-, Kreuzband- und Knorpelverletzungen, im oberen Sprunggelenk Bandinstabilitäten und Knorpelkontusionen sowie Kapselverletzungen an der Hüfte. Chronische Überlastungssituationen in Gelenken, besonders im Knie, können durch O- und X-Bein-Stellung verstärkt werden.

Was ist gut für´s Gelenk, was nicht?
Zyklische Be- und Entlastungsphasen sind wichtig, um die Knorpelzelle zu ernähren. Die Knorpelzelle ist abhängig von Diffusion, die durch den Pumpmechanismus der Belastung besteht. Da sich die viskoelastischen Fähigkeiten von Knorpel erschöpfen, sind Erholungsphasen notwendig.
Gift für den Gelenkknorpel sind übermäßige Belastungen wie langes Stehen oder langes Sitzen. Solche Belastungsmuster können problematisch sein, da es zum Auspressen der Flüssigkeit und zum Erschöpfen des Schmiermechanismus des Knorpels kommt. Ebenso schädlich sind kurze Extrem-Belastungen, die die Bruchlasten von Knorpel überschreiten.

Was tun bei Arthrose?
Dr.Markus Neubauer, Arzt für Orthopädie am Universitätsklinikum Krems, erläutert: „ Zuerst müssen muskuläre Kraft und Koordination wieder hergestellt werden. Die Verbesserung der Gelenkfunktion führt zur Linderung des Reizzustandes und damit zu einer Schmerzreduktion. Die Sporttherapie sollte zuerst physiotherapeutisch gelernt werden. Dringend zu empfehlen dabei ist die Erhebung des Ausgangszustandes um eine individuelle Abstimmung auf Bewegungsumfang und Intensität zu gewährleisten und Überbelastung zu vermeiden.“ Voraussetzung ist hier eine sportmedizinische Untersuchung. Im nächsten Schritt müssen die Bewegungsprogramme auch im Heimtraining durchgeführt werden.

Wie kann ich vorbeugen?
Zyklische Belastung und Bewegung erhalten die Funktionalität von Knorpel und Gelenk. Um diesen Effekt optimal nutzen zu können, müssen die Bewegungen allerdings bei möglichst minimierter Belastung und Krafteinwirkung ausgeführt werden. Daher ist Radfahren eine sehr geeignete Prävention. Es wird verhindert, dass Reizzustände entstehen, die über Entzündungen den Knorpel nachhaltig schädigen. Tritt dennoch ein Reizzustand auf, ist sofort ein vorrübergehendes Sportverbot einzuhalten und eine anti-entzündliche Therapie einzuleiten. Bei Berücksichtigung aller Regeln und Sportarten kann jeder, auch mit Arthrose noch befriedigend Sport treiben.

Weitere Informationen:
http://www.gots.org/blog/2019/03/04/sport-mit-arthrose-grund-oder-hindernis/

Quelle: IDW 

(nach oben)


Schnelle globale Energiewende könnte Millionen Menschenleben retten

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie

Die Verbrennung fossiler Rohstoffe ist die wichtigste Ursache für Luftverschmutzung und damit verbundene Gesundheitsbelastungen

Die Reduktion der weltweiten Luftverschmutzung kann Millionen von Menschenleben retten. Dies zeigt ein internationales Wissenschaftlerteam unter Leitung des Max-Planck-Instituts für Chemie mit einer neuen Studie. Den wichtigsten Beitrag dazu würde der schnelle Ausstieg aus der Verbrennung fossiler Energieträger liefern – ein Schritt, der derzeit vor allem aus Gründen des Klimaschutzes gefordert wird. Den Einfluss von Luftverschmutzung auf die menschliche Gesundheit untersuchten die Forscher mithilfe eines Modells der globalen Atmosphärenchemie, sie analysierten auf diese Weise aber auch die Auswirkungen von Luftschadstoffen auf die Niederschlagsbildung und das Klima. Die Ergebnisse der Studie wurden vor kurzem in der Zeitschrift Proceedings of the National Academy of Sciences of the United States of America (PNAS) veröffentlicht.

Das Team um den Atmosphärenforscher Jos Lelieveld, Direktor am Max-Planck-Institut für Chemie, berechnete, dass Emissionen aus der Verbrennung von Erdöl, Erdgas und Kohle weltweit für etwa 65 Prozent der vorzeitigen Todesfälle durch Luftschadstoffe verantwortlich sind. Verschmutzte Luft erhöht demnach deutlich das Risiko für kardiovaskuläre Krankheiten und Erkrankungen der Atemwege. Laut Richard Burnett von Health Canada, Koautor der Studie, ist die Gesundheitsbelastung durch Feinstaub extrem hoch. Ein Ausstieg aus der Nutzung fossiler Energieträger würde somit weltweit mehr als drei Millionen vorzeitige Todesfälle jährlich verhindern. „Würde man sämtliche durch Menschen verursachte Luftverschmutzungsquellen einstellen, stiege die Zahl sogar auf über fünf Millionen pro Jahr“, erklärt Andy Haines, Koautor der Studie und Professor an der London School of Hygiene and Tropical Medicine.

Ein Ende der Luftverschmutzung würde sich aber nicht nur auf die Gesundheit der Weltbevölkerung auswirken, sondern hätte auch Effekte auf das Klima. Ein globaler Stopp der Verfeuerung fossiler Rohstoffe würde zwar den Anstieg des CO2-Gehalts der Atmosphäre entscheidend bremsen, die derzeitige Menge von rund 400 ppm in der Luft würde aber erst einmal nicht abnehmen. Die Luftverschmutzung durch Feinstaubpartikel in der Atmosphäre, die einen Teil der Sonnenstrahlung reflektieren und die Erde in gewissem Maß kühlen, würde dagegen rasch zurückgehen. Deswegen käme es bei einer weltweiten Abkehr von fossilen Energieträgern kurzfristig sogar zu einem globalen Temperaturanstieg um etwa 0,5 Grad Celsius.

Dennoch scheint eine Begrenzung der Erderwärmung auf zwei Grad noch möglich. „Der Temperaturanstieg nach der Entfernung aller Schmutzpartikel aus der Luft kann durch die gleichzeitige Verringerung der Treibhausgase Ozon, Methan und halogenierter Kohlenwasserstoffe in der Troposphäre abgemildert werden“, erklärt Veerabhadran Ramanathan, Koautor der Studie und Professor an der University of California. Diese Verbindungen sind trotz kürzerer Lebensdauer im Vergleich zu Kohlendioxid stärkere Treibhausgase. Ihre Reduktion hätte daher einen direkten abkühlenden Effekt, wohingegen die Klimawirkung des langlebigeren CO2 Jahrhunderte andauern wird.

Weniger Feinstaubpartikel in der Atmosphäre und die damit verbundene Erhöhung der Meeresoberflächentemperatur sorgt laut den Forschern aber auch dafür, dass mehr Wasser aus den Ozeanen verdunsten würde, wodurch es besonders in von Dürre geplagten Regionen wieder mehr regnen würde. Der Effekt ist besonders ausgeprägt in Monsungebieten und könnte die Nahrungssicherung und den Wasserzugang der Menschen in Teilen von Afrika, Zentralamerika, China und Indien verbessern.

Die Wissenschaftler sind der Meinung, dass der Ausstieg aus der Verbrennung fossiler Energieträger nicht nur mittelfristig das Klima schützen würde, sondern auch eine große Chance bietet, die Gesundheit von Menschen weltweit deutlich zu verbessern. Sie plädieren daher für eine schnelle Umstellung auf erneuerbare Energien: „Saubere Energiequellen haben das Potenzial, Menschenleben zu retten“, sagt Jos Lelieveld.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jos Lelieveld
Abteilung für Atmosphärenchemie
Max-Planck-Institut für Chemie, Mainz
Telefon: +49 6131 305-4040
Email: jos.lelieveld@mpic.de

Originalpublikation:
Effects of fossil fuel and total anthropogenic emission removal on public health and climate.
J. Lelieveld, K. Klingmüller, A. Pozzer, R. T. Burnett, A. Haines, und V. Ramanathan
PNAS, 25. März 2019, DOI: www.pnas.org/cgi/doi/10.1073/pnas.1819989116

Quelle: IDW 

(nach oben)


Biomasse effizient umwandeln: Forscher der Universität Münster decken neuen Reaktionsmechanismus auf

Svenja Ronge Presse- und Informationsstelle
Westfälische Wilhelms-Universität Münster

Nanowissenschaftlern der Universität Münster ist es gelungen, einen neuen Reaktionsmechanismus aufzuzeigen, mit dem Cellulose effizient umgewandelt werden kann. Diese neue Reaktion könnte zu einem effizienten, umweltfreundlichen und kostengünstigen Verfahren für die Umwandlung von Biomasse führen. Die Studie ist in der Fachzeitschrift „Angewandte Chemie“ erschienen.

Eine der größten globalen Herausforderungen ist es derzeit, erneuerbare Quellen effizient einzusetzen, um in Zukunft den steigenden Bedarf an Energie und Chemikalien abzudecken. Biomasse ist dabei eine vielversprechende Alternative zu den bisherigen fossilen Quellen wie Kohle oder Erdöl. Den größten Anteil an Biomasse als natürlichem Speicher für Kohlenstoffverbindungen, die für die Herstellung von Kraftstoffen und Grundchemikalien entscheidend sind, hat die Cellulose. Um ihr gesamtes Potenzial zu entfalten, muss die kettenförmige Struktur der Cellulose aufgebrochen werden.

Das kann durch eine sogenannte Hydrolyse-Reaktion erfolgen, die allerdings aufgrund der atomaren Struktur der Cellulose nur schwer möglich ist. Wissenschaftlern der Westfälischen Wilhelms-Universität Münster (WWU) um Dr. Saeed Amirjalayer und Prof. Dr. Harald Fuchs und der Ruhr-Universität Bochum um Prof. Dr. Dominik Marx ist es nun gelungen, einen neuen Reaktionsmechanismus aufzuzeigen, mit dem Cellulose durch den Einsatz von mechanischer Kraft effizient umgewandelt werden kann. Diese sogenannte mechano-katalytische Reaktion könnte dazu führen, ein umweltfreundliches und kostengünstiges Verfahren für die Umwandlung von Biomasse zu etablieren. Die Studie, die die Deutsche Forschungsgemeinschaft und der Exzellenzcluster RESOLV der Ruhr-Universität Bochum unterstützt haben, ist in der Fachzeitschrift „Angewandte Chemie“ erschienen.

Hintergrund und Methode:
Bei der Hydrolyse-Reaktion, durch die Cellulose aufgespalten werden kann, bleiben einzelne molekulare Bausteine erhalten. Diese molekularen Bausteine bilden die eigentliche Basis, um Treibstoffe oder chemische Grundstoffe herzustellen. Auf der Suche nach Möglichkeiten, um die Hydrolyse-Reaktion effizienter zu machen, fanden Forscher bereits in früheren Studien experimentelle Hinweise darauf, dass mechanische Kräfte den Prozess der Umwandlung beeinflussen können.

Bisher war es noch nicht gelungen, auf atomarer Ebene zu zeigen, wie genau dieser Einfluss während der einzelnen Reaktionsschritte aussieht. Allerdings ist es nur so möglich, noch effizientere und ressourcenschonendere Prozesse dieser Art zu entwickeln als bisher. In der nun veröffentlichen Arbeit zeigen die Wissenschaftler, dass der Einsatz von mechanischer Kraft auf die Cellulosemoleküle oberhalb einer Grenze einen signifikanten Einfluss auf die Reaktion hat.

Die Nanowissenschaftler führten dazu sogenannte atomistische Rechnungen durch. Diese ermöglichten es ihnen, die einzelnen Schritte der Hydrolyse-Reaktion im Detail zu verfolgen und gleichzeitig eine Zugkraft auf die Molekülstruktur auszuüben. Die Wissenschaftler erstellten sogenannte Energieprofile, die jeweils den Energieverlauf entlang des Reaktionswegs mit und ohne den Einfluss der mechanischen Kräfte darstellten. Es zeigte sich: Übten die Forscher mechanische Kraft auf das molekulare Gerüst der Cellulose aus, veränderte das stark die Hydrolyse-Reaktion. Zum einen war die benötigte Energie um ein Vielfaches geringer. Zum anderen machte eine erhöhte Zugkraft zwei von ursprünglich drei Reaktionsschritten sogar überflüssig. „Mithilfe unserer atomistischen Rechnungen konnten wir explizit den Einfluss einer mechanischen Zugkraft auf den Reaktionsmechanismus untersuchen“, erläutert Erstautor Dr. Saeed Amirjalayer, Gruppenleiter am Physikalischen Institut. „Dies ermöglichte es uns, einen bisher unbekannten und vor allem hocheffizienten Reaktionsweg für die Umwandlung von Cellulose aufzuzeigen.“

Die neuen Ergebnisse bestätigen nicht nur die experimentellen Beobachtungen, sondern weisen darüber hinaus das Potenzial auf, molekulare Prozesse mithilfe von mechanischer Kraft zu steuern. „Wir konnten unter anderem zeigen, dass durch mechanische Zugkraft die sogenannte Protonenaffinität in Cellulose regio-selektiv erhöht werden kann“, betont Saeed Amirjalayer.

Die Wissenschaftler erhoffen sich, dass diese Arbeit nicht nur ein effizientes und umweltfreundliches Verfahren für die Umwandlung von Cellulose ermöglicht, sondern auch dazu führen kann, neuartige mechano-responsive Verbindungen, zum Beispiel Kunststoffe, zu entwickeln. Diese könnten dann durch mechanische Kräfte nach ihrer Anwendung recycelt werden.

Wissenschaftliche Ansprechpartner:
Dr. Saeed Amirjalayer (Erstautor)
Physikalisches Institut AG Fuchs
Wilhelm-Klemm-Str. 10
48149 Münster
Fon: +49 (0)251 83 63919

Originalpublikation:
S. Amirjalayer, H. Fuchs, D. Marx: Understanding the Mechanocatalytic Conversion of Biomass: A Low‐Energy One‐Step Reaction Mechanism by Applying Mechanical Force, Angewandte Chemie Int. Ed. (2019), DOI: 10.1002/anie.201811091

Quelle: IDW 

(nach oben)


Soziale Unterschiede in Deutschland: Mortalität und Lebenserwartung im Journal of Health Monitoring

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Vor Vollendung des 65. Lebensjahres sterben 13 % der Frauen und 27 % der Männer aus der niedrigsten Einkommensgruppe, in der höchsten Einkommensgruppe sind es 8 % der Frauen und 14 % der Männer. Diese sozialen Unterschiede in der Mortalität und Lebenserwartung sind in den vergangenen 25 Jahren relativ stabil geblieben. Der Anstieg der Lebenserwartung in den vergangenen Jahrzehnten hat sich möglicherweise wegen schwerer Grippewellen verlangsamt. Das sind einige der Ergebnisse aus neuen RKI-Analysen, die im Journal of Health Monitoring 1/2019 veröffentlicht sind.

„Soziale Ungleichheit hat wegen der massiven Auswirkungen auf Gesundheit und Lebenserwartung aus Sicht von Public Health eine zentrale Bedeutung“, betont Lothar H. Wieler, Präsident des Robert Koch-Instituts. Das RKI als Public-Health-Institut für Deutschland erhebt und bewertet kontinuierlich Daten. „Als Daten für Taten sind unsere Ergebnisse Grundlage für evidenzbasierte Entscheidungen der Politik im Hinblick auf Planung, Umsetzung und Evaluation von Maßnahmen“, unterstreicht Wieler.

Die Daten für die Analyse von Mortalität und Lebenserwartung stammen vom Sozio-ökonomischen Panel des Deutschen Instituts für Wirtschaftsforschung und aus Sterbetafeln des Statistischen Bundesamtes. Im Journal of Health Monitoring betrachten die RKI-Forscher neben der sogenannten „ferneren Lebenserwartung“, bei der die zu erwartenden Lebensjahre ab einem bestimmten Alter (beispielsweise von 65 Jahren) berechnet werden, auch die mittlere Lebenserwartung bei Geburt und setzen sie in Bezug zum Einkommen. Das Ergebnis der bis 2016 vorliegenden Daten, die mit einem neuen methodischen Ansatz ausgewertet wurden: Bei der Lebenserwartung ab Geburt beträgt die Differenz zwischen der niedrigsten und höchsten Einkommensgruppe für Frauen 4,4 Jahre und für Männer 8,6 Jahre.

Die Lebenserwartung ist in den vergangenen Jahrzehnten in Deutschland deutlich gestiegen. Bis in die Mitte des 20. Jahrhunderts resultierte dies vor allem aus einem Rückgang der Sterblichkeit bei Säuglingen, Kindern und jungen Erwachsenen. Seither sind vor allem sinkende Sterblichkeitsraten der Älteren für den stetigen Anstieg der Lebenserwartung verantwortlich. Allerdings gibt es immer wieder kleine Unterbrechungen im Anstieg der Lebenserwartung. Eine mögliche Erklärung sehen die RKI-Forscher in Grippewellen. Bei schweren Grippewellen, etwa in den Saisons 2012/2013, 2014/2015 und 2016/2017, gab es jeweils mehr als 20.000 geschätzte Todesfälle, das entspricht gut zwei Prozent der jährlichen Todesfälle. Die Influenza-Aktivität und damit die Todesfälle treten jeweils nach der Jahreswende auf, bei diesen Grippewellen also in den Jahren 2013, 2015 und 2017 – das waren exakt die Jahre, in denen sich der Anstieg der Lebenserwartung verlangsamt hat.

Neben Lebenserwartung und Mortalität enthält die neue Journal-Ausgabe auch einen Beitrag zur gesundheitlichen Ungleichheit bei Kindern und Jugendlichen. Dabei werden die Daten des RKI-Gesundheitsmonitorings im Hinblick auf den sozioökonomischen Status ausgewertet, für den Einkommen, Bildung und Beruf der Eltern berücksichtigt werden. In der Journal-Rubrik „Concepts & Methods“ wird das Projekt „IMIRA“ beschrieben, das auf eine bessere Berücksichtigung von Menschen mit Migrationshintergrund beim Gesundheitsmonitoring abzielt. Die Auswertungen dieser Ausgabe des Journal of Health Monitoring werden beim Kongress Armut und Gesundheit am 14./15. März 2019 vorgestellt.

Weitere Informationen: http://www.rki.de/journalhealthmonitoring

Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin
http://www.rki.de
Twitter: @rki_de

Pressestelle
Susanne Glasmacher (Pressesprecherin)
Marieke Degen (stellv. Pressesprecherin)
Heidi Golisch
Claudia Paape
Judith Petschelt

Kontakt
Tel.: 030-18754-2239, -2562 und -2286
E-Mail: presse@rki.de

Das Robert Koch-Institut ist ein Bundesinstitut im Geschäftsbereich des Bundesministeriums für Gesundheit

Quelle: IDW 

(nach oben)


Elektroautos haben perspektivisch eine deutlich bessere Klimabilanz als Diesel und Benziner

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Bis zu 28 Prozent weniger Treibhausgasemissionen als ein Oberklasse-Diesel, bis zu 42 Prozent weniger als ein Kleinwagen-Benziner: Wer heute ein batteriebetriebenes Elektroauto kauft und in Deutschland nutzt, stößt bei einer Nutzungsdauer von durchschnittlich 13 Jahren deutlich weniger CO2 und andere klimarelevante Gase aus als mit einem Auto mit konventionellem Verbrennungsmotor. Das ist das Ergebnis einer Studie des Fraunhofer ISI zur Klimabilanz von Elektroautos.

Grund für das hohe Einsparpotential bei Elektroautos ist laut der Studie »Die aktuelle Treibhausgasemissionsbilanz von Elektrofahrzeugen in Deutschland« vor allem die voranschreitende Energiewende. Der steigende Anteil erneuerbarer Energie am Strommix wird dazu führen, dass der Ausstoß klimarelevanter Gase bei der Stromerzeugung in Deutschland immer weiter sinkt.

»Damit verbessert sich auch die Klimabilanz von Elektroautos«, sagt Martin Wietschel, Leiter des Geschäftsfelds Energiewirtschaft am Fraunhofer ISI. »Ein heute gekauftes Elektroauto profitiert über die gesamte Nutzungsdauer von sinkenden Treibhausgasemissionen bei der Stromerzeugung. Ein konventioneller Verbrennungsmotor stößt dagegen auch im 13. Nutzungsjahr noch eine ähnlich hohe Menge klimarelevanter Gase aus wie zum Zeitpunkt des Kaufs.«

Zwar verbessere sich die Klimabilanz konventioneller Diesel und Benziner durch die Beimischung von Biokraftstoffen, aber nur geringfügig. Außerdem sei zu erwarten, dass die steigende Nutzung von unkonventionellen Ölvorkommen, beispielsweise durch Fracking, die Treibhausgasbilanz von Verbrennungsmotoren im Gegenzug verschlechtere.

Die Studie nennt vier große Hebel, mithilfe derer sich die Treibhausgasbilanz von batteriebetriebenen Elektroautos weiter verbessern lasse:

– Das Laden mit selbsterzeugtem Solarstrom zuhause. Knapp die Hälfte der Besitzerinnen und Besitzer von Elektroautos in Deutschland haben bereits eine eigene Photovoltaikanlage, oft mit eigenem Energiespeicher. Das Laden des Elektroautos mit selbsterzeugtem Solarstrom verbessert die Klimabilanz des Elektroautos noch einmal. Ein Anteil von 30 Prozent selbst erzeugtem Photovoltaikstrom in der Batterie kann die Treibhausgasemissionen eines Elektroautos um zusätzlich 8 bis 11 Prozentpunkte senken.

– Die Nutzung von Ökostrom aus zusätzlichen erneuerbaren Quellen. Bereits heute beziehen Besitzer und Besitzerinnen von Elektroautos ihren Strom überdurchschnittlich häufig von Ökostromanbietern. Bei einer vollständigen Versorgung mit regenerativen Strom lässt sich erreichen, dass die Treibhausgasemissionen des eigenen Elektroautos um bis zu 65 bis 75 Prozent niedriger ausfallen als die von konventionellen Pkw.

– Der Einsatz regenerativer Energien bei der Batterieherstellung. Durch den hohen Energiebedarf bei der Batterieproduktion entstehen bei der Herstellung eines Elektroautos heute deutlich mehr klimarelevante Gase als bei konventionellen Pkw. Durch den Einsatz regenerativer Energien bei der Herstellung der Batterien lassen sich diese Vorkettenemissionen von Elektroautos um 30 bis 50 Prozent senken.

– Intelligentes Lastmanagement. Dabei wird das Laden von Elektroautos verschoben auf einen Zeitpunkt, an dem Strom besonders günstig ist, was üblicherweise mit einem hohen Anteil regenerativer Stromerzeugung einhergeht. Simulationsrechnung der Studie zeigen, dass sich die Treibhausgasbilanz von Elektroautos damit noch einmal um 4 bis 6 Prozentpunkte senken lässt.

Die Studie diskutiert damit eine Reihe schnell zu realisierender Optionen, wie sowohl Nutzerinnen und Nutzer als auch Industrie die Treibhausgasbilanz von Elektroautos weiter verbessern können.

Weitere Informationen:
https://www.isi.fraunhofer.de/content/dam/isi/dokumente/sustainability-innovatio…

Wissenschaftliche Ansprechpartner:

Prof. Dr. Martin Wietschel

Stellvertretender Leiter des Competence Centers Energietechnologien und Energiesysteme, Leiter des Geschäftsfelds Energiewirtschaft
Telefon +49 721 6809-254

Quelle: IDW 

(nach oben)


Gender Pay Gap: Das größte Loch auf dem Gehaltszettel von Frauen klafft in Süddeutschland

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Regionale Auswertung von Lohnspiegel.de zum Equal Pay Day 2019

Gender Pay Gap: Das größte Loch auf dem Gehaltszettel von Frauen klafft in Süddeutschland

Die geschlechtsspezifischen Unterschiede beim Entgelt variieren auch innerhalb Deutschlands stark. Besonders groß ist der Gehaltsrückstand von Frauen gegenüber Männern in Süddeutschland, während die ostdeutschen Bundesländer auf deutlich geringere Entgeltunterschiede kommen.

So verdienen Frauen in Baden-Württemberg durchschnittlich 22,7 Prozent weniger als Männer, während der Abstand in Brandenburg „nur“ 14,9 Prozent beträgt (siehe auch Abbildung 1 im Anhang der pdf-Version dieser PM; Link unten). Für Gesamtdeutschland beträgt der Gender Pay Gap unverändert 21 Prozent. Das ergibt eine aktuelle Auswertung des Online-Portals Lohnspiegel.de der Hans-Böckler-Stiftung zum Equal Pay Day am 18. März auf Basis der Angaben von über 300.000 Beschäftigten.

Die Gehaltslücke lässt sich sowohl mit Gehaltsabständen zwischen einzelnen Berufen als auch mit einer Gehaltslücke zu Lasten von Frauen innerhalb der einzelnen Berufe erklären. So arbeiten Frauen überdurchschnittlich häufig in vergleichsweise schlecht bezahlten Berufen, zum Beispiel als Verkäuferin im Einzelhandel (Durchschnittsgehalt der Frauen: 1.991 Euro, Frauenanteil unter den Befragten: 66 Prozent), als Physiotherapeutin (2.296 €, 67 Prozent Frauen) oder Erzieherin (2.701 €, 75 Prozent Frauen). „Bei den Löhnen hinken die sozialen Berufe, in denen Frauen deutlich überrepräsentiert sind, oft hinterher“, sagt Dr. Malte Lübker, Experte für Tarif- und Einkommensanalysen am Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung. „Dies gilt auch dann, wenn die Anforderungen an die Qualifikation vergleichbar sind.“ Höhere Löhne werden u.a. in den technischen Berufen bezahlt, wo der Männeranteil i.d.R. über 90 Prozent liegt.

Dies erklärt auch, warum beim Gender Pay Gap wirtschaftlich starke Länder wie Baden-Württemberg (22,7 Prozent) oder Bayern (21,9 Prozent) schlecht dastehen. In beiden Ländern ist das verarbeitende Gewerbe, insbesondere die Automobilindustrie, stark verankert und bietet gut bezahlte Jobs – in denen ganz überwiegend Männer arbeiten. In den ostdeutschen Bundesländern sind viele Industrie-Arbeitsplätze hingegen nach der Wende weggebrochen, und damit auch die traditionellen Berufsperspektiven für Männer. Zudem liegt das allgemeine Lohnniveau noch immer deutlich unter dem des Westens, u.a. weil viele Unternehmen nicht nach Tarif bezahlen. Die niedrigeren Werte beim Gender Pay Gap in Brandenburg (14,9 Prozent) oder Sachsen-Anhalt (15,5 Prozent) lassen sich deshalb nicht mit besonders guten Frauen-Löhnen erklären, sondern mit dem großen Abstand der ostdeutschen Männer gegenüber den Männern im Westen.

Doch auch wenn Frauen und Männer im gleichen Beruf arbeiten, klafft auf dem Gehaltszettel von Frauen oft ein großes Loch. Unter Versicherungskaufleuten verdienen Frauen nach den Zahlen des Lohnspiegels 21 Prozent weniger, bei Bauingenieurinnen beträgt der Rückstand zu männlichen Kollegen 16 Prozent, und bei Informatikerinnen 7 Prozent (Abbildung 2). Ein Grund hierfür sind u.a. die kürzeren Arbeitszeiten und Erwerbsunterbrechungen von Frauen. „Teilzeit und längere Elternzeiten werden in den Betrieben häufig abgestraft, da sie als Signal für geringeres Arbeitsengagement gelten. Das betrifft stärker Frauen, da diese nach wie vor den Löwenanteil an Haus- und Sorgearbeit übernehmen“, sagt Dr. Yvonne Lott, am WSI Expertin für Arbeitszeitforschung. „Etwas verkürzt gesagt: Eine Mutter auf einer Teilzeit-Stelle macht seltener Karriere. Und es gibt auch Unternehmen, die Teilzeitarbeit schlechter bezahlen als vergleichbare Vollzeitjobs, obwohl das illegal ist.“

Paradoxerweise wird in vielen Betrieben von Frauen erwartet, dass diese wegen der Familie beruflich kürzer treten. „Das Bild von der Rabenmutter ist jedoch ein vornehmlich westdeutsches Bild“, so Lott. „In Ostdeutschland sind die Einstellungen zu Geschlechterrollen egalitärer.“ Zudem arbeiten mehr Mütter in Ostdeutschland in Vollzeit, auch wegen des besseren Kinderbetreuungsangebots. Auch das trägt dazu bei, dass der Gender Pay Gap in den ostdeutschen Bundesländern geringer ausfällt als im Westen.

Um Beruf und Familie unter einen Hut zu bekommen, wechseln Frauen auch häufiger als Männer in schlechter bezahlte Jobs, die unter Umständen weniger anspruchsvoll sind, aber mehr zeitliche Flexibilität ermöglichen. Frauen tauschen so Geld gegen eine bessere Vereinbarkeit von Beruf und Familie. „Es ist daher wichtig, auch in qualifizierten und anspruchsvollen Berufen mehr zeitliche Selbstbestimmung für Beschäftigte zu schaffen“, so Lott weiter. „Dies gilt sowohl für die Dauer, die Lage und den Ort der Arbeit.“ Neben dem weiteren Ausbau einer verlässlichen Kinderbetreuung muss die Familienpolitik nach Einschätzung der Wissenschaftler die partnerschaftliche Arbeitsteilung weiter fördern, etwa durch eine Verlängerung der Partnermonate bei der Elternzeit. Auch das Ehegattensplitting, das für verheiratete Frauen den Fehlanreiz schafft, auf eine Vollzeitstelle zu verzichten, solle überdacht werden.

Die ungleichen Aufstiegschancen für Frauen, die oft niedrigere Bezahlung in Berufen mit einem hohen Frauenanteil und andere der genannten Gründe für den Gehaltsrückstand von Frauen werden bei dem sogenannten „bereinigten“ Gender Pay Gap herausgerechnet. Verschiedene Forscher kommen durch dieses spezielle Rechenverfahren auf geringere Werte von 6 bis 7 Prozent. „Auch dies ist eine hohe Differenz, die man vor allem auf direkte, blanke Diskriminierung zurückführen kann“, sagt Yvonne Lott. „Zudem ist dieser Wert nur bedingt aussagekräftig, da zentrale Dimensionen der Geschlechterungleichheit ausgeblendet werden.“ Die Auswertung des Lohnspiegels bezieht sich deshalb auf den unbereinigten Gender Pay Gap, der einen direkten Vergleich der tatsächlich gezahlten Gehälter ermöglicht. Um Unterschiede bei der Arbeitszeit auszugleichen, bezieht er sich auf Vollzeitäquivalente. Alle Monatsgehälter wurden auf Basis einer 38-Stundenwoche berechnet.

Die Daten des Portals Lohnspiegel.de beruhen auf einer kontinuierlichen Online-Umfrage unter Erwerbstätigen in Deutschland. Für die Analyse wurden 309.000 Datensätze berücksichtigt. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Für Bremen und das Saarland lässt sich aufgrund vergleichsweise kleiner Fallzahlen kein getrennter Gender Pay Gap ausweisen. Der Lohnspiegel ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung mit dem Beschäftigte unter https://www.lohnspiegel.de/html/gehaltscheck.php ihr eigenes Gehalt mit den üblichen Gehältern in 430 Berufen vergleichen können.

Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die Pressemitteilung mit Grafiken (pdf): https://www.boeckler.de/pdf/pm_wsi_2019_03_14.pdf

Quelle: IDW 

(nach oben)


Was kostet ein Hochwasser?

Constanze Elgleb Presse- und Öffentlichkeitsarbeit
Hochschule für Technik und Wirtschaft Dresden

Ein Forschungsprojekt der HTW Dresden entwickelt eine neue Methode zur Risikobewertung von Hochwasserschäden.
Das neue Forschungsprojekt „INNOVARU“ an der Fakultät Bauingenieurwesen beschäftigt sich damit, die Kosten von Schäden durch Hochwasser konkret beziffern zu können. INNOVARU steht für „Innovative Vulnerabilitäts- und Risikobewertung urbaner Räume gegenüber Überflutungsereignissen“. In Kooperation mit dem Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) und der Bauhaus-Universität Weimar soll ein neuartiges Hochwasserschadensinformationsmodell entstehen.

Das Teilvorhaben an der HTW Dresden verfolgt dabei einen physikalisch-wirkungsanalytischen Ansatz: Es wird prognostiziert, welche Gebäudeschäden bei einem hohen Wasseraufkommen und entsprechenden Fließgeschwindigkeiten entstehen. Somit wird es möglich, objektgenaue Bewertungen abzugeben und die entstehenden Kosten im Voraus zu ermitteln. Auch für größere überflutungsgefährdete Gebiete gibt es Ansätze: Durch (halb-)automatisierte Klassifikationsverfahren wird es möglich, den besonders gefährdeten Gebäudebestand zu differenzieren und somit zeitaufwändige Ortsbegehungen zu reduzieren. Die pilothafte Erprobung dieses gekoppelten Hochwasserschadensinformationsmodells ist in den Untersuchungsgebieten Grimma, Pirna und Freital vorgesehen.

Insbesondere Landesfachbehörden und Ingenieurbüros, die im Hochwasserrisikomanagement tätig sind, können von dieser Methode der Risikobewertung profitieren Aber auch Versicherungen und Immobiliendienstleister, die sich mit Grundstücks- und Gebäudewerten sowie Schadenersatz nach Hochwasser beschäftigen, könnten zukünftig nach objektiveren Kriterien bewerten.

„Wir müssen uns in Sachsen – aber auch bundesweit – immer wieder den Risiken von Hochwasser stellen. Im entsprechenden Risikomanagement sollte daher auf möglichst wissenschaftsfundierte und objektive Kriterien zurückgegriffen werden. Ich freue mich, dass die HTW Dresden gemeinsam mit ihren Kooperationspartnern dazu einen Beitrag leisten kann.“, so der Prorektor für Forschung und Entwicklung, Professor Knut Schmidtke.
Das Projekt unter Leitung von Dr. Thomas Naumann, Professor für Baukonstruktion läuft bis Ende 2021 und wird mit rund 260.000 Euro vom Bundesministerium für Bildung Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:

Fakultät Bauingenieurwesen
Prof. Dr. Thomas Naumann
thomas.naumann@htw-dresden.de

Weitere Informationen:

http://www.htw-dresden.de

Quelle: IDW 

(nach oben)


Weltwassertag: Was machen eigentlich polare Stoffe im Trinkwasser?

Alexander Pradka Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Den Weltwassertag am 22. März nahm die Hochschule Fresenius zum Anlass, auf den hohen Forschungsbedarf bei den so genannten polaren Stoffen hinzuweisen. Diese sind sehr gut wasserlöslich und können deshalb leicht in den Kreislauf des Wassers geraten. Prominente Vertreter sind Glyphosat oder auch der künstliche Süßstoff Acesulfam. Die Hochschule Fresenius selbst geht mit gutem Beispiel voran und nimmt an europäisch und national geförderten Forschungsprojekten teil.

„Polare Stoffe sind noch zu wenig erforscht. Mit gängigen analytischen Methoden können sie gar nicht nachgewiesen werden“, sagt Daniel Zahn, Doktorand von Prof. Dr. Thomas Knepper, der Direktor am Institute for Analytical Research (IFAR) an der Hochschule Fresenius ist. „Viele sind noch nicht identifiziert und bei denen, die wir bereits kennen, haben wir meist lediglich Anhaltspunkte für deren Bewertung. Auf dieser Basis ist eine Vorhersage der Langzeitwirkung nicht möglich. Das ist aber zur Einschätzung möglicher Risiken unabdingbar.“ Was bekannt ist: Sie sind sehr gut wasserlöslich und dabei teilweise schwer abbaubar, wodurch sie die vielen Schutzbarrieren in Wasserkreisläufen – wie zum Beispiel Kläranlagen – überwinden und somit bis ins Leitungswasser gelangen können. Sie können sich schnell weit verbreiten und in erhöhten Konzentrationen vorkommen. „Keinesfalls möchten wir Panik verbreiten und die aktuelle Faktenlage deutet auch nicht darauf hin, dass eine Bedrohung besteht. Aber aus unserer Sicht ist eine Erhebung weiterer Daten unerlässlich um sicherzustellen, dass keine Gefährdung besteht – beziehungsweise, um geeignete Aufbereitungstechniken zu entwickeln und zu implementieren“, erläutert Zahn.

Das IFAR befasst sich seit 2013 im Rahmen verschiedener Forschungsprojekte mit dem Thema. Eines davon mit dem Namen „PROMOTE“ (Protecting Water Resources from Mobile Trace Chemicals) ist bereits abgeschlossen. Es diente der Ermittlung und Identifizierung polarer Stoffe – und damit der Schaffung notwendiger Grundlagen für weitere Nachforschungen. Dabei wurde beispielsweise mit der Trifluormethansulfonsäure ein bisher wenig beachteter polarer Stoff erstmals im Trinkwasser nachgewiesen. Anhaltspunkte für irgendeine Gefährdung haben sich nicht gezeigt. Jetzt hat die Hochschule Fresenius gerade mit ihren Partnern das Nachfolgeprojekt „PROTECT“ in Angriff genommen. Mit dem Namen wird der Projekttitel „Perresistente mobile Organische Chemikalien in der aquatischen Umwelt: Quellen, Vorkommen, Technische Möglichkeiten zu deren Entfernung in der Trinkwasseraufbereitung“ abgekürzt. Der Startschuss fiel am 1. Februar dieses Jahres, erste Ergebnisse werden 2022 erwartet. Hier stehen nun Vorkommen, Mengen und vor allem mögliche Risiken und Folgen im Fokus der Wissenschaftler. „Mit den Resultaten aus diesem Forschungsprojekt hoffen wir ein klareres Bild über polare Stoffe im Wasser zu erhalten und auf die wichtigen Fragen nach Wirkung und Verbreitung klare Antworten geben zu können“, so Zahn.

Quelle: IDW 

(nach oben)


BIBB/BAuA-Befragung 2018: Viele Beschäftigte arbeiten immer noch körperlich hart

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Schwere körperliche Arbeit belastet noch immer viele Beschäftigte in Deutschland. Dies zeigt das zweite Faktenblatt zur BIBB/BAuA-Erwerbstätigenbefragung 2018, das die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jetzt unter dem Titel „Körperlich harte Arbeit in Deutschland – immer noch weit verbreitet“ veröffentlicht hat. Zugleich gibt es auch Informationen, wie gute Arbeitsgestaltung und Verhaltensregeln gesundheitlichen Beschwerden durch körperliche Arbeit entgegenwirken können.

Körperliche Belastungen bei der Arbeit gehören für viele Erwerbstätige zum Arbeitsalltag. So gibt mehr als jeder Zweite (54%) an, häufig im Stehen zu arbeiten. Das ist für mehr als jeden vierten Betroffenen (27 %) belastend. Auch wenn nur etwa jeder Vierte (23 %) häufig schwere Lasten hebt oder trägt, fühlt sich mehr als die Hälfte (53 %) davon belastet. Schwere körperliche Arbeit kommt unter anderem besonders häufig in Bau- und Gartenbauberufen vor, aber auch in der Pflege und Gastronomie vor. Das Faktenblatt nennt auch Zahlen zu Arbeit mit den Händen und in Zwangshaltung.

Insgesamt zeigt sich, dass körperliche Arbeit auch in der Wissensgesellschaft präsent ist. Im Vergleich zur Erwerbstätigenbefragung von 2012 lassen sich nur geringe Veränderungen feststellen. Die Ergebnisse haben sich insgesamt wenig verändert: Die größte Abweichung gibt es bei der Frage nach Arbeiten, die mit den Händen durchzuführen sind und viel Geschick, Geschwindigkeit oder große Kraft erfordern. Hier sank die Zahl der Betroffenen von 42 Prozent im Jahr 2012 auf 39 Prozent in 2018.

Nach wie vor sind Männer in Vollzeit am ehesten harter Arbeit ausgesetzt. Im Teilzeitbereich berichten jedoch Frauen häufiger über körperlich belastende Arbeitsbedingungen. Zudem empfinden Frauen unabhängig von der geleisteten Stundenzahl körperlich harte Arbeit im Vergleich zu Männern häufiger als belastend.

Die Daten zeigen auch, dass es ein großes Präventionspotenzial im Bereich körperlicher Belastungen gibt. Entlastung kann eine gesundheitsförderliche Arbeitsgestaltung bringen beispielsweise durch den Einsatz von ergonomischen Arbeitsmitteln oder Trage- und Transporthilfen. Die Beschäftigten können sich beispielsweise durch rückenschonende Hebe- und Tragetechniken, gezielte Ausgleichsbewegungen, aber auch durch Pausen entlasten. Dazu weist das Faktenblatt auf verschiedene BAuA-Broschüren zum Thema hin.

baua: Fakten „Körperlich harte Arbeit in Deutschland – immer noch weit verbreitet“ gibt es als PDF im Internetangebot der BAuA unter http://www.baua.de/dok/8816194.

Hintergrund:
Bei der BIBB/BAuA-Erwerbstätigenbefragung 2018 handelt es sich um eine repräsentative Erhebung unter rund 20.000 Erwerbstätigen in Deutschland. Durch sie werden differenzierte Informationen über ausgeübte Tätigkeiten, berufliche Anforderungen, Arbeitsbedingungen und -belastungen, den Bildungsverlauf der Erwerbstätigen sowie über die Verwertung beruflicher Qualifikationen gewonnen.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
www.baua.de

Quelle: IDW 

(nach oben)


Gedächtnis wie ein Sieb? Unter welchen Bedingungen Menschen im Alter neue Erinnerungen bilden können

Carsten Wette Stabsstelle für Presse und Kommunikation
Freie Universität Berlin

Menschen können einer Studie der Freien Universität zufolge in zunehmendem Alter nur dann neue Erinnerungen bilden, wenn ein zelluläres Reinigungsprogramm im Gehirn funktionstüchtig bleibt. Das Programm – die sogenannte Autophagie – muss reibungslos in denjenigen Neuronen im Gehirn ablaufen, die die Erinnerungen speichern, wie ein Team um Prof. Dr. Stephan Sigrist von der Freien Universität Berlin sowie dem Exzellenzcluster NeuroCure herausfand. Dies sei die Voraussetzung dafür, dass das gesamte Gehirn in einem geschützten und funktionstüchtigen Zustand gehalten werden kann.

Die Studie wurde in der jüngsten Ausgabe der renommierten Fachzeitschrift Nature Communications veröffentlicht. NeuroCure ist ein an der Charité – Universitätsmedizin Berlin, des gemeinsamen medizinischen Fachbereichs von Freier Universität Berlin und Humboldt-Universität zu Berlin, angesiedelter Forschungscluster, der seit 2007 im Rahmen der Exzellenzinitiative des Bundes und der Länder gefördert wird; im September 2018 war der Cluster auch im Wettbewerb Exzellenzstrategie erfolgreich. Stephan Sigrist ist seit 2014 Einstein-Professor; die Professur wird aus Mitteln der EinsteinStiftung gefördert.

Menschen sind nicht nur in der Lage, neue Erinnerungen zu bilden, sondern können diese in der Regel auch viele Jahre später wieder abrufen. Mit zunehmendem Alter jedoch entwickeln viele Menschen Schwierigkeiten, neue Erinnerungen zu bilden; dies wird als altersbedingte Gedächtnisstörung bezeichnet. Ein umfassendes Verständnis dieses komplexen Prozesses ist Voraussetzung, um altersbedingten Erkrankungen auf der Ebene der Nervenzellen effektiv begegnen zu können. In der aktuellen Publikation zeigt das Team von Stephan Sigrist von der Freien Universität Berlin, welche Rolle das zelluläre Reinigungsprogramm namens Autophagie spielt.

Erinnerungen werden durch strukturelle und funktionelle Veränderungen an Neuron-zu-Neuron-Verbindungen (Synapsen) im Gehirn gespeichert; diese Fähigkeit, Veränderungen einzugehen, wird als synaptische Plastizität bezeichnet. Bei der synaptischen Signalübertragung stehen die Präsynapsen den Postsynapsen gegenüber, wobei letztere die freigesetzten chemischen Signale erkennen und weiterleiten. Eine Zunahme der Größe dieser präsynaptischen Strukturen war von der Arbeitsgruppe von Stephan Sigrist zuvor als Ursache für eine altersbedingte Gedächtnisstörung in der Fruchtfliege Drosophila gefunden worden. Die Fruchtfliege gilt als etabliertes genetisches Modell für eine altersbedingte Gedächtnisstörung. Die vergrößerten präsynaptischen Strukturen verstärken die synaptischen Signale und erschwerten damit gleichzeitig nach der Vermutung der Forscherinnen und Forscher die Fähigkeit, plastische Veränderungen einzugehen. Damit aber werden Lernprozesse beeinträchtigt bis hin zur Ineffizienz. Die genetische Nachahmung einer solchen Vergrößerung war tatsächlich hinreichend, um Gedächtnisstörungen schon bei jungen Drosophila-Tieren auszulösen, wie die Mitglieder der Arbeitsgruppe herausfanden. Ein Mittel, diesen altersbedingten Gedächtnisstörungen entgegenzuwirken, ist den Ergebnissen zufolge das körpereigene Kleinmolekül Spermidin, dessen Konzentration im Körper mit zunehmendem Alter abnimmt. Die Forscherinnen und Forscher konnten zeigen, dass die Fütterung der Fliegen mit Spermidin die Größe der präsynaptischen Strukturen und damit die Gedächtnisleistungen auf dem Niveau jugendlicher Tiere stabilisieren konnte. Spermidin führte zur Belebung des zellulären Reinigungsprogramms Autophagie, wie in mehreren Tiermodellen und in menschlichen Zellen gezeigt werden konnte. Tatsächlich deuten neueste Studien darauf hin, dass die Verabreichung von Spermidin auch ältere Menschen vor Demenz schützen könnte.

Wie die Wissenschaftlerinnen und Wissenschaftler weiter herausfanden, ist die Fähigkeit der Fruchtfliege, etwas zu erinnern, abhängig davon, wie gut das Reinigungsprogramm Autophagie in einem spezifischen Lern- und Gedächtniszentrums in ihrem Gehirn funktioniert. „Eine genetische Blockade der Autophagie in diesem Lern- und Gedächtniszentrum verursachte eine frühzeitige Gedächtnisstörung, die junge Tiere bereits ,alt‘ aussehen ließ“, erläutert Biologie-Professor Stephan Sigrist. Überraschenderweise führte die Blockade der Autophagie in diesen Regionen im gesamten Gehirn zu einer Zunahme dieser präsynaptischen Struktur. Diese Synapsen ähnelten denen älterer Tiere.

Normalerweise unterdrücke die Freisetzung schützender Neuropeptide eines bestimmten Typus aus den Lernzentren die synaptische Alterung im Gehirn. Wird die autophagische Reinigung in den Lernzentren allerdings ineffizient, würden auch weniger solcher Neuropeptide freigesetzt, und die Synapsen alterten im gesamten Gehirn. Genau solche Neuropeptide wiederum würden als mögliche Anti-Aging-Faktoren auch für Menschen angesehen und untersucht, sodass direkte Bezüge zur menschlichen Situation wahrscheinlich seien.

Veröffentlichung
Bhukel A*, Beuschel CB*, Maglione M, Lehmann M, Juhasz G, Madeo F, Sigrist SJ. (2019) Autophagy within the mushroom body protects from synapse aging in a non cell autonomous manner. Nature Communications, 21.3.2019; DOI: 10.1038/s41467-019-09262-2.

Kontakt
Prof. Stephan J. Sigrist, Fachbereich Biologie, Chemie, Pharmazie der Freien Universität Berlin, Telefon: 030-838-56940, E-Mail: stephan.sigrist@fu-berlin.de

Quelle: IDW 

(nach oben)


Kostbare Ressource: Wasser

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Die nachhaltige Wasserwirtschaft steht im Mittelpunkt des Forschungskollegs Future Water, das jetzt in seine zweite Förderphase gestartet ist. Das NRW-Wissenschaftsministerium stellt für die kommenden 3,5 Jahre weitere rund 2,2 Mio. Euro zur Verfügung. Beteiligte des Verbundprojekts sind die Universität Duisburg-Essen (UDE), die Ruhr-Universität Bochum (RUB), die Hochschule Ruhr West (HRW), die EBZ Business School und das Institut für Energie- und Umwelttechnik (IUTA).

Urbane Wohn- und Arbeitswelten am Wasser, Biologische Abbaubarkeit diffuser Einträge in Regenwasser oder Anpassungsstrategien an Starkregenereignisse: Insgesamt 16 Promovierende erforschen, wie eine nachhaltige Wasserwirtschaft erreicht werden kann. Denn Schadstoffe gelangen über unterschiedliche Wege in die Gewässer – sei es über kommunale Kläranlagen, industrielle Direkteinleiter oder auch Niederschlagswasser, das von versiegelten oder landwirtschaftlich genutzten Flächen abläuft. Verschärft wird dies noch durch zunehmende Extremniederschläge, die die Entwässerungsanlagen überlasten.

Die Probleme sind vielschichtig und komplex und müssen deshalb auch disziplinübergreifend betrachtet werden. Im Forschungskolleg Future Water werden natur-, und ingenieurwissenschaftliche Aspekte mit wirtschaftlichen und gesellschaftlichen Gesichtspunkten verknüpft. Außerdem werden Erkenntnisse nichtwissenschaftlicher Akteure berücksichtigt. Kollegsprecher ist Prof. Dr. Torsten C. Schmidt (UDE/Instrumentelle Analytische Chemie). Die Verbundkoordination übernimmt wieder das Zentrum für Wasser- und Umweltforschung (ZWU) an der UDE.

Redaktion:
Beate Kostka, Tel. 0203/37 9-2430, beate.kostka@uni-due.de

Wissenschaftliche Ansprechpartner:
Claudia Freimuth, Zentrum für Wasser- und Umweltforschung, Tel. 0201/18 3-6935, claudia.freimuth@uni-due.de

Weitere Informationen:

http://www.nrw-futurewater.de

Quelle: IDW 

(nach oben)


Mit künstlicher Intelligenz unterwegs im Kanalsystem

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Innovationspreis für Simulationswerkzeug zur Kanalalterung verliehen
Die Berliner Wasserbetriebe und das Kompetenzzentrum Wasser Berlin haben ein Modellwerkzeug entwickelt, mit dem sich die Alterung von Abwasserkanälen simulieren lässt. Erstmals haben Forscher beider Häuser datenbasierte statistische Verfahren mit künstlicher Intelligenz verbunden. Mit dem Ergebnis lassen sich Investitionen deutlich genauer steuern. Dafür wurden sie nun mit dem renommierten Innovationspreis des Verbandes kommunaler Unternehmen (VKU) ausgezeichnet.

Wenn etwas kaputt geht, was wir jeden Tag dringend brauchen, ist das ärgerlich, überraschend, mitunter sogar katastrophal. Meistens ist es aber vor allem eines: teuer. Das gilt auch für eine der unsichtbaren Lebensadern unserer Stadt: die mehr als 9.600 Kilometer lange Kanalisation. Zumal Schäden am Kanal nicht sofort sichtbar werden. Anhaltspunkte für Reparaturen oder Investitionen liefern bisher statistische Angaben zu Schäden sowie Daten aus der Kamera-Inspektion.

Neues Prognoseinstrument ermöglicht bessere Steuerung von Investitionen
Jetzt – und das ist neu für die Branche – haben Forscher des Kompetenzzentrums Wasser Berlin und der Berliner Wasserbetriebe aus der Kombination und Weiterentwicklung statisti-scher Modelle mit künstlicher Intelligenz und vielen echten Daten ein Prognoseinstrument für die Kanalalterung entwickelt: SEMA-Berlin. „Mit diesem neuen Tool können wir Investitionen und Instandhaltungen deutlich besser steuern und den Zustand der Kanalisation langfristig erhalten oder gar verbessern“, erklärt Wasserbetriebe-Finanzvorstand Frank Bruckmann, der sich sehr über den am 11. März verliehenen Innovationspreis des VKU freut. Der Innovationspreis zeichnet „herausragende Innovationen kommunaler Unternehmen“ aus und wird alle zwei Jahre verliehen,
SEMA – ein Kürzel aus der englischen Übersetzung von Kanalalterungsmodell für Strategien des Asset-Managements – basiert auf mehr als 140.000 echten Berliner Datensätzen. Gefüttert mit Informationen über den Kanal selbst wie Alter, Material, Gefälle, Abwasser- und Bodentyp, der Verkehrsbelastung, der Nähe zu Bäumen und noch ein paar weiteren Einflussgrößen errechnet es sehr genau, wie sich der Zustand der einzelnen Kanäle im Netz in den kommenden Jahrzehnten entwickeln wird und welche Sanierungslängen erforderlich sind, damit es auch künftig ordentlich funktioniert. Damit geht es deutlich über bisherige statistische Modelle hinaus, die das Netz in seiner Gesamtheit und nicht im Detail betrachten.
Scheinbar, so könnte man aus der puren Addition der bisher bekannten Daten schlussfolgern, liegt der ideale, weil am wenigsten gealterte Kanal mindestens vier Meter tief im Spandauer Sandboden, ist gemauert, hat einen Innendurchmesser von einem Meter, führt Schmutzwasser und über ihm wachsen keine Bäume. Dieses auf Statistik fußende Klischee stimmt im Großen und Ganzen, im Detail aber eben auch oft nicht. Hier setzt SEMA-Berlin mit maschinellem Lernen auf. Bei der Vorhersage auf Haltungsebene – das ist der oft zwischen 30 und 50 Meter lange Bereich eines Kanals zwischen zwei Schächten – erreicht das Modell schon jetzt etwa 80 % der Genauigkeit einer Kamerainspektion und kann den Zustand sanierungsbedürftiger Haltungen in zwei von drei Fällen richtigrichtig prognostizieren.

AUZUKA verbessert Basis für SEMA-Berlin mit automatisierter Zustandsanalyse
Dafür wird der SEMA-Berlin-Prototyp jetzt bei den Berliner Wasserbetrieben trainiert. Dabei wird das Modell stetig klüger – auch weil es dank des Forschungsprojektes AUZUKA mit immer präziseren Daten gefüttert wird. AUZUKA schafft – wie sein Name sagt – die Voraussetzungen für eine automatische Zustandsanalyse und Klassifikation des Kanalnetzes durch virtuelle Begehung. Unter Leitung der Berliner Wasserbetrieben wurde dafür im Verbund mit neun Institutionen eine den neuen Stand der Technik definierende Technik-Kette vom Kanalinspektionsroboter bis zur automatischen Bild-Auswertesoftware entwickelt, die Kanalschäden schneller, sicherer, positionsgenauer und eben auch unermüdlich erkennt und klassifiziert.
Und ebenso wie SEMA lernt auch AUZUKA mit jedem neuen Datensatz dazu.

Wissenschaftliche Ansprechpartner:
Mathias.Riechel@Kompetenz-wasser.de

Weitere Informationen:
https://www.youtube.com/watch?v=kxy_HwClGCo&feature=youtu.be
https://vimeo.com/252519129
https://www.kompetenz-wasser.de/de/news-item/vku-innovationspreis-sema-berlin/

Quelle: IDW 

(nach oben)


Mit Tönen gegen das Tönen – Musiktherapie bei akutem Tinnitus

Natascha Schettler-Brox Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Studienergebnisse von Heidelberger Forschern bestätigen, dass die Behandlung durch Neuro-Musiktherapie auch im Akutstadium eines Tinnitus Erfolg verspricht.

Tinnitus ist die Wahrnehmung eines störenden Tones oder eines unangenehmen Rauschens ohne äußere Schallquelle. Von einem akuten Tinnitus spricht man, wenn der Tinnitus noch nicht länger als drei Monate besteht. Ohrgeräusche gehören mittlerweile zu den häufigsten Symptomen im HNO-medizinischen Bereich.
Für die Behandlung des akuten Tinnitus gibt es derzeit nur wenige wissenschaftlich überprüfte Therapiemöglichkeiten.
Das Therapiespektrum wurde nun um die Neuro-Musiktherapie erweitert.
Im aktuell veröffentlichten Buch Heidelberger Musiktherapiemanual: Akuter Tinnitus (erschienen im Verlag uni edition, ISBN 3947208103) wird dargestellt, wie die am Deutschen Zentrum für Musiktherapieforschung DZM e.V. entwickelte Neuro-Musiktherapie unmittelbar im Anschluss an die HNO-medizinische Akutbehandlung erfolgreich durchgeführt werden kann. Ein herausragendes Merkmal der Heidelberger Musiktherapie ist die Kombination von psychotherapeutischen Behandlungselementen mit einer gezielten akustischen Stimulation von Tönen und Tonfolgen im Bereich der individuellen Tinnitusfrequenz.
Durch die Musiktherapie wurden konkret eine allgemeine Verringerung der subjektiven Tinnitusbelastung sowie Verbesserungen in der Konzentration, in der Aufmerksamkeit und im allgemeinen Wohlbefinden erreicht. Bei N = 66 Probanden konnten die persönlichen Eindrücke durch unmittelbar vor und nach der Musiktherapie durchgeführten Messungen im Kernspintomographen eindrücklich bestätigt werden.
Diese Ergebnisse setzten neue wissenschaftliche und therapeutische Maßstäbe in der Musiktherapie: nur durch eine interdisziplinäre Vernetzung von HNO-medizinischer Akutversorgung und musiktherapeutischer Kurzzeitintervention kann eine dauerhafte Symptomlinderung erreicht werden.
Seit 15 Jahren werden am Deutschen Zentrum für Musiktherapieforschung (DZM) e.V. in Heidelberg Tinnitusbetroffene behandelt.

Die Tinnitusambulanz des Deutschen Zentrums für Musiktherapieforschung bietet laufend Kompakttherapien für Patienten mit akutem und chronischem Tinnitus an. Weitere
Informationen für Patienten sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter
tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM eines der größten musiktherapeutischen Forschungsinstitute in Europa und vereint Forschung und Praxis unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmitteln. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehört eine Tinnitus- sowie eine CI-Ambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 26
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 73 999 89
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Weitere Informationen:
http://www.dzm-heidelberg.de
https://tinnitusheidelberg.wordpress.com/

Quelle: IDW 

(nach oben)


Luftverschmutzung verkürzt das Leben der Europäer um rund zwei Jahre

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie

Neubewertung der Gesundheitsrisiken durch Luftschadstoffe ergibt unerwartet hohes Sterblichkeitsrisiko speziell durch Herzkreislauferkrankungen

Luftverschmutzung wird als Gesundheitsgefahr deutlich unterschätzt, auch wenn es derzeit eine hitzige Diskussion über Stickoxide, Feinstaub und Dieselfahrverbote gibt. Ein Wissenschaftlerteam um Jos Lelieveld, Direktor am Max-Planck-Institut für Chemie und Thomas Münzel, Professor an der Universitätsmedizin Mainz hat nun ermittelt, dass Luftverschmutzung die durchschnittliche Lebenserwartung der Europäer um rund 2 Jahre verringert. Weltweit sterben laut der Studie jährlich etwa 120 Menschen pro 100.000 Einwohner vorzeitig an den Folgen von verschmutzter Luft, in Europa sogar 133 und damit mehr als im globalen Durchschnitt. In mindestens der Hälfte der Fälle sind Herz-Kreislauf-Erkrankungen die Todesursache.

Schlechte, insbesondere mit Feinstaub belastete Luft führt zu Atemwegs- und Herzkreislauferkrankungen und stellt offenbar ein größeres Gesundheitsrisiko dar als bislang angenommen. Denn mit ihrer Studie, die in der aktuellen Ausgabe des European Heart Journals veröffentlicht wird, aktualisierten die Mainzer Forscher jüngste Berechnungen des Global Burden of Disease (GBD), einer weltweiten Gesundheitsstudie und auch Ergebnisse eigener früherer Untersuchungen : Bis vor Kurzem gingen sie von einer globalen Sterblichkeitsrate durch Luftverschmutzung von rund 4,5 Millionen Menschen pro Jahr aus. Der neu berechnete Wert liegt bei 8,8 Millionen pro Jahr. Allein in Europa sterben demnach jährlich knapp 800.000 Menschen vorzeitig an den Folgen von Luftverschmutzung.

Die Aktualisierung der Berechnungen wurde notwendig, da eine kürzlich veröffentlichte Studie die krankheitsspezifischen Gefährdungsraten gegenüber den Werten des GBD deutlich höher ansetzt. „Da die GBD-Studie 41 umfangreiche Fallgruppenstudien aus 16 Ländern, inklusive China, berücksichtigt, bietet sie die beste derzeit verfügbare Datengrundlage“, sagt Jos Lelieveld, Direktor am Max-Planck-Institut für.

Verschmutzte Außenluft fordert mehr Opfer als Rauchen
Laut der Neuberechnung der Mainzer Forscher reiht sich schlechte Luft damit in die Liste der bedeutendsten Gesundheitsrisiken wie Bluthochdruck, Diabetes, Übergewicht und Rauchen. Zum Vergleich: Die Weltgesundheitsorganisation WHO schätzt die Mortalitätsrate durch Tabakrauch auf 7,2 Millionen Menschen pro Jahr – inklusive Passivrauchen. Somit ist verschmutzte Außenluft ein ähnlich großer Risikofaktor. Rauchen ist jedoch individuell vermeidbar, Luftverschmutzung hingegen nicht.

Die Forscher betonen, dass Feinstaubteilchen mit einem Durchmesser kleiner als 2,5 Mikrometer (PM2,5) die Hauptursache für Atemwegs- und Herzkreislauferkrankungen sind, was die hohen Sterberaten erklärt, die schlechter Luft zugeordnet werden. „Unsere Ergebnisse zeigen, dass der Europäische Grenzwert für Feinstaub, der für den Jahresdurchschnitt bei 25 Mikrogramm pro Kubikmeter Luft liegt, viel zu hoch ist“, sagt Thomas Münzel, Direktor des Zentrums für Kardiologie der Universitätsmedizin Mainz. Der Wert liegt weit über der Richtlinie der WHO von 10 Mikrogramm pro Kubikmeter.

Für ihre Berechnungen ermittelten die Wissenschaftler aus Mainz zunächst die regionale Belastung mit Schadstoffen wie Feinstaub und Ozon mit Hilfe eines etablierten, datengestützten Atmosphärenchemiemodells. Diese Expositionswerte verknüpften sie mit krankheitsspezifischen Gefährdungsraten aus epidemiologischen Daten, sowie Bevölkerungsdichte und Todesursachen in einzelnen Ländern.

Feinstaubbelastung sollte gesenkt werden
„Unsere Ergebnisse zeigen eine viel höhere Krankheitsbelastung durch Luftverschmutzung als bisher angenommen“, sagt Münzel, der auch Initiator der Stiftung Mainzer Herz ist. „Luftverschmutzung muss als wichtiger kardiovaskulärer Risikofaktor anerkannt werden, da sie im Körper zusätzliche Schäden durch Diabetes, Bluthochdruck und hohe Cholersterinwerte verursacht . Jetzt ist es noch dringlicher geworden, die Belastung durch Feinstaub weiter zu senken und die Grenzwerte anzupassen. Zudem muss Feinstaub als Verursacher von Herzkreislauferkrankungen stärker in den Leitlinien der Europäischen Gesellschaft für Kardiologie in den Vordergrund gerückt werden.“

Ersatz fossiler Brennstoffe durch saubere Energiequellen kann die Sterberate um mehr als die Hälfte reduzieren
Da ein Großteil des Feinstaubs und anderer Luftschadstoffe aus der Verbrennung fossiler Brennstoffe stammt, plädieren die Wissenschaftler für den Ersatz fossiler Energieträger zur Energiegewinnung. „Wenn wir saubere, erneuerbare Energien einsetzen, erfüllen wir nicht nur die in Paris getroffenen Vereinbarungen zur Eindämmung der Folgen des Klimawandels“, sagt Jos Lelieveld, der auch Professor an der Johannes Gutenberg-Universität in Mainz und am Cyprus Institute in Nikosia ist. „Wir können damit auch die von Luftverschmutzung verursachte Sterberate in Europa bis zu 55 Prozent verringern.“

1 Age-dependent health risk from ambient air pollution: a modelling study of childhood mortality in middle and low-income countries
Jos Lelieveld, Andy Haines, Andrea Pozzer; The Lancet Planetary Health, 2. Juli 2018; pre-publication 29 June 2018

2 Global estimates of mortality associated with long-term exposure to outdoor fine particulate matter
Burnett et al.: Proceedings of the National Academy U S A. 115(38):9592-9597, doi: 10.1073/pnas.1803222115, 2018

3 Effects of gaseous and solid constituents of air pollution on endothelial function.
Munzel T, Gori T, Al-Kindi S, Deanfield J, Lelieveld J, Daiber A, Rajagopalan S. Eur Heart J 2018;39(38):3543-3550.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jos Lelieveld
Abteilung für Atmosphärenchemie
Max-Planck-Institut für Chemie, Mainz
Telefon: +49 6131 305-4040
Email: jos.lelieveld@mpic.de

Prof. Dr. Thomas Münzel
Universitätsmedizin Mainz
Zentrum für Kardiologie – Kardiologie I
Tel.: +49 6131 17-7251
Fax: +49 6131 17-6615
Email: tmuenzel@uni-mainz.de

Originalpublikation:
Cardiovascular disease burden from ambient air pollution in Europe reassessed using novel hazard ratio functions.
J. Lelieveld, K. Klingmüller, A. Pozzer, U. Pöschl, M. Fnais, A. Daiber und T. Münzel
European Heart Journal (2019), 00, 1-7
DOI: 10.1093/eurheartj/ehz135

Quelle: IDW 

(nach oben)


Blühende Ergänzung zum Mais: Fachtagung betont ökol. Nutzen von Wildpflanzen für Biogasanlagen

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Gemeinsame Pressemitteilung des NABU und der Universität Hohenheim

NABU und Kooperationspartner zeigen Ergebnisse aus Wissenschaft und Praxis

Stuttgart – Rund 950 Biogasanlagen erzeugen derzeit in Baden-Württemberg Strom. Ein bedeutender Energielieferant ist dabei Mais. Doch der intensive Anbau von Mais kann auf vielen Standorten durch mehrjährige Wildpflanzen sinnvoll ergänzt werden. Zu diesem Fazit kommt eine Fachtagung zum Wildpflanzenanbau für Biogasanlagen des NABU Baden-Württemberg und der Universität Hohenheim in Stuttgart. Am 12. März trafen sich Fachleute aus Wissenschaft und Praxis in Hohenheim. Das NABU-Projekt „Biodiversität für Biogasanlagen – naturverträgliche Alternativen zum Maisanbau“ präsentierte dabei seine Ergebnisse.

„Das Insektensterben, die dramatische Abnahme unserer Feldvögel und der Verlust der biologischen Vielfalt haben die Menschen in Deutschland wachgerüttelt. Unsere Aufgabe ist es, die Ursachen zu bekämpfen und die Auswirkungen zu mildern. Mehrjährige Wildpflanzenmischungen sind als Substrat für Biogasanlagen aufgrund ihrer ökologischen Leistungen besonders hervorzuheben. Deshalb engagieren wir uns für das Wissen und die Ansaat von Wildpflanzenmischungen in Baden-Württemberg und unterstützen das Modellvorhaben des NABU Landesverbandes mit rund 47.000 Euro“, betonte Karl-Heinz-Lieber als stellvertretender Geschäftsführer der Stiftung Naturschutzfonds Baden-Württemberg in seinem Grußwort.

Moritz von Cossel, wissenschaftlicher Mitarbeiter der Universität Hohenheim im Fachgebiet Nachwachsende Rohstoffe und Bioenergiepflanzen, zog ein positives Fazit aus der Tagung. „Wo es am Ertrag fehlt, punkten die Wildpflanzen mit ihren Ökosystemleistungen. Durch den erfolgreichen Anbau der Wildpflanzenmischungen kann gleichzeitig ein Beitrag zur Artenvielfalt, zur Bereicherung des Landschaftsbildes, zum Schutz vor Bodenerosion sowie zur Entwicklung ökologisch nachhaltiger Bioökonomie-Strategien geleistet werden.“

„Wilde Malve, Flockenblume, Eibisch und weitere Wildpflanzen bleiben in der Energiebilanz hinter Mais zurück, doch sie haben andere Vorteile“, erklärte NABU-Landwirtschaftsreferent Jochen Goedecke. Er begleitete im NABU-Projekt „Biodiversität für Biogasanlagen“ über 18 Monate hinweg den Anbau verschiedener Mischungen und beriet Landwirte. „Trotz der niedrigeren Erträge im Vergleich zum Mais haben die Wildpflanzenmischungen ihre Berechtigung. Neben den Insekten, Vögeln und dem Niederwild profitieren auch der Boden und das Grundwasser von dieser Blütenpracht.“

Landwirt Markus Frick aus Kißlegg berichtete, dass sich Wildpflanzen gut in den betrieblichen Ablauf integrieren lassen und im Gegensatz zu Mais weniger Dünger, keinen Pflanzenschutz und weniger Zeit für die Bewirtschaftung brauchen. Jörg Messner, Biogasberater des Landwirtschaftlichen Zentrums Baden-Württemberg, legte dar, dass sich die Wildpflanzen-Silage problemlos gemeinsam mit Mais vergären lässt. Diese Eigenschaften unterstützen dabei, die Balance zwischen Ökonomie und Ökologie zu halten und die Mischungen aus bis zu 30 heimischen Pflanzen – trotz des geringeren Ertrags – als Energielieferanten zu etablieren.

Dass sich Wildpflanzenmischungen besonders für Grenzertragsstandorte eignen, stellte NABU-Projektleiter Jochen Goedecke fest. „Die Erfahrungen in unserem Projekt ‚Biodiversität für Biogasanlagen‘ haben gezeigt, dass Wildpflanzen für kleine, schwer erreichbare Flächen und Äcker mit schlechteren Bodenqualitäten eine echte Alternative darstellen. Sie sind robust, kommen mit Wetterextremen wie Hagel zurecht und sind für Wildschweine uninteressant.“

Das NABU-Projekt „Biodiversität für Biogasanlagen – naturverträgliche Alternativen zum Maisanbau“ wird unterstützt durch die Stiftung Naturschutzfonds mit Förderung aus zweckgebundenen Erträgen der Glücksspirale.

HINTERGRUND: Projekt „Biodiversität für Biogasanlagen – naturverträgliche Alternativen zum Maisanbau“

Im NABU-Projekt „Biodiversität für Biogasanlagen – naturverträgliche Alternativen zum Maisanbau“ erprobten Landwirte über 18 Monate hinweg eine Alternative zum Anbau von Biogas-Mais. Drei Betriebe testeten in dieser Zeit mehrjährige Wildpflanzenmischungen. Workshops und Feldexkursionen führten vorhandene Praxiserfahrungen für Landwirtinnen und Landwirte zusammen. Vermittelt wurde dabei Know-how zu Anbau, Ernte und Naturschutzeffekten von Wildpflanzenmischungen sowie zur naturverträglichen Bewirtschaftung.

Kooperationspartner des Projektes sind das Landwirtschaftliche Technologiezentrum Augustenberg, die Landesanstalt für Entwicklung der Landwirtschaft und der ländlichen Räume, das Landwirtschaftliche Zentrum Baden-Württemberg, der Fachverband Biogas und die Universität Hohenheim. Gefördert wird das Projekt von der Stiftung Naturschutzfonds Baden-Württemberg aus zweckgebundenen Erträgen der Glücksspirale.

Weitere Informationen:
www.NABU-BW.de/biogas
www.stiftung-naturschutz-bw.de

Bildmaterial für Pressezwecke finden Sie am 12.03.2019 ab 15.00 Uhr unter www.NABU-BW.de/pressebilder

Quelle: IDW 

(nach oben)


Internationaler Aktionstag gegen Staudämme am 14. März: Gewässerforschende als Experten zum Thema

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Der 14. März 2019 ist der internationale Aktionstag für Flüsse und gegen Staudämme. Wasserkraft ist eine erneuerbare, aber nicht zwingend eine klimaneutrale und umweltfreundliche Energiequelle. Gewässerstrukturen und Ökosysteme werden oft unumkehrbar verändert. Fließgewässer sind für Fische und andere Lebewesen nicht mehr durchwanderbar. Stauseen können zudem klimarelevante Gase freisetzen. Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) ist das größte deutsche Forschungszentrum für Binnengewässer. Unsere Forschenden geben gerne Auskunft zu den Auswirkungen von Staudämmen auf die betroffenen aquatischen Ökosysteme und ihre Artenvielfalt.

Heute tragen laut Weltbank-Studie erneuerbare Energien bereits etwa 20 Prozent zur globalen Stromproduktion bei, davon stammen allein 80 Prozent aus Wasserkraft. Tendenz steigend; Laut einer Studie des IGB von 2015 befinden sich weltweit etwa 3700 große Staudämme, vor allem in Entwicklungs- und Schwellenländern, im Bau oder in Planung. Mit oft dramatischen Auswirkungen auf die Umwelt. In Europa boomt der Ausbau von Kleinkraftanlagen. Allein für die Balkanregion weist Riverwatch ca. 2500 Staudämme in Planung oder Bau aus. Über die globale Entwicklung bei den kleinen Anlagen wissen wir wenig. Ihre ökologischen Auswirkungen sind aber unter Umständen besonders hoch, denn sie tragen nur wenig zur Energiesicherung bei, „verbrauchen“ aber überproportional viele natürliche Ressourcen in Form von freifließenden und durchwanderbaren Gewässerabschnitten. International fordern Forschende deshalb deutlich verbesserte Kriterien und Standards für die Errichtung und den Betrieb von Wasserkraftanlagen. Diese sollen nicht nur helfen, die Stromerzeugung zu optimieren, sondern gleichzeitig auch deren negative Auswirkungen zu minimieren.

Ansprechpartnerinnen und Ansprechpartner aus dem IGB:
Dr. Gabriel Singer: Auswirkungen von Staudämmen auf Fließgewässer im regionalen Maßstab.
Zitat: „Einen Staudamm zu bauen bedeutet, lokal einen Fluss zumindest in einem Abschnitt zu verlieren, ihn quasi in einen „See“ zu verwandeln. Darüber hinaus werden ureigene Eigenschaften von Flüssen auf weit größerem Maßstab durch einen Staudamm stark verändert. Ein regulierter Abfluss und der unterbundene Sedimenttransport verhindern die natürliche Dynamik stromabwärts gelegener Abschnitte des Fließgewässernetzwerks, der Fluss verliert eben dort sein typischerweise dynamisch ausgeprägtes Lebensraum-Mosaik, mit entsprechend negativen Konsequenzen für die Biodiversität. Staudämme machen Organismen aber auch das Wandern schwer und verändern die natürlicherweise von kleinen zu großen Flüssen stattfindenden Stofftransporte. All dies hat noch wenig erforschte Folgen für die Rolle von Flüssen im Landschaftsgefüge.“

Dr. Christian Wolter: Auswirkungen von Staudämmen auf die Durchwanderbarkeit von Fließgewässern für Fische.
Zitat: „Staudämme und Wehre stellen eine Barriere für viele Fischarten dar – nicht nur für Wanderfische. Wenn sich in einem Gewässerabschnitt der Wasserstand stark verändert, durch Hoch-oder Niedrigwasser, wandern Fische normalerweise in andere Flussabschnitte ab. Fischaufstiege sind für solche Ereignisse nicht ausgelegt. Einige Fischarten wie Störe können die gängigen Fischaufstiege gar nicht nutzen. Darüber hinaus gehen im Rückstaubereich von Wehren und Staudämmen frei fließende Strecken im Fluss verloren – und damit großräumige Lebensräume für typische Flussfischarten.“

Dr. Sonja Jähnig: Auswirkungen von Staudämmen auf die Artenvielfalt in Gewässern.
Zitat: „Der Boom der Wasserkraft ist vor allem in Entwicklungs- und Schwellenländern in Südamerika, Südostasien sowie Afrika zu spüren – und damit in jenen Regionen, die einen Großteil der biologischen Vielfalt unseres Planeten beherbergen. Schon heute ist diese Vielfalt stark gefährdet. Zusätzliche Staudämme werden den Rückgang der Arten weiter beschleunigen. Auch die Megafauna ist betroffen, also große Tiere wie Flussdelfine oder Störe, beispielsweise durch die Blockade von Migrationsrouten oder den Verlust von Futter- und Laichplätzen. Es gehen jedoch nicht nur Lebensräume im Fluss verloren, sondern auch Habitate in den Uferzonen und am Gewässerrand, beispielsweise durch den Bau von Infrastrukturen wie Straßen, Siedlungen und andere Landnutzungsänderungen.“

Dr. Peter Casper: Staudämme als Quellen von Treibhausgasen.
Zitat: „Die Gewinnung von Energie mittels Wasserkraft galt lange Jahre als klimafreundlich. Durch die Anstauung der Flüsse entstanden oft riesige Stauseen, in denen das von den Flüssen transportierte Material ablagert wird. Erst als in den späten 80er Jahren die ersten Berichte über die Freisetzung von Treibhausgasen aus den Stauseen publiziert wurden, geriet die Wasserkraft in die öffentliche Kritik. Besonders in den Tropen, wo auch die meisten neuen Staudämme geplant oder bereits im Bau sind, führen die höheren Temperaturen zum Abbau der organischen Bestandteile der Sedimente unter Bildung von Methan, Kohlenstoffdioxid und in manchen Fällen auch von Lachgas (Distickstoffoxid). Alle drei Gase haben das Potential, den Wärmehaushalt der Erde zu beeinflussen, also zum Klimawandel beizutragen. Auch in gemäßigten Breiten tragen Staudämme zum Anstieg der atmosphärischen Treibhausgaskonzentration bei.“

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:

Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
www.igb-berlin.de

Dr. Gabriel Singer:
gabriel.singer@igb-berlin.de
+49 (0)30 64181 726

Dr. Christian Wolter:
wolter@igb-berlin.de
+49 (0)30 64181 633

Dr. Sonja Jähnig:
sonja.jaehnig@igb-berlin.de
+49 (0) 30 6392 4085

Dr. Peter Casper:
pc@igb-berlin.de
+49 (0)33082 699 29

Quelle: IDW 

(nach oben)


FH entwickelt fliegende Roboter zur Bekämpfung der Wilderei in Südafrika

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen

Teurer als Gold: Ein Kilogramm Rhinozeroshorn bringt auf den Schwarzmärkten in Asien mehr als 50.000 Euro ein. Die illegale Jagd hat die Nashornbestände im südlichen Afrika dezimiert. Jährlich werden mehr als 1000 Tiere getötet, obwohl auf Wilderei harte Strafen ausgesetzt sind. Organisiert wird der Schmuggel von asiatischen Syndikaten, die zum Aufspüren der Tiere modernste Technik einsetzen. Um die Banden zu bekämpfen, setzen die Tierschutzorganisationen ebenfalls auf Hightech.

An der FH Aachen wird derzeit eine Technologie entwickelt, mit der dem Treiben der Wilderer im südlichen Afrika Einhalt geboten werden kann. „Wir setzen unbemannte Fluggeräte ein, die große Gebiete überwachen. Damit können wir Menschen, Tiere und Autos in Echtzeit identifizieren“, sagt Patrick Wiesen. Der FH-Absolvent forscht am FH-Institut Mobile Autonome Systeme und Kognitive Robotik (MASKOR), seine Dissertation erstellt er an der Tshwane University of Technology (TUT) in Pretoria/Südafrika.

In einem ersten Schritt werden die Gebiete, in denen die Wilderer aktiv sind, in 3D erfasst. Das betrifft etwa den Kruger Nationalpark in Südafrika, der etwa 20.000 Quadratkilometer groß ist – das entspricht etwa der Fläche Hessens. Auf der Grundlage dieser dreidimensionalen Karte kommt ein Schwarm von „Unmanned Aerial Vehicles“ (UAV) zum Einsatz, also unbemannte Fluggeräte, die autonom das Gebiet überfliegen und Aktivitäten am Boden mit Hilfe von Wärmebildkameras erfassen. Patrick Wiesen erklärt: „Mit unserer Software können wir die Daten in Echtzeit auswerten. Die Parkwächter bekommen Warnhinweise von unserem System und können gezielt einschreiten.“ Dazu werden neuronale Netze der fliegenden Roboter so trainiert, dass sie Menschen, Tiere und Autos erkennen – die Systeme lernen gewissermaßen, die Objekte aus der Luft zu identifizieren.
Die FH-Forscher arbeiten eng mit der südafrikanischen Tierschutzorganisation SPOTS (Strategic Protection of Threatened Species) zusammen, die sich dem Schutz gefährdeter Tierarten verschrieben hat. Die Organisation setzt bereits jetzt auf den Einsatz von unbemannten Kleinflugzeugen. „Wir können SPOTS vor allem im Bereich der Software und der Datenauswertung unterstützen“, betont Patrick Wiesen. Bei einem einwöchigen Test im Dezember 2018 kam das neuentwickelte System erstmals zur Anwendung. Mit dabei waren auch die Partner von der TUT, mit der der Fachbereich Maschinenbau und Mechatronik der FH Aachen seit Jahren zusammenarbeitet. So bot die FH etwa die Summerschool zum Robot Operating System (ROS) schon dreimal in Südafrika an. Langfristiges Ziel ist es, im südlichen Afrika ein Netzwerk zur kognitiven Robotik aufzubauen. Potenzielle Partner könnten die Universität in Kapstadt und Stellenbosch sein. Treibende Kraft auf Seiten der FH Aachen ist Prof. Dr. Stephan Kallweit, der außerordentlicher Professor an der TUT ist und auf diesem Weg auch die Dissertationen von Patrick Wiesen, Josef Franko und Heiko Engemann betreut.

Bei dem Anti-Wilderei-Projekt geht es aber nicht nur um Software, sondern auch um die fliegende Hardware: Bislang ist der Aktionsradius der UAVs begrenzt, was die Einsetzbarkeit gerade in den Weiten des südlichen Afrika einschränkt. Der FH-Student Malte Holch vom Fachbereich Luft- und Raumfahrttechnik entwickelt im Rahmen seiner Bachelorarbeit eine Flugsteuerung für Senkrechtstarter – also Fluggeräte, die keine Start- und Landebahn benötigen und die trotzdem für den Streckenflug geeignet sind. Ein mögliches Anwendungsgebiet sind Lufttaxis, die zukünftig in verkehrsgeplagten Innenstädten der ersten Welt zum Einsatz kommen sollen. Für das Anti-Wilderei-Projekt können die Senkrechtstarter ebenfalls eine spannende Alternative sein. Malte Holch betont: „Wir setzen aktuell zur 3-D-Erfassung noch einen Multikopter ein. Dieser ist im Vergleich langsamer und hat nicht so eine hohe Reichweite wie der Senkrechtstarter.“ SPOTS setzt derzeit einen Starrmodellflieger ein, der ebenfalls höhere Geschwindigkeiten und Reichweiten erreicht, aber eine Start- und Landebahn braucht. Der Senkrechtstarter kombiniert die Vorteile von beiden Systemen. Auch die Kombination mit solargespeisten Elektromotoren sowie die Nutzung der Thermik wie beim Segelflug sei denkbar. Die FH-Fachbereiche Luft- und Raumfahrttechnik sowie Maschinenbau und Mechatronik arbeiten derzeit gemeinsam an weiteren Projekten rund um das Thema autonomes Fliegen.

Malte Holch hat neben Jagd auf Wilderer auch einen weiteren Anwendungszweck im Auge. Er ist in Namibia, dem nordwestlichen Nachbarland Südafrikas, aufgewachsen und hat gute Kontakt dorthin. „Ich kenne viele Farmer, die solche Systeme gerne zur Überwachung einsetzen möchten.“ Dabei gehe es darum, das Vieh zu zählen und die Zäune auf Schäden zu kontrollieren. Auch hierbei kann die Software zum Einsatz kommen, die an der FH Aachen entwickelt wird. „Für uns ist wichtig, dass wir auf einer Open-Source-Plattform arbeiten“, betonen Patrick Wiesen und Malte Holch, „unsere Partner im südlichen Afrika sollen in der Lage sein, die Systeme einzusetzen, zu warten und weiterzuentwickeln.“

Quelle: IDW 

(nach oben)


Psychologie von Geschwistern: Letztgeborene sind keine Draufgänger

Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Es gibt Annahmen und Theorien, die so verbreitet sind, dass sie für wahr gehalten werden. So auch diese, dass Letztgeborene risikobereiter sind als ihre älteren Geschwister. Ein Forscherteam vom Max-Planck-Institut für Bildungsforschung, der Universität der Balearen, der Universität Basel und dem Deutschen Institut für Wirtschaftsforschung konnte nun anhand von drei großen Datenanalysen zeigen, dass es keinen Zusammenhang zwischen der Geburtenreihenfolge und der individuellen Risikobereitschaft gibt. Die Ergebnisse wurden im Journal PNAS veröffentlicht.

Charles Darwin, Alexander von Humboldt und Rosa Luxemburg waren die jüngsten Kinder in ihren Familien und hatten Charaktereigenschaften, die man den Letztgeborenen oft zuschreibt: Sie waren abenteuerlustig, rebellisch und unerschrocken. Die These, dass die Geburtsreihenfolge die Persönlichkeit beeinflusst, wurde lange und kontrovers in der Psychologie und darüber hinaus diskutiert. In den 1990er Jahren wurde die These besonders prominent in den Arbeiten des Wissenschaftshistorikers und Darwin-Experten Frank Sulloway vertreten. Bei seiner Suche nach den Gründen, warum Menschen politische oder wissenschaftliche Revolutionäre werden, entdeckte er, dass es unter diesen statistisch gesehen mehr Letztgeborene gibt. Er entwickelte ein Modell der Familiendynamik, nach dem sich die Erstgeborenen der privilegierten Aufmerksamkeit der Eltern sicher sein konnten, wohingegen die jüngeren Geschwister sich erst eine „familiäre Nische“ erkämpfen und dafür Risiken eingehen müssten, was ihre Persönlichkeit präge.

Inzwischen wird Sulloways Familiendynamikmodell kritischer gesehen und jüngste Studien können keinen Zusammenhang zwischen Geburtsreihenfolge und Persönlichkeit im Allgemeinen nachweisen. Doch gilt dies auch für die Risikobereitschaft? Sind Letztgeborene waghalsiger als ihre älteren Geschwister? Dieser Frage ging ein Forscherteam vom Max-Planck-Institut für Bildungsforschung, der Universität der Balearen, dem Deutschen Institut für Wirtschaftsforschung und der Universität Basel in drei unterschiedlichen Analysen nach.

In der ersten Analyse untersuchten die Forscher Daten aus einer der umfangreichsten wissenschaftlichen Wiederholungsbefragungen in Deutschland, dem Sozio-oekonomischen Panel (SOEP). Das SOEP befragt jedes Jahr etwa 30.000 Menschen zu verschiedensten Themen, so zum Beispiel auch zur selbsteingeschätzten Risikobereitschaft beim Autofahren oder in finanziellen Dingen. Mit Blick auf die Risikobereitschaft verglichen die Forscher die Antworten von Erstgeborenen mit denen von Nachgeborenen und Letztgeborenen. In 96 Prozent der Vergleiche war dabei keinerlei Zusammenhang festzustellen.

Darüber hinaus werteten die Forscher die Daten der so genannten „Basel-Berlin Risk Study“ mit Blick auf die Geschwisterfrage neu aus. In dieser Studie wurde die individuelle Risikobereitschaft von 1.507 Erwachsenen in experimentellen Verhaltenstests im Labor und in Selbsteinschätzungen untersucht. Doch auch in diesen Daten fanden die Forscher keinen Zusammenhang zwischen der Geburtenreihenfolge und der Risikobereitschaft einer Person.

In der dritten Analyse recherchierten die Forscher zudem die Geburtsreihenfolge von fast 200 historischen Entdecker*innen und Revolutionär*innen. „Wir wollten ausschließen, dass sich die Risikobereitschaft von Letztgeborenen in Umfragen und Verhaltenstests nicht zeigt, aber durchaus im echten Leben. Deshalb haben wir auch in den Geschichtsbüchern geschaut, ob die Entscheidung, ein risikoreiches Leben zu führen von der Geburtsreihenfolge abhängt. Jedoch fanden wir auch hier keine statistischen Auffälligkeiten“, sagt Tomás Lejarraga, Erstautor der Studie und Assoziierter Wissenschaftler im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung sowie Associate Professor an der Universität der Balearen auf Mallorca.

„Die These, dass die Dynamik in der Familie, die wiederum durch die Geburtsreihenfolge geprägt sein könnte, die Risikobereitschaft beeinflusst, scheint durchaus intuitiv und plausibel. Aber wir konnten weder in Umfragen, noch in experimentellen Versuchen, noch in den Stichproben historischer Persönlichkeiten, die enorme Risiken eingegangen sind, Hinweise für diese These finden“, sagt Ralph Hertwig, Direktor des Forschungsbereichs Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und Mitautor der Studie.

Auch die Erstgeborenen Martin Luther, Christoph Kolumbus und die britische Abenteurerin Mary Kingsley zeigen, dass es wohl andere Faktoren als die Geburtsreihenfolge geben muss, die dazu führen, dass Menschen sich für ein risikoreiches Leben entscheiden.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Lejarraga, T., Frey, R., Schnitzlein, D. D., & Hertwig, R. (2019). No effect of birth order on adult risk taking. PNAS. https://doi.org/10.1073/pnas.1814153116

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2019/03/psychologie-von-geschwistern-le…

Quelle: IDW 

(nach oben)


Zum Tag des Wassers am 22.3.: Digitalisierung im Wassersektor meistern mit praxisnaher Forschung

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft

Ob als Lebensmittel oder in der Landwirtschaft, ob für die Reinigung oder in der Logistik: Wasser und mit ihm die Wasserbranche ist für die alle Lebensbereiche erfassende Digitalisierung ein Schlüsselelement.

„Für einen fließenden Übergang der Branche ins Zeitalter der Digitalisierung liefern die Forschungsinstitute der Zuse-Gemeinschaft mit ihrer Expertise wertvolle Antworten. Ihre Arbeit erlangt durch den Stellenwert von Wasser auf Energie-, Logistik- und Rohstoffmärkten ebenso wie durch die Auswirkungen des Klimawandels erhöhte Aktualität“, erklärt der Präsident der Zuse-Gemeinschaft, Dr. Ralf-Uwe Bauer, anlässlich des Tages des Wassers.

Wasser ist ein Medium, das elektrischen Strom ebenso wie Stoffe in den Boden und Verkehrsströme leitet. Dass Kanäle und Flüsse als Verkehrsadern künftig noch stärker pulsieren könnten, darauf deutet ein aktuelles Projekt des RIF Institut für Forschung und Transfer hin. Das Dortmunder Forschungsteam untersucht gemeinsam mit dem Duisburger Institut DST, wie eine dezentral gesteuerte Binnenschifffahrt für bedarfsorientierte und umweltgerechtere Mobilität sorgen kann. Kern des Projekts: Die Forschenden ermitteln anhand von Güterströmen einerseits und technischer Innovationen andererseits, inwieweit künftig wieder verstärkt kleinere Schiffe beim Lastentransport zum Zuge kommen können. „Die Chancen von Elektromobilität und autonomem Transport bieten in Kombination mit freien Kapazitäten in kleineren Häfen und Kanälen nahe der Ballungsräume an Rhein und Ruhr ideale Voraussetzungen für neue Logistiklösungen auf dem Wasser, die digitales Know-how mit den Vorzügen vorhandener Infrastruktur verbinden“, erklärt RIF-Geschäftsführer Michael Saal.

Elektrolyse befreit von Medikamenten-Rückständen
Als Teil der Daseinsvorsorge ist die Wasserwirtschaft bei Umwelt- und Gesundheitsschutz gefordert. In Deutschland sind laut Umweltbundesamt nur rund 8 Prozent der knapp 10.000 Gewässer in gutem oder sehr gutem ökologischen Zustand. Wie sich problematische Spurenstoffe aus Abwässern entfernen lassen, untersucht aktuell die Gesellschaft zur Förderung der naturwissenschaftlich-technischen Forschung in Berlin-Adlershof (GNF). Die Forschenden sind Rückständen von Arzneimitteln auf der Spur, so Röntgenkontrastmitteln. Im Wasserkreislauf wirken sich solche Kontrastmittel schädlich aus. Das wollen die GNF-Forschenden verhindern: Über einen Elektrolyseschritt und mit Hilfe von ultravioletter Strahlung haben sie vielversprechende Ergebnisse zum Abbau der Spurenstoffe erzielt. „Während Kontrastmitteln wie der im Röntgen häufig eingesetzten Amidotri-zoesäure selbst mit dem Einsatz von Ozon und Aktivkohlefiltern nicht beizukommen ist, können wir sie mit der Elektrolyse sehr gut bekämpfen. Wir sind sehr zuversichtlich, dass die bevorstehenden Feldtests unsere im Labor erzielten Ergebnisse bestätigen“, sagt der GNF-Vorsitzende Dr. Frank-Marc Krüger.

Simulationssoftware für Kläranlagen
Dass Digitalisierung in der Wasserwirtschaft nicht als disruptiver, sondern auch als organischer, dynamischer Prozess verstanden werden kann, zeigt das Institut für Automation und Kommunikation (ifak) aus Magdeburg. Mit der im ifak entwickelte Simulationssoftware SIMBA kann bereits seit mehr als 20 Jahren das dynamische Verhalten von Kläranlagen und Abwassersystemen analysiert werden. Mit SIMBA lassen sich u.a. Abläufe in Kläranlagen simulieren, die sowohl die Verfahrens- und Maschinentechnik als auch die Automatisierung abbilden. So ermöglicht SIMBA eine ganzheitliche Analyse von Kanalnetz, Kläranlage, Schlammbehandlung, Fließgewässer und Automatisierung. „Die Computersimulation komplexer technischer Systeme wird zunehmend zum Standardwerkzeug zur Verfahrensoptimierung und zur ganzheitlichen Bewertung von Automatisierungsprozessen“, sagt Dr. Jens Alex, Abteilungsleiter Geschäftsfeld Wasser und Energie im ifak.

„Die Institute der Zuse-Gemeinschaft sind nicht nur in der Wissenschaft, sondern auch als kompetente Berater und Dienstleister unterwegs. Für die Wasserwirtschaft und andere Branchen liefern sie kostbare Lösungen rund um die Digitalisierung. Die Bundesregierung muss diese Stärken der praxisnahen Forschung durch eine verbesserte Förderung honorieren“, fordert Dr. Bauer.

Über die Zuse-Gemeinschaft
Die Zuse-Gemeinschaft vertritt die Interessen gemeinnütziger, privatwirtschaftlich organisierter Industrieforschungseinrichtungen. Dem technologie- und branchenoffenen Verband gehören bundesweit über 70 Institute an. Als praxisnahe und kreative Ideengeber des deutschen Mittelstandes übersetzen sie die Erkenntnisse der Wissenschaft in anwendbare Technologien und bereiten so den Boden für Innovationen, die den deutschen Mittelstand weltweit erfolgreich machen.

Impressum
Deutsche Industrieforschungsgemeinschaft Konrad Zuse e.V. || Geschäftsführerin Dr. Annette Treffkorn || Invalidenstr. 34 || 10115 Berlin || Tel: 030 440 62 74 || Fax: 030 440 62 97 || E-Mail: info@zuse-gemeinschaft.de Registergericht: Amtsgericht Charlottenburg VR: 34276 B V.i.S.d.P.: Dr. Annette Treffkorn

Anhang
PM Zuse-Gemeinschaft: Zum Tag des Wassers am 22.3.: Die Digitalisierung im Wassersektor meistern mit praxisnaher Forschung
https://idw-online.de/de/attachment71278

Quelle: IDW 

(nach oben)


Darmvorsorge rettet Leben | Infoveranstaltung des Universitätsklinikums Ulm am 23. März

Nina Schnürer Unternehmenskommunikation
Universitätsklinikum Ulm

Darmkrebs ist mit über 70.000 Neuerkrankungen pro Jahr in Deutschland die zweithäufigste Krebserkrankung – sowohl bei Männern als auch bei Frauen. Am Samstag, 23. März von 10:00 bis circa 13:00 Uhr, laden die Darmkrebszentren des Universitätsklinikums Ulm und des Bundeswehrkrankenhauses Ulm zu einer Informationsveranstaltung zum Thema Darmkrebs und Vorsorge ins Stadthaus ein. Die Veranstaltung richtet sich an betroffene Patient*innen und die interessierte Bevölkerung und wird in Kooperation mit der Stiftung Lebensblicke und der Gastro-Liga durchgeführt.

„Mit höherem Alter steigt auch die Wahrscheinlichkeit, an Darmkrebs zu erkranken. Daher sind regelmäßige Vorsorgeuntersuchungen, durch welche schon die Entstehung dieser Krankheit verhindert werden kann, äußerst wichtig“, erklärt Professor Thomas Seufferlein, Ärztlicher Direktor der Klinik für Innere Medizin I des Universitätsklinikums Ulm. „Bei vielen Menschen ist die Hemmschwelle, tatsächlich zur Darmkrebsvorsorge zu gehen, jedoch immer noch sehr hoch. Dagegen hilft nur Aufklärung, die wir unter anderem mit unserer Informationsveranstaltung im Stadthaus schaffen wollen.“

Was viele nicht wissen: Darmkrebs kann wie Herzkreislauferkrankungen und Diabetes Typ II durch einen gesunden Lebensstil mit ausgewogener Ernährung, Verzicht auf Rauchen und regelmäßiger Bewegung vorgebeugt werden. Auch helfen neue genetische Untersuchungen, das Risiko für eine Erkrankung besser einzuschätzen. Durch die Vorsorgekoloskopie oder Darmspiegelung können zudem schon Vorstufen von Darmkrebs erkannt und sicher entfernt werden. Durch moderne Techniken können heute sowohl frühe Krebserkrankungen des Darms als auch fortgeschrittene, bösartige Tumoren erfolgreich behandelt werden – die Heilungschancen für Patient*innen mit Darmkrebs haben sich in den letzten Jahren deutlich verbessert. Das zunehmende Wissen, warum Darmzellen bösartig werden, hilft außerdem, Patient*innen mit nicht heilbarem Krebs lange Zeit zu stabilisieren und deren Lebensqualität zu erhalten. Ein stärkeres Bewusstsein in der Öffentlichkeit zum Thema Darmkrebsvorsorge zu schaffen, ist auch Anliegen von Bundesgesundheitsminister Jens Spahn, der in diesem Jahr als Schirmherr des Darmkrebsmonats März fungiert.

„Im Namen der Darmkrebszentren am Universitätsklinikum Ulm und am Bundeswehrkrankenhaus Ulm laden wir Sie zusammen mit unseren niedergelassenen Kooperationspartnern sehr herzlich in das Stadthaus Ulm ein. Neben unseren Vorträgen möchten wir Ihnen Raum und Zeit für eine Diskussion und Ihre persönlichen Fragen geben und hoffen, Sie am 23. März begrüßen zu dürfen“, so Professor Thomas Seufferlein.

Informationen zu den Darmkrebszentren
Die zertifizierten Darmkrebszentren des Universitätsklinikums und des Bundeswehrkrankenhauses Ulm diagnostizieren und behandeln in enger Kooperation mit ihren niedergelassenen Partnern in der Region vor allem Krebserkrankungen des Dickdarms und des Enddarms sowie deren Vorstufen, die sogenannten Polypen. Dies geschieht nach neuesten wissenschaftlichen Erkenntnissen, mit hohem medizinischen Standard und modernsten Methoden.

Terminüberblick
Informationsveranstaltung im Darmkrebsmonat März
Samstag, 23.März 2019, von 10:00 bis ca. 13:00 Uhr
Stadthaus Ulm, Münsterplatz 50, 89073 Ulm

Anbei finden Sie das Programm mit allen Informationen und Vorträgen.

Kontakt:
Martina Schröck
Klinik für Innere Medizin I
Universitätsklinikum Ulm
Albert-Einstein-Allee 23
89081 Ulm
Tel.: + 49 731 500 44504
Fax: + 49 731 500 44502
E-Mail: martina.schroeck@uniklinik-ulm.de

Anhang
Programm Infoveranstaltung Darmkrebsvorsorge
https://idw-online.de/de/attachment71274

Quelle: IDW 

(nach oben)


Diversity-Strategien zur erfolgreichen Personalgewinnung

Gabriele Stegers Stabstelle Strategische Kommunikation und Marketing
Hochschule Rhein-Waal

Zum Thema „Digitalisierung – Demographie – Diversität“ trafen sich Unternehmen aus der Region und Expertinnen und Experten auf Einladung der Hochschule Rhein-Waal. Die Veranstaltung ist der Auftakt eines Forschungsvorhabens, im Rahmen dessen vor dem Hintergrund zunehmender Digitalisierung und des demographischem Wandels gemeinsam mit der Unternehmerschaft Diversity-Strategien zur erfolgreichen Personalgewinnung und -bindung erarbeitet werden sollen.

In den kommenden elf Jahren wird aufgrund des demographischen Wandels die Zahl der Erwerbstätigen am Niederrhein um etwa 15 Prozent sinken. Gleichzeitig werden die Digitalisierungsprozesse in den Unternehmen zunehmen und fortschreiten, nicht zuletzt, um die Wettbewerbsfähigkeit der Region zu erhalten. Das führt zwangsläufig zu einer Veränderung der beruflichen Landschaft. Um vor diesem Hintergrund den aktuellen und zukünftigen Bedarf an Arbeitskräften zu decken, muss die Wirtschaft neue Wege gehen und neue Arbeitskräftereservoirs erschließen: Frauen für Führungspositionen vorsehen, verstärkt Mütter und Berufsrückkehrerinnen, sowie Menschen mit einem Migrationshintergrund als Zielgruppe betrachten. Solche Schritte sind aber nur dann möglich, wenn dafür entsprechende Strategien entwickelt werden, um so die Vielfältigkeit der Belegschaft zu erhöhen und mit ihr agieren zu können.

Um genau diese Herausforderungen anzusprechen, mögliche Strategien vorzustellen sowie interessierte Akteurinnen und Akteure zu vernetzen, hatte die Hochschule Rhein-Waal zu einer Veranstaltung eingeladen. Darüber hinaus galt es, Projektunternehmen sowie Kooperationspartnerinnen und -partner für einen Beirat zu gewinnen. Das Treffen, an dem etwa 60 Vertreterinnen und Vertreter aus Wirtschaft, Politik, Verbänden und anderen Bereichen der Gesellschaft teilnahmen, ist der Auftakt eines Forschungsvorhabens. Dabei sollen unter der Leitung von Professorin Dr. Eva-Maria Hinterhuber, Professorin für Soziologie mit dem Schwerpunkt Genderforschung an der Hochschule Rhein-Waal, vor dem Hintergrund zunehmender Digitalisierung und des demographischem Wandels gemeinsam mit der regionalen Unternehmerschaft Diversity Strategien zur erfolgreichen Personalgewinnung und -bindung erarbeitet werden. „Bei dem Projekt steht die Frage im Mittelpunkt: Wie kann es gelingen, die Auswirkungen der Digitalisierung auf die Arbeitsprozesse in Unternehmen durch Gender Diversity Management zu nutzen, um dem Fachkräftemangel zu begegnen. Ziel ist, die regionalen Unternehmen auf diese Weise zu stärken und die Region Rhein-Waal als attraktiven Lebens- und Arbeitsort zu erhalten“, erläutert Professorin Hinterhuber.

Kern der Veranstaltung war ein Workshop, in dem sich die Teilnehmenden unter anderem mit den Herausforderungen und Potenzialen der Region Niederrhein und der Region Rhein-Waal auseinandersetzten. Demographische Entwicklungen und Digitalisierungsprozesse machen zwar nicht vor Ländergrenzen halt, die Herangehensweisen zur Bewältigung der daraus resultierenden Herausforderungen aber sind teilweise recht unterschiedlich. Insofern stand immer auch das Ansinnen im Raum, mit einem Blick über die niederländisch-deutsche Grenze hinweg jeweils voneinander zu lernen.

„Die gesamte Region der Euregio Rhein-Waal muss für die Zukunft gerüstet sein. Disruptive Entwicklungen und neue Geschäftsmodelle haben einen großen Einfluss. Dass die Hochschule Rhein-Waal in diesem Zusammenhang Themen wie Digitalisierung und Diversität aufgreift, ist ein wichtiger Schritt in die richtige Richtung. Dabei sehe ich die Grenze als Chance. Unsere Region als Vorzeigemodel, als eine Art ‚Living Lab‘, wo Fortschritt begrüßt wird und man bereit ist, voneinander zu lernen. Da dies nicht überall selbstverständlich ist, macht es die Zusammenarbeit noch wertvoller“, fasst Sigrid Helbig, Direktorin von The Economic Board, Nijmegen, das Kick-Off-Treffen zusammen. Und Dr. Gabriele Schambach, Inhaberin von Genderworks, die das Projekt wissenschaftlich begleitet, ergänzt: „Wir haben enormen Zuspruch erfahren. Eine Reihe von Unternehmen interessiert sich bereits für eine Projektpartnerschaft und viele Teilnehmende möchten im Beirat mitarbeiten. Das zeigt auch, wie aktuell das Thema ist.“

Die eigentliche Forschungsphase soll noch in diesem Jahr beginnen. Unternehmen aus der Region, die an der Veranstaltung nicht teilnehmen konnten aber gern mitwirken möchten, können sich bei Interesse an perspektive.rhein-waal@genderworks.de wenden.

Weitere Informationen:
https://www.hochschule-rhein-waal.de/de/aktuelles/newsmeldungen/diversity-strate…

Quelle: IDW 

(nach oben)


Das Geheimnis des Vakuums erstmals nachweisen

Till Bayer Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena

Neue Forschungsgruppe an der Universität Jena vereint Theorie und Experiment, um erstmals bestimmte physikalische Prozesse im Quantenvakuum nachzuweisen

Für die meisten Menschen ist das Vakuum ein leerer Raum. Die Quantenphysik hingegen geht davon aus, dass selbst in diesem Zustand niedrigster Energie noch Teilchen und Anti-Teilchen fluktuieren. Eine Annahme, für die bisher kein eindeutiger Beleg erbracht werden konnte. Um die Prozesse im vermeintlichen Nichts über 80 Jahre nach deren Vorhersage durch Werner Heisenberg und Hans Euler erstmals experimentell nachweisen zu können, hat jetzt eine neue Forschungsgruppe der Universität Jena ihre Arbeit aufgenommen. Der Quantentheoretiker Prof. Dr. Holger Gies leitet die Gruppe, deren Bezeichnung „Probing the Quantum Vacuum at the High-intensity Frontier“ zugleich das Ziel der Forschungen formuliert. Am auf sechs Jahre angelegten Projekt sind neben der Universität Jena auch das Helmholtz-Institut Jena (HIJ) und die Universitäten in Düsseldorf und München (LMU) beteiligt. Die Deutsche Forschungsgemeinschaft fördert die erste, dreijährige Phase mit rund zwei Millionen Euro, womit v. a. neun Doktorandenstellen, fünf davon in Jena, finanziert werden.

Licht macht Phänomene im „leeren Raum“ sichtbar
Die Forschungsgruppe will mit starken Feldern an den Quanten wackeln, versuchen die Experten das Forschungsziel einfach zu beschreiben. Sie wollen Quantenvakuumprozesse, die den Grundzustand der Natur bilden, mit Hochintensitätslasern nachweisen. „Das Besondere an unserem Team ist das enge Zusammenspiel von fundamentaler Theorie und hoher Experimentierkunst“, erläutert Dr. Felix Karbstein, Theoretiker am HIJ, der an genauen Vorhersagen für Messgrößen arbeitet, in denen die im Vakuum extrem kurz entstehenden Teilchen und ihre Anti-Teilchen ihre Spuren hinterlassen.

Die Jenaer Experimentalphysiker sowie die Kollegen an der LMU arbeiten derweil an der Methodik, um den praktischen Nachweis zu erbringen. Dazu entwickeln und kombinieren sie leistungsstarke Laser mit neuartigen, präzisen Messverfahren, so dass die flüchtigen Prozesse im Vakuum gemessen werden können.

Bislang existierten keine Lichtquellen, die für eine experimentelle Überprüfung leistungsfähig genug waren. Die modernen Hochintensitätslaser, die bei den Versuchen zum Einsatz kommen, nähern sich inzwischen der notwendigen Laserleistung. Daher werden die Experimente nicht nur in Jena und München, sondern auch am Europäischen Röntgenlaser bei DESY in Hamburg durchgeführt.

Die Phänomene des Quantenvakuums, die Gies und sein Team beweisen wollen, werden in der modernen Physik als fundamental und exotisch zugleich angesehen. Zu ihnen zählen beispielsweise die multiphotonische Erzeugung von Teilchenpaaren aus dem Vakuum oder Streuphänomene des Lichts, wie die sogenannte Quantenreflexion. Diesen schwer zu fassenden Ereignissen ist jedoch nicht nur die Jenaer Forschungsgruppe auf der Spur. „Wir befinden uns in einem internationalen Wettbewerb“, weiß Holger Gies. Der Physiker ist allerdings „sehr hoffnungsvoll, weil ich sehr großes Vertrauen zu den experimentellen Kollegen habe“, dass die Forschungsgruppe aufgrund der besonderen Nähe von Theorie und Praxis den Nachweis als erstes führen kann.

Eigenschaften des Vakuums als Bausteine nutzen
Nachweis und Verständnis der Vakuumphänomene wären nicht nur für die Quantenphysik selbst von Bedeutung. Moderne Hochleistungslaser und präzise Messmethoden sind aus der Medizin, den Lebenswissenschaften und der Materialforschung nicht mehr wegzudenken. So könnten die Ergebnisse in Zukunft bei der Entwicklung von Geräten helfen, die die Eigenschaften des Vakuums als Bausteine nutzen. „Bei der Erforschung des Quantenvakuums kommen wir Grundlagenforscher einer konkreten Anwendung somit vergleichsweise nahe“, sagt Gies. Andererseits bestehe sogar die Möglichkeit, Hinweise auf Kandidaten für die rätselhafte Dunkle Materie zu finden, die für Strukturbildung im Universum verantwortlich ist, aber auch im Quantenvakuum Spuren hinterlassen könnte – doch zuerst müssen die erhofften Ergebnisse realisiert werden: Die Forschungsgruppe geht dem Vakuum nun verstärkt auf den Grund.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Holger Gies
Theoretisch-Physikalisches Institut der Friedrich-Schiller-Universität Jena
Max-Wien Platz 1
07743 Jena
Tel.: 03641 / 947190
E-Mail: holger.gies@uni-jena.de

Quelle: IDW 

(nach oben)


Mit der Spiegelbild-Biologie zu besseren Medikamenten

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Wissenschaftlern aus dem Deutschen Krebsforschungszentrum ist es gelungen, Biomoleküle in ihrer Spiegelbild-Form zu produzieren. Ziel der Forscher ist es, ein spiegelbildliches künstliches Proteinsynthese-System zu nachzubauen. Damit sollen unter Anderem spiegelbildliche therapeutische Proteine, etwa Antikörper, produziert werden, die im Körper vor biologischem Abbau geschützt wären und keine Reaktion des Immunsystems hervorrufen.

Von fast allen biologischen Molekülen existieren zwei verschiedene räumliche Strukturen, die sich zueinander wie Bild und Spiegelbild verhalten. Diese Moleküle bezeichnet man als Enantiomere. Wie eine rechte und eine linke Hand lassen sie sich nicht zur Deckung bringen. Abhängig davon, ob polarisiertes Licht beim Durchleuchten der Moleküle nach rechts oder nach links gedreht wird, spricht man von der D-Form oder L-Form des Enantiomers. In der Natur finden sich fast ausschließlich Proteine aus L-Aminosäuren, während DNA und RNA aus Molekülen in D-Form aufgebaut sind.

Wissenschaftler des Deutschen Krebsforschungszentrums arbeiten daran, Biomoleküle in ihrer Spiegelbild-Form zu synthetisieren. Künftig wollen sie allerdings nicht nur einzelne Moleküle nachbauen: „Unser langfristiges Ziel ist es, einfache, künstliche biologische Systeme in spiegelbildlicher Form zu kreieren, die denen in der Natur entsprechen, aber nicht mit der Umwelt interagieren“, sagt Jörg Hoheisel, der das Projekt leitet.

In einer aktuellen Arbeit ist es Wissenschaftlern um Hoheisel gelungen, aus D-Aminosäuren die Spiegelbildversion einer DNA-Ligase herzustellen. Ligasen fügen DNA-Stücke zusammen. Die Spiegelbild-Ligase kann aus ebenfalls spiegelbildlichen DNA-Stücken ein vollständiges Spiegelbild-Gen zusammenzusetzen. Weitere Enzyme in D-Form, die die DNA vervielfältigen und in RNA übersetzen, stehen ebenfalls schon zur Verfügung. „An dieser Stelle ist im Moment Schluss“, berichtet Hoheisel. „Als nächstes benötigen wir eine spiegelbildliche Struktur, die die Funktion der Ribosomen in der Zelle übernimmt.“

Ribosomen sind makromolekulare Komplexe, die in der Zelle dafür verantwortlich sind, RNA-Stränge in Aminosäureketten zu übersetzen und auf diese Weise Proteine herzustellen. „Mit den Spiegelbild-Ribosomen hätten wir ein einfaches System zusammengestellt, mit dem wir alle Arten von Proteinen relativ einfach im Reagenzglas herstellen könnten“, so Hoheisel. „Das künstliche System wäre unabhängig von der Natur, aber identisch in den biophysikalischen und chemischen Eigenschaften und könnte langfristig sogar zu einer archetypischen, spiegelbildlichen Kopie einer Zelle führen.“

Während dies aber noch Zukunftsmusik ist, könnte der zugrunde liegende Ansatz bereits in näherer Zukunft für therapeutische Zwecke genutzt werden, etwa für die Synthese von spiegelbildlichen Antikörpern. Therapeutische Antikörper werden heute synthetisch hergestellt und bei einer Reihe von Krankheiten als Medikament eingesetzt, nicht zuletzt in der Krebstherapie. Allerdings kann das Immunsystem des Patienten gegen die therapeutischen Antikörper reagieren. „Für den Körper sind sie letztlich körperfremde Eindringlinge, die es zu bekämpfen gilt, ebenso wie es mit Krankheitserregern geschieht“, erklärt Hoheisel. „Ein Antikörper-Medikament, das aus spiegelbildlichen D-Aminosäuren anstelle der natürlichen L-Aminosäuren besteht, würde voraussichtlich keine Immunantwort hervorrufen, da D-Moleküle vom Immunsystem nicht erkannt werden.“ Außerdem könnten die spiegelbildlichen Antikörper auch länger ihre therapeutische Wirkung entfalten, da sie im Körper nur langsam biologisch abgebaut würden. Sie könnten sogar unkompliziert als Tablette eingenommen werden. Die Verdauungsenzyme im Körper würden ihnen nichts anhaben. In einer internationalen Kooperation, gefördert durch das Bundesforschungsministerium, verfolgt Hoheisel diese Ziele.

Quelle:
Joachim Weidmann, Martina Schnölzer, Philip E. Dawson und Jörg D. Hoheisel. Copying life: synthesis of an enzymatically active mirror-image DNA-ligase made of D-amino acids. Cell Chemical Biology 2019, DOI: 10.1016/j.chembiol.2019.02.008

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, interessierte Bürger und Fachkreise über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Wissenschaftliche Ansprechpartner:
Joachim Weidmann, Martina Schnölzer, Philip E. Dawson und Jörg D. Hoheisel. Copying life: synthesis of an enzymatically active mirror-image DNA-ligase made of D-amino acids. Cell Chemical Biology 2019, DOI: 10.1016/j.chembiol.2019.02.008

Quelle: IDW 

(nach oben)


Test der Symmetrie der Raumzeit mit Atomuhren

Dipl.-Journ. Erika Schow Presse- und Öffentlichkeitsarbeit
Physikalisch-Technische Bundesanstalt (PTB)

Der Vergleich zweier optischer Atomuhren bestätigt ihre hohe Genauigkeit und eine Grundannahme der Relativitätstheorie – Nature-Veröffentlichung

Einstein formulierte in seiner Speziellen Relativitätstheorie die These, die Lichtgeschwindigkeit sei immer und unter allen Bedingungen gleich. Doch diese Gleichförmigkeit der Raumzeit könnte nach theoretischen Modellen der Quantengravitation für Teilchen nicht gelten. Jetzt haben Physiker dies mit einem ersten Langzeitvergleich zweier optischer Ytterbiumuhren in der Physikalisch-Technischen Bundesanstalt (PTB) überprüft. Mit diesen Uhren, die innerhalb von zehn Milliarden Jahren nur eine einzige Sekunde falsch gehen, müssten auch extrem kleine Abweichungen in der Bewegung der Elektronen des Ytterbiums gemessen werden können. Doch sie maßen keine Veränderung für unterschiedliche Ausrichtungen der Uhren im Raum. Damit ist die bisherige experimentelle Grenze für den Test der Raumzeit-Symmetrie um das Hundertfache verschärft worden. Zudem wird die extrem geringe systematische Messunsicherheit der optischen Ytterbiumuhren von weniger als 4 · 10E-18 bestätigt. Seine Ergebnisse hat das Team aus Physikern der PTB und der Universität Delaware (USA) in der aktuellen Ausgabe von Nature veröffentlicht.

Es ist eines der berühmtesten historischen Physik-Experimente: Michelson und Morley zeigten schon 1887 mithilfe eines drehbar gelagerten Interferometers, mit dem sie die Lichtgeschwindigkeit entlang zweier senkrecht zueinander stehender optischer Achsen verglichen, was Einstein später theoretisch formulierte. Es wurde zu einer Grundaussage seiner Speziellen Relativitätstheorie: Die Lichtgeschwindigkeit ist unabhängig von der Raumrichtung immer gleich. Nun kann man fragen: Gilt diese nach Hendrik Antoon Lorentz benannte Symmetrie des Raumes auch für die Bewegung materieller Teilchen, oder gibt es Richtungen, entlang derer sie sich bei gleicher Energie schneller oder langsamer bewegen? Insbesondere für hohe Energien der Teilchen sagen theoretische Modelle der Quantengravitation eine Verletzung der Lorentz-Symmetrie vorher.

Mit zwei Atomuhren wurde jetzt ein Experiment durchgeführt, um diese Fragestellung mit hoher Präzision zu untersuchen. Die Frequenz dieser Atomuhren wird jeweils von der Resonanzfrequenz eines einzelnen, in einer Falle gespeicherten Yb+-Ions gesteuert. Während die Verteilung der Elektronen des Yb+-Ions im Grundzustand kugelsymmetrisch ist, befinden sich die Elektronen im angeregten Zustand in einer deutlich elongierten Wellenfunktion und bewegen sich damit hauptsächlich entlang einer Raumrichtung. Die Ausrichtung der Wellenfunktion wird durch ein in der Uhr angelegtes Magnetfeld bestimmt und wurde für beide Uhren etwa senkrecht zueinander gewählt. Die Uhren sind im Labor fest montiert und drehen sich gemeinsam mit der Erde einmal am Tag (genauer: einmal in 23,9345 Stunden) relativ zu den Fixsternen. Eine Abhängigkeit der Elektronengeschwindigkeit von der Orientierung im Raum würde sich daher als periodisch mit der Erdrotation auftretende Frequenzdifferenz zwischen beiden Atomuhren zeigen. Um einen solchen Effekt klar von möglichen technischen Einflüssen unterscheiden zu können, wurden die Frequenzen der Yb+-Uhren über mehr als 1000 Stunden verglichen. Es wurde dabei keine Veränderung der Uhren zueinander für den zugänglichen Bereich von Periodendauern von wenigen Minuten bis zu 80 Stunden beobachtet. Für die theoretische Interpretation und Rechnungen zur Atomstruktur des Yb+-Ions hat das PTB-Team mit theoretischen Physikern von der University of Delaware, USA, zusammengearbeitet. Die aktuellen Resultate verschärfen nun die von Forschern der Universität Berkeley 2015 mit Ca+-Ionen gesetzten Grenzen um etwa einen Faktor 100.

Im Mittel über die gesamte Messzeit zeigten beide Uhren eine relative Frequenzabweichung von weniger als 3 · 10E-18. Dies bestätigt die vorher abgeschätzte kombinierte Unsicherheit der Uhren von 4 · 10E-18 und ist ein wichtiger Fortschritt in der Charakterisierung von optischen Atomuhren auf diesem Genauigkeitsniveau. Potenziell zeigen diese Uhren erst nach etwa zehn Milliarden Jahren eine Differenz von einer Sekunde an.
(es/ptb)

Wissenschaftliche Ansprechpartner:
Dr. Nils Huntemann, Arbeitsgruppe „Optische Uhren mit gespeicherten Ionen“,
Telefon: (0531) 592-4432, E-Mail: nils.huntemann@ptb.de

Originalpublikation:
Christian Sanner, Nils Huntemann, Richard Lange, Christian Tamm, Ekkehard Peik, Marianna S. Safronova, Sergey G. Porsev: Optical clock comparison for Lorentz symmetry testing. Nature (2019) – (erscheint als Printausgabe am 14.3.2019)

Quelle: IDW 

(nach oben)


Internationaler Aktionstag gegen Staudämme am 14. März: Gewässerforschende als Experten zum Thema

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Der 14. März 2019 ist der internationale Aktionstag für Flüsse und gegen Staudämme. Wasserkraft ist eine erneuerbare, aber nicht zwingend eine klimaneutrale und umweltfreundliche Energiequelle. Gewässerstrukturen und Ökosysteme werden oft unumkehrbar verändert. Fließgewässer sind für Fische und andere Lebewesen nicht mehr durchwanderbar. Stauseen können zudem klimarelevante Gase freisetzen. Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) ist das größte deutsche Forschungszentrum für Binnengewässer. Unsere Forschenden geben gerne Auskunft zu den Auswirkungen von Staudämmen auf die betroffenen aquatischen Ökosysteme und ihre Artenvielfalt.

Heute tragen laut Weltbank-Studie erneuerbare Energien bereits etwa 20 Prozent zur globalen Stromproduktion bei, davon stammen allein 80 Prozent aus Wasserkraft. Tendenz steigend; Laut einer Studie des IGB von 2015 befinden sich weltweit etwa 3700 große Staudämme, vor allem in Entwicklungs- und Schwellenländern, im Bau oder in Planung. Mit oft dramatischen Auswirkungen auf die Umwelt. In Europa boomt der Ausbau von Kleinkraftanlagen. Allein für die Balkanregion weist Riverwatch ca. 2500 Staudämme in Planung oder Bau aus. Über die globale Entwicklung bei den kleinen Anlagen wissen wir wenig. Ihre ökologischen Auswirkungen sind aber unter Umständen besonders hoch, denn sie tragen nur wenig zur Energiesicherung bei, „verbrauchen“ aber überproportional viele natürliche Ressourcen in Form von freifließenden und durchwanderbaren Gewässerabschnitten. International fordern Forschende deshalb deutlich verbesserte Kriterien und Standards für die Errichtung und den Betrieb von Wasserkraftanlagen. Diese sollen nicht nur helfen, die Stromerzeugung zu optimieren, sondern gleichzeitig auch deren negative Auswirkungen zu minimieren.

Ansprechpartnerinnen und Ansprechpartner aus dem IGB:
Dr. Gabriel Singer: Auswirkungen von Staudämmen auf Fließgewässer im regionalen Maßstab.
Zitat: „Einen Staudamm zu bauen bedeutet, lokal einen Fluss zumindest in einem Abschnitt zu verlieren, ihn quasi in einen „See“ zu verwandeln. Darüber hinaus werden ureigene Eigenschaften von Flüssen auf weit größerem Maßstab durch einen Staudamm stark verändert. Ein regulierter Abfluss und der unterbundene Sedimenttransport verhindern die natürliche Dynamik stromabwärts gelegener Abschnitte des Fließgewässernetzwerks, der Fluss verliert eben dort sein typischerweise dynamisch ausgeprägtes Lebensraum-Mosaik, mit entsprechend negativen Konsequenzen für die Biodiversität. Staudämme machen Organismen aber auch das Wandern schwer und verändern die natürlicherweise von kleinen zu großen Flüssen stattfindenden Stofftransporte. All dies hat noch wenig erforschte Folgen für die Rolle von Flüssen im Landschaftsgefüge.“

Dr. Christian Wolter: Auswirkungen von Staudämmen auf die Durchwanderbarkeit von Fließgewässern für Fische.
Zitat: „Staudämme und Wehre stellen eine Barriere für viele Fischarten dar – nicht nur für Wanderfische. Wenn sich in einem Gewässerabschnitt der Wasserstand stark verändert, durch Hoch-oder Niedrigwasser, wandern Fische normalerweise in andere Flussabschnitte ab. Fischaufstiege sind für solche Ereignisse nicht ausgelegt. Einige Fischarten wie Störe können die gängigen Fischaufstiege gar nicht nutzen. Darüber hinaus gehen im Rückstaubereich von Wehren und Staudämmen frei fließende Strecken im Fluss verloren – und damit großräumige Lebensräume für typische Flussfischarten.“

Dr. Sonja Jähnig: Auswirkungen von Staudämmen auf die Artenvielfalt in Gewässern.
Zitat: „Der Boom der Wasserkraft ist vor allem in Entwicklungs- und Schwellenländern in Südamerika, Südostasien sowie Afrika zu spüren – und damit in jenen Regionen, die einen Großteil der biologischen Vielfalt unseres Planeten beherbergen. Schon heute ist diese Vielfalt stark gefährdet. Zusätzliche Staudämme werden den Rückgang der Arten weiter beschleunigen. Auch die Megafauna ist betroffen, also große Tiere wie Flussdelfine oder Störe, beispielsweise durch die Blockade von Migrationsrouten oder den Verlust von Futter- und Laichplätzen. Es gehen jedoch nicht nur Lebensräume im Fluss verloren, sondern auch Habitate in den Uferzonen und am Gewässerrand, beispielsweise durch den Bau von Infrastrukturen wie Straßen, Siedlungen und andere Landnutzungsänderungen.“

Dr. Peter Casper: Staudämme als Quellen von Treibhausgasen.
Zitat: „Die Gewinnung von Energie mittels Wasserkraft galt lange Jahre als klimafreundlich. Durch die Anstauung der Flüsse entstanden oft riesige Stauseen, in denen das von den Flüssen transportierte Material ablagert wird. Erst als in den späten 80er Jahren die ersten Berichte über die Freisetzung von Treibhausgasen aus den Stauseen publiziert wurden, geriet die Wasserkraft in die öffentliche Kritik. Besonders in den Tropen, wo auch die meisten neuen Staudämme geplant oder bereits im Bau sind, führen die höheren Temperaturen zum Abbau der organischen Bestandteile der Sedimente unter Bildung von Methan, Kohlenstoffdioxid und in manchen Fällen auch von Lachgas (Distickstoffoxid). Alle drei Gase haben das Potential, den Wärmehaushalt der Erde zu beeinflussen, also zum Klimawandel beizutragen. Auch in gemäßigten Breiten tragen Staudämme zum Anstieg der atmosphärischen Treibhausgaskonzentration bei.“

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
www.igb-berlin.de

Dr. Gabriel Singer:
gabriel.singer@igb-berlin.de
+49 (0)30 64181 726

Dr. Christian Wolter:
wolter@igb-berlin.de
+49 (0)30 64181 633

Dr. Sonja Jähnig:
sonja.jaehnig@igb-berlin.de
+49 (0) 30 6392 4085

Dr. Peter Casper:
pc@igb-berlin.de
+49 (0)33082 699 29

Quelle: IDW 

(nach oben)


Besserer Schutz vor Darmkrebs: Vorsorge-Darmspiegelung bereits ab 50!

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Darmkrebs gehört zu den wenigen Tumorerkrankungen, die sich durch Vorsorgeuntersuchungen nahezu vollständig verhindern lassen. Denn bei einer Darmspiegelung können die in der Regel langsam wachsenden Krebsvorstufen rechtzeitig entdeckt und entfernt werden. In Deutschland wird die Darmspiegelung zur Darmkrebsvorsorge derzeit ab dem 55. Lebensjahr angeboten. Das könnte aber zu spät sein. Wissenschaftler aus dem Deutschen Krebsforschungszentrum weisen zum Darmkrebsmonat März darauf hin, dass ein Beginn der Vorsorge mit einer Darmspiegelung im Alter von 50 Jahren noch besser vor Darmkrebs schützen würde – sowohl Männer als auch Frauen.

Darmkrebs gehört nicht nur zu den häufigsten Krebserkrankungen, sondern auch zu den häufigsten Krebstodesursachen in Deutschland. Jährlich erkranken mehr als 60.000 Menschen neu an Darmkrebs und mehr als 25.000 Patienten versterben an der Krebserkrankung.

Seit 2002 gibt es in Deutschland ein Früherkennungsprogramm für Darmkrebs: Im Alter von 50 bis 54 Jahren haben gesetzlich Krankenversicherte jedes Jahr Anspruch auf einen Stuhlbluttest. Ab dem Alter von 55 Jahren übernimmt die Krankenkasse eine Vorsorge-Darmspiegelung, die nach 10 Jahren einmal wiederholt werden kann.

„In der Altersgruppe ab 55 Jahren, in der Vorsorge-Koloskopien angeboten werden, ist die Neuerkrankungs- und Sterberate an Darmkrebs deutlich zurückgegangen in den letzten Jahren“, berichtet Hermann Brenner vom Deutschen Krebsforschungszentrum. „Unsere Studie zeigt nun, dass mit der Vorsorge-Darmspiegelung noch deutlich größere Effekte zu erzielen wären, wenn man sie bereits mit 50 Jahren anbieten würde.“

Brenner und seine Kollegen führten anhand von Krebsregisterdaten Modellrechnungen durch. Das Ziel war, herauszufinden, wie sich Vorsorge-Koloskopien in verschiedenen Altersstufen auf die Zahl der Darmkrebs-Todesfälle und auf den Verlust an Lebenszeit auswirken. „Wir haben errechnet, dass bei einer ersten Vorsorge-Darmspiegelung bereits im Alter von 50 Jahren und einer Wiederholung der Untersuchung nach zehn Jahren der Darmkrebs-bedingte Verlust an Lebenszeit deutlich geringer ausfallen würde als mit dem derzeitigen Beginn mit 55 Jahren, und zwar sowohl für Männer als auch für Frauen“, berichtet Brenner.

Zu ähnlichen Schlussfolgerungen sind vor kurzem auch Wissenschaftler in den USA für die amerikanische Bevölkerung gekommen. „In den Empfehlungen der amerikanischen Krebsgesellschaft wurde die Altersgrenze für die erste Vorsorge-Koloskopie im vergangenen Jahr sogar auf 45 herabgesetzt“, so Brenner.

Auch in Deutschland ist noch im Jahr 2019 geplant, die Altersgrenze für die Vorsorge-Koloskopie zu senken – bisher allerdings nur für Männer. Da Männer ein höheres Darmkrebsrisiko haben, wird ihnen die Darmspiegelung künftig bereits ab 50 Jahren angeboten und nicht wie bisher ab 55. „Unseren Berechnungen zufolge sollten jedoch auch Frauen bereits ab dem 50. Lebensjahr zur Vorsorge-Koloskopie eingeladen werden“, betont Brenner.

Chen Chen, Christian Stock, Michael Hoffmeister, Hermann Brenner. The optimal age for screening colonoscopy: A modeling study. Gastrointestinal Endoscopy 2019, DOI 10.1016/j.gie.2018.12.021

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, interessierte Bürger und Fachkreise über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

www.dkfz.de

Originalpublikation:
Chen Chen, Christian Stock, Michael Hoffmeister, Hermann Brenner. The optimal age for screening colonoscopy: A modeling study. Gastrointestinal Endoscopy 2019, DOI 10.1016/j.gie.2018.12.021

Quelle: IDW 

(nach oben)


Wie Öl attraktiv für Magneten wird

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Ölfilme auf der Meeresoberfläche können möglicherweise künftig mittels Magneten beseitigt werden. Eine interdisziplinäre Gruppe von Forschern der FAU unter der Federführung von Prof. Dr. Marcus Halik hat Partikel aus funktionalisierten Eisenoxid entwickelt, die beliebige Kohlenwasserstoffe an sich ziehen. Die magnetischen Teilchen samt Hülle lassen sich dann auf relativ einfache und umweltschonende Weise aus Wasser entfernen und sind nach der Reinigung sogar erneut verwendbar.

Im renommierten Fachjournal Advanced Functional Materials haben die Wissenschaftler ihre Studie jetzt vorgestellt. Sie beschreiben darin, wie Eisenoxidpartikel durch Selbstanlagerung einer Funktionalisierungsschicht darauf spezialisiert werden, ausschließlich Kohlenwasserstoffe zu adsorbieren. Zu dieser chemischen Stoffgruppe zählen leichtere Verbindungen wie Alkane und Aromaten, aber auch Rohöl, Benzin und Diesel. Wie angesaugt lagern solche Kohlenwasserstoff-Moleküle um die staubfeinen Teilchen und erreichen dabei ein Volumen, das bis zum 14fachen des Partikelkerns anwachsen kann. Unter http://omd.fau.de/oilcatch/ ist ein Video abrufbar, das den Auftrag von Eisenoxid-Puder auf flüssiges Öl und die umgehende Verwandlung in eine Masse zeigt, die per Magnet abzuheben ist. Magnetische Eigenschaften bringt Eisenoxid von vornherein mit.

Das große Oberflächen-zu-Volumen-Verhältnis, welches Nanopartikel bieten, und das günstige Verhältnis zur Menge der adsorbierten Kohlenwasserstoffe tragen ebenso wie die mehrfache Nutzbarkeit des Ausgangsmaterials zur enormen Effizienz des Verfahrens bei. Zudem kann Wasser vollständig von Öl und Ölprodukten befreit werden. Konventionelle Methoden erzeugen dagegen Dispersionen, also Stoffgemische, wodurch die Kohlenwasserstoffe zwar leichter durch Bakterien abzubauen sind, bis dahin aber im Meerwasser bleiben.

Das vorgestellte System könnte in Zukunft helfen, durch Ölverschmutzungen ausgelöste ökologische Katastrophen deutlich zu verringern. Derzeit arbeiten die FAU-Wissenschaftler gemeinsam mit Partnern der Industrie daran, die Herstellung der Materialien zu skalieren und das Konzept auf reale Anwendungen zur Gewässerreinigung zu übertragen.

Die Forschungen umfassten neben der Herstellung und Charakterisierung der Partikel auch Experimente mit verschiedenen Kohlenwasserstoffen, Modell- und Realwässern bei unterschiedlichen Temperaturen, ergänzt durch molekulare Simulationen, die eine zusätzliche Verbesserung der Materialien ermöglichten. Beigetragen haben drei Arbeitsgruppen an der Technischen und der Naturwissenschaftlichen Fakultät der Universität Erlangen-Nürnberg: Wissenschaftler um Prof. Dr. Marcus Halik (Department Werkstoffwissenschaften, Organic Materials & Devices), Prof. Dr. Andreas Hirsch (Department für Chemie und Pharmazie, Organische Chemie II) und Prof. Dr. Dirk Zahn (Professur für Theoretische Chemie, Computer Chemistry Center). Die Arbeiten wurden durch den Exzellenzcluster EAM (Engineering of Advanced Materials) aus der Exzellenzinitiative des Bundes und der Länder und durch die Graduate School Molecular Science (GSMS) an der FAU unterstützt.

Wissenschaftliche Ansprechpartner:
Weitere Informationen:

Prof. Marcus Halik
Tel.: 09131/85-27732
marcus.halik@fau.de

Marco Sarcletti
Tel.: 09131/85-67458
marco.sarcletti@fau.de

Originalpublikation:
https://doi.org/10.1002/adfm.201805742

Weitere Informationen:

https://youtu.be/qR8U1hSOW8I

Quelle: IDW 

(nach oben)


Bedrohte Wildbienen – Verhungern im ländlichen Raum

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Um die einheimischen Wildbienen ist es nicht gut bestellt – mehr als die Hälfte aller Arten ist gefährdet. LMU-Wissenschaftler haben untersucht, welche besonders anfällig sind. Spätfliegende Bienen auf dem Land sind besonders betroffen.

Wildbienen sind als Blütenbestäuber ökologisch unverzichtbar und damit von enormem ökonomischen Nutzen. Doch von den über 500 Wildbienenarten in Deutschland sind mehr als die Hälfte bedroht oder lokal schon ausgestorben. Die LMU-Biologin Susanne Renner, Inhaberin des Lehrstuhls für Systematische Biologie und Mykologie sowie Direktorin des Botanischen Gartens München-Nymphenburg, hat nun mit ihrem Team anhand von Veränderungen der Roten Liste untersucht, welche Faktoren den Rückgang der Wildbienen verursachen. Ihre Ergebnisse, über die sie im Fachmagazin Proceedings of the Royal Society B berichten, legen nahe, dass die Bienen in landwirtschaftlich intensiv genutzten Gebieten vor allem im Spätsommer zu wenig Nahrung finden.

Wildbienen – zu denen auch die Hummeln gehören – sammeln wie Honigbienen Nektar und Blütenstaub und spielen deshalb eine wesentliche Rolle bei der Bestäubung von Blütenpflanzen – dabei sind einige Arten sogar effektiver als Honigbienen. Hummeln etwa besuchen im gleichen Zeitraum rund drei- bis fünfmal mehr Blüten. Der Bund für Umwelt und Naturschutz (BUND) gibt den monetären Wert der Insektenbestäubung in Europa auf über 14 Milliarden Euro pro Jahr an, manche Pflanzen wie Tomaten oder Glockenblumen werden ausschließlich von Wildbienen bestäubt. Aber wie aktuelle Studien (https://www.sciencedirect.com/science/article/pii/S0006320718313636) zeigen, nimmt die Zahl der Insekten weltweit dramatisch ab – und das gilt auch für die Bienen. „Allgemein scheint die Artenvielfalt von Bienen aufgrund der intensiven Landwirtschaft und des verstärkten Einsatzes von Pestiziden, die sich beide negativ auf Nahrungsquellen und Nistmöglichkeiten auswirken, rückläufig zu sein“, sagt Renner. „Wir wollten herausfinden, welche Eigenschaften bestimmte Arten besonders anfällig dafür machen, lokal auszusterben.“

Für ihre Untersuchung nutzten die Wissenschaftler Veränderungen des in der sogenannten Roten Liste festgehaltenen Gefährdungsstatus einheimischer Wildbienenarten, der in Deutschland seit mehr als 40 Jahren erfasst wird. „Auf der Basis dieser Daten haben wir untersucht, welche artspezifischen Eigenschaften – etwa Habitatwahl, Pollen-Spezialisierung, Körpergröße, Nistplatzwahl, Dauer der Flugaktivität und Zeitpunkt des Auftretens während der Saison – statistisch den Gefährdungsstatus beziehungsweise das Aussterben einer Art voraussagen“, sagt Renner.

Insgesamt konnten die Wissenschaftler 445 der 561 in Deutschland bekannten Bienenarten in ihre Analyse einbeziehen und somit 79 Prozent der deutschen Bienenfauna abdecken. Dabei zeigte sich zu ihrer Überraschung, dass die Spezialisierung auf bestimmte Blüten entgegen ihrer Erwartung keinen Effekt hatte. „Zwei Faktoren allerdings waren extrem stark mit einer Gefährdung korreliert: Die Habitatpräferenz -, also die Spezialisierung auf einen Lebensraum – und eine Flugzeit erst im Spätsommer“, sagt Michaela Hofmann, Doktorandin in Renners Team und Erstautorin des Papers. Das Bienenvorkommen in den Städten ist vergleichsweise stabil, und auch die Bienen, die im Frühling ausfliegen, wie etwa die gehörnte Mauerbiene (Osmia cornuta), gelten als nicht gefährdet. Im Gegensatz dazu erhöhten enge Lebensraumpräferenzen, eine kurze Flugzeit und das Auftreten erst im Spätsommer das Aussterberisiko. „Den Spätfliegern – dazu gehört beispielsweise die Zahntrost-Sägehornbiene (Melitta tricincta) – vor allem auf dem Land geht es unserer Interpretation nach nicht gut, weil es dort dann nicht mehr genug Nahrung gibt. Landwirtschaftlich intensiv genutzte Flächen sind im Spätsommer von Blüten ausgeräumt, während es im Frühling wenigstens noch Massenpflanzen wie Raps und blühende Obstplantagen gibt“, sagt Renner. Dieser Faktor ist für die Wissenschaftler der wahrscheinlichste Grund für den Rückgang der Wildbienenarten in Deutschland.

Die Förderung umweltfreundlicher Anbaumethoden, wie sie im Volksbegehren Artenvielfalt gefordert werden, könnte auch spätfliegenden Bienenarten zugutekommen, sagt Renner. Helfen würden nach Ansicht der Wissenschaftler beispielsweise eine seltenere Mahd, die Anlage von Blühstreifen oder das Stehenlassen von Ackerrandstreifen mit Ackerunkräutern. In Bayern kommen derzeit an einem Runden Tisch Initiatoren und Kritiker des Volksbegehrens zusammen, um an einem Kompromiss für den Gesetzesentwurf zu arbeiten. „Aber auch Hobbygärtner können jetzt schon Bienen helfen, indem sie auf vielfältige Hausgärten ohne Pestizide und Mähroboter setzen“, sagt Renner.
Proceedings of the Royal Society B 2019

Wissenschaftliche Ansprechpartner:
Prof. Dr. Susanne Renner
Systematische Botanik und Mykologie
Tel.: +49 (0) 89/17861-250
E-Mail: renner@lmu.de

Originalpublikation:
Narrow habitat breadth and late-summer emergence increases extinction vulnerability in Central European bees
Michaela M. Hofmann, Constantin M. Zohner, and Susanne S. Renner
Proceedings of the Royal Society B 2019

https://royalsocietypublishing.org/doi/10.1098/rspb.2019.0316

Quelle: IDW 

(nach oben)


Darauf sollten Kontaktlinsenträger achten: Stiftung Auge gibt Tipps zur Auswahl und Pflege

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

Viele Menschen mit Sehschwächen schätzen die Vorteile von Kontaktlinsen. Damit der Tragekomfort lange andauert, sollten Nutzer sich vor dem Kauf vom Augenarzt untersuchen und über geeignete Modelle beraten lassen. Kontaktlinsenträger müssen bestimmte Hygieneregeln beachten, um schmerzhafte Entzündungen zu vermeiden. Die Stiftung Auge gibt Tipps im Umgang mit der praktischen Sehhilfe.

Kontaktlinsen haben etliche Vorteile gegenüber Brillen: Sie beschlagen nicht, rutschen nicht von der Nase, sind sporttauglich und können neben Kurz- oder Weitsichtigkeit sogar Hornhautverkrümmungen korrigieren. „Um die Linsen lange und ohne Beschwerden tragen zu können, müssen Kontaktlinsenträger jedoch auch einige Regeln beachten“, sagt Professor Dr. med. Frank G. Holz, Vorsitzender der Stiftung Auge und Direktor der Universitätsaugenklinik Bonn.

Die Auswahl an Kontaktlinsen ist groß. Flexible (weiche) Linsen passen sich der Form der Hornhaut an, sodass sich das Auge schneller daran gewöhnt. Durch ihren größeren Durchmesser liegen die Ränder der Linse komplett unter dem Lid, was das Tragen angenehm macht. Formstabile (harte) Kontaktlinsen haben einen kleineren Durchmesser. Das schützt das Auge besonders vor dem Austrocknen. Harte Linsen können auch gut Hornhautverkrümmungen ausgleichen. Allerdings haben sie eine geringere Auflagefläche auf der Augenoberfläche, wodurch die Linsen leichter verrutschen können. In den ersten Tagen können sie sich für den Träger auch etwas unangenehm anfühlen. „In jedem Fall sollte bei einer augenärztlichen Untersuchung geklärt werden, ob die Grundvoraussetzungen für das Kontaktlinsentragen erfüllt sind. Wenn keine krankhaften Veränderungen der Augen, wie Entzündungen, vorliegen, kann man die Linsen individuell anpassen“, erklärt Holz. Ob und welche Linsen geeignet sind, hängt auch davon ab, ob sie nur ein- bis zweimal pro Woche beim Sport oder täglich von morgens bis abends zum Einsatz kommen.

Auch die Haltbarkeit von Kontaktlinsen ist unterschiedlich: Tageslinsen sollten nach einmaligem Tragen entsorgt werden, Monatslinsen nach etwa vier Wochen. Harte Kontaktlinsen können bis zu zwei Jahre getragen werden. „Wichtig ist, die Angaben des Herstellers zu beachten. Nutzt man die Linse länger als verordnet, kann sie die Hornhaut verletzen, was zu dauerhaften Augenschäden führen kann“, sagt der Experte.

Um die Augengesundheit nicht zu beeinträchtigen, sollten Kontaktlinsenträger einige Hygieneregeln und Vorgaben zur Tragedauer beachten. „Da eine zu lange tägliche Tragedauer Gesundheitsrisiken birgt, sollten Linsen nicht länger als empfohlen getragen werden. Nur spezielle Linsen eignen sich zum Tragen über Nacht“, erläutert Professor Dr. med. Christian Ohrloff, Mediensprecher der Stiftung Auge und ehemaliger Direktor der Universitäts-Augenklinik in Frankfurt. Die Kontaktlinse behindert den Stoffwechsel im Auge, da Nährstoffe und Abfallprodukte über den Tränenfilm nicht so einfach über das Auge hinweg transportiert werden können. Unter der Linse können sich Säuren, Schmutz und Keime sammeln. „Damit sich das Auge nicht infiziert, muss man die Kontaktlinsen regelmäßig herausnehmen und reinigen“, rät Ohrloff. Was dabei zu beachten ist, fassen diese Informationen zusammen:

5 Tipps, damit Linse und Auge sauber bleiben:
• Hände waschen: Damit Schmutz und Keime nicht ins Auge gelangen.
• Reinigen: Kontaktlinse auf die gereinigte Handinnenfläche legen und mit einigen Tropfen Reinigungsmittel sanft mit der Fingerspitze auf der Linse verrieben. Danach mit Kochsalzlösung abspülen. Niemals mit Leitungswasser reinigen oder aufbewahren, da sich sonst Keime an der Linse bilden können.
• Desinfizieren: Kontaktlinsen über Nacht in geeignete Lösung lagern, um Bakterien, Pilze oder Viren abzutöten und Eiweißreste zu entfernen.
• Aufbewahrungsbehälter reinigen: Desinfizieren und alle drei bis sechs Monate austauschen.
• Pflegeanleitung des Herstellers beachten: Nur Aufbewahrungslösungen verwenden, die sich für den jeweiligen Linsentyp eignen.

Quelle:
Kontaktlinsen, DOG Deutsche Ophthalmologische Gesellschaft und Berufsverband der Augenärzte Deutschlands e.V. (BVA), 2017

2008 von der DOG gegründet, setzt sich die Stiftung Auge dafür ein, vermeidbare Erblindungen und schwere Seheinschränkungen zu bekämpfen. Informationen zu den Projekten der Stiftung Auge sind unter http://www.stiftung-auge.de nachzulesen.

Weitere Informationen:
http://www.stiftung-auge.de

Quelle: IDW 

(nach oben)


9,1 Millionen Euro für trinationale Quantenforschung

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Am European Campus wird das internationale Doktorandenprogramm „QUSTEC“ errichtet
Die Europäische Kommission hat den Antrag von Eucor – The European Campus für eine interdisziplinäre und internationale Doktorandenausbildung in den Quantenwissenschaften bewilligt. Am Projekt „Quantum Science and Technologies at the European Campus“ (QUSTEC) sind die Universitäten Basel, Freiburg und Strasbourg sowie das Karlsruher Institut für Technologie und die Forschungsabteilung des IT-Konzerns IBM in Zürich beteiligt. Gemeinsam ermöglichen sie 39 jungen Wissenschaftlerinnen und Wissenschaftlern eine Promotion in dem aufstrebenden Forschungsbereich. Das Projekt hat eine Laufzeit von fünf Jahren und ein Gesamtvolumen von 9,1 Millionen Euro. Zu 4,2 Millionen von der Europäischen Union kommt eine Kofinanzierung der beteiligten Partnerorganisationen sowie von Santander über den eigenen Unternehmensbereich Santander Universities, dem laut einer UNESCO-Studie weltweit größten privaten Förderer höherer Bildung. QUSTEC wurde mit Unterstützung der Deutsch-Französischen Hochschule initiiert.

QUSTEC beschäftigt sich mit aktuellen Zukunftstechnologien der Quantenforschung: Die Prinzipien der Quantenmechanik, die auf atomarer Ebene die Regeln der Physik, Chemie, Materialwissenschaften und Informatik bestimmen, haben bereits zu einer Reihe von neuen Technologien geführt. Die Quantentechnologie hat das Potenzial, für einen Entwicklungssprung zu sorgen, der für viele europäische Branchen und Märkte im 21. Jahrhundert ein entscheidender Faktor sein kann. QUSTEC will dazu einen Beitrag leisten: mit seinem international strukturierten Programm für Doktorandinnen und Doktoranden, die für vier Jahre in Lern- und Forschungsprojekten alle Hauptbereiche der Quantenwissenschaften durchlaufen. Die jungen Wissenschaftlerinnen und Wissenschaftler wählen für ihre Anstellung zwischen den beteiligten Standorten und haben darüber hinaus die Möglichkeit, mit Industriepartnern vom Oberrhein und aus angrenzenden Regionen zusammenzuarbeiten. Das Projekt stärkt den Schwerpunkt von Eucor – The European Campus im strategischen Profilbereich „Quantum Science and Technologies“.

„Die Quantenwissenschaften sind ein interdisziplinären Feld, das gerade durch die Vielzahl der Perspektiven zu neuen Technologien führen kann“, sagt Prof. Dr. Guido Pupillo von der Universität Strasbourg, wissenschaftlicher Leiter des Programms. „Wir möchten junge Forscherinnen und Forscher aus aller Welt an den Oberrhein holen, um mit ihnen sowohl Grundlagen zu erforschen als auch an Anwendungen zu arbeiten, beispielsweise an neuen, sicheren Kommunikationswegen, präziseren Sensoren, der Entwicklung neuer Quantenmaterialien oder am Prototyp für einen Quantencomputer.“

QUSTEC erhält eine Förderung aus dem Horizont 2020 Marie Skłodowska Curie „COFUND“ Programm. Zum ersten Mal hat die Europäische Kommission im Forschungsprogramm Horizont 2020 ein Projekt bewilligt, das vom Europäischen Verbund für territoriale Zusammenarbeit (EVTZ) Eucor – The European Campus eingereicht wurde. Die fünf Universitäten am Oberrhein haben 2015 den ersten EVTZ, der nur von Universitäten getragen wird, gegründet. „Die Bewilligung bestätigt unsere Strategie und unser Konzept. Die Universitäten im Verbund von Eucor – The European Campus sind dort stark, wo sie sich inhaltlich ergänzen und europäisch und global gemeinsam stärker auftreten können“, sagt Prof. Dr. Hans-Jochen Schiewer, Präsident von Eucor – The European Campus und Rektor der Universität Freiburg. „Ich freue mich sehr über den Erfolg der beteiligten Wissenschaftlerinnen und Wissenschaftler, der zugleich beweist, dass wir über unsere gemeinsame Rechtspersönlichkeit grenzüberschreitenden Forschungsaktivitäten neue Möglichkeiten eröffnen können.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Schätz
Physikalisches Institut
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-5815
tobias.schaetz@physik.uni-freiburg.de

Weitere Informationen:

https://www.pr.uni-freiburg.de/pm/2019/9-1-millionen-euro-fuer-trinationale-quan…

Quelle: IDW 

(nach oben)


Fast ein Drittel der Frauen geht später als geplant in den Ruhestand

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen

Ältere erwerbstätige Frauen planen zwar im Durchschnitt einen etwas früheren Ausstieg aus dem Arbeitsleben als Männer, arbeiten dann aber häufig doch länger als geplant. Dies zeigt eine Untersuchung des Deutschen Zentrums für Altersfragen mit Daten mehrerer Befragungswellen des Deutschen Alterssurveys.

Wie groß ist die Übereinstimmung von zuvor geäußerten Ruhestandsplänen und tatsächlichem Übergangsalter in den Ruhestand? Zu dieser Frage vergleicht die Studie die Ruhestandspläne von 55- bis 64-jährigen Berufstätigen im Jahr 2008 mit dem tatsächlichen Alter des Austritts aus dem Arbeitsleben bis zum Jahr 2014.

Dabei zeigt sich: Die Chancen, die Dauer ihres Arbeitslebens wie geplant zu gestalten, sind nicht für alle gleich. Sowohl ein schlechter Gesundheitszustand als auch ein geringes Ausbildungsniveau erhöhen die Wahrscheinlichkeit, früher als geplant aus dem Berufsleben auszuscheiden.
Hingegen ist das Risiko länger als geplant erwerbstätig zu sein, je nach Geschlecht unterschiedlich. Im Vergleich zu Männern haben Frauen dieser Generationen eine höhere Wahrscheinlichkeit länger zu arbeiten als geplant. Während von den Männern nur 18 Prozent über den ursprünglich geplanten Zeitpunkt hinaus erwerbstätig blieben, haben von den Frauen 28 Prozent länger als beabsichtigt weitergearbeitet.

Heribert Engstler, Wissenschaftler am Deutschen Zentrum für Altersfragen und Autor der Studie, benennt mögliche Gründe hierfür. Bei den befragten Frauen handelt es sich um jene Jahrgänge, die von der Anhebung der Altersgrenzen und dem Wegfall der speziellen vorgezogenen Altersrente für Frauen betroffen waren. Sie weisen seltener mindestens 35 Rentenversicherungsjahre auf als Männer und erfüllen damit auch seltener die Voraussetzungen für eine vorgezogene Altersrente. Zugleich verfügen die Frauen durchschnittlich über geringere Rentenanwartschaften als Männer. Die Notwendigkeit und der Anreiz aus finanziellen Gründen länger zu arbeiten und Rentenabschläge zu vermeiden oder klein zu halten, sind deswegen wahrscheinlich stärker ausgeprägt. Diese rentenrechtlichen und finanziellen Gründe tragen wahrscheinlich dazu bei, dass Frauen häufiger als Männer feststellen, dass sie ihre Ausstiegspläne revidieren müssen und länger als geplant erwerbstätig bleiben.

Insgesamt zeigt die Studie, dass die Hälfte (50%) der Befragten ihre zeitlichen Ausstiegs- oder Weiterarbeitspläne ziemlich genau (+- 6 Monate) verwirklichte; besonders gut gelang dies Personen im Beamtenstatus (61%). 23 % aller älteren Erwerbstätigen arbeiteten länger als geplant und 27% waren mindestens sieben Monate früher als geplant ausgeschieden, im Durchschnitt mehr als 3 Jahre früher.

Die Untersuchungsergebnisse vollständig und im Detail:
Engstler, Heribert (2019). Wie erfolgreich sind ältere Arbeitskräfte in der zeitlichen Umsetzung ihrer Ausstiegspläne? Soziale Unterschiede der Übereinstimmung zwischen geplantem und realisiertem Alter der Erwerbsbeendigung. Zeitschrift für Gerontologie und Geriatrie, 52(Suppl.1): 14-24.
doi: 10.1007/s00391-018-1451-3

Originalpublikation:
Engstler, Heribert (2019). Wie erfolgreich sind ältere Arbeitskräfte in der zeitlichen Umsetzung ihrer Ausstiegspläne? Soziale Unterschiede der Übereinstimmung zwischen geplantem und realisiertem Alter der Erwerbsbeendigung. Zeitschrift für Gerontologie und Geriatrie, 52(Suppl.1): 14-24.
doi: 10.1007/s00391-018-1451-3

Quelle: IDW 

(nach oben)


Phosphor und Fernwärme aus Klärschlamm

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

Ein Konzept zur Gewinnung von Phosphor und Energie aus Klärschlamm ist der Gegenstand eines Projekts der TH Mittelhessen. Die Professoren Dr. Ulf Theilen, Dr. Harald Weigand und Dr. Harald Platen vom Kompetenzzentrum für Energie- und Umweltsystemtechnik arbeiten dabei mit verschiedenen Partnern zusammen. Zu ihnen gehören die Stadtwerke Gießen, die Mittelhessischen Wasserbetriebe und das Institut für Pflanzenernährung der Justus-Liebig-Universität. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben mit 125.000 Euro.

Der im Klärschlamm enthaltene Phosphor ist ein wertvoller Stoff, der in vielerlei Verbindungen für das biologische Wachstum und damit auch zur Produktion von Nahrungsmitteln gebraucht wird. Sein Vorkommen ist begrenzt. Bisher werden in Deutschland noch etwa 50 Prozent des Klärschlamms zur Düngung von Ackerflächen genutzt. Er kann allerdings eine Reihe bedenklicher Stoffe wie zum Beispiel Schwermetalle oder Arzneimittelrückstände enthalten. Verschiedene Verordnungen haben deren zulässige Grenzwerte für die landwirtschaftliche Verwertung deutlich verschärft. Außerdem werden in absehbarer Zeit viele größere Kläranlagen verpflichtet sein, Phosphor aus Klärschlamm zurückzugewinnen.

Die Projektpartner wollen ein Konzept entwickeln, das „für alle Kläranlagen der Partner-Kommunen in der erweiterten Region Mittelhessen unabhängig von der Größenklasse eine zukunftsweisende, sehr weitgehende energetische und stoffliche Verwertung mit Phosphor-Rückgewinnung realisiert und den Phosphor als Dünger in der regionalen Landwirtschaft nutzt“, so Theilen. Der getrocknete Klärschlamm, der annähernd den Heizwert von Braunkohle hat, soll in einem zentralen Heizwerk in Gießen verbrannt und die Energie in das Fernwärmenetz der Stadt eingespeist werden.

Bisher haben etwa 35 Kommunen Interesse an einer Zusammenarbeit gezeigt. Theilen schätzt, dass pro Jahr in deren Kläranlagen fast 75.000 Tonnen Klärschlamm anfallen. Ziel ist die Gründung einer kommunalen Gesellschaft zur regionalen Klärschlammverwertung.

In der aktuellen Konzeptphase sind viele rechtliche, technische, wirtschaftliche und logistische Fragen zu klären. Einbezogen sind das Hessische Umweltministerium, das Regierungspräsidium Gießen und die mittelhessischen Landkreise, die das Projekt unterstützen, aber in der Realisierungsphase auch Genehmigungsbehörden sind. Weitere wichtige Gesprächspartner sind die Raiffeisen Waren-Zentrale Rhein-Main und der Hessische Bauernverband, deren Expertise bei der Entwicklung eines Vermarktungskonzepts für den Dünger gebraucht wird.

Das Projekt läuft bis Juli dieses Jahres. Wenn das Konzept des mittelhessischen Konsortiums das BMBF überzeugt, besteht für die anschließende Realisierung die Aussicht auf eine Förderung in Höhe von fünf bis sieben Millionen Euro.

Wissenschaftliche Ansprechpartner:
ulf.theilen@bau.thm.de

Quelle: IDW 

(nach oben)


Nur jeder zehnte Babyboomer will bis zum gesetzlichen Renteneintrittsalter arbeiten

Marylen Reschop Pressestelle
Bergische Universität Wuppertal

„lidA – leben in der Arbeit“ ist eine repräsentative Studie, die am Lehrstuhl für Arbeitswissenschaft der Bergischen Universität Wuppertal unter der Leitung von Prof. Dr. med. Hans Martin Hasselhorn durchgeführt wird. Seit 2011 begleitet das Forschungsteam die sogenannten Babyboomer der Jahrgänge 1959 und 1965 auf ihrem Weg von der Arbeit in den Ruhestand. Ziel der Studie ist es, sich verändernde Arbeitsbedingungen und Erwerbsverläufe, aber auch persönliche Motive zu ergründen, die darüber entscheiden, wie lange älter werdende Arbeitnehmerinnen und Arbeitnehmer berufstätig sind. Nun liegen die Ergebnisse der dritten Erhebungswelle vor.

Wer arbeitet wie lange und warum? Diese Frage zu beantworten ist komplex und spannend zugleich. Denn in ihrer Beantwortung liegen zahlreiche Erkenntnisse, die von gesellschaftlicher und betrieblicher Relevanz sind. „Mit unserer Kohortenstudie lidA greifen wir eine Vielzahl von Themen auf. Die Ergebnisse haben uns oft überrascht und nicht wenige machen nachdenklich“, erklärt Prof. Hasselhorn.

Die Ergebnisse der Studie zeigen: Fast alle erwerbstätigen Babyboomer der untersuchten Jahrgänge sehen sich zwar noch fest im Arbeitsleben, über die Hälfte von ihnen möchte jedoch so früh wie möglich aus der Berufstätigkeit aussteigen. Typische Wunschzeitpunkte für den Erwerbsaustritt orientieren sich an altbekannten Altersnormen: 60 Jahre (langjährige frühere Altersgrenze für Frauen), 63 Jahre (sog. „Rente ab 63″) und 65 Jahre (langjährige Altersgrenze). Bis zum gesetzlichen Renteneintrittsalter wollen weniger als zehn Prozent aller älteren Erwerbstätigen arbeiten. „Das passt nicht mit dem gesellschaftspolitischen Anliegen einer allgemeinen Verlängerung des Erwerbslebens zusammen“, weist Prof. Hasselhorn auf eine bestehende Diskrepanz hin.

So viel steht fest: Die Arbeitswelt wandelt sich. Neue Technologien, veränderte Arbeitsformen, Flexibilisierung und weitere Faktoren führen zu veränderten Bedingungen. „Auch ältere Erwerbstätige stellt dies vor große Herausforderungen“, so Prof. Hasselhorn.

Wenn also ältere Erwerbstätige heute mehr und länger arbeiten sollen, stellen sich für Politik, Gesellschaft und Betriebe verschiedene Fragen. „Darin geht es um Gesundheit, den Erhalt der Arbeitsfähigkeit, aber insbesondere auch um die Erwerbsmotivation. Es wird essenziell die zahlreichen verschiedenen Faktoren zu kennen, die die Fähigkeit und Bereitschaft, überhaupt oder länger zu arbeiten, beeinflussen.“

Auf diese Fragen sucht lidA nach Antworten: Im Abstand von drei Jahren werden dafür ältere Erwerbstätige befragt. Im Rahmen der im Frühjahr durchgeführten dritten Erhebungswelle wurden 3.586 Babyboomer der Jahrgänge 1959 und 1965 deutschlandweit zu Hause interviewt. „Für die sozialversicherungspflichtige Erwerbsbevölkerung dieser Jahrgänge ist die Studie in allen Erhebungswellen repräsentativ“, verweist Prof. Hasselhorn auf die Bedeutung der Ergebnisse. Mit diesen können die Wuppertaler Wissenschaftlerinnen und Wissenschaftler u.a. Einflussgrößen auf die Gesundheit, Arbeitsfähigkeit, Motivation und das Erwerbsleben der befragten Jahrgänge identifizieren. Auch individuelle Veränderungen und deren Auswirkungen können beschrieben und erklärt werden.

„Die Babyboomer-Generation bildet heute die größte Erwerbsgruppe in der Bundesrepublik. 2025 erreichen die ersten Befragten das gesetzliche Regelrenteneintrittsalter. Es ist unser Ziel, auch diesen Übergang wissenschaftlich zu begleiten“, betont Prof. Hasselhorn. Davor ist für 2021 noch eine vierte Erhebungswelle geplant.

Im Zuge der Aufbereitung der dritten Erhebungswelle hat der Lehrstuhl für Arbeitswissenschaft eine Broschüre erstellt, die einen übersichtlichen Einblick in die Fragestellungen und Ergebnisse bietet. Sie steht Interessierten zum kostenlosen Download zur Verfügung.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Hans Martin Hasselhorn
Lehrstuhl für Arbeitswissenschaft
Telefon: 0202/349-2088
E-Mail: hasselhorn@uni-wuppertal.de

Weitere Informationen:

http://www.lida-studie.de
http://www.arbeit.uni-wuppertal.de/fileadmin/arbeit/lidA_Brosch%C3%BCre.pdf

Quelle: IDW 

(nach oben)


Stellungnahme: „Der aktuelle NO2-Grenzwert ist wissenschaftlich plausibel“

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Die Deutsche Gesellschaft für Toxikologie (GT) bezieht Stellung in der Diskussion um den Grenzwert von Stickstoffdioxid (NO2). Demnach stützt die umfassende Studienlage den aktuellen Grenzwert von 40 μg/m3 in der Außenluft. Er zielt darauf ab, die Gesamtbevölkerung vor gesundheitlichen Beeinträchtigungen zu schützen, insbesondere empfindliche Bevölkerungsgruppen wie Asthmatiker und Kinder.

In der aktuell veröffentlichten Stellungnahme wird eine Übersicht der Studientypen und wesentlicher Ergebnisse aufgeführt, auf deren Basis ein wissenschaftlich fundierter Richtwert abgeleitet wird. Dazu zählen humane Expositionsstudien, tierexperimentelle Studien, in-vitro-Studien und umweltepidemiologische Studien. Die Verfassenden der Stellungnahme erläutern zudem, warum verschiedene Grenzwerte für NO2 existieren (am Arbeitsplatz, für Außenluft oder für Innenraumluft). Weiterhin informiert die Deutsche Gesellschaft für Toxikologie darüber, wie aus gesundheitsbasierten Richtwerten rechtsverbindliche Grenzwerte werden.

Die Stellungnahme der Beratungskommission der Gesellschaft für Toxikologie finden Sie unter: https://www.toxikologie.de/fileadmin/user_upload/GT/Aktuelles/2019-02-26_Beratun…

Wissenschaftliche Ansprechpartner:

Prof. Dr. Jan G. Hengstler
Mitglied der Beratungskommission der GT
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Leiter der Forschungsabteilung „Toxikologie“
0231 1084-348 / 349
hengstler@ifado.de

Prof. Dr. Heidi Foth
Vorsitzende der Beratungskommission der GT
Institut für Umwelttoxikologie
Martin-Luther-Universität Halle-Wittenberg
heidi.foth@uk-halle.de

Originalpublikation:

https://www.toxikologie.de/fileadmin/user_upload/GT/Aktuelles/2019-02-26_Beratun…

Weitere Informationen:

https://www.toxikologie.de/fileadmin/user_upload/GT/Aktuelles/2019-02-26_Beratun…
Zur Stellungnahme der GT

Quelle: IDW 

(nach oben)


Silber-Nanopartikel in natürlichen Umgebungen untersuchen

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Eine Methode, um das Verhalten von Silber-Nanopartikeln in natürlichen Gewässern zu untersuchen, haben Forscherinnen und Forscher des Exzellenzclusters Resolv an der Ruhr-Universität Bochum entwickelt. Aus Produkten wie Sportkleidung oder Lebensmittelverpackungen gelangen die Partikel regelmäßig ins Meer. Was dort mit ihnen passiert, ist weitgehend unbekannt. Mit einer Kombination aus elektrochemischen und spektroskopischen Verfahren können die Chemiker die Reaktion individueller Partikel in Lösung verfolgen, auch wenn diese Salze oder Algen enthält. Herkömmliche Verfahren kommen mit diesen Störfaktoren nicht zurecht und funktionieren meist nur im Hochvakuum.

Über die Arbeiten von Prof. Dr. Kristina Tschulik und ihrer Forschungsgruppe für Elektrochemie und Nanoskalige Materialien berichtet das Wissenschaftsmagazin Rubin der Ruhr-Universität.

Bislang nicht messbar
Aufgrund ihrer antibakteriellen und entzündungshemmenden Wirkung sind Silberteilchen in der Industrie beliebt. Sie finden sich nicht nur im Meer wieder, sondern auch im Prozessabwasser von Produktionsfirmen. „Solange es jedoch keine etablierten Messmethoden und folglich keine gesetzliche Pflicht gibt, solche Partikel nachzuweisen, tun die Firmen das natürlich auch nicht“, sagt Kristina Tschulik. Die Bochumer Chemikerinnen und Chemiker entwickelten daher einen Sensor, mit dem sich Silberpartikel auch in komplexen Umgebungen spezifisch untersuchen lassen.

Fjord-Wasser mit Anti-Mundgeruch-Spray im Test
Dass das Verfahren robust gegenüber Störquellen ist, zeigten sie im ersten Schritt mit Wasserproben aus einem unberührten kanadischen Fjord. In diesem Wasser waren zwar Salze, Algen und andere Störfaktoren enthalten, aber keine industriellen Verunreinigungen. Diese fügten die Wissenschaftler mit einem handelsüblichen Silbernanopartikel-Spray selbst hinzu, das für die Desinfektion von Besteck und als Mittel gegen Mundgeruch bei Hunden im Internet erhältlich war. Anschließend zeigten sie, dass sie die Partikel in dieser komplexen Umgebung elektrochemisch detektieren konnten.

Partikel verklumpen und sinken
Mit der kombinierten spektro-elektrochemischen Methode analysierten sie in weiteren Studien, was mit Silberpartikeln in salzhaltigem Wasser passiert. „Bislang war man davon ausgegangen, dass sich die Silberpartikel im Wasser auflösen“, erklärt Tschulik. Das bestätigte sich nicht. Die Partikel verklumpten und reagierten zu Silberchlorid, sie würden im Meer vermutlich zu Boden sinken und sedimentieren „Dann sind sie zwar aus dem Wasser entfernt, aber man müsste überlegen, welche langfristigen Folgen diese Schwermetallablagerungen für Meeresbewohner haben könnten, die in Bodennähe leben“, so Tschulik.

„Basierend auf einem solchen einzelnen Ergebnis sollte man nicht in Panik verfallen“, ergänzt die Chemikerin. Denn verschiedene Nanopartikel können sich sehr unterschiedlich verhalten. Man könne daher nicht aus wenigen Studien auf sämtliche Partikel schließen. „Aber je mehr wir Nanopartikel einsetzen, desto wichtiger ist es, dass wir ihre Auswirkungen abschätzen können“, sagt Tschulik.

Über die Methode
Für das Verfahren tauchen die Forscher eine hauchdünne Elektrode in die Partikellösung ein und legen eine Spannung an die Elektrode an. Da sich kleine Partikel in Flüssigkeiten ungerichtet bewegen, schlagen einige von ihnen im Lauf der Zeit auf der Elektrode ein. Ist die Spannung richtig gewählt, reagieren diese Partikel auf der Elektrodenoberfläche, zum Beispiel Silber zu Silberchlorid. Jedes Mal, wenn ein Silberatom zu einem einfach positiv geladenen Silberion reagiert, wird ein Elektron frei, das als Strom durch die Elektrode abfließt. Der Stromfluss erlaubt somit Rückschlüsse auf die Anzahl der Atome, die reagiert haben, und somit auf die Größe des Partikels.

Dieses elektrochemische Verfahren, das Kristina Tschulik ab 2012 in Oxford mit entwickelte, brachte ihr Bochumer Team mit der sogenannten Dunkelfeldmikroskopie zusammen. Letztere erlaubt den Chemikern, die Partikel in Echtzeit als farbige Bildpunkte sichtbar zu machen. Anhand der Farbänderung der Punkte, genauer gesagt anhand der spektralen Information, können sie verfolgen, was mit den Partikeln an der Elektrodenoberfläche passiert, zum Beispiel, ob sie sich auflösen oder umwandeln, etwa in Silberchlorid.

Ausführlicher Beitrag im Wissenschaftsmagazin Rubin
Zwei ausführliche Beiträge zum Thema finden Sie im Wissenschaftsmagazin Rubin unter:
https://news.rub.de/wissenschaft/2019-02-27-chemie-silbernanopartikel-ein-proble…
https://news.rub.de/wissenschaft/2019-02-27-chemie-den-star-unter-den-nanopartik…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kristina Tschulik
Lehrstuhl für Analytische Chemie II
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: 0234 32 29433
E-Mail: nanoec@rub.de

Quelle: IDW 

(nach oben)


Beruflicher Aufstieg mit Berufsausbildung – Männer klar im Vorteil. Neuer BIBB REPORT erschienen

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)

In Deutschland üben rund elf Prozent der Fachkräfte mit dualer Berufsausbildung eine höherwertige Tätigkeit aus, für die in der Regel auch ein höherer Abschluss erforderlich ist. Das kann zum Beispiel eine gelernte Einzelhandelskauffrau sein, die als Filialleiterin tätig ist, oder ein gelernter Kfz-Mechatroniker, der als Produktionsleiter beschäftigt ist. Diese Fachkräfte sind, auch ohne über den formal höherwertigen Abschluss zu verfügen, beruflich aufgestiegen und erzielen demzufolge auch ein höheres Einkommen als Erwerbstätige mit dualer Berufsausbildung, die entsprechend ihrer Qualifikation beschäftigt sind.

Dies ist ein Ergebnis einer aktuellen Analyse des Bundesinstituts für Berufsbildung (BIBB) mit dem Titel „Beruflicher Aufstieg durch überwertige Erwerbstätigkeit – Männer und Frauen mit dualer Ausbildung im Vergleich“.

Die BIBB-Analyse zeigt, dass Männer (13 Prozent) diesen beruflichen Aufstieg häufiger schaffen als Frauen (7 Prozent) und dass bestimmte Ausbildungsberufe besonders hohe Aufstiegschancen bieten. Hierzu gehören IT- und naturwissenschaftliche, aber auch kaufmännische und unternehmensbezogene Dienstleistungsberufe – beispielsweise Fachinformatiker, Groß- und Einzelhandelskaufleute, Industrie- und Bankkaufleute – sowie fertigungstechnische Berufe aus den Bereichen Mechatronik, Energie und Elektro.

Die große Mehrheit der höherwertig Erwerbstätigen fühlt sich den an sie gestellten Anforderungen gewachsen, was nach Ansicht der BIBB-Fachleute den Schluss nahelegt, dass diese Personen in hohem Maße über die notwendigen fachlichen Kenntnisse und Fertigkeiten verfügen, um die an sie im Job gestellten Aufgaben erfüllen zu können. Die Analyse macht deutlich, dass eine duale Berufsausbildung keine berufliche Sackgasse ist. Höherwertige Tätigkeiten, die in der Regel durch Aufstiegsfortbildungen – zum Beispiel Meister/-in oder Fachwirt/-in – erreicht werden, sind für Personen mit Berufsausbildung auch ohne berufliche Höherqualifizierung nicht gänzlich ausgeschlossen.

Für BIBB-Präsident Friedrich Hubert Esser wird die Arbeitswelt von morgen aufgrund des digitalen Wandels durch die Entstehung neuer Tätigkeiten und veränderter Kompetenzen geprägt sein. „Dieser Wandel kann die Tendenz zur Ausübung höherwertiger Tätigkeiten verstärken, weil die auf dem Arbeitsmarkt nachgefragten beruflichen Qualifikationen sich schneller verändern als die Qualifikationsstruktur des Arbeitskräfteangebots. Die Ergebnisse zeigen, dass beruflich Qualifizierte auch höherwertige Tätigkeiten ausüben können und bereits in der Arbeitswelt von heute anpassungsfähig sind, um diesen Anforderungen gerecht zu werden.“

Der BIBB-Analyse liegen Daten der Erwerbstätigenbefragung aus dem Jahr 2018 zugrunde. Die repräsentative Stichprobe von rund 20.000 befragten Erwerbstätigen in Deutschland wird vom BIBB und der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) durchgeführt. Betrachtet wurden nur Erwerbstätige, die eine duale Berufsausbildung als höchste Ausbildung abgeschlossen haben.

Weitere Informationen in der neuesten Ausgabe von BIBB REPORT, Ausgabe 1/2019, mit dem Titel „Beruflicher Aufstieg durch überwertige Erwerbstätigkeit – Männer und Frauen mit dualer Ausbildung im Vergleich“. Die Veröffentlichung steht im Internetangebot des BIBB unter http://www.bibb.de/bibbreport kostenlos als Download zur Verfügung.

Quelle: IDW 

(nach oben)


Wer ein Kind möchte, braucht Folsäure!

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Stiftung Kindergesundheit informiert über ein Vitamin, das Babys vor schweren Schäden schützen kann

Mit ein bisschen Salat ist es nicht getan: Frauen, die schwanger werden wollen oder schwanger werden könnten, müssen wissen, welche Nährstoffe sie jetzt wirklich brauchen. Sie sollten sich folatreich ernähren und zusätzlich ein Folsäurepräparat einnehmen, empfiehlt die Stiftung Kindergesundheit in einer aktuellen Stellungnahme. Auf diese Weise können sie erreichen, dass ihr Körper bereits zu Beginn einer Schwangerschaft optimal mit Folsäure versorgt und für den Empfang eines gesunden Kindes bereit ist.

„Folat spielt eine zentrale Rolle im Stoffwechsel von Mutter und Kind“, begründet Prof. Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit die Empfehlung. „Das Vitamin ist ein wichtiger Baustein bei der Neubildung von Zellen und deshalb an vielen wesentlichen Prozessen im Körper des ungeborenen Kindes beteiligt. Deshalb ist eine zusätzliche Einnahme von Folsäure am besten schon vor der Schwangerschaft, aber auch während des Stillens in den ersten drei Monaten der Schwangerschaft besonders wertvoll“.

Als außerordentlich wichtig erweist sich Folsäure für die gesunde Entwicklung von Rückenmark und Gehirn des Babys: Mit ihrer Hilfe lässt sich das Risiko von Fehlbildungen des kindlichen Nervensystems – von sogenannten Neuralrohrdefekten – deutlich verringern. Zu diesen Fehlbildungen zählen die „Meningomyelozele“ (eine bruchsackartige Ausbeulung des Rückenmarks) oder eine „Spina bifida“ (offener Rücken), die oft mit einem Hydrozephalus („Wasserkopf“) vergesellschaftet sind.

Auch die werdende Mutter profitiert von einer Optimierung ihrer Folatversorgung, unterstreicht Professor Berthold Koletzko: „Das Risiko einer Blutarmut bei der Geburt wird verringert und die Gefahr einer Frühgeburt reduziert.“.

Für die Gesundheit unverzichtbar
Folsäure ist jedoch nicht gleich Folat, hebt die Stiftung Kindergesundheit hervor. „Folat“ oder „Folate“ sind Sammelbegriffe für eine in der Natur vorkommende Form des wasserlöslichen B-Vitamins, das für die menschliche Gesundheit unverzichtbar ist. „Folsäure“ ist die synthetisch hergestellte Form des Vitamins B9. Sie wird in Nahrungsergänzungsmitteln und zur Anreicherung von Lebensmitteln wie Mehl, Nudeln oder Brot verwendet. Folsäure kommt in der Natur nicht vor, wird jedoch im Organismus in einen aktiven Zustand umgewandelt. Die synthetisch hergestellte Folsäure ist zu 85 Prozent vom Körper verwertbar, die Folate aus den Nahrungsmitteln zu etwa 50 Prozent. Auch die im Körper natürlich vorkommende Folatform Metafolin ist heute als Supplement verfügbar.

Früher wurde eine Aufnahme von Folat bei nicht-schwangeren Erwachsenen bei 400 Mikrogramm pro Tag empfohlen. Dieser Wert wurde 2013 auf 300 Mikrogramm verringert, weil nach neueren Studien auch schon mit dieser Menge eine gute Versorgung erreicht werden kann.
Bedarf in der Schwangerschaft deutlich erhöht
Viele junge Frauen können eine optimale Ernährung im Alltag nicht umsetzen. Einige ernähren sich mit einseitigen Diäten oder wegen einer Unverträglichkeit nicht wirklich ausgewogen. Die Folge: Sie sind oft nur unzureichend mit wichtigen Nährstoffen wie Eisen, Jod, Vitamin D oder Omega-3-Fettsäuren versorgt. Und auch mit Folsäure: Die kürzlich vorgelegte Studie zur Gesundheit Erwachsener in Deutschland (DEGS1) ergab, dass nur etwa fünf Prozent der Frauen im gebärfähigen Alter Folatwerte aufweisen, die zum Schutz eines ungeborenen Babys vor Fehlbildungen notwendig sind.

Dabei ist der Bedarf an Folsäure während einer Schwangerschaft deutlich erhöht, betont die Stiftung Kindergesundheit. Der Grund: Der Embryo, die Gebärmutter und der Mutterkuchen (Plazenta) wachsen, die Blutmenge nimmt zu.

Mangelt es an Folsäure während der Frühschwangerschaft, droht auch ein erhöhtes Risiko für andere Gefahren wie zum Beispiel Herzfehler, Fehlbildungen der Harnwege oder eine Lippen-Kiefer-Gaumenspalte (LKG, im Volksmund als „Hasenscharte“ bezeichnet). Eine Studie ergab: Die regelmäßige Einnahme von Folsäure kann die Häufigkeit von LKG-Spalten um bis zu 40 Prozent verringern.

Die Pille nach der Pille
Reichlich Folat findet sich in Rohkost, Obst und Blattgemüse, Kohl, Broccoli, Feldsalat, Fenchel, Spinat, Spargel, Vollkornprodukten, Sauerkraut und Kartoffeln. Als Faustregel gilt: Alle Gemüse und Salate, von denen die Blätter der Pflanze gegessen werden, dienen der Folatversorgung. Leider kann der Körper aber nur einen Teil der darin enthaltenen Folsäure verwerten. Außerdem ist die Folsäure in Gemüse, Obst oder Getreide ausgesprochen hitze- und lichtempfindlich und geht bei langem Kochen oder Warmhalten der Lebensmittel leicht verloren.

Um das Risiko von Neuralrohrdefekten zu senken, empfiehlt die Stiftung Kindergesundheit in Übereinstimmung mit weiteren Fachgremien allen Frauen mit Kinderwunsch, neben einer folatreichen Ernährung mindestens vier Wochen vor Beginn der Schwangerschaft mit der täglichen Einnahme von mindestens 400 Mikrogramm Folsäure in Form eines Präparats zu beginnen. Die zusätzliche Einnahme von Folsäuretabletten sollte gleich nach der Beendigung der Schwangerschaftsverhütung beginnen: Die Tablette mit Folsäure ist gewissermaßen die Pille nach der Pille. Ihre Einnahme sollte während des ersten Drittels der Schwangerschaft beibehalten werden.
Folsäure in Brot und Nudeln
In den USA werden bereits seit 1998 standardisierte Mehle, Brote, Brötchen, Frühstücksflocken, Reis- und Nudelprodukte zusätzlich mit Folsäure angereichert. Seither ist die Zahl von Neuralrohrdefekten bei Babys nach wenigen Jahren um etwa 30 Prozent zurückgegangen. In Kanada gelten die gleichen Bestimmungen wie in den USA. Dort ist auch die Zahl der angeborenen Herzfehler gesunken.

In Deutschland dagegen geht die Häufigkeit von Neuralrohrdefekten trotz der seit Jahren bekannter Erkenntnisse nicht zurück, bedauert die Stiftung Kindergesundheit. Sie liegt mit jährlich bis zu 1.000 Fällen nach wie vor hoch. Dabei ließe sich wenigstens die Hälfte dieser Fehlbildungen durch eine gute Folatversorgung einfach und wirksam vermeiden, sagt Professor Koletzko: „Dies wäre am einfachsten zu erreichen, wenn wir bestimmte Grundnahrungsmittel mit Folsäure anreichern würden, so wie es in fast 100 anderen Ländern der Welt bereits geschieht“.

Die Anreicherung von Nahrungsmitteln mit Folsäure hat den klaren Vorteil, dass alle Frauen zumindest in einem gewissen Ausmaß mit Folsäure versorgt werden. In allen Ländern mit verpflichtender Folsäureanreicherung von Lebensmitteln kam es seit der Einführung zu einem Rückgang von Neuralrohrdefekten zwischen 27 und 55 Prozent, in Teilen Kanadas sogar noch deutlich darüber.
Das Babyvitamin macht auch Männer gesünder
Übrigens profitieren auch Männer vom Vitamin Folsäure, unterstreicht die Stiftung Kindergesundheit: Die Zugabe von Folsäure zu Brot und Pasta in den USA und Kanada hat dort die Zahl von Darmkrebsfällen um 20 Prozent gesenkt. Eine weitere wichtige Funktion der Folsäure ist ihre schützende Wirkung vor Herz-Kreislauf-Erkrankungen. Sie ist für den Abbau des gefäßschädigenden Homocysteins im Blut mitverantwortlich und trägt zu einer leichten Blutdrucksenkung bei.

Somit kommt dem Vitamin eine Schlüsselrolle auch im Kampf gegen Herzinfarkt und Schlaganfall zu. Folsäure und B-Vitamin-Präparate mit Folsäure konnten das Schlaganfallrisiko in einer Studie aus China um bis zu 20 Prozent senken. Studien haben außerdem ergeben, dass sich durch die kombinierte Einnahme von Folsäure und Zink die Anzahl an Spermien um über 70 Prozent steigern lässt.

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:

Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX

Vielen Dank!

Quelle: IDW 

(nach oben)


BRIESE-Preis 2018: Fokus Ozeanversauerung – Großer Fortschritt bei Ostsee-pH-Monitoring und mehr

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Den diesjährigen BRIESE-Preis für Meeresforschung erhält Dr. Jens Daniel Müller vom Leibniz-Institut für Ostseeforschung Warnemünde. Die Jury würdigt damit seine Forschung zu den Besonderheiten der Ozeanversauerung in Rand- und Küstenmeeren. Am Beispiel der Ostsee zeigte Müller auf, dass diese unter fundamental anderen Voraussetzungen stattfindet als im offenen Ozean. Mit der Weiterentwicklung einer hochpräzisen optischen pH-Messmethode, die bislang nur bei den hohen Salzgehalten der offenen Weltmeere eingesetzt werden konnte, jetzt aber auch in weniger salzigem Brackwasser anwendbar ist, schuf er außerdem die Grundlage, um pH-Änderungen auch im Brackwasser weltweit vergleichbar zu machen.

Der von der Reederei Briese Schiffahrts GmbH & Co. KG gestiftete Preis für herausragende Doktorarbeiten in der Meeresforschung ist mit 5000 Euro dotiert und wurde jetzt zum 9. Mal am IOW verliehen. Der heute ausgezeichnete Preisträger Jens Müller, der über die Chemie zur Meeresforschung kam, erklärt das Engagement für sein Promotionsthema so: „Mir wurde bereits im Grundstudium klar, dass mich vor allem die chemischen Prozesse in der Natur interessieren. Dazu kommt, dass mir als begeisterter Segler und Taucher die Intaktheit der Meere am Herzen liegt.“ Seine wissenschaftliche Leidenschaft und Neugier setze er daher sehr gerne für ein Themenfeld ein, bei dem es darum geht, wie der Einfluss des Menschen auf die Meeresumwelt am besten zu beobachten ist und welche Lösungen sich für die entstandenen Probleme finden lassen. „Umso mehr freut es mich, dass diese Arbeit nun mit dem BRIESE-Preis gewürdigt wird“, so Jens Müller.

Die Ozeanversauerung, mit der sich Müller am Beispiel der Ostsee befasst hat, wird auch als „das andere CO2-Problem“ bezeichnet. Denn der durch den Menschen verursachte übermäßige Kohlendi-xid-Ausstoß ist nicht nur ein Problem für das Klima: CO2 löst sich im Meerwasser, bildet Kohlensäure und setzt so Wasserstoff-Ionen frei, die zur Versauerung führen. Die pH-Absenkung beeinflusst fast alle biochemischen und biologischen Prozesse im Meer. Sehr empfindlich reagieren beispielsweise Muscheln, da der Aufbau ihrer Kalkschalen im zunehmend sauren Milieu erschwert wird. Auch andere kalkhaltige Organismen sind betroffen. Obwohl die Ozeanversauerung bereits seit rund 20 Jahren erforscht wird, ist ihre Beobachtung schwierig: Aus Langzeit-Messreihen weiß man, dass sich der pH-Wert im offenen Ozean jährlich nur um ca. 0,002 Einheiten vermindert. Um solch geringe Veränderungen zu erfassen, hat sich in der Ozeanographie die optische pH-Messung etabliert. Sie beruht auf der Zugabe des Farbstoffs m-Kresolpurpur zur Wasserprobe und dessen pH-abhängigen Farbumschlag von Violett nach Gelb. Die Farbigkeit kann mit einem Photometer äußerst exakt bestimmt und in Abhängigkeit von Salzgehalt und Temperatur in pH-Einheiten umgerechnet werden.

Doch wie sieht es in der Ostsee aus? „Zusammen mit Kollegen habe ich in den Daten der letzten 20 Jahre keinen Versauerungstrend feststellen können – was zunächst erstaunlich ist“, schildert Jens Müller den Ansatzpunkt für sein Promotionsprojekt. Um das zu verstehen, befasste er sich mit zwei möglichen Ursachen für diese Beobachtung: 1. Es gibt tatsächlich keinen abnehmenden pH-Trend in der Ostsee. 2. Die Datenqualität ist in Bezug auf Messgenauigkeit unzureichend. Dass es in der Ostsee tatsächlich Prozesse gibt, die der Versauerung entgegenwirken, konnte Müller mittels umfangreicher Analysen zur Alkalinität zeigen, also zum Säurebindungsvermögen des Meerwassers. Dieses steigt seit 1995 an und ist wahrscheinlich durch kontinentale Gesteinsverwitterung bedingt, deren Produkte durch Flüsse in die Ostsee gewaschen werden. Ob der Alkalinitätsanstieg jedoch anhält und eine Versauerung weiterhin abpuffern kann, ist unbekannt. „Wichtig ist also auch, dass man beim Monitoring ausschließen kann, dass ein Versauerungsnachweis an Methodenungenauigkeit scheitert“, betont Müller. Denn bei Ostsee-Routine-Untersuchungen wird der pH bislang mit Glaselektroden gemessen, deren Messfehler zu groß ist, um Versauerungstrends sicher nachzuweisen.

„Wir haben deshalb die optische pH-Messmethode, die bislang nur bei Salzgehalten zwischen 20 und 40 anwendbar war, so weiterentwickelt, dass sie auch im Ostsee-Brackwasser bei geringer Salinität von 5 bis 20 funktioniert.“ Dazu arbeitete Jens Müller mit der Physikalisch-Technischen Bundesanstalt zusammen, um in entsprechenden künstlichen Meerwasserstandards durchgeführte optische pH-Messungen mit Messungen nach dem messtechnisch definierten Primärverfahren abzugleichen. In einem weiteren Schritt prüfte er, ob Schwefelwasserstoff und größere Mengen organischen Materials, beides typisch für Brackwasserökosysteme wie die Ostsee, störend für das neue Messverfahren sind – was nicht der Fall war. Um die optische Methode auch für den Routineeinsatz auf See startklar zu machen, entwickelte der IOW-Forscher zusammen mit einer Meerestechnik-Firma und zwei wissenschaftlichen Partnerinstitutionen eine anwendungsreife technische Umsetzung, die mittlerweile erprobt und auf dem Markt ist. Um Prototypen und die nachfolgenden Gerätegenerationen zu testen, verbrachte Müller während 5 Schiffsexpeditionen gut 7 Wochen auf See. Mittlerweile überprüft die Helsinki-Kommission zum Schutz der Ostsee (HELCOM), ob das angepasste pH-Messverfahren offiziell als Versauerungsindikator in das internationale Ostsee-Monitoring aufgenommen werden soll.

Ein weiteres Kapitel seiner Doktorarbeit widmete Jens Müller möglichen Auswirkungen von Versauerung auf Miesmuscheln, die in der Ostsee oft inmitten küstennaher Seegraswiesen siedeln. Diese Arbeiten führte er am GEOMAR – Helmholtz-Zentrum für Ozeanforschung Kiel aus. In Seegraswiesen schwankt der pH-Wert – bedingt durch die Photosynthese – im Tagesverlauf sehr stark. Müller fand heraus, dass die Muscheln trotz zweitweise ungünstig niedrigem pH die Zeitfenster mit hohem pH nutzen können, um ihre Kalkschalen problemlos aufzubauen. Diese grundlegende Erkenntnis macht zum einen deutlich, wie wichtig die Berücksichtigung solcher natürlichen Fluktuationen bei der Erforschung der Folgen von Ozeanversauerung ist. Die Ergebnisse legen außerdem nahe, dass Seegraswiesen für viele Organismen als wertvolle Schutzhabitate vor globaler Versauerung besonders geschützt werden sollten.

„Jens Müller hat nicht nur wichtige neue Erkenntnisse zur Versauerung in der Ostsee erarbeitet; ihm ist auch eine ausgezeichnete Einbettung in die große internationale Fragestellung der Ozeanversauerung, einem hochaktuellem Aspekt der Erdsystem- und Klimawandelfolgenforschung, gelungen“, kommentiert Prof. Dr. Karin Lochte, Mitglied der BRIESE-Preis-Jury, die diesjährige Preisvergabe. „Die Weiterentwicklung der optischen pH-Messmethode wird für Forscher weltweit interessant sein. Zusammen mit seinen sehr guten Publikationen und Konferenzbeiträgen ist seine Leistung absolut überzeugend“, so die Sprecherin der Deutschen Allianz für Meeresforschung weiter. „Die Arbeit von Jens Müller zeigt eindrucksvoll, dass akribisches, wissenschaftliches Arbeiten in der Ostsee zu Ergebnissen führen kann, die auch international von Bedeutung sein werden. Wir freuen uns, in diesem Jahr einen jungen Wissenschaftler auszeichnen zu können, der auch durch seine Passion zum Meer diesen wissenschaftlichen Ehrgeiz entwickelt hat. Wir danken der Jury für die sorgfältige Auswahl des 9. Preisträgers BRIESE-Preis für Meeresforschung“, so Klaus Küper, Leiter der Abteilung Forschungsschifffahrt der Reederei Briese.

Der BRIESE-Preis für Meeresforschung wird von der Reederei Briese Schiffahrts GmbH & Co. KG (Leer/Ostfriesland) gestiftet, die für die Bereederung der mittelgroßen deutschen Forschungsschiffe, wie z. B. die ELISABETH MANN BORGESE und die HEINCKE, sowie der großen Forschungsschiffe METEOR und SONNE zuständig ist. Das IOW betreut die Preisvergabe wissenschaftlich. Seit 2010 werden jährlich herausragende Promotionen in der Meeresforschung prämiert, deren Ergebnisse in engem Zusammenhang mit dem Einsatz von Forschungsschiffen und der Verwendung und Entwicklung von Technik und/oder Datenerhebung auf See stehen.

## Informationen zum BRIESE-Preisträger 2018:
Dr. Jens D. Müller promovierte im Juni 2018 an der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Rostock. Originaltitel der Arbeit „OCEAN ACIDIFICATION IN THE BALTIC SEA: INVOLVED PROCESSES, METROLOGY OF PH IN BRACKISH WATERS, AND CALCIFICATION UNDER FLUCTUATING CONDITIONS“ (verfügbar unter: https://doi.org/10.18453/rosdok_id00002303) Note: 1 mit Auszeichnung („summa cum laude“); Betreuer: Prof. Dr. Gregor Rehder, Professor für Meereschemie und stellvertretender Leiter der IOW-Sektion Meereschemie

Jens Daniel Müller (Jahrgang 1986) wandte sich erst nach seinem Bachelor-Abschluss in Chemie an der Universität Marburg der Meeresforschung zu. Er studierte Biologische Ozeanographie am Kieler GEOMAR (2010 – 2012) und fertigte seine Masterarbeit am Bremerhavener Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, über die Ökologie chilenischer Miesmuscheln an. In seiner Promotionsarbeit (2014 – 2018) am IOW konzentrierte er sich dann auf die Ostsee und die Biogeochemie ihres CO2-Kreislaufes. In diesem Rahmen entstand neben Publikationen in Fachzeitschriften auch die gemeinsam mit seinem IOW-Kollegen Dr. Bernd Schneider verfasste Monographie „Biogeochemical transformations in the Baltic Sea: Observations through carbon dioxide glasses“, die 2017 im renommierten Springer-Wissenschaftsverlag erschien. Seit Juli 2018 ist Müller als Post-Doc in der IOW-Arbeitsgruppe „Biogeochemie Umweltrelevanter Gase“ tätig. Im Lauf seines Werdegangs erhielt er verschiedene Auszeichnungen und Stipendien, zuletzt den Early-Career Grant der National Geographic Society.

### Kontakte Presse- und Öffentlichkeitsarbeit:
Leibniz-Institut für Ostseeforschung Warnemünde (IOW):
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Briese Schiffahrts GmbH & Co. KG
Research | Forschungsschifffahrt
Sabine Kruse | Tel.: 0491 92520 164 | sabine.kruse@briese.de

Quelle: IDW 

(nach oben)


Vor einer möglichen neuen Grippewelle: Was gibt es außer Impfungen?

Alexander Pradka Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Im Februar steigt die Zahl der Grippekranken wieder an – gut möglich, dass eine neue Krankheitswelle auf uns zusteuert. Nicht überall in Deutschland sind ausreichend Impfstoffe vorhanden. Viele möchten sich auch gar nicht impfen lassen. Es gibt Alternativen, wie man sich schützen kann. Und selbst wenn die ersten Symptome auftreten, sind Therapieformen außerhalb der Schulmedizin vorhanden, die das Schlimmste verhindern können. Dabei spielt der Faktor Zeit eine wesentliche Rolle.

„Wir unterscheiden zunächst zwischen präventiven und therapeutischen Maßnahmen. Wer einen natürlichen Schutzwall vor Viren aufbauen möchte, hat eine ganze Reihe von Möglichkeiten“, sagt Prof. Dr. med. Peter W. Gündling, an der Carl Remigius Medical School Dekan für den Masterstudiengang Naturheilkunde und Komplementäre Medizin. Die Carl Remigius Medical School gehört zum Fachbereich Gesundheit & Soziales der Hochschule Fresenius mit Sitz in Idstein.

„Gute Voraussetzungen bringen diejenigen mit, die sich gesund ernähren und auch in der kalten Jahreszeit regelmäßig Bewegung an der frischen Luft suchen.“ Gesunde Ernährung, das heißt in diesem Fall reich unter anderem an Vitamin C, das wir über frisches Obst und Gemüse zu uns nehmen. Es ist unser stärkster Immunaktivator. Solche Mahlzeiten sollten aber nicht mehr abends zu sich genommen werden. „Das stört den Darm, der den größten Teil unseres Immunsystems beheimatet“, so Gündling. Neben diesen allgemein bekannten Maßnahmen gibt es aber noch weitere Methoden, die für Schutz sorgen und die nicht jeder kennt.

„Tatsächlich schützt der regelmäßige Besuch der Sauna sehr gut vor Infekten. Da braucht es auch keine großen Besonderheiten, ein- bis zweimal in der Woche klassisch-finnisch reicht vollkommen aus.“ Generell seien Wasseranwendungen nach Ansicht des Mediziners ratsam. Auch das so genannte ansteigende Fußbad verspricht Schutz oder Linderung. „Das Wasser sollte bis kurz unter dem Knie stehen und zu Beginn eine indifferente Temperatur, also circa 34 Grad Celsius, haben“, beschreibt Gündling. Dann führt man mit einem Schlauch langsam, das heißt über 10-20 Minuten, heißes Wasser zu, bis eine Temperatur von rund 43 Grad Celsius erreicht ist. „Bei dieser Anwendung öffnen sich die Blutgefäße und das gesamte Immunsystem wird aktiviert. Würde ich die Beine direkt in zu heißes Wasser stellen, ziehen die Adern sich zusammen und die positive Wirkung bleibt aus. Dem Wasser kann man noch Thymian oder Senfmehl beimischen, das verstärkt die Wirkung.“

Eine weitere wirksame Anwendung ist die Eigenblutbehandlung. Nach der Entnahme am Arm wird eine kleine Menge Blut wieder in den Gesäßmuskel eingespritzt. Dabei kann das Blut zusätzlich mit homöopathischen Mitteln versetzt werden. Auch eine Infusion mit hochdosiertem Vitamin C ist hilfreich. Sie hat den Vorteil, dass das Vitamin ohne Umwege in die Blutbahn gelangt und so deutlich stärker wirkt. Diese Methode kann sowohl präventiv als auch therapeutisch zur Anwendung kommen.

Wer bereits Symptome spürt, sollte möglichst schnell Gegenmaßnahmen einleiten. Stark antivirale Wirkung entfaltet Zistrosenextrakt. „Sobald man ein Kratzen im Hals oder ein Kribbeln in der Nase verspürt, sollte man davon eine Lutschpastille einnehmen“, empfiehlt Gündling. „Dann wird die Infektion meist sofort gestoppt.“ Sowohl antivirale als auch antibakterielle Effekte zeigt Pelargonienextrakt, der zusätzlich schleimlösend wirkt. Entsprechende Präparate sind in der Apotheke erhältlich. „Damit lassen sich nicht alle Viren neutralisieren“, sagt Gündling, „aber zumindest ein großer Teil. Den verbleibenden Rest schafft der Körper dann meist alleine. Auf diesem Weg werden Antikörper gebildet. Damit haben wir einen ähnlichen Effekt wie bei einer Impfung.“

Über die Carl Remigius Medical School
Die Carl Remigius Medical School (CRMS) besteht seit 2016. Sie ist Teil des Fachbereichs Gesundheit & Soziales der Hochschule Fresenius, die mit rund 13.000 Studierenden zu den größten privaten Präsenzhochschulen Deutschlands zählt. Der Name geht zurück auf Carl Remigius Fresenius, der 1848 in Wiesbaden eine Laborschule zur Ausbildung von Chemikern gegründet hat – Vorläufer der heutigen Hochschule Fresenius. Das Bildungsangebot der CRMS umfasst innovative pflegerische, gesundheitsökonomische und medizinnahe Bachelor- und Master-Studiengänge, wie etwa Physician Assistance, sowie im Bereich Ausbildung eine Hebammenschule in Frankfurt am Main. Die Carl Remigius Medical School ist bundesweit mit unterschiedlichen Bildungsangeboten an den Standorten in Idstein, Frankfurt am Main, Hamburg, Köln und München vertreten.

Weitere Informationen:
www.carl-remigius.de

Quelle: IDW 

(nach oben)


Kritik an Umsetzung der Energiewende nimmt zu – Bevölkerung will sozialen Ausgleich

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.

Eine große Mehrheit der Bevölkerung steht weiterhin hinter der Energiewende – quer durch alle Bildungs-, Einkommens- und Altersgruppen. Die Befragten schätzen die Energiewende als Gemeinschaftsaufgabe ein, an der sie selbst mitwirken möchten. Kritik gibt es allerdings an der Umsetzung durch die Bundesregierung. Dies sind einige der Ergebnisse des 2018 zum zweiten Mal erstellten Sozialen Nachhaltigkeitsbarometers zur Energiewende, das in Berlin vom Institut für transformative Nachhaltigkeitsforschung (IASS) vorgestellt wurde. Über 6500 Bürgerinnen und Bürger in Deutschland sind dafür befragt worden.

Im Vergleich mit dem ersten Sozialen Nachhaltigkeitsbarometer der Energiewende von 2017 ist bemerkenswert, dass mehr Menschen in Deutschland die Energiewende als Gemeinschaftsaufgabe betrachten. Kritisch sehen die Befragten jedoch die Umsetzung der Energiewende durch die Bundesregierung: Drei Viertel der Befragten bewerten die Energiewende als „teuer“, über die Hälfte als „chaotisch“ und „ungerecht“. Die Bevölkerung wünscht sich zudem, dass es beim Klimaschutz schneller vorangeht, aber auch, dass soziale Gerechtigkeit stärker als bisher berücksichtigt wird.

Skepsis gibt es bei der Bereitschaft, mehr für den Klimaschutz zu zahlen, eine relative Mehrheit möchte dafür eine Entlastung. Bei der Zustimmung zur Elektromobilität und der Investition in eine eigene Wind- oder Solaranlage gibt es Zurückhaltung.

Das zweite Soziale Nachhaltigkeitsbarometer zur Energiewende wurde vom Institut für transformative Nachhaltigkeitsforschung (IASS), der 100 prozent erneuerbar Stiftung und der innogy Stiftung für Energie und Gesellschaft erstellt, die gemeinsam die Partnerschaft dynamis bilden.

Ortwin Renn, geschäftsführender Direktor am IASS sagt zu den Ergebnissen: „Die Menschen in Deutschland wollen die Energiewende und sie haben ein feines Gespür für ein ökologisches, sozial gerechtes Energiesystem und nachhaltigen Klimaschutz. Mit der Umsetzung der Energiewende verbinden jedoch viele inzwischen ein zu wenig abgestimmtes und geordnetes Vorgehen der Parteien – die kritische Sicht auf die Energiepolitik der Parteien hat stark zugenommen. Bemerkenswert ist, dass es vielen schlicht und ergreifend mit der Energiewende nicht schnell genug vorangeht. Gleichzeitig wollen sie aber, dass diejenigen, die unter den möglichen Belastungen der Energiewende leiden, auch solidarisch von den anderen unterstützt werden.“

Daniela Setton, Autorin der Studie und wissenschaftliche Mitarbeiterin am IASS, sagt: „Unsere Ergebnisse zeigen, dass die Menschen in Deutschland gleichermaßen Klimaschutz wie sozialen Ausgleich wollen. Beide Aspekte müssen in zentralen Bereichen der Energiewende stärker zusammengebracht werden, das ist eine der Kernaufgaben der Bundesregierung. So ist es fast der Hälfte der Befragten wichtig, dass der Windausbau an Land nicht gegen die vor Ort betroffene Bevölkerung durchgesetzt wird. Und die Einführung von CO2-Preisen dürfte nur mit einem für die Mehrheit überzeugenden und sichtbaren Kompensationsmechanismus ausreichend Akzeptanz finden. Eine zentrale politische Aufgabe ist aber auch, für die Menschen im Alltag praktikable, attraktive und bezahlbare Handlungsalternativen zum Verbrauch fossiler Energien zu schaffen, daran fehlt es noch, beispielsweise bei der Mobilität aber auch beim Heizen.“

Für René Mono, geschäftsführender Vorstand 100 prozent erneuerbar Stiftung, zeigt das Barometer: „Wir können mit der Energiewende nicht weiter machen wie bisher. Die Menschen fordern eine gerechtere Verteilung der Kosten und einen lösungsorientierten Umgang mit Zielkonflikten. Vor allem aber erscheint ein Aspekt wichtig: Diejenigen, die von der Energiewende betroffen sind, müssen sich als Gewinner der Energiewende fühlen können, nicht als Leidtragende.“

Stephan Muschick, Geschäftsführer innogy Stiftung für Energie und Gesellschaft sagt: „Eine dezentrale, auch auf neuen technologischen Lösungen basierende Energiewende kommt ohne Menschen, die offen sind für neue Rollen, nicht aus. Vor diesem Hintergrund sollten einige Ergebnisse des Barometers als Weckruf verstanden werden – mehr zu werben und mehr Vertrauen zu schaffen für heute noch ungewohnte Anwendungen, inklusive einer verantwortungsvollen Nutzung von Daten.“

Zusammenfassung der Ergebnisse
• Zustimmung zur Energiewende weiterhin hoch
In den Augen einer breiten Mehrheit der Bevölkerung ist die Energiewende grundsätzlich auf dem richtigen Weg. 90 Prozent der Bevölkerung befürworten die Energiewende, quer durch alle Bildungs-, Einkommens- und Altersgruppen, gleichermaßen auf dem Land wie in den Städten. Das sind zwei Prozentpunkte mehr als bei der Befragung 2017.

80 Prozent der Bevölkerung sehen die Energiewende als Gemeinschaftsaufgabe, zu der jeder in der Gesellschaft einen Beitrag leisten sollte. Dies ist eine leichte Steigerung gegenüber dem Vorjahresergebnis (+5). Dem stimmen auch 76 Prozent (+ 6) der einkommensschwächeren Haushalte zu.

• Kritik an der Umsetzung der Energiewende hat zugenommen
Die kritische Sicht auf die Umsetzung der Energiewende hat deutlich zugenommen. 47 Prozent der Befragten bewerten den Stand Energiewende in Deutschland unterm Strich mehrheitlich als negativ. Dies entspricht einer deutlichen Steigerung um 14 Prozentpunkte im Vergleich zur Vorjahresbefragung, bei der noch eine positive Einschätzung überwog.

Die Energiewende wird in allen für die Soziale Nachhaltigkeit relevanten Aspekten wie Gerechtigkeit, Bürgernähe, Kosten und politische Steuerung um mehrere Prozentpunkte kritischer gesehen als im Jahr 2017.

• Unzufriedenheit mit der Energiewende-Politik der Bundesregierung gestiegen
Mehr als die Hälfte der Bevölkerung (61 Prozent) ist mit der Politik der Bundesregierung im Hinblick auf die Umsetzung der Energiewende unzufrieden, dies ist eine deutliche Steigerung um zwölf Prozentpunkte im Vergleich zur Befragung 2017. Auch die Mehrheit der Anhänger der Regierungsparteien ist in Sachen Energiewende mit der Bundesregierung unzufrieden. Als einen der wichtigsten Gründe für die Unzufriedenheit mit der Bundesregierung nennen 58 Prozent derjenigen, die mit der Energiewende unzufrieden sind, eine zu langsame Umsetzung der Energiewende und damit fehlende Wirksamkeit beim Klimaschutz. Knapp über die Hälfte (52 Prozent) stört mit am meisten, dass die soziale Gerechtigkeit nicht ausreichend Berücksichtigung findet.

• Vertrauen in die Energiewende-Kompetenz der Parteien gesunken – nur Grüne legen zu
Erneut kann keine der im Bundestag vertretenen Parteien die Bevölkerung bei der Umsetzung der Energiewende mit großer Mehrheit von sich einnehmen: Fast jeder Dritte (31 Prozent) ist von keiner der Parteien überzeugt, wenn es um Umsetzung der Energiewende geht, dies ist eine Steigerung um acht Prozentpunkte.

Den höchsten Kompetenzwert bei der Energiewende erreichen Bündnis 90/Die Grünen mit 27 Prozent. Aber auch die Grünen können in Sachen Energiewende nur etwa ein Viertel der Bevölkerung überzeugen.

• Bundesweit unverändert hohe Mehrheit für Kohleausstieg – aber in Braunkohleländern nimmt Skepsis zu
Bundesweit liegt die Zustimmung zum Kohleausstieg bei knapp zwei Dritteln der Bevölkerung (64 Prozent, + 1). Damit hat der Ausstieg aus der Kohle inzwischen eine gleich hohe Zustimmung wie der Atomausstieg (64 Prozent, -4). Insgesamt 13 Prozent (+2) lehnen den Kohleausstieg ab, davon 4 Prozent strikt. In den östlichen Bundesländern (inkl. Berlin) ist die Befürwortung des Kohleausstiegs geringer (51 Prozent zu 67 Prozent West) und die Ablehnung leicht erhöht (18 Prozent zu 11 Prozent West).

In den besonders betroffenen Regionen und Bundesländern zeigt sich ein differenzierteres Bild. Trotz einer weiterhin vorhandenen Mehrheit für den Ausstieg ist die Ablehnung in allen Braunkohleländern gestiegen. In der zweitgrößten deutschen Braunkohleregion, der Lausitz, sind 43 Prozent gegen den Kohleausstieg.

• Mehrheit steht hinter Klimaschutzzielen – aber auch für Rücksichtnahme auf Industrie und betroffene Regionen
Eine Mehrheit von 87 Prozent der Bevölkerung steht hinter den deutschen Klimaschutzzielen bis 2020 und will diese trotz eines voraussichtlichen Verfehlens nicht aufgeben. Dies gilt einkommens- und parteiübergreifend.

Die Hälfte (51 Prozent) der Befragten ist jedoch dafür, die Ziele zeitlich aufzuschieben, um den betroffenen Regionen und der Industrie mehr Zeit zur Umstellung zu lassen. Knapp über ein Drittel (36 Prozent) will hingegen, dass die Bundesregierung unbedingte Priorität auf schnellen Klimaschutz legt, auch wenn es in den Regionen zu Belastungen kommt.

• Breite Zustimmung für CO2-Preise – aber Mehrheit will dafür Entlastung
Eine Mehrheit von 54 Prozent findet moderat steigende Energiepreise gerechtfertigt. Allerdings ist diese Haltung bei einkommensstarken Haushalten mit 64 Prozent der Befragten öfter anzutreffen. Jeder Fünfte hält solche Preisveränderungen für nicht gerechtfertigt (22 Prozent). Ebenso würden einkommensstärkere Haushalte mehr für das Autofahren oder Fliegen bezahlen (45 Prozent), während der Anteil bei einkommensschwächeren Haushalten bei 23 Prozent rangiert.

In Kombination mit Entlastungen an anderer Stelle akzeptieren fast die Hälfte (46 Prozent) höhere Preise für mehr Klimaschutz bei Wärmeversorgung oder Mobilität. Der Wunsch nach einer Entlastung ist bei Autobesitzern (48 Prozent) am stärksten verbreitet. Unter den Personen ohne eigenes Auto sprachen sich 31 Prozent dafür aus.

• Verhaltene Zustimmung zur Elektromobilität – aber Mehrheit gegen Verbot von Verbrennungsmotoren bis 2030
Über die Hälfte der Befragten (55 Prozent) befürwortet den Ausbau der Elektromobilität in Deutschland, während 15 Prozent dies ablehnen. Vor allem Jüngere zwischen 18 und 29 Jahren stehen dem Ausbau der Elektromobilität positiv gegenüber: 67 Prozent dieser Zielgruppe befürworten dies. Etwas mehr als die Hälfte der Bevölkerung (54 Prozent) lehnt ein Verbot des Verbrennungsmotors bis 2030 ab; dies gilt weitestgehend parteiübergreifend.

• Solar-Dachanlagen: mit Abstand am beliebtesten unter den erneuerbaren Technologien
Nur 5 Prozent lehnen den Ausbau von Solardächern ab, während sich 81 Prozent der Bevölkerung klar für Solaranlagen auf Dächern aussprechen, selbst in stark besiedelten Gebieten (80 Prozent). Damit nehmen Dachanlagen den Spitzenplatz unter den erneuerbaren Technologien ein. Denn im Gegensatz dazu lehnen wiederum 22 Prozent der Bevölkerung den Ausbau von Windanlagen an Land ab, sieben Prozent sogar strikt.

• Windausbau an Land: Anzahl der Anlagen im direkten Wohnumfeld zentraler Faktor für Akzeptanz
Auch bei großer Betroffenheit von Windanlagen im unmittelbaren Wohnumfeld (unter fünf Kilometer) fühlen sich die Menschen davon mehrheitlich nicht gestört. Dies ändert sich aber, wenn sich die Anlagen in geringer Entfernung vom Wohnhaus stark häufen. Auch sinkt dann die Akzeptanz: 69 Prozent der Personen, die sich von einer Windanlage in ihrer Nähe gestört fühlen, lehnen den weiteren Ausbau von Windanlagen an Land ab. Diese Bevölkerungsgruppe beurteilt die Energiewende zugleich öfter als ungerecht (80 Prozent) und elitär (69 Prozent) als diejenigen, die sich nicht gestört fühlen. Eine große Mehrheit von denjenigen (83 Prozent), die sich von Windrädern in der Wohnumgebung gestört fühlen, kann sich auch vorstellen, gegen weitere geplante Windräder zu protestieren

• Knappe Mehrheit findet: Bürgerbeteiligung wichtiger als schneller Windausbau
Eine Mehrheit von 86 Prozent spricht sich für die Beteiligung der Bürgerinnen und Bürger am Planungsprozess von Windanlagen aus, Betroffene sollen sogar die letzte Entscheidung darüber haben, ob in einer Region weitere Windanlagen gebaut werden (55 Prozent). Bezogen auf die Gesamtbevölkerung finden fast die Hälfte, dass eine Bürgerbeteiligung wichtiger sei als ein schneller Ausbau.

• Mitwirkung als „Prosumer“: Wohnsituation ist entscheidend
Wer bisher in eine Solar- oder Windenergieanlage investiert hat, ist in der Regel Eigenheimbesitzer (93 Prozent). Lediglich vier Prozent sind Mieterinnen und Mieter. Jeder Fünfte wäre grundsätzlich bereit, innerhalb der kommenden zwei Jahre in eine eigene Solar- oder Windanlage zu investieren, während sich dies mehr als die Hälfte (62 Prozent) nicht vorstellen können. 41 Prozent begründen ihre fehlende
Investitionsbereitschaft damit, dass sie in einem Mietverhältnis leben, jeweils 28 Prozent geben an, dass es sich für Sie nicht lohne oder zu teuer sei.

• Flexibilität beim Stromverbrauch – aber wenig Interesse an flexiblen Tarifen
Im Hinblick auf die Nutzung von Waschmaschine und Geschirrspüler gibt eine Mehrheit der Haushalte an, beim Stromverbrauch flexibel zu sein. Das Interesse an der Nutzung flexibler Tarife mit schwankenden Strompreisen ist aber gering und liegt bei nur 8 Prozent der Befragten. Sollte es flexible Stromtarife geben, dann würden die meisten Befragten (42 Prozent) eine digitale Anzeige wählen – das sogenannte Ampelmodell – das den Haushalten die Strompreise anzeigt, aber ihnen die Entscheidung überlässt, ob sie ihren Stromverbrauch anpassen oder nicht. Etwa drei Viertel (74 Prozent) lehnen es ab, dass der Energieversorger von außen den Stromverbrauch der Haushaltsgeräte nach der Preisentwicklung steuert.

Wissenschaftliche Ansprechpartner:
Daniela Setton
Telefon: +49 331 28822 389
E-Mail: daniela.setton@iass-potsdam.de

Originalpublikation:
https://www.iass-potsdam.de/sites/default/files/2019-02/IASS_Nachhaltigkeitsbaro…

Weitere Informationen:

https://www.iass-potsdam.de/de/news/soziales-nachhaltigkeitsbarometer-energiewen…

Quelle: IDW 

(nach oben)


Eine für alles. Biogassystem der Zukunft

Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik und Bioökonomie e.V. (ATB)

Biogas hat Zukunft, prognostizieren WissenschaflerInnen des Potsdamer Leibniz-Instituts für Agrartechnik und Bioökonomie. In einem umfassenden Review, der vor Kurzem im Fachblatt energies im Open Access erschienen ist, skizzieren sie den interdisziplinären Forschungsbedarf für die Biogasproduktion der Zukunft als Element einer bioökonomischen Kreislaufwirtschaft – von Mikrobiologie bis Data Science.

Nach fast zwei Jahrzehnten subventionierter und auf Energiepflanzen ausgerichteter Entwicklung steht die landwirtschaftliche Biogasproduktion in Deutschland an einem Scheideweg. Eine Neuausrichtung ist erforderlich, um Biogasanlagen als integralen Bestandteil einer biobasierten Kreislaufwirtschaft für die Zukunft fit zu machen.

Die Herausforderungen bestehen darin, die Biogasproduktion von Energiepflanzen auf Reststoffe umzustellen, sie flexibel im Hinblick auf wechselnde Einsatzstoffe, eine bedarfsgerechte Energieproduktion und die Erzeugung hochwertiger Dünger zu gestalten und sie insgesamt effizienter zu machen. Der Großteil der mehr als 9.000 vorhandenen Anlagen besteht aus Rührkesselreaktoren, die auf Basis weitgehend gleichbleibender und leicht vergärbarer Stoffmischungen mit Mais und Rindergülle arbeiten. Künftig müssen Biogasanlagen in der Lage sein, ein breites Spektrum schwerer vergärbarer Reststoffe wie Festmist, Grünschnitt oder Siedlungsabfälle in wechselnder Zusammensetzung aufzunehmen und daraus flexibel Energie zu erzeugen, um das witterungsbedingt schwankende Angebot von Solar- und Windenergie auszugleichen. Dies stellt hohe Anforderungen an die Anlagentechnik und die Steuerung des komplexen und sensiblen biologischen Prozesses der anaeroben Vergärung.

In ihrem Artikel beschreiben die Potsdamer WissenschaftlerInnen die Biogasanlage der Zukunft: Diese wird wissensbasiert und weitgehend automatisiert arbeiten, modular aufgebaut sein, zusätzliche Produkte erzeugen und sich standortspezifisch in ein lokales Umfeld von Reststoffaufkommen und Produktbedarf einpassen.

Allerdings bedarf es umfassender interdisziplinärer Forschung, um dieses Zukunftskonzept zu verwirklichen. „Wir haben in den letzten Jahren geeignete Reaktortypen und effiziente Verfahren für kritische Einsatzstoffe wie Stroh oder Landschaftspflegegut entwickelt. Und wir wissen mittlerweile, dass ca. 2.000 Mikroorganismenarten am Prozess beteiligt sind, wobei wir nur von einem Bruchteil (1 bis 2 %) ihre Funktion im Prozess kennen. Um im laufenden Betrieb unterschiedlichste, auch problematische Reststoffe flexibel zuführen zu können – je nachdem, was gerade wann in welchen Mengen anfällt – und dabei den Biogasprozess weiterhin gut zu beherrschen, brauchen wir ein genaueres Detailverständnis der Prozesse, die Entwicklung von Sensoren für die laufende chemisch-physikalische und biologische Prozesskontrolle und den Einsatz moderner Methoden aus dem Bereich Data Science wie maschinelles Lernen für eine selbstlernende Prozesssteuerung“, so Prof. Prochnow.

Sensorgestützte und datengetriebene Modelle in Verbindung mit modularer Verfahrenstechnik sollen künftig dafür sorgen, den Prozess der anaeoben Vergärung so präzise zu steuern, dass die Reststoffverwertung und die Energieproduktion dem Bedarf entspricht. „Voraussetzung ist, dass wir verstehen, wie die mikrobiellen Gemeinschaften im Reaktor auf Managementmaßnahmen reagieren und wie sich diese Reaktion auf den Abbauprozess auswirkt“, unterstreicht Dr. Susanne Theuerl, Mikrobiologin am ATB. „Letztlich geht es darum, Optionen der Prozesssteuerung zu simulieren, automatisiert Reaktionen auszulösen oder Empfehlungen für den Anlagenbetreiber abzuleiten.“
War die Biogasproduktion ursprünglich ausschließlich auf die Bereitstellung erneuerbarer Energien ausgerichtet, kann die anaerobe Vergärung als integraler Bestandteil künftiger Bioraffineriekonzepte auch zur Produktion von Basischemikalien und zum Recycling von Nährstoffen und organischem Kohlenstoff beitragen. Hier gilt es nach Ansicht der Potsdamer WissenschaftlerInnen, individuelle und sehr spezifische Lösungen für das jeweilige lokale Umfeld zu identifizieren. Letztlich müssen, um die Leistungsfähigkeit zukünftiger landwirtschaftlicher Biogasanlagen zu gewährleisten, Geschäftsmodelle und -umgebungen entwickelt werden, die zu einer für Landwirte und Anlagenbetreiber rentablen und akzeptierten Produktion beitragen.

Mehr als 9.000 Biogasanlagen bundesweit produzieren derzeit Energie aus Biomasse. Das Erneuerbare-Energien-Gesetz (EEG), das seit dem Jahr 2000 die Einspeisung von Strom aus erneuerbaren Quellen ins Netz finanziell förderte, hatte starke Anreize für den Bau von Biogasanlagen und auch für den Anbau von Energiepflanzen gesetzt. Die Anzahl der Biogasanlagen war von 2004 bis 2012 von 1050 auf 8292 gestiegen, im gleichen Zeitraum weitete sich die Anbaufläche für Silomais von 1,2 Mio. ha auf 2,0 Mio. ha aus. Angesichts der gesellschaftlichen Debatte über Tank oder Teller gerieten die Vorteile der Biogasproduktion weitgehend aus dem Blick. Mit den Novellierungen des EEG seit 2014 war die Förderung drastisch zurückgefahren worden.

Die Forschung des Leibniz-Instituts für Agrartechnik und Bioökonomie e.V. (ATB) an der Schnittstelle von biologischen und technischen Systemen hat das Ziel, Grundlagen für nachhaltige bioökonomische Produktionssysteme zu schaffen. Dazu entwickelt und integriert das ATB neue Technologien und Managementstrategien für eine wissensbasierte, standortspezifische Produktion von Biomasse und deren Nutzung für die Ernährung, als biobasierte Produkte und Energieträger – von der Grundlagenforschung bis zur Anwendung.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Annette Prochnow – Abteilungsleitung Technikbewertung und Stoffkreisläufe
Tel.: 0331 5699-210, E-Mail: aprochnow@atb-potsdam.de
Dr. Susanne Theuerl – Abteilung Bioverfahrenstechnik
Tel.: 0331 5699-900, E-Mail: stheuerl@atb-potsdam.de

Originalpublikation:
Theuerl, S.; Herrmann, C.; Heiermann, M.; Grundmann, P.; Landwehr, N.; Kreidenweis, U.; Prochnow, A. The Future Agricultural Biogas Plant in Germany: A Vision. Energies 2019, 12 (3), 396; https://doi.org/10.3390/en12030396

Quelle: IDW 

(nach oben)


Forschergruppe der TH Lübeck untersucht Grundwasserneubildung in Zypern und Jordanien

Frank Mindt Kommunikation/ Pressestelle
Technische Hochschule Lübeck

In einem europäischen Forschungsprojekt namens IsoMed (Isotopenhydrologie in Mediterranen Ländern) erforscht ein Team der Technischen Hochschule Lübeck mit Partnern aus Zypern und Jordanien die Neubildung von Grundwasser im östlichen Mittelmeerraum. Unter der Leitung von Prof. Dr. Christoph Külls, Labor für Hydrologie der TH Lübeck arbeiten das Forschungszentrum Cyprus Institute, der Geologische Dienst von Zypern und die Deutsch-Jordanische Universität GJU in Amman in IsoMed gemeinsam an Lösungen zur nachhaltigen Nutzung des Grundwassers.

Finanziert wird IsoMed im Rahmen des Europäischen Forschungsprogramm „ERANET Mediterranean“ durch das Bundesministerium für Bildung und Forschung. Es hat eine Laufzeit von drei Jahren. Das Ziel der gemeinsamen Forschung ist es, neue und effektivere Messmethoden zu entwickeln, um die vorhandene Menge und Erneuerungsraten des Grundwassers in den südöstlichen Mittelmeerländern genau zu bestimmen. Konkret geht es um neue Messmethoden für den Wasserhaushalt in den südlichen Mittelmeerländern. Seit langem ist dort eine Übernutzung des Grundwassers festzustellen. IsoMed soll helfen, die Grundwassernutzung ins Gleichgewicht mit dem natürlichen Wasserdargebot zu bringen.

In Zypern und Jordanien fallen die Grundwasserstände seit einigen Jahrzehnten. Grund dafür sind die Übernutzung der Ressourcen auf der einen und abnehmende Niederschlagsmengen auf der anderen Seite. Die natürliche Neubildung von Grundwasser entsteht durch tiefe Sickerung bis zur Grundwasseroberfläche und entspricht dem, was vom Niederschlag nicht verdunstet oder oberirdisch abfließt. „Um eine nachhaltige Nutzung von Grundwasser zu betreiben, sollte nur so viel Wasser entnommen werden, wie auch neues Wasser entsteht. Wenn der Prozess der kontrollierten Wasserentnahme und Grundwasserneubildung im Gleichgewicht ist, lässt sich auch in den südlichen Ländern des Mittelmeerraums die Wasserwirtschaft über viele Jahre regeln, ohne dass der Grundwasserspiegel sinkt“ sagt Projektleiter Professor Külls.

Allerdings betreiben die Menschen in diesen Ländern intensive Bewässerungslandwirtschaft und nutzen dafür zunehmend Grundwasser. So wird dem Grundwasser oft mehr Wasser entnommen, als durch natürliche Prozesse zugeführt wird. Dadurch sinkt der Grundwasserspiegel in vielen Mittelmeerländern.
„Wenn das nicht korrigiert wird, führt die unkontrollierte Entnahme von Grundwasser langfristig zu katastrohpalen Folgen. Wenn die Wasserspiegel sinken, muss immer tiefer gebohrt werden. Das verteuert das Wasser, weil mehr Energie und Strom zur Förderung aufgewendet werden muss. Sollte der Grundwasserspiegel letztendlich unter der Meereshöhe liegen, beginnt auch eine Versalzung des Grundwassers. Und irgendwann kommen die Bauern dann gar nicht mehr an Wasser und müssen die Landwirtschaft aufgeben. Dieses wollen die zuständigen Behörden in den Ländern natürlich vermeiden. Ihre Intention ist es, die Landwirtschaft so zu gestalten, dass sie auf der verfügbaren Wassermengennutzung beruht.

Dafür steht das Projekt IsoMed. Wir verwenden neue Messverfahren, um belastbare Aussagen zu erhalten, wieviel Wasser neu in den Regionen entsteht, wieviel Grundwasser neu gebildet wird pro Jahr auf verschiedenen Oberflächen in verschiedenen Regionen des Mittelmeerraumes. So können wir empfehlen, wieviel maximal gepumpt werden kann, ohne den Grundwasserhaushalt negativ zu belasten“, sagt Professor Külls.

„Am Ende des Projektes“, so Külls weiter, „wollen wir in der Lage sein, anhand einer Bohrung in einem zeitlichen Umfang von nur drei Stunden plus einem Tag Laborarbeit, herauszufinden, wie groß die Grundwasserneubildung an einem Standort in den letzten drei bis fünf Jahren war. D.h., was früher über einen Zeitraum von mehreren Jahren mit aufwändigen täglichen Messungen von Niederschlag, Verdunstung und Abfluss erfolgte, machen wir heute mit einer Bohrung, die dann im Isotopenlabor ausgewertet wird. Wir können die Daten der hydrologischen Prozesse der letzten Jahre auslesen und so die Wasserflüsse der letzten Jahre rekonstruieren. Mit den Isotopeninformationen können wir auch Niederschläge des Sommers und des Winters unterscheiden und errechnen, wieviel Prozent des Niederschlags jeweils verdunstet ist, wie schnell es durch den Boden geflossen ist, wieviel davon übriggeblieben ist und den Grundwasserspiegel erreicht hat. Im Prinzip können wir so für viele Standorte in Europa, für unterschiedliches Klima, für verschiedene Böden und Gesteine feststellen, wieviel Wasser neu entsteht.“
Von November bis Dezember 2018 lief bereits die erste Messkampagne in Zypern. Mehr als 300 Proben wurden genommen, die im Labor für Hydrologie der TH Lübeck untersucht werden und ersten Daten liefern, um vorhandene Menge und Erneuerungsrate des Grundwassers genau zu bestimmen.

„All diese Informationen stellen wir dann nicht nur der regionalen Wasserwirtschaft, den Diensten, Ministerien und Behörden für die Vergabe von Lizenzen und Wasserrechte zur Verfügung, sondern auch den Landwirten. Wir wollen sie an den Ergebnissen direkt beteiligen, damit sie selber wissen, wieviel Wasser sie zur Verfügung haben und zwar in den Einheiten, mit denen sie vertraut sind, damit sie auch selber Anpassungen vornehmen können“, schließt Külls.

Weitere Informationen:

http://www.th-luebeck.de

Quelle: IDW 

(nach oben)


Grippewellen im Keim ersticken

Dr. Stefan Kiesewalter Marketing – Strategisches Management
Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM

Mainzer Fraunhofer Wissenschaftler entwickeln ein Point-of-Care System zur schnellen Diagnose von Influenzasubtypen. So könnte es bald eine schnelle Antwort auf die Frage geben, an welchem Subtyp Patienten leiden und der Inkubationsweg somit konsequent abgeschnitten werden.

In dem vom BMBF geförderten Projekt Panplex entwickeln und bauen die Wissenschaftler am Fraunhofer-Institut für Mikrotechnik und Mikrosysteme ein Diagnosesystem und einen mikrofluidischen Chip, welche komplett automatisiert den Nachweis über mehrere Grippesubtypen erbringen sollen. „Ziel ist es, schnell genaue Aussagen über die Grippeart treffen zu können, um schneller reagieren und gezielter behandeln zu können“, erläutert Dr. Tobias Schunck, Projektleiter von Panplex.

Dafür wurde im bisherigen Projektverlauf das Panplex-System realisiert und jetzt erstmals erfolgreich getestet. „Wir konnten zeigen, dass der Nachweis verschiedener Influenzasubtypen zuverlässig funktioniert“, so Schunck. In der verbleibenden Restprojektlaufzeit soll die vollständige Integration aller Prozessschritte im Gerät erfolgen sowie die Validierung der Daten. Am Ende des Projektes soll der Prozess komplett automatisiert ablaufen: Die arbeits- und dementsprechend zeitaufwendige Probenvorbereitung muss dann nicht mehr von Hand gemacht werden, sondern läuft im Gerät ab. Dadurch werden Fehlerquellen eliminiert, der Prozess wird schneller und genauer.

Bisher müssen die Proben noch ins Labor geschickt werden – mehrere Stunden oder gar Tage gehen da ins Land, bevor Patienten und Ärzte um die Lage wissen. Gerade bei schweren Grippeerkrankungen gilt es zügig zu handeln, auch im Interesse der Mitmenschen. Grippewellen, so wie in der Influenzasaison 2017/2018 mit über 300.000 Erkrankungen und fast 1.000 Todesfällen, zeigen die Aktualität und Relevanz des Themas.

Das Panplex System der Mainzer Wissenschaftler soll in der aktuellen Grippesaison in klinischen Tests an der Uniklinik Aachen auf Herz und Nieren geprüft werden. Zukünftig stehen auch weitere Anwendungsfälle auf der Agenda des Teams um Tobias Schunck. Das System ist als Plattform-Technologie ausgelegt und kann somit je nach Bedarf an neue Erreger angepasst werden. Jegliche Art von Erregern können so nachgewiesen werden, was im Kampf gegen epi- und pandemische Krankheiten (unter anderem z. B. Vogelgrippe und SARS) den entscheidenden Vorteil bringen kann.

Das Projekt
Im Projekt »PanPlex – Multiplex-basierter Point-of-Care Nachweis von Erregern mit pandemischem Potential«, gefördert vom Bundesministerium für Bildung und Forschung unter dem Förderkennzeichen 13N13846, arbeitet das Fraunhofer-Institut für Mikrotechnik und Mikrosysteme gemeinsam mit der r-Biopharm AG an der Verfügbarkeit einer schnellen und mobilen Diagnostik bei pan- oder epidemischen Ausbruchsgeschehen.

Wissenschaftliche Ansprechpartner:
Dr. Christian Freese

Weitere Informationen:
https://www.imm.fraunhofer.de/de/presse-publikationen/panplex.html

Quelle: IDW 

(nach oben)


Traktoren tanken Klimaschutz – TFZ bescheinigt Biokraftstoff Langzeit-Praxistauglichkeit

Ulrich Eidenschink Presse- und Öffentlichkeitsarbeit
Technologie- und Förderzentrum im Kompetenzzentrum für Nachwachsende Rohstoffe (TFZ)

„Empfehlenswert!“ so ließe sich die Bilanz der Wissenschaftler vom Technologie- und Förderzentrum (TFZ) beschreiben, die in einem Langzeitprojekt moderne Traktoren auf Funktionalität, Effizienz und Umweltwirkung analysiert haben. Das Besondere daran: Betankt wurden die Traktoren mit Rapsölkraftstoff. In dem jetzt veröffentlichten Forschungsbericht fallen die Ergebnisse äußerst positiv aus: Sowohl bei der Praxistauglichkeit als auch beim Klimaschutz überzeugt der Biokraftstoff. Fazit: Landwirte können sich auf die neue Technik verlassen.

Die wissenschaftlichen Ergebnisse beruhen auf 60.000 Einsatzstunden von 20 Traktoren, die mit genormtem Rapsölkraftstoff (DIN 51605) betankt wurden. Motorleistung, Kraftstoffverbrauch und Abgasemissionen unterschieden sich in wiederkehrenden Messungen kaum von mit Diesel betriebenen Traktoren. Hinsichtlich der Abgasemissionen belegen die Messungen am Traktorenprüfstand sowie mit portabler Emissionsmesstechnik (PEMS) im Feld, dass im Rapsölbetrieb neueste Standards erfüllt werden und die Abgasnachbehandlungssysteme zuverlässig arbeiten.

Dr. Edgar Remmele, Sachgebietsleiter am TFZ, stellt den Nutzen für den Klimaschutz heraus: „Der Antrieb von modernen Traktoren mit regional erzeugtem Rapsölkraftstoff verursacht rund 90 Prozent weniger Treibhausgasemissionen als Diesel.“ Überall dort, wo die Elektromobilität an ihre Grenzen stößt, sollten deshalb bevorzugt Biokraftstoffe eingesetzt werden. Hierzu zählen laut Remmele vor allem Maschinen in der Land- und Forstwirtschaft.

Das Projekt wurde vom Bayerischen Staatsministerium für Wirtschaft, Landesentwicklung und Energie finanziert. Der Forschungsbericht ist unter www.tfz.bayern.de als kostenloser Download abrufbar.
Wissenschaftliche Ansprechpartner:

Dr. Edgar Remmele, Sachgebietsleiter Biogene Kraft-, Schmier- und Verfahrensstoffe

Originalpublikation:
http://www.tfz.bayern.de/mam/cms08/biokraftstoffe/dateien/tfz_bericht_60_monitra…

Quelle: IDW 

(nach oben)


Influenzaviren von Fledermäusen könnten auf Menschen überspringen

Rita Ziegler Kommunikation
Universität Zürich

Fledermäuse sind nicht nur Träger tödlicher Ebolaviren, sondern auch ein Reservoir neuartiger Influenzaviren. Diese in Südamerika entdeckten Grippeviren besitzen grundsätzlich die Fähigkeit, auch Zellen von Menschen und Nutztieren zu befallen, wie Forschende der Universität Zürich zeigen.

Die jährlich wiederkehrende Grippewelle wird von Influenzaviren ausgelöst, die nur Menschen infizieren können. Jene Influenzatypen, die in Vögeln oder Schweinen zirkulieren, sind für den Menschen normalerweise nicht gefährlich. Selten springt ein Vogel- oder Schweinevirus aber auf den Menschen über – in der Fachwelt Zoonose genannt -, was im schlimmsten Fall zu einer weltweiten Influenzapandemie mit zahlreichen schweren Erkrankungen und Todesfällen führt.

Fledermäuse als Reservoir für gefährliche Viren
Vor rund sechs Jahren wurden in Südamerika neuartige Influenzaviren entdeckt – in Fledermäusen. Die fliegenden Säugetiere stehen schon seit einiger Zeit im Fokus der Virologen. Denn sie sind Träger vieler verschiedener Viren, darunter auch sehr gefährliche wie Ebolaviren. Bisher war allerdings unklar, ob die Fledermaus-Influenzaviren auch für den Menschen eine Bedrohung darstellen. Ein internationales Forschungsteam unter der Leitung der Universität Zürich (UZH) hat nun herausgefunden, dass die neuartigen Grippeviren potenziell auch Menschen oder Nutztiere infizieren können.

Weltweite Suche nach der Eintrittspforte
Die bisher bekannten Influenzaviren dringen über Sialinsäure in die Wirtszellen ein. Diese chemischen Gruppen befinden sich auf der Oberfläche fast aller Zellen des Menschen sowie diverser Tiere. Dies ist einer der Gründe, warum Influenzaviren auch sehr unterschiedliche Arten wie Enten, Hühner, Schweine und Menschen befallen. Im Unterschied dazu binden die Fledermaus-Influenzaviren nicht an Sialinsäure. Mehrere Forschungsteams weltweit suchten deshalb nach jenem Rezeptor, über den sie sich in die Zellen einschleusen.

Fledermausviren dringen über MHC-II-Moleküle in Zelle
Diese Eintrittspforte haben Silke Stertz und ihr Team am Institut für Medizinische Virologie der UZH nun entdeckt. «Die Influenzaviren benützen sogenannte MHC-II-Moleküle für ihren Eintritt in die Wirtszellen», sagt Studienverantwortliche Stertz. Diese Proteinkomplexe sitzen normalerweise auf der Oberfläche gewisser Immunzellen und sind zuständig dafür, körpereigene und körperfremde Zellen und Strukturen zu unterscheiden. Auch einige andere Virusarten benützen diesen «Eingang», um in die Zellen zu gelangen.

Potenzielles Risiko für Menschen und Nutztiere
«Überraschend war, dass die Fledermaus-Influenzaviren nicht nur MHC-II-Komplexe von menschlichen Zellen, sondern auch jene von Hühnern, Schweinen, Mäusen und verschiedenen Fledermausarten nutzen können», erläutert UZH-Doktorand Umut Karakus und Erstautor der Studie. Die Influenzaviren der Fledermaus besitzen somit – zumindest auf Stufe des Zelleintritts – das Potenzial, sowohl Menschen wie auch Nutztiere zu infizieren. «Nachgewiesen wurden solche Infektionen bisher noch nicht. Unsere Ergebnisse zeigen aber, dass die Viren diese Fähigkeit grundsätzlich haben», ergänzt Silke Stertz. Für die Virologin Grund genug, die potenziell gefährlichen Viren weiter zu untersuchen. Zumal sich das Problem angesichts von Migration und Reisetätigkeit keineswegs auf Südamerika beschränkt.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Silke Stertz
Institut für Medizinische Virologie
Universität Zürich
Tel. +41 44 634 28 99
E-Mail: stertz.silke@virology.uzh.ch

Originalpublikation:
Umut Karakus, et al. MHC class II proteins mediate cross-species entry of bat influenza viruses. Nature. February 20, 2019. DOI: 10.1038/s41586-019-0955-3

Quelle: IDW 

(nach oben)


Wie können Städte von der Vielsprachigkeit ihrer Einwohner profitieren?

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Manifest zum internationalen Tag der Muttersprache: Kölner Linguist plädiert für Schutz bedrohter Sprachen weltweit / Workshop und Podiumsdiskussion im New Yorker Verbindungsbüro der Universität zu Köln

Professor Dr. Aria Adli vom Romanischen Seminar und Sonderforschungsbereich 1252 „Prominenz in Sprache“ der Universität zu Köln stellt am 21. Februar – dem internationalen Tag der Muttersprache – ein „Manifest“ zum Erhalt von bedrohten Sprachen weltweit vor. Verfasst hat er es gemeinsam mit seinem Kollegen Professor Dr. Gregory Guy (New York University, USA). Die beiden Linguisten plädieren für eine Erweiterung der Soziolinguistik, die sich bislang stark auf die indoeuropäischen Sprachen westlicher Gesellschaften konzentrierten. Stattdessen sollten auch Sprachen in entlegenen Weltregionen stärker berücksichtigt werden.

In vielen Großstädten wächst ein beträchtlicher Anteil der Bewohner mit einer anderen Muttersprache auf als der Landessprache. Diese Vielsprachigkeit hat Auswirkungen auf das Bildungswesen, die Politik und die Gesellschaft. Wie können Städte den Herausforderungen von Mehrsprachigkeit und Vielfalt begegnen – und davon profitieren?
Diese Fragen sind Thema eines Workshops mit anschließender Podiumsdiskussion anlässlich des Internationalen Tags der Muttersprache, den das Verbindungsbüro der Universität zu Köln in New York gemeinsam mit dem Deutschen Wissenschafts- und Innovationshaus und dem Deutschen Konsulat veranstaltet. Bei dieser Gelegenheit werden Adli und Guy ihr „Manifest“ vorstellen. Neben renommierten Wissenschaftlerinnen und Wissenschaftlern nehmen auch Yasemin Pamuk, Leiterin des Bereichs Kultur und Wissenschaft des Generalkonsulats der Bundesrepublik Deutschland in New York, und Marie Paule Roudil, Leiterin des New Yorker UNESCO-Büros und UNESCO-Vertreterin bei den Vereinten Nationen, an der Podiumsdiskussion teil. Die Veranstaltung ist Teil des Deutschlandjahrs „wunderbar together“ 2018/19 in den USA.

Das New Yorker Büro der Universität zu Köln ist eins von drei internationalen Verbindungsbüros in Nordamerika, China und Indien. Sie stärken die internationale Präsenz der Universität und dienen als erste Anlaufstellen für außereuropäische Studierende, Studieninteressierte und Wissenschaftler. Das New Yorker Büro pflegt die Beziehungen zu nordamerikanischen Partnern und bietet Forscherinnen und Forschern Plattformen, um sich zu vernetzen, ihre wissenschaftlichen Ergebnisse zu präsentieren und neue Kooperationen in den USA und Kanada einzugehen.

Inhaltlicher Kontakt:
Dr. Eva Bosbach
Direktorin, Universität zu Köln New York-Büro
+1 212 758 5893
eva.bosbach@uni-koeln.de
Presse und Kommunikation:
Eva Schissler
+49 221 470-4030
e.schissler@uni-koeln.de

Weitere Informationen:
New Yorker Verbindungsbüro:
www.portal.uni-koeln.de/newyork.html
Deutschlandjahr USA:
wunderbartogether.org

Quelle: IDW 

(nach oben)


Neandertaler ernährten sich wirklich hauptsächlich von Fleisch

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie

Eine Besonderheit des modernen Menschen ist sein regelmäßiger Fischkonsum, was sich durch die Analyse von Stickstoffisotopen in Knochen- oder Zahnkollagen nachweisen lässt. Forschende vom MPI für evolutionäre Anthropologie (MPI-EVA) in Leipzig maßen nun bei zwei späten Neandertalern außergewöhnlich hohe Stickstoffisotopenwerte, was traditionell für den Konsum von Süßwasserfisch steht. Eine Analyse der Isotopenwerte einzelner Aminosäuren ergab jedoch, dass sich der erwachsene Neandertaler nicht von Fisch, sondern von großen pflanzenfressenden Säugetieren ernährt hatte. Der zweite Neandertaler war ein noch nicht abgestillter Säugling, dessen Mutter ebenfalls Fleischfresserin gewesen ist.

Die Ernährungsweise der Neandertaler wird in Fachkreisen kontrovers diskutiert: Traditionell gelten sie als Fleischfresser, die große Säugetiere jagten. Es gibt aber auch zahlreiche Belege dafür, dass sie pflanzliche Nahrung zu sich genommen haben. Forschende können die Ernährung unserer Vorfahren rekonstruieren, indem sie die Stickstoffisotopenverhältnisse in einer Probe messen. Diese sind Indikatoren für die trophische Ebene, die Position eines Organismus in einer Nahrungskette. Neandertaler nehmen in den terrestrischen Nahrungsketten eine hohe Stellung ein und verfügen sogar über einen etwas höheren Stickstoffisotopenwert als an denselben Orten lebende Fleischfresser wie Hyänen, Wölfe und Füchse. Diese etwas höheren Werte könnten auf den Verzehr von Mammutfleisch oder Aas zurückgeführt werden. Für einige Neandertaler-Standorte sind auch Beispiele für Kannibalismus bekannt.

Steinzeitliche moderne Menschen, die kurz nach dem Verschwinden des Neandertalers in Frankreich ankamen, haben noch höhere Stickstoffisotopenwerte als dieser, was traditionell als Beleg für den Konsum von Süßwasserfisch interpretiert wird. Die Fischerei sei demzufolge eine für den modernen Menschen typische Tätigkeit. Ob Neandertaler ebenfalls Fisch verzehrten, ist in Fachkreisen umstritten. Als Klervia Jaouen, Erstautorin der Studie und Forscherin am MPI-EVA, ähnlich hohe Stickstoffisotopenwerte, wie sie für den modernen Menschen typisch sind, im Kollagen zweier Neandertaler entdeckten, stellte sich die Frage, ob diese regelmäßig Fisch zu sich genommen haben könnten. Die Neandertaler stammen aus Les Cottés und der Grotte du Renne in Frankreich; doch an keiner der beiden Ausgrabungsstätten wurden archäologische Überreste von Fischen gefunden. Die Messungen waren jedoch an einer Zahnwurzel durchgeführt worden, die die Ernährung zwischen dem vierten und achten Lebensjahr eines Individuums dokumentiert, und an dem Knochen eines einjährigen Babys. Die hohen Stickstoffisotopenwerte könnten also auch darauf hindeuten, dass es sich um noch nicht abgestillte Individuen handelte, was zumindest im Falle des Neandertalers aus Les Cottés (dessen Zahnwurzel untersucht wurde) im Widerspruch zu bisherigen Erkenntnissen stünde, denen zufolge Neandertaler bereits im Alter von etwa einem Jahr abgestillt wurden. Neben einem späten Abstillen könnte auch der Konsum von Süßwasserfisch, Aas oder sogar Kannibalismus die hohen Stickstoffisotopenwerte erklären.

Jaouen und Kolleg*innen wendeten eine neuartige Isotopenanalysetechnik an, um die richtige Erklärung für die außergewöhnlich hohen Stickstoffisotopenanteile zu identifizieren. Die Compound specific isotope analysis (CSIA) ermöglicht eine separate Analyse der im Kollagen enthaltenen Aminosäuren. Die Isotopenzusammensetzungen einiger dieser Aminosäuren werden durch Umweltfaktoren beeinflusst sowie durch die Isotopenwerte der Nahrungsmittel, die ein Individuum verzehrt. Andere werden zusätzlich durch das trophische Level beeinflusst. Erst die Kombination der Isotopenwerte dieser Aminosäuren ermöglicht es den Forschenden, die jeweiligen Beiträge der Umwelt und der trophischen Ebene zur endgültigen Isotopenzusammensetzung des Kollagens zu entschlüsseln. „So konnten wir nachweisen, dass der Neandertaler von Les Cottés eine Fleischfresserin war, die sich fast ausschließlich von landlebenden Säugetieren ernährt hatte. Sie war kein spät entwöhntes Kind, hat auch nicht regelmäßig Fisch verzehrt, sondern ihre Leute scheinen hauptsächlich Rentiere und Pferde gejagt zu haben“, sagt Jaouen. „Wir konnten auch bestätigen, dass es sich bei dem Neandertaler aus der Grotte du Renne um einen noch nicht abgestillten Säugling handelt, dessen Mutter ebenfalls eine Fleischfresserin war“. Interessanterweise stimmt diese Schlussfolgerung auch mit den Beobachtungen der Archäozoolog*innen überein.

Die aktuelle Studie veranschaulicht auch die Bedeutung der neuen Isotopenanalysetechnik für zukünftige Untersuchungen der Ernährungsgewohnheiten von Menschen und Neandertalern in der Vergangenheit. Mit Hilfe der Compound specific isotope analysis ist es den Forschenden gelungen, die außergewöhnlich hohen Stickstoffisotopenwerte richtig einzuordnen. Michael P. Richards von der Simon Fraser Universität in Kanada sagt: „Früheren Isotopenuntersuchungen zufolge ernährten sich die Neandertaler hauptsächlich von Fleisch, was auch durch umfangreiche archäologische Funde der Überreste von Tieren bestätigt wird, die von Neandertalern mitgebracht und deponiert wurden. In jüngster Zeit gab es einige, man könnte fast sagen bizarre Interpretationen von Isotopendaten, denen zufolge Neandertaler sich hauptsächlich von Wasserpflanzen ernährt oder sich gegenseitig aufgegessen haben, was aber beides im direkten Widerspruch zu den archäologischen Belegen steht. Die neuen verbindungsspezifischen Isotopenmessungen bestätigen frühere Interpretationen, denen zufolge Neandertaler sich hauptsächlich von großen Pflanzenfressern ernährten; obwohl sie natürlich auch andere Nahrungsmittel – wie Pflanzen – verzehrt haben.“

Darüber hinaus belegt die aktuelle Studie auch, dass sich die Neandertaler auf eine sehr monotone Art und Weise ernährt haben, auch dann noch als sich ihre materielle Kultur – möglicherweise beeinflusst durch den modernen Menschen – schon zu verändern begonnen hatte. Die Überreste des Neandertalerbabys aus der Grotte du Renne wurden an einer Stelle gefunden, die mit der archäologischen Kultur des Châtelperronien im Zusammenhang steht, einer Technologie, die der des modernen Menschen ähnelt. Die späten Neandertaler waren dem Menschen sehr ähnlich, schufen Höhlenmalereien und trugen Halsketten. Doch im Gegensatz zum Menschen angelten sie nicht. Jean-Jacques Hublin, Direktor der Abteilung für Humanevolution am MPI-EVA, sagt: „Diese Studie bestätigt, dass Homo sapiens, als er nach Europa kam und auf den Neandertaler traf, in direkter Konkurrenz zu diesem um die großen Säugetiere als Nahrungsquelle stand.“ „Der systematische Einsatz einer Kombination von CSIA und Radiokohlenstoffdatierung wird uns dabei helfen zu verstehen, ob beide Arten im entscheidenden Zeitraum tatsächlich die gleichen Überlebens- und Ernährungsstrategien verfolgten“, schlussfolgert Sahra Talamo, Forscherin am MPI-EVA.

Wissenschaftliche Ansprechpartner:
Dr. Klervia Jaouen
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
+49 341 3550-375
klervia_jaouen@eva.mpg.de

Originalpublikation:
Klervia Jaouen, Adeline Le Cabec, Frido Welker, Jean-Jacques Hublin, Marie Soressi, Sahra Talamo
Exceptionally high δ15N values in collagen single amino acids confirm Neandertals as high-trophic level carnivores
PNAS, Januar 2019, https://doi.org/10.1073/pnas.1814087116

Quelle: IDW 

(nach oben)


Neue ESMT-Studie: Tägliches Mittagessen verbessert Leseleistung von Kindern um 18 Prozent

Martha Ihlbrock Corporate Communications and Marketing
European School of Management and Technology (ESMT)

Die hohe Bedeutung regelmäßiger Mahlzeiten für den Lernerfolg von Kindern wird durch neue Forschung der ESMT Berlin untermauert. Grundschüler in Indien, die über einen längeren Zeitraum an der öffentlichen kostenlosen Schulspeisung teilnahmen, erzielten demnach signifikant bessere Lernergebnisse. Rajshri Jayaraman von der ESMT Berlin und Tanika Chakraborty vom Indian Institute of Technology untersuchten in ihrer Arbeit die Auswirkungen des indischen „Midday Meal“-Programms, dem mit über 120 Millionen teilnehmenden Kindern weltweit größten kostenlosen Schulessen.

Der Studie zufolge schnitten Schüler, die bis zu fünf Jahre am Mittagessen teilnahmen, um 18 Prozent besser in Lesetests ab als Kinder, die weniger als ein Jahr Schulessen bekamen. Sie zeigten auch eine um neun Prozent bessere Leistung bei Mathematik-Tests. „Die Wirkung des Ernährungsprogramms scheint kumulativ zu sein bezogen auf die Dauer“, sagt Professor Jayaraman. „Frühere Studien haben Zeiträume zwischen zwei Wochen und zwei Jahren untersucht und konnten die Auswirkungen bisher nicht richtig erfassen – unsere Forschung zeigt, dass der Nutzen des Schulessens bei Kindern zu sehen war, die zwei bis fünf Jahre lang regelmäßig daran teilnahmen.“

Die Studie ist die bisher längste und größte zur Wirkung von regelmäßigem Mittagessen auf den Lernerfolg von Kindern im Grundschulalter. Die Forscherinnen nutzten Daten aus fast 600 Landkreisen in Indien, die über 200.000 Haushalte umfassen. Durch die gestaffelte Einführung des Programms über die verschiedenen Distrikte hinweg konnten sie eine kausale Verbindung zwischen regelmäßigen Mahlzeiten und Lernerfolg feststellen.

Die Ergebnisse bestätigen den erheblichen Wert kostenloser Schulspeiseprogramme für Kinder weltweit. Nach Angaben des Welternährungsprogramms erhielten im Jahr 2013 rund 368 Millionen Kinder – also jedes fünfte Kind – eine kostenlose Schulmahlzeit für insgesamt 75 Milliarden US-Dollar.

Die Studie „School Feeding and Learning Achievement: Evidence from India’s Midday Meal Program“ erscheint im Fachmagazin Journal of Development Economics.

Weitere Informationen:
https://press.esmt.org/de/taegliches-essen-lernerfolg

Quelle: IDW 

(nach oben)


Anti-Baby-Pille beeinflusst Emotionserkennung von Frauen

Jan Meßerschmidt Presse- und Informationsstelle
Universität Greifswald

Obwohl mehr als 100 Millionen Frauen die Anti-Baby-Pille zur Empfängnisverhütung nutzen, ist relativ wenig darüber bekannt, wie die Anti-Baby-Pille das Verhalten und Erleben dieser Frauen beeinflusst. Eine Reihe von kürzlich erschienen Studien legt nahe, dass die Anti-Baby-Pille die Verarbeitung emotionaler Reize und die Regulation emotionaler Reaktionen beeinflussen könnte. Ein Forschungsteam der Universität Greifswald, der Universität Rostock und der Universität Potsdam hat nun in der Zeitschrift Frontiers in Neuroscience eine Studie veröffentlicht, die Hinweise darauf liefert, dass die Anti-Baby-Pille die Emotionsverarbeitung von Frauen beeinflussen könnte.

Die Studie https://www.frontiersin.org/articles/10.3389/fnins.2018.01041/full, die von Dr. Alexander Lischke https://psychologie.uni-greifswald.de/43051/lehrstuehle-ii/klinische-und-physiol… vom Institut für Psychologie https://psychologie.uni-greifswald.de/ der Universität Greifswald geleitet wurde, konnte zeigen, dass Frauen, die die Anti-Baby-Pille nahmen, schlechter im Erkennen von emotionalen Gesichtsausdrücken waren als Frauen, die nicht die Anti-Baby-Pille nahmen. Interessanterweise waren die Frauen, die die Anti-Baby-Pille nahmen, vor allem bei der Verarbeitung von emotionalen Gesichtsausdrücken, die generell schwierig zu erkennen waren, beeinträchtigt. Bei der Verarbeitung von emotionalen Gesichtsausdrücken, die generell leicht zu erkennen waren, waren dagegen keine Beeinträchtigungen feststellbar. Die Ergebnisse zeigen, dass die Frauen, die die Anti-Baby-Pille nahmen, sehr spezifische Einschränkungen bei der Emotionsverarbeitung aufwiesen. Zudem handelte es sich eher um subtile, als um massive Einschränkungen, weshalb fraglich ist, inwieweit diese Einschränkungen tatsächlich Auswirkungen auf das Sozialverhalten dieser Frauen haben könnten.

Dr. Lischke weist daher ausdrücklich darauf hin, dass aufgrund der vorliegenden Ergebnisse nicht davon ausgegangen werden kann, dass Frauen, die die Anti-Baby-Pille nehmen, „emotionsblind“ und damit zu „Problemfällen“ in Beziehungen werden. Um derartige Aussagen treffen zu können, sind weitere Studien notwendig, in denen nicht nur der Einfluss der Anti-Baby-Pille auf die Emotionsverarbeitung, sondern auch auf die Beziehungsgestaltung untersucht wird.

In weiteren Studien möchte Dr. Lischke auch den Mechanismus untersuchen, der möglichen Beeinträchtigungen in der Emotionserkennung und Beziehungsgestaltung zu Grunde liegt. Es scheint zwar plausibel zu sein, dass die Anti-Baby-Pille über eine Modulation der Zyklushormone Estrogen und Progesteron die Aktivität in emotionsverarbeitenden Hirnregionen und damit die Emotionserkennung beeinflusst. Ob dies aber tatsächlich der Fall ist, muss noch nachgewiesen werden. Weitere Studien sind dringend notwendig, vor allem mit einem experimentellen Untersuchungsdesign und umfangreicheren Stichproben, um endgültige Schlussfolgerungen über den Einfluss der Anti-Baby-Pille auf das Erleben und Verhalten von Frauen treffen zu können. Da heute immer mehr Frauen die Anti-Baby-Pille unmittelbar nach Beginn der Pubertät und häufig bis zu Beginn der Menopause einnehmen, sind diese Studien nicht nur für die Wissenschaft, sondern auch für die Öffentlichkeit von Interesse.

Weitere Informationen
Pahnke, R., Mau-Moeller, A., Junge, M., Wendt, J., Weymar, M., Hamm, A. O., & Lischke, A. (2018). Oral contraceptives impair complex emotion recognition in healthy women. Front Neurosci. doi: 10.3389/fnins.2018.01041

Ansprechpartner an der Universität Greifswald
Dr. Alexander Lischke
Institut für Psychologie
Physiologische und Klinische Psychologie/Psychotherapie
Franz-Mehring-Straße 47, 17489 Greifswald
Telefon +49 3834 420 3720
alexander.lischke@uni-greifswald.de
https://www.researchgate.net/profile/Alexander_Lischke

Quelle: IDW 

(nach oben)


„Aktionstag Starkregen“: Fachtagung informiert über effektives Risikomanagement

Anette Schober-Knitz Referat für Presse und Öffentlichkeitsarbeit
HBC Hochschule Biberach

Zuletzt gingen sie im Sommer vergangenen Jahres über Baden-Württemberg nieder: Unwetterartige Regengüsse, die überall im Land zu dramatischen Überschwemmungen führten und aufzeigten, welchen Risiken Kommunen, aber auch Einzelpersonen durch Starkregen ausgesetzt sind. Das Land Baden-Württemberg reagierte und gab für das kommunale Starkregen-Risikomanagement einen Leitfaden heraus; auch fördert das Land die Umsetzung von Schutzmaßnahmen im Zusammenhang mit der Erstellung von Gefahrenkarten. Dennoch gibt es nach wie vor Unsicherheiten im Umgang mit Starkregen und einem effektiven Risikomanagement.

Die Hochschule Biberach (HBC) bietet nun einen Aktionstag „Starkregen“ an (21. März 2019). Das ganztägige Seminar soll über das Thema Starkregen und den Umgang damit informieren. Dabei geht es vor allem auf die Begebenheiten in Baden-Württemberg und speziell in der Region Oberschwaben ein. Die Veranstaltung ist eine Plattform für all diejenigen, die Lösungen entwickeln wollen im Umgang mit Starkregen – ob in Kommunen, Landkreisen, Ingenieur- oder Planungsbüros. Der Veranstalter – das Institut für Geo und Umwelt an der HBC – bietet mit dem Seminar eine Plattform für Austausch und Wissenstransfer. die Seminarleiter – Professor Dr.-Ing. Gerhard Haimerl und Professorin Dr.-Ing. Ulrike Zettl (beide aus dem Studiengang Bauingenieurwesen) -wollen mit den TeilnehmerInnen diskutieren, wer von Starkregen betroffen und sogar dadurch gefährdet ist, welche Maßnahmen und Konzepte greifen und wie sie praktisch umgesetzt werden können. Der „Aktionstag Starkregen“ wird auch aufzeigen, welche fachlichen und rechtlichen Rahmenbedingungen berücksichtigt werden und auf welche Herausforderungen sich Kommunen, Landkreise und Ingenieurbüros einstellen müssen.

Für die ganztägige Veranstaltung hat die Hochschule Biberach zahlreiche Fachleute als Referenten gewonnen, die aus allen für das Thema relevanten Bereichen kommen- etwa aus dem Regierungspräsidium Tübingen, der Landesanstalt für Umwelt Baden-Württemberg (LUBW) und den Biberacher Ämtern für Wasserwirtschaft sowie Brand- und Katastrophenschutz. Vertreter von Ingenieurbüros und Gemeinden werden ebenso von ihren Erfahrungen aus durchgeführten Projekten berichten wie Professoren der HBC aus den Gebieten Geotechnik und Wasserbau.

Das Seminar findet an der Hochschule Biberach statt; Anmeldungen sind ab sofort möglich.

Wissenschaftliche Ansprechpartner:

Prof. Dr-Ing. Gerhard Haimerl

Weitere Informationen:
http://www.hochschule-biberach.de/starkregen

Quelle: IDW 

(nach oben)


BMBF-Forschungsprojekt untersucht Digitalisierung im industriellen Wassermanagement

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Acht Partner aus Industrie und Forschung beschäftigen sich erstmals mit den wissenschaftlichen, technischen und wirtschaftlichen Potenzialen, die mit einer Digitalisierung im industriellen Wassermanagement verbunden sind. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das kürzlich angelaufene Verbundprojekt DynaWater 4.0 über einen Zeitraum von drei Jahren mit mehr als 1,5 Mio. Euro.

Acht Partner aus Industrie und Forschung beschäftigen sich erstmals mit den wissenschaftlichen, technischen und wirtschaftlichen Potenzialen, die mit einer Digitalisierung im industriellen Wassermanagement verbunden sind. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das kürzlich angelaufene Verbundprojekt DynaWater 4.0 über einen Zeitraum von drei Jahren mit mehr als 1,5 Mio. Euro.

Während die Digitalisierung in der industriellen Produktion und der Prozessindustrie schnell fortschreitet, hat der Digitalisierungsgrad in der Wasserwirtschaft noch kein vergleichbares Niveau erreicht. Vor allem im industriellen Bereich ist die Wassertechnik durch die enge Verbindung mit der Produktion gefordert. Hierfür muss die Wasserwirtschaft flexibler und vernetzter werden; wie dies genau aussehen kann, haben Branchenexperten 2018 im Positionspapier „IndustrieWasser 4.0″ der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. detailliert dargestellt.

Ziel von DynaWater 4.0 ist es, auf der Grundlage des Konzepts „IndustrieWasser 4.0″ Modelle und Cyber-physische Systeme (CPS), Sensornetze, Datenplattformen sowie Komponenten von industriellem Wassermanagement und industrieller Produktion miteinander zu vernetzen. Dies wird an konkreten Beispielen der Branchen Chemie, Stahl und Kosmetik demonstriert und bewertet. Dabei reicht der Grad der Vernetzung von der digitalen Verknüpfung von Prozessen innerhalb eines Unternehmens über den Standort bis zur Einbindung der kommunalen (Ab)Wasserwirtschaft. Zusätzlich wollen die Projektpartner zeigen, wie auch andere Branchen diese Ergebnisse verwerten können. So lässt sich die digitale Zusammenarbeit zwischen industriellem Wassermanagement und Produktion auf unterschiedlichen Ebenen beispielhaft darstellen. Außerdem sollen die entstehenden Optimierungspotentiale abgeschätzt werden.

Unter der Koordination der DECHEMA und Leitung von Dr. Thomas Track arbeiten acht Partner an dem Projekt: DECHEMA e.V., VDEh-Betriebsforschungsinstitut GmbH, Deutsche Edelstahlwerke Specialty Steel GmbH & Co. KG, Fraunhofer Institut für Offene Kommunikationssysteme, Institut für Automation und Kommunikation e.V., Evonik Technology & Infrastructure GmbH, Technische Universität Berlin und die EnviroChemie GmbH. Die DECHEMA ist darüber hinaus für die Bewertung der Effizienzpotentiale aus den Demonstrationsergebnissen, die Erarbeitung einer Roadmap zur Weiterentwicklung des Themas für die Anwendung sowie den Dialog mit der Fachöffentlichkeit verantwortlich.

Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt das Verbundprojekt „DynaWater4.0 – Dynamische Wertschöpfungsnetzwerke durch digitale Kollaboration zwischen industriellem Wassermanagement und Produktion“ als Teil der Fördermaßnahme „Industrie 4.0-Kollaborationen in dynamischen Wertschöpfungsnetzwerken (InKoWe)“ im Cluster Wasser.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Track, DECHEMA e.V.
Tel.: 069 7564-427, Fax: 069 7564-117, thomas.track@dechema.de

Quelle: IDW 

(nach oben)


Fütterungspläne für flexible Biogasproduktion: bis zu 50% weniger Gasspeicherbedarf

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE

Im Forschungsvorhaben »Upgrading von Bestandsbiogasanlagen hin zu flexiblen Energieerzeugern durch eine bedarfsorientierte Dynamisierung
der Biogasproduktion (UBEDB)« haben das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik (IEE) und der Landesbetrieb Hessisches Landeslabor mit Unterstützung durch den Maschinenring Kommunalservice Kassel GmbH, untersucht, wie sich die Biogasproduktion durch ein gezieltes Fütterungsmanagement mit verschiedenen, typischen landwirtschaftlichen Substraten flexibilisieren lässt. Die Ergebnisse des UBEDB-Projektes präsentiert das Fraunhofer IEE heute im Rahmen des Trading&Finance-Forums auf der Messe E-World in Essen.

Ziel des Projekts UBEDB war es, die flexibilisierte, bedarfsgerechte Stromerzeugung ohne die sonst üblichen, teuren technischen Änderungen zu ermöglichen. Als Flexibilitätskriterium wurde eine Verstromungspause (Zeit ohne Gasbedarf, trotz fortlaufender Biogasproduktion) am Wochenende von bis zu 60 Stunden angestrebt.

Auf Grundlage von theoretischen Verstromungsprofilen, wurden – erst im Labor, dann in Praxisversuchen – die für eine entsprechende bedarfsorientierte Gasproduktion passende Substratauswahl und Substratzufuhr erforscht. Dabei wurden im Labor insgesamt sechs verschiedene Substratzusammensetzungen mit neun verschiedenen Substraten erprobt.

Die Substratvarianten mit den vielversprechendsten Ergebnissen wurden anschließend an der Versuchsbiogasanlage auf dem Landwirtschaftszentrum Eichhof in Bad Hersfeld mit Unterstützung durch den Landesbetrieb Landwirtschaft Hessen (LLH) in die Praxis überführt. Dort konnte die flexible Biogasproduktion mit drei unterschiedlichen Substratvarianten über einen Zeitraum von acht Monaten praktisch erprobt wer-den. In den Versuchen wurden Substratvarianten mit Rinderfestmist, Schweine- und Rindergülle, Maissilage, Getreideschrot, Zuckerrüben und durchwachsende Silphie (siliert) berücksichtigt.

Sowohl im Laborversuch als auch in der praktischen Erprobung in der Versuchsbiogasanlage auf dem Eichhof zeigen die Ergebnisse der Versuche, dass sich entsprechend des unterstellten Stromeinspeisefahrplans (mit bis zu 60 Stunden Zeitdauer ohne Gasbedarf), eine deutliche Einsparung der für die Überbrückungszeit erforderlichen Gasspeicherkapazität erzielen lässt. In den großtechnischen Versuchen konnte durch die Verschiebung der Gasproduktion in die BHKW-Betriebszeiten an Wochentagen bis zu 50% des Gasspeicherbedarfs gegenüber einem Betrieb mit kontinuierlicher Gasproduktion eingespart werden. Ein derart angepasstes Fütterungsmanagement könnte damit eine maßgebliche Investitionskosteneinsparung bei der Gasspeichererweiterung ermöglichen.

Die auf den Versuchsergebnissen aufbauende ökonomische Analyse zeigt, dass die Einsparung bei Gasspeicherkapazitäten (vermiedenen bzw. reduzierte Investitionskosten gegenüber einem Anlagenbetrieb mit gleicher Verstromungsflexibilität bei kontinuierlicher Gasproduktion) zu einer verbesserten Wirtschaftlichkeit führt. Zudem erlaubt die flexible Gasproduktion, bei entsprechender Erhöhung der BHKW-Leistung, auch eine flexible Stromerzeugung ohne Erweiterung des Gasspeichers. Am Beispiel einer Biogasanlage mit 500 kW elektrischer Leistung erzielte diese Flexibilisierungsvariante die höchste Annuität und wäre für Biogasanlagenbetreiber die attraktivste Option.

Die im Abschlussbericht zum Verbundprojekt dargelegten Forschungsergebnisse zeigen, dass eine flexible Biogasproduktion durch angepasstes Fütterungsma-nagement mit verschiedenen im landwirtschaftlichen Umfeld üblicherweise verfügbaren Substraten möglich ist und bei reduzierten Investitionen für Gasspeichererweiterung die Wirtschaftlichkeit des flexiblen Anlagenbetriebs verbessert werden kann.

Wesentlich ist dabei, dass die an der Anlage vorhandenen Einbringsysteme zu den verschiedenen Substraten passen. Unter Umständen muss der Überlauf in den Nachgärbehälter kontrolliert erfolgen (»Kurzschlussströme« vermeiden), die Einstellung der Überdrucksicherung angepasst werden und eine etwaige Schaumbildung beim Einsatz von schnell abbaubaren Substraten (z.B. Getreideschrot), bei der Umstellung auf eine flexible Biogasproduktion bei Einsatz verschiedener Substrate beachtet werden. Biogasanlagenbetreibern wird empfohlen, neben der Prüfung und ggf. Anpassung von BHKW-Leistung und Gasspeicherkapazität vor allem auch die Einbringtechnik und ggf. Rührwerkstechnik auf notwendige Eignung und Leistungsfähigkeit zu überprüfen.

Aus Anbausicht ökologisch vorteilhafte Substrate wie Kleegras-Luzerne, Silphie und Wildpflanzenmischungen wiesen eine insgesamt geringere Abbaugeschwindigkeit auf, als die Referenz Mais. Dennoch konnten in allen Szenarien ähnliche Einsparungspotentiale erreicht werden. Dies wurde durch eine entsprechende Anpassung der Fütterungsstrategie an die Kinetik des Substrates erreicht. Mit Substraten wie z. B. Mist und heterogener Wildpflanzensilage konnte in den Versuchen gezeigt werden, dass die Flexibilisierung der Biogasproduktion im Wochengang weniger vom Substrat, als vielmehr von der geschickten Planung der Fütterung abhängt.

Das IEE erforscht und vergleicht intensiv die unterschiedlichsten Flexibilitätsoptionen,
zu denen auch das Projekt UBEDB gehört und stellt diese im Rahmen des »Trading & Finance« Forum auf der E-World am 6. Februar 2019 vor.

Das Verbundvorhaben »Upgrading von Bestandsbiogasanlagen hin zu flexiblen Energieerzeugern durch eine bedarfsorientierte Dynamisierung der Biogasproduktion« wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) aus dem Programm Nachwachsende Rohstoffe finanziell gefördert und von der FNR als Projektträger des BMEL fachlich betreut.

Wissenschaftliche Ansprechpartner:
Dr. Henning Hahn

Fraunhofer IEE
Goethestraße 29
34119 Kassel

Telefon +49 561 7294-261
henning.hanh@iee.fraunhofer.de

Originalpublikation:
Den vollständigen Forschungsbericht und weitere Informationen zum Ver-bundprojekt »Upgrading von Bestandsbiogasanlagen hin zu flexiblen Energie-erzeugern durch eine bedarfsorientierte Dynamisierung der Biogasproduktion (UBEDB)« sowie den Kontakt zu den Projektleitern erhalten Sie über folgende Links:

https://www.fnr.de/index.php?id=11150&fkz=22401614
https://www.fnr.de/index.php?id=11150&fkz=22400415

Weitere Informationen:

http://s.fhg.de/7X7

Anhang
Fütterungspläne für flexible Biogasproduktion: bis zu 50 % weniger Gasspeicherbedarf
https://idw-online.de/de/attachment70910

Quelle: IDW 

(nach oben)


Wasserwiederverwendung in der Landwirtschaft: Fallstudien zeigen Machbarkeit

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Wetterextreme wie lang anhaltende Trockenheit stellen die Landwirtschaft vor neue Herausforderungen. Gefragt sind wassersparende Bewässerungstechnologien und eine Pflanzenproduktion, die unabhängiger von langen Trockenperioden agieren kann. Hier bietet sich das hydroponische Anbauverfahren an, das mit wenig Wasser auskommt. Im Forschungsprojekt HypoWave wird dieses Verfahren mit speziell aufbereitetem Abwasser erprobt. Die ersten Fallstudien zeigen die Machbarkeit dieser wasser- und nährstoffeffizienten landwirtschaftlichen Produktion.

In Zeiten des Klimawandels, in denen extreme Wetterereignisse wie Trockenperioden auch in Deutschland zunehmen, werden auch in der Landwirtschaft Anpassungsmaßnahmen notwendig: Besonders in wasserarmen Regionen beansprucht die landwirtschaftliche Produktion den Großteil des vorhandenen Wassers. In der hydroponischen Pflanzenproduktion im Gewächshaus werden Setzlinge in Gefäßen über eine Nährstofflösung versorgt. Dabei versickert kein Wasser und es verdunstet deutlich weniger. Zudem kann die Nährstofflösung zirkulieren.

Optimiert werden kann dieses wassersparende Verfahren noch durch den Einsatz von speziell aufbereitetem Abwasser. In dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekt HypoWave wird diese optimierte Variante seit Herbst 2016 in einer Pilotanlage auf der Kläranlage Hattorf bei Wolfsburg erprobt. Das interdisziplinäre Forschungsteam hat mit den ersten beiden Fallstudien nun vielversprechende Ergebnisse veröffentlicht. Sie zeigen beispielhaft an zwei Regionen – dem Landkreis Gifhorn in Niedersachsen und der Gemeinde Raeren in Belgien – wie die angepasste Aufbereitung und Wiederverwendung von kommunalem Abwasser für den hydroponischen Gemüse- und Schnittblumenanbau gelingen kann. „Für kleinere Gemeinden von 500 bzw. 1.650 Einwohnerwerte kann hier auf 3.600 bzw. 6.000 m² eine wirtschaftliche Produktion erzielt werden“, sagt Marius Mohr, Koordinator der Fallstudien vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB. „Die Praxispartner sind an einer Fortsetzung der Kooperation interessiert.“

HypoWave-Verfahren hat Potenzial als alternative Anbauform
Die umfangreichen Interviews, die das Forschungsteam mit Akteuren in den Beispielregionen geführt hat, zeigen die Potenziale für das HypoWave-Verfahren. Besonders erfreulich sei das Interesse für den Gemüseanbau mit gereinigtem Abwasser in der Region Gifhorn, wo es schon Erfahrung im Bereich der Beregnung gebe. „Mit dem Interesse zur Zusammenarbeit von Kläranlagenbetreibern und Landwirten wird eine wichtige Hürde für die Wasserwiederverwendung genommen“, sagt Martina Winker, Projektkoordinatorin am ISOE – Institut für sozial-ökologische Forschung. „Das deutet darauf hin, dass die flexible HypoWave-Systemlösung auch in vergleichbaren Regionen das Potenzial als alternative Anbauform hat.“

Voraussetzung dafür ist ein fundiertes Wissen darüber, was bei Planungsprozessen für die technisch wie wirtschaftlich erfolgreiche Umsetzung eines hydroponischen Anbauverfahrens mit Wasserwiederverwendung notwendig ist. Neben gut koordinierten Partnerschaften zwischen Wasserverbänden, Landwirtschaft und allen weiteren Beteiligten sind geeignete Geschäfts- und Betreibermodelle ganz wesentlich. Das zeigen beide Fallstudien – die zweite skizziert dies nochmals am Beispiel des Wasser- und Nährstoffrecyclings zum Anbau von Schnittblumen. „Mit Blick auf den großen Absatzmarkt für Schnittblumen im grenzüberschreitenden EUREGIO-Gebiet könnte das modulare HypoWave-Verfahren insbesondere für deren Anbau in Teilen Belgiens interessant sein“, bewertet Projektkoordinatorin Martina Winker die Ergebnisse der Fallstudie für Ostbelgien. „Wir freuen uns sehr über diese positiven Ergebnisse“, ergänzt Fallstudienleiter Marius Mohr vom IGB, „zeigen sie uns doch, dass die modulare HypoWave-Systemlösung auch im europäischen Kontext attraktiv ist.“

HypoWave-Fallstudien zum Download:
Nutzung des Ablaufs eines Klärteichs zur Gemüseproduktion im Landkreis Gifhorn. Eine HypoWave-Fallstudie. Dr.-Ing. Marius Mohr, Björn Ebert, Dr. Engelbert Schramm, Dr. Jörn Germer, Dr.-Ing. Grit Bürgow (2018)
http://www.hypowave.de/fileadmin/user_upload/Ergebnisse/Broschueren/HypoWave_Bro…

Modulares Wasser- und Nährstoffrecycling zur Schnittblumenproduktion in der Gemeinde Raeren, Belgien. Eine HypoWave-Fallstudie. Michaela Fischer, Marc Beckett, Dr.-Ing. Grit Bürgow, Björn Ebert (2018)
http://www.hypowave.de/fileadmin/user_upload/Ergebnisse/Broschueren/HypoWave_Bro…

Das Forschungsprojekt HypoWave
Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt das Verbundprojekt „Einsatz hydroponischer Systeme zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung (HypoWave)“ als Teil der Fördermaßnahme WavE. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), das Julius Kühn-Institut (JKI), der Abwasserverband Braunschweig (AVB), WEB – Wolfsburger Entwässerungsbetriebe, ACS-Umwelttechnik GMBH & Co. KG, aquadrat ingenieure (a2i), aquatectura – studios for regenerative landscapes, aquatune – Dr. Gebhardt & Co. GmbH, BIOTEC Biologische Naturverpackungen GmbH und Co. KG sowie Xylem Services GmbH (Xylem). Die dreijährige Laufzeit von HypoWave endet am 31. August 2019.

Wissenschaftliche Ansprechpartner:

Projektkoordination
Dr. Martina Winker
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 69 19-53
Fax +49 69 707 69 19-11
winker@isoe.de
www.isoe.de

Weitere Informationen:
http://www.hypowave.de

Anhang
In Zeiten der Dürre: Fallstudien zeigen Machbarkeit der Wasserwiederverwendung in der Landwirtschaft
https://idw-online.de/de/attachment70916

Quelle: IDW 

(nach oben)


Süße Ungeduld: Wie positive Gefühle unsere Zeitwahrnehmung beeinflussen

Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Spare ich für die Weltreise oder gönne ich mir den Wochenendtrip? Trainiere ich für die Strandfigur oder bestelle ich Pizza? Werde ich heute Abend lernen oder ins Kino gehen? Oft haben wir die Wahl zwischen einer kleinen, kurzfristigen Belohnung und einer großen, zukünftigen Belohnung. Welche Rolle Emotionen bei diesen Entscheidungen spielen, konnten Forscher*innen des Max-Planck-Instituts für Bildungsforschung in zwei Experimenten zeigen. Demnach verzerren die durch die Belohnungen ausgelösten positiven Emotionen unsere Wahrnehmung für zukünftige Zeitspannen und verstärken dadurch unsere Ungeduld. Die Ergebnisse der Studie wurden im Journal Emotion veröffentlicht.

Obwohl wir uns vornehmen auf größere Belohnungen – eine Weltreise, die Strandfigur, den guten Abschluss – hinzusparen oder hinzuarbeiten, entscheiden wir häufig impulsiv und wählen doch kurzfristige, wenn auch kleinere Belohnungen – den Wochenendtrip, die Pizza, den Kinofilm. Dies führt dazu, dass die große Belohnung schwerer zu erreichen ist. Wenn impulsive Entscheidungen überhandnehmen und wir uns nur noch für die schnelle Belohnung entscheiden, kann das langfristig zu Problemen führen. Daher interessiert nicht nur die Wissenschaft, sondern auch Therapeut*innen, Pädagog*innen oder Ärzt*innen, wie die psychologischen Mechanismen hinter diesen oft unbewussten Entscheidungen funktionieren.

Eine neue Studie des Max-Planck-Instituts für Bildungsforschung konnte einen bisher unbekannten Grund für impulsives Verhalten zeigen. Demnach führen die positiven Emotionen, die der Gedanke an die zur Auswahl stehenden Belohnungen auslöst, zu einer verzerrten Zeitwahrnehmung. Die Dauer bis zur Weltreise oder bis zum Abschluss fühlt sich subjektiv länger an, als sie ist. Und so entscheiden sich viele Menschen für die kurzfristige Belohnung.

Um diesen Mechanismus zu untersuchen, hat Corinna Laube, während ihrer Promotion am Forschungsbereich Adaptive Rationalität, zwei unabhängige, aber ähnlich aufgebaute Versuche mit je 23 und 56 Proband*innen durchgeführt. Die Proband*innen nannten ihre beliebtesten Freizeitaktivitäten und schätzten deren Wert in Euros. Anschließend wurden sie vor die Wahl gestellt: eine günstigere Freizeitaktivität, zum Beispiel Minigolf, gleich heute oder eine teurere, wie einen Spa-Besuch, in zwei Wochen? Im nächsten Schritt wurde ihnen auch ein den Aktivitäten entsprechenden Geldbetrag angeboten. Sie könnten zum Beispiel 15 Euro heute oder 40 Euro in zwei Wochen bekommen. Schließlich mussten die Proband*innen noch ihre subjektive Einschätzung zu zukünftigen Zeitspannen angeben, während sie entweder an die Freizeitaktivität oder das Geld dachten: Fühlen sich zwei Wochen lang oder kurz an?

Die Ergebnisse zeigten, dass Proband*innen sich erstaunlicherweise häufiger für die kleinere, aber sofortige Freizeitaktivität entschieden als für den entsprechenden, kleineren Geldbetrag. Gleichzeitig kam Probanden dieselbe Zeitspanne länger vor, wenn sie an ihre liebsten Freizeitaktivitäten dachten, als wenn sie bloß an den entsprechenden Geldbetrag dachten. Die auf Freizeitaktivitäten gerichteten positiven Emotionen führen somit dazu, dass Menschen zukünftige Zeitspannen als länger wahrnehmen, während der Gedanke an Geld eher weniger Emotionen auslöst und die Zeitwahrnehmung nicht beeinflusst. Zwei Wochen bis zum Spa-Besuch fühlen sich demnach länger an, als zwei Wochen bis zur Auszahlung von 40 Euro.

„Entscheidungen, die mit positiven Gefühlen verbunden sind, führen zu einer veränderten Wahrnehmung zukünftiger Zeitspannen, was wiederum Menschen impulsiver handeln lässt“, sagt Corinna Laube, inzwischen Wissenschaftliche Mitarbeiterin am Forschungsbereich Entwicklungspsychologie. „Mit diesem Wissen könnten neue psychotherapeutische Behandlungsmöglichkeiten für Menschen entwickelt werden, die zu impulsiven Entscheidungen neigen. Jemand, der gelernt hat zukünftige Zeitspannen objektiver und realistischer einzuschätzen, ist geduldiger und kann leichter auf die größere Belohnung warten.“

Originalpublikation:

Laube, C., & van den Bos, W. (2018). It’s about time: How integral affect increases impatience. Emotion. Advance online publication. https://doi.org/10.1037/emo0000553

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2019/02/suesse-ungeduld-wie-positive-ge…

Quelle: IDW 

(nach oben)


Nitratabbau im Grundwasser: Selbstreinigungskraft des Untergrunds höher als angenommen

Christian Wißler Pressestelle
Universität Bayreuth

Der Eintrag von reaktivem Stickstoff in Gewässer verursacht weltweit schwere ökologische Schäden. Umso wichtiger sind natürliche Reinigungsprozesse im Untergrund, die wenigstens einen Teil dieser Verschmutzung wieder beseitigen können. Ein internationales Forschungsteam unter Leitung der Universität Rennes (Frankreich), an der auch Hydrologen der Universität Bayreuth und vom Helmholtz-Zentrum für Umweltforschung (UFZ) beteiligt waren, kommt zu dem Schluss, dass die Kapazität vieler tiefer Grundwasserleiter Nitrat zu entfernen wohl höher ist als oft angenommen. Im Fachjournal PNAS stellen sie eine robuste Methode zur Bewertung dieses Selbstreinigungspotenzials vor.

Reaktiver Stickstoff gelangt über stickstoffhaltige Düngemittel der Landwirtschaft sowie durch den Eintrag aus der Atmosphäre in den Boden. Dort wird ein Teil von Pflanzen aufgenommen, der Rest wird vor allem als Nitrat in tiefere Bodenschichten ausgespült und gelangt schließlich ins Grundwasser. „Die Prozesse, die sich in den tiefen Bodenschichten abspielen, werden durch unsere üblichen Messvorrichtungen jedoch kaum erfasst. Deshalb ist es meist schwer festzustellen, wieviel Stickstoff bis ins Grundwasser und die von ihm gespeisten Flüsse transportiert wird“, sagt Dr. Tamara Kolbe, Wissenschaftlerin an der schwedischen Universität für Agrarwissenschaften in Uppsala und Erstautorin der Studie.

Ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern hat es nun mithilfe einer neuen Methode geschafft, das Reinigungspotenzial des Untergrunds zu bewerten.

Basis der Forschungsarbeit sind Daten zu Qualität und Alter des Grundwassers aus mehr als 50 Grundwasserbrunnen in Frankreich und den USA. Zur Überraschung der Wissenschaftler zeigten sich bei 80 Prozent der Brunnen Zeichen eines deutlichen Abbaus von Nitrat in der Tiefe. Kolbe und ihre Koautoren führen das auf die Existenz von energiereichen Mineralien im Untergrund zurück. Dieser Zusammenhang lässt sich dadurch erklären, dass einige Mikroorganismen bei der Atmung anstelle von Sauerstoff Nitrat umsetzen können. Dabei wird das Nitrat in harmloses Stickstoffgas umgewandelt, das den Großteil der Atmosphäre ausmacht. Damit dieser Umwandlungsprozess stattfinden kann, benötigen die Mikroben eine Energiequelle. Diese finden sie in der Regel im organischen Kohlenstoff (z.B. aus Pflanzenresten) der Böden. Allerdings erreicht nur ein geringer Teil des organischen Kohlenstoffs tiefere Grundwasserleiter. Häufig ist das grundwasserführende Gestein jedoch reich an energiereichen Mineralien wie Eisen- und Schwefelverbindungen. Einige Mikroorganismen können diese Gesteinsmineralien nutzen, um damit Nitrat abzubauen, auch lange nachdem der organische Kohlenstoff bereits aufgebraucht ist.

„Dies ist auch deshalb eine gute Nachricht, weil Trinkwasser häufig aus Grundwasserleitern in großer Tiefe gewonnen wird“, erklärt Prof. Stefan Peiffer von der Universität Bayreuth und Mitautor der Studie. Aus diesem Befund folgt allerdings nicht, dass stickstoffhaltiger Dünger bedenkenlos in unbegrenzter Menge auf Ackerflächen ausgebracht werden darf. „Die Verfügbarkeit mineralischer Energiequellen für den mikrobiellen Nitratabbau im Untergrund ist endlich und das Schutzpotenzial des Untergrunds damit begrenzt“, warnt Mitautor Prof. Jan Fleckenstein vom Helmholtz-Zentrum für Umweltforschung (UFZ).

Die Ergebnisse der Studie könnten auch erklären, warum Nitrat aus dem Grundwasser selbst dann noch in Fließgewässer gelangen kann, wenn die Einträge in den Boden schon längst stark reduziert oder sogar gestoppt wurden. Verschmutztes Wasser kann über lange Zeiträume im Untergrund unterwegs sein, ohne dass die richtigen Bedingungen für den Nitratabbau angetroffen werden. So kann es zu einer erheblichen Zeitverzögerung zwischen einem umweltfreundlicheren Management in der Landwirtschaft und gesünderen Ökosystemen kommen. „Die Methoden, die wir im Rahmen unserer Studie entwickelt haben, lassen uns die Erholungszeiträume für kontaminierte Grundwasserleiter besser abschätzen. Dieses Wissen könnte Verantwortliche in der Umweltpolitik auch vor unrealistischen Erwartungen bewahren“, ergänzt Tamara Kolbe.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Stefan Peiffer
Lehrstuhl für Hydrologie
Universität Bayreuth
s.peiffer@uni-bayreuth.de

Prof. Dr. Jan Fleckenstein
Leiter des Departments Hydrogeologie am Helmholtz-Zentrum für Umweltforschung (UFZ)
jan.fleckenstein@ufz.de

Originalpublikation:
Tamara Kolbe, Jean-Raynald de Dreuzy, Benjamin W. Abbott, Luc Aquilina, Tristan Babey, Christopher T. Green, Jan H. Fleckenstein, Thierry Labasque, Anniet M. Laverman, Jean Marçais, Stefan Peiffer, Zahra Thomas, and Gilles Pinay: Stratification of reactivity determines nitrate removal in groundwater. DOI: 10.1073/pnas.1816892116

Quelle: IDW 

(nach oben)


Die Größe des Gehirns beeinflußt Geschmackswahrnehmung

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Süß oder bitter? Wissenschaftler der University of Queensland haben herausgefunden, dass die Größe des Gehirns das Geschmacksempfinden beeinflußt. Je größer das Gehirn, umso weniger bitter wird beispielsweise Tonic Water empfunden.

Die Größe des Gehirns steht nicht nur in Relation zur Intelligenz des Menschen, sondern bestimmt auch, wie bitter er den Geschmack von Tonic Water empfindet, wie Forscher der University of Queensland herausgefunden haben.

Postdoctoral Research Fellow Dr. Daniel Hwang des UQ Diamantina Institute sagte, es sei das erste Mal, dass die Beziehung von Gehirngröße und Geschmackswahrnehmung untersucht wurde.

„Jeder will wissen, warum wir bestimmte Lebensmittel mögen und warum Menschen Vorlieben für bitteren oder süßen Geschmack haben“, sagte Dr. Hwang.

„Es war unklar, ob die Gehirngröße mehr als den IQ einer Person bestimmt, aber jetzt können wir zeigen, dass sie beeinflußt, wie wir Essen und Trinken wahrnehmen.“

„Ob Sie nun Tonic Water genießen oder nicht, Menschen mit größerem Gehirn finden es normalerweise weniger bitter.“

Mehr als 1600 Teilnehmer in Australien und Amerika bewerteten ihre wahrgenommene Intensität verschiedener süßer und bitterer Getränke. Die Größe ihres Gehirns wurde dann mit einem MRT-Scan gemessen.

„Wir fanden heraus, dass die linke Seite des entorhinalen Kortex, ein Bereich des Gehirns, der für Gedächtnis, Geruch und visuelle Wahrnehmung verantwortlich ist, bei Menschen, die Chinin als weniger bitter empfanden, größer war.

„Chinin ist eine Schlüsselkomponente im Tonic Water und wird häufig verwendet, um die Reaktion von Menschen auf einen bitteren Geschmack zu beurteilen.“

Dr. Hwang sagte, dass die Ergebnisse das Verständnis über den gustatorischen Kortex, des Teils des Gehirns, der Geschmackssignale verarbeitet und Geschmacksempfindungen erzeugt, erhöhen.

„Unsere Studie ist ein Schritt, um genau zu verstehen, wie das Gehirn den Geschmack wahrnimmt“, sagte er.“Die Ergebnisse haben Auswirkungen auf die Verbesserung des Ernährungsverhaltens und die Behandlung von Essstörungen.

„Durch die gezielte Behandlung bestimmter Bereiche des gustatorischen Kortex könnten wir Essstörungen mit Methoden wie der transkraniellen Magnetstimulation behandeln, einer nicht-invasiven Behandlung, die derzeit zur Behandlung psychischer Erkrankungen eingesetzt wird.“

Die Studie war eine Zusammenarbeit zwischen UQ, dem QIMR Berghofer Medical Research Institute und dem Monell Chemical Senses Center und ist in Behavioural Brain Research (doi.org/10.1016/j.bbr.2019.01.046) veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Dr Daniel Hwang
Faculty of Medicine
University of Queensland
Email: d.hwang@uq.edu.au
Tel: +61 7 3443 7976

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Wissenschaftliche Ansprechpartner:
Dr Daniel Hwang
Faculty of Medicine
University of Queensland
Email: d.hwang@uq.edu.au
Tel: +61 7 3443 7976

Weitere Informationen:
https://www.ranke-heinemann.de

Quelle: IDW 

(nach oben)


Berühmtes „Sandhaufen-Modell“ bewegt sich wie wandernde Sanddünen

Dr. Elisabeth Guggenberger Communications and Events
Institute of Science and Technology Austria

Forscher des IST Austria fanden neue Eigenschaft eines wichtigen physikalischen Modells. Ihre Ergebnisse wurden in PNAS veröffentlicht.

Das sogenannte Abelsche Sandhaufenmodell wird seit mehr als 30 Jahren intensiv erforscht, um das Phänomen der selbstorganisierten Kritikalität besser zu verstehen. Dieses Phänomen spielt in einer Vielzahl physikalischer, biologischer und wirtschaftswissenschaftlicher Prozesse eine wichtige Rolle, wie zum Beispiel beim koordinierten Feuern von Neuronen, bei der Ausbreitung von Waldbränden, in der Verteilung der Erdbebengrößen und sogar im koordinierten Verhalten von Ameisenkolonien. Obwohl der Abelsche Sandhaufen als das archetypische Modell zur Erforschung der selbstorganisierten Kritikalität angesehen wird, sind noch etliche Fragen zu seinen Eigenschaften ungeklärt und stellen ein aktives Forschungsfeld dar. Moritz Lang und Mikhail Shkonikov vom Institute of Science and Technology Austria (IST Austria) haben nun eine neue Eigenschaft dieses mathematischen Modells entdeckt: Indem sie Sandkörner auf spezifische Weise auf den Sandhaufen „rieseln“ ließen, erzeugten sie Dynamiken, die der Art ähneln wie Sanddünen in der Wüste Gobi oder der Namib entstehen, sich fortbewegen, zusammenstoßen und schlussendlich verschwinden. Anders als Sanddünen in realen Wüsten bestehen jedoch die Dünen in ihrer Arbeit, die in der aktuellen Ausgabe von PNAS veröffentlicht wurde, aus selbstähnlichen fraktalen Mustern, ähnlich der berühmten Mandelbrot-Menge.

Die Regeln des „Sandhaufen-Experiments“ sind recht einfach: Das Modell besteht im Wesentlichen aus einem regelmäßigen „Spielbrett“ mit quadratischen Feldern, ähnlich einem Schachbrett, auf das Sandkörner zufällig fallen gelassen werden. Felder, die weniger als vier Sandkörner beinhalten, bleiben dabei stabil und verändern sich nicht. Wenn sich jedoch mehr als vier Sandkörner auf einem Feld ansammeln, wird das Feld instabil und „kippt“. Bei einem solchen Kippen werden dann vier Sandkörner von dem instabilen Feld genommen und gerecht auf die vier benachbarten Felder verteilt: eines nach oben, eines nach unten, eines nach links und eines nach rechts. Dieser Prozess des Kippens kann dazu führen, dass auch die benachbarten Felder instabil werden und kippen, was wiederum dazu führen kann, dass die nächsten Nachbarn kippen und so weiter – eine „Lawine“ entsteht. Ähnlich wie bei echten Lawinen in den Alpen haben diese Lawinen im Sandhaufenmodell keine charakteristische Größe, und es ist äußerst schwierig vorherzusagen, ob das nächste Sandkorn eine große Lawine verursacht, oder überhaupt keine.

Das Sandhaufenmodell wird zwar aufgrund der Einfachheit dieser Regeln regelmäßig als Beispiel in Einführungskursen zur Programmierung an Universitäten oder sogar Schulen verwendet, weist jedoch verschiedene mathematische und physikalische Phänomene auf, die bis heute ungeklärt sind – trotz mehr als drei Jahrzehnten intensiver Forschung. Zu den faszinierendsten dieser Phänomene gehört das Auftreten von fraktalen Mustern im Sandhaufen. Diese fraktalen Sandhaufen zeichnen sich durch sich wiederholende Muster aus, bei denen immer wieder dieselben Formen erscheinen, jedoch in immer kleineren Varianten – man spricht von selbstähnlichen Mustern. Das Auftreten dieser fraktalen Muster hat sich bisher jeder mathematischen Erklärung entzogen. Auch die Forscher am IST Austria konnten dieses mathematische Rätsel auch nicht lösen. Stattdessen machten sie diese Rätzel noch ein wenig mysteriöser, indem sie zeigten, dass diese fraktalen Sandhaufen scheinbar kontinuierlich ineinander übergehen können. Sie konnten Filme produzieren, in denen die fraktalen Muster wahlweise, abhängig von dem Standpunkt des Betrachters, entweder Dynamiken zeigen die der Fortbewegung realer Sanddünen ähneln, oder aber „psychedelischen Filmen“ aus den 70er Jahren.

Eine mathematische Frage nicht zu lösen, sondern nur noch mysteriöser erscheinen zu lassen, scheint auf den ersten Blick wissenschaftlich nicht zielführend zu sein. Die beiden Wissenschaftler, Moritz Lang, Postdoc in der Forschungsgruppe von Professor Calin Guet, und Mikhail Shkonikov, Postdoc in der Gruppe von Professor Tamas Hausel, glauben jedoch, dass ihre „psychedelischen Filme“ der Schlüssel zum besseren Verständnis des Sandhaufenmodells und damit möglicherweise auch vieler anderer physikalischer, biologischer oder sogar wirtschaftlicher Phänomene sein könnten. „Wir haben sozusagen universelle Koordinaten für Sanddünen gefunden“, sagt Mikhail Shkonikov, „Im Prinzip können wir jetzt jede Düne in der Wüste benennen, identifizieren und katalogisieren.“ Moritz Lang, ein theoretischer Biologe, fügt hinzu: „Der Schlüssel zum Verständnis jedweder physikalischen oder biologischen Phänomene ist die Folgen dieser Phänomene zu verstehen. Je mehr zwingende Konsequenzen eines Phänomens wir kennen, desto schwieriger wird es wissenschaftliche Hypothesen zu entwickeln, die mit all diesen Konsequenzen übereinstimmen. In diesem Sinne stellt die Kenntnis aller möglicher Sanddünen und der Art ihrer Fortbewegung viele Einschränkungen dar, und wir hoffen, dass wir dadurch am Ende genügend Heu vom Heuhaufen entfernen können, um die Nadel zu finden.“

Die beiden Forscher sehen viele Anwendungsmöglichkeiten ihrer theoretischen Arbeit auf reale Probleme, wie in der Vorhersage von Erdbebengrößen, in der Funktionsweise des menschlichen Gehirns, in der Physik oder sogar in den Wirtschaftswissenschaften: „In all diesen Bereichen finden wir Heuhaufen, die sich ähneln, sehr ähneln. Vielleicht stellt sich am Ende heraus, dass es sich in Wirklichkeit immer um denselben Heuhaufen handelt, und dass es darin nur eine Nadel gibt die man finden kann.“

Moritz Lang promovierte im Frühjahr 2015 an der ETH Zürich mit seiner Arbeit “ Modular identification and analysis of biomolecular networks“ und kam im August 2015 an das IST Austria. Mikhail Shkonikov promovierte an der Universität Genf und forscht seit 2017 am IST Austria.

Finanzierungsinformationen:
Die Forschung wurde am IST Austria durchgeführt und erhielt eine Förderung aus dem ISTFELLOW-Programm, einem Marie Skłodowska-Curie COFUND-Grant, kofinanziert durch das IST Austria und die Europäischen Union im Rahmen des Forschungs- und Innovationsprogramms „Horizon 2020″. Dieses Programm wurde durch ein weiteres COFUND-Stipendium abgelöst, das für Bewerbungen von qualifizierten Post-DoktorantInnen aus aller Welt offen steht: dem ISTplus-Programm. https://ist.ac.at/research/postdoctoral-research/istplus/

Über das IST Austria
Das Institute of Science and Technology (IST Austria) in Klosterneuburg ist ein Forschungsinstitut mit eigenem Promotionsrecht. Das 2009 eröffnete Institut widmet sich der Grundlagenforschung in den Naturwissenschaften, Mathematik und Informatik. Das Institut beschäftigt ProfessorInnen nach einem Tenure-Track-Modell und Post-DoktorandInnen sowie PhD StudentInnen in einer internationalen Graduate School. Neben dem Bekenntnis zum Prinzip der Grundlagenforschung, die rein durch wissenschaftliche Neugier getrieben wird, hält das Institut die Rechte an allen resultierenden Entdeckungen und fördert deren Verwertung. Der erste Präsident ist Thomas Henzinger, ein renommierter Computerwissenschaftler und vormals Professor an der University of California in Berkeley, USA, und der EPFL in Lausanne. http://www.ist.ac.at

Wissenschaftliche Ansprechpartner:
Moritz Lang
moritz.lang@ist.ac.at

Originalpublikation:
Moritz Lang und Mikhail Shkolnikov: Harmonic dynamics of the Abelian sandpile, PNAS 2019, https://doi.org/10.1073/pnas.1812015116
https://www.pnas.org/content/early/2019/02/05/1812015116

Weitere Informationen:
https://www.youtube.com/watch?v=4EETd94ud1o
https://langmo.github.io/interpile/videos.html Videos der beweglichen fraktalen Muster. Die Videos stehen unter einer Creative Commons Lizenz und können daher frei weiterverwendet werden. Auf Wunsch stellen wir gerne hochauflösende Versionen der Videos bereit.
https://www.youtube.com/channel/UCD-1U3y52P7jx_RNqthASpQ

Quelle: IDW 

(nach oben)


Sind sich Fische ihrer selbst bewusst?

Dr. Harald Rösch Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Putzerfische scheinen sich selbst im Spiegel zu erkennen
Schimpansen, Delfine, Krähen und Elstern erkennen ihr Spiegelbild als Abbild des eigenen Körpers. Bislang gilt dies als Anzeichen dafür, dass diese Arten ein Bewusstsein von sich selbst besitzen. Wissenschaftler vom Max-Planck-Institut für Ornithologie in Radolfzell und der Universität Konstanz sowie der Osaka City University haben nun entdeckt, dass auch Putzerfische auf ihr Spiegelbild reagieren und versuchen, Flecken auf ihrem Körper zu entfernen, wenn sie diese im Spiegel sehen. Die Ergebnisse deuten darauf hin, dass diese Fische deutlich höhere geistige Fähigkeiten besitzen als bisher angenommen. Gleichzeitig stoßen sie eine Diskussion darüber an, wie Wissenschaftler die Intelligenz von Lebewesen ermitteln können, die vom Menschen so verschieden sind.

Beim klassischen Spiegeltest markieren Forscher das Gesicht oder andere Stellen des Körpers eines Tieres mit Farbflecken. Um den Test zu bestehen, müssen die Tiere die markierte Stelle genau in Augenschein nehmen oder gezielt berühren.

Um zu überprüfen, ob Fische sich selbst im Spiegel erkennen können, haben die Forscher die Reaktion von Putzerfischen (Labroides dimidiatus) auf einen Spiegeltest untersucht. Putzerfische leben in den Ozeanen und ernähren sich von Parasiten auf der Haut anderer Fische. Die Wissenschaftler markierten die Fische an einer Stelle des Körpers, die diese nur im Spiegel betrachten konnten. Der Test galt als bestanden, wenn die Fische die markierte Stelle an einer Oberfläche reiben und so versuchen, die Farbe zu entfernen.

Tatsächlich versuchten die Putzerfische, die Flecken auf ihrer Haut zu entfernen. Versahen die Forscher die Tiere mit Flecken, gaben ihnen jedoch keinen Spiegel, reagierten die Fische dagegen nicht darauf, ebenso wenig wie auf transparente Markierungen, die im Spiegel nicht sichtbar waren. Putzerfische versuchen zudem beim Anblick anderer markierter Artgenossen nicht, vermeintliche Flecken an ihrem eigenen Körper zu entfernen. Auf Flecken direkt auf dem Spiegel reagieren sie ebenfalls nicht. „Durch all diese Beobachtungen können wir ausschließen, dass die Fische instinktiv auf an Parasiten erinnernde Markierungen in ihrer Umwelt reagieren. Nur der Anblick von Flecken auf der eigenen Haut stellt folglich für einen Putzerfisch einen Reiz dar, auf den er reagiert. Damit erfüllt das Verhalten der Putzerfische alle Kriterien für einen bestandenen Spiegeltest“, erklärt Alex Jordan vom Max-Planck-Institut für Ornithologie und der Universität Konstanz.

Belegen die Ergebnisse nun, dass Putzerfische tatsächlich ein Bewusstsein für das eigene Selbst besitzen – eine Eigenschaft die man bisher nur einigen Säugetieren und Vögeln zuschreibt? Oder sind für das Bestehen eines Spiegeltests andere Fähigkeiten nötig als bisher angenommen? „Unsere Beobachtungen lassen nur wenig Zweifel, dass dieser Fisch mit seinem Verhalten alle Kriterien für einen bestandenen Spiegeltest erfüllt. Weniger klar ist dagegen, ob man daraus schließen kann, dass Fische sich ihrer selbst bewusst sind – auch wenn in der Vergangenheit vielen Tieren ein Selbst-Bewusstsein zugeschrieben worden ist, nachdem sie den Spiegeltest bestanden hatten“, sagt Jordan.

Das Argument, dass das Verhalten der Fische nicht eindeutig genug ist, um von einem bestandenen Spiegeltest zu sprechen, würde die generelle Glaubwürdigkeit des Spiegeltests in Frage stellen. Schließlich haben sich die Putzerfische während des Tests ähnlich verhalten wie andere Tiere bei gleichem Versuchsaufbau. „Die nahe liegende Erklärung ist, dass die Fische zwar den Spiegeltest bestehen, sie sich aber nicht ihrer selbst bewusst sind. Vielmehr erkennen sie ihr Spiegelbild als Abbild des eigenen Körpers, verstehen jedoch nicht, was es bedeutet. Wir müssen also den Spiegeltest kritisch hinterfragen und überlegen, ob er weiterhin als Standard für den Selbst-Bewusstseins-Nachweis bei Tieren eingesetzt werden sollte“, sagt Jordan.

Wissenschaftliche Ansprechpartner:
Dr. Alex Jordan
Max-Planck-Institut für Ornithologie, Standort Radolfzell, Radolfzell
ajordan@orn.mpg.de

Originalpublikation:
Masanori Kohda, Hatta Takashi, Tmohiro Takeyama, Satoshi Awata, Hirokazu Tanaka, Jun-ya Asai, Alex Jordan
Cleaner wrasse pass the mark test. What are the implications for consciousness and self-awareness testing in animals?
PLOS Biology; 7 February, 2019 (DOI: 10.1101/397067)

Quelle: IDW 

(nach oben)


Windenergie liefert fast drei Viertel des erwarteten Stroms

Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie

Alterung und Windschatten-Effekte schmälern den tatsächlichen Ertrag – 20 Prozent der Differenz bleiben ungeklärt.

Die Energiewende in Deutschland hat gerade einen neuen Rekord erreicht. Fast 40 Prozent des erzeugten Stroms kamen im Jahr 2018 aus erneuerbaren Quellen, allein 17 Prozent aus Windkraft. Damit trägt die Windenergie etwa in dem Maße zum Strommix bei, wie unter den Windbedingungen in Deutschland zu erwarten ist. Das haben Forscher des Max-Planck-Instituts für Biogeochemie festgestellt, indem sie die mögliche mit der tatsächlich gewonnenen Energie der Windturbinen verglichen.

Der Blick auf manchen Windpark macht skeptisch: Oft stehen einzelne Turbinen still. Dieser Eindruck passt nicht zu der Maßgabe, dass die Windenergie intensiv genutzt werden soll, um den Anforderungen der Energiewende zu genügen. Vor dem Hintergrund fragen auch Wissenschaftler in den vergangenen Jahren zunehmend, ob der zu erwartende Beitrag der Windenergie zum Strommix nicht überschätzt wird. Sonja Germer und Axel Kleidon, die am Max-Planck-Institut für Biogeochemie in Jena forschen, haben jedoch festgestellt, dass Windturbinen in Deutschland gut 73 Prozent der theoretisch möglichen Energie liefern. „Unserer Untersuchung zufolge nutzen die Turbinen den Wind bislang größtenteils effektiv und tragen so zum Erfolg der Energiewende bei“, sagt Axel Kleidon.

In ihrer Studie, die den Zeitraum 2000 bis 2014 umfasst, kombinierten die Forscher Daten des Deutschen Wetterdiensts (DWD) zu Windfeldern mit Angaben zu den Standorten und technischen Eigenschaften der Windräder. So bestimmten sie, wieviel Strom die Turbinen bei den gegebenen Windverhältnissen idealerweise erzeugen sollten. Demnach beträgt die im besten Fall zu erwartende Effizienz der Windturbinen, also das Verhältnis von tatsächlicher Strommenge zur Fähigkeit der Generatoren, Strom zu erzeugen, etwa 25 Prozent oder rund 2300 Vollaststunden pro Jahr. „Diese erwartete Effizienz scheint vergleichsweise niedrig“, sagt Axel Kleidon. „Sie ergibt sich aber aus der ungleichen Verteilung von Windgeschwindigkeiten.“ Während der Hälfte der Zeit wehen Winde in Deutschland mit weniger als 20 Kilometern pro Stunde, sodass Turbinen während dieser Zeit höchstens 10 Prozent ihrer Kapazität nutzen können.

2014 lag der Anteil der Windkraft an der Stromerzeugung bei 9,1 Prozent
Den unter diesen Bedingungen zu erwartenden Stromertrag verglichen die Forscher für etwa ein Viertel der Anlagen, für die Daten zur erzeugten Leistung zugänglich waren, mit der tatsächlichen Strommenge. Die Forscher untersuchten zudem, welche Faktoren die real von aus der Windenergie erzeugte Strommenge reduzieren. Demnach schmälerte das Altern der Windkraftanlagen den Ertrag in 2014 immerhin um knapp sieben Prozent. Das liegt auch daran, dass im Zeitraum von 2000 bis 2014 das mittlere Alter der Windkraftanlagen in Deutschland von 3,8 Jahren auf 10,8 Jahre stieg. Da Turbinen in Windparks oft im Windschatten anderer Anlagen stehen, verringert sich die Ausbeute um weitere etwa zwei Prozent. Die Wissenschaftler beobachten allerdings auch eine konstante Differenz zwischen tatsächlichem und prognostiziertem Ertrag von bis zu 20 Prozent, die sie nicht erklären können. Die einzelnen Beiträge, mit denen die Forscher die Differenz zwischen erwartetem und tatsächlichem Stromertrag begründen, lassen sich jedoch nicht einfach summieren, da der Zusammenhang zwischen den Faktoren nicht linear ist.

Den Unterschied zwischen erwartetem und tatsächlichem Stromertrag berücksichtigten die Forscher, um auf der Basis der erzeugten Strommenge den tatsächlichen Ertrag aller Windkraftanlagen in Deutschland zu ermitteln. Die erzeugte Strommenge ist demnach zwischen 2000 und 2014 von 9,1 auf 58,9 Terawattstunden pro Jahr gestiegen. Das entspricht einem Anteil von 1,6 Prozent der bundesdeutschen Stromerzeugung im Jahr 2000 und 9,1 Prozent in 2014. Diese Zahlen decken sich sehr gut mit den Daten des Bundesministeriums für Wirtschaft und Energie zur Leistung der Windkraftanlagen in Deutschland.

Reduzierte Windgeschwindigkeiten machen sich noch nicht bemerkbar
In früheren Studien hatten die Wissenschaftler berechnet, dass die Effizienz von Windrädern sinken sollte, je mehr Turbinen in einem Gebiet errichtet werden. Denn bei einer so intensiven Nutzung sollten die Windgeschwindigkeiten abnehmen, weil jede Turbine dem Wind einen Teil seiner Energie entzieht. „Wir haben erwartet, dass wir einen solchen Trend in einigen Regionen Deutschlands finden würden“, meint Axel Kleidon, Arbeitsgruppenleiter am Max-Planck-Institut für Biogeochemie in Jena.

Die Forscher wählten daher für die neue Studie den Zeitraum zwischen 2000 und 2014, in dem die Zahl der Windräder in Deutschland von knapp 9000 auf mehr als 25.000 zunahm. Da die Turbinen im selben Zeitraum deutlich leistungsfähiger wurden – so vergrößerte sich der Rotordurchmesser im Schnitt von 42 auf 66 Meter -, wuchs die durchschnittliche Kapazität von 611 auf 1453 Kilowatt. Die installierte Kapazität nahm damit von 5,7 Gigawatt auf 37,6 Gigawatt zu. „Die Differenz zwischen dem zu erwartenden und dem tatsächlichen Stromertrag ist über die Jahre relativ konstant geblieben“, sagt Sonja Germer, wissenschaftliche Mitarbeiterin in der Arbeitsgruppe. Die Forscher stellten also keinen Rückgang der Effizienz im Zusammenhang mit der gestiegenen Anzahl der Turbinen fest. „Wahrscheinlich nutzen wir einfach noch nicht genug Windenergie, um den Einfluss reduzierter Windgeschwindigkeiten deutlich genug sehen zu können“, so Sonja Germer.

Wissenschaftliche Ansprechpartner:
Dr. Axel Kleidon
Max Planck Institut für Biogeochemie
07743 Jena
Telefon: +49 3641 57 6217
Mobil: 0170-9260144
E-Mail: akleidon@bgc-jena.mpg.de

Originalpublikation:
Sonja Germer and Axel Kleidon (2019) Have wind turbines in Germany generated electricity as would be expected from the prevailing wind conditions in 2000-2014?
PLOS ONE.
doi:10.1371/journal.pone.0211028

Weitere Informationen:
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0211028 Weblink zur Veröffentlichung
https://www.bgc-jena.mpg.de/index.php/BTM/Home Webseiten der Forschungsgruppe

Quelle: IDW 

(nach oben)


Roadmap zur Cybersicherheitsforschung

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Wie den digitalen Bedrohungen auf europäischer Ebene künftig besser begegnet werden kann, haben unter der Koordination des BMBF-Verbundprojektes secUnity 30 namhafte europäische IT-Sicherheitsexperten in der secUnity-Roadmap niedergelegt, darunter Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT). Am heutigen Dienstag, 5. Februar, stellen die Wissenschaftlerinnen und Wissenschaftler von secUnity die Roadmap in Brüssel vor und übergeben sie offiziell an die Europäische Agentur für Netzwerk und Informationssicherheit ENISA.

Übermittlung von Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung – nahezu kein Bereich kommt mehr ohne moderne Informations- und Kommunikationstechnologien aus. Gleichzeitig nimmt die Zahl der Cyberangriffe, die bekannt werden, stetig zu. Solche Attacken auf die digitale Infrastruktur durch Kriminelle oder staatliche Organisationen bedrohen den Wohlstand und die Sicherheit unserer Gesellschaften, am Ende sogar Freiheit und Demokratie. Bei einer Abendveranstaltung in der Vertretung des Landes Hessen bei der Europäischen Union in Brüssel werden secUnity-Wissenschaftler mit Vertretern des Europäischen Parlaments und der Europäischen Kommission über „Zivile Cybersicherheitsforschung für digitale Souveränität“ diskutieren und im Anschluss offiziell die secUnity-Roadmap veröffentlichen und an die Europäische Agentur für Netzwerk und Informationssicherheit übergeben.

„Das Gefahrenpotenzial, das Cyberattacken für hochentwickelte Länder entfalten können, kann man nicht hoch genug einschätzen“, warnt Professor Jörn Müller-Quade, Sprecher des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. In secUnity arbeiten IT-Sicherheitsexperten aus ganz Deutschland zusammen. Beteiligt sind, neben den drei nationalen Kompetenzzentren KASTEL, CRISP und CISPA, Spezialisten der TU Darmstadt, der Ruhr-Universität Bochum und der Fraunhofer-Institute für Angewandte und Integrierte Sicherheit AISEC und für Sichere Informationstechnologie SIT.

Cybersicherheitsexperten bemängeln schon lange, dass Firmen, öffentliche Einrichtungen und Institutionen nicht ausreichend auf digitale Bedrohungen vorbereitet seien. Im Gegenteil: Durch die fortschreitende Vernetzung, die sich durch digitale Trends wie Industrie 4.0, Smart Home oder selbstfahrende Autos noch potenzieren wird, würden die Angriffsflächen für Cyberkriminelle immer größer. In der jetzt vorgelegten Roadmap, die das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt secUnity initiiert hat, haben die über 30 europäischen Autoren zukünftige Herausforderungen und Lösungswege identifiziert. Zum Beispiel werden die Sicherheit eingebetteter Systeme, Maschinelles Lernen, die Problematik der fehlenden Awareness und das Phänomen von Fake News untersucht und Vorschläge für mehr Sicherheit erarbeitet.

Sehr kritisch sehen die Experten die Verwendung von Hardwarelösungen, die oft ohne IT-Sicherheitsüberprüfung verwendet werden. Dies gefährde die digitale Souveränität Europas. „Eine Möglichkeit diese Situation zu verbessern, wären hier europäische Prüfinstitute, um die Technik unabhängig zu analysieren“, so Professor Michael Waidner, Direktor des Nationalen Forschungszentrums für angewandte Cybersicherheit CRISP und des Fraunhofer-Instituts SIT in Darmstadt. Zudem könnten Open-Source-Software- und Hardwarelösungen transparent in der EU entwickelt werden.

Da aber auch in Zukunft noch weiterhin eine Vielzahl von preiswerten jedoch unsicheren Hard- und Softwarekomponenten verbaut und genutzt wird, reichen Ansätze zur Entwicklung vertrauenswürdiger europäischer Lösungen nicht aus, um vernetzte Systeme wirksam zu schützen. Am Beispiel Smart Home führt Professorin Claudia Eckert, Direktorin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC in München aus: „Wir brauchen Lösungen, um die Risiken solcher Komponenten zu minimieren und die Systeme resilient zu betreiben. Kameras, Türöffner, die Heizungssteuerung – jedes Heimautomatisierungsgerät ist ein mögliches Einfallstor für große Netz-Attacken. Sichere Gateways für die Verbindung unsicherer Komponenten können beispielsweise dafür sorgen, dass keine sensitive Information die Heimumgebung verlässt und keine Zugriffe von außen auf Steuerungskomponenten möglich sind.“ Resilienz trotz unkalkulierbarer Komponenten – dies muss natürlich insbesondere für kritische Infrastrukturen wie Gesundheits- und Energieversorgung, aber auch für Behörden und Unternehmen sichergestellt werden.

Auch die weltweit stark vorangetriebene Entwicklung von Quantencomputern berge Gefahren. Jörn Müller-Quade warnt: „Es ist zwar bislang noch nicht gelungen, einen hinreichend großen Quantencomputer zu bauen, um die Sicherheit aktueller kryptographischer Verfahren zu gefährden, aber dies könnte sich schnell ändern. Der derzeitige Fortschritt in der Quantentechnologie ist so groß, dass wir heute schon Vorsorge treffen müssen. Wir müssen unsere komplexen vernetzten Systeme auf zukunftssichere, noch weiter zu erforschende Verschlüsselungsverfahren umstellen.“

Methoden der Künstlichen Intelligenz viele neue Anwendungsfälle, sie bringen aber auch gravierende Risiken für die IT-Sicherheit mit sich: Maschinelle Lernprozesse können durch gezielte Manipulationen während der Lernphase und auch im Betrieb einfach angegriffen werden. „Bevor diese Technologien in kritischen Bereichen oder zur Verbesserung der Lebensqualität eingesetzt werden können, muss das Vertrauen in diese Verfahren und in deren Zuverlässigkeit auf ein wissenschaftliches Fundament gesetzt werden“, fordert Professor Thorsten Holz von der Ruhr-Universität Bochum.

Auch werfen neue Möglichkeiten der Informationsgesellschaft wie etwa intelligente Stromnetze, die den Alltag komfortabler machen und beim Energiesparen helfen, rechtliche und ganz besonders datenschutzrechtliche Fragen auf: „Angesichts der fundamentalen Risiken, die durch die Digitalisierung ganzer Industriezweige und auch kritischer Infrastrukturen wie die Strom- oder Energieversorgung für die Versorgungssicherheit entstehen, brauchen wir dringend einen europäisch harmonisierten Rechtsrahmen für IT-Sicherheit“, sagt Dr. Oliver Raabe vom Zentrum für Angewandte Rechtswissenschaft (ZAR) des KIT. Die rechtlichen Maßstäbe, welche Risiken akzeptabel sind und welche Schutzmaßnahmen den Unternehmen zugemutet werden könnten, müssten erst noch entwickelt werden. Ebenso Maßgaben für die Sicherung von Qualität und Unverfälschbarkeit der großen Datenbestände (Big Data).

Zudem müssen die Bürgerinnen und Bürger selbst, die zunehmend komplexe Kommunikationssysteme nutzen, beim Schutz ihrer Privatsphäre und IT-Sicherheit unterstützt werden. „Ziel der Forschung ist daher zum Beispiel, Methoden für einen Privacy Advisor zu entwickeln. Diese sollen beim Hochladen von Bildern oder Nachrichten ins Netz die Risiken einschätzen und unter Berücksichtigung bisheriger Posts aufzeigen, wie viel zusätzliche private Information durch die Veröffentlichung preisgegeben wird. Dies würde die Bürger dabei unterstützen, sich souverän in sozialen Netzwerken zu bewegen“, kündigt Professor Michael Backes, Gründungsdirektor des CISPA Helmholtz-Zentrums für Informationssicherheit, an.

Angesichts dieser immer größer werdenden Datenbestände, ergeben sich für viele Unternehmen neue Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar sichere Marktposition im digitalen Zeitalter zu verlieren. „Daten sind nicht per se das Öl des 21. Jahrhunderts. Sie bekommen erst dann einen Wert, wenn Geschäftsmodelle entwickelt werden, die sie wertvoll machen – und Wertvolles hat besonderen Schutz und Sicherheit verdient“, erklärt Peter Buxmann, CRISP-Wissenschaftler und Professor für Wirtschaftsinformatik sowie Leiter des Gründungszentrums HIGHEST an der TU Darmstadt. Bürgerinnen und Bürger müssen sich des Wertes und Schutzbedarfs ihrer Daten bewusst werden, während Transparenz bei der Nutzung und Weiterverarbeitung von Daten sowie faire Preismodelle von Anbietern umgesetzt werden müssen. „Politisch sollten wir uns deswegen eher weg vom Prinzip der Datensparsamkeit in Richtung Datensouveränität bewegen und faire Geschäftsmodelle fördern und fordern“, so Buxmann.

„Um all diesen Herausforderungen zu begegnen, braucht die zivile Cybersicherheit ein interdisziplinäres Netzwerk von Experten der zivilen Cybersicherheitsforschung auf EU-Ebene“, fasst secUnity-Sprecher Jörn Müller-Quade zusammen.

Weitere Informationen im Internet unter: https://it-security-map.eu/de/startseite/

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Originalpublikation:
https://www.kit.edu/kit/pi_2019_015_roadmap-zur-cybersicherheitsforschung.php

Anhang
Roadmap zur Cybersicherheitsforschung
https://idw-online.de/de/attachment70896

Quelle: IDW 

(nach oben)


Betreuungswünsche vieler Eltern bleiben unerfüllt

Birgit Taffertshofer Abteilung Medien und Kommunikation
Deutsches Jugendinstitut e.V.

Jede fünfte Familie mit einem ein- oder zweijährigen Kind gibt in Westdeutschland an, dass ihr Kind derzeit nicht institutionell betreut wird, obwohl Bedarf besteht. In Ostdeutschland trifft das auf 12 Prozent dieser Familien zu. Damit suchen in Westdeutschland ungefähr 245.000 und in Ostdeutschland etwa 35.000 Eltern vergebens einen Betreuungsplatz für ihr Kind. Große Lücken zwischen Nachfrage und Angebot existieren aber auch bei der Betreuung von Schulkindern.

Immer mehr Kinder in Deutschland nutzen ein Angebot der Kindertagesbetreuung. So hat sich die Anzahl betreuter unter Dreijähriger seit dem Jahr 2006 mehr als verdoppelt. Doch obwohl sich Angebot und Nachfrage von Betreuungsplätzen immer weiter annähern, erfüllt sich der Wunsch nach einem Platz nicht für alle Eltern. Und auch für Eltern, die bereits einen Betreuungsplatz haben, ist das Angebot nicht immer ausreichend. Das zeigt die DJI-Kinderbetreuungsstudie (KiBS) des Deutschen Jugendinstituts (DJI), bei der im Jahr 2017 etwa 37.000 Eltern von Kindern unter 15 Jahren befragt wurden.

Die soeben erschienenen differenzierten Analysen der Elternbefragung zeigen, inwiefern das Betreuungsangebot dem Bedarf der Eltern entspricht. Die größte Lücke zwischen Nachfrage und Angebot existiert demnach im Bereich der frühkindlichen Betreuung – mit regionalen Unterschieden. So gibt in Westdeutschland jede fünfte befragte Familie mit einem ein- oder zweijährigen Kind an, dass ihr Kind derzeit nicht institutionell betreut werde, obwohl ein Bedarf bestehe. In Ostdeutschland trifft das auf 12 Prozent dieser Familien zu. Damit suchen in Westdeutschland ungefähr 245.000 und in Ostdeutschland etwa 35.000 Eltern vergebens einen Betreuungsplatz für ihr Kind.

Bei Kindern im Kindergartenalter (U6-Kinder) ist die Versorgung mit Betreuungsplätzen bislang noch gut. Deutschlandweit nutzen nur fünf Prozent dieser Kinder (130.000 bis 150.000 Kinder) kein Betreuungsangebot, ungefähr 60.000 dieser Familien hätten gerne einen Betreuungsplatz. „Wegen des Geburtenanstiegs könnten aber auch in dieser Alterskohorte bald mehr Plätze fehlen“, warnt Dr. Christian Alt, Leiter der DJI-Kinderbetreuungsstudie. Zudem geben 9 Prozent der Eltern von Grundschulkindern in Westdeutschland an, trotz ihres Bedarfs keinen Betreuungsplatz zu haben. In Ostdeutschland betrifft das 3 Prozent der Familien. Demnach gibt es bundesweit einen Bedarf in Höhe von etwa 200.000 Plätzen. Wenngleich der Wunsch nach einer institutionellen Betreuung für Kinder nach Abschluss der Grundschule seltener wird, gibt es auch in der sogenannten Sekundarstufe I einen ungedeckten Betreuungsbedarf (9 Prozent Westdeutschland, 12 Prozent Ostdeutschland).

Den Ergebnissen der Studie zufolge müssten in Westdeutschland für alle Altersgruppen vor allem Plätze geschaffen werden, die die Zeit bis zum frühen Nachmittag abdecken, sogenannte (erweiterte) Halbtagsplätze. In Ostdeutschland wird hingegen überwiegend eine ganztägige Betreuung nachgefragt.

Ein Bedarf ist aber nicht allein durch die Inanspruchnahme eines Betreuungsplatzes gedeckt. „Einige Eltern, die für ihr Kind bereits einen Betreuungsplatz haben, benötigen deutlich längere Betreuungszeiten als sie derzeit nutzen“, sagt Alt. Dies gilt insbesondere, wenn der Bedarf (auch) außerhalb der Zeit von 8 bis 17 Uhr liegt. 22 Prozent der Eltern von Kindern im Krippenalter und 17 Prozent der Eltern von Kindergartenkindern, die einen Bedarf an solchen Betreuungszeiten haben, benötigen einen Betreuungsumfang, der um mehr als fünf Stunden pro Woche über dem genutzten Umfang liegt.

Diese und weitere differenzierte Analysen der DJI-Kinderbetreuungsstudie (KiBS) sind im DJI-Kinderbetreuungsreport 2018 neu erschienen. Erste zentrale Ergebnisse der Elternbefragung, die das Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) finanziert, erscheinen regelmäßig in der Broschüre „Kindertagesbetreuung kompakt“.

Wissenschaftliche Ansprechpartner:

Dr. Christian Alt (Projektleitung)
Fachgruppenleitung „Lebenslagen und Lebenswelten von Kindern“
Tel.: 089 62306-239
alt@dji.de

KiBS-Projektteam:
kibs@dji.de

Originalpublikation:
Christian Alt, Benjamin Gedon, Sandra Hubert, Katrin Hüsken, Kerstin Lippert: Kinderbetreuungsreport 2018. Inanspruchnahme und Bedarfe bei Kindern bis 14 Jahre aus Elternperspektive – ein Bundesländervergleich. Deutsches Jugendinstitut

Weitere Informationen:
http://www.dji.de/kinderbetreuungsreport2018
http://www.dji.de/KiBS16-18

Quelle: IDW 

(nach oben)


Trockene Gewässer sind unterschätzte „Player“ im Klimawandel

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Dürrejahr 2018 – im Klimawandel werden immer mehr Gewässer zumindest temporär austrocknen, viele Seen schrumpfen permanent und verschwinden dauerhaft. In den letzten dreißig Jahren sind bereits etwa 90.000 Quadratkilometer Seenoberfläche verschwunden. Dieser Trend gefährdet nicht nur Trinkwasserreserven und wichtige Ökosysteme – trockenfallende Gewässer spielen im globalen Kohlenstoffkreislauf eine wichtige Rolle, sie können CO2 und andere klimarelevante Gase freisetzen. Diese Bedeutung wurde bislang unterschätzt, so zwei aktuelle Studien unter Mitwirkung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB).

Eine zentrale Größe der Sachstandsberichte des Weltklimarats (IPCC) ist der globale Kohlenstoffzyklus: Kohlenstoff bzw. C ist in verschiedenen Formen in Gesteinen, Böden, Wasser, Luft, Lebewesen und Atmosphäre vorhanden; zwischen diesen Sphären finden stetige Austauschprozesse statt. In der Atmosphäre wirkt Kohlenstoff in Form von CO2 als Treibhausgas. „Bei der Berechnung von Stoffflüssen im Kohlenstoffkreislauf sind bestimmte Lebensräume zu komplex zu erfassen und werden entsprechend im IPCC-Bericht nicht gesondert beachtet“, erklärt Dr. Gabriel Singer, Leiter der IGB-Arbeitsgruppe „Ökosystemökologie von Bächen und Flüssen“ und Mitautor der beiden Studien. Dabei haben Flüsse, Seen, Teiche oder Bäche, die teilweise oder vollständig austrocknen oder deren Wasserspiegel fällt, einen nicht unbedeutenden Anteil am global emittierten CO2, wie das Autoren-Team zeigen kann: Werden vollständig trockengefallene Seesedimente und saisonal trockenfallende Flächen unterschiedlichster Gewässer beachtet, müssen die CO2-Flüsse aus kontinentalen Gewässern an die Atmosphäre um etwa 10 Prozent höher angesetzt werden. Damit spielen Binnengewässer eine bedeutendere Rolle im globalen Kohlenstoffkreislauf als bislang angenommen.

Seen galten bislang als Kohlenstoff-Speicher – das stimmt nur bedingt:
Für die Studie werteten die Wissenschaftler zahlreiche Studien aus, die in den vergangenen Jahren zu der Frage beigetragen haben, wie sich CO2-Emissionen aus Gewässern und ihr Beitrag zum Kohlenstoffkreislauf beziffern lassen und welche Ursachen deren zunehmende Austrocknung hat. Eigentlich sind Gewässer, insbesondere Seen, vor allem C-Senken, in deren Sedimenten Kohlenstoff langfristig gebunden wird. Sinkt der Wasserspiegel jedoch ab, kommt ein größer werdender Teil des Seebodens in Kontakt mit dem Sauerstoff der Luft. Je trockener die Sedimente werden, umso mehr steigt die aerobe Respiration an – das tote organische Material im Seeboden wird von Bakterien veratmet, wodurch wiederum CO2 produziert wird. „Unsere Analyse zeigt, dass Seen mitnichten nur als C-Senken zu betrachten sind, sondern im Gegenteil gasförmigen Kohlenstoff emittieren, wenn sie trockenfallen“, betont Gabriel Singer. Diese Effekte dürften im Zuge des Klimawandels an Bedeutung zunehmen: So sind in den letzten 30 Jahren weltweit bereits etwa 90.000 km2 Gewässeroberfläche vollständig verschwunden.

Auf Grundlage der gesammelten Erkenntnisse errechnete das Autoren-Team einen ungefähren Basiswert für den Anteil, den trockenfallende Gewässer am globalen Kohlenstoffkreislauf haben. „Etwa 0,2 Gigatonnen CO2 werden jährlich von trockenen Gewässern weltweit emittiert. Zum Vergleich: Der jährliche CO2-Fluss aus kontinentalen Gewässern liegt bei ca. 2 Gigatonnen pro Jahr, die anthropogen erzeugte Menge aus der Verbrennung fossiler Brennstoffe bei 9 Gigatonnen pro Jahr“, so Gabriel Singer. Welchen Anteil der Mensch auf die zunehmende Trockenheit hat, lässt sich allerdings nur schwer beziffern; mögliche Einflüsse werden etwa einer veränderten Landnutzung in Einzugsgebieten von Gewässern oder Maßnahmen, die lediglich saisonal austrocknende Flüsse durch Wasserentzug dauerhaft trockenlegen, zugeschrieben. Und natürlich kann lokale Austrocknung auch eine Folgeerscheinung veränderter Temperatur- und Niederschlagsverhältnisse im Zusammenhang mit dem globalen Klimawandel sein.

Wasserspeicher sind mögliche Angriffspunkte für eine geringere Emission von CO2 aus Gewässern:
Die Ergebnisse der Studie bieten dem Menschen indes neue Handlungsoptionen. „Je genauer wir wissen, wie der globale Kohlenstoffkreislauf funktioniert, umso besser können wir mögliche Angriffspunkte identifizieren, vor allem wenn es darum geht, mögliche Rückkopplungen des Klimawandels abzufangen“, sagt Gabriel Singer. Wasserspeicher beispielsweise sind von Menschenhand geschaffene Gewässer, bei denen das Trockenfallen von Sedimentflächen bei Wasserstandschwankungen bewusst in Kauf genommen wird. Es gilt, die Rolle derartiger Systeme im Kohlenstoffkreislauf ganzheitlich abzuschätzen. Dazu gehört auch eine detaillierte Erfassung von Treibhausgasemissionen. Dies erscheint vor allem gegeben bei der Standortauswahl möglicher neu zu errichtender Speicher, aber auch im Hinblick darauf, wie das Management existierender Speicher angepasst werden kann oder ob sie gar entfernt werden sollten.

Eine weitere, kürzlich veröffentlichte Publikation aus dem Team von Gabriel Singer beschäftigt sich mit der Frage, welche Auswirkungen die Abwechslung von Trocken- und Regenperioden bei Flussökosystemen auf Stoffflüsse haben. Während eines Gastaufenthalts am IGB untersuchte die Nachwuchsforscherin Marisa Arce den Bestand von Stickstoff in den Sedimenten, die Oxidation von Ammonium sowie die Emission von Distickstoffmonoxid bzw. Lachgas, einem wichtigen Treibhausgas. Letzteres fällt während der Austrocknung ab, steigt aber wieder an, sobald es regnet. Die Ergebnisse helfen besser zu verstehen, wie sich Stickstoffflüsse in Bächen oder Flüssen in abwechselnd trockenen und Regenperioden verhalten. Dieses Szenario wird wegen des Klimawandels künftig mehr Flussökosysteme betreffen – und gegebenenfalls deren Rolle in globalen Stoffkreisläufen verändern.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:

Dr. Gabriel Singer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
gabriel.singer@igb-berlin.de
Telefon: +49 (0)30 64181 726
Mobil: +49 (0)176 614 30 176

Originalpublikation:
Rafael Marce; Biel Obrador; Lluis Gomez-Gener; Nuria Catalan; Matthias Koschorreck; Maria Isabel Arce; Gabriel Singer; Daniel von Schiller: Emissions from dry inland waters are a blind spot in the global carbon cycle. Earth-Science Reviews. – 188(2019), S. 240-248

Maria Isabel Arce; Daniel von Schiller; Mia M. Bengtsson; Christian Hinze; Hoseung Jung; Ricardo J. Eloy Alves; Tim Urich; Gabriel Singer: Drying and rainfall shape the structure and functioning of nitrifying microbial communities in riverbed sediments. Frontiers in Microbiology. – 9(2018)art. 2794

Quelle: IDW 

(nach oben)


Kieler Wissenschaftler erforschen autonomes Fahren auf Deutschlands größtem Flughafen

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Google, Tesla, Uber und die deutsche Automobilindustrie: Im Rennen um die Entwicklung selbstfahrender Autos mischen die ganz Großen mit. 3,3 Millionen Euro steckt das Bundeswirtschaftsministerium nun in das vom Sensorhersteller Ibeo koordinierte Projekt „AirPortMover“, in dem autonome, elektrisch angetriebene Nutzfahrzeuge für Flughäfen entwickelt werden sollen. Große Verantwortung tragen dabei Professor Dirk Nowotka und seine Mitarbeiter von der Christian-Albrechts-Universität zu Kiel (CAU): Sie sollen mit ihren Analysen die Zuverlässigkeit der und das Vertrauen in die Roboterautos erhöhen. Ein neuer, 300.000 Euro teurer Großrechner soll die Forscher dabei unterstützen.

Google, Tesla, Uber und die deutsche Automobilindustrie: Im Rennen um die Entwicklung selbstfahrender Autos mischen die ganz Großen mit. 3,3 Millionen Euro steckt das Bundeswirtschaftsministerium nun in das vom Sensorhersteller Ibeo koordinierte Projekt „AirPortMover“, in dem autonome, elektrisch angetriebene Nutzfahrzeuge für Flughäfen entwickelt werden sollen. Große Verantwortung tragen dabei Professor Dirk Nowotka und seine Mitarbeiter von der Christian-Albrechts-Universität zu Kiel (CAU): Sie sollen mit ihren Analysen die Zuverlässigkeit der und das Vertrauen in die Roboterautos erhöhen. Ein neuer, 300.000 Euro teurer Großrechner soll die Forscher dabei unterstützen.

Der Flughafen Frankfurt Frankfurt am Main ist der größte deutsche Flughafen und eines der weltweit bedeutendsten Luftfahrtdrehkreuze. Rund 70 Millionen Passagiere und über zwei Millionen Tonnen Fracht wurden dort im vergangenen Jahr abgefertigt. In diesem Mega-Unternehmen sollen in drei Jahren zwei Fahrzeuge computergesteuert unterwegs sein, um Flugzeugbesatzungen sicher an ihren Arbeitsplatz zu bringen und mobile Gangways an Flugzeuge heranzufahren. Ein hoch gestecktes Ziel, bedenkt man, dass die technischen Herausforderungen für autonomes Fahren auf einem Flughafengelände noch einmal höher liegen, als im normalen Straßenverkehr. Die Autos müssen zum Beispiel Kollisionen mit Flugzeugen vermeiden und dabei insbesondere auch in der Luft hängende Flugzeugflügel und Triebwerke erkennen. Zudem müssen sie sich in den extrem geschäftigen Flughafenhallen orientieren und in den Betriebsablauf eingefügt werden.

Die Software, die das leisten soll, muss vor allem eines sein: zuverlässig. Als Experte hat Dirk Nowotka, Leiter der Arbeitsgruppe „Zuverlässige Systeme“ an der Kieler Technischen Fakultät, die Aufgabe übernommen, die Software auf Herz und Nieren zu testen. Das geschieht zwar auch während der Fahrt in den Roboterautos auf dem Gelände des Projektpartners, der Flughafenbetreibergesellschaft Fraport. Die Umwelt- und Einsatzszenarien der Fahrzeuge sind jedoch viel zu komplex, als dass sie durch ein paar Testfahrten abgedeckt werden könnten. Informatiker Nowotka und seine Mitarbeiter verlassen sich deshalb auf die Mathematik. Mithilfe eines neuen Großrechners prüfen sie zum Beispiel, ob sich die Software in bestimmten Situationen „aufhängt“ oder sich parallele Rechenoperationen gegenseitig behindern. Entscheidend sind Nowotkas Analysen für die spätere Sicherheitszertifizierung und letztendlich die Zulassung der selbstfahrenden Nutzfahrzeuge. „Die Sicherheitsanforderungen beim autonomen Fahren sind ein relativ neues Feld, für die wir neue mathematische Modelle entwickeln müssen“, sagt Nowotka.

Neben der CAU, Ibeo und Fraport sind auch Airbus und die Hanseatische Fahrzeug Manufaktur am Projekt beteiligt. Das Projekt wird vom Bundesministerium für Wirtschaft und Energie (BMWi) im Rahmen des Fachprogramms „Neue Fahrzeug und Systemtechnologien“ gefördert.

Mehr zum Progamm:
http://www.bmwi.de/Redaktion/DE/Artikel/Technologie/fahrzeug-und-systemtechnologien.html

Wissenschaftlicher Kontakt:
Prof. Dr. Dirk Nowotka
Arbeitsgruppe Zuverlässige Systeme
Technische Fakultät
Christian-Albrechts-Universität zu Kiel
Tel.: 0431/880 4199
E-Mail: nowotka@zs.uni-kiel.de

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text: Denis Schimmelpfennig
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: www.uni-kiel.de Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni Instagram: www.instagram.com/kieluni

Link zur Meldung:
http://www.uni-kiel.de/de/detailansicht/news/028-airportmover/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dirk Nowotka
Arbeitsgruppe Zuverlässige Systeme
Technische Fakultät
Christian-Albrechts-Universität zu Kiel
Tel.: 0431/880 4199
E-Mail: nowotka@zs.uni-kiel.de

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/028-airportmover/

Quelle: IDW 

(nach oben)


Virtuelle Linse verbessert Röntgenmikroskopie

Dagmar Baroke Abteilung Kommunikation
Paul Scherrer Institut (PSI)

Röntgenstrahlen ermöglichen einzigartige Einblicke in das Innere von Materialien, Gewebe und Zellen. Forschende des Paul Scherrer Instituts PSI haben eine neue Methode entwickelt, dank der die Röntgenbilder von Materialien noch besser werden. Die Forschenden bewegten dazu eine optische Linse und nahmen dabei etliche Einzelbilder auf, aus denen sie mit Hilfe von Computeralgorithmen die eigentliche Aufnahme errechneten. Damit haben sie erstmalig das Prinzip der sogenannten Fourier-Ptychografie auf Messungen mit Röntgenlicht übertragen. Die Ergebnisse der Arbeit an der Synchrotron Lichtquelle Schweiz SLS sind im Fachmagazin Science Advances veröffentlicht.

Mit Röntgenmikroskopen blicken Forschende am PSI in Computerchips, Katalysatoren, Knochenstückchen oder Hirngewebe. Die kurze Wellenlänge des Röntgenlichts macht Details sichtbar, die eine Million Mal kleiner als ein Sandkorn sind – also Strukturen im Nanometerbereich (millionstel Millimeter). Wie bei einem normalen Mikroskop trifft das Licht auf die Probe und wird von ihr abgelenkt. Eine Linse sammelt dieses gestreute Licht und erzeugt ein vergrössertes Bild auf der Kamera. Allerdings streuen winzige Strukturen das Licht in sehr grossen Winkeln. Will man sie im Bild auflösen, braucht es entsprechend eine grosse Linse. „Doch es ist äusserst schwierig, solch grosse Linsen herzustellen“, sagt Klaus Wakonig, Physiker am PSI: „Im sichtbaren Bereich gibt es Linsen, die sehr grosse Streuwinkel einfangen können. Im Röntgenbereich hingegen ist dies aufgrund der schwachen Wechselwirkung mit dem Material der Linse komplizierter. Infolgedessen können meist nur sehr kleine Winkel eingefangen werden oder die Linsen sind sehr ineffizient.“

Die neue, von Wakonig und seinen Kollegen entwickelte Methode umgeht dieses Problem. „Das Ergebnis ist so, als ob wir mit einer grossen Linse gemessen hätten“, erklärt der Forscher. Das PSI-Team verwendet eine kleine, aber effiziente Linse, wie sie üblicherweise in der Röntgenmikroskopie eingesetzt wird, und verschiebt diese über einen Bereich, den eine ideale Linse abdecken würde. Somit entsteht virtuell eine grosse Linse. „In der Praxis gehen wir mit der Linse zu verschiedenen Punkten und nehmen dort jeweils ein Bild auf“, erklärt Wakonig. „Dann verwenden wir Computeralgorithmen, um alle Bilder zu verbinden und so eine hochaufgelöste Aufnahme zu erzeugen.“

Vom sichtbaren Licht zur Röntgenstrahlung
Normalerweise vermeidet man, Linsen in Instrumenten von der optischen Achse weg zu bewegen, da dies die Abbildung verfälschen kann. Doch da die Forschenden die genaue Position der Linse kennen und viele nah beieinander liegende Punkte beleuchten, können sie rekonstruieren, wie das Licht gestreut wurde und wie die Probe ausgesehen hat. Das Verfahren heisst Fourier-Ptychografie und wird seit 2013 für die Mikroskopie im sichtbaren Bereich verwendet. In ihren Experimenten am PSI konnten die Forschenden nun erstmals dieses Prinzip auf die Röntgenmikroskopie übertragen. „Soweit wir wissen, wurde bisher keine erfolgreiche Umsetzung der Fourier-Ptychografie mit Röntgenlicht gemeldet“, schreiben die Forschenden in Science Advances.

Die neue Methode liefert nicht nur eine bessere Auflösung, sondern auch zwei sich ergänzende Bildinformationen. Einerseits wird wie bei einer Handy-Kamera gemessen, wie viel Licht vom abzubildenden Objekt absorbiert wird. Andererseits wird auch erfasst, wie das Licht abgelenkt wird. Die Fachleute sprechen von Absorptions- und Phasenkontrast. „Unsere Methode liefert den Phasenkontrast, der sonst nur schwer zu erhalten ist, praktisch gratis mit“, sagt Ana Diaz, Strahllinienwissenschaftlerin am PSI: „Dadurch ist die Qualität der Bilder viel besser.“ Der Phasenkontrast ermöglicht es sogar, Rückschlüsse auf die Materialeigenschaften der untersuchten Probe zu ziehen, was mit normaler Bildgebung in der Regel nicht gelingt.

Besonders interessant für biologische Proben
In ihren Experimenten war die untersuchte Probe der Forschenden ein Detektorchip. In Zukunft könnte die neue Methode zum Beispiel aufzeigen, wie ein Katalysator bei hohen Temperaturen arbeitet, wenn man ein Gas hinzufügt, oder wann und wie ein Metall unter Druck bricht.

Aber auch Gewebe und Zellverbände könnten damit besser untersucht werden. Davon erhoffen sich die Forschenden neue Erkenntnisse über die Entstehung von Krankheiten wie Alzheimer oder Hepatitis. „Biologische Proben haben normalerweise keinen guten Absorptionskontrast. Hier sorgt der Phasenkontrast für eine wesentliche Steigerung der Bildqualität“, erklärt Diaz die Vorzüge der neuen Methode. Zudem vermuten die Forschenden, dass die Fourier-Ptychografie schonender ist als bisherige Verfahren. „Ein Vergleich mit der normalen Röntgenmikroskopie deutet darauf hin, dass die neue Methode eine geringere Strahlendosis erfordert, weil sie effizienter ist“, sagt Wakonig. „Dies könnte für Untersuchungen von biologischen Proben besonders interessant sein.“

Aufgebaut hat das Forscherteam seine Demonstrationsanlage an der Strahllinie cSAXS der Synchrotron Lichtquelle Schweiz SLS. „Die Experimente sind zurzeit noch recht aufwendig und brauchen viel Zeit“, sagt Diaz. Damit das neue Verfahren funktioniert, müssen die verwendeten Röntgenstrahlen sich in einer Art Gleichklang befinden, die Forschenden sagen: Sie müssen kohärent sein. Solche Experimente erfordern derzeit Grossforschungsanlagen wie die SLS. Wakonig untersucht aber auch, ob sich das Verfahren mit weniger Kohärenz realisieren lässt. Könnte man Proben auf diese Weise mit einer üblichen Laborquelle für Röntgenstrahlung untersuchen, würden sich viele weitere Anwendungsbereiche erschliessen.
Text: Barbara Vonarburg

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 390 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Klaus Wakonig
Forschungsgruppe für Kohärente Röntgenstreuung
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 39 69, E-Mail: klaus.wakonig@psi.ch [Deutsch, Englisch]

Dr. Ana Diaz
Forschungsgruppe für Kohärente Röntgenstreuung
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 56 26, E-Mail: ana.diaz@psi.ch [Deutsch, Englisch, Spanisch]

Dr. Andreas Menzel
Leiter der Forschungsgruppe für Kohärente Röntgenstreuung
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 37 11, E-Mail: andreas.menzel@psi.ch [Deutsch, Englisch]

Originalpublikation:
X-ray Fourier ptychography
K. Wakonig, A. Diaz, A. Bonnin, M. Stampanoni, A. Bergamaschi, J. Ihli, M. Guizar-Sicairos and A. Menzel
Science Advances 1. Februar 2019 (online)
DOI: http://dx.doi.org/10.1126/sciadv.aav0282

Weitere Informationen:
http://psi.ch/Ku2g – Darstellung der Mitteilung auf der Webseite des PSI

Quelle: IDW 

(nach oben)


Der Einfluss des Klimawandels auf das Grundwasser – eine tickende Zeitbombe

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)

Laut einer Studie, die jetzt in der Zeitschrift Nature Climate Change erschienen ist, werden sich in den meisten Regionen der Welt die Auswirkungen heutiger Klimaveränderungen auf das Grundwasser erst in den nächsten 100 Jahren manifestieren und so das Leben unserer Folgegenerationen beeinflussen.

Der Klimawandel und seine unmittelbaren, bereits wahrnehmbaren Folgen, wie etwa das Abschmelzen der Polkappen oder die Korallenbleiche, stehen regelmäßig im Fokus der Öffentlichkeit. Weniger Beachtung findet bisher ein tief im Erdboden verborgenes Risiko. Denn auch das Grundwasser ist dem Klimawandel ausgesetzt.

Wie schnell es auf klimatische Änderungen reagiert, hat jetzt ein internationales Wissenschaftler-Team unter Beteiligung des Leibniz-Zentrums für Marine Tropenforschung (ZMT) herausgefunden. Die Ergebnisse der Studie wurden kürzlich in Nature Climate Change publiziert.

Grundwasser speist sich vor allem aus Regen, der im Boden versickert und dort gespeichert wird. Langsam, oft nur mit einer Geschwindigkeit von wenigen Metern pro Jahr, fließt das Wasser dann in Bäche, Flüsse, Seen oder direkt ins Meer ab. Auf die Eigenschaften eines solchen Grundwassersystems haben verschiedene Faktoren Einfluss: die Beschaffenheit des Bodens beispielsweise, oder die Neigung des Geländes. Sie bestimmen darüber, wie schnell das Wasser ausgetauscht wird.

Die an der Studie beteiligten Wissenschaftler aus Europa, Nordamerika und Australien trugen weltweite Datensätze über die Merkmale der Grundwassersysteme zusammen. Anhand von Simulationsmodellen berechneten sie die Reaktionszeit der Systeme auf eine gesteigerte oder gedrosselte Wasserzufuhr, wie sie im Rahmen des Klimawandels zu erwarten ist.

Dabei stellte sich heraus, dass sich in vielen Gebieten erst in 100 oder mehr Jahren ein Einfluss des Klimawandels auf das Grundwasser bemerkbar machen wird. Je nach Beschaffenheit kann ein Grundwassersystem Schwankungen in der Wasserzufuhr unterschiedlich gut abpuffern. In trockenen Regionen ist die Zeitspanne besonders lang. Dort liegt der Grundwasserspiegel meist tief in der Erde, der Austausch mit der Landoberfläche ist gering.

„In der langen Reaktionszeit der Grundwassersysteme liegt die Tücke“, erklärt der Geologe Nils Moosdorf vom ZMT, einer der Autoren der Studie. „Grundwassersysteme haben ein „Gedächtnis“, das sich als ökologische Zeitbombe erweisen kann. Was ihnen heute widerfährt, wirft seine Schatten weit in die Zukunft und beeinträchtigt die Lebensbedingungen unserer Urenkel.“

Grundwasser ist die größte Frischwasserreserve der Erde. Mehr als zwei Milliarden Menschen beziehen ihr Trinkwasser aus dem Grundwasser. Klimawandel, Übernutzung sowie die wachsende Weltbevölkerung stellen große Herausforderungen an eine nachhaltige Bewirtschaftung der Wasserressourcen, insbesondere in Küstenregionen. Für entsprechende Managementpläne sind die Ergebnisse der Studie von großer Bedeutung.

Wissenschaftliche Ansprechpartner:
Dr. Nils Moosdorf
Leibniz-Zentrum für Marine Tropenforschung
Tel: 0421 / 23800 – 33
E-Mail: nils.moosdorf@leibniz-zmt.de

Originalpublikation:
Cuthbert, M.O., Gleeson, T., Moosdorf, N., Befus, K.M., Schneider, A., Hartmann, J., Lehner, B., 2019. Global patterns and dynamics of climate-groundwater interactions. Nature Climate Change, doi: http://dx.doi.org/10.1038/s41558-018-0386-4.

Quelle: IDW 

(nach oben)


Ernährungssicherheit weltweit stärken: Bayreuther Studie zur Phosphorverfügbarkeit durch Silizium

Brigitte Kohlberg Pressestelle
Universität Bayreuth

Landwirtschaftliche Erträge können weltweit gesichert werden, indem der in den Böden vorhandene Phosphor durch Silizium mobilisiert und für Pflanzen verfügbar gemacht wird. Phosphorhaltige Dünger, die umweltschädlich und wegen der Begrenztheit der globalen Phosphorressourcen auch kostspielig sind, werden dadurch möglicherweise über Jahre hinaus überflüssig. Dies haben Forscher der Universitäten Bayreuth und Kopenhagen durch Untersuchungen von Böden in der Arktis herausgefunden. Über ihre Erkenntnisse, die vor allem in tropischen und subtropischen Entwicklungsländern einen wichtigen Beitrag zur Ernährungssicherheit leisten können, berichten sie in der Zeitschrift Scientific Reports.

Landwirtschaftliche Erträge sind davon abhängig, dass den Pflanzen ausreichende Mengen der für sie lebenswichtigen Nährstoffe zur Verfügung stehen. Hierzu zählt auch Phosphor. Der in den Ackerböden oft reichlich vorhandene Phosphor ist allerdings zum größten Teil chemisch fest gebunden, insbesondere an Eisen, das seinerseits ein Bestandteil verschiedener Mineralien ist. Infolgedessen ist dieser Phosphor immobil und für die Pflanzen nicht verfügbar. Daher werden heute in der Landwirtschaft große Mengen an phosphorhaltigem Dünger eingesetzt, um möglichst hohe Erträge zu erzielen.

Das interdisziplinäre Forscherteam unter der Leitung von Dr. Jörg Schaller (Bayreuth) und Prof. Dr. Bo Elberling (Kopenhagen) hat nun aber einen Weg gefunden, große Mengen des in den Böden enthaltenen Phosphors für Pflanzen verfügbar zu machen: Silizium mobilisiert den an Eisen gebundenen Phosphor und bewirkt, dass er von den Wurzeln der Pflanzen aufgenommen werden kann. Wenn Landwirte ihren Böden genau dosierte Mengen Silizium zuführen, können sie ohne Ernteverluste für gewisse Zeit – gegebenenfalls sogar über mehrere Jahre – auf phosphorhaltigen Dünger verzichten.

„Die wirtschaftlichen und ökologischen Vorteile liegen auf der Hand“, betont Schaller. „Phosphorhaltiger Dünger ist eine begrenzte Ressource, wohingegen Silizium nahezu unbegrenzt vorhanden ist. Auf der Basis unserer Forschungsergebnisse kann die weltweite Verfügbarkeit von Phosphor im Boden durch eine gezielte Düngung mit Silizium präzise gesteuert werden. Dies wäre ein nicht zu unterschätzender Beitrag zur globalen Ernährungssicherheit“, erläutert der Bayreuther Umweltgeochemiker. Gerade in tropischen und subtropischen Entwicklungsländern ist in einigen Böden sehr viel Phosphor gebunden, der durch den kontrollierten Einsatz von Siliziumdünger Stück für Stück mobilisiert werden könnte.

Damit ist ein bedeutender Beitrag zum Umweltschutz verbunden: Die verringerte Phosphordüngung und die präzise Steuerung der Phosphorverfügbarkeit durch Silizium führen dazu, dass möglicherweise weniger Phosphor von den Feldern in die Gewässer gelangt. Daher sinkt die umweltschädliche Eutrophierung (Algenblüte) von Gewässern. Die Anreicherung der Böden mit Silizium hat zudem einen weiteren ökologischen Vorteil: Sie bewirkt, dass mehr Silizium von den Böden ins Meer transportiert wird. Infolgedessen könnte in den Meeren mehr Kohlenstoff durch Kieselalgen gebunden werden, statt als Treibhausgas in der Atmosphäre zu verbleiben.

Alle diese Erkenntnisse haben die Wissenschaftler in Bayreuth und Kopenhagen durch Untersuchungen von arktischen Böden gewonnen. An mehr als 150 Stellen auf dem schwedischen Festland, auf Spitzbergen, an der Nordküste Russlands und auf Grönland haben sie Bodenproben entnommen, die anschließend im Labor umfangreichen Analysen und Experimenten unterzogen wurden. Permafrostböden haben für die Erforschung geochemischer Prozesse den Vorteil, dass sie noch nicht durch Landwirtschaft und andere Aktivitäten des Menschen beeinflusst worden sind. „Bei der Auswahl der Bodenproben haben wir darauf geachtet, dass sich die jeweiligen Regionen möglichst stark voneinander unterscheiden – beispielsweise im Hinblick auf die Bodentypen, Landschaftsprofile und die Vegetation. Auf diese Weise wollten wir sichergehen, dass unsere Forschungsergebnisse nicht durch spezielle regionale Faktoren bedingt, sondern möglichst weltweit übertragbar sind“, erläutert Schaller.

An der jetzt in Scientific Reports erschienenen Studie haben verschiedene Forschungsbereiche des Bayreuther Zentrums für Ökologie und Umweltforschung (BayCEER), eines interdisziplinären Forschungszentrums der Universität Bayreuth, mitgewirkt: die Umweltgeochemie, die Experimentelle Biogeochemie und die Hydrologie.

Forschungsförderung:
Die Forschungsarbeiten an der Universität Bayreuth wurden von der Bayerischen Forschungsallianz (BayFOR) sowie von der Deutschen Forschungsgemeinschaft (DFG) gefördert.

Veröffentlichung:
J. Schaller, S. Faucherre, H. Joss, M. Obst, M. Goeckede, B. Planer-Friedrich, S. Peiffer, B. Gilfedder, and B. Elberling: Silicon increases the phosphorus availability of Arctic soils, Scientific Reports (2019), DOI: 10.1038/s41598-018-37104-6

Kontakt:
Dr. Jörg Schaller
Bereich Umweltgeochemie
Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER)
Universität Bayreuth
Telefon: +49 (0) 921 / 55-3991
E-Mail: joerg.schaller@uni-bayreuth.de

Redaktion:
Pressestelle
Universität Bayreuth
Universitätsstraße 30 / ZUV
95447 Bayreuth
Telefon: 0921 / 55-5357 oder -5324
E-Mail: pressestelle@uni-bayreuth.de
http://www.uni-bayreuth.de/de/universitaet/presse

Quelle: IDW 

(nach oben)


7. Herrenhausen Science Movie Night: Kunststoff-Umweltverschmutzung: Können Biokunststoffe helfen?

Dr. Lisa Mundzeck IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe
Hochschule Hannover

Wie verändern Kunststoffe unser Leben? Können Biokunststoffe helfen, um das Problem der Umweltverschmutzung durch Kunststoffe zu lösen? IfBB-Leiterin Prof. Andrea Siebert-Raths war am vergangenen Freitag bei der 7. Herrenhausen Science Movie Night – Film trifft Wissenschaft – „Plastic Planet“ auf dem Podium zu Gast und klärte über Chancen und Möglichkeiten von Biokunststoffen auf. Über 380 Gäste begeisterten sich für das Thema und diskutierten am Ende lebhaft mit.

Unter dem Titel „Erst bunt – Jetzt düster. Die Plage mit dem Plastik“ begann nach der Filmvorführung „Plastic Planet“ (2010, Regisseur: Werner Boote) eine lebhafte Diskussionsrunde über die Auswirkungen von Kunststoffen in der Umwelt und die Frage, wie wir die Umweltverschmutzung lösen können. Auf dem Podium zu Gast waren Dr. Lars Gutow, Biologe am Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung in Bremerhaven, Dr. Johanna Kramm, Leiterin der SÖF-Nachwuchsgruppe PlastX am Institut für sozial-ökologische Forschung (ISOE) GmbH in Frankfurt am Main und Prof. Dr.-Ing. Andrea Siebert-Raths, Leiterin des IfBB an der Hochschule Hannover. Moderiert wurde die Veranstaltung von Eckhard Stasch vom Technik-Salon der Leibniz Universität Hannover.

Prof. Siebert-Raths erläuterte vor einem vollen Auditorium, inwiefern Biokunststoffe auf manchen Gebieten Abhilfe schaffen können. Sollte man mehr herkömmliche Kunststoffe durch Biokunststoffe ersetzen? Wo sollte man Biokunststoffe einsetzen? Können Biokunststoffe eine Lösung für die allgegenwärtige Meeresverschmutzung durch Kunststoffe sein? Sind Biokunststoffe immer abbaubar? Und wie sollten sich Verbraucher verhalten?

Sie traf auf ein sehr interessiertes und lebhaftes Publikum, dem sie auch im Anschluss an die Veranstaltung mit Freude Rede und Antwort stand.

Die „Herrenhausen SCIENCE MOVIE NIGHT – Film trifft Wissenschaft“ ist eine Veranstaltungsreihe der VolkswagenStiftung. Auf jeder Veranstaltung wird ein Film vorgeführt, der anschließend von Expertinnen und Experten aus der Wissenschaft aus verschiedenen Perspektiven diskutiert wird. Die Veranstaltung findet im Xplanatorium Schloss Herrenhausen statt.

Kontakt:
Für weitere Fragen steht Ihnen Dr. Lisa Mundzeck am IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe an der Hochschule Hannover unter Telefon 0511 9296-2269 oder per E-Mail an lisa.mundzeck@hs-hannover.de gerne zur Verfügung.

Weitere Informationen:
http://www.ifbb-hannover.de

Quelle: IDW 

(nach oben)


Gegen die Fluten

Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen

Studierende der TH Bingen haben in rheinland-pfälzischen Kommunen untersucht, wie hoch das Risiko für Schäden durch Starkregen ist. Nun haben sie ihre Ergebnisse bereits in der vierten Verbandsgemeinde vorgestellt.

Bäche, die zu reißenden Flüssen werden, vollgelaufene Keller oder umgerissene Bäume: Die Folgen von Starkregenereignissen können auch solche Bewohnerinnen und Bewohner treffen, die nicht unmittelbar an einem Flusslauf wohnen. Für welche Regionen die Gefahr besonders hoch ist, haben Studierende der Technischen Hochschule (TH) Bingen in vier Verbandsgemeinden untersucht: Nieder-Olm, Rhein-Nahe, Langenlonsheim und Rhein-Selz. Für die letztere Verbandsgemeinde wurden nun die Ergebnisse vorgestellt. Die Studierenden der Studiengänge Umweltschutz sowie Klimaschutz und Klimaanpassung haben die verschiedenen Parameter untersucht, die bei der Risikoanalyse von Starkregenfolgen wichtig sind: Wie sind das Klima und insbesondere der Niederschlag in der Region und inwiefern haben sie sich verändert? Was sind die geografischen und städtebaulichen Gegebenheiten, wie erfolgt die Landnutzung und wie hoch ist beispielsweise die Erosion in den vorhandenen Ackerflächen? Für das Projekt analysierten die Studierenden die topografischen Karten und erkundeten bei Exkursionen die Bedingungen. Denn viele Faktoren können erst an Ort und Stelle genau bestimmt werden. Dabei wurden sie jeweils von Ortskundigen unterstützt, zum Beispiel der Feuerwehr oder Vertreterinnen und Vertretern der Gemeinden. Anschließend analysierten sie die Risiken am Computer. Die Studierenden empfehlen auf Grundlage der Analysen dann ganz konkrete Maßnahmen für die jeweilige Region.

Elke Hietel, Professorin für Landschaftspflege, Landschafts- und Stadtplanung an der TH Bingen, betreut das Projekt gemeinsam mit Oleg Panferov, Professor für Klimawandel und Klimaschutz. Hietel betont: „Starkregenereignisse werden nicht nur häufiger, sie werden auch intensiver. Der Grund ist, dass es wärmer wird. Warme Luft kann mehr Wasser speichern, das sich dann als Starkregen entlädt. Außerdem kann nach einer langen Trockenphase auch ein normaler Regen zu einem Extremereignis werden – vor allem dann, wenn die Böden ausgetrocknet sind.“ Für Stadt versus Acker lassen sich die Empfehlungen recht klar zusammenfassen: Bei Starkregen muss das Wasser in Städten und Dörfern sehr schnell und konzentriert durch die Siedlungen abfließen. Nur so können größere Schäden an der Infrastruktur oder an Häusern vermieden werden. Für die landwirtschaftlichen Flächen gilt dagegen: Äcker sollten als Zwischenspeicher genutzt werden, auf denen das Wasser langsam und breit versickern kann. Die anthropogenen, also die menschengemachten Gegebenheiten verstärken ganz klar die Folgen von Starkregen maßgeblich. Zum Beispiel die Begradigung von Bachläufen, eine ungünstige Anlage von Straßen und Abflüssen oder fehlkonstruierte Häuser, die den Eintritt von Wasser begünstigen.

Für die Studierenden ist das Projekt eine gute Gelegenheit, in einem interessanten Berufsfeld zu arbeiten. Dr. Stefan Cludius, leitender staatlicher Beamter beim Kreis Mainz-Bingen und zuständig für den Katastrophenschutz, begrüßt die Arbeiten: „Die Studierenden können mit ihrem Studium anderen ganz praktisch helfen. Die Themen in den Studiengängen Umwelt- und Klimaschutz sind hochaktuell.“ Initiiert wurde das studentische Projekt von der TH Bingen gemeinsam mit der Kreisverwaltung Mainz-Bingen. Das Interesse der Gemeinden ist anhaltend hoch, denn das Bewusstsein für diese Gefahr steigt angesichts von Ereignissen wie in Stromberg 2016 deutlich an. Cludius freut sich über die studentischen Arbeiten und betont, dass das Interesse an einer weiteren erfolgreichen Zusammenarbeit groß sei.

Professor Panferov bestätigt: „Eins gilt für alle Gemeinden – Risikogebiete gibt es überall, wenngleich sie auch unterschiedlich verteilt sind. Wichtig ist es, dass sich die Städte und Gemeinden frühzeitig damit beschäftigen – bevor der Ernstfall eintritt.“ Die Ergebnisse der Studien stellen erste Voruntersuchungen dar, weitere Analysen und Planungen müssen dann in den Verbandsgemeinden folgen.

Bei Interesse können auch andere Gemeinden bei dem Projekt mitmachen (Kontakt: e.hietel@th-bingen.de, o.panferov@th-bingen.de).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Elke Hietel
Professorin für Landschaftspflege, Landschafts- und Stadtplanung
www.th-bingen.de/person/elke-hietel

Prof. Dr. Oleg Panferov
Professor für Klimawandel, Klimaschutz
www.th-bingen.de/person/oleg-panferov

Weitere Informationen:
http://www.th-bingen.de

Quelle: IDW 

(nach oben)


Herrscher der kalten Gewässer

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Das Kräfteverhältnis der Meerestiere könnte sich durch die Erwärmung der Ozeane verschieben

In der Ökologie gilt die Regel, dass die Biodiversität in Richtung Äquator ansteigt und in den Tropen am höchsten ist. Eine Ausnahme bilden jedoch Warmblüter, wie Robben, Wale und Pinguine in den Ozeanen: Ihre Vielfalt nimmt in Richtung des Nord- und Südpols zu. Und das, obwohl sie dort ihren Körper stärker erwärmen müssen und die dafür notwendige Nahrung einen hohen Stoffwechsel erfordert. Ein Team um Dr. John Grady von der Michigan State Universität/USA und um die Freiburger Biologin Dr. Kristin Kaschner hat untersucht, was für weitreichende Konsequenzen die Anpassungen von warmblütigen Raubtieren an kalte Gewässer in Hinblick auf die Verteilung ihrer Artenvielfalt hat. Ihre Studie haben die Forschenden in der Fachzeitschrift „Science“ veröffentlicht.

Die Wissenschaftlerinnen und Wissenschaftler zeigen anhand von Daten und theoretischen Modellen, was für einen evolutiven Vorsprung warmblütige Räuber mit ihrem hohen Stoffwechsel im Vergleich zu wechselwarmen Tieren in Polargebieten haben. Da Fische, als wechselwarme Tiere, in kaltem Wasser langsamer schwimmen, ist es für Robben, Wale und Pinguine in der Nähe der Pole einfacher, Beute zu fangen, und Räubern, wie zum Beispiel Haien, zu entgehen.

Die Vielfalt der Warmblüter-Raubtiere ist wichtig, um das Ökosystem zu regulieren, erklärt Grady: „Durch die Erwärmung der Ozeane wird sich jedoch das Kräfteverhältnis zugunsten der Haie und Fische verschieben. Die Populationen von Säugetieren und Vögeln werden abnehmen.“

Originalpublikation:
Grady, J.M., Maitner, B.S., Winter, A.S, Kaschner, K., et al. (2019): Metabolic asymmetry and the global diversity of marine predators. In: Science. DOI: 10.1126/science.aat4220

Kontakt:
Dr. Kristin Kaschner
Abteilung für Biologie und Umweltsystemanalyse
Albert-Ludwigs-Universität Freiburg
Tel.: 0172/69 78 709
kristin.kaschner@biologie.uni-freiburg.de

Originalpublikation:
https://www.pr.uni-freiburg.de/pm/2018/herrscher-der-kalten-gewaesser?set_langua…

Quelle: IDW 

(nach oben)


Dem Klimawandel zum Trotz: Ostsee könnte zurück in einen guten Zustand gelangen

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

In dem größten Modellvergleich, der jemals für die Ostseeregion durchgeführt wurde, kam jetzt ein internationales Autorenteam um den Warnemünder Ozeanographen Markus Meier zu dem Ergebnis, dass ein guter Zustand der Ostsee-Umwelt erreicht werden kann, wenn die im Ostseeaktionsplan vorgesehenen Maßnahmen zur Reduktion der Nährstoff-Einleitung konsequent umgesetzt werden. Sie widersprachen damit der Ansicht, dass der Klimawandel generell ein Erreichen dieses Zieles unmöglich macht. Gleichzeitig bestätigten sie jedoch, dass bei unverändert hoher Nährstoffbelastung der Klimawandel für eine Verschärfung der Überdüngung sorgt.

Überdüngung zählt zu den größten Umweltproblemen der Ostsee. Sie befördert das Entstehen toxischer Algenblüten und führt zu Sauerstoffmangel-Regionen, in denen kein höheres Leben mehr existieren kann. Der Ostseeaktionsplan zielt daher explizit darauf ab, weniger Nährstoffe in die Ostsee einzutragen. Alle Anrainerstaaten haben sich auf dieses Ziel verständigt, aber die Umsetzung verläuft schleppend. In den letzten Jahren mehrten sich die Stimmen, die eine höhere Reduktionsrate forderten, da durch den erwarteten Klimawandel auch eine Verschärfung der Überdüngungsproblematik erwartet wird.

Vor diesem Hintergrund führte ein internationales Team von Modellierern aus Deutschland, Schweden, Finnland, Russland und Portugal eine Analyse von 58 so genannten Multi Model Ensemble Simulationen für die Ostseeregion im 21. Jahrhundert durch. Unter Berücksichtigung von Klimaszenarien, die der Weltklimarat (IPCC) für den fraglichen Zeitraum entwickelt hat, untersuchten alle Modelle die Auswirkungen einer konsequenten Umsetzung des Ostseeaktionsplans. Parallel wurde die Entwicklung bei unveränderten Eintragsmengen berechnet. Als Kontrolle dienten die Jahre 1980 bis 2005, für die Beobachtungswerte vorliegen. Je näher die Modellergebnisse für diesen Zeitraum an diese real gemessenen Werte herankamen, desto höher wurde die Verlässlichkeit der Modelle eingestuft. Zur Erfassung des Zustandes wurden die Variablen Sauerstoff, Salzgehalt und Temperatur sowie die Nährstoffe Stickstoff und Phosphor herangezogen.

Noch nie zuvor hatten so viele komplexe physikalisch-biogeochemische Modelle die Entwicklung der Ostsee durchgehend aus der Vergangenheit im Jahr 1960 über die Gegenwart bis in eine Zukunft im Jahr 2100 gerechnet. „Wir finden unter den Modellergebnissen solche, die die Referenzwerte der Jahre 1980 bis 2005 gut widerspiegeln“, fasst Markus Meier, Leiter der Sektion Physikalische Ozeanographie und Messtechnik am IOW, die Ergebnisse zusammen. „Diese Ergebnisse werten wir auch hinsichtlich der Projektionen in die Zukunft als verlässlich.“ Überraschend ergab sich jedoch, dass auch die Modelle, die einzeln von den Referenzwerten stark überweichen, in ihrer Gesamtheit einen Mittelwert aufweisen, der den Ergebnissen der verlässlichen Modelle entspricht. Offensichtlich kompensieren sich die unterschiedlichen Schwächen der Modelle am Ende. „Wir haben immer noch mit großen Unsicherheiten zu kämpfen. Aber insgesamt zeigen die Modellergebnisse, dass bei rigoroser Anwendung der im Ostseeaktionsplan ausgewiesenen Maßnahmen zur Reduktion von Nährstoffeinträgen auch unter veränderten Klimabedingungen ein guter Zustand für die Ostsee erreicht werden kann.“

Allerdings wird es einige Dekaden länger dauern, als ursprünglich angestrebt, bis der Erfolg eintritt. Markus Meier lässt keinen Zweifel daran, dass dem Klimawandel nicht mit Halbherzigkeit begegnet werden kann. „Wenn wir die Reduktionsziele nicht konsequent verfolgen, werden die Reaktionen auf den Klimawandel die Überdüngung und alle damit in Verbindung stehenden Umweltprobleme verschärfen.“

Der Modellvergleich ist unter dem Dach des Baltic Earth Programms (www.baltic-earth.eu/) und mit finanzieller Unterstützung des BONUS-Projektes Baltic App (Well-being from the Baltic Sea – applications combing natural sciences and economics) sowie des Schwedischen Forschungsrates für Umwelt-, Landwirtschaftsforschung und Raumplanung durchgeführt worden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Meier | Tel.: 0381 – 5197 150 | markus.meier@io-warnemuende.de
Leiter der Sektion Physikalische Ozeanographie und Messtechnik
Leibniz-Institut für Ostseeforschung Warnemünde

Originalpublikation:

Meier, H. E. M., Edman, M. K., Eilola, K. J., Placke, M., Neumann, T., Andersson, H. C., Brunnabend, S. E., Dieterich, C., Frauen, C., Friedland, R., Gröger, M., Gustafsson, B. G., Gustafsson, E., Isaev, A., Kniebusch, M., Kuznetsov, I., Müller-Karulis, B., Omstedt, A., Ryabchenko, V., Saraiva, S. and Savchuk, O. P.(2018) Assessment of Eutrophication Abatement Scenarios for the Baltic Sea by Multi-Model Ensemble Simulations. Front. Mar. Sci. 5:440. doi: 10.3389/fmars.2018.00440

Quelle: IDW 

(nach oben)


Menschliche Darmflora durch Nanopartikel in der Nahrung beeinflussbar

Barbara Reinke M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz

Neue Studie der Universitätsmedizin Mainz über die (patho)biologischen Auswirkungen von Nanopartikeln auf das Darm-Mikrobiom in „science of food“ veröffentlicht:
Nanopartikel binden an Darm-Mikroorganismen und beeinflussen so deren Lebenszyklus. Die Erkenntnisse dienen sowohl als Grundlage für weitere epidemiologische Untersuchungen als auch der Entwicklung „probiotischer Nanopartikel“.

Das Darm-Mikrobiom leistet nicht nur unverzichtbare Dienste bei der Verdauung, sondern spielt auch bei verschiedensten Krankheiten eine Rolle. Neue Erkenntnisse über den Einfluss von Nanopartikeln auf Darm-Mikroorganismen haben nun Forscher unter Federführung der Universitätsmedizin Mainz erzielt: Die Kleinstpartikel binden an Darm-Mikroorganismen und beeinflussen so deren Lebenszyklus. Die Forscher beobachteten beispielsweise, dass eine Infektion durch den am Magenkrebs beteiligten Krankheitserreger Helicobacter pylori zurückging, nachdem sich Nanopartikel daran angelagert hatten. Diese Erkenntnisse dienen sowohl als Grundlage für weitere epidemiologische Untersuchungen als auch der Entwicklung „probiotischer Nanopartikel“. Nachzulesen sind sie in der jüngsten Ausgabe der Fachzeitschrift „Nature Publishing Journal – Science of Food“.

Nanopartikel haben aufgrund ihrer minimalen Größe einzigartige Eigenschaften und Fähigkeiten, beispielsweise bei der Anlagerung an Kleinststrukturen. Deswegen gilt die Nanotechnologie sowohl in der Industrie als auch in der Medizin als wichtiger Innovationsträger. Die Medizin hofft insbesondere auf verbesserte Diagnose- und Behandlungsmethoden durch die Kleinstteilchen. Die Industrie hat eher Produktoptimierungen im Blick. Sie verwendet künstlich hergestellte Nanopartikel bereits als Zusatzstoffe, um beispielsweise die Produkteigenschaften von Lebensmitteln zu verbessern. Doch wie lässt sich die Anwendung der Nanotechnologie in Lebensmitteln sicherer und effizienter gestalten? Welche Wirkprinzipien gilt es zu beachten?

Durch den vermehrten Einsatz der Nanotechnologie erlangt die Suche nach Antworten hierauf zunehmend an Bedeutung. Dies vor allem auch vor dem Hintergrund, dass Nanopartikel außer über Mund und Nase vor allem über die Nahrung in den Körper gelangen. Die Ernährung wiederum hat starken Einfluss auf die Vielfalt und Zusammensetzung des sogenannten Mikrobioms. Das Mikrobiom bezeichnet die Gesamtheit aller Mikroorganismen, die den Menschen besiedeln, insbesondere alle Darmbakterien – also die Darmflora, aber auch die Haut, Mund- und Nasenhöhle besiedelnden Mikroorganismen.

Interessant für die Forschung und Klinik sind Mikrobiome auch deshalb, weil sie das Immunsystem, den Stoffwechsel, die Gefäßalterung, die Hirnfunktionen sowie das Hormonsystem ihres Wirts positiv oder auch negativ beeinflussen können. Daher spielt die Zusammensetzung dieser Mikroorganismen auch eine Rolle bei der Entstehung verschiedener Erkrankungen. Dazu zählen beispielsweise Herz-Kreislauf-Krankheiten, Darmkrebs, Allergien oder Adipositas bis hin zu psychischen Störungen. Zudem kann sich die Wechselwirkung zwischen dem Mikrobiom und dem Wirt – und damit die Gesundheit des Menschen – verändern, wenn Umweltfaktoren, wie die Einnahme von Medikamenten und vor allem die Ernährung, also beispielsweise mit technischen Nanopartikeln versetzte Lebensmittel, auf sie einwirken. Um potenzielle Risiken zu verringern sowie idealerweise die Gesundheit zu fördern, gilt es daher, die potenziell negativen oder positiven Auswirkungen von mit der Nahrung aufgenommenen Nanoteilchen bestmöglich zu untersuchen und zu verstehen.

„Ob und inwiefern diese Nano-Zusätze die Magen- oder Darmflora überhaupt beeinflussen, war bislang völlig unbekannt. Daher haben wir es uns zum Ziel gesetzt, die komplexen Interaktionen von Nanopartikeln mit Mikroorganismen zu erforschen und ihre potenziellen positiven oder schädlichen Folgen zu verstehen“, erläutert Univ.-Prof. Dr. Roland Stauber von der Hals-, Nasen-, Ohren-Klinik und Poliklinik – Plastische Operationen (HNO) der Universitätsmedizin Mainz. „Zu diesem Zweck untersuchten wir eine Reihe von technischen Nanopartikeln mit klar definierten Eigenschaften, um diejenigen zu simulieren, die derzeit oder potenziell in der Lebensmittelindustrie als funktionelle Inhaltsstoffe verwendet werden. Besonders spannend wurde es, als wir Nanoteilchen aus Lebensmitteln wie Bier isolieren konnten. Das heißt, Nanoteilchen werden nicht nur gezielt unserer Nahrung zugesetzt, sondern entstehen auch völlig natürlich bei deren Zubereitung – sind also bereits omipräsent.“

Indem sie den Gang der Partikel durch die unterschiedlichen Bedingungen des Verdauungstrakts im Labor nachstellten, konnten die Wissenschaftlern nachweisen, dass eine Vielzahl von Nanomaterialien an Bakterien binden können, so auch die „Bier-Nanopartikel“.

Wie sich zeigte, kann sich dieser Vorgang unterschiedlich auswirken. Einerseits scheint die körpereigene Immunpolizei bedeckte Mikroorganismen weniger effizient zu erkennen, was zu vermehrten Entzündungsreaktionen führen kann. Andererseits sind auch positive Nebeneffekte durch das „Nano-food“ möglich. Beispielsweise ließ sich in Zellkulturmodellen durch Silica-Nanoteilchen die Infektiösität des Keims Helicobacter pylori, der als Hauptursache für die Entstehung von Magenkrebs gilt, abschwächen. Dies lässt den Schluss zu, dass nanoskalige Lebensmittelzusatzstoffe sowie natürlich vorkommende Nanoteilchen genutzt werden können, um das Mikrobiom (rational) zu formen.

„Aus den erzielten Studienergebnissen lassen sich nun Strategien ableiten, um technische Nanopartikeln als Inhaltsstoffe für funktionelle Lebensmittel zu entwickeln und anzuwenden. In diesem Forschungsfeld, einschließlich Nahrungsmittelallergien, liegt ein riesiges Potenzial“, so Professor Stauber. „Herauszufinden, ob und vor allem welche Art von künstlichen oder natürlichen Nanoteilchen möglicherweise sogar als probiotische Nahrungsergänzung ihre Anwendung finden könnten, ist für uns Forscher eine spannende Herausforderung“, betonen Stauber und sein Team.

Weitere Informationen zur Studie: Originalveröffentlichung: Siemer, S; Hahlbrock, A.; Vallet, C.; McClements, D. J.; Balszuweit, J.; Voskuhl, J.; Docter, D.; Wessler, S.: Knauer, S. K.; Westmeier, D.; Stauber, R. H.; Nanosized food additives impact beneficial and pathogenic bacteria in the human gut: a simulated gastrointestinal study. Nature publishing journal -Science of Food, (2018) 2:22 ; doi:10.1038/s41538-018-0030-8

Kontakt:
Prof. Dr. Roland H. Stauber, Hals-, Nasen-, Ohren-Klinik und Poliklinik – Plastische Operationen, Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Telefon: 06131 17-6030 / 6030, Fax: 06131 17-6671;
E-Mail: roland.stauber@unimedizin-mainz.de

Pressekontakt
Barbara Reinke, Stabsstelle Unternehmenskommunikation Universitätsmedizin Mainz,
Telefon 06131 17-7428, Fax 06131 17-3496, E-Mail: pr@unimedizin-mainz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.400 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.800 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Roland H. Stauber, Hals-, Nasen-, Ohren-Klinik und Poliklinik – Plastische Operationen, Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Telefon: 06131 17-6030 / 6030, Fax: 06131 17-6671;
E-Mail: roland.stauber@unimedizin-mainz.de

Originalpublikation:
Siemer, S; Hahlbrock, A.; Vallet, C.; McClements, D. J.; Balszuweit, J.; Voskuhl, J.; Docter, D.; Wessler, S.: Knauer, S. K.; Westmeier, D.; Stauber, R. H.; Nanosized food additives impact beneficial and pathogenic bacteria in the human gut: a simulated gastrointestinal study. Nature publishing journal -Science of Food, (2018) 2:22 ; doi:10.1038/s41538-018-0030-8

Quelle: IDW 

(nach oben)


Umweltleistungen sichtbar machen: Ein neuer Index erleichtert die Bewirtschaftung von Flüssen

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Als Teil unserer Umwelt werden Flüsse und Auen intensiv genutzt und bewirtschaftet. Bisher ließen sich die Leistungen, die sie dabei für den Menschen erbringen, nur schwer erfassen. Nun hat ein Team aus Forschenden und Praxispartnern unter Federführung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) einen Index entwickelt, mit dem sich Leistungen von Flusslandschaften übersichtlich abbilden lassen. Erstmals lassen sich so die Auswirkungen von Bau- und Bewirtschaftungsmaßnahmen fachübergreifend zusammenfassen. Die Transparenz des Verfahrens erleichtert auch Bürgerbeteiligungen und die Mitsprache von Umweltverbänden.

Ob Schifffahrt, Wasserkraft, Hochwasserschutz, Naturschutz, Erholung und Tourismus, Siedlungsentwicklung oder Land- und Forstwirtschaft: Flusslandschaften zählen zu den am intensivsten genutzten Landesteilen. Wegen dieser Vielfalt an Interessen und Vorschriften sind Bauprojekte und andere Planungen in Flusslandschaften oft komplex und langwierig. Um die damit verbundenen Abstimmungs- und Planungsprozesse zu erleichtern, haben Forschende des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) zusammen mit zehn Partnern ein neues Verfahren entwickelt und dieses in einem Handbuch zusammengefasst. Der sogenannte River Ecosystem Service Index (RESI) bewertet die Auswirkungen von Maßnahmen auf die Ökosystemleistungen für den Menschen anhand allgemein verfügbarer Umweltdaten.

RESI erleichtert Priorisierung, Planung und Transparenz von Bewirtschaftungsmaßnahmen
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt „River Ecosystem Service Index (RESI)“ erforscht seit 2015, wie sich versorgende, regulative und kulturelle Leistungen von Flüssen und Auen erfassen und bewerten lassen. Für jede Leistung stehen nun Berechnungsformeln zur Verfügung. Farbcodierte Visualisierungen ermöglichen die Darstellung der verschiedenen Ökosystemleistungen sowie den Vergleich bestimmter Fluss-Auen-Abschnitte. Die Einzelbewertungen werden außerdem zu einem Index zusammengefasst, um somit alle Ökosystemleistungen integrativ zu bewerten. Mit dem neuen RESI können Zusammenhänge und Wechselwirkungen, z.B. zwischen Wasserwirtschaft, Tourismus und Naturschutz, besser erkannt und die Auswirkungen von Planungsvarianten von Fachleuten oder interessierten Bürgerinnen und Bürgern datenbasiert, integrativ und transparent verglichen werden.

Bau- und Bewirtschaftungsmaßnahmen in Flusslandschaften können auf diese Weise unter Einbeziehung aller wichtigen Naturfunktionen bewertet und umgesetzt werden. So muss zum Beispiel Hochwasserschutz nicht zwingend auf Kosten der Natur gehen, findet IGB-Wissenschaftler Dr. Martin Pusch. „Wir hoffen, dass mit unserer Methode nicht nur der Hochwasserschutz schneller verbessert werden kann, sondern davon auch die Wasserqualität, die Artenvielfalt und der Erholungswert unserer Flüsse profitieren“, betont der Projektleiter.

Getestet und angewendet wurde der RESI bereits in Zusammenarbeit mit Umweltbehörden mehrerer Regionen, zum Beispiel um den Hochwasserschutz an einem Abschnitt der Donau zu optimieren. Prinzipiell kann der Index in allen Flusslandschaften Deutschlands eingesetzt werden, und dort Raumplanungen, die Umsetzung der EU-Wasserrahmenrichtlinie, Hochwasserschutzprogramme und Gewässerrenaturierungen erleichtern. Der RESI schafft dabei erstmals eine gemeinsame Bewertungsgrundlage für Akteure aus ganz verschiedenen gesellschaftlichen Bereichen und mit unterschiedlichen Interessen.

Das RESI-Anwendungshandbuch steht ab sofort kostenlos zum Download bereit: http://www.resi-project.info/handbuch

Zum Projekt:
Das Verbundforschungsprojekt RESI (2015-2018) ist eines von 15 Verbundprojekten des Bundesministeriums für Bildung und Forschung (BMBF) im Förderprogramm „Regionales Wasserressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland (ReWaM)“. Beteiligt waren öffentliche und private Forschungsinstitutionen, Gutachterbüros sowie Praxispartner aus den Modellregionen. Geleitet wurde das Projekt vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Die Arbeiten des Leibniz-IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. http://www.igb-berlin.de

Wissenschaftliche Ansprechpartner:
PD Dr. Martin Pusch (Projektleitung)
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: pusch@igb-berlin.de
Tel.: +49 (0)30 64181 685

Dr. Simone Podschun (Projektkoordination, Erstautorin des Handbuchs)
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: podschun@igb-berlin.de

Sowie weitere Ansprechpartnerinnen und Ansprechpartner (siehe unter http://www.resi-project.info) in Baden-Württemberg, Bayern, Berlin, Niedersachsen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Rheinland-Pfalz und Sachsen.

Originalpublikation:
Podschun, S. et al. (2018) RESI-Anwendungshandbuch: Ökosystemleistungen von Flüssen und Auen erfassen und bewerten. IGB-Berichte Heft 31/2018, ISSN 1432-508X, DOI 10.4126/FRL01-006410777

Weitere Informationen:

http://www.resi-project.info/handbuch

Quelle: IDW 

(nach oben)


Studie: Längere Arbeitszeiten können der Gesundheit schaden

Tom Leonhardt Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Steigt die wöchentliche Arbeitszeit auch nur um eine Stunde, kann das den Menschen zu schaffen machen. Dieser kleine Aufwuchs reicht aus, dass Arbeitnehmer im öffentlichen Dienst ihre eigene Gesundheit schlechter bewerten und deutlich häufiger zum Arzt gehen. Das ist das Ergebnis einer Studie von Forschern der Martin-Luther-Universität Halle-Wittenberg (MLU) und der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), die kürzlich im Journal „Labour Economics“ veröffentlicht wurde.

Die Studie der Forscher aus Halle und Erlangen ist eine der ersten, die den Zusammenhang zwischen einer steigenden wöchentlichen Arbeitszeit und den Folgen für die Gesundheit untersucht. „In deskriptiven Analysen zeigt sich oft ein positiver Zusammenhang zwischen Gesundheit und Arbeitszeit, zum Beispiel, wenn gesündere Menschen auch länger arbeiten“, sagt Prof. Dr. Christoph Wunder von der MLU, der die Arbeit gemeinsam mit Dr. Kamila Cygan-Rehm von der FAU durchgeführt hat. Bislang wisse man aber wenig darüber, welche kausalen Effekte eine steigende Arbeitszeit auf die Gesundheit der Menschen habe, so der hallesche Wirtschaftswissenschaftler weiter. „Das Nachweisen eines ursächlichen Einflusses einer längeren Arbeitszeit auf die Gesundheit ist empirisch sehr schwierig, da man unbeobachtete Faktoren – zum Beispiel die innere Motivation – ausschließen muss, die sowohl zu längeren Arbeitszeiten als auch zur besseren Gesundheit führen können und somit den direkten kausalen Effekt verzerren“, sagt Dr. Kamila Cygan-Rehm von der FAU.

Um diesen Zusammenhang genauer zu beleuchten, werteten die Forscher die Daten des Sozio-oekonomischen Panels aus den Jahren 1985 bis 2014 aus. Dabei handelt es sich um die größte und am längsten laufende Langzeitstudie, bei der seit mehr als 30 Jahren über 12.000 Privathaushalte in regelmäßigen Abständen zu ihren Lebensumständen befragt werden. Die Daten des SOEP geben zum Beispiel Auskunft über Bildung, Gesundheit, Einkommen, Erwerbstätigkeit und Lebenszufriedenheit. „Da für das SOEP jedes Jahr dieselben Personen befragt werden, lassen sich damit auch langfristige Trends und Reaktionen auf externe Veränderungen, wie die Arbeitszeit, nachzeichnen“, erklärt Wunder.

Die beiden Wissenschaftler fanden heraus, dass bereits ein Plus von einer Stunde signifikante Folgen hatte: Die selbst eingeschätzte Gesundheit der Befragten sank um zwei Prozent, während die Anzahl der Arztbesuche um 13 Prozent stieg. Besonders betroffen von diesen negativen Effekten waren Frauen sowie Familien mit jungen Kindern. „Vermutlich sind die Effekte bei diesen Gruppen stärker, weil sie außerhalb ihrer Arbeitszeit mit sehr begrenzten Zeitbudgets ausgestattet sind. Steigt die Arbeitszeit, steigt somit auch der Zeitdruck außerhalb der Arbeit“, so Wunder.

In die Studie flossen ausschließlich Daten von Arbeitnehmerinnen und -nehmern aus den alten Bundesländern ein, die im öffentlichen Dienst angestellt oder als Beamte tätig waren. „Beschäftigte im öffentlichen Dienst übernehmen Neuregelungen der wöchentlichen Arbeitszeit tendenziell eher als Beschäftigte in der Privatwirtschaft, die im Fall einer Änderung der tariflichen Arbeitszeit zum Beispiel Überstunden anpassen und so die wöchentliche Arbeitszeit konstant halten können. Beschäftigte im öffentlichen Dienst haben hier weniger Flexibilität“, erläutert Wunder. In den Jahren 1985 bis 1991 sank die wöchentliche Arbeitszeit zunächst von 40 auf 38,5 Stunden. Später stieg sie in Bayern und Hessen für Beamte wieder auf bis zu 42 Stunden pro Woche an. In den neuen Bundesländern gab es diese starken Schwankungen nicht.

Aus der Studie lassen sich keine Aussagen zu einer optimalen Arbeitszeit ableiten. Allerdings gibt sie einen Einblick, welche Folgen bereits eine kleine Veränderung haben kann.

Originalpublikation:
Cygan-Rehm K. & Wunder C. Do working hours affect health? Evidence from statutory workweek regulations in Germany. Labour Economics (2018). doi: 10.1016/j.labeco.2018.05.003

Quelle: IDW 

(nach oben)


Windpocken: Wie die Impfung Ihr Kind schützt

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Stiftung Kindergesundheit informiert über eine überaus lästige Kinderkrankheit, die fast jedes Kind befällt.

Seit 15 Jahren gehört die Impfung gegen Windpocken zu den von der Ständigen Impfkommission STIKO empfohlenen Schutzimpfungen. Zuvor war die Impfung nur für spezielle Risikogruppen angeraten worden, zum Beispiel für Kinder mit einem geschädigten Immunsystem. Im Jahre 2004 hatte die STIKO dann beschlossen: Künftig sollen alle Kinder die Impfung erhalten, am besten zusammen mit der Impfung gegen Mumps, Masern und Röteln im Alter von 11 bis 14 sowie 15 bis 23 Monaten.

Die Entscheidung erwies sich als in hohem Maße nützlich für die Generation der seitdem geborenen Kinder, berichtet erfreut die Stiftung Kindergesundheit in einer aktuellen Stellungnahme: Die Zahl der Erkrankungen an Windpocken ist seither in Deutschland deutlich zurückgegangen.

„Impfungen gehören zu den größten Erfolgen der Medizin unserer Zeit“, sagt Kinder- und Jugendarzt Professor Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit. „Es ist Impfungen zu verdanken, dass viele Schrecken früherer Kinderjahre so selten geworden sind. Moderne Impfstoffe sind gut verträglich und schützen Kinder von schwerwiegenden ansteckenden Krankheiten. Die Impfung gegen Windpocken bietet ein aktuelles Beispiel für die Erfolge einer nachhaltigen Impfstrategie“.

Windpocken (fachsprachlich: Varizellen) tragen ihren Namen völlig zu Recht: Ihr Erreger, das „Varicella-Zoster-Virus“ (VZV) weht wirklich mit dem Wind überall hin, erläutert die Stiftung Kindergesundheit. Die Viren fliegen nicht nur durch offene Türen, sondern überwinden im Aufwind von Treppenhäusern und sogar an Hauswänden mühelos Entfernungen von zehn Metern. Deshalb ist es kaum zu verhindern, dass sich die ungeimpften Geschwister eines Windpockenkranken oder ungeimpfte Kinder in der Nachbarschaft oder in der KiTa anstecken.

Mit kleinen Flecken geht es los
Die Krankheit beginnt elf bis 21 Tage nach der Ansteckung mit leichtem Fieber. Man kann fast zusehen, wie der Ausschlag entsteht: Zunächst treten kleine, blassrote Flecken auf und verwandeln sich dann in dünnwandige, Streichholzkopf große Bläschen. Sie platzen schon bei leichtem Druck. Der Ausschlag entwickelt sich schubweise: Die einzelnen Entwicklungsstadien – Flecken, Bläschen und eingetrocknete Krusten – folgen dicht aufeinander. So entsteht der Eindruck einer regelrechten „Sternkarte“ mit unterschiedlich großen „Sternen“. Manche Kinder haben mehr als 500 juckende Bläschen (manchmal sogar im Mund oder in der Scheide), die durchschnittliche Bläschenzahl liegt bei 350.

Am ansteckendsten sind die Kinder ein bis zwei Tage vor dem Erscheinen der Bläschen und sechs bis sieben Tage nach dem Ausbruch der Krankheit. Danach schwächt sich die Ansteckungsgefahr ab, erlischt jedoch erst mit Sicherheit, wenn die letzten Krusten abgefallen sind.

In der Regel harmlos, leider nicht immer
Einige Kinder fühlen sich trotz des Ausschlags überhaupt nicht krank und haben nur leicht erhöhte Körpertemperatur. Andere machen dagegen einen ausgesprochen kranken Eindruck. Bei Kindern, die an Neurodermitis (Ekzem) leiden, verläuft die Krankheit oft schwer.

Die Häufigkeit von Komplikationen ist um die Jahrtausendwende intensiv erforscht worden. Die Untersuchungen zeigten, dass von einer „völlig harmlosen“ Erkrankung nicht die Rede sein kann, unterstreicht die Stiftung Kindergesundheit: Nach Einschätzung der untersuchenden Ärzte kam es bei etwa 16 Prozent der Patienten zu einem schweren Krankheitsverlauf. Die Komplikationsrate betrug 5,7 Prozent.

Es handelte sich dabei vor allem um so genannte bakterielle Superinfektionen: Die Kinder kratzen mit schmutzigen Fingernägeln die juckenden Bläschen auf und es kommt zu zusätzlichen Entzündungen durch Bakterien. Eine Lungenentzündung ist eine relativ häufige, eine Enzephalitis (Gehirnentzündung) eine eher seltene Komplikation einer Windpockeninfektion.

Nebenwirkungen für die ganze Familie
Nicht zu unterschätzen sind laut Stiftung Kindergesundheit auch die „Nebenwirkungen“ der Krankheit, die nicht nur das betroffene Kind, sondern die ganze Familie schwer belasten können: Durch die Windpocken ist das Kind für gut eine Woche „aus dem Verkehr gezogen“. Es darf nicht in den Kindergarten oder zur Schule. Urlaubsreisen oder Ausflüge müssen abgesagt werden und auch die Einladung zum Kindergeburtstag kann man in den Wind schreiben. Da nicht überall Großeltern zur Pflege des kranken Kindes einspringen können, muss ein Elternteil in dieser Zeit zu Hause bleiben. Manche alleinerziehende, berufstätige Mutter wird durch die Windpocken vor eine schier unlösbare Situation gestellt.
Die von der STIKO seit 2004 empfohlene generelle Impfung aller Kinder führte bereits nach wenigen Jahren zu einem deutlichen Rückgang der Erkrankungen und Komplikationen, berichtet die Stiftung Kindergesundheit. Die Zahl der pro Arztpraxis gemeldeten Windpockenfälle ging von April 2005 bis März 2012 um 85 Prozent (von durchschnittlich 4 auf 0,6 Fälle pro Monat und Praxis) zurück. Der Rückgang erstreckte sich auf alle Altersgruppen und war mit 92 Prozent am stärksten bei den Ein-bis Vierjährigen.

Impfung schützt auch Nichtgeimpfte
Ein zusätzlicher Effekt der Impfung zeigt sich aber auch in den Altersgruppen ohne generelle Impfempfehlung: Auch bei noch nicht geimpften Säuglingen und bei Erwachsenen gab es weniger Ansteckungen mit Windpocken. Die Stiftung Kindergesundheit liefert die Erklärung dazu: Wenn viele Menschen geimpft werden, sind immer weniger Erreger im Umlauf. Es entsteht eine sogenannte Herdenimmunität und davon profitieren auch nicht geimpfte Kinder und Erwachsene.

Die Zahl der gemeldeten Komplikationen war ebenfalls stark rückläufig, der Rückgang betrug 93 Prozent. Laut Diagnosestatistik der Krankenhäuser mussten in der Altersgruppe der unter 15-Jährigen statt zwölf nur noch drei von 100.000 Kindern mit Windpocken in einer Klinik behandelt werden.
Vor Einführung der Impfung erkrankten in Deutschland jährlich ca. 750.000 Menschen an Windpocken, darunter ca. 310.000 (41,5 %) Babys und Kleinkinder unter fünf Jahren. Die aktuelle Statistik liefert den Beweis für den Erfolg der Impfung: Für das Jahr 2017 wurden insgesamt 22.206 Windpocken-Erkrankungen übermittelt. 83 Prozent der Erkrankten waren nicht geimpft. Es gab auch Todesfälle, jedoch nicht bei Kindern: Eine 59-jährige und eine 82-jährige Frau verstarben an Windpocken.

„Dass die Kindheit heute der ungefährlichste Zeitabschnitt des Lebens ist, verdanken unsere Kinder zu einem wesentlichen Teil den Impfungen“, betont Professor Dr. Berthold Koletzko mit großem Nachdruck: „Die Stiftung Kindergesundheit vertritt deshalb mit Überzeugung die Meinung, dass Eltern jede Möglichkeit nutzen sollten, Krankheiten, die auch ihrem Kind drohen können, durch wirksame Impfungen zu verhindern. Windpocken gehören dazu“.

Quelle: IDW 

(nach oben)


Mit Eisenoxid gegen hochgiftige Stoffe – Neues Verfahren zur Grundwassersanierung

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Wo Industrie ist, ist oft der Boden mit Schwermetallen verseucht – und damit auch das Grundwasser. Es zu reinigen, ist aufwändig und teuer. In einem von der Universität Duisburg-Essen (UDE) koordinierten EU-Projekt wurde ein neues Verfahren entwickelt: Spezielle Eisenoxid-Nanopartikel werden in das Grundwasser leitende Gestein injiziert; dort bilden sie eine Barriere, die die gefährlichen Stoffe zurückhält. Die Methode konnte auf drei kontaminierten Geländen in Portugal, Spanien und Deutschland erfolgreich angewendet werden. Zu diesem ReGround-Projekt* ist ein englischsprachiger Dokumentarfilm entstanden. Er wird am 29. Januar um 18 Uhr öffentlich an der UDE gezeigt.

Arsen, Chrom, Kupfer, Blei, Zink: Um solche hochgiftigen Schwermetalle aus dem Grundwasser zu lösen, wird bisher das Wasser an die Oberfläche gepumpt und dann behandelt. Solche Pump-and-Treat-Verfahren sind allerdings kostspielig und müssen extrem lange betrieben werden. Viel wirksamer und wirtschaftlicher ist die Methode, die am Biofilm Centre der UDE entstanden ist.

Wie sie funktioniert, erklärt Chemikerin Dr. Beate Krok: „Wir haben kolloide Eisenoxid-Nanopartikel hergestellt. Sie lassen sich wegen ihrer einzigartigen Eigenschaften in die wasserführenden Gesteinsschichten injizieren. Dort überziehen die Partikel die Oberfläche des Sediments und bilden eine Adsorptionsbarriere: Wenn das kontaminierte Wasser hindurchfließt, werden die Schwermetalle dauerhaft zurückgehalten und können sich nicht weiter ausbreiten.“

Der große Vorteil: Das Verfahren ist in wenigen Tagen einsetzbar, denn es braucht keine großen baulichen Maßnahmen, und funktioniert auch in schwierigen Geländen. Außerdem eignet es sich nicht nur für stillgelegte Industriestandorte, sondern auch für aktive. Das hat das UDE-Team mit weiteren Projektpartnern an zwei sehr belasteten Flächen in Portugal und Spanien sowie an einer weiteren im Kölner Raum gezeigt: Dort konnten die Schwermetalle im Grundwasser reduziert werden.

Darüber ist der 35-minütige Dokumentarfilm „The ReGround Project“ entstanden. Er ist am 29. Januar um 18 Uhr am Campus Essen zu sehen (Hörsaal S05 T00 B59). Anschließend können die Zuschauer mit den drei UDE-Forschern Professor Rainer U. Meckenstock, Dr. Beate Krok, Dr. Sadjad Mohamadian sowie mit dem Filmemacher und weiteren Projektpartnern ins Gespräch kommen.

*ReGround (Colloidal Iron Oxide Nanoparticles for the REclamation of Toxic Metal Contaminated GROUNDwater Aquifers, Drinking Water Wells, and River Bank Filtrations) wurde von 2015 bis Ende 2018 aus EU-Mitteln gefördert. Zu den Partnern gehörten die Universitäten Jena, Leuven und Turin sowie vier europäische Technologieinstitute.

Wissenschaftliche Ansprechpartner:
Dr. Beate Krok, Biofilm Centre, Tel. 0201/18-36613, beate.krok@uni-due.de

Weitere Informationen:
http://reground-project.eu/
https://www.uni-due.de/biofilm-centre/mikro_projekte_reground.php

Quelle: IDW 

(nach oben)


Blutdruck und Rauchen scheinen das Risiko für eine Hirnblutung erheblich zu beeinflussen

Dr. Eva Maria Wellnitz Wissenschaftskommunikation der Medizinischen Fakultät
Universitätsmedizin Mannheim

Metaanalyse deckt erstmals weltweite Abnahme des Auftretens von Aneurysma-bedingten Hirnblutungen parallel zur Abnahme von Bluthochdruck und Rauchen auf

Eine aneurysmatische Subarachnoidalblutung (SAB) ist eine spezielle Form des Schlaganfalls, bei der Blut in den mit Hirnflüssigkeit gefüllten Subarachnoidalraum gelangt, welcher Gehirn und Rückenmark schützend umgibt. Diese Form der Hirnblutung tritt häufig auf, wenn ein Aneurysma, eine sackförmige Erweiterung einer Arterie, an der Hirnbasis reißt. Subarachnoidalblutungen machen zwar nur etwa 5 Prozent aller Schlaganfälle aus, aber die Folgen sind höchst bedrohlich: Die Hälfte der Betroffenen ist jünger als 55 Jahre, ein Drittel stirbt innerhalb der ersten Tage bis Wochen nach dem Auftreten der Blutungen und etwa ein Drittel der Überlebenden bleibt dauerhaft auf Hilfe angewiesen.

Die umfassende Metaanalyse wurde von Wissenschaftlern der Neurochirurgischen Klinik an der Universitätsmedizin Mannheim (UMM) gemeinsam mit Wissenschaftlern der Neurologischen Klinik der Universität Utrecht, Niederlande, im Fachjournal JAMA Neurology publiziert. Das Ziel war, nicht nur Licht in die sowohl zeitlich als auch räumlich offenbar recht heterogene Verteilung der Inzidenz der SAB zu bringen, sondern auch potenzielle Determinanten nachzuweisen, die für einen Rückgang dieser Erkrankung verantwortlich sein könnten.

Ausgangspunkt des Projektes waren jüngst veröffentlichte, zum Teil widersprüchliche Daten verschiedener registerbasierter oder regionaler Studien, die einen Rückgang des Auftretens von Subarachnoidalblutungen dokumentieren. In die systematische Übersichtsarbeit flossen Metadaten aller weltweiten, bevölkerungsbasierten Schlaganfallstudien der letzten 60 Jahre ein. Zum einen erfasst die Studie dabei das Auftreten von aneurysmatischen Hirnblutungen regional und deren Häufigkeit im zeitlichen Verlauf. Darüber hinaus stellt die Metaanalyse erstmals die Entwicklung der Faktoren Blutdruck und Rauchen in Relation zur SAB-Inzidenz. Es zeigen sich dabei deutliche Hinweise auf einen Zusammenhang zwischen dem Auftreten von aneurysmatischen Hirnblutungen und den Risikofaktoren Bluthochdruck und Rauchen.

Konkret zeigt die Analyse der Daten von 75 Studien mit insgesamt mehr als 8.000 Personen aus 32 Ländern, dass das Auftreten von Hirnblutungen in den vergangenen Jahrzehnten deutlich abgenommen hat: Zwischen 1980 und 2010 nahm die Inzidenz für eine aneurysmatische Subarachnoidalblutung weltweit insgesamt um etwa 40 Prozent ab. Hierbei wurden jedoch große regionale Unterschiede nachgewiesen: In Europa sank die Inzidenz um 41 Prozent, in Asien um 46 Prozent und in Nordamerika um 14 Prozent. Hingegen stieg die Inzidenz für SAB in Japan in den letzten drei Jahrzehnten um 59 Prozent. Das Auftreten einer SAB ist außerdem nach Alter und Geschlecht unterschiedlich verteilt.

Auffallend ist, dass die Entwicklung bzw. Abnahme der SAB-Inzidenz weltweit parallel zu der Abnahme des systolischen Blutdrucks und der Raucherprävalenz im selben Zeitraum verläuft. „Ein Gedankenspiel: Stünde die Abnahme der SAB-Inzidenz tatsächlich unmittelbar mit der Senkung des systolischen Blutdrucks in Verbindung, so hieße dies, dass die SAB-Inzidenz mit jedem Rückgang des Blutdrucks um 1 mmHg um 7,1 Prozent abnähme. Und bezogen auf die Raucherprävalenz bedeute dies, dass die SAB-Inzidenz um 2,4 Prozent pro Prozent Rückgang der Raucherprävalenz abnähme“, erläutert Professor Dr. Nima Etminan, Leitender Oberarzt der Neurochirurgischen Klinik der UMM und Erstautor der wissenschaftlichen Publikation.

Selbstverständlich lässt die parallele Entwicklung von Blutdruckabfall und Raucherprävalenz mit der Inzidenz für Subarachnoidalblutungen einen kausalen Zusammenhang lediglich vermuten. Einen Beleg dafür können die vorhandenen Daten nicht liefern, dafür wären quantitative Daten für diese Risikofaktoren auf Bevölkerungsbasis oder auf der Ebene individueller Patienten notwendig. Nichtsdestotrotz unterstützt die in der Studie gefundene Assoziation die präventiven Ansätze, die Risikofaktoren Bluthochdruck und Rauchen zu kontrollieren, um die Gefahr von aneurysmatischen Hirnblutungen zu reduzieren.

Parallel hierzu gehen die Autoren aktuell auch der wissenschaftlichen Frage nach, ob sich eine Senkung des Blutdrucks bei Patienten mit zufällig entdeckten Aneurysmen, welche nicht primär behandelt sondern mittels Bildgebung kontrolliert werden, günstig auf die Entwicklung der Aneurysmen auswirkt. Dies geschieht im Rahmen der prospektiven Phase III Studie PROTECT-U (www.protect-u-trial.com/) an verschiedenen neurovaskulären Zentren in Deutschland, den Niederlanden und bald auch in Kanada.

Die vorliegende Arbeit bietet außerdem Ansatzpunkte für weitere Studien, deren Ergebnisse – wenn sie in entsprechende Strategien der Primärprävention münden – tatsächlich dazu beitragen könnten, das Risiko für aneurysmatische Hirnblutungen weiter zu reduzieren: Dies wäre die genauere Untersuchung der regionalen Unterschiede der Inzidenz von SAB und deren Verringerung, der regionalen Unterschiede bei alters- und geschlechtsspezifischen Inzidenzen sowie deren Beziehung zu genaueren, quantitativen Daten zum Rauchverhalten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Nima Etminan
Stellvertretender Direktor
Neurochirurgische Klinik
Universitätsklinikum Mannheim
Medizinische Fakultät Mannheim,
Ruprecht-Karls Universität Heidelberg
Theodor-Kutzer-Ufer 1-3
68135 Mannheim
Telefon: +49 621 383-5968 oder -8173
Email: nima.etminan@umm.de

Originalpublikation:
Worldwide incidence of aneurysmal subarachnoid hemorrhage according to region, time period, blood pressure and smoking prevalence – a systematic review and meta-analysis
Nima Etminan, Han-Sol Chang, Katharina Hackenberg, Nicolien K. de Rooij, Mervyn D.I. Vergouwen, Gabriel J.E. Rinkel, Ale Algra
JAMA Neurology, published online January 19, 2019

Anhang
Pressemitteilung
https://idw-online.de/de/attachment70745

Quelle: IDW 

(nach oben)


Wenn für Fischlarven die Nacht zum Tag wird

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Biologinnen der Universität Siegen haben herausgefunden, dass Zebrafischlarven Infrarotlicht wahrnehmen können. Das hat weitreichende Konsequenzen für wissenschaftliche Versuche mit diesen Larven.

Sie sind durchsichtig und so klein, dass man sie mit bloßem Auge kaum erkennen kann. Doch obwohl sie so unscheinbar daherkommen, sind Zebrafischlarven in Industrie und Wissenschaft für Forschungszwecke weltweit sehr beliebt. Sie eignen sich hervorragend als Biosensoren und werden in zahlreichen Versuchen eingesetzt, um beispielsweise die Auswirkungen von Chemikalien (auch in Form von Nanopartikeln), Kosmetika oder Medikamenten auf Gewässerorganismen zu untersuchen. Dabei wird beobachtet, ob sich das Bewegungsmuster der Larven ändert, wenn entsprechende Substanzen zugesetzt werden. Um bei den Versuchen Dunkelphasen zu simulieren, wird standardmäßig ein spezielles Infrarotlicht verwendet. Eine Infrarotkamera zeichnet die Bewegungen der Larven dabei weiter auf und liefert sichtbare Bilder. Biologinnen der Universität Siegen haben jetzt herausgefunden: Zebrafischlarven nehmen das Infrarotlicht – entgegen bisheriger Annahmen – durchaus wahr und reagieren darauf.

„Aus Sicht der Larven sind die Dunkel- oder Nachtphasen in den Versuchen gar nicht dunkel“, erklärt Biologie-Professorin Dr. Klaudia Witte. Ein Ergebnis, das sie und Doktorandin Sarah Hartmann überrascht hat und in dem die beiden Wissenschaftlerinnen weitreichende Konsequenzen sehen: „Das Genom der Zebrafische ist vollständig bekannt. Ihre Larven werden daher auch für neurowissenschaftliche und biomedizinische Studien genutzt“, sagt Sarah Hartmann. Bei den Tests kommen standardisierte Tracking-Systeme zum Einsatz, die mit Infrarotlicht mit einer Wellenlänge von 860 Nanometern arbeiten. Genau dieses Licht nehmen die Larven jedoch sehr wohl wahr, wie Witte und Hartmann mit ihrer Studie bewiesen haben. „Das Licht eignet sich daher nicht, um in Versuchen den natürlichen Wechsel zwischen Hell- und Dunkelphasen zu simulieren“, stellt Klaudia Witte fest.

Streng genommen müssten nach diesem Ergebnis sämtliche bisherigen Tests mit Zebrafischlarven wiederholt werden. Denn ob während der Untersuchungen ein Tag-Nacht-Wechsel stattfindet oder gefühlt dauerhaft Tag ist, macht durchaus einen Unterschied, erklärt Witte: „Licht hat zahlreiche Auswirkungen auf Organismen. Dauerlicht kann die Aktivität künstlich erhöhen, aber auch senken. Die Zellen können sich zudem nicht regenerieren und es können verstärkt Stresshormone ausgeschüttet werden.“ Die Siegener Wissenschaftlerinnen wünschen sich, dass ihre Ergebnisse bei zukünftigen Untersuchungen mit Zebrafischlarven berücksichtigt werden. Das Problem lasse sich leicht lösen, indem man Infrarotlicht mit einer Wellenlänge von mindestens 960 Nanometern verwende, sagt Witte: „Wir konnten nachweisen, dass die Larven dieses Licht tatsächlich nicht wahrnehmen und somit für sie Dunkelheit herrscht.“

Für ihre Versuche haben Witte und Hartmann im Fischlabor der Universität Siegen einen lichtundurchlässigen schwarzen Metallschrank aufgebaut. Darin werden die Zebrafischlarven in Petrischalen verschiedenen Lichtquellen ausgesetzt: Blau-weißes Licht wird für die Tagphasen verwendet, Infrarotlicht mit verschiedenen Wellenlängen für die Nachtphasen. Eine in dem Schrank installierte Kamera filmt die Aktivitäten der Fischlarven in der Schale. Über einen angeschlossenen Bildschirm können die Aufzeichnungen verfolgt werden. Dieses Tracking-System haben Informatiker der Uni Siegen speziell für die Studie entwickelt. Prof. Dr. Klaus-Dieter Kuhnert und Jan Kunze vom Institut für Echtzeit Lernsysteme (EZLS) haben es konstruiert und die Software zur Bewegungserkennung geschrieben.

„Auf das blau-weiße Licht und auf das 860 nm-Infrarotlicht haben die Larven eindeutig reagiert. Wir konnten beobachten, dass sie sich in beiden Fällen von der Lichtquelle wegbewegt haben, es also wahrnehmen“, erklärt Sarah Hartmann. Zebrafischlarven seien generell nicht dem Licht zugewandt und würden helles Licht daher meiden. Bei Versuchen mit 960 nm-Infrarotlicht konnten die Biologinnen diese so genannte „negative Phototaxis“ hingegen nicht beobachten: „Die Larven meiden dieses Licht nicht, weil sie es offensichtlich nicht wahrnehmen. Darum ist es für die Simulation von Dunkelphasen in Versuchen besser geeignet.“ Warum Zebrafischlarven bestimmtes Licht wahrnehmen und anderes nicht, ist noch unklar.

Hintergrund:
Die Studie mit den Zebrafischlarven fand im Rahmen des interdisziplinären Forschungsprojektes FENOMENO statt, bei dem die Auswirkungen von Nanopartikeln auf die aquatische Umwelt untersucht wurden. Kürzlich haben Sarah Hartmann und Klaudia Witte ihre Ergebnisse in dem Forschungsmagazin „PLoS ONE“ veröffentlicht.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaudia Witte
E-Mail.: Witte@biologie.uni-siegen.de
Tel.: 0271-740 3297

Originalpublikation:
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0207264

Anhang
In einem lichtundurchlässigen Metallschrank werden die Zebrafischlarven verschiedenen Lichtquellen ausgesetzt, eine Kamera filmt dabei ihre Aktivitäten.
https://idw-online.de/de/attachment70739

Quelle: IDW 

(nach oben)


Bakterien schwärmen aus

Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg

Die schwarmartige Ausbreitung von Bakterien lässt sich beschreiben, wenn man die räumlichen Wechselwirkungen zwischen den beteiligten Zellen und ihre Beweglichkeit kennt. Zu diesem Resultat gelangen Wissenschaftlerinnen und Wissenschaftler aus Marburg, Berlin und Cambridge in den USA, indem sie mikroskopische Untersuchungen mit genetischen Verfahren, maschinellem Lernen und mathematischer Modellierung kombinieren. Die Arbeitsgruppe berichtet über ihre Ergebnisse in der Online-Ausgabe der Wissenschaftszeitschrift PNAS.

Die gemeinschaftliche Bewegung von Zellen, das so genannte Schwärmen, ermöglicht Bakterien, sich auszubreiten sowie Nährstoffvorkommen zu erkunden. „Dieses Verhalten hat tiefgreifende Auswirkungen auf Krankheitsübertragung, Genfluss und Evolution“, sagt Professor Dr. Knut Drescher von der Philipps-Universität und vom Max-Planck-Institut für terrestrische Mikrobiologie, der federführende Autor der Studie.

Zwar kennt man bereits wichtige physiologische und biophysikalische Faktoren, die bestimmte Aspekte des Schwarmverhaltens steuern; „der kausale Zusammenhang zwischen den mikroskopischen Prozessen auf Ebene der Einzelzellen einerseits und der Schwarmdynamik auf der Makroebene andererseits wurde bislang jedoch noch nicht hergestellt“, legt der Biophysiker dar.

Drescher sowie seine Kolleginnen und Kollegen schließen diese Lücke, indem sie Hochleistungsmikroskopie mit maschinellem Lernen und Computermodellierung kombinieren. „Wir zeigen mit diesem integrierten Ansatz, dass physikalische Zell-Zell-Interaktionen ausreichen, um die Dynamik des Bakterienschwärmens in allen Phasen zu beschreiben“, führt Dreschers Doktorandin Hannah Jeckel aus, die als Erstautorin der Veröffentlichung firmiert.

Sie nutzte ausgeklügelte mikroskopische Verfahren, um während der Entwicklung des Schwarms kurze Filme aufzunehmen. Die so gewonnen Daten wurden mittels maschinellem Lernen ausgewertet. Sie bildeten außerdem den Ausgangspunkt, um die Entwicklung der Bakteriengemeinschaften im Computer nachzubilden: So fanden die Autorinnen und Autoren heraus, dass Stöße zwischen den Bakterien diese dazu veranlassen, sich in dieselbe Richtung zu bewegen. Eine hohe Dichte mobiler Zellen verstärkt diesen Effekt, immobile Zellen behindern ihn.

Professor Dr. Knut Drescher lehrt Biophysik am Fachbereich Physik der Philipps-Universität Marburg. Er leitet außerdem eine Forschungsgruppe am Max-Planck-Institut für terrestrische Mikrobiologie und gehört dem Marburger „LOEWE-Zentrum für Synthetische Mikrobiologie“ an. Im Jahr 2016 erhielt er einen „Starting Grant“ des Europäischen Forschungsrates ERC. Außerdem förderten unter anderem das „Human Frontier Science Program“, die Deutsche Forschungsgemeinschaft sowie das Massachusetts Institute of Technology die zugrunde liegenden Forschungsarbeiten finanziell.

Originalveröffentlichung: Hannah Jeckel & al.: Learning the space-time phase diagram of bacterial swarm expansion, PNAS 2019, DOI: https://doi.org/10.1073/pnas.1811722116

Video zur Publikation: http://www.youtube.com/watch?v=p5v9rglCaE8

Weitere Informationen:
Ansprechpartner: Professor Dr. Knut Drescher,
Fachgebiet Biophysik, Philipps-Universität Marburg
und Max-Planck-Institut für terrestrische Mikrobiologie
Tel.: 06421 28-21473
E-Mail: dresche5@physik.uni-marburg.de

Quelle: IDW 

(nach oben)


Mit Blutgefäßen aus Stammzellen gegen Volkskrankheit Diabetes

Mag. Evelyn Devuyst IMBA Communications
IMBA – Institut für Molekulare Biotechnologie der Österreichischen Akademie der Wissenschaften GmbH

Wissenschaftlern des IMBA – Institut für Molekulare Biotechnologie der Österreichischen Akademie der Wissenschaften – gelang es erstmals, menschliche Blutgefäße aus Stammzellen zu entwickeln. Diese bahnbrechende Technologie ermöglicht es nun, sämtliche Gefäßerkrankungen direkt am menschlichen Gewebe zu erforschen und birgt einen völlig neuen Ansatz für die Therapie von Diabetes, wie das Fach-journal Nature aktuell berichtet.

Jedes einzelne Organ des menschlichen Körpers ist von einem dichten Netz aus Blutgefäßen durchzo-gen. Die feinsten dieser Blutgefäße, Kapillaren genannt, haben einen Durchmesser von nur wenigen Mikrometern und versorgen jede einzelne Zelle de Körpers mit lebenswichtigem Sauerstoff und Nähr-stoffen. Krankhafte Veränderungen der Blutgefäße, wie etwa bei Diabetes, nehmen weltweit stark zu. Mittlerweile hat sich die Anzahl an DiabetikerInnen auf weltweit 420 Millionen Betroffene verdoppelt. Die schwerwiegenden Folgeerkrankungen von Diabetes wie Nierenversagen, Erblindung, Herzinfarkt, Schlaganfall, nicht-heilende Wunden, oder Amputationen entstehen durch Schädigungen der Blutgefä-ße, was laut WHO mittlerweile 825 Milliarden Dollar Gesundheitskosten pro Jahr verursacht.

Neue Therapien für Diabetes werden daher dringend benötigt. Doch bisher war es ForscherInnen nur bedingt möglich, jenen molekularen Ursachen genauer nachzugehen, die zur Entstehung der Ge-fäßkrankheit beim Diabetiker führen. Vor allem, da sich Erkenntnisse über diabetische Blutgefäßverän-derungen aus Tierversuchen nicht immer auf den Menschen übertragen lassen. Die Stammzellforschung hat sich in den letzten Jahren zu einer wichtigen Triebfeder für die Grundlagenforschung entwickelt: Kleine organähnliche Strukturen, die man aus Stammzellen im Labor züchten kann, spiegeln Prozesse der Organentwicklung und der Krankheitsentstehung beim Menschen wider.

Nächster Meilenstein der IMBA Stammzellinitiative: Blutgefäß-Organoide aus dem Labor
Erstmals schafften es nun ForscherInnen am IMBA, ein solches Organoid-System für Blutgefäße zu ent-wickeln. Diese sogenannten vaskulären Organoide werden im Labor aus induzierten pluripotenten Stammzellen (iPSC) kultiviert und ahmen die Struktur und Funktion menschlicher Kapillaren nach. Dank des neuen Modellsystems können die ForscherInnen nun die Krankheitsentstehung in menschlichen Blutgefäßen, wie etwa bei Diabetes, erstmals im Labor „nachspielen“. „Das Spannende an unserer Ar-beit ist, dass es uns gelungen ist, echte menschliche Blutgefäße aus Stammzellen herzustellen. Unsere Organoide sind den menschlichen Kapillaren unglaublich ähnlich und erlauben uns erstmals, Blutge-fäßerkrankungen direkt am menschlichen Gewebe zu untersuchen „, sagt Reiner Wimmer, Postdoc am IMBA und Erstautor der aktuellen Publikation in Nature.
Jene Prozesse, die zu den schweren Folgen von Diabetes führen, finden oft in den kleinsten Zweigen des Gefäßsystems statt, den Kapillaren. Die Kapillaren werden von Endothelzellen ausgekleidet, die das Gefäßlumen formen, und von Pericyten unterstützt. Die äußere Wand der Kapillare wird dabei von der sogenannten Basalmembran ummantelt, die das Blutgefäß stützt. In diabetischen Patienten ist diese Basalmembran massiv vergrößert, was die Sauerstoff und Nährstoffzufuhr im Gewebe stark einschränkt und schließlich zum Absterben des Blutgefäßes führen kann.

Um diesen Prozess erstmals in der Petrischale nachzuspielen, simulierten die ForscherInnen „diabetische Verhältnisse“ , indem sie dem Nährmedium eine Kombination aus hohem Zuckeranteil und Entzün-dungsstoffen hinzufügten. Dank einer Kollaboration mit Dontscho Kerjaschki, Pathologe an der Meduni Wien, konnten die ForscherInnen die Schäden an den diabetischen Blutgefäß- Organoiden mit Biopsien von Blutgefäßen diabetischer PatientInnen vergleichen. „Überraschenderweise konnten wir die bei Dia-betes typische Verdickung der Basalmembran in den zuckerkranken Organoiden beobachten. Diese äh-nelt den Gefäßschäden, die wir bei Diabetikern beobachten können“, erklärt Reiner Wimmer.

In einem nächsten Schritt testeten die WissenschaftlerInnen verschiedene chemische Verbindungen an den im Labor gezüchteten „zuckerkranken“ Blutgefäßen, um die typische Ausprägung der Krankheit zu verhindern. Sie überprüften aktuelle Medikamente sowie kleine Moleküle, die verschiedene Signalwege blockieren. Kein einziges der getesteten zugelassenen Medikamente gegen Diabetes hatte einen Effekt. Jedoch zeigten sich 2 Proteine eines Signalweges als besonders vielversprechend: Notch3 und Dll4 regu-lieren die Verdickung der Basalmembran maßgeblich. Auch in den Blutgefäßen von Diabetes-PatientInnen fanden die ForscherInnen eine erhöhte Aktivität von Notch3, genauso wie in den Organoi-den. Blockiert man nun jenen Signalweg durch ein kleines Molekül, so wäre dies ein völlig neuer Ansatz für die Behandlung von Diabetes.
„Jedes einzelne Organ in unserem Körper ist mit dem Kreislaufsystem verbunden. Gleichzeitig spielen Blutgefäße aber auch beim Fortschreiten von Krebs oder Alzheimer’s eine maßgebliche Rolle,“ sagt Jo-sef Penninger, Gründungsdirektor des IMBA, der seit Dezember das Life Science Institut der Universität British Columbia leitet und der Letztautor der aktuellen Studie ist. „Mit der Entwicklung der Blutgefäß-Organoide aus Stammzellen haben wir ein wichtiges Modelsystem für die Biomedizin geschaffen. Dies ermöglicht es uns nun, Ursachen eines breiten Spektrums von Gefäßkrankheiten wie Diabetes, Wund-heilung, Schlaganfällen, Seltenen Erkrankungen, bis hin zu Krebs, gezielt zu erforschen und hoffentlich neue Behandlungen zu entwickeln.“

Originalpublikation:
Reiner A. Wimmer, et.al., Human blood vessel organoids as a model of diabetic vasculopathy, Nature (2019), doi.org/10.1038/s41586-018-0858-8

Über das IMBA
Das IMBA – Institut für Molekulare Biotechnologie ist das größte Institut der Österreichischen Akade-mie der Wissenschaften (ÖAW) mit dem Fokus auf zukunftsweisende Grundlagenforschung. 12 For-schungsgruppen stellen sich den molekularen Rätseln und unerforschten Gebieten der Molekularbiolo-gie und Medizin. Erkenntnisse aus den Bereichen Zell- und RNA- Biologie, molekularer Medizin und Stammzellbiologie bilden den Nährboden für eine Medizin der Zukunft.

Über das Vienna BioCenter
Das Vienna BioCenter (VBC) ist einer der führenden Life Science-Standorte Europas. Herausragende Forschungseinrichtungen, Bildungseinrichtungen und Unternehmen sind hier auf einem Campus vereint. Rund 1700 Angestellte, 1300 Studierende, 90 Forschungsgruppen, 18 Biotech-Unternehmen und Wis-senschaftlerinnen und Wissenschaftler aus 70 Ländern schaffen ein internationales und dynamisches Umfeld.

Medizinische Universität Wien – Kurzprofil
Die Medizinische Universität Wien (kurz: MedUni Wien) ist eine der traditionsreichsten medizinischen Ausbildungs- und Forschungsstätten Europas. Mit rund 8.000 Studierenden ist sie heute die größte me-dizinische Ausbildungsstätte im deutschsprachigen Raum. Mit 5.500 MitarbeiterInnen,
26 Universitätskliniken und drei klinischen Instituten, 12 medizintheoretischen Zentren und zahlreichen hochspezialisierten Laboratorien zählt sie auch zu den bedeutendsten Spitzenforschungsinstitutionen Europas im biomedizinischen Bereich.

Weitere Informationen:
http://Video Abstract : https://youtu.be/MEKdEDcA2ok
https://www.imba.oeaw.ac.at/research-highlights/

Anhang

Blutgefäße Organoide in einer 96 well plate
https://idw-online.de/de/attachment70693

Quelle: IDW 

(nach oben)


Gesundheitsgefühl: Männer fallen hinter Frauen zurück

Silvia Leek Öffentlichkeitsarbeit und Pressestelle
Max-Planck-Institut für demografische Forschung

Nach der Wiedervereinigung fühlten sich Männer in Ost wie West gesünder als Frauen. Doch das starke Geschlecht schwächelt. Inzwischen halten sich Männer für kränker als Frauen – vor allem im Osten.

Rostock. Das männliche Hochgefühl ist dahin. Das gilt zumindest, wenn es um die Selbsteinschätzung der Gesundheit geht.

Direkt nach der deutschen Wiedervereinigung im Jahr 1990 sahen Männer sowohl in den alten als auch in den neuen Bundesländern ihre Gesundheit deutlich positiver als Frauen.

Innerhalb der nächsten knapp 25 Jahre wurden die gefühlten Gesundheitsunterschiede zwischen Frauen und Männern überall immer kleiner. Im Jahr 2013 lag die selbsteingeschätzte Gesundheit der Männer schließlich sogar unter der der Frauen. Im Osten ist der Vorsprung der Frauen dabei ausgeprägter als im Westen. Damit haben sich die Geschlechterverhältnisse seit dem Ende der DDR umgekehrt.

Dies ist das Ergebnis einer Studie, die die Sozialwissenschaftlerin Mine Kühn vom Max-Planck-Institut für demografische Forschung (MPIDR) in Rostock jetzt im Wissenschaftsjournal „Social Science and Medicine – Population Health“ veröffentlicht hat.

Die Zufriedenheit mit der Gesundheit sei dabei nicht nur ein gutes Maß für die tatsächliche Gesundheit, erklärt Mine Kühn: „Das selbst wahrgenommene Befinden der Menschen sagt gleichzeitig viel über ihr Lebensgefühl aus.“

Für ihre Studie nutzte sie Daten der repräsentativen Befragung „Sozio-oekonomisches Panel“ (SOEP), für die etwa 20.000 Menschen in Deutschland regelmäßig beantworten, wie zufrieden sie mit ihrem Gesundheitszustand auf einer Skala von Null („sehr unzufrieden“) bis 10 („sehr zufrieden“) sind.

Kühn analysierte Daten für Menschen im Alter von 20 bis 59, die während der gesamten
Untersuchungszeit von 1990 bis 2013 in ihrem Landesteil (Ost bzw. West) wohnten. Sie
unterschied dabei nach dem Landesteil und dem Geschlecht und rechnete Einflüsse wie
Einkommen und Bildung heraus.

Das Ergebnis: Der Trend zeigt, dass insbesondere Männer aus Ostdeutschland über die Zeit angaben, sich gesundheitlich schlechter zu fühlen.

Wirtschaftliche Unsicherheit schlägt auf die Gesundheit
Was scherzhaft als Ausbreitung der „Männergrippe“ wahrgenommen werden könnte, hat für Mine Kühn einen ernsten Hintergrund: „Es ist gut möglich, dass die politischen und sozialen Veränderungen seit der Wende gerade für Männer im Osten so viel Stress bedeutet haben, dass ihre Gesundheit – oder zumindest ihr Gesundheitsgefühl – nachhaltig gelitten hat.“

So sei bekannt, dass etwa Arbeitslosigkeit und anhaltende wirtschaftliche Unsicherheit vermehrt zu ungesundem Verhalten wie etwa Alkoholkonsum oder Rauchen führe.

Dass Männer stärker betroffen seien als Frauen, könne daran liegen, dass Frauen generell über bessere Fähigkeiten verfügten, mit psychosozialem Stress umzugehen, und in schwierigen Zeiten insbesondere mehr von ihrem sozialen Netzwerk profitieren.

Ostdeutsche Männer bleiben zurück
Während die ostdeutschen Männer inzwischen die schlechtesten gefühlten Gesundheitswerte haben, waren es direkt nach der Wende noch die ostdeutschen Frauen. Sie könnten darunter gelitten haben, dass direkt nach der Wende vor allem solche Arbeitsplätze wegfielen, die typischerweise Frauen besetzten, glaubt MPIDR-Forscherin Mine Kühn.

Über die Jahre scheinen sich die Frauen von solchen Belastungen aber erholt zu haben, und die ostdeutschen Männer wurden zur „Problemgruppe“. Das passe zur Veränderung der Lebensstile,die in anderen Studien untersucht worden seien, sagt Mine Kühn: „Ostdeutsche Frauen erreichen mittlerweile ähnlich gute Werte hinsichtlich sportlicher Aktivität oder Alkoholkonsum wie
westdeutsche Frauen.“

Die Männer im Osten hätten beim gesunden Lebensstil hingegen nicht zu denen im Westen aufgeschlossen. Die ostdeutschen Männer leben wie schon vor der Wiedervereinigung so ungesund wie keine der anderen Bevölkerungsgruppen.

Über das MPIDR
Am Max-Planck-Institut für demografische Forschung (MPIDR) in Rostock untersuchen
Wissenschaftler*innen aus aller Welt politikrelevante Themen des demografischen Wandels wie Alterung und Geburtenverhalten sowie digitale Demografie und andere Aspekte der demografischen Grundlagenforschung. Das MPIDR ist eine der größten demografischen Forschungseinrichtungen in Europa und zählt zu den internationalen Spitzeninstituten in dieser Disziplin. Es gehört zur Max-Planck-Gesellschaft, einer der weltweit renommiertesten Forschungsgemeinschaften.
www.demogr.mpg.de

Wissenschaftliche Ansprechpartner:
Mine Kühn – MPIDR-Autorin des Artikels (spricht Deutsch und Englisch)
TELEFON +49 381 2081 – 259
E-MAIL kuehn@demogr.mpg.de

Silvia Leek – MPIDR Presse- und Öffentlichkeitsarbeit
TELEFON +49 381 2081 – 143
E-MAIL presse@demogr.mpg.de

Originalpublikation:
Originalveröffentlichung: Mine Kühn, Christian Dudel, Tobias Vogt, Anna Oksuzyan: Trends in gender differences in health at working ages among West and East Germans, Social Science and Medicine – Population Health, DOI 10.1016/j.ssmph.2018.100326

Weitere Informationen:
http://www.demogr.mpg.de/go/ost-west-gesundheit

Quelle: IDW 

(nach oben)


Antibiotika in Gülle: Biogasanlage keine Barriere

Jessica Bode Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Wirkstoffe trotz veränderter Gärprozesse stabil – Gefahr von resistenten Keimen verringern
Gießen. Viele in der Tiermedizin verwendete Antibiotika, die über Urin und Kot in die Gülle gelangen, lassen sich in Biogasanlagen nicht beseitigen. Das ist das Ergebnis eines Projektes der Justus-Liebig-Universität Gießen, das die Deutsche Bundesstiftung Umwelt (DBU) fachlich und finanziell mit rund 343.800 Euro gefördert hat. In Deutschland werden in der Tierhaltung tonnenweise Antibiotika eingesetzt. Ein Großteil davon gelangt über das Düngen landwirtschaftlicher Flächen mit Gülle ungefiltert in die Böden. Dort können sich Bakterien entwickeln, auf die die Arzneien keine Wirkung mehr haben – sogenannte resistente Keime. Da Gülle auch in Biogasanlagen verwendet wird, wurde geprüft, ob Antibiotika dort beseitigt werden können, um den Eintrag in die Umwelt zu verringern. Dieser Weg sei nach Darstellung der Projektbeteiligten für wichtige Verbindungen nicht möglich. DBU-Generalsekretär Alexander Bonde: „Antibiotika müssen schon bei der Vergabe im Stall verringert werden, um Mensch, Tier und Umwelt zu schützen.“

Entwicklung von Antibiotika-resistenten Bakterien weltweites Problem
2017 wurden nach Angaben des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit in Deutschland 733 Tonnen Antibiotika an Tierärzte abgegeben, der Großteil davon werde in Nutztierställen eingesetzt. Da nicht alles von den Tieren aufgenommen wird, gelangen Rückstände der Antibiotika und ihrer Stoffwechselprodukte in die Gülle. Diese wird entweder direkt oder nach der Vergärung in Biogasanlagen auf den Äckern verteilt. „Weltweit finden sich Antibiotika in Gülleproben und in Gärresten von Biogasanlagen wieder“, stellt Projektleiterin Dr. Astrid Spielmeyer vom Institut für Lebensmittelchemie und Lebensmittelbiotechnologie an der Universität Gießen das globale Problem dar. In Deutschland seien Biogasanlagen vor allem in Gebieten mit intensiver Landwirtschaft weit verbreitet. Gleichzeitig seien dies die Regionen mit hohen Antibiotikaabgaben an die Tierärzte. „Es gibt verschiedene Studien, die einen Rückgang der Arzneimittel-Konzentration durch das Vergären von Gülle in den Biogasanlagen beschreiben“, erläutert Spielmeyer. Jedoch seien die genauen Vorgänge bisher nicht eindeutig bekannt gewesen. Ziel des Projektes war es deswegen zu prüfen, ob der Prozess in Biogasanlagen einen Beitrag zum Verringern des Antibiotikaeintrages in die Umwelt leisten könne.

Breitbandantibiotika wie Tetrazyklin wirken bei einer Vielzahl von Bakterien
Spielmeyer: „Rund ein Drittel der in der Tiermedizin abgegebenen Antibiotika gehören zu den antibakteriell wirkenden Sulfonamiden und Tetrazyklinen, die wir untersucht haben.“ Der Wirkstoff Tetrazyklin wird bei Menschen und Tieren als Breitbandantibiotikum verwendet. Das heißt, er wirkt gegen eine Vielzahl von Bakterien und kommt insbesondere dann zum Einsatz, wenn der Krankheitserreger nicht genau bestimmt werden kann. Für die beiden genannten Antibiotika-Gruppen sind bereits resistente Keime nachgewiesen worden. Der Rückgang von Antibiotika in Güllebehandlungsverfahren, wie das Lagern oder das Kompostieren, war in mehreren Studien bereits beschrieben worden – allerdings mit ganz verschiedenen Ergebnissen.

Stabilisierung durch Bindung – Erneutes Freisetzen durch Auswaschen
Im Projekt stellte sich in Zusammenarbeit mit dem Landesbetrieb Hessisches Landeslabor (Bad Hersfeld) heraus, dass unterschiedliche Temperaturen, Säure- und Salzgehalte kaum Einfluss auf die Wirkstoffe hatten. Bei Zusatz von einem Feststoff wie Maissilage, der auch in Biogasanlagen erfolgt, sei es allerdings zu einem Rückgang der Antibiotika-Konzentration gekommen. „Ein derartiger Rückgang, wie er auch in vorherigen Studien festgestellt wurde, heißt nicht unbedingt, dass die chemischen Strukturen zerstört und unwirksam werden“, erklärt Spielmeyer die Zusammenhänge. Wenn sich zum Beispiel Bestandteile der Gülle mit den Wirkstoffen verbinden, könnten die einzelnen Antibiotika zwar nicht mehr nachgewiesen werden, befinden sich aber noch – stabilisiert durch die Bindung – in der Gülle oder den Gärresten. Spielmeyer: „Wenn Wirkstoffe gebunden werden, können sie sich später auch wieder lösen, sodass es zu einem erneuten Freisetzen der Antibiotika in der Gülle oder auch im Boden kommen kann.“ Das hätten die nun veröffentlichten Projektergebnisse gezeigt. Zwar werde oftmals nur ein geringer Teil wieder freigesetzt, dies könne jedoch stetig über einen langen Zeitraum erfolgen.

Weitere Informationen:
https://www.dbu.de/projekt_31812/01_db_2848.html
https://www.dbu.de/doiLanding1328.html
https://www.dbu.de/123artikel38094_2362.html

Quelle: IDW 

(nach oben)


Interview mit Dr. Natalia Ivleva über ihre Forschung zur Analytik von Mikroplastik

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Seit den ersten Berichten über die Verschmutzung der Meere und Küsten mit Mikroplastik intensivierte sich auch die weltweite Forschung dazu. Inzwischen ist klar, dass Mikroplastik auch in Flüssen und Seen sowie in Getränken und Lebensmitteln allgegenwärtig ist. An der Technischen Universität München (TUM) entwickelt Dr. Natalia P. Ivleva analytische Verfahren zur Identifizierung und Quantifizierung von Mikroplastik. Im Interview erläutert sie den aktuellen Forschungsstand.

Mikroplastik – Was ist das eigentlich genau?
Nach gegenwärtiger Definition sind das Kunststoffpartikel kleiner als 5 Millimeter. Die untere Grenze liegt bei einem Mikrometer, also einem Tausendstel Millimeter. Partikel in der Größe von einem Mikrometer bis zu 100 Nanometern werden als Sub-Mikroplastik bezeichnet, Partikel kleiner als 100 Nanometer als Nanoplastik. Studien zeigen, dass die meisten Plastikpartikel im unteren Mikrometerbereich zu finden sind.

Die Partikel können in der Umwelt durch die Fragmentierung größerer Plastikteile entstehen, sie bilden sich im Straßenverkehr durch Reifenabrieb und in Form feinster Fasern beim Waschen von Kleidung mit Kunstfaseranteil. Außerdem wird Mikroplastik in Körperpflegeprodukten eingesetzt, beispielsweise in Zahnpasta.

Warum müssen wir uns Sorgen machen um Mikroplastik?
Eigentlich ist noch gar nicht klar, wie gefährlich Mikroplastik wirklich ist. Sicher ist, dass solche Partikel von Lebewesen aufgenommen werden, natürlich auch von Menschen. Das allein ist aber nicht hinreichend, um toxische Effekte zu erwarten. Es wird allerdings auch diskutiert, dass kleinere Partikel in bestimmte Gewebe von aquatischen Organismen gelangen können.

Weltweit werden pro Jahr inzwischen rund 400 Millionen Tonnen Kunststoff produziert. Ein erheblicher Teil davon landet in der Umwelt und braucht dort unter Umständen mehrere Hundert Jahre bis er abgebaut ist.

In den nächsten Jahrzehnten müssen wir daher mit einer massiven Zunahme von Mikroplastik in der Umwelt rechnen. Gleichzeitig wissen wir, dass auch inerte und an sich ungefährliche Stoffe ab einem Schwellenwert zu unvorhersehbaren Effekten führen können.

Warum weiß man so wenig über die Folgen?
Bei den ersten Messungen hat man teilweise einfach optisch sortiert. Leider ist diese Methodik sehr fehleranfällig. Ein Sandkorn und ein Plastikpartikel von weniger als einem Millimeter Durchmesser sehen sehr ähnlich aus.

Im Rahmen eines durch das Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts „MiWa“ haben wir zum Beispiel in einer Probe aus der Elbe 3000 Partikel chemisch analysiert. Nur etwa eines von Tausend Partikeln war tatsächlich Kunststoff. Neben Kalk und anderen Mineralien gibt es ja auch noch organische Stoffe. Deswegen ist die Entwicklung zuverlässiger und standardisierter Methoden extrem wichtig. Sonst sind die Messwerte nicht vergleichbar.

Und: Wir reden hier über sehr geringe Konzentrationen, das heißt auch über sehr geringe Effekte. Bei einigen Versuchen mit hohen Konzentrationen von Mikroplastik hat man negative Effekte beobachtet, andere haben keine Effekte gesehen.

Hier steht die Forschung noch ziemlich am Anfang. Was nicht heißt, dass wir noch warten sollten. Angesichts der langsamen Abbauraten müssen wir uns dringend überlegen, wie wir den Eintrag von Kunststoffen in die Umwelt reduzieren können.

Mit welchen Methoden kommt man dem Mikroplastik auf die Spur?
Je nach Fragestellung wird die Analytik von Mikroplastik zurzeit mit verschiedenen Methoden durchgeführt: Thermoanalytische Methoden, gekoppelt mit Gaschromatographie und Massenspektrometrie liefern Werte für die Masse unterschiedlicher Plastiksorten und deren Additive in einer Probe – geben jedoch keine Aussagen über die Partikelgröße.

Spektroskopische Methoden liefern Informationen über die chemische Identität sowie Größe und Form von Mikroplastikpartikeln. Die Infrarot-Mikrospektroskopie ist in der Lage, Partikel bis ungefähr 20 Mikrometer automatisch zu analysieren.

Bei uns am Institut wenden wir vor allem Raman-mikroskopische Analysen an. Das ist eine zerstörungsfreie spektroskopische Methode, die Fingerabdruck-Spektren liefert und eine verlässliche Identifizierung der Partikel ermöglicht. Damit können wir sehr gut zwischen synthetischen Polymeren und natürlichen Substanzen wie Zellulose oder Quarz unterscheiden.

Außerdem können wir die Plastiksorte feststellen. Eine Kopplung des Raman-Spektrometers mit einem optischen Mikroskop erlaubt es uns, Partikel bis hinunter zu weniger als einem Mikrometer zu analysieren. Somit können wir eine Aussage über die Anzahl, die Größenverteilung und die Polymersorten von Mikroplastikpartikeln in der Probe treffen.

Wir konnten bereits zeigen, dass sich Mikroplastikpartikel im Darm von Wasserflöhen anreichern können. Außerdem haben wir in einem vom Bayerischen Umweltministerium geförderten Projekt festgestellt, dass Muscheln die besonders kleinen Mikroplastikpartikel aufnehmen und im Körper anreichern.

Wie geht es weiter?
Für eine repräsentative und statistisch belastbare Aussage zur Mikroplastik-Verunreinigung müssen sehr viele Partikel pro Probe untersucht werden. Deswegen arbeiten wir in einem von der Bayerischen Forschungsstiftung (BFS) geförderten Projekt „MiPAq“ an der Automatisierung der Raman-basierten Analyse.

Da Plastikpartikel mit abnehmender Größe ein höheres ökotoxikologisches Potenzial besitzen, sind die Methoden zur Analyse solch kleiner Partikel von besonderem Interesse. Daher entwickelt unser Institut in dem vom BMBF geförderten Vorhaben „SubµTrack“ zusammen mit vier weiteren Lehrstühlen der TUM die Analyse sehr kleiner Partikel weiter.

Liegen erst einmal genügend vergleichbare Ergebnisse für die Belastung von Umwelt- und Lebensmittel-Proben mit Mikro- und Nanoplastik vor, kann man mögliche negative Effekte für die Umwelt und uns Menschen untersuchen. Dafür sind ökotoxikologische Studien mit Mikroplastik unter Berücksichtigung von relevanten Plastiksorten, Größen, Formen und vor allem Konzentrationen notwendig.

Würden Sie nun die Herstellung von Plastik verbieten?
Nein, ich würde in keinem Fall auf Kunststoff komplett verzichten, weil es ein vielseitig einsetzbares Material ist und viele Vorteile bringt. Aber man muss Kunststoff richtig nutzen. Vor allem müssen wir den Eintrag von Kunststoff in die Umwelt verringern. Und hier ist nicht nur die Industrie gefragt, sondern jeder kann selbst etwas dafür tun.

Publikationen:
Christian Schwaferts, Reinhard Niessner, Martin Elsner, Natalia P. Ivleva, Methods for the analysis of submicrometer- and nanoplastic particles in the environment, Trends in Analytical Chemistry 2019 – DOI:10.1016/j.trac.2018.12.014
https://www.sciencedirect.com/science/article/abs/pii/S0165993618304631

Philipp M. Anger, Elisabeth von der Esch, Thomas Baumann, Martin Elsner, Reinhard Niessner, Natalia P. Ivleva, Raman microspectroscopy as a tool for microplastic particle analysis. Trends in Analytical Chemistry 2018, 109 214-226 – DOI: 10.1016/j.trac.2018.10.010
https://www.sciencedirect.com/science/article/abs/pii/S0165993618304643

Janina Domogalla-Urbansky, Philipp M. Anger, Hermann Ferling, Florian Rager, Alexandra C. Wiesheu, Reinhard Niessner, Natalia P. Ivleva, Julia Schwaiger, Raman microspectroscopic identification of microplastic particles in freshwater bivalves (Unio pictorum) exposed to sewage treatment plant effluents under different exposure scenarios. Environmental Science and Pollution Research 2018 – DOI: 10.1007/s11356-018-3609-3
https://www.ncbi.nlm.nih.gov/pubmed/30456620

Natalia P. Ivleva, Alexandra C. Wiesheu und Reinhard Niessner, Mikroplastik in aquatischen Ökosystemen. Angewandte Chemie 2016,128, 2-23 – DOI: 10.1002/ange.201606957
https://onlinelibrary.wiley.com/doi/abs/10.1002/ange.201606957

Weitere Informationen:
Dr. Natalia P. Ivleva ist Gruppenleiterin am Institut für Wasserchemie und Chemische Balneologie (IWC), Lehrstuhl für Analytische Chemie und Wasserchemie (Prof. Dr. Martin Elsner) der Technischen Universität München (TUM).

Gefördert wurden die im Interview genannten Arbeiten vom Bundesministerium für Bildung und Forschung (Projekt „Mikroplastik im Wasserkreislauf“, MiWa, Bearbeiter: MSc Philipp M. Anger und Projekt „Tracking von (Sub)Mikroplastik unterschiedlicher Identität“, SubµTrack, Bearbeiter: MSc Christian Schwaferts) sowie der Bayerischen Forschungsstiftung (Projekt „Mikropartikel in der aquatischen Umwelt und in Lebensmitteln“, MiPAq, Bearbeiterin MSc Elisabeth von der Esch).

Kooperationspartner an der TU München sind die Professuren für Siedlungswasserwirtschaft (Prof. J. E. Drewes, PD Dr. T. Letzel, PD Dr. J. Graßmann), für Tierphysiologie und Immunologie (Prof. M. Pfaffl), für Aquatische Systembiologie (Prof. J. Geist), für Wissenschafts- und Technologiepolitik (Prof. R. Müller), für Lebensmittelverpackungstechnik (Prof. H. C. Langowski) und für Lebensmittelchemie und molekulare Sensorik (Prof. T. Hofmann, Dr.-Ing. Karl Glass) sowie das Institut für Grundwasserökologie (PD Dr. Griebler, PD Dr. Stumpp) am Helmholtz Zentrum München.

Wissenschaftliche Ansprechpartner:
Dr. Natalia P. Ivleva
Institut für Wasserchemie & Chemische Balneologie (IWC)
Lehrstuhl für Analytische Chemie und Wasserchemie
Technischen Universität München
Marchioninistr. 17, 81377 München
Tel.: +49 89 2180 78252
natalia.ivleva@ch.tum.de
http://www.hydrochemistry.tum.de/groups/ramanmicro/

Weitere Informationen:
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/detail/article/35164/
Link zur Pressemitteilung

Quelle: IDW 

(nach oben)


Gestresste Mütter – übergewichtige Kinder

Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Berliner Institut für Gesundheitsforschung / Berlin Institute of Health (BIH)

Jedes zehnte Kind ist übergewichtig, jedes zwanzigste sogar fettleibig. Wissenschaftler*innen des Berliner Instituts für Gesundheitsforschung / Berlin Institute of Health (BIH) haben gemeinsam mit Kolleg*innen von der Charité – Universitätsmedizin Berlin und dem Helmholtz-Zentrum für Umweltforschung (UFZ) in Leipzig nun einen bisher wenig untersuchten Zusammenhang aufgeklärt: In der Mutter-Kind-Studie LiNA, die am UFZ koordiniert wird, fanden sie heraus, dass der empfundene Stress der Mutter im ersten Lebensjahr des Kindes Übergewicht im Kleinkindalter begünstigt.

Mütterlicher Stress wirke sich vor allem auf die Gewichtsentwicklung von Mädchen aus und führe zu einer langfristigen Prägung, schreiben die Forscher*innen des BIH, der Charité, des UFZ sowie der Universität Bristol im Fachmagazin BMC Public Health.

Seit 2006 kooperieren UFZ-Forscher*innen mit Kolleg*innen aus dem Städtischen Klinikum St. Georg sowie dem Universitätsklinikum Leipzig in der LiNA-Studie: LiNa steht für „Lebensstil und Umweltfaktoren und deren Einfluß auf das Allergierisiko von Neugeborenen“. In der aktuellen Studie werteten die Forscher*innen um Irina Lehmann und Saskia Trump, die beide seit Anfang 2018 am BIH forschen, Daten von 498 Mutter-Kind-Paaren aus. Aus den Angaben zu Größe und Gewicht ermittelten die Forscher*innen den Body Mass Index (BMI) der Kinder und normierten ihn auf Alter und Geschlecht. Den empfundenen Stress der Mütter während der Schwangerschaft und während der ersten beiden Lebensjahre der Kinder erhoben sie mithilfe validierter Fragebögen, der die Themen Sorgen und Ängste, Anspannung, allgemeine Zufriedenheit sowie den Umgang mit täglichen Anforderungen umfasste. Anschließend setzten sie beide Datensätze miteinander in Beziehung.

Gestresste Mütter haben häufiger übergewichtige Kinder als entspannte Mütter.
„Wir haben dabei deutlich gesehen, dass der empfundene Stress der Mutter während des ersten Lebensjahres des Kindes mit der Gewichtsentwicklung des Kindes in den ersten fünf Lebensjahren zusammenhängt“, sagt Irina Lehmann, die gemeinsam mit Saskia Trump die Untersuchung konzipiert und geleitet hat. „Gestresste Mütter haben häufiger übergewichtige Kinder als entspannte Mütter.“ „Besonders auffällig ist der Einfluss von mütterlichem Stress auf Mädchen“, ergänzt Saskia Trump. Studien hätten gezeigt, dass Jungen möglicherweise den Stress der Mütter besser kompensieren. Keinen Einfluss auf das Gewicht der Kinder hatte mütterlicher Stress während der Schwangerschaft oder während des zweiten Lebensjahrs der Kinder. „Das erste Lebensjahr scheint eine sensible Phase und für die Neigung zu Übergewicht prägend zu sein“, sagt Kristin Junge vom UFZ, eine der beiden Erstautorinnen der Studie. „In dieser Zeit sollte dem Befinden der Mutter daher besondere Aufmerksamkeit geschenkt werden“, ergänzt sie.

Ursachen für mütterlichen Stress
„Um herauszufinden, warum die Mütter während der Schwangerschaft und in den ersten beiden Lebensjahren der Kinder gestresst waren, haben wir uns die Daten noch einmal intensiv angeschaut“, berichtet Beate Leppert, ebenfalls Erstautorin der Studie, die mittlerweile an der Universität Bristol arbeitet. „Insbesondere haben wir die Lebensbedingungen der Mütter unter die Lupe genommen.“ Dabei entdeckten die Wissenschaftler*innen, dass die gestressten Mütter häufiger als nicht-getresste Mütter in einem einfachen Wohnumfeld lebten, häufiger Lärm und Straßenverkehr ausgesetzt waren und im Durchschnitt über ein niedrigeres Haushaltseinkommen verfügten.

Gestresste Mütter nicht allein lassen

„Wir wollen mit unserer Studie auf das Problem der gestressten Mütter aufmerksam machen“, sagt Irina Lehmann. „Keineswegs sollte man sie mit ihrem Problem alleine lassen.“ Kinderärzt*innen könnten bei den Untersuchungen der Kinder im ersten Lebensjahr immer auch einen Blick auf die Mütter werfen und sie bei Anzeichen für Stress auf ihre Situation ansprechen. „Es gibt bereits viele gute Hilfsangebote für junge Mütter, viele wissen aber nichts davon. Wenn man hier ansetzt, könnte man den Müttern helfen und damit womöglich ihren Kindern späteres Übergewicht ersparen“, so Saskia Trump. In zukünftigen Forschungsarbeiten will das Team untersuchen, welche weiteren Risikofaktoren die kindliche Gewichtsentwicklung prägen können und welche Mechanismen an der langanhaltenden Fehlsteuerung des Stoffwechsels beteiligt sind.

Über das Berliner Institut für Gesundheitsforschung/Berlin Institute of Health (BIH)
Das Berliner Institut für Gesundheitsforschung | Berlin Institute of Health (BIH) widmet sich der Übertragung von Ergebnissen aus der Grundlagenforschung in die Klinik, der so genannten Translation. Ziel ist eine personalisierte Präzisionsmedizin für Menschen mit progredienten Krankheiten, um ihre Lebensqualität zu erhalten oder wiederherzustellen. Dies soll gelingen dank präziser Diagnosen, besserer Vorhersagen und neuartiger Therapien. Die Gründungsinstitutionen Charité – Universitätsmedizin Berlin und Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) sind im BIH eigenständige Gliedkörperschaften.

Kontakt
Dr. Stefanie Seltmann
Leiterin Kommunikation & Marketing
s.seltmann@bihealth.de

Originalpublikation:
10.1186/s12889-018-6110-5

Weitere Informationen:
https://www.bihealth.org/de/aktuell/?L=0&tx_news_pi1%5Bnews%5D=1872&tx_n…

Quelle: IDW 

(nach oben)


Neue Studie: Entgelttransparenzgesetz: Nur eine Minderheit der Unternehmen ist aktiv geworden

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Das Entgelttransparenzgesetz soll die Benachteiligung von Frauen beseitigen. Doch es entfaltet bislang kaum Wirkung, nur eine Minderheit der Unternehmen ist bislang aktiv geworden. Das zeigt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung in Kooperation mit dem Institut für empirische Sozial- und Wirtschaftsforschung (INES Berlin).* Nötig sind strengere Auflagen und spürbare Sanktionen.

Frauen müssen im gleichen Betrieb für gleiche und gleichwertige Arbeit den gleichen Lohn erhalten wie Männer. Das soll das seit Mitte 2017 geltende Entgelttransparenzgesetz sicherstellen. Allerdings: Das Gesetz zeigt bisher „keine spürbaren Effekte“, schreiben Dr. Helge Baumann, Dr. Christina Klenner und Dr. Tanja Schmidt in ihrer Untersuchung. Die Forscherinnen und Forscher haben analysiert, was sich aus der Sicht von Betriebsräten, die an der WSI-Betriebsrätebefragung 2018 teilgenommen haben, in den ersten Monaten nach der Einführung des Gesetzes getan hat. Die Ergebnisse seien repräsentativ für Betriebe mit Betriebsrat und mindestens 20 Beschäftigten.

Nach dem Entgelttransparenzgesetz ist jeder Arbeitgeber verpflichtet, Männern und Frauen für vergleichbare Arbeit gleich viel zu zahlen. In Betrieben mit mehr als 200 Beschäftigten – also für etwa ein Drittel aller Arbeitnehmerinnen und Arbeitnehmer in Deutschland – gilt zusätzlich ein „individueller Auskunftsanspruch“, der in einem zweiten Schritt Anfang 2018 in Kraft getreten ist. Danach können Beschäftigte verlangen, dass ihnen der Arbeitgeber das durchschnittliche Gehalt der Kollegen des jeweils anderen Geschlechts nennt, die eine ähnliche Arbeit leisten. Dadurch sollen bestehende Ungerechtigkeiten offengelegt und schließlich beseitigt werden. Für Unternehmen mit mehr als 500 Mitarbeitern gelten weitere Vorgaben: Sie sollen regelmäßig überprüfen, wie es um die Entgeltgleichheit im Unternehmen steht, und dazu einen Bericht erstellen.

Ein Großteil der Unternehmen hat zum Zeitpunkt der Befragung, sieben bis zehn Monate nach Inkrafttreten, noch keine Aktivitäten zur Umsetzung des Entgelttransparenzgesetzes unternommen. In nur zwölf Prozent der Betriebe ist die Geschäftsführung von sich aus aktiv geworden. „Offenbar fühlte sich nur ein kleiner Teil der Betriebe von der Aufforderung angesprochen, im Betrieb für Entgeltgleichheit zu sorgen“, schreiben Baumann, Klenner und Schmidt. Am höchsten ist dieser Anteil in mittelgroßen Betrieben mit 201 bis 500 Beschäftigten: hier haben 19 Prozent der Betriebe etwas unternommen. Die großen Unternehmen ab 501 Beschäftigten kommen auf 18 Prozent (siehe auch Abbildung 1 in der Studie; Link unten). Unabhängig von der Betriebsgröße sind Unternehmen, in denen Betriebsräte nach eigenem Bekunden ein „sehr gutes Verhältnis zur Geschäftsleitung“ haben, bei der Umsetzung des Gesetzes weiter.

Auch die Beschäftigten selbst zögern noch: In 13 Prozent der mittelgroßen Betriebe hat sich mindestens eine Person einen bis vier Monate nach Inkrafttreten des Auskunftsanspruchs an den Betriebsrat gewandt, um ihr Gehalt überprüfen zu lassen. Bei den großen Unternehmen sind es immerhin 23 Prozent, die von ihrem Auskunftsrecht Gebrauch gemacht haben (Abbildung 2). Die Wahrscheinlichkeit, dass Beschäftigte ihr Gehalt überprüfen lassen, steigt deutlich, wenn im Betrieb viele Hochqualifizierte arbeiten. Der Frauenanteil spielt dagegen keine Rolle.

In gut einem Drittel der Betriebe mit Betriebsrat wurden die Entgelte von Frauen und Männern in den letzten zwei Jahren vor der Befragung, teilweise bereits vor Inkrafttreten des Gesetzes, auf Ungleichheit überprüft. Insgesamt taten das aber nur rund 10 Prozent mit anerkannten externen oder statistischen Prüfverfahren, wie es das Gesetz fordert.

Betriebe mit einer jungen Belegschaft haben überdurchschnittlich oft Prüfungen vorgenommen. Außerdem haben Betriebe, die sich nach Einschätzung der Betriebsräte bemühen, „dass die Mitarbeiter gerne hier arbeiten“, und die bestrebt sind, die „Arbeit menschengerecht zu gestalten“, häufiger die Entgelte überprüft. Gelten Betriebsvereinbarungen zu Gleichstellung und Antidiskriminierung oder zu Familienfreundlichkeit, geht das ebenfalls mit überdurchschnittlich häufigen Überprüfungen einher. „Das lässt den Schluss zu“, schreiben die Wissenschaftlerinnen und Wissenschaftler, „dass Prüfungen eher in gut mitbestimmten Betrieben, die ihre Personalpolitik in starkem Maße auf die Belange der Beschäftigten ausgerichtet haben und so auch Personal anziehen und binden wollen, durchgeführt worden sind“.

Die Forscher raten dazu, das Entgelttransparenzgesetz verbindlicher auszugestalten. Dazu gehöre erstens, die Prüfung der betrieblichen Gehaltsstrukturen nicht nur zu empfehlen, sondern verpflichtend zu machen. Dazu gehöre zweitens, die Hürden für den individuellen Auskunftsanspruch zu verkleinern und Beschäftigte in kleineren Betrieben einzubeziehen. Für Verstöße gegen die gesetzlichen Verpflichtungen müsse das Gesetz „wirksame Sanktionen“ vorsehen, die es bisher überhaupt nicht gebe.

Wissenschaftliche Ansprechpartner:

Dr. Helge Baumann
WSI
Tel.: 0211-7778-603
E-Mail: Helge-Baumann@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Helge Baumann, Christina Klenner, Tanja Schmidt: Entgeltgleichheit von Frauen und Männern. Wie wird das Entgelttransparenzgesetz in Betrieben umgesetzt? Eine Auswertung der WSI-Betriebsrätebefragung 2018, WSI-Report Nr. 45, Januar 2019. Download: https://www.boeckler.de/pdf/p_wsi_report_45_2019.pdf

Quelle: IDW 

(nach oben)


Mobilfunktechnik für die Industrie 4.0

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik

Ein Konsortium unter Leitung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen hat im Rahmen des Projekts „HiFlecs“ die Grundlagen für eines neuen Mobilfunkstandards für die Industrie entwickelt. Produktionsabläufe in Fabriken können damit wesentlich effizienter gestaltet werden.

Die Anforderungen an eine moderne Fabrik steigen: Auf der einen Seite sind Automatisierung und Kostensenkung gefordert, auf der anderen aber auch Produktvielfalt und Ausfallsicherheit. Die „Industrie 4.0″ soll diesen Bedürfnissen gerecht werden, allerdings fehlt ihr noch ein entscheidender Baustein zum Durchbruch: ein Funkstandard für die zuverlässige Kommunikation zwischen Maschinen in Echtzeit. Die Grundlagen für einen solchen Standard hat ein Konsortium unter Leitung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen jetzt im Rahmen des Projekts „HiFlecs“* entwickelt.

Das Projekt ist Teil der Hightech-Strategie der Bundesregierung und wurde vom Bundesministerium für Bildung und Forschung (BMBF) mit 4,76 Millionen Euro gefördert. Neben dem TZI waren zehn weitere Partner aus Industrie und Wissenschaft an HiFlecs beteiligt.

Mobilfunkstandard LTE „viel zu langsam“
Mit herkömmlichen Funktechnologien ist die künftig benötigte Geschwindigkeit in automatisierten Herstellungsverfahren kaum zu erreichen. „Die Latenz, also die Verzögerungen bei der Signalübertragung zur Steuerung von Produktionsprozessen müssen unter einer Millisekunde liegen“, erläutert „HiFlecs“-Projektleiter Prof. Armin Dekorsy von der TZI-Arbeitsgruppe Elektrotechnik/Nachrichtentechnik. „Zum Vergleich: Der aktuelle Mobilfunkstandard LTE bietet rund zehn Millisekunden, ist also viel zu langsam.“

Es kommt jedoch nicht nur auf die Geschwindigkeit an, sondern auch auf die Menge an gleichzeitig angebundenen Geräten („massive machine-type communication“). In modernen Fabriken werden oft Tausende von Sensoren, Aktoren sowie Steuer- und Regelungseinheiten eingesetzt. Mit der Datenflut, die diese Vielzahl an Geräten gleichzeitig generiert, sind herkömmliche Funknetze überfordert.

Im Projekt „HiFlecs“ verfolgten die Partner daher einen ganzheitlichen Ansatz: Sie entwickelten sowohl Technologien für die schnelle Übertragung der Daten als auch für das gesamte Ressourcen- und Netzwerkmanagement. HiFlecs hilft nun, die Informationen zu priorisieren und gezielt zu verteilen. „Wir mussten die Netze ganz anders designen“, erklärt Dekorsy. „Die Abstimmung der Maschinen untereinander musste mit weniger Signalisierung möglich werden, um Bandbreite zu sparen.“

Ergänzung zum 5G-Mobilfunkstandard
Dekorsy sieht in HiFlecs auch eine Möglichkeit, den neuen Mobilfunkstandard der 5. Generation (5G) zu ergänzen, um speziellen Anforderungen der Industrie gerecht zu werden. 5G erlaubt ebenfalls eine schnellere, zuverlässigere Kommunikation, wird aber von Netzbetreibern zur Verfügung gestellt. Mit HiFlecs können Unternehmen private Netze einrichten, sodass sie die Hoheit über ihre Daten behalten und möglicherweise Kosten sparen. Auch für die Einführung neuer, datenbasierter Geschäftsmodelle kann es sinnvoll sein, die Kommunikation selbst in der Hand zu behalten.

Die Ergebnisse des Projekts wurden in einer Verpackungsmaschine eines weltweit tätigen Herstellers prototypisch umgesetzt. Bis jetzt benötigte die Maschine zur Steuerung ihrer Transportmodule zahlreiche Kabel. HiFlecs erlaubt die Umstellung auf Funk, sodass die Kosten sinken und das Gewicht reduziert wird. Gleichzeitig wird die Installation erleichtert.

Der Nachweis, dass das System funktioniert, ist damit erbracht. Bis zur Marktreife von HiFlecs sind jetzt weitere Entwicklungsschritte erforderlich – interessierte Unternehmen können sich an das TZI wenden.

* HiFlecs steht für „Hochperformante, sichere Funktechnologien und deren Systemintegration in zukünftige industrielle Closed‐Loop‐Automatisierungslösungen“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Armin Dekorsy:
Tel. 0421 218-62400
E-Mail: dekorsy@ant.uni-bremen.de

Weitere Informationen:
http://www.ant.uni-bremen.de/de/projects/hiflecs/

Quelle: IDW 

(nach oben)


Studierende decken Sicherheitslücken auf

Corinna Korinth Referat für Kommunikation und Marketing
Hochschule Albstadt-Sigmaringen

IT-Security-Studierende der Hochschule Albstadt-Sigmaringen haben in einem häufig eingesetzten Präsentationssystem Sicherheitslücken aufgedeckt. Sie gaukelten dem System unter anderem ein manipuliertes Update vor und erlangten Zugriff auf Netzwerklaufwerke und sensible Daten wie interne Passwörter.

Albstadt/Sigmaringen. Eine Studierendengruppe des Bachelorstudiengangs IT Security an der Hochschule Albstadt-Sigmaringen hat in einem Präsentationssystem eines österreichischen Herstellers teils erhebliche Sicherheitslücken aufgedeckt. Das Hochschulprojekt unter der Leitung von Prof. Holger Morgenstern und Tobias Scheible wurde in Zusammenarbeit mit der Tübinger Firma Syss GmbH umgesetzt, die als Dienstleisterin im Bereich der IT-Security individuell und herstellerneutral Penetrationstests im In- und Ausland durchführt und den Studierenden das entsprechende Gerät zur Verfügung stellte. Bei einem Penetrationstest wird die Perspektive eines Hackers eingenommen, um von außen angreifbare Stellen im System zu identifizieren. Das erklärt Leon Albers, Mitglied der siebenköpfigen Studierendengruppe.

Hat das Gerät verwundbare Komponenten? Diese Kernfrage trieb die Studierenden an. „Dann ging es schließlich darum, einen realen Angriff durchzuführen und die Kontrolle über das Gerät zu übernehmen“, sagt der Studierende Sebastian Buckel. „Und das ist uns dann auch gelungen.“

Die Studierenden gaukelten dem Gerät unter anderem ein manipuliertes Update vor, das dieses dann auch prompt übernahm. „Dadurch hatten wir Vollzugriff“, sagt Sebastian Buckel. Durch weitere Schwachstellen wurde es den Studierenden ermöglicht, Zugriff auf Netzwerklaufwerke und sensible Daten wie interne Passwörter zu erlangen. „Wir konnten Informationen mitlesen und manipulieren.“

Die aus solchen Sicherheitslecks resultierende Bedrohung ist dabei durchaus real: „So ein Präsentationssystem wird von Unternehmen häufig in professionellen Kontexten genutzt“, sagt Leon Albers. „Sich dazu einen Zugang zu verschaffen, kann dann schon in Richtung Industriespionage gehen.“

Neben den fast alltäglichen Funden von veralteten Softwarekomponenten und unsicheren Standardkonfigurationen seien auch unbekannte und selbst in der aktuellsten Version des Herstellers noch enthaltene kritische Schwachstellen gefunden worden, sagt Holger Morgenstern. Aus Sicherheitsgründen informierten die Studierenden daher auch zunächst den Hersteller. Dieser sollte die Gelegenheit bekommen, die Sicherheitslücken zu schließen. „Man hat dort aufgeschlossen auf unseren Bericht reagiert“, sagt Leon Albers. „Die Firma will die Probleme beheben.“

Schwachstellen zu finden, die die Hersteller eigentlich vermeiden wollten: Auf Leon Albers, Sebastian Buckel und ihre Kommilitonen im Studiengang IT Security übt das einen großen Reiz aus – da wurde auch mal die ein oder andere Nachtschicht eingelegt. Beide sind sogar eigens für dieses Fach an die Hochschule Albstadt-Sigmaringen gekommen: Sebastian Buckel stammt aus dem Kreis Ravensburg, Leon Albers kommt aus Nordrhein-Westfalen.

Weiterführende Informationen: Da die IT Security ein sehr praktisches Anwendungsfeld darstellt, legt der Studiengang großen Wert auf einen hohen Praxisbezug. Bereits im ersten Semester lernen die Studenten, eigenständig mit Methoden und Werkzeugen aus dem Bereich der offensiven Security (Hacking) umzugehen. Praxisunterricht ist auch im weiteren Studienverlauf von großer Bedeutung. Veranstaltungen wie Cyber Security, Netzwerk- und Systemsicherheit sowie Offensive Sicherheit werden stets von umfangreichen Praktikums- und Lab-Übungen begleitet. Fortgeschrittene Themen wie die Digitale Forensik, Kryptografie oder Reverse Engineering haben ebenso einen hohen Stellenwert im Studienverlauf des Bachelorstudiengangs IT Security.

Wissenschaftliche Ansprechpartner:
Prof. Holger Morgenstern
E-Mail: morgenstern@hs-albsig.de
Telefon: 07571/7329279

Tobias Scheible
E-Mail: scheible@hs-albsig.de
Telefon: 07571/7329458

Weitere Informationen:
https://cyber-security-center.de/759

Quelle: IDW 

(nach oben)


Biodiversität – Koexistenz durch verzögerte Anpassung

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Bodenbakterien müssen immer wieder auf variable Umweltbedingungen reagieren – aber am besten nicht zu schnell. Wie LMU-Forscher zeigen, kann eine verzögerte Anpassung für das Überleben der Gesamtpopulation positiv sein.

In einem einzigen Gramm Boden können bis zu 10.000 verschiedene Arten von Bodenbakterien existieren. Wie diese biologische Vielfalt trotz unterschiedlicher ökologischer „Fitness“ einzelner Arten erhalten bleibt, ist eine der grundlegendsten Fragen der Ökologie. Lässt man im Labor ein Gemisch aus Bodenbakterien gleichzeitig wachsen, setzt sich schließlich der am stärksten wachsende Stamm durch und alle anderen sterben aus. Der LMU-Physiker Professor Erwin Frey hat mit seiner Mitarbeiterin Dr. Marianne Bauer untersucht, warum dies in der Natur nicht der Fall ist. Wie die Wissenschaftler im Fachmagazin Physical Review Letters berichten, führt die verzögerte Anpassung an wechselnde Lebensumstände zu einer stabilen Koexistenz verschiedener Spezies.

Der Boden ist ein komplexer Lebensraum, der von einem labyrinthartigen Porensystem durchzogen ist. Über diese Poren können Bakterien abhängig vom Wassergehalt sowohl mit benachbarten Populationen in Kontakt kommen als auch Nährstoffe ausgetauscht werden. „Uns hat interessiert, ob die räumliche Variabilität die Stabilität der Populationen beeinflussen kann“, sagt Marianne Bauer. Dazu untersuchten die Wissenschaftler mithilfe mathematischer Simulationen ein vereinfachtes System, in dem die Bakterienpopulation nur aus zwei Spezies besteht. In dem Modell ist eine Spezies für die gesamte Population nützlich, etwa indem sie für alle hilfreiche Enzyme produziert, wächst aber langsamer als die andere Spezies. Unter Laborbedingungen würde in diesem Fall die langsamer wachsende Spezies mit der Zeit aussterben.

In ihrem neuen Modell gehen die Wissenschaftler davon aus, dass die Individuen beider Spezies sich nur verzögert an schwankende Umweltbedingungen anpassen, also ihre Wachstumsgeschwindigkeit noch einige Zeit beibehalten, auch wenn sie beispielsweise in Bereiche mit anderen Nährstoffangeboten oder pH-Werten gelangen. Wie die Simulationen zeigten, wirkt sich diese verzögerte Anpassung positiv auf die Gesamtpopulation aus, sodass beide Spezies langfristig koexistieren. Das Wachstum beider Spezies hängt von der Verfügbarkeit der Enzyme ab, daher können in einer lokalen Population mit vielen „langsamen“ Bakterien die langsam wachsenden Individuen sogar schneller wachsen als schnell wachsende Individuen in einer Umgebung, in der es nur sehr wenige langsam wachsende Bakterien – und damit nur wenig Enzyme – gibt. „Da über die Poren ein Austausch zwischen den Populationen möglich ist, können letztlich in einer Pore verschiedene Individuen einer Spezies mit ganz verschiedenen Wachstumsraten vorkommen. Dadurch können beide Spezies überleben“, sagt Bauer. „Dies funktioniert bei einem breiten Spektrum verschiedener Porensysteme und auch bei überraschend hohen Unterschieden der Wachstumsgeschwindigkeiten.“

Nach Ansicht der Wissenschaftler bedeutet die stabile Koexistenz der beiden Spezies über große Parameterbereiche darauf hin, dass verzögerte Reaktionen auf Veränderungen des Lebensraums ein signifikanter Faktor für den Erhalt der biologischen Vielfalt sein können. „Deswegen sind Experimente, die mögliche räumliche Strukturen berücksichtigen, besonders interessant, um Biodiversität in realistischen Systemen zu untersuchen“, sagt Frey.

Publikation:
Delays in Fitness adjustment can lead to coexistence of hierarchically interacting species
Marianne Bauer and Erwin Frey
Physical Review Letters 2018
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.121.268101

Kontakt:
Prof. Dr. Erwin Frey
Lehrstuhl für Theoretische Physik – Statistische Physik
Tel.: +49 (0) 89 / 2180-4538
erwin.frey@physik.lmu.de

Quelle: IDW 

(nach oben)


Food-Scanner für die Hosentasche

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Laut einer Studie der Umweltstiftung WWF Deutschland landen jährlich zehn Millionen Tonnen Lebensmittel in Deutschland im Müll, obwohl sie noch verzehrbar sind. Mit einem mobilen Food-Scanner sollen Verbraucher und Supermarktbetreiber in Zukunft prüfen können, ob Nahrungsmittel verdorben sind. Das Gerät im Hosentaschenformat ermittelt per Infrarotmessung den Reifegrad und die Haltbarkeit von Gemüse, Obst und Co. und zeigt das Ergebnis mithilfe einer App an. Fraunhofer-Forscherinnen und -Forscher haben das System, das als Demonstrator vorliegt, gemeinsam mit Partnern im Auftrag des Bayerischen Staatsministeriums für Ernährung, Landwirtschaft und Forsten entwickelt.

Kann man den Joghurt noch essen? Ist das Gemüse noch genießbar? Im Zweifelsfall landen Lebensmittel nicht auf dem Teller, sondern in der Tonne. Viele Produkte werden weggeworfen, weil sie nicht mehr appetitlich aussehen, kleine Schönheitsfehler aufweisen oder das Mindesthaltbarkeitsdatum abgelaufen ist. Allein in Bayern wandern 1,3 Millionen Tonnen Nahrungsmittel jährlich unnötigerweise in den Abfall. Mit dem Bündnis »Wir retten Lebensmittel« will das Bayerische Staatsministeriums für Ernährung, Landwirtschaft und Forsten mit insgesamt 17 Maßnahmen der Verschwendung entgegenwirken. Eines der Projekte: Ein Food-Scanner soll dazu beitragen, die Verluste am Ende der Wertschöpfungskette zu reduzieren – im Handel und beim Verbraucher. Das preisgünstige Gerät im Hosentaschenformat soll künftig den tatsächlichen Frischegrad von Lebensmitteln feststellen – sowohl bei abgepackten als auch bei nicht abgepackten Waren. Forscherinnen und Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB, des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV, der Technischen Hochschule Deggendorf und der Hochschule Weihenstephan-Triesdorf entwickeln den kompakten Food-Scanner, der als Demonstrator mit Daten für zwei Lebensmittel vorliegt und auch eine Haltbarkeitsabschätzung ermöglicht.

Echtheit von Lebensmitteln per Infrarotlicht feststellen
Herzstück des mobilen Scanners ist ein Nahinfrarot (NIR)-Sensor, der den Reifegrad des Nahrungsmittels bestimmt und ermittelt, wie viele und welche Inhaltsstoffe es enthält. »Infrarotlicht wird punktgenau auf das zu untersuchende Produkt geschickt, anschließend misst man das Spektrum des reflektierten Lichts. Die absorbierten Wellenlängen
lassen Rückschlüsse auf die chemische Zusammensetzung der Ware zu«, erläutert Dr. Robin Gruna, Projektleiter und Wissenschaftler am Fraunhofer IOSB, die Funktionsweise des Verfahrens. »Im Labor kann man schon lange per Nahinfrarotspektroskopie Inhaltsstoffe quantifizieren. Neu ist, dass dies jetzt mit kleinen Low-Cost-Sensoren möglich ist«, sagt Julius Krause, Kollege im Team von Gruna. »Lebensmittel werden oftmals gefälscht, beispielsweise werden Lachsforellen als Lachs verkauft. Auch die Echtheit eines Produkts kann man mit unserem Gerät feststellen, nachdem es entsprechend eingelernt wurde. Gepanschtes Olivenöl lässt sich ebenfalls als solches identifizieren«, so der Physiker. Doch dem System sind auch Grenzen gesetzt: Es bewertet ausschließlich die Produktqualität von homogenen Nahrungsmitteln. Heterogene Produkte mit verschiedenen Zutaten wie beispielsweise Pizza lassen sich aktuell nur schwer prüfen. Hierfür erforschen die Wissenschaftler ortsauflösende Technologien wie bildgebende Spektroskopie (Hyperspectral Imaging) und Fusionsansätze mit Farbbildern und Spektralsensoren.

Um die Qualität der Lebensmittel basierend auf den Sensordaten und den gemessenen Infrarotspektren bestimmen und Prognosen für die Haltbarkeit errechnen zu können, entwickeln die Forscherteams intelligente Algorithmen, die nach entsprechenden Mustern und Gesetzmäßigkeiten in den Daten suchen. »Durch Maschinelles Lernen können wir das Erkennungspotenzial steigern. In unseren Tests haben wir Tomaten und Hackfleisch untersucht«, sagt Gruna. So wurden etwa die gemessenen NIR-Spektren von Hackfleisch mithilfe statistischer Verfahren mit dem mikrobiellen Verderb korreliert und wurde die weitere Haltbarkeit des Fleisches davon abgeleitet. Umfangreiche Lagertests, bei denen die Forscherteams die mikrobiologische Qualität sowie weitere chemische Parameter unter verschiedenen Lagerbedingungen erfassten, zeigten eine gute Übereinstimmung der ermittelten und der tatsächlichen Gesamtkeimzahl.

App zeigt Haltbarkeit der Lebensmittel an
Der Scanner sendet die gemessenen Daten zur Analyse per Bluetooth an eine Datenbank – eine eigens entwickelte Cloud-Lösung -, in der die Auswerteverfahren hinterlegt sind. Die Messergebnisse werden anschließend an eine App übertragen, die dem Verbraucher die Ergebnisse anzeigt und darstellt, wie lange das Lebensmittel bei den jeweiligen Lagerbedingungen noch haltbar ist oder ob es bereits überlagert wurde. Darüber hinaus erfährt der Verbraucher, wie er Lebensmittel alternativ verwenden kann, wenn deren Lagerdauer abgelaufen ist. Für Anfang 2019 ist die Testphase in Supermärkten geplant: Dann soll untersucht werden, wie der Verbraucher das Gerät annimmt. Insgesamt ist ein breiter Einsatz entlang der Wertschöpfungskette denkbar, vom Rohstoff bis zum Endprodukt. Eine frühzeitige Erkennung von Qualitätsveränderungen ermöglicht alternative Verwertungswege und trägt zur Reduzierung der Verluste bei.

Doch der Scanner ist mehr als nur ein Instrument für den Lebensmittel-Check. Vielmehr handelt es sich um eine universell einsetzbare, kostengünstige Technologie, die schnell anpassbar ist. Beispielsweise könnte man das System nutzen, um damit Kunststoffe, Holz, Textilien oder Mineralien voneinander zu unterscheiden und zu klassifizieren. »Der Einsatzbereich des Geräts ist vielseitig, es muss nur entsprechend trainiert werden«, sagt Gruna.

Weitere Informationen:

https://www.fraunhofer.de/de/presse/presseinformationen/2019/januar/food-scanner…

Quelle: IDW 

(nach oben)


In Anlehnung an Pokemon Go – Mit neuen Verkerhssicherheitsapps Leben im Straßenverkehr retten

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Die derzeit erhältlichen Verkehrssicherheitsapps beugen nur bedingt Unfällen im Straßenverkehr vor, fanden Forscher der Queensland University of Technology heraus. Die Verlockung, während der Fahrt Nachrichten zu tippen, ist für viele Autofahrer noch immer sehr groß. Eine automatisierte Kommunikation zwischen Auto und Smartphone könnte in Zukunft eine Möglichkeit bieten, das Potenzial dieser Apps besser auszuschöpfen. Ein Vorbild ist Pokemon-Go.

Ist die Versuchung, das Smartphone während des Autofahrens in die Hand zu nehmen, für die meisten Menschen zu groß? Eine neue Studie der Queensland University of Technology in Brisbane hat 29 Apps untersucht, die darauf abzielen, die Person hinter dem Steuer vom Texten und Telefonieren während des Autofahrens abzuhalten.

Viele dieser Verkehrssicherheitsapps verstecken eingehende Textnachrichten und Anrufe – sie schalten die jeweiligen Benachrichtigungen stumm, sodass der Fahrer oder die Fahrerin nicht bemerkt, dass jemand versucht, ihn oder sie zu erreichen, während die App automatisch eine Abwesenheits-Nachricht versendet. Einige Apps schalten sich automatisch an, sobald das Fahrzeug eine bestimmte Geschwindigkeit erreicht.

Apps wie beispielsweise die AT&T Drive Mode aus den USA mit über 50 Millionen Downloads alarmieren sogar die Eltern junger Fahrer, wenn diese die Sicherheitsapp ausschalten, um Nachrichten während des Fahrens empfangen zu können.

„Viele dieser Apps arbeiten mit der Annahme, dass Autofahrer der Versuchung nicht widerstehen können, während der Fahrt ans Telefon zu gehen, wenn es klingelt, oder eine Textnachricht zu lesen, obwohl das in vielen Ländern illegal ist“, sagt der Studienleiter Dr. Oscar Oviedo-Trespalacios.

„Zahlreiche Studien zeigen, dass Autofahrern oft die Willenskraft fehlt, ihr Telefon zu ignorieren. Aber es gibt nur wenig Forschung über die Vielzahl der Apps, die am Markt sind, und wie diese versuchen, das Problem zu lösen. Wir haben herausgefunden, dass die meisten Apps spezifische Funktionen des Handys, wie etwa Nachrichten schreiben oder telefonieren, blockieren, den Fahrern aber noch die Möglichkeit lassen, Musik- oder Navigationsapps zu nutzen.

Leider ist es für die Fahrer, für die das Mobiltelefon unverzichtbar ist, eher unattraktiv, freiwillig eine solche App zu nutzen. Wir glauben, ein besserer Ansatz wäre es, Anwendungen zu vereinfachen, damit sie kompatibel zum Autofahren werden. Das könnte zum Beispiel durch sprachgesteuerte Nutzung geschehen, da die Fahrer so weiterhin den Blick auf die Straße richten können,“ so Dr. Oviedo-Trespalacios

„Die existierenden Apps helfen nur den Fahrern, die auch bereit sind, sie zu nutzen. Aber wir brauchen mehr Forschung zu ihrem Potenzial, damit sie eines Tages in die Sicherheitssysteme von Autos eingebaut werden können, um die Sicherheit aller Verkehrsteilnehmer zu erhöhen. Es ist denkbar, dass Handyhersteller in Zukunft eine App auf ihren Telefonen installieren müssen, die mit dem Auto ‚spricht‘ und dann automatisch einige Telefon-Funktionen blockiert, während das Auto in Bewegung ist. Pokemon Go ist ein Beispiel dafür, dass Handyhersteller und Appentwickler zusammenarbeiten, um gegen die Ablenkung zu kämpfen. Die Entwickler von Pokemon Go bemerkten, dass die Gamer das Spiel während des Autofahrens nutzen, also haben sie ein Update eingeführt, das dem entgegenwirkt. Das ist eine Sache der sozialen Verantwortung, und wir als Nutzer können Druck ausüben.“

Dr. Oviedo-Trespalacios von der QUT fand bereits letztes Jahr in einer Studie heraus, dass die Hälfte der befragten australischen FahrerInnen zugab, täglich das Gesetz durch das Telefonieren am Steuer oder das Verschicken von Textnachrichten während des Fahrens zu brechen.

Die Studie wurde von Dr. Oviedo-Trespalacios aus dem Centre for Accident Research and Road Safety (CARR-Q) der Queensland University of Technology mit Hilfe von Verity Truelove und Dr. Mark King aus dem CARR-Q und Dr. Atiyeh Vazepour von der QUT durchgeführt. Das Paper „Can our phones keep us safe? A content analysis of smartphone applications to prevent mobile phone distracted driving“ wird in der Januaredition des Fachmagazins „Transportation Research“ veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email:berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Rose Trapnell
Email: media@qut.edu.au
Tel.: +61 (0) 407 585 901

Bei Veröffentlichung der Pressemitteilung bitten wir um eine Quellenangabe sowie die Zusendung eines Belegexemplars.

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
https://www.ranke-heinemann.de

Quelle: IDW 

(nach oben)


Magnesium-Batterien: Aufbruch ins Post-Lithium-Zeitalter

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Leistungsfähiger, günstiger und sicherer als Lithium-Ionen-Batterien: Das erhoffen sich Wissenschaftlerinnen und Wissenschaftler des Karlsruher Instituts für Technologie (KIT) sowie ihre Kooperationspartner von neuartigen Magnesium-Batterien, die sie im Forschungsprojekt E-MAGIC entwickeln wollen. Das von der Europäischen Union (EU) mit über 6,5 Millionen Euro finanzierte Forschungsprojekt bündelt relevante Aktivitäten verschiedener europäischer Wissenschaftsinstitutionen.

Eine Magnesiumbatterie hätte im Vergleich zu konventionellen Lithium-Ionen-Batterien entscheidende Vorzüge: Magnesium als Anodenmaterial ermöglicht eine höhere Energiedichte und wäre auch viel sicherer. „Magnesium ist ein vielversprechendes Material und einer der wichtigsten Kandidaten unserer Post-Lithium-Strategie“, sagt Professor Maximilian Fichtner, der stellvertretende Leiter des Helmholtz-Instituts Ulm (HIU), einem vom KIT in Kooperation mit der Universität Ulm und den assoziierten Partnern DLR und ZSW gegründeten Forschungsinstitut zur Erforschung und Entwicklung elektrochemischer Batteriekonzepte. „Eine breite Verfügbarkeit von Magnesiumbatterien könnte die Elektrifizierung von Mobilität und den Ausbau dezentraler Heimspeicher entscheidend voranbringen.“ Um die Entwicklung des neuartigen Batterietyps zu beschleunigen, kooperiert das HIU im Forschungsprojekt European Magnesium Interactive Battery Community (E-MAGIC) nun mit weiteren wissenschaftlichen Institutionen auf dem Gebiet der Batterie- und Materialforschung. Das im Programm „Horizon 2020″ von der EU geförderte Forschungsprojekt bündelt die Expertise von insgesamt zehn wissenschaftlichen Einrichtungen, das HIU erhält einen hohen sechsstelligen Betrag. Koordiniert wird E-MAGIC von der spanischen Fundación Cidetec.

In E-MAGIC vereinen die Partner alle notwendigen Schritte zur Entwicklung von Magnesium-Batterien, von der Grundlagenforschung bis zu den Prozessen bei der Zellproduktion. Die Wissenschaftlerinnen und Wissenschaftler des HIU wollen dabei vor allem dazu beitragen, die Hindernisse und Herausforderungen auf Ebene der Materialien zu verstehen und neue Lösungen für derzeitige Hindernisse zu schaffen. „Die besondere Herausforderung bei Magnesiumbatterien ist eine lange Lebensdauer“, erklärt Dr. Zhirong Zhao-Karger, die in der Forschungsgruppe Festkörperchemie des HIU die Aktivitäten des neuen Forschungsprojekts koordiniert. Doch es gibt eine Reihe positiver Eigenschaften des neuen Batteriematerials, die man nutzen wolle: So bilden sich zum Beispiel an den Magnesium-Anoden keine Dendrite. Solche elektrochemischen Ablagerungen an den Elektroden können bei Lithium-Ionen-Batterien nadelartige Strukturen bilden und Störungen oder sogar gefährliche Kurzschlüsse verursachen. „Bei Magnesium gibt es keine vergleichbaren Prozesse. Deshalb können wir Magnesium in metallischer Form verwenden und so die sehr hohe Speicherkapazität des Metalls direkt nutzen. Das steigert die Leistungsfähigkeit der Batterie“, so Zhao-Karger.

Neben der größeren Sicherheit und Energiedichte könnte der Einstieg in die Magnesiumtechnologie bei der Batteriefertigung außerdem dabei helfen, die Abhängigkeit von Lithium als Rohstoff zu verringern: Als Element ist Magnesium auf der Erde etwa 3 000 Mal so häufig vertreten wie Lithium und kann im Gegensatz dazu einfacher recycelt werden. Entsprechend wären Magnesiumbatterien auch günstiger als Lithium-Ionen-Batterien. Kommt Europa bei der Entwicklung zügig voran, könnten Magnesiumbatterien außerdem dabei helfen, die Dominanz der asiatischen Produzenten von Batteriezellen zu vermindern und eine konkurrenzfähige Batteriefertigung in Europa zu etablieren.

Mehr Informationen:
https://cordis.europa.eu/project/rcn/218681_en.html

Über das Helmholtz-Institut Ulm
Das Helmholtz-Institut Ulm (HIU) wurde im Januar 2011 vom Karlsruher Institut für Technologie (KIT) als Mitglied der Helmholtz-Gemeinschaft in Kooperation mit der Universität Ulm gegründet. Mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) sowie dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) sind zwei weitere renommierte Einrichtungen als assoziierte Partner in das HIU eingebunden. Das internationale Team aus rund 120 Wissenschaftlerinnen und Wissenschaftlern forscht im HIU an der Weiterentwicklung der Grundlagen von zukunftsfähigen Energiespeichern für den stationären und mobilen Einsatz.

Mehr zum HIU: http://www.hiu-batteries.de/

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer
natürlichen Lebensgrundlagen.

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:
Dr. Martin Heidelberger
Redakteur/Pressereferent
Tel.: +49 721 608-21169
E-Mail: martin.heidelberger@kit.edu

Weitere Informationen:
https://cordis.europa.eu/project/rcn/218681_en.html
http://www.hiu-batteries.de/
http://www.energie.kit.edu

Anhang
Magnesium-Batterien: Aufbruch ins Post-Lithium-Zeitalter
https://idw-online.de/de/attachment70545

Quelle: IDW 

(nach oben)


Wo die Flüsse nicht ins Meer fließen

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Ein Fünftel der Landfläche auf der Erde bedecken Flusseinzugsgebiete, die keine Verbindung zum Meer haben. Auch in diesen Gebieten ist Wasser gespeichert, zum Beispiel in Seen und Gletschern. Jetzt hat ein internationales Team von Wissenschaftlern unter Beteiligung der Goethe-Universität gezeigt, dass die Wasserspeicherung in solchen endorheischen Einzugsgebieten weltweit abgenommen hat. Hauptgründe dafür sind steigende Temperaturen und Wasserentnahmen durch den Menschen. Diese Wasserverluste leisten einen bisher unterschätzten Beitrag zum Meeresspiegelanstieg, wie die Forscher in der aktuellen Ausgabe von Nature Geoscience berichten.

FRANKFURT. „Beispiele für austrocknende endorheische Gebiete sind der Aralsee, der immer stärker ausgezehrte Arabische Aquifer und die zurückweichenden Gletscher im Tibetischen Hochland“, so Jida Wang, Geograph der US-amerikanischen Kansas State University und Hauptautor der Studie. Mithilfe von Schwerefeldbeobachtungen der NASA GRACE-Satelliten konnten die Autoren die globale Netto-Wasserabnahme in endorheischen Gebieten auf jährlich etwa 100 Milliarden Tonnen seit Beginn dieses Jahrtausends beziffern. Das entspricht pro Jahr etwa der doppelten Wassermenge des Bodensees. Überraschenderweise ist die Verlustrate in endorheischen Gebieten doppelt so hoch wie auf den gesamten restlichen Landflächen außerhalb von Grönland und der Antarktis.

Der Wasserverlust verstärkt nicht nur eine eventuelle Wasserknappheit in den endorheischen Gebieten, sondern trägt auch zum Anstieg des Meeresspiegels bei. Dazu Chungiao Song, Wissenschaftler am Nanjing Institute of Geography and Limnology, Chinese Academy of Sciences und zweiter Hauptautor der Studie: „Wenn das gespeicherte Wasser in endorheischen Gebieten aufgrund steigender Temperaturen und verstärkter Wasserentnahmen verdunstet, wird es über die Atmosphäre als Wasserdampf in exorheische Gebiete, zum Beispiel die großen Flusssysteme wie Amazonas und Nil transportiert. Diese Gebiete entwässern in die Ozeane.“

Während des vergleichsweise kurzen Beobachtungszeitraums von 14 Jahren führte der Wasserverlust in endorheischen Einzugsgebieten zu einem zusätzlichen Meeresspiegelanstieg von insgesamt vier Millimetern. Das sind etwa zehn Prozent des beobachteten Meeresspiegelanstieges in diesem Zeitraum und entspricht dem Anteil, der durch Grundwasserentnahmen verursacht wird. Im Vergleich zum Wasserverlust von Inlandgletschern (außerhalb von Grönland und der Antarktis) ist derjenige in endorheischen Gebieten etwa halb so groß. „Wir gehen nicht davon aus, dass der endorheische Wasserverlust vollständig im Ozean gelandet ist“, sagt Wang. „Aber wenn die derzeitige Entwicklung in endorheischen Gebieten weiter anhält, kann das zusätzliche Wasser in exorheischen Gebieten einen bedeutenden Anteil des Meeresspiegelanstieg ausmachen.“

Doch was sind die Gründe für den endorheischen Wasserverlust? Durch eine Kombination von multiplen Satellitenbeobachtungen und hydrologischer Modellierung berechneten die Autoren, dass global betrachtet der Wasserverlust in ungefähr gleichem Umfang aus Oberflächenwasser (in Gewässern, Schnee und Gletschern), Böden und Grundwasserkörpern herrührt. Regional betrachtet ist dies jedoch nicht so. Im endorheischen Zentralasien geht beispielsweise das meiste Wasser aus Oberflächenwasser verloren, insbesondere von Endseen wie dem Aralsee, dem Kaspischen Meer und dem Urmia-See, sowie von schmelzenden Gletschern in den asiatischen Hochgebirgen. Während die Gletscherschmelze auf höhere Temperaturen zurückgeht, spielen bei den Endseen eine Kombination von Niederschlags-Dürren und Wasserentnahmen aus den Zuflüssen eine große Rolle. Auf der anderen Seite beruhen Wasserverluste in der endorheischen Sahara und Arabien auf nicht-nachhaltigen Grundwasserentnahmen. Im endorheischen Nord-Amerika ist eine Dürre des Bodenwassers der Hauptgrund.

Die drei Kernbotschaften der Studie:
• Die Änderung der Wasserspeicherung in endorheischen Systemen könnte trotz ihrer geringen Gesamtmasse den Wasserspeichertrend auf den Landflächen weltweit während der letzten zehn Jahre dominiert haben.
• Da der derzeitige endorheische Wasserverlust wenig von natürlichen Variationen des Klimasystems beeinflusst wird, sind naheliegende Hauptursachen längerfristige klimatische Entwicklungen sowie die anthropogene Wassernutzung.
• Wasserverluste in endorheischen Gebieten haben Konsequenzen – sowohl für den regionalen Wasserhaushalt als auch für den Meeresspiegelanstieg.

Diese Kernbotschaften lassen die derzeitig als gering eingeschätzte Bedeutung endorheischer Einzugsgebiete für den globalen Wasserhaushalt und den dringenden Bedarf von einem besseren Verständnis in Wasserspeicheränderungen in diesen Gebieten in einem anderen Licht erscheinen.

Hannes Müller Schmied, Postdoktorand am Institut für Physische Geographie der Goethe-Universität Frankfurt und am Senckenberg Biodiversitäts- und Klimaforschungszentrum Frankfurt, berechnete mithilfe des globalen Wassernutzungs- und Verfügbarkeitsmodells WaterGAP wie sich Wasserspeicher veränderten, insbesondere die Schneewasserspeicher, die Wasserspeicherung in der Vegetation und im Boden.

Gemeinsam mit Gruppenleiterin Prof. Petra Döll und Doktorandin Denise Caceres arbeitet er darüber hinaus an einem Projekt der europäischen Raumfahrtagentur ESA, in dem es darum geht, präziser zu berechnen, welchen Beitrag die Wasserspeicheränderungen in Landflächen zum Meeresspiegelanstieg leisten. „Die jetzt publizierte Studie ergänzt das ESA-Projekt insofern, als dass die getrennte Betrachtung von endorheischen und exorheischen Einzugsgebieten zu neuen Erkenntnissen führte. Wir wollen den endorheischen Gebieten zukünftig deutlich mehr Beachtung schenken“, so Müller Schmied.

Bilder zum Download finden Sie unter: www.uni-frankfurt.de/75227780

Wissenschaftliche Ansprechpartner:
Hannes Müller Schmied, Institut für Physische Geographie, Fachbereich Geowissenschaften, Campus Riedberg, Hannes.Mueller.Schmied@em.uni-frankfurt.de

Originalpublikation:
Jida Wang, Chunqiao Song, John T. Reager, Fangfang Yao, James S. Famiglietti,
Yongwei Sheng, Glen M. MacDonald, Fanny Brun, Hannes Müller Schmied,
Richard A. Marston und Yoshihide Wada: Recent global decline in endorheic basin water storages, in: Nature Geoscience, https://doi.org/10.1038/s41561-018-0265-7

Weitere Informationen:
https://www.k-state.edu/media/newsreleases/2018-11/wang113018.html Pressemitteilung der Kansas State University

Quelle: IDW 

(nach oben)


Internationales Umweltschutzprojekt unter Leitung der Hochschule Karlsruhe

Holger Gust M. A. Pressestelle
Hochschule Karlsruhe – Technik und Wirtschaft

Inbetriebnahme einer Pilotanlage zur Wasserreinigung für die nachhaltige Fischzucht in Kisumu (Kenia) über das EU-Projekt „VicInAqua“

Innerhalb des EU-Projekts „Integrated aquaculture based on sustainable water recirculation system for the Victoria Lake Basin (VicInAqua)“ konnte am 23. November 2018 in Kisumu, Kenia, eine Pilotanlage zur Wasserreinigung für die nachhaltige Fischzucht feierlich eröffnet werden.

Der Viktoriasee ist das größte Binnengewässer Afrikas und der zweitgrößte Süßwassersee der Welt und hat große Bedeutung für seine Anrainerstaaten Kenia, Uganda und Tansania. Sein Süßwasserreservoir bildet die wesentliche Grundlage für Fischerei, Wirtschaft und Tourismus. Die gesamte Region ist allerdings aktuell durch Überfischung, Überdüngung durch Abwässer der am See angesiedelten Industrie, der steigenden Zahl an Siedlungen sowie eine wachsende Verarmung der dort lebenden Bevölkerung bedroht. Aufgrund des Überangebots an Nährstoffen ist der See in weiten Teilen durch Wasserhyazinthen überwuchert, die durch ihr rasantes Wachstum heimische Wasserpflanzen verdrängen.

Unter Projektleitung von Prof. Dr. Jan Hoinkis aus der Hochschule Karlsruhe – Technik und Wirtschaft (HsKA) haben sich insgesamt elf Partner aus Europa und Afrika zusammengeschlossen, um ein nachhaltiges Wasserreinigungssystem für die Fischzucht in der Region des Viktoriasees zu entwickeln. Deutsche Partnereinrichtungen sind neben der HsKA die Steinbeis 2i aus Karlsruhe und die Firma BPE International, aus Europa das Institute on Membrane Technology ITM-CNR (Italien), die University of Calabria (Italien), die Firmen AquaBioTech (Malta) und OxyGuard International (Dänemark) und aus Afrika die Jomo Kenyatta University of Agriculture and Technology (Kenia), das Department of Agriculture, Fisheries and Livestock Development (Kenia), die National Agricultural Research Organisation (Uganda) sowie die Science, Technology and Innovation Policy Research Organisation (Tansania).

Ziel des Projekts ist die Entwicklung und der Test eines kombinierten, nachhaltigen Wasserbehandlungssystems für Kreislaufsysteme in der Fischzucht und zur Abwasserbehandlung von industriellem und häuslichem Abwasser.

Mit der nun eingeweihten Pilotanlage beginnt die finale Testphase des Projekts, um deren Alltagstauglichkeit unter Beweis zu stellen. Die Basis der Pilotanlage bildet ein Mehrzweck-Filtrationssystem, ein sogenannter Membranbioreaktor, der sowohl als Rezirkulationssystem für Fischtanks als auch zur Abwasserbehandlung genutzt werden kann. Dafür konnte ein neuartiges selbstreinigendes Membranmaterial für den Einsatz im Membranbioreaktor entwickelt werden. In diesem werden feinporige Membranen zur Filtration des behandelten Abwassers eingesetzt. Diese neuen Anlagen sind von den Ausmaßen nicht nur sehr kompakt, sondern erzielen auch eine vergleichsweise hohe Wasserqualität. Das Problem der bisher verfügbaren Membranbioreaktoren war die Bildung von Schmutzschichten (Fouling) auf den Membranoberflächen, die den Wasserdurchfluss und damit die Reinigungsleistung reduzieren. Sie mussten daher in kurzen Zeitabständen mit Chemikalien gereinigt werden. Das neu entwickelte Membranmaterial zeigte im Laborbetrieb ein wesentlich verbessertes Fouling-Verhalten und wird nun in der Testphase vor Ort parallel zum bisherigen Material getestet.

Neben der Entwicklung eines innovativen Filtrationssystems hat sich VicInAqua auch mit einem sensorkontrollierten Energieversorgungssystem für einen semiautarken Betrieb befasst und konnte mit Photovoltaik und Biogas eine Pilotanlage erstellen. So lässt sich die notwendige Energie nachhaltig produzieren und eine kontinuierliche Energieversorgung der Anlage sichern, auch bei Stromausfällen im Netz.

„Eine der wesentlichen Herausforderungen des Projekts liegt in der Entwicklung von robusten und preisgünstigen Verfahren, die optimal an die sozio-ökonomischen Bedingungen der Region am Viktoriasee angepasst sind“, betont Projektleiter Prof. Dr. Jan Hoinkis. „Deshalb wurden und werden weiterhin auch Ausbildungs- und Trainingskurse für lokale Experten und ein Austausch von Studierenden zwischen den europäischen und afrikanischen Partnern durchgeführt.“ Über das Projekt konnten in diesem Jahr bereits vier Studierende aus Uganda und Kenia ein zweiwöchiges Training an der Hochschule Karlsruhe absolvieren.

Eine Video über das Projekt kann unter https://youtu.be/h3-TZxtZuJo abgerufen werden.

Das Projekt VicInAqua wird im Rahmen der Fördervereinbarung Nr. 689427 aus dem Forschungs- und Innovationsprogramm der Europäischen Union Horizont 2020 gefördert.

Weitere Informationen:
https://www.hs-karlsruhe.de/presse/inbetriebnahme-einer-pilotanlage-zur-wasserre…
https://youtu.be/h3-TZxtZuJo

Anhang
Mit dem gereinigten Wasser wird vor Ort eine nachhaltige Fischzucht möglich
https://idw-online.de/de/attachment68431

Quelle: IDW 

(nach oben)


Leuphana Wissenschaftler warnen vor Umweltproblemen durch Fassadenanstriche

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Biozide können in städtischen Räumen zu Beeinträchtigungen des Grundwassers führen.
Biozide, die bei den Anstrichen wärmedämmender Fassaden eingesetzt werden, können in städtischen Gebieten zu Beeinträchtigungen des Grundwassers führen. Das haben Umweltchemiker der Leuphana Universität Lüneburg im Rahmen eines dreijährigen Verbundforschungsprojektes zur Gewässerbewirtschaftung herausgefunden. Im ländlichen Raum sind es vor allem Pflanzenschutzmittel-Rückstände und deren Transformationsprodukte, die die Wasserqualität beeinträchtigen. Die Experten geben Empfehlungen, wie sich das Wassermanagement auf diese Probleme einstellen kann und fordern, solche Schadstoffeinträge schon an der Quelle zu bekämpfen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Projekt namens „MUTReWA“ mit 2,1 Millionen Euro gefördert.

Wasserbauliche Maßnahmen wie Rückhaltebecken und Versickerungsanlagen sollen dazu dienen, im Falle von Starkregen- und Hochwasserereignissen vor Überschwemmungen zu schützen. Forscher sind jetzt der Frage nachgegangen, wie sich solche Gewässerbewirtschaftungsmaßnahmen auf den Eintrag von Pestiziden auswirken. Das Ergebnis der Untersuchung fasst Dr. Oliver Olsson, Mitarbeiter am Institut Nachhaltige Chemie und Umweltchemie der Leuphana und Koordinator des Verbundprojekts, so zusammen: „Die Maßnahmen liefern einen Beitrag zum Rückhalt von Pflanzenschutzmittel-Rückständen aus der Intensivlandwirtschaft; sie können aber auch, wie am Beispiel der mobilisierten Biozidrückstände aus Gebäudefassaden in urbanen Gebieten gezeigt, den Eintrag in Gewässer fördern.“

Gerade die Versickerungsanlagen in städtischen Gebieten stellen ein besonderes Problem dar. Sammeln sich von Fassaden ausgewaschene Biozidrückstände in diesen Becken, können sie von dort unmittelbar ins Grundwasser gelangen. Die Forscher sprechen sich deshalb dafür aus, auf diese – als Pflanzenschutzmittel übrigens nicht mehr zugelassenen – Biozide in den Anstrichen ganz zu verzichten oder Fassaden künftig so zu gestalten, dass solche Anstriche nicht mehr notwendig sind.

Im ländlichen Raum sind es vor allem Pflanzenschutzmittelrückstände und ihre Transformationsprodukte, die zu Schadstoffkonzentrationen oberhalb von Umweltqualitätsnormen und gesundheitlichen Orientierungswerten führen. Die Wissenschaftler konnten außerdem nachweisen, dass durch unvollständige natürliche Abbauprozesse der untersuchten Pflanzenschutzmittel und Biozide eine Vielzahl sogenannter Transformationsprodukte entsteht. Die Anzahl der für Analysen zu berücksichtigenden Substanzen steigt dadurch auf das Vierfache. Bisher gibt es für deren Bewertung aber noch keine Grenzwerte.

„Das langfristige Ziel sollte nicht nur der Rückhalt und die Entfernung von Schadstoffen als „End-of-Pipe“-Lösung sein, sondern vielmehr die Vermeidung der Schadstoffeinträge direkt an der Quelle“, fordert Professor Dr. Klaus Kümmerer, Leiter des Instituts Nachhaltige Chemie und Umweltchemie, mit Blick auf die weitere Entwicklung.

Für das Forschungsprojekt haben Expertinnen und Experten aus drei Forschungseinrichtungen und fünf Praxispartner eng zusammengearbeitet und erste Maßnahmen zum Schutz der von ihnen untersuchten Gewässer entwickelt. Ihre Kernbotschaften und daraus abgeleitete Handlungsempfehlungen wurden für die Praxis zusammengefasst und online zur Verfügung gestellt ( http://www2.leuphana.de/mutrewa/request.php?15 ).

Hintergrund:
Das Projekt „Maßnahmen für einen nachhaltigeren Umgang mit Pestiziden und deren Transformationsprodukten im Regionalen Wassermanagement“ (MUTReWA) ist Teil der BMBF-Fördermaßnahme „Regionales Wasserressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland“ (ReWaM).

Quelle: IDW 

(nach oben)


Organischen Müll von Kreuzfahrtschiffen verwerten

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Die Kreuzfahrtbranche boomt, und weltweit gehen pro Jahr mehr als 24 Mio. Passagiere auf große Seereise. Jedes dieser Schiffe beherbergt und versorgt bis zu 6.000 Passagiere. Dabei fallen Abfallmengen wie in einer Kleinstadt an. Bisher wird der organische Teil des Mülls überwiegend in den zulässigen Zonen ins Meer eingeleitet. Das BINE-Projektinfo „Schiffsabfälle verwerten statt verklappen“ (14/2018) stellt ein neues Konzept vor, um den organischen Müll sowie den Klärschlamm an Bord zu sammeln und im Hafen energetisch zu verwerten. Modellregion ist dabei die Ostsee.

An Bord sammeln und vorbehandeln für Biogasanlage im Hafen
Hohe Entsorgungskosten, strengere Grenzwerte und das Verbrennungsverbot motivieren Forscher und Reeder, ein neues Entsorgungsverfahren zu entwickeln. Der flüssige und feste organische Schiffsmüll wird an Bord gesammelt und einer anaeroben Versauerung unterzogen. Dieses Verfahren blockiert zeitweilig die Gasentstehung und führt zur Verflüssigung. Dies sind günstige Voraussetzungen, um das Substrat dann in Häfen an Entsorgungsanlagen mit Biogasfermentern abzugeben. Hier läuft dann ein konventioneller Biogasprozess ab. Anschließend durchläuft der Gärrest in der letzten Stufe eine Verkohlung, um die strengen hygienischen Anforderungen zu erfüllen. Das Konzept ermöglicht eine wirtschaftliche Verwertung des organischen Mülls und gewinnt dabei Energie, statt diese wie bisher für energieeffiziente Trocknungsprozesse zu verbrauchen.

Das Projekt wird vom Innovations- und Bildungszentrum Hohen Luckow e. V. gemeinsam mit Partnern durchgeführt. Die Projektpartner wirken im Netzwerk „Biogas Maritim – Biogastechnologien zur energetischen Verwertung maritimer Abfälle“ gemeinsam mit 12 Unternehmen und vier unterstützenden Einrichtungen mit.

Ein Hinweis in eigener Sache: Der BINE Informationsdienst endet zum 31. Dezember 2018. Die Pressestelle ist bereits nicht mehr besetzt.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Wissenschaftliche Ansprechpartner:

BINE Informationsdienst
Daniela Pizzini – Redaktionsassistenz
Fax 0228/9 23 79-29
E-Mail presse@bine.info
Kaiserstraße 185-197
53113 Bonn
http://www.bine.info

Originalpublikation:
http://www.bine.info/publikationen/publikation/schiffsabfaelle-verwerten-statt-v…

Quelle: IDW 

(nach oben)


Zelle für Zelle zum Durchbruch des Jahres – MDC in Berlin ist Hotspot des Forschungsgebietes

Jutta Kramm Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft

Der „Durchbruch des Jahres“ ist laut dem US-Wissenschaftsmagazin „Science“ die „Einzelzellanalyse“. Ein wichtiger internationaler Hotspot für die revolutionäre Technologie ist das Max-Delbrück-Centrum für Molekulare Medizin in Berlin. Das europäische Konsortium LifeTime, das von Berlin und Paris aus koordiniert wird, will sich künftig auf den Ansatz konzentrieren.

Forscherinnen und Forscher am Max-Delbrück-Centrum freuen sich sehr über die Entscheidung des Wissenschaftsmagazins „Science“, die Einzelzellanalyse zum Durchbruch des Jahres 2018 zu wählen. Professor Nikolaus Rajewsky, Leiter des Berlin Institute for Medical Systems Biology, kurz BIMSB, am MDC sagte am Freitag in Berlin: „Die Einzelzellanalysen werden das nächste Jahrzehnt der Forschung verändern. Wenn wir nachvollziehen können, wie sich einzelne Zellen in Gesundheit und Krankheit entwickeln, wird das das Leben und die klinischen Wissenschaften tiefgreifend verändern. Ich freue mich, dass das europäische LifeTime-Konsortium an der Spitze dieser Revolution steht.“

Ziel ist die personalisierte Medizin
Die Einzelzellanalyse, englisch: „Single Cell Analysis“, ist ein junger, wichtiger Zweig der genetischen Grundlagenforschung. Die Wissenschaftlerinnen und Wissenschaftler versuchen, mit Hilfe höchst empfindlicher Methoden die Entwicklung und die Spezialisierung Tausender Zellen gleichzeitig verstehen. Dabei nutzen die Teams modernste Techniken zur Markierung einzelner Zellen im Embryo, zur massenhaften Sequenzierung des Erbguts und zur Analyse der RNA, die aus der Erbinformation in der Zelle zum Beispiel Proteinen werden lässt. Außerdem kommen die neuesten Möglichkeiten der Künstlichen Intelligenz zum Einsatz, um die dabei anfallenden gigantischen Datenmengen auszuwerten.

Die Wissenschaftlerinnen und Wissenschaftler wollen im Detail nachvollziehen, wann welche Gene in jeder einzelnen Zelle ein- oder ausgeschaltet werden und wie durch das Zusammenspiel Organe und ganze Organismen entstehen. Ihr Ziel ist es letztlich zu erkennen, was passiert, wenn die Zellen altern, sich regenerieren oder wenn Krankheiten entstehen. „Langfristig geht es darum, Krankheitszeichen in einzelnen Zellen möglichst früh zu erkennen, um rasch mit einer geeigneten und auf den einzelnen Patienten zugeschnittenen Behandlung dagegen zu steuern“, sagte Rajewsky.

Die Redaktion des Wissenschaftsmagazin „Science“ hat jetzt die Einzelzellanalyse zum Durchbruch des Jahres gewählt. Laut „Science“ hat die Einzelzell-Revolution gerade erst begonnen.

Ein internationales Konsortium
In Europa hat sich bereits Anfang 2018 ein Konsortium namens „LifeTime“ gegründet, das die Einzelzellanalyse gemeinsam vorantreiben will. Maßgeblich am Projekt beteiligt sind die beiden größten europäischen Forschungsorganisationen, die deutsche Helmholtz-Gemeinschaft und das französische Centre National de la Recherche Scientifique (CNRS). Mehr als 120 Wissenschaftlerinnen und Wissenschaftler an 53 Forschungsinstituten aus insgesamt 18 europäischen Ländern sowie 60 Unternehmen unterstützen LifeTime.

Koordiniert wird LifeTime vom Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) in Berlin und dem Institut Curie in Paris.

Über das Max-Delbrück-Centrum für Molekulare Medizin (MDC)
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) wurde 1992 in Berlin gegründet. Es ist nach dem deutsch-amerikanischen Physiker Max Delbrück benannt, dem 1969 der Nobelpreis für Physiologie und Medizin verliehen wurde. Aufgabe des MDC ist die Erforschung molekularer Mechanismen, um die Ursachen von Krankheiten zu verstehen und sie besser zu diagnostizieren, verhüten und wirksam bekämpfen zu können. Dabei kooperiert das MDC mit der Charité – Universitätsmedizin Berlin und dem Berlin Institute of Health (BIH) sowie mit nationalen Partnern, z.B. dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DHZK), und zahlreichen internationalen Forschungseinrichtungen. Am MDC arbeiten mehr als 1.600 Beschäftigte und Gäste aus nahezu 60 Ländern; davon sind fast 1.300 in der Wissenschaft tätig. Es wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Berlin finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren. www.mdc-berlin.de

Wissenschaftliche Ansprechpartner:
Professor Nikolaus Rajewsky,
Leiter des Berlin Institute for Medical Systems Biology (BIMSB) am MDC
Tel.: 030-9406-2999
rajewsky@mdc-berlin.de

Weitere Informationen:
http://vis.sciencemag.org/breakthrough2018/finalists/#cell-development – Science: Breakthrough of the Year. Development Cell by Cell
https://www.mdc-berlin.de/de/themen/einzelzellanalyse – Einzelzellforschung am Berliner MDC
https://lifetime-fetflagship.eu/index.php/the-initiative/ – LifeTime: Europäische Initiative von mehr als 120 Forscherinnen und Forschern will die Einzelzellanalyse vorantreiben

Quelle: IDW 

(nach oben)


Großeltern sind für Enkelkinder wichtig

Uta Hofele Abteilung Medien und Kommunikation
Deutsches Jugendinstitut e.V.

Die Beziehung gelingt, wenn das Verhältnis zu Sohn und Tochter stimmt
Wer die Beziehung zwischen Großeltern und Enkelkindern verstehen möchte, muss die Rolle der Eltern mit einbeziehen. Besteht ein gutes Verhältnis zwischen Eltern und Großeltern, so profitieren die Enkelkinder davon. Großeltern müssen dabei die richtige Balance finden: Sie wollen Hilfe anbieten, ohne sich einzumischen. In den meisten Fällen gelingt dies gut. Insbesondere in Krisensituationen sind Großeltern bereit einzuspringen, wenn sie gebraucht werden.

„Tochter und Schwiegersohn […], die wissen dann sehr zu schätzen, wenn man Feuerwehr spielt. Und je größer die Familien sind, desto öfter sind Feuerwehreinsätze notwendig.“ (Zitat eines Großvaters)

Zu diesen Ergebnissen kommt eine Studie des Deutschen Jugendinstituts (DJI) mit dem Titel „Generationenübergreifende Zeitverwendung: Großeltern, Eltern, Enkel“. Diese basiert auf statistischen Auswertungen aus dem Beziehungs- und Familienpanel Pairfam (431 Großeltern und 1419 Enkel im Alter zwischen 8 und 15 Jahren) und dem Deutschen Alterssurvey (DEAS; 3077 Großeltern und 940 Enkel im Alter zwischen 16 und 27 Jahren) sowie auf einzelnen Interviews mit Großeltern. Finanziert wurde die Studie vom Bayerischen Staatsministerium für Familie, Arbeit und Soziales.

Dazu Bayerns Familienministerin Kerstin Schreyer (CSU): „Die Studie hat gezeigt: Großeltern, Kinder und Enkelkinder verbindet eine große Solidarität. Die Generationen sind füreinander da, wenn sie sich brauchen. Davon profitiert die ganze Familie, das ist eine wunderbare Win-Win-Situation. Dies ist auch die Basis des Zusammenhaltes in der Gesellschaft. Die gemeinsam verbrachte Lebenszeit von Großeltern und Enkeln ist in den letzten Jahren deutlich gestiegen. Heute sind Großeltern in Deutschland bei Geburt ihres ersten Enkelkindes etwa 53 Jahre alt und stehen zum Teil noch voll im Berufsleben. Obwohl heutige Großeltern oft einen vollen Terminkalender haben und ihre Freizeit aktiv gestalten, pflegen sie eine intensive Beziehung zu ihren Enkeln. Das ist sinnstiftend und hält jung. Gleichzeitig unterstützen sie die Eltern dabei, Beruf und Familie zu vereinbaren und sind wichtige Bezugspersonen für die Enkelkinder. Besonders freue ich mich, dass auch Großväter heute zunehmend aktiv Zeit mit ihren Enkeln verbringen.“

Insgesamt berichten 91 Prozent der Großeltern in dem Beziehungs- und Familienpanel pairfam von einer engen oder sogar sehr engen Verbundenheit zu ihren null- bis 16-jährigen Enkelkindern. 82 Prozent erleben viel Freude in ihrer Rolle als Großeltern. Voraussetzung: Heutige Großeltern wollen den Kontakt zu den Enkelkindern selbstbestimmt gestalten und in der ihnen zur Verfügung stehenden Zeit auch eigene Interessen und Lebensziele verfolgen. Diese Autonomie der Großeltern schadet der Beziehung zu den Enkeln nicht. Ganz im Gegenteil: Großeltern, die ihr Leben aktiv gestalten, das heißt gesundheitlich fit sind, viele Freizeitaktivitäten unternehmen und ein großes soziales Netzwerk haben, schätzen die Beziehungsqualität zu ihren Enkelkindern sogar höher ein.

Das Deutsche Jugendinstitut e.V. ist eine der größten sozialwissenschaftlichen Forschungseinrichtungen Europas und erforscht die Lebenssituationen von Kindern, Jugendlichen und Familien im aktuellen gesellschaftspolitischen Kontext.

Wissenschaftliche Ansprechpartner:

Dr. Christian Alt
Fachgruppenleitung „Lebenslagen und Lebenswelten von Kindern“
Tel.: 089 62306-239
alt@dji.de

Carolin Seilbeck
Mitarbeiterin der Fachgruppe „Frühe Hilfen“
Tel.: 089 62306-542
seilbeck@dji.de

Originalpublikation:
Carolin Seilbeck, Dr. Alexandra Langmeyer (2018): Ergebnisse der Studie „ Generationenübergreifende Zeitverwendung: Großeltern, Eltern, Enkel“. Kostenloser Download unter www.dji.de/grosseltern

Quelle: IDW

(nach oben)

Nächster Artikel