Migration im Schulbuch – Wie Bildungsmedien Migration und Migrierende abbilden
Corina Härning Stabsstelle Kommunikation und Marketing
Universität Augsburg
„Migration und Bildungsmedien“ heißt ein neuer Tagungsband, den die Augsburger Pädagogin Prof. Dr. Eva Matthes herausgegeben hat. Interdisziplinär, international, historisch und aktuell beleuchtet er Entwicklung und Herstellung von Bildungsmedien, insbesondere Schulbüchern, für Lernende mit Migrationshintergrund.
Dass Bildungserfolg mit dem sozialen, familiären und gesellschaftlichen Umfeld direkt zusammenhängt, ist bekannt. Insbesondere Migrationserfahrungen – eigene und familiäre – sind prägend für den Lebenslauf und den Bildungsweg. Eva Matthes, Professorin für Pädagogik an der Philosophisch-Sozialwissenschaftlichen Fakultät hat nun mit Sylvia Schütze (Universität Bielefeld) einen Sammelband herausgegeben, der sich mit Bildungsmedien für und über Migranten und Migrantinnen befasst. Es geht um Integrationsbemühungen durch Bildungsmedien und förder-, aber auch hinderliche Unterrichts- und Lernbedingungen in diesem Zusammenhang.
Integrationshindernisse bewältigen
Namhafte Wissenschaftler und Wissenschaftlerinnen erläutern die Bedeutung des jeweiligen kulturellen Hintergrundes von Kindern für die schulische Integration und zeigen anhand von Beispielen aus anderen Ländern wie Bildungsmedien aussehen und Integrationshindernisse bewältigt werden können. Weitere Beiträge untersuchen inwieweit sich die Erstklass-Fibel an Kinder mit Migrationshintergrund richtet, was Sprachlern-Apps im Unterricht zur Integration beitragen können und wie Lehrkräften mit hoher Sensibilisierung die Balance gelingen kann, Vielfalt und „Anders-Sein“ zu integrieren ohne diese durch Überbetonung in stereotyper Form erst zu herzustellen (doing difference). Zwar werden hauptsächlich Materialien für den Schulunterricht als Bildungsmedien verstanden, zwei Beiträge widmen sich jedoch auch Bilderbüchern und Gesellschaftsspielen.
Vielfalt adäquat darstellen
Wer sich mit Bildungsmedien für Menschen mit Migrationshintergrund beschäftigt, ist schnell auch bei der ebenso relevanten Frage wie diese Menschen, ihre Hintergründe und Geschichten, inhaltlich dargestellt werden. Auch dieser Frage geht der Sammelband nach.
Eine Analyse von deutschen Englischbüchern wirft die Frage auf inwiefern die Lehrwerke Migranten und Migrantinnen als Andere oder als selbstverständlicher Teil einer Zuwanderungsgesellschaft darstellen und stellt fest, dass sie noch immer sehr vereinfacht, ja stereotyp dargestellt werden. Gerade Englisch bietet etliche landeskundliche Anlässe für das Thema Migration. Die komplexen und kontroversen Kontexte von Migration und ihren Hintergründen werden jedoch in den Lehrwerken vielfach ignoriert.
Die Darstellung von Migration in Schulbüchern, so ein weiterer Beitrag, habe immer auch eine diskursive Komponente, mit der Migrantinnen und Migranten sich ihrer bewusst werden und die Vorstellungen und Handlungen auslösen könne.
Eine hohe Verantwortung für den Einsatz der Bildungsmedien im Unterricht komme den Lehrkräften zu, die sie einsetzen und moderieren. Aber auch die Medien selbst sollten so gestaltet sein, dass sie auch im autodidaktischen Lernen funktioneren, z. B. in Homeschooling-Settings während der aktuellen Corona-Pandemie.
„Migration und Bildungsmedien – Migration and Educational Media“ ist bei Klinkhardt forschung erschienen. Die Beiträge wurden auf der Jahrestagung der Internationalen Gesellschaft für Schulbuch- und Bildungsmedienforschung (IGSBi) im Oktober in Chur (Schweiz) vorgestellt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Matthes
Pädagogik
Telefon: 0821 598 -5574
eva.matthes@phil.uni-augsburg.de
Originalpublikation:
https://www.klinkhardt.de/verlagsprogramm/2410.html
Quelle: IDW
(nach oben)
Von Sonnenlicht zu Wasserstoff
Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam aus Jena und Ulm produziert Wasserstoff mithilfe von Licht
Die Gewinnung von molekularem Wasserstoff als alternativer, erneuerbarer und sauberer Energieträger ausgehend von Wasser und Licht ist ein zentrales Element der solaren Energieumwandlung und -speicherung. Ein Team des Sonderforschungsbereichs „CataLight“ der Universitäten Jena und Ulm hat neuartige organische Farbstoffe mit edelmetallfreien Katalysatormolekülen kombiniert, die unter Lichtbestrahlung in Wasser gasförmigen Wasserstoff freisetzen. In der gerade veröffentlichten Studie heißt es, das Substitut habe einen bemerkenswerten Einfluss in Bezug auf Langlebigkeit und Wirkung nach der Anregung durch sichtbares Licht gezeigt.
Photosynthese als Inspiration
Die Forscher der Friedrich-Schiller-Universität, des Leibniz-Instituts für Photonische Technologien (Leibniz-IPHT) und der Universität Ulm haben sich hierfür von der Natur inspirieren lassen. Dort findet die effektivste Speicherung von Sonnenlicht in chemischen Bindungen in der Photosynthese statt. In den Chloroplasten sind die Lichtsammel- und Reaktionskomplexe in der Thylakoidmembran fest angeordnet. Eine solche Anordnung erreichen die Forscher der Arbeitsgruppe um Prof. Dr. Felix Schacher mithilfe von Polymeren, die sowohl mit hydrophilen als auch hydrophoben Stoffen interagieren. Diese geladenen Propfcopolymere werden künstlich hergestellt.
Organische Farbstoffe, mehr als eine Alternative
Während die meisten Ansätze künstlicher Photosynthese auf Edelmetallkomplexe als lichtabsorbierende Materialien setzen, wird in der Arbeitsgruppe von Prof. Dr. Kalina Peneva an metallfreien Farbstoffen gearbeitet. Die Jenaer Wissenschaftlerinnen und Wissenschaftler setzen auf Rylen-Farbstoffe, die besonders stabil gegenüber Licht und chemischen Prozessen sind.
„Die in der Forschung eingesetzten, lichtabsorbierenden Metallkomplexe enthalten oftmals Ruthenium oder Iridium. Diese Metalle machen am Massenanteil der Erdkruste allerdings weniger als 0,1 Millionstel Prozent aus und sind daher perspektivisch limitiert,“ erklärt Prof. Dr. Kalina Peneva. Der Einsatz von photoaktiven Verbindungen auf organisch-chemischer Basis sei deutlich nachhaltiger als die Verwendung von Schwermetallen.
Spektroskopie – eine molekulare Lupe
Mit der Absorption von Licht allein entsteht allerdings noch kein Wasserstoff. Hierzu müssen die Energieniveaus der Farbstoffe und Katalysatormoleküle nach der Absorption präzise zueinander passen. Um diese Energieniveaus zu ermitteln, bedienen sich die Forscher der Arbeitsgruppe um Prof. Dr. Benjamin Dietzek spektroskopischer Methoden, bei denen aus der Wechselwirkung von Materie mit definiertem Licht unter anderem Rückschlüsse auf die aufgenommene und im Molekül verbliebene Energie gezogen werden können.
Interdisziplinäre Kooperationen lösen die Probleme der Zukunft
Neben der wissenschaftlichen Erkenntnis zeigt sich auch, dass die Probleme der Zukunft am effektivsten mit interdisziplinärer Zusammenarbeit angegangen werden. Denn neben organischen Chemikern und Polymerforschern lieferten auch Physikochemiker des Leibniz-IPHT sowie anorganische Chemiker und Chemieingenieure der Universität Ulm wertvolle Beiträge und Erkenntnisse.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Kalina Peneva
Chemisch-Geowissenschaftliche Fakultät der Friedrich-Schiller-Universität Jena
Technikum Optik, Lessingstraße 8, 07743 Jena
Tel.: 03641 / 948790
E-Mail: kalina.peneva@uni-jena.de
Originalpublikation:
D. Costabel, A. Skabeev, A. Nabiyan, Y. Luo, J. Max, A. Rajagopal, D. Kowalczyk, B. Dietzek, M. Wächtler, H. Görls, D. Ziegenbalg, Y. Zagranyarski, C. Streb, F. H. Schacher, K. Peneva: 1,7,9,10‐tetrasubstituted PMIs accessible via decarboxylative bromination: Synthesis, Characterization, Photophysical Studies and Hydrogen Evolution Catalysis. Chemistry – A European Journal (2020). DOI: 10.1002/chem.202004326
Quelle: IDW
(nach oben)
Klimakrise lässt Seen schrumpfen
Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Autoren plädieren in Fachartikel für mehr Aufmerksamkeit für Regionen, in denen der Wasserpegel sinkt
Der Klimawandel wirkt sich nicht nur auf Ozeane aus, sondern auch auf große Seen im Binnenland. Das Kaspische Meer ist als weltgrößter See ein Musterbeispiel dafür, wie sich ein Gewässer verändern kann und wird. In einem Artikel in der Nature-Zeitschrift Communications Earth & Environment gehen Dr. Matthias Prange vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen und seine Kollegen auf die möglichen ökologischen, politischen und wirtschaftlichen Folgen sowie auf Lösungsansätze ein.
Während durch die Klimakrise weltweit die Meeresspiegel ansteigen und so die Infrastruktur in Küstennähe bedrohen, führen höhere Temperaturen andernorts zum genauen Gegenteil. Dort sinken Pegel und verursachen ebenfalls massive Probleme. Sinkende Pegel aber, zu diesem Schluss kommen Matthias Prange, Thomas Wilke von der Justus-Liebig-Universität Gießen und Frank P. Wesselingh von der Universität Utrecht und dem Naturalis Biodiversity Center Leiden (Niederlande), erfahren weniger Aufmerksamkeit, obwohl die Folgen ähnlich gravierend sind.
„Das Kaspische Meer steht repräsentativ für viele andere Seen auf der Welt. Dass laut unseren Modellen wegen des Klimawandels hier ein Binnengewässer dramatisch schrumpft, ist vielen Menschen gar nicht bewusst“, sagt Matthias Prange. Auch im Bericht des Weltklimarates (IPCC) fehlten Seen und blieben die sozialen, politischen und wirtschaftlichen Folgen für die betroffenen Regionen aufgrund der globalen Erwärmung unbeachtet. „Das muss sich ändern, wir brauchen mehr Studien und mehr Kenntnis über Folgen globaler Erwärmung in dieser Region.“ Ziel müsse es sein, sich der Klimawandel-Folgen für Binnengewässer bewusst zu werden, damit Anpassungsstrategien entwickelt werden können – auch für andere große Seen und Regionen, die vor ähnlichen Herausforderungen stehen.
Das Kaspische Meer trägt die Bezeichnung aufgrund seiner Größe – es ist der größte See der Welt – und wegen seines relativ hohen Salzgehalts von ungefähr einem Prozent, was in etwa einem Drittel der Salzkonzentration der Ozeane entspricht. Der größte Zufluss ist die Wolga, eine natürliche Verbindung zum Ozean hat das Kaspische Meer nicht. Der Wasserpegel basiert auf einem Gleichgewicht von Zufluss, Niederschlag und Verdunstung. Durch die globale Erwärmung nimmt die Verdunstung zu und der Wasserpegel fällt.
Regional ist das Kaspische Meer bedeutend als Wasserreservoir – und zwar trotz des Salzgehalts, als Lebensraum und als Wirtschaftsstandort. Zu den Anrainerstaaten gehören Kasachstan, Turkmenistan, Iran, Aserbaidschan und Russland. Künftig könnte der Wasserpegel je nach Grad der globalen Erwärmung um zwischen 9 und 18 Metern in diesem Jahrhundert sinken. „Das würde sich nicht nur auf die Biodiversität, verschiedene Arten und die Habitate auswirken, die dann verschwinden würden. Auch die Ökonomie – Häfen, die Fischerei und Fischzucht – aller Anrainerstaaten wäre betroffen.“ Aus diesem Grund plädieren die Autoren dafür, künftig am Beispiel des Kaspischen Meeres wissenschaftlich zu untersuchen und zu bewerten, wie anfällig bestimmte Regionen durch den sinkenden Wasserspiegel sind. Da keine Nation dadurch entstehende Konflikte allein lösen könne, schlagen sie eine globale Arbeitsgruppe vor, die Strategien entwickelt und koordiniert. „Internationale Klimafonds“, heißt es im Artikel, „können die Möglichkeit bieten, Projekte und Anpassungsmaßnahmen zu finanzieren, wenn Veränderungen des Seespiegels auf den Klimawandel zurückgeführt werden.“
Beteiligte Institute:
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Institut für Tierökologie und spezielle Zoologie, Justus-Liebig-Universität Gießen
Naturalis Biodiversity Center, Leiden (Niederlande)
Department Earth Sciences, Utrecht University (Niederlande)
Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.
Wissenschaftliche Ansprechpartner:
Dr. Matthias Prange
Geosystemmodellierung
Telefon: 0421 21865430
E-Mail: mprange@marum.de
Originalpublikation:
Matthias Prange, Thomas Wilke, Frank P. Wesselingh: The other side of sea level change. Communications Earth & Environment 2020. DOI: 10.1038/s43247-020-00075-6
Anhang
PDF Pressemitteilung
Quelle: IDW
(nach oben)
Globale Niederschlagsveränderungen infolge des Klimawandels zu erwarten
Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Änderung der Temperaturunterschiede zwischen Tropen und polaren Regionen ist zentrales Steuerelement der atmosphärischen Zirkulation und in der Folge Ursache regionaler Klimaveränderungen
Das Klimasystem der Erde wird ganz wesentlich von den Temperaturunterschieden zwischen den Tropen und den Polen bestimmt. Die Erderwärmung dürfte zur Folge haben, dass sich die atmosphärische Zirkulation global verändert und sich nach und nach ein ähnlicher Modus wie vor 5.000 bis 10.000 Jahren einstellt. Zu diesem Ergebnis kommt eine Studie, die unter der Leitung von Dr. Michael Deininger erstellt und in Nature Communications veröffentlicht wurde.
Deininger, Mitarbeiter am Institut für Geowissenschaften der Johannes Gutenberg-Universität Mainz (JGU), ging der Frage nach, wie sich regionale Klimasysteme seit Beginn der jetzigen Warmzeit vor gut 10.000 Jahren verändert haben und welche Schlüsse daraus zu ziehen sind. Dazu hat der Paläoklimatologe Niederschlagszeitreihen von verschiedenen Klimaarchiven herangezogen. „So konnten wir die Sommerniederschläge in den Monsungebieten in Afrika und Südamerika präzise rekonstruieren und diese mit Niederschlagsveränderungen in den nördlichen Breiten vergleichen und sie zu Temperaturveränderungen in Relation setzen“, erklärt Deininger. An der Studie waren auch Wissenschaftlerinnen und Wissenschaftler aus Australien, Brasilien, Mexico, Irland, Österreich und Südafrika beteiligt.
Entwicklung regionaler Niederschläge ist während 10.000 Jahren synchron verlaufen
Durch die unterschiedlich starke Erwärmung der Erde am Äquator und an den Polen infolge der Verteilung der Sonneneinstrahlung kommt es zu einem Temperaturgefälle, das vereinfacht gesagt dazu führt, dass die atmosphärische Zirkulation Energie in Richtung der Pole transportiert. Veränderungen dieses Temperaturunterschieds durch Variationen der Sonneneinstrahlung beeinflussen im Gegenzug die atmosphärische Zirkulation und in weiterer Folge regionale Niederschlagsmuster.
Wie die neue Studie nun zeigt, hat sich das regionale Niederschlagsgeschehen in den nördlichen Breiten, Afrika und Südamerika während der vergangenen 10.000 Jahre praktisch synchron verändert. „Wir behaupten, dass diese regionalen Klimaveränderungen zusammenhängen und dass sie hauptsächlich durch die Veränderungen der solaren Einstrahlung und den damit einhergehenden Temperaturunterschieden zwischen den Tropen und polaren Regionen verursacht wurden“, so Deininger.
Aus der Vergangenheit für die Zukunft lernen
Die an der Studie beteiligten Wissenschaftlerinnen und Wissenschaftler hat insbesondere die Frage angetrieben, ob man aus der Vergangenheit für die Zukunft lernen kann. Durch die aktuelle globale Erwärmung der Erde verringert sich das Temperaturgefälle zwischen dem Äquator und den Polen – vor allem weil sich die Erwärmung an den Polen besonders stark auswirkt. Dies kann die Westwinde in den mittleren Breiten der Nordhalbkugel abschwächen, einen schwächeren südamerikanischen Monsun und einen stärkeren afrikanischen Monsun bewirken, während gleichzeitig die Niederschläge in der Sommerregenzone Südostafrikas zurückgehen. In der Folge werden sich regionale Niederschlagsmuster verändern und können so Wasserknappheit auf der einen Seite und Überschwemmungen auf der anderen Seite verursachen. „Wir müssen“, so das Fazit des Paläoklimatologen Michael Deininger, „die Änderung der Temperaturdifferenz als zentrales Steuerelement des Klimasystems künftig mehr in Betracht ziehen.“
Bildmaterial:
https://download.uni-mainz.de/presse/09_geowiss_klima_veraenderung.jpg
Klimaarchive, wie der abgebildete Bohrkern eines Sinterwalls (Speläothem), erlauben es Klimaforschern, vergangene Klimaveränderungen zu rekonstruieren und das Klimasystem besser zu verstehen.
Weiterführende Links:
https://www.geowiss.uni-mainz.de/isotopengeochemische-palaeoklimatologie-spelaeo… – Isotopengeochemische Paläoklimatologie/ Speläothemforschung
https://www.geowiss.uni-mainz.de/ – Institut für Geowissenschaften
Lesen Sie mehr:
https://www.uni-mainz.de/presse/aktuell/320_DEU_HTML.php – Pressemitteilung „Stalagmiten liefern Paläo-Klimadaten“ (02.02.2017)
https://www.magazin.uni-mainz.de/4445_DEU_HTML.php – JGU-Magazin-Beitrag „Tropfsteine werden zum Klimaarchiv“ (7. April 2016)
https://www.uni-mainz.de/presse/73407.php – Pressemitteilung „Geowissenschaftler Denis Scholz erhält Heisenberg-Professur der Deutschen Forschungsgemeinschaft“ (05.11.2015)
Wissenschaftliche Ansprechpartner:
Dr. Michael Deininger
Speläothemforschung
Institut für Geowissenschaften
Johannes Gutenberg-Universität Mainz
55099 Mainz
E-Mail: michael.deininger@uni-mainz.de
https://www.geowiss.uni-mainz.de/team/dr-michael-deininger/
Originalpublikation:
Michael Deininger et al.
Inter-hemispheric synchroneity of Holocene precipitation anomalies controlled by Earth’s latitudinal insolation gradients
Nature Communications, 28. Oktober 2020
DOI: 10.1038/s41467-020-19021-3
https://www.nature.com/articles/s41467-020-19021-3
Quelle: IDW
(nach oben)
Podcast: Wer haftet beim Unfall des autonomen Autos?
Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der dritte Folge des Podcast-Specials zum SFB „Hybrid Societies“ geht es um die zunehmende Automatisierung von Maschinen im Alltag und welche Konsequenzen das für uns als Gesellschaft hat
Kommen Sie kurz mit und stellen Sie sich Folgendes vor: Sie steigen morgens in Ihren Wagen, geben Ihr Ziel ein und lehnen sich danach entspannt zurück oder arbeiten am Computer – den Weg zur Arbeit findet der Wagen allein. Rote Ampeln, Fußgängerinnen und Fußgänger oder Hindernisse sind kein Problem für Künstliche Intelligenz (KI) und Assistenzsysteme. Willkommen in der Zukunft.
Aber dann passiert es doch: Unfall. Wer haftet jetzt bei Sach- oder sogar Personenschaden? Die Fahrzeughersteller, die KI oder doch die Fahrerin oder der Fahrer? Und überhaupt – wer trägt die Verantwortung? Darum geht es in der neuen Folge „Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB „Hybrid Societies“ der Technischen Universität Chemnitz.
Redakteur und Moderator Thibaud Schremser spricht in der dritten Folge mit Prof. Dr. Josef Krems, Leiter der Forschergruppe Allgemeine Psychologie und Arbeitspsychologie, und Prof. Dr. Dagmar Gesmann-Nuissl, Inhaberin der Professur für Privatrecht und Recht des geistigen Eigentums. Beide forschen im Rahmen des Sonderforschungsbereichs „Hybrid Societies und bringen ihre Expertise unter anderem aus ihrer Forschung zum autonomen Fahren sowie aus dem Bereich Normung und Standardisierung bei „Ethik / Responsible AI“ und „IT-Sicherheit bei KI-Systemen ein.
Etabliertes Format der Wissenschaftskommunikation
Damit die Arbeit des Sonderforschungsbereichs mehr Menschen erreicht, erscheint seit dem 9. Oktober 2020 das Podcast-Special „Mensch – Maschine – Miteinander“. Special deswegen, weil dieser Podcast kein neues Format innerhalb des Kommunikations-Portfolios der TU Chemnitz ist, sondern als Mini-Serie die Reihe „TUCscicast“ ergänzt.
„Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB Hybrid Societies“ wird gemeinsam produziert vom SFB Hybrid Societies, der TU Chemnitz und podcastproduzenten.de, Schwester-Firma des Online-Radios detektor.fm, das seit 2009 hochwertige Podcasts für Wirtschaft, Gesellschaft und Forschung produziert. Redakteur des Podcasts ist Thibaud Schremser.
Der Podcast kann auf verschiedenen Wegen gehört werden:
– im Web-Player der TU Chemnitz (https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php),
– in jeder Podcast-App über unseren RSS-Feed,
auf Spotify, Deezer, Apple Podcast und überall dort, wo es gute Podcasts gibt.
Wissenschaftliche Ansprechpartner:
Produktion TU Chemnitz: Dr. Andreas Bischof & Matthias Fejes; Redaktion: Pascal Anselmi; Technische Produktion & Audio: podcastproduzenten.de
Kontakt: tucscicast@tu-chemnitz.de
Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php
Quelle: IDW
(nach oben)
Rekord-Rückgang der globalen CO2-Emissionen dank Corona
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
• LMU-Geografin Julia Pongratz analysiert zusammen mit dem Global Carbon Project den Emissionsrückgang in Zeiten von Corona – fossile CO2-Emissionen sanken 2020 um 7% im globalen Schnitt (EU27: -11%, USA: -12%). Treiber dieser Entwicklung ist vor allem der Transportsektor
• Keine deutliche Verbesserung zeigt sich hingegen in den Emissionen aus Landnutzung
• CO2-Emissionen insgesamt – aus fossilem CO2 und Landnutzung – werden 2020 bei etwa 39 Milliarden Tonnen CO2 liegen.
Die Corona-Pandemie hat zu einem deutlichen Rückgang der globalen Kohlendioxid-Emissionen geführt. Dies zeigt die jährliche Bilanz des Global Carbon Projects (GCP), eines weltweiten Zusammenschlusses von Klimaforschern, an dem die LMU-Geografin Julia Pongratz mit ihren Kolleginnen Selma Bultan und Kerstin Hartung maßgeblich beteiligt ist. Die Wissenschaftler analysieren, welche Mengen an Treibhausgasen jährlich freigesetzt beziehungsweise der Atmosphäre durch Aufnahme in Landvegetation und Ozeane entzogen werden.
Der neueste Bericht des GCP zeigt, dass es fünf Jahre nach dem Pariser Klimaabkommen gelungen ist, die Zunahme der globalen CO2-Emissionen zu verlangsamen: In der Dekade von 2010-2019 gingen die fossilen CO2-Emissionen bereits in 24 Ländern mit wachsenden Volkswirtschaften deutlich zurück, was auch auf ein Greifen von Klimapolitik zurückzuführen sein könnte. Im Jahr 2020 sanken die weltweiten fossilen Emissionen auch aufgrund der Einschränkungen durch die Corona-Pandemie um den Rekordwert von 7 Prozent oder umgerechnet etwa 2,4 Milliarden Tonnen CO2 auf 34 Milliarden Tonnen CO2. Dieser Rückgang ist erheblich größer als frühere signifikante Rückgänge von 0,5 (1981 und 2009), 0,7 (1992) und 0,9 (1945) Milliarden Tonnen CO2. Um die Pariser Klimaziele nicht zu überschreiten, müssen zwischen 2020 und 2030 im Durchschnitt jährlich 1 – 2 Milliarden Tonnen CO2 eingespart werden.
Besonders deutlich war der Rückgang der Emissionen in den USA (-12%) und in den EU-Mitgliedsstaaten (-11%). „Hier trafen verringerte Emissionen aus der Kohlenutzung und die Auswirkungen der pandemiebedingten Beschränkungen zusammen“, erklärt Pongratz. „Schon 2019 stiegen die CO2-Emissionen langsamer als in den Vorjahren. Mit der Corona-Pandemie sanken die Emissionen nun deutlich, deshalb ist 2020 ein zentrales Jahr. Ob dies einen Trend einläutet, hängt allerdings stark davon ab, wie sich die Maßnahmen in den Covid-19-Stimuluspaketen weltweit ausgestalten. Wir beobachten bereits, dass die Emissionen sich langsam wieder dem Niveau von 2019 annähern.“
Transportsektor bringt die größten Einsparungen
Für den größten Teil des Rückgangs der Emissionen im Jahr 2020 war der Transportsektor verantwortlich. Auch im Dezember 2020 lagen die Emissionen aus dem Straßen- und Luftverkehr aufgrund der anhaltenden Beschränkungen immer noch um etwa 10% bzw. 40% unter den Werten von 2019. Ob der 2020 auch Corona-bedingte Rückgang der Emissionen sich in der Zukunft fortsetzen wird, kann derzeit noch nicht abgeschätzt werden, warnen die Forscher. Nach dem Rückgang der Emissionen aufgrund der globalen Finanzkrise 2008, stiegen die Emissionen im Jahr 2010 sprungartig um 5% an als sich die Wirtschaft erholte. Es besteht die Befürchtung, dass ein sprunghafter Anstieg der CO2-Emissionen auch 2021 passiert.
Die CO2-Emissionen insgesamt – aus fossilem CO2 und aus Landnutzung – liegen 2020 bei etwa 39 Milliarden Tonnen CO2, trotz des Rückgangs also immer noch auf einem Niveau wie etwa 2012. Dies ließ den CO2-Gehalt in der Atmosphäre weiter ansteigen. Im Jahresmittel wird er voraussichtlich einen neuen Rekordwert von 412 ppm (parts per million) erreichen. Das entspricht einer Zunahme von 48 Prozent gegenüber dem vorindustriellen Wert. Stabilisieren wird sich der atmosphärische CO2-Gehalt und damit das Weltklima erst, wenn die globalen CO2-Emissionen sehr nahe bei Null liegen, so die Forscher.
Die Land- und Ozeansenken nehmen den Emissionen entsprechend kontinuierlich zu, und haben im Jahr 2020 etwa 54% der gesamten anthropogenen CO2-Emissionen aufgenommen.
Emissionen aus der Landnutzung bleiben unverändert
Julia Pongratz untersucht insbesondere, welchen Einfluss die Landnutzung durch den Menschen auf die globale Kohlenstoffbilanz – und damit auch das Klima – hat. Im Vergleich zu den ungewöhnlich hohen Emissionen durch Landnutzungsänderungen im Jahr 2019, die unter anderem durch außerordentlich trockene Bedingungen in Indonesien und die höchsten Entwaldungsraten im Amazonasgebiet seit 2008 verursacht waren, lagen die Werte 2020 niedriger und entsprachen dem Durchschnitt des letzten Jahrzehnts.
„Erstmals konnten wir für 2020 zudem auch Brutto-Werte für die Auswirkung von Landnutzungsänderungen auf das globale Kohlenstoffbudget abschätzen“, sagt die Geografin. Dabei fanden die Wissenschaftler, dass durch Landnutzungsänderungen – hauptsächlich durch Entwaldung – ungefähr 16 Milliarden Tonnen CO2 freigesetzt wurden. Dem gegenüber stehen knapp 11 Milliarden Tonnen, die hauptsächlich durch die Aufgabe landwirtschaftlicher Nutzflächen wieder aufgenommen wurden. Netto waren die Emissionen aus Landnutzungsänderungen mit etwa 6 Milliarden Tonnen CO2 ähnlich hoch wie im vergangenen Jahrzehnt. „Wir sehen also in diesem Bereich noch keine Reduktion. Die Entwaldung schreitet vor allem in tropischen Regionen immer noch stark fort, und im Schatten von Covid sind die Emissionen aus der Landnutzung in der öffentlichen Wahrnehmung zurückgetreten“, stellt Pongratz fest. „Maßnahmen zum besseren Landmanagement könnten sowohl der Entwaldung Einhalt gebieten, als auch dazu beitragen, die CO2-Senke durch Nachwachsen natürlicher Vegetation zu vergrößern.“
Das Team von 86 Klimaforschern aus aller Welt veröffentlicht die CO2-Bilanz 2020 in der Fachzeitschrift Earth System Science Data. Das Global Carbon Budget 2020 ist die 15. Ausgabe der jährlichen Gutachten. Aus Deutschland sind neben Julia Pongratz, Selma Bultan und Kerstin Hartung auch Wissenschaftlerinnen und Wissenschaftler des Alfred-Wegener-Instituts (Bremerhaven), des Max-Planck-Instituts für Meteorologie (Hamburg), des Max-Planck-Instituts für Biogeochemie (Jena), des Karlsruhe Institute of Technology, des GEOMAR Helmholtz-Zentrums für Ozeanforschung (Kiel) und des Leibniz-Instituts für Ostseeforschung (Warnemünde) beteiligt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Julia Pongratz
LMU
Lehrstuhl für Physische Geographie und Landnutzungssysteme
Tel.: +49 (0) 89 / 2180 – 6652
E-Mail: julia.pongratz@geographie.uni-muenchen.de
Originalpublikation:
Pierre Friedlingstein et al.:
Global Carbon Budget 2020.
Earth System Science Data 2020
DOI: 10.5194/essd-12-3269-2020
https://essd.copernicus.org/articles/12/3269/2020/
Weitere Informationen:
Daten und Abbildungen: http://www.globalcarbonproject.org/carbonbudget
Datenatlas: http://www.globalcarbonatlas.org
Tägliche Emissionen from Carbon Monitor https://carbonmonitor.org/
Quelle: IDW
(nach oben)
Erstmals Glyphosat-Nachweis im Meer: IOW entwickelt neue Methode und führt erfolgreiche Messungen in der Ostsee durch
Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Glyphosat ist einer der weltweit meistgenutzten Unkrautvernichter. Das umstrittene Herbizid, das unter anderem im Verdacht steht, krebserregend zu sein, wird auch in Deutschland intensiv genutzt. Vom Land gelangt es in Flüsse, die es ins Meer spülen. Wie viel sich dort findet, war allerdings bisher unbekannt, denn in Salzwasser waren Glyphosat und sein Abbauprodukt Aminomethylphosphonsäure (AMPA) aus methodischen Gründen nicht nachweisbar. Marisa Wirth vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) hat nun eine neue Methode entwickelt, mit der beide Stoffe im Meer zuverlässig gemessen werden können. Damit konnte sie Glyphosat und AMPA erstmals in der Ostsee nachweisen.
Glyphosat, das als sogenanntes „Totalherbizid“ vor allem in Landwirtschaft, Gartenbau und Industrie genutzt wird, aber auch in Privathaushalten häufig zur Anwendung kommt, gelangt durch Regen- und Winderosion von den Einsatzflächen in Bäche, Flüsse und Seen. Dementsprechend kann es gemeinsam mit seinem durch biologische Prozesse entstehenden Abbauprodukt, der Aminomethylphosphonsäure (AMPA), weltweit im Süßwasser nachgewiesen werden. IOW-Forscher konnten beide Stoffe auch schon in Ästuaren nachweisen, die in die Ostsee münden, niemals jedoch im Meer selbst. Wie toxisch das Herbizid auf Meeresorganismen wirkt, ist nicht abschließend geklärt.
„Als Grundvoraussetzung, um das Gefahrenpotenzial einer Substanz für ein Ökosystem beurteilen zu können, muss man zu allererst herauszufinden, ob und in welchen Konzentrationen die Substanz dort nachgewiesen werden kann“, hebt Marisa Wirth hervor, die sich in ihrer Doktorarbeit am IOW auf den Nachweis von Glyphosat in Umweltproben spezialisiert hat. „Ausgangspunkt für unsere aktuelle Studie war daher die Frage, ob Glyphosat und AMPA tatsächlich nicht im Meer ankommen – etwa durch biologischen Abbau und Ablagerung in den Fließgewässern –, oder ob es schlichtweg methodische Schwierigkeiten sind, die bislang einen Nachweis in marinen Ökosystemen verhindert haben“, erläutert die Meereschemikerin weiter.
Eine aus den Ästuar-Studien bekannte Hürde für einen zuverlässigen Nachweis im Meer ist die starke Verdünnung der beiden Zielsubstanzen, je weiter man sich von den Flussmündungen entfernt und Proben im offenen Meer nimmt. „Bevor man Glyphosat und AMPA mit instrumentellen Mitteln – Flüssigchromatographie und Massenspektrometrie – überhaupt messen kann, werden die Proben so stark aufkonzentriert, dass die Geräte die Substanzen erfassen können“, schildert Wirth einen wichtigen Arbeitsschritt in der Glyphosat-Analytik. Bei Meerwasserproben erwies sich für diesen Schritt bislang das darin enthaltene Salz als Problem: Bei der Festphasenextraktion, mit der man die Aufkonzentration erreicht und bei der die Zielsubstanzen aus einer flüssigen Probe erst an ein festes Trägermaterial gebunden und danach wieder in ein sehr viel kleineres Flüssigkeitsvolumen überführt werden, verhindern die Salzionen die Bindung der Glyphosat- und AMPA-Moleküle an die feste Phase. „Unsere Zielsubstanzen ‚rauschen‘ also quasi ungehindert durch die Festphase durch und gehen verloren, weil das Salz alles blockiert“, so Wirth. Auch bei der eigentlichen Messung können die Salze Störeffekte hervorrufen und instrumentelle Signale verschieben oder unterdrücken, so dass keine zuverlässige Analyse möglich sei, führt die Chemikerin aus.
Um die Salz-Störeffekte bei der Probenaufkonzentration in den Griff zu bekommen, testete Wirth verschiedene Trägermaterialien für die Festphasenextraktion und konnte als geeignetes Material schließlich ein Polymer identifizieren, das durch sogenannte molekulare Prägung hochselektiv Glyphosat und AMPA bindet und zugleich unempfindlich gegenüber dem Salz der Meerwasserproben ist. Außerdem etablierte sie erfolgreich einen zusätzlichen Aufreinigungsschritt vor der instrumentellen Messung, der eine störungsfreie Analytik erlaubt.
Nach gründlicher Validierung der neuen Methode, auch für unterschiedliche Salzgehalte zwischen 5 und 20 bzw. 35, wie sie typischerweise in der Ostsee und in den offenen Ozeanen auftreten, wurde das Verfahren an natürlichen Umweltproben von sieben verschiedenen Beprobungsstellen in der Westlichen Ostsee getestet. Beide Substanzen, sowohl Glyphosat, als auch sein Abbauprodukt AMPA konnten nachgewiesen werden – damit erstmals im Meer. Die Glyphosatkonzentrationen zwischen 0,42 und 0,49 ng/l waren, unabhängig von der Entfernung zur Küste, recht konstant mit Ausnahme einer Messung von 1,22 ng/l in der inneren Lübecker Bucht. Die AMPA-Konzentrationen (maximal 1,47 ng/l) waren in der Nähe von Flussmündungen deutlich höher als weiter draußen im Meer, wo sie zum Teil unter die Nachweisgrenze der neuen Methode fielen.
„Mit der am IOW entwickelten Glyphosat- und AMPA-Analytik können wir erstmals in Konzentrationsbereichen unterhalb von 1 ng/l messen, wie sie in marinen Ökosystemen zu erwarten sind – und das störungsfrei bei allen Salzgehalten, die man in den unterschiedlichen Meeresgebieten der Welt findet“, sagt Marisa Wirth. Die jetzt in der Ostsee gemessenen Werte lägen weit unterhalb der Konzentrationen, die für Menschen oder Meeresorganismen als bedenklich diskutiert werden. Aber da bisher nur diese punktuellen Messungen vorliegen, sei noch keine Datenbasis für eine Einschätzung vorhanden, inwieweit die Ostsee durch diese Stoffe gefährdet ist, so Wirth weiter. „Wir haben jetzt aber eine hinreichend sensitive und zuverlässige Methode, mit der man ein aussagefähiges Umweltmonitoring im Meer für beide Substanzen durchführen kann. Auch sind jetzt Studien möglich, die sich mit aktuellen Forschungsfragen beschäftigen, beispielsweise mit Transport, Beständigkeit oder Abbau von Glyphosat und AMPA in der Meeresumwelt“, kommentiert die IOW-Forscherin abschließend.
Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de
Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungs-einrichtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de
Wissenschaftliche Ansprechpartner:
Marisa Wirth | Tel.: +49 (0)381 5197 237 | marisa.wirth@io-warnemuende.de
Dr. Marion Kanwischer | Tel.: +49 (0)381 5197 382 | marion.kanwischer@io-warnemuende.de
Originalpublikation:
Marisa A. Wirth, Detlef E. Schulz-Bull, Marion Kanwischer: The challenge of detecting the herbicide glyphosate and its metabolite AMPA in seawater – Method development and application in the Baltic Sea. Chemosphere (2021);
doi.org/10.1016/j.chemosphere.2020.128327
Quelle: IDW
(nach oben)
RWI-Studie: Kostenloser ÖPNV könnte Nutzung erheblich steigern
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Kostenloser öffentlicher Nahverkehr findet in Deutschland breite Zustimmung. Zu diesem Ergebnis kommt eine von der Stiftung Mercator geförderte Studie des RWI – Leibniz-Institut für Wirtschaftsforschung. Demnach sprechen sich 72 Prozent der Befragten für einen kostenlosen ÖPNV aus. Damit findet diese Maßnahme deutlich mehr Zustimmung als viele andere Vorschläge zur Eindämmung des Autoverkehrs. Müssten sie dafür nichts bezahlen, würden die Befragten nach eigenen Angaben im Durchschnitt mehr als dreimal so häufig mit Bus und Bahn fahren. Dennoch sehen die Autoren der Studie auch gewichtige Argumente gegen die Einführung eines kostenlosen ÖPNV.
Das Wichtigste in Kürze:
• In einer Befragung unter knapp 7.000 Haushalten befürworten rund 72 Prozent der Befragten einen kostenlosen öffentlichen Personennahverkehr (ÖPNV), elf Prozent sind dagegen. Die Zustimmung ist bei Haushalten mit geringem Einkommen mit rund 83 Prozent am höchsten, mit steigendem Einkommen nimmt die Zustimmung tendenziell ab. In der höchsten Einkommensgruppe liegt sie noch bei knapp 67 Prozent.
• Die Zustimmung zu einem kostenlosen ÖPNV ist größer als zu anderen abgefragten Maßnahmen, etwa zum Ausbau von Fahrradwegen auf Kosten von Autoparkplätzen, zum Fahrverbot für Fahrzeuge, die Schadstoffgrenzwerte überschreiten, oder zu höheren Parkkosten in Innenstädten.
• Ein kostenloser ÖPNV würde nach Aussage der Befragten zu einer deutlich höheren Nutzung führen: Im Durchschnitt geben sie an, einen kostenlosen ÖPNV für rund 5,3 Fahrten pro Woche nutzen zu wollen. Der derzeitige Durchschnitt liegt, ebenfalls nach eigenen Angaben, bei 1,6 Fahrten.
• Haushalte aus städtischen Regionen geben an, ihre ÖPNV-Nutzung in absoluten Werten stärker erhöhen zu wollen als Haushalte auf dem Land. Bereits jetzt nutzen städtische Haushalte den ÖPNV häufiger. Relativ betrachtet würde die Nachfrage im ländlichen Raum nach Einführung eines kostenlosen ÖPNV allerdings stärker zunehmen.
• Da es sich um Antworten auf hypothetische Fragen handelt, sollten die Werte mit einer gewissen Vorsicht betrachtet werden. Allerdings decken sich die Ergebnisse im Wesentlichen mit den tatsächlich gemessenen Effekten in Orten, die bereits einen kostenlosen ÖPNV eingeführt haben, beispielsweise Hasselt, Tallinn und Templin.
• Diese Beispiele zeigen jedoch auch, dass ein kostenloser ÖPNV nicht automatisch zu einer umfassenden Verkehrswende führt: Nach den bisherigen Erfahrungen wird die Autonutzung kaum reduziert, stattdessen sinken die gelaufenen oder mit dem Fahrrad zurückgelegten Kilometer.
• Die in der Studie ausgewertete Befragung fand im Jahr 2018 statt. Eine erneute Befragung im Jahr 2019 unter gut 3.000 Haushalten kommt zu sehr ähnlichen Ergebnissen hinsichtlich der Einstellungen zu einem kostenlosen ÖPNV: In dieser Befragung befürworten 74 Prozent der Befragten einen kostenlosen ÖPNV, elf Prozent lehnen ihn ab.
„Die Befragung zeigt, dass ein kostenloser öffentlicher Nahverkehr vielen Menschen in Deutschland attraktiv erscheint und zu einer deutlich höheren Nutzung des ÖPNV führen könnte“, sagt RWI-Wissenschaftler Mark Andor, einer der Autoren der Studie. „Allerdings führt ein kostenloser ÖPNV voraussichtlich kaum zur Verringerung der Autonutzung und hat seinen Preis in Form entgangener Einnahmen. Für die Kosten müssten die Steuerzahler aufkommen.“
Ko-Autor Manuel Frondel, Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, ergänzt: „Aus ökonomischer Sicht ist ein kostenloser ÖPNV nicht die beste Maßnahme, um die Ziele der Verkehrswende – weniger Staus, Abgase und CO2-Emissionen – zu erreichen. Sinnvoller wäre zum Beispiel die Einführung einer Städte-Maut in Ballungsräumen, die den Autoverkehr reduzieren würde und deren Einnahmen für eine Preissenkung des ÖPNV für einkommensschwache Haushalte genutzt werden könnten.“ Die Städte-Maut könnte mit Informationskampagnen zu den Vorteilen der ÖPNV-Nutzung und zu den tatsächlichen Kosten des Autofahrens gepaart werden.
Die Befragung durch das Marktforschungsinstitut forsa fand vom 23. April bis zum 12. Juni 2018 statt. Befragt wurden die Haushaltsvorstände des forsa.omninet Haushaltspanels. Dieses Panel ist für die deutschsprachige Bevölkerung ab 14 Jahren repräsentativ. Die Befragten füllten die Fragebögen mehrheitlich via Internet aus. Insgesamt wurden 7.823 Haushaltsvorstände befragt, von denen 6.812 den Fragebogen vollständig ausgefüllt haben.
Ihre Ansprechpartner/in dazu:
Dr. Mark A. Andor, Tel.: 0201 8149-216
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204
Leonard Goebel (Kommunikation), Tel.: 0201 81 49-210
Dieser Pressemitteilung liegt die Studie „Kostenloser ÖPNV: Akzeptanz in der Bevölkerung und mögliche Auswirkungen auf das Mobilitätsverhalten” von Mark A. Andor, Lukas Fink, Manuel Frondel, Andreas Gerster und Marco Horvath zugrunde, die in der Fachzeitschrift „List Forum für Wirtschafts- und Finanzpolitik“ erschienen ist. Die Studie ist unter gleichem Titel als RWI Materialien 137 erschienen.
Wissenschaftliche Ansprechpartner:
Dr. Mark A. Andor, Tel.: 0201 8149-216
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204
Originalpublikation:
RWI Materialien 137, Andor, M. A., L. Fink, M. Frondel, A. Gerster und M. Horvath, Diskussionspapier: Kostenloser ÖPNV – Akzeptanz in der Bevölkerung und mögliche Auswirkungen auf das Mobilitätsverhalten
Weitere Informationen:
https://www.rwi-essen.de/presse/mitteilung/420/
Quelle: IDW
(nach oben)
10 Jahre PYREG GmbH – Wie aus Klärschlamm Dünger wird
Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen
Bei der Aufbereitung von biologischen Abfallstoffen zu Phosphordünger, Pflanzen- und Futterkohle nimmt die PYREG GmbH eine Vorreiterrolle ein. Als Ausgründung der TH Bingen arbeitet das Unternehmen bis heute eng mit Binger Forscherinnen und Forschern zusammen.
Eine Produktionsanlage, so groß wie eine Doppelgarage. Am Anfang steht unansehnlicher Klärschlamm, am Ende ein feines schwarzes Granulat, das als Dünger auf Feldern ausgebracht werden kann. Möglich macht das die PYREG GmbH aus Dörth im Rhein-Hunsrück-Kreis. Ihre Idee: Klärschlamm enthält das für alle Lebewesen wichtige Element Phosphor, das Bestandteil vieler Düngemittel ist. Der Abbau von Phosphor ist aufwendig und es gibt nur wenige natürliche Vorkommen. Daher ist es sinnvoll, bereits vorhandenen Phosphor aus Klärschlamm zu recyclen.
Ihren Ursprung hat die Geschäftsidee des Unternehmens vor über zehn Jahren in einem Forschungsprojekt an der Technischen Hochschule (TH) Bingen unter der Leitung von Prof. Dr. Winfried Sehn. Der Gründer und Geschäftsführer Helmut Gerber studierte an der TH Bingen und war wissenschaftlicher Mitarbeiter im Projekt. Mit ihm entwickelte Professor Sehn die erste Anlage zur Klärschlammbehandlung. Das gestaltete sich zwar schwierig, dafür war die so entstandene Kohle aber nährstoffreich und daher potentiell als Dünger geeignet. Prof. Dr. Thomas Appel, der als Experte für Pflanzenernährung hinzugezogen wurde, erkannte das Potential des Produkts und entwickelte es in einem Forschungsprojekt weiter. Nach über einer Dekade Forschungs- und Entwicklungszeit an der TH Bingen erfolgte die Gründung der PYREG GmbH als Spin-off der Hochschule.
Geschäftsführer Helmut Gerber verantwortet den Bereich Entwicklung, Anlagenbau und erneuerbare Energien. Mit der Entwicklung des Unternehmens ist er hochzufrieden: „Dankenswerterweise wurde unsere Pyrolyse-Technologie bereits frühzeitig von staatlicher Seite als förderwürdige und zukunftsweisende Lösung eingestuft. Die Fördergelder und die Unterstützung der TH Bingen haben es uns ermöglicht, in relativ kurzer Zeit international eine Pionierrolle in einem dringend notwendigen Klimaschutzsegment einzunehmen.“ Noch wartet die Firma jedoch darauf, dass das entstandene Granulat, dessen Entwicklung durch öffentliche Fördergelder finanziert wurde, in Deutschland auch als Düngemittel zugelassen wird. In Schweden, einem Vorreiter in Umwelt- und Klimaschutz ist dies bereits der Fall.
Prof. Dr. Klaus Becker, Präsident der TH Bingen, gratuliert zum 10-jährigen Firmenjubiläum und ist stolz auf die enge Verbindung zwischen Hochschule und Ausgründung: „Am Erfolg von PYREG sieht man deutlich, was angewandte Forschung schaffen kann. Die Geschichte des Unternehmens zeigt zudem die große Nähe zur Arbeitspraxis, von der Studierende in unseren Studiengängen auch heute noch profitieren. Es ist nur schade, dass dieser technologische Fortschritt, basierend auf der gemeinsamen wissenschaftlichen Arbeit, zumindest in Deutschland noch mit Hürden verbunden ist.“
Wie funktioniert das Verfahren?
Konkret hat das Unternehmen eine Technologie entwickelt, mit der Klärschlamm bei hohen Temperaturen und gezielter Sauerstoffzufuhr verkohlt werden kann. Die hohen Temperaturen sorgen dafür, dass im Klärschlamm enthaltene Giftstoffe zersetzt werden. Zudem wird im Endprodukt CO2 dauerhaft gebunden, sodass es nicht mehr in die Luft entweichen kann. Damit hilft die Technologie, dem Klimawandel entgegenzuwirken. Auf ähnliche Weise wird in einer zweiten Entwicklung des Unternehmens Biomasse zu Pflanzenkohle oder Futterkohle verarbeitet.
Quelle: IDW
(nach oben)
Wasser: Treibstoff des Lebens
Holger Gust M. A. Pressestelle
Hochschule Karlsruhe – Technik und Wirtschaft
Projektzusage für nachhaltige Abwasserbehandlung und Wiederverwendung für ein Krankenhaus in Kampala, Uganda
Krankenhausabwässer sind als besonders problematisch zu betrachten, da sie im Vergleich zu kommunalen Abwässern deutlich höher mit Arzneimittelrückständen, deren Metaboliten sowie pathogenen Keimen belastet sind. Dies stellt insbesondere in afrikanischen Ländern ein besonderes Problem dar, zumal Abwässer dort unbehandelt an die Umgebung eingeleitet werden. Die Folge ist eine unzureichende Reinigung in den zentralen kommunalen Kläranlagen. Beispielsweise werden in Kampala, der Hauptstadt Ugandas, derzeit nur etwa 7 % der Abwässer einer kommunalen Behandlungsanlage zugeführt.
Deshalb ist es das Ziel des nun angelaufenen Projekts, eine robuste und kostengünstige Technologie zu entwickeln und zu pilotieren, die eine dezentrale Behandlung von Krankenhausabwässern mit einem hohen Anteil an regenerativer Energie ermöglicht. Hierzu soll eine Kombination eines Membranbioreaktors (MBR) mit einer Aktivkohlebehandlung eingesetzt werden, die zu einem hohen Grad mittels photovoltaisch gewonnener Nutzenergie (PV) betrieben werden soll. In der MBR-Technologie werden anstatt Absetzbecken zur Abtrennung des Belebt-Schlamms Membranen mit feinen Poren (0,1–0,01 µm Porendurchmesser) eingesetzt, die in das Belebungsbecken eintauchen. Hierdurch können auch feinste Partikel und Keime zurückgehalten werden und es resultiert eine hohe Wasserqualität. Die nachgeschaltete Aktivkohlebehandlung soll zusätzlich Spuren von gelösten Arzneirückständen etc. zurückhalten. Dabei liegt die besondere Herausforderung des Projekts darin, diese Technologien einfach und kostengünstig zu gestalten, wobei möglichst viele Anlagenteile vor Ort in Afrika erhältlich sein sollten. Die Anlagenkombination soll beispielhaft im Lubaga Hospital in Kampala aufgebaut und pilotiert werden (Kapazität: ca. 10 m3/Tag).
Das Lubaga Krankenhaus in Kampala ist eines der größten Krankenhäuser in Uganda. Es wurde auf einer Delegationsreise mit dem Karlsruher Oberbürgermeister Frank Mentrup, dem Karlsruher EnergieForum sowie Prof. Jan Hoinkis von der Hochschule Karlsruhe – Technik und Wirtschaft im Januar 2019 besucht. Ziel der Delegationsreise war es, Projekte zu gestalten und Unternehmen sowie Institutionen zusammenzubringen, um innovative, aber auch sozialgerechte und umweltverträgliche Lösungen anzubieten. Aus dem Besuch des Krankenhauses im Rahmen der Reise hatte sich die nunmehr realisierte Projektidee entwickelt, da sich das Karlsruher Stadtoberhaupt, insbesondere im Gesundheitssektor, gestärkte Verbindungen wünscht.
Das Projekt wird federführend von Prof. Jan Hoinkis in Zusammenarbeit mit der Firma Equator Solar Systems Ltd. (EQS) und dem „Centre for Research in Energy and Energy Conservation“ der Makerere Universität in Kampala durchgeführt und von der Deutschen Bundesstiftung Umwelt (DBU) finanziell gefördert. Die EQS hat langjährige Erfahrung und Kompetenz im Bereich PV-Technologie vor Ort in Kampala und ist auch in der ganzen Region gut vernetzt. Die Firma hat bereits eine PV-Anlage im Lubaga Hospital installiert, welche seit mehreren Jahren erfolgreich betrieben wird. Ein neuer, innovativer Aspekt für das Projekt ist die Verwendung neuartiger, stationärer Energiespeicher aus sogenannten Superkondensatoren („Supercaps“), um die Probleme mit den derzeit üblichen Energiespeichern (Li-Ionen Batterien, Bleiakkus) zu verbessern. Supercaps haben eine große Leistungsdichte und sind charakterisiert durch sehr schnelle Be- und Entladungskurven. Dadurch können diese Systeme sehr zuverlässig gegen schnelle und starke Lastspitzen und Senken abgepuffert werden. Die Technologie der Superkondensatoren hat sich im Laufe der letzten Jahre erheblich verbessert, sodass jetzt auch relative große Kapazitäten zu akzeptablen Preisen auf dem Markt erhältlich sind. Im Rahmen des Projekts wird Sneha De, eine Masterabsolventin des Studiengangs Sensor Systems Technology der Fakultät Elektro- und Informationstechnik, eine Doktorarbeit anfertigen.
Die Pilotierung der photovoltaisch betriebenen Abwasserreinigung soll begleitet bzw. ergänzt werden durch Trainingskurse für die zukünftigen Betreiber. Die Demonstration des Lösungswegs im Rahmen einer Pilotierung im Lubaga Krankenhaus dient als Modell zur Abwasseraufbereitung und Wiederverwendung in Krankenhäusern Ugandas und anderen Ländern Ostafrikas.
Weitere Informationen:
https://www.hs-karlsruhe.de/presse/uganda
Quelle: IDW
(nach oben)
Unterwasser-Stromspeicher fürs Hambacher Loch
Dr. Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Bevor nach dem Ende des Braunkohletagebaus aus den riesigen Gruben Seen werden, könnten auf ihrem Grund Pumpspeicherkraftwerke installiert werden. Die Idee: Zwischenspeicher für Sonnen- und Windstrom zu schaffen, etwa im Hambacher Loch in Nordrhein-Westfalen. Wie es zu diesem Projekt kam, berichtet die aktuelle Ausgabe von Forschung Frankfurt. Unter dem Titel „Klimakrise“ versammelt das Wissenschaftsmagazin der Goethe-Universität ein facettenreiches Spektrum von Forschungsprojekten, Einschätzungen und Analysen von Forscherinnen und Forschern der Goethe-Universität.
Wenn ab 2038 Schluss sein wird mit dem Tagebau Hambach in Nordrhein-Westfalen, wird das Hambacher Loch geflutet werden und ein großer See entstehen. Geht es nach Horst Schmidt-Böcking, emeritierter Professor der Goethe-Universität, und seinem Saarbrücker Kollegen Gerhard Luther, soll dann auf dem Grund des Sees ein Unterwasser-Pumpspeicherkraftwerk überschüssige Sonnen- und Windenergie zwischenspeichern. Das Prinzip ist so einfach wie genial: Hohlkugeln auf dem Grund des Sees werden über elektrische Pumpen leergepumpt, wenn gerade zu viel Strom aus Wind und Sonne erzeugt wird. Bei Flaute oder nachts lässt man Wasser in die Hohlkugeln strömen und dabei Turbinen antreiben, die wieder Strom erzeugen. Bei entsprechender Größe könnte so Deutschlands gesamter Kurzspeicherbedarf für erneuerbare Energien gedeckt werden – und man könnte viel klimaschädliches CO2 einsparen.
In weiteren Beiträge der aktuellen Ausgabe von „Forschung Frankfurt“ berichten Wissenschaftlerinnen und Wissenschaftler der Goethe-Universität über ihre Forschungsprojekte rund um den Klimawandel, wie zum Beispiel die knappe Ressource Wasser bereits heute als Waffe in Konflikten eingesetzt wird, wie der Klimawandel zum dramatischen Artenschwund beiträgt oder wie Klimamodelle von Warmzeiten der Erdgeschichte präzisere Voraussagen unserer Klimazukunft erlauben. Sie gehen aber auch der Frage nach, warum es uns so schwerfällt, unsere Lebensweise zu verändern.
Die aktuelle Ausgabe von „Forschung Frankfurt“ (2/2020) kann von Journalisten kostenlos bestellt werden bei: presse@uni-frankfurt.de.
Alle Beiträge sind online erhältlich unter: https://www.forschung-frankfurt.uni-frankfurt.de .
Weitere Informationen:
https://www.forschung-frankfurt.uni-frankfurt.de/34831594/Aktuelle_Ausgaben___Fo…
Quelle: IDW
(nach oben)
Wie viel Trinkwasser brauchen die Städte?
Petra Dabelstein Marketing und Presse
Hochschule für Technik Stuttgart
Ein HFT-Forschungsteam hat erstmals den Trinkwasserbedarf von Wohngebäuden und Nichtwohngebäuden simuliert und dazu ein 3D-Datenmodell für deutsche Städte und Regionen benutzt. Dabei wurden geometrischen Gebäudedaten sowie meteorologische und sozio-ökonomische Daten integriert. Das Team zeigte, dass der Ansatz machbar und belastbar ist: Die Abweichung von realen Trinkwasserverbräuchen betrug weniger als sieben Prozent.
Das Forschungsteam hat damit ein methodisches Problem gelöst: Bislang gab es kein Werkzeug, mit dem man den Wasserbedarf für alle Gebäudetypen wie etwa Wohnhäuser, Büro-, Schul- und Industriegebäude auf der Grundlage eines speziellen 3D-Gebäudemodells, dem CityGML-Modell, simulieren kann. Die Studie im „International Journal of Geo-Information“ entstand innerhalb des Projektes IN-SOURCE. Sie wurde gefördert vom Bundesministerium für Bildung und Forschung sowie vom europäischen Programm Horizon 2020. Ziel ist es, digitale Lösungen zu entwickeln, um die lebenswichtigen Bereiche Lebensmittel, Wasser und Energie in verschiedenen Regionen zu analysieren. Insgesamt stehen urbane Regionen weltweit vor großen Herausforderungen bei der künftigen Versorgung mit Nahrungsmitteln, Wasser und Energie, auch in Zusammenhang mit dem Klimawandel.
Trinkwasserbedarf in einzelnen Gebäuden kann analysiert werden
„Mit dem neuen Ansatz können wir den Wasserbedarf auf der Ebene von einzelnen Gebäuden simulieren und analysieren. Bestehende Modelle fokussieren sich eher auf die Simulation von ganzen Kommunen“, erklären Prof. Dr. Bastian Schröter, HFT-Professor für Energietechnik, und Keyu Bao, Doktorand am Zentrum für nachhaltige Energietechnik (zafh.net) an der HFT. Das Team verwendete das bestehende Simulations-Tool SimStadt, das Energieanalysen erstellt und hat dieses Tool nun um die Funktion erweitert, den Trinkwasserbedarf zu analysieren.
Von solchen Analysen können insbesondere Kommunen profitieren: „Eine genaue Modellierung des städtischen Wasserbedarfs, die Wohn- und Nichtwohngebiete abdeckt, kann Kommunalverwaltungen oder Infrastrukturplanern helfen, lokale Wasserversorgungsinfrastrukturen besser zu gestalten und das Management lokaler Ressourcen zu verbessern“, erläutern die Forscher. Das Tool ist auch ideal, um den Wasserbedarf in einem künftigen Baugebiet zu simulieren. Der Wasserbedarf kann anhand verschiedener Skalen simuliert werden: auf Ebene des Gebäudes, des Stadtviertels, der Stadt oder des Landkreises. Bezugsgröße sind dabei die Gebäude. Anstatt den durchschnittlichen Pro-Kopf-Wert des Wasserbedarfs aus übergeordneten Skalen zu verwenden, zum Beispiel von einem Bundesland, können nun mit dem neuen Ansatz Daten wie der lokale Siedlungswasserbedarf pro Kopf sowie die lokalen klimatischen Bedingungen und sozioökonomische Faktoren im Gebiet berücksichtigt werden.
Machbarkeitstest mit Daten aus drei deutschen Regionen
Das Forschungsteam simulierte Szenarien in drei deutschen Landkreisen mit unterschiedlichen klimatischen und sozioökonomischen Bedingungen, um die Durchführbarkeit, Genauigkeit und Belastbarkeit des neuen Wasserbedarfs-Workflows zu testen: Ludwigsburg. Köln und Ilm-Kreis.
Der Landkreis Ludwigsburg repräsentiert ein typisches süddeutsches Vorstadtgebiet, die Stadt Köln ein dicht besiedeltes städtisches Gebiet und der Landkreis Ilm-Kreis eine eher ländliche Region. Jeder Mensch benötigt 90 bis 150 Liter pro Tag, je nach Bundesland, Alter, Haustyp und Einkommen in Wohngebäuden. Bei Nicht-Wohngebäuden hingegen schwankt der Wasserverbrauch extrem zwischen 0,05 Kubikmeter pro Quadratmeter pro Jahr und 96 Kubikmeter pro Quadratmeter pro Jahr. Unter anderem wurden auch in der Gemeinde Rainau im Ostalbkreis in Baden-Württemberg verschiedene Szenarien analysiert. Untersucht wurde speziell der Bedarf in Bezug auf den Wasserpreis, die Alterung der Bevölkerung und den Klimawandel. Die Ergebnisse: Es zeigte sich, dass der Wasserbedarf pro Person differiert. So steigt der Wasserbedarf pro Person um 3,6 %, wenn als Faktoren höheres Alter und höhere Temperaturen aufgrund des Klimawandels in die Berechnung einbezogen werden. Dies kann daran liegen, dass ältere Menschen eher zu Hause sind und einen Garten besitzen, den sie bewässern. Je wärmer die Temperaturen, desto mehr Wasser ist erforderlich. In einem anderen künftigen Szenario ist zu erwarten, dass der Wasserverbrauch pro Kopf zurückgeht, wenn die Wasserpreise steigen. Die industrielle Wassernachfrage steigt insgesamt um 46% aufgrund der wirtschaftlichen Entwicklung gemessen am Bruttoinlandsprodukt.
Simulation ist auch weltweit einsetzbar
Die Ermittlung des Wasserbedarfs mit dem CityGML-Modell umfasst einzelne Gebäude als Basiselement zur Berechnung. Enthalten sind Gebäudetypen (Wohnen, Hotel, Krankenhaus, Bildung, Büro, Einzelhandel, Sport und Ausstellungshalle sowie Industriegebäude), Baujahr und Gebäudegeometrie. Die Gebäudegeometrie wird zur Berechnung der Bodenfläche verwendet. In Kombination mit dem Baujahr kann die Anzahl der Bewohner in Wohngebäuden simuliert werden. Der Wasserbedarfswert pro Fläche oder pro Person wird auf der Grundlage von Gebäudetypen, Klima und sozioökonomischen Faktoren, wie zum Beispiel Einkommen ermittelt.
Die Simulation kann auch weltweit auf andere Regionen angewendet werden, vorausgesetzt das 3D-Gebäudemodell CityGML dient als Basis und die entsprechenden statistischen Daten sind verfügbar.
IN-SOURCE basiert auf drei Fallstudien in Ludwigsburg (Deutschland), New York (USA) und Wien (Österreich) und untersucht Szenarien für eine integrierte CO2-neutrale und nachhaltige Infrastrukturplanung, die sich als Prototyplösungen auch auf andere Städte übertragen lässt. Hintergrund: Fast 80% der Weltbevölkerung sind durch Wasserknappheit und eine unsichere Wasserversorgung bedroht.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Bastian Schröter
E-Mail: bastian.schroeter@hft-stuttgart.de / Tel: +49 711 8926 2371
Keyu Bao
E-Mail: keyu.bao@hft-stuttgart.de / Tel: +49 711 8926 2939
Originalpublikation:
Artikel (Open-source):
Keyu Bao, Rushikesh Padsala, Daniela Thrän, Bastian Schröter: SPRS International Journal of Geo-Information. 2020, 9, 657. Urban Water Demand Simulation in Residential and Non-Residential Buildings Based on a CityGMLData Model.
Link: https://www.mdpi.com/2220-9964/9/11/642/htm
DOI: 10.3390/ijgi9110642
Weitere Informationen:
https://www.hft-stuttgart.de/forschung/news/wie-viel-trinkwasser-brauchen-die-st…
Quelle: IDW
(nach oben)
Verständliche Informationen über Corona-Impfstoffe
Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Parallel zur jeweils laufenden europäischen Zulassung veröffentlicht das IQWiG Kurzinformationen über die Corona-Impfstoffkandidaten. Die ersten beiden Kurzinformationen sind jetzt online auf gesundheitsinformation.de.
Noch im Dezember 2020 soll es losgehen: Auch in Deutschland werden die ersten Bürgerinnen und Bürger gegen das neuartige Coronavirus SARS-CoV-2 geimpft. Doch wie wirken die neuen Impfstoffe, welche Nebenwirkungen haben sie und was wissen wir noch nicht über sie? Diese Fragen will das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) für die in Deutschland relevanten Impfstoffe gegen Corona beantworten: Jeweils wenige Tage, nachdem belastbare Daten zu den einzelnen Impfstoffkandidaten verfügbar sind, veröfffentlicht das Institut bereits allgemeinverständliche Zusammenfassungen der wichigsten Ergebnisse auf seiner Website gesundheitsinformation.de.
Die ersten beiden Kurzinfos über Impfstoffkandidaten, die voraussichtlich in Deutschland zur Impfung angeboten werden, sind bereits online: Der Impfstoff BNT162b2 (Hersteller: BioNTech / Pfizer) wurde in einer Phase-3-Studie mit 43.500 Teilnehmerinnen und Teilnehmern getestet, der Impfstoff mRNA-1273 (Hersteller: Moderna) in einer Phase-3-Studie mit 30.000 Teilnehmerinnen und Teilnehmern. In Phase-3-Studien wird die Wirksamkeit und Sicherheit von Impfstoffen unter Alltagsbedingungen an vielen Tausend Menschen erprobt. Diese Studien sind die tragende Säule für eine Zulassung. Für beide Impfstoffe berät die europäische Zulassungsbehörde (European Medicines Agency = EMA) derzeit, ob eine Zulassung für Europa empfohlen wird.
„Viele Bürgerinnen und Bürger sind mit dem Lesen der entsprechenden Fachinformationen überfordert“, sagt Klaus Koch, Leiter des Ressorts Gesundheitsinformation. „Das IQWiG bietet daher allgemein verständliche Informationen zu den Corona-Impfstoffen.“
Originalpublikation:
https://www.gesundheitsinformation.de/der-impfstoff-bnt162b2-biontech-pfizer-zur…
https://www.gesundheitsinformation.de/der-impfstoff-mrna-1273-moderna-zur-impfun…
Weitere Informationen:
https://www.iqwig.de/de/presse/pressemitteilungen/2020/verstaendliche-informatio…
Quelle: IDW
(nach oben)
Weiterbildung im Homeoffice-Alltag: Wie profitieren alle?
Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Impulse zu chancengerechtem digitalen Arbeiten liefert die Analyse einer Erwerbstätigenbefragung im Jahr 2020 unter Genderaspekten // Im Fokus: Wissen & Qualifizierung
Welches Wissen und welche Qualifikationen benötigen Beschäftigte, wenn sie orts- und zeitflexibel arbeiten? Wie müssen Angebote für einen Auf- und Ausbau digitaler Kompetenzen aussehen, damit alle gleichermaßen profitieren? Im Diskurs um diese aktuellen Fragen gibt das Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V. (kompetenzz) Handlungsempfehlungen für Wirtschaft und Politik auf der Basis aktueller Studienergebnisse.
Um ein möglichst differenziertes Bild über Rahmenbedingungen, Einstellungen und Praktiken rund um Arbeit im Jahr 2020 zu erhalten, wurden alle Personen, die aktuell in Deutschland erwerbstätig sind, aufgerufen, ihre Erfahrungen zu Homeoffice, digitaler Ausstattung, Weiterbildung und Arbeitsteilung in der Partner*innenschaft zu teilen. Mehr als 1.000 Männer und Frauen haben vom 8. bis 30 Juni 2020 an der Befragung teilgenommen.
Die aktuell erschienene erste Publikation enthält ausgewählte Ergebnisse zu dem Schwerpunkt Qualifizierung und Weiterbildung bei der Arbeit von Zuhause aus. Die Ergebnisse zeigen: Die Zufriedenheit mit Fortbildungsangeboten im Bereich digitale Technologien und Anwendungen unter Beschäftigten im Homeoffice ist gering. Doch die Studie liefert auch wertvolle Hinweise darauf, welche Wege eingeschlagen werden können, um diesen Missstand zu beheben.
Kernergebnisse:
– Das Angebot an Fortbildungen im Bereich der digitalen Technologien und Anwendungen ist aus Sicht der Beschäftigten nicht zufriedenstellend.
– Weit verbreitet unter den Befragten ist der Wunsch nach einer Individualisierung und Veralltäglichung des Lernens in Organisationen.
– Inhaltliches Interesse – insbesondere unter Neueinsteiger*innen – gilt den Themen „Datensicherheit“ und „transparentes Regelsystem für die Arbeit von Zuhause aus“, insbesondere da letztere unmittelbar mit der Problematik der Abgrenzung von Erwerbs- und Privatleben verknüpft ist.
– Fortbildungen sind erwünscht…
…sowohl zu Problemlösungen im beruflichen Alltag als auch zu innovativen Anwendungen,
…in Form digitaler Formate (besonders als Option für Beschäftigte mit Kindern),
…innerhalb der regulären Arbeitszeit (besonders für Frauen in Teilzeit)
…mit integrierten kommunikativen Elementen.
„Beschäftigte dürfen, besonders im Homeoffice, nicht ihrer Eigeninitiative überlassen werden, wenn es um den Aufbau von arbeitsrelevanten Kompetenzen geht. Organisationen sollten einen guten Rahmen schaffen, der Lernprozesse fördert. Betriebliche Lernangebote müssen auf die Voraussetzungen und Bedürfnisse unterschiedlicher Geschlechter, Altersgruppen und Kulturen zugeschnitten sein, ohne Klischees zu bedienen“, so Prof. Barbara Schwarze, Vorsitzende des Kompetenzzentrums Technik-Diversity-Chancengleichheit e. V.
Lore Funk, die neben Prof. Barbara Schwarze Autorin der Studie ist, ergänzt: „Unser übergeordnetes Ziel ist es, aufzuzeigen, welche Folgen der digitalen Transformation heute bereits positiv erfahren werden und wo weitere Aushandlungsprozesse nötig sind. Wir möchten Impulse zur Reflexion dieser Fragestellungen geben und Wege zu einer chancengerechten Gesellschaft aufzeigen. Ein Puzzleteil dazu liefert unsere aktuelle Studie: Wir brauchen eine Veralltäglichung des Lernens – auch im Homeoffice!“
Weitere Studienergebnisse mit anderen Schwerpunkten werden 2021 veröffentlicht.
#arbeiten2020 #DigitalGenderGap
Wissenschaftliche Ansprechpartner:
Pressekontakt:
Britta Zachau
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Presse- und Öffentlichkeitsarbeit
Am Stadtholz 24, 33609 Bielefeld
Tel: +49 521 106 7321
Fax: +49 521 106 7171
presse@kompetenzz.de
Twitter: @kompetenzz_ev
Weitere Informationen:
https://www.kompetenzz.de/arbeiten2020
Quelle: IDW
(nach oben)
C/sells: Neue Lösungen für die Aktivierung von Flexibilitäten dezentraler Erzeuger und Verbraucher
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Photovoltaik-Anlagen, Wärmepumpen, Ladestationen, Speicher: Die Einbindung einer Vielzahl dezentraler Erzeuger und Verbraucher in die Netze gehört zu den zentralen Aufgaben der kommenden Phase der Energiewende. Dafür hat das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE jetzt im Rahmen des SINTEG-Förderprojektes »C/sells« neue Lösungen entwickelt – und diese zusammen mit Partnern in der Praxis erprobt. Netzbetreiber bekommen damit die zunehmende Komplexität bei Erzeugung und Verbrauch in den Griff, Anlagenbetreiber können ihre Flexibilitäten netzdienlich einsetzen. Die Ausgründung »Smartrplace« wird die neuen Energiemanagement-Lösungen des Fraunhofer IEE vermarkten.
»Im Rahmen von C/sells haben wir gemeinsam mit vielen Partnern die beiden Seiten der Aktivierung von Flexibilitäten betrachtet: deren Bereitstellung durch Anlagenbetreiber, Versorger und Dienstleister sowie deren Nutzung durch Netzbetreiber«, erklärt Alexander Dreher, Produktmanager Energiemanagementsysteme im Geschäftsfeld Digitales Portfoliomanagement des Fraunhofer IEE.
Besonderes Augenmerk haben die Forscher dabei auf das Rückgrat der Aktivierung gelegt – auf die informations- und kommunikationstechnologischen Infrastrukturen und das Smart Metering. »Mit entstandenen Lösungen wie dem EnergyPilot haben wir eine neue Energiemanagementsoftware zur Aktivierung der Flexibilitäten entwickelt, die im Zusammenspiel mit unserem Virtuellen Kraftwerk oder alternativen Leitsystemen genutzt werden kann«, sagt Dreher.
Energiemanagement für Netz- und Anlagenbetreiber
Mit dem Zubau dezentraler Erzeugungsanlagen und neuer Lasten gewinnt die Steuerbarkeit der Leistungsaufnahme im Verteilnetz für die Netzbetreiber stark an Bedeutung. Zugleich haben Anlagenbetreiber den Anspruch, ihr Photovoltaik-System, ihre Wärmepumpe oder ihre Ladestation wirtschaftlich optimal einzusetzen, ohne sich bei den Funktionalitäten einschränken zu müssen.
Mit dem EnergyPilot bringt das Fraunhofer IEE diese Anforderungen nun zusammen. Das Energiemanagement-System trägt dazu bei, kritische Situationen zu entschärfen, indem es Erzeuger und Verbraucher netzdienlich regelt. Damit können Netz- und Anlagenbetreiber die Chancen nutzen, die sich mit der anstehenden Neufassung des §14a Energiewirtschaftsgesetz (EnWG) eröffnen.
Pilotprojekte im Rahmen von C/sells
Wie sich die Energiemanagement-Software für die Flexibilisierung der Erzeugung nutzen lässt, haben die Fraunhofer-Forscher im Biomassezentrum Stausebach bei Marburg gezeigt. Mit dem neu entwickelten Auslegungstool microSCOPE wurden die Flexibilitätspotenziale untersucht und optimiert. Für die intelligente Optimierung des Anlagenportfolios haben die Wissenschaftler den EnergyPilot eingesetzt. Getestet wurde das System im neuen Virtual Lab des Fraunhofer IEE, in dem die Experten das Biomassezentrum digital abgebildet haben. Die Software ist jetzt bereits in operativem Einsatz bei einem Direktvermarkter.
In einem anderen C/sells-Teilprojekt haben die Wissenschaftler die Verbrauchsseite unter die Lupe genommen: In Leimen bei Heidelberg haben sie mit Partnern in einem Gebäude ein lokales Energiemanagement-System eingerichtet, das durch die Steuerung von dort installierten Anlagen und Geräten gewährleistet, dass am Netzanschluss die vom Netzbetreiber gewünschten Leistungswerte eingehalten werden – ohne dass dieser selbst auf die Verbraucher zugreifen muss.
»Im Rahmen von C/sells haben wir mit unseren Analysen und Praxistests viele wertvolle Erkenntnisse gewonnen, mit denen wir die digitale Zukunft der Energiewirtschaft gestalten können«, sagt Dr. Reinhard Mackensen, Leiter des Bereichs Energiewirtschaftliche Prozessintegration beim Fraunhofer IEE.
Gebäudeautomatisierung und Energiemanagement
Die Ausgründung Smartrplace hat zunächst eine Lösung für die Gebäudeautomatisierung auf den Markt gebracht, die eine bedarfsgerechte Einzelraum-Steuerung von Heizung, Lüftung und Klimatisierung ermöglicht. Mit dem EnergyPilot des Fraunhofer IEE lässt sie sich zu einem Energiemanagement-System erweitern, das die Flexibilität von Verbrauchern und Erzeugern im Gebäude für die Netze mobilisiert.
»Wir freuen uns sehr, dass unsere Mitarbeiter trotz pandemiebedingt schwieriger Zeiten die Ausgründung vorangetrieben haben«, sagt Mackensen. »Auf ihrem Weg freuen wir uns auf die weitere Zusammenarbeit.« Gemeinsame Basis dieser und weiterer Lösungen des Fraunhofer IEE ist ein eigenentwickeltes Framework – ein Betriebssystem für das Energiemanagement, mit dem sich einzelne Bausteine für spezifische Aufgaben zusammenführen lassen. Das Institut verfügt über besondere Kompetenz in der Energie-Informatik: Fast 100 IT-Experten sind am Fraunhofer IEE beschäftigt.
Netzzelle Kassel: Inselnetz bei Stromausfall und Blindleistung zur Netzstützung
Ebenfalls im Rahmen von C/sells hat das Fraunhofer IEE in Kassel zusammen mit der Städtische Werke Netz+Service GmbH und dem Steinbeis-Transferzentrum Regenerative Energiesysteme untersucht, wie Wind- und Photovoltaik-Anlagen mit Blick auf die Blindleistung optimal gefahren werden können – und so zu einem effizienten und sicheren Netzbetrieb beitragen. Dabei kam das Netzanalysewerkzeug pandapower zum Einsatz. Darüber hinaus haben die Partner erste Schritte unternommen, um das Stromnetz in Kassel bei einem großräumigen Stromausfall zumindest teilweise mit den Kraftwerken vor Ort versorgen zu können. Konkret haben die Experten zunächst in Machbarkeitsstudien die grundsätzliche Umsetzbarkeit geprüft.
Forschungsprojekt zu Regelungskaskaden
In einem weiteren C/sells-Teilprojekt hat das Fraunhofer IEE zusammen mit Industrie- und Forschungspartnern die Umsetzung der vertikalen und horizontalen Regelungskaskade über verschiedene Netzbetreiber auf allen Netzebenen untersucht. In der Kaskade können kritische Netzzustände durch gemeinsame Abstimmungen benachbarter Netzbetreiber effizienter gelöst werden. Damit sind regelbare Anlagen im Verteilnetz in der Lage, zur Behebung kritischer Zustände im Übertragungsnetz beizutragen.
Dies setzt jedoch voraus, dass geeignete Schnittstellen existieren und ein abgestimmter Austausch von Daten zwischen den Leitsystemen benachbarter Netzbetreiber stattfindet. Diese Grundsätze haben die Forschungspartner in diversen Feldtests erprobt und untersucht. So haben sie zum Beispiel ein Feldtest-Netzgebiet der Stadtwerke Schwäbisch Hall als Simulation in der Co-Simulationsumgebung OpSim nachgebildet und mit dem realen VIVAVIS-Netzleitsystem HIGH-LEIT der Demo-Zelle gekoppelt. In der Simulation wurden exakt dieselben Schnittstellen wie im Feldtest verwendet – die Simulation war aus Sicht des Leitsystems ein digitaler Zwilling des Feldtests, mit dem auch umfassende Abregelungen von Anlagen und kritische, im Feld nicht zulässige Netzzustände untersucht werden konnten. Diese Funktionalität haben die Wissenschaftler erfolgreich in einer Live-Demo erprobt.
»Der Betrieb von Netzzellen mit lokal verfügbaren flexibel steuerbaren Anlagen bietet neue Gestaltungsmöglichkeiten für einen sicheren zellularen Netzbetrieb. Zahlreiche Potenziale konnten wir durch Machbarkeitsstudien, neuen Betriebslösungen und unsere Testumgebung aufzeigen«, zeigt sich Professor Martin Braun, Bereichsleiter Netzplanung und Netzbetrieb, mit den Ergebnissen zufrieden.
Hintergrund zu SINTEG – Schaufenster intelligente Energie
Im Förderprogramm „Schaufenster intelligente Energie – Digitale Agenda für die Energiewende“ (SINTEG) werden in großflächigen Modellregionen übertragbare Musterlösungen für eine sichere, wirtschaftliche und umweltverträgliche Energieversorgung bei zeitweise 100% Stromerzeugung aus erneuerbaren Energien entwickelt und demonstriert.
Wissenschaftliche Ansprechpartner:
Alexander Dreher
Alexander.Dreher@iee.fraunhofer.de
microSCOPE:
Katharina Habbishaw
Katharina.Habbishaw@iee.fraunhofer.de
OpSim, pandapower:
Frank Marten
frank.marten@iee.fraunhofer.de
OpSim: https://opsim.net
pandapower: https://pandapower.pro
Smartrplace:
Dr. David Nestle
https://smartrplace.com
Weitere Informationen:
https://www.sinteg.de
https://www.csells.net
https://s.fhg.de/439
Quelle: IDW
(nach oben)
Klimafolgen der Lebensmittelproduktion: Starke Preisverzerrungen – und Handlungsoptionen
Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Die aus der Produktion von Lebensmitteln stammenden Umweltschäden schlagen sich derzeit nicht im Preis nieder. Werden die Folgekosten der emittierten Klimagase ermittelt und auf die aktuellen Lebensmittelpreise aufgerechnet, müssten tierische Erzeugnisse wie Milch, Käse und insbesondere Fleisch weit teurer werden. Auch würde der Preisunterschied zwischen konventionellen und biologisch hergestellten Produkten kleiner werden. Diese Ergebnisse veröffentlichte ein vom Augsburger Ökonomen Dr. Tobias Gaugler geleitetes Forscherteam im renommierten Fachjournal Nature Communications.
Mit einem globalen Emissionsanteil von 24% ist die Landwirtschaft eine der Hauptquellen der vom Menschen verursachten Treibhausgase. Bereits diese Zahl macht deutlich, wie groß der Anpassungsbedarf, aber auch das Potenzial des primären Sektors zur Erreichung des Klimaziels des ‚Paris Agreement‘ ist, die Erderwärmung auf einem Niveau von deutlich unter 2 °C zu halten. Auch der ‚European Green Deal‘, der vorsieht, die Netto-Emissionen von Treibhausgasen der Europäischen Union bis 2050 auf null zu reduzieren, lässt sich nur unter Einbeziehung der Landwirtschaft verwirklichen.
Eine neu erschienene Studie Augsburger Wissenschaftler zeichnet nun ein differenziertes Bild landwirtschaftlicher Treibhausgasemissionen. Für unterschiedliche Anbau- bzw. Haltungsformen ermittelt sie, an welchen Stellen der Lebensmittelproduktion welche Emissionen auftreten und ordnet diese unterschiedlichen Lebensmitteln verursachergerecht zu. Neben Kohlenstoffdioxid- beziehen die Autoren auch Lachgas- und Methanemissionen sowie die klimatischen Auswirkungen der Landnutzungsänderung in ihre Berechnungen ein. Aus der Landnutzungsänderung (engl. land use change) resultierende Klimafolgen ergeben sich primär aus der Trockenlegung von Mooren sowie der Abholzung von Regenwaldflächen, die dann zur Produktion von Tierfutter genutzt werden.
Um das Ausmaß dieser Klimaschäden zu verdeutlichen, erfolgt neben der Ermittlung der Emissionsmengen auch deren Monetarisierung, also eine Umrechnung in lebensmittelspezifische Folgekosten. In einem letzten Schritt setzen die Autoren diese Folgekosten in Bezug zu den aktuell am Markt beobachtbaren Lebensmittelpreisen.
Deutliche Unterschiede zwischen verschiedenen Lebensmittelgruppen
Sie weisen in ihrer Publikation nach, dass insbesondere konventionell hergestellte Lebensmittel tierischen Ursprungs deutlich teurer werden müssten, wenn die aus der Produktion resultierenden Klimafolgen verursachergerecht auf dem Preis aufgeschlagen werden würden. Eigentlich müssten Milchprodukte um 91% teurer sein, als dies heute der Fall ist. Fleischprodukte müssten –Klimakosten inklusive – sogar um 146% teurer werden. Beim Vergleich der Anbauformen zeigt sich, dass die Emissionsmengen der biologischen Landwirtschaft ertragsbereinigt leicht unter der konventionellen Produktionsweise liegen. Aufgrund des höheren Preisniveaus von Biolebensmitteln resultieren hieraus jedoch geringere Preisaufschläge von 40% für Biomilchprodukte und 71% für Bio-Fleisch. Lebensmittel pflanzlichen Ursprungs sind mit einem relativ geringen „Klimarucksack“ assoziiert, der sich in beiden Anbauformen im einstelligen Cent-Bereich bewegt.
„Uns selbst überrascht hat der große Unterschied zwischen den untersuchten Lebensmittelgruppen und die daraus resultierende Fehlbepreisung insbesondere tierischer Lebensmittel“, berichtet TobiasGaugler über die Ergebnisse. „Würden diese Marktfehler nicht mehr bestehen oder zumindest verringert, hätte dies große Auswirkungen auch auf die Nachfrage nach Lebensmitteln. Ein Lebensmittel, das deutlich teurer wird, wird auch deutlich weniger nachgefragt“, ergänzt Co-Autorin Amelie Michalke.
Implikationen für Konsumentinnen/Konsumenten und die Wirtschaftspolitik
Die aktuelle Studie bezieht sich primär auf Klimafolgen, die aus der Produktion und dem Konsum von Lebensmitteln resultieren. In weiteren Schritten wollen die AutorInnen nun weitere landwirtschaftliche Umweltfolgen untersuchen, die u.a. aus der Emission von reaktiven Stickstoffverbindungen oder dem Energiebedarf des Agrarsektors stammen. „Hierbei sehen wir unsere Aufgabe als WissenschaftlerInnen primär darin, Daten und Informationen über die Klimawirkung von Lebensmitteln zur Verfügung zu stellen. Auf dieser Basis können und – wenn ich es mit einem gewissen Normativitätsanspruch der Nachhaltigkeitswissenschaften so sagen darf – sollten sowohl BürgerInnen als auch ordnungspolitische Akteure ihr Handeln ausrichten“, resümiert Gaugler.
Das Autorenteam setzt sich aus den beiden Augsburger Wirtschaftsingenieuren Maximilian Pieper (studiert aktuell an der TU München) und Amelie Michalke (Gastwissenschaflerin an der Universität Augsburg sowie Doktorandin an der Universität Greifswald) sowie dem Wirtschaftswissenschaftler und Nachhaltigkeitsforscher Tobias Gaugler zusammen. Tobias Gaugler ist als wissenschaftlicher Assistent am Institut für Materials Resource Management (MRM) der Mathematisch-Naturwissenschaftlich-Technischen Fakultät der Universität Augsburg tätig.
Wissenschaftliche Ansprechpartner:
Dr. Tobias Gaugler
Institute for Materials Resource Management (MRM)
Tel.: +49 821 598 3050
E-Mail: tobias.gaugler@mrm.uni-augsburg.de
Originalpublikation:
Maximilian Pieper, Amelie Michalke und Tobias Gaugler: Calculation of external climate costs for food highlights inadequate pricing of animal products, Nat Commun 11 (2020), DOI: 10.1038 / s41467-020-19474-6
Weitere Informationen:
https://www.nature.com/articles/s41467-020-19474-6
Quelle: IDW
(nach oben)
Startschuss für Pilotstudie zu Corona-Warnarmband
Claudia Eulitz Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
1.000 Bluetooth-Armbänder mit CAU-Technologie gehen an Kieler Pflegeeinrichtungen
Das Corona-Warnarmband ist in eine neue Testphase gestartet: Seit Montag, 14. Dezember, läuft eine erste umfangreiche Studie zu der an der Christian-Albrechts-Universität zu Kiel (CAU) entwickelten Alternative zur Corona-Warn-App. In einem Pilotprojekt sollen 1.000 Kielerinnen und Kieler aus Pflegeinrichtungen die Warnarmbänder testen, die Studie läuft drei Monate. Den Anfang für die schrittweise Ausgabe an Probandinnen und Probanden machte in dieser Woche ein Treffpunkt der Anlaufstelle Nachbarschaft in Kiel. Weitere Einrichtungen städtischer und freier Träger sollen folgen. Auch der Arbeiter-Samariter-Bund (ASB) wird die Armbänder über seine mobilen Pflegedienste an ausgewählte Personen verteilen. Parallel laufen Befragungen der Teilnehmenden und die Auswertung der technischen Daten. „Ziel der Studie ist es natürlich, herauszufinden, ob die Corona-Warnarmbänder funktionieren, aber auch, ob sie akzeptiert werden. Ob die Nutzerinnen und Nutzer damit zurechtkommen und bereit sind, es jeden Tag zu tragen“, erklärt Professor Olaf Landsiedel, der die technische Entwicklung des Bluetooth-Armbands leitet. Im Frühjahr waren Benjamin Walczak, Vorsitzender des Kieler Vereins Groschendreher – Kieler Bündnis gegen Altersarmut e.V., und Björn Schwarze, Geschäftsführer des Kieler Softwareunternehmens ADDIX, wegen der technischen Umsetzung ihrer Idee an den CAU-Informatiker herangetreten.
Armband kompatibel mit Corona-Warn-App
Das Corona-Warnarmband funktioniert analog zu der von der Bundesregierung empfohlenen Corona-Warn-App. Via Bluetooth-Chip korrespondiert es sowohl mit anderen Warnarmbändern als auch mit Smartphones, auf denen die Anwendung installiert und aktiv ist. „Die App hat ja offene Standards, einen Programmcode, der dokumentiert ist und so von uns im Laufe des Sommers nachgebaut werden konnte“, erklärt Landsiedel, dem die Kompatibilität und die Integration in das bundesweite System ein großes Anliegen war. Deshalb gab es in den vergangenen Monaten auch einen Austausch mit den Entwicklern der Smartphone-App.
Über die Bluetooth-Datenübertragung hinaus hat das Armband aus Silikon keinerlei Funktionen, weder GPS noch mobile Daten oder WLAN können damit genutzt werden. Dabei gehe es laut Landsiedel nicht nur um den Datenschutz, sondern auch darum, das Gerät so kostengünstig und energieeffizient wie möglich zu gestalten. In den Einrichtungen werden sogenannte Basisstationen aufgebaut, die über eine Internetverbindung verfügen und die Kontaktverfolgung gewährleisten. Kommt der Träger oder die Trägerin mit dem Armband in die Nähe der Station, wird der Datenaustausch automatisch vorgenommen. Ist es zu einer Risiko-Begegnung gekommen, blinkt ein LED-Licht am Armband auf. Die Akku-Laufzeit liegt zwischen drei Tagen und einer Woche, geladen wird das Gerät über einen USB-Anschluss. „Wir empfehlen unseren Probandinnen und Probanden jedoch das Armband jeden Abend aufzuladen“, so Landsiedel. Gefördert wird das Pilotprojekt durch das Bundesgesundheitsministerium, das Land Schleswig-Holstein und die Stadt Kiel unter Beteiligung des ASB.
Alternative für gesundheitliche Chancengleichheit
Angestoßen wurde das Projekt kurz nach Beginn der Pandemie mit dem Ziel, eine kostengünstige und leicht bedienbare Alternative für Menschen zu schaffen, die kein Smartphone nutzen können oder wollen. Benjamin Walczak erklärt: „Relativ früh war klar, dass viele ältere Menschen und viele Menschen mit geringem Einkommen nicht die Corona-Warn-App werden nutzen können. Deshalb ist die erfolgreiche Zusammenarbeit mit der Uni Kiel und ADDIX aus unserer Sicht eine wichtige Möglichkeit, um gesundheitliche Chancengleichheit herzustellen. Denn wenn man durch die App oder das Armband schnell über eine mögliche Infektion informiert wird, erhöht das die Chancen auf eine frühe Behandlung. Gerade für Personen aus der Risikogruppe kann das entscheidend sein.“ Wie es nach der Studie für das Corona-Warnarmband weitergeht, hänge auch von politischen Entscheidungen ab, fügt ADDIX-Geschäftsführer Schwarze hinzu: „Die Chance für unser Unternehmen im Rahmen der Corona Krise etwas Digitales und Unterstützendes zu leisten ist unsere Hauptmotivation. Mit dem Armband komplettieren wir unsere digitale Infrastruktur und ermöglichen Teilhabe. Das Armband ist ein Massenprodukt, je größer die Stückzahl desto niedriger der Preis, eine Produktion in Deutschland hat andere Kosten als die Herstellung in China. Wenn wir die notwendige Unterstützung aus der Politik für die Masse erzielen, erwarten wir einen Abgabepreis von 20 bis 22 Euro.“
Wissenschaftliche Ansprechpartner:
Professor Dr. Olaf Landsiedel
Institut für Informatik
Telefon: 0431/880-4480
E-Mail: ol@informatik.uni-kiel.de
Weitere Informationen:
http://www.uni-kiel.de/de/detailansicht/news/315-corona-warnarmband
Quelle: IDW
(nach oben)
Vom Publikationsbias zur Datenflut
Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
IQWiG-Autorinnen plädieren im BMJ Evidence-Based Medicine für ein zentrales, öffentliches und weltweites Portal für klinische Studien
Die Verfügbarkeit von Dokumenten zu klinischen Studien ist in den letzten Jahren immens gestiegen. So sind zu einer einzigen klinischen Studie oft mehrere Dokumente aus zahlreichen Quellen verfügbar – teilweise mit überlappenden, aber dennoch häufig unvollständigen Informationen.
Das Identifizieren und Verarbeiten dieser Informationen ist mit sehr großem Aufwand und Herausforderungen verbunden, wie Beate Wieseler aus dem Ressort Arzneimittel des IQWiG und Natalie McGauran aus dem Stabsbereich Kommunikation anhand eines Beispiels bei der Informationsbeschaffung für eine Evidenzsynthese in der aktuellen Ausgabe des BMJ Evidence-Based Medicine zeigen.
In dem Artikel „From publication bias to lost in information: Why we need a central public portal for clinical trial data“ plädieren die beiden Autorinnen für die Schaffung eines zentralen öffentlichen Informationsportals für Studiendokumente, um die extrem aufwändige Suche für ebendiese Dokumente zu vereinfachen und zu standardisieren. Primäres Ziel dabei ist die vollständige und zeitnahe Verfügbarkeit von „clinical study reports“, also der Dokumente, die eine klinischen Studie und ihre Ergebnisse umfassend beschreiben. Die Einrichtung eines solchen Portals würde zudem ein weiteres Ziel der wachsenden Bewegung für Datentransparenz unterstützen: die Verbesserung der Patientenversorgung.
Hauptnutzergruppe für das geforderte Portal sollten Forscherinnen und Forscher sein, die Evidenzsynthesen als Basis für die informierte Entscheidungsfindung erarbeiten, etwa bei der Entwicklung von Leitlinien oder von gesundheitspolitischen Richtlinien.
Originalpublikation:
https://ebm.bmj.com/content/early/2020/12/10/bmjebm-2020-111566
Weitere Informationen:
https://www.iqwig.de/de/presse/pressemitteilungen/2020/vom-publikationsbias-zur-…
Quelle: IDW
(nach oben)
Nanoforschung – Mit Nanopartikeln gegen Krebs
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
LMU-Wissenschaftler haben Nanopartikel entwickelt, die gezielt Krebszellen abtöten. Dies könnte der Tumorbekämpfung neue therapeutische Optionen eröffnen.
Chemotherapien gegen Krebs haben häufig schwere Nebenwirkungen, da die verabreichten Medikamente auch für gesunde Zellen toxisch sind. Calciumphosphat und Citrat werden bereits seit einiger Zeit als vielversprechende Alternativen diskutiert, da sie zwar zum Zelltod führen, wenn sie in hohen Konzentrationen ins Zellinnere gelangen, ansonsten aber für den Körper gut verträglich sind. Allerdings fehlten bisher Möglichkeiten, diese Stoffe an den strengen Kontrollmechanismen der Zellen vorbei ins Zellinnere zu schleusen. Jetzt haben Wissenschaftler um Dr. Constantin von Schirnding, Dr. Hanna Engelke und Prof. Thomas Bein vom Department Chemie der LMU neuartige amorphe Nanopartikel entwickelt, die aus genau jenen gewünschten Stoffen bestehen. Die Partikel können die Hindernisse nun überwinden und gezielt Krebszellen abtöten.
Calciumphosphat und Citrat sind an der Regulation vieler zellulärer Signalwege beteiligt. Um toxische Dosen im Zellinneren zu vermeiden, kontrollieren Zellen die Aufnahme dieser Stoffe streng. Die von den Wissenschaftlern entwickelten Nanoteilchen umgehen diese Kontrolle: „Wir haben amorphe, poröse Nanopartikel aus Calciumphosphat und Citrat hergestellt, die von einer Lipidschicht umgeben sind“, sagt von Schirnding. Durch die Beschichtung können die Teilchen in die Zelle eindringen, ohne dass deren Warnmechanismen anschlagen. Dort lösen sie sich sehr effizient auf und setzen große Mengen Calcium und Citrat frei.
Zellversuche zeigten, dass die Partikel in der Lage sind, Krebszellen selektiv abzutöten – gesunde Zellen dagegen überleben, obwohl sie die Partikel ebenfalls aufnehmen. „Offensichtlich können die Teilchen sehr toxisch sein, wenn sie es mit Krebszellen zu tun bekommen. Und je aggressiver der Tumor war, desto besser wirkten die Teilchen“, sagt Engelke.
Bei der Aufnahme in die Zellen werden die Nanoteilchen von einer zusätzlichen Membran überzogen. Die Wissenschaftler vermuten, dass es in den Krebszellen einen noch unbekannten Mechanismus gibt, der die zusätzliche Membran löchrig macht, sodass die Bestandteile der Partikel in das Zellinnere eindringen können. In den gesunden Zellen dagegen bleibt die Membran intakt und die Nanokügelchen werden als Ganzes wieder ausgeschieden.
„Die hochselektive Toxizität der Partikel ermöglichte es uns, zwei verschiedene aggressive pleurale Tumore bei Mäusen erfolgreich zu behandeln und ihre Größe nach nur zwei lokalen Anwendungen um etwa 40 bzw. 70 Prozent zu reduzieren“, sagt Engelke. Pleurale Tumore sind häufig Metastasen von Lungentumoren, die im sogenannten pleuralen Spalt zwischen Lunge und Brust angesiedelt sind. Übliche Chemotherapeutika haben hier keinen Zugang, weil der pleurale Raum nicht mit Blut versorgt wird. „Unsere Partikel dagegen können direkt in den pleuralen Spalt eingebracht werden“, sagt Bein. Dabei zeigten sich im Verlauf von zwei Monaten keine Anzeichen von gravierenden Nebenwirkungen. Die Forscher sind daher überzeugt, dass die neuen Nanopartikel großes Potenzial für die Entwicklung neuer Therapien gegen Krebs haben.
Wissenschaftliche Ansprechpartner:
Dr. Hanna Engelke
Department Chemie
Tel.: +49 (0)89 2180 77626
hanna.engelke@cup.uni-muenchen.de
https://www.cup.lmu.de/de/departments/chemie/personen/dr-hanna-engelke/
Prof. Thomas Bein
Department Chemie
Tel.: +49 (0)89 2180 77623
Thomas.bein@cup.uni-muenchen.de
https://www.cup.lmu.de/de/departments/chemie/personen/prof-dr-thomas-bein/
Originalpublikation:
Synergistic Combination of Calcium and Citrate in Mesoporous Nanoparticles Targets Pleural Tumors
Constantin von Schirnding, Ioanna Giopanou, Adam Hermawan, Lisa Wehl, Giannoula Ntaliarda, Bernhard Illes, Stefan Datz, Franz Geisslinger, Karin Bartel, Ann-Katrin Sommer, Marina Lianou, Veronika Weiß, Johann Feckl, Angelika M. Vollmar, Christoph Bräuchle, Georgios T. Stathopoulos, Ernst Wagner, Andreas Roidl, Thomas Bein, and Hanna Engelke
Chem 2020
Quelle: IDW
(nach oben)
Brennstoffzellen-Flugzeug am Stuttgarter Airport präsentiert: Umweltschonender Antrieb erhält Testflugerlaubnis
Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm
Heute ist die neueste Generation des klimafreundlichen Wasserstoff-Brennstoffzellen-Flugzeugs, Hy4, am Stuttgarter Flughafen vorgestellt worden. Der innovative Antrieb aus einem Batterie-Brennstoffzellensystem wurde allen voran von Professor Josef Kallo (Universität Ulm/DLR) entwickelt. Jetzt hat die sechste Antriebsgeneration die Testflugerlaubnis erhalten. Zu diesem Meilenstein auf dem Weg zum umweltschonenden, lautlosen Fliegen gratulierten Andreas Scheuer, Bundesminister für Verkehr und digitale Infrastruktur (Videobotschaft), sowie der baden-württembergische Verkehrsminister Winfried Hermann.
Klimafreundliches Fliegen könnte schon bald in ganz Europa alltäglich werden. Am Flughafen Stuttgart ist heute, 11. Dezember, die neueste Generation des weltweit ersten viersitzigen Wasserstoff-Brennstoffzellen-Flugzeugs Hy4 bei einer überwiegend virtuellen Veranstaltung vorgestellt worden. Federführend entwickelt wurde der alternative Antrieb aus einem Batterie-Brennstoffzellensystem von Professor Josef Kallo, der an der Universität Ulm sowie am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Stuttgart forscht. Erst kürzlich hat die neueste Antriebsgeneration von Hy4 die Testflugerlaubnis erhalten und kann somit am Stuttgarter Airport abheben.
Zu diesem wichtigen Schritt in Richtung umweltschonendes Fliegen gratulierte Andreas Scheuer, Bundesminister für Verkehr und digitale Infrastruktur, mit einer Videobotschaft.
„Das Wasserstoff-Flugzeug Hy4 ist innovativ, leise und klimafreundlich. Es zeigt, dass CO2-freie Luftfahrt schon heute möglich und machbar ist. Diese neue Art des Fliegens hat das Zeug dazu, die Mobilität nachhaltig zu verändern. Deutschland ist in diesem Hochtechnologiebereich Vorreiter: Hy4 ist weltweit das erste viersitzige Passagierflugzeug, das rein elektrisch mit Brennstoffzelle fliegt. Das ist Innovationskraft made in Germany und sichert Arbeitsplätze und Wertschöpfung in unserem Land.“
Der Erstflug des Wasserstoff-Passagierflugzeugs Hy4 am Stuttgarter Flughafen war 2016 eine kleine Sensation: Zuletzt ist der viersitzige Flieger im November lautlos und emissionsfrei im slowenischen Maribor zu Testflügen gestartet. Angetrieben wird Hy4 von einem Hybridsystem, das Batterie- und Brennstoffzellentechnologie miteinander verbindet. Sollte die so gewonnene Energie – etwa beim Start oder bei Steigflügen – nicht ausreichen, springt die Lithium-Ionen-Batterie ein. In der Brennstoffzelle werden Wasserstoff und Sauerstoff in elektrische Energie für den Propellerantrieb umgewandelt. Das umweltfreundliche Nebenprodukt ist Wasser. Bis dato konnte die Funktionalität des neuen Antriebssystems bei mehr als 30 Starts und Flügen von bis zu zwei Stunden erprobt sowie untersucht werden.
Der baden-württembergische Verkehrsminister Winfried Hermann würdigte bei der Präsentation am Flughafen die wissenschaftliche Leistung hinter Hy4: „Der Luftverkehr muss schnellstmöglich klimaschonender werden. Mit dem weltweit einzigartigen Wasserstoff-Brennstoffzellen-Flugzeug Hy4 stellt die Wissenschaft eine vielversprechende Technologie für emissionsfreies Fliegen vor. Mit dieser Expertise ist Baden-Württemberg auf dem Gebiet der Wasserstoff- und Brennstoffzellentechnologie Vorreiter im globalen Wettbewerb.“
Erster Meilenstein des Projekts Hy4 sollten regional einsetzbare Flugtaxis für einzelne Passagiere sein. Doch seit dem Erstflug eines Flugzeuges mit Brennstoffzelle im Jahr 2008 haben Kallo und seine Partner aus Forschung und Industrie die zukunftsweisende Antriebstechnologie massiv weiterentwickelt. „Die mittlerweile sechste Generation des Systems umfasst Redundanzkonzepte für Wasserstofftank, Brennstoffzelle, Energieverteilung und den elektrischen Antrieb. Durch die so gesteigerte Effizienz und eine verbesserte Sicherheitsarchitektur werden in den kommenden zehn Jahren wasserstoffbetriebene Flugzeuge für bis zu 40 Passagiere und mit Reichweiten von 2000 Kilometern möglich“, erklärt der Ulmer Institutsleiter Professor Kallo.
Am Institut für Energiewandlung und -speicherung der Universität Ulm wurden der elektrische Motor sowie die Energieverteilungseinheit von Hy4 entwickelt, unter Laborbedingungen getestet und in Betrieb genommen. Der Elektromotor hat eine Leistung von 120 Kilowatt und ermöglicht damit eine Maximalgeschwindigkeit von 200 Kilometer pro Stunde. Die grundlegende Brennstoffzellenforschung und die Zusammenschaltung der Komponenten erfolgten größtenteils am DLR. Die H2FLY GmbH verantwortet hingegen die Gesamtsystemarchitektur aus Wasserstofftank, Brennstoffzelle sowie Elektroantrieb. Außerdem ist H2FLY für die sichere Integration und den Betrieb im Flugzeug verantwortlich.
„Die Universität Ulm hat sich mit dem deutschlandweit einzigen Exzellenzcluster im Bereich Batterieforschung und starken Partnern in der Wissenschaftsstadt zu einem international führenden Zentrum der Energieforschung entwickelt. Das umweltfreundliche Flugzeug Hy4 vereint Batterie- mit Brennstoffzellentechnologie und ist somit ein hervorragendes Anwendungsbeispiel für innovative Antriebskonzepte und die Mobilität von morgen“, betonte Professor Michael Weber, Präsident der Universität Ulm.
Die Kooperationspartner glauben fest an die Zukunft des Wasserstoffantriebs in der Luftfahrt – und wurden jetzt mit dem Permit-to-fly bestätigt. Somit rückt emissionsfreies, effizientes und gleichzeitig geräuscharmes Fliegen im Passagierbereich in greifbare Nähe. Als Förderer der ersten Stunde freuen sich auch Vertreter des Stuttgarter Flughafens über diese Entwicklung: „Das emissionsfreie Fliegen der Zukunft macht mit diesem Projekt beachtliche Fortschritte. Im Sinne des Klimas müssen wir die Technologieentwicklung in der Luftfahrt und deren Markteinführung weiter mit Nachdruck verfolgen, “ so Walter Schoefer, Sprecher der Geschäftsführung der Flughafen Stuttgart GmbH. Die künftigen Tests in Stuttgart werden sich bis Mai auf das Zusammenspiel und die Kopplung von neuen, noch leistungsfähigeren Antriebskomponenten fokussieren.
Die Projektpartner Hy4
Im Projekt Hy4 bündeln die Universität Ulm, das DLR, H2FLY und Diehl Aerospace (Datenkommunikation und Controlhardware) ihre Expertise. Auf internationaler Ebene werden sie von Pipistrel (Flugzeug-Hardware) und den Forschungseinrichtungen Politecnica di Milano, TU Delft, Universität Maribor sowie Cummins Canada unterstützt. Zu den Förderern zählen die Nationale Organisation Wasserstoff- und Brennstoffzellentechnologie (NOW GmbH), das Bundeswirtschaftsministerium sowie das Bundesministerium für Verkehr und digitale Infrastruktur. Dazu kommen neben Mitteln aus der Industrie auch Mittel vom DLR, vom Flughafen Stuttgart und der Europäischen Kommission.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Josef Kallo: Tel.: 0731/50-25540, josef.kallo@uni-ulm.de
Weitere Informationen:
http://h2fly.de Aktuelles Foto- und Bewegtbildmaterial
Quelle: IDW
(nach oben)
Keine falsche Sicherheit: Deutsche wollen Kommunikation von Unsicherheit in der Corona-Pandemie
Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Die Covid-19-Pandemie zeigt uns einmal mehr, dass zu Wissenschaft auch Unsicherheit gehört. Dass die meisten Bürger*innen über diese Unsicherheit auch offen informiert werden wollen, zeigt eine bevölkerungsweite Befragung des Max-Planck-Instituts für Bildungsforschung und der Charité – Universitätsmedizin Berlin. Die Ergebnisse sind jetzt im Journal JAMA Network Open erschienen.
Seit der ersten Entdeckung des SARS-Cov-2-Virus im Dezember letzten Jahres, erreichen uns seit Monaten nahezu täglich neue wissenschaftliche Erkenntnisse zur Ausbreitung des Virus, zu Symptomen der Covid-19-Erkrankung oder zu neuen Behandlungsmethoden. Was heute noch gilt, kann morgen schon veraltet sein. Auch die Prognosen dazu, wie sich die Infiziertenzahlen bis Weihnachten entwickeln werden und welche Auswirkungen der Wellenbrecher-Shutdown haben wird genauso wie die Schätzung der aktuellen Reproduktionszahl (R-Wert) sind alles andere als sicher.
„Politiker und Gesundheitsexperten scheuen manchmal davor zurück, wissenschaftliche Unsicherheit zu kommunizieren, aus Angst, dass dies zu Misstrauen führen könnte. Wenn man aber vorgibt, dass eine Prognose zum weiteren Verlauf der Pandemie absolut sicher sei, riskiert man das Vertrauen der Bürger, wenn die Vorhersagen dann doch nicht so eintreffen“, sagt Odette Wegwarth, Erstautorin der Studie. Sie ist Senior Research Scientist im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und assoziierte Wissenschaftlerin am Institut für Medizinische Soziologie und Rehabilitationswissenschaft der Charité.
Um herauszufinden, wie die Kommunikation wissenschaftlicher Unsicherheit zur Corona-Pandemie bei den Menschen ankommt, hat das Forschungsteam vom Max-Planck-Institut für Bildungsforschung und der Charité in einer repräsentativen Online-Umfrage über 2000 Deutsche befragt. Den Teilnehmenden wurden vier verschiedene Versionen des künftigen Verlaufs der Pandemie präsentiert. Dabei wurde bei den Versionen unterschiedlich stark auf die Unsicherheiten der Vorhersage hingewiesen. Bei der Version, die am stärksten die Unsicherheit der wissenschaftlichen Prognose betonte, beschränkte sich die Kommunikation auf die Angabe von Spannen (von und bis-Werte) zu beispielsweise aktuell Infizierten, Todesfällen oder dem R-Wert und verzichtete auf die Angabe von festen Größen. Außerdem wurde darauf hingewiesen, dass „nicht mit Sicherheit gesagt werden [kann], ob es sich bei den beobachteten Unterschieden um eine zufällige Fluktuation handelt, oder um erste Anzeichen einer zweite Corona-Infektionswelle.“
Die Version dagegen, die am wenigsten auf die Unsicherheit der wissenschaftlichen Prognose einging, benannte stets feste Werte und betonte, dass „die gegenwärtig beobachtete Entwicklung der Zahlen keinen Zweifel daran lasse, dass eine zweite Infektionswelle bereits begonnen habe.“ Abgeschlossen wurde jede Version mit demselben Appell, nämlich zum Schutz der Risikogruppen präventive Maßnahmen wie das Tragen einer Maske im öffentlichen Raum fortzuführen.
Auf die anschließende Frage, welche der Versionen am besten geeignet wäre, um die Bevölkerung zukünftig über den Verlauf der Corona-Pandemie zu informieren, wählte die größte Gruppe der Befragten (32 Prozent) jenes Format, das die wissenschaftliche Unsicherheit rund um die Pandemie am deutlichsten darstellte. Diese Version galt unter den Befragten auch am ehesten geeignet, Menschen zu überzeugen, die gegenwärtigen Maßnahmen zur Eindämmung der Pandemie mitzutragen. Insgesamt zogen mehr als die Hälfte der Teilnehmenden (54 Prozent) die Formate, die numerische und/oder verbale Unsicherheit transportierten, den anderen vor. Am schlechtesten schnitt die Version ab, die die wissenschaftliche Unsicherheit unerwähnt ließ: Diese überzeugte nur 21 Prozent der Befragten. Auffallend ist, dass besonders die Menschen, die die gegenwärtigen Maßnahmen kritisch sehen, eher bereit zu sein scheinen, die Maßnahmen mit zu tragen, wenn Politiker*innen und Gesundheitsexpert*innen wissenschaftliche Unsicherheit in der Kommunikation klar benennen.
„Um diejenigen Menschen, die den Corona-Maßnahmen der Regierung skeptisch gegenüberstehen, besser zu erreichen, sollten Regierung und Medien den Mut haben stärker die Unsicherheiten zu kommunizieren“, empfiehlt Gert G. Wagner, Mitautor der Studie und Max Planck Fellow am MPI für Bildungsforschung.
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Originalpublikation:
Wegwarth, O., Wagner, G. G., Spies, C., Hertwig, R. (2020) Assessment of German Public Attitudes Toward Health Communications With Varying Degrees of Scientific Uncertainty Regarding COVID-19. JAMA Network Open. https://doi.org/10.1001/jamanetworkopen.2020.32335
Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/kommunikation-unsicherheit-corona…
Quelle: IDW
(nach oben)
Klärwerke sollen Akteure am Energiemarkt werden
Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Der Lehrstuhl für Energieverfahrenstechnik der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) koordiniert das Projekt „Kläffizient“, mit dem das Potential von Klärwerken als Strom- und Gasanbieter auf dem Energiemarkt simuliert und experimentell erforscht wird. Das dreijährige Projekt, an dem die Stadtentwässerung und Umweltanalytik Nürnberg (SUN) und die eta Energieberatung GmbH beteiligt sind, startete im Oktober 2020. Es wird vom Bundesministerium für Wirtschaft und Energie (BMWi) mit etwa 400.000 Euro gefördert.
Bei der Reinigung von Abwasser fällt Klärgas an, das zu zwei Dritteln aus Methan und zu einem Drittel aus Kohlendioxid besteht. Während der Methananteil des Klärgases in Blockheizkraftwerken zur Wärme-, bzw. Stromerzeugung genutzt wird, entweicht das klimaschädliche Kohlendioxid in die Atmosphäre. Aus dieser Not lässt sich jedoch eine Tugend machen: Bei hohen Temperaturen reagiert Kohlendioxid unter Zugabe von Wasserstoff zu Methan und Wasser. Dieses Verfahren wird Methanisierung genannt.
„Die Methanisierung ist eine Schlüsseltechnologie der Energiewende. Nur als Methan kann Wasserstoff aus erneuerbaren Energien einfach, jederzeit und überall genutzt werden. Gleichzeitig wird das CO2 aus unseren Kläranlagen klimawirksam gebunden“, erklärt Projektkoordinator Prof. Dr.-Ing. Jürgen Karl vom Lehrstuhl für Energieverfahrenstechnik der FAU. Der benötigte Wasserstoff stammt idealerweise aus der Elektrolyse von Wasser, die mit Strom aus erneuerbaren Energien betrieben wird. Bei der Elektrolyse entsteht Sauerstoff, den die Kläranlagen zur biologischen Reinigung des Schmutzwassers nutzen können. „Der Methanisierungsmodellanlage im Klärwerk Nürnberg wird allerdings keine Elektrolyse vorgeschaltet, der Wasserstoff kommt für den Versuchsbetrieb noch aus Flaschen“, erklärt Matthias Germeroth, Energiemanager bei SUN. Bei der Simulation des Energiesystems der Kläranlage im Modell werde die Elektrolyse jedoch berücksichtigt. Der „digitale Zwilling“ sei neben der Modellanlage die zweite tragende Säule des Projektes. Mit seiner Hilfe soll simuliert werden, wie sich eine Kläranlage flexibel auf die wechselnden Strom- und Gaspreise einstellen kann. Wenn der Strompreis im Winter steigt, weil die Photovoltaikanlagen weniger liefern, könnte die Kläranlage ihre Stromproduktion erhöhen. Im Sommer bietet sie dann Biomethan bzw. Bioerdgas an, das direkt zum Endverbraucher geleitet oder gespeichert wird. „Unser Ziel ist eine wirtschaftliche Betriebsweise von Klärwerken, die die Umwelt nicht belastet, sondern entlastet und dabei noch ‚grünes Gas‘ für unsere Wärme- und Stromversorgung gewinnt“, sagt Volkmar Schäfer von der eta Energieberatung GmbH.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Karl
Lehrstuhl für Energieverfahrenstechnik
Tel.: 0911/5302 9020
juergen.karl@fau.de
Quelle: IDW
(nach oben)
Neuer Tabakatlas des Deutschen Krebsforschungszentrums erschienen – 13 Prozent aller Todesfälle als Folge des Rauchens
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
gemeinsame Pressemitteilung des DKFZ und der Drogenbeauftragten der Bundesregierung
Das Deutsche Krebsforschungszentrum (DKFZ) legt mit der neuen Auflage des Tabakatlas zum dritten Mal eine Zusammenfassung aktueller Daten und Fakten rund um den Tabakkonsum sowie der damit verbundenen gesundheitlichen Risiken und gesellschaftlichen Folgen vor. Der Bericht verdeutlicht das enorme Potential der Krebsprävention und präventiver Gesundheitspolitik.
„Rauchen ist nach wie vor der wichtigste vermeidbare Krebsrisikofaktor, die Tabakkontrolle hat daher enormes Potenzial für die Krebsprävention. Mit der neuen Ausgabe des Tabakatlas wollen wir die Öffentlichkeit und die Medien auf den neuesten Stand der Wissenschaft bringen und gleichzeitig auf Basis dieser Informationen politische Entscheidungsträger zum Handeln veranlassen“, sagt Michael Baumann, Vorstandsvorsitzender des Deutschen Krebsforschungszentrums (DKFZ).
Daniela Ludwig, Drogenbeauftragte der Bundesregierung sagt: „Wir haben in den letzten Jahren bei der Tabakprävention viel erreicht! Dennoch müssen wir weiter aktiv daran arbeiten, Menschen vom Rauchen abzubringen. Durch gezielte und weitere Maßnahmen möchte ich erreichen, dass wir Raucher beim Rauchstopp noch besser unterstützen. Dazu muss auch die Politik das Thema Rauchentwöhnung höher auf die Agenda setzen und zur Selbstverständlichkeit eines jeden behandelnden Hausarztes oder Facharztes machen.”
Rauchen verursacht nach wie vor in besonderem Maße Krankheit und Tod: Allein in Deutschland waren im Jahr 2018 rund 85.000 Krebsfälle durch das Rauchen verursacht und etwa 127.000 Menschen starben an den Folgen der zahlreichen tabakbedingten Erkrankungen. Das entspricht 13,3 Prozent aller Todesfälle – diese Zahl ist seit der letzten Berechnung 2013 noch weiter gestiegen. Der Tabakatlas gibt einen umfassenden Überblick über das Ausmaß des Rauchens, die Folgen des Tabakkonsums sowie über Lösungsstrategien, um die Schäden zu verringern, die das Rauchen der Gesellschaft zufügt.
Immer noch rauchen 26,4 Prozent der Männer und 18,6 Prozent der Frauen sowie 6,0 Prozent der Jungen im Alter von 12 bis 17 Jahren und 5,2 Prozent der gleichaltrigen Mädchen. Dabei gibt es nach wie vor zwischen den einzelnen Bundesländern erhebliche Unterschiede im Raucheranteil.
Neben den gesundheitlichen Konsequenzen des Rauchens beleuchtet der Tabakatlas 2020 auch die immensen Folgen des Rauchens für Gesellschaft und Umwelt: Die Kosten, die das Rauchen verursacht, belaufen sich in Deutschland auf jährlich 97 Milliarden Euro. Die weltweite Tabakproduktion hat zusätzlich auch einen großen ökologischen Fußabdruck: Sie verursacht eine ähnliche Menge klimaschädlicher Gase wie das gesamte Industrieland Österreich.
Gleichzeitig zeigt der Atlas Lösungsansätze auf, über die vor allem die Politik dazu beitragen kann, den Tabakkonsum zu senken. Den Trend zum Nichtrauchen zu stärken, ist ein wichtiges Ziel der Krebsprävention. „Einige Länder – etwa Finnland und Irland – haben dazu bereits verpflichtende Strategien entwickelt. Auch Deutschland sollte sich als strategisches Ziel setzen, bis 2040 rauchfrei zu werden, d. h. den Raucheranteil in der Bevölkerung auf unter fünf Prozent zu senken“, sagt Katrin Schaller, kommissarische Leiterin der Stabsstelle Krebsprävention im DKFZ.
• Der „Tabakatlas Deutschland 2020“ ist als pdf-Datei unter http://www.tabakkontrolle.de abrufbar
• Journalisten erhalten das Handbuch kostenfrei bei der Pressestelle des Deutschen Krebsforschungszentrums unter presse@dkfz.de
• Der „Tabakatlas Deutschland 2020“ ist im Pabst-Verlag erschienen (ISBN: 978-3-95853-638-8) und im Buchhandel zum Preis von 19,95 Euro erhältlich und in den Nationalbibliotheken von Deutschland, der Schweiz und Österreich einsehbar.
Weitere Informationen auch unter http://www.drogenbeauftragte.de
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de
Quelle: IDW
(nach oben)
Klimawandel erwärmt Grundwasser in Bayern
Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Die Grundwasserreservoirs in Bayern haben sich innerhalb weniger Jahrzehnte deutlich erwärmt. Das zeigt eine neue Studie von Wissenschaftlern der Martin-Luther-Universität Halle-Wittenberg (MLU), die die Temperaturen an 35 Messstationen in unterschiedlichen Tiefen mit Daten aus den 1990er Jahren vergleicht. In einer Tiefe von 20 Metern ist das Wasser im Mittel fast ein Grad wärmer als vor 30 Jahren. Die Ergebnisse wurden in der Fachzeitschrift „Frontiers in Earth Science“ veröffentlicht.
Erwärmt sich die Luft, wird mit der Zeit auch der Boden wärmer – zuletzt erwärmt sich so auch das Grundwasser. Geologen nennen das thermische Kopplung. „Der Untergrund ist im Gegensatz zur Atmosphäre allerdings sehr träge“, sagt der Geowissenschaftler Prof. Dr. Peter Bayer von der MLU, einer der beiden Autoren der Studie. Das mache ihn zu einem guten Indikator für den Klimawandel, da der Untergrund nicht auf kurzfristige Temperaturschwankungen reagiert und somit eher langfristige Trends anzeigt.
„Dieser Effekt, dass sich der Boden aufwärmt, konnte bereits gezeigt werden, allerdings gibt es insgesamt noch wenige Daten“, erklärt Bayer. Für die neue Studie haben Bayer und sein Doktorand Hannes Hemmerle deswegen Messungen an 35 Messstationen in Grundwasserreservoirs in Bayern wiederholt, die in den 1990er Jahren durchgeführt wurden. Die Messpunkte sind im gesamten Bundesland verteilt, was einen seltenen Einblick in die Entwicklung einer ganzen Region liefert.
Die Geologen konnten zeigen, dass sich fast alle untersuchten Grundwasserspeicher über die Jahrzehnte ebenso erwärmt haben. „Ab ungefähr 15 Metern hat der Klimawandel einen ganz klaren Einfluss, kurzfristige lokale oder saisonale Schwankungen sind dann nicht mehr zu messen“, erklärt Hemmerle. Im Durchschnitt war das Grundwasser in einer Tiefe von 20 Metern fast 0,9 Grad Celsius wärmer als noch in den 1990er Jahren. In einer Tiefe von 60 Metern lag die Erwärmung noch bei etwa 0,3 Grad. In der gleichen Zeit stieg die durchschnittliche Lufttemperatur um 1,05 Grad Celsius.
„Man kann davon ausgehen, dass sich das Grundwasser in einer verspäteten Reaktion auf die Lufttemperaturen noch weiter erwärmt und auch in Zukunft auf steigende Atmosphären-Temperaturen reagieren wird“, so Hemmerle. Die Folgen der Erwärmung seien noch schwer abzuschätzen, so Bayer. Eine höhere Wassertemperatur habe Auswirkungen auf das Wachstum von Mikroben. Es setze aber auch unterirdische Ökosysteme unter Druck, die an sehr konstante Temperaturen angepasst sind.
Um ein Gefühl für die Dimensionen der Messungen zu bekommen, stellten Bayer und Hemmerle die Erwärmung ab einer Tiefe von 15 Metern zudem dem jährlichen Heizbedarf Bayerns gegenüber. Das Ergebnis: Der Temperaturanstieg entspricht etwa zehn Prozent des Bedarfs. „Wenigstens ein Teil der Wärme könnte möglicherweise mithilfe der Geothermie wieder genutzt werden“, so Bayer. Eins zu eins übertragen auf Gesamtdeutschland lassen sich die Ergebnisse jedoch nicht. „Es ist aber davon auszugehen, dass der Trend der gleiche ist“, so Hemmerle.
Die Studie wurde von der Deutschen Forschungsgemeinschaft gefördert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Bayer
Institut für Geowissenschaften und Geographie / Angewandte Geologie
Telefon: +49 345 55-26134
E-Mail: peter.bayer@geo.uni-halle.de
Web: https://applied.geo.uni-halle.de/
Originalpublikation:
Hemmerle, H., Bayer, P. Climate Change Yields Groundwater Warming in Bavaria, Germany. Frontiers in Earth Science (2020). https://doi.org/10.3389/feart.2020.575894
Quelle: IDW
(nach oben)
Was verraten Bewegungsarmbänder über unsere Atmung und Gesundheit?
Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Mit Bewegungsarmbändern lässt sich die Atemfrequenz von schlafenden Menschen relativ genau bestimmen. Das zeigt eine neue Studie von Forscherinnen und Forschern der Martin-Luther-Universität Halle-Wittenberg (MLU) zusammen mit der Charité – Universitätsmedizin Berlin, die im Fachjournal „Scientific Reports“ veröffentlicht wurde. Die Armbänder könnten perspektivisch der Früherkennung von Krankheiten dienen, da sich über die Atemfrequenz Hinweise auf noch unerkannte medizinische Probleme finden lassen.
Die Atmung verrät viel über die Gesundheit von Patienten. Verschiedene Studien haben gezeigt, dass Abweichungen von der normalen Atemfrequenz von etwa 12 bis 18 Mal pro Minute sogar Hinweise auf ernsthafte Erkrankungen geben können. Atmen Patienten etwa weniger als sechs Mal pro Minute, ist das ein stärkerer Hinweis auf lebensgefährliche Probleme als ein abweichender Herzschlag. Eine besonders schnelle Atmung kann hingegen ein früher Hinweis auf Herzprobleme sein. „Die Relevanz der Atemfrequenz findet jedoch bisher wenig Beachtung bei der Früherkennung medizinischer Risiken“, so PD Dr. Jan Kantelhardt, Physiker an der MLU. Seine Arbeitsgruppe untersucht seit einigen Jahren, wie physikalische Daten von Messgeräten für eine bessere Diagnostik genutzt werden können.
Wirklich zuverlässig kann die Atemfrequenz über längere Zeiträume bisher nur in Kliniken mit entsprechender Ausstattung aufgezeichnet werden. Im Rahmen von Gesundheitsstudien mit mehreren Hunderttausenden Teilnehmerinnen und Teilnehmern beispielsweise werden jedoch weniger aufwendige Möglichkeiten benötigt. Bislang kommt dann häufig ein einfaches Elektrokardiogramm (EKG) zum Einsatz, das Herzfrequenz und -rhythmus misst und so Rückschlüsse auf die Atmung erlaubt. „Wir haben nach einer neuen Methode gesucht, um mit relativ günstigen Mitteln die Atmung zu messen“, sagt Kantelhardt.
Gemeinsam mit der Arbeitsgruppe von Prof. Dr. Thomas Penzel vom Interdisziplinären Schlafmedizinischen Zentrum der Charité wollte das Team aus Halle überprüfen, ob spezielle Bewegungsarmbänder eine verlässliche Alternative zum EKG sein könnten. Dafür legten die Mitarbeiterinnen und Mitarbeiter im Schlaflabor der Charité circa 400 Patienten neben den dort üblichen Geräten zusätzlich ein Armband an, das Bewegungen registrieren und außerdem über eine auf die Haut geklebte Elektrode ein einfaches EKG messen kann. „Die Armbänder sind vergleichbar mit Fitnessarmbändern, nur sind sie um einiges genauer. Außerdem können wir mit einer eigenen Software die Rohdaten analysieren“, so Kantelhardt. So können die Forschenden bereits leichteste Bewegungen erkennen – also auch, wenn sich der Arm beim Atmen im Schlaf leicht dreht.
Im Abgleich mit den Daten des Schlaflabors zeigte sich, dass diese minimalen Bewegungen genauere Rückschlüsse auf die Atmung erlauben als das gleichzeitig gemessene EKG. „Bei zu viel Bewegung lässt sich die Atmung mit den Armbändern nicht mehr messen. Wir finden aber immer einige Abschnitte in der Nacht, wo wir die Atmung sehr zuverlässig beobachten können“, so Kantelhardt. Die Armbänder könnten dem Forscher zufolge beispielsweise zur Diagnostik vor dem Aufenthalt in einem Schlaflabor genutzt werden.
Die neue Methode soll aber zunächst dazu dienen, einen Teil der Daten der sogenannten NAKO-Gesundheitsstudie auszuwerten. Im Rahmen der 2014 gestarteten bundesweiten Studie werden circa 200.000 Menschen über viele Jahre zu ihren Lebensumständen und ihrer Krankheitsgeschichte befragt und medizinisch untersucht. Ein Teil der Teilnehmerinnen und Teilnehmer erhielt außerdem die gleichen Bewegungsarmbänder wie in der aktuellen Studie. Ziel des Projekts insgesamt ist es, die Entstehung von Volkskrankheiten wie Krebs, Diabetes oder Herz-Rhythmus-Störungen besser zu verstehen, um Vorbeugung, Früherkennung und Behandlung in Deutschland zu verbessern.
Die Untersuchung wurde durch die Deutsch-Israelische Stiftung für Wissenschaftliche Forschung und Entwicklung (GIF) sowie im Rahmen der NAKO-Gesundheitsstudie durch das Bundesministerium für Bildung und Forschung und die Helmholtz-Gemeinschaft unterstützt.
Wissenschaftliche Ansprechpartner:
PD Dr. Jan W. Kantelhardt
Institut für Physik / MLU
Telefon: +49 345 55-25433
E-Mail: jan.kantelhardt@physik.uni-halle.de
Originalpublikation:
Leube, J. et al. Reconstruction of the respiratory signal through ECG and wrist accelerometer data. Scientific Reports (2020). https://doi.org/10.1038/s41598-020-71539-0
Quelle: IDW
(nach oben)
Harzer Stausee drohen italienische Wassertemperaturen
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Die Rappbodetalsperre im Harz ist die größte Trinkwassertalsperre in Deutschland und beliefert rund 1 Mio. Menschen mit Trinkwasser. Der Klimawandel könnte nun dafür sorgen, dass die Wassertemperaturen in dem Stausee deutlich steigen. Sollte die durchschnittliche Erderwärmung bis zum Jahr 2100 zwischen 4 und 6 Grad liegen, was der aktuellen Entwicklung entspricht, wird die Rappbodetalsperre Temperaturverhältnisse bekommen, die vergleichbar sind mit denen des Gardasees.
Die Rappbodetalsperre im Harz ist die größte Trinkwassertalsperre in Deutschland und beliefert rund 1 Mio. Menschen mit Trinkwasser, unter anderem in den Regionen Halle und dem südlichen Sachsen-Anhalt. Der Klimawandel könnte nun dafür sorgen, dass die Wassertemperaturen in dem Stausee deutlich steigen. Sollte die durchschnittliche Erderwärmung bis zum Jahr 2100 zwischen 4 und 6 Grad liegen, was der aktuellen Entwicklung entspricht, wird die Rappbodetalsperre Temperaturverhältnisse bekommen, die vergleichbar sind mit denen des Gardasees und anderer Seen südlich der Alpen. Die Talsperrenbetreiber könnten die Auswirkungen auf die Trinkwasserversorgung teilweise auffangen, schreibt ein vom Helmholtz-Zentrum für Umweltforschung (UFZ) geführtes Forscherteam in der Zeitschrift Science of the Total Environment. Dafür müssten sie die Bewirtschaftung ändern.
Schon jetzt wirkt sich der Klimawandel auf die Rappbodetalsperre aus: Um rund 4 Grad hat sich die Temperatur in den vergangenen 40 Jahren an der Wasseroberfläche des Stausees in den Sommermonaten erwärmt. Diese Entwicklung könnte sich weiter fortsetzen, wie ein vom UFZ-Seenforscher Dr. Karsten Rinke geleitetes Forscherteam nun zeigen konnte. Auf Basis eines von US-Forschern entwickelten Seenmodells prognostizierten sie unter Berücksichtigung möglicher Strategien zur Talsperrenbewirtschaftung die Auswirkungen des Klimawandels auf die Wassertemperatur und auf die physikalische Struktur, die die Schichtung und die jahreszeitliche Durchmischung des Wasserkörpers steuern. Sie bezogen sich dabei auf drei Szenarien künftiger Treibhausgasemissionen. Die sogenannten „Repräsentativen Konzentrationspfade“ (RCPs) beschreiben, ob der Ausstoß von Treibhausgasen bis zum Jahr 2100 gestoppt wird (RCP 2.6), weiter ansteigt (RCP 6.0) oder sich gar ungebremst fortsetzt (RCP 8.5). Im letzten Fall würde laut des Weltklimarats IPCC bis Ende des Jahrhunderts die Erwärmung im weltweiten Durchschnitt mehr als vier Grad betragen.
Für das RCP 2.6- und das RCP 6.0-Szenario modellierten die Autoren der Studie, dass sich an der Rappbodetalsperre die Durchschnittstemperatur an der Wasseroberfläche bis zum Jahr 2100 um 0,09 Grad beziehungsweise um 0,32 Grad pro Jahrzehnt erhöht. Dies würde bis zum Ende des Jahrhunderts ein Anstieg um insgesamt rund 0,7 Grad (RCP 2.6) und rund 2,6 Grad (RCP 6.0) bedeuten. Am höchsten fällt erwartungsgemäß der Temperaturanstieg beim RCP 8.5-Szenario aus: Dabei steigt die Wassertemperatur um 0,5 Grad pro Jahrzehnt, also um rund 4 Grad bis zum Jahr 2100.
Gravierender für die Trinkwassernutzung ist aber, was in tieferen Schichten des Stausees, also in 50 Meter Tiefe und darunter passiert, da hier das Rohwasser für die Trinkwasseraufbereitung entnommen wird. Zwar bleiben beim RCP 2.6- und beim RCP 6.0-Szenario bis zum Jahr 2100 die Auswirkungen verhältnismäßig gering, da die Wassertemperatur weiterhin ganzjährig rund 5 Grad Celsius beträgt. Allerdings werden die Wassertemperaturen beim RCP 8.5-Szenario deutlich zulegen – und zwar um nahezu 3 Grad bis zum Ende des Jahrhunderts. Dadurch erwärmt sich das Tiefenwasser der Talsperre auf rund 8 Grad Celsius. „Damit wird aus einem Stausee im nördlichsten Mittelgebirge Deutschlands ein Gewässer vergleichbar dem Lago Maggiore oder dem Gardasee“, sagt UFZ-Wissenschaftler Karsten Rinke. Diese Temperaturerhöhung hat Folgen, weil sich dadurch die Geschwindigkeit biologischer Stoffumsetzungen stark beschleunigt. „Bei einer Temperaturzunahme auf 8 Grad Celsius verdoppelt sich nahezu die Sauerstoffzehrung, also der Sauerstoffverbrauch durch Atmungs- und Abbauprozesse von Organismen“, sagt Erstautor Chenxi Mi, der am UFZ über die Klimaauswirkungen auf die Rappbodetalsperre promoviert. Weil sich die Dauer der Sommerstagnation – das ist die Phase der stabilen Temperaturschichtung der Seen, in denen das Tiefenwasser von der Sauerstoffversorgung aus der Atmosphäre abgeschlossen ist – durch den Klimawandel ohnehin verlängert, bedeutet die erhöhte Sauerstoffzehrung eine zusätzliche Belastung für den Sauerstoffhaushalt des Gewässers. Hinzu kommt, dass wärmeres Wasser auch weniger Sauerstoff aufnehmen kann. Eine verstärkte Rücklösung von Nährstoffen und gelösten Metallen aus dem Sediment, Algenwachstum und die Zunahme von Blaualgen wären mögliche Folgen.
Das Eintreten des 8.5-Szenarios hätte somit Auswirkungen auf die Trinkwasserversorgung. Die Talsperrenbetreiber entnehmen das Rohwasser aus guten Gründen aus der untersten Schicht, da das Wasser dort kalt ist und einen geringen Gehalt an Trübstoffen, gelösten Metallen, Algen, Bakterien und potenziell pathogenen Mikroorganismen aufweist. Nimmt nun dort aufgrund zunehmender Wassertemperatur der Sauerstoffanteil schneller ab, erhöht das die Gefahr von Verunreinigungen, etwa durch Rücklösungen aus dem Sediment und einem verstärktem Bakterienwachstum. Für die Betreiber würde dies den Aufbereitungsaufwand erhöhen und sie vor höhere Ansprüche an die vorzuhaltende Aufbereitungskapazität stellen. „Es lohnt sich daher auch mit Blick auf die Trinkwasserversorgung, die Erwärmung des Tiefenwassers zu vermeiden, idealerweise durch eine ambitionierte Klimapolitik, welche die Erwärmung begrenzt“, sagt Rinke.
Ganz machtlos stehen die Talsperrenbetreiber der Erwärmung des Tiefenwassers aber nicht gegenüber. Die Modellsimulationen des Teams um Karsten Rinke zeigen, dass ein Teil der Wärme durch ein geschicktes Wasserentnahmeregime abgeführt werden könnte. Dies betrifft die Wasserabgabe an den Unterlauf, also die Wasserentnahme, die in das darunter liegende Fließgewässer entwässert, um dort die Abflussverhältnisse stabil zu halten. Diese sogenannte Unterwasser-Abgabe müsste nicht wie bisher aus den tieferen Schichten, sondern oberflächennah entnommen werden. „Damit wird die zusätzliche Wärme, die durch den Klimawandel verursacht wird, wieder abgegeben“, sagt Rinke. Bei einer Erwärmung der Luft über 6 Grad hinaus lasse sich allerdings das Aufheizen des Tiefenwassers nicht mehr verhindern. „Auch wenn die Betreiber infolge der sehr trockenen Jahre in jüngster Vergangenheit eher mit dem Wassermangel zu kämpfen haben, ist es genauso wichtig, sich Gedanken um die Wasserqualität zu machen. Wir haben durchaus Potenziale in der Talsperrenbewirtschaftung, auf die Veränderungen durch den Klimawandel zu reagieren und somit bestimmte negative Auswirkungen im Sinne einer Klimaanpassung abzupuffern.“
Die Betreiber der Rappbodetalsperre im Talsperrenbetrieb Sachsen-Anhalt sind sich dessen bewusst. Sie stehen mit den UFZ-Forschern um Karsten Rinke seit etlichen Jahren in engem Austausch, um die Auswirkungen des Klimawandels gemeinsam zu bewerten und Möglichkeiten der Anpassung an der Rappbodetalsperre auszuloten. So hat der Talsperrenbetrieb bereits neue Infrastrukturen in der Planung, welche die Implementation der neuen Bewirtschaftungsstrategien erlauben werden.
Wissenschaftliche Ansprechpartner:
Dr. Karsten Rinke
Leiter UFZ-Department Seenforschung
karsten.rinke@ufz.de
Originalpublikation:
Chenxi Mi, Tom Shatwell, Jun Ma,Yaqian Xu, Fangli Su, Karsten Rinke: Ensemble warming projections in Germany’s largest drinking water reservoir and potential adaptation strategies. Science of the Total Environment https://doi.org/10.1016/j.scitotenv.2020.141366
Quelle: IDW
(nach oben)
Desinfektionsmittel in Schlagsahne und Pangasius-Fisch
Harald Händel Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
BVL stellt Ergebnisse der Lebensmittelüberwachung 2019 vor
Schlagsahne gehört für viele Menschen zu Eis und Kuchen dazu. In Eisdielen und Bäckereien werden häufig Sahneaufschlagmaschinen zur Herstellung der eigenen Schlagsahne verwendet. Allerdings werden bei der Reinigung und Desinfektion der Maschinen oft Fehler gemacht. So vergaßen 41 % der 2019 kontrollierten Betriebe das anschließende Nachspülen mit heißem Trinkwasser. Dies kann zu einer Verunreinigung der Sahne mit dem Desinfektionsmittel führen.
Auch in Pangasius-Fisch fanden die Untersuchungsämter im vergangenen Jahr häufig Rückstände von Desinfektionsmitteln. Bei 10 % der Fischproben bestand sogar eine akute Gesundheitsgefahr, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) bei seiner heutigen Pressekonferenz in Berlin mitteilte.
Im Jahr 2019 wurden Sahneaufschlagmaschinen in insgesamt 1.818 Betrieben kontrolliert. Dies waren überwiegend Eisdielen, aber auch Bäckereien und andere Gastronomiebetriebe. Am häufigsten bemängelten die Kontrollbehörden der Bundesländer das fehlende Nachspülen der Maschinen mit heißem Trinkwasser. In 41 % der Betriebe blieb dies aus.
„Es ist gut, dass die meisten Betriebe ihre Sahneaufschlagmaschinen regelmäßig und gründlich reinigen,“ sagte Prof. Dr. Michael Kühne von der Länderarbeitsgemeinschaft Verbraucherschutz (LAV) bei der Vorstellung der Ergebnisse ausgewählter Schwerpunktprogramme der Lebensmittelüberwachung. „Zur richtigen Reinigung der Maschinen gehört aber auch das Nachspülen mit Trinkwasser. Ansonsten besteht die Gefahr, dass Reste von Reinigungs- und Desinfektionsmitteln in die Sahne übergehen.“
Zudem wurden in fast allen Betrieben (94 %) keine Eigenkontrollen auf Rückstände von Reinigungs- und Desinfektionsmitteln durchgeführt. Auch Eigenkontrollergebnisse zu mikrobiologischen Untersuchungen konnte lediglich ein Viertel der Betriebe vorzeigen. Der allgemeine Reinigungszustand und die Hygiene der Umgebung der Maschinen wurde hingegen von den Kontrolleuren nur sehr selten beanstandet.
Rückstände von Desinfektionsmitteln in Pangasius-Fisch
Bei der Verarbeitung eines leicht verderblichen Lebensmittels wie Fisch sind besondere Hygienemaßnahmen erforderlich. So ist es üblich, beim Enthäuten, Ausnehmen oder Filetieren Prozesswasser zu verwenden, dem Desinfektionsmittel zugesetzt werden. Auch alle mit dem Fisch in Kontakt kommenden Flächen oder Schneidegeräte werden in der Regel mit Desinfektionsmitteln gereinigt. Die Mittel enthalten häufig Chlorat oder Quartäre Ammoniumverbindungen (QAV) wie Benzalkoniumchlorid (BAC).
Chlorat hemmt die Aufnahme von Jod in die Schilddrüse. Dies kann besonders bei empfindlichen Personen wie Kindern, Schwangeren oder Personen mit Schilddrüsenfunktionsstörungen unerwünschte gesundheitliche Effekte verursachen. BAC kann zu Reizungen im Magen-Darm-Trakt führen.
Etwaige Rückstände an Chlorat und BAC müssen daher durch sorgfältiges Nachspülen mit Wasser vom Fisch sowie von den Arbeitsflächen und Schneidegeräten entfernt werden.
Im vergangenen Jahr wurden in einem Monitoring-Projekt 80 Proben Pangasius auf Rückstände von Chlorat und BAC untersucht. Der Fisch stammte überwiegend aus vietnamesischer Aquazucht und lag in Form von glasierten Tiefkühl-Filets vor.
Bei 79 % der Proben konnte Chlorat quantifiziert werden. 39 % enthielten BAC. Bei 10 % der Proben waren die gemessenen Rückstände an Chlorat (drei Proben) bzw. BAC (fünf Proben) so hoch, dass ein akutes gesundheitliches Risiko beim Verzehr des Pangasius bestand.
Dazu erklärte Dr. Georg Schreiber, Leiter der Abteilung „Lebensmittelsicherheit“ im BVL: „Es ist absolut inakzeptabel, dass hier Lebensmittel auf den Markt gebracht werden, von denen eine Gesundheitsgefahr für die Verbraucherinnen und Verbraucher ausgeht. Bei der Verarbeitung des Pangasius muss deutlich sorgfältiger gearbeitet werden.“
Krankheitserreger in Schweinehackfleisch
Shiga-Toxin bildende E. coli (STEC) sind Bakterien, die akute Darmentzündungen hervorrufen können. Diese können zum Teil einen schweren Verlauf nehmen, wie bei den EHEC-Infektionen im Jahr 2011. Insbesondere bei Kindern kann eine Infektion mit STEC zur Ausbildung eines hämolytisch-urämischen Syndroms (HUS) führen, das u. a. mit einer schwerwiegenden Nierenfunktionsstörung einhergeht.
2019 wurden im Rahmen des Zoonosen-Monitorings 420 Proben Schweinhackfleisch auf STEC untersucht. 7,4 % der Proben enthielten STEC-Keime. Bei der letzten vergleichbaren Untersuchung zehn Jahre zuvor waren nur 0,8 % der Proben positiv getestet worden. Auch Salmonellen wurden erneut im Hackfleisch nachgewiesen (1,9 % positive Proben).
„Die Ergebnisse zeigen einmal mehr, dass rohes Schweinehackfleisch, wie Mett, kein geeignetes Lebensmittel für empfindliche Verbrauchergruppen ist,“ sagte der Präsident des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit Friedel Cramer. „Kleinkinder, ältere und immungeschwächte Menschen sowie Schwangere sollten am besten ganz auf den Verzehr von rohem Hackfleisch verzichten.“
Fälschung bei Oregano
Lebensmittelbetrug kennt viele Formen. Eine davon kann die Verunreinigung von Gewürzen mit fremden Pflanzenteilen sein. So wurde in den vergangenen Jahren von den deutschen Überwachungsbehörden Oregano gefunden, der zum Teil in erheblichem Umfang mit klein gehackten Olivenblättern vermischt wurde. Ein möglicher Grund für die Verfälschung sind die gestiegenen Großhandelspreise für Gewürze. Um Oregano dennoch preiswert anbieten zu können, wird es mit Fremdbestandteilen gestreckt.
„Die Verbraucherinnen und Verbraucher haben ein Recht darauf, das zu bekommen, was auf der Packung draufsteht“, erklärte Prof. Dr. Michael Kühne von der Länderarbeitsgemeinschaft Verbraucherschutz (LAV). „Deshalb schauen wir bei allen Arten von Lebensmitteln gezielt nach etwaigen Verfälschungen.“
2019 wurden im Rahmen des Bundesweiten Überwachungsplans (BÜp) 61 Proben Oregano untersucht. Dabei enthielten 13 % der Proben Reste von Olivenblättern. Insgesamt wurden in jedem fünften Gewürz pflanzliche Fremdbestandteile nachgewiesen, darunter auch Holzteile. Tierische Fremdbestandteile, wie Insektenteile, waren in keiner Probe enthalten.
Blausäure in Aprikosenkernen
Aprikosenkerne befinden sich im Inneren der Aprikosensteine und haben rein äußerlich eine Ähnlichkeit mit Mandeln. Im Internet werden sie oft als gesundheitsfördernder Snack oder teilweise sogar als Heilmittel gegen Krebs angeboten. Dabei enthalten Aprikosenkerne hohe Mengen an Blausäure, die beim Menschen zu Vergiftungen bis hin zum Tod führen können.
Die meisten Onlinehändler kennen das Gesundheitsrisiko, das von Aprikosenkernen ausgeht. Um ihre Waren dennoch verkaufen zu können, platzieren sie entweder Warnhinweise bei dem Angebot oder deklarieren die Kerne als Saatgut. Gleichzeitig werden die Aprikosenkerne aber in der Produktkategorie „Lebensmittel“ bei den Onlinemarktplätzen eingestellt.
2019 haben die Überwachungsbehörden in einem weiteren BÜp-Programm 43 Proben süße und bittere Aprikosenkerne untersucht. 79 % überschritten den für Blausäure zulässigen EU-Höchstgehalt von 20 mg/kg. Besonders bittere Aprikosenkerne, die von Wildaprikosen gewonnen werden, lagen im Durchschnitt um mehr als das 100-fache über dem Grenzwert. Bereits beim Verzehr von mehr als ein bis zwei bitteren Aprikosenkernen pro Tag kann ein gesundheitliches Risiko nicht mehr ausgeschlossen werden.
„Aprikosenkerne sind als Lebensmittel ungeeignet“, stellt der BVL-Abteilungsleiter Dr. Georg Schreiber klar. „Der extrem hohe Blausäuregehalt ist eine echte Gefahr für die Gesundheit der Verbraucherinnen und Verbraucher.“
Die Lebensmittelüberwachungsbehörden gehen deshalb gegen unzulässige Angebote von Aprikosenkernen vor. So wurden im vergangenen Jahr insgesamt elf Meldungen zu gesundheitsgefährdenden Aprikosenkernen in das Europäische Schnellwarnsystem RASFF eingestellt. Drei Rückrufe wurden zudem über das deutsche Internetportal www.lebensmittelwarnung.de veröffentlicht.
Weiterführende Informationen
Monitoring 2019:
https://www.bvl.bund.de/monitoring
Bundesweiter Überwachungsplan (BÜp) 2019:
https://www.bvl.bund.de/buep
Zoonosen-Monitoring 2019:
https://www.bvl.bund.de/zoonosenmonitoring
Präsentation „Lebensmittelsicherheit in Deutschland“:
https://www.bvl.bund.de/lebensmittelueberwachung2019_praesentation
Internetportal
https://www.lebensmittelwarnung.de
Schnellwarnsysteme:
https://www.bvl.bund.de/schnellwarnsysteme
Quelle: IDW
(nach oben)
Internationales Projekt zur industriellen Wasserwirtschaft wird an der RWTH Aachen koordiniert
Angelika Hamacher Dezernat 3.0 – Presse und Kommunikation
Rheinisch-Westfälische Technische Hochschule Aachen
Europäische Union finanziert „AquaSPICE“ mit elf Millionen Euro
Am 1. Dezember 2020 startet das internationale Projekt „AquaSPICE – Advancing Sustainability of Process Industries through Digital and Circular Water Use Innovations“, das von Professor Thomas Wintgens vom RWTH-Institut für Siedlungswasserwirtschaft koordiniert wird. Die Europäische Union finanziert die Forschungsarbeiten zur industriellen Wasserwirtschaft in den nächsten 3,5 Jahren im Rahmen des Forschungs- und Innovationsprogramms H2020 mit elf Millionen Euro. Beteiligt sind 29 Partner aus zwölf Ländern.
Die Industrie ist einer der großen Wassernutzer in Europa. Abhängig vom Produktionsprozess unterscheiden sich die Ansprüche an Wasserqualität und -menge. Zur Sicherstellung der Versorgung ist die Wiederverwendung von bereits genutztem Wasser von wachsender Bedeutung. Dies gilt insbesondere für Standorte, die aufgrund der klimatischen Veränderungen bereits mit begrenzten regionalen Ressourcen auskommen müssen. Im Projekt soll durch die Verbindung von Aufbereitungsverfahren, Sensortechnologien und digitalen Prozessen die Schließung der Wasserkreisläufe vorangetrieben werden. Hierbei engagieren sich auch mittlere und große Industriebetriebe aus den Bereichen Nahrungsmittelherstellung, Chemie, Mineralölverarbeitung sowie Abfallverwertung ebenso wie Forschungsinstitutionen und Softwareanbieter.
In sechs Fallstudien werden Wasserströme für die Produktionsprozesse mit Ansätzen der Kreislaufwirtschaft betrachtet und mit verschiedenen Behandlungsverfahren im Pilotmaßstab aufbereitet, um die Anforderungen der nachgeschalteten Prozesse zu erfüllen. Eingesetzt werden biologische und physikalisch-chemische Verfahren, unter anderem auch Membranprozesse. Das RWTH-Institut für Siedlungswasserwirtschaft übernimmt die wissenschaftliche Begleitung der Fallstudien, die Aufbereitungsprozesse werden bewertet und die Einhaltung der Qualitätskriterien durch umfassende Analytik unterstützt. Der Zustand von Wasserressourcen und Aufbereitungsprozessen soll mit Sensorsystemen in Echtzeit erfasst und mit Hilfe einer digitalen Plattform optimiert werden. Die Fallstudien erfolgen an Chemie-Industriestandorte der niederländischen Provinz Zeeland, im Hafen von Antwerpen, in Mitteldeutschland sowie in Italien.
Kontakt:
Univ.-Prof. Dr.-Ing. Thomas Wintgens
Institut für Siedlungswasserwirtschaft
Telefon 0241/8025207
E-Mail sekretariat@isa.rwth-aachen.de
Quelle: IDW
(nach oben)
Ratgeber zum individuellen Stressmanagement
Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
In einem neuen Ratgeber bündeln Experten aus Freiburg und Trier wissenschaftlich erprobte Tipps zur Stressbewältigung
Wie können Menschen am besten mit hohen Belastungen, Stress und stressbedingten Erkrankungen umgehen? Gemeinsam haben Forscher und Psychotherapeuten der Universitäten Freiburg und Trier den neuen „Ratgeber Stress und Stressbewältigung“ veröffentlicht. Der Guide stellt anschaulich wissenschaftlich erprobte Techniken anhand unterschiedlicher Fallbeispiele sowie praktischer Übungen vor. „Nach 25 Jahren Stressforschung können wir Betroffenen so viel mehr als klassische Entspannungstrainings anbieten – von Techniken zur Verbesserung der Regenerationsfähigkeit über eine aktive Veränderung von Stressauslösern bis zu schnell wirksamen Atemtechniken“, sagt Prof. Dr. Markus Heinrichs, der zusammen mit Dr. Tobias Stächele die „Ambulanz für stressbedingte Erkrankungen“ an der Universität Freiburg leitet. Ihr Kollege Prof. Dr. Gregor Domes hat die Leitung der „Forschungsambulanz für Stress“ an der Universität Trier inne.
Vor einigen Jahren haben die Autoren ein Handbuch über Stressbewältigung verfasst, das Fachleuten aus Psychotherapie und Medizin eine Hilfestellung für die Behandlung von Patientinnen und Patienten gibt. Mit dem neuen Ratgeber suchen Heinrichs, Stächele und Domes den direkten Weg zu Betroffenen und deren Angehörigen. „Durch den Einsatz erprobter, aktiver Strategien haben alle die Möglichkeit, die eigene Stressbewältigung zu verbessern. Das gilt auch für Personen mit hoher Stressbelastung “, erläutert Stächele. Im Zentrum des Ratgebers stehen sowohl Hilfestellungen für den Umgang mit akuten Stressauslösern als auch Tipps für den Aufbau von Kompetenzen für eine Verbesserung der langfristigen Stressbalance. „Patienten profitieren erheblich davon, individuelle Signale frühzeitig wahrzunehmen und hohe alltägliche Belastungen durch gezielte Maßnahmen positiv zu beeinflussen“, sagt Stächele. Dabei haben die Fachleute beobachtet, dass eine mangelnde Stressbewältigung selten auf nur eine Ursache zurückzuführen sei, betont Heinrichs: „Es geht um ein breites diagnostisches Verständnis und eine auf den Einzelnen zugeschnittene Zusammenstellung wirksamer Maßnahmen.“ Wichtig ist den Autoren, dass die Leserinnen und Leser schnell und gezielt aktive Übungen als individuelles Stressmanagement umsetzen können und auch vor zukünftigen Stressbelastungen wirksam geschützt sind.
Buchveröffentlichung:
T. Stächele, M. Heinrichs, G. Domes (2020). Ratgeber Stress und Stressbewältigung. Broschiert, 103 Seiten.
Kontakt:
Prof. Dr. Markus Heinrichs, Dr. Tobias Stächele
Institut für Psychologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3029
E-Mail: heinrichs@psychologie.uni-freiburg.de, staechele@psychologie.uni-freiburg.de
Originalpublikation:
https://www.pr.uni-freiburg.de/pm/2020/stress-kompetent-managen
Quelle: IDW
(nach oben)
Umfrageergebnisse zum Nutzen oder Nichtnutzen der Corona-Warn-App
Marlon Taddigs Marketing und Kommunikation
OFFIS – Institut für Informatik
Die deutsche Corona-Warn-App hat derzeit laut dem Robert-Koch-Institut (RKI) knapp 23 Millionen Downloads in Deutschland zu verzeichnen. Das Informatikforschungsinstitut OFFIS hat von Mitte August bis Ende September 2020 eine bundesweite Online-Umfrage zur Nutzung – oder auch Nichtnutzung – der deutschen Corona-Warn-App durchgeführt. Erste Ergebnisse sind nun als Vorabveröffentlichung verfügbar.
Die bundesweite Umfrage enthielt Fragen wie: Nutzen Sie die Corona‐Warn‐App? Warum nutzen Sie die App, beziehungsweise warum nutzen Sie sie nicht oder nicht mehr? oder auch: Wie regelmäßig nehmen Sie Ihr Handy mit, wenn Sie das Haus verlassen?
An der OFFIS Umfrage beteiligten sich insgesamt mehr als 1.300 Teilnehmer*innen. Ein parallel vom renommierten Marktforschungsinstitut infas 360 durchgeführtes, größeres Panel hat einen Teil der Studien-Fragen unverändert übernommen. Dort wurden die Fragen von mehr als 10.000 Personen beantwortet. Die nun vorabveröffentlichten Ergebnisse der OFFIS-Studie basieren daher auf insgesamt 11.862 Antworten aus diesen zwei bundesweiten Umfragen.
Nutzung der Corona-Warn-App
Bei denjenigen, die die Corona‐Warn‐App nutzen, ist sie in der Regel aktuell und das Handy wird meistens oder immer mitgeführt, so dass das grundsätzliche Funktionieren im Wesentlichen sichergestellt scheint. Die Nutzenden öffnen die App regelmäßig, oft mindestens wöchentlich. Hauptgründe sind dabei das Überprüfen des eigenen Status, und das Sicherstellen der Funktion, obwohl das technisch nicht oder nicht mehr notwendig ist beziehungsweise zum Zeitpunkt der Umfrage nicht ausdrücklich empfohlen wurde. Beides ist zudem bei Personen mit höherer Corona‐Sorge stärker ausgeprägt und nimmt insgesamt zu, wenn in räumlicher oder sozialer Nähe das Risiko steigt.
Altruistische Gründe bei der Nutzung
Die Gründe für die Nutzung der App sind vor allen Dingen altruistisch: Die Nutzenden wollen einen Beitrag dazu liefern, die Pandemie zu beenden. Nachgeordnet, aber noch deutlich erkennbar ist der Grund, das eigene Umfeld zu schützen. Deutlich geringer, aber ebenfalls noch zustimmend ist der Selbstschutz angegeben worden, obwohl dies objektiv keine Funktion der App ist. Die Wirkweise der App wird möglicherweise – auch wenn sie vielen im Grundsatz klar ist – von einem deutlichen Anteil der Nutzenden nicht vollständig verstanden.
Nicht-Nutzung der Corona-Warn-App
Die Forscher konnten vier Hauptgründe für das Nicht‐Nutzen der Corona‐Warn‐App ermitteln. An erster Stelle stehen Datenschutzbedenken. Nahezu gleichauf sind Zweifel am Sinn der App sowie technische Probleme. Schließlich werden auch Probleme genannt, die sich allgemein unter User Experience zusammenfassen lassen, und die widerspiegeln, dass die Nutzenden den Umgang mit der App nicht angenehm finden. Weniger relevant, aber doch sichtbar in den Ergebnissen, waren Gleichgültigkeit sowie grundsätzliche Zweifel an der Gefahr durch Corona.
Eingeben eines positiven Testergebnisses
Auffallend ist, dass ein deutlicher Anteil der Nutzenden unsicher war, ob sie die App zum Eingeben von Testergebnissen öffnen würden. Unklar bleibt hier, ob lediglich eine Unkenntnis darüber herrscht, ob und wie Testergebnisse in der App eingegeben werden, oder ob es ein Misstrauen darüber ist, ein Testergebnis eingeben zu wollen.
Folgerungen aus der Studie
Aus der Studie kann man zwei mögliche, sich ergänzende Folgerungen ziehen:
1. Zum einen lässt sich vermuten, dass die Nutzenden mit der Corona‐Warn‐App interagieren wollen, und sie nicht ausschließlich als rein passive Hintergrund‐App auf dem
Handy laufen lassen wollen.
2. Zum anderen wird möglicherweise die Funktion der App nicht ausreichend verstanden, so dass es zu Zweifeln an der Sinnhaftigkeit und an ihrem Datenschutzkonzept kommt.
In einer nun folgenden, detaillierten Analyse untersucht OFFIS, welche Zusammenhänge es zwischen den verschiedenen Ansichten gibt. Die Wissenschaftler*innen hoffen, so Hinweise zu erhalten, wie die Corona-Warn-App so gestaltet werden kann, dass sie auf eine höhere Akzeptanz und sinnvollere Nutzung trifft.
Die komplette Dokumentation der Studienergebnisse wurde von OFFIS vorab auf arxiv.org veröffentlicht und ist hier verfügbar: http://arxiv.org/abs/2011.11317
Weiterführende Informationen
Diese Studie wurde im Rahmen des Projektes PANDIA (http://www.pandia-projekt.de/), einem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt durchgeführt (FKZ: 16SV8397). Die Studie ist unabhängig von den Herausgebern der Corona Warn‐App, insbesondere dem Robert‐Koch‐Institut, der SAP AG, und der Telekom.
Die Wissenschaftler*innen des Informatikinstituts OFFIS arbeiten seit vielen Jahren an vielfältigen technischen Lösungen im Gesundheitsweisen. Ein großer Bereich sind dabei sogenannte intelligente Nutzungsschnittstellen, denn aus Sicht der OFFIS Forscher*innen sollen neuste Technologie möglichst leicht nutzbar sein.
Die komplette Dokumentation der Studienergebnisse wurde von OFFIS vorab auf arxiv.org veröffentlicht und ist hier verfügbar. http://arxiv.org/abs/2011.11317
Über: OFFIS – Institut für Informatik
OFFIS ist ein 1991 gegründetes, international ausgerichtetes, anwendungsorientiertes Forschungs- und Entwicklungsinstitut für Informatik mit Sitz im niedersächsischen Oldenburg. In durchschnittlich 70 laufenden Projekten leistet OFFIS mit seinen über 300 Mitarbeiterinnen und Mitarbeitern aus rund 25 Nationen Forschung und prototypische Entwicklungsarbeit auf höchstem internationalem Niveau in den Forschungsbereichen Energie, Gesundheit, Produktion und Verkehr. Dabei kooperiert OFFIS mit weltweit über 700 Partnern aus Wirtschaft und Wissenschaft.
In allen Forschungsbereichen des OFFIS wirken unsere Wissenschaftler*innen mit in unterschiedlichsten Gremien, Ethik-Kommissionen, erarbeiten Studien, Roadmaps und geben Empfehlungen aus – auf nationaler und internationaler Ebene.
Der Forschungsbereich Gesundheit des OFFIS ist heute die größte außerklinische Gesundheitsinformatik in Deutschland und trägt maßgeblich zur Stärkung der Gesundheitswirtschaft im Nordwesten bei. Informationstechnologien für das Gesundheitswesen und die Medizin, wie das Epidemiologische Krebsregister Niedersachsen und die maßgebliche Beteiligung an der Entwicklung des internationalen medizinischen Bildkommunikationsstandards DICOM sind nur zwei der zahlreichen Beispiele für erfolgreiche Arbeiten des Bereichs.
http://www.offis.de
Über infas 360:
infas 360 ist eine Tochtergesellschaft der infas Holding AG. Ziel des Unternehmens ist die Erfassung, Analyse und Aufbereitung von Daten aus verschiedenen Quellen. Dazu gehören Geodaten, frei verfügbare Marktdaten, Kundendaten von Auftraggebern und Daten aus eigenen Marktforschungsprojekten.
infas 360 besteht aus einem Team von interdisziplinär arbeitenden Experten aus den Gebieten der Marktforschung und Statistik, der Geoinformatik und der Betriebswirtschaftslehre. Das Team verfügt über ein jahrelang gewachsenes Know-how bei der Beschaffung und Bewertung von amtlichen sowie gewerblichen Daten, in der empirischen Marktforschung, dem Handling umfassender Datenmengen und der Anwendung komplexer Analyseverfahren zur Datenstrukturierung, -komprimierung und -auswertung. Darüber hinaus besteht innerhalb der infas Holding AG eine enge Zusammenarbeit mit dem infas Institut für angewandte Sozialwissenschaft.
Kontakt infas 360:
Julia Kroth
Consultant, Research & Analytics
E-Mail: J.Kroth@infas360.de
Telefon: +49 (0)228/74887-376
infas 360 GmbH, Ollenhauerstraße 1, D-53113 Bonn
https://infas360.de/
Wissenschaftliche Ansprechpartner:
Dr. Jochen Meyer, Bereichsleiter Gesundheit
OFFIS – Institut für Informatik, Escherweg 2, 26121 Oldenburg
E-Mail: meyer@offis.de, Tel. 0441-9722-185
Originalpublikation:
http://arxiv.org/abs/2011.11317
Quelle: IDW
(nach oben)
Biobasierte Autokarosserie für die Straßenzulassung rückt in greifbare Nähe
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Biowerkstoffe sind ein wichtiger Baustein bei der Umsetzung der Nationalen Bioökonomiestrategie
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert seit Oktober die Entwicklung einer Auto-Karosserie mit einem hohen Anteil nachwachsender Rohstoffe. Forscher des Fraunhofer-Instituts für Holzforschung, Wilhelm-Klauditz-Institut WKI und der HOBUM Oleochemicals GmbH wollen einen Bioverbundwerkstoff aus Pflanzenfasern und pflanzenölbasierten Harzsystemen entwickeln, der industriell zu Karosseriebauteilen verarbeitet werden kann. Mit dem Bioconcept-Car als Testmodul optimieren sie die technische Performance der Bauteile bis zur serienreifen Straßenzulassung.
Über das Förderprogramm Nachwachsende Rohstoffe unterstützt das BMEL seit einigen Jahren die Entwicklung biobasierter Werkstoffe im Karosseriebau. Jetzt startete das dreijährige Verbundprojekt „Biobasierte Harze für die serielle Verarbeitung faserverstärkter Bauteile (BioResinProcess)“. Lag der Fokus der Förderung bisher vor allem auf den Naturfasern, richtet sich der Blick nun verstärkt auf biobasierte Harzsysteme.
BioResinProcess knüpft nahtlos an das im Sommer 2020 abgeschlossene Förderprojekt „Nachhaltiger Biohybrid-Leichtbau für eine zukunftweisende Mobilität“ an. Dort ist erstmals die Serienfertigung eines Karosseriebauteils aus naturfaserverstärkten Werkstoffen gelungen. Im Folgeprojekt soll der Bioanteil der Bauteile auf mindestens 85 % erhöht und ihre Verarbeitung mit dem RTM (Resin-Transfer-Moulding)-Verfahren optimiert werden. Weitere Stationen in der industriellen Fertigung sind die Oberflächenbearbeitung und die abschließende Lackierung. Für beide Schritte werden geeignete biobasierte Lösungen gesucht.
Das Ziel ist, ein Serienbauteil aus biobasierten Verbundwerkstoffen im Hinblick auf die Anforderungen einer Straßenzulassung zu konzipieren. Ein besonderer Reiz dieses Projekts liegt in der Zusammensetzung der Partner. Mit dem Fraunhofer WKI und mit der HOBUM GmbH sind für die Werkstoffseite die anwendungsnahe Forschung und ein industrieller Partner vertreten. Die Automobilbranche ist mit der Porsche AG, die als assoziierter Partner ihr technisches Knowhow einbringt, direkt beteiligt. Eine hohe Aufmerksamkeit sowohl in der Automobilbranche als auch der breiten Öffentlichkeit entsteht durch das Rennteam Four Motors, das die entwickelten Karosseriebauteile unter realen Bedingungen testet und mit seinem Promifahrer, dem Musiker Smudo, die mediale Berichterstattung befeuert.
Parallel zum Ziel einer Straßenzulassung arbeiten die Partner an der Steigerung des Anwendungspotenzials von Bioverbundwerkstoffen. Bioverbundwerkstoffe sind nicht nur im Automobilbau gefragt, vielmehr setzen verschiedene Industriebereiche große Hoffnung auf diese innovativen Materialien, die einen preisgünstigen Leichtbau ermöglichen.
Damit knüpft das Forschungsprojekt BioResinProcess an die Nationale Bioökonomiestrategie der Bundesregierung an. Mit Karosseriebauteilen aus nachwachsenden Rohstoffen lässt sich anschaulich darstellen, wie der Umbau zu einer nachhaltigen, kreislauforientierten Wirtschaft auf Basis biogener Rohstoffe funktionieren kann. Darüber hinaus verdeutlicht der Einsatz von Pflanzenfasern und Pflanzenölen für die Herstellung von Bioverbundwerkstoffen die wichtige Rolle der Land- und Forstwirtschaft als Rohstoffproduzent und –lieferant. Um die Potenziale biogener Rohstoffe erschließen können, wird allerdings noch eine Forschungsförderung, wie sie das Förderprogramm Nachwachsende Rohstoffe des BMEL leistet, gebraucht.
Zugehörige Links:
Verbundvorhaben: Biobasierte Harze für die serielle Verarbeitung faserverstärkter Bauteile (BioResinProcess)
Teilvorhaben 1: Materialentwicklung und Prozessanpassung (https://www.fnr.de/index.php?id=11150&fkz=2220NR094A)
Teilvorhaben 2: Entwicklung biobasierter Härter für Epoxidharze auf Basis von pflanzlichen Ölen (https://www.fnr.de/index.php?id=11150&fkz=2220NR094B)
Nationale Bioökonomiestrategie (https://www.bmel.de/SharedDocs/Downloads/DE/Broschueren/nationale-biooekonomiest…)
BMEL-Pressemeldung Nationale Bioökonomiestrategie (https://www.bmel.de/SharedDocs/Pressemitteilungen/DE/2020/006_biooekonomiepoliti…)
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Dr. Gabriele Peterek
Tel.: +49 3843 6930-119
Mail: g.peterek@fnr.de
Quelle: IDW
(nach oben)
Diagnostik im Gesundheitssport
SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. habil. Michael Tiemann der SRH Hochschule für Gesundheit publiziert Beitrag zu diagnostischen Verfahren im Bereich des vereinsbezogenen Gesundheitssports.
Seit Jahren finden diagnostische Verfahren vor allem im Leistungs- und Hochleistungssport und Trainingssteuerung Anwendung. Seit einiger Zeit haben sich solche Verfahren jedoch auch zunehmend im Gesundheits- und Fitnesssport etabliert. „Durch ihren Einsatz sollen insbesondere vermeidbare individuelle Gesundheitsrisiken ausgeschlossen, die Belastungssteuerung optimiert und die Erreichung der anvisierten Gesundheits- und Verhaltenswirkungen überprüft werden. Der zunehmende Einsatz von Maßnahmen zur Diagnostik und Qualitätssicherung steht dabei auch in engem Zusammenhang mit den gestiegenen Qualitätsanforderungen an Gesundheitssportprogramme als förderungswürdige Leistung nach § 20 SGB V durch die gesetzlichen Krankenkassen“, weiß Prof. Dr. habil. Michael Tiemann, Professor für Sportwissenschaften, dessen Publikation mit dem Titel „Diagnostik im Bereich des Gesundheitssports im Setting Sportverein“ nun in der Zeitschrift „B&G Bewegungstherapie und Gesundheitssport“ (Ausgabe 5 / 2020) erschienen ist. Seitens des Deutschen Turner Bundes (DTB) wird den Vereinen insbesondere die Durchführung eines Risikochecks (PAR-Q) sowie der Einsatz von motorischen Tests wie der „2 km-Walking Test“ oder das „European Test Profile“ empfohlen. Diese beiden Verfahren werden in dem Beitrag näher betrachtet und im Hinblick auf ihre Anwendbarkeit in der Vereinspraxis überprüft.
Prof. Dr. habil. Michael Tiemann kommt abschließend zu dem Ergebnis, dass Sportvereine routinemäßig Eingangsdiagnosen und Verlaufskontrollen durchführen sollten. Hierzu bedarf es der Entwicklung und Einführung eines ohne größere Hürden einsetzbaren (Basis-)Assessments sowie der Erstellung praxistauglicher Arbeits- und Umsetzungshilfen für Vereine und Übungsleiter*innen“, ergänzt Prof. Dr. habil. Michael Tiemann.
Prof. Dr. habil. Michael Tiemann ist seit Januar 2016 Professor für Sportwissenschaften im ausbildungsintegrierenden Bachelorstudiengang Physiotherapie am Campus Leverkusen der SRH Hochschule für Gesundheit. Weiterhin ist er seit 2018 Beisitzer im Vorstand des Deutschen Walking Instituts (DWI) sowie Mitglied des Exekutivkomitees
der International Sport and Culture Association (ISCA).
Wissenschaftliche Ansprechpartner:
Prof. Dr. habil. Michael Tiemann
Professor für Sportwissenschaften,
Studiengang Physiotherapie, B. Sc.
E-Mail: michael.tiemann@srh.de
Campus Leverkusen
Telefon: + 49 2171 74382-01
Originalpublikation:
„B&G Bewegungstherapie und Gesundheitssport“ (Ausgabe 5 / 2020)
Quelle: IDW
(nach oben)
Der Nordatlantik verändert sich, aber die Zirkulation ist stabil
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Im Zuge des Klimawandels verändern sich auch Eigenschaften des Nordatlantiks wie Sauerstoffgehalte, Temperaturen oder Salzgehalte – und zwar bis in große Tiefen. Doch ändert sich damit auch die Ozeanzirkulation? Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zeigen in einer neuen Studie, dass trotz tiefgreifender Veränderungen der inneren Eigenschaften des Ozeans die Zirkulation seit den 1990er Jahren stabil geblieben ist. Diese Ergebnisse wurden jetzt in der internationalen Zeitschrift Science Advances veröffentlicht.
Der Golfstrom wird oft als Fernheizung Europas bezeichnet, weil er Wärmeenergie quer über den Atlantik bis vor die britischen Inseln und in die Norwegische See transportiert. Streng genommen ist der Golfstrom aber nur Teil eines größeren Strömungssystems, das in der Fachsprache als Atlantische Meridionale Umwälzzirkulation (Atlantic Meridional Overturning Circulation, AMOC) bezeichnet wird. Sie besteht hauptsächlich aus einem an der Oberfläche nach Norden fließenden Abschnitt, der warm und salzhaltig ist und zu dem der Golfstrom gehört, und einem in der Tiefe des Nordatlantiks nach Süden fließenden Abschnitt, der relativ kalt und salzarm ist.
Messungen im Nordatlantik ergeben schon seit Jahren deutliche Veränderungen der Wassereigenschaften, zum Beispiel eine Erwärmung des oberen Ozeans, eine rekordverdächtige Versüßung des subpolaren Nordatlantiks sowie Schwankungen des Sauerstoffgehalts. Bisher ging die Forschung davon aus, dass diese Veränderungen eng mit Änderungen in der AMOC verbunden sein müssten.
Wissenschaftler*innen des South China Sea Institute of Oceanology der Chinesischen Akademie der Wissenschaften, des Georgia Institute of Technology (USA) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel haben diese Annahme nun in einer umfassenden Datenstudie überprüft. „Die Ergebnisse deuten darauf hin, dass Zirkulationsänderungen und Veränderungen der Eigenschaften des Ozeaninneren möglicherweise in sehr unterschiedlichem Tempo ablaufen“, fasst der Ozeanograph Dr. Johannes Karstensen vom GEOMAR die Ergebnisse zusammen. Sie sind heute in der internationalen Fachzeitschrift Science Advances erschienen.
Aussagen zu Veränderungen der AMOC über mehrere Jahrzehnte hinweg sind bislang schwierig. Es gibt Netze fest installierter Ozeanobservatorien an Schlüsselpositionen der Zirkulation. Doch ihre Messreihen reichen nicht weit genug in die Vergangenheit zurück, um robuste Aussagen über Langzeit-Veränderungen zu treffen. Es existieren aber Einzelaufnahmen der Zirkulation und der hydrographischen Eigenschaften des Meerwassers, die mit Forschungsschiffen bei Atlantiküberquerungen erfasst wurden. „Diese schiffsbasierten Daten bieten uns die einzigartige Gelegenheit, gleichzeitig hydrographische und AMOC-Änderungen im Nordatlantik in den letzten drei Jahrzehnten zu untersuchen“, erklärt Dr. Karstensen. Hydrographische Erhebungen messen im Wesentlichen Meerwassereigenschaften wie Temperatur und Salzgehalt sowie gelösten Sauerstoff.
Für die aktuelle Studie haben die Beteiligten Daten von Forschungsreisen aus dem subtropischen und dem subpolaren Nordatlantik zusammen mit Satellitendaten, beckenweiten Messnetz-Beobachtungen und Modelldaten verwendet. Sie stellten fest, dass nicht nur die Wassermassen von der Oberfläche bis etwa 2000 Meter Wassertiefe über den Untersuchungszeitraum deutliche Schwankungen der Temperatur, des Salzgehalts und des gelösten Sauerstoffs erfahren haben, sondern dass auch das Wasser in größerer Tiefe im vergangenen Jahrzehnt eine signifikante Versalzung, Anzeichen einer Erwärmung und größtenteils eine Abnahme des Sauerstoffs aufweist. Gleichzeitig sind aber keine Veränderungen des AMOC-Zustands sowohl im subpolaren als auch im subtropischen Nordatlantik zwischen den 1990er und 2010er Jahren zu erkennen. „Offenbar verändern sich Wassereigenschaften und die Umwälzzirkulation also unterschiedlich“, sagt Dr. Karstensen.
Neben dem eigentlichen Ergebnis unterstreiche die Studie die Notwendigkeit kontinuierlicher und kombinierter hydrographischer Datenerhebung über ganze Ozeanbecken, die langfristige Ozeanbeobachtung mit Messnetzen und die Verbesserung von Modellen, betont der Kieler Ozeanograph: „Nur so können wir die Zusammenhänge zwischen hydrographischen und Zirkulationsveränderungen in der Zukunft umfassend erfassen. Insbesondere sind wir dem globalen GO-SHIP Programm dankbar, das die von Forschungsschiffen erhobenen Daten in nachvollziehbarer Qualität für alle Interessierten öffentlich zur Verfügung stellt.“
Originalpublikation:
Fu, Y., F. Li, J. Karstensen und C. Wang (2020): A stable Atlantic Meridional Overturning Circulation in a changing North Atlantic Ocean since the 1990s. Science Advances, 6, https://doi.org/10.1126/sciadv.abc7836.
Quelle: IDW
(nach oben)
Wo das Coronavirus im Darm andockt
Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Weltweit haben sich bereits mehr als 55 Millionen Menschen mit dem Coronavirus infiziert, das bislang 1,3 Millionen Todesopfer gefordert hat. Bei den meisten an COVID-19 erkrankten Patienten stehen zwar respiratorische Symptome im Vordergrund, kann aber auch andere Organe in Mitleidenschaft ziehen. Häufig handelt es sich dann um den Magen-Darm-Trakt. Ein Team um Prof. Dr. Christoph Becker von der Medizinischen Klinik 1 – Gastroenterologie, Pneumologie und Endokrinologie des Universitätsklinikums Erlangen hat gemeinsam mit Kollegen der Charité – Universitätsmedizin Berlin herausgefunden, dass sich die Andockstellen des Coronavirus in besonders hoher Dichte auf der Darmoberfläche befinden.
Bei einer Infektion mit Sars-CoV-2 heften sich die Viren an die Oberfläche der Wirtszellen an. Dies geschieht über bestimmte Oberflächenmerkmale, sogenannte Rezeptoren. Nach der Bindung der Virushülle an den ACE2-Rezeptor spaltet das körpereigenes Enzym TMPRSS2 ein virales Protein, wodurch der Eintritt in die Wirtszelle erfolgen kann. Diese wird daraufhin vom Virus dazu verwendet, die Bestandteile für weitere Viren zu produzieren. Sind sie in ausreichender Menge hergestellt worden, können die Viren aus der Wirtszelle ausbrechen und wiederum andere Zellen infizieren. Aufgrund der Bedeutung von ACE2 und TMPRSS2 für das Eindringen von Sars-CoV-2 in die Zelle stellen die beiden Moleküle potenzielle Ansatzpunkte für ein wirksames Medikament gegen das Coronavirus dar.
Darmschleimhaut als Zielscheibe
Die Erlanger und Berliner Forscher haben nun entdeckt, dass bestimmte Zellen der Darmschleimhaut, sogenannte Enterozyten, bei gesunden Menschen hohe Konzentrationen von ACE2 und TMPRSS2 aufweisen und somit Zielzellen des Coronavirus sein können. Die Wissenschaftler fanden außerdem heraus, dass Patienten mit Darmentzündungen weniger ACE2-Rezeptoren besitzen und dass sowohl ACE2 als auch TMPRSS2 ihre Lokalisation in den Enterozyten verändern. Das könnte bedeuten, dass der Darm von Patienten mit chronisch-entzündlichen Darmerkrankungen wie Morbus Crohn resistenter gegenüber Sars-CoV-2 ist als der Darm gesunder Menschen. „Allerdings stehen groß angelegte Studien zur Bedeutung der Infektion des Darms mit dem Coronavirus noch aus“, sagt Prof. Becker.
Die Forschungen ergaben zudem, dass die Bildung von ACE2 und TMPRSS2 auf der Zelloberfläche von außen beeinflusst werden kann. So führt etwa eine Stimulation der Zellen über bestimmte mikrobielle Signale und Botenstoffe des Immunsystems zu einer geringeren Ausschüttung von ACE2 im Darmepithel. „Unsere Erkenntnisse zeigen, dass die für eine Infektion mit Sars-CoV-2 notwendigen Moleküle auf der Zelloberfläche möglicherweise therapeutisch beeinflussbar sind“, so Dr. Jay Patankar, Erlanger Mitautor der Studie. Als Nächstes planen die Forscher Infektionsexperimente an Zellen, um diese These zu überprüfen.
Möglich wurde die Studie durch ein Forschungsnetzwerk zwischen der Friedrich-Alexander-Universität Erlangen-Nürnberg und der Charité – Universitätsmedizin Berlin. Beide Standorte sind deutschlandweit führend auf dem Gebiet der Darmforschung. In einem Sonderforschungsbereich untersuchen Wissenschaftler beider Städte gemeinsam entzündliche Erkrankungen des Darms. Herzstück des Sonderforschungsbereichs ist die gemeinsame Gewebebank „IBDome“, in der Proben des Darms von gesunden Probanden und Patienten mit Darmentzündungen gesammelt und analysiert werden. „Dank IBDome konnten wir in kürzester Zeit auf eine sehr große Zahl biologischer Proben zugreifen“, freut sich Prof. Becker. Die Forscher wollen nun gemeinsam herausfinden, welchen Einfluss das Coronavirus konkret auf den Darm und die Funktionen der dort vorhandenen Zellen hat.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Becker
Tel.: 09131 85-35886
christoph.becker@uk-erlangen.de
Originalpublikation:
10.1053/j.gastro.2020.10.021
Quelle: IDW
(nach oben)
Was Laubblätter im Herbst altern lässt
Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Forschende der ETH Zürich weisen bei europäischen Laubbäumen einen selbstregulierenden Mechanismus nach, der ihre Wachstumsphase begrenzt: Bäume, die im Frühling und Sommer mehr Photosynthese betreiben, werfen ihre Blätter im Herbst früher ab.
An seinem Lebensende leuchtet das Laub in prächtigen gelb-roten Farben: Es ist Herbst. Laubbäume in den gemässigten Zonen bereiten sich auf den nahenden Winter vor. Sie stellen das Wachstum ein und entziehen dem Laub die Nährstoffe. Die Blätter fallen allmählich ab und sterben. Dieser Alterungsprozess der Blätter wird Seneszenz genannt. Er markiert im phänologischen Zyklus der Bäume das Ende der Vegetationsperiode, in der sie CO2 aufnehmen und Photosynthese betreiben.
Mit der Klimaerwärmung hat sich die Vegetationsperiode in den vergangenen Jahrzehnten verlängert: Europäische Bäume treiben im Frühling rund zwei Wochen früher aus als noch vor hundert Jahren. Im Herbst fallen die Blätter heute gut sechs Tage später. Es wird allgemein erwartet, dass sich die Seneszenz in einem künftig wärmeren Klima weiter verspätet. Bäume könnten so mehr CO2 aus der Atmosphäre aufnehmen.
Forschende der ETH Zürich gelangen nun zu einem gegenteiligen Befund: In einer Studie im Fachmagazin Science weisen sie bei Laubbäumen einen selbstregulierenden Mechanismus nach, der die Vegetationsperiode begrenzt: Eine erhöhte Photosynthese im Frühjahr und Sommer lässt die Blätter im Herbst früher altern. Damit dürfte sich der herbstliche Blattfall in Zukunft wider Erwarten verfrühen – und nicht weiter verspäten.
Limitierte Senken als Seneszenztreiber
«Präzise Prognosen über die Wachstumssaison von Bäumen waren bislang kaum möglich, weil man die Ursachen der Blattseneszenz nicht genügend verstand», sagt Constantin Zohner, Studienleiter und Senior Scientist am Crowther Lab der ETH Zürich.
Bislang ging die Wissenschaft generell davon aus, dass hauptsächlich die abnehmende Temperatur und Tageslänge im Herbst den Zeitpunkt der Blattseneszenz bestimmen. Zwar gab es bereits verschiedene Hinweise, dass der Blattaustrieb im Frühling mit dem Blattfall im Herbst verbunden sein muss. «Weil die Mechanismen aber unklar waren, berücksichtigen phänologische Modelle solche Effekte bestenfalls teilweise», sagt der Biologe.
Zohner vermutete, dass das Bindeglied zwischen Frühling und Herbst mit der saisonalen Photosynthese zu tun haben könnte – genauer: mit dem Phänomen der limitierten Kohlenstoffsenke. Dabei begrenzen unter anderem knappe Bodennährstoffe wie etwa Stickstoff die CO2-Menge, die eine Pflanze während der Saison aufnehmen kann. Ist die maximale CO2-Menge erreicht, setzt die Blattalterung entsprechend früher ein.
Diese Rolle der Photosynthese bei der Steuerung der Blattseneszenz ist beispielsweise bei Getreide seit langem bekannt, wurde aber nie an Bäumen getestet. So machten sich die ETH-Forschenden daran, die Treiber des herbstlichen Blattfalls mit einem kombinierten Ansatz von Feldbeobachtungen, Laborversuchen und Modellierung zu ergründen.
Deutlicher Effekt detektiert
Die Basis der Studie bildeten Langzeitbeobachtungen von sechs europäischen Laubbaumarten während der letzten sechs Jahrzehnte. Anhand der Daten testete Zohners Team den relativen Einfluss verschiedener Faktoren auf den Zeitpunkt der Herbstseneszenz, darunter den Blattaustrieb im Frühling, die saisonale Photosynthese, CO2-Konzentration, Temperatur und Niederschlag.
Ergänzend führten die Forschenden eine Reihe von Experimenten mit jungen Bäumen in Klimakammern und im Freien durch. So konnten sie Temperatur, Tageslicht und CO2-Gehalt variieren und die jeweiligen Effekte auf Photosynthese und Blattseneszenz untersuchen.
Tatsächlich offenbarten die Baumbeobachtungen einen deutlichen Einfluss der saisonalen Photosynthese: Bei allen untersuchten Arten trat in den Jahren mit erhöhter Photosynthese im Frühjahr und Sommer auch die Seneszenz im Herbst früher ein, wobei eine zehn Prozent höhere Aktivität die Blattalterung um acht Tage vorzog. Die Experimente stützten den Befund aus den Beobachtungen.
Mechanik des Herbstes modelliert
«Unsere Analysen legen nahe, dass die saisonale Photosynthese, die Herbsttemperatur und die Tageslänge primäre Treiber der Seneszenz sind», sagt Erstautorin Deborah Zani. Anders die restlichen Faktoren: «CO2-Gehalt, Sommertemperaturen, Lichtstärke und Niederschlag beeinflussen zwar die Photosynthese ganz direkt, wirken sich aber nur indirekt auf die Herbstseneszenz aus», erklärt sie das Zusammenspiel der Kräfte.
Wärmere Herbste verzögern die Seneszenz tendenziell. Doch steigende CO2-Konzentration, wärmere Sommerperioden und ein früherer Blattaustrieb erhöhen zusehends die Photosynthese im Frühling und Sommer. Dadurch füllen sich die limitierten Kohlenstoffspeicher – sind sie vorzeitig gesättigt, verfrüht das die Seneszenz, was der Verzögerungstendenz aufgrund höherer Herbsttemperaturen entgegen wirkt.
Zani und Zohner entwickelten ein neues Modell der Herbstphänologie, das alle Faktoren nach ihrem relativen Gewicht berücksichtigt. Dieses vermag den Zeitpunkt der Seneszenz der letzten sechs Jahrzehnte um bis zu 42 Prozent präziser zu datieren als frühere Modelle.
Zudem kehrt es deren Prognosen um: Bis anhin erwartete man, dass die Seneszenz bis Ende Jahrhundert zwei bis drei Wochen später auftritt. «Unser neues Modell legt das Gegenteil nahe: Wenn die Photosynthese weiter steigt, werden die Blätter im Lauf des Jahrhunderts um drei bis sechs Tage früher als heute altern – und nicht später», erklärt Zani. Das bedeutet, dass sich die Wachstumssaison bis Ende des Jahrhunderts nur um 8 bis 12 Tage verlängern wird. «Das ist rund zwei bis drei Mal weniger als bisher gedacht», ergänzt Zani. Sie war im Rahmen ihrer Masterarbeit am Crowhter Lab massgeblich an Datenanalyse und Modellierung beteiligt.
Saisondauer beeinflusst Kohlenstoffbilanz
Für ihre Forschung verwendeten die Wissenschaftler Daten des Pan European Phenology Project. Insgesamt werteten sie 434’000 phänologische Beobachtungen an 3800 Standorten in Mitteleuropa im Zeitraum von 1948 bis 2015 aus. Untersucht wurden sechs repräsentative Arten: Gewöhnliche Rosskastanie, Hänge-Birke, Rotbuche, Europäische Lärche, Stieleiche und Vogelbeerbaum.
Die Autoren verstehen ihre Studie als weiteren Hinweis darauf, dass Wälder der gemässigten Zone begrenzt CO2 aufnehmen könnten: «Die CO2-Aufnahme wird mit steigenden Temperaturen wahrscheinlich weniger stark ansteigen, als ältere Modelle voraussagten», sagt Zohner. Die Forschenden wollen nun besser verstehen, wie verbreitet limitierte Kohlenstoffsenken in den Wäldern der Erde sind.
Wissenschaftliche Ansprechpartner:
Constantin Zohner (constantin.zohner@usys.ethz.ch)
Originalpublikation:
https://ethz.ch/de/news-and-events/eth-news/news/2020/11/was-laubblaetter-im-her…
Quelle: IDW
(nach oben)
Neues Bonner Netzwerk stärkt Kompetenzen für nachhaltige Lösungen der Wasserprobleme weltweit
Tanja Vogel Stabsstelle Kommunikation
Deutsches Institut für Entwicklungspolitik (DIE)
Gemeinsame Pressemitteilung des Internationalen Konversionszentrums Bonn (BICC), des German Development Institute/ Deutsches Institut für Entwicklungspolitik (DIE), des Geographischen Instituts der Universität Bonn (GIUB), des Zentrums für Entwicklungsforschung (ZEF), der Universität Bonn, des International Water Management Institute (IWMI), des Instituts der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und des Sekretariats der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD) zum Start des Bonn Water Network am 17. November 2020.
Digitale Launch-Veranstaltung am 17. November 2020
2,1 Milliarden Menschen haben keinen Zugang zu sauberem Trinkwasser und mehr als 4,5 Milliarden haben keine sicheren sanitären Einrichtungen. In vielen Ländern bedroht die zunehmende Wasserknappheit die Ernährungssicherheit und die Energieproduktion, oder führt zu Konflikten. Seit 15 Jahren teilen sieben in Bonn ansässige Organisationen im Rahmen ihrer Vortragsreihe „Water Lecture“ ihre Erkenntnisse zu Lösungsansätzen für Wasserprobleme.
Heute gehen diese Institutionen noch einen Schritt weiter und gründen das „Bonn Water Network“, um ihre Bemühungen um eine nachhaltige Wasserzukunft zu koordinieren und zu intensivieren. Stefan Wagner, Leiter des Amts für Internationales und globale Nachhaltigkeit der Stadt Bonn, zeigt sich erfreut über die Gründung: „Das Bonn Water Network trägt dazu bei, Bonns Status als Drehscheibe für internationale Zusammenarbeit, nachhaltige Entwicklung und Innovation zu stärken und wird auch selbst davon profitieren.“
Das Netzwerk besteht aus sieben renommierten Institutionen mit langjähriger Erfahrung zu Wasser und verwandten Themen: dem Internationalen Konversionszentrum Bonn (BICC); dem Deutschen Institut für Entwicklungspolitik (DIE), der Universität Bonn mit dem Geographischen Institut (GIUB), das den UNESCO-Lehrstuhl ‚Human Water Systems‘ innehat, und dem Zentrum für Entwicklungsforschung (ZEF); dem International Water Management Institute, (IWMI) und zwei UN-Institutionen, dem Institut der Vereinten Nationen für Umwelt und menschliche Sicherheit (UNU-EHS) und dem Sekretariat der Konvention der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD).
Die Mitglieder des Netzwerks befassen sich weltweit mit unterschiedlichen Herausforderungen zum Thema Wasser und tragen gemeinsam mit Partnern in Wissenschaft und Praxis dazu bei, umweltfreundliche und sozial angemessene Lösungen zu finden. „So untersuchen wir beispielsweise, wie grenzüberschreitende Zusammenarbeit in Afrika zu einer besseren Nutzung von Wasser für Energie und Landwirtschaft beitragen kann. Wir unterstützen politische Entscheidungsträger und Interessenvertreter weltweit bei der Minderung des Dürrerisikos, und unsere Modelle simulieren, wie und wo sich der Klimawandel auf die Wasserressourcen in Nepal und Indien auswirkt. Das Netzwerk trägt auch dazu bei, Lösungen für Konflikte um Wasser und für nachhaltiges Wassermanagement in Jordanien, Marokko und der Mongolei, sowie klimasensitive Anpassungsstrategien zur Verringerung der Überschwemmungsrisiken in Togo und Benin zu entwickeln“, sagt Dr. Annabelle Houdret, Sprecherin des Bonn Water Network.
Die Online-Veranstaltung am 17. November 2020 umfasste die folgenden Beiträge:
Einführung in das Bonn Water Network, Dr. Annabelle Houdret, DIE, Sprecherin des Bonn Water Network
Begrüßungsworte von Stefan Wagner, Leiter des Referats für Internationale Angelegenheiten und Globale Nachhaltigkeit der Stadt Bonn
Kurze Videobotschaften der Mitgliedsinstitutionen des Bonn Water Network
Begrüßung durch Prof. Dr. Jakob Rhyner, Wissenschaftlicher Direktor der Bonner Allianz für Nachhaltigkeitsforschung/ Innovations- Campus Bonn (ICB).
PPodiumsdiskussion und öffentliche Debatte: ‚Das Bonner Water Network: Kompetenzen für eine nachhaltige Wasserzukunft‘.
Mitglieder des Netzwerks stellen ihre Beiträge zur Lösung von Wasserproblemen vor: Zu grenzüberschreitendem Wassermanagement in Togo und Benin, zu nachhaltigem Wasser- und Landmanagement in Subsahara und Nordafrika, zur Umsetzung von Ziel 6 der globalen Ziele für Nachhaltige Entwicklung (Sauberes Wasser und sanitäre Einrichtungen) vor dem Hintergrund des Wettbewerbs um Grundwasser in Jordanien und zur Klimaresilienz in Asien.
Moderatorin: Dr. Luna Bharati, IWMI und ZEF, Co-Sprecherin des Netzwerks.
Schlusswort von Dr. Luna Bharati.
Wir freuen uns darauf, Sie online begrüßen zu dürfen!
Anmeldung:
Bitte melden Sie sich für die Veranstaltung per E-Mail bei Frau Claudia Klama an. Nach Ihrer Anmeldung erhalten Sie den Link zur Veranstaltung: claudia.klama@die-gdi.de
Wissenschaftliche Ansprechpartner:
Sprecherin des Bonn Water Network: Dr. Annabelle Houdret (DIE): Annabelle.houdret@die-gdi.de
Stellv. Sprecherin: Dr. Luna Bharati (IWMI/ZEF): L.bharati@CGIAR.ORG
Originalpublikation:
https://www.die-gdi.de/presse/pressemitteilungen/2020/neues-bonner-netzwerk-stae…
Weitere Informationen:
https://www.die-gdi.de/en/events/details/connecting-competences-for-sustainable-…
Quelle: IDW
(nach oben)
Macht Angeln glücklich? – Europas größte Angelumfrage gestartet
Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Das Rostocker Thünen-Institut für Ostseefischerei hat im Auftrag des Bundesministeriums für Ernährung und Landwirtschaft eine deutschlandweite Studie zum Thema Angeln gestartet. Hierfür werden 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt. Die Studie soll dabei helfen, die Nutzung der Fischbestände, die Rolle des Angelns in der Gesellschaft und seine wirtschaftliche Bedeutung besser zu verstehen.
Gehen Sie Angeln? Diese Frage könnte Ihnen in den nächsten Monaten am Telefon gestellt werden. Weltweit angeln über 220 Millionen Menschen in ihrer Freizeit. Auch in Deutschland ist das Angeln beliebt: Gerade in der heutigen Zeit scheinen viele Deutsche sich nach einem naturnahen Hobby zu sehnen, um dem Alltagsstress zu entfliehen. Doch bisher ist sehr wenig über das Angeln in Deutschland bekannt. Dabei gehören Anglerinnen und Angler zur größten Nutzergruppe von Seen, Flüssen und Meeren.
Was macht den Reiz des Angelns aus? Wie viele Anglerinnen und Angler gibt es in Deutschland? Welche Fische fangen sie und wie viele? Diese und weitere Fragen will das Forschungsteam um Dr. Harry Strehlow vom Rostocker Thünen-Institut für Ostseefischerei im Rahmen der Studie „Angeln in Deutschland“ beantworten. Zusammen mit dem Berliner Markt- und Sozialforschungsinstitut USUMA werden hierfür in den nächsten Monaten 150.000 zufällig ausgewählte Haushalte in ganz Deutschland telefonisch befragt, um ein repräsentatives Abbild der Anglerinnen und Angler in der deutschen Bevölkerung zu erstellen. Damit ist dies die bisher größte Befragung ihrer Art in Europa und eine der größten weltweit.
Die während des Telefoninterviews angetroffenen Anglerinnen und Angler werden zunächst zu verschiedenen Aspekten des Angelns befragt. Anschließend werden alle interviewten Personen dazu eingeladen, an einer Tagebuch-Studie teilzunehmen. Für die kommenden zwölf Monate sollen sie ihre Angelerlebnisse dokumentieren, um den Forschern Einblicke in ihr Angelverhalten zu gewähren.
Ziel der Studie ist, die Nutzung der Gewässer und Fischbestände besser zu verstehen, sowie die wirtschaftliche und gesellschaftliche Bedeutung des Angelns in Deutschland nachzuvollziehen. Die gewonnenen Erkenntnisse sollen als Grundlage für die Entwicklung einer nachhaltigen Angelfischerei in Binnen- und Meeresgewässern dienen. Mit ersten Zwischenergebnissen rechnet das Team um Harry Strehlow Ende 2021.
Die Teilnahme an der Befragung ist freiwillig und anonym. Die Studie verfolgt keine kommerziellen Ziele, sondern dient ausschließlich dem wissenschaftlichen Erkenntnisgewinn.
Weitere Informationen: http://www.thuenen.de/dmap
Wissenschaftliche Ansprechpartner:
Dr. Harry Strehlow
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 107
E-Mail: harry.strehlow@thuenen.de
Weitere Informationen:
http://www.thuenen.de/dmap – Infos zum Deutschen Meeresangelprogramm
Quelle: IDW
(nach oben)
Hohe Mobilität verschlechtert die Work-Life-Balance
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Der Fernpendler, die Übersetzerin im Homeoffice, die Handlungsreisende oder der Paketbote haben eines gemeinsam: Sie verbringen einen großen Teil ihrer arbeitsbezogenen Zeit nicht in ihrem Unternehmen. Der Bericht „BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin veröffentlicht hat, nimmt die verschiedenen Aspekte arbeitsbezogener räumlicher Mobilität unter die Lupe. Dabei sind die untersuchten Formen der Mobilität mit zum Teil sehr unterschiedlichen Chancen und Risiken verbunden. Alle zeigen jedoch, dass sich bei hoher Mobilität die Vereinbarkeit von Beruf und Privatem erschwert.
Arbeitszeitbefragung 2017 zu arbeitsbedingter Mobilität ausgewertet
Auf Datenbasis der BAuA-Arbeitszeitbefragung 2017 skizziert der Bericht die Verbreitung von vier unterschiedlichen Mobilitätsformen „Pendeln“, „Telearbeit“, „Dienstreisen“ sowie „wechselnde und mobile Arbeitsorte“. Zudem betrachtet er potenziell beeinträchtigende und förderliche Arbeitsbedingungen, die damit einhergehen. Zusätzlich werden Zusammenhänge der Mobilitätsformen mit Aspekten von Work-Life-Balance, Erholung und Gesundheit beleuchtet.
Die Anforderungen an die Flexibilität steigt für die Beschäftigten in Deutschland, zeigt auch der Stressreport 2019 der BAuA. Immerhin verbringen rund 7 Prozent der Beschäftigten täglich mehr als zwei Stunden auf dem Weg zwischen ihrem Arbeitsplatz und ihrem Zuhause. 36 Prozent der Beschäftigten machen Dienstreisen und 28 Prozent übernachten berufsbedingt auswärts. Bei 25 Prozent der Beschäftigten ist Mobilität Teil der Arbeitstätigkeit. Sie arbeiten hauptsächlich an wechselnden oder mobilen Arbeitsorten. Dazu gehören beispielsweise Monteure im Handwerk oder das Fahrpersonal in Bus und Bahn. Darüber hinaus weisen etwa 10 Prozent der Beschäftigten eine Kombination von mindestens zwei extremen Ausprägungen von Mobilität auf, wie zum Beispiel der Bauarbeiter auf Montage oder das fliegende Personal.
Die untersuchten Mobilitätsformen weisen kein einheitliches Bild bezüglich der psychischen Belastung auf. Häufig lässt sich eine höhere Arbeitsintensität beziehungsweise zeitliche Entgrenzung bei arbeitsbezogener Mobilität beobachten, wie zum Beispiel bei der Arbeit von zuhause. Einige Mobilitätsformen gehen häufig mit einem hohen zeitlichen Handlungsspielraum einher, zum Beispiel Dienstreisen und Auswärtsübernachtungen. Die Abwesenheit vom betrieblichen Arbeitsort kann auch zu einem geringeren Gemeinschaftsgefühl und geringerer sozialer Unterstützung bei der Arbeit führen.
Vielfach entscheiden die beruflichen Tätigkeiten darüber, ob beziehungsweise inwiefern sich die verschiedenen Formen arbeitsbezogener Mobilität auf die Work-Life-Balance, Erholung und Gesundheit der Beschäftigten auswirken. Insgesamt zeigen sich aber bei jeder hoch ausgeprägten Form Auswirkungen auf die Work-Life-Balance. Der Bericht gibt jedoch Ansatzpunkte, um Mobilität so zu gestalten, dass sich Sicherheit und Gesundheit bei der Arbeit sowie die Vereinbarkeit der Arbeit mit dem Privatleben verbessern lassen.
„BAuA-Arbeitszeitbefragung: Pendeln, Telearbeit, Dienstreisen, wechselnde und mobile Arbeitsorte“; Anne Marit Wöhrmann, Nils Backhaus, Anita Tisch, Alexandra Michel; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 233 Seiten; ISBN 978-3-88261-292-9; doi:10.21934/baua:bericht20200713. Den Bericht gibt es im PDF-Format unter http://www.baua.de/dok/8840504.
Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de
Quelle: IDW
(nach oben)
Grubenwasser und Grundwasser bleiben getrennt
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Kohle wird im Ruhrgebiet zwar seit 2018 keine mehr gefördert. Aber Grubenwasser muss weiter abgepumpt werden, und zwar für immer. Da kann man das warme Wasser aus der Tiefe auch gleich zum Heizen nutzen. Wo und wie hat das Team des Projekts „Grubenwasser-Ruhr“ um Prof. Dr. Hermann-Josef Wagner vom Lehrstuhl Energiesysteme und Energiewirtschaft der Ruhr-Universität Bochum (RUB) gezeigt: In Bochum, Kamen-Bergkamen und Essen stimmen alle Bedingungen. Neben dem klimafreundlichen Heizen noch ein kleines Umweltplus: Nachdem das Wasser seine Wärme an Gebäude abgegeben hat, fließt es kälter in die Ruhr ab. Das Team hat zu dem dreieinhalbjährigen Projekt den Abschlussbericht online veröffentlicht.
Grubenwasser und Grundwasser bleiben getrennt
Dort, wo früher Kohle unter Tage abgebaut wurde, befinden sich heute viele Hohlräume. Die ehemalige Ruhrkohle AG (RAG) pumpt an 13 Standorten heute jährlich rund 70 Millionen Kubikmeter Wasser heraus, damit es sich nicht mit dem Grundwasser mischt. Dieses Wasser ist rund 20 bis 30 Grad warm und wird bisher ungenutzt in Lippe, Ruhr und Rhein geleitet.
Langfristig sollen nur noch sechs Standorte im Ruhrgebiet Grubenwasser fördern. Um es zum Heizen nutzen zu können, muss es eine Bebauung oder Pläne geben, die eine neue Wärmeversorgung notwendig machen. Drei Standorte, auf die das zutrifft, haben Wagner und seine Mitarbeiterinnen und Mitarbeiter ausgemacht: die Wasserstadt Aden, Bergkamen (Schacht 2, Haus Aden), den Gewerbepark Robert Müser, Bochum (Schacht Arnold) und Essen 51, Essen (Schacht Marie). Dass Bochum geeignet ist, war schon länger bekannt. Dort wird schon die zentrale Feuerwehr mit Grubenwasserwärme versorgt. Jetzt soll diese Versorgung auf Quartiersebene erweitert werden.
Betriebskosten unter denen von Gas
„Die Temperatur des Grubenwassers reicht für viele Gebäude in Gewerbegebieten aus, zum Beispiel Lager“, erklärt Wagner. Theoretisch könnte man noch weitaus mehr Gebäude beheizen: Die Mengen an Grubenwasser, die hochgepumpt werden müssen, könnten ganze Quartiere versorgen. Allerdings lassen sich wegen der Temperaturen realistisch nur Gebäude in einem Umkreis von rund fünf Kilometern versorgen. Am günstigsten dafür sind Niedertemperaturflächenheizungen, die im Altbau aber nicht verbreitet sind. Kombiniert mit einer Wärmepumpe könnte das Wasser eine größere Heizleistung liefern.
Das Forschungsteam hat auch die Kosten für solche Fälle berechnet. „Wir sind noch über den Gaspreisen“, erklärt Hermann-Josef Wagner, „aber die steigenden CO2-Kosten können das schnell ändern.“ Die Betriebskosten lägen dann unter denen von Gas. Problematisch sei eher, dass Investoren noch Berührungsängste mit innovativen Wärmeversorgungsarten zeigen.
Zwei weitere Projektphasen
An die abgeschlossene erste Projektphase schließt sich eine vierjährige Umsetzungsphase an. Darin wird ein wissenschaftliches Monitoring geplant und in die Umsetzung integriert. In einer dritten Phase folgt die Auswertung des Monitorings für einen langfristigen Erfahrungstransfer. „Im Grunde ist Grubenwasser weltweit interessant“, erklärt Hermann-Josef Wagner. Gerade bei Neubauten könnte sich die Nutzung auch in anderen ehemaligen Bergbaustaaten lohnen. Darüber hinaus lasse sich die Technologie auch auf andere Grund- und Abwasserarten anwenden.
Kontakt
Die Leitung und Koordination des Projekts hat der Lehrstuhl Energiesysteme und Energiewirtschaft der RUB. Das Unternehmen Eimer Projekt Consulting verantwortet die strategische Kontaktanbahnung sowie den dauerhaften Einbezug der potenziellen Wärmeabnehmer. Die RAG als Standorteigner wird die Umsetzungs- und Investitionsplanungen unterstützen, während die Deutsche Montantechnologie mit der RUB für die technischen Planungsarbeiten zuständig ist.
Pressekontakt
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hermann-Josef Wagner
Lehrstuhl Energiesysteme und Energiewirtschaft
Fakultät Maschinenbau
Ruhr-Universität Bochum
Tel.: +49 234 32 28044
E-Mail: wagner@lee.rub.de
Originalpublikation:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)
Weitere Informationen:
https://www.gw-ruhr.rub.de/webseitecs5/PR-Arbeit/BMWi-FKZ%2003ET1375A-C_Grubenwa… – Abschlussbericht (PDF)
https://www.gw-ruhr.rub.de/ – Projektwebseite
Quelle: IDW
(nach oben)
Darm-Hirn-Achse beeinflusst Multiple Sklerose
Dr. Angelika Jacobs Kommunikation & Marketing
Universität Basel
Ein internationales Forschungsteam unter Basler Leitung hat eine Verbindung zwischen der Darmflora und Entzündungsherden im zentralen Nervensystem bei Multipler Sklerose entdeckt. Bei dieser neu identifizierten Darm-Hirn-Achse spielt eine bestimmte Klasse von Immunzellen eine zentrale Rolle. Die Entdeckung könnte den Weg zu neuen Therapien gegen MS weisen, die auf die Darmflora abzielen.
Was tun, wenn das eigene Immunsystem das Nervensystem angreift? Neuere Therapien gegen die Autoimmunerkrankung Multiple Sklerose (MS) setzen darauf, bestimmte Immunzellen (die B-Zellen) aus dem Blut der Betroffenen zu entfernen. Allerdings entdeckten Forschende von Universität und Universitätsspital Basel bereits vor einigen Jahren, dass man dabei besser kein zu breites Spektrum der verschiedenen B-Zellen entfernen sollte, da dies die Erkrankung sogar noch verschlimmern kann.
Eine neue Studie im Fachblatt «Science Immunology» wirft nun ein neues Licht auf diese Beobachtung: Ein internationales Forschungsteam um PD Dr. Anne-Katrin Pröbstel von der Universität Basel und vom Universitätsspital Basel hat entdeckt, dass bestimmte B-Zellen eine Art Brücke zwischen der Darmflora und den Entzündungsherden im zentralen Nervensystem schlagen und hier entzündungshemmend wirken.
«Aus früheren Studien wissen wir, dass die Zusammensetzung der Darmflora eine Rolle bei MS spielt. Aber wie genau sich Darmbakterien und Immunzellen gegenseitig beeinflussen, war bisher unbekannt», erklärt Pröbstel.
Immunzellen für Darm und Hirn
Im Mittelpunkt der neuen Studie standen sogenannte IgA-produzierende B-Zellen, kurz IgA-B-Zellen. Bei Immunglobulin A (IgA) handelt es sich um eine Klasse von Antikörpern, die insbesondere die Immunabwehr der Schleimhäute sicherstellt. Die IgA-B-Zellen sind damit beispielsweise für die Darmgesundheit zentral.
Durch Analysen von Stuhlproben von MS-Patientinnen und -Patienten sowie gesunden Personen stellten die Forschenden fest, dass MS-Betroffene im Darm IgA-B-Zellen tragen, die sich insbesondere gegen MS-typische Darmbakterien richten – also solche, die gehäuft bei MS-Betroffenen vorkommen.
In einem weiteren Schritt analysierten die Forschenden die Rolle dieser Immunzellen im Krankheitsverlauf bei insgesamt 56 MS-Patientinnen und -Patienten. Demnach häuften sich die IgA-B-Zellen bei MS-Betroffenen mit akuten Entzündungsherden in der Hirn-Rückenmarks-Flüssigkeit und im Hirngewebe.
«Offenbar wandern diese Immunzellen aus dem Darm zu den Entzündungsherden im zentralen Nervensystem und schütten dort einen entzündungshemmenden Botenstoff aus», fasst Pröbstel die Ergebnisse zusammen. «Das erklärt, warum sich die Erkrankung verschlimmert, wenn man diese Immunzellen mit Medikamenten aus dem Blut entfernt.»
Auslöser noch unbekannt
Was genau die IgA-B-Zellen als Helfer gegen MS aktiviert und dazu anregt, vom Darm ins zentrale Nervensystem zu wandern, wird weiter untersucht. «Wenn wir den Auslöser dafür finden, könnten wir dies therapeutisch zur Behandlung von MS nutzen», so Pröbstel. Denkbar wäre beispielsweise, die Zusammensetzung der Darmflora von Betroffenen gezielt zu verändern, um die IgA-B-Zellen als Helfer gegen die Entzündungen im Nervensystem zu mobilisieren.
Neben der Universität Basel waren an der Studie auch die University of California San Francisco, die Technische Universität München, die Universitäten Heidelberg, Umeå (Schweden) und Toronto (Kanada) sowie das Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam beteiligt. Finanziert wurde die Studie unter anderem durch die National Multiple Sclerosis Society und den Schweizerischen Nationalfonds.
Wissenschaftliche Ansprechpartner:
PD Dr. Anne-Katrin Pröbstel, Universität Basel, Departement Biomedizin, Tel. +41 61 556 57 98, E-Mail: anne-katrin.proebstel@unibas.ch
Originalpublikation:
Anne-Katrin Pröbstel et al.
Gut microbiota-specific IgA+ B cells traffic to the CNS in active multiple sclerosis
Science Immunology (2020), doi: 10.1126/sciimmunol.abc7191
Quelle: IDW
(nach oben)
Fahrstunden für die Künstliche Intelligenz
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Forschende der Universität Stuttgart an Konsortium „KI Delta Learning“ zur Weiterentwicklung des autonomen Fahrens beteiligt.
Automatisierten und autonomen Fahrzeugen soll die Zukunft gehören, doch ihr Kernstück, die künstliche Intelligenz (KI), kommt mit wechselnden Verkehrssituationen bisher schlecht zurecht. Wissenschaftler der Universität Stuttgart erforschen jetzt im Rahmen des Projekts „KI Delta Learning“ (Konsortialführer Mercedes-Benz AG) neue Methoden des maschinellen Lernens, um die KI-Module für ein besseres Verständnis der Umwelt zu trainieren. Ziel ist es, bereits vorhandenes Wissen aus bekannten Domänen mit wenig Aufwand auf sich ändernde oder neue Verkehrssituationen zu übertragen und autonome Fahrzeuge zur Serienreife weiterzuentwickeln.
Tag – Nacht, Sonne – Regen, Wald – Feld: Wer Auto fährt, muss sich, oft in schneller Folge, auf sehr unterschiedliche Umfeldbedingungen einstellen. Was der Mensch jedoch intuitiv bewältigt, muss einem KI-Modul bisher für jede einzelne Situation antrainiert werden. „Mit den bisherigen Methoden beim Training von künstlicher Intelligenz kann diese kein echtes Verständnis für die Umwelt entwickeln und spezialisiert sich zu stark“, erklären Prof. Bin Yang und Robert Marsden vom Institut für Signalverarbeitung und Systemtheorie (ISS), die den im Fachbereich Elektrotechnik und Informationstechnik angesiedelten Projektanteil der Universität Stuttgart koordinieren. „Dadurch haben die neuronalen Netze, auf denen die KI basiert, Schwierigkeiten mit Situationen, die im Trainingsdatensatz nicht abgebildet wurden.“ Ein Modell, das zum Beispiel auf das Erkennen eines Autos bei Tag trainiert ist, kann Fahrzeuge, die bei Nacht unterwegs sind, deutlich schlechter erkennen.
Lernen auf Basis der Unterschiede
Um KI zum Generalisten zu machen, sind bisher enorm große Trainingsdatensätze erforderlich – ein kostspieliges und zeitaufwändiges Unterfangen. Daher suchen die Forschenden im Projekt KI Delta Learning nach Wegen, um vorhandene KI-Module autonomer Fahrzeuge zu erweitern und so zu transformieren, dass sie auch außerhalb von vorgegebenen Szenarien zuverlässig reagieren. Im Mittelpunkt steht die Entwicklung von Methoden zur effizienten Übertragung bereits vorhandenen Wissens aus bekannten Domänen auf neue Zieldomänen. Mithilfe dieser Methoden soll die KI zukünftig aufbauend auf existierendem Wissen lediglich die Unterschiede – die Deltas – zu unbekannten Zieldomänen Erlernen müssen. Diese Deltas lassen sich in sechs Anwendungsfälle unterteilen. Hierzu zählt beispielsweise der Umgang mit Weiterentwicklungen im Bereich der Fahrzeugsensoren oder mit langfristigen Veränderungen in der Verkehrswelt. Die Berücksichtigung von kurzfristigen Änderungen, wie unterschiedliche Tageszeiten oder Wetterverhältnisse sowie die Erweiterung des Einsatzes der KI-Methoden auf weitere Länder sind ebenfalls im Umfang enthalten, um nur einige Aspekte zu nennen.
Das bereits Gelernte soll bei der Überbrückung des Deltas nicht verworfen, sondern darauf aufbauend genutzt werden. „Nur so können autonome Systeme langfristig die gesamte Komplexität der Verkehrswelt zuverlässig abdecken und mit den immer kürzeren Innovationszyklen und der sich ständig ändernden Mobilität Schritt halten“, betont Dr. Mohsen Sefati (Mercedes Benz AG), der Gesamtleiter des Projekts KI Delta Learning.
Dabei konzentriert sich das Projekt auf drei Hauptbereiche für das Delta Learning: Transfer Learning, Didaktik und Automotive Tauglichkeit. Der Stand der Technik wird in allen drei Bereichen so weit vorangetrieben, dass die nächste Generation der KI-Algorithmen für einen uneingeschränkten Einsatz im autonomen Fahrzeug gewappnet ist.
Training mit simulierten Daten
Das ISS der Universität Stuttgart geht innerhalb des Projekts der Frage nach, wie man das Modell beim Erlernen einer generelleren Repräsentation unterstützen kann. Dabei sollen simulierte Daten für Kamerabilder von Fahrszenen, generiert aus der Computerspiel- und Filmindustrie, für das Training verwendet werden. Die Forschenden untersuchen unter anderem einen Ansatz, bei dem simulierte Bilder so in ihrem Aussehen verändert werden, dass sie nicht mehr von echten zu unterscheiden sind. Darüber hinaus arbeiten sie auch an Methoden für kontinuierliches Lernen, bei dem neues Wissen in das Modell integriert werden soll, ohne dass altes wieder vergessen wird.
Über KI Delta Learning
Das Projekt KI Delta Learning besteht aus 19 Konsortialpartnern von namhaften Universitäten und Forschungseinrichtungen sowie Automobilherstellern, -zulieferern und Technologieprovidern. Das von der VDA Leitinitiative „Autonomes und Vernetztes Fahren“ als Teil der KI-Familie initiierte und entwickelte Projekt wird durch das Bundesministerium für Wirtschaft und Energie gefördert und hat eine Laufzeit von drei Jahren.
Wissenschaftliche Ansprechpartner:
Prof. Bin Yang, Universität Stuttgart, Institut für Signalverarbeitung und Systemtheorie, E-Mail: bin.yang@iss.uni-stuttgart.de,
Tel.: +49 (0)711/685 67330
Weitere Informationen:
http://www.ki-deltalearning.de
Quelle: IDW
(nach oben)
Grüner Wasserstoff: Auftrieb im Elektrolyten sorgt für Konvektionsströmung
Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Wasserstoff lässt sich klimaneutral mit Sonnenlicht produzieren. Aber auf dem Weg vom Labormaßstab zu einer großtechnischen Umsetzung gibt es noch Hürden. Nun hat ein Team am HZB eine Methode vorgestellt, um Strömungsprozesse im Elektrolyten sichtbar zu machen und mit einem Modell vorab zuverlässig zu simulieren. Die Ergebnisse sind hilfreich, um Design und Aufskalierung dieser Technologie zu unterstützen und wurden in der renommierten Zeitschrift Energy and Environmental Science veröffentlicht.
„Grüner“ Wasserstoff, der mit erneuerbaren Energien klimaneutral hergestellt wird, könnte einen wesentlichen Beitrag zum Energiesystem der Zukunft leisten. Eine Option ist die Nutzung von Sonnenlicht zur elektrolytischen Wasserspaltung, entweder indirekt durch Kopplung einer Solarzelle mit einem Elektrolyseur oder direkt in einer photoelektrochemischen (PEC) Zelle. Als Photoelektroden dienen lichtabsorbierende Halbleiter. Sie werden in eine Elektrolytlösung aus Wasser eingetaucht, das mit starken Säuren oder Basen vermischt ist. Dies erhöht die Konzentration von Protonen bzw. Hydroxidionen und sorgt so für eine effiziente Elektrolyse.
In einer Großanlage wäre es jedoch aus Sicherheitsgründen sinnvoll, eine Elektrolytlösung mit einem nahezu neutralen pH-Wert zu verwenden. Eine solche Lösung hat eine niedrige Konzentration von Protonen und Hydroxidionen, was zu Einschränkungen beim Massentransport und zu schlechter Leistung führt. Diese Einschränkungen genauer zu verstehen hilft bei der Konstruktion einer sicheren und skalierbaren PEC-Wasserspaltungsanlage.
Ein Team um Dr. Fatwa Abdi vom HZB-Institut für Solare Brennstoffe hat nun zum ersten Mal untersucht, wie sich der flüssige Elektrolyt in der Zelle während der Elektrolyse verhält: Mit Hilfe fluoreszierender pH-Sensorfolien bestimmte Dr. Keisuke Obata, Postdoc in Abdis Team, den lokalen pH-Wert in PEC-Zellen zwischen Anode und Kathode im Verlauf der Elektrolyse. Die PEC-Zellen wurden mit nahezu neutralen pH-Elektrolyten gefüllt. In Bereichen nahe der Anode nahm der pH-Wert im Verlauf der Elektrolyse ab, während er nahe der Kathode zunahm. Interessanterweise bewegte sich der Elektrolyt während der Elektrolyse im Uhrzeigersinn.
Die Beobachtung lässt sich durch Auftrieb aufgrund von Änderungen der Elektrolytdichte während der elektrochemischen Reaktion erklären, die zur Konvektion führt. „Es war überraschend zu sehen, dass winzige Änderungen der Elektrolytdichte (~0,1%) diesen Auftriebseffekt verursachen“, sagt Abdi.
Modell ermöglicht Simulation
Parallel dazu entwickelten Abdi und sein Team ein multiphysikalisches Modell zur Berechnung der Konvektionsströmung, die durch die elektrochemischen Reaktionen ausgelöst werden. „Wir haben dieses Modell gründlich getestet und können nun ein leistungsfähiges Werkzeug zur Verfügung stellen, um die natürliche Konvektion in einer elektrochemischen Zelle mit verschiedenen Elektrolyten im Voraus zu simulieren“, sagt Abdi.
Für das Projekt hat Abdi ein neues Labor, das „Solar Fuel Devices Facility“, am HZB aufgebaut. Dieses Labor ist Teil der Helmholtz Energy Materials Foundry (HEMF), einer großen Infrastruktur, die auch Messgäste aus aller Welt nutzen können. Die Studie wurde in Zusammenarbeit mit der TU Berlin im Rahmen des Exzellenzclusters UniSysCat durchgeführt.
„Mit dieser Arbeit erweitern wir unsere materialwissenschaftliche Expertise um neue Einblicke auf dem Gebiet der photoelektrochemischen Reaktionstechnik. Das ist ein wesentlicher Schritt auf dem Weg zur Aufskalierung von Solarbrennstoffanlagen“, sagt Prof. Dr. Roel van de Krol, der das HZB-Institut für Solare Brennstoffe leitet.
Wissenschaftliche Ansprechpartner:
Dr. Fatwa Firdaus Abdi
HZB_Institut Solare Brennstoffe
(030) 8062 – 42927
fatwa.abdi@helmholtz-berlin.de
Originalpublikation:
Energy&Environmental Science (2020): In-situ Observation of pH Change during Water Splitting in Neutral pH Conditions: Impact of Natural Convection Driven by Buoyancy Effects
Keisuke Obata, Roel van de Krol, Michael Schwarze, Reinhard Schomäcker, and Fatwa F. Abdi
Doi: 10.1039/D0EE01760D
Quelle: IDW
(nach oben)
Abwasserreinigung mittels Sonnenlicht – Ozon als Reaktionspartner
Leibniz-Institut für Katalyse
Am Leibniz-Institut für Katalyse in Rostock deckten Chemiker:innen den molekularen Mechanismus eines Fotokatalysators auf, der mit Hilfe von Sonnenlicht organische Verunreinigungen im Abwasser vollständig abbaut. Weltweit gelangen z.B. immer mehr Rückstände von Arzneien, wie Entzündungshemmern, Antibiotika oder Verhütungsmitteln, in die Aufbereitungssysteme, wo sie sich nur schwer entfernen lassen. Labore arbeiten verstärkt an fotokatalytischen Lösungen, doch das Wissen über die Wirkprinzipien ist lückenhaft. Forschende um Angelika Brückner und Jabor Rabeah am LIKAT haben deshalb Fotokatalysatoren gewissermaßen live bei der Arbeit beobachtet und Grundlagen ihrer Funktionsweise aufgeklärt.
Dies eröffnet der Entwicklung von Fotokatalysatoren für die Abwasserbehandlung neue Wege, wie Prof. Dr. Brückner, Bereichsleiterin am LIKAT, sagt. Kollegen aus China waren an sie mit der Bitte um Kooperation herangetreten. In bevölkerungsreichen Regionen Asiens sind organische Verunreinigungen, etwa durch stabile Abbauprodukte von Medikamenten, ein dringliches Problem.
Die chinesischen Kolleg:innen hatten neue Katalysatoren entwickelt und brauchten die Expertise des LIKAT für spezielle Untersuchungen, um ihre Katalysatoren optimal präparieren zu können. Brückner und ihr Team sind Spezialisten auf dem Gebiet der sogenannten In-situ-Spektroskopie. Damit können sie die Funktion eines Katalysators während der chemischen Reaktion (in situ) verfolgen und seine molekulare Wirkweise dokumentieren.
Carbonitrid statt Titanoxid
Gängige Fotokatalysatoren, wie Titandioxid, mit dem z. B. selbstreinigende Fensterscheiben beschichtet werden, um Schmutzpartikel zu zersetzen, arbeiten am effektivsten mit energiereicher UV-Strahlung. Allerdings beträgt der UV-Anteil im Sonnenlicht nur 5 bis 8 Prozent. Die chinesischen Chemiker:innen nutzen deshalb eine neue Generation von Fotokatalysatoren: Carbonitrid, das im sichtbarem Licht aktiviert wird. Es entsteht durch thermische Behandlung von Melamin, das auch als Ausgangsstoff für farbenfrohes Geschirr aus Duroplast dient.
Die Kolleg:innen in China konnten ihren Katalysator erfolgreich testen, und zwar mit verschiedenen Substanzen, die beim Abbau von Medikamenten entstehen und ins Abwasser gelangen. Der pulverförmige Fotokatalysator wird dabei im Wasser verrührt und verrichtet als Schwebeteilchen seine Arbeit. Als Oxidationsmittel testeten die Kollegen Sauerstoff und Ozon. „Ozon erwies sich als außergewöhnlich effektiv“, erläutert Prof. Brückner. „Doch seine Aktivität schwankte, und das schien abhängig von den Präparationsbedingungen des Katalysators zu sein.“
Warum das so ist und welches die optimalen Bedingungen für das Präparieren des Katalysators darstellten, sollte Jiadong Xiao, ein junger Chemiker von der Universität Peking, am LIKAT in seiner Dissertation erkunden. Diese Forschungen liefen unter der Ägide von Dr. Jabor Rabeah, Themenleiter am LIKAT und Betreuer des Doktoranden.
Radikale einfangen und identifizieren
Die Messungen ergaben, dass für die eigentliche Abbaureaktion eine Spezies von Radikalen verantwortlich ist. Angelika Brückner: „Das sind äußerst reaktionsfreudige Moleküle, die die Schadstoffe im Wasser sofort angreifen und abbauen. Und das Zusammenspiel von Sonnenlicht, Fotokatalysator und Ozon befördert diese Bildung von Radikalen.“ Tatsächlich waren die Radikale so kurzlebig, dass es zunächst selbst mit der modernen Analysentechnik am LIKAT nicht gelang, sie zu identifizieren.
Für solche Fälle nutzen die Chemiker einen Trick, den sie Spin-Trap nennen: Die Radikale werden mit einem neutralen Molekül eingefangen, das dadurch selbst zum Radikal wird, allerdings zu einem, dass kaum reaktiv ist und deshalb lange genug „lebt“, um analysiert zu werden. So war es möglich, die hocheffektiven Teilchen als Hydroxyl-Radikale zu identifizieren, Moleküle, die aus einem Wasserstoff- und einem Sauerstoff-Atom bestehen. Die hohe Wirksamkeit der Kombination Fotokatalysator – Sonnenlicht – Ozon bei der Abwasserreinigung ließ sich durch die extrem rasche Bildung enorm vieler reaktionsfreudiger Radikale erklären.
Ergebnis der Forschungsarbeiten ist „ein neues mechanistisches Konzept“ für diese Art von Reaktionen, wie Angelika Brückner sagt. Die Forscher:innen gehen davon aus, dass die Methode mit diesem Hintergrundwissen bald ihren Weg in die Praxis findet.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Angelika Brückner
Angelika.Brueckner@catalysis.de
doi.org/10.1021/acs.accounts.9b00624
Originalpublikation:
J. Xiao, Y. Xie, J. Rabeah, A. Brückner, H. Cao, Acc. Chem. Res. 2020, 53, 1024-1033.
Weitere Informationen:
https://www.catalysis.de/forschung/katalytische-in-situ-studien/
Quelle: IDW
(nach oben)
Bayreuther Sportphysiologe entwickelt Leitlinien für Sport mit Diabetes-Typ-1
Christian Wißler Pressestelle
Universität Bayreuth
Ein internationales Forschungsteam unter der Leitung von Prof. Dr. Othmar Moser, Professor für Exercise Physiology & Metabolism an der Universität Bayreuth, hat Leitlinien für Glukosemanagement beim Sport entwickelt. Die in den Zeitschriften „Diabetologia“ und „Pediatric Diabetes“ veröffentlichten Empfehlungen sollen Menschen mit Diabetes-Typ-1 vor Unter- und Überzuckerungen schützen.
Menschen mit Diabetes-Typ-1 können trotz ihrer Erkrankung körperlich aktiv sein. Sie sollten aber beim Sport ein besonders wachsames Auge auf ihre Blutzuckerwerte haben. Denn weil ihr Körper nicht in der Lage ist, Insulin selbst zu produzieren und dieses somit gespritzt werden muss, um die Glukosekonzentration stabil zu halten, müssen sie mit Unterzuckerung rechnen. Die Insulintherapie, die den Blutzuckerspiegel künstlich auf möglichst optimalem Niveau halten soll, ist jedoch bei körperlicher Belastung nicht einfach zu handhaben. Deshalb hat das von Prof. Dr. Othmar Moser koordinierte internationale Team neue Empfehlungen für Menschen mit Diabetes-Typ-1 ausgearbeitet. Die Empfehlungen basieren auf den Möglichkeiten neuartiger Blutzuckermess-Systeme. Sie sollen Sportlerinnen und Sportlern sichere körperliche Aktivitäten ohne gefährliche Blutzuckerschwankungen ermöglichen.
Die Leitlinien zeigen im Detail, ab welchem Glukosewert es notwendig ist, während sportlicher Betätigung zusätzliches Insulin zuzuführen. Ebenso wird dargelegt, bei welchem Blutzuckerwert welche Menge an Kohlenhydraten – abhängig von ihrem Glukosewert – eingenommen werden soll. Dieses Blutzuckermanagement während sportlicher Aktivitäten soll künftig über eine App erleichtert werden, das derzeit gemeinsam mit dem King’s College in London entwickelt wird. Damit soll ein smartes Glukosemanagement zur Verfügung stehen. „Wie bei den meisten chronischen Erkrankungen ist ein aktiver Lebensstil wichtig, um ein langes und nahezu gesundes Leben ermöglichen zu können. Mit unseren Empfehlungen wollen wir Menschen mit Diabetes mellitus Typ 1 dabei unterstützen, sportliche Aktivität als festen Bestandteil in ihren jeweiligen Therapieplan zu integrieren“, sagt Moser, der seit dem 1. November 2020 die Professur für Exercise Physiology & Metabolism an der Universität Bayreuth innehat.
Zentraler Bestandteil der Leitlinien sind neuartige Zuckermessgeräte, die permanent die aktuellen Glukosewerte zur Verfügung stellen. Dabei wird der Glukosewert nicht-invasiv – also ohne Blutabnahme – mit einem winzigen, unter der Haut angebrachten Sender permanent gemessen. Ein Sender übermittelt mehrmals pro Tag den jeweils aktuellen Wert an die Empfänger. „Diesen medizintechnischen Fortschritt nutzen die Leitlinien, um ein unkompliziertes und wirklich verlässliches Glukosemanagement zu ermöglichen. Bisher wurden alle Therapieempfehlungen bei Sport und Diabetes mellitus Typ 1 auf der Basis von invasiven Blutzuckermessungen von der Fingerbeere erstellt“, sagt Moser.
Bereits in früheren Studien haben er und sein Team gezeigt, dass es zur Vermeidung lebensbedrohlicher Unterzuckerungen notwendig ist, dass Patientinnen und Patienten mit Typ-1-Diabetes während sportlicher Aktivitäten den Glukosespiegel stabil halten – sei es, indem sie die Insulindosis abhängig von der Dauer und Intensität der Belastung verringern, sei es, dass sie zusätzliche Kohlenhydrate zuführen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Othmar Moser
Exercise Physiology and Metabolism
Universität Bayreuth
Telefon: +49 (0)921 / 55-3464
E-Mail: othmar.moser@uni-bayreuth.de
Originalpublikation:
Othmar Moser et al.: Glucose management for exercise using continuous glucose monitoring (CGM) and intermittently scanned CGM (isCGM) systems in type 1 diabetes: position statement of the European Association for the Study of Diabetes (EASD) and of the International Society for Pediatric and Adolescent Diabetes (ISPAD) endorsed by JDRF and supported by the American Diabetes Association (ADA). Diabetologia (2020). DOI: https://dx.doi.org/10.1007/s00125-020-05263-9
Quelle: IDW
(nach oben)
Biogasanlagen produzieren Strom flexibel und bedarfsgerecht-Stromeinspeisung folgt Residuallast und Strompreisen
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Ca. 150 Biogasanlagen produzieren schon heute flexibel Strom und werden markt- und systemdienlich betrieben. Dies zeigt eine Analyse im Auftrag der Fachagentur Nachwachsende Rohstoffe e. V. (FNR), die von der Agrarservice Lass GmbH mit Hilfe des Flexperten-Netzwerkes durchgeführt wurde. Darin wird deutlich, dass die Einspeisesummen ausgewählter, zukunftsweisend flexibilisierter Biogasanlagen sehr genau den Strompreisen und der Residuallast folgen. Bei hoher Netzbelastung ruhen die Biogas-BHKWs und machen das Netz frei für Wind- und Solarstrom. Biogas-Rohstoffe und die Biogas-Speicher werden so zu „Batterien“ für die Stromversorgung in Engpasszeiten.
Ziel der Bundesregierung ist es, den Anteil erneuerbarer Energien am Gesamtenergieverbrauch bis 2030 auf 65 % zu erhöhen. Zudem werden durch den Kohle- und Atomausstieg bereits in den nächsten Jahren erhebliche Strom-Erzeugungskapazitäten abgestellt und durch erneuerbare, vorwiegend fluktuierende Energien wie Sonne und Wind ersetzt. Diese können die stetige Stromversorgung aber nicht allein sicherstellen. Es gibt Zeiten, in denen mehr Strom eingespeist als gleichzeitig genutzt wird. In sogenannten Dunkelflauten –in denen Sonne und Wind nicht oder nur eingeschränkt verfügbar sind – sind hingegen Lücken zu füllen. Daher sollten alle regelbaren Stromerzeuger in naher Zukunft verstärkt residuallastabhängig betrieben werden.
Biogas- bzw. Biomethan-Blockheizkraftwerke werden bisher überwiegend in Grundlast gefahren. Für einen wirtschaftlichen Betrieb ist der Großteil der Anlagen auf die Festvergütung für den eingespeisten Strom aus dem Erneuerbaren Energien-Gesetzt (EEG) angewiesen. Dabei hat Biogas einen erheblichen Vorteil gegenüber anderen erneuerbaren Energien: es ist speicherbar und kann somit Spitzenstrom liefern. Bestehende Biogasanlagen mit Stromerzeugung müssen dafür jedoch vom Grundlastbetrieb auf die bedarfsorientierte Betriebsweise umgestellt werden. Dies erfordert erhebliche Investitionen in die Anlagen. Mit der Direktvermarktung und der Flexibilitätsprämie des EEG fördert die Bundesregierung die Anpassung von Biogasanlagen an das Stromnetz der Zukunft. Laut einer Studie des Deutschen Biomasseforschungszentrum (DBFZ) erhalten aktuell ca. 3.300 Biogas- und Biomethan-BHKW mit einer installierten elektrischen Leistung von ca. 2,2 GWel die sogenannte Flexprämie. Obwohl die Stromeinspeisung zu Hochpreisphasen Mehrerlöse verspricht, fahren die meisten dieser Anlagen trotzdem bislang nicht marktpreisorientiert.
Mit dem Projekt „Visualisierung der Netz-/Systemdienlichkeit flexibilisierter Biogasanlagen – VisuFlex“ zeigen die Projektbearbeiter, dass die Strompreise sehr genau der Residuallast folgen und somit eine geeignete Steuerungsgröße darstellen. Unter Einbindung von Direktvermarktern wurden anhand definierter Kriterien zukunftsweisend flexibilisierte Anlagen identifiziert und deren aufsummierte Stromeinspeisung den Strompreisen sowie der Residuallast gegenübergestellt. Die Auswertung erfolgte rückwirkend für den Zeitraum 01.01.2019 – 30.06.2020. Das Ergebnis zeigt, dass die ausgewählten Biogasanlagen sehr zuverlässig zu Zeiten von Last- und Preisspitzen einspeisen und somit optimal markt- und systemdienlich betrieben werden
Die Anzahl der zukunftsweisend flexibilisierten Anlagen ist noch sehr gering und wird auf ca. 150 Anlagen geschätzt. Daher bleiben die Effekte der Flexibilisierung bislang unsichtbar und der Wert real existierender Biogas-Speicherkraftwerke wird für den Strommarkt nicht wahrgenommen. „Die Bedeutung von Stromlieferanten, die in der Lage sind, auf Strompreisschwankungen flexibel zu reagieren, wird insbesondere vor dem Hintergrund der zunehmenden fluktuierenden Einspeisung aus Photovoltaik und Windkraft in den nächsten Jahren weiter zunehmen“, so Martin Lass, Geschäftsführer der Agrarservice Lass GmbH. „Dann werden flexible Speicherkraftwerke gebraucht, was sich auch in den zu erzielenden Strompreisen widerspiegeln wird.“
Um die Effekte der Flexibilisierung für die Öffentlichkeit, die Politik, aber auch als Vorbild für andere Biogasanlagenbetreiber deutlich sichtbar zu machen, wird in einer geplanten zweiten Projektphase die Visualisierung der Stromeinspeisung zukunftsweisend flexibilisierter Biogasanlagen auf einer separaten Plattform in Echtzeit angestrebt. Daraus ließe sich über die Zeit auch der Zuwachs fahrplanoptimierter Biogasanlagen ableiten.
Weitere Informationen unter: https://biogas.fnr.de/biogas-nutzung/stromerzeugung/stand-der-flexibilisierung-v…
Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e. V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de
Quelle: IDW
(nach oben)
Auch Ratten können Hantaviren übertragen: Infektion durch asiatische Virusart in Deutschland nachgewiesen
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Eine Forschungsgruppe der Charité – Universitätsmedizin Berlin konnte erstmals in Deutschland die Übertragung einer bestimmten Virusspezies – des Seoulvirus – von einem Tier auf den Menschen belegen. In Zusammenarbeit mit dem Friedrich-Loeffler-Institut wurde der Krankheitserreger bei einer jungen Patientin und ihrer Heimratte nachgewiesen. Das könnte Auswirkungen auf den Umgang mit Wild- und Heimratten haben, wie jetzt im Fachmagazin Emerging Infectious Diseases* beschrieben ist.
Nach mehreren Ausbrüchen im 21. Jahrhundert stehen Hantavirus-Erkrankungen stärker im öffentlichen Fokus und sind in Deutschland seit 2001 meldepflichtig. Durch verschiedene Mausarten können beispielsweise die in Mitteleuropa verbreiteten Puumala- und Dobrava-Belgrad-Viren übertragen werden. Diese führen meist zu fiebrigen Erkrankungen, in einigen Fällen jedoch auch zu einem HFRS-Syndrom, das mit Fieber, Blutdruckabfall und akutem Nierenversagen einhergeht. Hingegen kommt das hauptsächlich in Asien verbreitete Seoulvirus, welches weit häufiger zu schweren Verläufen führt, ausschließlich in Ratten vor. Übertragungen des hochvirulenten Seoulvirus von Ratten auf Menschen sind bereits in mehreren Fällen auch außerhalb Asiens dokumentiert worden.
Das Team um Prof. Dr. Jörg Hofmann, Leiter des Nationalen Konsiliarlabors für Hantaviren am Institut für Virologie der Charité, konnte nun erstmals eine sogenannte autochthone – also in Deutschland erworbene – Infektion durch das Seoulvirus aufzeigen, deren Ursprung eine Ratte war. In enger Zusammenarbeit mit der Forschungsgruppe von Prof. Dr. Rainer G. Ulrich am Friedrich-Loeffler-Institut (FLI) in Greifswald sowie lokalen und regionalen Gesundheitsbehörden haben die Forschenden das Virus bei einer jungen Patientin aus Niedersachsen und einer ihrer Heimratten nachgewiesen. „Dieses Virus kommt ursprünglich aus Asien und ist wahrscheinlich durch infizierte Wildratten auf Schiffen nach Europa gelangt, konnte in Deutschland bisher aber noch nie beobachtet werden“, sagt Prof. Hofmann, Erstautor der Studie. Die infizierte Zuchtratte der Patientin ist vermutlich aus einem anderen Land nach Deutschland importiert worden.
Die junge Patientin musste mehrere Tage intensivmedizinisch versorgt werden, nachdem sie Symptome eines akuten Nierenversagens zeigte. Serologische Laboruntersuchungen konnten schnell den Verdacht einer Hantavirus-Infektion bestätigen – um welchen Virustyp es sich handelte, war allerdings nicht klar.
Das Team um Prof. Hofmann an der Charité hat eine molekulare Spezialdiagnostik entwickelt, mit deren Hilfe das Seoulvirus bei der Patientin identifiziert werden konnte. Bei der betroffenen Heimratte konnten die Experten am Friedrich-Loeffler-Institut mit dem Test dasselbe Virus nachweisen. Prof. Hofmann erklärt: „Beide Virussequenzen, die der Patientin und die der Ratte, waren identisch. Dies bestätigt eine Erkrankung durch Übertragung des Erregers vom Tier auf den Menschen – eine sogenannte Zoonose.“
„Bislang dachte man nur bei Mäusekontakt an Hantavirus-Infektionen. Jetzt muss man die Möglichkeit einer Infektion auch bei Kontakt zu Wild- oder Heimratten in Betracht ziehen“, warnen die Autoren. „Der Nachweis in einer Heimratte bedeutet außerdem, dass über den Verkauf dieser Tiere das Virus praktisch überallhin exportiert werden kann.“ Vorsicht ist daher bei der Rattenhaltung geboten.
*Hofmann J et al. Autochthonous ratborne Seoul virus infection in woman with acute kidney injury. Emerg Infect Dis (2020), DOI: 10.3201/eid2612.200708
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Hofmann
Institut für Virologie
Campus Charité Mitte
t: +49 30 450 525 141
E-Mail: joerg.hofmann@charite.de
Originalpublikation:
https://wwwnc.cdc.gov/eid/article/26/12/20-0708_article
Quelle: IDW
(nach oben)
Hunderte Exemplare von Newtons Philosophiae Naturalis Principia Mathematica in neuer Zählung gefunden
Linda Schädler Abteilung Kommunikation
Universität Mannheim
Dr. Andrej Svorenčík, Postdoktorand an der Universität Mannheim, und Professor Mordechai Feingold vom California Institute of Technology (Caltech) haben in jahrelanger Suche bisher unbekannte Exemplare von Isaac Newtons bahnbrechendem Wissenschaftsbuch aufgespürt.
Die Ergebnisse der Zählung deuten darauf hin, dass Isaac Newtons Meisterwerk aus dem 17. Jahrhundert, umgangssprachlich Principia genannt, einer breiteren Öffentlichkeit zugänglich war als bisher angenommen. Durch die neue Zählung hat sich die Zahl der bekannten Exemplare der berühmten Erstausgabe, die 1687 veröffentlicht wurde, mehr als verdoppelt. Die letzte Exemplarzählung dieser Art, die 1953 veröffentlicht wurde, hatte 189 Exemplare identifiziert, während die neue Suche 386 Exemplare hervorbrachte.
Die Suche von Dr. Andrej Svorenčík, Postdoktorand für Geschichte der Wirtschaftswissenschaften an der Universität Mannheim und seinem ehemaligen Professor für Wissenschaftsgeschichte am Caltech, Mordechai Feingold, dauerte mehr als ein Jahrzehnt. Dennoch vermuten die beiden Wissenschaftler, dass wahrscheinlich bis zu 200 weitere Bücher immer noch undokumentiert in öffentlichen und privaten Sammlungen lagern. Sie schätzen, dass im Jahr 1687 etwa 600, möglicherweise sogar 750 Exemplare der Erstausgabe des Buches gedruckt wurden.
Neben unbekannten Exemplaren fanden die Forscher Belege dafür, dass die Principia, von der man einst annahm, sie sei nur einer ausgewählten Gruppe von Mathematikexperten vorbehalten, umfassender gelesen und verstanden wurde als zuvor angenommen. „Wenn Sie die Exemplare durchsehen, finden Sie kleine Notizen oder Anmerkungen, die Hinweise darauf geben, wie sie verwendet wurden“, sagt Svorenčík, der etwa 10 Prozent der in der Zählung dokumentierten Exemplare persönlich inspiziert hat.
Wenn Svorenčík zu Konferenzen in verschiedene Länder reiste, nahm er sich Zeit, lokale Bibliotheken zu besuchen. „Man schaut sich die Eigentumsmerkmale an, den Zustand des Einbands, die Druckunterschiede und vieles andere“, so der Wissenschaftler. Auch ohne die Bücher aus der Nähe zu inspizieren, konnten die Historiker anhand von Bibliotheksaufzeichnungen und anderen Briefen und Dokumenten herausfinden, wem sie gehörten und wie die Exemplare weitergegeben wurden.
Funde hinter dem Eisernen Vorhang
Das Forschungsprojekt ist aus einer Arbeit hervorgegangen, die Svorenčík als Student für einen von Feingold unterrichteten Kurs geschrieben hat. Svorenčík, der ursprünglich aus der Slowakei stammt, hatte eine Semesterarbeit über die Verbreitung der Principia in Mitteleuropa verfasst. „Mich interessierte, ob es Exemplare des Buches gab, die sich bis in meine Heimatregion zurückverfolgen ließen. Die in den 1950er Jahren durchgeführte Zählung führte keine Exemplare aus der Slowakei, der Tschechischen Republik, Polen oder Ungarn auf. Dies ist verständlich, da die Exemplarzählung nach dem Fall des Eisernen Vorhangs durchgeführt wurde, was die Rückverfolgung von Kopien sehr schwierig machte.“
Zur Überraschung von Svorenčík fand er viel mehr Exemplare, als Feingold erwartet hatte. Nach Semesterende schlug Feingold Svorenčík vor, sein Projekt in die allererste vollständige und systematische Suche nach Kopien der ersten Principia-Ausgabe umzuwandeln. Die anschließende Detektivarbeit auf der ganzen Welt ergab etwa 200 bisher nicht identifizierte Exemplare in 27 Ländern, darunter 21 Exemplare in Deutschland.
Svorenčík und Feingold stießen sogar auf verlorene oder gestohlene Exemplare des Meisterwerks. So wurde beispielsweise bei einem Buchhändler in Italien ein Exemplar entdeckt, das ein halbes Jahrhundert zuvor aus einer Bibliothek in Deutschland gestohlen worden war. Die deutsche Bibliothek benötigte aber zu lange, um das Exemplar zurückzukaufen oder es zu beschlagnahmen, so dass es wieder auf dem Markt landete. Nach Angaben der Historiker werden Erstausgaben der Principia heute für 300.000 bis 3 Millionen Dollar über Auktionshäuser wie Christie’s und Sotheby’s sowie auf dem Schwarzmarkt verkauft.
Svorenčík und Feingold haben nun gemeinsam einen Artikel über die Zählung in der Zeitschrift „Annals of Science“ veröffentlicht. Der Artikel ist unter https://www.tandfonline.com/doi/full/10.1080/00033790.2020.1808700 erhältlich.
Als Fortführung des Forschungsprojekts planen sie, das Verständnis darüber weiter zu verfeinern, wie die Principia die Wissenschaft des 18. Jahrhunderts geprägt hat.
Isaac Newtons Philosophiae Naturalis Principia Mathematica
In der Principia führte Newton die Grundgesetze der Bewegung und der universellen Gravitation ein, „indem er die irdische und die himmlische Welt in einem einzigen Gesetz vereinte“, so Svorenčík. Forschende in anderen Bereichen hofften, ein ähnliches Gesetz zu finden, um ihre eigenen Bereiche zu vereinheitlichen. Newtons Theorien, genau wie die von Charles Darwin und Albert Einstein, übten beträchtlichen Einfluss auf viele andere Aspekte des Lebens aus, was ihn zu einer so kanonischen Figur des 18. Jahrhunderts machte.
Ein Pressefoto von Dr. Svorenčík finden Sie unter: https://www.uni-mannheim.de/newsroom/presse/pressefotos/
Kontakt:
Dr. Andrej Svorenčík
Postdoktorand für Wirtschaftsgeschichte
Abteilung Volkswirtschaftslehre
Universität Mannheim
E-Mail: svorencik@uni-mannheim.de
Dr. Maartje Koschorreck
Stellvertretende Pressesprecherin
Universität Mannheim
Tel. +49 621-1080
E-Mail: koschorreck@uni-mannheim.de
Quelle: IDW
(nach oben)
Gutes Change-Management: Wie KI in Unternehmen erfolgreich wird
Linda Treugut Geschäftsstelle
Lernende Systeme – Die Plattform für Künstliche Intelligenz
Künstliche Intelligenz (KI) wird den Arbeitsalltag von vielen Beschäftigten verändern. Der Einsatz von KI-Systemen in Betrieben bietet vielfältige Chancen für die Mitarbeiterinnen und Mitarbeiter wie auch die Unternehmen. Gleichzeitig stellt die Einführung von KI alle Beteiligten vor Herausforderungen – wie etwa beim Umgang mit persönlichen Daten oder der menschengerechten Gestaltung der Arbeitsbedingungen. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt anhand konkreter Lösungswege und Praxisbeispielen, wie Unternehmen KI-Systeme sowohl im Sinne der Beschäftigten als auch des wirtschaftlichen Erfolgs einführen und wie Change-Prozesse gelingen können.
KI-Systeme können die Mitarbeiterinnen und Mitarbeiter bei ihren Aufgaben entlasten, Arbeitsprozesse effizienter machen und neue KI-basierte Geschäftsmodelle ermöglichen. Gleichwohl setzt ihre Einführung einen Wandel im Unternehmen in Gang, der gestaltet sein will. Der entscheidende Faktor für den Erfolg von KI-Systemen ist das Change-Management. Ein gutes Change-Management fördere die Akzeptanz von KI-Systemen bei den Mitarbeiterinnen und Mitarbeitern, sodass die Potenziale der neuen Technologien für alle Beteiligten gemeinsam genutzt und sowohl die Beschäftigten als auch ihre Interessenvertretungen zu Gestaltern des technologischen Wandels gemacht werden können, heißt es in dem Whitepaper.
„Die Einführung von KI-Systemen ist in Unternehmen oft mit Unsicherheiten verbunden. Viele Beschäftigten sorgen sich um ihren Arbeitsplatz oder fürchten, von Maschinen fremdgesteuert und überwacht zu werden. Deshalb ist es wichtig, dass volle Transparenz herrscht und die Beschäftigten von Anfang an in die Ausgestaltung des KI-Einsatzes einbezogen sind“, sagt Mitautor Oliver Suchy, Mitglied des Bundesvorstands des Deutschen Gewerkschaftsbundes DGB und der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme.
Die Einführung von KI steht in vielen Unternehmen noch am Anfang. „Natürlich haben Unternehmen Erfahrung darin, neuen Technologien einzuführen und können sich auf ein vertrautes Instrumentarium zur Gestaltung der Change-Prozesse stützen“, so Mitautor Sascha Stowasser, Direktor des Instituts für angewandte Arbeitswissenschaft ifaa und Mitglied der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion. „Doch beim Einsatz von Künstlicher Intelligenz gibt es einige Besonderheiten zu berücksichtigen. KI-Systeme nutzen große Datenmengen – auch persönliche Daten – und agieren zum Teil sehr autonom. Hier stellen sich ganz neue Fragen, ob etwa Persönlichkeitsrechte beschnitten werden oder wem im Falle eines Fehlers des KI-Systems die Verantwortung dafür zugeschrieben werden kann.“
Vier Phasen einer erfolgreichen Einführung von KI
Damit der Übergang zum KI-unterstützen Arbeiten gelingt, beschreiben die Autoren im Whitepaper vier Phasen, die ein erfolgreiches Change-Management durchlaufen muss. In der Startphase sollten Unternehmen gemeinsam mit den Beschäftigten die Ziele und den Zweck der geplanten KI-Anwendungen festlegen und die möglichen Auswirkungen beispielsweise auf die Vereinbarkeit von Privat- und Berufsleben in den Blick nehmen. Wichtig ist es in dieser Phase auch, die Beschäftigten über die Funktionsweise des KI-Systems aufzuklären, denn ein Grundverständnis der Technologie ist die Basis, um Vertrauen aufzubauen. In der zweiten Phase steht das Design der KI-Systeme selbst im Vordergrund. Hier geht es darum, gemeinsam die Zusammenarbeit mit der KI zu gestalten – von Sicherheit und Datenschutz über die Arbeitsteilung bis hin zur Nachvollziehbarkeit der KI-Entscheidungen.
Die Vorbereitung der KI-Einführung und Implementierung der Systeme sind Teil der dritten Phase. Zentral in dieser Phase ist die Qualifizierung der Mitarbeiterinnen und Mitarbeiter für die neuen Anforderungen. Zudem müssen Organisationsstrukturen und Aufgabenverteilungen im Betrieb angepasst werden. Die Autoren des Whitepapers raten, die KI-Systeme in Pilotprojekten und Experimentierphasen zu testen und Erfahrungen unter Realbedingungen zu sammeln, bevor die Anwendungen flächendeckend realisiert werden. Nach der Einführung der KI-Systeme muss deren Einsatz kontinuierlich überprüft, evaluiert und gegebenenfalls angepasst werden. In dieser letzten Phase des Change-Managements ist es besonders wichtig, die Erfahrungen der Beschäftigten einzubeziehen. Um die Mitwirkung der Beschäftigten langfristig sicherzustellen, schlagen die Autoren einen paritätisch besetzten KI-Rat vor, der die Change-Prozesse dauerhaft begleitet.
Über das Whitepaper
Das Whitepaper „Einführung von KI-Systemen in Unternehmen. Gestaltungsansätze für das Change-Management“ wurde von der Arbeitsgruppe Arbeit/Qualifikation, Mensch-Maschine-Interaktion der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung unter https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme des Hightech-Forums und acatech gegründet. Sie vereint Expertinnen und Experten aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft aus dem Bereich Künstliche Intelligenz. In Arbeitsgruppen entwickeln sie Handlungsoptionen und Empfehlungen für den verantwortlichen Einsatz von Lernenden Systemen. Ziel der Plattform ist es, als unabhängiger Makler den gesellschaftlichen Dialog zu fördern, Kooperationen in Forschung und Entwicklung anzuregen und Deutschland als führenden Technologieanbieter für Lernende Systeme zu positionieren. Die Leitung der Plattform liegt bei Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident acatech).
Weitere Informationen:
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whit…
Quelle: IDW
(nach oben)
Mit Methan als Nahrungsquelle setzen Bakterien giftiges Arsen frei
Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam der Universität Tübingen entdeckt bisher unbekannten Mechanismus, der in Vietnam eine wichtige Rolle bei der natürlichen Verunreinigung des Grundwassers spielt
Giftiges Arsen belastet großflächig Flüsse und Grundwasser in vielen südostasiatischen Ländern wie Bangladesch und Vietnam. Es wird durch die Aktivität von Mikroorganismen freigesetzt, über deren Nahrungsquellen jedoch bisher wenig bekannt war. Ein Team aus der Geomikrobiologie der Universität Tübingen unter der Leitung von Professor Andreas Kappler wies kürzlich nach, dass die Arsen freisetzenden Bakterien ihre Nahrung in den tieferen Bodenschichten finden und nicht von der Wasseroberfläche zum Beispiel aus Algen oder Pflanzen beziehen. Nun entdeckte das Team, dass neben den an Sedimenten abgelagerten organischen Stoffen Methangas als Nahrungsquelle eine wichtige Rolle bei der Freisetzung des Arsens durch Bakterien spielt. Damit lässt sich die hohe Ar-senkonzentration des Wassers in vielen Gebieten Südostasiens besser als bisher erklären. Die neue Studie erscheint in der Fachzeitschrift Nature Communications Earth & Environment.
Arsenhaltige Eisenminerale, die ursprünglich aus den Bergen des Himalajas stammen, finden sich heute in den Sedimenten unter der Oberfläche vieler Flussdeltas in Südostasien. Diese Grundwassersedimente beherbergen verschiedene Verbände von Mikroorganismen, die das giftige Arsen durch Auflösung der Eisenminerale abgeben. „Nach unserer vorherigen Studie gingen wir davon aus, dass sie Stoffwechsel und Wachstum durch organische Ablagerungen an den Sedimenten aufrechterhalten“, sagt die Doktorandin Martyna Glodowska.
Hohe natürliche Gaskonzentration
Versuchsgebiet ist ein mit Arsen verseuchtes Grundwassersystem in Van Phuc, einem Dorf 15 Kilometer südöstlich von Hanoi in Vietnam. „Dort konnten wir eine hohe Konzentration von Methan beobachten, das von Mikroorganismen produziert wird. An manchen Stellen ist die Methankonzentration so hoch, dass das Gas aus dem Wasser an die Oberfläche sprudelt“, berichtet Andreas Kappler. Methan bildet den Hauptbestandteil von Erdgas und wird als Biogas in Industrie und Haushalten vielfach zur Energiegewinnung eingesetzt. „Das brachte uns auf die Idee, dass auch die Arsen freisetzenden Mikroorganismen es nutzen könnten“, berichtet Glodowska, die Erstautorin der neuen Studie.
Mithilfe von Experimenten im Tübinger Labor, bei denen dem Sediment aus Vietnam Methan zugesetzt wurde, konnte das Forschungsteam diese Annahmen bestätigen. „Damit haben wir einen Mechanismus entdeckt, über den es zur Arsenanhäufung kommen kann“, sagt Kappler. „Unter der Wasseroberfläche produzieren Mikroorganismen Methan, das anderen Mikroben, sogenannten Methanfressern, die Energie liefert, um die Eisenminerale aufzulösen und dabei Arsen abzuscheiden.“
Eine vergleichende Analyse von Wassersystemen weltweit offenbarte, dass viele von ihnen große Mengen Methan wie auch eine weite Verbreitung von Methan erzeugenden und verbrauchenden Mikroorganismen aufweisen. „Daher könnte die Mobilisierung von Arsen durch Methan fressende Bakterien ein wichtiger Mechanismus für die Arsenverseuchung zahlreicher Gebiete sein“, sagt der Wissenschaftler. Ein wichtiger Schritt sei getan mit der Identifizierung von Methan als Nahrungsquelle, meint auch Glodowska. Nun müsse erhoben werden, welchen Umfang dieser Weg der Ar-senanhäufung unter natürlichen Bedingungen annimmt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Kappler
Universität Tübingen
Mathematisch-Naturwissenschaftliche Fakultät
Zentrum für Angewandte Geowissenschaften
Telefon +49 7071 29-74992
andreas.kappler@uni-tuebingen.de
Originalpublikation:
Glodowska, M., Stopelli, E., Schneider, M., Rathi, B., Straub, D., Lightfoot, A., Kipfer, R., Berg, M., Advects, Jetten, M., Kleindienst, S., Kappler, A. (2020) Arsenic mobilization in groundwater driven by microbial iron-dependent anaerobic oxidation of methane. Nature Communications Earth & Envi-ronment, https://doi.org.10.1038/s43247-020-00037-y.
Quelle: IDW
(nach oben)
Persönlicher Datenschutz in der Industrie 4.0: Sicherstellen der Mitarbeiter*innen-Privacy bei Tracking-Technologien
Mag. Mark Hammer Marketing und Unternehmenskommunikation
Fachhochschule St. Pölten
Immer mehr Unternehmen verfolgen in der digitalisierten Produktion automatisch die Position und die Zustände von Produktionsmitteln im Betrieb – und können mit der Technik auch die Position der Mitarbeiter*innen erfassen. Das kann die Arbeitssicherheit erhöhen, wirft aber auch Fragen zum Umgang mit persönlichen Daten auf. Ein von der Arbeiterkammer Niederösterreich finanziertes Projekt der Fachhochschule St. Pölten gemeinsam mit der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA untersucht, wie die Privatsphäre der Mitarbeiter*innen beim Einsatz von solchen Systemen geschützt werden kann.
Im Zuge der digitalen Vernetzung in der Industrie 4.0 werden Tracking-Systeme immer bedeutender. Sie erfassen mittels Funktechnologien wie WLAN, Bluetooth oder RFID die Position von Gegenständen im Betrieb, etwa von Transportmitteln, Werkzeugen und Ladungsträgern wie Paletten und Gitterboxen. Damit lassen sich Produktionsabläufe besser nachverfolgen.
„Das Aufzeichnen und Nutzen echtzeitnaher Positions- und Zustandsdaten – sogenanntes ‚Asset Tracking‘ – ist in vielen Industriezweigen bereits Standard. Der Einsatz dieser Nachverfolgungssysteme wird in Zukunft sicher noch häufiger werden“, erklärt Christian Jandl, Forscher am Institut für Creative\Media/Technologies der FH St. Pölten.
Die eingesetzte Technik ermöglicht aber auch neue Wege zum Erfassen und Auswerten des zeitlichen Positionsverlaufes von Mitarbeiter*innen, sogenanntes Mitarbeiter*innen-Tracking. Das kann einerseits aktiv geschehen, um die Arbeitssicherheit an gefährlichen Arbeitsplätzen zu erhöhen oder um Mitarbeiter*innen im Falle eines Unfalls zu lokalisieren. Die Systeme könnten aber auch passiv Positionsdaten von mobilen Geräten der Mitarbeiter*innen wie Smartphones und Smartwatches ohne deren Zustimmung ermitteln.
Private Daten schützten und nur mit Zustimmung abfragen
„Daten zum Standort der Mitarbeiterinnen und Mitarbeiter sind sensible Informationen. Aus Sicht der Privacy sollten die Informationen nur bei Zustimmung durch und Mehrwert für die betroffenen Personen erhoben werden“, sagt Thomas Moser, Leiter der Forschungsgruppe Digital Technologies am Institut für Creative\Media/Technologies der FH St. Pölten.
Das Forschungsprojekt „SensiTrack – Tracking vs. Privacy in der Arbeitswelt 4.0“ untersucht vor allem zwei Fragen: Wie kann gewährleistet werden, dass die Nutzung von Lokalisierungsdiensten keine Datenschutzprobleme verursacht, und welche Maßnahmen ermöglichen, die positiven Aspekte der neuen Technologie sinnbringend für Arbeitgeber*innen und Arbeitnehmer*innen einzusetzen.
Test in Pilotfabrik und Workshops für Unternehmen und Betriebsräte
Das Projekt entwickelt Maßnahmen, die es ermöglichen sollen, die positiven Aspekte der Technologie hinsichtlich der Arbeitssicherheit zu unterstützen, aber das Potenzial zur Überwachung der Arbeitnehmer*innen bewusst einzuschränken. Das betrifft Maßnahmen im Bereich der Speicherung und Verarbeitung von Daten, aber auch die Einführung neuer Prozesse in den Betrieben.
„Mitarbeiter*innen-Tracking ist als Balanceakt zu sehen und erfordert großes Vertrauen seitens der Mitarbeiter*innen und größtmögliche Transparenz auf Seiten der Arbeitgeber*innen“, bemerkt Martina Hartner-Tiefenthaler vom Institut für Managementwissenschaften an der TU Wien. Daher untersucht das Projektteam, welche Einflussfaktoren es auf die Akzeptanz der Mitarbeiter*innen beim Einsatz von Trackingsystemen gibt und wie vertrauenswürdige Tracking-Systeme aussehen können. So können Richtlinien für Unternehmen formuliert werden, die Arbeitgeber*innen und Arbeitnehmer*innen für das Thema sensibilisieren.
Vor Kurzem nahmen 80 Testpersonen an einem Experiment in der Pilotfabrik der TU Wien in der Seestadt Aspern im Rahmen des Projekts teil. Die Ergebnisse des Tests werden nach der Auswertung der Arbeiterkammer Niederösterreich zur Verfügung gestellt, zum Beispiel in Workshops mit Betriebsräten. Geplant sind die Workshops im Frühjahr 2021.
Projekt Sensitrack
Die FH St. Pölten führt das Projekt gemeinsam mit dem Institut für Managementwissenschaften der TU Wien und der Allgemeinen Unfallversicherungsanstalt AUVA durch. Finanziert wird das Projekt von der AK Niederösterreich über den Projektfonds Arbeit 4.0.
https://research.fhstp.ac.at/projekte/sensitrack-tracking-vs-privacy-in-der-arbe…
Über die Fachhochschule St. Pölten
Die Fachhochschule St. Pölten ist Anbieterin praxisbezogener und leistungsorientierter Hochschulausbildung in den sechs Themengebieten Medien & Wirtschaft, Medien & Digitale Technologien, Informatik & Security, Bahntechnologie & Mobilität, Gesundheit und Soziales. 25 Studiengänge und zahlreiche Weiterbildungslehrgänge bieten ca. 3400 Studierenden eine zukunftsweisende Ausbildung. Neben der Lehre widmet sich die FH St. Pölten intensiv der Forschung. Die wissenschaftliche Arbeit erfolgt zu den oben genannten Themen sowie institutsübergreifend und interdisziplinär. Die Studiengänge stehen in stetigem Austausch mit den Instituten, die laufend praxisnahe und anwendungsorientierte Forschungsprojekte entwickeln und umsetzen.
Informationen und Rückfragen:
Mag. Mark Hammer
Fachverantwortlicher Presse
Marketing und Unternehmenskommunikation
T: +43/2742/313 228 269
M: +43/676/847 228 269
E: mark.hammer@fhstp.ac.at
I: https://www.fhstp.ac.at/de/presse
Pressetext und Fotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse.
Allgemeine Pressefotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse/pressefotos-logos.
Die FH St. Pölten hält ausdrücklich fest, dass sie Inhaberin aller Nutzungsrechte der mitgesendeten Fotografien ist. Der Empfänger/die Empfängerin dieser Nachricht darf die mitgesendeten Fotografien nur im Zusammenhang mit der Presseaussendung unter Nennung der FH St. Pölten und des Urhebers/der Urheberin nutzen. Jede weitere Nutzung der mitgesendeten Fotografien ist nur nach ausdrücklicher schriftlicher Zustimmung (Mail reicht aus) durch die FH St. Pölten erlaubt.
Natürlich finden Sie uns auch auf Facebook und Twitter:
https://www.facebook.com/fhstp, https://twitter.com/FH_StPoelten.
Quelle: IDW
(nach oben)
Von der Stickstoffkrise zur Phosphatkrise? Internationales Forschungsteam fordert europaweite Phosphatrichtlinie
Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Durch eine europaweite Nitrat-Richtlinie will die EU Stickstoffemissionen in der Umwelt reduzieren. Es wird angenommen, dass dies gleichzeitig viele gefährdete Pflanzenarten schützen könnte, von denen viele unter hohen Nährstoffkonzentrationen in der Umwelt leiden. Aber gerade die Nitrat-Richtlinie der EU könnte dazu führen, dass viele der seltenen und bedrohten Pflanzenarten besonders leiden. Das hat ein internationales Forschungsteam der Universitäten Göttingen, Utrecht und Zürich herausgefunden. Ihre Studie wurde in der internationalen Zeitschrift Nature Ecology and Evolution veröffentlicht.
(pug) Stickstoff ist ein wichtiger Nährstoff für Pflanzenarten, aber ein Übermaß an Stickstoff kann schädlich für die Artenvielfalt sein. Das liegt daran, dass die Pflanzenarten, die mit viel Stickstoff gedeihen können, andere Arten verdrängen können, die an niedrige Stickstoffkonzentrationen angepasst sind. „Aber es reicht nicht aus, nur den Stickstoff zu reduzieren“, sagt Koautor Julian Schrader, wissenschaftlicher Mitarbeiter in der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen. „Eine solche Politik kann sogar kontraproduktiv für den Schutz bedrohter Pflanzenarten sein, wenn man nicht auch andere Nährstoffe mit einbezieht.“
Neben Stickstoff benötigen Pflanzen für ihr Wachstum unter anderem auch Phosphor und Kalium. Entscheidend dafür sind die Proportionen dieser Nährstoffe im Boden. Die Forscher stellten fest, dass, wenn die Stickstoffkonzentration im Boden reduziert wird, ohne die Phosphorkonzentration zu verringern, genau die Pflanzenarten nicht mehr vorkommen, die bedroht sind.
„Viele gefährdete Pflanzenarten in Europa kommen an Orten vor, an denen die Phosphorkonzentration niedrig ist“, erläutert Schrader. Aufgrund der Tatsache, dass die relative Konzentration von Phosphor zunimmt, wenn die Stickstoffkonzentrationen infolge einer wirksamen Politik abnehmen, geraten diese Arten unter Druck. Die gefährdeten Arten reagieren besonders empfindlich auf Veränderungen der Nährstoffkonzentrationen und sollten nach Ansicht der Forscher stärker geschützt werden.
Die Ergebnisse dieser Forschung haben erhebliche Konsequenzen für die aktuelle Stickstoffpolitik: Die Autoren plädieren daher für die Einführung einer europäischen Phosphat-Richtlinie zusätzlich zur bereits bestehenden Nitrat-Richtlinie.
Wissenschaftliche Ansprechpartner:
Julian Schrader
Georg-August-Universität Göttingen
Abteilung Biodiversität, Makroökologie und Biogeographie
E-Mail: jschrad@uni-goettingen.de
Internet: http://www.uni-goettingen.de/en/128741.html
Originalpublikation:
Wassen, M. J., Schrader, J., Van Dijk, J., Eppinga, M. B. (2020) Phosphorus fertilization is eradicating the niche of northern Eurasia’s threatened plant species. Nature Ecology and Evo-lution (2020). doi: 10.1038/s41559-020-01323-w
Quelle: IDW
(nach oben)
Weltdiabetestag am 14. November: Neue Angebote auf http://www.diabinfo.de
Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
In Deutschland leben rund sieben Millionen Menschen mit Diabetes mellitus. Im Jahr 2040 könnten sogar bis zu 12 Millionen Menschen von Typ-2-Diabetes betroffen sein. Die Erkrankung entsteht meist schleichend und kann über Jahre völlig symptomlos bleiben. Umso wichtiger ist es, die Bevölkerung über Risiken und Präventionspotenziale zu informieren. Das durch die BZgA initiierte unabhängige Diabetesinformationsportal http://www.diabinfo.de bietet qualitätsgesicherte und wissenschaftlich fundierte Informationen – und dies nun auch in türkischer Sprache. Angebote in weiteren Sprachen sind in Vorbereitung.
Prof. Heidrun Thaiss, Leiterin der Bundeszentrale für gesundheitliche Aufklärung: „Diabetes Typ 2 ist eine schleichende Erkrankung mit hohem präventivem Potenzial, das man kennen sollte. Deshalb freuen wir uns, unser Internetangebot stetig zu erweitern. Typ-2-Diabetes trifft viele Menschen oft wie aus dem Nichts. Neben Übergewicht, Bewegungsmangel und ungesunder Ernährung als Risikofaktoren kann Typ-2-Diabetes auch eine genetische Komponente haben. Anlässlich des Weltdiabetestages machen wir deshalb bundesweit über Anzeigenmotive auf die Krankheit aufmerksam und ermutigen dazu, das eigene Diabetes-Risiko mithilfe eines Online-Tests auf diabinfo zu ermitteln und im Verdachtsfall ärztlichen Rat einzuholen.“
Das Portal enthält zudem umfassende Informationen rund um das Coronavirus mit Relevanz für Menschen mit Diabetes und deren Angehörige. In einem neuen Unterportal finden nun auch Diabetesberaterinnen und -berater praxisnahe Inhalte zu Bewegung, Ernährung, Diabetes in verschiedenen Lebensabschnitten und anderen Kulturkreisen. Weitere Informationen wie Adressen von Fachärzten und Fachärztinnen, Fachkliniken, Ernährungsberatung, Selbsthilfegruppen und Präsentationsvorlagen bieten Unterstützung für die tägliche Beratungsarbeit.
Prof. Matthias Tschöp, Wissenschaftlicher Geschäftsführer des Helmholtz Zentrums München: „Wir forschen für eine Welt ohne Diabetes. Dafür müssen Krankenversorgung, Prävention und Forschung Hand in Hand gehen. Als eines der weltweit größten Diabetesforschungszentren stellen wir uns mit diabinfo unserer gesellschaftlichen Aufgabe und unterstützen mit unserem Wissen Menschen im eigenverantwortlichen Umgang mit ihrer Erkrankung.“
Prof. Michael Roden, Wissenschaftlicher Direktor des Deutschen Diabetes-Zentrums und Vorstand des Deutschen Zentrums für Diabetesforschung: „Wir haben zum Ziel, die Vorsorge und Versorgung bei Diabetes an die individuellen Bedürfnisse der Betroffenen, ihrer Angehörigen, aber auch aller Interessierten anzupassen. Das bedarf nicht nur modernster klinischer Forschung, für die wir am DDZ stehen, sondern auch gezielter Information mit neuen Formaten wie diabinfo, das die Kommunikation in der Gesellschaft zu Diabetes weiter erleichtern wird.“
Prof. Martin Hrabě de Angelis, Vorstand und Sprecher des Deutschen Zentrums für Diabetesforschung: „Im nächsten Schritt werden wir im Fachkreiseportal auch fachspezifische Angebote für Ärztinnen und Ärzte bereitstellen und werden die aktuellen Ergebnisse aus der Forschung miteinbinden.“
Die Informationen auf http://www.diabinfo.de richten sich an Menschen mit Diabetes, an Menschen mit einem besonderen Diabetes-Risiko sowie an deren Angehörige, Diabetesberatende und an thematisch Interessierte. Neben Basiswissen, aktuellen Meldungen, Hintergrundartikeln und häufig gestellten Fragen beinhaltet das Onlineportal Erklärvideos, Podcasts, Infografiken und Quiz. Für Lehrkräfte stehen Unterrichtsmaterialien zum kostenlosen Download bereit. Zudem besteht die Möglichkeit, persönliche Fragen zu stellen, die von Expertinnen und Experten individuell beantwortet werden. diabinfo wird maßgeblich durch die BZgA finanziert und von den führenden Zentren der Diabetesforschung in Deutschland angeboten und regelmäßig aktualisiert – dem Helmholtz Zentrum München, dem Deutschen Diabetes-Zentrum (DDZ) und dem Deutschen Zentrum für Diabetesforschung (DZD).
Weitere Informationen: http://www.diabinfo.de
Quelle: IDW
(nach oben)
Mit Nelkenöl und Kupfermünzen gegen die Asiatische Buschmücke
Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Immer öfter finden sich exotische Stechmücken in Deutschland, die potentiell Krankheiten übertragen. In Zukunft werden daher mehr Kontrollmittel gegen die potentiellen Krankheitsüberträger notwendig sein. Experimente von Senckenberg-Wissenschaftler*innen zeigen, dass ätherisches Nelkenöl und Kupfermünzen sich dazu eignen könnten. Eine Befragung durch Forscher*innen des ISOE-Institut für sozialökologische Forschung ergab, dass potenzielle Nutzer*innen diese Mittel lieber verwenden würden als ein herkömmliches Insektizid. In der Entwicklung neuer Insektizide sollte die Ansicht potentieller Anwender*innen unbedingt beachtet werden, schreibt das Team aktuell im Fachmagazin ‚Scientific Reports‘.
Stechmücken sind selten beliebt. Insbesondere exotische Vertreter dieser Insektenart sind hierzulande unerwünscht. Solche Stechmücken breiten sich aber zunehmend durch Globalisierung und Klimawandel in Deutschland aus – und zusätzlich werden auch durch Stechmücken übertragene Viren häufiger. Die Asiatische Buschmücke Aedes japonicus japonicus beispielsweise kommt als Überträgerin der Japanischen Enzephalitis-Viren und des West-Nil-Virus sowie der Erreger des Dengue-Fiebers und des Chikungunya-Fiebers infrage.
„Um zu verhindern, dass diese Stechmücken Krankheiten übertragen, kann es in Zukunft notwendig sein, sie zu kontrollieren, also ihre Anzahl zu verringern. Für die Kontrolle der Larven, ist für Privatleute bisher nur der Wirkstoff Bacillus thuriengiensis israelensis (Bti) verfügbar. Er gilt als spezifisch, ist aber umstritten, da es Anzeichen gibt, dass damit andere Tiere, zum Beispiel für die Nahrungskette wichtige Mücken, ebenfalls abgetötet werden. Zusätzliche Mittel sind daher dringend notwendig“, so Dr. Friederike Reuss, Senckenberg Biodiversität und Klima Forschungszentrum.
Ein Team um Reuss testete daher in einem Freilandexperiment, wie gut ätherisches Nelkenöl und Kupfer in Form von Kupferband gegen die Eiablage der Asiatischen Buschmücke in stehenden Gewässern wirkt. Zusätzlich prüften die Forscher*innen im Labor, wie giftig kupferhaltige Ein-, Zwei- und Fünf-Cent Stücke und Nelkenöl für die Larven der Stechmücken sind.
Reuss erläutert: „Nelkenöl verhindert die Eiablage von Aedes japonicus – die deutschlandweit am großflächigsten verbreitete exotische Stechmücke – beträchtlich. Ein Gramm Nelkenöl in einem Becher reicht aus, um die Eiablage darin auf ein Zehntel zu reduzieren. Zudem ist Nelkenöl giftig und tötet die Larven vollständig ab. Aus Eurocent-Münzen gelöstes Kupfer ist etwas weniger effizient gegen die Larven, aber dennoch wirksam. Die beiden natürlichen Mittel würden sich daher zur Eindämmung einer Population Asiatischer Buschmücken eignen.“
Die Asiatische Buschmücke brütet bevorzugt in der Nähe von Siedlungen. Dort bieten selbst kleine Wasserflächen in Regentonnen, Untersetzern und Vasen in Privatgärten und auf Friedhöfen den Stechmücken beste Bedingungen. „Um die Stechmücken kontrollieren zu können, ist es deshalb wichtig, dass die Bevölkerung aktiv mithilft und die Mittel auch wirklich im eigenen Garten anwendet“, sagt Dr. Marion Mehring vom ISOE-Institut für sozial-ökologische Forschung.
ISOE-Forscher*innen unter der Leitung von Mehring haben mehr als 400 Gartennutzer*innen und Grabpfleger*innen aus Hessen, Baden-Württemberg und Rheinland-Pfalz telefonisch zu diesem Thema befragt. Überraschenderweise lehnt die Mehrheit der Befragten den gut etablierten Wirkstoff Bti ab. „Potenzielle Anwender*innen würden bevorzugt kupferhaltige Eurocent-Münzen und ätherische Öle zur Eindämmung von Stechmücken anstelle von Bti anwenden. Am liebsten würden die Befragten Kupfermünzen, die praktisch alle besitzen, benutzen“, so Mehring. Sehr viele der Befragten sind zudem bereit, präventive Maßnahmen, wie das Abdecken von Regentonnen in ihrem Alltag umzusetzen.
Die interdisziplinäre Zusammenarbeit mit der Kombination ökologischer und sozialwissenschaftlicher Forschung hat sich gelohnt: Mit Nelkenöl und Kupfermünzen konnten die Forscher*innen zwei von Anwender*innen akzeptierte Mittel zur Kontrolle von Asiatischen Buschmücken identifizieren, die nun weiterentwickelt werden können.
Die Studie ist Teil des Forschungsprojektes AJAP II zur Entwicklung umweltfreundlicher Maßnahmen zur Kontrolle der Asiatischen Buschmücke. Dazu kooperieren das Senckenberg Biodiversität und Klima Forschungszentrum, das ISOE-Institut für sozial-ökologische Forschung und das Institut für Arbeitsmedizin, Sozialmedizin und Umweltmedizin der Goethe-Universität Frankfurt am Main. Das Projekt wird vom Fachzentrum Klimawandel und Anpassung des Hessischen Landesamtes für Naturschutz, Umwelt und Geologie (HLNUG) gefördert.
Wissenschaftliche Ansprechpartner:
Dr. Friederike Reuss
Senckenberg Biodiversität und Klima Forschungszentrum
friederike.reuss@senckenberg.de
Dr. Marion Mehring
ISOE-Institut für sozialökologische Forschung &
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69 7076919 39
mehring@isoe.de
Originalpublikation:
Reuss, F. et al (2020): Knowledge on exotic mosquitoes in Germany, and public acceptance and effectiveness of Bti and two self prepared insecticides against Aedes japonicus japonicus. Scientific Reports, doi: 10.1038/s41598-020-75780-5
Quelle: IDW
(nach oben)
Pressemeldung: „Arbeitswelt nicht nur punktuell reformieren, sondern umfassend nachhaltig transformieren!“
Bastian Strauch Presse- und Öffentlichkeitsarbeit
Wissenschaftsplattform Nachhaltigkeit 2030
Die Wissenschaftsplattform Nachhaltigkeit 2030 (wpn2030) hat ein Empfehlungspapier an die Bundesregierung zur Förderung nachhaltiger Arbeit veröffentlicht.
„Auch in Sachen Arbeitswelt stehen wir vor gewaltigen Gestaltungsaufgaben, damit eine nachhaltigen Entwicklung gelingt – und die Corona-Krise führt uns einmal mehr die Dringlichkeit vor Augen“, betonen Univ.-Prof. Marion A. Weissenberger-Eibl (Fraunhofer ISI & KIT) und Prof. Stephan Lessenich (LMU München), die eine transdisziplinäre Arbeitsgruppe zur Erstellung des Papiers geleitet haben. „Wichtig wird dabei insbesondere sein, die Arbeitswelt nicht nur punktuell zu reformieren, sondern umfassend und nachhaltig zu transformieren – so dass das Soziale, Wirtschaftliche und Ökologische zukünftig wie selbstverständlich zusammen gedacht und gestaltet werden.“
Eine Transformation hin zu einer nachhaltigen Arbeitswelt sei dringend geboten, um sozialen, wirtschaftlichen und ökologischen Schieflagen und der Überausbeutung von Arbeit und Natur langfristig und global entgegenwirken zu können. Der Weg dorthin sei aber noch weit, denn: „Punktuelle Ansätze sind zwar vielerorts vorhanden und auch teilweise erfolgreich. Für weitreichende Effekte allerdings mangelt es an umfassenden konzeptionellen Grundlagen zur Gestaltung einer nachhaltigen Arbeitswelt“, so Marion A. Weissenberger-Eibl.
In ihrem Papier beleuchtet die Arbeitsgruppe der wpn2030 unter anderem den Status von Arbeit und langfristige Trends in der Arbeitswelt. „In gewisser Hinsicht leben wir mitunter noch im 19. Jahrhundert“, so Stephan Lessenich, „denn unsere Vorstellungen und Konzepte davon, was ‚gute Arbeit‘ ausmachen sollte, hängen noch stark an den klassischen industriellen Arbeitsverhältnissen und passen nur noch unzureichend zu den Realitäten, Tendenzen und Anforderungen des 21. Jahrhunderts.“ Unterbelichtet seien insbesondere neue Arbeitsformen und Trends wie etwa Solo-Selbständige, Sub-Unternehmer*innen oder digital arbeitende Click- und Crowdworker*innen. Ebenso die engen globalen Zusammenhänge wie etwa der Zugriff auf billige Arbeit in anderen Weltregionen, oftmals mit zerstörerischen sozialen und ökologischen Folgen, und nicht zuletzt die anhaltende und sich verschärfende Ausbeutung und nicht-nachhaltige Nutzung natürlicher Ressourcen. Lessenich: „All das sind sehr wirkmächtige, längst existente und miteinander verbundene Faktoren unserer heutigen Arbeitswelt, die wir mit einbeziehen müssen, um zu einem zeitgemäßen Bild von guter – und eben nachhaltiger – Arbeit zu kommen. Und das brauchen wir, damit es gesellschaftliche Gestaltung und politische Entscheidungen anleiten kann.“ Falls dies ausbleibe, laufe man Gefahr, dass sich soziale, wirtschaftliche und ökologische Schieflagen weiter verschärfen.
In ihrem Impulspapier präsentiert die wpn2030 erste Vorschläge für Gütekriterien nachhaltiger Arbeit, die in einem gesamtgesellschaftlichen Dialog aufgegriffen und weiter konkretisiert werden sollten. Diese Gütekriterien zielen auf die engere Verzahnung der Arbeitswelt mit Zielen nachhaltiger Entwicklung: „Innovationen werden bei all dem eine zentrale Rolle spielen. Ihre Beiträge für nachhaltige Entwicklung und ihr nachhaltiger Einsatz werden dabei entscheidend sein“, so Weissenberger-Eibl. Digitale Technologien können einerseits zu einer Entgrenzung von Arbeit beitragen, bergen aber auch große Chancen für beispielsweise soziale Innovationen, die zu nachhaltigeren Arbeitswelten beitragen können.
Neben konzeptionellen Weiterentwicklungen bedürfe es dringend auch struktureller Veränderungen. „Nachhaltige Arbeit muss zu einem politischen Querschnittsthema gemacht werden – mehr Ressorts als bisher müssen für die Gestaltung zusammenkommen“, so Lessenich. Mit der Deutschen Nachhaltigkeitsstrategie liege auch bereits ein Rahmen vor, in dem dies stärker als bislang politisch zusammengedacht werden könne. Dieser Rahmen müsse aber deutlich intensiver genutzt werden.
„Auch müssen wir in Deutschland den gesellschaftlichen Dialog zu Arbeit und Nachhaltigkeit intensiver führen“, so Weissenberger-Eibl. „Die Aufgabe, zu einer nachhaltigen Arbeitswelt zu kommen, ist riesig und sie betrifft uns alle – auf unterschiedlichsten Ebenen. Wir müssen also endlich zusammenkommen und darüber sprechen. Wir dürfen das Möglichkeitsfenster, das uns die Erfahrungen aus der Corona-Krise eröffnet, nicht ungenutzt lassen.“
Die wpn2030 ist ein zentraler Ort der Wissenschaft, an dem sie drängende Fragen der Nachhaltigkeitspolitik diskutiert – im Austausch mit Politik, Wirtschaft und Gesellschaft.
Das Empfehlungspapier zum Download: https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…
Weitere Informationen: http://www.wpn2030.de
Kontakt:
Bastian Strauch, Pressereferent wpn2030
bastian.strauch@iass-potsdam.de
0331 2882 2319
Weitere Informationen:
https://www.wpn2030.de/wp-content/uploads/2020/11/Wege-zu-einer-nachhaltigen-Arb…
http://www.wpn2030.de
Anhang
Wege zu einer nachhaltigen Arbeitswelt
https://idw-online.de/de/attachment81179
Quelle: IDW
(nach oben)
Schwangerschaft: Umgebungstemperatur beeinflusst den Stoffwechsel der Nachkommen
Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck
Studie mit hoher Relevanz angesichts des bevorstehenden Klimawandels – Verändertes Muskelwachstum durch epigenetische Modifikationen an der fötalen DNA – Wahrscheinlich durch spätere Lifestyle-Änderungen wie Sport und Bewegung reversibel
Bereits geringe Veränderungen der Außentemperatur während der Schwangerschaft können den Stoffwechsel (Metabolismus) der Nachkommen nachhaltig verändern – diesen bislang nicht bestätigten Zusammenhang hat ein Lübecker Forscherteam um Dr. Rebecca Ölkrug und Prof. Jens Mittag nun genauer untersucht.
Es ist schon lange etabliert, dass bereits im Mutterleib der Grundstein dafür gelegt wird, ob man später eine erhöhte Prädisposition für eine metabolische oder endokrinologische Erkrankung aufweist. Dies geschieht über sogenannte epigenetische Veränderungen am fötalen Erbgut, welche maßgeblich über Lifestylefaktoren und Umwelteinflüsse während der Schwangerschaft programmiert werden. Natürlicherweise ermöglicht dieser Mechanismus es Säugetieren, flexibel auf ihre Umwelt zu reagieren und je nach Bedarf z.B. Stoffwechselwege in der nachfolgenden Generation zu optimieren.
Im Menschen sind diese Einflüsse aber oft von den tatsächlichen Bedingungen entkoppelt, so dass die Nachkommen nicht optimal an ihre Umweltbedingungen angepasst sind und daher für metabolische Erkrankungen anfälliger werden. Ein prominentes Beispiel dafür ist, dass übergewichtige Mütter oft Kinder bekommen, die ebenfalls anfällig für die Entwicklung von Übergewicht werden. Die vorliegende Studie, die nun in der renommierten Zeitschrift Cell Reports veröffentlich wurde, untersucht zum ersten Mal, inwieweit die Umgebungstemperatur in der Schwangerschaft Einfluss auf diese fötale metabolische Programmierung der Nachkommen hat.
„Erstaunlicherweise hatte eine kältere Außentemperatur in der Schwangerschaft nicht nur Einfluss auf die spätere Größe der Nachkommen, sondern reduzierte auch ihr Muskelwachstum und könnte somit die Entstehung von Typ II Diabetes begünstigen“, erklärt Prof. Jens Mittag, einer von zwei Direktoren des neu gegründeten Instituts für Endokrinologie und Diabetes der Universität zu Lübeck. Aber laut der Erstautorin der Studie, Dr. Rebecca Ölkrug, die gerade selbst im achten Monat schwanger ist, besteht kein Grund zur Panik. „Die von uns dokumentierten Veränderungen im Muskelwachstum und Stoffwechsel bei den Nachkommen konnten durch ausreichend Bewegung im Erwachsenenalter rückgängig gemacht werden.“
Die Forscher gehen davon aus, dass epigenetische Modifikationen an der fötalen DNA diese Veränderungen im Muskelwachstum hervorgerufen haben und diese durch spätere Lifestyle-Veränderungen wie Sport und Bewegung reversibel sind. „Uns geht es primär darum, mit unserer Forschung Risikofaktoren während der Schwangerschaft aufzudecken. Damit können wir dazu beitragen, die Versorgung von schwangeren Frauen und ihrer ungeborenen Babys so optimal wie möglich zu gestalten“, so Dr. Ölkrug. Da diese Studien im Tiermodell durchgeführt wurden, sind jedoch zunächst größere epidemiologische Langzeitstudien an schwangeren Müttern und ihren Kindern notwendig, um die Übertragbarkeit dieser Beobachtung auf den Menschen zu bestätigen. Angesichts des bevorstehenden Klimawandels dürften diese Studien allerdings von höchster Relevanz sein, nicht nur was metabolische Erkrankungen im Menschen angeht, sondern auch für möglichen Veränderungen in freilebenden oder domestizierten Säugetieren in Freilufthaltung.
Welche Stoffwechselwege oder Hormone sich nun genau bei der Mutter durch die Außentemperatur verändern und zu der epigenetischen Umprogrammierung der Nachkommen beitragen, das wollen die Forscher nun in einer Folgestudie untersuchen, die wie auch die vorliegende Studie von der Deutschen Forschungsgemeinschaft DFG mit einer umfangreichen Sachbeihilfe finanziert wird.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jens Mittag
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 3101 7826
E-Mail: jens.mittag@uni-luebeck.de
http://www.innere1.uni-luebeck.de
Dr. Rebecca Ölkrug
Universität zu Lübeck
Institut für Endokrinologie und Diabetes
Tel.: +49 451 31017833
E-Mail: Rebecca.Oelkrug@uksh.de
Originalpublikation:
https://www.cell.com/cell-reports/fulltext/S2211-1247(20)31340-1
Quelle: IDW
(nach oben)
Archiv der Tierwanderungen in der Arktis
Dr. Harald Rösch Abteilung Kommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Ein globales Archiv mit Bewegungsdaten aus über drei Jahrzehnten protokolliert Veränderungen im Verhalten arktischer Tiere
Wärmere Winter, frühere Frühlinge, schrumpfendes Eis und mehr menschliche Aktivitäten – die Arktis durchläuft dramatische Veränderungen, die sich auch auf die einheimische Tierwelt auswirken. Forschende aus der ganzen Welt haben jetzt ein Datenarchiv zur Dokumentation von Tierbewegungen in der Arktis und Subarktis aufgebaut. Das Archiv läuft auf der Movebank-Plattform am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, Deutschland. Mit dem „Arctic Animal Movement Archive“ können Wissenschaftler ihr Wissen austauschen und gemeinsam untersuchen, wie Tiere auf eine sich verändernde Arktis reagieren. Drei neue Studien aus dem Archiv zeigen großräumige Änderungen im Verhalten von Steinadlern, Bären, Karibus, Elchen und Wölfen in der Region. Sie veranschaulichen, wie das Archiv genutzt werden kann, um größere Veränderungen des Ökosystems zu erkennen.
Wissenschaftlerinnen und Wissenschaftler beobachten seit langem die Bewegungen und das Verhalten von Tieren in der Arktis. Es war jedoch schwierig, die Studien dazu ausfindig zu machen und auf sie zuzugreifen. Ein internationales Team unter der Leitung von Sarah Davidson, Datenkuratorin am Max-Planck-Institut für Verhaltensbiologie in Radolfzell, und Gil Bohrer von der Ohio State University haben deshalb ein von der NASA finanziertes globales Datenarchiv für Studien zur Tierwanderung in der Arktis und Subarktis aufgebaut.
Das Arctic Animal Movement Archive soll Wissenschaftler und Wissenschaftlerinnen miteinander vernetzen und ihre Zusammenarbeit fördern. Forschende von über 100 Universitäten, Regierungsbehörden und Naturschutzgruppen aus 17 Ländern sind daran beteiligt. „Mit dem Archiv wollen wir eine globale Forschungsgemeinschaft über Institutionen und politische Grenzen hinweg aufbauen“, sagt Martin Wikelski vom Max-Planck-Institut für Verhaltensbiologie, der die Forschungsplattform Movebank entwickelt hat. Das Archiv enthält derzeit über 200 Forschungsprojekte mit den Bewegungsdaten von mehr als 8.000 Meeres- und Landtieren von 1991 bis heute.
Zugverhalten der Steinadler
Forschende haben nun verschiedene Studien veröffentlicht, die Daten und Fachwissen mithilfe des Archivs zusammenführen. So stellten Wissenschaftler beim Vergleich der Bewegungen von mehr als 100 Steinadlern von 1993 bis 2017 fest, dass junge Adler, die nach milden Wintern nach Norden ziehen, früher in ihren Brutgebieten eintreffen. Die Ankunftszeit der ausgewachsenen Vögel ist jedoch unabhängig von den Bedingungen an ihren Brutplätzen ziemlich konstant geblieben. Dies beeinflusst das Brutgeschäft und das Überleben der Küken. „Unsere Ergebnisse zeigen, dass wir Klimadaten berücksichtigen müssen, die Jahrzehnte umfassen“, sagt Scott LaPoint, Wissenschaftler bei Black Rock Forest.
Eine zweite Studie mit mehr als 900 weiblichen Karibu-Weibchen aus den Jahren 2000 bis 2017 hat ergeben, dass Herden weiter im Norden früher im Frühling gebären, während sich die Geburten der südlicheren Populationen weniger stark verändert haben. „Dass wir die Geburt in einem so großen Maßstab, über Populationen und Unterarten hinweg und über Millionen von Quadratkilometern untersuchen können, ist für eine Tierart in einer so abgelegenen und rauen Umgebung wirklich beispiellos“, erklärt Elie Gurarie von der Universität Maryland.
Unterschiedliche Reaktionen auf den Klimawandel
Eine dritte Analyse, die sich mit den Wanderungsgeschwindigkeiten von Bären, Karibus, Elchen und Wölfen von 1998 bis 2019 befasst, kommt zu dem Schluss, dass die Arten unterschiedlich auf jahreszeitliche Temperaturen und winterliche Schneebedingungen reagieren. „Wie Tiere mit ihren Wanderungen auf veränderliche Wetterbedingungen reagieren, wirkt sich auf den Konkurrenzkampf der Arten und die Räuber-Beute-Dynamik aus“, sagt Peter Mahoney, der seine Untersuchungen an der Universität Washington durchgeführt hat.
Zu den Hunderten von Studien, die bereits im Archiv enthalten sind, kommen immer weitere hinzu. Dies dürfte dazu beitragen, Veränderungen im Verhalten der Tiere und im arktischen Ökosystem zu erkennen. „Darüber hinaus liefern wir eine dringend benötigte Datenbasis früherer Verhaltensweisen und Wanderungen“, sagt Davidson. „Damit lassen sich das Wildtiermanagement verbessern, neue Forschungsfragen beantworten und Veränderungen in der Arktis für zukünftige Generationen dokumentieren.“
Wissenschaftliche Ansprechpartner:
Sarah Davidson
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sdavidson@ab.mpg.de
Prof. Dr. Martin Wikelski
Max-Planck-Institut für Verhaltensbiologie, Radolfzell / Konstanz
sknopf@ab.mpg.de
Originalpublikation:
Sarah C. Davidson et al.
Ecological insights from three decades of animal movement tracking across a changing Arctic.
Science; 5 November, 2020 (DOI: 10.1126/science.abb7080)
Weitere Informationen:
https://www.movebank.org/cms/movebank-content/arctic-animal-movement-archive Das Arctic Animal Movement Archive
Quelle: IDW
(nach oben)
COVID-19: Wie hängen Schweregrad der Erkrankung und die Antikörperantwort zusammen?
Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Forschungsteams des Paul-Ehrlich-Instituts haben gemeinsam mit Teams des Universitätsklinikums Frankfurt/Main und des Leibniz-Instituts für Primatenforschung, Göttingen, die Antikörperantwort von COVID-19-Patienten in Deutschland untersucht. Ziel war es, neue Erkenntnisse über den Zusammenhang zwischen dem Krankheitsverlauf und der Immunreaktion zu gewinnen und mögliche Schutzkorrelate zu identifizieren, die für die Entwicklung von Impfstoffen und therapeutischen Antikörpern benötigt werden. Die Zeitschrift The Journal of Infectious Diseases berichtet in seiner Online-Ausgabe vom 31.10.2020 über die Ergebnisse der Untersuchung.
Bereits mehr als 47 Millionen Personen haben sich weltweit mit dem Coronavirus SARS-CoV-2 infiziert und rund 1,2 Millionen Todesfälle stehen im Zusammenhang mit einer SARS-CoV-2-Infektion. Die Infektion mit SARS-CoV-2 verläuft bei Betroffenen sehr unterschiedlich. Während ein Teil der Infizierten überhaupt keine Krankheitszeichen entwickelt, erkrankt ein anderer Teil unter Beteiligung unterschiedlicher Organsysteme schwer. Bei knapp zwei Prozent der bestätigten Fälle in Deutschland verläuft die Erkrankung tödlich. Für die Entwicklung wirksamer therapeutischer Maßnahmen ist ein umfassendes Verständnis der Pathogenese von SARS-CoV-2 und der immunologischen Prozesse erforderlich, wodurch auch die unterschiedlichen Krankheitsverläufe erklärbar werden könnten. Neben Prozessen der angeborenen Immunantwort sind vor allem zwei Säulen der erworbenen Immunität von zentraler Bedeutung für die Immunabwehr des Coronavirus SARS-CoV-2: Zum einen die Bildung von spezifischen Antikörpern (Immunglobulinen), die das Virus neutralisieren und inaktivieren können. Diese Immunantwort wird als humorale Immunantwort bezeichnet. Eine weitere Säule ist die Bildung spezifischer Immunzellen (T-Zellen), die zelluläre Immunantwort, die infizierte Zellen abtöten kann.
Forschungsteams des Paul-Ehrlich-Instituts um Prof. Barbara Schnierle, Leiterin des Fachgebiets „AIDS, neue und neuartige Erreger“, und Dr. Heinrich Scheiblauer, stellv. Leiter des Prüflabors für In-vitro-Diagnostika haben gemeinsam mit Wissenschaftlern und Wissenschaftlerinnen des Universitätsklinikums Frankfurt/Main und des Leibniz-Institut für Primatenforschung, Göttingen, die humorale Immunantwort – die Antikörperbildung – in einer Kohorte von 143 COVID-19-Patienten des Universitätsklinikums Frankfurt/Main charakterisiert. Sie wiesen SARS-CoV-2-spezifische Antikörper mittels Enzym-linked Immunosorbent-Assay (ELISA) nach. Die Neutralisierungsaktivität –also die Fähigkeit der Antikörper, die Anbindung des Virus SARS-CoV-2 an die zellulären ACE2-Rezeptoren und damit die Infektion neuer Zellen zu neutralisieren – wurde mit sogenannten pseudotypisierten lentiviralen Vektoren analysiert. Dabei handelt es sich um vermehrungsunfähige Viruspartikel, die mit dem Spikeprotein des SARS-CoV-2-Virus bestückt sind und wie CoV-2 an die ACE2-Rezeptoren binden können.
Rund drei Viertel der 143 COVID-19-Patienten hatten eine leichte Erkrankung. Bei älteren Patienten, insbesondere bei Männern, traten jedoch häufiger schwere Fälle auf. Der klinische Schweregrad der Erkrankung war positiv korreliert mit dem Spiegel (Titer) SARS-CoV-2-neutralisierender Antikörper in den Serumproben der Patienten. Darüber hinaus korrelierten die Spiegel bestimmter Antikörper, die Immunglobuline (Ig) IgG und IgA, die gegen das SARS-CoV-2-Spikeprotein oder die Rezeptorbindungsdomäne (RBD) im Spikeprotein gerichtet waren, mit der Schwere der Erkrankung. Bei den Patienten mit einem klinisch weniger schweren Verlauf wurde eine Abnahme der IgG-Antikörper-Spiegel in später entnommenen Blutproben festgestellt.
Insgesamt waren die neutralisierenden Antikörpertiter von Patientinnen und Patienten mit leichter Erkrankung sehr niedrig. Höhere Titer wurden nur bei Patientinnen und Patienten mit schwerer Erkrankung festgestellt. Dies bestätigt früher berichtete Beobachtungen, dass die meisten rekonvaleszenten Plasmaproben von Personen, die sich von COVID-19 erholt haben, keine hohe neutralisierende Aktivität aufweisen.
Immer wieder wird die Möglichkeit einer Kreuzprotektivität diskutiert: Gemeint ist, dass ein früherer Kontakt mit verwandten harmloseren Coronaviren des Menschen dafür sorgen könnten, dass das Immunsystem besser für eine SARS-CoV-2-Infektion gewappnet sein könnte. Das humane Coronavirus NL63 (HCoV-NL63) wurde erstmalig 2004 beschrieben und verursacht leichte bis mittelschwere Atemwegsinfektionen. Serologische Daten über NL63-Infektionen liegen hauptsächlich von Kindern vor und weisen darauf hin, dass HCoV-NL63-Infektionen in der Kindheit häufig auftreten. Es könnte spekuliert werden, dass eine bereits bestehende Immunität gegen HCoV-NL63 oder andere gewöhnliche Erkältungs-Coronaviren das Risiko einer schweren Erkrankung verringern könnte. In der aktuellen Untersuchung gab es Hinweise auf eine Korrelation zwischen einem schweren COVID-19-Krankheitsverlauf und einer niedrigen HCoV-NL63-neutralisierenden Aktivität, allerdings bei geringer Datenmenge. Dieser Hinweis wird sicher Anlass für weiterführende Untersuchungen sein.
Originalpublikation:
Henss L, Scholz T, von Rhein C, Wieters I, Borgans F, Eberhardt FJ, Zacharowski K, Ciesek S, Rohde G, Vehreschild M, Stephan C, Wolf T, Hofmann-Winkler H, Scheiblauer H, Schnierle BS (2020): Analysis of humoral immune responses in SARS-CoV-2 infected patients.
J Infect Dis Oct 31 [Epub ahead of print].
DOI: 10.1093/infdis/jiaa680
Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/33128369/ – Online-Abstract
https://www.pei.de/DE/newsroom/pm/jahr/2020/19-covid-19-wie-haengen-schweregrad-… – Diese Pressemitteilung auf den Internetseiten des PEI
Quelle: IDW
(nach oben)
Cholesterin im Blick behalten – Herzinfarktrisiko senken
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Herzstiftung informiert über Risiken zu hoher Cholesterinwerte und gibt Tipps zur Senkung
Hohe Cholesterinwerte zählen zu den größten Risikofaktoren für Herz-Kreislauf-Erkrankungen. Insbesondere hohe LDL-Werte steigern das Risiko, einen Herzinfarkt oder Schlaganfall zu erleiden. Umgekehrt können niedrige Werte Herz und Gefäße schützen. Studien haben die günstigen Effekte sehr niedriger LDL-Werte belegt und zu neuen Therapieempfehlungen geführt (1). Wie hoch die Cholesterinwerte sein dürfen, hängt von verschiedenen Faktoren ab. „Entscheidend ist, wie hoch das gesamte Risiko für Herz-Kreislauf-Erkrankungen ist“, betont der Herzspezialist Prof. Dr. med. Ulrich Laufs vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. „Dies wird neben dem Lebensalter und dem Geschlecht durch Rauchen, Bluthochdruck, Diabetes und andere Faktoren beeinflusst“, betont der Direktor der Klinik und Poliklinik für Kardiologie am Universitätsklinikum Leipzig. Die Herzstiftung bietet Experten-Informationen über Ursachen und Folgen hoher Cholesterinwerte für Betroffene in dem kostenfreien Ratgeber „Hohes Cholesterin: Was tun?“ an, anzufordern unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de Infos für Betroffene rund um das Thema Cholesterin bietet die Herzstiftungs-Homepage www.herzstiftung.de/cholesterin
Wie Cholesterin den Gefäßen schadet
Grundsätzlich ist Cholesterin kein Giftstoff, sondern ein lebenswichtiger, fettähnlicher Baustein für Zellwände sowie Ausgangsstoff für die Bildung von Gallensäuren und verschiedenen Hormonen. Das Problem entsteht, wenn zu viel Cholesterin an der falschen Stelle ist. Cholesterin ist in Wasser oder Blut nicht löslich und wird daher mittels verschiedener Eiweißstoffe „verpackt“ transportiert. Besondere Bedeutung kommt dabei dem LDL (Low Density Lipoprotein) zu. Ist zu viel LDL-Cholesterin (LDL-C) vorhanden, gelangt LDL-Cholesterin aus dem Blut in die Gefäßwand. Dort verursacht es Gefäßverkalkungen, die Arteriosklerose. Je mehr Ablagerungen (Plaques) sich an den Gefäßwänden bilden, desto stärker verengen sie sich. Dadurch steigt das Risiko, dass sich Gefäße im Herzen und Gehirn verschließen und einen Herzinfarkt oder Schlaganfall auslösen. Eine regelmäßige Kontrolle der Cholesterinwerte im Rahmen des Gesundheits-Check-Ups beim Hausarzt zählt daher zu den wichtigsten Maßnahmen der Herzvorsorge.
Neue Zielwerte für LDL-Cholesterin
Prinzipiell gilt: Je niedriger die LDL-Cholesterinwerte, desto niedriger ist das Risiko für Herz und Gefäße. „Es ist sehr gut dokumentiert, dass eine medikamentöse Senkung des LDL-Cholesterins zu einer Senkung des Herz-Kreislauf-Risikos führt“, erklärt Laufs. Auch die Senkung der Werte ohne Medikamente könne das Risiko reduzieren. Entsprechend den neuen Therapieempfehlungen werden folgende LDL-Werte angestrebt:
– Für gesunde Menschen ohne Risikofaktoren gilt ein LDL-Cholesterinwert unter 115 mg/dl (<3,0 mmol/l) als Zielwert.
– Bei gesunden Menschen mit einzelnen Risikofaktoren, beispielsweise Übergewicht oder leicht erhöhtem Blutdruck, sollte der LDL-Cholesterinwert unter 100 mg/dl (<2,6 mmol/l) liegen.
– Für Patienten mit Diabetes oder mehreren Risikofaktoren sollte ein LDL-Cholesterin von unter 70 mg/dl (<1,8 mmol/l) angestrebt werden.
– Bei Patienten mit bekannten Gefäßverkalkungen, z. B. mit einem Stent in den Herzkranzgefäßen oder Patienten nach Herzinfarkt oder Schlaganfall und anderen Personen mit sehr hohem Risiko liegt der LDL-C-Zielwert unter 55 mg/dl (1,4 mmol/l). Bei besonderen Risiko-Konstellationen kann es sinnvoll sein das Cholesterin noch weiter zu senken.
Hohe Cholesterinwerte senken
Liegen die Werte des LDL-Cholesterins oberhalb der empfohlenen Grenze, rät die Herzstiftung zunächst zu einer Veränderung des Lebensstils. Eine gesunde Ernährung sowie – bei Übergewicht – eine Gewichtsreduzierung können deutliche Effekte auf den Cholesterinspiegel haben. „Allerdings wird die Bedeutung der Ernährung häufig überschätzt, weil hohe Cholesterinwerte im Wesentlichen genetisch bedingt sind“, gibt der Herzspezialist zu bedenken. Zu einem herzgesunden Lebensstil gehören zudem der Verzicht auf Nikotin sowie regelmäßige Bewegung. „Gut geeignet sind Ausdauersportarten wie Wandern, Laufen oder Schwimmen“, rät Laufs. Diese Maßnahmen dienen der Herz- und Gefäßgesundheit insgesamt. Zur Senkung von stark erhöhten Cholesterinspiegeln stehen gut untersuchte Medikamente zur Verfügung. Die Gruppe der Statine ist dabei die erste Wahl. „Für Statine ist in großen wissenschaftlichen Studien bewiesen, dass sie das Risiko für Herzinfarkt und Schlaganfall senken, und ihre Einnahme über viele Jahrzehnte gilt als sicher“, unterstreicht Laufs. Lässt sich der Cholesterinspiegel mit Statinen nicht ausreichend senken, kann eine Kombinationstherapie mit neueren Wirkstoffgruppen sinnvoll sein.
Tipp: Ausführliche Informationen zu den Ursachen und Folgen hoher Cholesterinwerte sowie zu den neuen Therapieempfehlungen finden Sie im Ratgeber „Hohes Cholesterin: was tun?“, den Sie unter 069 955128-400 oder bestellung@herzstiftung.de kostenfrei bestellen können sowie auf unserer Homepage im Online-Beitrag www.herzstiftung.de/cholesterin
Informieren Sie sich über die bundesweiten Herzwochen zur Volkskrankheit Herzschwäche: www.herzstiftung.de/herzwochen2020
Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114
(1) Wissenschaftliche Literatur:
European Heart Journal, Vol. 41, Issue 1, 1 January 2020, Pages 111–188, https://doi.org/10.1093/eurheartj/ehz455 : 2019 ESC/EAS Guidelines for the management of dyslipidaemias: lipid modification to reduce cardiovascular risk: The Task Force for the management of dyslipidaemias of the European Society of Cardiology (ESC) and European Atherosclerosis Society (EAS)
Cholesterol Treatment Trialists C. Efficacy and safety of statin therapy in older people: a meta-analysis of individual participant data from 28 randomised controlled trials. Lancet 2019;393:407–415.
Bhatt DL et al.; REDUCE-IT Investigators. Cardiovascular risk reduction with icosapent ethyl for hypertriglyceridemia. N Engl J Med 2019;380:11–22.
O‘ Donoghue ML et al. Lipoprotein(a), PCSK9 inhibition, and cardiovascular risk. Circulation 2019;139:1483–1492.
Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung
Weitere Informationen:
http://www.herzstiftung.de/herzwochen2020
http://www.herzstiftung.de/cholesterin
https://www.herzstiftung.de/risiko
Anhang
PM_DHS_Cholesterinsenkung_Herzinfarkt-Vorbeugung_2020-10-29
Quelle: IDW
(nach oben)
Wissensreise durch die Welt des Wassers
Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundesweite multimediale Show für Schulen – Start in Osnabrück
Osnabrück/Mülheim. Die Fortschreibung der Deutschen Nachhaltigkeitsstrategie läuft derzeit auf Hochtouren. Alle sollen ein Wörtchen mitreden können, von jung bis alt. Der schonende Umgang mit (Trink-)Wasser spielt dabei eine zentrale Rolle. Dazu passt eine nun startende bundesweite multimediale Show für rund 100 Schulen. „Lernerlebnis Trinkwasserschutz“ ist für Dritt- bis Sechstklässler konzipiert, spricht mit Bewegung, Bildern und Musik spielerisch die Sinne an und lädt zu einer Wissensreise durch die Welt des Wassers ein. Start ist am 6. Oktober in Osnabrück, die Deutsche Bundesstiftung Umwelt (DBU) fördert das Vorhaben fachlich und finanziell mit 125.000 Euro.
Kinder sind die Entscheidungsträger von morgen
„Die Dürresommer der vergangenen drei Jahre haben uns vor Augen gehalten, dass wir anders mit der Ressource Wasser umgehen müssen“, sagt Franz-Peter Heidenreich, DBU-Referatsleiter für Kreislaufführung und Bautechnik. Jede und jeder Einzelne könne zu mehr Wasserschutz beitragen – sei es privat, in der Familie, auf der Arbeit oder im täglichen Zusammenleben. Gefragt seien aber eben nicht nur die Erwachsenen. „Wir können gar nicht früh genug damit anfangen, unser Wissen über den Wert von Ressourcenschutz an die jungen Generationen weiterzugeben“, sagt der DBU-Referent. „Kinder sind die Entscheidungsträger der Zukunft. Wir müssen sie schon früh für den richtigen Umgang mit wertvollen Ressourcen wie Wasser sensibilisieren“, so Heidenreich.
Ohne erhobenen Zeigefinger
„Lernerlebnis Trinkwasserschutz“ dauert so lange wie eine Doppelstunde Unterricht. Und langweilig soll es auf keinen Fall werden, verspricht Projektleiter Friedhelm Susok von F.S. Infotainment aus Mülheim, das die multimediale Show entwickelt hat. „In sechs Schritten erzählen wir den Mädchen und Jungen von der Vielfalt des Trinkwassers – von der Urquelle bis zum Trinkwasserschutz“, so Susok. Alles zwar mit Einschränkungen und Hygienevorgaben wegen der Coronavirus-Pandemie, aber „garantiert ohne erhobenen Zeigefinger“, sagt der Projektleiter.
Über den Kreislauf des Wassers
Ziel sei vielmehr, „miteinander überhaupt ein Bewusstsein für die Thematik zu wecken, vielleicht sogar einen Bewusstseinswandel zu bewirken“, sagt Susok. Aufgelockert wird die Präsentation durch Bild- und Filmelemente ebenso wie durch Quiz-Aufgaben und Fragen wie: Auf welche Weise werden eigentlich am besten Putzmittel, Lacke und Medikamente entsorgt? Was kann ich zu Hause für mehr Trinkwasserschutz tun? „Es geht auch darum, wie der Kreislauf des Wassers funktioniert und welche unterschiedlichen Arten von Wasser es auf der Erde gibt“, so Susok. Auch Produktion und Vertrieb von Trinkwasser sollen erarbeitet werden.
Der Auftakt für das „Lernerlebnis Trinkwasserschutz“ findet am 6. Oktober in Zusammenarbeit mit den Stadtwerken Osnabrück unter den gegebenen Hygiene- und Coronaauflagen in der Gesamtschule Schinkel statt. Danach geht es in der Diesterwegschule weiter. Mit einem breiten Netzwerk in der Trinkwasser-Branche sollen deutschlandweit Auftritte folgen.
Weitere Informationen:
https://www.dbu.de/123artikel38796_2442.html Online-Pressemitteilung
Quelle: IDW
(nach oben)
Mehr Infektionen als bekannt: Neue Studie zeigt Relevanz bevölkerungsweiter SARS-CoV-2-Antikörpertests auf
Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Eine neue Studie des Helmholtz Zentrums München kommt zu dem Ergebnis, dass sechsmal mehr Kinder in Bayern mit dem Coronavirus SARS-CoV-2 infiziert waren als gemeldet. Dies verdeutlicht die Relevanz bevölkerungsweiter Antikörper-Screenings zur Überwachung des Pandemieverlaufs. Die Studie beschreibt außerdem einen neuen Ansatz, um Antikörper gegen SARS-CoV-2 mit besonders hoher Genauigkeit zu messen.
Neuer Ansatz zur Messung von Antikörpern gegen SARS-CoV-2
Derzeitige Antikörpertests weisen eine mangelnde Spezifität auf, was zu einem großen Anteil falsch-positiver Ergebnisse führt. Unter der Leitung von Prof. Anette-G. Ziegler entwickelten Wissenschaftlerinnen und Wissenschaftler am Helmholtz Zentrum München nun einen neuen Ansatz zur Messung von Antikörpern gegen SARS-CoV-2. Dieser zeichnet sich dadurch aus, dass das Testergebnis erst dann als Antikörper-positiv gilt, wenn sowohl gegen die Rezeptor-Bindungsdomäne als auch gegen Nukleokapsid-Proteine des Virus positiv getestet wurde. Dieser zweistufige und zweifach-positive Ansatz führt zu besonders genauen Ergebnissen mit einer Spezifität von 100 Prozent und einer Sensitivität von mehr als 95 Prozent.
Da Ziegler und ihre Forschungsgruppe bereits eine große, bayernweit angelegte Bevölkerungsstudie namens „Fr1da“ zur Früherkennung von präsymptomatischem Typ-1-Diabetes bei Kindern durchführten, konnten sie schnell und einfach die bestehende Test-Infrastruktur um den neuen Ansatz für SARS-CoV-2-Antikörper erweitern.
Ergebnisse des SARS-CoV-2-Antikörper-Screenings
Zwischen Januar 2020 und Juli 2020 untersuchten die Wissenschaftlerinnen und Wissenschaftler knapp 12.000 Blutproben von Kindern in Bayern im Alter zwischen 1 und 18 Jahren (Teilnehmende der Fr1da-Studie) auf SARS-CoV-2-Antikörper. Zwischen April und Juli wiesen im Schnitt 0,87 Prozent der Kinder Antikörper auf (zweifach-positiv). Im Vergleich zu den vom Bayerischen Landesamt für Gesundheit und Ernährung (LGL) gemeldeten Fällen von Kindern in Bayern (zwischen 0 und 18 Jahren), die zwischen April und Juli positiv auf das Virus getestet wurden, war die Antikörperhäufigkeit damit sechsmal höher.
Die Ergebnisse machten keine Unterschiede zwischen den Geschlechtern sichtbar. Knapp die Hälfte (47 Prozent) der Kinder mit Antikörpern waren asymptomatisch. Rund ein Drittel (35 Prozent) der Kinder, die mit einem auf das Virus positiv getestetem Familienmitglied zusammenlebten, wiesen Antikörper auf. Dies deutet auf eine höhere Übertragungsrate hin als in bisherigen Studien beschrieben. Zudem zeigten die Ergebnisse innerhalb Bayerns deutliche geographische Unterschiede („Hot-Spots“). Am meisten positive Antikörpertests gab es im Süden Bayerns.
Darüber hinaus wurden die Kinder auch auf Typ-1-Diabetes-Autoantikörper getestet. Diese dienen als Früherkennungsmerkmal für präsymptomatischen Typ-1-Diabetes. Die Wissenschaftlerinnen und Wissenschaftler konnten keine Zunahme dieser Antikörper feststellen. Dies lässt darauf schließen, dass COVID-19 und Typ-1-Diabetes bei Kindern nicht miteinander assoziiert sind.
Bedeutung für COVID-19-Maßnahmen
„Unsere Studie liefert wichtige Ergebnisse, die die Diskrepanz zwischen gemeldeten Virusinfektionen und Antikörperaufkommen offenlegen“, sagt Markus Hippich, Erstautor der Studie und Postdoc am Helmholtz Zentrum München. „Da viele Personen, bei Kindern knapp die Hälfte, keine COVID-19-typischen Symptome entwickeln, werden sie nicht getestet. Um verlässliche Daten über die Ausbreitung des Virus zu bekommen, reicht es also nicht aus, nur auf das Virus selbst zu testen.“
Studienleiterin Prof. Anette-G. Ziegler ergänzt: „Nationale Programme, die mit hoher Spezifität und Sensitivität auf Antikörper testen, könnten den Ländern zuverlässige Daten liefern, um sich auf die Zukunft vorzubereiten. Sie könnten ihnen dabei helfen, die Ausbreitung des Virus einzudämmen und die Auswirkungen regionaler und landesweiter COVID-19-Maßnahmen zu überprüfen.“
Dashboard
Die Studienergebnisse sind gemeinsam mit einer Übersicht zur geografischen Verteilung der Antikörperhäufigkeit in einem Online-Dashboard verfügbar: https://covid-dashboard.fr1da-studie.de/app_direct/covid-dashboard/. Die Zahlen werden monatlich aktualisiert.
Einschränkungen der Studie
Antikörper gegen SARS-CoV-2 sind erst nach einer bis vier Wochen nachweisbar. Deshalb können diese Messwerte nicht dafür genutzt werden, um Aussagen über das aktuelle Infektionsgeschehen zu treffen. Bisher gibt es keine Belege dafür, dass SARS-CoV-2-Antikörper zu einer Immunität gegen das Virus führen. Falls dies belegt werden sollte, könnten die Ergebnisse wichtige Informationen zur Immunitätslage der Kinder in Bayern liefern.
Über die Studie
Diese Studie wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) und des Deutschen Zentrums für Diabetesforschung (DZD) unterstützt. Förderer der Fr1da-Studie sind die LifeScience-Stiftung, JDRF und The Helmsley Charitable Trust.
Mehr zu Fr1da: https://www.helmholtz-muenchen.de/en/aktuelles/latest-news/press-information-new…
Helmholtz Zentrum München
Das Helmholtz Zentrum München verfolgt als Forschungszentrum die Mission, personalisierte medizinische Lösungen zur Prävention und Therapie umweltbedingter Krankheiten für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Es erforscht das Entstehen von Volkskrankheiten im Kontext von Umweltfaktoren, Lebensstil und individueller genetischer Disposition. Besonderen Fokus legt das Zentrum auf die Erforschung des Diabetes mellitus, Allergien und chronischer Lungenerkrankungen. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.500 Mitarbeitende und ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands mit mehr als 40.000 Mitarbeitenden in 19 Forschungszentren.
Wissenschaftliche Ansprechpartner:
Prof. Anette-G. Ziegler
Helmholtz Zentrum München
Institut für Diabetesforschung
E-Mail: anette-g.ziegler@helmholtz-muenchen.de
Originalpublikation:
Hippich et al., 2020: Public health antibody screening indicates a six-fold higher SARS-CoV-2 exposure rate than reported cases in children. Med, DOI: 10.1016/j.medj.2020.10.003
Quelle: IDW
(nach oben)
Erster deutscher Gezeitenrechner nimmt Betrieb auf
Deutsches Schifffahrtsmuseum Kommunikation
Deutsches Schifffahrtsmuseum – Leibniz-Institut für Maritime Geschichte
Die Restaurierung des ersten deutschen Gezeitenrechners ist abgeschlossen. Dank modernster Methodik funktioniert das 105-jährige Meisterwerk der Mechanik aus der Kaiserzeit wieder und soll regelmäßig öffentlich in Betrieb gesetzt werden.
Es ist ein Exponat der Superlative – der Gezeitenrechner: Er ist der älteste seiner Art in Deutschland und kann ebenso als einer der ersten analogen Computer bezeichnet werden. Nur drei stationäre Gezeitenrechner wurden überhaupt in Deutschland gefertigt. Insgesamt wurden weltweit über einen Zeitraum von fast 100 Jahren weniger als dreißig jemals gebaut. Von denen, die erhalten blieben, sind nur wenige öffentlich zugänglich. Umso mehr freut sich das DSM, dass gleich zwei dieser Schätze zur Sammlung gehören – das Modell aus dem Jahr 1915 und ein weiteres aus der DDR.
Mit seinen vielen Zahnrädchen und kreisrunden Tidengetrieben behauptet sich der Gezeitenrechner als imposante Erscheinung inmitten der übrigen Objekte der SEA CHANGES-Ausstellung. Die Silber- und Messingkomponenten lassen auf eine lange Historie schließen. Doch nicht nur die Optik ist ein Highlight, die aufwändige Methode, die Restaurator Tim Lücke erstmals nutzte, passt ebenfalls in die Kategorie „besonders“. Lücke, der im Mai 2019 mit den Arbeiten begann, griff auf die Trockeneisstrahlung zurück, um das Innere des Geräts zu säubern. Es handelt sich um eine schonende und gleichzeitig zeitsparende Methode, die in der Restaurierung bisher selten angewandt wurde. Mithilfe von Pellets aus gefrorenem Kohlenstoffdioxid konnten selbst Kleinstteile im Inneren der Maschine gereinigt werden, ohne dass größere Ausbauten nötig waren. Dazu musste die Maschine kurzzeitig in den Außenbereich des Museums gebracht werden. Beim Arbeitsprozess in der Ausstellungshalle konnten interessierte Museumsgäste Tim Lücke über die Schulter schauen. Ein online verfügbarer Film dokumentiert die Restaurierung im Museum im Zeitraffer.
„Weil es sich um eine bisher selten angewandte Methode handelt, ist das Projekt auch aus restauratorischer Perspektive sehr spannend, wir sind froh, dass wir mit Tim Lücke einen erfahrenen Experten fanden, der die Trockeneisreinigung im DSM erstmalig in dieser Form anwandte“, sagt Martin Weiss, Wissenschaftlicher Mitarbeiter am DSM. Der Gezeitenrechner werde in Zukunft regelmäßig in Betrieb gesetzt, damit die Getriebe nicht wieder verharzen. Im kommenden Jahr passiere das auch öffentlich unter den Blicken des Publikums. Eine eigens dafür in Auftrag gegebene Vitrine, hinter der die Schauvorführungen perspektivisch stattfinden, wird bis Anfang nächsten Jahres angefertigt.
Möglich wurde die Restaurierung durch großzügige Unterstützung der Kulturstiftung der Länder, des Deutschen Stiftungszentrums, des Fördervereins Deutsches Schifffahrtsmuseum e.V. und privaten Spender*Innen.
Geschichte des Gezeitenrechners
Als im 19. Jahrhundert die Dampfschifffahrt aufkam und Fahrtzeiten dadurch viel weniger vom Wetter abhängig waren, wurde es unerlässlich, Wasserstände in Häfen genau vorhersagen zu können. Der Engländer William Thomson, später bekannt als Lord Kelvin, konstruierte 1872 den Prototyp eines Gezeitenrechners. In den folgenden Jahrzehnten wurde das Grundprinzip nie verändert, aber optimiert. Als der Erste Weltkrieg begann, sahen sich die deutschen Hydrographen gezwungen, das erste eigene Modell zu bauen, das 1915 am Marineobservatorium in Wilhelmshaven in Betrieb ging.
Nachdem dieser Prototyp in den 1930ern mit einem elektrischen Druckwerk ausgestattet wurde, gelangte er im Zweiten Weltkrieg vermutlich nach Greifswald und von dort aus an das Deutsche Hydrographische Institut in Hamburg. 1975 wurde er dem damals neu gegründeten Deutschen Schifffahrtsmuseum in Bremerhaven übergeben, wo er seitdem in der Ausstellung zu sehen ist – und nun zum ersten Mal auch in Betrieb.
Wissenschaftliche Ansprechpartner:
Martin Weiss
weiss@dsm.museum
Quelle: IDW
(nach oben)
Die ungewisse Zukunft der Ozeane
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Marine Nahrungsnetze und biogeochemische Kreisläufe reagieren sehr empfindlich auf die Zunahme von Kohlendioxid (CO2) – jedoch sind die Auswirkungen weitaus komplexer als bislang gedacht. Das zeigt eine Studie, die ein Team von Forschern und Forscherinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der Fachzeitschrift Nature Climate Change veröffentlicht hat. Dafür wurden Daten von fünf groß angelegten Feldexperimenten zusammenfasst, die untersucht haben, wie der Kohlenstoffkreislauf innerhalb von Planktongemeinschaften auf die Zunahme von CO2 reagiert.
Der Ozean spielt eine Schlüsselrolle im gegenwärtigen Klimawandel, da er einen beträchtlichen Teil des von der Menschheit ausgestoßenen atmosphärischen Kohlendioxids aufnimmt. Dadurch wird einerseits die Aufheizung des Klimas verlangsamt, andererseits führt die Lösung von CO2 im Meerwasser zur Versauerung der Ozeane. Dies hat weitreichende Konsequenzen für viele Meereslebewesen und dadurch auch für den ozeanischen Kohlenstoffkreislauf. Einer der wichtigsten Mechanismen hierbei ist die biologische Kohlenstoffpumpe: Ein Teil der Biomasse, die pflanzliches Plankton an der Ozeanoberfläche durch Photosynthese bildet, sinkt in Form kleiner, kohlenstoffhaltiger Partikel in die Tiefe. Dadurch wird der Kohlenstoff für lange Zeit in der Tiefsee gespeichert. Der Ozean wirkt somit als Kohlenstoffsenke im Klimasystem. Wie stark diese biologische Pumpe wirkt, ist regional sehr unterschiedlich und hängt von der Artenzusammensetzung des Ökosystems ab.
Die Studie, die jetzt in der Fachzeitschrift Nature Climate Change veröffentlicht wurde, ist eine der bislang umfassendsten Untersuchungen zu den Auswirkungen der Ozeanversauerung auf marine Ökosysteme. Wissenschaftler und Wissenschaftlerinnen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel konnten nun erstmals zeigen, dass Ozeanversauerung den Kohlenstoffgehalt von sinkendem organischem Material, und somit die biologische Pumpe, beeinflusst. Überraschenderweise waren die beobachteten Änderungen sehr variabel. Der Kohlenstoffgehalt der sinkenden Partikel nahm bei steigendem CO2 deutlich zu oder ab, je nachdem was für eine Zusammensetzung von Arten vorlag und wie das Nahrungsnetz strukturiert war. Da die zugrundeliegenden Daten verschiedenste Ozeanregionen abdecken, scheint es sich dabei um ein globales Phänomen zu handeln. Diese Erkenntnisse ermöglichen eine völlig neue Einschätzung der Auswirkungen von Ozeanversauerung.
Dr. Jan Taucher, Meeresbiologe und Erstautor der Studie, sagt hierzu: „Interessanterweise fanden wir heraus, dass bakterielles und tierisches Plankton, wie zum Beispiel Ruderfußkrebse, eine Schlüsselrolle dabei spielen, wie der Kohlenstoffkreislauf und die biologische Pumpe auf Ozeanversauerung reagieren. Bislang war die Ansicht verbreitet, dass biogeochemische Änderungen hauptsächlich durch Reaktionen des pflanzlichen Planktons getrieben werden. Deshalb berücksichtigen nicht einmal moderne Erdsystemmodelle die von uns beobachteten Wechselwirkungen zwischen dem marinen Nahrungsnetz und dem Kohlenstoffkreislauf. Unsere Erkenntnisse helfen somit, Klimamodelle realistischer zu gestalten und Klimaprojektionen zu verbessern“.
Bislang basierten die meisten Erkenntnisse zu diesem Thema auf idealisierten Laborexperimenten, die ökologische Wechselwirkungen und die Dynamik des komplexen marinen Nahrungsnetzes nur stark vereinfacht darstellen. Dadurch können solche Ergebnisse nur schwer auf Bedingungen im realen Ozean übertragen und in die Zukunft projiziert werden. Um einen realistischeren Einblick zu erhalten, fasst die Studie mehrere Feldexperimente zusammen, die mit großvolumigen Testanlagen, sogenannten Mesokosmen, in verschiedenen Ozeanregionen, von arktischen bis subtropischen Gewässern, durchgeführt wurden.
Mesokosmen sind sozusagen überdimensionale Reagenzgläser im Ozean, in denen Veränderungen der Umweltbedingungen in einem abgeschlossenen, aber ansonsten natürlichen Ökosystem untersucht werden können. Für die vorliegende Studie wurde eine Vielzahl an Daten aus fünf Mesokosmen-Experimenten zusammengetragen, um somit ein genaues Bild der Planktongemeinschaften und der biogeochemischen Prozesse innerhalb des Ökosystems zu liefern. Insgesamt flossen über zehntausend Datenpunkte in die Analyse ein.
Die neu gewonnenen Erkenntnisse können nun dazu genutzt werden, die komplexen ökologischen Wechselwirkungen in Erdsystemmodelle zu implementieren, um somit zur weiteren Verbesserung von Klimaprojektionen beizutragen.
Originalpublikation:
Taucher, J., T. Boxhammer, L.T. Bach, A. J. Paul, M. Schartau, P. Stange and U. Riebesell, 2020: Changing carbon-to-nitrogen ratios of organic-matter export under ocean acidification. Nat. Clim. Change, https://doi.org/10.1038/s41558-020-00915-5
Quelle: IDW
(nach oben)
Wissen über Herzinfarkt-Vorboten rettet Leben
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Unvorhersehbar, aber nicht aus heiterem Himmel: Herzstiftung sensibilisiert zum Weltherztag für Vorgeschichte und Warnzeichen des Herzinfarkts
Der Herzinfarkt kommt plötzlich, aber nicht aus heiterem Himmel. Umso tragischer ist, dass jedes Jahr fast 49.000 Herzinfarkttote in Deutschland zu beklagen sind. Viele der Sterbefälle wären zu verhindern, weil etwa 30 Prozent der Patienten am akuten Herzinfarkt versterben, noch bevor sie die Klinik erreichen. „Diese hohe Infarktsterblichkeit außerhalb der Klinik hat mehrere Gründe: In den ersten Minuten und Stunden nach Verstopfung der Herzkranzarterie ist das Sterberisiko besonders hoch. Fatalerweise zögern Betroffene bei einem Herzinfarkt immer noch zu lange, den Notruf 112 abzusetzen, damit ein Rettungswagen mit Notarzt kommt“, betont der Kardiologe Prof. Dr. med. Thomas Voigtländer, stellvertretender Vorstandsvorsitzender der Deutschen Herzstiftung. Ein Grund für dieses Zögern dürfte mangelndes Wissen in der Bevölkerung über die Bedrohlichkeit des Herzinfarkts sein. „Beim Herzinfarkt zählt aber jede Minute, sobald der sich mit Symptomen bemerkbar macht. Sonst drohen schwerwiegende Schädigungen des Herzmuskels bis hin zu Herzschwäche oder gar plötzlichem Herztod“, so der Ärztliche Direktor des Agaplesion-Bethanien-Krankenhauses und Cardioangiologischen Centrums Bethanien (CCB) Frankfurt am Main. Durch Sensibilisierung der Bevölkerung für die Warnzeichen eines Herzinfarkts und seiner Vorgeschichte, der chronischen Verengung der Herzkranzgefäße über viele Jahre (koronare Herzkrankheit), will die Herzstiftung dazu beitragen, die Infarktsterblichkeit außerhalb der Klinik zu senken. Dazu bietet die Herzstiftung zum Weltherztag für Betroffene und Interessierte den Experten-Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ kostenfrei unter Tel. 069 955128-400 oder unter www.herzstiftung.de (Mail bestellung@herzstiftung.de) an.
Bei Herzinfarkt immer sofort die 112 – auch in Zeiten der Corona-Pandemie
Zeitverluste beim Herzinfarkt durch zögerliches Verhalten von Betroffenen und Angehörigen sind fatal, weil der Infarkt jederzeit in bösartige Herzrhythmusstörungen übergehen kann. Dieses Kammerflimmern, bei dem das Herz über 300 Mal pro Minute schlägt, führt innerhalb weniger Sekunden zum Herzstillstand. „Herzinfarkte ereignen sich meistens zu Hause, daher kann nur ein über den Notruf 112 herbeigerufenes Rettungsteam mit einem Defibrillator das flimmernde Herz wieder in seinen normalen Rhythmus und den Patienten anschließend sofort in die nächstgelegene Klinik zur Infarktversorgung bringen“, warnt der Herzspezialist. Beim Herzinfarkt gilt die Formel: Zeit ist Herzmuskel. „Je weniger Zeit zwischen Auftreten der ersten Symptome und dem Erreichen der Klinik mit dem Herzkatheterlabor verstreicht, wo das verstopfte Herzkranzgefäß vom Blutgerinnsel befreit wird, desto weniger Schaden erleidet der Herzmuskel“, erklärt Voigtländer. Herzmediziner sprechen von der „Golden Hour“, innerhalb der die Infarktversorgung eine Schädigung des Herzens abwenden kann. Schon nach mehreren Stunden, die nach Auftreten der ersten Symptome verstreichen, steigt die Gefahr von Herzmuskelverlusten und einer Herzschwäche. Fatal sind Zeitverluste von Stunden oder gar Tagen aufgrund vermeidbarer Fehler der Betroffenen im Notfall, z. B. Scheu vor Fehlalarm besonders am Wochenende oder an Feiertagen („Belästigung der Ärzte“) oder die Einnahme von Schmerzmedikamenten. Wichtig: Auch in Zeiten der Corona-Pandemie und im Falle steigender Infektionsraten besteht keinerlei Grund, vor dem Notruf 112 bei Infarktverdacht oder sonstigen notfallartigen Herzereignissen zu zögern. „Eine Notfallversorgung für diese Patienten ist stets gewährleistet, auch in Corona-Zeiten.“ Deutschlands Kliniken verfügen mittlerweile über sehr gute Hygienekonzepte, die eine strikte Trennung der Versorgungsbereiche für Covid-19-Patienten von anderen Klinikbereichen und Notfallambulanzen in aller Regel garantieren.
Die Herzinfarkt-Alarmzeichen
Die Infarkt-Alarmzeichen sind oft leicht zu erkennen: Schwere Schmerzen, die länger als fünf Minuten andauern. Die Schmerzen sind typisch im Brustkorb, häufig hinter dem Brustbein. Zusätzlich können Schmerzen im Rücken (zwischen den Schulterblättern) oder im Oberbauch (Verwechslung mit „Magenschmerzen“ möglich) ein Alarmzeichen sein. Die Schmerzen können in Arm, Hals oder Oberbauch ausstrahlen, sie sind flächenhaft und werden als brennend und drückend mit Engegefühl in der Brust beschrieben. Je älter die Person mit Herzinfarkt ist, desto weniger ausgeprägt kann der typische Brustschmerz sein.
Bei Frauen häufiger als bei Männern können – zusätzlich zu den oben genannten Schmerzen oder auch alleine – weitere Symptome wie Atemnot, Übelkeit oder Erbrechen, Schwitzen, Benommenheit oder Schwindel sowie unerklärliche Müdigkeit ein Alarmzeichen sein. Da die Symptomatik bei Frauen nicht immer klar ist, werden ihre Symptome oftmals fehlgedeutet. Dies führt dazu, dass Frauen häufig deutlich später in die Klinik eingeliefert werden als Männer.
Herzinfarkt-Vorboten: Brustschmerzen und/oder Atemnot
Dem Herzinfarkt geht oft jahrzehntelang unbemerkt die KHK voraus. Die KHK ist durch Brustschmerzen und/oder Atemnot charakterisiert, die bei körperlicher Belastung (Treppensteigen, Getränkekisten tragen) oder seelischer Erregung auftreten. Endet die Belastung, verschwindet der Schmerz in wenigen Minuten wieder (stabile Angina pectoris). Die KHK kann jahrelang stabil bleiben, kann aber gefährlich werden, weil sie die Grundlage für den Herzinfarkt darstellt. Besonders alarmierend ist es, wenn Brustschmerz und/oder Atemnot bei kleinsten Belastungen oder in Ruhe (instabile Angina pectoris) auftreten. „Dann muss sofort der Rettungsdienst mit der 112 angerufen werden, weil sich daraus jederzeit ein Herzinfarkt entwickeln kann. Der Übergang zwischen instabiler Angina pectoris und Herzinfarkt ist fließend“, warnt der Intensivmediziner Voigtländer. Bei der instabilen Form verschließt ein Blutgerinnsel ein Herzkranzgefäß teilweise, beim Herzinfarkt vollständig.
Tipp: Experten-Ratgeber
Der neue Ratgeber „Koronare Herzkrankheit und Herzinfarkt“ der Deutschen Herzstiftung informiert über Ursachen, Diagnose und Behandlung der Koronaren Herzkrankheit und des Herzinfarkts. Der Band (160 S.) kann kostenfrei per Tel. 069 955128-400 oder per E-Mail unter bestellung@herzstiftung.de angefordert werden. Infos zur KHK und Herzinfarkt bietet die Homepage der Herzstiftung www.herzstiftung.de
Infos zum Weltherztag unter: www.herzstiftung.de/weltherztag
Druckfähiges Bildmaterial zu den Herzinfarkt-Alarmzeichen und zum KHK-Ratgeber eine erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de
Kontakt zur Pressestelle:
Deutsche Herzstiftung e.V.
Pressestelle: Michael Wichert/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Originalpublikation:
Deutsche Herzstiftung (Hg.), Koronare Herzkrankheit und Herzinfarkt, Frankfurt am Main 2020.
Weitere Informationen:
https://www.herzstiftung.de
https://www.herzstiftung.de/infos-zu-herzerkrankungen/herzinfarkt/anzeichen
https://www.herzstiftung.de/infos-zu-herzerkrankungen/angina-pectoris/was-ist-an…
Anhang
PM_DHS-Herzinfarkt-Vorboten_2020-09-28
https://idw-online.de/de/attachment80825
Quelle: IDW
(nach oben)
Antwort auf Darwins Frage
Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz
In einem „Nature“-Artikel beantwortet der Evolutionsbiologe Axel Meyer von der Universität Konstanz mit Hilfe der Analyse von fast 500 Genomen Fragen zur genetischen Basis von Anpassungen, Unterschieden zwischen Arten und den Mechanismen der Artenbildung
Wie und wie schnell entstehen neue Arten? Der Beantwortung dieser fundamentalen Fragen in der Biologie ist der Evolutionsbiologe Prof. Axel Meyer, Ph.D., von der Universität Konstanz mit seinem Team einen entscheidenden Schritt nähergekommen. Nach Auswertung eines umfangreichen genetischen Datensatzes, der in jahrelanger Forschung an extrem jungen Arten von Buntbarschen in Kraterseen Nicaraguas gesammelt wurde, zeigt sich, dass die evolutionäre Diversifizierung einer Population im selben geografischen Gebiet zu einer neuen Art wahrscheinlicher ist, wenn viele Gene im gesamten Genom daran beteiligt sind, artunterscheidende Anpassungen hervorzubringen. Was seit Darwin nicht bekannt war: Neue Arten können innerhalb von nur wenigen hundert Jahren entstehen. Dies widerspricht der bislang gängigen Theorie, dass Artentstehung langsam ist und ökologisch wichtige Artunterschiede mit einfacher genetischer Architektur im Sinne nur einzelner oder weniger beteiligter Gene zwangsläufiger zur Bildung einer neuen Art führen als auf polygenischer Basis, bei der viele Gene mit je kleinem Effekt zusammenwirken. Letztendlich geht es um die Frage, die sich Darwin schon gestellt hat: Was ist eine Art, und wie, warum und wie schnell entstehen neue Arten? Die Ergebnisse dieser großangelegten, multidisziplinären Studie sind ab dem 28. Oktober 2020 im Wissenschaftsjournal Nature online unter https://www.nature.com/articles/s41586-020-2845-0 veröffentlicht.
Welche und wie viele Gene sind an der Entstehung neuer Arten beteiligt?
Die Frage nach der Entstehung neuer Arten wird in der Genetik übersetzt in: Wie sieht das Muster der Veränderungen im Genom aus, das dazu führt, dass neue Arten entstehen? Was passiert genetisch während des Kontinuums von anfänglich keinen Unterschieden innerhalb einer Population bis hin zu der abgeschlossenen Artbildung von fortpflanzlich getrennten Arten? Axel Meyer forscht seit seiner Doktorarbeit in den 1980er Jahren an der University of California, Berkeley, USA, und seit Ende der 1990er Jahre an der Universität Konstanz an der Frage, welche und wie viele Gene oder Genloci – das sind Regionen auf dem Genom – an der Entstehung von Adaptationen (Anpassungen) und neuen Arten beteiligt sind.
Der Fokus liegt dabei auf der Studie von sehr jungen Arten von Buntbarschen, die oft nur wenige hundert Generationen alt sind und in Kraterseen in Nicaragua leben. Obwohl alle Fische von denselben älteren Ursprungspopulationen aus den beiden großen Seen Nicaraguas abstammen, dem Managua- und dem Nicaraguasee, gibt es in jedem einzelnen der Kraterseen Fischpopulationen oder gar kleinere Artenkomplexe von mehreren Arten, die ausschließlich in einem der kleinen Kraterseen leben, mit speziellen äußerlichen Unterschieden, die sich teilweise in mehreren Seen sehr ähnlich finden, also mehrfach unabhängig entstanden zu sein scheinen.
Verschiedene Phänotypen im selben Kratersee
Es gibt Fische mit ausgeprägten Lippen und solche ohne Lippen, goldfarbene und schwarzweiße Fische, Fische, die sich von anderen durch besonders schlanke Körper oder durch bestimmte zarte oder robuste Zahnformen unterscheiden. Diese Phänotypen sind innerhalb der Kraterseen, somit im selben geografischen Gebiet entstanden („sympatrische Artbildung“), ohne dass äußere Barrieren wie Flüsse oder Berge dies durch Begrenzung des Genflusses aufgrund von Genaustausch durch Fortpflanzung begünstigt hätten. Es handelt sich somit um keine „allopatrische Artbildung“.
Die Variationen mit den Lippen, der Farbe, der Körper- sowie der Zahnform im Schlundkiefer der Fische sind bereits in der Ursprungspopulation genetisch angelegt, wie Axel Meyer und sein Team (insbesondere Dr. Andreas Kautt, Dr. Claudius Kratochwil und Dr. Alexander Nater) zeigen konnten, nachdem sie aus jedem der kleinen Seen komplette Genome von insgesamt fast 500 Fischen analysiert hatten. Damit handelt es sich um keine unabhängig entstandenen neuen Mutationen, sondern um das Aussortieren und die selektive Auswahl von denselben Ursprungs-Genvarianten, die sich in den verschiedenen Seen wieder neu aussortiert haben. Bislang war man sich dabei nicht sicher, ob es sich um jeweils neue Arten handelt, die sich durch Anpassung an neue ökologische Umstände herausgebildet haben. Tatsächlich paaren sich die äußerlich unterschiedlichen Populationen in den Seen auch vorzugsweise jeweils untereinander.
Viele Gene bewirken viel
Für Ernst Mayr – den nach dem Urteil von Fachkollegen „Darwin des 20. Jahrhunderts“, der das biologische Artkonzept mit entwickelt hat, wäre das ein Indiz dafür gewesen, dass es sich um eine eigenständige Art handelt. (Der 2005 verstorbene Mentor Axel Meyers von der Harvard University erhielt 1994 von der Universität Konstanz eine Ehrendoktorwürde.) Die neuen Ergebnisse der Genomsequenzierung legen jedoch anderes nahe. Es stellte sich nach der Sequenzierung von über 450 Fischgenomen, Kreuzungsexperimenten und sogenannter Genomweiter Assoziationsanalyse (GWA) heraus, dass die auffälligen Unterschiede, wie etwa die Lippengröße und die Farbe, im Genom dieser Populationen durch nur ein bis zwei lokal sehr begrenzte Genom-Regionen nach den Mendelschen Regeln bedingt werden. Fische mit gleichem Lippen- oder Farbentyp pflanzen sich auch fast ausschließlich untereinander fort. Dennoch hat dies nicht zu genomweiten Unterschieden, die man zwischen Arten erwarten würde, geführt. Dagegen sind überraschenderweise die anderen sympatrischen Arten mit den phänotypisch weit weniger auffälligen Unterschieden in Körperform und spezieller Zahnform durch vielfach höhere genomweite genetische Unterschiede gekennzeichnet.
Das bedeutet, dass viele Gene an vielen Stellen des Genoms jeweils nur einen kleinen Beitrag zur genetischen Ausdifferenzierung leisten, deren Effekte sich aber über das gesamte Genom aufaddieren und zur Artentstehung führen. Die Anzahl der genetischen Unterschiede im gesamten Genom zwischen diesen jungen Arten ist zehnmal höher als beispielsweise zwischen den äußerlich sehr unterschiedlichen Polymorphismen der großlippigen oder goldenen gegenüber schwarz-weiß gestreiften Fischen, die deshalb auch keine Arten darstellen. Der vereinte Effekt vieler Gene bewirkt somit insgesamt stärker, neue Arten entstehen zu lassen. „Das hatten wir nicht erwartet. Es widerspricht auch großen Teilen der Theorie, nach der einzelne Loci mit großem Effekt auf das Äußere von Arten wie ausgeprägte Lippen oder Färbung schneller neue Arten entstehen lassen sollten“, sagt Axel Meyer. Es ist insbesondere überraschend, wenn sich die Loci ungewöhnlicherweise hier sowohl auf die Ökologie als auch auf die Partnerwahl auswirken. „Zumindest nach dem Kriterium des durchschnittlichen Unterschieds im gesamten Genom sind Fische, die sich äußerlich so auffällig unterscheiden, trotzdem keine unterschiedlichen Arten, sondern bleiben auf dem Kontinuum der Artbildung lediglich auf dem Niveau eines Polymorphismus (Vielgestaltigkeit) stehen.“
Kraterseen bieten sich als natürliches Experiment an
Die geographische Situation macht die untersuchten Kraterseen zu einem „natürlichen Experiment“. Die ursprünglichen Fischpopulationen stammen aus zwei viel älteren benachbarten Seen, zu denen es keinerlei Verbindung gibt, haben aber unabhängig voneinander diese Kette von Kraterseen besiedelt. Wann und wie Exemplare der Ursprungspopulation jeweils in die sieben kleineren Seen gelangten, lässt sich nur durch Simulationen errechnen. Es passierte aber vor nur wenigen hundert bis wenigen tausend Generationen, und es waren nicht sehr viele Fische, die die Kraterseen besiedelten. Die Entstehung von Arten kann sich also, wie hier gezeigt wurde, sehr viel schneller vollziehen als bisher gedacht. Der Evolutionsbiologe Meyer vergleicht die Seen mit Petrischalen, alle mit derselben genetischen Ausgangssituation geimpft, die über Generationen unabhängig evolvieren: „Es gibt nur ganz wenige Systeme in der Welt, wie die Galapagosinseln oder eben die Kraterseen in Nicaragua, die sich der Evolutionsforschung als natürliche Experimente anbieten.“
Förderung durch einen ERC Advanced Grant
Die umfangreichen Untersuchungen und aufwändigen Sequenzierungen wurde durch einen ERC Advanced Grant des European Research Council (ERC) ermöglicht. Für sein Projekt „Comparative genomics of parallel evolution in repeated adaptive radiations“ erhielt Axel Meyer von 2012 bis 2017 eine Förderung von 2,5 Millionen Euro. Kooperationspartner der Publikation sind außer dem Konstanzer Team auch Prof. Eugene Myers, Ph.D., und sein Mitarbeiter Dr. Martin Pippel am Max-Planck-Institut für molekulare Zellbiologie und Genetik in Dresden und am Zentrum für Systembiologie Dresden.
Faktenübersicht:
• Originalpublikation: Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0
• Sperrfrist bis 28. Oktober 2020, 17 Uhr (MEZ)
• Forschungsprojekt zur Frage, was eine Art ist und wie, warum und wie schnell neue Arten entstehen
• Artbildung im selben geografischen Gebiet (sympatrische Artbildung) zu neuen Arten bei polygenischer Basis wahrscheinlicher als bei begrenzter genetischer Basis (mendelischen vererbten Merkmalen)
• Gefördert von 2012 bis 2017 durch einen ERC Advanced Grant des European Research Council (ERC) (“GenAdap” #293700) mit 2,5 Millionen Euro
• Förderung mehrerer Teilprojekte, die auch in diese Publikation einflossen, durch die Deutsche Forschungsgemeinschaft (DFG). Mehr Informationen dazu: https://gepris.dfg.de/gepris/person/1621603?context=person&task=showDetail&a…;
Hinweis an die Redaktionen:
Fotos von Buntbarschen können im Folgenden heruntergeladen werden:
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/antwort-auf-darw…
Fotos: Ad Konings
Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Originalpublikation:
Andreas F. Kautt, Claudius F. Kratochwil, Alexander Nater, Gonzalo Machado-Schiaffino, Melisa Olave, Frederico Henning, Julian Torres-Dowdall, Andreas Härer, C. Darrin Hulsey, Paolo Franchini, Martin Pippel, Eugene W. Myers, Axel Meyer: Contrasting signatures of genomic divergence in rapidly speciating crater lake cichlid fishes, Nature doi 10.1038/s41586-020-2845-0 – https://www.nature.com/articles/s41586-020-2845-0
Quelle: IDW
(nach oben)
Leitfaden für mehr „Insektenschutz in der Kommune“
Ruth Birkhölzer Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz
Wie können Städte und Gemeinden konkret zum Schutz von Insekten beitragen? Welche Maßnahmen können sie auf kommunalen Flächen umsetzen? Und wie lässt sich der Insektenschutz in kommunalen Plänen und Satzungen verankern, wie in die Umweltbildung vor Ort integrieren? Antworten auf diese Fragen gibt eine Publikation, die in einer Kooperation des Deutschen Städte- und Gemeindebundes (DStGB) mit dem Bundesamt für Naturschutz (BfN) entstanden ist. Die Broschüre „Insektenschutz in der Kommune“ umfasst nicht nur Empfehlungen, sondern stellt auch Beispiele aus der Praxis vor.
„Der Rückgang der Vielfalt und der Häufigkeit von Insekten hat eine Vielzahl von Ursachen, neben qualitativen Veränderungen und der Zerstörung von Lebensräumen etwa Beeinträchtigungen durch Pflanzenschutzmittel oder durch künstliche Lichtquellen“, sagt Prof. Dr. Beate Jessel, Präsidentin des Bundesamtes für Naturschutz (BfN). „Städte und Gemeinden sind wichtige Akteure, um dieser Entwicklung entgegen zu wirken, denn sie haben einen entscheidenden Einfluss darauf, wie öffentliche Grünflächen, Wald in kommunalem Eigentum, Weg- und Straßenränder, Gewässer und Gräben gepflegt und bewirtschaftet werden. Oft lassen sich schon mit einfachen Maßnahmen neue Lebensräume für Insekten schaffen, zum Beispiel mit dem Anlegen von Blühstreifen, blüten- und damit artenreichen Wiesen oder auch Brachflächen und Staudenfluren.“
„Der dramatische Rückgang der Insektenarten in den letzten Jahrzehnten bringt die Natur aus dem Gleichgewicht. Den Artenrückgang aufzuhalten, ist daher eine wichtige gesamtgesellschaftliche Herausforderung“, sagt Dr. Gerd Landsberg, Hauptgeschäftsführer des Deutschen Städte- und Gemeindebundes (DStGB). Städte und Gemeinden spielen dabei eine zentrale Rolle, denn die Menschen erleben die Veränderung in der Natur in ihrem unmittelbaren Lebensumfeld. Neben Aktivitäten im Klimaschutz und zur Anpassung an die Folgen des Klimawandels haben Städte und Gemeinden auch zahlreiche Maßnahmen wie die naturnahe Pflege und Gestaltung der öffentlichen Grünflächen, die Renaturierung von verbauten Gewässern, die Schaffung grüner Straßenräume aber auch Bildungsmaßnahmen in Kindertagesstätten und Schulen umgesetzt. Dies zeigt, dass Belange der Biodiversität und des Insektenschutzes längst auf der kommunalpolitischen Agenda stehen“, betont Dr. Landsberg.
Die Dokumentation „Insektenschutz in der Kommune“ liefert konkrete Anregungen, wie Insekten im kommunalen Bereich geschützt und neue Lebensräume für Schmetterlinge, Wildbienen oder Laufkäfer geschaffen werden können. Neben der Bewirtschaftung von Flächen im Eigentum der Gemeinde umfasst dies auch Möglichkeiten der Bauleit- und Landschaftsplanung so-wie kommunaler Satzungen, wie beispielsweise zur Eindämmung von Schottergärten. Um bei Bürgerinnen und Bürgern mehr Bewusstsein für den Schutz von Insekten zu wecken, gibt die Broschüre auch Hinweise zur Umweltbildung. Sie enthält eine Fülle von Maßnahmenvorschlägen, die außerdem jeweils mit Praxisbeispielen und weitergehenden Hinweisen zu Ansprechpartnerinnen und Ansprechpartnern sowie Literatur untersetzt werden. Insgesamt werden so die sehr weitreichenden Potenziale deutlich, die die Gestaltung und Pflege der kommunalen Grünflächen für den Insektenschutz bietet.
Bezug:
Mewes, M. & Stahmer, J. (2020): Insektenschutz in der Kommune. Deutscher Städte- und Gemeindebund (Hrsg.). DStGB-Dokumentation No. 155.
Die Dokumentation steht kostenfrei zum Download zur Verfügung unter:
https://www.dstgb.de/dstgb/Homepage/Publikationen/Dokumentationen/
Gedruckte Exemplare können kostenfrei bestellt werden bei:
Bundesamt für Naturschutz, Außenstelle Leipzig, Alte Messe 6, 04013 Leipzig
E-Mail: PBox-BfN-Leipzig@BfN.de
Quelle: IDW
(nach oben)
Der Rest ist nicht alles – Für nachhaltige Biogaserzeugung ist mehr als Gärrestdüngung notwendig
Ulrich Eidenschink Presse- und Öffentlichkeitsarbeit
Technologie- und Förderzentrum im Kompetenzzentrum für Nachwachsende Rohstoffe (TFZ)
Reststoffe der Biogasvergärung werden als sogenannte Gärreste auf den Acker zurückgeführt. Ihr Einfluss auf die Bodeneigenschaften kann jedoch nur in großen Zeiträumen festgestellt werden. In einem zehnjährigen Forschungsprojekt haben das Technologie- und Förderzentrum (TFZ) und die Bayerische Landesanstalt für Landwirtschaft (LfL) untersucht, ob die Düngung mit Gärresten langfristig zur Nachhaltigkeit im Nutzungspfad Biogas beiträgt. Insgesamt wirkte sich die organische Düngung zwar positiv auf verschiedene Parameter aus. Die Rückführung von Gärresten reicht allerdings in intensiven Fruchtfolgen nicht aus, um einen ausgeglichenen Humushaushalt zu erreichen.
Zur Untersuchung von Humushaushalt, Bodenphysik und Bodenleben wurden an vier bayerischen Standorten Feldversuche mit Silomais und Winterweizen im jährlichen Wechsel durchgeführt.
Mit der Abfolge von Silomais und Winterweizen ohne Zwischenfruchtanbau wurde dabei eine intensive Bodenbewirtschaftung gewählt, um Einflussfaktoren von außen gering zu halten. Die rückgeführten Gärreste stammten aus Praxis-Biogasanlagen. In einer Versuchsvariante wurde repräsentativ für eine Silomaisverfütterung die Düngung mit Rindergülle untersucht.
Im Ergebnis war festzustellen, dass die Dichte und Vielfalt der Bodenlebewesen, wie z.B. Springschwänze und Milben, durch Gärrestdüngung nicht verringert wird. Eine Gärrestdüngung in angemessener Höhe ließ auch eine positive Wirkung auf die Regenwurmfauna erkennen. Allerdings profitierten Regenwürmer stärker von der Düngung mit Rindergülle, die mehr leicht verwertbare Kohlenstoffverbindungen enthält. Ebenso lässt die Düngung mit Gärresten keine Verschlechterung der Bodeneigenschaften erkennen: Die Stabilität der Bodenstruktur blieb erhalten, wie auch das Aufnahmevermögen für Niederschläge. Eine erhöhte Anfälligkeit für Verschlämmung und damit ein erhöhtes Erosionsrisiko waren nicht festzustellen.
Insgesamt zeigte sich allerdings ein genereller Rückgang der Humusgehalte, der vor allem der einseitigen und humuszehrenden Fruchtfolge aus Silomais und Winterweizen zuzuschreiben ist. Die Gärrestdüngung kann diesen Rückgang mindern und trägt bezogen auf die ausgebrachte Menge organischer Substanz zur Humusversorgung bei. Hinsichtlich der Humuswirkung führte die Düngung mit Gärresten und Rindergülle zu vergleichbaren Ergebnissen. In intensiven Fruchtfolgen reichen Gärreste allein jedoch nicht für eine nachhaltige Bodenbewirtschaftung aus.
Dr. Maendy Fritz, Projektkoordinatorin am TFZ, zieht als Fazit: „Das Gesamtsystem muss stimmen. Für eine nachhaltige Biogaserzeugung brauchen wir eine Fruchtfolge, die zu Betrieb und Standort passt. Diese sollte mit humusmehrenden Kulturen, Zwischenfrüchten oder Untersaaten ergänzt werden, um die Bodenfruchtbarkeit zu erhalten.“
Das Projekt wurde vom Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten gefördert. Als Projektpartner waren das Institut für Ökologischen Landbau, Bodenkultur und Ressourcenschutz und die Abteilung Qualitätssicherung und Untersuchungswesen von der Bayerischen Landesanstalt für Landwirtschaft beteiligt sowie das Amt für Ernährung, Landwirtschaft und Forsten Ansbach.
Der Forschungsbericht „Gärrest Bayern“ kann unter www.tfz.bayern.de kostenlos heruntergeladen werden.
Wissenschaftliche Ansprechpartner:
Dr. Maendy Fritz, Abteilungsleiterin Rohstoffpflanzen und Stoffflüsse am TFZ, Tel.: 09421 300 210
Originalpublikation:
https://www.tfz.bayern.de/mam/cms08/rohstoffpflanzen/dateien/tfz_bericht_67_gaerrest_geschuetzt.pdf
Quelle: IDW
(nach oben)
Der Entstehung von Darmkrebs auf der Spur: Wie Häm-Eisen aus rotem Fleisch gesunde Darmzellen schädigt
TU Kaiserslautern Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Dass ein übermäßiger Verzehr von rotem Fleisch das Risiko erhöht, an Darmkrebs zu erkranken, ist bekannt. Die organische Verbindung „Häm-Eisen“ steht im Verdacht, für die krebsfördernde Wirkung verantwortlich zu sein. Ein Forscherteam der TU Kaiserslautern um Professor Jörg Fahrer ist es jetzt gelungen, die toxische Wirkung von Häm-Eisen in gesunden Darmzellen zu beschreiben. Dabei haben die Wissenschaftler*innen das Protein Hämoxygenase-1 (HO-1) als wichtigen Schutzfaktor identifiziert. Das Enzym baut freies Häm in der Zelle ab und verhindert so dessen schädigenden Effekt. Die Forschungsergebnisse sind kürzlich in der namhaften Fachzeitschrift Cell Death & Disease veröffentlicht worden.
Darmkrebs zählt zu den drei häufigsten Krebsarten weltweit. Gerade bei Menschen im jungen und mittleren Alter von 20 bis 50 Jahren ist in letzter Zeit ein kontinuierlicher Anstieg bei den Neuerkrankungen zu verzeichnen. Dies wird mit veränderten Ernährungsgewohnheiten in Zusammenhang gebracht – unter anderem dem übermäßigen Verzehr von rotem Fleisch.
Um zu verstehen, welche Rolle Häm-Eisen in diesem Kontext spielt, hat ein Team unter Leitung von Professor Fahrer aus der Lebensmittelchemie und Toxikologie an der TUK sowie am Institut für Toxikologie der Universitätsmedizin Mainz die Effekte der organischen Eisenverbindung auf gesunde Darmzellen und entartete Darmkrebszellen analysiert. Zudem haben sie untersucht, inwieweit sich das organische Häm-Eisen von anorganischen Eisenformen wie zum Beispiel Eisenchlorid in der möglichen toxischen Wirkung unterscheidet. Die Studie wurde in Zusammenarbeit mit Wissenschaftler*innen der Universität Konstanz und der Universität Potsdam durchgeführt und durch die Deutsche Forschungsgemeinschaft finanziell unterstützt.
Die Forscher*innen konnten zunächst zeigen, dass Häm-Eisen in physiologisch relevanten Konzentrationen, wie sie in unserem Darm auftreten können, die Bildung von reaktiven Sauerstoffspezies fördert und Schäden an unserem Erbgut, der DNA, verursacht (siehe Abbildung 1A). „Diese Effekte waren bei den anorganischen Eisenverbindungen nur gering ausgeprägt“, wie Dr. Nina Seiwert, Erstautorin der Studie und Postdoktorandin in der Arbeitsgruppe Fahrer, ergänzt. So führte Häm-Eisen, aber nicht das anorganische Eisen, zum Absterben der normalen Darmzellen, was auch in sogenannten Organoiden aus gesundem Darmgewebe bestätigt werden konnte. „Hierbei handelt es sich quasi um ein Miniorgan, das in Kulturschalen eingebettet in einer Matrix mit speziellem Nährmedium wächst“, wie Dr. Seiwert erläutert. Interessanterweise zeigten die Darmkrebszellen jedoch eine geringere Empfindlichkeit gegenüber Häm-Eisen und überlebten trotz der Schäden.
Im weiteren Verlauf erforschte das Team die Antwort auf zellulärer Ebene und konnte zeigen, dass Häm-Eisen einen zellulären Sensor für oxidativen Stress aktiviert und dadurch in Darmzellen das Enzym HO-1 produziert wird (siehe Abbildung 1B). „HO-1 ist verantwortlich für den Abbau von Häm-Eisen zu anorganischem Eisen und weiteren Produkten“, wie Professor Fahrer erklärt. Um die Rolle der HO-1 genauer zu ergründen, bedienten sich die Wissenschaftler*innen pharmakologischer und molekulargenetischer Methoden. War die Produktion von HO-1 entsprechend deaktiviert, stieg die Konzentration reaktiver Sauerstoffspezies stark an, was zu vermehrten oxidativen DNA-Schäden und schlussendlich Zelltod führte.
„Zusammengenommen illustrieren diese Befunde, dass freies Häm-Eisen in Zellen toxisch wirkt und HO-1 eine ganz wichtige Schutzfunktion einnimmt“, so Professor Fahrer. Die Studie liefert so einen wichtigen Beitrag zum Verständnis der toxischen Wirkung von Häm-Eisen in Darmzellen und zeigt auf, wie es als Bestandteil von rotem Fleisch die Entstehung von Darmkrebs begünstigen kann.
Publikation
Seiwert N, Wecklein S, Demuth P, Hasselwander S, Kemper TA, Schwerdtle T, Brunner T, Fahrer J. Heme oxygenase 1 protects human colonocytes against ROS formation, oxidative DNA damage and cytotoxicity induced by heme iron, but not inorganic iron. Cell Death Dis. 2020; 11(9):787.
doi: 10.1038/s41419-020-02950-8.
https://www.nature.com/articles/s41419-020-02950-8
Fragen beantwortet:
Prof. Dr. Jörg Fahrer
Lebensmittelchemie und Toxikologie
Fachbereich Chemie der TU Kaiserslautern
Tel.: 0631 205-2974
E-Mail: fahrer@chemie.uni-kl.de
Quelle: IDW
(nach oben)
Größter CO2-Rückgang: Echtzeit-Daten zeigen die massiven Auswirkungen von Covid-19 auf die globalen Emissionen
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Während der andauernden Corona-Pandemie konnte in der ersten Jahreshälfte 2020 ein beispielloser Rückgang der CO2-Emissionen festgestellt werden – stärker als während der Finanzkrise von 2008, der Ölkrise von 1979 oder sogar während des Zweiten Weltkriegs.
Ein internationales Forscherteam hat herausgefunden, dass in den ersten sechs Monaten dieses Jahres 8,8 Prozent weniger Kohlendioxid ausgestoßen wurden als im gleichen Zeitraum im Jahr 2019 – ein Rückgang von insgesamt 1551 Millionen Tonnen. Die bahnbrechende Studie bietet nicht nur einen viel genaueren Blick auf die Auswirkungen von COVID-19 auf den globalen Energieverbrauch als frühere Analysen. Sie macht auch Vorschläge, welche grundlegenden Schritte unternommen werden könnten, um das globale Klima nach der Pandemie dauerhaft zu stabilisieren.
„Was unsere Studie einzigartig macht, sind die akribisch, nahezu in Echtzeit gemessener Daten“, erklärt Hauptautor Zhu Liu vom Department of Earth System Science an der Tsinghua-Universität in Peking. „Durch die Berücksichtigung täglicher Zahlen, die die Forschungsinitiative Carbon Monitor gesammelt hat, konnten wir uns einen viel schnelleren und präziseren Überblick verschaffen – einschließlich Zeitreihen, die zeigen, wie der Emissionsrückgang mit den Lockdowns in den einzelnen Ländern korrespondiert hat. Im April, auf dem Höhepunkt der ersten Welle von Corona-Infektionen, als die meisten Länder ihr öffentliches Leben erheblich zurückfuhren, gingen die Emissionen sogar um 16,9 % zurück. Insgesamt führten die verschiedenen Ausbrüche zu Emissionssenkungen, die wir normalerweise nur kurzfristig an Feiertagen wie Weihnachten oder dem chinesischen Frühlingsfest erleben.“
Die Studie, veröffentlicht in der neuesten Ausgabe von Nature Communications, zeigt, welche Teile der Weltwirtschaft am stärksten betroffen waren. „Die größte Emissionsreduktion fand im Bereich des Landverkehrs statt“, erklärt Daniel Kammen, Professor und Vorsitzender der Energy and Resources Group sowie Professor an der Goldman School of Public Policy, University of California, Berkeley. „Vor allem aufgrund des weit verbreiteten Arbeitens von Zuhause gingen die CO2-Emissionen im Verkehr weltweit um 40% zurück. Im Gegensatz dazu trugen der Energie- und der Industriesektor mit -22 %, bzw. -17 % weniger zu diesem Rückgang bei, ebenso wie der Luft- und der Schifffahrtssektor. Überraschenderweise verzeichnete sogar der Wohnsektor einen kleinen Emissionsrückgang um 3 %: Das lag daran, dass aufgrund eines ungewöhnlich warmen Winters auf der Nordhalbkugel der Heizverbrauch zurückging, obwohl die meisten Menschen während des Lockdowns viel mehr zu Hause waren.“
Um dieses umfassende Bild zu zeichnen, stützten sich die Forscher bei ihren Schätzungen auf eine möglichst breite Palette von Daten: präzise, stündliche Datensätze der Stromerzeugung in 31 Ländern, täglicher Fahrzeugverkehr in mehr als 400 Städten weltweit, tägliche Passagierflüge, monatliche Produktionsdaten für die Industrie in 62 Ländern sowie Brennstoffverbrauchsdaten für Gebäudeemissionen in mehr als 200 Ländern.
Die Forscher ermittelten jedoch auch starke Rebound-Effekte. Mit Ausnahme eines anhaltenden Rückgangs der Emissionen aus dem Verkehrssektor erreichten die meisten Volkswirtschaften im Juli 2020, sobald die Sperrmaßnahmen aufgehoben wurden, wieder ihr gewohntes CO2-Niveau. Doch selbst wenn sie auf ihren historisch niedrigen Level verharrten, würde sich dies nur geringfügig auf die langfristige CO2-Konzentration in der Atmosphäre auswirken.
Daher betonen die Autoren, dass die einzig effektive Strategie zur Stabilisierung des Klimas nur eine Transformation des Industrie- und Handelssektors sein kann. „Dieser CO2-Rückgang ist zwar beispiellos, doch ein Rückgang menschlicher Aktivitäten kann nicht die Antwort sein“, sagt Ko-Autor Hans Joachim Schellnhuber, Gründungsdirektor des Potsdam-Instituts für Klimafolgenforschung. „Stattdessen brauchen wir umfassende strukturelle Veränderungen in unseren Energieproduktions- und -verbrauchssystemen. Individuelles Verhalten ist sicherlich wichtig, aber worauf wir uns wirklich konzentrieren müssen, ist die Verringerung der CO2-Intensität unserer globalen Wirtschaft.“
Artikel: Zhu Liu, Philippe Ciais, Zhu Deng, Ruixue Lei, Steven J. Davis, Sha Feng, Bo Zheng, Duo Cui, Xinyu Dou, Biqing Zhu, Rui Guo, Piyu Ke, Taochun Sun, Chenxi Lu, Pan He, Yuan Wang, Xu Yue, Yilong Wang, Yadong Lei, Hao Zhou, Zhaonan Cai, Yuhui Wu, Runtao Guo, Tingxuan Han, Jinjun Xue, Olivier Boucher, Eulalie Boucher, Frédéric Chevallier, Katsumasa Tanaka, Yimin Wei, Haiwang Zhong, Chongqing Kang, Ning Zhang, Bin Chen, Fengming Xi, Miaomiao Liu, François-Marie Bréon, Yonglong Lu, Qiang Zhang, Dabo Guan, Peng Gong, Daniel M. Kammen, Kebin He & Hans Joachim Schellnhuber (2020): Near-real-time monitoring of global CO2 emissions reveals the effects of the COVID-19 pandemic. Nature Communications. DOI: 10.1038/s41467-020-18922-7.
Wissenschaftliche Ansprechpartner:
Jonas Viering, presse@pik-potsdam.de
Originalpublikation:
https://doi.org/10.1038/s41467-020-18922-7
Weitere Informationen:
https://carbonmonitor.org
Quelle: IDW
(nach oben)
Auf die Wirkung kommt es an: Neues Verfahren spürt Schadstoffe anhand ihrer Effekte auf Organismen auf
Dominik Rösch Referat
Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Arzneimittel, Pflanzenschutzmittel, Biozide, Wasch- und Reinigungsmittel: Die Vielfalt an schädlichen Stoffen ist enorm. Dementsprechend aufwändig und teuer ist deren Nachweis. Im Rahmen des gemeinsamen Forschungsprojektes TREES analysierten Forscher der Bundesanstalt für Gewässerkunde und der Hebräischen Universität in Jerusalem die Wirkungen von Mikroverunreinigungen in der Umwelt. Der Clou: Über die negativen Effekte auf die im Wasser lebenden Organismen werden die verantwortlichen Schadstoffe ermittelt. So können auch Schadstoffe und deren Abbauprodukte erkannt werden, die in der Umwelt bisher nicht als solche bekannt waren.
Die Zahl der industriell hergestellten Chemikalien hat sich in den letzten 20 Jahren mehr als verdreifacht und liegt heute bei mehr als 350.000 Substanzen. Gewässer werden in Europa standardmäßig auf ausgewählte Stoffe untersucht, die für Mensch und Umwelt gefährlich sind, wenn festgelegte Konzentrationen überschritten werden. Neben diesen sogenannten prioritären Stoffen gibt es aber noch viele weitere, zum Teil bislang unbekannte Schadstoffe, die unsere Gewässer gefährden. Zwischen Juni 2016 und Dezember 2019 entwickelten Forscher in dem vom Bundesministerium für Bildung und Forschung (BMBF) und dem israelischen Wirtschaftsministerium (MOST) geförderten Projekt TREES (Tracking Effects of Environmental organic micro-pollutants in the Subsurface; FKZ: 02WIL1387) daher ein neues Verfahren zur effektbasierten Bestimmung organischer Schadstoffe.
Auf die Wirkung kommt es an
Der entscheidende Vorteil des Ansatzes im Projekt TREES besteht darin, dass sich problematische Substanzen anhand ihrer unerwünschten biologischen Effekte bestimmen lassen. Bisher wird in Umweltproben nach bekannten, in Listen festgelegten Schadstoffen gesucht („Ziel- oder target-Analytik“), um dann im nächsten Schritt auf das Gefahrenpotenzial einer Belastung zu schließen. Und so funktioniert die Innovation: Proben, die oft einen Cocktail bekannter und unbekannter Substanzen enthalten, werden durch ein spezielles Verfahren – die Dünnschichtchromatographie – getrennt. Nach der Trennung untersucht man die Oberfläche der Dünnschichtplatte mit verschiedenen biologischen Testverfahren. Getestet wird, ob die Probe gentoxische, dioxinähnliche, pflanzentoxische und eine Reihe verschiedener hormoneller Wirkungen hervorruft. Wenn der Test positiv verläuft, also die unerwünschten Effekte eintreten, kommen entsprechend wirkende Chemikalien in einer Probe vor. Auf Basis der verschiedenen Tests erzeugen die Forscher sogenannte Aktivitätsprofile. Diese lassen die Wissenschaftler gezielt auf die auslösende Stoffgruppe schließen – selbst wenn diese in der Umwelt zunächst noch gar nicht bekannt oder gelistet ist. Mit nachgeschalteten Analysen identifiziert man dann gezielt die verantwortlichen Schadstoffe. Das ist wesentlich effizienter, als grundsätzlich eine große Bandbreite von Schadstoffen zu messen.
Innovation für intensiv genutzte Wasserressourcen
„Die Ergebnisse haben vor allem für trockene Regionen einen hohen gesellschaftlichen Wert. Dort werden die Frischwasserressourcen knapper und künftig noch intensiver genutzt“, sagt Dr. Sebastian Buchinger, der TREES-Projektleiter an der BfG. „Das Vorgehen bietet die Chance, die Effizienz neuer Abwasserbehandlungsmethoden, wie zum Beispiel von Retentionsbodenfiltern zu optimieren oder die Gefährdung des Grundwassers,
z. B. im Einflussbereich einer Deponie, besser als bisher einzuschätzen“, erklärt Buchinger weiter. Die neu entwickelten Verfahren besitzen das Potenzial, die Wasserversorgung in Israel und seinen Nachbarstaaten, aber auch in Deutschland zu verbessern. Die Entwicklungen sind darüber hinaus ein wichtiger Beitrag zur Weiterentwicklung der EU-Wasserrahmenrichtlinie.
Wissenschaftliche Ansprechpartner:
Dr. Georg Reifferscheid, Referat Biochemie, Ökotoxikologie, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1. 56068 Koblenz, Fon: 0261/1306 5176, E-Mail: reifferscheid@bafg.de
Weitere Informationen:
https://www.bafg.de/DE/Service/presse/2020-10-07_TREES_Bericht
Joint Final Report: TREES – Tracking Effects of Environmental organic micro-pollutants in the Subsurface
Quelle: IDW
(nach oben)
Kein Nachwuchs bei Dorsch und Hering – Wissenschaft alarmiert: Fischbeständen in der westlichen Ostsee droht Kollaps
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz Zentrums für Ozeanforschung in Kiel haben zusammen mit mehreren Berufsfischern in der Kieler Förde Untersuchungen zum Zustand und Laicherfolg von Dorsch und Hering im Frühjahr 2020 durchgeführt. Das Ergebnis ist erschreckend und alarmierend.
Nach Jahrzehnten der Überfischung sind die Bestände von Dorsch und Hering in der westlichen Ostsee so klein, dass sie während der Laichzeit nicht mehr ihr ganzes Laichgebiet mit Eiern versorgen können. Beim Hering liegt der Nachwuchs seit 2005 weit unter dem Mittel der vorherigen Jahre und nimmt kontinuierlich weiter ab. Seit 2018 empfiehlt deshalb der Internationale Rat für Meeresforschung (ICES) eine Einstellung der Heringsfischerei, dieser Rat wurde aber bisher von den politisch Handelnden nicht befolgt. Beim Dorsch ist in vier der letzten fünf Jahre der Nachwuchs ganz oder fast ganz ausgeblieben. Der Bestand besteht daher fast nur noch aus jetzt vierjährigen Dorschen, die sich noch nicht erfolgreich fortgepflanzt haben und die Hauptlast der Dorschfischerei tragen. „Wenn wir diesen Jahrgang ohne Ersatz verlieren, dann haben wir den Bestand verloren“ sagt Dr. Rainer Froese, Meeresökologe und Experte für Fischereiwissenschaft am GEOMAR.
Die zu kleinen Bestände sind zudem extrem schlecht auf den Klimawandel vorbereitet. Das zeigte sich in diesem Frühjahr, wo der ungewöhnlich warme Winter die meisten Fische dazu veranlasst hat, zu früh abzulaichen, bevor genügend Nahrung für die Larven vorhanden war. Aufgrund der zu kleinen Bestandsgrößen haben nur sehr wenige Fische zur richtigen Zeit am richtigen Ort abgelaicht. Die Larven dieser Fische hatten mit dem zusätzlichen Problem zu kämpfen, dass sich eingeschleppte Rippenquallen im warmen Wasser massiv vermehrt haben und mit den Fischlarven um das Plankton als Futter konkurrieren. „Wir hatten noch in keinem Jahr so viele Rippenquallen in unseren Proben wie jetzt“ sagt Meeresbiologin und Expertin für Heringslarven, Dr. Catriona Clemmesen vom GEOMAR. „Alle Anzeichen deuten daher darauf hin, dass es in diesem Jahr bei Dorsch und Hering keinen Nachwuchs geben wird.“
Auch die Fischer haben die Änderungen im Ökosystem bemerkt: „Um diese Jahreszeit müsste es eigentlich massenhaft Ohrenquallen und Feuerquallen geben“, sagt Erik Meyer, Berufsfischer aus Schönberg. „Stattdessen haben wir glasklares Wasser und Quallen gibt es nicht.“ Auch Oliver Eggerland, Berufsfischer aus Laboe, hat noch nie so wenig Jungfische gesehen wie in diesem Jahr. „Normalerweise sehe ich um diese Jahreszeit Schwärme von Jungheringen im Flachwasser. Jetzt ist nichts da.“
Aus Sicht der Fischer und der GEOMAR Wissenschaftler muss dringend gehandelt werden, um eine Katastrophe abzuwenden. Sie schlagen eine völlige Einstellung jeglicher Fischerei auf Dorsch und Hering vor, bis mehrfache erfolgreiche Fortpflanzung die Bestände dauerhaft abgesichert hat. „Es kann nicht angehen, dass wir jetzt die letzten Dorsche und Heringe wegfangen,“ sagt Thorsten Reusch, Professor am GEOMAR und Experte für evolutionäre Genetik. „Die wenigen Jungfische, die trotz der widrigen Bedingungen überlebt haben, besitzen offenbar solche Erbanlagen, die wir für die Zukunft der Bestände brauchen. Sie stammen von Eltern, die erst bei höheren Temperaturen zum Laichen kommen und deren Gene müssen unbedingt an die nächsten Generationen weitergegeben werden“, fügt er hinzu.
Die Fischer und Wissenschaftler haben sich mit ihren Beobachtungen an den Umweltminister von Schleswig-Holstein, Jan Philipp Albrecht, und an die Bundesministerin für Landwirtschaft, Julia Klöckner gewandt. In ihrem Appell weisen sie deutlich darauf hin, dass die Fischer in dieser Situation nicht allein gelassen werden können. Sie schlagen angemessene Abfindung vor für Fischer, die aussteigen wollen, und angemessene Unterstützung für Fischer, die im Beruf bleiben wollen. Fischerei auf Plattfische (Scholle, Flunder, Kliesche, Steinbutt, Glattbutt) ist weiterhin möglich, Beifang von Hering und Dorsch muss dabei aber strikt vermieden oder gering halten werden.
Auch ist es aus ihrer Sicht unbedingt erforderlich, die Auswirkungen der eingeschleppten Rippenquallen auf das natürliche Nahrungsnetz der Ostsee eingehend zu untersuchen. Vielleicht gibt es ja Möglichkeiten, einheimische Räuber oder Nahrungskonkurrenten der ungebetenen Gäste so zu fördern, dass die Ausbreitung der Rippenquallen eingedämmt werden kann.
Die Zeit für Maßnahmen zur Begrenzung der Fischerei auf Dorsch und Hering ist knapp: schon am 19. und 20. Oktober treffen sich die Landwirtschaftsminister der EU und beschließen die Fangquoten für das nächste Jahr.
Wissenschaftliche Ansprechpartner:
Dr. Rainer Froese rfroese@geomar.de
Prof. Dr. Thorsten Reusch treusch@geomar.de
Quelle: IDW
(nach oben)
Korallenbleiche: Riff erholt sich schneller als gedacht
Sarah Batelka Hochschulkommunikation und -marketing
Universität Bremen
Wie schnell kann sich ein Riff von einer Korallenbleiche erholen? Schneller als gedacht – wenn der Mensch es in Ruhe lässt. So lautet das Fazit eines internationalen Forschungsprojekts unter Leitung der Abteilung Marine Ökologie der Universität Bremen in Partnerschaft mit der Seychelles Islands Foundation (SIF). Nur vier Jahre, nachdem bis zu zwei Drittel eines Riffs im Indischen Ozean beschädigt worden waren, entdeckten die Forschenden Erstaunliches: Große Teile der Korallen hatten sich erholt.
„Diese Erholungsgeschwindigkeit gehört zu den schnellsten, die jemals für Riffe beobachtet wurde“, sagt Christian Wild, Leiter der Arbeitsgruppe „Marine Ökologie“. Anna Koester, Doktorandin der Arbeitsgruppe, ist Erstautorin einer Studie, die kürzlich in der Fachzeitschrift „Scientific Reports“ veröffentlicht wurde. Die Meeresökologin geht davon aus, dass die überraschend schnelle Erholung vor allem mit der besonderen Lage des Riffs zu tun hat: Das Forschungsteam untersuchte den Zustand der Korallen im Aldabra Atoll, einer kaum besiedelten und weit draußen im Indischen Ozean gelegenen Inselgruppe. „Dort spielen menschgemachte lokale Faktoren wie der Eintrag von Nährstoffen, die Meeresverschmutzung und die Überfischung so gut wie keine Rolle“, erläutert die Wissenschaftlerin. Das ideale Gebiet also, um herauszufinden, wie sich der Zustand geschädigter Riffe verändert, wenn sie keinen menschengemachten Stressfaktoren ausgesetzt sind.
Die Untersuchung der Wissenschaftlerinnen und Wissenschaftler zeigte: Die Riffe, die in der ausgedehnten Lagune des Aldabra Atolls liegen, erholten sich in weniger als vier Jahren von der globalen Korallenbleiche der Jahre 2015/2016. Damals waren bis zu zwei Drittel der Korallen beschädigt worden. Auch die Korallen auf der dem offenen Meer zugewandten Seite regenerierten sich schnell, wenn auch nicht ganz so rasch wie in der geschützten Lagune. „Sie sind der Strömung und den Wellen ausgesetzt, das scheint eine Rolle zu spielen“, sagt Koester. Deutlich langsamer ging es in tieferen Regionen voran: Im Gegensatz zu den Riffen im flachen Gewässer erholten sich die tiefer gelegenen Korallen nur schleppend.
Das Fazit von Koester und Wild: Wenn es gelingt, lokale Stressfaktoren wie den Eintrag von Nährstoffen entscheidend zu reduzieren, dann können sich Korallenriffe gut und schnell von einer Bleiche erholen und haben eine Chance, weiterzuleben. Trotzdem sei es essentiell, die Auslöser von Korallenbleichen, vor allem die Ozeanerwärmung, zu reduzieren. Denn nicht jedes Riff regeneriere sich gleich gut – vor allem in weniger geschützter Umgebung werde mehr Zeit benötigt. „Alle Modelle sagen voraus, dass die Frequenz von Korallenbleichen in Zukunft zunehmen wird“, betont Wild. Dann würden auch für die bis jetzt privilegierten Korallenriffe in der Lagune von Aldabra harte Zeiten anbrechen.
Wissenschaftliche Ansprechpartner:
https://www.uni-bremen.de/marine-ecology
Originalpublikation:
Koester A, Migani V, Bunbury N, Ford A, Sanchez C, Wild C (in press): Early trajectories of benthic coral reef communities following the 2015/16 coral bleaching event at remote Aldabra Atoll, Seychelles. Scientific Reports
https://doi.org/10.1038/s41598-020-74077-x
Quelle: IDW
(nach oben)
HU-Podcast: „Mose wurde viel kritisiert“
Cordula de Pous Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Ein Gespräch mit HU-Professorin Katharina Pyschny über Führungskonzepte im Alten Testament und ihre heutige Relevanz
Das Alte Testament kennt eine unglaubliche Bandbreite an Führungspersönlichkeiten und Führungskonzepten, sagt die Juniorprofessorin Katharina Pyschny vom Zentralinstitut für Katholische Theologie an der Humboldt-Universität zu Berlin. Das Institut feiert dieses Wintersemester seinen ersten Geburtstag. Anlass genug für Radiojournalistin Cora Knoblauch, um mit Prof. Katharina Pyschny über ihre Forschung zu sprechen.
Prof. Pyschny forscht zu Führungskonzepten im Alten Testament, wie diese literarisch legitimiert werden, wie sie sich zu realgeschichtlichen Institutionalisierungsprozessen im antiken Israel verhalten und welche Rolle sie für die heutige Zeit spielen könnten. In der neuen Podcastfolge beschreibt die Forscherin die Stärken und Schwächen im Führungsstil von Mose: „Der Schwiegervater von Mose erkennt, dass Mose total überfordert ist mit der Führungsaufgabe von morgens bis abends Recht zu sprechen“, so Pyschny.
Dabei liefere das AT ein konkretes Beispiel für Delegation – eines der vielen Dinge, die wir von Mose zum Thema Führung lernen können. Die Professorin erklärt auch, warum im Alten Testament eine Führungsperson nicht unbedingt steinalt sein musste. Dass das Ringen um Führung zum Volk Israel auf seinem Weg durch die Wüste dazugehört, ist eine weitere Einsicht aus dem Podcast, der dieses Mal vor dem Deutschen Bundestag aufgenommen wurde.
Dynamisches Konzept
Überrascht hat Prof. Pyschny die Erkenntnis, dass die alttestamentlichen Texte viele verschiedene Führungskonzepte miteinander in einen literarischen Diskurs bringen, ohne ein ideales Modell normativ vorzugeben.
Das Alte Testament sei nur eine von vielen (antiken) Quellen zum Thema Führung und man müsse bei der Überlegung nach der Anwendbarkeit auf die Gegenwart den historischen Kontext berücksichtigen, betont Pyschny. Allerdings werde schon in antiker Traditionsliteratur wie dem Alten Testament deutlich, dass „Führung ein dynamisches Konzept ist, es verändert die Führungsperson und die Personen, die geführt werden,“ so die Forscherin.
Mehr zu diesem Thema hören Sie auf der Podcast-Seite der HU: https://www.hu-berlin.de/de/podcampus
Dort finden sich auch alle bisherigen Folgen von „Humboldt Hören“ von „Licht, Atomen und Geheimdiensten“ bis „Was ist oder war der Islam?“.
Sie finden die Podcasts der Humboldt-Universität auch auf Spotify und Apple Podcasts.
Kontakt:
Hans-Christoph Keller
Pressesprecher der Humboldt-Universität zu Berlin
Tel.: 030 2093-12710
pr@hu-berlin.de
Quelle: IDW
(nach oben)
Klimaschutz lässt sich sozialverträglich gestalten
Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Die Klima- und Energiepolitik war bisher oft nicht optimal, was die sozialen Folgen angeht – also etwa die Lebensqualität des Einzelnen, die Verteilung des Wohlstands und der lokale Zusammenhalt. Das liegt nicht in der Natur der Sache, sondern lässt sich vermeiden, wie jetzt eine aufwendige Metastudie unter Leitung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) belegt. Demnach gibt es inzwischen soziale Erfolgsstories für alle wichtigen Politikinstrumente, sowohl in Industrie- als auch in Entwicklungsländern. Die Studie wurde jetzt in der renommierten Fachzeitschrift Environmental Research Letters veröffentlicht.
Mit einer systematischen Methode der Suche, Auswahl und Durchsicht der gesamten Forschung zu umgesetzter Klimapolitik untersuchten die Autoren, inwieweit Regierungen mit Klimaschutz zugleich positive soziale Ergebnisse erzielt haben. „Schlecht konzipierte Klimapolitik, die soziale Probleme verschärft, ist ein Geschenk für die Kohle- und Ölindustrie“, sagt William Lamb, Forscher in der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung und Leitautor der Studie. „Dies gilt es unbedingt zu vermeiden – sonst nutzen deren Lobbyisten solche Fehlleistungen, um die Klimapolitik zurückzudrehen und die eigenen Folgekosten gering zu halten.“
Die Studie untersucht verschiedene Formen der Klimapolitik, wie etwa höhere Spritsteuern, CO2-Bepreisung im Energiesektor, Subventionen für Solarzellen, Hilfsprogramme für die Verbesserung von Energieeffizienz, Einspeisevergütungen für Grünstrom sowie Staudammbauten und andere Großprojekte. Für jedes Politikinstrument gibt es Beispiele für sozial unbedenkliche Umsetzung – etwa das „Warm Front Home Energy Efficiency Scheme“ in Großbritannien, das die Brennstoffkosten für Haushalte mit niedrigem Einkommen senkte. Aber auch von gescheiterten Projekten – etwa große Wasserkraft-Installationen in Südostasien mit schwerwiegenden Auswirkungen auf Lebensgrundlagen und Armut.
„Insgesamt ist unsere Studie Anlass zur Zuversicht“, bilanziert MCC-Forscher Lamb. „Denn wo der Kampf gegen die Erderwärmung nicht nur gut gemeint, sondern auch gut gemacht ist, lassen sich die vielzitierten Co-Benefits der Klimapolitik gut nachweisen. Wir können also ambitionierte Klima-Maßnahmen unterstützen, die auch soziale Fragen direkt angehen.“ Der Metastudie zufolge steckt die Forschung zu den umgesetzten Politik-Ansätzen allerdings noch in den Kinderschuhen. Insgesamt gibt es bislang relativ wenig relevante Literatur, der Großteil konzentriert sich auf die westlichen Industrieländer, und zudem liegt der Schwerpunkt eher auf Einzelmaßnahmen als auf der Politik insgesamt.
Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/lamb-william.html
Originalpublikation:
Lamb, W., Antal, M., Bohnenberger, K., Brand-Correa, L., Müller-Hansen, F., Jakob, M., Minx, J., Raiser, K., Williams, L., Sovacool, B., 2020, What are the social outcomes of climate policies? A systematic map and review of the ex-post literature, Environment Research Letters
https://iopscience.iop.org/article/10.1088/1748-9326/abc11f
Weitere Informationen:
http://www.mcc-berlin.net
Quelle: IDW
(nach oben)
Künstliche Intelligenz zum Schutz des Grundwassers
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Mit einem Modell für Vorhersagen will ein Forscherverbund aus Karlsruhe, an dem auch das Karlsruher Institut für Technologie (KIT) beteiligt ist, effizient und nachhaltig Nitrat im Grundwasser reduzieren. Dabei wird auf Künstliche Intelligenz (KI) gesetzt. So soll eine intelligente Entscheidungsunterstützung erreicht werden, bei der Rechner selbstständig lernen können – um entsprechende Maßnahmen zu ergreifen. Das Bundesumweltministerium (BMU) fördert im Rahmen der KI-Strategie Projekte, die mit Künstlicher Intelligenz ökologische Herausforderungen bewältigen (KI-Leuchttürme). Die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter hat nun den Förderbescheid überreicht.
Hohe Nitratkonzentrationen im Grundwasser und ihre Konsequenzen für Mensch und Umwelt rücken in den letzten Jahren immer stärker ins Bewusstsein der Öffentlichkeit. Werden die auf den Feldern angebauten Kulturen nicht pflanzenbedarfsgerecht gedüngt, gelangt mehr Stickstoff in den Boden, als die Pflanzen aufnehmen können. Dadurch sickert der im Wasser gelöste Stickstoff als Nitrat bis ins Grundwasser. Etwa 70 Prozent des deutschen Trinkwassers werden aus Grundwasser gewonnen. Zu hohe Nitratwerte im Trinkwasser können zu gesundheitlichen Beeinträchtigungen führen, sodass die Versorgungsunternehmen aufwändige Maßnahmen zur Nitratminderung ergreifen müssen. Die Überwachung der Wasserbeschaffenheit zeigt, dass der Zustand des Grundwassers vielerorts gefährdet ist.
Im Verbundprojekt „Nitrat-Monitoring 4.0 – Intelligente Systeme zur nachhaltigen Reduzierung von Nitrat im Grundwasser“ (NiMo 4.0) entwickeln Wissenschaftlerinnen und Wissenschaftler, unter anderem des KIT, ein intelligentes System, um mit wenigen Messstellen die räumliche und zeitliche Verteilung des Nitrats im Grundwasser besser verstehen und vorhersagen zu können. Mithilfe solcher Vorhersagen, die auf Verfahren des Maschinellen Lernens beruhen, soll eine intelligente Entscheidungsunterstützung erreicht werden, um optimale Standorte für zusätzliche Messungen zu finden und Programme zum Grundwasserschutz zielgerichtet zu gestalten. NiMo 4.0 wird im Rahmen der Initiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) als eines von bundesweit 28 Projekten mit insgesamt 2,478 Millionen Euro gefördert.
„Das BMU hat sich für die Förderung dieses Projektes entschieden, weil die Nitratproblematik für das Grundwasser in Deutschland eine ökologische Herausforderung darstellt“, erläutert die Parlamentarische Staatssekretärin Rita Schwarzelühr-Sutter (BMU) die Bewilligung bei der Übergabe des Zuwendungsbescheids an die Verbundpartner. „Der Einsatz intelligenter Software kann dabei helfen, ökologische und ökonomische Interessen der Gesellschaft, der Wasserversorgungsunternehmen sowie der Landwirtschaft miteinander zu vereinbaren. Dadurch sollen wegweisende Beispiele für intelligente Umwelttechnologien entstehen, die später eine große Breitenwirkung entfalten können.“
Interdisziplinäres Konsortium entwickelt Nitrat-Monitoring 4.0
Für dieses BMU-Verbundprojekt bündelt ein interdisziplinäres Konsortium mit Partnern aus der Grundlagen- und der anwendungsorientierten Forschung, aus Technologietransfer und Wirtschaft seine Kompetenzen: die Disy Informationssysteme GmbH (Projektleitung), eine Ausgründung des FZI Forschungszentrum Informatik und der Universität Karlsruhe, dem heutigen Karlsruher Institut für Technologie (KIT), die Abteilung Hydrogeologie des Instituts für Angewandte Geowissenschaften (AGW) des KIT, das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB mit seinen Standorten Karlsruhe und Ilmenau und das DVGW-Technologiezentrum Wasser (TZW) mit seinen Standorten Karlsruhe und Dresden. Die entwickelten Lösungsansätze werden in zwei wasserwirtschaftlich bedeutenden Pilotregionen prototypisch implementiert und demonstriert: in den Einzugsgebieten des Zweckverbands Landeswasserversorgung in Baden-Württemberg und des Wasser- und Abwasser-Zweckverbands Niedergrafschaft in Niedersachsen.
Das AGW am KIT ist in Deutschland führend in der Forschung zur Anwendung Künstlicher Intelligenz für hydrogeologische Fragestellungen und verfügt über langjährige Erfahrung in der Analyse und Beurteilung von Schadstoffen im Grundwasser. Im Projekt bringt das AGW seine Expertise vor allem bei der KI-gestützten Modellierung der Nitratverteilung im Grundwasser mit neuronalen Netzen ein. Zudem übernimmt es die fachlich-wissenschaftliche Gesamtkoordination des Projekts.
Das Fraunhofer IOSB unterstützt die KI-gestützte Datenauswertung im Projekt insbesondere mit einem Vorgehensmodell zum systematischen Einsatz von Maschinellen Lernverfahren sowie einem Vorhersagemodell für die Nitratgehalte im Grundwasser, um Auffälligkeiten in Messwerten frühzeitig zu entdecken. Außerdem hat das IOSB einen Arbeitsschwerpunkt bei der Gestaltung einer intelligenten Sensordateninfrastruktur. Hier soll speziell der vom IOSB mitgestaltete, leichtgewichtige Standard SensorThings API des Open Geospatial Consortium (OGC) eingesetzt und weiterentwickelt werden, der sowohl die Anbindung neuer Sensoren als auch die Integration bestehender Datenbanken erleichtert.
Das TZW verbindet Forschung und Praxis in Form von Expertisen, Studien und Prüfungsleistungen für die gesamte Wasserbranche. Ein Schwerpunkt der Aktivitäten liegt auf der wissenschaftlichen Beratung von Wasserversorgungsunternehmen. Hierbei spielen das Ressourcenmanagement und das Problemfeld „Grundwasserschutz und Landwirtschaft“ eine zentrale Rolle. Am TZW liegen umfassende Praxiserfahrungen mit Grundwassermonitoring, mit der Analyse von großen Datenmengen und Datenbeständen zur Nitratbelastung in den deutschen Rohwasserressourcen vor. Über ein Online-Portal, das das TZW in Zusammenarbeit mit Disy aufgebaut hat, können Wasserversorger Daten zur Grund- und Rohwasserbeschaffenheit für regionale und überregionale Auswertungen bereitstellen. Im Projekt NiMo 4.0 bearbeitet das TZW die Themen Optimierung von Grundwassermessnetzen und Werkzeuge zur Überwachung der Grundwasserbeschaffenheit im täglichen Betrieb.
Die Disy Informationssysteme GmbH, die das Verbundprojekt koordiniert, führt die verschiedenen wissenschaftlich-technischen Lösungsbeiträge in prototypischen Softwarelösungen zur intelligenten Datenanalyse und zu benutzerfreundlichen Entscheidungsunterstützungssystemen zusammen. Entwicklungsschwerpunkte sind hier effiziente Datenvisualisierungen und effektive Benutzerschnittstellen für Endanwender sowie moderne Dateninfrastrukturen, die sich in die existierende Softwarelandschaft der Anwender gut einbetten lassen. „Wir freuen uns sehr auf dieses anspruchsvolle Projekt zu einem Thema mit großer ökologischer Bedeutung“, ist Disy-Geschäftsführer Claus Hofmann stolz auf das Gewinnen dieser Förderung in einem stark umkämpften Ideenwettbewerb. „NiMo 4.0 wird auch Disy dabei helfen, modernste Methoden der Data Science und der Künstlichen Intelligenz für den Umweltschutz einzusetzen und weiterzuentwickeln.“
Weitere Informationen: https://nimo-projekt.de/
Weitere Pressekontakte:
KIT: Johannes Wagner, Pressereferent, Tel.: +49 721 608-41175,
E-Mail: johannes.wagner@kit.edu
Disy: Dr. Wassilios Kazakos, Leiter Marketing, Business Development, Tel.: +49 721 1 6006-000,
E-Mail: presse@disy.net
Fraunhofer IOSB: Ulrich Pontes, Presse und Kommunikation, Tel.: +49 721 6091-301
E-Mail: ulrich.pontes@iosb.fraunhofer.de
TZW: Dagmar Uhl, Öffentlichkeitsarbeit, Tel: +49 721 9678-233,
E-Mail: dagmar.uhl@tzw.de
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und
Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwor-tungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissen-schaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Anhang:
Künstliche Intelligenz zum Schutz des Grundwassers
Quelle: IDW
(nach oben)
Kurzsichtigkeit: Kinderaugen brauchen mehr Sonnenlicht
Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit
Stiftung Kindergesundheit informiert über die Zunahme von Sehproblemen und über Möglichkeiten der Vorbeugung Das Tragen einer Brille gehört zum Alltag vieler Kinder in Deutschland. Die Mehrzahl von ihnen benötigt die Sehhilfe wegen einer Kurzsichtigkeit, berichtet die Stiftung Kindergesundheit in einer aktuellen Stellungnahme. Bis zum Ende der Grundschulzeit werden in Deutschland heute rund 15 Prozent aller Kinder kurzsichtig. Der Anteil der Kurzsichtigen steigt bis zum Alter von 25 Jahren auf rund 45 Prozent. Während die Kurzsichtigkeit in vielen Regionen Ostasiens in den letzten Jahren stark zugenommen hat, ist die Rate in Deutschland nach Erhebungen augenärztlicher Fachgesellschaften in den letzten 15 Jahren unter den Jugendlichen zumindest vorerst konstant geblieben.
Dabei gibt es jedoch einen klaren Trend: Je länger ein Kind eine Schule besucht, desto größer ist die Wahrscheinlichkeit, kurzsichtig zu werden. Damit nicht genug: Je höher der Abschluss der Ausbildung in Schule, Studium und Beruf, desto kurzsichtiger werden die Menschen.
„Bei der Geburt sind Kinderaugen in der Regel weitsichtig“, berichtet Kinder- und Jugendarzt Professor Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit. „Das ändert sich dann im Laufe des Größenwachstums des Augapfels. Dieses Wachstum endet bei der sogenannten Normalsichtigkeit um das sechste bis neunte Lebensjahr. Wächst das Auge aber weiter in die Länge, kommt es zur Kurzsichtigkeit, fachlich Myopie genannt“.
Wenn das Kind oft die Augen zukneift
Ist der Augapfel zu lang, schneiden sich die Strahlen, die aus der Ferne kommen, dann nicht auf, sondern schon vor der Netzhaut und werden als verschwommenes Bild ins Gehirn weiter gemeldet. Kurzsichtige Kinder versuchen deshalb, die unscharfen Bilder, die ihre Augen ihnen liefern, mit einem einfachen Kunstgriff zu verbessern: Sie kneifen die Augen zum besseren Sehen zu.
Der Grund: Durch die zugekniffenen Lider verkleinert sich die Pupille und die Trennschärfe steigt an, etwa so wie beim Fotografieren die Tiefenschärfe durch Verkleinerung der Blende erhöht wird. Dieser typischen Angewohnheit verdankt die Kurzsichtigkeit übrigens ihren medizinischen Namen: Das dabei entstehende Blinzelgesicht nannten die alten Griechen Myops, daher der Fachterminus Myopie.
Probleme beim Lesen und Rechnen
Eine Kurzsichtigkeit fällt meistens erst dann auf, wenn ein Kind Gegenstände oder Personen in der Ferne immer später als andere erkennt. Es schreibt zum Beispiel falsch von der Wandtafel ab, verwechselt Zahlen oder Buchstaben, reibt sich oft die Augen und klagt über Kopfschmerzen. Professor Berthold Koletzko: „Man sollte sich hüten, ein Kind als unaufmerksam, unterdurchschnittlich begabt oder dumm anzusehen, bevor seine Sehfähigkeit genau untersucht worden ist“.
Kurzsichtigkeit liegt oft in der Familie: Sind die Eltern selbst kurzsichtig, besteht auch für das Kind das Risiko, kurzsichtig zu werden. Ist nur ein Elternteil kurzsichtig, liegt dieses Risiko bei etwa 30 Prozent, bei zwei kurzsichtigen Eltern bei 60 Prozent. Allerdings können auch normalsichtige Eltern stark kurzsichtige Kinder bekommen.
Wichtiger jedoch als die genetische Veranlagung erweisen sich Umwelteinflüsse wie Bildung, Beruf und Freizeitgestaltung auf die Entwicklung von Kurzsichtigkeit, betont die Stiftung Kindergesundheit. Es ist mittlerweile unstrittig, dass Sehgewohnheiten einen Einfluss auf das Wachstum des Auges ausüben können. Menschen, die im Kindesalter und als junge Heranwachsende über Jahre hinweg viel lesen, haben ein größeres Risiko, kurzsichtig zu werden. Dabei spielen sowohl die Lesedauer, als auch der Leseabstand und die Beleuchtung beim Lesen eine Rolle. Als ungünstig gelten das ununterbrochene Lesen über 30 Minuten hinweg und das „Lesen mit der Nase“ mit einem Abstand der Augen vom Text unter 30 Zentimeter.
Täglich hinaus ins Freie!
Eine besondere Rolle bei der Entstehung und Fortschreiten der Kurzsichtigkeit spielt das Tageslicht, hebt die Stiftung Kindergesundheit hervor. Eine Reihe von Untersuchungen belegt, dass Kinder umso seltener kurzsichtig werden, je mehr sie im Freien spielen. Beim längeren Aufenthalt an der frischen Luft schaut das Auge meist in die Ferne und nicht auf Objekte in der Nähe.
Eine Metaanalyse bisheriger Studien ergab, dass schon zwei Stunden tägliche Aktivitäten bei Tageslicht das Auftreten der Kurzsichtigkeit halbieren. 40 Minuten zusätzlicher Aufenthalt im Freien minderten die Zunahme der Kurzsichtigkeit um etwa 20 Prozent.
Dabei spielt weniger die Intensität der Sonnenstrahlung eine Rolle als die Dauer des Aufenthalts unter freiem Himmel, betonen augenärztliche Experten. Schon relativ geringe Intensitäten des Lichts um 1000 Lux und darüber, die etwa der Umgebungshelligkeit unter Bäumen entsprechen, zeigen einen Effekt. Auch der Anteil der ultravioletten Strahlen scheint keine besondere Bedeutung zu haben.
Nach 30 Minuten Lesen 10 Minuten Pause
Aufgrund dieser Erkenntnisse haben die Erziehungsbehörden des chinesischen Inselstaates Taiwan bereits vor zehn Jahren besondere Regeln für Schulkinder eingeführt. Eine der dortigen Richtlinien lautet „Tien Tien 120“ und empfiehlt jeden Tag zwei Stunden Aufenthalt im Freien. Die zweite sogenannte „30-10-Regel“ besagt, dass das Lesen alle 30 Minuten für zehn Minuten unterbrochen werden sollte. Das Befolgen dieser zwei einfachen Regeln konnte die Häufigkeit der Kurzsichtigkeit bei taiwanesischen Kindern tatsächlich nachweislich verringern.
Für eine weitere Studie in Taiwan wurden 693 Erstklässler rekrutiert. 267 von ihnen sollten sich ein Jahr lang mindestens elf Stunden pro Woche im Freien aufhalten. Die restlichen Kinder behielten ihre Lebensgewohnheiten bei. Das Ergebnis nach einem Jahr: Die Kinder der Frischluft-Gruppe benötigten schwächere Brillen als die Kinder der Kontrollgruppe und hatten ein um 54 Prozent niedrigeres Risiko für eine rasch fortschreitende Kurzsichtigkeit.
Der Einfluss von Lichtmangel auf die Entstehung von Kurzsichtigkeit wurde auch bei Kindern westlicher Länder eindeutig belegt. So zeigte eine US-amerikanische Studie, dass jede Stunde Aufenthalt pro Woche bei Tageslicht das Risiko um circa zehn Prozent senkt. Eine australische Studie mit über 1.300 Teilnehmern ergab dagegen, dass sich die Wahrscheinlichkeit für Kurzsichtigkeit verdoppelt, wenn man weniger als 30 Minuten täglich dem Tageslicht ausgesetzt ist.
„Heilen“ lässt sich eine Kurzsichtigkeit nicht, betont die Stiftung Kindergesundheit: Ist der Augapfel zu lang, schrumpft er nicht wieder. Ist Kurzsichtigkeit einmal vorhanden, bleibt sie bestehen und nimmt sogar bis ins Erwachsenenalter zu. Kurzsichtigkeit lässt sich aber mit Brillen oder Kontaktlinsen gut korrigieren und kann in einem gewissen Umfang auch eingedämmt werden.
Genaue Diagnose durch den Augenarzt
Entdeckt der Kinder- und Jugendarzt bei einer der Vorsorge-Untersuchungen Hinweise auf Augenfehler oder Sehstörungen, wird er das Kind zur genauen Abklärung der Diagnose zum Augenarzt schicken. Dieser leitet die notwendige Behandlung ein. Zum Ausgleich der Kurzsichtigkeit bekommt das Kind eine Brille mit Zerstreuungslinsen (Konkav- oder Minusgläsern) verordnet. Diese Gläser sind in der Mitte dünner als am Rand und bewirken, dass sich die Lichtstrahlen erst weiter hinten auf der Netzhautebene vereinigen.
Kinder und Jugendliche haben bis zum 18. Lebensjahr Anspruch auf eine Brille auf Kosten der gesetzlichen Krankenkassen. Voraussetzung ist die Verordnung durch einen Augenarzt. Ab dem 14 Lebensjahr besteht ein erneuter Anspruch nur dann, wenn sich die Sehstärke um mehr als 0,5 Dioptrien verändert. Kindern stehen Kunststoffgläser zu, wenn sie im Vorschulalter sind oder jünger als 14 Jahre sind und die Sehfähigkeit um mehr als plus oder minus fünf Dioptrien beeinträchtigt ist. Wenn die Kunststoffgläser notwendig sind, um am Schulsport teilnehmen zu können, kommt die gesetzliche Krankenversicherung ebenfalls für die Kosten auf.
Eltern sollten das Kind stets zum Tragen der Brille ermuntern, empfiehlt die Stiftung Kindergesundheit: Es kann mit der Brille erwiesenermaßen konzentrierter Arbeiten und ermüdet weniger schnell, wenn es gut sieht.
Eine Kinderbrille sollte leicht, klein und lustig sein
Weil Kinder ihre Brille ständig tragen sollten, kommt es besonders auf den bequemen und korrekten Sitz an. Die Brille darf also nicht rutschen, damit sie exakt zentriert bleibt. Je kleiner die Fassung ist, desto weniger schränkt die Brille die Bewegungsfreiheit ein. Eine Kinderbrille sollte nicht breiter sein als das Gesicht. Besonders wichtig: Die Glasmitte gehört vor die Pupillenmitte.
Bei der Auswahl der Brille für ihr Kind sollten sich die Eltern nicht von den Modevorstellungen von Erwachsenen leiten lassen, empfiehlt die Stiftung Kindergesundheit. „Die Brille muss dem Kind gefallen, damit sie auch gern getragen wird“, sagt Professor Berthold Koletzko. Kinderbrillen müssen stabil sein, gut sitzen und nicht rutschen. Die richtige Kinderbrille hat Kunststoffgläser, sitzt richtig fest vor den Augen auf der Nase und ist leicht, klein und lustig.
Quelle: IDW
Im Meer schneit es Plastik
Jan Steffen Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Jedes Jahr landen rund vier Prozent des an Land anfallenden Plastikmülls im Meer. Während die Wege der größeren Plastikstücke bereits gut nachvollzogen werden können, gibt das Schicksal des Mikroplastiks im Meer der Wissenschaft noch Rätsel auf. Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel konnten jetzt erstmals in einer Studie modellieren, wie und wo biologische Prozesse Mikroplastik von der Oberfläche in tiefere Schichten des Wassers transportieren. Diese Prozesse könnten für den Großteil des Mikroplastiktransports verantwortlich sein, so die Studie, die jetzt in der internationalen Fachzeitschrift Scientific Reports erschienen ist.
Die Verschmutzung unserer Meere durch Plastikmüll ist ein Problem, das mittlerweile viel Beachtung erhält. Um es lösen zu können, ist es wichtig, genau nachzuverfolgen, wie viel Plastik sich in den Ozeanen befindet und wie es sich bewegt. Doch bei Untersuchungen dazu fiel Wissenschaftlerinnen und Wissenschaftlern auf, dass ein Teil des Plastiks zu verschwinden schien: Die Menge an Kunststoff, die tatsächlich an der Meeresoberfläche gefunden wurde, war deutlich geringer als erwartet. Das gilt vor allem für Mikroplastik. Es hat maximal einen Durchmesser von fünf Millimetern, manchmal sind es aber auch nur einige Mikrometer. Es gelangt entweder durch direkten Eintrag ins Meer, zum Beispiel über den Wind, Flüsse oder Schiffe, oder es entsteht, wenn größere Plastikteile im Wasser durch Umwelteinflüsse zerfallen.
Während sich an der Meeresoberfläche weniger Mikroplastik als erwartet findet, konnte es schon in der Arktis und im Marianengraben, dem tiefsten bekannten Punkt der Erde, nachgewiesen werden. Es bleibt allerdings die Frage, wie es dort hingelangt. Forscherinnen und Forscher vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel haben versucht, diese Frage zu beantworten. Dafür haben sie erstmals modelliert, wie biologische Prozesse, Mikroplastik in die Tiefe tragen, zum Beispiel über den sogenannten Meeresschnee. Die Forschungsgruppe simulierte dafür die Bewegungen von Mikroplastik in den Ozeanen innerhalb eines Erdsystemmodells. Die Ergebnisse wurden jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht.
Es gibt verschiedenen Wege, wie Mikroplastik in die tieferen Schichten des Ozeans gelangen kann. Der wohl offensichtlichste Grund ist der Auftrieb: Hat das Plastik keinen Auftrieb, sinkt es zum Meeresboden. Die Wissenschaftlerinnen und Wissenschaftler fanden nun aber heraus, dass eine große Menge des Mikroplastiks auch aufgrund biologischer Prozesse von der Oberfläche nach unten befördert wird.
Dafür verantwortlich ist vor allem das Plankton, das nah an der Oberfläche lebt. Seine Ausscheidungen, abgestorbene Zellen oder ganze Organismen und anderes organisches Material verbinden sich mit dem Mikroplastik und sinken wie Schneeflocken langsam in die Tiefe. Dort dienen sie Bakterien als Futter. So wird das Plastik von seinem Transportmittel befreit und treibt entweder in der Tiefe weiter oder steigt wieder zur Oberfläche auf. „Auf den ersten Blick scheint dieser Transportweg also ziemlich ineffektiv zu sein. Unsere Studie zeigt, dass von zwei, in manchen Regionen sogar von drei auf diesem Weg gebundenen Plastikteilen nur eines in wirklich die Tiefe sinkt, der Rest verbleibt an der Oberfläche“, sagt Dr. Karin Kvale vom GEOMAR, Hauptautorin der Studie. Der Prozess ist jedoch so weit verbreitet, dass er genug Plastik aus den oberen Schichten des Wassers entfernt, um das fehlende Plastik dort zu erklären. „Der sogenannte ‚Marine Schnee‘ hat so also einen großen Einfluss auf die globale Mikroplastikverteilung“, erklärt die Modelliererin weiter.
Genaue Modellierungen der biologischen Prozesse mit Mikroplastik in einem Erdsystemmodell bieten außerdem die Möglichkeit, Prognosen darüber zu treffen, wie sich diese Zusammenhänge in Zukunft ändern könnten, wenn der Klimawandel Ozeanzirkulation und Ökosysteme beeinflusst. Dr. Kvale betont: „Zu verstehen, wie Plastik sich durch unsere Ozeane bewegt, ist grundlegend wichtig, um mit der zunehmenden Verschmutzung der Meere umzugehen und die Auswirkungen von Mikroplastik auf marine Ökosysteme auf einer globalen Ebene zu begreifen.“
Originalpublikation:
Kvale K, AEF Prowe, C-T Chien, A Landolfi, A Oschlies (2020): The global biological microplastic particle sink. Scientific Reports. DOI: https://doi.org/10.1038/s41598-020-72898-4
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Quelle: IDW
HHL zeigt Meinungsbild zu umstrittener 50+1-Regel im Fußball
Eva Echterhoff Media Relations
HHL Leipzig Graduate School of Management
Die 50+1-Regel ist eine der umstrittensten Regelungen im deutschen Fußball. Professor Dr. Henning Zülch von der Handelshochschule Leipzig (HHL) sieht sie als einen Grundpfeiler der Erfolgsgeschichte des deutschen Fußballs und seiner Fankultur. In einem Arbeitspapier zeichnet die HHL ein Bild der öffentlichen Meinung zu dem deutschen Sonderweg 50+1.
Prof. Dr. Henning Zülch (HHL):
„In der öffentlichen Meinung zeigt sich, dass es ein klares Votum für den Erhalt der 50+1-Regel in Deutschland gibt. Indes muss die Regelung ihre Gestalt wechseln. Sie muss modifiziert werden, um der Realität und den finanziellen Bedürfnissen der Klubs gerecht zu werden.“
Basierend auf diesem Meinungsbild und vor dem Hintergrund der aktuellen Entwicklungen werden Handlungsempfehlungen erarbeitet.
Prof. Dr. Henning Zülch (HHL):
„Ich sehe die aktuellen Entwicklungen im europäischen Fußball in diesem Zusammen-hang als besorgniserregend an. Wer die hohen Ablösesummen nicht zahlen kann, wird langfristig nicht wettbewerbsfähig sein. So wird der Ruf nach einer Öffnung der Bundesli-ga für strategische Investoren immer lauter werden – auch oder gerade während der Corona-Krise.“
Die 50+1-Regel
Sie besagt (vereinfacht), dass ein strategischer Investor die Mehrheit der Kapitalanteile an einem Fußballklub erlangen kann, aber nie die Stimmrechtsmehrheit. Die Mehrheit der Stimmrechte – und damit die Kontrolle – liegt ausschließlich in den Händen der Mitglieder des Vereins selbst. Primäres Ziel ist es, durch die Regel, die sportlichen Interessen der Vereine und ihrer Mitglieder zu stärken gegenüber dem Wirtschafts-Interesse der Investoren. Gerade mit Blick auf den Umgang mit seiner wichtigsten Stakeholdergruppe, den Fans, ist diese Regel einzigartig, da sie das Fanwohl als eines der höchsten Güter behandelt, die die Marke Bundesliga besitzt.
Fragen an Professor Dr. Henning Zülch (HHL)
1. Warum muss sich die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel verfolgt das Ziel, dass ein Investor zwar die Mehrheit der Kapi-talanteile an einer Fußball-Kapitalgesellschaft erlangen kann, indes nicht die Stimmrechtsmehrheit und damit die Kontrolle über den Klub. Diese soll weiterhin in den Händen des e.V. liegen und damit bei den Mitgliedern. Indes gibt es zahlreiche Ausnahmen von der 50+1-Regel, welche die Regel als solche immer unglaubwürdiger mit Blick auf die o.g. Zielsetzung machen. So wird z.T. von der „Lex Wolfsburg“ und „Lex Leverkusen“ gesprochen. RB Leipzig und dessen Gründung sowie Namensgebung werden in diesem Zusammenhang auch stets angeführt (vgl. Abschnitt II.3.).
2. Wie sollte die 50+1-Regel verändert werden?
HZ: Die 50+1-Regel sollte in ihrer Idee beibehalten aber modifiziert werden. Die Kinderkrankheiten, also die etablierten Ausnahmeregelungen, müssen abgeschafft werden. Konkret ergeben sich vier Handlungsfelder bzw. Ansatzpunkte zur Veränderung. Das sind: die Verringerung der Mindestförderdauer von 20 Jahren, die Verringerung der Sperr-Anteile, eine striktere Anlegerkontrolle und die Stärkung der Mitgliedermitbestimmung (vgl. hierzu Abschnitt IV.).
3. Was fürchten die Fans bei unbeschränkter Macht eines Investors?
HZ: Die Fans fürchten bei Kontrollausübung eines Investors, dass er nicht im Einklang mit den Idealen und Werten des Klubs die Geschicke lenkt. Der deutsche Fußball lebt von seiner Fankultur und der Stadionatmosphäre wie kein anderes Land. Diese Kultur ist gewachsen, kultiviert und imagebildend durch ihre Fans. Einem Investor wird zunächst abgesprochen, dass er diese Kultur bewahren will. Vielmehr wird er als Bedrohung angesehen, so dass Kontrollausübung durch einen Investor um jeden Preis zu vermeiden sei. Indes wird sich der Erfolg eines Klubs künftig nicht ohne strategische Investoren einstellen; sie sind eine Grundvoraussetzung und müssen mit den Grundwerten und der Strategie des Klubs im Einklang stehen. Hierfür gilt es, Akzeptanz durch Dialog zu schaffen. Die 50+1-Regel bzw. ihre modifizierte Fassung kann als Kompromiss zwischen Fanwohlmaximierung und wirtschaftlicher Professionalisierung angesehen werden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Henning Zülch, Lehrstuhl für Rechnungswesen, Wirtschaftsprüfung und Controlling
Originalpublikation:
Das Arbeitspapier erhalten Sie als Download unter
https://www.hhl.de/app/uploads/2020/06/hhlap0186.pdf
Weitere Informationen:
http://www.hhl.de
https://www.hhl.de/de/fakultaet-forschung/prof-dr-henning-zuelch/
Quelle: IDW
Recycling von Klärschlamm
Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal
Das Bundesforschungsministerium fördert das innovative Verbundprojekt „KlimaPhoNds“, das maßgeblich vom Clausthaler Umwelttechnik Forschungszentrum (CUTEC) der TU Clausthal umgesetzt wird, mit 4,6 Millionen Euro. Beginn des Forschungsvorhabens ist in diesem Oktober.
Klärschlamm ist ein wertvoller Energie- und Rohstoffträger. Im Sinne einer nachhaltigen Kreislaufwirtschaft muss es das Ziel sein, sämtliche Ressourcen aus dem Klärschlamm zu nutzen. Hierzu gehört nicht nur Phosphor, sondern zum Beispiel auch Stickstoff, Metalle und Mineralstoffe, aber auch die im Klärschlamm gebundene Energie. Das Projekt „KlimaPhoNds“ zielt auf eine vollständige energetische und rohstoffliche Klärschlammverwertung und der Realisierung von Stoffkreisläufen für Magnesium, Stickstoff und insbesondere Phosphor.
„Wir werden dazu mehrere Innovationen im großtechnischen Maßstab umsetzen, um die Klimaneutralität und Ressourceneffizienz des entwickelten Konzeptes nachzuweisen“, sagt Professor Michael Sievers. Der Leiter der Abteilung Abwasserverfahrenstechnik im Forschungszentrum CUTEC der TU Clausthal wird das Projekt koordinieren, das am 1. Oktober beginnt und auf fünf Jahre ausgelegt ist. Auch die CUTEC-Abteilungen Thermische Prozesstechnik sowie Ressourcentechnik und -systeme bringen sich in das Vorhaben ein. An der TU Clausthal passt das Vorhaben ideal zum neuen Leitthema Circular Economy – nachhaltige Kreislaufwirtschaft. Industriepartner sind die Parforce Engineering & Consulting GmbH, Lukson AG und Knoke-Industrie-Montage GmbH.
Im Hinblick auf eine zukunftsweisende Industriegesellschaft wird das neue klimafreundliche, rohstoffeffiziente Konzept am Beispiel der Kläranlage Northeim – auch die Stadt Northeim ist Projektpartner – entwickelt und umgesetzt. „Die Klimafreundlichkeit beruht auf einer innovativen, nahezu wärmeneutralen Trocknung von Klärschlamm und dessen energetischer Verwertung“, so Professor Sievers. Zur verbesserten Ressourceneffizienz tragen die stoffliche, reststofffreie Nutzung des getrockneten Klärschlamms sowie mehrere Materialkreisläufe für Phosphor, Stickstoff und Magnesium bei. Voraussetzung für das Konzept ist eine vermehrte biologische Phosphorelimination bei der Abwasserbehandlung.
Das als Magnesium-Ammonium-Phosphat anfallende Fällungsprodukt wird zentral mit einer thermischen Behandlung (Kalzinierung) und Zugabe von Säure nahezu reststofffrei in die drei Wertstoffe Ammoniakwasser, Magnesiumchlorid und Phosphorsäure veredelt. Phosphorsäure soll in hochwertiger Qualität der chemischen Industrie insbesondere für die Düngemittelherstellung zur Verfügung gestellt werden. Das beim Parforce-Verfahren anfallende Nebenprodukt Magnesiumchlorid geht zur Kläranlage Northeim zurück und wird anhand von Vergleichsversuchen mit kommerziellen Produkten bewertet. Das Ammoniakwasser wird auf dessen Nutzung zur Düngemittelherstellung oder zur Entstickung von Verbrennungsabgasen untersucht.
Die Produktion phosphatarmen Klärschlamms ermöglicht eine flexible energetische und auch stoffliche Verwertung, die meist mit niedrigeren Kosten verbunden ist. Dank dem erstmaligen Einsatz einer sogenannten Wirbelschichtverdampfungstrocknung, das heißt einer Klärschlammtrocknung bei Überdruck und unter reiner Wasserdampfatmosphäre, erfolgt eine besonders effiziente Wärmerückgewinnung und eine nahezu wärmebilanzneutrale Volltrocknung. Um trotz des Zusatzaufwandes für die Ressourcenschonung eine Emissionsminderung des gesamten CO2 zu erreichen, kann der getrocknete Klärschlamm als Brenn- und Zuschlagstoff in der Zementindustrie verwertet oder als Zusatzbrennstoff in Kraftwerken genutzt werden.
Gefördert wird das Projekt durch die Maßnahme „RePhoR – Regionales Phosphor Recycling“ vom Bundesministerium für Bildung und Forschung. Die Maßnahme ist Teil des Programms „Forschung für Nachhaltige Entwicklung“ (FONA).
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Michael Sievers
Clausthaler Umwelttechnik Forschungszentrum der TU Clausthal
Abteilung Abwasserverfahrenstechnik
E-Mail: michael.sievers@cutec.de
Weitere Informationen:
https://www.klimaphonds.de/
Quelle: IDW
Wie spät ist es auf der biologischen Uhr?
Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Interdisziplinäres Forschungsteam der Friedrich-Schiller-Universität Jena, des Leibniz-Instituts für Alternsforschung – Fritz-Lipmann-Institut – und des Universitätsklinikums Jena wird mit 4,5 Millionen Euro von der Carl-Zeiss-Stiftung gefördert
„Man ist so alt wie man sich fühlt.“ Wie diese häufig gebrauchte Redensart deutlich macht, bestimmt nicht allein die Spanne der bisher verstrichenen Lebenszeit das Alter eines Menschen. Vielmehr hängt das biologische Alter von zahlreichen Faktoren ab und unterliegt dabei – so wie es die Redensart sagt – auch psychologischen Einflüssen. Daher kann es durchaus sein, dass sich Alternsgenossen im körperlichen und geistigen Altersempfinden unterscheiden: Nicht gar so selten wirkt ein jung gebliebener Geist positiv auf die körperliche Fitness und umgekehrt.
Wie sich das biologische Alter definiert und exakt bestimmen lässt und welche Faktoren die komplexen Alternsprozesse von Menschen beeinflussen, das herauszufinden ist das Ziel des neuen Forschungsprojekts IMPULS der Friedrich-Schiller-Universität Jena. Das Projektteam wird bei seinem Forschungsvorhaben in den kommenden fünf Jahren von der Carl-Zeiss-Stiftung im Rahmen des Förderprogramms „Durchbrüche“ mit rund 4,5 Mio. Euro unterstützt. Das gab die Stiftung heute (8. Oktober) bekannt.
Ganzheitlicher Blick auf den Alternsprozess
IMPULS steht für „Identifizierung und Manipulation der physiologischen und psychologischen Uhren der Lebensspanne“. In ihrem Projekt wollen die Forschenden also nicht nur herausfinden, wie „spät“ es auf der biologischen Uhr eines Menschen aktuell ist. „Wir wollen auch wissen, ob und wie sich durch Manipulation der biologischen Uhr das Altern insgesamt verzögern lässt“, erläutert Christoph Englert, Sprecher des Verbundprojekts. Der Professor für Molekulare Genetik der Universität Jena und Forschungsgruppenleiter am Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI) – sagt, dass Alternsprozesse durch individuelle Faktoren moduliert werden, wie Ernährung, Lebensstil und persönliche Altersbilder. „Wir wollen durch die Verknüpfung von Physiologie und Psychologie einen neuen Blickwinkel auf das Altern entwickeln.“
Konkret wollen die Projektpartner in Studien am Menschen aber auch an verschiedenen Modellorganismen neue Kriterien auf molekularer und neurobiologischer Ebene für die Altersbestimmung ermitteln. Zudem sollen die Auswirkungen physiologischer Faktoren auf das Altern untersucht werden, beispielsweise der Einfluss von Sport auf die Gehirnalterung oder von Ernährung auf alternsbedingte Entzündungen. Ob sich psychologischer Stress oder das persönliche Alternserleben auf die biologische Uhr auswirken, wollen die Forschenden u. a. mit Hirnstrukturmessungen aufklären. Und nicht zuletzt sind ethische Implikationen der möglichen Ergebnisse Teil des Forschungsprojekts: Was bedeutet es, wenn sich Lebenserwartung und alternsbedingte Krankheiten künftig präziser vorhersagen lassen? Wie verändert sich der gesellschaftliche Blick aufs Alter, wenn wir es zukünftig auch biologisch und nicht rein chronologisch definieren können?
Zum Projektteam gehören neben Alternsforschern auch Expertinnen und Experten aus Biochemie und Epigenetik, Medizin, Neuro- und Ernährungswissenschaft, Pharmazie, Epidemiologie, Bioinformatik, Biostatistik, Psychologie und Sozialwissenschaften.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Englert
Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI)
Beutenbergstraße 11, 07745 Jena
Tel.: 03641 656042
E-Mail: christoph.englert@leibniz-fli.de
Quelle: IDW
Exzellentes Bremer Wasser für piekfeine Bremer Getränke
Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Normalerweise werden in der Abteilung für Rohstoff und Umweltforschung der Jacobs University Bremen kritische Hochtechnologie-Metalle in Gesteinen, Lagerstätten und verschiedensten Umweltproben untersucht. Diese Grundlagenforschung ermöglicht es nun der Getränkemittelindustrie, die Qualität des verwendeten Wassers in Bezug auf Spuren von Arzneimittelrückständen und anderen Schadstoffen zu beurteilen.
Im Rahmen einer Kooperation mit der Bremer Brennerei „Piekfeine Brände“, einem Hersteller von Spirituosen wie Edelbränden, Gin und Whisky, wurde das Wasser, das in den verschiedenen Produktionsschritten verwendet wird und das letztlich im fertigen Produkt steckt, auf seine Gehalte an Seltenen Erden hin untersucht. Das Wasser, so das Ergebnis, ist von allerbester Qualität.
„Gibt es im verwendeten Wasser Rückstände von Arzneimitteln, Körperpflegeprodukten oder Zuckerersatzstoffen, die über Kläranlagen in die Umwelt gelangt sind, dann enthält dieses Wasser immer auch Spuren des Hochtechnologie-Metalls Gadolinium, das als Kontrastmittel bei MRT-Untersuchungen verwendet wird,“ erklärt Michael Bau, Professor für Geowissenschaften an der Jacobs University, der mit seiner Arbeitsgruppe diese Methode entwickelt hat. Ungewöhnlich hohe Konzentrationen von Gadolinium im Vergleich zu den anderen Seltenen Erden sind ein Beleg für die Anwesenheit sogenannter „abwasserbürtiger“ Stoffe. Dies sind Substanzen, die in den Klärwerken nicht aus dem Abwasser entfernt werden können und selbst im gereinigten Abwasser noch vorhanden sind. Neben Gadolinium-Kontrastmitteln sind dies auch Arzneimittelrückstände, illegale Drogen und chemische Verbindungen, die in Körperpflegeprodukten und Nahrungsmitteln verwendet werden.
„Nachdem wir die sehr empfindliche Methode an Cola-Getränken aus Schnellrestaurants erfolgreich erprobt hatten, ergab sich durch die Kooperation mit den Bremer `Piekfeinen Bränden` nun die Gelegenheit, diese neue High-Tech Methode auch in einem anderen Bereich der Nahrungsmittelindustrie anzuwenden“, sagt Dr. Dennis Krämer, Postdoktorand im Bereich der Geowissenschaften an der Jacobs University.
„Wir freuen uns natürlich sehr über die erstklassige Qualität unseres Bremer Wassers und danken Professor Bau und seinem Team der Jacobs University für die intensive Arbeit und aufschlussreichen Ergebnisse“, führt die Gründerin und Inhaberin der Brennerei Piekfeine Brände, Birgitta Schulze van Loon, weiter aus.
Und Michael Bau ergänzt: „Dass die Qualität des Bremer Wassers hinsichtlich Mikroverunreinigungen deutlich besser ist, als die des Wassers in anderen deutschen Städten und Regionen wie zum Beispiel Berlin, München oder Düsseldorf, zeigt, dass die Bremer sauberes Leitungswasser bekommen, das sie bedenkenlos trinken können. Es bestätigt auch, dass Bremen ein exzellenter Produktionsstandort für die Nahrungs- und Getränkemittelindustrie ist. Und dass ein Hersteller seine Produkte freiwillig auf chemische Fremdstoffe hin untersuchen lässt, ist natürlich ein schönes Beispiel für proaktiven Verbraucherschutz.“
Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1.500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Facebook | Youtube | Twitter | Instagram | Weibo
Wissenschaftliche Ansprechpartner:
Fragen beantwortet:
Prof. Dr. Michael Bau
Professor of Geosciences
Email: m.bau@jacobs-university.de
Anhang
Erläuterungen
https://idw-online.de/de/attachment80952
Quelle: IDW
TU Berlin: Intervallfasten auch im Alter wirksam
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Kurzzeitfasten führt auch bei älteren Menschen zu einer bedeutsamen Abnahme von Körpergewicht und Bauchumfang
Ob Esspausen von mindestens 16 Stunden täglich, das sogenannte „Intervallfasten“, wirklich zu einer Gewichtabnahme führen, wollten Studierende des TU-Gasthörerstudiums BANA wissen – und führten eine wissenschaftliche Pilot-Studie unter Real-Life-Bedingungen durch. Resultat: Die Hälfte der 74 Teilnehmer*innen hatte nach vier Wochen bis zu sechs Kilo abgenommen. Die Ergebnisse wurden nun in der Fachzeitschrift Ernährung & Medizin veröffentlicht. Außerdem wurden die BANA-Forschenden eingeladen, ein Poster auf der Jahrestagung der Deutschen Adipositas-Gesellschaft e. V. vom 8. – 10. Oktober in Leipzig zu präsentieren.
Intervallfasten werden heute verschiedene Fastenvarianten genannt, vom stundenweisen Fasten innerhalb eines Tages bis zum tageweisen Fasten innerhalb einer Woche. Allen ist eine mittlerweile nachgewiesene gesundheitsfördernde Wirkung gemeinsam, von der Gewichtsabnahme über eine Stoffwechsel-Umstellung bis hin zur sogenannten Autophagie, einem intrazellulären Selbstreinigungsprozess, für dessen umfassende Beschreibung der Japaner Yoshinori Ohsumi 2016 mit dem Medizin-Nobelpreis ausgezeichnet wurde.
Ohne Aufwand und ohne Kosten abnehmen bietet langfristigen Erfolg
„Bei jungen Erwachsenen ist derzeit die 16:8-Methode sehr populär“, erklärt Dr. Franz-Werner Dippel, einer der Autoren der Studie. „Wir wollten prüfen, ob sich das Intervallfasten auch für ältere Menschen eignet, was bisher nicht untersucht ist.“ Ganz wichtig war dem Team ein pragmatischer Ansatz für die Durchführung des Fastens, denn, so Dippel, ausschlaggebend für den langfristigen Erfolg einer Ernährungs- beziehungsweise Fastenintervention sei die möglichst niedrigschwellige Einbindungsmöglichkeit des Fastenmaßnahme in den Alltag. „Sie sollte keine Kosten verursachen, keinen besonderen Aufwand darstellen oder invasive Maßnahmen beinhalten und sich gut in den Tagesablauf integrieren lassen. Auch haben wir auf die Erfassung von Energiegehalt und Zusammensetzung der Nahrung sowie auf die Dokumentation des Bewegungsverhaltens verzichtet.“ Erfasst wurden während der Studie auch Parameter wie Blutdruck, Puls oder Urinzusammensetzung.
Fastenzeiten von mehr als 14 Stunden an 97 Prozent aller Studientage
Insgesamt 74 Probanden mit einem Durchschnittsalter von 64,3 Jahren, sowohl normal- als auch übergewichtige Personen, nahmen an der Studie teil. Die Fastentagebücher zeigten: An 97 Prozent aller Studientage wurden Fastenzeiten von mehr als 14 Stunden oder mehr erreicht. Die Gewichtsdifferenzen lagen schließlich zwischen minus sechs bis plus ein Kilogramm. Eine Gewichtsreduktion von ein bis zwei Kilogramm monatlich gilt gemäß den Leitlinien der Deutschen Adipositas-Gesellschaft als gesundheitlich unbedenklich und ist auch aus medizinischer Sicht von Bedeutung. „Das Studienergebnis erfüllt damit die allgemeinen Anforderungen an eine erfolgreiche Ernährungsintervention und kann deshalb als guter Abnehmerfolg für die untersuchte Altersgruppe gewertet werden“, freut sich Franz-Werner Dippel, der selbst promovierter Medizinbiologe ist und in der Industrie und der klinischen Forschung tätig war. Er und das achtköpfige Autorenteam der Ernährungsstudie hatte sich im letzten der vier regulären BANA-Semester mit dem Thema „Entzündungen“ beschäftigt und den Einfluss verschiedener Faktoren auf Entzündungsprozesse untersucht, wie zum Beispiel Schlaf, Stress, Bewegung, Ernährung und Fasten.
BANA-Studium an der TU Berlin – lebenslanges Lernen und bürgerschaftliches Engagement
Die Autor*innen der Studie sind Studierende des Gasthörerstudiums BANA an der TU Berlin (Berliner Modell: Ausbildung für nachberufliche Aktivitäten). Es handelt sich um ein viersemestriges Weiterbildungsangebot für Menschen ab 45 Jahren, das einen unmittelbaren Zugang zu neuesten wissenschaftlichen Erkenntnissen ermöglicht. BANA ist nicht nur ein Angebot für lebenslanges Lernen, sondern fördert auch mit seinen Projekten bürgerschaftliches Engagement und bietet die drei Schwerpunkte „Stadt“, „Umwelt“ sowie „Gesundheit und Ernährung“. Angesiedelt ist es in der Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation der TU Berlin (ZEWK) und wird geleitet von Dr. Gabriele Schaepers-Feese.
Die Veröffentlichung in Ernährung & Medizin (Thieme-Verlag) ist zu finden unter:
https://doi.org/10.1055/a-1115-9709
Das informative Poster auf der Website der Deutschen Adipositas-Gesellschaft e. V.:
https://dag-kongress.de/poster/
Weitere Informationen erteilen Ihnen gern:
Dr. Franz-Werner Dippel
Sprecher des Autorenteams zur BANA-Studie „Intervallfasten“
E-Mail: franz-werner.dippel@t-online.de
Tel.: 0172 6501845
Dr. Gabriele Schaepers-Feese
Technische Universität Berlin
Zentraleinrichtung Wissenschaftliche Weiterbildung und Kooperation (ZEWK)
Wissenschaftliche Leitung BANA
E-Mail: g.schaepers-feese@tu-berlin.de
Tel.: 030 314-22034
Quelle: IDW
BMAS fördert interdisziplinäres Wissenschaftsteam
Martina Diehl Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Resilienzforschung gGmbH
Forscherteam untersucht finanzielle Schocks durch Corona für private Haushalte
Neben starken Einschnitten im gesellschaftlichen und wirtschaftlichen Leben birgt die Corona-Pandemie für viele Menschen auch finanzielle Schwierigkeiten. Das gilt vor allem für einkommensschwache Bevölkerungsgruppen oder für Personen, die durch ihre Berufswahl ökonomisch besonders von der Pandemie betroffen sind. Wie die Menschen in Deutschland mit finanziellen Schocks durch die Corona-Pandemie umgehen, untersucht nun ein interdisziplinäres Forscherteam der Universität Mannheim, des ZEW Mannheim und des Leibniz-Instituts für Resilienzforschung Mainz. Die Projektpartner vereinen dabei die Perspektiven der Wirtschaftspädagogik (Prof. Dr. Carmela Aprea, Universität Mannheim), der Haushaltsökonomie (Prof. Dr. Tabea Bucher-Koenen, ZEW Mannheim) sowie der psychologischen Resilienzforschung (Prof. Dr. Klaus Lieb und Dr. Donya Gilan, Leibniz-Institut für Resilienzforschung Mainz).
„Uns interessiert besonders, wie Menschen Entscheidungen unter hoher Unsicherheit und Komplexität treffen, nachdem sie von einem finanziellen Schock erfasst wurden. Denn daraus lässt sich ableiten, mit welchen sozial- und bildungspolitischen Maßnahmen sich die betroffenen Haushalte effektiv und nachhaltig unterstützen lassen“, erklärt Prof. Dr. Carmela Aprea, Universität Mannheim.
„Zu den allgemeinen psychischen und gesellschaftlichen Folgen der Corona-Pandemie wird bereits geforscht. Doch gibt es bisher nur sehr wenige Forschungsdaten zu den finanziellen Herausforderungen und deren mittel- bis langfristigen Folgen für Haushalte und Gesamtwirtschaft“, sagt Prof. Dr. Tabea Bucher-Koenen, Leiterin des Forschungsbereichs „Internationale Finanzmärkte und Finanzmanagement“ am ZEW Mannheim und Professorin an der Universität Mannheim.
„Für uns besteht eine zentrale Aufgabe darin, individuelle und strukturelle Handlungsempfehlungen zu entwickeln, um Bürgerinnen und Bürger in solchen Situationen gezielt stärken und unterstützen zu können“, erklärt Prof. Dr. Klaus Lieb, wissenschaftlicher Geschäftsführer des Leibniz-Instituts für Resilienzforschung. „Denn die Betroffenen sind einem erhöhten Armutsrisiko ausgesetzt, das sie an den Rand der Gesellschaft drängen kann.“ Und Dr. Donya Gilan, Leibniz-Instituts für Resilienzforschung Mainz, ergänzt: „Psychische Gesundheit ist stark von der psychosozialen Lage eines Menschen abhängig. Gerade finanzielle Nöte treiben Menschen in psychische Erkrankungen wie beispielsweise Angsterkrankungen, Depressionen oder auch Suchterkrankungen, weil oft psychische Bewältigungsstrategien im Umgang mit solchen Sorgen fehlen. Dauerstress ist dann vorprogrammiert und soziale Stigmata die Folge“.
Finanziert wird das Forschungsvorhaben aus Mitteln des Bundesministeriums für Arbeit und Soziales (BMAS) in einem Projektzeitraum von 1. September 2020 bis 31. August 2021. Das Ministerium hat es als eines von zwölf Projekten mit Corona-Fokus in das Fördernetzwerk Interdisziplinäre Sozialpolitikforschung (FIS) aufgenommen. Ausgewählt wurden die Vorhaben hinsichtlich ihrer Eignung, auf wissenschaftlicher Basis die Grundlage zur Bewältigung der Corona-Pandemie zu schaffen.
Kontakt
Univ.-Prof. Dr. Klaus Lieb
Leibniz-Institut für Resilienzforschung (LIR) gGmbH
Tel.: +49 6131 8944824
E-Mail: klaus.lieb@lir-mainz.de
Martina Diehl
Kommunikation & Presse
Leibniz-Institut für Resilienzforschung (LIR) gGmbH
Tel.: +49 6131 89448-06
E-Mail: martina.diehl@lir-mainz.de
https://www.lir-mainz.de
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Klaus Lieb, Leibniz-Institut für Resilienzforschung
Quelle: IDW
Übertragung von COVID-19: Aerosole deutlich infektiöser alsTränenflüssigkeit oder Bindehaut
Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
SARS-CoV-2 ist hochgradig infektiös und wird hauptsächlich durch das Einatmen von Tröpfchen oder Aerosolen übertragen. Können sich Menschen aber auch über die Augen mit dem Virus infizieren? Einige Berichte weisen darauf hin, dass eine Ansteckung über die Schleimhäute, einschließlich der Bindehaut, möglich sei. Auf der heutigen Kongress-Pressekonferenz zum Kongress der DOG Deutsche Ophthalmologische Gesellschaft (DOG) diskutierten Experten, ob die Bindehaut oder der Tränenfilm Eintritts- oder Austrittspforten für das Virus sein können. Der DOG Kongress findet bis 11. Oktober 2020 online statt.
Können sich Menschen auch über die Bindehaut oder Tränenflüssigkeit mit SARS-CoV-2 infizieren? Und inwiefern könnten mit dem Coronavirus infizierte Patienten andere Menschen über ihre Tränen anstecken? „Derartige Übertragungswege würden erhebliche Auswirkungen auf die öffentliche Gesundheit haben und weitere Schutzmaßnahmen notwendig machen“, sagt Professor Dr. Dr. med. Clemens Lange, Klinik für Augenheilkunde am Universitätsklinikum Freiburg. Es gebe vereinzelt Studien, die auf eine solche Übertragungskette hinweisen.
So hatten in Untersuchungen etwa sieben Prozent der COVID-19-Patienten subjektive Augenbeschwerden. Bei etwa einem Prozent wurden Zeichen einer Bindehautentzündung (Konjunktivitis) beobachtet. „Einige Studien postulieren, dass das Virus in diesen Fällen das Auge als Eintrittspforte genutzt habe“, so Lange. Auch wird der Tränenfilm als ein möglicher Überträger diskutiert. „Reibt man sich beispielsweise die Augen mit COVID-19-kontaminierten Händen, wäre eine Übertragung auf die Nasenschleimhaut oder die Atemwege denkbar“, so Lange. Umgekehrt könnten infizierte Patienten das Virus über ihre Tränenflüssigkeit auf gesunde Menschen übertragen.
„Betrachtet man abschließend die derzeitige Studienlage, weist jedoch nichts darauf hin, dass wir die Augen als bedeutsame Eintritts- oder Austrittspforte des Virus betrachten müssen“, stellt Lange fest. Ein Zusammenhang zwischen der in Studien beobachteten Bindehautentzündung bei der COVID-19-Erkrankung kann bislang nicht eindeutig ermittelt werden. „Es könnte sich auch um ein SARS-CoV-2 unabhängiges Phänomen handeln, das zum Beispiel im Zuge einer intensivmedizinischen Behandlung oder der generalisierten Entzündungsreaktion im Körper von COVID19 Patienten auftritt“, erklärt Lange. Darüber hinaus sei noch nicht eindeutig geklärt, ob die Zellen der Augenoberfläche, wie zum Beispiel die der Bindehaut, den SARS-CoV-2-Rezeptor ACE2 in klinisch relevantem Maße exprimieren und damit für eine Infektion anfällig sind. Eine aktuelle Untersuchung an der Universitäts-Augenklinik Freiburg sowie histologische Untersuchungen anderer Kliniken haben weder eine wesentliche Expression von ACE2 in der Bindehaut noch einen Zusammenhang zwischen einer COVID-19-Infektion und einer Bindehautentzündung nachweisen können.
Auch sei der Übertragungsweg über die Tränenflüssigkeit eher unwahrscheinlich. „Der regelmäßige Lidschlag des Auges sowie die geringe Augenoberfläche dürften verhindern, dass ausreichend Viren ins Auge gelangen können“, so Lange. Und dazu, ob Infizierte über ihre Tränen gesunde Menschen anstecken könnten, gibt es auch keine eindeutigen Hinweise: „Bei Patienten mit COVID-19-Erkrankung enthält der Tränenfilm nur sehr selten Virus-RNA“, erklärt Lange. Eine Ansteckung über die Tränenflüssigkeit sei daher auch erst einmal auszuschließen.
„Obwohl wir derzeit eher keine Infektion über das Auge befürchten müssen, sind weitere Untersuchungen notwendig, um Aufschluss über die tatsächliche Infektiosität und mögliche Orte der Virusvermehrung zu erhalten“, betont Professor Dr. med. Hans Hoerauf, Präsident der DOG und Direktor der Augenklinik der Universitätsmedizin Göttingen. Es sei Klinikpersonal trotz des offenbar geringen Risikos dringend anzuraten, bei einer intensivmedizinischen Versorgung von an COVID-19 Erkrankten mit einer In- oder Extubation die Augen durch eine Brille vor einer Übertragung des Coronavirus zu schützen.
„Alles in allem betrachtet, dürfte bei augenärztlichen Untersuchungen von Aerosolen aus den Atemwegen ein deutlich höheres Infektionsrisiko mit COVID-19 ausgehen als von Tränenfilm und Augenoberfläche der Patienten“, resümiert DOG-Experte Lange.
Quelle: IDW
Die globale Nahrungsmittelproduktion stellt eine zunehmende Bedrohung für das Weltklima dar
Ansa Heyl Presse- und Öffentlichkeitsarbeit
International Institute for Applied Systems Analysis (IIASA)
Laut den Autoren einer neuen Studie, die in der Fachzeitschrift „Nature“ veröffentlicht wurde, gefährden die steigenden Lachgasemissionen die Erreichung der Klimaziele und der Ziele des Pariser Abkommens.
Der weltweit zunehmende Einsatz von Stickstoffdüngemitteln bei der Nahrungsmittelproduktion erhöht die Konzentration von Lachgas in der Atmosphäre – eines Treibhausgases, das 300-mal wirksamer ist als Kohlendioxid und länger als ein Menschenleben in der Atmosphäre verbleibt.
Die Studie, die von einem internationalen Konsortium von 57 Wissenschaftlern aus 14 Ländern und 48 Forschungseinrichtungen durchgeführt wurde, wobei dem IIASA eine Schlüsselrolle zukam, wurde von der Auburn University (Alabama, USA) im Rahmen des Global Carbon Project und der International Nitrogen Initiative koordiniert. Ziel der Forscher war es, die bisher umfassendste Bewertung aller Quellen und Senken des potenten Treibhausgases Distickstoffmonoxid (Lachgas) zu erstellen.
Die Ergebnisse weisen auf einen alarmierenden Trend hin, der sich auf den Klimawandel auswirkt: Distickstoffmonoxid ist gegenüber dem vorindustriellen Niveau um 20% angestiegen, und sein Wachstum hat sich in den letzten Jahrzehnten aufgrund von Emissionen aus verschiedenen menschlichen Aktivitäten beschleunigt.
„Die dominierende Triebkraft für den Anstieg des atmosphärischen Lachgas kommt aus der Landwirtschaft, und die wachsende Nachfrage nach Nahrungs- und Futtermitteln für Tiere wird die globalen Lachgasemissionen weiter erhöhen“, erklärt der Erstautor der Studie, Hanqin Tian, Direktor des International Center for Climate and Global Change Research an der School of Forestry and Wildlife Sciences der Auburn University und Andrew Carnegie Fellow. „Es besteht ein Konflikt zwischen der Art und Weise, wie wir die Menschen ernähren, und unserem Ziel, das Klima zu stabilisieren“.
Die Studie stellte auch fest, dass die größten Beiträge zu den globalen Lachgasemissionen aus Ostasien, Südasien, Afrika und Südamerika stammen. Emissionen infolge der Verwendung von Kunstdünger dominieren die Freisetzungen in China, Indien und den USA, während Emissionen aus der Ausbringung von Viehdung für die Freisetzungen in Afrika und Südamerika verantwortlich sind, so die Studie. Die höchsten Wachstumsraten bei den Emissionen finden sich in den Schwellenländern, insbesondere in Brasilien, China und Indien, wo die Pflanzenproduktion und der Viehbestand zugenommen haben. Das überraschendste Ergebnis der Studie war jedoch, dass die derzeitigen Trends bei den Lachgasemissionen nicht mit den Klimazielen des Pariser Abkommens vereinbar sind.
„Die gegenwärtigen Emissionen entsprechen einem globalen Temperaturanstieg über 3°C, das ist das Doppelte des Temperaturziels des Pariser Abkommens“, erklärt Robert Jackson, Professor und Koautor an der Stanford University und Vorsitzender des Global Carbon Project.
Laut dem Koautor der Studie, Wilfried Winiwarter, Senior Research Scholar im IIASA Air Quality and Greenhouse Gases Program und ehemaliger Direktor des europäischen Zentrums der International Nitrogen Initiative, gibt es jedoch Möglichkeiten, diese Emissionen zu verringern.
„Europa ist die einzige Region in der Welt, die in den letzten zwei Jahrzehnten die Lachgasemissionen erfolgreich reduziert hat“, erklärt Winiwarter. „Strategien zur Reduzierung von Treibhausgasen und Luftverschmutzung in Industrie- und Landwirtschaft und zur Optimierung der Effizienz des Düngemitteleinsatzes haben sich als wirksam erwiesen. Dennoch werden weitere Anstrengungen erforderlich sein, sowohl in Europa als auch weltweit“.
„Diese Studie zeigt, dass wir jetzt ein umfassendes Verständnis des Lachgashaushalts einschließlich der Klimaauswirkungen haben“, fügt die Studienleiterin Rona Thompson, eine leitende Wissenschaftlerin des norwegischen Instituts für Luftforschung, hinzu. „Wir sind in der Lage, Maßnahmen zur Reduzierung der Lachgasemissionen zu bewerten und zu quantifizieren, und viele dieser Maßnahmen werden auch die Wasser- und Luftqualität verbessern, was sowohl der menschlichen Gesundheit als auch den Ökosystemen zugutekommt.“
Der Co-Leiter der Studie, Josep „Pep“ Canadell, leitender Wissenschaftler im Climate Science Center der in Australien ansässigen Commonwealth Scientific and Industrial Research Organisation und geschäftsführender Direktor des Global Carbon Project, stimmt zu, dass die Forschung bedeutend und dringend ist.
„Diese neue Analyse fordert ein umfassendes Überdenken der Art und Weise, wie wir Stickstoffdünger weltweit verwenden und verschwenden, und drängt uns zu nachhaltigeren Praktiken in der Art und Weise, wie wir Lebensmittel produzieren, einschließlich der Reduzierung von Lebensmittelabfällen“, stellt er fest. „Diese Ergebnisse unterstreichen die Dringlichkeit und zeigen die Möglichkeiten, globale Lachgasemissionen zu verringern, um die schlimmsten Klimaauswirkungen zu vermeiden“.
Referenz
Tian H, Xu R, Canadell JG, Thompson RL, Winiwarter W, Suntharalingam P, Davidson EA, Ciais P, et al. (2020). A comprehensive quantification of global nitrous oxide sources and sinks. Nature DOI: 10.1038/s41586-020-2780-0
IIASA Kontakte:
Mitautor
Wilfried Winiwarter
IIASA Air Quality and Greenhouse Gases Program
Tel: +43 2236 807 479
winiwart@iiasa.ac.at
Presseabteilung
Ansa Heyl
IIASA Press Office
Tel: +43 2236 807 574
Mob: +43 676 83 807 574
heyl@iiasa.ac.at
Quelle: IDW
KI – Wegbereiter der Zukunft?
Susanne Just Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg
Künstliche Intelligenz in der Medizin: Mit diesem Thema beschäftigt sich eine öffentliche Veranstaltung des Uniklinikums Würzburg und der Akademie Domschule Würzburg. Sie findet statt am Freitag, 16. Oktober 2020. Interessenten können wahlweise persönlich oder online teilnehmen.
Das Thema „Künstliche Intelligenz“ ist omnipräsent: Hoffnungsträger für eine sicherere Medizin und gleichzeitig mit einer tiefen Verunsicherung in der Gesellschaft verbunden. Diese resultiert nicht selten aus mangelnden Informationsangeboten über die Chancen und Risiken der neuen Informationstechnologie.
Hier setzt die Veranstaltung an: Gemeinsam mit der Akademie Domschule Würzburg richtet das Uniklinikum Würzburg den Blick auf die Möglichkeiten, die Künstliche Intelligenz für die Versorgung von Patienten bereithält: zum einen aus medizinischer Sicht, zum anderen aus ethischer. Welchen Stellenwert wird die Künstliche Intelligenz künftig im medizinischen Alltag einnehmen und wie kann sie verantwortungsvoll im Sinne von Patienten und Ärzten eingesetzt werden?
Eingeladen sind Alle, die sich für die Medizin der Zukunft interessieren. Vorkenntnisse sind nicht erforderlich.
Aufgrund der aktuellen Bedingungen findet das Format als Hybrid-Veranstaltung statt: Interessenten können persönlich teilnehmen (bis zu 27 Personen) oder online.
Referentinnen und Referenten sind:
Prof. Dr. Prof. h.c. Andreas Dengel (Deutsches Forschungszentrum für Künstliche Intelligenz)
Prof. Dr. Elisabeth Gräb-Schmidt (Eberhard Karls Universität Tübingen, Mitglied im Deutschen Ethikrat)
Dr. Markus Krebs (UKW, Comprehensive Cancer Center Mainfranken)
Prof. Dr. Thorsten Bley (UKW, Institut für Diagnostische und Interventionelle Radiologie)
Prof. Dr. Laura Schreiber (UKW, Deutsches Zentrum für Herzinsuffizienz)
Dr. Martin Reich (UKW, Neurologische Klinik und Poliklinik).
Grußworte sprechen die Bayerische Ministerin für Digitales Jutta Gerlach, der Ärztliche Direktor des UKW Prof. Dr. Georg Ertl sowie Oberbürgermeister Christian Schuchardt.
Nach den Impulsvorträgen findet eine Podiumsdiskussion statt, an der sich die Teilnehmer persönlich oder online über einen Chat beteiligen können.
Termin: Freitag, 16. Oktober 2020, 17:00 bis 20:00 Uhr, Deutsches Zentrum für Herzinsuffizienz (DZHI) am UKW
Anmeldung: für eine Teilnahme (persönlich oder online) bei der Akademie Domschule Würzburg
Telefon 0931 386-43 111
info@domschule-wuerzburg.de
www.domschule-wuerzburg.de
Anmeldeschluss: 15.10.2020, 12 Uhr
Nach Eingang der Anmeldung erhalten Online-Teilnehmer einen Zugangslink zur Veranstaltung. Für Rückfragen
bietet das Uniklinikum eine offene Telefonsprechstunde am Donnerstag, 15.10.2020, von 15-17 Uhr unter der Rufnummer: 0931 201-56159 an.
Anhang
Flyer zur Veranstaltung „KI in der Medizin“
https://idw-online.de/de/attachment80944
Quelle: IDW
Arrokoth: Abflachen eines Schneemanns
Dr. Birgit Krummheuer Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Sonnensystemforschung
Erst im Laufe von einigen Millionen Jahren hat Arrokoth, auch bekannt unter dem Spitznamen Ultima Thule, seine bizarre, pfannkuchenflache Form erhalten.
Das transneptunische Objekt Arrokoth, auch genannt Ultima Thule, an dem die NASA-Raumsonde New Horizons am Neujahrstag 2019 vorbeiflog, könnte seine Form in den ersten 100 Millionen Jahren seit seiner Entstehung stark verändert haben. In der heutigen Ausgabe der Fachzeitschrift Nature Astronomy schlagen Wissenschaftlerinnen und Wissenschaftler unter Leitung der Chinesischen Akademie der Wissenschaften und des Max-Planck-Instituts für Sonnensystemforschung (MPS) in Göttingen vor, dass Arrokoths aktuelle Gestalt, die an einen zerquetschten Schneemann erinnert, erst nach und nach durch das Verdunsten leichtflüchtiger Gase entstanden ist. Ihre Rechnungen könnten helfen zu verstehen, was der aktuelle Zustand von Körpern vom äußeren Rand des Sonnensystems über ihre ursprünglichen Eigenschaften aussagt.
Die vielen Millionen Brocken, die den Kuipergürtel jenseits der Umlaufbahn des Neptuns bevölkern, haben bisher noch nicht viele ihrer Geheimnisse preisgegeben. In den 80er Jahren durchquerten zwar die Raumsonden Pioneer 1 und 2 sowie Voyager 1 und 2 diese Region – allerdings ohne Kameras an Bord. Erst die NASA-Raumsonde New Horizons sendete Bilder vom äußersten Rand des Sonnensystems zur Erde: im Sommer 2015 vom Zwergplaneten Pluto und dreieinhalb Jahre später vom etwa 30 Kilometer großen transneptunischen Objekt Arrokoth. Noch nicht offiziell benannt, trug der Körper damals den Spitznamen Ultima Thule in Anlehnung an den gleichnamigen nördlichsten Landpunkt der Erde. Schließlich ist der transneptunische Brocken der am weitesten von der Sonne entfernte Körper, der je von einer Raumsonde besucht und abgelichtet wurde.
Besonderes Aufsehen erregte in den Tagen nach dem Vorbeiflug die sonderbare Gestalt von Arrokoth. Der Körper besteht aus zwei miteinander verbundenen Teilen – wahrscheinlich als Ergebnis eines langsamen Zusammenstoßes -, von denen der kleinere leicht, der größere stark abgeflacht ist. So entsteht der Eindruck eines zerquetschten Schneemanns. In ihrer aktuellen Veröffentlichung gehen die Forscherinnen und Forscher aus China, Deutschland und den USA der Frage nach, wie es zu dieser Form kommen konnte. Eine auffällige Zweiteilung ist zwar auch von einigen Kometen bekannt. Für die pfannkuchenartige Abflachung von Arrokoth hingegen gibt es bisher kein weiteres Beispiel. Sah Arrokoth bereits von Anfang an so aus? Oder hat sich seine Form erst nach und nach entwickelt?
„Wir stellen uns den Kuipergürtel gerne als Region vor, in der die Zeit seit der Geburt des Sonnensystems weitestgehend stillgestanden hat“, erklärt Dr. Ladislav Rezac vom MPS, einer der beiden Erstautoren der aktuellen Veröffentlichung. Mehr als vier Milliarden Kilometer von der Sonne entfernt, haben die Bewohner des Kuipergürtels seitdem sozusagen tiefgekühlt und unverändert überdauert, so die gängige Auffassung. Die Aufnahmen von Arrokoth stellen diese Vorstellung auf eine harte Probe – sowohl wegen seiner offenbar glatten Oberfläche ohne Hinweise auf viele Einschlagskrater, als auch wegen seiner sonderbar flachen Form. Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass das Sonnensystem vor 4,6 Milliarden Jahren aus einer Scheibe aus Staub entstand: Die Teilchen ballten sich zu immer größeren Klumpen zusammen; diese stießen zusammen und verschmolzen zu noch größeren Körpern. „Es gibt bisher keine Erklärung, wie aus diesem Prozess ein solch flacher Körper wie Arrokoth hervorgehen könnte“, so Rezac.
Eine andere Möglichkeit wäre, dass Arrokoth in seiner Geburtsstunde eine gewöhnlichere Gestalt hatte: ein zusammengesetztes Gebilde aus einem kugelförmigen und einem leicht abgeflachten Körper. Frühere Studien deuten darauf hin, dass in der Region, in der sich Arrrokoth befindet, während der Entstehung des Sonnensystems flüchtige Stoffe wie Kohlenmonoxid und Methan auf Staubkörnern gefroren und diese dann größere Brocken bildeten. Nach der Entstehung Arrokoths, als sich der Staub gelichtet hatte, ermöglichte die Sonneneinstrahlung höhere Temperaturen; die gefrorenen, flüchtigen Stoffe sublimierten rasch von den entstandenen Brocken.
„Damit ein Körper seine Form so extrem verändern kann wie Arrokoth, muss seine Rotationsachse in einer besonderen Weise ausgerichtet sein“, erklärt Rezac. Im Gegensatz zur Rotationsachse der Erde liegt die von Arrokoth fast parallel zur Bahnebene. Während des 298 Jahre dauernden Umlaufs ist so jeweils eine Polarregion des Körpers fast die Hälfte der Zeit ununterbrochen der Sonne zugewandt, während die andere der Sonne abgewandt ist. Die Regionen am Äquator und in den unteren Breitengraden hingegen sind das ganze Jahr über von tageszeitlichen Schwankungen geprägt.
„Dadurch heizen sich die Pole am stärksten auf, so dass gefrorene Gase von dort am effizientesten entweichen. Das führt zu einem starken Massenverlust“, sagt Dr. Yuhui Zhao vom Purple Mountain Observatorium der Chinesischen Akademie der Wissenschaften. Der Abflachungsprozess begann höchstwahrscheinlich schon früh in Arrokoths Evolutionsgeschichte und verlief vergleichsweise rasch auf einer Zeitskala von etwa einer bis 100 Millionen Jahren. Danach dürfte sich der Vorrat an sehr leichtflüchtigen Stoffen in den oberflächennahen Schichten erschöpft haben. Darüber hinaus wiesen die Wissenschaftlerinnen und Wissenschaftler nach, dass die in dieser Phase induzierten Drehmomente die Rotationseigenschaften von Arrokoth nicht wesentlich verändert haben dürften.
Wie viele weitere ‚abgeflachte Schneemänner‘ sich im Kuipergürtel befinden, ist unklar. „Das hängt in erster Linie davon ab, ob die Rotationsachse eines Körpers ähnlich geneigt ist wie die von Arrokoth, und von der Menge leichtflüchtiger Stoffe in der Nähe der Oberfläche“, so Rezac. Es ist anzunehmen, dass selbst Objekte wie Arrokoth beträchtliche Mengen an superflüchtigen Stoffen enthielten. Beispielsweise enthält Pluto aufgrund seiner Größe und stärkeren Schwerkraft auch heute noch Kohlenmonoxid, Stickstoff und Methan. Bei kleineren Körpern wären diese flüchtigen Stoffe längst ins All entwichen.
Wissenschaftliche Ansprechpartner:
Dr. Ladislav Rezac
Max-Planck-Institut für Sonnensystemforschung
E-Mail: Rezac@mps.mpg.de
Originalpublikation:
Y. Zhao, L. Rezac et al.:
Sublimation as an effective mechanism for flattened lobes of (486958) Arrokoth,
Nature Astronomy, 5. Oktober 2020
Quelle: IDW
Hochschulmedizin Dresden erhält 7,5 Millionen Euro für COVID-19 Forschung
Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
BMBF fördert Konzeptentwicklung von Uniklinikum und Medizinischer Fakultät der TU Dresden zu optimalem Pandemie-Management der stationären Patientenversorgung. Mit dem Ziel, in möglichst kurzer Zeit Erkenntnisse über die Formen und Ursachen von COVID-19 ebenso verfügbar zu machen, wie erfolgversprechende Therapien und sowohl flächendeckende als auch effiziente Versorgungsstrukturen, fördert das Bundesforschungsministerium 13 Verbundprojekte des „Nationalen Forschungsnetzwerks der Universitätsmedizin zu Covid-19″. Eines der geförderten Projekte heißt „EViPan Unimed“, das der Hochschulmedizin Dresden angesiedelt ist und gemeinsam mit der Universitätsmedizin Frankfurt bearbeitet wird.
Das Projekt beschäftigt sich wissenschaftlich damit, ein praxisnahes, auf regionale Gegebenheiten zugeschnittenes Management der stationären Versorgung von Patienten auch in einer Pandemie zu entwickeln, zu testen und zu implementieren. Das Universitätsklinikum Carl Gustav Carus Dresden hat dazu bereits im Frühjahr 2020 sein wissenschaftliches wie praktisches Know-how bei diesem Thema unter Beweis gestellt. Leuchtturmprojekte waren die im Auftrag des Freistaats Sachsen eingerichtete „Zentrale Krankenhaus-Leitstelle Corona Dresden/Ostsachsen“ und das „Dresdner Informations- und Prognosetool für Erkrankungsverlauf und Bettenauslastung in Sachsen (DISPENSE)“.
Die Abkürzung EViPan Unimed steht für „Entwicklung, Testung und Implementierung von regional adaptiven Versorgungsstrukturen und Prozessen für ein evidenzgeleitetes Pandemiemanagement koordiniert durch die Universitätsmedizin“. Unter der wissenschaftlichen Leitung des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV) – einer gemeinsamen Einrichtung des Dresdner Uniklinikums und der Medizinischen Fakultät der TU Dresden -, sowie der Universitätsmedizin Frankfurt arbeiten in dem Forschungsverbund zu diesem Thema 26 weitere Universitätsklinika und externe Institutionen zusammen. In dem Projekt sichten die Wissenschaftler die Erfahrungen aus regionalen, nationalen und internationalen Pandemiemanagementkonzepten und führen es zu einem prototypischen Modell zusammen.
„Mit der am Uniklinikum konzipierten und betriebenen Krankenhaus-Leitstelle haben wir in den damals schwierigsten Wochen der Pandemie unter Beweis gestellt, dass es mit neuen, intelligent gestalteten Strukturen durchaus möglich ist, die vorhandenen Kapazitäten von 33 regionalen Klinken optimal zu steuern und so einen Kollaps des Systems zu verhindern“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. Die Leitstelle hat in den vergangenen Monaten gezeigt, wie sich die Verteilung der Patienten bedarfsorientiert und in Abhängigkeit des Schweregrades der Erkrankungen zentral zu managen ist. Auch der Aspekt einer heimatnahen Unterbringung ließ sich dabei berücksichtigen. „Auf diese Weise ist es während der Pandemie gelungen, die Überlastungen einzelner Kliniken zu vermeiden und deren Kapazitäten bedarfsgerecht anzupassen. Dieses erfolgreiche Vorgehen ist einer der Gründe, warum die Hochschulmedizin Dresden mit ihrem Projektantrag erfolgreich war. Ein weiterer Erfolgsfaktor ist, dass die Hochschulmedizin Dresden mit dem ZEGV bereits seit gut zehn Jahren über eine Forschungsinstitution verfügt, die evidenzbasierte Konzepte der Gesundheitsversorgung auf hohem wissenschaftlichen Niveau entwickeln und evaluieren kann“, fährt Prof. Albrecht fort.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Jochen Schmitt
Direktor des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV)
Tel. 0351/ 4 58 64 95
E-Mail: jochen.schmitt@uniklinikum-dresden.de
www.uniklinikum-dresden.de/zegv
Weitere Informationen:
https://www.uniklinikum-dresden.de/de/das-klinikum/jahresberichte/corona-jahresb…
https://www.uniklinikum-dresden.de/de/das-klinikum/universitaetscentren/zegv/new…
https://www.bmbf.de/de/karliczek-netzwerk-universitaetsmedizin-startet-vertiefte…
Quelle: IDW
Energieumwandlung – Sonne tanken und im Dunkeln schwimmen
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Mikroschwimmer nennt man kleine Partikel, die sich aktiv schwimmend fortbewegen. Dazu brauchen sie einen Treibstoff wie Licht. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat ein Aufladeprinzip entwickelt, mit dem sie nun auch im Dunkeln vorankommen. Das macht sie für die Medizin interessant.
Der Begriff Mikroschwimmer umfasst alle aktiv schwimmenden, wenige Mikrometer großen Teilchen von Spermien über Bakterien bis hin zu künstlichen Partikeln. Entsprechend vielfältig sind ihre Antriebsarten und Energiequellen. Ein prominentes Beispiel sind Partikel aus Halbleitermaterialien. Sie bewegen sich dank chemischer Reaktionen mit ihrer Umgebung, gewinnen ihre Energie dabei durch die Absorption von Licht. Im Dunkeln war daher bislang Schluss mit der Fortbewegung. Ein Team vom Exzellenzcluster e-conversion unter Leitung von LMU-Chemikerin Bettina Lotsch hat die Partikel jetzt mit einer raffinierten Ladefunktion ausgestattet, die sie auch ohne Licht weiterschwimmen lässt.
Diese Fähigkeit macht sie für den Wirkstofftransport interessant. Hier bringen kleinste Partikel Wirkstoffe gezielt an ihren Einsatzort wie Gewebe im menschlichen Körper. Die neuen Mikroschwimmer bringen dafür beste Voraussetzungen mit. Sie bewegen sich dank des internen Ladespeichers bis zu 30 Minuten ohne zusätzliche externe Energiequelle. Zusätzlich können die aus weitgehend biokompatiblen Materialien bestehenden Partikel aufgrund ihrer porösen organischen Struktur auch mit Wirkstoffen beladen werden. Auch ihr Einsatz in der Umwelttechnik zur autonomen Aufbereitung von Abwasser wäre denkbar.
Metall-Mützen bringen Mikroschwimmer in Schwung
In dem Forschungsprojekt arbeiten Wissenschaftlerinnen und Wissenschaftler der LMU München und von zwei Stuttgarter Max-Planck-Instituten zusammen. Federführend sind dabei die Gruppen der e-conversion Wissenschaftlerin Bettina Lotsch, Chemie-Professorin an der LMU und Direktorin am MPI für Festkörperforschung, sowie von Metin Sitti am MPI für Intelligente Systeme. Das Geheimnis des Antriebs und der Energiespeicherung liegt sowohl in den ungewöhnlichen Speichereigenschaften des Halbleitermaterials, zudem haben die Mikroschwimmer zwei unterschiedliche Seiten, die maßgeschneidert zusammenarbeiten. Die eine Seite besteht aus dem auf Kohlenstoff basierenden Halbleitermaterial Poly(Heptazin-Imid) – PHI. „Es ist das erste „nachhaltige Sonnenbatterie-Material“, das die Funktionen von Solarzelle und Batterie koppelt“, sagt Filip Podjaski, Mitarbeiter von Bettina Lotsch und einer der beiden Erstautoren der Publikation. „Man kann es günstig und in großen Mengen aus nachwachsenden Rohstoffen und sogar aus Urin herstellen. Und es ist erstaunlich robust und vielseitig einsetzbar.“ Die zweite Hälfte der PHI-Kugel ist mit Platin oder auch Gold überzogen. Diese Metalle sind gezielt gewählte Katalysatoren, die durch Oberflächenreaktionen eine effiziente Ankopplung an die Umgebung ermöglichen und so den Vortrieb stark beeinflussen.
Im Englischen sprechen die Fachleute von caps, also von einer Art Kugeln, die eine Mütze tragen. Während die Halbleiter-Hälfte Sonnenenergie tankt und angeregte Elektronen und Elektronenlöcher erzeugt, hilft die Metall-Mütze bei der Ladungstrennung. Wie funktioniert jetzt aber das Schwimmen und Speichern? Im Regelfall reagieren nun die Elektronen und die Elektronenlöcher mit Wasser oder mit hinzugefügten Treibstoffen wie Alkoholen oder Wasserstoffperoxid. Durch die zweigeteilte Struktur laufen diese Oberflächenreaktionen unsymmetrisch ab, auf einer Seite stärker, auf einer schwächer. Die dabei erzeugten Konzentrationsunterschiede der Produkte sind letztendlich für den Vortrieb verantwortlich.
Winzige Solar-Batterie
Schon unter Beleuchtung in Wasser bewegen sich die Testpartikel vergleichsweise schnell, die Zugabe von Alkohol hat aber einen klar anregenden Effekt auf alle untersuchten Partikelformen. Anders sieht es in 0,5% Wasserstoffperoxid aus. Während mit Gold überzogene Partikel hier eine sehr hohe Aktivität aufweisen, bewegen sich die Mikroschwimmer mit Platin relativ langsam. Was auf den ersten Blick ein Nachteil scheint, erklärt, warum nur diese Kombination zu einem aufladbaren Mikroschwimmer führt. Platin ist ein exzellenter Elektrokatalysator, der Wasserstoffperoxid mit einer ähnlich hohen Rate umsetzt wie das Halbleitermaterial PHI. Es fehlt daher der Konzentrationsunterschied, der die Mikroschwimmer sonst antreibt.
Zunächst scheint auch das Speichern ein Problem zu sein. Denn wie in einem Tank mit Löchern reagieren viele frisch angeregte Elektronen sofort mit ihrer Umgebung und gehen für die Speicherung somit verloren. Der organische Halbleiter und das Platin sind gemeinsam aber so aktiv, dass ein Überschuss an angeregten Elektronen entsteht, die stabilisiert und somit gespeichert werden können. Das Verhältnis von Ladezeit zu Bewegungsdauer wäre für Standard-Elektroautos traumhaft: 30 Sekunden Sonnenbaden reichen für bis zu 30 Minuten Schwimmen im Dunkeln.
Beide Lösungsmittel, Alkohol und Wasserstoffperoxid, schließen eine Anwendung in menschlichem Gewebe auf den ersten Blick aus. Bettina Lotsch und ihr Team sind jedoch schon einen Schritt weiter. „Im Körper gibt es auch andere Stoffe, die ein Schwimmen und Aufladen erlauben“ erklärt die Chemikerin. „Wir untersuchen aktuell die entsprechenden Möglichkeiten der organischen Mikroschwimmer und erste Ergebnisse zeigen, dass Schwimmen, Aufladen und sogar der Transport von Wirkstoffen unter physiologischen Bedingungen machbar ist.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Valeska Lotsch
Department Chemie
Ludwig-Maximilians-Universität München
Butenandtstr. 5-13, Haus D
81377 München
Tel.: +49 (0)89 2180-77429
Originalpublikation:
Carbon nitride-based light-driven microswimmers with intrinsic photocharging ability. V Sridhar, F Podjaski, J Kröger, A Jiménez-Solano, B-W Park, B V Lotsch, M Sitti. Proceedings of the National Academy of Sciences (PNAS) 2020 (first published online Sept 21, 2020).
DOI: 10.1073/pnas.2007362117
Quelle: IDW
Bayreuther Forscher: Tropische Naturschutzgebiete sind besonders stark von künftigen Klimaänderungen betroffen
Christian Wißler Pressestelle
Universität Bayreuth
Die Naturschutzgebiete der Erde sind das Rückgrat für die Bewahrung globaler Biodiversität. Vom künftigen Klimawandel sind sie in sehr unterschiedlicher Weise betroffen. Detaillierte Kenntnisse der Klimawandelfolgen vor Ort können daher zum Management von Schutzgebieten und zum Erhalt ihrer ökologischen Leistungen wesentlich beitragen. Darauf macht eine biogeografische Studie der Universität Bayreuth in der Zeitschrift „Diversity and Distributions“ aufmerksam. Sie beruht auf Klimaprognosen für mehr als 130.000 Naturschutzgebiete weltweit.
Für ihre neue Studie haben Prof. Dr. Carl Beierkuhnlein und Dr. Samuel Hoffmann am Lehrstuhl für Biogeografie insgesamt 137.735 Naturschutzgebiete in sechs Kontinenten untersucht. Im Mittelpunkt stand dabei die Frage, welchen Abweichungen von den derzeitigen Klimabedingungen diese Gebiete in den kommenden fünf Jahrzehnten ausgesetzt sind und wie dadurch Pflanzen- und Tierarten vor Ort gefährdet werden. „Pauschale Prognosen zum Klimawandel reichen nicht aus, um dem drohenden weiteren Verlust an Biodiversität entgegenzutreten. Dies kann nur gelingen, wenn wir mehr darüber wissen, welche lokalen Klimaänderungen – beispielsweise in Naturschutzgebieten – durch globale Tendenzen verursacht werden. Wie unsere Studie eindrucksvoll belegt, können diese lokalen Auswirkungen schon in räumlich benachbarten Gegenden sehr verschieden ausfallen“, sagt Beierkuhnlein.
Besonders starke lokale Klimaänderungen sind bis 2070 vor allem in Schutzgebieten tropischer Länder zu erwarten. Diese haben heute für den Erhalt weltweit gefährdeter Pflanzen- und Tierarten eine große Bedeutung und stehen unter hohem Druck, weil sie von den Menschen intensiv genutzt werden. Einige von ihnen liegen in Gebirgen hoch über dem Meeresspiegel. Hier werden die Temperaturen infolge des Klimawandels voraussichtlich spürbar ansteigen. Folglich werden einige gefährdete Arten wahrscheinlich versuchen, in höhere und deshalb kühlere Gebirgsregionen auszuweichen. Dort aber könnte die Gefährdung einzelner Arten schnell ansteigen, weil in der Höhe weniger Ressourcen verfügbar sind. „Für wandernde Arten könnten sich höhere Gebirgslagen als Sackgasse erweisen“, erklärt Hoffmann.
Die neue Studie zeigt aber auch: Schutzgebiete, in denen künftige Klimaverhältnisse besonders stark von der Gegenwart abweichen, haben einige Eigenschaften, die sich vorteilhaft auf den Erhalt von Arten auswirken können. Sie sind oft sehr groß, weisen sehr unterschiedliche Landschaftsprofile auf und bieten daher vielfältige Umweltbedingungen. Zudem sind sie durch direkte menschliche Eingriffe wenig belastet und kaum durch Verkehrswege zerschnitten. Diese Umstände begünstigen die Anpassungsfähigkeit von Arten, beispielsweise durch genetischen Austausch und höhere Ressourcenverfügbarkeit. Zudem können manche Arten, die aufgrund von Klimaänderungen zum Verlassen ihrer angestammten Lebensräume gezwungen sind, infolge der landschaftlichen Vielfalt bereits in ihrer Nachbarschaft neue Habitate finden. Deshalb kann ein über lokale Klimaveränderungen gut informiertes Management dazu beitragen, Folgen des Klimawandels in Naturschutzgebieten abzumildern.
Prognosen des globalen Klimawandels sind immer mit Unsicherheiten behaftet. Deshalb haben die Bayreuther Forscher bei ihrer Untersuchung der Naturschutzgebiete mit zehn verschiedenen globalen Modellen des Klimawandels gearbeitet. Zudem haben sie zwei deutlich voneinander abweichende Szenarien der globalen Treibhausgas-Emissionen in ihre Beurteilungen einbezogen. In jedem der untersuchten Naturschutzgebiete wurden kleine quadratische Flächen mit einer Größe von rund einem Quadratkilometer untersucht. Charakteristische Eigenschaften dieser „Zellen“ wurden anschließend ins Verhältnis zu prognostizierten klimatischen Änderungen gesetzt, die auf globaler Ebene bis 2070 zu erwarten sind. Zu diesen Eigenschaften zählen beispielsweise die Höhe über dem Meeresspiegel, das Landschaftsprofil, Niederschläge und Temperaturen, die dort lebenden Pflanzen- und Tierarten sowie Eingriffe seitens der Menschen. Mit diesen Untersuchungen ist es den Bayreuther Forschern gelungen, lokale Klimawandeleffekte auf kleinstem Raum abzuschätzen.
Forschungsförderung:
Die Bayreuther Studie wurde aus dem EU-Projekt ECOPOTENTIAL gefördert, dem bisher größten EU-Projekt zu Ökosystemen.
Wissenschaftliche Ansprechpartner:
Dr. Samuel Hoffmann
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2299
E-Mail: samuel.hoffmann@uni-bayreuth.de
Prof. Dr. Carl Beierkuhnlein
Lehrstuhl für Biogeografie
Universität Bayreuth
Telefon: +49 (0)921 / 55-2270
E-Mail: carl.beierkuhnlein@uni-bayreuth.de
Originalpublikation:
Samuel Hoffmann, Carl Beierkuhnlein: Climate change exposure and vulnerability of the global protected area estate from an international perspective. Diversity & Distributions (2020), DOI: https://doi.org/10.1111/ddi.13136
Quelle: IDW
Zufriedenheit im Homeoffice nimmt weiter zu
Margret Hornsteiner Dialog
Bayerisches Forschungsinstitut für Digitale Transformation bidt
Die zunehmende Nutzung von Homeoffice im Zuge der Coronakrise hält an. Das zeigt eine Folgebefragung des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) zur Verbreitung und Akzeptanz von Homeoffice in Deutschland. Bereits im März hatte das bidt in einer Studie gezeigt, wie sehr sich das Arbeiten von zu Hause aus verbreitet hat.
• Publikation „Digitalisierung durch Corona?“ des bidt veröffentlicht
• Homeoffice wird weiterhin häufiger und intensiver genutzt als vor der Krise
• Zufriedenheit der Berufstätigen im Homeoffice ist weiter gestiegen
• Wunsch nach mehr Homeoffice auch nach der Coronakrise ist stark ausgeprägt
Auch Monate nach dem Beginn der Coronakrise ist die Verbreitung von Homeoffice deutlich höher als zuvor. Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) führte im März und Juni repräsentative Kurzbefragungen unter erwachsenen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys durch. Die Analyse der Befragungen zeigt:
• Die Nutzung von Homeoffice ist in der Coronakrise nachhaltig gestiegen. Derzeit arbeiten 39 % der erwachsenen berufstätigen Internetnutzerinnen und -nutzer in Deutschland zumindest ab und zu im Homeoffice. Im März waren es 43 %, während es vor der Krise 35 % der Befragten waren.
• Die Intensität der Nutzung von Homeoffice ist deutlich gestiegen. Im Juni befanden sich rund 32 % der Befragten mindestens mehrmals pro Woche im Homeoffice. Vor der Krise war dies nur bei 23 % der Befragten der Fall.
• Die Zufriedenheit mit dem Homeoffice ist hoch. 85 % der Homeoffice-Nutzerinnen und -Nutzer geben an, mit ihrer Situation zufrieden zu sein.
• Die Nutzung der im Homeoffice eingesetzten Technik macht der Mehrheit keine Schwierigkeiten. Nur 12 % der Befragten geben an, Probleme damit zu haben.
• 69 % der befragten Arbeitnehmerinnen und Arbeitnehmer, die dies bei ihrer Tätigkeit grundsätzlich für möglich halten, wünschen sich auch nach der Coronakrise mehr Homeoffice als zuvor.
• Die Befürchtung, dass Arbeitgeber nach der Krise die Homeoffice-Möglichkeiten wieder beschränken, ist weitverbreitet. 55 % der Befragten gehen davon aus.
• Der Großteil der deutschen Erwerbstätigen ist jedoch nach wie vor nicht im Homeoffice. 61 % arbeiten nicht von zu Hause. Der Großteil von ihnen gibt an, dass dies bei ihrer Tätigkeit generell nicht möglich sei.
„Die Arbeitgeber- und Arbeitnehmerseite sollten die coronabedingte Forcierung von Homeoffice als Chance sehen. Nun gilt es über den langfristigen Einsatz flexibler Arbeitsformen zu verhandeln“, sagt Dr. Roland Stürz, einer der Autoren der Studie. Dabei gelte es die Vorzüge von Homeoffice mit den Vorteilen der Präsenzarbeit zu verknüpfen.
„Arbeiten wird flexibler werden“, sagt bidt-Direktor Professor Dietmar Harhoff und betont den damit verbundenen Innovationsschub in Unternehmen: „Flexible Arbeitsmodelle werden nun zu einer verstärkten Digitalisierung von Prozessen, zur Verbesserung der Effizienz und damit zu Produktivitätssteigerungen führen.“
Anhang:
Infografiken als pdf
Quellenangabe bei Verwendung der Grafiken bzw. der Daten:
bidt – Bayerisches Forschungsinstitut für Digitale Transformation: Repräsentative Kurzbefragung von berufstätigen Internetnutzerinnen und -nutzern in Deutschland unter Nutzung von Google Surveys, März und Juni 2020
Autorin und Autoren der Studie:
Dr. Roland A. Stürz (bidt Think Tank)
Christian Stumpf (bidt Think Tank)
Ulrike Mendel (bidt Think Tank)
Prof. Dietmar Harhoff, Ph.D. (bidt-Direktorium, Max-Planck-Institut für Innovation und Wettbewerb)
Das Bayerische Forschungsinstitut für Digitale Transformation (bidt) ist ein Institut der Bayerischen Akademie der Wissenschaften und trägt dazu bei, die Entwicklungen und Herausforderungen des digitalen Wandels besser zu verstehen. Das Institut fördert herausragende interdisziplinäre Forschung und liefert als Think Tank Entscheidungsträgern in Politik und Wirtschaft evidenzbasierte Empfehlungen, um die digitale Transformation erfolgreich zu gestalten. Das bidt fördert zudem den offenen Dialog zwischen Forschung und Gesellschaft.
www.bidt.digital
Pressekontakt:
Margret Hornsteiner
Abteilungsleiterin Dialog
Tel.: +49 (0)89 5402356-30
E-Mail: presse@bidt.digital
Wissenschaftliche Ansprechpartner:
Ansprechpartner zur Studie:
Dr. Roland A. Stürz
Abteilungsleiter Think Tank
Tel.: +49 (0)89 5402356-20
E-Mail: roland.stuerz@bidt.digital
Originalpublikation:
Roland A. Stürz, Christian Stumpf, Ulrike Mendel, Dietmar Harhoff: Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland: Ergebnisse zweier bidt-Kurzbefragungen. bidt Analysen und Studien September 2020
DOI: 10.35067/xypq-kn62
Weitere Informationen:
https://www.bidt.digital/studie-homeoffice2/ Link zur Studie „Digitalisierung durch Corona?Verbreitung und Akzeptanz von Homeoffice in Deutschland“
https://www.bidt.digital/studie-homeoffice-interview/ Interview „Homeoffice lohnt sich für Unternehmen“
Anhang
Infografiken zur Kurzbefragung des bidt zur Nutzung von Homeoffice in Deutschland
https://idw-online.de/de/attachment80689
Quelle: IDW
Im Ostseeraum muss die Entsorgung nicht verwendeter Arzneimittel verbessert werden
Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
Die korrekte Sammlung und Entsorgung von ungenutzten Medikamenten kann zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee beitragen und ist vergleichsweise leicht umzusetzen. Der Umgang mit ungenutzten Medikamenten wird jedoch in den einzelnen Ostseeanrainerstaaten unterschiedlich gehandhabt. Vergleichbare Informationen zu bestehenden Rücknahme- und Entsorgungspraktiken lagen bisher nicht vor. Das Projekt CWPharma hat nationale Rücknahme- und Entsorgungspraktiken untersucht und daraus Empfehlungen („good practices“) abgeleitet.
Das Projekt CWPharma, ein von der EU im Rahmen des Interreg-Programms „Baltic Sea Region“ finanziertes und vom finnischen Umweltforschungsinstitut SYKE geleitetes Verbundvorhaben, hat daher die nationalen Rücknahme- und Entsorgungspraktiken nicht verwendeter Arzneimittel aus verschiedenen Anwendungsbereichen (z.B. Haushalt, Krankenhäuser, Tiermedizin) untersucht und daraus entsprechende Empfehlungen („good practices“) abgeleitet.
„Wir haben die aktuellen Vorgehensweisen in Dänemark, Estland, Finnland, Deutschland, Lettland, Litauen, Polen, Russland und Schweden bewertet. Das Ziel ist, die nationalen Rücknahme- und Ent-sorgungsmethoden zu verbessern und auf diese Weise die Arzneimittelemissionen in die Ostsee zu reduzieren“, sagt Experte Jukka Mehtonen vom finnischen Umweltinstitut SYKE.
Häufiges Problem ist die unsachgemäße Entsorgung von Arzneimitteln
Die Rückgabe nicht verwendeter Arzneimittel an Sammelstellen wird in den Ostseeländern sehr unterschiedlich gehandhabt. Der Anteil der Bürger, die nicht verwendete Arzneimittel an bestimmte Sammelstellen zurückgeben, liegt zwischen 10 und 70 Prozent. Etwa 16 bis 80 Prozent der Befragten entsorgen nicht verwendete Medikamente über den Hausmüll und 3 bis 30 Prozent entsorgen sie über die Toilette oder Spüle (s. Tabelle 1). Informationen bezüglich der Menge an ungenutzten Tier-arzneimitteln stehen seltener zu Verfügung und deren Entsorgung ist meist schlechter organisiert, als dies in der Humanmedizin der Fall ist.
Der häufigste Grund für die unsachgemäße Entsorgung von Arzneimitteln aus Haushalten ist die Unkenntnis über die Umweltfolgen sowie fehlende Informationen über umweltverträgliche Entsorgungsmöglichkeiten. Die getrennte Erfassung von ungenutzten Arzneimitteln aus Haushalten ist in einigen Ländern kaum bzw. überhaupt nicht organisiert (z.B. Russland). In anderen Ländern wie z.B. Lettland, Litauen und Polen funktioniert die getrennte Sammlung nur mangelhaft. In Deutschland wird Hausmüll überwiegend verbrannt. Daher wird den Verbrauchern geraten, nicht verwendete Arzneimittel direkt im Hausmüll zu entsorgen. In Regionen, in denen der Hausmüll nicht verbrannt wird, wird den Verbrauchern eine Entsorgung über mobile Sammelfahrzeuge oder Recyclingzentren empfohlen. Eine leicht verständliche Übersicht für Deutschland ist unter der Webadresse https://arzneimittelentsorgung.de/home zu finden.
Wie können die Emissionen von durch eine korrekte Entsorgung von Arzneimittelwirkstoffen reduziert werden?
Das Projekt CWPharma hat 21 bewährte Verfahrensweisen zur Rücknahme und Entsorgung von ungenutzten Medikamenten sowie Maßnahmen zur Förderung eines bewussteren Gebrauchs von Medikamenten im Ostseeraum ermittelt. Bei einer möglichen Umsetzung auf nationaler Ebene müssen nationale Rechtsvorschriften entsprechend berücksichtigt werden. Die identifizierten Verfahrensweisen entsprechen der Forderung nach einem EU-weiten strategischen Ansatz für eine effiziente Risikominderung.
– Eine der wichtigsten Empfehlungen lautet, den Bürgern zu ermöglichen, alle nicht verwendeten Medikamente (sowohl die verschriebenen als auch die rezeptfreien) an dafür vorgesehenen Sammelstellen abgeben zu können. Dies kann beispielsweise der Ort sein, an dem sie gekauft wurden (z.B. Apotheke) oder an Recyclinghöfen. Dieses Vorgehen ist leicht verständlich und leicht umsetzbar. Gleiches sollte auch für Arzneimittel gelten, die für Haustiere verwendet werden.
– In den Ostseeanrainerstaaten werden pharmazeutische Abfälle aus Krankenhäusern vor Ort gesammelt und direkt zu den entsprechenden Abfallbehandlungsanlagen geliefert. Dieselbe Vorgehensweise wird auch für Gesundheitseinrichtungen wie Privatkliniken, Altersheime und Firmen, die häusliche Pflege anbieten, empfohlen.
– Bezüglich der Entsorgung von Tierarzneimitteln wird empfohlen, dass Landwirte bei tierärztlichen Untersuchungen auf ihrem Hof die Möglichkeit erhalten sollten, ungenutzte Tierarzneimittel an den Tierarzt zurückzugeben, der wiederum die Kosten für Sammlung und Abfallentsorgung in Rechnung stellen kann. Fallen jedoch große Mengen an ungenutzter Tiermedizin an, sollten die Landwirte die Entsorgung der Tiermedizin analog zu Apotheken und Krankenhäusern selbst organisieren. Geringe Mengen sollten auch an die für Privathaushalte vorgesehenen Sammelstellen abgegeben werden dürfen.
– Umweltauswirkungen von Arzneimittelemissionen sowie die korrekte Entsorgung von ungenutzten Arzneimitteln sollten über gezielte Informationskampagnen für Bürger, Ärzte, Tierärzte und Landwirte vermittelt werden.
Beispiel für Deutschland: https://www.bmu.de/richtigentsorgenwirkt/wie-werden-arzneimittel-richtig-entsorg…
– Zur Behandlung von separat gesammelten Arzneimitteln und anderen pharmazeutischen Abfällen wird generell eine Hochtemperaturverbrennung bei etwa 1.100-1.300°C empfohlen.
Weitere Empfehlungen aus dem CWPharma Projekt sind:
– Medikamente sollten nicht unnötig genutzt bzw. verschrieben werden.
– Apothekenpersonal und Tierärzte sollten Kunden bei Abgabe von Medikamenten über die richtige Entsorgung ungenutzter Medikamente informieren.
Nächste Projektschritte:
Im Herbst 2020 wird das Projekt CWPharma Empfehlungen („good practices“) für eine effektive Kommunikation der Umweltrelevanz von Arzneimittelrückständen geben. Ebenso sollen Empfehlungen zur Zulassungspraxis von Anlagen in der Arzneimittelproduktion unter besonderer Berücksichtigung von Umweltaspekten veröffentlicht werden. Darüber hinaus wird ein Leitfaden zur weitergehenden Abwasserbehandlung mit dem Ziel einer Entfernung von Arzneimittelrückständen („4. Reinigungsstufe“) erstellt. Abschließend wird ein Aktionsplan mit politischen Empfehlungen zur Reduzierung der Emissionen von Arzneimitteln in die Ostsee vorgestellt.
Wissenschaftliche Ansprechpartner:
Michael Stapf, Kompetenzzentrum Wasser Berlin, tel. +49 30 536 53823
Noora Perkola, Finnish Environment Institute, tel. +358 295 251 507, noora.perkola@ymparisto.fi
www.cwpharma.fi
Originalpublikation:
https://www.kompetenz-wasser.de/wp-content/uploads/2020/09/200910_cwpharma_kwb_p…
Weitere Informationen:
http://www.swedishepa.se/Hazards/Pharmaceuticals
https://helcom.fi/action-areas/industrial-municipal-releases/pharmaceuticals/
http://medsdisposal.eu/
Quelle: IDW
Roboter auf der Blumenwiese und Gemüse von der Kläranlage
Luisa Gierke Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
Am 12. September 2020 fand die gemeinsame Veranstaltung von dem Futurium mit der Fördermaßnahme Agrarsysteme der Zukunft statt. Hier diskutieren namhafte Wissenschaftler*innen zum Thema: Kreislaufwirtschaft statt Verschwendung von Ressourcen. Die Kombination aus Natur und Hightech kann dabei helfen, die Zukunft nachhaltiger zu gestalten. Abfallstoffe können zum Beispiel zu Rohstoffen werden, um Nahrungsmittel und Energie zu produzieren.
Wissenschaftler*innen arbeiten auf Hochtouren, um diese Kombination aus Natur und Hightech bald möglich zu machen. Wie kann diese Umstellung genau aussehen? Wie viel kann die Bioökonomie leisten, um auf lange Sicht Kreisläufe nachhaltig zu schließen? Forscher*innen aus zwei Projekten der Agrarsysteme der Zukunft stellen ihre Visionen zur Diskussion. Dabei sind auch die Besucher*innen des Futuriums gefragt: Wie wäre es für Sie, wenn Drohnen das Wachstum von Nutzpflanzen überwachen und Tomaten mit Nährstoffen aus der Kläranlage groß geworden sind?
Website der Agrarsysteme der Zukunft: https://www.agrarsysteme-der-zukunft.de
Pressekontakt:
Luisa Gierke | E-Mail: gierke@igzev.de | Telefon: 033701 / 78 100
Wissenschaftliche Ansprechpartner:
Dr. Philip Albers | E-Mail: albers@igzev.de | Telefon: 033701 / 78 162
Anhang
Pressemitteilung_Roboter_auf_der_Blumenwiese_und_Gemüse_von_der_Kläranlage
https://idw-online.de/de/attachment80711
Quelle: IDW
Verbindung aus Calcium und Phosphat löst starke Entzündung bei Rheumapatienten aus
Peggy Darius Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Wissenschaftler der Universität Leipzig haben entdeckt, dass Calcium im Zusammenspiel mit Phosphat starke Entzündungen bei Rheumapatienen auslösen kann. Die Erkenntnis eröffnet neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen. Das Ergebnis hat eine Forschergruppe der Medizinischen Fakultät um Studienleiter Prof. Dr. Ulf Wagner aktuell in der Fachzeitschrift „nature communications“ veröffentlicht.
„Ein entzündungsfördernder Effekt von Calcium-Ionen war bisher bei chronischer Bronchitis und Adipositas erforscht worden, der Nachweis bei Rheuma ist völlig neu. Mit dieser Entdeckung ist es nun möglich, neue Therapieansätze bei rheumatischen und chronisch entzündlichen Erkrankungen zu entwickeln“, sagt Wagner, Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig, der das Ergebnis gemeinsam mit Dr. Elisabeth Jäger, Supriya Murthy und PD Dr. Manuela Rossol publiziert hat.
Winzige Nanopartikel, enorme Entzündungsreaktion
Die Arbeitsgruppe „Experimentelle Rheumatologie“ der Leipziger Universitätsmedizin hatte bereits in der Vergangenheit entdeckt, dass eine erhöhte lokale Calciumkonzentration zu einer sehr starken Entzündungsreaktion mit nachfolgender Gewebszerstörung beitragen kann. In einer neuen Arbeit wurde der dafür verantwortliche Mechanismus bei Rheuma weiter aufgeklärt. Neben Calcium spielt auch Phosphat eine wichtige Rolle. Bei erhöhten Konzentrationen dieser Ionen bilden sich Calcium-Phosphat-Nanopartikel aus, welche trotz ihrer winzigen Größe enorme Entzündungsreaktionen in Immunzellen auslösen können.
Bei rheumatoider Arthritis (RA), einer der häufigsten rheumatologischen Autoimmunerkrankungen, an welcher circa ein Prozent aller Menschen im Laufe ihres Lebens erkranken, führen diese Nanopartikel in Verbindung mit Calcium-Ionen zu einer deutlich stärkeren Entzündungsreaktion als bei Gesunden. Das geht mit der Produktion potenter Botenstoffe einher. Diese spielen bei rheumatischen Erkrankungen eine vordergründige Rolle. Ihre medikamentöse Blockade ist die wirkungsstärkste Form der Behandlung der RA.
Erhöhte lokale Calciumkonzentration ausschlaggebend
Die durch Calcium-Ionen getriggerte Aufnahme von Calcium-Phosphat-Nanopartikeln kann bei Rheuma zu Gelenkentzündungen führen. Die treibende Kraft ist jedoch immer eine erhöhte Calciumkonzentration in der Umgebung entzündeter Gelenke, während die Calciumaufnahme oder die systemische Regulation des Calciumspiegels keine Rolle zu spielen scheint. Die bei der Erkrankung auftretende Freisetzung von Calcium und Phosphat aus dem Knochen infolge von Knochenentkalkung beziehungsweise -zerstörung kann dazu beitragen, dass die Erkrankung chronisch wird. Zusammenhänge zwischen Verkalkung und Entzündung werden aber auch bei anderen entzündlichen Erkrankungen wie der Arteriosklerose vermutet.
Calcium und Phosphat sind die wichtigsten Elemente des Knochens, werden dort ständig eingebaut oder bei Bedarf wieder freigesetzt. Rheumatische Erkrankungen und Osteoporose gehen häufig mit einem Verlust von Calcium aus dem Knochen einher, während die Ablagerung von Calcium in anderen Geweben wie der Niere, den Arterien oder dem Bindegewebe eine krankhafte Veränderung mit häufig schweren Konsequenzen darstellt. Insbesondere die Verkalkung von Blutgefäßen führt zu deren Zerstörung und kann die Ursache oder eine Begleiterscheinung von Herz-Kreislauferkrankungen wie Herzinfarkt oder Schlaganfall sein.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulf Wagner
Leiter der Arbeitsgruppe „Experimentelle Rheumatologie“ an der Klinik und Poliklinik für Endokrinologie, Nephrologie, Rheumatologie am Universitätsklinikum Leipzig
T: 0341/ 97 24702
ulf.wagner@uniklinik-leipzig.de
Originalpublikation:
https://www.nature.com/articles/s41467-020-17749-6
Quelle: IDW
Mit Bor und Bier Stickstoff reduziert
Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die industrielle Umwandlung von Stickstoff in Ammonium liefert Dünger für die Landwirtschaft. Würzburger Chemiker haben diese Umwandlung nun bei Raumtemperatur, niedrigem Druck und mit leichten Elementen erreicht.
Die Menschheit ist auf das Ammonium in synthetischem Dünger angewiesen, um ihre Ernährung zu sichern. Doch die Herstellung von Ammonium aus Stickstoff ist äußerst energieintensiv und erfordert den Einsatz von Übergangsmetallen.
Einer Forschungsgruppe der Julius-Maximilians-Universität (JMU) Würzburg ist es nun gelungen, Stickstoff bei Raumtemperatur, niedrigem Druck und ohne Übergangsmetalle in Ammonium umzuwandeln. Das berichtet ein Team unter Leitung des JMU-Wissenschaftlers Professor Holger Braunschweig in der Zeitschrift Nature Chemistry.
Ein neuer Werkzeugkasten für die Stickstoffbindung
Die industrielle Herstellung von Ammonium, das so genannte Haber-Bosch-Verfahren, erfordert hohe Temperaturen und Drücke. Sie verbraucht schätzungsweise etwa zwei Prozent der gesamten auf der Erde erzeugten Energie. Dieser Prozess stützt sich auf Übergangsmetalle, das sind relativ schwere und reaktive Atome.
Im Jahr 2018 gelang dem Team von Professor Braunschweig die Bindung und chemische Umwandlung von Stickstoff mit Hilfe eines Moleküls, das nur aus leichteren, nichtmetallischen Atomen besteht. Ein Jahr später demonstrierte es mit einem ähnlichen System die erste Kombination von zwei Stickstoffmolekülen im Labor. Diese Reaktion war zuvor nur in der oberen Erdatmosphäre und unter Plasmabedingungen beobachtet worden.
Der Schlüssel zu diesen beiden Entdeckungen war die Verwendung von Bor, dem fünftleichtesten Element, als Atom, an das der Stickstoff bindet. „Nach diesen beiden Entdeckungen war klar, dass wir ein ganz besonderes System in den Händen hatten“, sagt Braunschweig.
Einfach Wasser hinzufügen
Obwohl dieses System Stickstoff bindet und umwandelt, fehlte noch die Hälfte der Puzzleteile.
„Wir wussten, dass die vollständige Umwandlung von Stickstoff in Ammonium eine große Herausforderung darstellen würde, da sie eine komplexe Abfolge chemischer Reaktionen erfordert, die oft nicht miteinander kompatibel sind“, erklärt der JMU-Professor.
Der Durchbruch gelang mit einfachsten Reagenzien: Spuren von Wasser, die in einer Probe zurückblieben, reichten aus, um eine Folge von Reaktionen zu fördern, die das Team bis auf einen einzigen Schritt an das Ziel „Ammonium erzeugen“ heranbrachte. Später wurde entdeckt, dass die Schlüsselreaktionen mit einer festen Säure so durchgeführt werden konnten, dass die Reaktionen in einem einzigen Reaktionskolben bei Raumtemperatur nacheinander ablaufen konnten.
Ammonium mit Bier herstellen
Als das Team erkannt hatte, dass die Reaktion selbst mit einfachen Reagenzien wie Wasser zu funktionieren schien, wiederholte es sie mit dem Bier der örtlichen Brauerei Würzburger Hofbräu. Zu ihrer Freude konnten die Chemiker auch damit die Vorstufe von Ammonium erzeugen.
„Dieses Experiment haben wir aus Spaß gemacht. Aber es zeigt, wie tolerant das System gegenüber Wasser und anderen Verbindungen ist“, erklärt Postdoc Dr. Marc-André Légaré, der die Studie initiiert hatte.
„Die Reduktion von Stickstoff zu Ammonium ist eine der wichtigsten chemischen Reaktionen für die Menschheit. Dies ist zweifellos das erste Mal, dass sie mit Bier gemacht wurde, und es ist besonders passend, dass dies in Deutschland passiert ist“, sagt Dr. Rian Dewhurst, Akademischer Oberrat und Koautor der Studie.
Viel Arbeit zu erledigen
Diese Ergebnisse sind zweifellos aufregend, aber noch weit von der Anwendung in der industriellen Produktion von Ammonium entfernt. Es muss noch ein Weg gefunden werden, um den gesamten Prozess energieeffizient und wirtschaftlich zu gestalten.
Trotzdem demonstriert die Entdeckung, dass auch leichtere Elemente selbst die größten Herausforderungen in der Chemie meistern können. „Hier gibt es noch viel zu tun, aber Bor und die anderen leichten Elemente haben uns schon so oft überrascht. Sie sind eindeutig zu so viel mehr fähig“, sagt Holger Braunschweig.
Förderer
Diese Forschungsarbeit wurde von der Deutschen Forschungsgemeinschaft (DFG), der Alexander-von-Humboldt-Stiftung und dem Natural Sciences and Engineering Research Council of Canada finanziell unterstützt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Braunschweig, Institut für Anorganische Chemie und Institut für Nachhaltige Chemie & Katalyse mit Bor, Universität Würzburg, T +49 931 31-85260, h.braunschweig@uni-wuerzburg.de
Originalpublikation:
One-Pot, Room-Temperature Conversion of Dinitrogen to Ammonium at a Main-Group Element. Marc-André Légaré, Guillaume Bélanger-Chabot, Maximilian Rang; Rian D. Dewhurst, Ivo Krummenacher, Rüdiger Bertermann, Holger Braunschweig. Nature Chemistry, 14 September 2020, DOI: 10.1038/s41557-020-0520-6; https://www.nature.com/articles/s41557-020-0520-6.
Quelle: IDW
Schwebstoffe in Bundeswasserstraßen: Neue Erkenntnisse zu Herkunft und Zusammensetzung
Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Schwebstoffe sind ein wichtiger Bestandteil unserer Gewässer. Wissenschaftler der Bundesanstalt für Gewässerkunde und der Rheinischen Friedrich-Wilhelms-Universität Bonn haben jetzt mit langjährigen Datenreihen die Dynamik und Quellen der Schwebstoffe in den Bundeswasserstraßen untersucht und sind zu überraschenden Ergebnissen gekommen.
In einer kürzlich in der Fachzeitschrift Earth Surface Dynamics erschienenen Publikation untersuchen Wissenschaftler der BfG und der Rheinischen Friedrich-Wilhelms-Universität Bonn mögliche Quellen und Transportwege von Schwebstoffen in den Bundeswasserstraßen. Die BfG verfügt durch die fachliche Begleitung und Auswertung des WSV-Schwebstoffdauermessnetzes über einen einzigarten Datensatz, der bis in die 1960er Jahre zurückreicht. Mehr als 750 000 Datenpunkte von 62 Messstellen im gesamten Bundesgebiet haben die Forscher analysiert. Zusätzlich flossen die seit 1997 durchgeführten Messungen zum organischen Anteil der Schwebstoffe an zwei Messtellen an Mosel und Rhein in die statistischen Analysen ein. Die Ergebnisse zeigen: Wie zunächst erwartet nimmt mit steigendem Durchfluss – also der Wassermenge, die in einer bestimmten Zeit an einer Stelle im Fluss vorbeifließt – die Schwebstoffkonzentration zu, und bei sinkendem Durchfluss wieder ab. In einigen Fällen ist diese Abnahme aber nicht eindeutig zu beobachten, was bislang als Ausnahme angesehen wurde. Die Daten zeigen jedoch, dass dieser Effekt häufiger auftritt als bislang angenommen. Und an einigen Stellen nahm die Schwebstoffkonzentration mit Abnahme der Wassermenge sogar zu. Verantwortlich hierfür sind Algen.
Thomas Hoffmann, einer der Autoren der Studie: „Der Anteil an organischem Material in den Schwebstoffen spielt hierbei eine zentrale Rolle. Bei geringen Abflüssen, wenn diese zum Beispiel im Sommer bei hohen Wassertemperaturen auftreten, steigt die Algenkonzentration und somit auch der Anteil an organischen Schwebstoffen. Bei hohen Abflüssen ist dagegen der mineralische Anteil größer.“ Denn: Ergiebige Niederschläge oder auch Starkregenereignisse führen zu einem hohen Eintrag von ausgewaschenen Böden und somit mineralischem Material in das Gewässer.
Mit diesen neuen Erkenntnissen könne man nun die Quellen der Schwebstoffe besser bestimmen und unterscheiden, so Hoffmann. Und das hilft auch der WSV, der für die Baggermaßnahmen zuständigen Behörde. Durch gezielte Maßnahmen bereits an der Quelle könnten die Schwebstoffmengen reduziert werden, bevor diese im Gewässer für die WSV zum Problem werden.
Da das Klima in Deutschland immer wärmer wird, nehmen auch die Trockenphasen und somit das Auftreten von Niedrigwasser zu. Auch Starkniederschläge dürften zukünftig vermehrt auftreten. Und beide Effekte können zu erheblichen Schwebstoffeinträgen direkt aus dem Fluss oder aus dessen Einzugsgebiet führen. Wie sich die Abflussverhältnisse in den Bundeswasserstraßen genau entwickeln, lässt sich jedoch derzeit nicht eindeutig vorhersagen.
Die Veröffentlichung ist zum freien Download ab sofort auf der Internetseite der Fachzeitschrift Earth Surface Dynamics verfügbar.
Wissenschaftliche Ansprechpartner:
Thomas Hoffmann, BfG (thomas.hoffmann@bafg.de)
Originalpublikation:
Hoffmann, T. O., Y. Baulig, H. Fischer and J. Blöthe (2020). „Scale breaks of suspended sediment rating in large rivers in Germany induced by organic matter.“ Earth Surf. Dynam. 8(3): 661-678.DOI: 10.5194/esurf-8-661-2020.
Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/20200921_Schwebstoffe.html auf der BfG Nachrichtenseite
Quelle: IDW
Neue Studie aus Bayreuth: Auch gekochte Karotten können allergische Reaktionen auslösen
Christian Wißler Pressestelle
Universität Bayreuth
Der Verzehr roher Karotten löst bei vielen Menschen Allergien aus. Entgegen einer weit verbreiteten Auffassung können aber auch gekochte Karotten diesen Effekt haben. Dies hat ein Forschungsteam der Universität Bayreuth jetzt herausgefunden. Zwar nimmt das Allergen der Karotte, Dau c 1 genannt, im hocherhitzten Zustand eine für Allergiker ungefährliche Struktur an. Doch sobald die Temperatur sinkt, kehrt es weitgehend in seine natürliche Struktur zurück. In der Zeitschrift „Molecular Nutrition & Food Research“ stellen die Wissenschaftlerinnen ihre Studie vor.
„Die Ergebnisse unserer Untersuchungen sprechen eindeutig dafür, dass Patienten, die sensibel auf das Allergen der Karotte reagieren, generell auf den Verzehr von Karotten verzichten sollten. Das Erhitzen der Karotten zerstört nicht oder nur unvollständig die Proteinstrukturen, die allergische Reaktionen verursachen können“, sagt Prof. Dr. Birgitta Wöhrl vom Lehrstuhl Biochemie IV der Universität Bayreuth.
„Die Gefahr, dass Allergie-Patienten eine allergische Reaktion entwickeln, ist nicht nur beim Verzehr von frisch gekochten Karotten oder von Karotten aus der Konservenbüchse gegeben. Sie besteht auch dann, wenn Nahrungsmitteln Karottenextrakt beigemischt wird“, ergänzt Thessa Jacob M.Sc., Erstautorin der Studie und Doktorandin am Lehrstuhl Biochemie IV.
Das natürliche Karottenallergen Dau c 1 ist eigentlich eine Mischung aus mehreren, strukturell sehr ähnlichen Proteinen. Diese sogenannten Isoallergene wurden im Labor einzeln in Bakterien hergestellt. Sowohl das Proteingemisch des natürlichen Dau c 1 als auch die einzelnen Isoallergene wurden bei Temperaturen bis maximal 95 Grad Celsius daraufhin untersucht, wie sich ihre Strukturen bei steigenden und fallenden Temperaturen ändern. Dabei zeigte sich, dass die natürliche Mischung und fast alle einzelnen Isoallergene nach einer Abkühlung auf 25 Grad Celsius erneut in der Lage sind, Allergien zu verursachen. Trotz der vorausgegangenen Erhitzung können die im Organismus von Allergie-Patienten vorhandenen Antikörper allergische Reaktionen hervorrufen. Zwar ist diese Fähigkeit in einigen Fällen schwächer ausgeprägt als vor der Erhitzung, aber grundsätzlich bleibt sie erhalten.
„Es ist das erste Mal, dass die Dau c 1-Isoallergene einer derart umfangreichen Testreihe unterzogen wurden. Die separate Untersuchung der strukturähnlichen Moleküle war uns besonders wichtig, um festzustellen, welche der Isoallergene unter den getesteten Bedingungen Immunreaktionen auslösen“, sagt Thessa Jacob.
Die Tests zeigten deutlich, dass die strukturelle Stabilität des Karottenallergens nicht allein von der Höhe der Temperatur abhängt. Wichtig ist ebenso der durch den pH-Wert ausgedrückte Säuregrad. Von besonderem Interesse ist der pH-Wert 3, der sich im Magen typischerweise nach der Nahrungsaufnahme einstellt. Bei diesem Säuregrad und bei normaler Raumtemperatur können, wie sich herausgestellt hat, zumindest einige Epitope trotz des vorherigen Erhitzens weiter existieren. Epitope sind diejenigen molekularen Teilstrukturen, an denen das Immunsystem von Allergie-Patienten das jeweilige Allergen erkennt, so dass eine allergische Reaktion erfolgt.
Bei ihren Strukturuntersuchungen haben die Forscherinnen vor allem die Magnetresonanzspektroskopie (NMR) sowie die CD-Spektroskopie auf dem Bayreuther Campus eingesetzt. Bei weiteren Analyseverfahren erhielten sie Unterstützung vom Paul-Ehrlich-Institut in Langen und von der Nano Temper Technologies in München.
Wissenschaftliche Ansprechpartner:
Thessa Jacob M.Sc.
Lehrstuhl Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3869
E-Mail: thessa.jacob@uni-bayreuth.de
Prof. Dr. Birgitta Wöhrl
Lehrstuhl für Biochemie IV – Biopolymere
Universität Bayreuth
Telefon: +49 (0)921 55 3541
E-Mail: birgitta.woehrl@uni-bayreuth.de
Originalpublikation:
Thessa Jacob et al.: Food Processing Does Not Abolish the Allergenicity of the Carrot Allergen Dau c 1: Influence of pH, Temperature, and the Food Matrix. Molecular Nutrition & Food Research (2020), DOI: https://doi.org/10.1002/mnfr.202000334
Quelle: IDW
Wissen über Corona: Die Mehrheit der Bevölkerung hat sich gut informiert und ist dafür, „Fake News“ zu kennzeichnen
Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Auch nach dem sogenannten „Lockdown“ gibt die Mehrheit der Befragten Anfang Juni 2020 an, sich weiterhin über das aktuell grassierende Coronavirus sowie die allgemeinen Entwicklungen der Lage auf dem Laufenden gehalten zu haben – Ältere mehr noch als Jüngere. Insgesamt zeigt die Bevölkerung sich gut informiert. Sie nehmen Fehlinformationen als weit verbreitet wahr und sind dafür, solche „Fake News“ zu kennzeichnen. Das sind die Ergebnisse einer jüngst vom Max-Planck-Institut für Bildungsforschung und dem Robert Koch-Institut veröffentlichten Studie zum Informationsverhalten und Wissensstand der Bevölkerung in Deutschland während der ersten Monate der Corona-Pandemie.
Das Coronavirus ist in den Medien wie in privaten Gesprächen im Familien- und Freundeskreis oder am Arbeitsplatz omnipräsent. Seit Beginn der Pandemie sind wir einer beispiellosen Informationsflut ausgesetzt: von täglichen Infektionszahlen, über Informationen zu Symptomen, Risiken, Verhaltensempfehlungen und öffentlich geltenden Regeln, bis hin zu persönlichen Erfahrungsberichten oder globalen Vergleichen. Unklar ist, wie die Bevölkerung mit dieser Informationsflut umgegangen ist und wie sich das Informationsverhalten mit dem Rückgang der Infektionszahlen und den Lockerungen der flächendeckenden Maßnahmen Anfang Juni veränderte. So musste die Bevölkerung Anfang Juni damit rechnen, dass Risiken sich regional unterscheiden und Maßnahmen punktuell an das aktuelle Infektionsgeschehen angepasst werden.
Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung und des Robert Koch-Instituts haben sich deshalb mit dem Informationsverhalten der deutschen Bevölkerung während der ersten Monate der Corona-Pandemie beschäftigt und sich auf folgende Fragen konzentriert: (1) Wie informierte sich die Bevölkerung nach eigenen Angaben zu Beginn der Lockerungsphase Anfang Juni rund um das Coronavirus und wie hat sich das Verhalten nach eigenen Angaben im Vergleich zu Anfang März verändert? (2) Über welche Themen, aus welchen Gründen und über welche Quellen informierte sich die Bevölkerung? (3) Wie ging die Bevölkerung mit Fehlinformationen um? (4) Wie nahm die Bevölkerung Risiken rund um das Coronavirus wahr und wie gut war sie zu den beiden Zeitpunkten der Befragung informiert? Um diese Fragen beantworten zu können, führten die Wissenschaftler*innen im Juni 2020 eine querschnittliche Online-Studie durch. In dieser befragten sie 1.107 Teilnehmer*innen im Alter zwischen 18 und 69 Jahren zu ihrem Informationsverhalten Anfang März und Anfang Juni. Die Daten der Stichprobe sind nicht repräsentativ, da die Internetnutzung von älteren Menschen im Allgemeinen geringer ist. Allerdings wurde die Stichprobe so gezogen, dass sie der Verteilung von Alter, Geschlecht und Bundesland in der deutschen Bevölkerung entspricht.
Der Anteil der Befragten, der angab, sich rund um das Coronavirus zu informieren, ist insgesamt hoch. Für die Lockerungsphase Anfang Juni war der Anteil mit 78 Prozent nur etwas geringer als für Anfang März mit 86 Prozent. Dabei gibt es allerdings deutliche Altersunterschiede: Von den 18 bis 29-Jährigen gab rund ein Drittel an, sich eher nicht oder überhaupt nicht rund um das Coronavirus zu informieren, aber nur 10 Prozent der 60 bis 69-Jährigen. „Das muss nicht zwangsläufig problematisch sein, da die allgemeine Informiertheit sehr hoch zu sein scheint. Es wird dann zum Problem, wenn die durch das Coronavirus weniger gefährdeten Jüngeren durch Uninformiertheit Risikogruppen wie Ältere oder Personen mit Vorerkrankungen gefährden oder wenn neue Erkenntnisse und Maßnahmen nicht mehr zu allen Bevölkerungsgruppen durchdringen. Das muss weiter beobachtet werden“, erläutert Erstautorin Christina Leuker. Sie ist assoziierte Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung und wissenschaftliche Mitarbeiterin in der Abteilung Wissenschaftskommunikation am Robert Koch-Institut.
Anfang Juni informierten sich die Befragten vornehmlich über die allgemeine Entwicklung der Lage, wie zum Beispiel zu Änderungen öffentlich geltender Regeln (87%) oder zu Fortschritten medizinischer Behandlungs- und Testmethoden (78%). Informationen zum persönlichen Risiko und zum Umgang mit dem Virus sind Anfang Juni dagegen von geringerem Interesse als zu Beginn der Pandemie Anfang März. Während sich das Themeninteresse verschoben hat, blieben die Gründe sich zu informieren vor und nach dem sogenannten „Lockdown“ konstant: Die meisten Befragten informierten sich Anfang Juni wie Anfang März, um über Veränderungen der aktuellen Situation auf dem Laufenden zu bleiben und um von neuen Anordnungen zu erfahren.
Von einem Großteil der Befragten wurden dabei Fehlinformationen als weit verbreitet wahrgenommen: 59 Prozent der Befragten gaben an, mehrmals pro Woche bis mehrmals am Tag auf solche „Fake News“ zu stoßen. Als Quelle wurden am häufigsten die sozialen Medien genannt (73%). Das ist möglicherweise problematisch, da etwas über die Hälfte der Befragten angab, soziale Medien zu nutzen, um sich rund um das Coronavirus zu informieren. 75 Prozent der Befragten befürworteten es, falsche und irreführende Informationen zu kennzeichnen und auf eine Richtigstellung hinzuweisen. Aber auch das direkte persönliche Umfeld wurde als Quelle von Fehlinformationen wahrgenommen. Um unsichere Informationen zu prüfen, gab etwa die Hälfte der Befragten an, auf Suchmaschinen und entsprechende Webseiten zurückzugreifen. Dagegen fragten nur 23 Prozent jemanden aus ihrem Haushalt.
Gesundheitliche Risiken wurden je nach Altersgruppe unterschiedlich bewertet. Unter den Befragten zwischen 60 und 69 Jahren war die Sorge vor schweren gesundheitlichen Folgen im Falle einer Infektion im Vergleich zu den Befragten zwischen 18 und 29 Jahren deutlich höher (61% im Vergleich zu 24%). Zudem hält zum Zeitpunkt der Befragung über die Hälfte dieser jüngeren Altersgruppe eine Infektion bei einer Person ihres Alters und Geschlechts für unwahrscheinlich. Dies ist problematisch: Wenn die Wahrscheinlichkeit sich zu infizieren unterschätzt wird, können Jüngere zur Ansteckungsgefahr für andere werden.
Alle Altersgruppen verfügten über einen soliden Wissensstand zu den Themen „geltende Anordnungen“, „Infektion und Behandlung“, „Kontrolle der Epidemie“, „Risikogruppen“ und „Übertragung“ (71% bis 85% richtige Antworten je nach Themengebiet). Systematische Wissenslücken bestanden allerdings bei einigen Sachverhalten: 62 Prozent wussten beispielsweise nicht, dass stark übergewichtige Personen zur Risikogruppe zählen. Hier besteht nach Ansicht der Studienautor*innen weiterer Kommunikationsbedarf. Auch sollten passende Strategien für Personen entwickelt werden, die sich mit der Zeit weniger informieren oder nur bestimmte Quellen in Betracht ziehen, um einer möglichen Informationsermüdung entgegenzuwirken und aktuelle Maßnahmen weiterhin wirksam zu kommunizieren.
Noch im September soll es eine zweite Befragung zum Informationsverhalten geben. „Wir möchten herausfinden, ob die Menschen informationsmüde werden oder ob sie sich wieder vermehrt informieren – auch vor dem Hintergrund, dass sich das Leben im Herbst wieder vermehrt in Innenräumen abspielen wird und damit das Ansteckungsrisiko steigt“, sagt Studienautorin Nadine Fleischhut, Wissenschaftliche Mitarbeiterin am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung. Die zweite Befragung wird aber auch neue Fragen behandeln, zum Beispiel wie sehr sich die Menschen an aktuelle Verhaltensregeln halten und wie sie das Verhalten anderer wahrnehmen.
Leuker, C., Hertwig, R., Gumenik, K., Eggeling, L. M., Hechtlinger, S., Kozyreva, A., Samaan, L., Fleischhut, N. (2020). Wie informiert sich die Bevölkerung in Deutschland rund um das Coronavirus? Umfrage zu vorherrschenden Themen und Gründen, dem Umgang mit Fehlinformationen, sowie der Risikowahrnehmung und dem Wissen der Bevölkerung rund um das Coronavirus. Berlin: Max-Planck-Institut für Bildungsforschung. doi:10.17617/2.3247925.
Bei der vorliegenden Veröffentlichung handelt es sich um einen Preprint, der noch nicht peer-reviewed ist. Die Studie ist Teil von mehreren Erhebungen, die dann gesammelt als wissenschaftliche Publikation eingereicht werden sollen. Alle Daten und Schlussfolgerungen sind als vorläufig zu betrachten und unterliegen ständiger Veränderung. Die aktuellen Auswertungen sind vor allem deskriptiv; es können keine Aussagen über Ursache und Wirkung getroffen werden.
Weitere Informationen:
https://www.mpib-berlin.mpg.de/1130241/2020-09-16-pm-corona
Quelle: IDW
Laborstudie zu Toxizität: Produkte aus „Bioplastik“ keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Sogenanntes „Bioplastik“ gilt als umweltfreundliche Alternative zu konventionellen, erdölbasierten Kunststoffen. Es kann aus nachwachsenden Rohstoffen gewonnen werden oder kompostierbar sein oder sogar beides. Aber sind diese Biomaterialien weniger bedenklich als herkömmliches Plastik, was ihre chemische Zusammensetzung betrifft? Nein, lautet das Ergebnis der bisher umfassendsten Laborstudie dazu, die heute in der Zeitschrift Environment International erschienen ist.
Wissenschaftler*innen um die Forschungsgruppe PlastX haben dafür Alltagsprodukte aus unterschiedlichen Materialien untersucht: Der Anteil an Produkten aus Biomaterialien, der schädliche Chemikalien enthält, ist genauso hoch wie bei Produkten aus erdölbasiertem Plastik.
Plastikprodukte stehen massiv in der Kritik. Schon ihre Herstellung aus fossilem Brennstoff gilt als wenig nachhaltig, das globale Plastikmüllproblem ist ungelöst, und wegen schädlicher Substanzen wie Bisphenol A geraten Alltagsprodukte aus Plastik immer wieder in die Schlagzeilen. Auf der Suche nach Alternativen werden vermehrt neue Materialien entwickelt, die vorteilhaftere ökologische Eigenschaften aufweisen sollen. Dazu gehören Biokunststoffe. Sie umfassen biobasierte Materialien wie Bio-Polyethylen, die aus nachwachsenden Rohstoffen bestehen, und sogenannte bioabbaubare Materialien, die unter natürlichen Umweltbedingungen abbaubar sind wie Polymilchsäure (PLA). Auch pflanzenbasierte Produkte, die aus natürlichen Polymeren wie Cellulose bestehen, zählen zu den neuen Lösungen. Aber sind diese Biomaterialien, die als nachhaltige Alternative zu konventionellem Plastik vermarktet werden, hinsichtlich ihrer chemischen Zusammensetzung weniger bedenklich?
Drei von vier Produkten enthalten Chemikalien, die in Zelltests negativ auffallen
Dieser Frage ist die Forschungsgruppe PlastX unter der Leitung des ISOE – Institut für sozial-ökologische Forschung gemeinsam mit der Technisch-Naturwissenschaftlichen Universität Norwegen und der Goethe-Universität Frankfurt in einer Laborstudie nachgegangen. Es ist die bisher umfassendste Studie, in der Biokunststoffe und pflanzenbasierte Materialien auf ihre chemische Zusammensetzung und Toxizität hin untersucht und mit herkömmlichen Kunststoffen verglichen wurden. „Um mögliche schädliche Effekte der Chemikalienmischung zu analysieren, haben wir die Substanzen aus den Produkten herausgelöst und in Zelltests eingesetzt“, erklärt Lisa Zimmermann, die Erstautorin der jetzt veröffentlichten Studie. „Die Ergebnisse zeigen, dass die biobasierten bzw. bioabbaubaren Materialien keinesfalls weniger bedenklich sind. Drei Viertel aller untersuchten Produkte enthielten schädliche Chemikalien,“ sagt Zimmermann. „Schädlich heißt in diesem Fall, dass Substanzen toxisch auf Zellen wirken oder hormonähnliche Effekte hervorrufen. Zum gleichen Ergebnis kamen wir bei herkömmlichen Kunststoffen; auch hier enthielten drei von vier getesteten Produkten in diesem Sinne schädliche Chemikalien.“
Chemikalienmix aus bis zu 20.000 Substanzen in Biomaterialen
Unter den 43 untersuchten biobasierten und bioabbaubaren Produkten waren Einweggeschirr, Schokoladenverpackungen, Trinkflaschen, Weinkorken und Zigarettenfilter. Die Untersuchung der Chemikalienmischungen mittels chemischer Analytik zeigte, dass sich in 80 Prozent der Produkte mehr als tausend Substanzen befanden, in einzelnen Produkten sogar bis zu 20.000. „Die pflanzenbasierten Produkte aus Cellulose oder Stärke enthielten dabei die meisten Chemikalien. Auch waren diese am toxischsten, sprich hatten negative Auswirkungen in Zelltests,“ erläutert die Ökotoxikologin.
Vom Rohmaterial zum Endprodukt: Gesamttoxizität steigt
In der Studie wurde einerseits deutlich, dass die untersuchten Endprodukte eine breitere Palette an Substanzen enthielten und eine höhere Toxizität aufwiesen als die Rohmaterialien, aus denen sie hergestellt werden. Der Grund: Beim Prozessieren vom Rohmaterial zum Endprodukt werden neue Substanzen hinzugegeben oder gebildet. Andererseits zeigte jedes biobasierte und bioabbaubare Produkt eine „individuelle“ chemische Zusammensetzung. „Das macht es nahezu unmöglich, allgemeingültige Aussagen zur Sicherheit bestimmter Materialien zu treffen,“ erklärt Co-Autor Martin Wagner von der Universität Trondheim. „Eine lebensmittelechte Tüte aus Bio-Polyethylen kann toxische Substanzen enthalten, ein Weinkorken aus dem gleichen Material muss das nicht zwangsläufig und umgekehrt.“
Chemische Sicherheit von Plastik sollte auf die politische Agenda
Die Studienergebnisse zeigen: „Für Verbraucher*innen ist nicht nachvollziehbar, ob sie im Alltag mit bedenklichem Plastik in Berührung kommen – egal ob konventionell oder „bio“, sagt Carolin Völker, die die Forschungsgruppe PlastX leitet. Die Ökotoxikologin plädiert deshalb dafür, dass die Unbedenklichkeit der verwendeten Substanzen garantiert und somit schon bei der Entwicklung neuer Materialien berücksichtigt wird. „Gerade, weil es einen Trend zu Biomaterialien gibt, gilt es jetzt, die chemische Sicherheit von herkömmlichen Kunststoffen ebenso wie von biobasierten und bioabbaubaren Alternativen auf die politische Agenda zu setzen“, sagt Völker. Da bisher nicht bekannt sei, welche Auswirkungen der Chemikalienmix in den Kunststoffen konkret auf Mensch und Natur hat, seien zudem weitere Studien im Zuge der Risikoforschung zu Plastik und seinen Alternativen dringend notwendig. Zelltests gäben erste Hinweise, reichten aber allein noch nicht aus, um die Gesundheits- und Umweltauswirkungen umfassend zu bestimmen. „Um wirklich ganzheitlich bessere Alternativen zu herkömmlichen Kunststoffen zu entwickeln, müssen neben der chemischen Sicherheit zusätzlich auch ökologische und soziale Aspekte berücksichtigt werden, wie beispielsweise Treibhausgasemissionen, Konkurrenz zur Nahrungsmittelproduktion und Kreislauffähigkeit“. Auch hier sei beim „Bioplastik“ noch viel Luft nach oben, meint Völker.
Wissenschaftliche Ansprechpartner:
Lisa Zimmermann
SÖF-Nachwuchsgruppe PlastX am
ISOE – Institut für sozial-ökologische Forschung
L.Zimmermann@bio.uni-frankfurt.de
Originalpublikation:
Are bioplastics and plant-based materials safer than conventional plastics? In vitro toxicity and chemical composition. Lisa Zimmermann, Andrea Dombrowski, Carolin Völker, Martin Wagner (2020). Environment International, https://doi.org/10.1016/j.envint.2020.106066
Weitere Informationen:
http://www.isoe.de
http://www.plastx.org
Anhang
„Bioplastik“ ist keine unbedenkliche Alternative zu herkömmlichen Kunststoffen
https://idw-online.de/de/attachment80748
Quelle: IDW
Bei schlechtem und zu kurzem Schlaf sollte man immer auf eine berufliche Überlastung schauen
Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Die Corona-Pandemie fordert uns einiges ab – auch eingefahrene Strukturen zu überdenken. In der Arbeitswelt hat sich im letzten halben Jahr schon jede Menge verändert. Dass man hier dran bleiben und langfristig noch flexibler werden muss, findet der Schlafmediziner Prof. Dr. Helmut Frohnhofen. „Benötigen wir neue Arbeitszeitmodelle und müssen wir von bisherigen Modellen wegkommen?“ Er ist in diesem Jahr einer der Organisatoren der Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), die – wie so viele Kongresse derzeit – digital vom 29. bis 31. Oktober stattfindet. Das Kongressmotto lautet „Schlaf und Arbeit“.
Die DGSM ist schon seit vielen Jahren bemüht, ein Bewusstsein für die Gefährlichkeit von unzureichendem Schlaf in der Bevölkerung zu schaffen. Es gibt eine Vielzahl von spannenden Studienerhebungen innerhalb der Gesellschaft zur Rolle beruflicher Faktoren für die individuelle Schlafqualität, zu flexibleren Arbeitszeitmodellen, Anforderungen für eine zumutbare Schichtarbeit, Sekundenschlaf oder Lichtverschmutzung. „Von der Physiologie des Körpers her brauchen wir ausreichend Schlaf, sonst steigt u.a. unsere Fehlerquote und unsere Stimmung wird schlechter. Mit der zunehmenden Digitalisierung und Globalisierung steigen die Erfordernisse an uns und verlangen eine unserer Physiologie entgegenstehende Leistungsfähigkeit – nicht nur auf Arbeit“, warnt Prof. Frohnhofen. Eine klassische Risikokonstellation stelle etwa eine junge Familie mit Kindern dar, wo beide arbeiten, vielleicht noch ein Haus bauen. Da sei unzureichender Schlaf vorprogrammiert durch eine Überbelastung. „Andere Arbeitszeitmodelle, wie etwa von weniger Stunden, die sich auf unterschiedliche Tageszeiten verteilen beispielsweise, könnten hier einen enormen Druck von den Menschen nehmen“, sagt Helmut Frohnhofen.
Bei schlechtem oder zeitlich zu wenig Schlaf sollte man immer auch auf eine berufliche Überlastung schauen. Nicht selten führen Überforderung und Stress in dem Falle zu einer psychischen Überlastung wie z.B. einem Burnout. „Sehr viele Studien belegen, dass zu wenig Schlaf Hauptrisikofaktor für die Entwicklung eines Burnouts ist. Körperliche Erschöpfung und verminderte Leistungsfähigkeit – zwei eindeutige Phänomene bei Burnout – gehen also auch eindeutig auf unzureichenden Schlaf zurück“, erklärt der Schlafmediziner und Psychologe Markus B. Specht. Was kann man tun, um dem vorzubeugen? „Das Wichtigste, was jeder tun kann, ist sich die Frage zu stellen: Hole ich mir im Alltag, also täglich, genug Erholung als Gegenpart zum auftretenden Stress“, so Specht. 15 Minuten würden da fürs erste bereits ausreichen, in denen man sich einer kleinen Auszeit vom Alltag widme. Dies könne eine Entspannungsübung sein, eine Runde um den Block gehen oder eine Sporteinheit. Auf der Presseseite der DGSM-Jahrestagung (siehe unter Links) findet sich ein Beispiel für eine Atemübung.
Bei Menschen, deren Schlaf zu falschen Zeiten stattfindet, gerät die innere Uhr leicht aus dem Takt. Diese steuert, wann biochemische Vorgänge am optimalsten stattfinden sollten – sei es der Schlaf, die Wirksamkeit von Medikamenten oder die Verarbeitung von Nährstoffen. Den Einfluss von Licht und Nahrung auf die innere Uhr untersucht der Neurobiologe Prof. Dr. Henrik Oster. Licht wirkt auf Taktgeber im Gehirn, während die Nahrung Uhren in peripheren Organen wie Leber und Niere stark beeinflussen kann. „Bei Schichtarbeitern wird daraus leicht ein Problem: Sie sehen nachts Licht, was die Zentraluhr beeinflusst, und essen zudem häufig zu eher ungewöhnlichen Zeiten, was dann wiederum die Organuhren verstellt. Dadurch arbeiten die uhrengesteuerten Funktionen in den verschiedenen Organen nicht mehr optimal zusammen. Konsequenz ist u.a. eine Schieflage im Energiestoffwechsel – wir nehmen leichter zu oder entwickeln sogar ernsthafte metabolische Erkrankungen wie Typ-2-Diabetes. Das Risiko dafür ist bei Schichtarbeitern um rund ein Drittel erhöht“, stellt Prof. Oster die Sachlage dar.
Anhand experimenteller Studien an Mäusen konnte seine Studiengruppe die Wirkung von Licht und Nahrung auf spezifische Gewebsrhythmen unterscheiden. Dabei zeigte sich, dass die Funktion einzelner Gewebsuhren oft gar nicht so entscheidend für den Energiestoffwechsel ist. „Die Koordination der Netzwerkrhythmik scheint die entscheidende Stellschraube zu sein. Das ist aus medizinisch-therapeutischer Sicht wiederum sehr interessant, weil es evtl. gar nicht nötig ist, zur Rhythmusstabilisierung die Zentraluhr zu erreichen. Über die Netzwerk-Kommunikation wird diese auch aus der Peripherie indirekt beeinflusst“, fasst Henrik Oster die neuen Erkenntnisse zusammen.
Im Programm der virtuellen DGSM-Jahrestagung gibt es zu den genannten und vielen weiteren Themen Vorträge, die den aktuellen Wissensstand darstellen. Zum Bereich „Schlaf und Arbeit“ sind u.a. die folgenden Symposien zu nennen:
• Symposium 6 (Eulensymposium): „Schlaf, Fatigue und Unfallrisiko: von der Arbeitsumgebung zu biomathematischen Modellen und zurück“ (29.10.2020, 20:30-21:30)
• Hauptsymposium: „Schlaf und Arbeit“ (30.10.2020, 08:45-10:15)
• Symposium 12: „Zeitgeber-Schlichtung: Ein Schlüssel zu gesundem Schlaf und gesunder Arbeit“ (30.10.2020, 10:45-12:15)
• Symposium 23: „Schlaf und Arbeit bei Familien“ (31.10.2020,08:30-10:00)
• Symposium 25: „Auswirkungen des Arbeitens gegen die Uhr“ (31.10.2020, 10:15-11:45)
Das gesamte Programm der Jahrestagung können Sie unter www.dgsm-kongress.de einsehen.
Medienvertreter sind sehr herzlich zur virtuellen Teilnahme am gesamten Kongress eingeladen. Akkreditieren Sie sich dazu bitte auf der Presseseite der Kongress-Homepage (siehe unter Links) oder über den Pressekontakt. Es wird auch eine Online-Pressekonferenz angeboten, zu der Sie in Kürze noch weitere Informationen erhalten. Selbstverständlich können Sie auch individuelle Gesprächstermine mit Referenten, der Tagungsleitung oder dem DGSM-Vorstand vereinbaren. Auch dazu bitten wir, sich an den Pressekontakt zu wenden.
Pressekontakt:
Conventus Congressmanagement
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 03641/3116280
E-Mail: romy.held@conventus.de
Weitere Informationen:
http://www.dgsm.de
http://www.dgsm-kongress.de
https://www.dgsm-kongress.de/allgemeine-informationen/presse/ Hier können Sie sich akkreditieren
https://www.dgsm-kongress.de/allgemeine-informationen/presse/den-atem-spueren/ Atemübung zur Stressbewältigung
Quelle: IDW
Virtuelle Verleihung des UMSICHT-Wissenschaftspreis 2020
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Die Wissenschaft steht in diesem Jahr in besonderem Maße im Fokus der Öffentlichkeit. Umso wichtiger ist es, Informationen fundiert und gleichzeitig verständlich zu kommunizieren. Diesen Dialog zwischen Wissenschaft und Gesellschaft zu fördern, ist Ziel des vom Fraunhofer UMSICHT ausgelobten UMSICHT-Wissenschaftspreis. Die diesjährige Preisverleihung findet am 2. Oktober virtuell statt. Wir laden sie herzlich zu der Veranstaltung ein, um sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.
Bereits zum 11. Mal wird in diesem Jahr der UMSICHT-Wissenschaftspreis in den Kategorien Wissenschaft und Journalismus vergeben. Die Preisträger sind Menschen, die wissenschaftliche Ergebnisse aus den Bereichen Umwelt-, Verfahrens- und Energietechnik – den Kernthemen des Fraunhofer UMSICHT – auf eine herausragende Weise der Gesellschaft zugänglich machen. Aus den zahlreichen Bewerbungen hat die Jury, ausgewählte Wissenschaftler*innen, Unternehmer*innen, Selbständige, Journalisten sowie PR-Fachleute, die besten Beiträge ausgewählt und in einer Shortlist veröffentlich.
Verständliche Kommunikation von Wissenschaft im UMSICHT-Podcast
Doch worum geht es bei den eingereichten Beiträgen? Was verbirgt sich hinter Titeln wie »Cyberfossiler Kapitalismus« oder »Stoffe mit Helfersyndrom«? Wann ist z. B. Wasserstoff konkurrenzfähig, oder wie können wir mehr Elektromobile auf die Straße bringen? Im neuen UMSICHT-Podcast kommen die potenziellen Preisträger*innen zu Wort und informieren kompakt und verständlich über ihre Arbeiten. Eine gute Möglichkeit also, sich über aktuelle Themen und Trends in der Wissenschaft und Wissenschaftskommunikation zu informieren.
Bekanntgabe der Preisträger*innen
Im Rahmen der Preisverleihung am 2. Oktober, von 13 bis 13.30 Uhr, werden die Gewinner*innen des diesjährigen UMSICHT-Wissenschaftspreis bekanntgegeben. Aufgrund der aktuellen Situation findet die Veranstaltung online statt. »Auch, wenn wir den persönlichen Kontakt sehr schätzen und die vergangenen Preisverleihungen immer auch ein Ort für Netzwerken und direkten Informationsaustausch waren, freuen wir uns, mit dem Online-Format eine gute Alternative bieten zu können«, sagt Prof. Görge Deerberg, Geschäftsführer des UMSICHT-Fördervereins. Er betont zudem, dass dieser Rahmen auch Personen die Teilnahme ermöglicht, die sonst nicht dabei sein könnten.
Teilnahme
Die Teilnahme an der virtuellen Preisverleihung ist ohne vorherige Anmeldung möglich. Der Link zur Veranstaltung wird im Vorfeld auf der Internetseite des UMSICHT-Wissenschaftspreis 2020 bekanntgegeben.
Partner, Spender und Sponsoren:
AGR mBH
Energieversorgung Oberhausen AG
HATECHNO – Hoffmann angewandte Technologien GmbH
Loick Bioenergie GmbH
Meier-Ebbers – Architekten und Ingenieure
ML Power Tech GmbH
PLANiT-DIGITAL
Sparkasse Oberhausen
Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Internetseite des UMSICHT-Wissenschaftspreis 2020
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2020/umsicht-wissens…
Pressemitteilung
https://www.umsicht.fraunhofer.de/de/presse-medien/podcasts/umsicht-wissenschaft…
Podcast zum UMSICHT-Wissenschaftspreis 2020
Quelle: IDW
Das erste ägyptische Referenzgenom des Menschen
Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck
Multiethnische Unterschiede: Genetische Risikofaktoren lassen sich nicht einfach von einer Population auf eine andere übertragen
Alle Menschen sind gleich, und doch ist jeder Mensch einzigartig. Das liegt zum Teil an Erziehung und Umwelt, aber größtenteils auch an der Herkunft unserer Gene, die in der DNA, dem Bauplan des Lebens, kodiert sind. Die genetische Ausstattung des Menschen unterscheidet sich weltweit und bestimmt nicht nur das Aussehen, sondern auch die Anfälligkeit für Krankheiten und das Ansprechen auf Medikamente. Um diese Unterschiede zur Entwicklung einer individuellen Präzisionsmedizin zu untersuchen wurden in den letzten Jahren verschiedene Projekte zur Populationsgenetik in Europa, Nordamerika, Asien und dem südlichen Afrika ins Leben gerufen. Eine sogenannte Genomreferenz für die rund 250 Millionen in Nordafrika fehlte bisher.
Um diesen weißen Fleck auf der Weltkarte der Humangenetik zu füllen, hat ein deutsch-ägyptisches Team unter der Leitung von Saleh Ibrahim und Hauke Busch von der Universität zu Lübeck zusammen mit Mohamed Salama von der American University in Kairo und Universität Mansoura das erste ägyptisch-nordafrikanische Referenzgenom erstellt. Dazu wurden mittels neuester Alignmentmethoden mehr als 270 Milliarden DNA-Basen zu einem de novo Genom eines neuzeitlichen Ägypters zusammengesetzt. Dieses Referenzgenom haben die Wissenschaftler dann um einem umfassenden Katalog der genetischen Variation von mehr als 100 Ägyptern ergänzt.
Weißer Fleck auf der Weltkarte der Humangenetik gefüllt
Die Ergebnisse des deutsch-ägyptischen Teams deuten darauf hin, dass genetische Risikofaktoren, die bisher in Genomen europäischer Herkunft gefunden wurden, sich nicht einfach auf die ägyptische Population übertragen lassen. Die Unterschiede in der Häufigkeit und der Kombination genetischer Varianten unterstreichen die Notwendigkeit multiethnische Genomreferenzen zu erstellen.
„Dieses Projekt hat bereits jetzt eine Fülle von Informationen geliefert“, sagt die leitende Bioinformatikerin der Studie, Dr. Inken Wohlers. „Wir können nicht nur die modernen Ägypter als genetische Vermittler zwischen Europa, Asien und Afrika bestätigen, sondern auch eine gemeinsame Abstammung mit Menschen vom Mittelmeer bis zum Schwarzen Meer bis hin zum Viktoriasee in Zentralafrika. Die Studie wird die Diagnose seltener Krankheiten und die genetische Risikoabschätzung von Volkskrankheiten, insbesondere für Ägypter und Nordafrikaner, verbessern. Darüber hinaus können unsere Erfahrungen mit den neuesten Sequenziertechnologien und Algorithmen wieder in laufende, internationale Sequenzierungsprojekte in der ganzen Welt einfließen“.
Die Ergebnisse dieser ersten Studie ihrer Art können sofort genutzt werden, um die persönliche Genomik und die Genetik seltener und häufiger Krankheiten eingehend zu untersuchen. Sie wird den Weg zu einem besseren Verständnis der ägyptischen, afrikanischen und globalen Genomlandschaft für die Präzisionsmedizin weiter ebnen.
Wissenschaftliche Ansprechpartner:
Prof. Saleh Ibrahim: saleh.ibrahim@uni-luebeck.de
Prof. Hauke Busch: hauke.busch@uni-luebeck.de
Prof. Mohamed Salama: mohamed-salama@aucegypt.edu
Originalpublikation:
An integrated personal and population-based Egyptian genome reference. Inken Wohlers, Axel Künstner, Matthias Munz, Michael Olbrich, Anke Fähnrich, Verónica Calonga-Solís, Caixia Ma, Misa Hirose, Shaaban El-Mosallamy, Mohamed Salama, Hauke Busch, Saleh Ibrahim. Nature Communications. DOI https://doi.org/10.1038/s41467-020-17964-1
Weitere Informationen:
https://doi.org/10.1038/s41467-020-17964-1
Quelle: IDW
Indischer Monsun ist nach Vulkanausbrüchen besser vorhersagbar
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Große Vulkanausbrüche können dazu beitragen, die Vorhersagbarkeit des indischen Monsun zu verbessern – die Regenzeit ist für die Landwirtschaft und damit für die Ernährung von einer Milliarde Menschen von entscheidender Bedeutung. Was paradox erscheint, weil Vulkanausbrüche so unregelmäßig sind, ist tatsächlich auf eine stärkere Wechselwirkung zwischen dem Monsun über weiten Teilen Südostasiens und dem El-Niño-Phänomen immer nach einer Eruption zurückzuführen. Dies konnte jetzt ein indisch-deutsches Forscherteam durch die Kombination von Daten aus meteorologischen Beobachtungen, Computersimulationen und geologischen Archiven wie Korallen und Eiskernen aus vergangenen Jahrtausenden zeigen.
Eine Synchronisation des Monsuns mit dem stärksten Typus der natürlichen Klimavariabilität, dem El Niño, macht es leichter, die Stärke der saisonalen Niederschläge auf dem indischen Subkontinent vorherzusagen.
„Die winzigen Partikel und Gase, die ein großer Vulkan in die Luft schleudert, gelangen in die Stratosphäre und halten sich dort für einige Jahre. Die vulkanischen Teilchen in der Stratosphäre hindern einen Teil der Sonnenstrahlen daran, die Erdoberfläche zu erreichen, und dadurch erhöht sich die Wahrscheinlichkeit eines El-Niño-Ereignisses im nächsten Jahr“, sagt R. Krishnan vom Indischen Institut für Tropenmeteorologie. „Weniger Sonnenschein bedeutet weniger Wärme und damit eine Veränderung der Temperaturunterschiede zwischen der Nord- und Südhalbkugel, was sich wiederum auf die großen Luftströme und die Regenfälle auswirkt. Die Datenanalyse zeigt nun, dass große Vulkanausbrüche das gleichzeitige Auftreten warmer El-Niño-Ereignisse über dem Pazifik und eine Verminderung des indischen Monsuns in einem Jahr eher fördern – oder umgekehrt kühle La-Niña-Ereignisse über dem Pazifik in Verbindung mit einem Übermaß an Monsunregen in Indien.“
Der indische Monsun hängt stark von der El-Niño / Südlichen Oszillation ab (ENSO) – einem Klimaphänomen im tropischen Pazifik, dessen spanischer Name „der Junge“ bedeutet und sich auf das Christkind bezieht, weil bei seinem Auftreten das Wasser in der Nähe von Südamerika oft in der Nähe von Weihnachten am wärmsten ist. „Die Synchronisierung zwischen dem tropischen Pazifik und dem indischen Monsun verändert sich im Laufe der Zeit, wobei die vom Menschen verursachte globale Erwärmung einer der Faktoren ist, der die exakte Vorhersage des Monsuns verschlechtert“, sagt Norbert Marwan vom Potsdam-Institut für Klimafolgenforschung (PIK). „Dies bestätigt eine Hypothese, die unsere Kollegen Maraun und Kurths vor 15 Jahren aufgestellt haben. Die neuen Erkenntnisse zeigen jetzt einen neuen, zusätzlichen Weg für Monsunvorhersagen auf, die für die landwirtschaftliche Planung in Indien von entscheidender Bedeutung sind.“ Frühere Forschungsarbeiten des PIK verbesserten bereits die Monsunvorhersage für Jahre ohne Vulkanausbrüche.
Die Ergebnisse könnten auch zur Weiterentwicklung von Klimamodellen beitragen und auch bei der Einschätzung der regionalen Auswirkungen von ‚Geo-Engineering‘-Experimenten helfen. Um die globale Erwärmung durch vom Menschen verursachte Treibhausgase zu reduzieren, denken manche Wissenschaftler über eine Verringerung der Sonnen-Einstrahlung nach. Dabei würde im Grunde wie bei einem Vulkanausbruch Staub hoch oben in die Atmosphäre eingebracht, um zu einem gewissen Maße die Erde von der Sonnen abzuschirmen. Das künstliche Blockieren der Sonneneinstrahlung könnte jedoch eine Reihe von Prozessen in der Atmosphäre gefährlich stören. Es ist daher wichtig, die Mechanismen zu verstehen.
Artikel: M. Singh, R. Krishnan, B. Goswami, A.D. Choudhury, P. Swapna, R. Vellore, A.G. Prajeesh, N. Sandeep, C. Venkataraman, R.V. Donner, N. Marwan, J. Kurths (2020) Fingerprint of Volcanic Forcing on the ENSO-Indian Monsoon Coupling. Science Advances [DOI:10.1126/sciadv.aba8164]
Weblink zum Artikel, sobald dieser veröffentlicht ist: https://advances.sciencemag.org/lookup/doi/10.1126/sciadv.aba8164
Weblink zu den Monsun-Internetseiten des PIK: https://www.pik-potsdam.de/en/output/infodesk/forecasting-indian-monsoon
Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de
Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.
Quelle: IDW
UFZ-Modelle im Einsatz gegen die Afrikanische Schweinepest
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Seit 10. September ist die ASP in Deutschland angekommen. Durch die konsequente Umsetzung der EU-Notfallstrategie lässt sie sich am ehesten stoppen, sagen UFZ-Forscher um Hans-Hermann Thulke. Ihre Modellierungen fließen ein in Bekämpfungspläne und eine mögliche Exit-Strategie.
Die Afrikanische Schweinepest breitet sich seit 2007 von Georgien Richtung Westen aus und ist seit 10. September in Deutschland angekommen. Vor dem Hintergrund möglicher Milliardenschäden für die Landwirtschaft soll mit konsequentem Notfallmanagement verhindert werden, dass sich der tödliche Virus weiter ausbreitet und auf Hausschweine übertragen wird. Die EU-Kommission setzt hierfür auch auf Ergebnisse so genannter individuenbasierter Modelle, die am Helmholtz-Zentrum für Umweltforschung (UFZ) entwickelt werden. Seit dem Jahr 2010 beschäftigt sich eine Modellierergruppe um Dr. Hans-Hermann Thulke im Auftrag der Europäischen Behörde für Lebensmittelsicherheit (EFSA) damit, die Wirksamkeit verschiedener Managementmaßnahmen zu prüfen, um eine Ausbreitung der Afrikanischen Schweinepest zu verhindern. Ihre Ergebnisse sind längst eingegangen in die EU-weiten Vorgaben und nationalen Verordnungen. Und auch das Handlungsprotokoll, das derzeit in Brandenburg umgesetzt wird und das auch andere Bundesländer wie etwa Sachsen realisieren wollen, greift diese Erkenntnisse auf. Ganz aktuell befassen sich die Wissenschaftler mit der Frage, wann ein von der Afrikanischen Schweinepest betroffenes Gebiet wieder als seuchenfrei einzustufen ist.
Während die Afrikanische Schweinepest Deutschland erreicht hat und die Behörden in Brandenburg derzeit dabei sind, Notfallmaßnahmen umzusetzen, forscht unser Team bereits mit Hochdruck an einer Exit-Strategie. Im Auftrag der EFSA gehen wir der Frage nach, anhand welcher Kriterien man sicher festlegen kann, ab wann eine Region, in der eine infizierte Wildschweinpopulation festgestellt wurde, wieder als seuchenfrei einzustufen ist. Das ist insbesondere für landwirtschaftliche Betriebe in betroffenen Gebieten von großer wirtschaftlicher Bedeutung, um möglichst schnell wieder Zugang zum internationalen Schweinefleischmarkt zu erlangen.
Doch wie stellt man sicher fest, dass es wirklich keine aktive Infektion unter den Wildschweinen in einem Gebiet gibt? Wissenschaftlich gesicherte Antworten darauf zu geben, ist nicht so einfach, wie es scheint. Zum einen wissen wir, dass diagnostische Tests immer nur eine Stichprobe aus der tatsächlichen Situation repräsentieren. Zum anderen sehen wir, dass durch die behördliche Umsetzung der Maßnahmen die Krankheit mehr und mehr verschwindet und schließlich sämtliche Testergebnisse negativ sind, so wie es derzeit in der Tschechischen Republik und in Belgien der Fall ist. Darf man in dieser Situation sagen, eine Region oder ein EU-Mitgliedsstaat ist frei von Afrikanischer Schweinepest? Und dürfen diese Regionen oder Staaten wieder am Welthandel teilnehmen, so wie es die Weltorganisation für Tiergesundheit vorgibt? Unsere spontane Antwort darauf wäre Jein.
Wenn man lange genug negative Testergebnisse unter Wildschweinen hat, steigt das Sicherheitsgefühl, dass es tatsächlich keine erkrankten Exemplare mehr gibt. Dieses Gefühl lässt sich mathematisch quantifizieren: Durch hundertfache Simulationen eines Ausbruchs der Afrikanischen Schweinepest auf dem virtuellen Experimentierfeld unseres ökologischen Modells können wir nachvollziehen, wie sich die Zahl der erkrankten Wildschweine im Verlauf der Bekämpfungsmaßnahmen verändert und ab wann Tests an Tieren in einem Gebiet tatsächlich nur noch negative Ergebnisse liefern müssen – das Gebiet also frei von der Krankheit ist. Wie wichtig das ist, zeigt der Fund eines infizierten Wildschweins in Estland, nachdem dort über Monate nur negative Testergebnisse festgestellt wurden. Bedeutet dieser Fund nun, dass erneut alle behördlichen Restriktions-Maßnahmen anlaufen müssen oder kann man analysieren, welche Rolle das Tier hatte und damit eventuell die Maßnahmen einschränken? Wie ist es möglich, dass nach einer so langen Zeit auf einmal ein Tier positiv getestet wird? Antworten auf diese Fragen wollen wir mit der Entwicklung der sogenannten Exit-Strategie für die Afrikanische Schweinepest geben. Dafür nutzen wir unser Modell, das verschiedene Szenarien in zeitliche Verlaufskurven der Ausbreitung übersetzt. Sie werden zeigen, wie lange die Krankheit noch zirkuliert und wann sie verschwunden ist.
Frühere Erkenntnisse aus ähnlichen Simulationen sind bereits als wichtige Komponenten in die EU-Notfallstrategie zur Bekämpfung der Afrikanischen Schweinepest aufgenommen worden, die die EFSA in den letzten Jahren erarbeitet hatte. Dazu gehören unter anderem Vorgaben zur Ausdehnung der drei Schutzzonen (Kernzone, Gefährdetes Gebiet, Pufferzone), zur benötigten jagdlichen Intensität oder zur Anzahl der zu beseitigenden Kadaver. Zusammen ergibt sich die EU-Notfallstrategie, mit der die Ausbreitung der Seuche am ehesten zu stoppen ist. Dass das tatsächlich möglich ist, zeigen die Erfahrungen in der Tschechischen Republik und in Belgien. Im Gegenzug demonstriert der aktuelle Stand in Westpolen, dass es unumgänglich ist, Hausschweinebetriebe besonders strikt zu schützen und vor allem Wildschweine im direkten Umfeld des Eintrags konsequent zu reduzieren.
In Bezug auf die Situation in Deutschland zeigten unsere Analysen aber auch, dass sich die Krankheit gerade jetzt in den Monaten August und September mit mehr als 4 km/Monat deutlich schneller ausbreitet als im Frühling und Frühsommer mit weniger als 2 km/Monat. Ein möglicher Grund ist, dass die Wildscheinrotten ihre Bewegungsmuster an die durch agrarische Nutzung veränderte Landschaft anpassen. Es ist also, trotz aller Probleme, aus Sicht der Seuchenbekämpfung durchaus sinnvoll, wenn die Behörden in Brandenburg im gesamten Gefährdeten Gebiet ein Ernteverbot aussprechen. In diesem Sinne heißt es also, die jetzt angeordneten Maßnahmen möglichst strikt umsetzen, um die Afrikanische Schweinepest zeitnah zu bezwingen.
Hintergrundinformationen:
Bundesgesetzblatt Schweinepestverordnung, 8. Juli 2020:
https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&start=/…
Wissenschaftliche Publikationen:
Epidemiological analyses of African swine fever in the European Union (November 2017 until November 2018) European Food Safety Authority (EFSA), Anette Boklund, Brigitte Cay, Klaus Depner, Zsolt Fӧldi, Vittorio Guberti, Marius Masiulis, Aleksandra Miteva, Simon More, Edvins Olsevskis, Petr Satran, Mihaela Spiridon, Karl Stahl, Hans-Hermann Thulke, Arvo Viltrop, Grzegorz Wozniakowski, Alessandro Broglia, Jose Cortinas Abrahantes, Sofie Dhollander, Andrey Gogin, Frank Verdonck, Laura Amato, Alexandra Papanikolaou and Christian Gortazar (2018). http://dx.doi.org/10.2903/j.efsa.2018.5494
Understanding ASF spread and emergency control concepts in wild boar populations using individual‐based modelling and spatio‐temporal surveillance data. Lange M., Guberti V., Thulke H.‐H. (2018). http://dx.doi.org/10.2903/sp.efsa.2018.EN-1521
Elucidating transmission parameters of African swine fever through wild boar carcasses by combining spatio-temporal notification data and agent-based modelling. Lange M., Thulke H.-H. (2017). http://dx.doi.org/10.1007/s00477-016-1358-8
Simulation-based investigation of ASF spread and control in wild life without consideration of human non-compliance to biosecurity. Thulke H.-H., Lange M. (2017). http://dx.doi.org/10.2903/sp.efsa.2017.EN-1312
Lange M., Thulke H.-H. (2015). Mobile barriers as emergency measure to control outbreaks of African swine fever in wild boar. Proceedings SVEPM Ghent, 122-132.
Analysis of spatio-temporal patterns of African swine fever cases in Russian wild boar does not reveal an endemic situation. Lange M., Siemen H., Blome S., Thulke H.-H. (2014). https://doi.org/10.1016/j.prevetmed.2014.08.012
Wissenschaftliche Ansprechpartner:
Dr. Hans-Hermann Thulke
UFZ-Department Ökologische Systemanalyse
hans.thulke@ufz.de
Dr. Martin Lange
UFZ-Department Ökologische Systemanalyse
martin.lange@ufz.de
Quelle: IDW
Sensormatte beugt Haltungsschäden vor
Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben in Zusammenarbeit mit der isoloc Schwingungstechnik GmbH eine Sensormatte für Steharbeitsplätze entwickelt. Sie erfasst die Fußposition eines Mitarbeiters und erkennt Gewichtsverlagerungen. Damit könnte sie helfen Haltungsschäden vorzubeugen.
Sensormatten kommen in Fabrikhallen bisher vor allem dort zum Einsatz, wo Mensch und Roboter eng zusammenarbeiten. Sie sind dort im Einzugsbereich von Robotern ausgelegt und dienen der Arbeitssicherheit: Sobald ihre Sensoren einen Mitarbeiter registrieren, schalten sie den Roboter ab und verhindern so folgenschwere Arbeitsunfälle.
Dabei könnten die Sensormatten auch an Steharbeitsplätzen ohne Roboter Gutes bewirken. Sie könnten dabei helfen, das ergonomische Arbeiten zu verbessern, Haltungsschäden und daraus resultierende Arbeitsausfälle vorzubeugen. Denn langes Stehen, bei dem immer dasselbe Bein mehr belastet wird als das andere oder das Gewicht ungleichmäßig auf den Füßen verteilt ist, kann auf lange Sicht zu Beckenfehlstellungen, verspannten und schmerzenden Muskeln im Bereich der Wirbelsäule aber auch der Beine, des Nackens und der Schulter führen. Bandscheibenschäden und eine erhöhte Belastung der Gelenke durch veränderte, ungünstige Bewegungsabläufe können die Folge sein.
Sensoren messen durch die Schuhsohle hindurch
Raphael Neuhaus und Julian Stübing von der Abteilung Funktionale Materialien am Fraunhofer IPA haben nun zusammen mit isoloc eine Sensormatte für Steharbeitsplätze entwickelt, deren kapazitive Sensorik die Fußposition eines Mitarbeiters in Echtzeit erfasst und Gewichtsverlagerungen erkennt. »Damit können sie selbst kontrollieren, ob sie eine gesunde Körperhaltung einnehmen und bei Bedarf sofort korrigieren«, sagt Entwicklungsingenieur Stübing.
48 Sensoren pro Fuß haben die beiden Wissenschaftler schachbrettartig in ihre Steharbeitsplatz-Matte integriert. »Die Messungen erfolgen berührungslos durch die Schuhsohle hindurch«, erläutert Stübing. »Wenn ein Mitarbeiter also Sicherheitsschuhe mit starren Sohlen trägt, beeinträchtigt das das Messergebnis nicht. Es werden nur die Signale erfasst, die von der Fußsohle ausgehen.«
Über ein Bus-System und einen USB-Anschluss ist die Matte mit dem Computer des Mitarbeiters verbunden. Über ein Schachbrettmuster, bei dem jedes der 48 Felder für einen bestimmten Sensor steht, zeigt eine Software dem Mitarbeiter echtzeitnah an, wie stark welche Bereiche seiner Füße gerade belastet sind. Rot steht dabei für hohen, gelb für mittleren und grün für geringen Druck.
Ampelsystem zur Selbstkontrolle
»Im Moment liefert die Matte lediglich die Messdaten und veranschaulicht diese über das Benutzerinterface«, so Stübing, »eine Auswertung findet bisher nicht statt.« Das könnte sich aber bald schon ändern. Denkbar wäre zum Beispiel ein Ampelsystem, das anzeigt, ob ein Mitarbeiter gut steht (grün), ob es Verbesserungspotenzial gibt (gelb) oder er sein Gewicht sofort verlagern muss (rot), weil ein Bein zu lange zu stark belastet wurde.
Außerdem planen Stübing und Neuhaus, die Anzahl der Sensoren in der Matte zu erhöhen, um die Bildgebung zu verbessern. Ob und wie gut das funktioniert und ob eine Sensormatte mit derart hoher Auflösung überhaupt zu finanzieren wäre – das sind Fragen, die die beiden Wissenschaftler in einem weiteren Forschungsprojekt klären wollen.
Wissenschaftliche Ansprechpartner:
Raphael Neuhaus | Telefon: +49 711 970-3627 | raphael.neuhaus@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de
Julian Stübing | Telefon: +49 711 970-3667 | julian.stuebing@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de
Quelle: IDW
EU-Förderung: 9 Millionen Euro für Meeresforschung
Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Forscherinnen und Forscher aus Tiermedizin, Bioakustik, Populationsbiologie, Schiffsbau und Ingenieurwesen suchen gemeinsam nach Lösungen, um Schiffslärm zu reduzieren und so Meerestiere zu schützen.
Die Schifffahrt gehört zu den großen Lärmquellen im Meer. Je nach Situation können sich die Geräusche im Meer über sehr große Distanzen ausbreiten und im Meer lebende Tiere stören und schädigen. Wale und Robben, viele Fische und einige Wirbellose, wie beispielsweise Tintenfische, nutzen Schall, um zu kommunizieren, zu navigieren oder Nahrung zu suchen. Die Geräuschkulisse im Meer stört sie dabei und kann ihre für sie überlebenswichtigen Hörorgane dauerhaft schädigen. In dem Projekt „SATURN – Solutions At Underwater Radiated Noise“ wird ein internationales Forscherteam aus verschiedenen Fachdisziplinen gemeinsam offene Fragen zu den Auswirkungen von Unterwasserlärm auf Tiere untersuchen und nach Lösungen suchen, um Schiffslärm zu reduzieren. Das Projekt startet im Februar 2021. Die Europäische Kommission fördert das Projekt im Förderprogramm Horizon 2020 über vier Jahre mit 9 Millionen Euro. Eine Million Euro gehen an das Institut für Terrestrische und Aquatische Wildtierforschung (ITAW) der Stiftung Tierärztliche Hochschule Hannover (TiHo).
Zwar gibt es bereits Studien, die mit unterschiedlichen Ansätzen die Störungseffekte durch Unterwasserlärm belegen, und auch gibt es bereits Vorschläge, wie die Schifffahrt leiser und damit tierfreundlicher gestaltet werden kann, dennoch gibt es viele offene Fragen und keine zielgerichteten Lösungsansätze. Das SATURN-Projekt möchte das ändern und führt erstmals führende europäische Expertinnen und Experten aus den Bereichen Bioakustik, Tiermedizin und Populationsbiologie sowie Schiffsbau und Ingenieurwesen zusammen, um den durch die Schifffahrt verursachten Unterwasserlärm tiergerecht zu verringern. „Wir gehen das komplexe globale Problem des unter Wasser abgestrahlten Lärms auf eine wirklich umfassende, transdisziplinäre Weise an und hoffen, dass die Erkenntnisse und Innovationen die wir in diesem Projekt generieren, zu intelligenten praktischen Lösungen führen werden“, sagt ITAW-Leiterin Prof. Prof. h. c. Dr. Ursula Siebert.
Die Schlüsselfragen des Projektes sind:
Welche Geräusche sind für aquatische Arten am schädlichsten, wie werden sie erzeugt und wie werden sie verbreitet?
Welche kurzfristigen und welche kumulativen langfristigen negativen Auswirkungen hat der Lärm von Schiffen und Booten auf aquatische Arten in Flüssen und im Meer?
Welche Messungen sind am geeignetsten und wie können die negativen Auswirkungen des Schiffslärms bei aktuellen und zukünftigen Schiffen reduziert werden?
Siebert übernimmt in dem Projekt die Leitung des biologischen Arbeitsbereiches: „Wir werden den Einfluss von Unterwasserschall auf das Verhalten, die Gesundheit und den Energiehaushalt von Wasserorganismen untersuchen. Da es nicht möglich ist, alle Auswirkungen auf alle aquatischen Arten in einem Projekt zu untersuchen, werden wir eine Auswahl treffen, um besser zu verstehen, was genau Schiffsgeräusche bei wirbellosen Tieren, Fischen und Meeressäugern, also den drei großen taxonomischen Gruppen im aquatischen Ökosystem, bewirken.“
Ein weiterer wichtiger Aspekt im SATURN-Projekt sind Öffentlichkeitsarbeit und Wissenstransfer. Dr. Joseph Schnitzler koordiniert das Projekt im ITAW und war daran beteiligt, mit den Projektpartnern das SATURN-Konzept zu erarbeiten. Er erklärt: „Hier setzten wir auf ein bewährtes System, das wir schon in vorherigen Projekten erprobt haben. In Kooperation mit Naturinformationszentren, Museen und Schulen und mit öffentlichen Veranstaltungen möchten wir auf unterhaltsame und kreative Weise über die Probleme und mögliche Lösungen informieren.“ Ziel der Forschenden ist es, gebrauchsfertige Materialien wie Kurzfilme und Forscherboxen über die Forschung von SATURN und eine kompakte interaktive Multimedia-Anwendung mit zusammenfassenden Übersichtserklärungen und attraktiven Abbildungen zur Verfügung zu stellen. Die Projektergebnisse sollen kommuniziert werden, um das Bewusstsein für die Probleme, die durch Unterwasserlärm entstehen, zu schärfen.
In der Antragsphase wurde das ITAW mit einer Förderung aus dem Europa-Programm des Niedersächsischen Ministeriums für Wissenschaft und Kultur unterstützt. Die Mittel stammen aus dem Niedersächsischen Vorab der VolkswagenStiftung. Siebert sagt: „Die Antragsphase war sehr aufwändig. Dank der Förderung war es möglich, dass sich ein Mitarbeiter auf die Vorbereitung des Antrages konzentrieren und die Projekttreffen mit unseren zahlreichen internationalen Partnern organisieren konnte. Das war unter anderem ausschlaggebend für den Erfolg des Antrages!“
Wissenschaftliche Ansprechpartner:
Dr. Joseph Schnitzler
Stiftung Tierärztliche Hochschule Hannover
Institut für Terrestrische und Aquatische Wildtierforschung
Tel.: +49 511 856-8155
joseph.schnitzler@tiho-hannover.de
Quelle: IDW
Bildung alleine reicht nicht: Der Naturschutzpolitik gelingt es zu selten, das Verhalten der Menschen zu ändern
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Es ist ein bekanntes Problem: Zu selten führt das, was Politikerinnen und Politiker an Initiativen, Empfehlungen oder Strategien auf dem Gebiet des Naturschutzes verkünden, dazu, dass die Menschen ihr Alltagsverhalten wirklich ändern. Ein deutsch-israelisches Forscherteam unter Führung des Helmholtz-Zentrums für Umweltforschung (UFZ) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) hat sich mit den Gründen befasst. Demnach nutzen die von der Politik vorgeschlagenen Maßnahmen die Bandbreite der möglichen Verhaltenseingriffe nicht genügend aus und benennen zu selten die eigentlichen Zielgruppen, schreiben sie im Fachmagazin Conservation Biology.
Der Schutz bestäubender Insekten ist in der internationalen Naturschutzpolitik ein großes Thema. Aufgerüttelt durch wissenschaftliche Erkenntnisse zu hohen Bestandseinbrüchen bei Insektengruppen wie Bienen oder Schmetterlingen, die sich beispielsweise auf die Bestäubungsleistungen in der Landwirtschaft auswirken, stellt Europa den Insektenschutz in der Umweltpolitik nach vorn. Zahlreiche Regierungen in Europa haben nationale Strategien vorgelegt, wie sie den Erhalt der Bestäuber sichern wollen. Ein Forscherteam des UFZ, des iDiv und des Technion – Israel Institute of Technology analysierte acht dieser nationalen Strategiepapiere zum Schutz der Bestäuber im Hinblick auf Verhaltensänderungen in der Bevölkerung. Das Ergebnis: „Naturschutzpolitiken zum Erhalt der Bestäuber sind in dieser Hinsicht oft zu ineffektiv und ändern nur wenig am Verhalten der Menschen“, sagt Erstautorin und Umweltpsychologin Dr. Melissa Marselle, die am UFZ und am iDiv zum Einfluss der Biodiversität auf die Gesundheit forscht.
Rund 610 Einzelmaßnahmen entschlüsselten die Wissenschaftler*innen in den Strategiepapieren. Anhand des Analysemodells „Behaviour Change Wheel“, das aus der Gesundheitspsychologie stammt und 19 unterschiedliche Verhaltensmodelle integriert, ordneten sie diesen Modellen neun sogenannte Interventionsfunktionen zu – also Maßnahmen, wie sich das Verhalten der Menschen ändern könnte. Demnach lassen sich mit 23 Prozent die meisten der insgesamt rund 790 Verhaltensmaßnahmen dem Bereich Bildung zuordnen, danach folgen mit 19 Prozent Strukturmaßnahmen wie das Pflanzen von Hecken, die Aussaat von Blühstreifen auf Äckern oder das Anlegen von Grünanlagen in der Stadt. Rund vier Prozent der Maßnahmen lassen sich unter dem Stichwort Modelling zusammenfassen, also zum Beispiel dem Einsatz von Best-Practice-Beispielen von vorbildlich arbeitenden Landwirten. Danach folgen Anreizsysteme etwa für Landwirte oder Kommunen (drei Prozent) und gesetzliche Regelungen (zwei Prozent). Stärkere Eingriffe wie zum Beispiel zusätzliche Steuern für den Einsatz von Pestiziden tauchten in den Politikpapieren nicht auf.
„Das zeigt, dass sich die nationalen Biodiversitätsstrategien vornehmlich auf Bildungs- und Strukturmaßnahmen konzentrieren und andere wirksame Instrumente vernachlässigen“, sagt Melissa Marselle. „Bildungsmaßnahmen, mit denen Wissen vermittelt und Verständnis geweckt werden soll, sind wichtig. Aber auf Bildung alleine zu setzen, ist nicht sehr effektiv, wenn man wirklich das Umweltverhalten ändern möchte. Zielführender wäre es, sie mit einer breiten Palette anderer Maßnahmen zu koppeln.“ Lieferketten und Erzeugerprinzipien auf Etiketten deutlich zu machen, kann beispielsweise viele Menschen zum Kauf eines ökologischen oder bestäuberfreundlichen Produkts animieren – auch zu einem höheren Preis. Wirksam wären auch stärkere finanzielle Anreize für Landwirte, die nachhaltig wirtschaften; ebenso könnte die Zertifizierung nachhaltiger Gebäude an die Verwendung bestäuberfreundlicher Pflanzen als Blumenrabatten gekoppelt werden. Auch Steuern und Mehrkosten für Verbraucher sorgen für rasche Verhaltensänderungen: So führte in Großbritannien zum Beispiel eine Zwangsabgabe beim Kauf von Plastiktaschen zu einem Rückgang ihrer Verwendung.
Als ein weiteres Manko der Strategiepapiere wurde identifiziert, dass bei 41 Prozent der Einzelmaßnahmen die Zielgruppen nicht benannt werden. Die Ziele sind oft sehr gut beschrieben, drehen sich aber zumeist um die Frage, wie sich die Umwelt durch bestimmte Aktionen verändert. Es wird aber oft nicht näher definiert, an wen sich die Aktionen richten und wer sie umsetzen soll: die Öffentlichkeit, die Landwirte oder die lokalen Behörden? Effektiver könnte es sein, man würde sich mithilfe von Verhaltensforschern erst mal überlegen, was die verschiedenen Akteure tun können, und man sich dann darauf aufbauend Maßnahmen überlegt, wie bestimmte Ziele erreicht werden können.
Gelegenheiten, Naturschutzstrategien besser zu schreiben, gibt es derzeit einige. So muss beispielsweise die EU-Biodiversitätsstrategie 2030, die die EU-Kommission im Mai 2020 verabschiedete, in nationale Politiken umgesetzt werden. Zudem werden auf der nächsten Konferenz der Convention of Biological Diversity (CBD) im kommenden Jahr in China die globalen Ziele zum Schutz der biologischen Vielfalt für die folgenden Jahre verhandelt. „Vor diesem Hintergrund ist es von entscheidender Bedeutung zu verstehen, wie Politiken formuliert werden müssen, um zu einer wirksamen Umsetzung internationaler Naturschutzpolitik zu kommen“, sagt Prof. Aletta Bonn, die an UFZ und iDiv das Department Ökosystemleistungen leitet und sich mit dem Thema Interaktion von Mensch und Natur befasst.
Wissenschaftliche Ansprechpartner:
Dr. Melissa Marselle
UFZ-Department Ökosystemleistungen an UFZ und iDiv
melissa.marselle@ufz.de
Prof. Dr. Aletta Bonn
Leiterin des UFZ-Departments Ökosystemleistungen an UFZ und iDiv
aletta.bonn@ufz.de
Originalpublikation:
Melissa R. Marselle, Anne Turbe, Assaf Shwartz, Aletta Bonn, Agathe Colléony: „Addressing behavior in pollinator conservation policies to combat the implementation gap“, Conservation Biology https://doi.org/10.1111/cobi.13581
Quelle: IDW
Weizen & Bekömmlichkeit: Backwaren sind wesentlich besser als ihr Ruf
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Nach zwei Stunden Teiggehzeit sind FODMAP-Elemente, die bei manchen Reizdarm-Patienten Schmerzen verursachen können, schon stark reduziert.
Brot soll man meiden, weil es zu Blähungen und Verdauungsproblemen führen kann – das stimmt, aber nur für wenige Patienten mit Reizdarm und gilt nur für Backwaren, die sehr schnell hergestellt werden. Aktuelle Untersuchungen von Wissenschaftlern der Universität Hohenheim in Stuttgart in Kooperation mit dem Bäcker Heiner Beck und der Stelzenmühle zeigen: auch Teiggehzeiten von zwei Stunden scheinen bereits auszureichen, um den Anteil sogenannter FODMAPs im Teig um 70 Prozent zu reduzieren. FODMAPs sind spezielle Kohlenhydrate, die bei Reizdarm-Patienten Schmerzen verursachen können. Daher verzichten Betroffene oft auf Weizenprodukte. Brot gehört in Deutschland aber zu den wichtigsten Grundlebensmitteln, und die neuen Studienerkenntnisse untermauern, dass ein Verzicht auf Brot wegen FODMAPs wenig hilfreich ist – zumindest bei den vielen Backwaren, die mit einer ausreichenden Teigruhezeit von über zwei Stunden produziert wurden. Wissenschaftlich publiziert wurden die Ergebnisse im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021. Deutsche Ergebnisdarstellung unter https://bit.ly/32OWOxK
In einer sehr traditionellen Art wird Teig durchaus bis zu 48 Stunden lang ruhen gelassen, bevor er als Brot in den Ofen geschoben wird. „Diese Zubereitung bringt besonders viel Geschmack, Aroma und Saftigkeit ins Brot und sorgt für eine längere Frische“, bestätigt der Bäcker Heiner Beck, der die Brote für diese Studie gebacken hat. Solche langen Ruhezeiten werden jedoch nicht in jeder Bäckerstube und bei jedem Produkt realisiert.
Backgewerbe und Handel erscheinen aktuell von der Meinung getrieben zu sein, dass eine hohe Verträglichkeit von Brot durch besonders lange Teigführungszeiten erreicht werden könne, ohne dass die Herstellungsprozesse genauer beleuchtet werden. Zumal auch Personen mit Reizdarm-Syndrom gern auf Brote aus dieser alten Backtechnik zurückgreifen, da sich aufgrund der sehr langen Gärungszeit fast keine FODMAP-Elemente mehr in den Broten befinden.
„Das ist sicher nicht falsch, kann ich aber so pauschal nicht bestätigen“, sagt apl. Prof. Dr. Longin von der Landessaatzuchtanstalt der Universität Hohenheim. „Die Lösung liegt wie bei vielem im Detail“.
Gemeinsam mit dem Ernährungsmediziner Prof. Dr. Stephan C. Bischoff untersuchte er verschiedene Herstellungsprozesse und Weizensorten in einer aktuellen Studie. Konkret interessierten sich die Spezialisten darin für die schmerzverursachenden Kohlenhydrate in den Broten, die bei Betroffenen Blähungen und Verdauungsprobleme erzeugen.
FODMAPs-Anteil ist bereits nach zwei Stunden Teigzubereitung um bis zu 75 Prozent reduziert
Apl. Prof. Dr. Longin und Prof. Dr. Bischoff haben die Zusammenhänge zwischen der Teigherstellung und der Verträglichkeit aufgrund der FODMAP-Anteile im Brot genauer beleuchtet. Dabei haben sie Backprodukte mit 21 verschiedenen Weizensorten aus einer im Bäckeralltag typischen langen Teigführung von 25 Stunden mit einer wesentlich kürzeren Herstellungsart von 2 Stunden verglichen.
Die Ergebnisse sind klar: Bereits nach zwei Stunden waren die Anteile der schmerzverursachenden Stoffe im Brot um bis zu 75 Prozent reduziert. Demgegenüber waren die Werte nach 25 Stunden nur unwesentlich geringer.
„Das liegt daran, dass bei einer verlängerten Teigführung die Aktivität der Hefe durch eine reduzierte Hefemenge und eine Kühlung des Teiges reduziert werden muss“, erklärt apl. Prof. Dr. Longin. „Ansonsten wird das für das Backen wichtige Gluten zu sehr geschädigt.“ Und Bäckermeister Heiner Beck ergänzt: „Dies wurde in den bisherigen wissenschaftlichen Studien zu FODMAP bei Backwaren nicht beachtet. Mir war wichtig, dass mit praxisrelevanten Rezepten gearbeitet wurde.“
Weniger Schwarz-Weiß-Denken wäre zielführender
So wurden im Durchschnitt FODMAP-Gehalte von 0,22 Gramm je 100 Gramm gemessen, was ca. drei Brotscheiben entspricht. Im Vergleich dazu enthält ein einzelner Pfirsich bis zu 4 Gramm FODMAPs.
„Es ist somit fraglich, ob eine FODMAP-Konzentration in Broten mit diesen niedrigen Werten medizinisch eine Auswirkung auf Patienten hat, und wenn doch, wie viele Patienten tatsächlich davon betroffen sind“, ergänzt Prof. Dr. Bischoff vom Institut für Ernährungsmedizin. „Bei gesunden Personen gilt sogar, dass Teile dieser FODMAPs, nämlich das Fruktan, wichtig für die Darmbakterien sind.“
Die Experten aus Hohenheim halten die lange Teigführung für sehr hochwertig. In anderen Studien wurde deren positiver Effekt auf Aroma, Saftigkeit und Verfügbarkeit von Mineralstoffen eindeutig belegt. Doch halten sie die pauschal vereinfachende Haltung zu den FODMAPs in Backwaren für einseitig und das Thema FODMAPs in Backwaren für teilweise überbewertet.
„Neben der Herstellungsweise des Brotes wirkt sich auch die Wahl der passenden Weizensorte sehr auf die Brotqualität aus“, betont Hermann Gütler, Müller in der Stelzenmühle. Er hat die 21 verschiedenen Weizensorten für die Studie vermahlen und ergänzt: „Das wissen wir für die Backeigenschaften schon lange und haben es nun eindeutig auch für die FODMAPs gezeigt.“
Weitere Informationen
Deutsche Ergebnisdarstellung https://bit.ly/32OWOxK
Publikation im Journal of Cereal Science, https://doi.org/10.1016/j.jcs.2020.103021
Kontakt für Medien
Apl. Prof. Dr. Friedrich Longin, Universität Hohenheim, Landessaatzuchtanstalt, AG Weizen,
T +49 711 459 23846, E friedrich.longin@uni-hohenheim.de
Prof. Dr. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 711 459 24100, E bischoff.stephan@uni-hohenheim.de
Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse
Anhang
Deutsche Ergebnisdarstellung
https://idw-online.de/de/attachment80645
Quelle: IDW
Bioabfälle als wertvoller Rohstoff für Hightech-Produkte
Elvira Grub M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Kaiserslautern
Der Hochschule Kaiserslautern ist es mit ihren Verbundpartnern „Prüf- und Forschungsinstitut Pirmasens e. V. (PFI)“ und „Zukunftsregion Westpfalz e.V. (ZRW)“ gelungen, eine Förderung für die Entwicklung einer Konzeption für ein Innovationscluster „Waste2Value – Mikroorganismen verändern die Westpfalz“ zu gewinnen, bei dem es um wirtschaftlichen Strukturwandel durch biotechnologische – bioverfahrenstechnische Innovationen geht.
Die Projektpartner erhalten hierbei 250.000.- Euro aus dem Förderprogramm „WIR!“ (Wandel durch Innovation in der Region) des Bundesforschungs- und Bildungsministeriums. Bei erfolgreicher Bewertung des Konzepts stehen für insgesamt sechs Jahre Umsetzungsphase bis zu bis 16 Mio. € Fördermittel bereit. Dies hätte weitreichende Folgen für die Innovationsdynamik und den Technologietransfer der (Bio)Ökonomie in der Westpfalz so Projektpartner Arne Schwöbel von der ZRW.
Inhaltlich geht es bei „Waste2Value – Mikroorganismen verändern die Westpfalz“ um biotechnologisch gewonnene und verwertbare Materialien aus diversen Bioabfällen der Forst- und Landwirtschaft sowie der Lebensmittelproduktion, die für Kunst- und Klebstoffe, für smarte Werkstoffverbunde und als hochwertige Zusatzstoffe für die Kosmetik- und Lebensmittelindustrie der Region eingesetzt werden können. Kooperationspartner sind vor allem Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen sind integriert.
Das Verbundprojekt knüpft an die aktuelle Forschung zur Rohstoffgewinnung aus nachwachsenden Rohstoffen (NawaRo) im Fachbereich Angewandte Logistik und Polymerwissenschaften am Campus in Pirmasens unter der Leitung von Dr. Michael Lakatos an. Die Grundlage der NawaRo‘s bilden in luftgeführten Photobioreaktoren wachsende terrestrische Mikroalgen, mit denen Neuland in der Verwendung von NawaRo’s betreten wird. Diese Kombination der technischen mit der physiologischen Komponente erlaubt gegenüber der weit verbreiteten algenbasierten Biomasseproduktion in aquatischen Systemen, d.h. im Wasser lebende Mikroalgen, eine wesentlich ressourcen- und kostenschonendere Kultivierung sowie die Ausbeutung des riesigen, zum Großteil noch unerforschten Potentials der terrestrischen Mikroalgen, das von der Gewinnung von Farbstoffen bis hin zur Entwicklung neuer Wirkstoffe reicht.
Lakatos, der auch das Verbundvorhaben leitet, sieht hier großes Potential, vorhandene Kompetenzen in eine neue nachhaltige Richtung zu fördern. Mithilfe der aus Cyanobakterien und den Bioabfällen generierten Biomasse sollen in Kombination mit Kunststoffen hybride Materialien hergestellt werden, die Sollbruchstellen enthalten sollen, mit deren Hilfe sie sich besser abbauen, recyceln und weiterverarbeiten lassen, sodass konventionelles Plastik verzichtbar wird.
Auch im PFI hat man langjährige Erfahrungen mit Mikroorganismen und der Entwicklung von Fermentationsverfahren auf der Basis von Reststoffen. Zahlreiche am PFI entwickelte biotechnologische Prozesse und Verfahren basieren auf den vielfältigen Stoffwechselleistungen spezifischer Bakterien und Pilze. „Wir nutzen Mikroorganismen beispielsweise bei der Optimierung von Biogasanlagen, bei der Gewinnung von Biomethan aus CO2 im Rahmen von Power-to-Gas Verfahren oder bei der Umwandlung von Lebensmittelresten in Treibstoffe und Grundchemikalien“ so Dr. Stefan Dröge, Projektleiter im PFI. Mit „Waste to Value“ wird die Kreislaufwirtschaft mit der Bioökonomie und dem Klimaschutz verknüpfen. So eröffnen Mikroorganismen den Megatrend der biobasierten Konversion und leiten dabei den Wirtschaftswandel hin zu einer zukunftsträchtigen Bioökonomie ein – eine greifbare Chance für die Region! Ende September ist dazu eine Kick-Off-Veranstaltung geplant, in der besonders Unternehmen, aber auch die Zivilgesellschaft und öffentliche Verwaltungen als zukünftige Kooperationspartner gewonnen werden sollen.
Ihr Ansprechpartner zur Pressemitteilung:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de
Wissenschaftliche Ansprechpartner:
Dr. Michael Lakatos ++ Tel: +49 (631) 3724 – 7032 / 2344 ++ Mail: michael.lakatos@hs-kl.de
Quelle: IDW
Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“
Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Trotz des medizinischen Fortschritts bei der Diagnose und Behandlung von Krankheiten spielt eines oft nur eine untergeordnete Rolle: die Kommunikation zwischen Arzt und Patient. Doch was ist mit den Bedürfnissen, Ängsten und Zweifeln der Patienten? Erst in den vergangenen Jahren wurde mit der systematischen Untersuchung des Phänomens „Placebo“ ein Paradigmenwechsel angestoßen. Denn die positiven Effekte der Arzt-Patienten-Kommunikation sind tatsächlich biologisch messbar.
Über eben diesen Placeboeffekt und auch seinen Gegenspieler, den Noceboeffekt, seine Wirkung und aktuelle Erkenntnisse spricht Professor Manfred Schedlowski, Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen, in seiner Keynote bei der geriatrisch-gerontologischen Online-Konferenz.
Die Medizin hat in den vergangenen Jahrzehnten eine enorme Entwicklung vollzogen: Verfeinerte technische Untersuchungsmethoden erlauben faszinierende Einblicke in die Funktion unserer Organe und des Gehirns, zielgerichtete Medikamente können exakt in Krankheitsprozesse eingreifen und Operationsroboter steigern die Präzision von Chirurgen. Doch in Zeiten der „High-Tech-Medizin“ wird der Kommunikation zwischen Arzt und Patient oft noch zu wenig Aufmerksamkeit entgegengebracht – auch nicht in der Wissenschaft. Forschungsansätze, die Vertrauen und Hoffnung der Patienten oder die Wirkung von Mitgefühl in den Mittelpunkt stellen, werden oft als „Wissenschaft light“ abgetan.
Messbare Effekte: Das Immunsystem wird beeinflusst, Schmerzen verbessert
„Placeboeffekte sind äußerst vielfältig und unterscheiden sich, je nach Organ und Patient. Eine Zuckertablette, die Kopfschmerzen vertreibt, eine Infusion mit Kochsalzlösung, die bei Parkinson hilft oder eine vorgetäuschte Akupunktur, die Reizdarmsymptome lindert, sind nur einige erfolgreiche Beispiele“, sagt Manfred Schedlowski. Placeboeffekte können sich auf körperliche und psychische Symptome auswirken und damit den Verlauf von Erkrankungen verbessern. Sie können das Immunsystem und den Blutdruck beeinflussen oder den Erfolg von Operationen und medikamentösen Behandlungen verändern. Der Körper reagiert positiv auf eine Behandlung, obwohl er das eigentlich gar nicht dürfte – weil beispielsweise die Tablette oder Infusion keinen Wirkstoff enthält oder die Akupunkturnadel gar nicht in die Haut eindringt. Doch wie kann ein Scheinmedikament oder eine Scheinbehandlung überhaupt eine Wirkung zeigen?
Der Glaube an Heilung: Das neuropsychologische Phänomen des Placeboeffekts
Placeboeffekte werden auf neuropsychologische Phänomene zurückgeführt, die Selbstheilungskräfte aktivieren. Immer mehr Details dieser Wirkmechanismen werden wissenschaftlich erforscht. Dabei spielen die Erwartungen der Patienten eine zentrale Rolle. Vertrauen sie darauf, dass die Therapie wirkt, oder haben sie eher Zweifel? Haben sie früher gute oder eher negative Erfahrungen mit medizinischen Behandlungen oder Behandlern gemacht? Schöpfen sie nach dem Gespräch mit dem Arzt Hoffnung oder löst die Lektüre des Beipackzettels eher Ängste aus? Erfahrungen führen zu Lernprozessen, die bewusst oder unbewusst ablaufen und große Wirkungen entfalten können: positive Placeboeffekte, aber auch negative „Noceboeffekte“. Je nachdem können sie die Heilung fördern – oder auch verhindern.
Der Placeboeffekt beeinflusst jede medizinische Behandlung
Eine Wirkung erzielt also nicht das Placebo selbst, sondern die an eine Behandlung geknüpfte Erwartung der Patienten. Placeboeffekte beeinflussen demnach jede Art von medizinischer Behandlung, sei es die Wirksamkeit und Verträglichkeit von gut erforschten und bewährten Medikamenten, der Ausgang einer Operation oder Gesprächstherapie – oder eben die Wirkung einer Zuckertablette. Echte Placebobehandlungen, beispielsweise zum Test der Wirksamkeit eines Medikaments, sollten jedoch weiterhin nur unter ganz bestimmten Voraussetzungen, wie beispielsweise in klinischen Studien stattfinden.
In seiner Konferenz-Keynote fasst Professor Manfred Schedlowski seine Forschungsergebnisse zur Thematik zusammen und gibt einen spannenden Überblick über die neuen und aktuellen wissenschaftlichen Erkenntnisse zum Phänomen Placebo- und Noceboeffekt. Da gerade ältere Patienten häufig Noceboeffekten in der Kommunikation ausgesetzt sind, ist dieses Thema besonders für Geriater interessant und relevant.
Zur Person
Professor Manfred Schedlowski ist Direktor des Institutes für Medizinische Psychologie und Verhaltensimmunbiologie am Universitätsklinikum Essen. Im Lauf seiner Karriere absolvierte er Forschungsaufenthalte an der University of Newcastle und der La Trobe University in Melbourne, Australien sowie an der Eidgenössischen Technischen Hochschule (ETH) Zürich. Der Schwerpunkt seiner Forschung liegt auf der Analyse der funktionellen Verbindungen zwischen dem Nervensystem, dem Hormonsystem und dem Immunsystem. Vor diesem Hintergrund beschäftigt sich Professor Schedlowski mit seiner Arbeitsgruppe im Rahmen der Placeboantwort mit dem Phänomen der Klassischen Konditionierung von Immunfunktionen und analysiert die neurobiologischen und biochemischen Mechanismen sowie die klinische Bedeutung der Placebo- und Noceboantwort.
Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 41
E-Mail: presse@dggeriatrie.de
Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind unter anderem Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1.700 Mitglieder.
Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen
https://www.aey-congresse.de/events/dgg-dggg-online-konferenz.html
Anhang
Arzt-Patienten-Kommunikation: „Placebo-Effekte können den Verlauf von Krankheiten verbessern“
https://idw-online.de/de/attachment80594
Quelle: IDW
Abwasser aus dem Bergbau aus Ressource nutzen
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Bergbau geht meist mit der Förderung großer Wassermengen einher, die bisher überwiegend ungenutzt abgeleitet wurden. Das kürzlich abgeschlossene Projekt „Räumlich-zeitlich abgestimmte Kreislaufführung und Wiederverwendung bergbaulicher Abwässer am Beispiel eines urban geprägten Bergbaugebietes – Water Miner“ hat gezeigt, dass Abwässer aus dem Bergbau eine wichtige ergänzende Wasserressource sein können. Auch wenn sich in Bergbaugebieten die Mengen und Orte, wo Wasser gefördert wird, ständig ändern, können bergbauliche Abwässer mit einem geeigneten räumlich-zeitlichen Wassermanagement als Brauchwasser oder Trinkwasser genutzt werden.
Der Bergbau wird Schritt für Schritt stillgelegt
Water Miner unter der Leitung von Prof. Dr. Harro Stolpe, emeritierter Professor an der Fakultät für Bauingenieurwesen der Ruhr-Universität Bochum (RUB), startete im Jahr 2016, mit dem Ziel zu untersuchen, ob und wie man bergbauliche Abwässer nutzen kann. Das Projektgebiet liegt in Ha Long im Norden Vietnams. Dort wird Steinkohle im Tagebau und untertägig abgebaut. „Aufgrund der Lagerungsverhältnisse der Kohle ändert sich der Abbau im Projektgebiet fortlaufend“, so Harro Stolpe. „Die Tagebaubetriebe werden im Rahmen eines Strukturwandels der Region in bereits einigen Jahren stillgelegt, und danach wird auch der Tiefbau zugunsten Umwelt- und Naturschutz und Tourismus beendet.“
Entsprechend fallen die Abwässer und Oberflächenabflüsse räumlich und zeitlich stark veränderlich an, was besondere Konzepte für eine Nutzung – auch nach der Stilllegung des Bergbaus – erfordert. Auf der anderen Seite ist der im Projektgebiet stark zunehmende Tourismus mit einem steigenden Wasserbedarf verbunden. Das macht ihn zu einem möglichen Nutzer aufbereiteter bergbaulicher Abwässer.
Analyse- und Managementtools
Das Projektteam entwickelte eine räumlich-zeitliche Analyse mithilfe eines Stoffstrommodells und Geoinformationssystemen. Sie ermöglicht die Betrachtung und das Management der im Bergbau stark veränderlichen Abwasserströme, des Bedarfes an Hilfsstoffen und Energie bis hin zu den auftretenden Kosten und Erlösen für die Wassernutzung. Ein weiterer Aspekt war das möglichst umweltverträgliche Management von Oberflächenabflüssen im Projektgebiet. Dafür entwickelte das Team ein Konzept, das es erlaubt, die Sedimenteinträge ins Wasser zu reduzieren und Kohlestäube abzutrennen. Außerdem befassten sich die Forscherinnen und Forscher mit der Möglichkeit, die beim Kohleabbau entstehenden Restseen für die Speicherung und Nutzung von Regenwasser zu nutzen.
„Insgesamt konnten wir zeigen, dass gereinigtes bergbauliches Abwasser einen wesentlichen Beitrag zur Deckung des steigenden Wasserbedarfes in Ha Long darstellen und ein verbessertes Oberflächenwassermanagement einen wichtigen Beitrag zum Umweltschutz in der Ha Long Bucht als Unesco-Weltnaturerbe leisten kann“, resümiert Harro Stolpe.
Kooperationspartner
Beteiligte am Projekt Water Miner sind neben der Arbeitsgruppe Umwelttechnik und Ökologie im Bauwesen der RUB das Dresdner Grundwasserforschungszentrum, die Firma LUG Engineering, das Fachgebiet Umweltökonomie der Universität Koblenz-Landau und die Firmem Ribeka sowie Disy Informationssysteme.
Das Projekt fand in enger Kooperation mit dem vietnamesischen Bergbauunternehmen Vinacomin Vietnam National Coal – Mineral Industries Holding Corporation Limited statt. In der Nachfolge des Projektes werden Gespräche zwischen Vinacomin, dem örtlichen Wasserversorger und der Stadtverwaltung zur Umsetzung der entwickelten Konzepte durchgeführt.
Förderung
Das Verbundprojekt Water Miner wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme „Zukunftsfähige Technologien und Konzepte zur Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung und Entsalzung“ gefördert.
Pressekontakt
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Harro Stolpe
Dr. Katrin Brömme
Umwelttechnik und Ökologie im Bauwesen
Ruhr-Universität Bochum
E-Mail: harro.stolpe@rub.de
Quelle: IDW
Covid-19: Kläranlagen als Frühwarnsystem – TU Darmstadt analysiert das Erbmaterial von SARS-CoV-2 aus Abwasserproben
Claudia Staub Stabsstelle Kommunikation und Medien
Technische Universität Darmstadt
Forschende der TU Darmstadt weisen Coronaviren im Abwasser nach. Zusammen mit der Stadtentwässerung Frankfurt am Main entwickeln sie ein Monitoringsystem, das auch Infizierte erkennt, die keine erkennbaren Symptome zeigen.
Seit einigen Wochen steigt die Zahl der neu mit SARS-CoV-2 infizierten Personen bundesweit wieder an. „Für die Stadt Frankfurt haben wir diesen Trend schon bemerkt, bevor er sich in den Zahlen der offiziell bestätigten Fälle zeigte“, sagt Professorin Susanne Lackner, Leiterin des Fachgebiets Abwasserwirtschaft an der TU Darmstadt. Sie und ihr Team untersuchen Wasserproben aus Frankfurter Kläranlagen auf Coronaviren: „Im Juli lagen die Virenkonzentrationen im Abwasser noch stabil auf relativ niedrigem Niveau, dann stiegen die Werte deutlich an.“
Infizierte Personen scheiden Coronaviren mit dem Stuhl aus. Nach aktuellem Kenntnisstand befinden sich im Abwasser zwar keine infektiösen Viren mehr, aber ihr Erbgut lässt sich mit der in der Medizin etablierten PCR-Technik nachweisen. Die Messung ist so empfindlich, dass sie weniger als zehn bestätigte Covid-19-Fälle pro 100.000 Einwohner detektiert. „Von Vorteil ist, dass wir mit der Methode auch asymptomatisch Infizierte erfassen“, betont Lackner. Ziel ihrer Forschung ist die Etablierung eines Monitoringsystems für die Stadt Frankfurt. Bei ansteigenden Virenmengen im Abwasser sollten Schutzmaßnahmen verschärft, bei einem Rückgang könnten sie wieder gelockert werden.
Lackners Arbeitsgruppe ist hessenweit die erste, die ein solches Konzept entwickelt und in einer Großstadt testet. Die Darmstädter Wissenschaftlerinnen und Wissenschaftler erhalten zweimal wöchentlich Proben aus den Zuläufen zu den Frankfurter Klärwerken in den Stadtteilen Sindlingen und Niederrad, die Abwasser von insgesamt über 1,8 Millionen Bürgern aufbereiten, sowie aus einem Teilzulauf in Griesheim. Zukünftig könnte die Probenahme erweitert werden, so Lackner: „Wenn wir das Infektionsgeschehen genauer und regionaler, etwa in einzelnen Stadtteilen, verfolgen wollen, müssten Proben häufiger und auch direkt im Kanalsystem entnommen werden.“
Lackner und ihre Mitarbeitenden untersuchen zudem das Abwasser vom Frankfurter Flughafen. In diesen Proben bestimmen sie nicht nur die Virenmenge anhand ausgewählter Genfragmente, sondern sie sequenzieren das komplette Erbgut der Krankheitserreger, um mehr über die Herkunft und Verbreitungswege der Viren zu erfahren. Mittlerweile gibt es verschiedene regionale Varianten von SARS-CoV-2, da sich das Erbmaterial der Viren im Lauf der Zeit ändert. Erste Ergebnisse zu den Proben vom Frankfurter Flughafen werden voraussichtlich in einigen Wochen vorliegen.
Das Land Hessen unterstützt die Corona-Projekte des TU-Fachgebiets Abwasserwirtschaft seit Juni im Rahmen des „Operationellen Programms für die Förderung von Investitionen in Wachstum und Beschäftigung“ mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE).
Quelle: IDW
SARS-CoV-2-Viren im Abwasser: COVID-19 Überwachung und Abschätzung potenzieller Infektionsrisiken
Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
FRANKFURT/AACHEN. Seit Beginn der Pandemie arbeiten Forschergruppen an Methoden, den Nachweis von SARS-CoV-2 Viren im Abwasser für die Überwachung des COVID-19 Infektionsgrads der Bevölkerung zu verwenden. Die Idee ist einfach: Da infizierte Personen SARS-CoV-2 Viren über die Fäkalien abgeben, könnten Abwasserproben Aufschluss über die Infektionszahlen aller an eine Kläranlage angeschlossener Einwohner liefern. Bei ausreichender Empfindlichkeit könnten solche Analysen Behörden als Frühwarnsystem dienen, um lokal ansteigende Fallzahlen im Einzugsgebiet einer Kläranlage frühzeitig zu erkennen.
Ein Konsortium aus Frankfurter Virologen, Ökotoxikologen und Evolutionsforschern und Aachener Wasserforschern konnte jetzt erstmals für Deutschland zeigen, dass sich SARS-CoV-2 Genmaterial mit modernen molekularen Methoden in Kläranlagen nachweisen lässt. Analysen ergaben in allen neun während der ersten Pandemiewelle im April 2020 beprobten Kläranlagen 3 bis 20 Genkopien pro Milliliter Rohabwasser. Dies ist ein Konzentrationsniveau, wie es auch in Studien in den Niederlanden und den USA gemessen wurde.
Erstaunt waren die Forscher, als ältere Rückstellproben aus den Jahren 2017 und 2018 vor dem Ausbruch der Pandemie ebenfalls Signale lieferten. Nach umfangreicher Methoden-Validierung war klar, dass die verwendeten Genprimer nicht nur SARS- CoV-2, sondern fälschlicherweise auch andere nicht-krankheitsauslösende Coronaviren im Abwasser miterfassen. Die jetzt spezifisch für SARS-CoV-2 im Abwasser entwickelte Methodik wurde mit Gensequenzierung bestätigt.
Das Verfahren lässt sich nun in der so genannten Abwasser-basierten Epidemiologie einsetzen: Die gemessene Virenfracht einer Kläranlage erlaubt Rückschlüsse auf die Anzahl der an COIVD-19 infizierten Personen im Einzugsgebiet. In der größten Kläranlage wurden bei einer Virenfracht von 6 Billionen (6 x 1012) Genäquivalenten pro Tag 1037 akute Fälle in Einzugsgebiet abgeschätzt, in kleineren Kläranlagen bei zwei Größenordnungen geringerer Virenfracht dagegen 36 Fälle.
Die Sensitivität ist ausreichend, um als Frühwarnsystem anzuzeigen, ob der Maßnahmenwert von 50 Inzidenzen pro 100.000 Einwohnern überschritten wird. Frühere Hoffnungen, die Präzision würde ausreichen, die Dunkelziffer nicht-labordiagnostisch erfasster Infizierter zu bestimmen, haben sich bislang nicht erfüllt. Die Wissenschaftlerinnen und Wissenschaftler halten aber weitere Methodenverbesserungen für möglich.
Die im Abwasser nachgewiesenen SARS-CoV-2 Fragmente haben sich in Zelltests in vitro als nicht-infektiös dargestellt. Wegen der hohen Frachten und geringem Rückhaltevermögen konventioneller Kläranlagen ist das Verhalten von SARS-CoV-2 im Wasserkreislauf aber vertieft zu untersuchen. Die Autoren der Studie arbeiten daran, ihr Wissen für eine baldige Anwendung der Methodik bereitzustellen, dazu wird eine enge Zusammenarbeit mit Gesundheitsministerien, Umweltministerien, Kläranlagenbetreibern und Fachverbänden angestrebt.
Das Forscherteam wurde in Eigeninitiative vom gemeinnützigen Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW), dem Institut für Siedlungswasserwirtschaft der RWTH Aachen (ISA), dem Institut für Medizinische Virologie des Universitätsklinikums Frankfurt (KGU) und der Abteilung Evolutionsökologie und Umwelttoxikologie am Institut für Ökologie, Evolution und Diversität der Goethe-Universität Frankfurt ins Leben gerufen und von sechs Wasserverbänden in Nordrhein-Westfalen, dem LOEWE-Zentrum für Translationale Biodiversitätsgenomik (TBG) und der University of Saskatoon in Kanada unterstützt.
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Frankfurt
Institut für Medizinische Virologie
Prof. Dr. Sandra Ciesek über
Pressestelle Universitätsklinikum Frankfurt
Tel. +49 069 6301 86442
kommunikation@kgu.de
Goethe-Universität Frankfurt, Institut für Ökologie, Evolution und Diversität, und LOEWE Zentrum für Translationale Biodiversitätsgenomik (TBG)
Prof. Dr. rer. nat. Henner Hollert
hollert@bio.uni-frankfurt.de
Forschungsinstitut für Wasser- und Abfallwirtschaft an der RWTH Aachen e. V. (FiW)
Dr. sc. Frank-Andreas Weber
weber@fiw.rwth-aachen.de
RWTH Aachen University, Institut für Siedlungswasserwirtschaft (ISA)
Univ.-Prof. Dr.-Ing. habil. Thomas Wintgens
wintgens@isa.rwth-aachen.de
Originalpublikation:
Sandra Westhaus, Frank-Andreas Weber, Sabrina Schiwy, Volker Linnemann, Markus Brinkmann, Marek Widera, Carola Greve, Axel Janke, Henner Hollert, Thomas Wintgens, Sandra Ciesek. Detection of SARS-CoV-2 in raw and treated wastewater in Germany – suitability for COVID-19 surveillance and potential transmission risks. Science of the Total Environment. https://doi.org/10.1016/j.scitotenv.2020.141750, https://www.sciencedirect.com/science/article/pii/S0048969720352797
Weitere Informationen:
http://www.uni-frankfurt.de/91245167 „Grafisches Abstract“: deutsche Übersetzung des Untersuchungsschemas aus der Publikation Westhaus et. al. https://www.sciencedirect.com/science/article/pii/S0048969720352797
Quelle: IDW
Küssen verboten: Abwehrmechanismus im Speichel stoppt Zika-Virus, aber nicht SARS-CoV-2
Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm
Ob Küssen während der Coronavirus-Pandemie zum Risikoverhalten wird, haben Virologinnen und Virologen der Ulmer Universitätsmedizin untersucht. In einer aktuellen Studie erforschen sie, inwiefern das Zika-Virus und das neue Coronavirus (SARS-CoV-2) über Speichel von Mensch zu Mensch weitergegeben werden können. Für das Zika-Virus haben die Forschenden einen neuen Abwehrmechanismus entdeckt, der eine Infektion verhindern kann. Auf die Ansteckungsgefahr mit SARS-CoV-2 hat diese Speichelkomponente hingegen keine Auswirkungen.
Können das neue Coronavirus oder der Zika-Erreger beim Küssen übertragen werden? Tatsächlich lassen sich beide Viren in großen Mengen im Speichel nachweisen. Ob sie auch über diese Körperflüssigkeit von Mensch zu Mensch weitergegeben werden, haben Ulmer Virologinnen und Virologen in einer aktuellen Studie untersucht. Dabei entdeckten sie einen neuen Abwehrmechanismus im Speichel, der eine Ansteckung mit dem Zika-Virus verhindern kann. Auf das Infektionsrisiko mit dem neuartigen Coronavirus (SARS-CoV-2) hat diese Speichelkomponente allerdings keinen Einfluss.
Wie verbreiten sich neu aufkommende Viren von Mensch zu Mensch? Diese Frage stellen sich Forschende des Ulmer Instituts für Molekulare Virologie sowohl für das Zika-Virus als auch für das neue Coronavirus. Als Zoonosen sind beide Erreger in der jüngeren Vergangenheit von Tieren auf den Menschen übergegangen. SARS-CoV-2 verbreitet sich seither vor allem durch Tröpfcheninfektion und Aerosole. Hauptüberträger des Zika-Virus sind hingegen Gelbfiebermücken, es wurden jedoch auch Übertragungen von Mensch zu Mensch durch Geschlechtsverkehr berichtet. In früheren Studien konnten die Virologinnen und Virologen der Ulmer Universitätsmedizin bereits zeigen, dass sogenannte extrazelluläre Vesikel in der menschlichen Samenflüssigkeit diesen Übertragungsweg für Zika-Viren und verwandte Erreger hemmen. Ob solche körpereigenen Abwehrmechanismen auch bei der Speichelübertragung des Zika-Erregers oder des neuen Coronavirus aktiv sind, untersuchen Forschende um Professor Jan Münch, Dr. Janis Müller, Rüdiger Groß und Carina Conzelmann in ihrem jetzt erschienenen Fachbeitrag.
In Laborexperimenten haben die Autoren menschlichen Speichel mit dem jeweiligen Virus (SARS-CoV-2 oder Zika-Virus) zusammengebracht.
Anschließend wurden Zelllinien sowie primäre Mundschleimhautzellen diesen Gemischen ausgesetzt. Um eine Infektion mit dem jeweiligen Erreger nachzuweisen, haben die Wissenschaftlerinnen und Wissenschaftler die Menge der Viren in den Zellen gemessen – mit gegensätzlichen Ergebnissen. Sie fanden nämlich heraus, dass eine Zika-Virus-Infektion bei hoher Speichelkonzentration nahezu ausgeschlossen ist. Für SARS-CoV-2 konnte dieser Effekt nicht nachgewiesen werden.
Die eigentliche Herausforderung bestand jedoch in der Identifikation der Speichelkomponente, die eine Zika-Virus-Übertragung verhindert. Aufgrund ihrer früheren Forschungsergebnisse in Spermaproben lag das besondere Augenmerk der Gruppe auf extrazellulären Vesikeln. „Mithilfe hochspezialisierter Methoden mussten die Vesikel aus dem Speichel aufgereinigt werden. Anschließend konnten wir ihre Zahl, Größe, Identität und antivirale Aktivität bestimmen“, erklärt Dr. Janis Müller, der diese Analysen bei einem Gastaufenthalt am renommierten Karolinska Institut in Stockholm durchgeführt hat.
Insgesamt zeigen die Virologinnen und Virologen, dass das Zika-Virus in der Lage ist, Zellen der Mundschleimhaut zu infizieren. Allerdings wird eine Infektion – ähnlich wie in menschlichem Sperma – durch die körpereigenen extrazellulären Vesikel im Speichel gehemmt. „Die Vesikel sorgen dafür, dass das Zika-Virus nicht an die Zielzelle andocken und diese infizieren kann“, erklären die Erstautoren Carina Conzelmann und Rüdiger Groß. Auf eine Infektion mit dem neuartigen Coronavirus hat dieser Abwehrmechanismus jedoch keinen Einfluss. Demnach scheint die Speichelübertragung beim Zika-Virus keine große Rolle zu spielen, möglicherweise aber bei SARS-CoV-2.
Somit haben die Virenforscherinnen und -forscher mit extrazellulären Vesikeln eine neue Komponente des menschlichen Immunsystems identifiziert, die ihre Wirkung offenbar in verschiedenen Körperflüssigkeiten entfaltet. Dieser Schutzmechanismus scheint sich spezifisch gegen Eigenschaften von Flaviviren (Zika-Virus, Dengue-Virus, West-Nil-Virus) zu richten. In weiteren Untersuchungen wollen die Forschenden ergründen, worauf dieser Abwehrmechanismus beruht.
Das Ergebnis der aktuellen Studie im „Journal of Extracellular Vesicles“ untermauert Berichte, wonach keine Übertragungen des Zika-Virus durchs Küssen bekannt sind – obwohl das infektiöse Virus im Speichel von Infizierten nachweisbar ist. Beim Verdacht einer Coronavirus-Infektion raten die Forschenden jedoch vom Küssen ab.
Die Untersuchungen sind im Zuge des Projekts Fight-nCoV zur Identifizierung antiviraler Wirkstoffe gegen SARS-CoV-2 sowie des Sonderforschungsbereichs 1279 („Nutzung des menschlichen Peptidoms zur Entwicklung neuer antimikrobieller und anti-Krebs Therapeutika“) gefördert worden. Dr. Janis Müller wurde zudem durch das „Eliteprogramm für Postdoktorandinnen und -doktoranden der Baden-Württemberg Stiftung“ zum Thema „Übertragung des Zika-Virus“ unterstützt sowie über seinen DFG-Erstantrag zur Erforschung von antiviralen Eigenschaften in Körperflüssigkeiten.
Wissenschaftliche Ansprechpartner:
Dr. Janis Müller: Tel.: 0731/500 65170, janis.mueller@uni-ulm.de
Originalpublikation:
Carina Conzelmann, Rüdiger Groß, Min Zou, Franziska Krüger, André Görgens, Manuela O. Gustafsson, Samir El Andaloussi, Jan Münch and Janis A. Müller: Salivary extracellular vesicles inhibit Zika virus but not SARS-CoV-2 infection. JOURNAL OF EXTRACELLULAR VESICLES 2020, VOL. 09, 1808281 https://doi.org/10.1080/20013078.2020.1808281
Quelle: IDW
Die (un)sichtbare Dürre: TU Bergakademie Freiberg untersucht Auswirkungen auf Grundwasser und Wasserqualität
Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg
Eigentlich ist der Sommer 2020 laut Deutschen Wetterdienstes ein ganz normaler – weder zu trocken noch zu nass. Was sich jedoch aktuell vor allem in den tieferen Bodenschichten zeigt, ist die extreme Trockenheit der letzten Jahre. Die Folgen der vergangenen milden Winter und heißen Sommer waren bisher unsichtbar, sind aber jetzt besonders in Sachsen spürbar. Betroffen sind grundwassergespeiste Flüsse und Seen sowie der Wald. Was das für das Grundwasser und die Wasserqualität in deutschen Seen bedeutet, erklärt Prof. Dr. Traugott Scheytt von der TU Bergakademie Freiberg.
„Im Detail machen uns vor allem die sinkenden Grundwasserspiegel, die damit verbundenen Engpässe in der Trinkwasserversorgung und der Wasserqualität sowie die absterbenden Bäume große Sorgen“, erklärt Prof. Dr. Traugott Scheytt. Grund dafür ist die fehlende Grundwasserneubildung. „Immer mehr Wasser fließt aus den Seen und Flüssen ab und viel zu wenig strömt zu. Das hat nicht nur Auswirkungen auf den Wasserpegel, sondern auch auf die Wasserzusammensetzung. So können beispielsweise Nährstoffe wie Nitrat, Eisen oder Sulfat schneller einsickern und entziehen dem Grundwasser Sauerstoff. Dieser sauerstoffarme Zustrom kann die Wasserqualität in Seen und Flüsse nachhaltig beeinflussen und auch zum Absterben von Fischen und anderen Lebewesen führen. Ein Teufelskreis, wo doch gleichzeitig der Wasserverbrauch in Zeiten der Trockenheit besonders hoch ist.
„Ziel muss es sein, die sinkenden Vorräte wiederherstellen. Dafür untersuchen wir aktuell gemeinsam mit weiteren Partnern die Wechselwirkung zwischen Oberflächen- und Grundwasser, die Ursachen für den Sauerstoffmangel sowie mögliche Belüftungsmaßnahmen in ausgewählten Seen, wie dem Speicherbecken in Lohsa“, so Prof. Scheytt. Der Freiberger Professor hat im August 2018 die Professur für Hydrogeologie und Hydrochemie am Institut für Geologie der TU Bergakademie Freiberg übernommen.
Zudem ist er Sprecher des Zentrums für Wasserforschung an der TU Bergakademie Freiberg, in welchem die vorhandenen Kompetenzen zum Thema Wasser gebündelt werden und Wissenschaftler/innen verschiedener Fachbereiche an Projekten zu den Ursachen und Auswirkungen von Trockenheit und Überschwemmung forschen, aber auch zu möglichen Gegenmaßnahmen.
Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; Tel.: 03731-392775; Email: traugott.scheytt@geo.tu-freiberg.de
Weitere Informationen:
https://tu-freiberg.de/geo/hydro
Quelle: IDW
Künstliche Intelligenz lernt kontinentale Hydrologie
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden.
Die komplexe Verteilung der kontinentalen Wassermassen in Südamerika wurde mit einer neuen Deep-Learning-Methode aus Satellitendaten bestimmt.
Mit Hilfe von Satelliten können Veränderungen der auf den Kontinenten gespeicherten Wassermassen erfasst werden. Die dazu notwendigen Datensätze zum Schwerefeld der Erde stammen aus den Satellitenmissionen GRACE und GRACE-FO. Da diese Daten jedoch nur die typischen großskaligen Massenanomalien enthalten, sind zunächst keine unmittelbaren Rückschlüsse auf kleinskalige Strukturen, wie etwa die tatsächliche Verteilung von Wassermassen in Flüssen und Nebenarmen, möglich. Am Beispiel des südamerikanischen Kontinentes entwickelten Erdsystem-ModelliererInnen vom Deutschen GeoForschungsZentrum GFZ nun eine neue Deep-Learning-Methode, mit der sowohl groß- als auch kleinskalige Veränderungen des Wasserspeichers aus Satellitendaten quantifiziert wurden. Neu dabei ist die geschickte Kombination von Deep-Learning, hydrologischen Modellen und Erdbeobachtungen aus Gravimetrie und Altimetrie. Die Studie ist heute in der Fachzeitschrift Geophysical Research Letters erschienen.
Bislang ist nicht genau bekannt, wie viel Wasser ein Kontinent wirklich speichert. Die kontinentalen Wassermassen verändern sich zudem beständig, sie haben dadurch Auswirkungen auf die Erdrotation und sind Bindeglied des Wasserkreislaufes zwischen Atmosphäre und Ozean. Amazonas-Zuflüsse in Peru, beispielsweise, führen in manchen Jahren riesige Wassermengen, in anderen nur einen Bruchteil davon. Neben den Wassermassen der Flüsse und Binnengewässer, finden sich auch im Boden, Schnee und unterirdischen Speichern beträchtliche Wassermengen, die nur schwer direkt quantifiziert werden können.
Das Forscherteam um Erstautor Christopher Irrgang entwickelte nun eine neue Methode, um aus den grob-aufgelösten Satellitendaten Rückschlüsse auf die gespeicherten Wassermengen des südamerikanischen Kontinents zu ziehen. „Für das sogenannte Herunterskalieren nutzen wir ein faltendes neuronales Netzwerk, kurz CNN, in Verbindung mit einer neu entwickelten Trainingsmethode“, sagt Irrgang. „CNNs eignen sich besonders gut für die Verarbeitung räumlicher Erdbeobachtungen, da sie zuverlässig wiederkehrende Muster wie Linien, Kanten, oder komplexere Formen und Merkmale extrahieren können.“
Um die Verbindung zwischen kontinentalem Wasserspeicher und entsprechenden Satellitenbeobachtungen zu lernen, wurde das CNN (Convolutional Neural Network) mit Simulationsdaten über den Zeitraum 2003 bis 2018 eines numerischen hydrologischen Modells trainiert. Zusätzlich wurden Daten aus der Satellitenaltimetrie im Amazonasgebiet zur Validierung verwendet. Außergewöhnlich ist, dass sich dieses CNN kontinuierlich selbst verbessert und validiert, um möglichst genaue Aussagen über die Verteilung der Wasserspeicher zu treffen. „Dieses CNN vereint damit die Vorteile der numerischen Modellierung und hochpräziser Erdbeobachtungen“, so Irrgang.
Die Studie der ForscherInnen zeigte, dass die neue Deep-Learning-Methode insbesondere für die tropischen Regionen nördlich des -20. Breitengrades des südamerikanischen Kontinents, wo Regenwälder, ausgedehnte Oberflächengewässer und auch große Grundwasserbecken liegen, sehr verlässlich ist. Ebenso für den grundwasserreichen, westlichen Teil der Südspitze Südamerikas.
In Trocken- und Wüstenregionen funktioniert das Herunterskalieren weniger gut. Erklären lässt sich dies durch die vergleichsweise geringe Variabilität der dort ohnehin geringen Wasserspeicher, welche dementsprechend nur einen marginalen Effekt auf das Training des neuronalen Netzwerkes haben. Für das Amazonasgebiet jedoch konnten die ForscherInnen zeigen, dass die Vorhersage des validierten CNN genauer als das verwendete numerische Modell ist.
In Zukunft werden sowohl großräumige wie auch regionale Analysen und Vorhersagen der globalen kontinentalen Wasserspeicher dringend gebraucht. Die Weiterentwicklung numerischer Modelle und die Kombination mit innovativen Deep-Learning-Methoden werden dabei eine immer wichtigere Rolle spielen, um umfassende Einblicke in die kontinentale Hydrologie zu erhalten. Neben den rein geophysikalischen Untersuchungen ergeben sich vielfältige weitere Anwendungsmöglichkeiten. Es könnte zum Beispiel die Einwirkung des Klimawandels auf die kontinentale Hydrologie untersucht werden. Auch Stressfaktoren für Ökosysteme wie Dürren oder Überflutungen könnten besser identifiziert werden. Darüber hinaus würden derartige Analysen auch die Entwicklung von Wassermanagement-Strategien für landwirtschaftliche und urbane Regionen erleichtern.
Finanzierung:
Diese Studie wurde von der Helmholtz-Gemeinschaft sowie aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft durch das Projekt Advanced Earth System Modelling-Kapazität (ESM) finanziert.
Originalstudie: Irrgang, C., Saynisch-Wagner, J., Dill, R., Boergens, E., & Thomas, M. (2020). Self-validating deep learning for recovering terrestrial water storage from gravity and altimetry measurements. Geophysical Research Letters, 47, e2020GL089258.
https://doi.org/10.1029/2020GL089258
Medienkontakt:
Josef Zens
Leiter Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1040
E-Mail: josef.zens@gfz-potsdam.de
Wissenschaftliche Ansprechpartner:
Dr. Christopher Irrgang
Sektion 1.3 Erdsystem-Modellierung
Helmholtz-Zentrum Potsdam
Deutsches GeoforschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49-331-288-2847
Email: irrgang@gfz-potsdam.de
Originalpublikation:
https://doi.org/10.1029/2020GL089258
Weitere Informationen:
https://www.gfz-potsdam.de/medien-kommunikation/meldungen/detailansicht/article/…
Quelle: IDW
TU intern: Ein Hundeleben und sein CO2-Fußabdruck
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die erste Ökobilanz des Haustieres offenbart signifikante Auswirkungen auf die Umwelt
Etwa 8,2 Tonnen CO2 stößt ein 15 Kilogramm schwerer Hund im Laufe von 13 Lebensjahren aus. Das ergab die Ökobilanz eines durchschnittlichen Hundes, die von Kim Maya Yavor und Dr. Annekatrin Lehmann unter der Leitung von Prof. Dr. Matthias Finkbeiner am Fachgebiet Sustainable Engineering durchgeführt wurde. „Die 8,2 Tonnen CO2 entsprechen 13 Hin- und Rückflügen von Berlin nach Barcelona oder fast der Menge, die bei der Produktion eines Luxusautos der Mittelklasse, wie zum Beispiel eines Mercedes C250, emittiert wird“, sagt Prof. Dr. Matthias Finkbeiner. Außerdem scheidet so ein Durchschnittshund über seine 13 Lebensjahre rund eine Tonne Kot und knapp 2000 Liter Urin aus – mit signifikanten Folgen für die Umwelt. „Dieses Ausmaß hat uns überrascht“, so Finkbeiner.
Ein Novum
Es ist die erste Ökobilanz, die für den kompletten Lebensweg eines Hundes erstellt worden ist – vom Tierfutter bis zu den Exkrementen. Die Wissenschaftler legten für ihre Berechnungen ein Gewicht von 15 Kilogramm und eine Lebensdauer von 13 Jahren zugrunde. In die Berechnungen sind die Rohstoffe für das Futter und Ressourcen für dessen Herstellung sowie die Ressourcen für die Verpackung des Futters und seines Transportes genauso eingeflossen wie eben die Umweltauswirkungen der Exkremente, die Produktion der Plastiktüten für deren Sammlung und die Ressourcen für die Straßenreinigung – also alle Stoff- und Energieströme, die in einem Produkt stecken und auf die Umwelt wirken. Wenn beispielsweise in der Fleischproduktion für das Hundefutter Soja aus Brasilien eingesetzt wurde, kam das mit in die Bilanz. „Dass unsere Ökobilanz auf den Umweltauswirkungen des gesamten Tierfutters, das ein Hund im Laufe seines Lebens frisst, basiert, aber auch auf den Umweltauswirkungen von Urin und Kot ist ein Novum“, sagt Matthias Finkbeiner. Gerade die Auswirkungen des Eintrages von Kot und Urin in die Umwelt seien bislang noch von keiner Ökobilanz erfasst worden.
Im Kot: Phosphor, Stickstoff, Schwermetalle
Und es sind das Tierfutter und die Exkremente des Haustieres, die die Umwelt am heftigsten belasten. „Wir haben für unsere Ökobilanz eines durchschnittlichen Hundes 15 Indikatoren, wir sprechen auch von Umweltwirkungskategorien, untersucht. Dazu zählen unter anderem der Klimawandel, Ozonabbau, Smog, die Eutrophierung von Gewässern, Versauerung von Böden, die Süßwasser-Ökotoxizität und die Landnutzung. Bei fast allen Parametern macht das Hundefutter mit circa 90 Prozent den Löwenanteil der Belastungen aus. Beim Indikator Süßwasser-Eutrophierung resultieren die Schäden allerdings zu etwa 90 Prozent aus dem Urin und Kot des Hundes. Die Süßwasserökotoxizität (Vergiftung) wird zur Hälfte durch den Kot verursacht. „Da es zum Hundekot keine Stoffdaten gab, mussten wir entsprechende Analysen in Auftrag geben, um die ausgeschiedenen Mengen an Phosphor, Stickstoff und Schwermetallen zu ermitteln. Phosphor und Stickstoff haben erheblichen Einfluss auf die Eutrophierung, also die unerwünschte Nährstoffzunahme in den Gewässern, die Schwermetalle auf die Vergiftung des Bodens“, so Finkbeiner. Vor dem Hintergrund dieser Zahlen konstatieren Kim Maya Yavor, Annekatrin Lehmann und Matthias Finkbeiner in ihrer Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“, dass die Sammlung und geregelte Entsorgung des Hundekots ein wichtiger Beitrag wären, die Natur zu schonen. „Die zusätzliche Umweltbelastung, die durch die Herstellung des Plastiksäckchens für den Kot entsteht, ist deutlich geringer als der Schaden, der entsteht, wenn der Kot direkt in die Umwelt eingetragen wird. Auch das sagen unsere Zahlen aus.“
Hundefutter aus der Massentierhaltung
Es sind die Größenordnungen, die die Wissenschaftler*innen in Erstaunen versetzten, als sie die Ergebnisse der Datenauswertung vor sich sahen. „Und wenn im Zusammenhang mit Corona zum x-ten Male die industrielle Fleischproduktion am Pranger steht, dann muss auch zur Kenntnis genommen werden, dass genau mit diesem industriell hergestellten Fleisch eines der liebsten Haustiere der Deutschen gefüttert wird. Das Fleisch für die Hundefutterproduktion kommt wohl weder vom Biohof in der Uckermark noch von den bayerischen Almwiesen. Es stammt aus der Massentierhaltung mit den bekannten sozialen und ökologischen Auswirkungen“, sagt Finkbeiner. Und noch eine Zahl nennt er, um die zunehmende Dimension der Umweltauswirkungen der Hunde zu verdeutlichen: In Deutschland hat sich die Anzahl der Hunde seit dem Jahr 2000 mehr als verdoppelt. Statt der fünf Millionen im Jahr 2000 sind es aktuell 10,1 Millionen Hunde im Jahr 2019. In den letzten fünf Jahren sind im Schnitt sogar jedes Jahr mehr als 650.000 Hunde dazugekommen.
Dackel ist besser als Dogge
Die 8,2 Tonnen CO2-Ausstoß in 13 Jahren ergeben einen jährlichen CO2-Ausstoß von 630 Kilogramm. „Setzt man diese 630 Kilogramm CO2 ins Verhältnis zu den zwei Tonnen, die jeder Mensch pro Jahr emittieren kann, weil sie laut Weltklimarat für das Klima noch erträglich sind, dann muss sich jeder Hundebesitzer vor Augen führen, dass nahezu ein Drittel seines CO2-Budgets bereits vom Hund verbraucht wird.“
Finkbeiner und seine Kolleginnen haben die Ökobilanz auch für einen 7,5 Kilogramm schweren und acht Jahre alten Hund (drei Tonnen CO2-Ausstoß in acht Jahren) sowie für einen 30 Kilogramm schweren und 18 Jahre alten Hund (19 Tonnen CO2-Ausstoß in 18 Jahren) berechnet. Ihre Schlussfolgerung: Wie auch beim Auto gilt – ein kleiner Hund ist für das Klima und die Umwelt besser als ein großer. Also wenn schon Hund, dann lieber Dackel als Dogge.
Link zur Open-Source-Hunde-Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“: https://www.mdpi.com/2071-1050/12/8/3394
Die Studie „Environmental Impacts of a Pet Dog: An LCA Case Study“ resultiert aus den Forschungen zur Ökobilanz eines Menschen, die ebenfalls am Fachgebiet Sustainable Engineering erstellt wurde. Mehr dazu unter https://www.tu.berlin/ueber-die-tu-berlin/profil/pressemitteilungen-nachrichten/…
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Matthias Finkbeiner
TU Berlin
Fachgebiet Sustainable Engineering
E-Mail: matthias.finkbeiner@tu-berlin.de
Quelle: IDW
Plastikpartikel gelangen tief in den Boden
Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Plastikabfall gelangt in viel tiefere Schichten des Bodens als bislang angenommen. Das haben Marburger Geographen herausgefunden, indem sie die Lahnauen in Mittelhessen untersuchten. Natürliche Ablagerungsprozesse allein können das Eindringen in tiefe Schichten nicht erklären, schreiben die Wissenschaftler in der aktuellen Ausgabe der Fachzeitschrift „Environmental Pollution“.
Dass Plastikreste die Meere vermüllen, hat sich herumgesprochen – schätzungsweise erreichen jedes Jahr mehr als 5 Millionen Tonnen Kunststoffabfall die Ozeane, das entspricht fast dem hundertfachen Gewicht des Luxusdampfers „Titanic“. Doch die Verschmutzung macht nicht am Meeresufer Halt. Wenn der Müll in Flüssen bis zu deren Mündung ins Meer treibt, passiert er Auenlandschaften und Überschwemmungsgebiete. „Es liegt nahe, dort eine systematische Anhäufung von Plastikpartikeln zu vermuten“, sagt der Marburger Geograph Collin Weber, einer der beiden Verfasser der aktuellen Studie.
Wieviel Kunststoff findet sich in den Böden von Flussauen? Wie ist er räumlich verteilt, was sind die Ursachen dafür? Diese Fragen untersuchten der Marburger Geograph Professor Dr. Christian Opp und sein Doktorand Collin Weber, indem sie an verschiedenen Stellen entlang des Flusses Lahn in Mittelhessen Bohrungen anstellten, um Bodenproben zu entnehmen. Sie gewannen aus einer Tiefe bis zu zwei Metern insgesamt 120 Proben, die sie nach Kunststoff durchsuchten.
„Nach unserer Kenntnis ist dies die erste Untersuchung, die Plastik in Bodenprofilen bis zwei Meter unter der Oberfläche aufspürt“, erklärt Studienleiter Christian Opp. Die Wissenschaftler unterschieden die gefundenen Partikel nach ihrer Größe: Grobes Mikroplastik misst zwei bis fünf Millimeter, während die Größe von Mesoplastik zwischen einem halben und zweieinhalb Zentimetern liegt.
Im Schnitt fanden die Forscher zwei Kunststoffteilchen pro Kilogramm Erde, wobei das Maximum bis zu viermal höher liegt. Alles in allem kommt in den Lahnauen weniger Plastik vor als in Flüssen, Flussbetten und Ackerböden. Von der Quelle bis zur Mündung in den Rhein nimmt der Plastikgehalt zu. Die häufigste Kunststoffsorte ist Polyethylen, wie es vor allem für Verpackungen verwendet wird, gefolgt von Polypropylen und Polyamid. „Diese drei gehören zu den gebräuchlichsten Kunststoffarten, die den größten Teil der Kunststoffproduktion ausmachen“, schreiben die Autoren.
Man sieht den Partikeln an, wenn sie lange im Boden liegen – sie sind dann ausgeblichen und teilweise abgebaut; frisches Plastik findet sich eher in Äckern als auf Wiesen oder im Uferbereich. „Das legt nahe, dass es durch die Landwirtschaft zu einem ständigen Neueintrag von Kunststoff kommt“, legt Weber dar.
Zwar enthält die oberste Bodenschicht die meisten Plastikpartikel, jedoch kommt auch bis zu einer Tiefe von mehr als 80 Zentimetern noch vereinzelt Kunststoff vor – insbesondere in Ufernähe; aber auch unter Weideland erreicht Kunststoff Tiefen von gut über einem halben Meter. „Das ist tiefer, als bisher angenommen wurde“, hebt Weber hervor. Das natürliche Ablagerungsgeschehen alleine reiche nicht aus, um das Vorkommen in derart tiefen Schichten zu erklären, betonen die Autoren. „Plastikpartikel können auch vertikal verlagert werden!“, konstatiert Opp. Bei Ackerland sammle sich der Kunststoff hingegen wenige Handbreit unter der Oberfläche, weil der verdichtete Boden ein tieferes Eindringen verhindere.
Christian Opp lehrt Geographie an der Philipps-Universität. Das Hessische Landesamt für Naturschutz, Umwelt und Geologie förderte die Forschungsarbeit finanziell.
Originalveröffentlichung:
Collin Joel Weber & Christian Opp: Spatial patterns of mesoplastics and coarse microplastics in floodplain soils as resulting from land use and fluvial processes, Environmental Pollution 2020, DOI: https://doi.org/10.1016/j.envpol.2020.115390
Weitere Informationen:
Ansprechpartner:
Collin Joel Weber,
Arbeitsgruppe Boden- und Hydrogeographie
Tel: 06421-28-24395
E-Mail: collin.weber@geo.uni-marburg.de
Quelle: IDW
Niedriger Blutdruck: Harmlos oder bedenklich für das Herz?
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Wann man zum Arzt gehen sollte und welche Menschen besonders häufig betroffen sind, erläutert Experten-Ratgeber
Die Beschwerden sind schwer von Befindlichkeitsstörungen zu unterscheiden, der Leidensdruck kann hoch sein: Schwindel, Benommenheit, Flimmern vor den Augen, morgendliche Müdigkeit, Antriebsmangel, Konzentrations- und Leistungsschwäche. Auch kalte Hände und Füße, ein Gefühl des Luftmangels, Herzklopfen und innere Unruhe können auftreten. Einen niedrigen Blutdruck durch körperliche Veranlagung, der nicht auf eine Vorerkrankung zurückgeht, haben in Deutschland bis zu drei Millionen Menschen. „Viele Betroffene fühlen sich von Beschwerden wie Müdigkeit oder Herzrasen beeinträchtigt“, berichtet Prof. Dr. med. Thomas Meinertz vom Wissenschaftlichen Beirat der Deutschen Herzstiftung. Diese Form des niedrigen Blutdrucks tritt (bis zur Menopause) häufiger bei jüngeren Frauen als bei älteren Personen auf. Bekanntlich kann ein zu hoher Blutdruck gefährlich für Herz und Gefäße werden bis hin zum Herzinfarkt und Schlaganfall, besonders dann, wenn der Hochdruck unentdeckt und unbehandelt bleibt. Deshalb rät die Herzstiftung ab 35 Jahren zur regelmäßigen Blutdruckmessung beim Hausarzt (Gesundheits-Checkup alle zwei Jahre). „Demgegenüber ist der niedrige Blutdruck für das Herz in aller Regel unbedenklich, wenn ihm keine Krankheiten zugrunde liegen“, betont der Kardiologe und Pharmakologe aus Hamburg. „Ist aber der Leidensdruck wegen der Beschwerden groß, sollten Betroffene zum Arzt, um organische Ursachen auszuschließen.“
Eine Hypotonie, wie der niedrige Blutdruck in der Fachsprache genannt wird, liegt vor, wenn der systolische (obere) Blutdruckwert unter 110 mmHg liegt. Dieser Grenzwert ist unabhängig von der Höhe des diastolischen (unteren) Blutdruckwerts. Über die Formen der Hypotonie – chronische und akute wie der plötzliche Blutdruckabfall -, wie und wann er therapiert werden sollte, informiert der Experten-Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“, der bei der Herzstiftung per Telefon unter 069 955128-400 kostenfrei angefordert werden kann. Unter www.herzstiftung.de erhalten Betroffene Informationen zu Diagnose und Therapie von niedrigem Blutdruck und Bluthochdruck.
Wann und wie den niedrigen Blutdruck behandeln?
Für eine Behandlung des niedrigen Blutdrucks ist für Mediziner von entscheidender Bedeutung, ob ihm organische Ursachen oder Krankheiten zugrunde liegen. Das können eine Unterfunktion der Nebenniere (Morbus Addison), der Schilddrüse oder der Hirnanhangdrüse, eine Blutarmut (Anämie), eine Erkrankung des vegetativen Nervensystems, Herzklappenfehler oder eine schwere Herzschwäche sein. Hier ist die Hypotonie das Symptom einer Krankheit beziehungsweise einer organischen Fehlfunktion, die gegebenenfalls medikamentös oder operativ behandelt werden muss.
Bei niedrigem Blutdruck durch körperliche Veranlagung ist die Prognose für die Betroffenen gut. Eine Behandlung ist nur bei Beschwerden wie den oben genannten notwendig, nicht medikamentös, sondern durch einfache Maßnahmen wie:
– eine erhöhte Kochsalzzufuhr (z. B. kräftig nachsalzen oder kräftige Fleisch- oder Gemüsebrühe), denn das Salz bindet Wasser, erhöht das Blutvolumen und somit auch den Blutdruck
– eine ausreichende Flüssigkeitsaufnahme (2 bis 2,5 Liter am Tag)
– körperliches Training (Ausdauersport, Radfahren, Schwimmen, Joggen)
– Hydrotherapie (Wechselduschen, Kneippkuren, Trockenbürsten, Sauna)
– Kraftgymnastik (Liegestütze, Kniebeugen, Hantelübungen); die Muskulatur der Beine soll gekräftigt werden, um die Pumpfunktion der Venen zu verbessern.
– ausreichenden Nachtschlaf, für das Aufstehen (langsam!) muss genügend Zeit eingeplant werden
– einen Aufenthalt in klimatischen Reizzonen (Nordsee, Hochgebirge)
„Ein großes Glas Wasser vor dem Aufstehen kann den Blutdruck erhöhen. Bei längerem Stehen soll die Wadenmuskulatur bewegt werden, um Ohnmachten vorzubeugen. Und auf Alkohol sollte man weitgehend verzichten“, rät Meinertz. Auch ausgedehnte Krampfadern können die Neigung zu niedrigem Blutdruck verstärken. Für eine bessere Blutzirkulation in den Beinen sind diesen Personen Stützstrümpfe zu empfehlen. Vorübergehend kann es bei jedem Menschen zu niedrigem Blutdruck kommen, etwa bei längerer Hitzeeinwirkung, nach Infektionskrankheiten oder Durchfall wegen des Flüssigkeitsverlusts und nach längerer Bettruhe.
Niedriger Blutdruck bei älteren Menschen
Kommt es beim Wechsel vom Liegen oder Sitzen zum Stehen oder bei längerem Stehen zu einem Blutdruckabfall mit Schwindel, Benommenheit und Gangunsicherheit, liegt meist ein sogenannter orthostatischer niedriger Blutdruck vor. Zur Vermeidung dieser orthostatischen Form der Hypotonie sollte ein abrupter Wechsel vom Liegen oder Sitzen in die stehende Position vermieden werden. „Der Lagewechsel sollte schrittweise und langsam erfolgen“, rät Meinertz. Bei älteren Hochdruckkranken mit Beschwerden wie Schwindel und Benommenheit kann der orthostatische niedrige Blutdruck die Ursache der Beschwerden sein, möglicherweise durch Medikamente ausgelöst. „Das können Diuretika sein, die die Wasserausscheidung verstärken, Blutdrucksenker wie Alphablocker, Psychopharmaka, Schlafmittel oder Medikamente gegen Parkinson“, erklärt Meinertz. Wenn nicht, sollten Betroffene dem niedrigen Blutdruck durch Maßnahmen wie oben entgegenwirken, also: erhöhte Kochsalzzufuhr und Flüssigkeitsaufnahme, regelmäßiges körperliches Training, Wechselduschen usw. Zusätzlich sollte beim Schlafen in der Nacht das Kopfende des Bettes um 15 cm hochgestellt werden, um den Patienten an die aufrechte Körperhaltung zu gewöhnen. „Der orthostatische niedrige Blutdruck tritt häufig bei älteren Menschen mit niedrigem und mit hohem Blutdruck auf und kann zu Stürzen mit all seinen Folgen führen.“
Bildmaterial und Rezensionsexemplar anzufordern unter: presse@herzstiftung.de
Tipps und kostenfreie Informationen für Betroffene
Der kostenfreie Ratgeber „Niedriger Blutdruck: Ursachen und Therapie“ (8 S.) informiert über die unterschiedlichen Formen des niedrigen Blutdrucks, die häufigsten Symptome und die Möglichkeiten der Therapie. Bestellung per Tel. 069 955128-400 oder E-Mail: bestellung@herzstiftung.de
Kardiologen raten zum Blutdruck-Pass:
Der kostenfreie Blutdruck-Pass zur Protokollierung der Blutdruckwerte der Herzstiftung kann unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de angefordert werden.
2020
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
presse@herzstiftung.de
www.herzstiftung.de
Originalpublikation:
Deutsche Herzstiftung (Hg.), Klaus D., Niedriger Blutdruck: Ursachen und Therapie, Frankfurt a M. 2020
Weitere Informationen:
http://www.herzstiftung.de/ihre-herzgesundheit/gesund-bleiben/bluthochdruck/blut… – Infos zum Thema Blutdruck und -messung
Anhang
PM_DHS_Niedriger-Blutdruck-Ursachen-Therapien_2020-08
https://idw-online.de/de/attachment80631
Quelle: IDW
Veganismus: Vitamin B12 wird gut ergänzt, Jod ist das Sorgenkind
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Studie des Bundesinstituts für Risikobewertung zeigt Unterschiede zwischen veganer und fleischhaltiger Ernährungsweise
Wer sich vegan ernährt, hat ein erhöhtes Risiko für einen Jodmangel. Darauf deuten Ergebnisse eines Forschungsvorhabens des Bundesinstituts für Risikobewertung (BfR) hin. In dem Studienprojekt „Risiken und Vorteile der veganen Ernährung“ (RBVD) untersuchte ein BfR-Forschungsteam bei 36 vegan und 36 Mischkost essenden Personen die Nährstoffversorgung. Kein wesentlicher Unterschied zeigte sich in Bezug auf Vitamin-B12, das bei beiden Gruppen in etwa dem gleichen Maß ausreichend im Blut vorhanden war. Da Vitamin-B12 in einer für den Menschen verfügbaren Form fast nur in tierischen Lebensmitteln vorkommt, könnte die Versorgung bei den sich vegan ernährenden Teilnehmenden an der Einnahme von Nahrungsergänzungsmitteln liegen. „Diese Studie ermöglicht es, die vegane Ernährung in Bezug auf eine Vielzahl von Vitaminen und Spurenelementen mit einer Mischkost zu vergleichen“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Bei beiden untersuchten Ernährungsformen hapert es bei der Jodversorgung. Hierbei ist die Unterversorgung bei der veganen Variante jedoch deutlich ausgeprägter.“
Die Studienergebnisse wurden jetzt im Deutschen Ärzteblatt veröffentlicht:
https://www.aerzteblatt.de/pdf.asp?id=215078
In der RBVD-Studie analysierte das BfR-Forschungsteam Blut- und Urinproben und wertete Lebensstil-Fragebögen und Ernährungsprotokolle aus. Von den teilnehmenden Personen (pro Gruppe jeweils 18 Frauen und Männer im Alter von 30-60 Jahren) nahmen nahezu alle sich vegan ernährenden und ein Drittel der Mischkost bevorzugenden Menschen unterschiedliche Nahrungsergänzungsmittel (Supplemente) ein.
Besonders auffällig waren die Studienergebnisse in Bezug auf das Spurenelement Jod. Die in Urinproben gemessene Jodausscheidung gibt Aufschluss darüber, wie gut der Körper mit dem Spurenelement versorgt ist. Die Mehrzahl der Teilnehmenden war unterversorgt. Der Mangel war bei den Veganerinnen und Veganern deutlich ausgeprägter – bei einem Drittel von ihnen lag der Wert unterhalb von 20 Mikrogramm pro Liter (μg/L), dem von der Weltgesundheitsorganisation (WHO) definierten Grenzwert, ab dessen Unterschreitung eine schwere Unterversorgung besteht. Doch zeigten sich bei veganer Ernährung auch gesundheitliche Vorteile wie eine höhere Aufnahme von Ballaststoffen und niedrigere Cholesterinwerte. Bei beiden Ernährungsstilen gab es bei ca. 10 % der Teilnehmenden Hinweise auf einen Eisenmangel.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: IDW
Neues Verfahren: Steroidhormone effizient aus Wasser entfernen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichten sie in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)
Weltweit belasten Mikroschadstoffe das Wasser. Dazu gehören Steroidhormone, für deren Beseitigung konventionelle Verfahren nicht ausreichen. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben ein innovatives Filtrationssystem entwickelt, das eine Polymermembran mit aktiviertem Kohlenstoff kombiniert. In diesem System setzen sie nun besonders kleine Kohlenstoffpartikel ein, sodass sie den von der Europäische Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol – dem physiologisch wirksamsten Östrogen – pro Liter erreichen. Über das verbesserte Verfahren berichtet das Team in der Zeitschrift Water Research. (DOI: 10.1016/j.watres.2020.116249)
Die Menschen mit sauberem Wasser zu versorgen, gehört weltweit zu den größten Herausforderungen des 21. Jahrhunderts. Häufig ist das Trinkwasser mit Mikroschadstoffen belastet. Dazu gehören auch Steroidhormone, die beispielsweise als Arzneistoffe und Verhütungsmittel eingesetzt werden. Ihr Anteil in einem Liter Wasser, in das behandelte Abwässer eingeleitet werden, beträgt zwar nur einige Nanogramm, aber bereits in dieser geringen Menge können sie der menschlichen Gesundheit schaden und sich auf die Umwelt auswirken. Wegen der niedrigen Konzentration und der winzigen Größe der Moleküle sind die Steroidhormone nicht nur schwer nachzuweisen, sondern auch schwierig zu beseitigen – konventionelle Klärtechniken reichen dazu nicht aus.
Richtwert der Europäischen Kommission wird erreicht
Ein innovatives Verfahren zur schnellen und energieeffizienten Eliminierung von Steroidhormonen aus dem Abwasser hat am KIT Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT), mit ihrem Team entwickelt. Ihre Technologie verbindet eine Polymermembran mit aktiviertem Kohlenstoff. „Zunächst wird das Wasser durch die semipermeable Membran gepresst. Diese filtert größere Verunreinigungen und Mikroorganismen heraus“, erklärt Schäfer. „Dann fließt das Wasser durch die dahinter liegende Schicht aus Kohlenstoffpartikeln, welche die Hormonmoleküle binden.“ Am IAMT haben Forschende dieses Verfahren nun zusammen mit dem Filterhersteller Blücher GmbH in Erkrath weiterentwickelt und verbessert. Kolleginnen und Kollegen am Institut für Funktionelle Grenzfläche (IFG), am Institut für Angewandte Materialien (IAM) und an der Karlsruhe Nano Micro Facility (KNMF) des KIT haben die Weiterentwicklung durch Materialcharakterisierung unterstützt. Darüber berichten die Wissenschaftlerinnen und Wissenschaftler in der Zeitschrift Water Research. „Unsere Technologie ermöglicht es nun, den von der Europäischen Kommission für Trinkwasser vorgeschlagenen Richtwert von einem Nanogramm Östradiol pro Liter zu erreichen“, berichtet die Verfahrenstechnik-Professorin Schäfer.
Auf Partikelgröße und Sauerstoffgehalt kommt es an
Die Wissenschaftlerinnen und Wissenschaftler untersuchten die Vorgänge an der Aktivkohleschicht genauer und verwendeten modifizierte Kohlenstoffpartikel (polymer-based spherical activated carbon – PBSAC). „Auf den Durchmesser der Kohlenstoffpartikel kommt es an“, erläutert Matteo Tagliavini vom IAMT, Erstautor der aktuellen Publikation. „Je kleiner der Partikeldurchmesser, desto größer die äußere Oberfläche der Aktivkohleschicht, die für die Adsorption der Hormonmoleküle verfügbar ist.“ Die Forscherinnen und Forscher verkleinerten in einer zwei Millimeter dicken Aktivkohleschicht den Partikeldurchmesser von 640 auf 80 Mikrometer und entfernten damit 96 Prozent des im Wasser enthaltenen Östradiols, des physiologisch wirksamsten Östrogens. Durch Erhöhen des Sauerstoffgehalts in der Aktivkohle gelang es, die Adsorptionskinetik noch weiter zu verbessern und mehr als 99 Prozent des Östradiols zu entfernen. „Das Verfahren erlaubt einen hohen Wasserdurchfluss bei niedrigem Druck, arbeitet energieeffizient, filtert viele Moleküle heraus, erzeugt keine schädlichen Beiprodukte und lässt sich flexibel in Vorrichtungen verschiedener Größe einsetzen – vom heimischen Wasserhahn bis hin zu Industrieanlagen“, so Schäfer.
Originalpublikation:
Matteo Tagliavini, Peter Georg Weidler, Christian Njel, Julia Pohl; Dennis Richter, Bertram Böhringer, Andrea Iris Schäfer: Polymer-based spherical activated carbon – ultrafiltration (UF-PBSAC) for the adsorption of steroid hormones from water: material characteristics and process configuration. Water Research, 2020. DOI: 10.1016/j.watres.2020.116249
Abstract unter https://doi.org/10.1016/j.watres.2020.116249
Weiterer Kontakt:
Sandra Wiebe, Redakteurin/Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Neues Verfahren: Steroidhormone effizient aus Wasser entfernen
https://idw-online.de/de/attachment80628
Quelle: IDW
Sicher musizieren in Zeiten von Corona
Claudia Weinreich Universitätskommunikation
Bauhaus-Universität Weimar
Seit dem 31. August sind Musik-und Theaterinszenierungen in Thüringen auch in Innenräumen wieder gestattet. Welche Hygieneschutzmaßnahmen bei Proben und öffentlichen Auftritten wirken, zeigt ein mehrstufiges Experiment der Professuren Bauphysik und Industriedesign an der Bauhaus-Universität Weimar in Kooperation mit der Thüringen Philharmonie Gotha-Eisenach sowie der Staatskapelle Weimar.
Das Singen sowie das Spielen von Blasinstrumenten stellt Musikerinnen und Musiker in Anbetracht der COVID-19-Pandemie vor große Herausforderungen: Um sich und andere zu schützen, gehören Desinfektion, häufiges Lüften und Abstand halten mittlerweile zu den Grundpfeilern eines jeden Hygienekonzeptes. Doch Musizieren mit Maske? Eine bedrückende Vorstellung, nicht nur für Konzertbesucherinnen und -besucher:
»Mund-Nasen-Bedeckungen helfen die Ausbreitung von infektiöser Atemluft zu mindern, beim Singen leidet jedoch die Klangqualität und für das Spielen von Blasinstrumenten sind diese gänzlich ungeeignet«, gibt Prof. Andreas Mühlenberend von der Professur Industriedesign an der Bauhaus-Universität Weimar zu bedenken. Um dennoch sicher zu musizieren, könnten spezielle Filter für Blechblasinstrumente sowie der »BauhausUniVisor«, beide unter seiner Leitung entwickelt und getestet, eingesetzt werden.
Den entscheidenden Impuls lieferte Prof. Gernot Süßmuth, Konzertmeister der Staatskapelle Weimar, der dringend nach einer praktikablen Lösung für das Problem suchte. Bereits vier Wochen später präsentierte Prof. Mühlenberend die ersten Prototypen: Die Filter bestehen aus herkömmlichem Zellstoff, welcher in eine wabenartige Form geschnitten und mit Hilfe von Klebeband vor dem Schallbecher des jeweiligen Blasinstrumentes bzw. vor dem Mundstück der Querflöte locker angebracht wird. Informationen und Schnittmuster stehen kostenfrei als Download zur Verfügung. Auch die Herstellungsanleitung des Visiers ist nach dem Prinzip des »Open Design« dank Prof. Jason M. Reizner (Bauhaus Form + Function Lab) über bffl.io frei verfügbar.
Luftausstoß reicht über einen Meter in den Raum
Die Wirksamkeit der prototypischen Filter sowie des »BauhausUniVisor« wurde zuvor in einem mehrstufigen Experiment an der Professur Bauphysik belegt: Mithilfe des Schlierenspiegels sowie des Background Oriented Schlieren (BOS) Verfahrens untersuchten die Weimarer Forscherinnen und Forscher, wie sich die Atemluft beim Singen und Musizieren – mit und ohne Maske bzw. Filter – ausbreitet. In Zusammenarbeit mit der Thüringen Philharmonie Gotha-Eisenach und der Staatskapelle Weimar wurden verschiedene Holz- und Blechblasinstrumente sowie der Gesang eines Baritons und einer Sopranistin getestet. Dabei zeigte sich: Wie stark sich die Atemluft ausbreitet, hängt nicht nur von der Art des Instruments, sondern zugleich von der individuellen Spiel- bzw. Gesangstechnik sowie den physischen Eigenschaften der Musikerinnen und Musiker ab. Bis zu maximal etwa 1,1 Meter weit reichte die Atemluft beim Musizieren in den Raum. Besonders ausgeprägt waren der Atemausstoß beim Spielen von Querflöte (über das Mundstück geblasene Luft), Klarinette (am Mundstück entweichende Nebenluft), Oboe und Fagott (Abatmen zwischen den Phrasen) sowie beim Singen.
Filter reduzieren Luftströmung beim Musizieren
Durch den Einsatz eines einfachen Filters wird die Reichweite der Atemluft, die beim Spielen der Instrumente weit in den Raum geführt wird, stark reduziert. Besonders deutlich war der Effekt beim Querflötenspiel zu beobachten: Mithilfe des Zellstofffilters konnte die über das Mundstück geblasene Luft von 100 auf weniger als 15 cm Reichweite reduziert werden ohne akustische Einbußen zu verzeichnen. »Auch beim Spielen der Blechblasinstrumente war durch den Gebrauch der Filter nahezu kein Unterschied in der Klangausformung zu hören, weshalb diese mindestens während der Proben zum Einsatz kommen könnten«, schlussfolgert Lia Becher von der Professur Bauphysik, welche die Experimente an der Bauhaus-Universität Weimar leitete.
Diese Filter seien jedoch nur bei Blechblasinstrumenten sinnvoll, da hier die gesamte Atemluft aus dem Schallbecher entweicht, so die Forscherin weiter. Beim Spielen von Holzblasinstrumenten tritt die Atemluft hingegen auch aus den Tonlöchern und teilweise am Mundstück aus. Eine Ausnahme zum Einsatz des Filters bildet die Querflöte, da bei dieser ein Großteil der Atemluft über das Mundstück geblasen wird. Der Filter kann hier am Kopfstück montiert werden, um die Ausbreitung der über die Anblaskante geblasenen Luft zu reduzieren.
Auch Mund-Nasen-Bedeckungen sowie der »BauhausUniVisor« hatten beim Singen nachweislich einen eindämmenden Effekt auf die ausgestoßene Atemluft. Allerdings wurde der Ton hierbei gedämpft, weshalb diese ausschließlich für Proben geeignet seien, lautet das Fazit des Experiments.
Über die Messverfahren
Die Schlierenverfahren (Schlierenspiegel und BOS) sind optische Methoden zur Visualisierung und Messung von Raumluftströmungen. Bei diesen Verfahren werden Dichteunterschiede in der Luft visualisiert, welche im Fall der Untersuchungen auf Unterschiede in Lufttemperatur, -druck oder -feuchte zurückzuführen sind. Zu beachten ist, dass mit den vorgestellten Schlierenverfahren keine Aussagen zur Verbreitung von Tröpfchen oder Aerosolen getroffen werden können. Die dargestellten Auswertungen können demnach nur herangezogen werden, um zu ermitteln, wie weit und in welchem Ausmaß die – möglicherweise infektiöse – Atemluft beim Singen und Spielen der Instrumente unmittelbar in den Raum transportiert wird. Weiterhin muss der Winkel berücksichtigt werden, in dem das jeweilige Instrument gespielt wird, um einschätzen zu können, in welche Richtung die Luft aus dem Schallbecher entweicht.
Wissenschaftliche Ansprechpartner:
Prof. Andreas Mühlenberend, Bauhaus-Universität Weimar, Professur Industriedesign, E-Mail: andreas.muehlenberend@uni-weimar.de
Prof. Dr.-Ing. Conrad Völker, Bauhaus-Universität Weimar, Professur Bauphysik, E-Mail: conrad.voelker@uni-weimar.de
Originalpublikation:
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…
https://www.uni-weimar.de/fileadmin/user/fak/bauing/professuren_institute/Bauphy…
Weitere Informationen:
https://vimeo.com/431505952
https://vimeo.com/445131873
Quelle: IDW
EAST – AFNET 4 Studie: Frühe rhythmuserhaltende Therapie verbessert Aussichten bei Vorhofflimmern
Dr. Angelika Leute Geschäftsstelle
Kompetenznetz Vorhofflimmern e.V. (AFNET)
Patienten mit neu diagnostiziertem Vorhofflimmern profitieren von einer frühen rhythmuserhaltenden Therapie. Das hat die Studie EAST – AFNET 4 herausgefunden, in der 2789 Patienten behandelt und fünf Jahre lang beobachtet wurden. Eine frühe rhythmuserhaltende Therapie mit Antiarrhythmika und/oder Katheterablation reduzierte im Vergleich zur üblichen Behandlung kardiovaskuläre Todesfälle, Schlaganfälle und durch Verschlechterung einer Herzinsuffizienz oder akutes Koronarsyndrom bedingte Krankenhausaufenthalte. Die Studie wurde heute beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) vorgestellt [1,2].
EAST – AFNET 4 ist eine europaweite klinische Studie, die vom Kompetenznetz Vorhofflimmern e.V. (AFNET) in Kooperation mit der Europäischen Rhythmologen-Vereinigung (EHRA) durchgeführt wurde. EAST steht für Early treatment of Atrial fibrillation for Stroke prevention, auf Deutsch: frühe Behandlung von Vorhofflimmern zur Verhinderung von Schlaganfällen.
Der wissenschaftliche Leiter der EAST – AFNET 4 Studie und Vorstandsvorsitzende des AFNET, Prof. Paulus Kirchhof, Universitäres Herzzentrum Hamburg und Universität Birmingham, fasst die wesentlichen Ergebnisse der Studie zusammen: „Eine rhythmuserhaltende Therapie, die zügig begonnen wurde, sobald Vorhofflimmern diagnostiziert wurde, reduzierte bei Patienten mit einem frühen Stadium von Vorhofflimmern kardiovaskuläre Folgen, ohne dass die Patienten mehr Zeit im Krankenhaus verbringen mussten, und ohne Sicherheitsbedenken. Diese Ergebnisse haben das Potential, die klinische Praxis grundlegend zu verändern, hin zum frühen Rhythmuserhalt zeitnah nach der Diagnosestellung Vorhofflimmern.“
Vorhofflimmern geht meist mit einem unregelmäßigen schnellen Herzschlag einher, und die Betroffenen haben ein erhöhtes Risiko für Schlaganfälle, weil während des Flimmerns Blutgerinnsel im Herzvorhof entstehen und mit dem Blutstrom ins Gehirn gelangen können. Patienten mit dieser Herzrhythmusstörung sterben häufig vorzeitig oder erleiden schwere Folgekrankheiten – sogar dann, wenn sie nach den aktuellen Leitlinien behandelt werden. Die heute übliche Therapie besteht im Wesentlichen aus Medikamenten zur Regulierung der Herzschlagfrequenz, um den Herzmuskel zu schützen, und zur Blutgerinnungshemmung (orale Antikoagulation), um das Schlaganfallrisiko zu senken. Rhythmusmedikamente (Antiarrhythmika) oder nichtmedikamentöse Maßnahmen (Katheterablation) zum Erhalt des normalen Sinusrhythmus kommen nur dann zum Einsatz, wenn der Patient unter besonders schweren Symptomen leidet. Die EAST – AFNET 4 Studie hat untersucht, ob eine rhythmuserhaltende Therapie mit Medikamenten und/oder einer Katheterablation, wenn sie frühzeitig nach der Diagnose Vorhofflimmern begonnen wird, die Aussichten der Patienten verbessert.
„Sogar mit oraler Antikoagulation und optimaler Frequenzregulierung kommen kardiovaskuläre Todesfälle, Schlaganfälle und Herzschwäche bei Patienten mit Vorhofflimmern häufig vor, insbesondere bei denjenigen, die an Begleiterkrankungen des Herz-Kreislauf-Systems leiden.“ sagt Prof. John Camm, St. George’s Universität, London, Großbritannien, und Mitglied des wissenschaftlichen Leitungsgremiums der EAST – AFNET 4 Studie.
„Das Risiko für schwere kardiovaskuläre Komplikationen und Todesfälle ist bei Patienten mit Vorhofflimmern im ersten Jahr nach der Diagnose am höchsten. Das legt nahe, dass eine Therapie am meisten nützt, wenn sie möglichst früh stattfindet.“ erklärt Prof. Kirchhof. „Außerdem verursacht Vorhofflimmern schon nach wenigen Wochen Schäden am Herzvorhof. Eine frühzeitige rhythmuserhaltende Therapie könnte diese Schäden verhindern oder verringern und die Behandlung dadurch wirksamer machen.“
Das Kompetenznetz Vorhofflimmern hat die EAST – AFNET 4 Studie ins Leben gerufen und als Sponsor durchgeführt. Als wissenschaftliche Partner waren die European Heart Rhythm Association (EHRA) und das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) beteiligt. Finanzielle Unterstützung zur Durchführung der Studie wurden von der Deutschen Herzstiftung, dem Bundesministerium für Bildung und Forschung (BMBF) und den Firmen Sanofi und Abbott zur Verfügung gestellt.
Insgesamt 2789 Patienten mit frühem Vorhofflimmern (weniger als ein Jahr nach der ersten Diagnose) nahmen an der EAST – AFNET 4 Studie teil. Sie wurden von 2011 bis 2016 in 135 Kliniken und Praxen in elf europäischen Ländern in die Studie eingeschlossen. Die Studienteilnehmer wurden einer der beiden Behandlungsgruppen „früher Rhythmuserhalt“ oder „übliche Behandlung“ nach dem Zufallsprinzip zugeordnet (Randomisierung). Die Patienten in beiden Gruppen erhielten eine leitlinienkonforme Therapie, bestehend aus der Behandlung ihrer kardiovaskulären Begleiterkrankungen, Blutgerinnungshemmung und Frequenzregulierung.
Alle Patienten der Gruppe „früher Rhythmuserhalt“ erhielten nach der Randomisierung zusätzlich Antiarrhythmika oder eine Katheterablation. Sobald bei einem Patienten dieser Gruppe Vorhofflimmern erneut auftrat, wurde die Therapie mit eine intensiviert mit dem Ziel, den normalen Sinusrhythmus durch eine Katheterablation und/oder antiarrhythmische Medikamente wiederherzustellen und möglichst dauerhaft zu erhalten.
Patienten der Gruppe „übliche Behandlung“ erhielten nur dann eine rhythmuserhaltende Therapie, wenn diese notwendig war, um durch Vorhofflimmern verursachte Symptome zu bessern, die trotz leitlinienkonformer frequenzregulierender Behandlung auftraten.
Anhand der im Prüfplan festgelegten Studienendpunkte wurden das Auftreten von schweren Komplikationen und die Krankenhausaufenthalte der Patienten zwischen beiden Studiengruppen verglichen. Der erste primäre Endpunkt umfasst kardiovaskulären Tod, Schlaganfall und Krankenhausaufenthalte wegen Verschlechterung einer Herzschwäche oder akutem Koronarsyndrom. Der zweite primäre Endpunkt zählt die pro Jahr im Krankenhaus verbrachten Nächte. Der primäre Sicherheitsendpunkt umfasst Schlaganfall, Tod jeglicher Ursache sowie schwere Komplikationen der rhythmuserhaltenden Therapie.
Die Randomisierung der Studienteilnehmer in eine der beiden Studiengruppen erfolgte durchschnittlich 36 Tage nach der Erstdiagnose. Fast alle Teilnehmer der Gruppe „früher Rhythmuserhalt“ (95 Prozent) erhielten tatsächlich die vorgesehene Behandlung, bestehend aus einem Antiarrhythmikum oder Katheterablation. Nach zwei Jahren waren 65 Prozent der Patienten der Gruppe „früher Rhythmuserhalt“ immer noch unter rhythmuserhaltender Therapie, und 19,4 Prozent der Patienten hatten sich einer Ablation unterzogen. 85 Prozent der Teilnehmer der Gruppe „übliche Behandlung“ waren ohne rhythmuserhaltende Maßnahmen versorgt worden. Von den Teilnehmern der Gruppe „früher Rhythmuserhalt“ befanden sich 82 Prozent im Sinusrhythmus, während es in der Gruppe „übliche Behandlung“ nur 61 Prozent waren.
Durch die frühe rhythmuserhaltende Therapie wurde ungefähr jedes fünfte Endpunkt-Ereignis verhindert: Die Studienteilnehmer wurden im Mittel über 5,1 Jahre beobachtet. Innerhalb dieser Beobachtungszeit ereignete sich der primäre Studienendpunkt in der Gruppe „früher Rhythmuserhalt“ bei 249 Patienten und in der Gruppe „übliche Behandlung“ bei 316 Patienten. Schwere Komplikationen und Krankenhausaufenthalte wegen Verschlechterung einer Herzinsuffizienz oder wegen eines akuten Koronarsyndroms waren also unter früher rhythmuserhaltender Therapie seltener als unter der üblichen Behandlung. Die absolute Risikoreduktion mit früher rhythmuserhaltender Behandlung lag bei 1,1 Prozent pro Jahr.
Prof. Hein Heidbüchel, Universität Antwerpen, Belgien, und Präsident der European Heart Rhythm Association (EHRA), erläutert: „Der klinische Nutzen des frühen Rhythmuserhalts zeigt sich auch in Subgruppen, zum Beispiel wenn man ausschließlich asymptomatische Patienten betrachtet, oder Patienten, die bei Randomisierung im Sinusrhythmus waren, oder Patienten ohne Herzschwäche.“ In der Gruppe „früher Rhythmuserhalt“ traten im Vergleich zur Gruppe „übliche Behandlung“ alle Bestandteile des primären Endpunktes seltener auf, kardiovaskuläre Todesfälle und Schlaganfälle waren signifikant reduziert.
Hinsichtlich des zweiten primären Endpunkts gab es keinen Unterschied zwischen den beiden Gruppen: Die im Krankenhaus verbrachte Zeit war unabhängig von der Behandlungsgruppe.
Der primäre Sicherheitsendpunkt ergab in beiden Gruppen ähnliche Zahlen: 231 Ereignisse bei „frühem Rhythmuserhalt“ gegenüber 223 Ereignissen bei „üblicher Behandlung“. Während in der Gruppe „früher Rhythmuserhalt“ Komplikationen der rhythmuserhaltenden Therapie zwar unregelmäßig, aber häufiger vorkamen, waren Schlaganfälle und Todesfälle in dieser Gruppe seltener, so dass sich die Zahl der Ereignisse in beiden Behandlungsgruppen insgesamt in etwa die Waage hält. Dieses Ergebnis deckt sich mit Beobachtungen aus anderen aktuellen Studien zur rhythmuserhaltenden Therapie.
AFNET Vorstandsmitglied und EAST Sponsor-Vertreter Prof. Andreas Götte, Paderborn, bemerkt abschließend: „AFNET und EHRA haben EAST – AFNET 4 als große wissenschaftsinitiierte Studie europaweit durchgeführt. Der Erfolg dieser Studie zeigt, dass solche Studien ein wirkungsvolles Mittel sind, um die klinische Praxis zu verändern.“
Informationen zu EAST – AFNET 4
https://www.easttrial.org
Twitter @afnet_ev, hashtag #EASTtrial
Publikationen
[1] Kirchhof P, Breithardt G, Camm AJ, et al. Improving outcomes in patients with atrial fibrillation: rationale and design of the Early treatment of Atrial fibrillation for Stroke prevention Trial. Am Heart J. 2013;166:442-448. doi:10.1016/j.ahj.2013.05.015
[2] Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
doi: 10.1056/NEJMoa2019422
Kompetenznetz Vorhofflimmern e.V. (AFNET)
Das Kompetenznetz Vorhofflimmern e.V. (AFNET) ist ein interdisziplinäres Forschungsnetz, in dem Wissenschaftler und Ärzte aus Kliniken und Praxen deutschlandweit zusammenarbeiten. Ziel des Netzwerks ist es, die Behandlung und Versorgung von Patienten mit Vorhofflimmern in Deutschland, Europa und den USA durch koordinierte Forschung zu verbessern. Dazu führt das Kompetenznetz Vorhofflimmern e.V. wissenschaftsinitiierte klinische Studien (investigator initiated trials = IIT) und Register auf nationaler und internationaler Ebene durch. Der Verein ist aus dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Kompetenznetz Vorhofflimmern hervorgegangen. Seit Januar 2015 werden einzelne Projekte und Infrastrukturen des AFNET vom Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) gefördert.
https://www.kompetenznetz-vorhofflimmern.de
Kompetenznetz Vorhofflimmern e.V. (AFNET)
Mendelstraße 11
48149 Münster
Tel.: 0251 9801330
info@kompetenznetz-vorhofflimmern.de
Pressekontakt
Dr. Angelika Leute
Tel: 0202 2623395
a.leute@t-online.de
Originalpublikation:
Kirchhof P, Camm AJ, Goette A, Brandes A, Eckardt L, Elvan A, Fetsch T, van Gelder IC, Haase D, Haegeli LM, Hamann F, Heidbüchel H, Hindricks G, Kautzner J, Kuck K-H, Mont L, Ng GA, Rekosz J, Schön N, Schotten U, Suling A, Taggeselle J, Themistoclakis S, Vettorazzi E, Vardas P, Wegscheider K, Willems S, Crijns HJGM, Breithardt G, for the EAST – AFNET 4 trial investigators. Early rhythm control therapy in patients with atrial fibrillation. New England Journal of Medicine. Epub 29 Aug 2020.
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422
Weitere Informationen:
https://www.easttrial.org
https://www.kompetenznetz-vorhofflimmern.de
https://www.nejm.org/doi/full/10.1056/NEJMoa2019422
Quelle: IDW
Volle Kraft voraus: Startschuss für die Integrierte WärmeWende Wilhelmsburg unter Beteiligung des CC4E der HAW Hamburg
Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Für den Förderaufruf „Reallabore der Energiewende“ des Bundeswirtschaftsministeriums wurden im Juli 2019 insgesamt 20 Gewinnerprojekte bekannt gegeben – eines davon ist das Hamburger Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg. Mitte August hat Staatssekretär Andreas Feicht den offiziellen Förderbescheid überreicht und damit den Startschuss für das Projekt gegeben. Das Team Wärme des CC4E ist mit einer Förderung von 1,7 Mio. Euro an diesem Projekt beteiligt.
Das Reallabor IW3 hat zum Ziel, in Hamburg-Wilhelmsburg eine nahezu emissionsfreie dezentrale Wärmeversorgung zu etablieren, die ohne fossile Energieträger auskommt und damit einen maßgeblichen Schritt zur Transformation eines urbanen Wärmenetzes zu schaffen. Nach der Übergabe des offiziellen Förderbescheides am 11. August kann das Projekt IW3 unter Konsortialführung von HAMBURG ENERGIE nun mit der Arbeit starten. Das Team Wärme des CC4E ist als Projektpartner und mit einer Förderung in Höhe von 1,7 Mio. Euro beteiligt.
Das Verbundprojekt IW3 – Integrierte WärmeWende Wilhelmsburg gliedert sich in drei Teilvorhaben: IWU (Geothermische Nutzung des urbanen Untergrunds), IWS (Systemintegration) und IWM (Integrierter Wärmemarkt). Das CC4E arbeitet in mehreren Arbeitspaketen im Teilprojekt IWs mit und ist federführend für die Umsetzung des Teilprojektes IWM verantwortlich. Darin soll ein Wärmemarktplatz für Handels- und Vermarktungsmechanismen von grüner Wärme entwickelt werden. Den Abnehmern soll damit die Möglichkeit gegeben werden, zwischen verschiedenen Wärmeprodukten entscheiden zu können. Die Nachweisführung für die angebotene Wärme soll mittels BlockChain gewährleistet sein.
„Der Stadtteil Wilhelmsburg ist perfekt geeignet als Reallabor für die Wärmewende hin zu einer erneuerbaren Versorgung“, so Peter Lorenzen, Koordinator des Teams Wärme am CC4E. „Zum einen ist die räumliche Abgrenzung von Wilhelmsburg als Flussinsel für ein solches Vorhaben von Vorteil, zum anderen gibt es bereits bestehende Infrastruktur vor Ort, an die wir mit IW3 anknüpfen können. Unser Team war in den letzten Jahren an mehreren Wärmeprojekten in Wilhelmsburg beteiligt und wir freuen uns darauf, unser bestehendes Fachwissen nun auch in IW3 einbringen zu können.“
„Wir freuen uns sehr über die positive Rückmeldung und Förderung für unsere Arbeit, das spornt uns immer weiter an“, so Prof. Dr. Werner Beba, Leiter des CC4E der HAW Hamburg. „Dass wir an diesem Reallabor beteiligt sind zeigt, dass die HAW Hamburg eine der führenden Institutionen im EE-Bereich im Norden ist. Mit IW3 knüpfen wir an die Erfolgsgeschichte des CC4E an, die in den letzten Jahren mit zahlreichen Partnerschafen und Projekten, wie NEW 4.0 oder X-Energy, an Fahrt aufgenommen hat.“
KONTAKTE:
HAW Hamburg / CC4E
Elvira Hinz
Referentin für Öffentlichkeitsarbeit
T +49 40 428 75 5850
elvira.hinz@haw-hamburg.de
Dr. Katharina Jeorgakopulos,
Pressesprecherin und Pressereferentin
T +49 40 428 75 91 32
presse@haw-hamburg.de
Weitere Informationen:
https://www.haw-hamburg.de/cc4e/
https://www.hamburgenergie.de/ueber-uns/presse/pressemeldung/article/start-fuer-…
Quelle: IDW
Eigene Gesundheitsdaten souverän handhaben
Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik
Sportuhren, Fitness-Tracker und Smart Watches erfassen sensible persönliche Daten. Wissenschaftlerinnen und Wissenschaftler des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen beteiligen sich an einem Forschungsverbund, der neue Wege sucht, um Menschen den selbstbestimmten Umgang mit ihren digitalen Daten zu ermöglichen.
Die Vermessung der eigenen Gesundheit zählt aktuell zu den großen gesellschaftlichen Trends. Fitness-Tracker, Sportuhren und Smart Watches haben sich in den vergangenen Jahren stark verbreitet. Sie kombinieren Werte wie die Herzfrequenz, das Gewicht und verschiedene Bewegungsdaten, um den Anwendern bei der Führung eines gesunden Lebensstils zu helfen.
Diese Geräte – sogenannte Wearables – machen es ihren Nutzern jedoch oft schwer, die Verwendung ihrer Daten zu verstehen und die passenden Datenschutzeinstellungen vorzunehmen. Die Arbeitsgruppe Mensch-Technik-Interaktion vom Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen entwickelt daher jetzt gemeinsam mit Partnern neue Technologien, die für Transparenz sorgen und einen souveränen Umgang mit den eigenen Daten ermöglichen sollen.
Endgeräte erlauben Zusammenführung von Daten in Nutzerprofilen
„Über die Selbst-Quantifizierung des persönlichen Verhaltens führen diverse Endgeräte und Plattformen persönliche Daten zusammen und bieten die Möglichkeit, ein komplexes Profil der Nutzenden und ihrer Umgebung zu erstellen“, erklärt Dr. Johannes Schöning, Professor für Mensch-Computer-Interaktion am TZI. „Bei den Daten, die durch Wearables erhobenen werden, handelt es sich oft um sensible biometrische Gesundheitsdaten, deren Weitergabe und Verarbeitung nicht im Nachhinein geändert werden kann. Entsprechend hoch ist der Bedarf an einer Grundlage für die erleichterte, reflektierte Entscheidungsfindung zur Verwendung dieser Daten.“
Es gibt bereits Bestrebungen, Einverständnis- und Datennutzungserklärungen statisch zu bebildern, um sie besser verständlich zu machen. Das Projekt InviDas (Interaktive, visuelle Datenräume zur souveränen, datenschutzrechtlichen Entscheidungsfindung) geht einen Schritt weiter und erforscht interaktive Darstellungen, um Einverständnis- und Datennutzungserklärungen verständlich und erlebbar zu machen. Dabei werden drei Methoden eingesetzt: Infografiken, Gamification (spielerisches Lernen) und In-Situ Visualisierung – letzteres beschreibt beispielsweise Infografiken, die mit Hilfe von Augmented Reality (erweiterte Realität) in den Raum projiziert werden, um Datenflüsse anschaulich darzustellen.
Im konkreten Anwendungsfall der Wearables soll unter Zuhilfenahme verschiedener Datenvisualisierungen auf einen Blick dargestellt werden, wie umfangreich ein Datenprofil der Person ist, welche Rückschlüsse beispielsweise auf Krankheiten gezogen werden können und welche Akteurinnen und Akteure auf bestimmte Daten zugreifen können. Bisher existieren solche Nutzerprofil-Repräsentationen nur in nüchterner Textform, was die Interaktionsmöglichkeiten begrenzt.
TZI mit zwei Projekten im BMBF-Förderprogramm vertreten
Die Arbeitsgruppe Mensch-Technik-Interaktion bringt in das Projekt die umfassende Erfahrung in der Gestaltung, Entwicklung und Evaluierung von Benutzerschnittstellen sowie in der Datenvisualisierung ein. Weitere Projektpartner sind die Gesellschaft für Informatik (Verbundkoordinator), die RWTH Aachen, die Garmin Würzburg GmbH, die Stiftung Digitale Chancen und die Otto-Friedrich-Universität Bamberg.
Das Projekt läuft bis April 2023 und wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „Technik zum Menschen bringen“ mit insgesamt 1,82 Millionen Euro gefördert. Im gleichen Förderprogramm ist das TZI bereits mit dem Projekt „UsableSec@Home“ vertreten. Dort geht es um den Schutz vor Sicherheitslücken im Smart Home.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes Schöning
Technologie-Zentrum Informatik und Informationstechnik (TZI)
Universität Bremen
Telefon: +49 218-63591
E-Mail: schoening@uni-bremen.de
Weitere Informationen:
http://www.technik-zum-menschen-bringen.de/projekte/invidas Projektseite
http://www.tzi.de Technologie-Zentrum Informatik und Informationstechnik
http://www.uni-bremen.de Universität Bremen
Quelle: IDW
Bessere Sicht für Tauchbojen
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Universität Oldenburg testet optische Messverfahren in neuem BMBF-Projekt
Ein globales Netzwerk autonomer Tauchbojen bekommt Verstärkung: Im Projekt DArgo2025, das Anfang August gestartet ist, bestücken Oldenburger Meeresforscher um Prof. Dr. Oliver Zielinski vom Institut für Chemie und Biologie des Meeres (ICBM) sechs „Mini-U-Boote“, so genannte Argo-Floats, mit verschiedenen optischen Sensoren, um diese zu testen. Die Pilotstudie unter der Leitung des Bundesamts für Schifffahrt und Hydrographie (BSH) in Hamburg dauert noch bis Ende 2021, das Bundesforschungsministerium fördert den Anteil der Universität Oldenburg mit rund 965.000 Euro.
Die neuen Tauchbojen sollen einen Generationenwechsel im internationalen Forschungsprogramm Argo einleiten, das im Jahr 2000 begann und an dem mittlerweile mehr als 30 Staaten beteiligt sind. Argo umfasst eine Flotte von knapp 4.000 etwa zwei Meter langen Messrobotern, die autonom durch die Weltmeere driften, 160 davon stammen aus Deutschland. Alle Drifter treiben in einer Meerestiefe von 1.000 Metern mit der Strömung und sinken alle neun Tage auf 2.000 Meter ab. Von dort aus steigen sie zur Oberfläche auf und messen dabei Druck, Leitfähigkeit und Temperatur des Meerwassers. Anschließend senden sie die Messdaten und ihre jeweilige Position zu einem Satelliten. Die Argo-Floats sind meist rund vier Jahre im Meer unterwegs, bis ihre Batterien erschöpft sind. Die gewonnenen Daten sind frei zugänglich und dienen dazu, den klimatischen Zustand der Weltmeere zu bestimmen.
Nun werden die Kapazitäten der Mini-U-Boote erweitert. Ein Teil von ihnen liefert inzwischen auch Informationen über biologische und chemische Vorgänge im Meer. Diese sogenannten Biogeochemical Argo-Floats – abgekürzt: BGC-Floats – sind mit zusätzlichen Sensoren ausgestattet. Daran, die Leistungsfähigkeit dieser Messfühler weiter zu verbessern, arbeitet auch das Team um den Meeresphysiker Zielinski im Oldenburger Teilprojekt. Die Forscher planen, sechs Floats mit optischen Sensoren zu bestücken, die das Unterwasserlichtfeld vermessen – also das Restlicht im Meer, das mit zunehmender Wassertiefe immer schwächer wird. „Momentan verfügen BGC-Floats üblicherweise über Messgeräte, so genannte Radiometer, die maximal vier verschiedene Wellenlängen des Lichtes registrieren können“, berichtet Zielinski. Schwerpunkt des ICBM-Projekts sei es, kommerziell verfügbare Radiometer zu testen, die Licht in bis zu 200 verschiedene Kanäle im ultravioletten und sichtbaren Bereich des Spektrums aufspalten und die jeweilige Lichtstärke messen können.
Mit solchen Messungen wollen Biologen in Zukunft Veränderungen im Unterwasserlichtfeld registrieren, die zum Beispiel im Wasser gelöste Stoffe hervorrufen: Bestimmte organische, aber auch anorganische Substanzen filtern sozusagen bestimmte Farben aus dem Licht heraus. Da das Unterwasserlichtfeld das Wachstum von Algen und damit auch die Lebensbedingungen von tierischem Plankton, Fischen und andere Lebewesen stark beeinflusst, lassen sich über die optischen Messungen wichtige Hinweise auf die biologischen Aktivitäten im Meer gewinnen.
Das Team will außerdem im Zentrum für Marine Sensorik (ZfMarS) am ICBM in Wilhelmshaven einen bio-optischen Kalibrier- und Qualitätssicherungsplatz einrichten. „Wir untersuchen, welche der von uns getesteten Sensoren die besten Ergebnisse liefern und inwieweit die Messungen verschiedener Sensoren vergleichbar sind“, sagt Zielinski. Die neuen Sensoren müssen über mehrere Jahre zuverlässige Ergebnisse liefern – trotz Wind und Wellen, Bewuchs, Korrosion und hohem Druck in der Tiefsee.
Zielinski und sein Team sind aktuell noch an zwei weiteren vom Bundesforschungsministerium geförderten Projekten beteiligt. In den Vorhaben SpectralArgo-N und BGC-Argo-Next testen die Forscherinnen und Forscher ebenfalls neue optische Sensoren für die Argo-Flotte, darunter radiometrische, photometrische und fluorometrische Messgeräte. Daneben registrieren die von dem Team betreuten Floats noch weitere biogeochemische Daten, etwa den pH-Wert des Meerwassers, den Sauerstoffgehalt, das gelöste organische Material und den Chlorophyllgehalt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Oliver Zielinski, Tel.: 0441/798-3518, E-Mail: oliver.zielinski@uol.de
Weitere Informationen:
https://uol.de/icbm/msys
Quelle: IDW
Bundesweite Umfrage: Corona-Warn-App
Marlon Taddigs Marketing und Kommunikation
OFFIS – Institut für Informatik
Die deutsche Corona-Warn-App steht seit Mitte Juni 2020 zum Download zur Verfügung. Über 17 Millionen Mal wurde sie bereits heruntergeladen. Nach anfangs hohen Downloadzahlen steigt diese Zahl jedoch nur noch langsam. Das Forschungsinstitut OFFIS möchte unter anderem ermitteln, warum Menschen die App nicht nutzen und von den Benutzer*innen wissen, wie ihnen die App im Umgang gefällt.
Der Forschungsbereich Gesundheit des niedersächsischen Informatikinstituts OFFIS hat eine aktuelle Umfrage zur Nutzung – oder auch Nichtnutzung – der deutschen Corona-Warn-App gestartet. Die Wissenschaftler*innen des Instituts arbeiten seit vielen Jahren an vielfältigen technischen Lösungen im Gesundheitsweisen. Ein großer Bereich sind dabei sogenannte intelligente Nutzungsschnittstellen, denn aus Sicht der OFFIS Forscher*innen sollen neuste Technologien möglichst leicht nutzbar sein.
Nach ihrem Start wurde die Corona-Warn-App, nach Angaben des RKI, in den ersten vier Tagen rund zehn Millionen Mal heruntergeladen, seitdem steigen die Downloadzahlen jedoch deutlich langsamer und liegen aktuell bei gut 17 Millionen. Diese Zahlen lassen jedoch keinen Rückschluss darauf zu, auf wie vielen Geräten die App tatsächlich reibungslos läuft. Die App könnte gar nicht erst in Betrieb genommen worden sein, sie könnte wieder deinstalliert worden sein oder das mobile Endgerät könnte zu alt sein – der wirkliche Nutzen ist derzeit schwer zu ermitteln. Und auch an die aktiven Nutzer*innen gibt es Fragen: Was sind die Beweggründe, die App zu nutzen? Führt die Nutzung der App gegebenenfalls sogar zu einem riskanteren Verhalten?
In der vor Kurzem gestarteten Onlineumfrage möchte das Informatikinstitut OFFIS diese Punkte hinterfragen. Erhofft wird eine möglichst breite, vielfältige Beteiligung an der Umfrage, um zu ermitteln, wie die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit durch die App in Bezug auf die Corona-Pandemie beeinflusst werden. So soll die Studie dazu beitragen, bestehende Bedenken gegen die App besser zu verstehen und abzubauen.
Die Onlinebefragung besteht aus einem Fragebogen, welcher sich in einen inhaltlichen und einen demografischen Teil gliedert. Die Umfrage ist selbstverständlich anonym. Es werden keine personenbezogenen Daten erhoben und es sind keine Rückschlüsse auf die Person möglich.
Die Befragung ist bis zum 30.09.2020 hier verfügbar: https:/bit.ly/corona-app-studie
Im Anschluss werden die Daten ausgewertet. Erste Ergebnisse werden die Forscher*innen bis Ende Oktober unter www.offis.de/corona-app-studie auch für die Öffentlichkeit zur Verfügung stellen.
Weiterführende Informationen
Umfrage: https://bit.ly/corona-app-studie
Weitere Informationen: www.offis.de/corona-app-studie
Wir untersuchen mit dieser Studie, inwiefern die offizielle Corona-Warn-App der Bundesregierung die Wahrnehmung und das Verhalten der Bevölkerung in der Öffentlichkeit in Bezug auf die Corona-Pandemie beeinflusst.
Die Onlinebefragung besteht aus einem Fragebogen, mit einem inhaltlichen und einem demografischen Teil. Das Ausfüllen sollte nicht länger als 20 Minuten dauern. Es werden keine personenbezogenen Daten erhoben, so dass keine Rückschlüsse auf die Person der Teilnehmenden möglich sind. Die Teilnahme an der Studie ist freiwillig. Die im Rahmen dieser Studie erhobenen Daten können zu weiteren Forschungszwecken an Dritte weitergegeben werden.
Die Erhebung der Daten erfolgt vollständig anonymisiert, d. h. an keiner Stelle werden Name oder andere identifizierende personenbezogene Daten erfragt bzw. gespeichert. Datensätze, aus deren Antworten die Identität des Teilnehmenden erkennbar ist, werden gelöscht. Es werden ausschließlich folgende Daten gespeichert: Antworten auf die Fragen, Datum und Uhrzeit der Beantwortung des Fragebogens. Die Daten werden ausschließlich auf Rechnern des OFFIS – Institut für Informatik in Oldenburg, Deutschland gespeichert.
Diese Studie wird im Rahmen des Projektes PANDIA durchgeführt, einem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt (FKZ: 16SV8397). Die Studie ist unabhängig vom Robert-Koch-Institut, der SAP AG, und der Telekom.
Über: OFFIS – Institut für Informatik
OFFIS ist ein 1991 gegründetes, international ausgerichtetes, anwendungsorientiertes Forschungs- und Entwicklungsinstitut für Informatik mit Sitz im niedersächsischen Oldenburg. In durchschnittlich 70 laufenden Projekten leistet OFFIS mit seinen über 300 Mitarbeiterinnen und Mitarbeitern aus rund 25 Nationen Forschung und prototypische Entwicklungsarbeit auf höchstem internationalem Niveau in den Forschungsbereichen Energie, Gesundheit, Produktion und Verkehr. Dabei kooperiert OFFIS mit weltweit über 700 Partnern aus Wirtschaft und Wissenschaft.
In allen Forschungsbereichen des OFFIS wirken unsere Wissenschaftler*innen mit in unterschiedlichsten Gremien, Ethik-Kommissionen, erarbeiten Studien, Roadmaps und geben Empfehlungen aus – auf nationaler und internationaler Ebene.
Der Forschungsbereich Gesundheit des OFFIS ist heute die größte außerklinische Gesundheitsinformatik in Deutschland und trägt maßgeblich zur Stärkung der Gesundheitswirtschaft im Nordwesten bei. Informationstechnologien für das Gesundheitswesen und die Medizin, wie das Epidemiologische Krebsregister Niedersachsen und die maßgebliche Beteiligung an der Entwicklung des internationalen medizinischen Bildkommunikationsstandards DICOM sind nur zwei der zahlreichen Beispiele für erfolgreiche Arbeiten des Bereichs.
www.offis.de
Wissenschaftliche Ansprechpartner:
Dr. Jochen Meyer, meyer@offis.de, 0441 / 972-185
Weitere Informationen:
http://www.offis.de/corona-app-studie
Quelle: IDW
Gärrückstände aus Biogasanlagen optimal verwerten – Jetzt zur Online-Fachtagung am 15.9.2020 anmelden!
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Die Fachagentur Nachwachsende Rohstoffe e. V. (FNR) lädt am 15. September 2020 zur 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ ein. In diesem Jahr wird die Veranstaltung, die vom Institut für Agrar- und Stadtökologische Projekte an der Humboldt-Universität zu Berlin als wissenschaftlicher Partner unterstützt wird, erstmals online ausgerichtet.
Um den steigenden Anforderungen an die Gärrestverwertung gerecht zu werden, die sich u. a. aus der Nitratrichtlinie, der Düngeverordnung sowie dem Klimaschutzplan ergeben, wächst der Bedarf an neuen Lösungen für Aufbereitung, Handling und bedarfsgerechte Ausbringung von Wirtschaftsdüngern und Gärprodukten. Längere Sperrfristen für die Ausbringung, die Begrenzung der Stickstoffgaben, die Reduzierung der Ammoniak- und Lachgasemissionen sowie die daraus resultierende notwendige Erweiterung der Lagerkapazitäten und die Abdeckung von Gärrestelagern gehören zu den wesentlichen Herausforderungen, denen sich Landwirte künftig stellen müssen.
Die 4. Fachtagung „Pflanzenbauliche Verwertung von Gärrückständen aus Biogasanlagen“ zeigt neue Erkenntnisse zur Aufbereitung und Nutzung von Gärresten im Einklang mit den rechtlichen Rahmenbedingungen auf. Dabei werden auch neue Forschungsansätze aus dem Förderaufruf „Nachhaltige Verwertung und Aufbereitung von Gärrückständen“ des Bundesministeriums für Ernährung und Landwirtschaft vorgestellt.
Die Veranstaltung wird von einer Online-Posterausstellung begleitet. Das Programm sowie weitere Informationen zur Anmeldung und zur Tagung finden Sie auf unserer Veranstaltungswebsite https://veranstaltungen.fnr.de/gaerrestetagung-2020.
Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e.V.
Jessica Hudde
Tel.: +49 3843 6930-206
E-Mail: j.hudde@fnr.de
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Nicole Paul
Tel.: +49 3843 6930-142
Mail: n.paul@fnr.de
Quelle: IDW
TU Berlin: Coronavirus – Wissenschaftler*innen beantworten Fragen zu Aerosolen und richtigem Lüften von Innenräumen
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Richtig lüften – aber wie?
Wissenschaftler*innen des Hermann-Rietschel-Instituts der TU Berlin beantworten die wichtigsten Fragen rund um die Belüftung von Innenräumen
Die Corona-Pandemie hält die Welt noch in Atem, gleichzeitig kehrt bei immer mehr Menschen in Deutschland wieder so etwas Ähnliches wie Alltag ein: Derzeit öffnen nach und nach die Schulen in Deutschland, immer mehr Personen arbeiten wieder in ihren Büros. Parallel zeichnet sich deutlich ab, dass die Virenverbreitung durch Aerosole in geschlossenen Räumen eine große Rolle zu spielen scheint. Die ersten Schulen mussten ihre Tore bereits wieder schließen. Ein regelmäßiger Luftaustausch kann dabei helfen, die Virusverbreitung in Räumen zu begrenzen.
Das Hermann-Rietschel-Institut der TU Berlin ist die weltweit älteste wissenschaftliche Einrichtung auf dem Gebiet der Heizung, Lüftung und Klimatisierung. Aufgabe der Wissenschaftler*innen ist es, die Bedingungen zu erforschen, die ein Raumklima schaffen, das die Grundbedürfnisse der Menschen nach Gesundheit, Sicherheit und Behaglichkeit befriedigt.
Prof. Dr. Martin Kriegel ist Leiter des Hermann-Rietschel-Instituts der TU Berlin und forscht bereits seit seiner Berufung im Jahr 2011 an der Ausbreitung von Aerosolen: „Entscheidend ist es, dass wir die bestehenden Regeln zum Lüften beachten. Sonderregeln sind derzeit noch nicht nötig.“ Doch wie lüftet man eigentlich richtig, damit es tatsächlich zu einem effektiven Luftaustausch kommt? Was passiert mit den Viren, die über Aerosole in die Raumluft gelangen, wie lange bleiben sie dort und wie verteilen sie sich? Können Luftfilter helfen?
„Je nach Raumsituation entstehen spezielle Raumluftströmungen. Die dadurch entstehende Aerosolverteilung, kann man am besten einschätzen, wenn einem die wissenschaftlichen Hintergründe klar sind“, weiß der Forscher. Zusammen mit seinem Team an der TU Berlin hat sich der Wissenschaftler darum bemüht, möglichst viele alltägliche Fragen rund um das Thema Aerosole und Belüftung zu sammeln und für die Öffentlichkeit verständlich zu beantworten.
Die vollständige Liste der Fragen und Antworten finden Sie hier:
https://www.tu.berlin/go10026/
Zu speziellen Themen in Bezug auf SARS-CoV-2 haben die Wissenschaftler*innen einen Blog erstellt, der laufend aktualisiert wird:
https://blogs.tu-berlin.de/hri_sars-cov-2/
Weiterführende Informationen zu den Forschungsaktivitäten und den Veröffentlichungen von Prof. Dr. Martin Kriegel und seinem Team finden Sie hier:
https://www.hri.tu-berlin.de/menue/research/publications_at_hri/
https://www.hri.tu-berlin.de/menue/research/
Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Martin Kriegel
TU Berlin
Hermann-Rietschel-Institut
Tel.: 030 314-24170
E-Mail: Kontakt@hri.tu-berlin.de
Quelle: IDW
Hitze und Starkregen – so passen sich Kommunen an den Klimawandel an
Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.
Deutschland kämpft immer mehr mit den Folgen des Klimawandels. Höhere Temperaturen, längere und intensivere Trockenperioden, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf unsere Kommunen aus. Ein Hintergrundpapier des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zeigt, wie sie mit der Hitze umgehen und die Infrastruktur schützen können.
Städte heizen sich im Sommer stärker als das Umland auf und sind wegen ihrer dichten Bebauung anfälliger für Sturzfluten. Um Hitze zu reduzieren, müssen die Kommunen Parks, Gärten und kleinere Grünanlagen sichern und ausbauen. Die Grün- und Freiflächen kühlen in der Nacht sehr viel stärker ab als dicht bebaute Bereiche. Auch freie Flächen außerhalb der Stadt sind schützenswert: Kühlere Luft gelangt von hier in innere Stadtbereiche. Überdies senken verschattete Plätze und Wege die Temperaturen.
Bäume und Sträucher, die wenig Wasser benötigen, überstehen auch längere sommerliche Trockenperioden gut. Begrünte Dächer und Fassaden mildern Temperaturspitzen ab. Ein Schlüssel für kühlere Temperaturen sind helle Oberflächenmaterialien für Plätze, Wege und Straßen, Fassaden und Dächer. Sie reflektieren das Sonnenlicht und heizen sich nicht so stark auf.
Stadtgrün mindert nicht nur Hitze, sondern unterstützt auch die Vorsorge gegen Starkregen. Grüne Oasen sorgen dafür, dass große Regenmengen versickern können. Kommunen fördern diesen Effekt, wenn sie überbaute Flächen wie Zufahrten, Parkplätze, Gehwege oder Höfe entsiegeln, sie also wieder wasserdurchlässig machen. Eine wassersensible Stadtplanung orientiert sich am Prinzip der Schwammstadt: Wie bei einem Schwamm wird das Regenwasser in möglichst vielen Bereichen zurückgehalten und erst schrittweise an den Boden, die Kanalisation oder Gewässer abgegeben. Dies erfolgt beispielsweise über natürliche und künstlich angelegte Speicher wie Mulden, Rigolen oder bepflanzte Dächer. Hierdurch kann mehr Wasser verdunsten und zur Kühlung der Städte beitragen. Gleichzeitig wird die Neubildung von Grundwasser gefördert, die Kanalisation entlastet und das Risiko von Überflutungen reduziert.
Risikokarten helfen Kommunen dabei, solche Anpassungen zu planen. Die hoch aufgelösten Karten markieren Bereiche in der Stadt, die sich im Sommer besonders stark aufheizen oder starken Überflutungsrisiken ausgesetzt sind.
„Die Anpassung an die Folgen des Klimawandels ist eine Querschnittsaufgabe für die Städte. Viele Ämter beteiligen sich daran. Es gibt aber noch große Potenziale, um die Städte robuster gegenüber Klimarisiken zu machen“, sagt BBSR-Experte Fabian Dosch. „Stadtgrün mindert die Hitze und die Folgen von Starkregen – und macht unsere Städte schöner, gesünder und damit noch lebenswerter.“
Interessierte finden das Hintergrundpapier unter http://www.bbsr.bund.de. Die Website http://www.klimastadtraum.de bietet Studien und Handlungshilfen für Verantwortliche und Fachleute in Kommunen und Regionen, die Maßnahmen zur Anpassung an den Klimawandel planen und umsetzen.
Kontakt
Christian Schlag
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31-37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de
Bleiben Sie informiert und folgen Sie dem BBSR auf Twitter: http://www.twitter.com/bbsr_bund
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.
Quelle: IDW
Deutsches Hochwasserrisiko-Management ist nur selten naturbasiert
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Die Folgen von Hochwasser lassen sich nicht nur mit Deichen, Poldern und Rückhaltebecken mindern: Auch naturbasierte Lösungen – englisch Nature-Based Solutions, kurz NBS – tragen zum Wasserrückhalt bei und schützen so vor seiner zerstörerischen Wirkung. Trotzdem machen sie nur neun Prozent der vorgeschlagenen Maßnahmen in Hochwasserrisiko-Managementplänen der Bundesländer aus. Das hat eine Analyse des Teams von Prof. Dr. Christian Albert, Inhaber des Lehrstuhls für Umweltanalyse und -planung in metropolitanen Räumen am Geographischen Institut der Ruhr-Universität Bochum (RUB), ergeben.
Das Team veröffentlichte die Ergebnisse in der Zeitschrift Environmental Science and Policy vom 16. Mai 2020.
Bessere Gewässerqualität und mehr Artenschutz
NBS können nicht nur vor Hochwasser schützen: Man hofft durch Maßnahmen wie die Renaturierung von Flussauen und die Wiederanbindung saisonaler Bäche auch, dass sich die Wasserqualität verbessert und man die Artenvielfalt fördern kann. Die europäische und deutsche Politik haben das Potenzial von NBS erkannt und in ihren Richtlinien verankert, etwa in der EU-Hochwasserrichtlinie.
Das Forschungsteam des Geographischen Instituts wollte wissen, inwieweit diese Maßgaben bereits in Hochwasserrisiko-Managementplänen der Behörden aufgegriffen werden, die für jedes Flusseinzugsgebiet erstellt werden müssen. Eine Dokumentenanalyse gab Aufschluss darüber, wie hoch jeweils der Anteil von NBS in Plänen ausgewählter Bundesländer ist. Außerdem wollten die Forscher ergründen, welche Faktoren den vorgefundenen Umfang erklären können.
19 Pläne wurden analysiert
„Für die Analyse haben wir Hessen, Niedersachsen und Sachsen ausgewählt, weil sich die drei Bundesländer wesentlich in ihrer Wasserwirtschaftsverwaltung, ihrer Form der Regionalplanung und Betroffenheit von vergangenen Hochwasserereignissen unterscheiden“, erklärt Erstautor Mario Brillinger. Die Dokumentenanalyse umfasste 19 Hochwasserrisiko-Managementpläne, die für 2012 bis 2015 erstellt worden waren.
Die Studie zeigt, dass NBS nur sehr selten in diesen Plänen aufgegriffen werden: Sie machen nur neun Prozent aller insgesamt 4.282 vorgeschlagenen Maßnahmen aus. Stark vertreten sind dagegen mit 45 Prozent Maßnahmen der Verhaltens- und Risikovorsorge wie die Förderung eines verstärkten Risikobewusstseins, die Aktualisierung von Alarm- und Einsatzplänen, das Katastrophenschutzmanagement oder die Veröffentlichung von Hochwassergefahrenkarten. Auch technische Schutzmaßnahmen sind mit rund 41 Prozent stark vertreten.
Hessen schlug die meisten NBS vor und bevorzugte dabei Renaturierungsmaßnahmen des Uferbereichs und Maßnahmen der Flussauenentwicklung. Niedersachsen zeigte die wenigsten NBS und präferierte dabei vor allem die Wiederherstellung von natürlichen Rückhalteflächen. In Sachsen konnten die Forscher relativ häufig den Rückbau von Wehren als NBS klassifizieren.
Der Bewertung der Maßnahmen mehr Daten zugrunde legen
„Darüber hinaus haben wir untersucht, welche Kriterien es begünstigen, dass NBS vorgeschlagen werden“, erklärt Christian Albert. In den analysierten Plänen wurden NBS dann stärker berücksichtigt, wenn es sich um kleinere Nebenflüsse und Situationen mit geringer Hochwassergefahr handelte. Auch hing die Berücksichtigung von NBS davon ab, wie die Verantwortlichen ihre Wirksamkeit und die zu erwartenden Kosten und Nutzen einschätzten. „Die zuständigen Personen vertrauten NBS in diesen Punkten offenbar weniger als anderen Maßnahmen“, berichtet Mario Brillinger. „Sie gingen häufiger davon aus, dass NBS mehr Planungs- und Verwaltungskosten verursachen und weniger wirksam sind als andere Schutzmaßnahmen.“
Das Forschungsteam schlägt vor, bei der Erstellung von Hochwasserrisiko-Managementplänen künftig Bewertungsmethoden anzuwenden, die auf den besten Daten über die vielfältigen Wirkungen von NBS und anderen Maßnahmen beruhen. Außerdem sollte man das lokale Wissen betroffener Akteure berücksichtigen. So könnten sich NBS künftig besser ins Hochwasserrisiko-Management einbeziehen lassen.
Originalveröffentlichung
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008
Pressekontakt
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615
Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Albert
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: +49 234 32 19615
Mario Brillinger
Geographisches Institut
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
E-Mail: mario.brillinger@rub.de
Originalpublikation:
Mario Brillinger, Alexandra Dehnhardt, Reimund Schwarze, Christian Albert: Exploring the uptake of nature-based measures in flood risk management: Evidence from German federal states, in: Environmental Science and Policy, 2020, DOI: 10.1016/j.envsci.2020.05.008
Weitere Informationen:
https://www.sciencedirect.com/science/article/abs/pii/S1462901119306690 – Link zum Originalpaper
Quelle: IDW
Mundspülungen könnten Corona-Übertragungsrisiko senken
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Sars-Cov-2-Viren lassen sich mit bestimmten handelsüblichen Mundspülungen inaktivieren. Das zeigten Virologinnen und Virologen der Ruhr-Universität Bochum gemeinsam mit Kollegen aus Jena, Ulm, Duisburg-Essen, Nürnberg und Bremen in Zellkulturexperimenten. Im Mund-Rachenraum von Covid-19-Patienten können zum Teil hohe Viruslasten nachgewiesen werden. Die Anwendung von Sars-Cov-2-wirksamen Mundspülungen könnte somit helfen, kurzzeitig die Viruslast und damit eventuell das Risiko einer Übertragung der Coronaviren zu senken. Dies könnte beispielsweise vor zahnärztlichen Behandlungen nützlich sein.
Mundspülungen eignen sich jedoch nicht, um eine Covid-19-Infektion zu behandeln oder um sich selbst vor einer Ansteckung mit dem Virus zu schützen.
Die Ergebnisse der Studie beschreibt das Team um Toni Meister, Prof. Dr. Stephanie Pfänder und Prof. Dr. Eike Steinmann aus der Bochumer Forschungsgruppe Molekulare und Medizinische Virologie im Journal of Infectious Diseases, online veröffentlicht am 29. Juli 2020. Eine Überprüfung der Laborergebnisse in klinischen Studien steht noch aus.
Acht Mundspülungen im Zellkulturtest
Die Forscherinnen und Forscher testeten acht Mundspülungen mit unterschiedlichen Inhaltsstoffen, die in Apotheken oder Drogeriemärkten in Deutschland erhältlich sind. Sie mischten jeweils die Mundspülung mit Viruspartikeln und einer Belastungssubstanz, die den Effekt des Speichels im Mund nachstellen sollte. Das Gemisch wurde dann für 30 Sekunden geschüttelt, um den Effekt des Gurgelns zu simulieren. Anschließend nutzten sie zur Bestimmung des Virustiters Vero-E6-Zellen, welche besonders empfänglich für Sars-Cov-2 sind. Zur Bewertung der Wirksamkeit behandelten die Forscherinnen und Forscher die eingesetzten Virussuspensionen vor Zugabe auf die Zellkultur parallel mit Zellkulturmedium anstatt Mundspülung.
Alle getesteten Präparate reduzierten den initialen Virustiter. Drei Mundspülungen verringerten ihn so weit, dass nach 30 Sekunden Einwirkung kein Virus mehr zu detektieren war. Ob dieser Effekt sich in der klinischen Praxis bestätigt und wie lange er anhält, muss in weiteren Studien untersucht werden.
Die Autorinnen und Autoren weisen darauf hin, dass Mundspülungen nicht zur Behandlung von Covid-19-Erkrankungen geeignet sind. „Das Gurgeln mit einer Mundspülung kann nicht die Produktion der Viren in den Zellen hemmen“, erklärt Toni Meister, „könnte aber die Viruslast kurzfristig dort senken, wo das größte Ansteckungspotenzial herkommt, nämlich im Mund-Rachen-Raum – und das könnte in bestimmten Situationen wie beim Zahnarzt oder der medizinischen Versorgung von Covid-19-Patienten nützlich sein.“
Klinische Studien in Arbeit
Die Bochumer Gruppe prüft die Möglichkeiten einer klinischen Studie zur Wirksamkeit von Mundspülungen auf Sars-Cov-2-Viren, in der die Wissenschaftlerinnen und Wissenschaftler testen wollen, ob der Effekt auch bei Patienten nachweisbar ist und wie lange er anhält. Ähnliche Arbeiten laufen bereits in San Francisco; das Bochumer Team steht mit den US-amerikanischen Forscherinnen und Forschern dazu in Kontakt.
Förderung
Die Arbeiten wurden gefördert von der Europäischen Union im Rahmen des Horizon-2020-Programms (Grantnummer 101003555) sowie von der Stiftung Universitätsmedizin Essen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de
Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de
Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de
Originalpublikation:
Toni Luise Meister, Yannick Brüggemann, Daniel Todt, Carina Conzelmann, Janis A. Müller, Rüdiger Groß, Jan Münch, Adalbert Krawczyk, Jörg Steinmann, Jochen Steinmann, Stephanie Pfaender, Eike Steinmann: Virucidal efficacy of 1 different oral rinses against SARS-CoV-2, in: Journal of Infectious Diseases, 2020, DOI: 10.1093/infdis/jiaa471
Quelle: IDW
Wo ist das Wasser während einer Dürre?
Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Wenn bereits kaum Niederschlag fällt – wo und wie verteilt sich das wenige Wasser und welche Möglichkeiten gibt es, den Rückhalt im Boden und in der Landschaft zu verbessern? Dörthe Tetzlaff und ihr Team vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben herausgefunden, dass die Vegetation darauf einen großen Einfluss hat. Die Forschungsgruppe analysiert die Speicherung, Verteilung und Qualität des Wassers in der Landschaft. Am Beispiel des dürreempfindlichen Demnitzer Mühlenfließes in Brandenburg, einem Teileinzugsgebiet der Spree, quantifizierten sie die sichtbaren und unsichtbaren Wasserflüsse während und kurz nach der großen Trockenheit 2018.
Brandenburg ist mit einem Jahresniederschlag von nur 560 Litern pro Quadratmeter das niederschlagsärmste Bundesland. Im Jahr 2018 fielen sogar nur 390 Liter Wasser pro Quadratmeter, also ca. 40 Prozent weniger Niederschlag als gewöhnlich.
Schon unter „normalen“ klimatischen Bedingungen werden etwa 90 Prozent des Niederschlags wieder in die Atmosphäre abgegeben und fließen nicht in Grundwasser oder Flüssen ab. Die Grundwasserstände im Gebiet zeigen heute, dass die Defizite aus dem Jahr 2018 zwischen den Wachstumsperioden nicht ausgeglichen werden konnten.
Landmanagement von kritischer Bedeutung für Verteilung von Wasserressourcen:
Dörthe Tetzlaff ist Forscherin am IGB und Professorin für Ökohydrologie an der Humboldt-Universität zu Berlin. Sie und ihr Team untersuchten, wie sich der Zeitpunkt und der Prozess der Verdunstung und der Grundwasserneubildung unter verschiedenen Böden und Landnutzungen unterscheiden. „Aufgrund der aktuellen Klimakrise mit zunehmenden Dürren müssen wir wissen, wie viel Wasser verschiedene Pflanzen nutzen. Wir als Forschende fragen uns: Kann man über nachhaltige Landnutzung den Wasserverbrauch steuern und ganze Landschaften widerstandsfähiger gegenüber Klimaextremen gestalten? Diese Erkenntnisse sind die Basis, um die Bedarfe für die Lebensmittelproduktion und die Wasserversorgung erfüllen zu können“, erläutert Dörthe Tetzlaff ihre Motivation für ihr Forschungsthema.
Waldboden trockener als Grasland:
Das Team untersuchte im Demnitzer Mühlenfließ zwei Standorte mit regionaltypischen Landnutzungen: einen Mischwald mit sandigen Böden und einer tief wurzelnden Zone und Grünland mit lehmigeren Böden und einer flacher wurzelnden Zone. Der Waldboden war wesentlich trockener, was auf Eigenschaften von Boden und Pflanzen zurückzuführen ist.
So waren während der Dürre im obersten Meter des sandigen Bodens im Wald nur 37 Liter Wasser pro Quadratmeter und unter Grünland immerhin 146 Liter Wasser pro Quadratmeter vorhanden. Das Blätterdach des Waldes schirmte bereits einen Teil des Regens ab, der direkt von den Blättern verdunstete und den Boden nie erreichte. Zudem war der sandige Waldboden kaum in der Lage, Wasser zu speichern. Niederschläge drangen tiefer in den Boden ein, wurden allerdings während der Wachstumsperiode vor Erreichen des Grundwassers wieder von den Bäumen aufgenommen.
Unter der Grünlandfläche sickerte das Wasser kontinuierlich in Richtung Grundwasser. Der Boden konnte mehr Wasser speichern. Da die Pflanzen nur Wasser aus dem oberen Boden entnahmen führte dies zu „älterem“ Bodenwasser.
„Wir konnten zeigen, wie schlecht die Landschaften in Brandenburg in der Lage sind, Niederschlagswasser im Gebiet zu halten, um Perioden mit weniger Regen zu überbrücken. Die Landschaften und ihre Nutzungen, die wir untersucht haben, sind typisch für die Nordeuropäische Tiefebene. Es war erschreckend festzustellen, wie stark selbst ein natürlicher Mischwald unter der Dürre leidet. Für wirtschaftsorientierten Forst, mit im Bestand dominierenden Nadelbäumen, ist die Situation noch schlimmer. Tatsächlich ist das Baumsterben in Brandenburg mittlerweile offensichtlich“, sagt Lukas Kleine, Doktorand in Tetzlaffs Team.
„Wasser pflanzen“ – wie die Landwirtschaft die Forschungsergebnisse nutzt:
Die Forschenden arbeiten mit der Land- und Forstwirtschaft zusammen, um ihre Forschungsergebnisse in die Anwendung zu bringen. Einer ihrer wichtigsten Partner ist Benedikt Bösel. Dessen Betrieb „Gut & Bösel“ testet und entwickelt multifunktionale Landnutzungskonzepte der regenerativen Land- und Forstwirtschaft. Der Landwirt bestätigt die Beobachtungen der IGB-Forschenden: „Die Regeneration unserer Böden und der Bodengesundheit ist die größte und wichtigste Aufgabe unserer Generation. Dafür braucht es systemische Innovation, die uns hilft, die Ursachen unserer Probleme zu verändern anstatt nur die Symptome zu bekämpfen. Nur so können wir der Komplexität von Ökosystemen gerecht werden. Diese Lösungen versuchen wir u.a. basierend auf den Erkenntnissen des Teams von Frau Tetzlaff zu entwickeln“.
„Unsere Untersuchungen in unserem ökohydrologischen Feldlabor laufen nun seit 2018 kontinuierlich, und wir werden sie fortführen. Wir sehen, dass nach den weiteren Trockenzeiten in 2019 und bisher in 2020 die Grundwasserspiegel weiter sinken. Die Vegetation konnte sich trotz der wenigen Niederschläge in den Wintermonaten immer noch nicht erholen. Wir sind leider weit von „normalen“ Bedingungen entfernt. Um die Widerstandsfähigkeit der brandenburgischen Ökosysteme gegenüber Dürren und anderen Klimaveränderungen zu verbessern, müssen Maßnahmen umgesetzt werden, die die Grundwasserneubildung fördern und Böden schaffen, die mehr Wasser speichern können. Unsere Ergebnisse unterstreichen die zentrale Rolle der Vegetation in der Entwicklung solcher Strategien.“ fasst Dörthe Tetzlaff zusammen.
Hintergrundinfos:
Wasser in der Landschaft – blaues und grünes Wasser:
Forschende unterscheiden das sogenannte blaue Wasser, das Seen, Flüsse und das Grundwasser füllt und unmittelbar für die Wasserversorgung zur Verfügung steht; und das grüne Wasser, welches direkt von der Vegetation beeinflusst wird und durch Verdunstung und Transpiration nach der Aufnahme durch die Pflanzen in die Atmosphäre zurückgeführt wird. Dörthe Tetzlaff und ihr Team erforschen die Wechselwirkungen zwischen blauem und grünem Wasser. Dabei analysieren sie detailliert, was in der sogenannten kritischen Zone geschieht und welchen Einfluss die Vegetation auf den gesamten Wasserhaushalt hat.
Die kritische Zone – die dünne, dynamische und lebenserhaltenden Haut der Erde:
Die Erdschicht, die sich zwischen dem Kronendach, dem Boden und dem Grundwasser erstreckt, nennt sich kritische Zone. Sie war lange Zeit eine „Blackbox“; vor allem die Rolle der Pflanzen in der Aufteilung des Niederschlags wurde vernachlässigt, da die Wissenschaft sich stark auf die blauen Wasserflüsse konzentriert hat, die zur Grundwasserneubildung oder Abflussbildung beitragen.
In dieser Studie untersuchten die Forschenden die Wasserflüsse in der kritischen Zone mit sogenannten stabilen Isotopen im Wasser. Diese können als „Markierstoffe“ verwendet werden, um Fließwege, Alter und Herkunft von Wasser zu bestimmen. Für ein umfassendes Verständnis sind nämlich nicht nur die absoluten Wassermengen wichtig, die sich in der Landschaft bewegen, sondern auch, wie lange das Wasser vor Ort gespeichert wird und welche Fließwege es nimmt. Wenn diese Informationen mit Daten von Vegetationsdynamiken gekoppelt werden, können mathematische Modelle beispielsweise zeigen, woher, wann und in welcher Geschwindigkeit Pflanzen ihr Wasser beziehen (d.h. aus dem Grundwasser oder dem Bodenwasser).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Abteilungsleiterin „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
d.tetzlaf@igb-berlin.de
030/64181661
Lukas Kleine
Doktorand Abteilung „Ökohydrologie“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
l.kleine@igb-berlin.de
030/64181666
Originalpublikation:
Kleine, L., Tetzlaff, D., Smith, A., Wang, H., and Soulsby, C. (2020): Using isotopes to understand evaporation, moisture stress and re-wetting in catchment forest and grassland soils of the summer drought of 2018, Hydrol. Earth Syst. Sci. 2020, https://doi.org/10.5194/hess-2020-81
Smith, A, Tetzlaff, D, Kleine, L, Maneta, MP, Soulsby, C. Isotope‐aided modelling of ecohydrologic fluxes and water ages under mixed land use in Central Europe: The 2018 drought and its recovery. Hydrological Processes. 2020; Volume34, Issue16, Pages 3406-3425. https://doi.org/10.1002/hyp.13838
Weitere Informationen:
https://www.igb-berlin.de/news/wo-ist-das-wasser-waehrend-einer-duerre
Quelle: IDW
Die Überdüngung der Ostsee beenden: Wirken die Maßnahmen?
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
In der Zeit von 1995 bis 2014 wurden im Bereich der westlichen Ostsee die Fluss-Einträge der beiden wichtigsten Treiber der Überdüngung, Stickstoff und Phosphor, beträchtlich reduziert. Aber zeigen diese Maßnahmen auch in der offenen Ostsee einen Effekt? Die Meereschemiker des Leibniz-Instituts für Ostseeforschung fanden dort bislang keine deutlich erkennbaren Änderungen. In einer kürzlich veröffentlichten Studie berichten sie von einer Methode, mit der sie den Verbleib der Nährstoffe von den Flussmündungen in die Ostsee verfolgten. Sie zeigen: ja, die Reduktionen in den Flusseinträgen sind auch in der Ostsee feststellbar, aber sie werden durch Einträge aus anderen Quellen kompensiert.
Stellen wir uns die Ostsee als einen großen Topf Suppe vor, an der viele Köche mitgewirkt haben. Die Suppe ist verwürzt, aber welcher Koch ist dafür verantwortlich? Ist das Gewürz erst einmal im Topf, vermischt es sich mit allen Zutaten, so dass nicht mehr zu erkennen ist, wer der Übeltäter war. Vor diesem Problem stehen auch die Meereschemiker*innen des Leibniz-Instituts für Ostseeforschung Warnemünde, wenn sie herausfinden wollen, ob Maßnahmen zur Reduktion von Nährstoffeinleitungen über die Flüsse in der offenen Ostsee nachweisbar sind. Insgesamt 40.000 Tonnen weniger Stickstoff und 1.000 Tonnen weniger Phosphor wurden von 1995 bis 2014 von den Anrainerstaaten in die westliche Ostsee eingeleitet. Die gemessenen Konzentrationen in der offenen Ostsee zeigen jedoch trotzdem keine Verbesserung.
Kürzlich wertete ein Team um den Warnemünder Meereschemiker Joachim Kuss erstmalig einen Datenschatz von über einer halben Millionen Daten aus, um der Wirkung der Reduktionsmaßnahmen auf die Spur zu kommen. Dabei machten sie sich den Umstand zunutze, dass die Flüsse im Meer letztlich doch ihre Spuren hinterlassen, in dem sie den Salzgehalt des Ostseewassers verringern. Erwartungsgemäß zeigte sich, dass die Konzentrationen der Nährstoffe im Allgemeinen mit zunehmender Entfernung von der Mündung und zunehmendem Salzgehalt abnahmen. Die große Datenmenge, die den Wissenschaftler*innen für den Zeitraum 1995 – 2016 zur Verfügung stand, ermöglichte es ihnen aber auch herauszuarbeiten, dass die Veränderungen des Verhältnisses von Nährstoff-Konzentration zum Salzgehalt auf der Strecke zwischen Küste und offener Ostsee nicht immer gleich blieben, sondern sich im Untersuchungszeitraum änderten: die Reduktion der Nährstoffe war jetzt zu erkennen!
Die angewandte Methodik enthüllte aber noch andere Zusammenhänge: während es eine besonders gute Korrelation zwischen dem Salzgehalt und den Stickstoffkomponenten gab, zeigte der Phosphorgehalt nur eine geringe Abhängigkeit von der Salinität. Dies untermauert, dass Stickstoff in bedeutender Weise an Flusswassereinträge geknüpft ist, wogegen Phosphor deutlich erkennbar auch aus anderen, Ostsee-internen Quellen stammt.
Um für die Phosphor-Komponenten, die ohne Zweifel auch in bedeutender Menge über Flüsse eingetragen werden, signifikante Informationen bezüglich der zeitlichen Abnahme zu bekommen und auch die Datenbasis für Stickstoff zu verbessern, wurden in Kooperation mit dem Landesamt für Umwelt, Naturschutz und Geologie, Mecklenburg-Vorpommern, und dem Landesamt für Landwirtschaft, Umwelt und ländliche Räume, Schleswig-Holstein, die IOW-Datensätze um die aus dem küstennahen Bereich stammenden Messergebnisse der Landesämter erweitert.
Anhand dieses vergrößerten Datenpools ließen sich für die Übergangsregion zwischen Süß- und Salzwasser die Auswirkungen der vielfältigen Prozesse, die hier auf die Nährstoffe einwirken, gut herausarbeiten: Organismen nutzen die günstige Nährstoffsituation und bilden Blüten aus. Dadurch werden Nährstoffe dem Wasser entzogen und in organische Substanz umgewandelt. Die absterbende Blüte sinkt zum Meeresboden, wo sie von Mikroorganismen zersetzt wird. Diese leisten einen zwiespältigen Beitrag zur Nähstoffreduktion, denn sie wandeln reaktive Stickstoffkomponenten in inaktiven elementaren Stickstoff um. Für die Stickstoffbilanz eine wichtige positive Leistung, für die Phosphorbilanz kann das jedoch schädlich sein: Bei der Zersetzung der organischen Substanz wird Sauerstoff verbraucht. Wird das flache Wasser des Übergangsbereiches durch Wind und Wellen gut durchmischt, ist das unkritisch. In ruhigen Wetterlagen können sich am Boden jedoch „tote Zonen“ bilden. Dann werden Phosphor-Verbindungen, die unter guten Sauerstoffbedingungen im Sediment eingelagert werden, gelöst und erhöhen den Phosphoranteil im Wasser. „Gegenwärtig werden die Sauerstoffmangelsituationen in den Küstengewässern häufiger.“ erläutert Erstautor Joachim Kuss, „Dadurch erscheint die Phosphatbelastung der westlichen Ostsee zurzeit als das primäre Problem. Das darf aber nicht darüber hinwegtäuschen, dass es auch die eingetragenen Stickstoffverbindungen sind, die letztlich zu Sauerstoffmangel und zur Reaktivierung alter Phosphorablagerungen am Meeresboden führen. Es besteht weiterhin Handlungsbedarf, um beide Nährstoffe zu reduzieren.“
Die vom IOW bereitgestellten Datensätze wurden im Rahmen des HELCOM-Monitorings im Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie erhoben.
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de
Wissenschaftliche Ansprechpartner:
Dr. Joachim Kuss | Tel.: +49 (0)381 5197 393 | joachim.kuss@io-warnemuende.de
Originalpublikation:
Kuss J, Nausch G, Engelke C, Weber M, Lutterbeck H, Naumann M, Waniek JJ and Schulz-Bull DE (2020) Changes of Nutrient Concentrations in the Western Baltic Sea in the Transition Between Inner Coastal Waters and the Central Basins: Time Series From 1995 to 2016 With Source Analysis. (Frontiers in Earth Science. 8:106. doi: 10.3389/feart.2020.00106 )
Quelle: IDW
Überlastung der Sehnen im Sport – was ist zu tun?
Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)
Überlastungsbedingte Verletzungen von Sehnen sind typische Beschwerden von Sportlern jeden Alters und Leistungsanspruchs. Gerade die lasttragenden unteren Extremitäten, besonders die Achilles- und die Patellarsehne, sind bei vielen Aktivitäten und Sportarten für Tendinopathien anfällig. Doch was tun, wenn die Sehne durch Überlastung verletzt ist?
Von Tendinopathien spricht man, wenn eine schmerzhafte und in ihrer Funktion eingeschränkte Sehnenstruktur vorliegt. Sportler haben dabei erhebliche Einbußen ihrer Leistungsfähigkeit mit der potenziellen Gefahr eines Sehnenrisses. Gründe für Tendinopathien können eine eingeschränkte Stoffwechselaktivität des Sehnengewebes mit veränderter Kollagenzusammensetzung mit feinsten Rissen auf mikrostruktureller Ebene sein. Oder auch Entzündungsprozesse, die mit der Synthese und Interaktion proinflammatorischer Substanzen einhergehen.
Detaillierte Kenntnisse über die den Sehnenstoffwechsel beeinflussende Belastungsformen sind für Ärzte, Therapeuten und den Sportler deshalb unerlässlich.
Bekannte Trainingsparameter für Sportler sind die Intensität (Höhe und Richtung der mechanischen Belastungen), Umfang (Dauer der mechanischen Belastungen), Frequenz (Häufigkeit der mechanischen Belastung je Zeiteinheit), Regenerationszeiten sowie die Geschwindigkeit des mechanischen Kraftanstieges (Kraftanstiegsrate und Kraftimpuls).
Aus biomechanischer Sicht hat die Richtung der Krafteinwirkungen entscheidende Bedeutung. Axiale
Traktionsbelastungen (Zugbelastung) sind physiologischer mechanischer Natur für kraftübertragende Sehnen und daher ideal, um optimale, der Zugrichtung entsprechende Umbau- und Anpassungsprozesse auszulösen.
Verschiedene Therapien möglich
Die jeweilige Therapie muss immer individuell auf den Patienten zugeschnitten sein. Eckpfeiler sind
die Aufklärung des Patienten und die realistische Einschätzung der individuellen zeitlichen Ressourcen. Ein Trainingstagebuch mit der Vorgabe und Dokumentation von Therapie- und Trainingsmaßnahmen sowie der Veränderungen des Schmerzempfindens (z. B. visuelle Analogscala)
ist sinnvoll.
Priv.-Doz. Dr. med. Thilo Hotfiel, Orthopäde, Unfallchirurg und Vorstand in der GOTS erklärt: „Das ´exzentrische Training´ hat sich in einer Vielzahl hochqualitativer Studien als therapeutischer Goldstandard in der konservativen Behandlung der Achilles und Patellarsehnen-Tendinopathie etabliert. Für Anpassungen des Sehnengewebes ist allerdings die Höhe der einwirkenden Kräfte, die Geschwindigkeit und Qualität der Bewegungsausführung sowie deren Dauer bedeutsamer als die Kontraktionsform der mechanischen Spannung erzeugenden Muskulatur. Neben dem exzentrischen Krafttraining zeigen deshalb ebenso das isometrische, konzentrische und (Heavy) Slow Resistance Training gute klinische Ergebnisse.“
Die verschiedenen Trainingsformen sind in Abhängigkeit des Stadiums, der Lokalisation, der Belastungsfähigkeit und des Schmerzniveaus durchzuführen. Mit abnehmenden Beschwerden gilt es nach einer ersten Phase langsamer und besonders kontrollierten Übungen die Belastungen zu steigern und sowohl verstärkt schnellkräftige als auch sportspezifische Bewegungsmuster in das Trainingsprogramm zu integrieren.
Auch die extrakorporale Stoßwellentherapie (ESTW) zeigt bei einigen Tendinopathien positive Effekte. Bei Mid-Portion-Tendinopathien ist häufig eine Kombination von ESTW und exzentrischem Krafttraining wirksam.
Auf die peri- und peritendinöse Injektion von Glucocorticoiden (Cortisonpräparate) sollte bei Tendinopathien verzichtet werden.
Originalpublikation:
https://www.springermedizin.de/ueberlastungsbedingte-tendinopathien/18054106
Quelle: IDW
Mit Biomarkern auf Zeitreise in Sachen „Blaualgen“: Ostsee-Sedimentarchive zeigen Auftreten und Häufigkeit seit 1860
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Forschenden aus Warnemünde und dem kalifornischen La Jolla gelang es erstmals, mithilfe von Biomarkern und einem gut datierten Sedimentkern die Geschichte der Blaualgenblüten in der zentralen Ostsee über die letzten 160 Jahre zu rekonstruieren. So verlängerten sie den Zeitraum, für den bislang Informationen zur Häufigkeit der Blüten vorlagen, deutlich in die Vergangenheit hinein. In einem in der internationalen Fachzeitschrift Biogeosciences erschienenen Artikel diskutieren sie mögliche Ursachen für die erfassten Schwankungen. Für eine kausale Verbindung zur Überdüngung der Ostsee finden sie keine klaren Anzeichen, wohl aber zur Entwicklung der Sommertemperaturen des Oberflächenwassers.
Der Hochsommer ist ihre Zeit: Cyanobakterien – umgangssprachlich Blaualgen genannt – geht es im Zeitraum Juli/August, wenn nach der Hauptwachstumsphase nur noch wenig Nährstoffe im Oberflächenwasser sind, besonders gut. Dann kann ihr massenhaftes Auftreten nicht nur den Badespaß vermiesen, weil es das Wasser in eine gelbbraune Brühe verwandelt, diese Organismen schaden auch dem Ökosystem. Denn sterben die Algenmassen ab, so sinken sie auf den Meeresboden, wo bei ihrer Zersetzung Sauerstoff verbraucht wird. Die „toten Zonen“ am Boden der Ostseebecken breiten sich weiter aus. Den Ursachen der häufigen Blaualgenblüten versuchen die Meeresbiolog*innen am Leibniz-Institut für Ostseeforschung Warnemünde seit Jahren auf den Grund zu kommen. Nun erhielten sie Unterstützung durch ihre Kolleg*innen aus der Sektion Marine Geologie.
Zum Einsatz kamen zwei Biomarker, die fast ausschließlich durch die in der Ostsee häufig vorkommenden Cyanobakterien Aphanizomenon sp. und Nodularia spumigena produziert werden. Sie heißen 6- und 7-Methylheptadecan (abgekürzt: 6+7Me-C17:0). Dabei handelt es sich um Kohlenwasserstoffe, die die Cyanobakterien aus Fettsäuren herstellen. Sie haben die vorteilhaften Eigenschaften, sich auch innerhalb von Jahrtausenden nicht zu zersetzen und sich mit einem vertretbaren methodischen Aufwand in Sedimentproben detektieren zu lassen. So gelang es einem Team um den Warnemünder Meeresgeologen Jérôme Kaiser, innerhalb eines auf 160 Jahre datierten Sedimentkernes durchgehend Cyanobakterien nachzuweisen, bis 1920 aber in nur relativ geringer Häufigkeit. Danach wechselten sich Perioden mit hoher und niedriger Häufigkeit ab. Einen signifikanten Anstieg in den 1950er Jahren, als die Überdüngung der Ostsee erheblich zunahm, fanden sie nicht. Dafür zeigte sich aber eine Parallelität zur Entwicklung der sommerlichen Temperatur des Oberflächenwassers in der zentralen Ostsee. Gleichfalls scheinen zyklische Zirkulationsschwankung der Ozeanströmungen im Nordatlantik (60-90 Jahre) indirekt Einfluss zu nehmen.
Um die Aussagekraft der Biomarker zu beleuchten, werteten die Warnemünder frisch sedimentiertes Material einer Cyanobakterienblüte aus Sinkstofffallen der zentralen Ostsee im Hinblick auf ihren Gehalt an den Biomarkern im Verhältnis zu Menge und Masse der beprobten Cyanobakterien aus. Sinkstofffallen sind große trichterartige Gefäße, die am Meeresboden verankert und mit Auftriebskörpern aufrecht im Wasser gehalten werden. Sie sammeln alles, was in sie hineinfällt, getrennt nach einzelnen Wochen, in Auffangbehälter.
Die Biomarker-Daten, sowohl aus diesem Sinkstofffallenmaterial als auch aus dem Sedimentkern, verglich das Team mit den Angaben zum Aufkommen von Cyanobakterien aus Monitoring-Programmen und Satellitenbildern der letzten 35 Jahre. Sie wiesen nach, dass die Biomarker 6+7Me-C17:0 nicht nur generell die Anwesenheit von Cyanobakterien anzeigen, sondern darüber hinaus auch grobe Aussagen über die Mengen an Organismen zulassen, die die Biomarker produziert haben. Das gilt vor allem für die Spezies Nodularia spumigena, die in der zentralen Ostsee häufigste Cyanobakterien-Art.
Mit diesen Erkenntnissen wagten sich die Wissenschaftler*innen auch an einen 7.000 Jahre umfassenden Sedimentkern aus der Bottensee, einem Becken im Norden der Ostsee. Dieser Zeitabschnitt umfasst das mittlere und späte Holozän, eine warmzeitliche Epoche, die mit dem Ende der letzten Eiszeit begann. Für die heutige Klimaforschung ist sie besonders interessant, weil im Klimaoptimum des mittleren Holozäns die durchschnittlichen Temperaturen auf der Nordhemisphäre um 1-1.5 °C höher als heute waren. In einem entsprechenden Abschnitt des Bottensee-Sedimentkernes, war der Gehalt an 6+7Me-C17:0 bis zu 100mal höher als in der heutigen zentralen Ostsee. Das legt häufige und starke Cyanobakterienblüten nahe – dort, wo heute die Biomasse der Cyanobakterien-Blüten 4- bis 5-mal geringer ist als in der zentralen Ostsee – eine enorme Veränderung. „Die beiden Methylheptadekan-Biomarker sind für das gesamte Holozän einsetzbar,“ fasst Jérôme Kaiser die Ergebnisse zusammen. „Sie haben uns gezeigt, dass Cyanobakterien drastisch auf Klimaanomalien reagieren können. In Anbetracht der anhaltenden Erderwärmung sollten wir das im Blick behalten.“
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. www.leibniz-gemeinschaft.de
Wissenschaftliche Ansprechpartner:
Dr. Jérôme Kaiser, IOW, Sektion Marine Geologie | Tel.: +49 (0)381 5197 3414 | jerome.kaiser@io-warnemuende.de
Dr. Anke Kremp, IOW, Sektion Biologische Meereskunde | Tel.: +49 (0)381 5197 270 | anke.kremp@io-warnemuende.de
Originalpublikation:
Kaiser, J., N. Wasmund, M. Kahru, A. K. Wittenborn, R. Hansen, K. Häusler, M. Moros, D. Schulz-Bull and H. W. Arz (2020). Reconstructing N2-fixing cyanobacterial blooms in the Baltic Sea beyond observations using 6- and 7-methylheptadecane in sediments as specific biomarkers. Biogeosciences 17: 2579-2591, doi: 10.5194/bg-17-2579-2020
Quelle: IDW
Energieforschung für beste Spannung in den Stromnetzen
Sabine Recupero Öffentlichkeitsarbeit und Kommunikation
Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH
An einer Verbesserung der Spannungsqualität in den Stromnetzen arbeiten Forscher der FH Kiel und der CAU Kiel. In Kooperation mit einem Windenergiepark- und Umspannwerkbetreiber an der Westküste Schleswig-Holsteins werden bis Mai 2022 Feldversuche in einem Umspannwerk in Vollstedt, Kreis Nordfriesland, durchgeführt und ausgewertet. Das Projekt wird aus dem HWT-Programm der gemeinnützigen Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH (EKSH) mit 140.000 Euro gefördert.
EKSH-Geschäftsführer Stefan Sievers übergab die Förderzusage am Freitag in Vollstedt an Prof. Dr.-Ing. Hans-Jürgen Hinrichs, der die wissenschaftliche Projektleitung innehat. Der Forscher an der FH Kiel arbeitet in dem Projekt mit seinem CAU-Kollegen Prof. Dr.-Ing. Marco Liserre zusammen. Der Kooperationspartner Windenergieberatung (WEB) Andresen GmbH, Breklum, beteiligt sich mit rd. 18 Prozent an den Gesamtkosten des Projekts. Netzwerkpartner sind die M.O.E. Moeller Operating Engineering GmbH, Itzehoe, und das Kompetenzzentrum Erneuerbare Energien und Klimaschutz Schleswig-Holstein (EEK.SH) in Kiel.
Wie lassen sich zukünftig Windparks zur Erbringung von so genannten Systemdienstleistungen einsetzen? Diese Forschungsfrage ist für Schleswig-Holstein mit seiner hohen Dichte an Windenergieerzeugungsanlagen bedeutend. Sowohl Betreiber von Windparks als auch alle anderen an das Netz angeschlossenen Erzeuger- und Verbraucheranlagen könnten von einer besseren Spannungsqualität profitieren, da hierbei die Verluste in allen elektrischen Betriebsmitteln verkleinert werden und sich deren Lebensdauer verlängert. „Das neue Forschungsvorhaben ist geeignet, die Energiewende nachhaltig zu unterstützen. Uns hat das Projekt sowohl fachlich überzeugt, als auch darin, dass hier viele Fachleute hochschul- und unternehmensübergreifend eng zusammen arbeiten“, sagte Sievers.
Das HWT-Programm ist eine der Säulen der Tätigkeit der gemeinnützigen EKSH. Seit 2012 sind 47 Kooperationsprojekte von Wissenschaftlern mit Unternehmen mit einem Fördervolumen von rd. 7 Mio. Euro unterstützt worden. Aus dem Programm können Projekte der angewandten Forschung und Entwicklung und des Transfers wissenschaftlicher Erkenntnisse in die Praxis (Pilotprojekte) gefördert werden. Zum Fachgebiet Energie und Klimaschutz gehören insbesondere Fragestellungen wie Energieproduktion, Energieverbrauch und -effizienz sowie Energieversorgung und Energiewirtschaft. Zum 1. Oktober sind schleswig-holsteinische Hochschulen erneut aufgefordert, spannende Projekte einzureichen.
Im Juni hat die EKSH eine Broschüre „Energieforschung in Schleswig-Holstein – Kooperationsgeschichten“ herausgegeben, die weitere Beispiele für Kooperationsprojekte von Wissenschaftlern mit Unternehmen enthält.
Weitere Informationen:
http://www.eksh.org/projekte-foerderung/hwt-energie-und-klimaschutz/
http://www.energieforschung.sh
https://www.eksh.org/presse/pressebilder/ Pressebild vom Ortstermin
Quelle: IDW
Technologien im Alltag von älteren Menschen
Sarah Blaß Kommunikation und Veranstaltungsmanagement
Frankfurt University of Applied Sciences
Prof. Dr. Barbara Klein von der Frankfurt UAS liefert gemeinsam mit Uni-Kollegen Expertise für den achten Altersbericht „Ältere Menschen und Digitalisierung“ des Bundesfamilienministeriums
In einer Bundespressekonferenz hat die Bundesministerin für Familie, Senioren, Frauen und Jugend, Dr. Franziska Giffey, kürzlich den achten Altersbericht „Ältere Menschen und Digitalisierung“ der Öffentlichkeit vorgestellt. Die Digitalisierung bietet älteren Menschen viele Chancen, um möglichst lange ein selbständiges und eigenverantwortliches Leben führen zu können. Das ist eines der zentralen Ergebnisse des Berichts. Die Kommission hat zu verschiedenen Themen Expertisen eingeholt, deren Erkenntnisse in den Altersbericht eingeflossen sind. Prof. Dr. Barbara Klein von der Frankfurt University of Applied Sciences (Frankfurt UAS) hat zusammen mit Prof. Dr. Frank Oswald von der Frankfurter Goethe-Universität mit einer Expertise zu den „Möglichkeiten und Herausforderungen der Implementierung von Technologien im Alltag von älteren Menschen“ dazu beigetragen. Themen der Expertise waren unter anderem Robotik, assistive Technologien, digitale Gesundheitsanwendungen und technikgestützte Dienstleistungen für ein selbstständiges Leben.
Klein und Oswald geht es bei den Technologien mit denen sie sich befassten nicht um konkrete Produkte, sondern vielmehr um einen Einblick in die Strategien und Methoden zur Implementierung von digitalen Assistenzsystemen in verschiedenen alltagsrelevanten Lebenswelten älterer Menschen. Alltagsrelevante Lebenswelten umfassen dabei das private Wohnen von der eigenen Häuslichkeit bis zum Quartier mitsamt der pflegerischen und gesundheitlichen Versorgung sowie den Kontext von Dienstleistungen in der Altenhilfe. Die heutige Verbreitung technologischer Lösungen für ein selbstbestimmtes Leben im Alter zeigt zum einen das Implementierungspotenzial auf, weist aber auch auf weitere Handlungsbedarfe hin.
Prof. Dr. Barbara Klein ist Sprecherin des Forschungszentrums FUTURE AGING der Frankfurt UAS. Rund 20 Professorinnen und Professoren aus allen vier Fachbereichen der Frankfurt UAS haben an diesem Forschungszentrum die Möglichkeit, Erfahrungen und Expertise aus diesen einzubringen, um nutzungsfreundliche und soziotechnische Forschungs- und Entwicklungsthemen für das Wohnen und Arbeiten in einer älter werdenden Gesellschaft zu bearbeiten. Das Frankfurter Forum für Interdisziplinäre Alternsforschung der Goethe Universität, dessen Vorstandssprecher Prof. Dr. Frank Oswald ist, ist assoziiertes Mitglied des Zentrums.
Die Expertise kann unter folgendem Link https://www.achter-altersbericht.de/fileadmin/altersbericht/pdf/Expertisen/Exper… herunter geladen werden; eine Kurzfassung des Altersberichts ist hier abrufbar: https://www.achter-altersbericht.de/.
Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 4: Soziale Arbeit und Gesundheit, Prof. Dr. Barbara Klein, Telefon: +49 69 1533-2877, E-Mail: bklein@fb4.fra-uas.de
Weitere Informationen:
http://www.frankfurt-university.de/fb4
Quelle: IDW
Neue Erkenntnisse zur Evolution von bakteriellen Antibiotikaresistenzen
Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Kieler Forschungsteam untersucht, wie sich die Antibiotikagabe auf die Mechanismen der von Plasmiden vermittelten Vererbung von Resistenzgenen auswirkt
Die Erbinformationen vieler Mikroorganismen, insbesondere der Bakterien, liegen zum Teil in sogenannten Plasmiden vor. Das sind genetische Elemente, die aus nur einem einzelnen DNA-Ring bestehen, nicht auf den Chromosomen vorliegen und sich eigenständig vervielfältigen können. Bakterien ist es dank solcher Plasmide möglich, Erbinformationen sehr schnell untereinander und auch über die Grenzen verschiedener Bakterienarten hinweg zu übertragen. Dieser als horizontaler Gentransfer bezeichnete Prozess ist zentral an der Evolution von Mikroorganismen beteiligt und hilft ihnen dabei, sich flexibel an veränderte Umweltbedingungen anzupassen. Insbesondere für bakterielle Krankheitserreger ist diese schnelle Anpassungsfähigkeit ein großer Vorteil.
Ein Forschungsteam vom Institut für Allgemeine Mikrobiologie an der Christian-Albrechts-Universität zu Kiel (CAU) wies im vergangenen Jahr nach, dass Plasmide als häufige Träger von Resistenzgenen dauerhaft und auch ohne Selektionsdruck stabil in Bakterienzellen überdauern können. So können sie ein Reservoir für die Entwicklung von Resistenzen bilden, das schon bei einmaliger Antibiotikagabe zur Behandlungsunempfindlichkeit der nachfolgenden Bakteriengenerationen führen kann. In einer nun anschließenden Arbeit haben die Wissenschaftlerinnen und Wissenschaftler aus der CAU-Arbeitsgruppe Genomische Mikrobiologie um Professorin Tal Dagan untersucht, welche Wirkung die Antibiotikagabe wiederum auf die Stabilität der Plasmide in den Bakterienzellen und damit ihren evolutionären Erfolg ausübt. Sie stellten fest, dass der von den Antibiotika ausgehende Selektionsdruck nicht immer die stabile Plasmid-Vererbung fördert – obwohl die Plasmide für die Zelle vorteilhafte Resistenzgene tragen. Die Ergebnisse ihrer im Rahmen des Kiel Evolution Center (KEC) entstandenen Arbeit veröffentlichten die Forschenden gestern in der Fachzeitschrift Current Biology.
Plasmide und Bakterienzellen spielen nicht immer im selben Team
Das allgegenwärtige Vorkommen von Plasmiden in der Natur lässt zunächst vermuten, dass Plasmide eine stabile Vererbung entwickeln und langfristig beispielsweise in einer Bakterienpopulation erhalten bleiben – solange sie keinen negativen Einfluss auf die Fitness des Wirtslebewesens haben, etwa durch ihren Energiebedarf. Das Kieler Forschungsteam untersuchte daher, warum sich entgegen dieser Annahme nicht in allen Fällen eine Plasmid-Stabilität einstellt, obwohl ihre Anwesenheit unter Selektionsdruck vorteilhaft ist. Dazu kultivierten die Forschenden in Evolutionsexperimenten das Bakterium Escherichia coli jeweils mit und ohne Antibiotikagabe. So konnten sie überprüfen, wie sich im Vergleich die Anwesenheit der Plasmide über die Bakteriengenerationen entwickelte. „In Anwesenheit von Antibiotika muss jede Bakterienzelle eine Resistenz entwickeln, sonst stirbt sie. Daher überleben unter diesen Bedingungen alle Zellen, die ein Plasmid als Träger des Resistenzgens haben“, erklärt Erstautorin Dr. Tanita Wein, die kürzlich in Dagans Arbeitsgruppe promovierte. „Dabei ist es für die Bakterienzelle egal, in welchem Zustand sich das Plasmid befindet, und es überleben sowohl stabile als auch instabile Plasmid-Varianten“, so Wein weiter.
Dabei haben die Plasmide die Tendenz, sogenannte Multimere zu bilden, sich also aus mehreren einzelnen Plasmiden zu einer großen zusammenhängenden Struktur zusammenzuschließen. Wenn sich die Bakterienzelle anschließend teilt, geht das große Multimer mit dann mehreren Resistenzgenen nur in eine Tochterzelle über, die zweite neue Zelle erhält aber keines. Das dadurch wahrscheinlich verstärkte Plasmid mit seinen Resistenzgenen ist zwar für die Bakterienzelle von Vorteil, es wird dadurch allerdings auch instabil – denn ohne den Selektionsdruck eines Antibiotikums gehen die großen Multimere wieder verloren. Zusammenfassend bedeutet dies, dass die positive Selektion hinsichtlich der Antibiotikaresistenz zur Aufrechterhaltung von nicht-optimalen Plasmid-Varianten führt, die langfristig nicht stabil vererbt werden können.
Diese Vorgänge zeigen, dass die Bakterienzellen und die Plasmide im übertragenen Sinne kein gemeinsames Interesse haben. Die evolutionäre Selektion ihrer Eigenschaften findet auf unterschiedlichen Ebenen statt und dient nicht immer dem Vorteil beider Beteiligter, obwohl sie in einem gemeinsamen Organismus existieren. „Im konkreten Fall bedeutet dies, dass der durch das Plasmid vermittelte Vorteil für die Wirtszelle mit einem verringerten Erfolg für die Evolution der Plasmide einhergeht und die Interessen von Plasmid und Zelle in diesem Fall gegenläufig sind. Die Betrachtung von Plasmiden als sich autonom von ihren Wirtszellen entwickelnde Einheiten hilft also dabei, den Verlauf ihrer gemeinsamen Evolution besser zu verstehen“, erklärt Wein.
Besseres Verständnis der Resistenzevolution
Insgesamt könnten die neuen Kieler Forschungsergebnisse zu einem besseren Verständnis der Vererbungsprozesse bei Plasmiden und den damit verbundenen Konsequenzen für den Wirtsorganismus führen. „Unsere Ergebnisse legen nahe, dass eher schnell veränderliche Bedingungen wie die abwechselnde An- und Abwesenheit von Antibiotika und nicht so sehr eine konstante Selektion der Schlüssel zur schnellen Anpassung der Plasmide sind“, betont Dagan. „Unsere Erkenntnisse könnten daher auch auf die Prozesse anwendbar sein, die bei Krankheitserregern zur Entstehung von Multiresistenzen gegenüber verschiedenen Wirkstoffen führen“, meint Dagan.
Über das KEC
Das Kiel Evolution Center (KEC) als interaktive Wissenschaftsplattform an der Christian-Albrechts-Universität zu Kiel (CAU) setzt sich zum Ziel, Evolutionsforscherinnen und -forscher in der Region Kiel besser zu koordinieren. Daneben sollen unter dem Schlüsselbegriff „Translationale Evolutionsforschung“ gezielt Brücken zwischen Grundlagenforschung und Anwendung geschlagen werden. Neben der Förderung der Wissenschaft stehen ausdrücklich auch Lehre und Öffentlichkeitsarbeit im Fokus des Kiel Evolution Center. Daran beteiligt sind neben der CAU auch Forschende vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, dem Max-Planck-Institut für Evolutionsbiologie in Plön (MPI-EB) und dem Forschungszentrum Borstel (FZB), Leibniz-Zentrum für Medizin und Biowissenschaften.
Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2019/190-wein-naturecomms-lab.jpg
Bildunterschrift: Dr. Tanita Wein, die Hauptautorin der Studie, hat kürzlich promoviert und arbeitet derzeit als Postdoktorandin in der Forschungsgruppe von Prof. Rotem Sorek am Weizmann Institute of Science in Israel.
© Institut für Allgemeine Mikrobiologie, CAU
Weitere Informationen:
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel:
https://www.mikrobio.uni-kiel.de/de/ag-dagan
Forschungszentrum „Kiel Evolution Center“, CAU Kiel:
http://www.kec.uni-kiel.de
Wissenschaftliche Ansprechpartner:
Dr. Tanita Wein
AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie
E-Mail: twein@ifam.uni-kiel.de
Tel.: 0431-880-5743
Prof. Tal Dagan
Leiterin AG Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU Kiel
E-Mail: tdagan@ifam.uni-kiel.de
Tel.: 0431-880-5712
Originalpublikation:
Tanita Wein, Yiqing Wang, Nils F. Hülter, Katrin Hammerschmidt, Tal Dagan (2020): Antibiotics interfere with the evolution of plasmid stability. Current Biology
First published on 13 August 2020
https://doi.org/10.1016/j.cub.2020.07.019
Weitere Informationen:
https://www.mikrobio.uni-kiel.de/de/ag-dagan
http://www.kec.uni-kiel.de
Quelle: IDW
Rätselhafte Verdunklung von Beteigeuze: Der Staub lichtet sich
Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Astrophysik Potsdam
Zwischen Oktober 2019 und Februar 2020 nahm die Helligkeit des Sterns Beteigeuze um mehr als das Dreifache ab. Neue Beobachtungen des Hubble-Weltraumteleskops der NASA/ESA sowie des robotischen STELLA-Teleskops des Leibniz-Instituts für Astrophysik Potsdam (AIP) liefern nun eine Erklärung für das Phänomen.
Beteigeuze strahlt als heller Stern im Sternbild Orion. Er gehört zur Klasse der Roten Überriesen und würde im Zentrum unseres Sonnensystems bis über die Jupiterbahn hinausreichen. Im Herbst 2019 begann eine plötzliche Verdunklung des Sterns, die zunächst mit Teleskopen und später sogar mit bloßem Auge von der Erde sichtbar wurde – und die Wissenschaft zunächst vor ein Rätsel stellte. Der Stern ist mit seiner Entfernung von etwa 725 Lichtjahren unserem Sonnensystem relativ nahe. Tatsächlich hat das Verdunklungsereignis damit um das Jahr 1300 stattgefunden, da sein Licht die Erde erst jetzt erreicht. Beteigeuze wird sein Leben in einer Supernova-Explosion beenden. Einige Astronomen glauben, dass die plötzliche Verdunklung einen Vorboten der Supernova darstellen könnte.
Dank neuer Beobachtungsdaten, die mit dem Hubble Space Teleskop entstanden sind, hat ein internationales Team nun eine Staubwolke als wahrscheinliche Ursache für die Verdunklung ausgemacht: Die Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass der Stern superheißes Plasma aus einer großen Konvektionszelle von der Sternoberfläche ausstieß, ähnlich wie aufsteigende heiße Blasen in kochendem Wasser, nur mehrere hundert Mal so groß wie unsere Sonne. Das Material gelangte dann durch die heiße Atmosphäre zu den kälteren äußeren Schichten des Sterns. Dort kühlte es ab und die so entstandene riesige Staubwolke blockierte ab Ende 2019 das Licht von etwa einem Viertel der Sternoberfläche. Im April 2020 hatte Beteigeuze seine normale Helligkeit wieder erreicht.
Die Hubble-Beobachtungen sind Teil einer dreijährigen Studie der Schwankungen in der äußeren Atmosphäre des Sterns. Die seither entstandene Zeitreihe liefert wichtige neue Hinweise auf den Mechanismus hinter der Verdunklung. Hubble beobachtete die Schichten über der Oberfläche des Sterns, die so heiß sind, dass sie hauptsächlich im ultravioletten Bereich des Spektrums leuchten.
In den Herbstmonaten 2019 spürte Hubble dichtes, heißes Material in der Atmosphäre des Sterns auf. „Mit Hubble sahen wir, wie das Material die sichtbare Oberfläche des Sterns verlässt und sich durch die Atmosphäre bewegt, bevor sich der Staub bildet, der den Stern zu verdunkeln scheint“, sagt die leitende Forscherin Andrea Dupree, stellvertretende Direktorin des Zentrums für Astrophysik | Harvard & Smithsonian. „Wir konnten den Effekt einer dichten, heißen Region im südöstlichen Teil des Sterns sehen, die sich nach außen bewegt. Dieses Material war zwei- bis viermal heller als die normale Helligkeit des Sterns. Und dann, etwa einen Monat später, verdunkelte sich die Südhalbkugel von Beteigeuze auffallend, als der Stern schwächer wurde. Wir halten es für möglich, dass eine dunkle Wolke aus dem von Hubble entdeckten Ausstoß resultierte.“
Von besonderer Bedeutung während der Zeit der großen Verdunklung waren Geschwindigkeitsmessungen der äußeren Schichten von Beteigeuze mit dem STELLA-Teleskop des AIP auf Teneriffa, dessen Beobachtungen die von Hubble ergänzen. „STELLA wurde zur Beobachtung einzelner Objekte über einen sehr langen Zeitraum – insbesondere magnetisch aktiver Sterne – konstruiert. Es eignet sich perfekt für die Beobachtung heller Sterne wie Beteigeuze. STELLA beobachtete den Stern bereits seit 2006 praktisch in jeder klaren Nacht“, erklärt Klaus Strassmeier, Co-Autor der Studie und Direktor am AIP.
Obwohl die Ursache des Ausbruchs nicht bekannt ist, hält es das Forschungsteam für wahrscheinlich, dass er mit dem Pulsationszyklus des Sterns zusammenhängt und dadurch begünstigt wurde. Dieser setzte sich während des gesamten Ereignisses normal fort. Die AIP-Wissenschaftler setzten STELLA ein, um Veränderungen in der Geschwindigkeit des Plasmas auf der Sternoberfläche zu messen, während es im Laufe des Pulsationszyklus auf- und abstieg. Als das heiße Material aufstieg, dehnte sich der Stern in seinem Zyklus zur gleichen Zeit aus. Die Pulsation, die sich von Beteigeuze nach außen hin ausbreitete, hat möglicherweise dazu beigetragen, das ausströmende Plasma durch die Atmosphäre zu treiben.
„Hätte ein großer und sehr kühler Sternfleck die Verdunklung verursacht, wären die Geschwindigkeiten des Plasmas nicht der Pulsation, sondern der Rotation des Sterns gefolgt. Diese ist übrigens sehr langsam und beträgt viele Jahre. Sie hätte daher nicht zeigen können, was STELLA beobachtete, und schon gar nicht eine Umkehrung der Geschwindigkeit des Plasmas, als der Stern am schwächsten war“, schließt Strassmeier.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaus Strassmeier, 0331 7499 295, kstrassmeier@aip.de
Originalpublikation:
Andrea K. Dupree, Klaus G. Strassmeier, Lynn D. Matthews, Han Uitenbroek, Thomas Calderwood, Thomas Granzer, Edward F. Guinan, Reimar Leike, Miguel Montargès, Anita M. S. Richards, Richard Wasatonic, and Michael Weber (2020): Spatially Resolved Ultraviolet Spectroscopy of the Great Dimming of Betelgeuse. The Astrophysical Journal, 899, 68
https://doi.org/10.3847/1538-4357/aba516
Weitere Informationen:
https://www.aip.de/de/aktuelles/scientific-highlights/raetselhafte-verdunklung-v…
https://hubblesite.org/contents/news-releases/2020/news-2020-44
https://www.spacetelescope.org/news/heic2014/
https://www.nasa.gov/feature/goddard/2020/nasa-satellite-s-lone-view-of-betelgeu…
https://www.cfa.harvard.edu/news/2020-17
Quelle: IDW
Hannoveraner Physikerteam entwickelt mobilen Schnelltest zur Erkennung von giftigen Blaualgen
Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Team der Leibniz Universität Hannover ist an einem Projekt beteiligt, das auf große finanzielle Einsparungen bei Wasseruntersuchungen zielt – profitieren sollen Wasserwerke, Kommunen und Badeseebetreiber
Verfärbt sich im Sommer das Wasser in Badeseen und Teichen grün, handelt es sich dabei oft um Cyanobakterien. Diese auch Blaualgen genannten Mikroorganismen können einige der gefährlichsten natürlich vorkommenden Gifte auf der Welt in sich tragen, die Cyanotoxine. Insbesondere Kinder, aber auch Wassersportler und Hunde sind durch sie gefährdet. Denn das Verschlucken oder der Hautkontakt mit den Blaualgen kann unter anderem zu Haut- und Schleimhautreizungen, Durchfall oder Fieber führen. Deswegen werden befallene Gewässer regelmäßig gesperrt. Um Gewässer sicherer zu machen, will das neue Verbundforschungsprojekt „CyanoBakterien und -toxin Erfassung (CyBER)“ in den nächsten drei Jahren einen mobilen Schnelltest zum Erkennen der giftigen Blaualgen entwickeln.
Wissenschaftlicher Partner des Projektes ist das HOT – das Hannoversche Zentrum für Optische Technologien – an der Leibniz Universität Hannover unter Geschäftsführer Prof. Dr. Bernhard Roth, der auch die Arbeitsgruppe F1 – Präzisionsmesswesen (Metrologie) im Exzellenzcluster PhoenixD (Photonics, Optics, and Engineering – Innovation Across Disciplines) leitet: „In diesem Projekt übertragen wir in der Grundlagenforschung entwickelte optische Technologien in die Praxis und ermöglichen so innovative und präzise Messtechnik“, sagt Roth. „Langfristig möchten wir solche komplexen Systeme mittels additiver Fertigung, also zum Beispiel 3D-Druck, realisieren, sie mit künstlicher Intelligenz ausstatten und für die breite Nutzung verfügbar machen. Das passt sehr gut zu unserem Exzellenzcluster PhoenixD, der die Grundlagen für die digitale, individualisierte Optik-Produktion der Zukunft erforscht.“
Das Umweltanalytikunternehmen bbe Moldaenke aus Schwentinental bei Kiel koordiniert das Verbundprojekt, dem auch das Institut für Hygiene und Umwelt in Hamburg, das die Wasserressourcen in der Region überwacht, sowie der Messgerätehersteller ADM aus Krems II bei Bad Segeberg, angehören. Finanziert wird das Projekt durch die Förderinitiative „KMU-innovativ: Photonik und Quantentechnologie“ des Bundesministeriums für Bildung und Forschung.
Technisch wollen die Forschenden mehrere optische Technologien miteinander kombinieren: Fluoreszenzdetektion, Holographie und Ramanspektroskopie. So können die chemische Zusammensetzung der Stoffe auf molekularer Ebene erkannt sowie Form und Lage der Objekte bestimmt werden. Die Wasserproben werden kontaktlos und präparationsfrei nur mittels optischer Verfahren untersucht. Das geplante Verfahren wird auch bereits gebildete, aber noch nicht freigesetzte Cyanotoxine erkennen sowie nicht giftige, aber zur späteren Giftbildung fähige Cyanobakterien erfassen. „Mit dieser Innovation wird es möglich sein, potenziell gefährdete Gewässerbereiche effektiv zu überwachen“, sagt Christoph Wetzel, Doktorand und Wissenschaftlicher Mitarbeiter am HOT. „Unser Verfahren bedeutet eine deutliche Verbesserung gegenüber dem aktuellen Stand der Wissenschaft und Technik“, sagt Dr. Ann-Kathrin Kniggendorf, in deren Gruppe am HOT die Forschungsarbeiten durchgeführt werden.
Dr. Regine Redelstein, Leiterin des Referats Aquatische Biologie und Ökotoxikologie am Institut für Hygiene und Umwelt in Hamburg, sagt: „Mit der Technik kann bereits vor Ort das Gefährdungspotential einer Cyanobakterienblüte bewertet werden, sodass schneller als bisher Entscheidungen über die Sperrung eines Gewässers getroffen werden können. Das wäre in Hamburg unter anderem vor Großveranstaltungen, wie zum Beispiel dem jährlich stattfindenden Iron Man oder Triathlon, bei denen in der Alster geschwommen wird, von großer Bedeutung.“
„Das Projekt bedeutet für meine Firma bbe nicht nur einen optischen Quantensprung“, sagt Christian Moldaenke, Geschäftsführer von bbe Moldaenke, „sondern auch einen ökologischen und wirtschaftlichen. Die Überwachung und Sicherung von Badegewässern und Trinkwasser kann extrem verdichtet stattfinden, der Einzeltest wird nur noch für einen Bruchteil der bisherigen Kosten durchführbar sein.“ Zumal für die Anwendung kein Fachpersonal nötig sein wird. Großes Marktpotenzial sieht das Team nicht nur bei Aufsichtsbehörden und Trinkwasserversorgern, sondern auch bei Aquakulturbetreibern, Fischern und Betreibern von Badeseen.
Der Exzellenzcluster PhoenixD
Im Exzellenzcluster PhoenixD der Leibniz Universität Hannover forschen mehr als 100 Wissenschaftlerinnen und Wissenschaftler aus den Fachdisziplinen Physik, Maschinenbau, Elektrotechnik, Chemie, Informatik und Mathematik fachübergreifend zusammen. Der Cluster lotet die Möglichkeiten aus, die sich durch die Digitalisierung für neuartige optische Systeme sowie ihre Fertigung und Anwendung ergeben. In den Jahren 2019 bis 2025 wird der Cluster mit rund 52 Millionen Euro vom Bund und dem Land Niedersachsen über die Deutsche Forschungsgemeinschaft (DFG) gefördert. Kooperationseinrichtungen des Clusters sind die Technische Universität Braunschweig, das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut), die Physikalisch-Technische Bundesanstalt und das Laser Zentrum Hannover e.V.
Hinweis an die Redaktion:
Die Wissenschaftlerinnen und Wissenschaftler stehen für Interviews zur Verfügung. Bitte wenden Sie sich an:
Prof. Dr. Bernhard Wilhelm Roth, Leiter der Task Group F1 – Precision Metrology im Cluster PhoenixD und Geschäftsführer des HOT – Hannoversches Zentrum für Optische Technologien, Telefon +49 511 762 17907, E-Mail: bernhard.roth@hot.uni-hannover.de
Quelle: IDW
Wirkungsmechanismen von Antibiotikakombinationen entdeckt
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Bildung und Auflösung von Rückstaus bei der Übersetzung der DNA-Sequenz verursacht Wechselwirkungen zwischen Antibiotika.
Es ist meist schwer vorhersehbar, wie Arzneimittel wirken, wenn sie miteinander kombiniert werden. Manchmal verstärken zum Beispiel zwei Antibiotika ihre Wirkung und hemmen das Wachstum von Bakterien stärker als erwartet; in anderen Fällen ist die gemeinsame Wirkung schwächer. Da es sehr viele verschiedene Möglichkeiten gibt, Medikamente wie Antibiotika miteinander zu kombinieren, ist es wichtig, die Wirkung solcher Arzneimittelkombinationen vorhersagen zu können. Eine neue Arbeit zeigt jetzt, dass solche Vorhersagen für Kombinationen bestimmter Antibiotika oft möglich sind, indem der Wirkungsmechanismus der einzelnen Antibiotika quantitativ charakterisiert wird. Das ist das Ergebnis einer gemeinsamen Studie von Professor Tobias Bollenbach von der Universität zu Köln mit Professor Gašper Tkacik und dem Doktoranden Bor Kavcic vom Institute of Science and Technology Austria, deren Ergebnisse jetzt in der Fachzeitschrift Nature Communications unter dem Titel „Mechanisms of drug interactions between translation-inhibiting antibiotics“ veröffentlicht wurden.
„Wir wollten untersuchen, wie Antibiotika, die die Proteinsynthese in Bakterien hemmen, in Kombination miteinander wirken und diese Effekte soweit wie möglich mit mathematischen Modellen vorhersagen“, erklärt Bollenbach. Als Leiter der Arbeitsgruppe „Biologische Physik und Systembiologie“ erforscht er an der Universität zu Köln unter anderem, wie Zellen auf Kombinationen von Medikamenten und anderen Signalen reagieren.
Bakterielle Ribosomen sind in der Lage, schrittweise die DNA-Sequenz in die Aminosäuresequenz von Proteinen zu übersetzen (Translation). Viele Antibiotika setzen an diesem Punkt an und hemmen die Translation. Dabei blockieren verschiedene Antibiotika gezielt unterschiedliche Schritte des Translationszyklus. Die Wissenschaftler konnten zeigen, dass die Wechselwirkungen zwischen den Antibiotika durch Engpässe im Translationszyklus verursacht werden. Dieser Effekt führt unter anderem dazu, dass eine Kombination von Antibiotika, die den Anfang und die Mitte des Translationszyklus hemmen, sich stark in ihrer Wirkung abschwächt.
Um die zugrundeliegenden Mechanismen der Arzneimittelwechselwirkungen zu klären, erzeugten die Wissenschaftler künstliche Translationsengpässe, die die Wirkung bestimmter Antibiotika genetisch nachahmen. Befindet sich ein solcher Engpass in der Mitte des Translationszyklus, bildet sich ein Rückstau von Ribosomen, der sich durch Einführen eines weiteren Engpasses am Anfang des Translationszyklus wieder auflöst. Durch eine Kombination von theoretischen Modellen aus der statistischen Physik und Experimenten konnten die Wissenschaftler zeigen, dass dieser Effekt die Arzneimittelwechselwirkung zwischen Antibiotika, die diese Translationsschritte blockieren, erklärt.
Tobias Bollenbach ordnet die Ergebnisse ein: „Unsere Untersuchungen haben gezeigt, dass ein quantitatives Verständnis der Wirkung einzelner Antibiotika Vorhersagen über die Wirkung von Antibiotikakombinationen ermöglicht, ohne dass alle möglichen Kombinationen per Trial-and-Error durchprobiert werden müssen. Diese Erkenntnis ist wichtig, weil der gleiche Ansatz langfristig auf andere Medikamente angewendet werden kann und so die Entwicklung neuer, besonders wirkungsvoller Arzneimittelkombinationen ermöglichen kann.“
Inhaltlicher Kontakt:
Professor Dr. Tobias Bollenbach
Institut für Biologische Physik
+49 221 470 1621
t.bollenbach@uni-koeln.de
Presse und Kommunikation:
Sarah Brender
+49 221 470-1700
s.brender@verw.uni-koeln.de
Zur Veröffentlichung:
https://www.nature.com/articles/s41467-020-17734-z
Quelle: IDW
Blaulichtschalter aus Algen steuert elektrische Erregung von Pflanzen
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Wie entstehen elektrische Impulse in höheren Pflanzen, welche molekularen Grundlagen haben sie? Das lässt sich jetzt erstmals nicht-invasiv untersuchen. Die neue Methodik ist im Fachjournal PNAS veröffentlicht.
Biologische Techniken zur Steuerung zellulärer Prozesse mit Hilfe von Licht werden unter dem Begriff Optogenetik zusammengefasst. Einem internationalen Forschungsteam unter Federführung der Würzburger Pflanzenwissenschaftler Rainer Hedrich, Georg Nagel und Dirk Becker ist es gelungen, diese Methode auf höhere Pflanzen anzuwenden: Durch Lichtimpulse lassen sich nun elektrische Erregungen in Pflanzen auslösen.
„Mit diesem Werkzeug können wir erstmals nicht-invasiv untersuchen, wie elektrisch basierte zelluläre Kommunikationswege in Pflanzen auf molekularer Ebene funktionieren und wie die Pflanze diese elektrischen Signale nutzt, um auf extreme Temperaturschwankungen, Insektenbefall oder andere Stressfaktoren zu reagieren“, sagt Dirk Becker.
Sind Pflanzen gestresst, senden sie weitreichende elektrische Signale aus, sogenannte Membranpotentialwellen. Damit übertragen sie Informationen schnell und präzise über weite Strecken, obwohl sie weder ein Gehirn noch Nervenzellen besitzen. Welche molekularen Mechanismen dabei ablaufen, ist weitgehend unbekannt. Neue Einblicke in diese komplexen Vorgänge liefert das Forschungsteam in der renommierten Fachzeitschrift PNAS (Proceedings of the National Academy of Sciences USA).
Algen liefern Werkzeuge für die Membranbiologie
Wie kann man in Pflanzen ein elektrisches Signal simulieren, das normalerweise durch Stress oder Verwundung ausgelöst wird, ohne dabei ungewollte Nebenreaktionen hervorzurufen?
Diese Herausforderung ging das Team mit Hilfe der Optogenetik an. Die Methode gibt es seit 2002. Für ihre Entwicklung wurden die Koautoren der aktuellen PNAS-Publikation, Georg Nagel und Ernst Bamberg, zusammen mit anderen Forschern mehrfach ausgezeichnet.
Die Optogenetik hat es möglich gemacht, die elektrische Aktivität von Nervenzellen mit Lichtimpulsen zu steuern. Zuvor werden die Nervenzellmembranen mit lichtempfindlichen Ionenkanälen aus Algen bestückt, den sogenannten Kanalrhodopsinen.
Stress führt zu Depolarisation und Ansäuerung
Höhere Pflanzen haben die lichtempfindlichen Ionenkanäle der Algen im Lauf der Evolution verloren, erklärt Dirk Becker. Nun ist es gelungen, die Gene für die Kanalrhodopsine in das Erbgut der Modellpflanze Ackerschmalwand (Arabidopsis thaliana) zurückzubringen, deren Blattzellen mit Licht gezielt zu erregen und die membranelektrische Antwort zu analysieren.
Stresst man Pflanzen, depolarisieren die gereizten Zellen und das Zellmilieu wird saurer. Das war bekannt. Wie aber lassen sich die beiden Vorgänge im Experiment simulieren? Die Würzburger Forscher verwenden dafür eine Kanalrhodopsin-Variante, die durch Blaulicht angeschaltet wird und dann Protonen in die Zelle leitet.
Normalerweise ist die Zellwand einer Pflanzenzelle um mindestens eine pH-Einheit saurer als das Zellinnere, so Rainer Hedrich. Öffnet sich der Protonenkanal, strömen zwangsläufig Protonen und damit positive elektrische Ladungen über die Zellmembran. Das depolarisiert die Membran und säuert das Zellinnere an.
Depolarisation lässt sich steuern
Um diesen Effekt experimentell auszulösen, wird ein blauer Laser auf das zu untersuchende Blattareal gerichtet und das Membranpotential der stimulierten Zellen verfolgt, erklärt Dirk Becker: „Über die Beleuchtungsstärke, Dauer und Häufigkeit der Blaulichtpulse haben wir die Form der Membrandepolarisation gesteuert und die Repolarisationsreaktion der Pflanzenzelle detailliert analysiert.“
Dabei zeigte sich, dass die Repolarisation maßgeblich durch ATP-getriebene Membranpotential-sensitive Protonenpumpen erfolgt. Wenn die Zellmembran depolarisiert, geht diese Protonenpumpe in einen Zustand erhöhter Aktivität über. Dabei befördert sie verstärkt positive geladene Protonen aus der Zelle, die Zellmembran repolarisiert.
Dieser Mechanismus unterscheidet sich grundlegend von dem in tierischen Nervenzellen, bei denen spannungsabhängige Kaliumkanäle diesen Prozess regulieren. Dass Pflanzen dies über eine Protonenpumpe und nicht über einen Kaliumkanal bewerkstelligen, konnten die Würzburger Pflanzenforscher beweisen: Eine Arabidopsis-Mutante ohne Kaliumkanal verhielt sich auf einen Lichtreiz hin wie eine normale Pflanze.
Kanalrhodopsine für alle Fälle
„Derzeit erproben wir weitere optogenetische Werkzeuge dieser Art“, so Rainer Hedrich. Dabei gelte es nicht nur, die zelluläre Kommunikation durch elektrische Signale aufzuklären. Es gehe auch darum, die Bedeutung von gleichzeitig auftretenden Kalziumwellen und pH-Signalen in Pflanzen zu verstehen.
Um zu klären, was Pflanzenzellen im Allgemeinen auszeichnet und welche zellspezifisch besonderen Ausprägungen entstanden sind, wollen die Forscher Kanalrhodopsine in Zellen mit unterschiedlichsten Funktionen einbringen. Dabei sollen auch Kanalrhodopsin-Varianten mit jeweils spezifischer Ionenselektivität Einsatz finden – und Licht in das Dunkel der verschlungenen Kommunikationswege der Pflanze bringen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dirk Becker, Lehrstuhl für Botanik I (Pflanzenphysiologie und Biophysik), Universität Würzburg, T +49 931 31-86108, dbecker@botanik.uni-wuerzburg.de
Prof. Dr. Rainer Hedrich, Lehrstuhl für Botanik I (Pflanzenphysiologie und Biophysik), Universität Würzburg, T +49 931 31-86100, hedrich@botanik.uni-wuerzburg.de
Originalpublikation:
„Channelrhodopsin-mediated optogenetics highlights a central role of depolarization-dependent plant proton pumps“, PNAS, 10. August 2020, https://www.pnas.org/cgi/doi/10.1073/pnas.2005626117
Quelle: IDW
Vom städtischen Kanaldeckel bis zu monumentaler Architektur
Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Uni Kiel startet Exzellenzprojekt „DenkRaum“ zur Zukunft unserer Städte. Ausschreibungen für promovierte Wissenschaftlerinnen und Wissenschaftler laufen
Um Städte für die Zukunft sicherer, nachhaltiger und widerstandsfähiger zu machen – gerade auch mit Blick auf den fortschreitenden Klimawandel – müssen verschiedene fachliche Perspektiven aus der Wissenschaft und die Erfahrung von Menschen außerhalb der Universität zusammengebracht werden. „Das soll in unserem neuen DenkRaum geschehen“, kündigt CAU-Vizepräsidentin Professorin Karin Schwarz anlässlich des Ausschreibungsbeginns von sechs Fellowships an. Hintergrund der Initiative ist die erfolgreiche Teilnahme der Christian-Albrechts-Universität zu Kiel (CAU) am Exzellenzwettbewerb des Bundes und der Länder. Mit der Bewilligung der zwei Exzellenzcluster „ROOTS – Konnektivität von Gesellschaft, Umwelt und Kultur in vergangenen Welten“ (PMI) erhielt die Landesuniversität zusätzliche Mittel für ihre strategische Weiterentwicklung. Der DenkRaum geht als erstes Projekt daraus hervor. Mit ihm werden Förderungen von sechsmal 40.000 Euro über zwei Jahre an Postdoktorandinnen und Postdoktoranden (Postdocs) sowie an promovierte Nachwuchsgruppenleitungen und Juniorprofessuren der CAU und ihrer Cluster vergeben. Bewerbungen sind ab sofort bis 6. September möglich unter: http://www.denkraum.uni-kiel.de.
„Ich freue mich sehr, dass wir dieses innovative Projekt jetzt auf den Weg bringen können. Der DenkRaum ist unsere – auf die strategischen Ziele der CAU abgestimmte – junge Akademie“, erklärt die für Forschung, Technologietransfer und wissenschaftlichen Nachwuchs zuständige Vizepräsidentin. „Die CAU setzt sich seit Jahren erfolgreich für promovierte Wissenschaftlerinnen und Wissenschaftler ein. Der DenkRaum stellt den Ideenreichtum und das Innovationspotenzial unserer Postdocs ins Zentrum und intensiviert die wissenschaftliche Zusammenarbeit über Fakultätsgrenzen hinweg, für die die CAU steht“, so Schwarz.
Gestalt und Gestaltung der Städte
Der Ausschreibung der Fellowships ging eine Themenfindung innerhalb der Kieler Universität voraus. Unter den Mitgliedern der Wissenschaftskommission setzte sich der Vorschlag von Archäologin und ROOTS-Mitglied Professorin Annette Haug durch: „Urban Design. Gestalt und Gestaltung der Städte in Vergangenheit, Gegenwart und Zukunft“.
Schon heute leben etwa 55 Prozent der Weltbevölkerung in Städten, im Jahr 2050 werden es schätzungsweise zwei Drittel sein. Urbanität ist somit ein zentrales, vielleicht sogar das prägendste Phänomen der Gegenwart, meint Anette Haug: „Das bringt große Herausforderungen mit sich“. Wie können wir beispielsweise genügend bezahlbaren Wohnraum schaffen, wie die konkurrierenden Bedürfnisse der verschiedenen Verkehrsteilnehmerinnen und -teilnehmer befriedigen? Wie gehen wir mit dem demografischen Wandel um und wie passen wir unsere Städte an die Auswirkungen des fortschreitenden Klimawandels an? Hier setze der DenkRaum Urban Design an: „Städte, als gebauter Raum und als Gemeinwesen, haben historisch und regional unterschiedlichste Formen ausgeprägt und sind auf vielfältige Weise gestaltbar. Das reicht vom Design städtischer Kanaldeckel bis zu monumentaler Architektur, vom nachbarschaftlichen Straßenfest bis zur soziopolitischen Gestaltung urbaner Lebensbedingungen“, so die Themenpatin.
„Das von Professorin Annette Haug vorgeschlagene Thema ist ein großes Zukunftsthema. Hier in der Region und auf der ganzen Welt. Ich bin schon sehr gespannt und freue mich auf die Projektideen unserer Postdocs zu diesem Thema“, ergänzt Karin Schwarz.
Über die Grenzen der Fächer und der Universität hinaus
Die Fellows erwartet ein kreatives Arbeitsumfeld, in dem sie gemeinsam innovative Projektideen verfolgen können. „Sie sollen Zeit bekommen, das Thema zusammen neu zu erkunden und sich intensiv mit den disziplinären Perspektiven der anderen Fellows auseinanderzusetzen“, erläutert Dr. Barbara Röckl, Koordinatorin des DenkRaums. Aber nicht nur der Austausch zwischen den Fellows werde gefördert, so die Vizepräsidentin: „Wir möchten auch unsere Zusammenarbeit mit Expertinnen und Experten aus Wirtschaft, Politik und Gesellschaft stärker ausbauen, und neue Themen ausloten, die aus der CAU selbst kommen.“ Die übergeordneten Ziele seien Austauschmöglichkeiten zu generieren und gezielt Verbindungen und Anreize zu schaffen, um Bekanntes neu und aus unterschiedlichen Perspektiven zu sehen sowie gemeinsam Neues zu entdecken. „Unser wissenschaftlicher Nachwuchs hat großen Gestaltungswillen, der sich im DenkRaum frei entfalten soll. Außerdem möchten wir die Fellows auch in ihrer Entwicklung als Führungspersönlichkeiten unterstützen“, betont Schwarz.
Mit den individuell gewidmeten Fördermitteln können die Wissenschaftlerinnen und Wissenschaftler beispielsweise an Tagungen und Kongressen teilnehmen oder Referentinnen und Referenten aus In- und Ausland sowie aus Gesellschaft, Politik oder Wirtschaft einladen. Zusätzlich steht dem DenkRaum ein gemeinsames Budget von bis zu 60.000 Euro jährlich zur Verfügung, um gemeinsame Projekte und Veranstaltungen zu realisieren. Unterstützt werden die Fellows durch die Koordinatorin des DenkRaums, Dr. Barbara Röckl, und das Postdoc-Zentrum der Uni Kiel.
Weitere Informationen und Ausschreibung unter:
http://www.denkraum.uni-kiel.de
Ein Foto steht zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2020/182-denkraum.jpg
Die Ausschreibung der Fellowships für den DenkRaum „Urban Design“ läuft ab 3. August.
Kontakt:
Dr. Barbara Röckl
Koordinatorin DenkRaum an der Christian-Albrechts-Universität zu Kiel
Telefon: 0431/880-4412
E-Mail: broeckl@uv.uni-kiel.de
Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Claudia Eulitz
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: www.uni-kiel.de Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni Instagram: www.instagram.com/kieluni
Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/182-denkraum
Quelle: IDW
Worst-case-scenario für den Katastrophenfall
Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Brandingenieure entwickeln Evakuierungsstrategien für Menschen mit Beeinträchtigungen
Ein Wissenschaftlerteam vom Institut für Apparate- und Umwelttechnik der Otto-von-Guericke-Universität Magdeburg hat bundesweit erstmals zur Entwicklung von Notfallkonzepten für die Evakuierung von Menschen mit körperlichen, geistigen oder altersbedingten Beeinträchtigungen in Pflegeeinrichtungen und Seniorenheimen im Katastrophenfall geforscht.
Im Rahmen des vom Bundesministerium für Bildung und Forschung BMBF geförderten Verbundprojektes „Sicherheit für Menschen mit körperlicher, geistiger oder altersbedingter Beeinträchtigung SiME“ analysierte das Team um Dr.-Ing. Andrea Klippel dafür über 700 Schadensfälle in bundesdeutschen integrativen Einrichtungen in den Jahren 2000 bis 2019. „Damit haben wir erstmals eine aktuelle Brandstatistik für integrative Einrichtungen in Deutschland zur Verfügung“, erklärt die Brandingenieurin der Fakultät für Verfahrens- und Systemtechnik der Uni Magdeburg. Diese Statistik zeige überblicksartig, unter anderem, wo im Katastrophenfall die meisten Toten und Verletzten zu beklagen waren und analysiere die Brandursachen und Brandorte. „Als der häufigste Brandentstehungsort stellte sich dabei das Bewohnerzimmer heraus“, so Klippel.
Aus diesen erstmals bundesweit zusammengeführten statistischen Daten entwickelte das Forschungsteam realitätsnahe computergestützte Brandsimulationen mit ganz unterschiedlichen Ausgangssituationen. „Wir haben, zum Beispiel, untersucht, wie und wo sich meistens der Rauch entwickelte, wie schnell und unter welchen Umständen die entstandene Rauchschicht absinkt oder in welchen Teilen der Gebäude die Temperaturen schnell steigen“, so Dr.-Ing. Andrea Klippel. „Darüber hinaus haben wir Wärmestrahlung und wahrscheinliche Sichtweiten berechnet und simuliert. So konnten wir den zeitlichen Verlauf von Brandkatastrophen einschätzen und Einsatzszenarien festlegen, wie und wann die Rettungskräfte wen evakuiert haben müssen um Personenschäden zu minimieren.“
Die Wissenschaftlerinnen und Wissenschaftler untersuchten dafür auch sogenannte Fußgängerdynamiken und analysierten die Ströme von über 100 Personen mit und ohne Beeinträchtigungen durch Korridore und Engstellen. Die Bewegung einzelner Personen wurde dabei von Kameras und Sensoren aufgezeichnet, um die Gruppendynamik besser zu verstehen und in Evakuierungsszenarien entsprechend berücksichtigen zu können.
„Die Evakuierung beeinträchtigter Personen aus einer Gefahrenlage ist in jedem Fall eine enorme Herausforderung für die Einsatzkräfte und das Pflegepersonal“, so Andrea Klippel. Im Notfall zähle bei allen Bränden jede Sekunde. „Aber Menschen mit Beeinträchtigungen – ob demente und in ihrer Mobilität eingeschränkte Senioren oder junge, blinde oder gehörlose Menschen in Behindertenwerkstätten, die vielleicht auch noch auf einen Rollstuhl angewiesen sind, fanden in Evakuierungsmodellen deutschlandweit bisher kaum Berücksichtigung.“
Nach drei Jahren Forschungsarbeit liegen nun auf der Basis dieser Computersimulationen erste Empfehlungen für Sicherheitskonzepte für die Evakuierung von Pflegeeinrichtungen, Seniorenheimen oder Behindertenwerkstätten bei Naturkatastrophen oder Bränden vor. Es wurden außerdem konkrete Schulungskonzepte erarbeitet, so Andrea Klippel, unter anderem für die Lebenshilfe Bergisches Land. „Mit Hilfe der Forschungsergebnisse ist es nun möglich, Rettungskräfte, Pflegepersonal, aber auch die Bevölkerung für die Problematik zu sensibilisieren und sie anhand neuer Strategien und Evakuierungsstrategien weiterzubilden.“
Das Projekt wurde von 2016 bis 2019 durch das Programm „Forschung für die zivile Sicherheit“ im Rahmen der Förderrichtlinie „Zivile Sicherheit – Resilienz im Krisen- und Katastrophenfall“ mit über einer Million Euro gefördert. Projektpartner waren neben der Otto-von-Guericke Universität Magdeburg, die Lebenshilfe Bergisches Land (LHBL), das Forschungszentrum Jülich (FZJ), die Hochschule Niederrhein (HSNR), die Anwender PTV Transport Consult (PTV) und TraffGo HT. Koordiniert wurden die Forschungen von der Bundesanstalt für Materialforschung und -prüfung unter der Verantwortung von Frau Dr.-Ing. Hofmann-Böllinghaus und Herrn M.Sc. Paul Geoerg.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Andrea Klippel, Fakultät für Verfahrens- und Systemtechnik, Institut für Apparate- und Umwelttechnik, E-Mail: andrea.klippel@ovgu.de, Tel.: +49 391 67-20180
Weitere Informationen:
https://www.bbk.bund.de/DE/Service/Fachinformationsstelle/Informationsangebote/F…
Quelle: IDW
Ältestes Enzym der Zellatmung isoliert
Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
FRANKFURT. Forscher der Goethe-Universität haben das vielleicht älteste Enzym der Zellatmung gefunden. Aus dem Hitze liebenden Bakterium Thermotoga maritima konnten sie jetzt einen äußerst fragilen Proteinkomplex namens „Rnf“ isolieren. Die Gene, die für das Enzym kodieren, waren zwar bereits vor rund 10 Jahren entdeckt worden. Die Isolierung des Enzyms und damit der Nachweis, dass es wirklich von Bakterien gebildet und zur zellulären Energiegewinnung genutzt wird, ist jetzt erstmals den Frankfurter Forschern gelungen. (Communications Biology, DOI 10.1038/s42003-020-01158-y)
In der ersten Milliarde an Jahren gab es auf der Erde keinen Sauerstoff. Das Leben entwickelte sich in einer anaeroben Umgebung. Frühe Bakterien gewannen ihre Energie wahrscheinlich durch den Abbau verschiedener Substanzen mittels Gärung. Daneben schien es jedoch auch eine Art „Atmung ohne Sauerstoff“ gegeben zu haben. Dies legten Untersuchungen an ursprünglichen Mikroben nahe, die heute noch in anaeroben Lebensräumen vorkommen.
„Wir hatten schon vor 10 Jahren gesehen, dass es in diesen Mikroben Gene gibt, die vielleicht für ein ursprüngliches Atmungsenzym kodieren. Seitdem haben wir und andere Gruppen weltweit versucht, die Existenz dieses Atmungsenzyms nachzuweisen und es zu isolieren. Für lange Zeit ohne Erfolg, der Komplex war zu fragil und fiel bei jedem Versuch, ihn aus der Membran zu isolieren, auseinander. Die Bruchstücke wurde gefunden, ließen sich aber nicht wieder zusammensetzen“, erklärt Prof. Volker Müller aus der Abteilung Molekulare Mikrobiologie und Bioenergetik der Goethe Universität Frankfurt.
Durch beharrliche Arbeit gelang seinen Doktoranden Martin Kuhns und Dragan Trifunovic dann in zwei aufeinanderfolgenden Doktorarbeiten der Durchbruch. „In unserer Verzweiflung haben wir irgendwann ein hitzeliebendes Bakterium, Thermotoga maritima, genommen, das zwischen 60 und 90°C wächst“, erklärt Dragan Trifunovic, der seine Promotion in Kürze abschließen wird. „Auch Thermotoga enthält Rnf-Gene, und wir haben gehofft, dass das Rnf-Enzym in diesem Bakterium etwas stabiler ist. Über die Jahre hinweg haben wir es dann geschafft, ein Verfahren zu entwickeln, um das komplette Rnf-Enzym aus der Membran dieser Bakterien zu isolieren.“
Wie die Wissenschaftler in ihrer aktuellen Forschungsarbeit berichten, funktioniert der Enzymkomplex in etwa so wie ein Pumpspeicherkraftwerk, das Wasser in einen höher gelegenen See pumpt und aus dem wieder nach unten fließenden Wasser über eine Turbine Strom gewinnt.
Nur transportiert in der Bakterienzelle das Rnf-Enzym (biochemisch: Ferredoxin:NAD-Oxidoreduktase) Natrium-Ionen aus dem Zellinneren über die Zellmembran nach außen und erzeugt dadurch ein elektrisches Feld. Dieses elektrische Feld nutzt eine zelluläre „Turbine“ (ATP-Synthase): Sie erlaubt es den Natrium-Ionen, entlang des elektrischen Felds zurück ins Zellinnere zu strömen und gewinnt dabei Energie in Form der zellulären Energiewährung ATP.
Der biochemische Nachweis und die bioenergetische Charakterisierung dieses ursprünglichen Rnf-Enzyms erklärt, wie erste Lebensformen die zentrale Energiewährung ATP erzeugt haben. Das Rnf-Enzyms funktioniert offenbar so gut, dass es auch heute noch in vielen Bakterien und einigen Archaeen enthalten ist, auch in einigen pathogenen Bakterien, in denen die Rolle des Rnf-Enzyms noch vollkommen unklar ist. „Unsere Untersuchungen strahlen also weit über den Untersuchungsorganismus Thermotoga maritima hinaus und sind für die Physiologie der Bakterien äußerst wichtig“, erklärt Müller. Nun sei es wichtig zu verstehen, wie das Rnf-Enzym genau funktioniere und welche Rolle die einzelnen Teile hätten. „Da sind wir auf einem sehr guten Weg, da wir das Rnf-Enzym mittlerweile mit gentechnischen Verfahren selbst herstellen können“, freut sich Müller.
Wissenschaftliche Ansprechpartner:
Prof. Volker Müller
Molekulare Mikrobiologie und Bioenergetik
Goethe-Universität Frankfurt
Tel.: (069) 798-29507;
vmueller@bio.uni-frankfurt.de
Originalpublikation:
Kuhns, M, Trifunovic, D., Huber, H., Müller, V. (2020). The Rnf complex is a Na+ coupled respiratory enzyme in a fermenting bacterium, Thermotoga maritima. Communications Biology, DOI 10.1038/s42003-020-01158-y https://www.nature.com/articles/s42003-020-01158-y
Quelle: IDW
Klimawandel: Extreme Dürreperioden in Mitteleuropa werden voraussichtlich zunehmen
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Die Häufigkeit und das Ausmaß außergewöhnlicher, aufeinanderfolgender Sommer-Dürren dürften bis zum Ende des Jahrhunderts in Mitteleuropa zunehmen, wenn die Treibhausgasemissionen nicht reduziert werden. Das zeigt eine Studie unter Leitung von Wissenschaftlern des UFZ, die jetzt in der Fachzeitschrift Scientific Reports veröffentlicht wurde.
Seit dem Frühjahr 2018 befindet sich ein großer Teil Europas inmitten einer außergewöhnlichen Dürre. Ein deutsch-tschechisches Wissenschaftlerteam unter Leitung des UFZ hat nun die beiden Dürrejahre 2018/2019 in die Reihe langfristiger globaler Klimadaten der letzten 250 Jahre eingeordnet. Dabei zeigte sich, dass es seit 1766 in Mitteleuropa keine zweijährige Sommer-Dürre dieses Ausmaßes gegeben hat. Mehr als 50 Prozent der Fläche war davon betroffen. „Es ist wichtig, dass wir die Bedeutung von Dürren in aufeinander folgenden Jahren erkennen und einen ganzheitlichen Rahmen zur Modellierung des Risikos entwickeln“, betont Dr. Rohini Kumar, einer der Autoren, die Relevanz der Studie.
Um vorherzusagen, wie häufig solche Dürren in den kommenden Jahrzehnten auftreten könnten und welchen Einfluss Treibhausgasemissionen darauf haben, nutzten die Autoren Klimasimulationsmodelle. Die Auswirkungen zeigen sie anhand von drei Szenarien zukünftiger Treibhausgasemissionen bis zum Jahr 2100, den sogenannten „Repräsentativen Konzentrationspfaden“ (RCPs).
Bei der Modellierung von Klimaszenarien, die den höchsten Anstieg der Treibhausgase bis zum Jahr 2100 annehmen (RCP 8.5), prognostizieren die Autoren eine Versiebenfachung der Anzahl zweijähriger sommerlicher Dürreperioden in Mitteleuropa in der zweiten Hälfte des Jahrhunderts (2051-2100). Die Projektionen legen auch nahe, dass sich die von der Dürre betroffenen Ackerflächen fast verdoppeln werden – auf mehr als 40 Millionen Hektar.
Nimmt man einen moderaten Anstieg der Treibhausgaskonzentrationen (RCP4.5) an, verringert sich die Zahl der zweijährigen Sommer-Dürren im Vergleich zum RCP 8.5-Szenario um fast die Hälfte und die davon betroffene Ackerfläche um 37 Prozent, prognostizieren die Wissenschaftler.
Werden niedrige Treibhausgaskonzentrationen (RCP2.6) angenommen, dann nimmt die erwartete Häufigkeit von zweijährigen Sommerdürren sogar um über 90 Prozent ab. Die Zahl der dürregefährdeten Ackerflächen verringerte sich entsprechend um 60 Prozent.
Diese Ergebnisse deuten darauf hin, dass eine wirksame Minderungsstrategie für die Emission von Treibhausgasen dazu beitragen könnte, das Risiko häufigerer und ausgedehnterer aufeinanderfolgender Sommer-Dürren in Mitteleuropa zu verringern.
Diese Forschungsarbeit wurde im Rahmen des bilateralen Projekts XEROS (eXtreme EuRopean drOughtS: multimodel synthesis of past, present and future events; www.ufz.de/index.php?en=46703) durchgeführt und durch die Deutsche Forschungsgemeinschaft und die Czech Science Foundation gefördert. Die Ergebnisse der Studie basieren auf dem SPEI-Index als Proxy für die Schätzung landwirtschaftlicher Dürren. Weiterführende Forschungsarbeiten, die ein hydrologisches Modell auf der Grundlage von Bodenfeuchtigkeitsschätzungen (SMI-Index) verwenden, werden diese Ergebnisse weiter konkretisieren.
Wissenschaftliche Ansprechpartner:
Dr. Rohini Kumar
UFZ-Department Hydrosystemmodellierung
rohini.kumar@ufz.de
Originalpublikation:
Vittal Hari, Oldrich Rakovec, Yannis Markonis, Martin Hanel & Rohini Kumar: Increased future occurrences of the exceptional 2018-2019 Central European drought under global warming, Scientific Reports, https://doi.org/10.1038/s41598-020-68872-9 https://www.nature.com/articles/s41598-020-68872-9
Quelle: IDW
Wie Auen das Wasser der Donau reinigen: Neues EU-Projekt unter Leitung der KU
Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt
Welchen Beitrag haben Auen entlang der Donau für die Wasserqualität und wie lassen sich bei ihrer Bewirtschaftung vielfältige Interessen über Ländergrenzen hinweg berücksichtigen? Dies erforscht unter Leitung des Aueninstituts der Katholischen Universität Eichstätt-Ingolstadt (KU) ein von der Europäischen Union gefördertes Konsortium, an dem über 20 Institutionen aus den zehn Anrainerstaaten der Donau beteiligt sind. Das Projekt „Improving water quality in the Danube system by ecosystem service based integrative management (IDES)“ ist das erste von der KU geleitete EU-Verbundprojekt und wird bis Ende 2022 mit rund zwei Millionen Euro gefördert.
Von der Quelle bis zur Mündung in das Schwarze Meer legt die Donau mehr als 2800 Kilometer zurück und fließt dabei durch zehn Staaten, ihr Wasser speist sich sogar aus 20 Staaten. Somit Im Einzugsgebiet des Flusses leben mehr als 80 Millionen Menschen, die – ebenso wie Flora und Fauna – auf Wasser in guter Qualität angewiesen sind. Diese hängt auch entscheidend vom Gehalt an Nährstoffen ab, die durch Landwirtschaft, Industrie oder Abwasser in die Donau gelangen und weitergetragen werden. Ein zu großer Anteil an Phosphat und Stickstoff führt nicht nur im Schwarzen Meer zu Sauerstoffmangel und Artensterben, sondern hat auch lokale Probleme entlang der Donau zur Folge: Die Nitratbelastung im Grundwasser kann steigen, Seen und andere Fließgewässer können eutrophiert – also überdüngt – werden, so dass sie „umkippen“.
„Nährstoffe machen an Landesgrenzen nicht halt. Deshalb ist es unser Anliegen, mit diesem internationalen Projekt gemeinsam Strategien für ein umfassendes Wasserqualitätsmanagement zu etablieren. Dabei spielen die Auen entlang der Donau eine zentrale Rolle, indem sie Nährstoffe zurückhalten können“, erklären Prof. Dr. Bernd Cyffka, der Leiter des Aueninstituts der KU, und seine wissenschaftliche Mitarbeiterin Dr. Barbara Stammel. Sie koordinieren die Arbeit der beteiligten Institutionen, zu denen neben dem Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei auch das rumänische Umweltministerium, das österreichische Landwirtschaftsministerium sowie das bayerische Umweltministerium gehören.
Auen können Nährstoffe auf zweierlei Weise zurückhalten: Einerseits verhindern naturnahe Grünflächen an Flüssen den Eintrag von Dünger oder Pflanzenschutzmitteln ins Gewässer. Andererseits können auch Nährstoffe, die bereits in den Fluss gelangt sind, bei Hochwasser wieder zurückgehalten werden: Schwebstoffe des Flusswassers, an denen die Nährstoffe gebunden sind, lagern sich in der Aue und an ihren Pflanzen ab und dienen dort als Dünger. Hier liegt auch ein Grund dafür, dass Auen oft sehr fruchtbare Böden aufweisen – vergleichbar etwa zu den Feldern, die entlang des Nils regelmäßig überschwemmt wurden.
Mit dem aktuellen Projekt knüpfen die Forscherinnen und Forscher an langjährige Expertise aus anderen Verbundprojekten an: Zum einen ist das Aueninstitut seit zwei Jahren am EU-Projekt „Danube Floodplain“ beteiligt, das einen besseren Hochwasserschutz durch den Erhalt und die Renaturierung von Auen zum Ziel hat. Zum anderen haben die Wissenschaftlerinnen und Wissenschaftler ebenfalls mit dem Berliner Leibniz Institut einen „River Eco System Service Index“ (RESI) entwickelt, der für Deutschland anhand einer Vielzahl von Indikatoren abbildet, welche wirtschaftliche Bedeutung Auen-Ökosystemen zukommt. Denn Flüsse und ihre Auen haben viele Rollen und Aufgaben: Sie diesen als Schifffahrtsstraße und Erholungsraum, als Schutz vor Hochwasser und Trinkwasserreservoir sowie als Lebensraum für Pflanzen und Tiere. All diese Nutzungsansprüche werden einzeln von unterschiedlichen Fachbehörden auf verschiedenen Verwaltungsebenen geplant und geregelt – das macht es schwierig, die Übersicht zu behalten bzw. Bewirtschaftungsmaßnahmen abzustimmen. Hier setzt der RESI an, indem er versucht alle Belange einheitlich und objektiv zu bewerten. Als Grundlage für Entscheider zeigt der RESI-Index auch indirekte und langfristige Leistungen, wie etwa die Regulation des Wasserhaushalts, den Rückhalt von Nährstoffen oder die Bereitstellung von Lebensraum zum Erhalt der biologischen Vielfalt.
„Auch in anderen EU-Ländern werden Teilaspekte im Umfeld von Auen – wie Hochwasserschutz, Landwirtschaft oder Artenvielfalt – für Planungen häufig voneinander getrennt betrachtet und verwaltet. Die Frage von Wasserqualität als Ökosystemleistung von Auen spielt zudem bislang kaum eine Rolle“, erklärt Stammel. Ziel des IDES-Projektes ist es daher eine umfassende Perspektive einzunehmen, die erstmals auch diesen wichtigen Aspekt berücksichtigt. Die beteiligten Forscherinnen und Forscher konzentrieren sich dabei auf fünf Pilotregionen in Österreich, Rumänien, Serbien, Slowenien und Ungarn. Dort wollen sie im Austausch mit Entscheidungsträgern ein integriertes Konzept zum Management von Auen entwickeln, das die vielfältigen und wechselseitigen Ökosystemdienstleistungen von Auen transparent macht – als Grundlage für den künftigen Umgang mit solchen Gebieten.
Wissenschaftliche Ansprechpartner:
Für Fragen zum Projekt „IDES“ stehen Ihnen Prof. Dr. Bernd Cyffka (Leiter des Aueninstituts Neuburg, bernd.cyffka@ku.de) sowie Dr. Barbara Stammel (wissenschaftliche Mitarbeiterin des Aueninstituts, barbara.stammel@ku.de) zur Verfügung.
Quelle: IDW
Moderater Alkoholkonsum war mit besseren kognitiven Funktionen assoziiert
Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Ein geringer bis moderater Alkoholkonsum scheint einen positiven Einfluss auf die kognitive Funktion haben, zu diesem Ergebnis kommt eine große populationsbasierte, prospektive Kohortenstudie aus den USA. Der Effekt könnte möglicherweise gefäßvermittelt sein, erklärt DGN-Generalsekretär Professor Peter Berlit. Dennoch sollten die Daten mit der für Assoziationsstudien notwendigen Vorsicht interpretiert werden.
Eine große populationsbasierte Kohortenstudie [1], die die Daten von fast 20.000 Menschen aus den USA auswertete, brachte ein interessantes Ergebnis. Es handelte sich um eine Sekundäranalyse der „Health and Retirement Studie“ (HRS), deren Teilnehmer seit 1992 alle zwei Jahre allgemeinmedizinisch untersucht werden. Die vorliegende Analyse wertete Daten der dritten Erhebungswelle (1996 und später) aus und schloss nur Studienteilnehmer ein, die mindestens drei zweijährliche Gesundheitschecks durchlaufen hatten. Bei allen Teilnehmern, die bei Einschluss 65 Jahre und älter waren, wurden seit Beginn der HRS auch kognitive Funktionstests durchgeführt. Ab 1998 wurden diese Tests dann bei allen Studienteilnehmern unabhängig vom Alter vorgenommen. Insgesamt wurden dabei drei Domänen evaluiert: Die Worterinnerung, der Wortschatz und der sogenannte mentale Status. Dieser umfasst verschiedene kognitive Fähigkeiten wie zum Beispiel Gedächtnisleistung, Konzentrationsfähigkeit, Orientierung, Urteilsvermögen, mathematische Fähigkeiten.
Ziel der aktuellen Auswertung war, zu erheben, welchen Einfluss ein geringer bis moderater Alkoholkonsum auf die kognitive Funktion hat und ob er zu einer Veränderung der kognitiven Funktion zwischen mittlerer Lebensphase und Alter führt. Geringer bis moderater Alkoholkonsum wurde definiert als weniger als acht Drinks pro Woche bei Frauen und weniger als 15 Drinks pro Woche bei Männern (im Kontext wissenschaftlicher Studien ist mit einem Drink ein kleines Glas Wein (150 ml) oder Bier (350 ml) gemeint*). Studienteilnehmer mit diesem Trinkverhalten wurden hinsichtlich der Entwicklung ihrer kognitiven Funktion mit Nicht-Trinkern und starken Trinkern verglichen. Die ausgewertete Kohorte bestand insgesamt aus 19.887 Studienteilnehmern, die im Durchschnitt 61,8 Jahre alt waren. Über 60% waren Frauen und über 85% waren weiß.
Im Ergebnis zeigte sich, dass geringer bis moderater Alkoholkonsum mit einer höheren kognitiven Funktionskurve und einem geringeren kognitiven Abbaurate einherging. Die Wahrscheinlichkeit für einen kognitiven Abbau war bei ihnen im Vergleich zu Abstinenzlern um 34% geringer (OR: 0,66), auch die Unterschiede zwischen den Gruppen im Hinblick auf mentalen Status, Worterinnerung und Wortschatz waren signifikant – die moderaten Trinker waren den Nicht-Trinkern bei den Testergebnissen überlegen. Der jährliche kognitive Funktionsverlust war in der Gruppe mit maßvollem Alkoholkonsum signifikant niedriger. Dieser Zusammenhang war bei Menschen weißer Hautfarbe besonders deutlich ausgeprägt. Allerdings bestand zwischen Alkoholkonsum und kognitiver Funktion eine klare U-Kurven-Beziehung: Bei schweren Trinkern nahm die kognitive Funktion rasant ab.
„Auch in dieser Studie zeigt sich also, dass die Dosis das Gift macht. Alkohol ist letztlich ein Zellgift, auf das Nerven- und Gehirnzellen besonders empfindlich reagieren. Übermäßiger Alkoholkonsum schädigt nicht nur die Leber, sondern kann zu lebensgefährlichen neurologischen Folgen führen“, warnt Professor Dr. Peter Berlit, Generalsekretär der Deutschen Gesellschaft für Neurologie (DGN). Der Experte möchte daher diese Studie keinesfalls als Freibrief für den ungezügelten Alkoholkonsum verstanden wissen.
Dennoch bleibt die Frage offen, warum ein geringer bis moderater Alkoholkonsum für die kognitive Funktion zuträglich sein könnte. „Dieser positive Effekt des moderaten Alkoholkonsums ist wahrscheinlich gefäßvermittelt“, erklärt der Experte. Assoziationsstudien haben beispielsweise gezeigt, dass ein Glas Rotwein pro Tag mit einem geringeren kardiovaskulären Risiko einhergeht, also gefäßprotektiv wirken könnte. Vermutet werden antioxidative sowie anti-thrombotische und vasodilatierende Effekte, auch positive Effekte auf den Lipidstoffwechsel durch Anhebung des HDL-Cholesterins [2]. Dennoch müsse betont werden, so Berlit, dass ein kausaler Zusammenhang zwischen moderatem Alkoholkonsum und positiven Effekten auf die Gefäß- und Gehirngesundheit bislang nicht nachgewiesen wurde, da Assoziationsstudien grundsätzlich keine Beweiskraft haben.
„Wenn aber die Hypothese, dass ein maßvoller Alkoholkonsum eine gefäßschützende Wirkung hat, stimmt, wäre leicht zu erklären, warum er sich auch günstig auf die kognitive Funktion auswirken könnte. Ein großer Teil aller Demenzen wird durch Gefäßschäden mitverursacht, wir sprechen von einer vaskulären kognitiven Beeinträchtigung. Alles, was die Gefäßgesundheit erhält – Reduktion von Übergewicht, Bewegung, gesunde Kost und Senkung eines zu hohen Blutdrucks, schützt vor einer Demenz.“
* „In the United States a standard drink is 12 ounces of beer, 5 ounces of wine, or 1.5 ounces of 80 proof distilled spirits (an American ounce being 29.6 ml).“ [3]
Literatur
[1] Zhang R, Shen L, Miles T et al. Association of Low to Moderate Alcohol Drinking With Cognitive Functions From Middle to Older Age Among US Adults.JAMA Netw Open. 2020 Jun; 3(6): e207922.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7324954/
[2] Laufs B, Böhm M. Einfluss von Alkohol auf das kardiovaskuläre Risiko. Deutsche Zeitschrift für Sportmedizin. 2002. https://www.germanjournalsportsmedicine.com/fileadmin/content/archiv2001/heft06/…
https://academic.oup.com/brain/article/doi/10.1093/brain/awaa240/5868408
[3] Ferner RE. Alcohol intake: measure for measure. It’s hard to calculate how much you are drinking-but you should know. BMJ. 2001 Dec 22; 323 (7327): 1439-1440.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1121897
Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org
Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsidentin: Prof. Dr. med. Christine Klein
Stellvertretender Präsident: Prof. Dr. med. Christian Gerloff
Past-Präsident: Prof. Dr. Gereon R. Fink
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org
Originalpublikation:
doi:10.1001/jamanetworkopen.2020.7922
Quelle: IDW
Weltweiten Wasserbedarf effizienter decken: Wissenschaftler wollen Entsalzungstechnologien verbessern
Kamil Glabica Stabsstelle Presse und Kommunikation
Universität Paderborn
Wasser ist die wahrscheinlich wichtigste Ressource der Welt. Wir nutzen sie in der Landwirtschaft, in der Industrie, zum Trinken – vorausgesetzt, das Wasser ist sauber. Hier helfen sogenannte Entsalzungstechnologien. Sie entfernen gelöste Stoffe aus dem Wasser und bereiten es damit für unterschiedliche Anwendungen auf. Zwar gibt es bereits eine Vielzahl entsprechender Verfahren, dennoch sehen Wissenschaftler der Universität Paderborn und des Stanford National Accelerator Laboratory SLAC (USA) dringenden Verbesserungsbedarf. Ihre Studie, die jüngst im Fachmagazin „Joule“ erschien, stellt Lösungen mittels fortgeschrittener Charakterisierungstechniken und rechnergestützter Modellierung vor.
Leistung und Haltbarkeit von Entsalzungstechnologien weiterentwickeln
Pro Kopf werden in Deutschland jährlich rund 312 Kubikmeter Wasser verbraucht. Das belegen Zahlen des Statistischen Bundesamts für das Jahr 2019. Anders verhält es sich in Ländern, die nur begrenzten Zugang zu sauberem Süßwasser haben. Für diese Regionen ist es umso wichtiger, die lebensnotwendige Ressource aufzubereiten. Meerwasser ist zur Gewinnung von Trinkwasser besonders attraktiv. Möglich wird das zum Beispiel durch den Prozess der sogenannten Umkehrosmose oder durch kapazitive Deionisation. Laut Jun.-Prof. Dr. Hans-Georg Steinrück vom Department Chemie der Universität Paderborn stoßen diese Mechanismen allerdings – wie andere gängige Verfahren auch – an ihre Grenzen: „Leistung und Haltbarkeit aktueller Entsalzungstechnologien müssen verbessert werden, um den künftigen Bedarf an sauberem Wasser zu decken. Diese Herausforderung ist besonders komplex, weil es eine Vielzahl von Wasserquellen gibt, die unterschiedliche Mengen an Salz, gelösten organischen Stoffen und anderen Verunreinigungen enthalten“, sagt Steinrück. Kenntnisse von physikalischen und chemischen Prozessen auf atomarer und molekularer Ebene seien für die Entwicklung neuer Technologien entscheidend.
Vorbild Energiespeicherung: Charakterisierungstechniken erlauben molekulare Einblicke
Die Wissenschaftler zeigen in ihrer Studie auf, wie innovative Charakterisierungstechniken, einschließlich Röntgen-, Neutronen-, Elektronen- und Positronen-basierter Methoden, auf Wasserentsalzungstechnologien angewandt werden können. Ziel ist es, detaillierte molekulare Einblicke zu erhalten, insbesondere in Kombination mit rechnergestützter Modellierung. Dazu Steinrück: „Die Technologien zur Energiespeicherung haben enorm von der Charakterisierung von Elektroden, Elektrolyten und sogar funktionstüchtigen Geräten profitiert. Im Gegensatz dazu sind diese Methoden für Entsalzungstechnologien bislang nur spärlich eingesetzt worden. Das liegt zum einen an den Schwierigkeiten bei der Charakterisierung sehr dünner Materialien und Grenzflächenregionen und zum anderen daran, dass Entsalzungstechnologien komplexe Gewässer behandeln, die von Natur aus heterogen sind.“
Verbesserte Materialen auf Basis atomarer Bausteine
Mithilfe bestimmter Techniken können Wissenschaftler die chemische Zusammensetzung und physikalische Struktur der Materialen visualisieren, die in Wasserentsalzungstechnologien verwendet werden – sogar während des Betriebs. Konkret lassen sich damit chemische Bindungen zwischen Atomen und deren Positionen vermessen. „Daraus können nicht nur Rückschlüsse auf die Funktionsweise einzelner Atome gezogen werden, sondern es kann auch aufgedeckt werden, welche atomaren und molekularen Fehlverhalten zur Entwertung der Materialen und somit zu einer verkürzten Lebensdauer der Verfahren beitragen“, erklärt Steinrück. Damit wäre im Ergebnis eine wissensbasierte Weiterentwicklung von neuartigen und verbesserten Materialen möglich, in denen die atomaren Bausteine für spezifische Herausforderungen gezielt angeordnet werden können, so der Chemiker weiter.
„Wir gehen davon aus, dass das gewonnene Verständnis der Physik und der Chemie, die den Entsalzungstechnologien zugrunde liegen, die Entwicklung verbesserter Materialien und Verfahren beschleunigen wird. Das kann letzten Endes auch zu einem geringeren Energieverbrauch, verbesserter Kosteneffizienz, erhöhten Kapazitäten und damit zu einer insgesamt effizienteren Wasseraufbereitung führen“.
Zur Veröffentlichung:
https://doi.org/10.1016/j.joule.2020.06.020
Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Hans-Georg Steinrück
Department Chemie
Tel.: 05251 605780, E-Mail: hans.georg.steinrueck@uni-paderborn.de
Originalpublikation:
https://doi.org/10.1016/j.joule.2020.06.020
Weitere Informationen:
http://www.upb.de
Quelle: IDW
Können frühere Erkältungen die Schwere der SARS-CoV-2-Symptome beeinflussen?
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Weiterentwickeltes Preprint in Nature* erschienen / Neue Studie startet
Eine Studie unter Leitung der Charité – Universitätsmedizin Berlin und des Max-Planck-Instituts für molekulare Genetik (MPIMG) zeigt: Einige gesunde Menschen besitzen Immunzellen, die das neuartige Coronavirus SARS-CoV-2 erkennen können. Der Grund könnte in vorhergehenden Infektionen mit landläufigen Erkältungs-Coronaviren liegen. Ob sich eine solche Kreuzreaktivität schützend auf den Verlauf einer Infektion mit SARS-CoV-2 auswirkt, soll nun die Studie „Charité Corona Cross“ zeigen.
Woran liegt es, dass manche Menschen am neuartigen Coronavirus schwer erkranken, während andere kaum Symptome bemerken? Die Antwort darauf ist vielschichtig und Gegenstand intensiver Forschung. Einen möglichen Einflussfaktor hat ein Forschungsteam der Charité und des MPIMG jetzt identifiziert: frühere Infektionen mit harmlosen Erkältungs-Coronaviren. Darauf deuten Untersuchungen an sogenannten T-Helferzellen hin – spezialisierten weißen Blutkörperchen, die für die Steuerung der Immunantwort essentiell sind. Wie die Wissenschaftlerinnen und Wissenschaftler beobachteten, verfügt etwa ein Drittel der Menschen, die noch nie mit SARS-CoV-2 in Kontakt gekommen sind, über T-Helfer-Gedächtniszellen, die das neue Virus dennoch erkennen. Der Grund dafür ist vermutlich, dass bestimmte Strukturen von SARS-CoV-2 denen landläufiger Coronaviren ähneln.
Für Ihre Untersuchungen gewannen die Forschenden Immunzellen aus dem Blut von 18 COVID-19-Erkrankten, die an der Charité zur Behandlung aufgenommen und per PCR-Test positiv auf SARS-CoV-2 getestet worden waren. Zusätzlich isolierten sie Immunzellen aus dem Blut von 68 gesunden Personen, die nachweislich noch nie mit dem neuen Coronavirus in Kontakt gekommen waren. Die Immunzellen stimulierten sie dann mit kleinen, künstlich hergestellten Bruchstücken des sogenannten Spike-Proteins von SARS-CoV-2. Es bildet die Coronavirus-typische „Krone“ auf der Oberfläche des Virus und ermöglicht ihm den Eintritt in menschliche Zellen. Anschließend überprüfte die Forschungsgruppe, ob die T-Helferzellen durch die Proteinfragmente aktiviert worden waren. Das Ergebnis: Bei 15 der 18 COVID-19-Erkrankten, also 85 Prozent, reagierten die T-Helferzellen auf die Bruchstücke der Virusoberfläche. „Das hatten wir nicht anders erwartet, das Immunsystem der Patientinnen und Patienten bekämpfte das neue Virus ja gerade und reagierte deshalb auch im Reagenzglas darauf“, erklärt Dr. Claudia Giesecke-Thiel, Leiterin der Servicegruppe Durchflusszytometrie am MPIMG und eine der drei leitenden Autorinnen und Autoren der Studie. „Dass die T-Helferzellen nicht bei allen COVID-19-Erkrankten auf die Virusfragmente reagierten, liegt vermutlich daran, dass sich die T-Zellen in einem akuten oder besonders schweren Stadium einer Erkrankung außerhalb des Körpers nicht aktivieren lassen.“
Zur Überraschung des Teams fanden sich aber auch im Blut der Gesunden reaktive T-Helferzellen: Bei 24 der 68 Getesteten (35 Prozent) gab es Gedächtniszellen, die SARS-CoV-2-Fragmente erkannten. Dabei fiel den Wissenschaftlerinnen und Wissenschaftlern auf, dass die Immunzellen der COVID-19-Erkrankten und der Gesunden auf unterschiedliche Teilstücke der Virushülle reagierten. Während die T-Helferzellen der Patienten das Spike-Protein über seine komplette Länge erkannten, wurden die T-Helferzellen der Gesunden vor allem von Abschnitten des Spike-Proteins aktiviert, die entsprechenden Abschnitten des Spike-Proteins von harmloseren Erkältungs-Coronaviren ähneln. „Das deutet darauf hin, dass die T-Helferzellen der Gesunden auf SARS-CoV-2 reagieren, weil sie sich in der Vergangenheit mit heimischen Erkältungs-Coronaviren auseinandersetzen mussten“, sagt Dr. Giesecke-Thiel. „Denn eine Eigenschaft der T-Helferzellen ist, dass sie nicht nur von einem exakt ‚passenden‘ Erreger aktiviert werden können, sondern auch von ‚ausreichend ähnlichen‘ Eindringlingen.“ Tatsächlich konnte die Forschungsgruppe nachweisen, dass die T-Helferzellen der gesunden Probanden, die auf SARS-CoV-2 reagierten, auch durch verschiedene Erkältungs-Coronaviren aktiviert wurden – und damit per Definition „kreuzreagierten“.
Die Frage, wie sich diese Kreuzreaktivität bei gesunden Testpersonen auf eine mögliche SARS-CoV-2-Infektion auswirkt, kann die aktuelle Nature-Studie nicht beantworten. „Grundsätzlich ist vorstellbar, dass kreuzreaktive T-Helferzellen eine schützende Wirkung haben, indem sie zum Beispiel dazu beitragen, dass der Körper schneller Antikörper gegen das neuartige Virus bildet“, erklärt Prof. Dr. Leif Erik Sander von der Medizinischen Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité, ebenfalls leitender Autor der Studie. „In diesem Fall würden kürzlich durchgemachte Coronavirus-Erkältungen die Symptome von COVID-19 vermutlich abschwächen. Es ist jedoch auch möglich, dass eine kreuzreaktive Immunität zu einer fehlgeleiteten Immunantwort führt – mit negativen Auswirkungen auf den Verlauf von COVID-19. Eine solche Situation kennen wir zum Beispiel beim Dengue-Virus.“
Um abschließend zu klären, ob in der Vergangenheit durchgestandene Coronavirus-Erkältungen nun tatsächlich vor einer späteren Infektion mit SARS-CoV-2 schützen – und so möglicherweise die unterschiedliche Ausprägung der Symptome erklären -, sind in die Zukunft gerichtete Studien nötig. Eine solche Studie – die Charité-Corona-Cross-Studie – ist jetzt unter Leitung der Charité in Kooperation mit der Technischen Universität Berlin und dem MPIMG gestartet. Gefördert vom Bundesministerium für Gesundheit (BMG) und vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) geht sie der Frage nach, wie der Verlauf einer COVID-19-Erkrankung durch kreuzreaktive T-Helferzellen verändert wird.
„Coronaviren verursachen in Deutschland bis zu 30 Prozent der saisonalen Erkältungen“, sagt Prof. Dr. Andreas Thiel, Charité-Wissenschaftler am Si-M (Der Simulierte Mensch), einem gemeinsamen Forschungsraum der Charité und der Technischen Universität Berlin, und am BIH Center for Regenerative Therapies (BCRT). Er ist der dritte leitende Autor der jetzt erschienenen Nature-Publikation und Koordinator der Charité-Corona-Cross-Studie. „Man schätzt, dass sich ein Erwachsener im Schnitt alle zwei bis drei Jahre mit einem der vier heimischen Coronaviren ansteckt“, erklärt Prof. Thiel. „Wenn wir annehmen, dass diese Erkältungsviren tatsächlich eine gewisse Immunität gegenüber SARS-CoV-2 verleihen können, müssten ja Menschen, die in der Vergangenheit häufig solche Infekte durchgemacht haben und bei denen wir kreuzreaktive T-Helferzellen nachweisen können, besser als andere geschützt sein. Auf diese Personengruppen werden wir in der Charité-Corona-Cross-Studie deshalb besonderes Augenmerk legen.“ Parallel wird das Forschungsteam außerdem COVID-19-Risikogruppen über die nächsten Monate begleiten. Schlussendlich soll die Studie helfen, den Verlauf von COVID-19 in Zukunft sowohl vor als auch nach erfolgter SARS-CoV-2-Infektion besser vorherzusagen. „Das ist sowohl für den Alltag vieler Menschen als auch die Behandlung von Patientinnen und Patienten höchst relevant“, betont Prof. Thiel.
Geplant ist, Beschäftigte von Kindergärten und Kinderarztpraxen sowie Bewohnerinnen und Bewohner von Pflegeheimen bis ins nächste Jahr hinein umfassend immunologisch zu untersuchen. Neben einem PCR-Test auf SARS-CoV-2 soll ihr Blut unter anderem auf Antikörper gegen das Virus und die Reaktivität der T-Zellen getestet werden. Kommt es dann bei einigen der Untersuchten zu einer SARS-CoV-2-Infektion, kann die Forschungsgruppe den Verlauf der Erkrankung mit den immunologischen Parametern in Beziehung setzen.
Zusätzlich plant das Forschungsteam, das Blut von mindestens 1.000 COVID-19-Genesenen auf verschiedene immunologische Faktoren hin zu untersuchen und diese mit den Symptomen in Zusammenhang zu setzen, die die Menschen erlebt haben. So sollen weitere mögliche Parameter aufgedeckt werden, die die Schwere des COVID-19-Verlaufs beeinflussen. Dafür suchen die Wissenschaftlerinnen und Wissenschaftler aktuell Menschen, die nachweislich an COVID-19 erkrankt und wieder genesen sind. Auch Personen, die in den letzten Jahren nachweislich mit einem Erkältungs-Coronavirus wie 229E, OC43, NL63 oder HKU1 infiziert waren, werden gebeten, sich zu melden. Interessierte können die Studienärzte montags bis freitags zwischen 10 und 17 Uhr unter 030/314 279 12 oder studie@si-m.org erreichen.
*Braun J, Loyal L, Frentsch M et al. Presence of SARS-CoV-2-reactive T cells in COVID-19 patients and healthy donors. Nature (2020). doi: 10.1038/s41586-020-2598-9
Zur Publikation
Die Untersuchungen zur T-Zell-Reaktivität hatte die Forschungsgruppe bereits im April vorab auf einem sogenannten Preprint-Server hinterlegt. Im Zuge des Peer-Review-Verfahrens haben die Wissenschaftlerinnen und Wissenschaftler die Datenbasis um weitere Experimente ergänzt. Das finale Manuskript ist jetzt im Fachmagazin Nature erschienen.
Allgemeines zur Immunantwort
Das Immunsystem bekämpft Erreger zum einen mithilfe von spezifischen Antikörpern und zum anderen durch die Aktivierung spezifischer Immunzellen, darunter T-Zellen. Man spricht von der humoralen und der zellulären Immunantwort. Beide Arme des Immunsystems tragen zur Ausbildung einer Immunität gegen einen spezifischen Erreger bei. Inwiefern und zu welchem Anteil die humorale und die zelluläre Immunantwort zu einer Immunität gegen SARS-CoV-2 beiträgt, ist Gegenstand aktueller Forschung.
T-Helferzellen
T-Helferzellen sind für die Steuerung und Koordinierung der Immunantwort verantwortlich. Dringt ein Erreger in den Körper ein, nehmen sogenannte Fresszellen ihn auf und präsentieren Bruchstücke davon („Antigene“) auf ihrer Oberfläche. T-Helferzellen kontrollieren diese Bruchstücke; verfügen sie über einen mehr oder weniger passenden Rezeptor für diese Erregerfragmente, werden sie aktiviert. Aktivierte T-Helferzellen sorgen dann dafür, dass andere Immunzellen den Erreger direkt bekämpfen und passgenaue Antikörper bilden. Bei den meisten Immunantworten entstehen dann auch sogenannte T-Helfer-Gedächtniszellen, die über viele Jahre im Körper überleben können und verantwortlich für eine schnellere und effizientere Immunantwort im Falle eines erneuten Kontakts mit dem gleichen Erreger sind.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Thiel
Charité – Universitätsmedizin Berlin
t: +49 30 450 570 400
E-Mail: andreas.thiel@charite.de
Originalpublikation:
https://doi.org/10.1038/s41586-020-2598-9
Weitere Informationen:
https://infektiologie-pneumologie.charite.de/
Medizinische Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité
https://b-crt.de/de/forschung/forschungsfelder/immunsystem/regenerative-immunolo…
AG Thiel am BCRT
https://www.molgen.mpg.de/ Max-Planck-Institut für molekulare Genetik
Quelle: IDW
Kalikokrebs: Erstmals Gewässer vollständig von invasiver Tierart befreit und erfolgreich saniert
Regina Schneider Presse- und Öffentlichkeitsarbeit
Pädagogische Hochschule Karlsruhe
Am „Dreizack“ in Rheinstetten quaken die Laubfrösche wieder und auch die Königslibellen sind zurück. Biologen der Pädagogischen Hochschule Karlsruhe sowie der Stadt Rheinstetten ist es gelungen, ein Gewässer erstmals vollständig vom Kalikokrebs zu befreien und erfolgreich zu sanieren. Im Rahmen eines von der Stiftung Naturschutzfonds Baden-Württemberg geförderten Forschungsprojekts haben die Wissenschaftler Maßnahmen entwickelt, die Wirkung zeigen: Baumstammbarrieren um das Gewässer und Kies auf dem Boden verhindern, dass sich die hochinvasiven Krebse dort ansiedeln.
Seit vielen Jahren breitet sich der hochinvasive Kalikokrebs am Oberrhein aus und bedroht einheimische Amphibien und Libellen. Gemeinsam mit der Stadt Rheinstetten ist es Biologen der Pädagogischen Hochschule Karlsruhe nun gelungen, ein Gewässer erstmals vollständig von Kalikokrebsen zu befreien und erfolgreich zu sanieren. Im Rahmen des von der Stiftung Naturschutzfonds Baden-Württemberg geförderten Forschungsprojekts „Management des invasiven Kalikokrebses zum Schutz von Amphibien und Libellen in Kleingewässern“ haben die Wissenschaftler entsprechende Konzepte entwickelt und untersucht. Umgesetzt hat sie in den vergangenen Jahren die Stadt Rheinstetten.
Baumstammbarriere und Kiesschicht zeigen Wirkung
Eine Baumstammbarriere verhindert, dass die über Land wandernden Krebse zum Gewässer gelangen, und eine Kiesschicht an Ufer und Boden sorgt dafür, dass die Krebse keine Röhren bauen können. Das ist wichtig, weil die Krebse in diesen Röhren sogar das Austrocknen des Gewässers überleben. „Im Dreizack gibt es jetzt eindeutig keine Kalikokrebse mehr“, bilanziert Andreas Stephan, Doktorand am Institut für Biologie und Schulgartenentwicklung. „Seit Monaten haben wir in den 25 Fangsteinen, mit denen wir das Monitoring des Gewässers realisieren, keine Kalikokrebse mehr gefangen. Die Art ist dort definitiv nicht mehr vorhanden.“
„Wir freuen uns sehr, dass ein erster Erfolg bei der Bekämpfung des invasiven Kalikokrebses durch eine Kombination von Maßnahmen – insbesondere Habitatveränderungen und die Schaffung von Barrieren – am ‚Dreizack‘ in Rheinstetten verzeichnet werden kann und damit heimische Amphibien und Libellen das Gewässer wieder als Lebensraum nutzen können“, betont Stephanie Rebsch, Geschäftsführerin der Stiftung Naturschutzfonds Baden-Württemberg.
Die Situation schien nahezu aussichtslos
Stattdessen schlüpfen jetzt am „Dreizack“ wieder Königslibellen und auch der hochgradig schützenswerte Laubfrosch ist zurück, nachdem er in Rheinstetten vom Aussterben bedroht schien. „Von Ende April bis Mitte Juni haben wir am Dreizack rund 260 Larvenhäute der Großen Königslibelle gefunden“, freut sich Prof. Dr. Andreas Martens, Leiter des Instituts für Biologie und Schulgartenentwicklung über diesen neuen „guten Bestand“. Mit dem „Dreizack“ konnte auch das für den Laubfrosch wichtigste Gewässer in Rheinstetten saniert werden.
„Für mich schien die Situation nahezu aussichtslos“, sagt Martin Reuter, Umweltbeauftragter der Stadt Rheinstetten. Mit Reuter haben die Biologen im Rahmen des Forschungsprojekts eng zusammengearbeitet und ihre Maßnahmen abgestimmt. Nun zeigt am „Dreizack“ die Große Königslibelle wieder ihre Flugkünste und abends erklingt das laute Konzert der Laubfrösche. Denn jetzt gibt es dort keine Kalikokrebse mehr, die Kaulquappen, Laich oder Larven zum Verhängnis werden könnten.
Über das Forschungsprojekt
Im Rahmen des Forschungsprojekts „Management des invasiven Kalikokrebses zum Schutz von Amphibien und Libellen in Kleingewässern“, das von der Stiftung Naturschutzfonds Baden-Württemberg aus Erträgen der Glücksspirale gefördert wird, haben Biologen der Pädagogischen Hochschule Karlsruhe nachhaltige Managementmaßnahmen entwickelt, um die Bestände des Kalikokrebses zu reduzieren. Start war Mitte 2017, Projektende ist im Dezember 2020. Das Regierungspräsidium Karlsruhe ist mit seinem Referat 56 Naturschutz und Landschaftspflege fachlich eingebunden und unterstützt die Arbeit der Wissenschaftler.
Über den Kalikokrebs
Der aus Nordamerika stammende Kalikokrebs (Faxonius immunis) hat sich am Oberrhein seit 1993 dramatisch ausgebreitet. Anders als der Kamberkrebs, der Signalkrebs, der Rote Amerikanische Sumpfkrebs und der Marmorkrebs steht er bisher nicht auf der EU-Liste invasiver gebietsfremder Arten. Kalikokrebse können in Kleingewässern hohe Dichten aufbauen und sind damit eine besondere Bedrohung für gefährdete Amphibien und Libellenarten. Unter unseren klimatischen Bedingungen schlüpft die Brut im späten Frühjahr, zumindest ein Teil der Krebse kann bereits im ersten Jahr geschlechtsreif werden. Mit bis zu 495 Eiern pro Weibchen (Durchschnitt: 150) haben Kalikokrebse eine hohe Fortpflanzungsrate und können Massenbestände mit 45 Krebsen pro Quadratmeter Wasserfläche entwickeln.
Sie gehen über Land und besiedeln so auch isolierte Gewässer, im Frühjahr wandern selbst die Eier tragenden Weibchen. Der Kalikokrebs überträgt – wie alle amerikanischen Flusskrebs-Arten – den Erreger der Krebspest, ohne daran selbst unter normalen Bedingungen ernsthaft zu erkranken. Darüber hinaus ist er gegenüber anderen bei uns vorkommenden Flusskrebs-Arten ziemlich aggressiv. Kalikokrebse dürfen daher auf keinen Fall weiterverbreitet werden. Insbesondere sollten sie nicht in Gartenteiche eingesetzt werden, denn von dort können sie leicht entkommen.
Über die Pädagogische Hochschule Karlsruhe
Als bildungswissenschaftliche Hochschule mit Promotions- und Habilitationsrecht forscht und lehrt die Pädagogische Hochschule Karlsruhe zu schulischen und außerschulischen Bildungsprozessen. Ihr unverwechselbares Profil prägen der Fokus auf MINT, mehrsprachliche Bildung und Heterogenität sowie eine aktive Lehr-Lern-Kultur. Das Studienangebot umfasst Lehramtsstudiengänge für Grundschule und Sekundarstufe I, Bachelor- und Masterstudiengänge für andere Bildungsfelder sowie professionelle Weiterbildungsangebote. Rund 220 in der Wissenschaft Tätige betreuen rund 3.600 Studierende. Weitere Infos auf https://www.ph-karlsruhe.de
Medienkontakt
Regina Schneider M. A.
Pressesprecherin
Pädagogische Hochschule Karlsruhe
Bismarckstraße 10
76133 Karlsruhe
Telefon +49 721 925 4115
E-Mail: Regina.Schneider@vw.ph-karlsruhe.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Martens, Leiter des Instituts für Biologie und Schulgartenentwicklung der Pädagogischen Hochschule Karlsruhe, andreas.martens@ph-karlsruhe.de
Quelle: IDW
Entzündungshemmer senken das Risiko für eine Infektion
Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Entzündungshemmende Medikamente sollen laut Erlanger Corona-Studie weiter eingenommen werden
Die über 2.000 Teilnehmer umfassende Corona-Antikörperstudie des Deutschen Zentrums Immuntherapie (DZI) am Universitätsklinikum Erlangen wurde nun im renommierten wissenschaftlichen Journal „Nature Communications“ veröffentlicht. Die Wissenschaftler des DZI haben bereits sehr früh mit Antikörpertests gegen das neue Coronavirus begonnen, da viele Patienten mit Erkrankungen wie Arthritis, Darmentzündungen oder Schuppenflechte mit Medikamenten behandelt werden, die in Entzündungsprozesse und damit auch in das Immunsystem eingreifen. Daher bestand Sorge, dass diese Patienten sehr empfindlich auf das neue Coronavirus reagieren. Die Erlanger Forscher untersuchten Probanden auf klinische Zeichen von Atemwegsinfekten, befragten sie zum Kontakt mit Infizierten und testeten sie auf Antikörper gegen das Coronavirus. Gleichzeitig wurde im Rahmen der Erlanger Corona-Antikörperstudie auch eine große Zahl gesunder Probanden untersucht.
„Wir fanden heraus, dass die Häufigkeit einer Infektion mit dem neuen Coronavirus in der Normalbevölkerung in Bayern derzeit 2,2 Prozent beträgt“, sagt Studienleiter Prof. Dr. med. univ. Georg Schett, einer der beiden Sprecher des DZI und Direktor der Medizinischen Klinik 3 – Rheumatologie und Immunologie des Uni-Klinikums Erlangen. „Dies ist ein vergleichsweise niedriger Wert und vermutlich dem strikten Einhalten der Hygienemaßnahmen sowie der erfolgreichen frühen ,Lockdown‘-Politik in Bayern geschuldet. Interessanterweise zeigen unsere Ergebnisse aber auch, dass neun von zehn Infektionen mit dem Coronavirus unterschwellig und ohne größere Symptome verlaufen. Hierbei ist zu bedenken, dass die Häufigkeit bestätigter diagnostizierter COVID-19-Fälle in Bayern mit 0,3 Prozent bei nur ca. einem Zehntel der Infektionsrate unserer Corona-Antikörperstudie liegt.“
„Hinsichtlich ihrer Symptomatik zeigten viele Menschen, die Kontakt mit dem neuen Coronavirus hatten, Zeichen von Atemwegssymptomen, die sich grundsätzlich nicht von anderen Atemwegsinfekten unterschieden“, geben Dr. David Simon und Dr. Koray Tascilar von der Medizin 3 des Uni-Klinikums Erlangen zu bedenken. Da Atemwegsinfekte sehr häufig sind und nur ein geringer Teil von ihnen tatsächlich auf das neue Coronavirus zurückzuführen ist, ist es von besonderer Wichtigkeit, solche Symptome angemessen abzuklären und gegebenenfalls eine Virustestung durchzuführen. Geruchsverlust stellt hier möglicherweise eine Ausnahme dar, denn diese Symptomatik zeigte sich bei Menschen mit Antikörpern gegen das neue Coronavirus deutlich häufiger.
Was aber passiert, wenn Menschen entzündungshemmende Medikamente für chronische Erkrankungen wie Arthritis, entzündliche Darmerkrankungen oder Schuppenflechte einnehmen? In diesem Fall lag ursprünglich der Verdacht nahe, dass diese Menschen empfindlicher gegenüber Infektionen mit dem neuen Coronavirus sind. „Dem ist aber nicht so!“, führen Prof. Dr. Markus F. Neurath, DZI-Sprecher und Direktor der Medizinischen Klinik 1 – Gastroenterologie, Pneumologie und Endokrinologie des Uni-Klinikums Erlangen, und Prof. Dr. Raja Atreya, Oberarzt am DZI und an der Medizin 1, aus. „Patienten mit Morbus Crohn oder der Colitis ulcerosa, die Entzündungshemmer einnehmen, zeigten ein niedrigeres und eben kein erhöhtes Risiko für eine Infektion mit dem Coronavirus.“ Zu einem ähnlichen Schluss kommen ihre Kollegen Prof. Dr. Carola Berking, Direktorin der Hautklinik des Uni-Klinikums Erlangen, und ihr Stellvertreter Prof. Dr. Michael Sticherling: „Auch Patienten mit Schuppenflechte, einer der häufigsten chronisch-entzündlichen Erkrankungen des Menschen, weisen kein erhöhtes Risiko für eine Infektion mit dem neuen Coronavirus auf, wenn sie mit speziellen entzündungshemmenden Medikamenten therapiert werden.“ Ähnliche Ergebnisse wurden auch für entzündliche Gelenkerkrankungen wie die Rheumatoide Arthritis und Morbus Bechterew gefunden, wie die Oberärzte Dr. Arndt Kleyer und Prof. Dr. Gerhard Krönke aus dem Bereich Rheumatologie und Immunologie der Medizin 3 bestätigen.
Diese Ergebnisse haben eine große Bedeutung für Menschen mit entzündlichen Erkrankungen, denn sie zeigen, dass die Weiterführung der entzündungshemmenden Therapie in Zeiten der Coronavirus-Pandemie im Wesentlichen unbedenklich ist und dass diese Patienten weder aufgrund ihrer Erkrankung noch aufgrund der Therapie zur Risikogruppe für schwere Verläufe der Infektion gehören.
Die Erlanger Corona-Studie entstand in interdisziplinärer Zusammenarbeit von Forschern des DZI sowie mit Prof. Dr. Klaus Überla und Prof. Dr. Matthias Tenbusch vom Virologischen Institut – Klinische und Molekulare Virologie des Uni-Klinikums Erlangen. Die Studie wurde durch den Sonderforschungsbereich 1181 der Deutschen Forschungsgemeinschaft, das Bundesministerium für Bildung und Forschung (BMBF-Projekt MASCARA) und die Schreiber-Stiftung unterstützt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. univ. Georg Schett
Tel.: 09131 85-39109
georg.schett@uk-erlangen.de
Quelle: IDW
Höhere COVID-19 Sterblichkeit nicht alleine durch enge familiäre Kontakte erklärbar
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Mehr COVID-19 Fälle und höhere Sterblichkeitsraten können nicht alleine durch enge familiäre Kontakte – wie die Betreuung von Enkelkindern oder das Zusammenleben mehrerer Generationen – erklärt werden. Frühere Studien ließen vermuten, dass in Ländern wie Italien, in denen generationenübergreifende Kontakte üblich sind, höhere Corona bedingte Sterblichkeitsraten vorkommen. Ein internationales Forscher*innenteam um Valeria Bordone von der Universität Wien hat jetzt regionale Daten analysiert und kann diesen Zusammenhang nicht bestätigen. Denn: Innerhalb Italiens war die Sterblichkeit in jenen Regionen am höchsten, in denen das Zusammenleben mehrerer Generationen eher selten ist.
Die bisherige Entwicklung der Corona-Pandemie wirft die Frage auf, welche Faktoren zur Ausbreitung des Virus beitragen. Mehrere in den letzten Monaten veröffentlichte Studien vertreten die These, dass enge Beziehungen zwischen Menschen mehrerer Generationen zu einer schnelleren Ausbreitung und höheren Sterblichkeitsraten führen könnten. Diese Studien sind auf Basis nationaler Daten gefolgert, dass in Ländern wie Italien – in denen häufig Personen mehrerer Generationen zusammenleben – die Sterblichkeitsraten höher sind.
Ein internationales Team von Wissenschafter*innen der Universitäten Wien, Florenz und Pompeu Fabra hat jetzt auch regionale Daten analysiert und festgestellt, dass dieser Schluss unzulässig ist. Die aktuelle Studie warnt daher vor vereinfachten Interpretationen von scheinbaren Zusammenhängen zur Erklärung der unterschiedlichen Ausbreitung und Todesraten von COVID-19.
Höhere Sterblichkeit ist eher auf schwächere Gesundheitssysteme zurückzuführen
Die Wissenschafter*innen Valeria Bordone, Bruno Arpino und Marta Pasqualini analysierten Daten aus 19 europäischen Ländern und damit den Zusammenanhang zwischen generationenübergreifenden Beziehungen und den Sterblichkeitsraten sowie der Anzahl der Fälle pro 100.000 Einwohner*innen. Auf nationaler Ebene konnte, wie vermutet, der Zusammenhang zwischen engen generationenübergreifenden Beziehungen und höheren Sterblichkeitsraten bestätigt werden – so gab es beispielsweise mehr Fälle und eine höhere Sterblichkeitsrate in Ländern, in denen erwachsene Kinder häufig bei ihren Eltern leben.
Bei der Analyse der Daten auf subnationaler Ebene hat sich dieser Zusammenhang jedoch umgekehrt – beispielsweise waren in Italien Regionen, in denen selten mehrere Generationen zusammen leben trotzdem am stärksten von der Pandemie betroffen. „Der positive Zusammenhang zwischen generationenübergreifenden Beziehungen und COVID-19-Fällen auf nationaler Ebene könnte auf schwächere Gesundheitssysteme zurückzuführen sein. Auf regionaler Ebene könnte der negative Zusammenhang mit einem höheren Anteil an älteren Menschen in Altersheimen zu tun haben,“ sagt Bordone. So wurde beispielsweise in der Lombardei eine der höchsten Sterblichkeitsraten in Italien gemessen, obwohl dort vergleichsweise wenige generationenübergreifende Kontakte bestehen. Gleichzeitig leben in der Lombardei vergleichsweise viele ältere Menschen in Altersheimen.
Familiäre Beziehungen sind in Krisenzeiten wichtig
Laut den Autor*innen sollte nicht übersehen werden, dass generationenübergreifende Beziehungen auch eine positive Rolle – in Form von emotionaler und instrumenteller Unterstützung – spielen können: „Familiäre Beziehungen, ob physisch oder auf Distanz, haben möglicherweise dazu beigetragen, dass die Einschränkungen in Lockdown-Phasen eher eingehalten wurden. Somit wurde dadurch die Verbreitung von COVID-19 eher gehemmt“, sagt Bordone.
Auch für die Politik ist von großer Bedeutung, welche Faktoren die Verbreitung und Letalität von COVID-19 beeinflussen. „Wir warnen vor übereilten Fehlinterpretationen basierend auf dem Vergleich von Ländern“, sagt Bordone. „Politische Maßnahmen sollten generationenübergreifende Beziehungen als möglichen Übertragungsweg des Virus, aber auch als Quelle der familiären Unterstützung berücksichtigen“.
Angesichts der Tatsache, dass soziale Kontakte nicht zwangsläufig physischer Natur sein müssen – ebenso wenig wie physische Kontakte automatisch soziale Kontakte implizieren – empfehlen die Wissenschafter*innen zudem, den Begriff „soziale Distanzierung“ durch den Begriff „physische Distanzierung“ zu ersetzen.
Publikation in „PNAS“:
Arpino, B., Bordone, V., Pasqualini, M. (2020). No clear association emerges between intergenerational relationships and COVID-19 fatality rates from macro-level analyses.
DOI: 10.1073/pnas.2008581117
Wissenschaftliche Ansprechpartner:
Ass.-Prof. Dr. Valeria Bordone
Institut für Soziologie
Universität Wien
1090 – Wien, Rooseveltplatz 2
T +43 (0) 6607463111
valeria.bordone@univie.ac.at
Originalpublikation:
Arpino, B., Bordone, V., Pasqualini, M. (2020). No clear association emerges between intergenerational relationships and COVID-19 fatality rates from macro-level analyses. PNAS.
DOI: 10.1073/pnas.2008581117
Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…
Quelle: IDW
Debarking Heads stärken das Ökosystem Wald und tragen durch Borkenkäferprävention zur Entspannung am Holzmarkt bei
Gerhard Radlmayr Zentrum für Forschung und Wissenstransfer
Hochschule Weihenstephan-Triesdorf
Die Entrindung von Stämmen während der Aufarbeitung im Bestand ist seit Jahren gängige Praxis in Eukalyptus-Plantagen auf der Südhalbkugel. Diese erfolgt mit Entrindungsaggregaten an Harvestern. In Anlehnung an diese Technik lief von 2014-2017 ein Projekt an der Hochschule Weihenstephan-Triesdorf (HSWT), bei dem sogenannte Debarking Heads unter mitteleuropäischen Waldverhältnissen modifiziert und getestet wurden. Das Hauptaugenmerk lag dabei auf der Minimierung des Nährstoffaustrags bei der Holznutzung. Im Folgeprojekt Debarking Heads II (bis 2021) steht die Logistikkette von entrindetem Holz im Fokus.
Dazu wurden Entrindungswalzen statt konventioneller Vorschubwalzen entwickelt, deren Umrüstung grundsätzlich an allen Aggregaten möglich ist. Der Stamm wird in voller Länge durch das Aggregat gelassen, durch die Entrindungswalzen mit schräg angebauten Stegen wird die Rinde aufgedrückt und durch die Entastungsmesser abgetragen. Die Entrindungsprozente liegen im Sommer bei Saftfluss im Mittel bei 84 %, im Winter lediglich bei 56 %. Die Vorteile eines Einsatzes von Debarking Heads sind vielfältig. Die Rinde und somit die rindengebundenen Nährstoffe bleiben im Bestand und werden nicht aus dem Ökosystem Wald ausgetragen. Durch die insektizidfreie Borkenkäfer-Prävention des Verfahrens entspannt sich der Absatzdruck bei der Holzabfuhr und -vermarktung. Weiterhin erfolgt die Verbrennung von Holz vollständiger als die von Rinde. Somit entsteht weniger Asche und Feinstaub. Nicht zuletzt werden Transportmasse und -volumen reduziert und dadurch Kraftstoff eingespart.
Borkenkäferprävention
Besonders in Borkenkäferjahren bringt der Einsatz von Debarking Heads große Vorteile mit sich. Eine Entrindung zwischen Januar und Oktober bei weißen Stadien wird von der Bayerischen Landesanstalt für Wald und Forstwirtschaft (LWF) aus Waldschutzgründen empfohlen. Mit den Debarking Heads ist dies einfach umsetzbar. Durch die Entrindung wird den rindenbrütenden Insekten der Brutraum entzogen, sie entwickeln sich nur begrenzt weiter und fliegen nicht aus. Das ergab eine Bachelorarbeit, bei der Rinde aus der Aufarbeitung eines Käferlochs unter sogenannte Eklektoren gelegt wurde. Das sind zeltartige Fallen, mit dem flugfähige Insekten gefangen werden können.
Akzeptanz der Sägeindustrie
Manche Holzabnehmer sträuben sich gegen entrindetes Holz. Die deutsche Säge- und Holzindustrie (DeSH) steht Debarking Heads sehr kritisch gegenüber. Dabei werden verschiedene Argumente gegen den Einsatz von Entrindungsaggregaten ins Feld geführt. Zum Beispiel wurde in den letzten Jahren die Rinde ohne Mehrkosten an die Abnehmer mitgeliefert. Mit dieser wurden dann z. B. Trocknungsanlagen in Sägewerken beheizt oder die Rinde wurde zu Rindenmulch verarbeitet und verkauft.
Debarking Heads in der Praxis
Derzeit sind deutschlandweit rund 40 Debarking Heads im Einsatz. Ein Debarking Head bei der Holzernte wurde bei der letzten KFW-Tagung im Sommer 2016 zusammen mit den Projektergebnissen vorgestellt. Nach Abschluss des Gesamtprojekts sollen auf der nächsten KFW-Tagung im Sommer 2021 erneut praktische Demonstrationen eines Debarking Head erfolgen sowie die Gesamtergebnisse präsentiert werden.
Projektleitung, Kooperationspartner und kooperative Promotion
Beide Projekte leitet Prof. Dr. Stefan Wittkopf von der Fakultät Wald und Forstwirtschaft der Hochschule Weihenstephan-Triesdorf, der am Institut für Ökologie und Landschaft (IÖL) forscht. Kooperationspartner ist das Kuratorium für Waldarbeit und Forsttechnik e.V. (KWF). Joachim B. Heppelmann, maßgeblicher wissenschaftlicher Mitarbeiter in beiden Debarking Heads Projekten, konnte seine im Oktober 2015 begonnene Dissertation zum Thema „Modifying conventional harvesting heads: a technical approach to in-stand debarking under Central European conditions“ am 14. Mai 2020 erfolgreich verteidigen. Die kooperative Promotion wurde seitens der HSWT von Prof. Dr. Stefan Wittkopf betreut, der Doktorvater war Prof. Dr. Eric R. Labelle, ehemaliger Inhaber der Professur für forstliche Verfahrenstechnik an der TU München am Wissenschaftszentrum Weihenstephan.
Text: Caroline Bennemann und Gerhard Radlmayr
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Wittkopf
stefan.wittkopf@hswt.de
T +49 8161 71-5911
Hochschule Weihenstephan-Triesdorf
Hans-Carl-von-Carlowitz-Platz 3
85354 Freising
Originalpublikation:
(1) Heppelmann, J. B. et. al. (2019): In-stand debarking with the use of modified harvesting heads: a potential solution for key challenges in European forestry. Eur J Forest Res 138, S.1067-1081. https://doi.org/10.1007/s10342-019-01225-y
(2) Heppelmann, J. B. et. al. (2019): Static and Sliding Frictions of Roundwood Exposed to Different Levels of Processing and Their Impact on Transportation Logistics. Forests 10 (7), S.568. https://doi.org/10.3390/f10070568
(3) Heppelmann, J. B. et. al. (2019): Development and Validation of a Photo-Based Measurement System to Calculate the Debarking Percentages of Processed Logs. Remote Sensing 11 (9), S.1133. https://doi.org/10.3390/rs11091133
Weitere Informationen:
https://forschung.hswt.de/forschungsprojekt/1115-debarking-heads-ii Projekt Debarking Heaads II: Entwicklung und Bewertung von Logistikketten bei Einsatz von entrindenden Harvesterfällköpfen
https://forschung.hswt.de/forschungsprojekt/634-debarking-heads-i Projekt Debarking Heads I: Nährstoffentzug bei der Holzernte minimieren – durch die Nutzung von entrindenden Harvesterfällköpfen
http://dh2.kwf-online.de/ il Karte der Debarking Heads, die in Deutschland im Einsatz sind
Quelle: IDW
Wasser 4.0: Ein „Digitaler Zwilling“ für das Kanalsystem
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Mit der Entwicklung des „Digitalen Zwillings“ einer Pumpstation wollen TU-Ingenieur*innen in Zeiten des Klimawandels die Abwasser-Infrastruktur von Megastädten besser verstehen und beherrschbar machen
Zuverlässig mit sauberem Frischwasser versorgt zu werden, ist für viele Menschen heute selbstverständlich. Doch das intelligente Management und die sichere Behandlung von Wasser und Abwasser sind ingenieurtechnische Höchstleistungen, denn Urbanisierung und Klimawandel belasten die natürlichen Ressourcen zunehmend. Um gerade in großen Städten die entsprechenden Infrastrukturen effizienter und besser beherrschbar zu machen, schaffen Wissenschaftler*innen der TU Berlin innovative, intelligente Konzepte und Strategien und untersuchen sie in einer realistischen Umgebung. Dafür entwickeln sie zusammen mit der Siemens AG und den Berliner Wasserbetrieben derzeit den „Digitalen Zwilling“ einer Pumpstation. Mit seiner Hilfe wird es künftig möglich sein, virtuell Probleme im Abwassersystem zu detektieren sowie dieses mit smarter Technik vorausschauend zu betreiben und funktionsfähig zu halten.
„Der digitale Zwilling ist ein echter Meilenstein auf dem Weg zu Wasser 4.0″, erklärt Prof. Dr.-Ing. Paul-Uwe Thamsen, der das Fachgebiet Fluidsystemdynamik am Institut für Strömungsmechanik und Technische Akustik der TU Berlin leitet. In seiner Laborhalle auf dem Campus der Universität steht die riesige Versuchsanlage einer Pumpstation an der sein Wissenschaftler*innen-Team in verschiedenen Projekten digitale Möglichkeiten in Betrieb und Wartung, Datenanalysen und Vernetzung solcher Infrastrukturen erforschen.
Hitze, Trockenheit und Starkregen belasten das Kanalsystem
„Allein Berlin ist in den vergangenen 20 Jahren um 300.000 Menschen gewachsen“, so Thamsen. „Lange Trocken- und Hitzeperioden nehmen zu, ebenso Starkregenereignisse. Das macht insbesondere unseren Abwassersystemen sehr zu schaffen.“ Geruchsbelästigungen aus dem Abwassernetz sind die Folge, Einbauteile korrodieren, die Starkregenfälle überlasten das Kanalnetz, was dazu führt, dass die Mischwasserkanäle mit Oberflächen- und Abwässern überlaufen und belastetes Abwasser freisetzten.
Als Forschungspartner der TU Berlin hat die Siemens AG rund 500.000 Euro investiert, um die Pumpenversuchsanlage der TU-Forscher mit der neuesten Technologie auszustatten, die die Anlage nun Schritt für Schritt um einen digitalen Anlagenzwilling erweitert, so dass schließlich alle Informationen des Versuchsstandes in einer digitalen Umgebung vorliegen: Planungsunterlagen, technische Daten, Einstellparameter, Betriebs- und Wartungsinformationen bis hin zur Fehlerdiagnose mit selbstständiger Reaktion zur Fehlerbehebung.
Effiziente und ökonomische Wasserwirtschaft
Für die Berliner Wasserbetriebe, den zweiten Forschungspartner ist ein weiterer Aspekt besonders interessant, den der Digitale Anlagenzwilling verspricht. „Durch die intelligente Vernetzung von vorhandenen Wasser- und Abwasserrückhalteeinrichtungen und die vorausschauende Betriebsweise von Abwasserpumpstationen werden Niederschlagsereignisse besser beherrschbar und energetische Einsparungen gegenüber dem regulären Betrieb möglich“, so Thamsen. „Das kann auch den Bau neuer Anlagen ersparen, der oft mit Millionen-Investitionen verbunden ist. Die Digitalisierung des Systems unterstützt also eine effiziente und ökonomische Wasserwirtschaft.“
Ein großes Problem sind im städtischen Abwassersystem sind zum Beispiel die sogenannten „Verzopfungen“. Das sind meterlange, stinkende und schleimige dicke Materialklumpen, die sich regelmäßig tief unter der Erde der summenden Metropole im Abwasserstrom ineinander verdrehen und schließlich die riesigen Abwasserpumpen blockieren. Mitarbeiter der Berliner Wasserbetriebe müssen diese dann von Hand aus der Pumpstation zerren, damit die Berliner Straßen nicht zur Kloake werden. Hauptverursacher sind feuchte Baby- oder Hygienetücher, die achtlos in die Toilette geworfen werden, denn sie lösen sich im Abwasser nicht auf. „Mit dem Digitalen Zwilling kann man die Gefahr solcher Verzopfungen frühzeitig erkennen und die Pumpen rückwärts laufen lassen, um sie zu reinigen“, so Thamsen. „Alles in allem hilft uns die Digitalisierung, unsere Infrastrukturen optimal zu verstehen und zu nutzen.“
Mit der neuen Versuchsanlage der „quasi realen Pumpstation“ plus dem digitalen Zwilling steht der TU Berlin eine experimentelle Grundausstattung zur Verfügung, an der zahlreiche innovative Lösungen für „intelligente Pumpstationen“ entwickelt werden. Diese können auf beliebige Abwassernetzstrukturen unterschiedlichster Städte angewandt werden.
https://www.fsd.tu-berlin.de/menue/forschung/
https://new.siemens.com/global/en/company/stories/industry/digital-twin-digitali…
Weitere Informationen erteilt Ihnen gern:
Prof. Dr.-Ing. Paul-Uwe Thamsen
Technische Universität Berlin
Fakultät V Verkehrs- und Maschinensysteme
Institut für Strömungsmechanik und Technische Akustik
Fachgebiet Fluidsystemdynamik – Strömungstechnik in Maschinen und Anlagen
Tel.: 030 / 314 – 25262
E-Mail: paul-uwe.thamsen@tu-berlin.de
Weitere Informationen:
https://www.fsd.tu-berlin.de/menue/forschung/
https://new.siemens.com/global/en/company/stories/industry/digital-twin-digitali…
Quelle: IDW
Erste bundesweite Regenmessung mit dem Mobilfunknetz
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Ob bei der Hochwasserfrühwarnung oder in der Landwirtschaft – Regenmessungen sind von großer Bedeutung. Doch weltweit fehlen für viele Regionen präzise Daten, weil flächendeckende Messungen bislang zu teuer sind. Ändern könnte sich das mit einer neuen Methode, die gerade ihren Praxistest bestanden hat. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) und der Universität Augsburg gelang die erste deutschlandweite Regenmessung mit dem Mobilfunknetz. Jetzt ist der Einsatz der Technologie in Westafrika geplant. Über die Ergebnisse berichtet das Team aktuell in den Fachzeitschriften Hydrology and Earth System Sciences und Atmospheric Measurement Techniques.
Regen kann die Leistungsfähigkeit eines Mobilfunknetzes erheblich beeinträchtigen. Doch was Telekommunikationsunternehmen Kopfzerbrechen bereiten kann, ist für die meteorologische Forschung ein Glücksfall: „Wir haben aus dieser Interaktion zwischen Wettergeschehen und menschlicher Technologie eine gänzlich neue Methode zur Regenmessung entwickelt“, sagt Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT. „Wenn ein Mobilfunknetz vorhanden ist, brauchen wir weder eine neue Infrastruktur noch zusätzliches Bodenpersonal.“ Gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Universität Augsburg gelang seinem Team am KIT nun die erste flächendeckende Regenmessung mit der neuen Methode in Deutschland: Aus der niederschlagsbedingten Abschwächung der Funkverbindung zwischen mehreren tausend Mobilfunkmasten konnten sie zeitlich hoch aufgelöste Regenkarten generieren. „Beim Vergleich mit den Messwerten des Deutschen Wetterdienstes zeigt sich, dass wir eine hohe Übereinstimmung erzielt haben“, erklärt Maximilian Graf aus dem Forscherteam.
Verbesserte Genauigkeit dank Künstlicher Intelligenz (KI)
Möglich wurde die Niederschlagsbestimmung aufgrund der Richtfunkantennen, die in Mobilfunkmasten zur Übertragung über weite Strecken eingesetzt werden. „Genutzt wird hier eine Frequenz von 15 bis 40 Gigahertz, deren Wellenlänge der typischen Größe von Regentropfen entspricht“, erklärt Dr. Christian Chwala, Koordinator der Forschungsarbeiten an der Universität Augsburg. „Je mehr Niederschlag fällt, desto schwächer wird das Signal, mit dem die Sendemasten Informationen austauschen. Wir haben ein Jahr lang jede Minute die aktuelle Abschwächung von 4 000 Richtfunkstrecken gemessen. Der daraus entstandene Datensatz ist aufgrund seiner Auflösung und Größe weltweit einzigartig.“
Neben den klassischen Methoden der Datenanalyse nutzten die Forscherinnen und Forscher Künstliche Intelligenz (KI), um das Regensignal aus den verrauschten Messwerten herauszufiltern. „Auch andere Faktoren wie Wind oder die Sonne können zu leichten Abschwächungen des Signals führen. Mit Hilfe unserer KI konnten wir erkennen, wann eine Abschwächung auf Regen zurückzuführen ist“, sagt Julius Polz, ein weiterer Wissenschaftler der Forschungsgruppe. „Wir haben sie inzwischen so trainiert, dass wir ohne Kalibrierung mit traditionellen Methoden zur Regenmessung auskommen.“ Damit eigne sich eine Anwendung auch in Regionen ohne nennenswerte Niederschlagsmessungen, die für das Training der KI in Frage kommen könnten, beispielsweise in Westafrika.
Einsatz in Westafrika geplant
Für Deutschland funktioniert die Methode allerdings vor allem im Frühjahr, Sommer und Herbst. „Graupel und Schneeregen führen nämlich zu einer überdurchschnittlichen Abschwächung, und Schnee lässt sich mit dem Mobilfunknetz gar nicht messen“, erklärt Harald Kunstmann. Aktuell laufen mehrere Projekte der Forscherinnen und Forscher zur Regenmessung mit Richtfunkstrecken, unter anderem mit dem Schwerpunkt auf Deutschland in Kooperation mit dem Deutschen Wetterdienst und dem Landesamt für Umwelt Sachsen. Im Laufe des Sommers starten weitere Projekte in Tschechien und in Burkina Faso, wo erstmals eine landesweite Erfassung von Richtfunkstrecken in Afrika aufgebaut werden soll.
Originalpublikationen:
Graf, M., Chwala, C., Polz, J., and Kunstmann, H. (2020): Rainfall estimation from a German-wide commercial microwave link network: optimized processing and validation for 1 year of data. Hydrology and Earth System Sciences, 24, 2931-2950,
https://doi.org/10.5194/hess-24-2931-2020
Polz, J., Chwala, C., Graf, M., & Kunstmann, H. (2020): Rain event detection in commercial microwave link attenuation data using convolutional neural networks. Atmospheric Measurement Techniques, 13, 3835-3853, https://doi.org/10.5194/amt-13-3835-2020
Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu
Weiterer Kontakt:
Dr. Martin Heidelberger
Redakteur/Pressereferent
Tel.: +49 721 608-21169
E-Mail: martin.heidelberger@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Wissenschaftliche Ansprechpartner:
Dr. Martin Heidelberger
Redakteur/Pressereferent
Tel.: +49 721 608-21169
E-Mail: martin.heidelberger@kit.edu
Originalpublikation:
Graf, M., Chwala, C., Polz, J., and Kunstmann, H. (2020): Rainfall estimation from a German-wide commercial microwave link network: optimized processing and validation for 1 year of data. Hydrology and Earth System Sciences, 24, 2931-2950, https://doi.org/10.5194/hess-24-2931-2020
Polz, J., Chwala, C., Graf, M., & Kunstmann, H. (2020): Rain event detection in commercial microwave link attenuation data using convolutional neural networks. Atmospheric Measurement Techniques, 13, 3835-3853, https://doi.org/10.5194/amt-13-3835-2020
Weitere Informationen:
http://www.sek.kit.edu/presse.php
Anhang
Erste bundesweite Regenmessung mit dem Mobilfunknetz
https://idw-online.de/de/attachment80413
Quelle: IDW
Forschungsprojekt entwickelt Lösungen gegen Nitrateinträge ins Grundwasser
Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
Kompetenzzentrum Wasser Berlin (KWB) betreibt im Rahmen des Europäischen Verbundvorhabens „Circular Agronomics“ zusammen mit dem Unternehmen
PONDUS Verfahrenstechnik GmbH eine Pilotanlage zur Rückgewinnung von Stickstoffverbindungen aus landwirtschaftlichen Abfällen.
Landwirtschaftliche Rückstände wie Gülle oder Gärreste aus der Biogasproduktion enthalten sehr viel Stickstoff, der bei der Ausbringung auf landwirtschaftliche Flächen ins Grundwasser gelangen können. In vielen landwirtschaftlich geprägten Regionen Norddeutschlands ist der Grenzwert für Stickstoff in Form von Nitrat im Grundwasser (50 mg/L) bereits überschritten und führt zu Einschränkungen bzw. hohen Kosten bei der Trinkwassergewinnung.
Im EU-Projekt „Circular Agronomics“ wird nach Lösungen gesucht, die Landwirtschaft nachhaltiger zu gestalten. Unter anderem wird nach technischen Lösungen gesucht, den Eintrag von Nitrat ins Grundwasser zu reduzieren.
Zusammen mit dem Unternehmen PONDUS Verfahrenstechnik GmbH betreibt das Kompetenzzentrum Wasser Berlin (KWB) im Rahmen des EU-Vorhabens „Circular Agronomics“ am Standort Berge im Nordwesten von Berlin eine Pilotanlage zur Rückgewinnung von Ammoniumstickstoff aus landwirtschaftlichen Rückständen. Kernstück ist eine Vakuumentgasungseinheit (Strippung), mit der Ammoniumstickstoff in Form von Ammoniak den Gärresten aus der Biogasproduktionen entzogen und anschließend z.B. in Diammoniumsulfat, einem typischen Dünger, umgewandelt wird.
Das Besondere bei diesem Prozess: die Anlage verträgt im Vergleich zu anderen gängigen Stripp-Verfahren einen recht hohen Feststoffgehalt. Eine aufwändige Abtrennung von festen Bestandteilen ist nicht zwingend notwendig. Dies kommt der landwirtschaftlichen Praxis entgegen.
Ein weiterer Effekt: mit der Anlage werden landwirtschaftliche Abfälle in zwei einzelne Fraktionen aufgetrennt, nämlich einen Kompostähnlichen Rückstand und einen Ammonium-Mineraldünger, die anschließend separat bedarfsgerecht auf landwirtschaftliche Flächen aufgebracht werden können. Bei starken Stickstoffüberschüssen in einer Region kann der konzentrierte Ammoniummineraldünger auch über weitere Distanzen in Regionen mit Nährstoffbedarf transportiert werden. Dies kann sich positiv auf die Grundwasserbelastung auswirken, da der Ammoniumstickstoff separat und gezielt dann im Vegetationszyklus von Nutzpflanzen eingesetzt werden kann, wenn deren Stickstoffbedarf am höchsten ist.
Die am Standort Berge im Nordwesten von Berlin durch die Europäische Union (Grant Agreement No. 773649) geförderten Untersuchungen werden vom KWB zusammen mit dem Unternehmen PONDUS Verfahrenstechnik, der Firma Soepenberg und IASP, einem An-Institut der Humboldt Universität, durchgeführt.
Wissenschaftliche Ansprechpartner:
Fabian Kraus (fabian.kraus@kompetenz-wasser.de)
Weitere Informationen:
http://www.circularagronomics.eu
Quelle: IDW
Das Geheimnis erfolgreicher Fußballmannschaften
Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz
Forschungsverbund unter Beteiligung der Universität Konstanz analysiert Bewegungsprofile und das Zusammenspiel von Fußballmannschaften
Was zeichnet ein erfolgreiches Fußballteam aus? Mit Methoden der Kollektivforschung kann ein Forschungsverbund unter Beteiligung der Universität Konstanz neue Antworten auf diese Frage geben. Die Wissenschaftlerinnen und Wissenschaftler untersuchten die Bewegungsmuster von Fußballteams – mit einem Ansatz, der nicht etwa einzelne Athleten in den Fokus nimmt, sondern das kollektive Zusammenspiel des gesamten Teams auswertet. Ihre Analysemethode, die ursprünglich aus der statistischen Physik stammt und erstmals auch für Sportanalysen eingesetzt wurde, stellt deutliche Unterschiede in der kollektiven Dynamik von Gewinner- und Verlierermannschaften fest – und kann sogar den Marktwert der Spieler bestimmen.
Die Wissenschaftlerinnen und Wissenschaftler analysierten fünf Spiele, die neun Mannschaften in der deutschen Bundesligasaison absolvierten. Mithilfe eines Ansatzes aus der statistischen Physik, der Richtungskorrelation („directional correlation technique“), konnten sie erfassen, wie stark die Bewegungen der Spieler in Hinsicht auf ihre Richtungen übereinstimmen. Daraus erstellten die Forschenden eine Kennzahl – die HCS („highly correlated segments“) -, als Maß des Zusammenspiels der Spieler innerhalb ihrer Mannschaft und ihrer Koordination gegenüber dem gegnerischen Team. Anstatt nur Leistungskennzahlen einzelner Spieler zu analysieren – beispielsweise, wie schnell ein Spieler in einem Spiel rennt – untersucht die Studie Faktoren wie das Zusammenspiel und die Abstimmung der Spieler untereinander.
Die Studie wurde von einem internationalen und disziplinübergreifenden Forschungsteam durchgeführt, unter Beteiligung des Research Center in Sports Sciences, Health Sciences and Human Development in Portugal, des Exzellenzclusters „Centre for the Advanced Study of Collective Behaviour“ der Universität Konstanz sowie des Konstanzer Max-Planck-Instituts für Verhaltensbiologie. Die Studie, die in der Zeitschrift Chaos, Solitons & Fractals veröffentlicht wurde, kann Fußballmannschaften bei der Suche nach Talenten unterstützen und gibt Trainerinnen und Trainern neue Anhaltspunkte zur Beurteilung der Leistung.
Lesen Sie den ausführlichen Artikel in campus.kn, dem Online-Magazin der Universität Konstanz: https://www.campus.uni-konstanz.de/wissenschaft/das-geheimnis-erfolgreicher-fuss…
Faktenübersicht:
– Wissenschaftlerinnen und Wissenschaftler setzen eine Methode aus der Kollektivforschung ein, um die Bewegungsmuster von Fußballteams zu untersuchen – mit einem Ansatz, der nicht etwa einzelne Athleten in den Fokus nimmt, sondern das kollektive Zusammenspiel des gesamten Teams auswertet.
– Das Tool der Richtungskorrelation („directional correlation techniques“) stammt ursprünglich aus der statistischen Physik und wurde nun erstmals in der Sportanalyse eingesetzt.
– Durch die Analyse ganzer Bundesligaspiele konnte die Studie deutliche Unterschiede bei der kollektiven Dynamik von Gewinner- und Verlierermannschaften feststellen und sogar den Marktwert der Spieler bestimmen.
– Die beteiligten Wissenschaftlerinnen und Wissenschaftler forschen am Research Center in Sports Sciences, Health Sciences and Human Development in Portugal, am Exzellenzcluster „Centre for the Advanced Study of Collective Behaviour“ der Universität Konstanz sowie am Konstanzer Max-Planck-Institut für Verhaltensbiologie.
– Gefördert von der Portuguese Foundation for Science and Technology, dem DFG Exzellenzcluster 2117 „Centre for the Advanced Study of Collective Behaviour“ (ID: 422037984) und der Hungarian Academy of Sciences.
– Originalveröffentlichung: Marcelino R, Sampaio J, Amichay G, Gonçalves B, Couzin ID, Nagy M (2020) Collective movement analysis reveals coordination tactics of team players in football matches. Chaos, Solitons & Fractals. URL: https://doi.org/10.1016/j.chaos.2020.109831
Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: +49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Anhang
PI Nr. 67/2020, Das Geheimnis erfolgreicher Fußballmannschaften
https://idw-online.de/de/attachment80344
Quelle: IDW
Die meisten würden sich impfen lassen, um andere zu schützen
Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier
In einer Teststudie wurde untersucht, wie Menschen von einer Impfung gegen COVID-19 überzeugt werden könnten.
Weltweit wird auf einen Impfstoff gegen das COVID-19-Virus gewartet. Wissenschaftler der Universität Trier haben sich bereits jetzt die Frage gestellt, wie möglichst viele Menschen dazu motiviert werden könnten, sich impfen zu lassen. Das überraschende Ergebnis: Der stärkste Motivationsfaktor ist nicht etwa die eigene Gesundheit, sondern der Schutz gefährdeter Menschen. Das haben Prof. Dr. Marc Oliver Rieger und sein Team in einem Online-Experiment mit 303 Teilnehmern herausgefunden. Mit der Teststudie wollen sie frühzeitig umfangreichere wissenschaftliche Untersuchungen zu dieser Problematik anstoßen. Die Arbeit wird in der nächsten Ausgabe des Journals „Social Health and Behavior“ erscheinen.
In der Studie wurden den Probanden drei Motivationsstränge angeboten, die für eine Impfung sprechen. Davon beruhten zwei auf egoistischen Motiven: eine Impfung senkt das eigene Sterberisiko und sie verhindert Einschränkungen durch einen Ausbruch der Krankheit. Die dritte – altruistische – Motivation war: Geimpfte stellen eine geringere Ansteckungsgefahr für Risikogruppen dar und für Menschen, die nicht geimpft werden können.
Festzustellen war, dass alle drei Motivationsstränge die Impfbereitschaft fördern. Bei weitem am wirksamsten ist jedoch der Aspekt, hierdurch Menschen schützen zu können, die nicht geimpft werden können. Bei mehr als 40 Prozent der Teilnehmer, die zuvor noch nicht sicher waren, ob sie sich impfen lassen würden, steigerte diese Motivation die Bereitschaft zu einer Impfung. Der Hinweis auf die eigene Gesundheitsgefährdung und dass auch weniger anfällige Personen durch Corona gesundheitliche Komplikationen erleben können, steigerte die Bereitschaft zu einer Impfung lediglich bei 15 bis 19 Prozent.
„Der beste Ansatz für eine höhere Impfbereitschaft scheint zu sein, die Risiken zu erklären, die nicht geimpfte Personen für andere darstellen können. Dieses Ergebnis impliziert, dass diesem Aspekt mehr Aufmerksamkeit geschenkt werden sollte“, sagt Professor Marc Oliver Rieger. „Diese Studie ist natürlich nur ein erster empirischer Test. Es wäre sinnvoll, das Experiment in größeren, repräsentativen Untersuchungen zu wiederholen. Darüber hinaus könnten natürlich auch weitere Motivationswege untersucht werden“, so Marc Oliver Rieger.
Zum Preprint der Studie: http://www.uni-trier.de/fileadmin/fb4/prof/BWL/FIN/Files/Triggering_Altruism_Increases_the_Willingness_to_Get_Vaccinated_Against_COVID-19.pdf
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marc Oliver Rieger
Betriebswirtschaftslehre
Mail: mrieger@uni-trier.de
Tel. +49 651 201-2721
Quelle: IDW
Grundwasserveränderungen genauer verfolgen
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Eine neue Methode könnte helfen, Grundwasserveränderungen besser als bisher nachzuverfolgen. Forschende aus dem Deutschen GeoForschungsZentrum in Potsdam und den USA haben dafür Schwerefelddaten der Satellitenmission GRACE und GRACE-Follow On mit anderen Messverfahren verglichen. Sie untersuchten damit die saisonale Wasserspeicherung in nahezu 250 Flusseinzugsgebieten in Asien, deren Wasserregime vom Monsungeschehen dominiert wird. Mit den Ergebnissen lassen sich die großräumigen GRACE-Daten auch auf kleinere Regionen herunterskalieren. Die Forschenden berichten darüber in der Fachzeitschrift Earth and Planetary Science Letters.
Eine neue Methode könnte helfen, Grundwasserveränderungen besser als bisher nachzuverfolgen. Forschende aus Potsdam und den USA haben dafür Schwerefelddaten der Satellitenmission GRACE und GRACE-Follow On mit anderen Messverfahren verglichen. Sie untersuchten damit die saisonale Wasserspeicherung in nahezu 250 Flusseinzugsgebieten in Asien, deren Wasserregime vom Monsungeschehen dominiert wird. Mit den Ergebnissen lassen sich die großräumigen GRACE-Daten auch auf kleinere Regionen herunterskalieren. Die Forschenden berichten darüber in der Fachzeitschrift Earth and Planetary Science Letters.
Für die Landwirtschaft ebenso wie für die Trinkwasserversorgung in vielen Regionen ist das Wissen um die unterirdische Wasserspeicherung von existenzieller Bedeutung. Diese Speicher werden von Niederschlägen und versickernden Gewässern aufgefüllt und speisen ihrerseits Flüsse und Seen und lassen in trockenen Jahreszeiten Flüsse fließen. Messungen allerdings gestalten sich schwierig, weil man nur schwer in die Erde schauen und entweder nur Punktwerte – über Bohrlöcher und Brunnen – ermitteln kann oder auf Berechnungen aus Niederschlags- und Abflussdaten angewiesen ist.
Seit 2002 gibt es eine weitere Methode, Grundwasserveränderungen zu messen: Über die Satellitenmissionen GRACE (von 2002 bis 2017) und GRACE-Follow On (seit 2018) kann die Änderung der Wassermenge in und auf der Erde anhand seines Schwerefeldsignals ermittelt werden. Doch auch dieses Verfahren hat seine Tücken. Erstens sagt die Massenveränderung, die die GRACE-FO-Satelliten messen, nichts über das „Stockwerk“ aus, in dem sich die Masse befindet: Entleeren sich Seen an der Oberfläche? Sinkt der Pegel von Flüssen? Oder fließt aus tieferen Schichten Wasser ab? Zweitens liefern die GRACE-FO-Satelliten Daten für vergleichsweise große Flächen von mehreren zehntausend Quadratkilometern. Genauer lassen sich die Schwerefelddaten derzeit nicht auflösen.
In einer neuen Studie zeigen Forschende des Deutschen GeoForschungsZentrums und eine Kollegin aus den USA, wie sich unterschiedliche Verfahren geschickt kombinieren lassen, um auch für kleine Flusseinzugsgebiete zuverlässige Grundwasserdaten zu erhalten. Sie haben dazu Monsun-Niederschlags-Daten und den saisonalen Wasserspeicher in nahezu 250 Flusseinzugsgebieten in Asien untersucht. Die Größe der einzelnen Gebiete variiert von eintausend bis zu einer Million Quadratkilometern. Die Studie deckt nahezu ganz Asien ab.
Der Wasserhaushalt auf unserer Erde ist von drei Hauptvariablen geprägt: Niederschlag, Oberflächenabfluss und Verdunstung. Die Differenz dessen geht in verschiedene Speicher, z.B. in das Grundwasser, oder fließt daraus ab. Zeitreihen von Messstationen an Flüssen (Hydrographen) nach anhaltendem Niederschlägen zeigen typische abfallende Kurven (sogenannte Rezessionskurven), welche das Leerlaufen der Wasserspeicher widerspiegeln. Aus diesen Kurven lassen sich die Grundwasserschwankungen abschätzen. Eine andere Methode ist die Gegenüberstellung von Niederschlags- und Abflusswerten durch die Zeitverzögerung des Abflusses; die zeitweise Zwischenspeicherung ergibt eine so genannte P-Q-Hysterese. P steht dabei für Niederschlag (engl. precipitation) und Q für den Abfluss. Die Fläche oder Größe der Hysterese-Schleife kann als Maß für die Zwischenspeicherung dienen.
Die Studie in Earth and Planetary Science Letters zeigt nun, dass die P-Q-Hysterese und die Schwerefelddaten der GRACE-Missionen stark zusammenhängen. Beide bilden demnach saisonale Grundwasserveränderungen sehr gut ab. In der Konsequenz heißt das, dass man mit einer Kombination aus Niederschlags- und Abflussdaten sowie GRACE-Schwerefelddaten auch das Grundwasser in Einzugsgebieten erfassen kann, die nur rund 1000 Quadratkilometer groß sind.
https://www.sciencedirect.com/science/article/abs/pii/S0012821X20303599?via%3Dih…
Ansprechpartner für Medien
Josef Zens
Presse- und Öffentlichkeitsarbeit
+49-331-288-1040
Wissenschaftliche Ansprechpartner:
Dr. Christoff Andermann
Wissenschaftler in der Sektion Geomorphologie
Helmholtz-Zentrum Potsdam – Deutsches GeoforschungsZentrum
+49-331-288-28822
christoff.andermann@gfz-potsdam.de
Originalpublikation:
Originalstudie: Amanda H. Schmidt, Stefan Lüdtke, Christoff Andermann: Multiple measures of monsoon-controlled water storage in Asia; Earth and Planetary Science Letters. DOI: 10.1016/j.epsl.2020.116415
Quelle: IDW
Neue Testmethode kann das Coronavirus in stark verdünnten Gurgelproben erkennen
Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Pharmazeuten der Martin-Luther-Universität Halle-Wittenberg (MLU) ist es gelungen, mit Massenspektrometrie kleinste Mengen des Coronavirus SARS-CoV-2 nachzuweisen. Für ihre Untersuchung nutzten sie Lösungen, mit denen an COVID-19 Erkrankte gegurgelt hatten. Die neue Methode könnte künftig als Ergänzung für bisher übliche Tests dienen. Sie wird nun weiter verbessert, um als Standard-Diagnostik-Werkzeug zur Verfügung zu stehen. Erste Ergebnisse wurden im Fachmagazin „Journal of Proteome Research“ veröffentlicht.
Um sicher herauszufinden, ob jemand akut an COVID-19 erkrankt ist, gibt es derzeit vor allem eine zuverlässige Testmethode: die Polymerase-Kettenreaktion, kurz PCR. Sie weist das Virus-Erbgut nach und ist daher sehr spezifisch. Andere Tests hingegen erkennen meist Antikörper gegen die Krankheit- diese bildet der Körper aber erst im Laufe der Infektion, sodass sie nur zum Nachweis einer überstandenen oder fortgeschrittenen Krankheit dienen. Die Antikörper-Tests sind zudem oft unspezifisch und können teils nicht zwischen den verschiedenen Coronaviren unterscheiden, die beim Menschen auftreten können. Testlabore weltweit stoßen daher an die Grenze ihrer Kapazitäten.
Prof. Dr. Andrea Sinz, Massenspektrometrie-Expertin am Institut für Pharmazie der MLU, hatte die Idee, als Ergänzung zur PCR einen neuen Massenspektrometrie-basierten Test zu entwickeln. Die Massenspektrometrie erlaubt die genaue Identifizierung von Molekülen anhand ihrer Masse und Ladung. Sinz entwickelte mit ihren Mitarbeitern eine Methode, um nach Bestandteilen von SARS-CoV-2 Viren zu suchen. „Wir messen direkt die Peptide, die von dem Virus stammen, und nicht das genetische Material“, erklärt Sinz.
Für die Versuche stellte die Universitätsmedizin Halle Gurgellösungen von drei COVID-19-Patienten zur Verfügung. Sinz‘ Arbeitsgruppe entwickelte ein Verfahren, um Virusbestandteile in den hoch verdünnten Proben identifizieren zu können. „Obwohl wir nur wenig Gurgellösung erhalten haben, konnten wir Bestandteile der Virusproteine finden“, sagt Dr. Christian Ihling, der die Tests durchführte. „Das war ziemlich überraschend, ich habe selbst nicht damit gerechnet, dass das wirklich funktioniert“, ergänzt Sinz. Der Test sei hochspezifisch für das Virus, da die entsprechenden Proteine nur bei SARS-CoV-2 vorkommen. Zudem könne damit gut in der Anfangsphase der Krankheit getestet werden, wenn sich viele Viren in Mund- und Rachenraum befinden.
Aktuell könne der Test in circa 15 Minuten durchgeführt werden, so Sinz. Die Arbeitsgruppe versucht nun, die Analysezeiten weiter zu verkürzen. Dafür nutzt sie zurzeit künstlich hergestellte Virusbestandteile. Sinz ist außerdem auf der Suche nach weiteren Kooperationen, auch mit der Industrie. „Mit einer Firma aus Hessen wollen wir noch eine andere massenspektrometrische Methode einsetzen, bei der die Messungen innerhalb von Sekunden durchführbar wären“, sagt die Pharmazeutin. Diese Methode wäre dann vergleichbar mit dem sogenannten „Biotyping“, das schon in Kliniken zur Diagnostik von Bakterien- oder Pilz-Infektionen etabliert ist. Ob sich dieser Ansatz für den Nachweis von SARS-CoV-2 eignet, müsse allerdings noch gezeigt werden. Eine Probenaufbereitung sei dann nicht aufwändig und die Messungen wären auch von nicht spezialisiertem Personal durchführbar.
Unmittelbar zur Verfügung stehen wird die neue Diagnosemethode mit Massenspektrometern noch nicht. Sinz hofft, dass sie in einigen Monaten für den Einsatz bereit ist: „Ich habe engen Austausch mit Kollegen aus aller Welt, bei denen die Pandemie teils wesentlich schlimmer verläuft als hier.“ Sie ist auch Gründungsmitglied der „COVID-19 Mass Spectrometry Coalition“, ein Forschungsverbund, der mithilfe von Massenspektrometrie die Krankheit besser verstehen möchte.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andrea Sinz
Institut für Pharmazie, Abteilung Pharmazeutische Chemie und Bioanalytik, MLU
Telefon: + 49 345 55-25170 / -171
E-Mail: andrea.sinz@pharmazie.uni-halle.de
Originalpublikation:
Ihling, Christian et al. Mass Spectrometric Identification of SARS-CoV-2 Proteins from Gargle Solution Samples of COVID-19 Patients. Journal of Proteome Research (2020). https://doi.org/10.1021/acs.jproteome.0c00280
Quelle: IDW
Arbeit ist das halbe Leben
Christin Hasken Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH
Diskussionspapier des Wuppertal Instituts fordert neue Arbeits- und Zeitmodelle
Seit Beginn der Corona-Pandemie arbeiten viele Menschen von zu Hause aus. Jahrelang schienen flexible Arbeitsmodelle in vielen Branchen und Unternehmen undenkbar oder waren zum Scheitern verurteilt – nun rücken sie verstärkt in den Fokus. Doch wie viel Zeit investieren wir in den Job und wie sieht die Arbeit der Zukunft aus? Prof. Dr. Christa Liedtke und Dr. Anne Caplan vom Wuppertal Institut fordern in ihrem neuen Diskussionspapier „Arbeit ist das halbe Leben!? Über ein neues Statussymbol: Zeit und was wir damit anfangen“ nachhaltige und resiliente Arbeitsmodelle zu etablieren, um so die neu gewonnene Achtsamkeit für Zeit als Chance zu nutzen, die Arbeits- und Alltagswelt umzukrempeln. Dabei nehmen sie Zeit als wertvolle Ressource in den Fokus.
Wuppertal, 15. Juli 2020: Rund ein Drittel des Tages investieren die Deutschen in ihren Job – hinzu kommt noch der Weg zur Arbeit. Nach einer Erhebung des Statistischen Bundesamts in 2017 dauert der Arbeitsweg für 47,5 Prozent der Pendlerinnen und Pendler zwischen zehn und 30 Minuten, 22,1 Prozent brauchen 30 bis 60 Minuten. Über die Hälfte der Befragten wären laut einer Studie des Karriereportals Stepstone (2018) bereit, bis zu 60 Minuten pro Arbeitsweg in Kauf zu nehmen. Bei rund 220 Arbeitstagen pro Jahr ergäbe das für den Hin- und Rückweg insgesamt 440 Stunden – also knapp 55 Arbeitstage im Jahr, die allein für den Arbeitsweg aufgewendet würden.
„Die Zeit, die für das Pendeln investiert wird, fehlt oftmals in anderen Lebensbereichen, etwa, um sie mit dem Partner oder der Partnerin, Freunden oder der Familie zu verbringen oder auch für ein Ehrenamt oder Hobbies. Das führt zu veränderten Konsumgewohnheiten“, erklärt Prof. Dr. Christa Liedtke, Leiterin der Abteilung Nachhaltiges Produzieren und Konsumieren am Wuppertal Institut und Professorin für Nachhaltiges Design an der Folkwang Universität der Künste. Denn Menschen, die täglich zur Arbeit fahren, verbrauchen mehr Ressourcen gegenüber denjenigen, die von zu Hause arbeiten. Gleichzeitig wird der Zeitverlust durch das Pendeln häufig beispielsweise mit schnelleren Autos und einem Saugroboter im Haushalt kompensiert: „Um wertvolle Zeit zu sparen, führen solche Anschaffungen letztendlich zu zusätzlichem Ressourcenverbrauch zum ohnehin schon ressourcenintensiveren Arbeitsweg“, ergänzt die Wissenschaftlerin.
Zeitschonendere Arbeitszeitmodelle schützen das Klima
Seit dem Lockdown im Frühjahr 2020 verlegten viele Menschen ihren Arbeitsplatz innerhalb kürzester Zeit aus dem Büro nach Hause. Die Digitalisierung hat in Zeiten der Krise neue Arbeits- und damit Lebensmodelle eröffnet, ohne dass die Gesellschaft diesen Wandel planen konnte. Damit verbunden ist auch eine Veränderung der Wahrnehmung von Zeitbudgets im Alltag.
Im Diskussionspapier „Arbeit ist das halbe Leben!? Über ein neues Statussymbol: Zeit und was wir damit anfangen“ nehmen die beiden Autorinnen Prof. Dr. Christa Liedtke und Dr. Anne Caplan, wissenschaftliche Mitarbeiterin im Forschungsbereich Innovationslabore in der Abteilung Nachhaltiges Produzieren und Konsumieren, Zeit als wertvolle Ressource in den Fokus. Sie gehen der Frage nach, wofür die Menschen ihre Zeit investieren und verwenden wollen. Insbesondere Aktivitäten, die den sozialen Zusammenhalt fördern, wie beispielsweise für die Nachbarschaft einkaufen gehen, sind dabei häufig ressourcenschonender als nur für den eigenen Bedarf zum Supermarkt zu fahren. Resiliente Gemeinschaften tragen zudem dazu bei, das Klima zu schützen.
Vor diesem Hintergrund fordern die beiden Autorinnen jetzt neue gesellschaftliche Modelle zu diskutieren, die unter anderem folgende Aspekte berücksichtigen:
• Politik, Gesellschaft und Wirtschaft sollten einen neuen Gesellschaftsvertrag für Arbeit entwickeln, der sozial-ökologische Marktwirtschaft fördert, gesellschaftliches Engagement integriert, sozialen Ausgleich schafft und öffentliche wie privatwirtschaftliche Budgets aushandelt.
• Unternehmen sollten ihre Klimaschutz-Aktivitäten zur Schonung von Umwelt und Biodiversität nachvollziehbar umsetzen und flexiblere Arbeitszeitmodelle und
-formen für Mitarbeitende fördern.
• Über eine neue Plattform für gesellschaftliches Handeln und Kooperationen sollte soziales Engagement transparent und unkompliziert (teil-)finanziert werden können.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christa Liedtke, Abteilungsleiterin Nachhaltiges Produzieren und Konsumieren am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/20/
Dr. Anne Caplan, wissenschaftliche Mitarbeiterin im Forschungsbereich Innovationslabore am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/1977/
Originalpublikation:
Diskussionspapier: Arbeit ist das halbe Leben!? Über ein neues Statussymbol: die Zeit und was wir damit anfangen
https://wupperinst.org/fa/redaktion/downloads/publications/Arbeitszeit_PostCoron…
Weitere Informationen:
https://wupperinst.org/a/wi/a/s/ad/5108/
Anhang
Diskussionspapier des Wuppertal Instituts: Arbeit ist das halbe Leben!? Über ein neues Statussymbol: die Zeit und was wir damit anfangen
https://idw-online.de/de/attachment80364
Quelle: IDW
Kreislaufwirtschaft: Wieviel Wiederverwertung wollen wir?
Oliver Wolff Wissenschaftsjahr 2020|21 – Bioökonomie
Wissenschaftsjahr 2020 | 21 – Bioökonomie
Deutsche befürworten eine intensivere Wiederverwertung, zögern aber bei der Nutzung biologischer Abfälle. Deren Verwertung könnte unsere Wirtschaft aber nachhaltiger machen.
Berlin, 16. Juli 2020 – 78,2 Prozent der deutschen Bevölkerung befürworten eine möglichst vollständige Wiederverwertung von Produkten, auch wenn diese dadurch teurer würden. Das ergab eine repräsentative Umfrage, die das Meinungsforschungsunternehmen Civey im Auftrag des Wissenschaftsjahres 2020|21 – Bioökonomie durchgeführt hat. Besonders hoch ist die Zustimmung in der Altersgruppe der unter 29-Jährigen (85,1 Prozent). Eine Hürde zeichnet sich allerdings bei der Nutzung biologischer Abfälle für die Produktion von Gütern ab. Deren Potential ist aus Sicht der Bioökonomie besonders vielversprechend. Gerade hier sind die Befragten aber deutlich zurückhaltender: Fast die Hälfte (43,1 Prozent) stehen der Verwertung biologischer Abfälle unentschieden (17,2 Prozent) oder negativ (25,9 Prozent) entgegen – ein Spannungsfeld?
„Die Bioökonomie ist ein wichtiger Treiber, um unsere Wirtschaft widerstandsfähiger und nachhaltiger zu gestalten. Im Bereich der Wiederverwertung kann innovative Forschung diesen Prozess entscheidend unterstützen“, so Prof. Dr. Martin Kranert, Lehrstuhlinhaber für Abfallwirtschaft und Abluft an der Universität Stuttgart. „Ziel unseres Projekts ‚RUN‘ ist es beispielsweise, Stoffkreisläufe zwischen Stadt und Land zu schließen. Um derartige Projekte in die Praxis zu überführen, erfordert es aber auch Akzeptanz gegenüber neuen, auf den ersten Blick ungewöhnlichen Verfahren. Neben der Forschung ist daher auch der Dialog mit der Gesellschaft wichtig. Hier können Chancen aufgezeigt und Vorbehalte aufgeklärt werden.“
Themen wie Abwasser und Müll werden eher selten mit Innovationen in Verbindung gebracht. In der Bioökonomieforschung eröffnet sich hier aber ein weites Fachgebiet mit vielfältigen Ansätzen, die unseren Rohstoffverbrauch senken und unsere Wirtschaft unabhängiger von globalen Rohstoffströmen machen können.
Doch wie genau können Rest- und Abfallstoffe aus der Landwirtschaft, der industriellen Produktion oder urbanen Räumen genutzt werden? Wie lassen sich erfolgreiche Pilotprojekte in die Praxis überführen? Welche Herausforderungen gibt es? Zu diesen und weiteren Fragen diskutiert Bundesforschungsministern Anja Karliczek gemeinsam mit Prof. Kranert sowie weiteren Expert*innen aus Forschung und Praxis in der Wissenschaftsjahr-Diskussionsreihe „Karliczek. Impulse.“. Der erste Termin der Reihe findet als kostenloses Online-Event am 20. Juli 2020 (ab 16.00 Uhr) statt. Bürger*innen sowie Pressevertreter*innen haben die Möglichkeit, sich via Live-Text-Chat direkt an der Diskussion zu beteiligen.
Weitere Informationen:
https://www.wissenschaftsjahr.de/karliczekimpulse
Das Meinungsforschungsunternehmen Civey befragte im Auftrag des Wissenschaftsjahres 2020|21 – Bioökonomie 2.500 Personen vom 7. bis 8. Juli 2020. Die Ergebnisse sind repräsentativ für die deutsche Bevölkerung ab 18 Jahren. Grafiken mit Ergebnissen der Meinungsumfrage stehen unter https://www.wissenschaftsjahr.de/2020-21/presse/pressemitteilungen zum Download bereit.
Pressekontakt
Redaktionsbüro Wissenschaftsjahr 2020|21 – Bioökonomie
Oliver Wolff
Gustav-Meyer-Allee 25 I Gebäude 13/5 I 13355 Berlin
Telefon: +49 30 818777-164
Telefax: +49 30 818777-125
presse@wissenschaftsjahr.de
Wissenschaftsjahr 2020|21 – Bioökonomie
Wie können wir nachhaltiger leben, Ressourcen schonen und gleichzeitig unseren hohen Lebensstandard erhalten? Das Wissenschaftsjahr 2020|21 – Bioökonomie hält Antworten auf diese Frage bereit. Bürgerinnen und Bürger sind dazu eingeladen, im Dialog mit Wissenschaft und Forschung den Wandel hin zu nachhaltigen, biobasierten Produktions- und Konsumweisen zu diskutieren. In vielfältigen Formaten wird das Konzept der Bioökonomie mit all seinen Potenzialen und Herausforderungen erlebbar gemacht und aus unterschiedlichen Perspektiven beleuchtet.
Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD).
Weitere Informationen:
http://www.wissenschaftsjahr.de
http://www.facebook.com/wissenschaftsjahr
http://www.youtube.com/user/wissenschaftsjahr
http://twitter.com/w_jahr
https://www.instagram.com/wissenschaftsjahr/
Anhang
Pressemitteilung: Meinungsumfrage Wiederverwertung & Online-Event „Karliczek. Impulse.“
https://idw-online.de/de/attachment80380
Quelle: IDW
Wie das Coronavirus das Reiseverhalten der Deutschen verändert
Katrina Jordan Abteilung Kommunikation
Universität Passau
Die Deutschen sehnen sich nach Urlaub: Trotz der Pandemie hält über die Hälfte der deutschen Reisenden an ihren Urlaubsplänen fest. Vor dem Hintergrund der globalen Corona-Krise ergibt sich allerdings ein markanter Trend, wie eine aktuelle repräsentative Studie des Centrums für marktorientierte Tourismusforschung der Universität Passau nun belegt: am liebsten in Deutschland und am liebsten draußen.
Schon 2019 galt Deutschland laut der Reiseanalyse der Forschungsgemeinschaft Urlaub und Reisen e.V. (FUR) als das wichtigste Reiseland der Deutschen: Gut ein Viertel der Befragten gab damals an, den Urlaub in der Bundesrepublik zu verbringen. Die Corona-Krise hat diesen Trend verstärkt: Laut CenTouris-Studie möchten nun mehr als 50 Prozent der Reisenden ihren diesjährigen Urlaub im Heimatland verbringen. Die diesjährigen Lieblingsziele: Im Norden Deutschlands die Nord- und Ostsee, in Süddeutschland die bayerischen Alpen, zudem sind auch der Bayerische Wald und der Schwarzwald sehr beliebt. Auch im Hinblick auf die Art des Urlaubs zeichnet die bundesweite Erhebung ein deutliches Bild: Mindestens vier von fünf Deutschen setzen in diesem Sommer verstärkt auf Aktivitäten in der freien Natur, um Abstandsregeln und weitere Hygienemaßnahmen einfacher umsetzen zu können.
„Die Menschen sind vorsichtig geworden“
„Auslandsreisen, die mit dem Auto erreichbar sind, kommen für die Deutschen durchaus weiterhin in Frage“, erläutert Institutsleiter Dr. Stefan Mang. So seien insbesondere europäische Länder für deutsche Touristen weiterhin attraktiv. Ganz oben auf der Liste: Die Niederlande, Österreich und Kroatien. Schweden bleibe hingegen für mehr als 90 Prozent der Befragten trotz offener Grenzen ein „No-go“. „Dies ist mit hoher Wahrscheinlichkeit auf den Sonderweg Schwedens im Umgang mit der Pandemie zurückzuführen.“ Entscheidend für die Wahl des Reiseziels seien somit nicht allein die Einreisebestimmungen: „Die Menschen sind insgesamt vorsichtig geworden.“
Zentrale Ergebnisse der Studie sind unter anderem:
• Ferienwohnungen werden beliebter: In der Wahl der Reiseunterkunft zeigt sich eine deutliche Veränderung der Präferenzen: Ferienhäuser und Ferienwohnungen werden jetzt von 43 Prozent bevorzugt, im Hotel übernachten wollen 32 Prozent – zuvor war das Verhältnis fast genau umgekehrt. Auch Campingplätze mit Wohnmobilen oder Zelten verbuchten einen Zugewinn, ebenso private Übernachtungen bei Freunden oder Bekannten. Stabil blieb die Nachfrage nach Pensionen, Appartementhäuser hingegen verloren an Zuspruch.
• Die regionale Wirtschaft kann gewinnen: Die Befragung zeigt auch, dass hauptsächlich die Region selbst das ausschlaggebende Buchungskriterium darstellt. Brigitte Franz, Koordinatorin der Studie, sieht hier großes Potenzial: „Gerade die Gastronomie und der Einzelhandel in Zielgebietsregionen profitieren vom touristischen Geschehen und sind oftmals stark vom saisonalen Betrieb abhängig. Demzufolge könnte die Verschiebung der Unterkunftswahl Einfluss auf die Bewirtungs- und Handelsbranche mit sich bringen“, sagt sie. So möchte die große Mehrheit der Reisenden, die ihren Urlaub in einer Selbstversorgerunterkunft verbringen, nicht nur Wochenmärkte, Discounter oder Supermärkte vor Ort nutzen, sondern auch Essen gehen. „Die Regionen könnten durch diese Verlagerung demnach eine Wertschöpfung vor Ort generieren“, so Franz.
• Thermenurlaub ja, aber nicht um jeden Preis: Für Urlauber, die sich einen Aufenthalt einem Heil- und Thermalbad mit Übernachtung vorstellen können, käme dies mehrheitlich auch mit umfassenden Hygienevorschriften und Voranmeldung in Betracht – für die meisten aber nur, wenn die Therme möglichst sicher genutzt werden kann. „Spürbar bleibt das Sicherheitsbedürfnis der Gäste“, hebt Franz hervor. So komme für die Mehrheit der Hauptzielgruppe von Heil- und Thermalbädern im Alter von 55 bis 69 Jahren ein Aufenthalt in den weniger streng geregelten österreichischen Thermen nicht in Frage.
• Die Kreuzfahrtbranche könnte die Krise als Chance nutzen: Momentan ist für die Hälfte der deutschen Urlauberinnen und Urlauber, die grundsätzlich an einer Kreuzfahrt interessiert wären, ein Kreuzfahrturlaub keine Option mehr – eine große Herausforderung für die Kreuzfahrtbranche, die seit Beginn der Corona-Krise an massiven Einbrüchen leidet. Dr. Stefan Mang: „Interessant ist, dass für zwei Drittel der Menschen, die sich weiterhin für eine Kreuzfahrt interessieren, Ausflüge in kleineren Gruppen und Häfen außerhalb der zentralen Anlegestellen attraktiver werden, da sie dadurch Gedränge vermeiden. Das könnte eine Chance für Regionen abseits der touristischen Hotspots sein.“
Die realisierte Online-Stichprobe enthält 1.513 gültige Fälle, die im Zeitraum vom 19. Juni bis 2. Juli 2020 erhoben wurden. Die Stichprobe ist repräsentativ für die deutsche Bevölkerung im Alter zwischen 18 und 69 Jahren.
Alle Informationen zur Studie, O-Töne von Anbietern aus den genannten Branchen sowie weitere relevante Umfrageergebnisse stehen auf der Website von CenTouris zur Verfügung. Gerne bieten wir Ihnen auf Anfrage auch ausführliche redaktionelle Beiträge an.
Bildhinweis: Renaissance des Aktivurlaubs: Wanderregionen wie die bayerischen Alpen sind im Corona-Sommer besonders beliebt. Auch sonst bevorzugen die Deutschen im Urlaub Outdoor-Aktivitäten, am liebsten an Reisezielen im eigenen Land. Foto: Colourbox.
Rückfragen zu dieser Pressemitteilung richten Sie bitte an das Referat für Medienarbeit der Universität Passau, Tel. 0851 509-1439.
Wissenschaftliche Ansprechpartner:
Dr. Stefan Mang: stefan.mang@uni-passau.de
Brigitte Franz: brigitte.franz@uni-passau.de
Originalpublikation:
https://www.centouris.uni-passau.de/centouris/neuigkeiten/ – Website von CenTouris
Quelle: IDW
Mikroplastik in Gewässern charakterisieren: Neues Forschungsprojekt an der Jacobs University Bremen
Heiko Lammers Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Die Verschmutzung von Meeren, Seen und Flüssen mit Plastikmüll ist ein großes Umweltproblem. Gegenstände aus Kunststoffen werden mit der Zeit mechanisch in kleinste Teilchen zerlegt, die dann als Mikroplastik überall auf der Welt verteilt zu finden sind. Wie toxisch sind diese Partikel? Die Arbeitsgruppe von Dr. Arnulf Materny, Professor für Chemische Physik an der Jacobs University, will ein Verfahren entwickeln, das eine schnelle Analyse dieser Kleinstteile und ihrer Eigenschaften erlaubt – mithilfe der Lasertechnik.
Über die Nahrungskette werden Mikroplastikpartikel, die weniger als ein tausendstel Millimeter groß sein können, auch für Menschen zum Gesundheitsrisiko. Entzündliche Reaktionen aufgrund von im Gewebe eingelagertem Mikroplastik wurden schon beobachtet. Zu befürchten sind Konsequenzen wie zum Beispiel die Entstehung von Krebs.
In dem vom Bundesministerium für Wirtschaft und Energie (BMWi) geförderten Projekt wird die Arbeitsgruppe von Prof. Materny in Kooperation mit verschiedenen Industrie- und Forschungspartnern aus Deutschland und Finnland einen sehr wichtigen Aspekt der Mikroplastikproblematik untersuchen. Kunststoffe und somit auch Mikroplastikpartikel lagern im Wasser relativ schnell Biofilme auf ihren Oberflächen an. Diese bestehen zum Beispiel aus Algen und Bakterien, wobei bereits multiresistente Keime beobachtet wurden.
Neben der möglichen zusätzlichen Gefährdung durch die Mikroorganismen oder gebundene toxische Substanzen auf den Oberflächen, sind auch andere Aspekte von Interesse. Einerseits führen die Biofilme dazu, dass Mikroplastikpartikel von Meeresorganismen, wie Fischen, als Nahrung erkannt und dadurch noch vermehrt aufgenommen werden. Andererseits könnte der Biofilm auch zu einem rascheren Abbau des Kunststoffs führen, also eine positive Wirkung haben.
Mithilfe der sogenannten Raman-Spektroskopie sollen die Biofilme und deren Wechselwirkung mit den Mikroplastikpartikeln analysiert werden. Hierbei wird Laserlicht von den Oberflächen der Teilchen gestreut. Durch eine Wechselwirkung des Lichts mit den Biofilm-Molekülen tritt eine Farbverschiebung des Lichtspektrums auf. Diese wird dann genutzt, um molekulare Eigenschaften zu ermitteln. Die Arbeitsgruppe wird hierbei spezielle Raman-Techniken einsetzen, die zum einen Störsignale ausblenden sollen und zum anderen eine Signalverstärkung bewirken werden.
Die Arbeiten in der Materny-Gruppe wird Dr. Patrice Donfack in Zusammenarbeit mit den anderen Projektpartnern durchführen. Ziel ist es, ein Analysesystem zu schaffen, welches auch anderen Wissenschaftlern oder Behörden ermöglichen soll, die Mikroplastik-Problematik besser einschätzen zu können und aktuelle Belastungen schnell zu erkennen.
Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1.500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen:
www.jacobs-university.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Arnulf Materny
Professor of Chemical Physics
Email: a.materny@jacobs-university.de
Quelle: IDW
Starkregen-Vorsorge in Sachsen und Europa – neue Website informiert zu geeigneten Maßnahmen
Heike Hensel Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für ökologische Raumentwicklung e. V.
Ab sofort steht Kommunen und Interessierten eine Sammlung von Informationen, Werkzeugen und Praxisbeispielen zum Umgang mit der Naturgefahr Starkregen zur Verfügung. Mit der Freischaltung des „Werkzeugkastens“ im Internet geht das EU-Projekt RAINMAN zu Ende. Das Leibniz-Institut für ökologische Raumentwicklung (IÖR) hat zur RAINMAN-Toolbox unter anderem räumlich hochauflösende Gefahrenhinweiskarten beigesteuert.
Aktuell treffen Starkregenereignisse wieder Städte, Dörfer und ganze Landstriche in Sachsen und Mitteleuropa. Auch Orte, die nicht in der Nähe von Gewässern liegen, können von Überflutungen und Schäden betroffen sein. Wann und wo genau bei Unwettern extreme Regenfälle niedergehen, ist schwer abzuschätzen, meist bleibt kaum Zeit zur Vorwarnung. Umso wichtiger ist es, mögliche Risiken durch Starkregenfälle im Vorfeld abzuschätzen und geeignete Maßnahmen zu treffen, um potenzielle Schäden zu minimieren.
Auf einer neuen Website (https://rainman-toolbox.eu/de) findet sich nun ein Überblick über geeignete Maßnahmen und gute Beispiele aus der Praxis. Die Toolbox ist Ergebnis des Projektes RAINMAN. Insgesamt zehn Partner und viele Kommunen und Fachbehörden aus Österreich, Deutschland, Ungarn, Tschechien, Polen und Kroatien haben sie in drei Jahren Projektlaufzeit zusammengetragen. Gefördert wurde das Projekt durch das Interreg CENTRAL EUROPE-Programm der Europäischen Union.
Die Toolbox enthält neben einer Sammlung von Methoden zur Abschätzung und Kartierung von Starkregenrisiken auch Orientierungshilfen für die Planung und Umsetzung von Maßnahmen zur Risikominderung sowie Inspiration und Anleitung zur Risikokommunikation. Zahlreiche Steckbriefe informieren über Beispiele guter Praxis für das integrierte Management von Starkregenrisiken in den sechs beteiligten europäischen Ländern.
Die im Projekt gesammelten Erfahrungen zu den vielfältigen Möglichkeiten kommunaler Starkregen-Vorsorge stehen mit der neuen Internetseite als Wissensbasis primär für Verantwortliche in Kommunen und Regionen bereit. Die Werkzeuge zur Risikoabschätzung und Kartierung zeigen kommunalen Entscheide¬rinnen und Entscheidern Methodenbeispiele, wie sich erfassen lässt, wo sich im Fall von Starkregen Wasser sammelt und auf seinem Weg zum nächsten Gewässer Menschen, Infrastruktur und Eigentum schädigen kann. Auf Basis dieses Wissens können Verantwortliche für ihre Region Vor-Ort-Untersuchungen beauftragen sowie passende Vorsorgemaßnahmen treffen. Mögliche Ansatzpunkte zur Risikominderung reichen von lokalen Maßnahmen der Flächennutzungsplanung, über natürliche oder technische Maßnahmen zum Rückhalt der plötzlich auftretenden Wassermassen oder zur sicheren Ableitung des Wassers. Auch die Berücksichtigung von Starkregenszenarien im Katastrophenschutz kann Risiken durch Starkregenereignisse minimieren.
Gute Beispiele aus Sachsen
Damit sich Bevölkerung, Kommunen und Regionen in Sachsen schon im Vorfeld auf die wachsende Gefahr durch Starkregen vorbereiten und Schäden künftig besser vermeiden können, haben das IÖR, das Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) und das Sächsische Staatsministerium für Regionalentwicklung (SMR) gemeinsam mit einigen Pilotgemeinden in den zurückliegenden drei Jahren gute Beispiele der Vorsorge geschaffen. Im Leutersdorfer Ortsteil Spitzkunnersdorf (Landkreis Görlitz) etwa hatte 2017 nach starken Regenfällen eine Sturzflut große Schäden verursacht. Wild abfließendes Wasser schoss über großräumige Feldflächen auf das nächste Gewässer zu, riss dabei Schlamm mit und überflutete die dazwischengelegenen Siedlungsbereiche großflächig. Erstmals werden nun in Spitzkunnersdorf Starkregenereignisse in eine Fachplanung zur Verbesserung des Hochwasserschutzes einbezogen. Zur Unterstützung der Gemeinde hat das IÖR räumlich hochauflösende Gefahrenhinweiskarten mit Wasserständen und Fließgeschwindigkeiten für verschiedene Starkregenszenarien erstellt. Dies ist nur eines der Praxisbeispiele, die sich auf der Website in der Rubrik „Unsere Geschichten“ nachlesen lassen.
Hintergrund‚
Im Projekt RAINMAN (Integrated Heavy Rain Risk Management) haben die Partner im Projektzeitraum Juli 2017 bis Juni 2020 innovative Methoden und Werkzeuge für ein integriertes Starkregenrisikomanagement in Mitteleuropa entwickelt und diese Instrumente in verschiedenen Pilotregionen getestet. Ziel war es, die Schäden durch Starkregenereignisse im urbanen und ländlichen Raum durch ein verbessertes Risikomanagement zu reduzieren. Das Projekt wurde durch das Interreg CENTRAL EUROPE-Programm der Europäischen Union mit insgesamt 2,5 Millionen Euro gefördert. Lead-Partner war das Sächsische Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG).
Wissenschaftliche Ansprechpartner:
Dr. Regine Ortlepp, E-Mail: R.Ortlepp@ioer.de
Dr. Axel Sauer, E-Mail: A.Sauer@ioer.de
Weitere Informationen:
https://rainman-toolbox.eu/de – Link zur RAINMAN-Toolbox-Website
https://www.interreg-central.eu/Content.Node/RAINMAN.html – Weitere Informationen zum Projekt RAINMAN
Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment80378
Quelle: IDW
Erste Bilder der Sonne von Solar Orbiter
Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Astrophysik Potsdam
Solar Orbiter, eine Mission der Weltraumorganisationen ESA und NASA, veröffentlicht erstmals Bilder, die unseren Heimatstern so nah zeigen wie noch nie. Zuvor konnte die Erprobungsphase aller Instrumente erfolgreich abgeschlossen werden.
Vor fünf Monaten startete Solar Orbiter seine Reise zur Sonne. Zwischen Mitte März und Mitte Juni wurden die zehn Instrumente an Bord eingeschaltet und getestet, zudem führte die Raumsonde ihre erste Annäherung an die Sonne durch. Kurz darauf konnten die internationalen Wissenschaftsteams zum ersten Mal alle Instrumente gemeinsam prüfen.
Neben dem sichtbaren Licht sendet die Sonne auch Röntgenstrahlung aus, vor allem während Sonneneruptionen. Das Leibniz-Institut für Astrophysik Potsdam (AIP) ist bei der Mission hauptsächlich an dem Röntgenteleskop STIX (Spectrometer/Telescope for Imaging X-Ray) beteiligt. Mit diesem Instrument lassen sich besonders heiße Regionen beobachten, die nur während Sonneneruptionen entstehen. Der Rest der Sonne ist im Röntgenlicht nicht sichtbar, daher braucht STIX ein eigenes System, dass die Orientierung zur Sonne präzise misst. Das Team am AIP entwickelte und baute das STIX Aspect System (SAS) und betreibt dies nun auch während der Mission. Nur damit können die Röntgenbilder mit den Aufnahmen der anderen Instrumente in Beziehung gesetzt werden.
Die nun veröffentlichten ersten Bilder, die Solar Orbiter von der Sonne aufgenommen hat, enthüllen bisher ungekannte Details. Die Aufnahmen zeigen zahlreiche kleine Sonneneruptionen, die aufgrund ihres Erscheinungsbildes „Lagerfeuer“ genannt werden. Bereits jetzt lässt sich daran das enorme Potential der Mission erkennen, deren wissenschaftliche Phase im November 2021 beginnt und bis 2029 andauert.
„Alle Instrumententeile von STIX, wie z. B. die 32 Röntgendetektoren, funktionieren wie geplant. Wir Sonnenphysiker am AIP waren natürlich sehr gespannt. Zu unserer Freude sehen wir, dass SAS wie erwartet gute Daten liefert. Während der Erprobungsphase konnten wir erkennen, wie sich der Sonnendurchmesser stetig vergrößert, da sich die Sonde der Sonne nähert“, erläutert Gottfried Mann, Leiter des STIX-Teams am AIP.
Am 10. Februar 2020 startete die Weltraumsonde Solar Orbiter. Die Mission soll die Sonne in den nächsten Jahren umkreisen und sich ihr bis auf einen Abstand von 42 Millionen Kilometern nähern. Solar Orbiter trägt sechs Fernerkundungsinstrumente und Teleskope, die die Sonne und ihre Umgebung abbilden, sowie vier In-situ-Instrumente, die die Eigenschaften in der Umgebung des Raumschiffs messen. Durch den Vergleich der Daten aus beiden Instrumentensätzen erhält die Wissenschaft Einblicke in die Entstehung des Sonnenwindes – des Stroms geladener Teilchen von der Sonne, der das gesamte Sonnensystem beeinflusst.
Während Ausbrüchen auf der Sonne wird eine enorme Menge hochenergetischer Elektronen erzeugt. Diese Elektronen spielen eine wichtige Rolle, da sie einen großen Teil der bei dem Ausbruch freigesetzten Energie tragen. Das AIP ist mit dem Energetic Particle Detektor (EPD) an einem weiteren Instrument beteiligt. EPD kann direkt diese Elektronen messen, wenn sie auf die Sonde treffen. Durch die vom DLR geförderte Teilnahme an den Instrumenten STIX und EPD wird das AIP in den nächsten Jahren in der Lage sein, die Prozesse der hochenergetischen Elektronen in ihrer Gesamtheit zu erforschen. Die Sonnenaktivität – auch als Weltraum-Wetter bezeichnet – kann unser Klima und die technische Zivilisation stark beeinflussen. Solar Orbiter hat das Ziel, die Prozesse auf der Sonne und ihre Auswirkungen auf unsere Erde zu untersuchen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Gottfried Mann, 0331 7499 292, gmann@aip.de
Weitere Informationen:
https://bit.ly/SolarOrbiter_FirstLight_de
https://www.esa.int/Science_Exploration/Space_Science/Solar_Orbiter/Solar_Orbite…
Quelle: IDW
Datenspuren auf dem Smartphone – Das persönlichste Gerät
LMU Stabsstelle Kommunikation und Presse Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Jeder, der ein Smartphone nutzt, hinterlässt digitale Spuren – massenhaft. Solche App-Daten machen Rückschlüsse auf die Persönlichkeit des Nutzers möglich. LMU-Psychologen erforschen ihre Aussagekraft.
Smartphones sind für viele Menschen längst persönliche Begleiter ihres täglichen Lebens geworden. Die digitalen Spuren, die ihre Besitzer rund um die Uhr hinterlassen, sind nicht nur für die großen amerikanischen IT-Firmen etwa zu Werbezwecken sehr begehrt. Auch wissenschaftlich können sie etwas abwerfen: Sozialwissenschaftler beispielsweise nutzen die Daten, um mehr über die Persönlichkeit und das soziale Verhalten von Menschen herauszufinden. In einer aktuellen im Fachmagazin PNAS veröffentlichten Studie überprüfte ein Team um den LMU-Psychologen Markus Bühner die Frage, ob sich bereits aus gängigen Verhaltensdaten von Smartphones wie Nutzungszeiten oder -häufigkeiten Hinweise auf die Persönlichkeit der Nutzer ergeben. Die Antwort war eindeutig: „Ja, wir können daraus automatisiert Rückschlüsse auf die Persönlichkeit der Nutzer ziehen, zumindest für die meisten Persönlichkeitsdimensionen“, sagt Clemens Stachl, ehemaliger Mitarbeiter am Lehrstuhl von Markus Bühner (Psychologische Methodenlehre und Diagnostik) und nun Forscher an der Stanford University, USA.
Im Rahmen des PhoneStudy-Projekts baten die LMU-Forscher insgesamt 624 freiwillige Versuchsteilnehmer, einerseits einen umfangreichen Persönlichkeitsfragebogen auszufüllen und andererseits die an der LMU entwickelte PhoneStudy-Forschungsapp für 30 Tage auf ihren Smartphones zu installieren. Die App schickte Informationen zum Verhalten der Versuchsteilnehmer verschlüsselt an die Server. Die Forscher werteten vor allem die Daten zu Bereichen wie Kommunikations- und Sozialverhalten, Musikkonsum, App-Nutzung, Mobilität, allgemeine Telefonaktivität und Tag- und Nachtaktivität aus. Sowohl die Daten des Persönlichkeitsfragebogens als auch die Verhaltensdaten vom Smartphone speisten die Wissenschaftler dann in einen maschinellen Lernalgorithmus ein. Dieser Algorithmus, wurde anschließend trainiert um Muster in den Verhaltensdaten zu erkennen und diese dann mit höheren oder niedrigeren Werten im Persönlichkeitsfragebogen in Verbindung zu bringen. Die Fähigkeit des Algorithmus, die Persönlichkeit vorherzusagen wurde anschließend anhand neuer Daten kreuzvalidiert. „Der schwierigste Teil war die Vorverarbeitung der enormen Datenmengen und das „Trainieren“ der Algorithmen“, erzählt Stachl. „Hierzu mussten wir auf den LRZ-Hochleistungsrechencluster in Garching zugreifen, um diese Berechnungen überhaupt möglich zu machen.“
Im Fokus der Forschenden standen die fünf wichtigsten Persönlichkeitsmerkmale in der Psychologie, die sogenannten Big Five. Diese fünf Dimensionen beschreiben Unterschiede in der menschlichen Persönlichkeit in einer sehr globalen Art und Weise. Sie umfassen Offenheit (wie aufgeschlossen gegenüber neuen Ideen, Erfahrungen und Werten beschreibt sich eine Person), Gewissenhaftigkeit (wie zuverlässig, pünktlich, ehrgeizig, und organisiert schätze ich mich ein), Extraversion (gibt Hinweise, wie gesellig, durchsetzungsfähig, abenteuerlustig, fröhlich sich jemand beschreibt), Verträglichkeit (wie angenehm, zuvorkommend, unterstützend und hilfsbereit stellt sich eine Person dar) und Emotionale Stabilität (wie selbstsicher, selbstbeherrschend und unbekümmert schätzt sich eine Person ein). Der Algorithmus konnte hier tatsächlich automatisiert aus der Kombination der Verhaltensdaten Rückschlüsse auf die meisten Persönlichkeitsmerkmale der Nutzer ziehen. Die Ergebnisse gaben zudem Hinweise darauf, welche digitalen Verhaltensweisen informativ für bestimmte Selbsteinschätzungen der Persönlichkeit sind. Das Kommunikations- und Sozialverhalten auf dem Smartphone gab wichtige Hinweise, wie extravertiert sich jemand einschätzt, Informationen zum Tag-Nacht-Rhythmus der Nutzer waren besonders aussagekräftig hinsichtlich der selbsteingeschätzten Gewissenhaftigkeit. Offenheit konnte nur durch eine Vielzahl sehr unterschiedlicher Verhaltensdaten vorhergesagt werden.
Für Forscher sind die Ergebnisse von großem Wert, vor allem weil in der Psychologie bislang Persönlichkeitsdiagnostik fast ausschließlich auf Selbstbeschreibungen beruht. Diese zeigen sich zwar für die Vorhersage von beispielsweise beruflichem Erfolg als nützlich. „Dennoch wissen wir gleichzeitig sehr wenig darüber, wie sich Menschen tatsächlich im alltäglichen Leben verhalten – außer das, was sie uns im Fragebogen mitteilen möchten“. sagt Markus Bühner. „Smartphones bieten sich durch ihre Allgegenwärtigkeit, ihre Verbreitung und ihre enorme technische Leistungsfähigkeit als ideale Forschungsgeräte an, um die Selbstschreibungen mit realem Verhalten übereinstimmen.“
Dass seine Forschung auch Begehrlichkeiten bei den großen IT-Firmen wecken könnte, ist Stachl durchaus bewusst. Neben Datenschutz und Schutz der Privatsphäre müsse man daran arbeiten, das Thema künstliche Intelligenz ganzheitlicher zu betrachten, so Stachl. „Der Mensch und nicht die Maschine muss im Mittelpunkt der Forschung stehen. Wir dürfen maschinelle Lernmethoden nicht unreflektiert nutzen.“ Das Potenzial möglicher Anwendungen sei enorm, sowohl in der Wissenschaft wie auch in der Wirtschaft. „Die heutigen Möglichkeiten einer datengetriebenen Gesellschaft können zweifellos das Leben für viele Menschen verbessern, wir müssen aber auch sicherstellen, dass alle Teilnehmer der Gesellschaft von diesen Entwicklungen profitieren können.“
Wissenschaftliche Ansprechpartner:
Dr. Clemens Stachl,
Email: stachl@stanford.edu
Prof. Markus Bühner
Email: buehner@lmu.de
Telefon: +49 89 / 2180 – 6257
Originalpublikation:
Clemens Stachl, Quay Au, Ramona Schoedel, Samuel D. Gosling, Gabriella M. Harari, Daniel Buschek, Sarah Theres Völkel, Tobias Schuwerk, Michelle Oldemeier, Theresa Ullmann, Heinrich Hussmann, Bernd Bischl, and Markus Bühner:
Predicting personality from patterns of behavior collected with smartphones
PNAS 2020
Quelle: IDW
Wind trägt Mikroplastik in die Arktis
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Mikroplastikteilchen können vom Wind über weite Distanzen transportiert werden – und enden in so entlegenen Gegenden wie der Arktis. Dort könnten die dunkel gefärbten Teilchen unter anderem dazu führen, dass Schnee- und Eismassen schneller schmelzen. Ein internationales Forscher*innenteam um Andreas Stohl von der Universität Wien hat errechnet, dass pro Jahr 48.000 Tonnen Mikroplastik in der Arktis landen und insgesamt etwa 140.000 Tonnen Mikroplastik aus dem Straßenverkehr über die Atmosphäre in die Ozeane transportiert werden. Die Studie erscheint in Nature Communications.
Nachdem die globale Produktion von Plastik ständig ansteigt, entgehen auch immer größere Kunststoffmengen der Wiederverwertung. Die ökologischen Auswirkungen dieser ständig steigenden Belastung mit Mikroplastik und die möglichen Auswirkungen auf die Gesundheit der Menschen sind bisher kaum bekannt.
Aus dem Straßenverkehr in die Atmosphäre
Ein internationales Forscher*innenteam unter Beteiligung des Norwegian Institute for Air Research (NILU), der Universität Wien und des International Institute for Applied Systems Analysis (IIASA) untersuchte jetzt die Verbreitung von Mikroplastik über den Wind. Die Forscher*innen haben erste Modellrechnungen der globalen Ausbreitung von Mikroplastikpartikeln aus dem Straßenverkehr – die durch Reifen- und Bremsabrieb entstehen – durchgeführt. Der Hauptanteil dieses Mikroplastiks stammt aus den dicht besiedelten Regionen Nordamerikas, Europas und Asiens.
Während sich größere Partikel hauptsächlich in der Nähe dieser Emissionsregionen absetzen, können kleinere Partikel – kleiner als 2,5 Mikrometer – sich beinahe global verteilen. Das Team modellierte, dass pro Jahr ungefähr 140.000 Tonnen Mikroplastik aus dem Straßenverkehr über die Atmosphäre in die Ozeane transportiert werden.
Über die Atmosphäre in die Arktis
Zudem schätzen die Forscher*innen, dass 48.000 Tonnen pro Jahr an schnee- und eisbedeckten Oberflächen deponiert werden. „Speziell der Transport in die Arktis ist bedenklich, weil dort das Ökosystem sehr empfindlich ist und ohnehin bereits durch Klimawandel und andere Gifte belastet wird“, berichtet Andreas Stohl von der Universität Wien: „Da stellt Mikroplastik eine weitere, bisher kaum einschätzbare Gefahr dar.“ In geringem Maße könnte durch die Ablagerung von relativ dunklen Plastikpartikeln auch die Rückstrahlfähigkeit des Schnees und Eises beeinträchtigt werden, was zu verstärktem Abschmelzen und damit weiterer Klimaerwärmung führen könnte. Ein ähnlicher Effekt ist durch die Ablagerung von Ruß in der Arktis bekannt.
„In dieser Studie zeigen wir, dass Transport von Mikroplastik durch die Atmosphäre eine große Bedeutung hat“, sagt Stohl. „Bisherige Studien haben sich vor allem auf den Transport über Flüsse in den Ozean konzentriert. Der Transport in der Atmosphäre ist jedoch ähnlich wichtig – vielleicht sogar noch wichtiger“.
Publikation in Nature Communications:
Evangeliou et al.: Atmospheric transport is a major pathway of microplastics to remote regions. Nature Communications, 2020.
DOI: 10.1038/s41467-020-17201-9
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Mag. Dr. Andreas Stohl
Institut für Meteorologie und Geophysik
Universität Wien
1090 – Wien, Althanstraße 14 (UZA II)
T +43-1-4277-53730
andreas.stohl@univie.ac.at
Originalpublikation:
Evangeliou et al.: Atmospheric transport is a major pathway of microplastics to remote regions. Nature Communications, 2020.
DOI: 10.1038/s41467-020-17201-9
Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…
Quelle: IDW
UN-Klimaziele sind ökonomisch sinnvoll: Ambitionierter Klimaschutz zahlt sich aus
Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Klimaschutz ist nicht billig – aber Klimaschäden sind es auch nicht. Wie viel Klimaschutz ist also wirtschaftlich gesehen am sinnvollsten? Diese Frage hat Ökonomen jahrzehntelang beschäftigt, insbesondere seit dem Wirtschaftsnobelpreis 2018 für William Nordhaus, dessen Berechnungen nach eine Erwärmung um 3,5 Grad bis 2100 ein ökonomisch wünschenswertes Ergebnis sei. Ein internationales Wissenschaftlerteam unter der Leitung des Potsdam-Instituts für Klimafolgenforschung hat nun die Computersimulation, die diesen Schluss gezogen hat, mit den neuesten Daten und Erkenntnissen aus Klima- und Wirtschaftswissenschaften aktualisiert.
Sie stellten fest, dass die Begrenzung der Erderwärmung auf unter 2 Grad ein wirtschaftlich optimales Gleichgewicht zwischen künftigen Klimaschäden und den heutigen Kosten für den Klimaschutz herstellt. Das würde einen CO2-Preis von mehr als 100 US-Dollar pro Tonne erfordern.
Jener Tag, an dem der Weltklimarat (Intergovernmental Panel on Climate Change, IPCC) im Auftrag der UNO seinen so genannten 1,5-Grad-Bericht veröffentlichte, war auch der Tag, an dem William Nordhaus den Nobelpreis für Wirtschaftswissenschaften „für die Integration des Klimawandels in die langfristige makroökonomische Analyse“ erhielt. Konkret gelang ihm das mittels einer Computersimulation, seinem sehr einflussreichen Dynamic Integrated Climate-Economy (DICE)-Modell. Im Pariser Abkommen der UNO wurde vereinbart, die globale Erwärmung auf deutlich unter 2 Grad zu begrenzen, um Klimarisiken einzudämmen. Nordhaus‘ Zahlen deuten auf 3,5 Grad als eine gleichsam wirtschaftlich optimale Erwärmung bis zum Jahr 2100 hin. Die jetzt in der wissenschaftlichen Zeitschrift Nature Climate Change veröffentlichte Studie bietet eine Aktualisierung des DICE-Modells, welche helfen kann, die Perspektiven in Einklang zu bringen.
„Im Wesentlichen haben wir das Nordhaus-Modell aufgeschnürt, gründlich überprüft und einige wichtige Aktualisierungen vorgenommen, die auf den neuesten Erkenntnissen der Klimawissenschaft und Wirtschaftsanalyse basieren“, erklärt Martin Hänsel, Hauptautor der Studie und Forscher am Potsdam-Institut für Klimafolgenforschung (PIK). „Wir haben festgestellt, dass die Ergebnisse der aktualisierten Version tatsächlich in guter Übereinstimmung mit der Pariser 2°C-Grenze für die globale Erwärmung stehen.“
Die Aktualisierungen umfassen ein akkurateres Kohlenstoffkreislaufmodell, eine neue Gewichtung des Temperaturmodells, eine angepasste Schadensfunktion, und neue Erkenntnisse über die normativen Annahmen des Modells. Diese zeigen sich konkret bei der Frage, wie eine gerechte Verteilung von Wohlstand zwischen heutigen und zukünftigen Generationen gestaltet werden sollte, die den Klimawandel berücksichtigt – ausgedrückt in der so genannten sozialen Diskont-Rate. Deren Aktualisierung basiert nun auf einer breiten Palette von Expertenempfehlungen zur Generationengerechtigkeit. Ergänzt wird dies durch angepasste Annahmen in Bezug auf die Emissionen von anderen Treibhausgasen zusätzlich zum CO2, Technologien zu negativen Emissionen (also dem Herausholen von CO2 aus der Atmosphäre), und wie zügig eine Abkehr von einer kohlenstoffbasierten Wirtschaft erreicht werden kann.
Wie schlimm wird es? Die Schadensfunktion
Die Schadensfunktion beurteilt, wie stark sich künftige Klimaveränderungen auf die Weltwirtschaft auswirken werden. Ko-Autor Thomas Sterner, Professor an der Universität Göteborg, erklärt: „Die standardmäßige Schadensfunktion im DICE-Modell hat eine Reihe von methodischen Mängeln. Unsere Analyse baut auf einer kürzlich durchgeführten Meta-Analyse auf, in der wir diese Mängel beheben. Infolgedessen finden wir höhere Schäden als im Standard-DICE-Modell. Allein nach dem, was wir in den letzten zehn Jahren gesehen haben, ist die Annahme hoher klimabedingter wirtschaftlicher Schäden leider realistisch.“
Wie viel zählt es? Die soziale Diskontrate
Darüber hinaus schaut die Studie auch auf das, was manchmal als die normative „Black Box“ wahrgenommen wird: Wie oft in der Wirtschaftswissenschaft enthält das, was wie eine nüchterne mathematische Funktion aussieht, eine Reihe normativer Annahmen. Die so genannte „soziale Diskont-Rate“ ist ein solcher Fall. Sie gibt an, wie wir das zukünftige Wohlergehen unserer Kinder und Enkelkinder bewerten – eine grundlegend moralische Frage. „Die Klimaauswirkungen unserer Emissionen reichen weit in zukünftige Generationen hinein. Um diese langfristigen Folgen angemessen bewerten zu können, müssen wir unterschiedliche Ansichten darüber berücksichtigen, wie wir einen Ausgleich zwischen den Interessen heutiger und zukünftiger Generationen schaffen können“, erklärt Moritz Drupp, Ko-Autor und Professor am Exzellenzcluster Klima, Klimawandel und Gesellschaft (CLICCS) der Universität Hamburg. Erstmals enthält die Studie eine repräsentative Auswahl von Empfehlungen von mehr als 170 Expertinnen und Experten zu den normativen Annahmen der sozialen Diskontrate. „Unser aktualisiertes Modell zeigt, dass das 2-Grad-Ziel nach den von der Mehrheit der Experten vorgeschlagenen sozialen Diskont-Raten ökonomisch optimal ist.“
Der richtige Preis für CO2
Die Änderungen am Modell, insbesondere die Neubewertung der sozialen Diskontrate zugunsten des Wohlergehens künftiger Generationen, haben weitere Auswirkungen: Sie führen zu einem höheren Preis für CO2. Während das Standard DICE-Modell von Nordhaus knapp 40 US-Dollar pro Tonne CO2 im Jahr 2020 ergibt, errechnet das aktualisierte DICE-Modell einen CO2-Preis von über 100 Dollar. Die CO2-Preise, die sich aus der Mehrheit der Expertenmeinungen zur sozialen Diskontierung ergeben, sind mit wenigen Ausnahmen höher als das, was in den meisten Sektoren selbst in den ehrgeizigsten Regionen der Welt umgesetzt wird. „Das ist ein weiterer Beleg dafür, welch ein entscheidendes politisches Instrument eine intelligente CO2-Preisgestaltung ist“, so die Schlussfolgerung von Ko-Autor Ben Groom, Professor an der Universität Exeter und Mitglied des Grantham Research Institute on Climate Change an der London School of Economics. „Unsere Studie bedeutet damit auch, dass eine ehrgeizigere Klimapolitik nötig ist, um zu vermeiden, dass wir unseren Kindern eine ungerechtfertigt hohe Last der Klimaauswirkungen hinterlassen.“
Artikel: Martin C. Hänsel, Moritz A. Drupp, Daniel J.A. Johansson, Frikk Nesje, Christian Azar, Mark C. Freeman, Ben Groom, Thomas Sterner: „Climate economics support for the UN Climate targets“. Nature Climate Change (2020). DOI: [10.1038/s41558-020-0833-x]
Weblink zum Artikel nach Veröffentlichung: https://www.nature.com/articles/s41558-020-0833-x
Originalpublikation:
Martin C. Hänsel, Moritz A. Drupp, Daniel J.A. Johansson, Frikk Nesje, Christian Azar, Mark C. Freeman, Ben Groom, Thomas Sterner: „Climate economics support for the UN Climate targets“. Nature Climate Change (2020). DOI: [10.1038/s41558-020-0833-x]
Weitere Informationen:
https://www.nature.com/articles/s41558-020-0833-x
Quelle: IDW
Robuste Hochleistungs-Datenspeicher durch magnetische Anisotropie
Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Die neueste Generation von Festplattenlaufwerken besteht aus magnetischen Dünnschichten, die zu den Invar-Materialien zählen und eine extrem robuste und hohe Datenspeicherdichte ermöglichen. Durch lokales Erhitzen mit einem Laser können winzigste Nanodomänen beschrieben werden (HAMR). Dabei dehnen sich solche Invar-Materialien trotz Erhitzung kaum aus. Ein relevantes Material für HAMR-Datenspeicher sind Dünnschichten aus Eisen-Platin-Nanokörnern. Ein internationales Team um Prof. Dr. Matias Bargheer am HZB und der Uni Potsdam hat nun experimentell beobachtet, wie in diesen Eisen-Platin-Dünnschichten eine besondere Spin-Gitter-Wechselwirkung die Wärmeausdehnung des Kristallgitters aufhebt.
Im thermischen Gleichgewicht gehört Eisen-Platin (FePt) zur Klasse der Invar-Materialien, die sich bei Erhitzung kaum ausdehnen. Dieses Phänomen ist schon im Jahr 1897 bei der Nickel-Eisen Legierung „Invar“ beobachtet worden, aber erst seit wenigen Jahren versteht die Fachwelt, wie es zustande kommt: Normalerweise führt Erwärmung von Festkörpern zu Gitterschwingungen, die eine Ausdehnung bewirken, weil die vibrierenden Atome mehr Platz brauchen. Erstaunlicherweise führt das Erwärmen der Spins in FePt aber zum gegenteiligen Effekt: Je wärmer die Spins sind, desto stärker zieht sich das Material entlang der Magnetisierungsrichtung zusammen. Das Resultat ist die von Invar bekannte Eigenschaft: eine minimale Ausdehnung.
Dieses faszinierende Phänomen hat nun ein Team um Prof. Matias Bargheer erstmals an unterschiedlichen Eisen-Platin-Dünnschichten experimentell verglichen. Bargheer leitet eine gemeinsame Forschergruppe am Helmholtz-Zentrum Berlin und der Universität Potsdam. Gemeinsam mit Kollegen aus Lyon, Brno und Chemnitz wollte er untersuchen, wie sich das Verhalten von perfekt kristallinen FePt-Schichten von den FePt-Dünnschichten unterscheidet, die für HAMR-Speicher verwendet werden. Diese bestehen aus kristallinen Nanokörnern aus übereinandergestapelten einatomaren Lagen von Eisen und Platin, die in eine Matrix aus Kohlenstoff eingebettet sind.
Mit zwei kurz aufeinanderfolgenden Laserpulsen wurden die Proben lokal erhitzt und angeregt, um anschließend durch Röntgenbeugung zu messen, wie stark sich das Kristallgitter lokal ausdehnt oder kontrahiert.
„Wir waren überrascht, dass sich die kontinuierlichen kristallinen Schichten ausdehnen, wenn man sie kurz mit Laserlicht erhitzt, während sich lose angeordnete Nanokörner in der gleichen Kristallorientierung zusammenziehen“, erklärt Bargheer. „Für die HAMR-Datenspeicher werden dagegen Nanokörner verwendet, die in eine Matrix aus Kohlenstoff eingebettet sind und auf einem Substrat festgewachsen sind: Die reagieren viel schwächer auf die Laseranregung und ziehen sich erst etwas zusammen und dehnen sich dann etwas aus.“
„Wir haben durch diese Experimente mit ultrakurzen Röntgenpulsen feststellen können, wie wichtig die Morphologie, also der genaue Aufbau solcher Dünnschichten ist“, sagt Alexander von Reppert, Erstautor der Studie und Doktorand in der Gruppe um Bargheer. Das Geheimnis ist die Querkontraktion, die auch Poisson-Effekt genannt wird. „Das kennt jeder, der schon einmal fest auf einen Radiergummi gedrückt hat“, sagt Bargheer. „Das Gummi wird in der Mitte dicker.“ Und von Reppert ergänzt: „Das können die Nanoteilchen auch, während beim perfekten Film kein Platz zur Ausdehnung in der Filmebene ist, die aber für eine spin-getriebene Kontraktion senkrecht zum Film benötigt wird.“
FePt ist also ein ganz besonderes Material. Es hat nicht nur außergewöhnlich robuste magnetische Eigenschaften. Seine thermomechanischen Eigenschaften verhindern auch, dass bei Erhitzung zu starke Verspannungen entstehen, die das Material zerstören würden – und das ist für HAMR wichtig!
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matias Bargheer
Forschergruppe Ultraschnelle Dynamik
Universität Potsdam und Helmholtz-Zentrum Berlin
bargheer@uni-potsdam.de
Originalpublikation:
Science Advances (2020): Spin stress contribution to the lattice dynamics of FePt
A. von Reppert, L. Willig, J. Pudell, S. Zeuschner, G. Sellge, F. Ganss, O. Hellwig, J. A. Arregi, V. Uhlíř, A. Crut, M. Bargheer
DOI: 10.1126/sciadv.aba1142
Weitere Informationen:
https://www.helmholtz-berlin.de/pubbin/news_seite?nid=21603;sprache=de;seitenid=… Auf unserer Webseite finden Sie einen kurzen Videoclip, der das Ausdehnungs- und Kontraktionsverhalten unterschiedlicher FePt-Proben zeigt.
Quelle: IDW
Virologe der Universität Leipzig: Haustiere können sich doch mit Coronavirus infizieren
Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig
Was noch vor drei Monaten als unwahrscheinlich galt, ist jetzt Realität: Auch Haustiere können sich mit dem neuen Coronavirus SARS-CoV-2 infizieren. Weltweit gibt es dafür mittlerweile Beispiele. Allerdings sind die Fallzahlen sehr gering, und nur Hunde, Katzen, Nerze und Frettchen sind nach bisherigen Erkenntnissen betroffen. Experimentell seien unter anderem Hunde und Katzen infiziert worden, sagt Prof. Dr. Dr. Thomas Vahlenkamp (56), Direktor des Instituts für Virologie der Veterinärmedizinischen Fakultät der Universität Leipzig. Während Hunde keine Symptome zeigten, hätten Katzen – ähnlich wie infizierte Menschen – Atemwegsbeschwerden und teilweise Durchfall bekommen.
„Das Coronavirus scheint sich bei Katzen vermehren zu können“, erklärt Vahlenkamp. Ähnliche Erfahrungen hätten Betreiber von Nerzfarmen in den Niederlanden und Dänemark gemacht, wo die Tiere Atemwegsbeschwerden gezeigt haben und teilweise daran starben. „Infektionen sind möglich, treten aber sehr selten auf, und sie standen immer im Zusammenhang mit einem humanen Fall“, berichtet der Experte. Wenn also Hunde- oder Katzenbesitzer mit dem neuen Coronavirus infiziert sind, besteht auch für ihre Haustiere eine Infektionsgefahr. Weltweit sei aber kein Fall bekannt, bei dem umgekehrt ein infiziertes Tier einen Menschen angesteckt habe. Wer mehrere Hunde und Katzen hält, sollte allerdings wissen, dass sich die Tiere auch untereinander anstecken können.
„Das soll aber nicht zu Verunsicherung bei Hunde- und Katzenbesitzern führen“, sagt Vahlenkamp. Die Zahl der Fälle sei äußerst gering. So habe es unter anderem in Frankreich, Spanien, Belgien, Deutschland, China und den USA einzelne solcher Infektionen gegeben. Auch im Zoo in New York haben sich Tiger infiziert – möglicherweise bei Besuchern oder Tierpflegern. Daraufhin hätten Forscher am Harbin Veterinary Research Institute in China die experimentellen Untersuchungen vorgenommen.
Wenn Hunde- und Katzenhalter auf Nummer sicher gehen möchten, können sie ihr Tier auf COVID-19 testen lassen, müssen den Test allerdings selbst finanzieren. Auch das Institut für Virologie der Universität Leipzig bietet solche Tests an.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Thomas Vahlenkamp
Direktor des Instituts für Virologie der Universität Leipzig
Telefon: +49 341-97 38201
E-Mail: thomas.vahlenkamp@uni-leipzig.de
Quelle: IDW
Zukunftsperspektiven für den Güterverkehr
Vanessa Offermann Abteilung Hochschulkommunikation
Hochschule Heilbronn
Konsortium unter Federführung der Hochschule Heilbronn legt umfassende Handlungsempfehlungen für das Verkehrsministerium Baden-Württemberg vor.
Heilbronn, Juli 2020. Der zu erwartende starke Anstieg des Güterverkehrs in den kommenden Jahren erfordert kreative Antworten. Neben einer guten Verkehrsinfrastruktur spielen Nachhaltigkeit, Digitalisierung und Vernetzung dabei die entscheidende Rolle: „Die Entwicklung einer tragfähigen Zukunftsperspektive für den Güterverkehr gelingt am besten über die Berücksichtigung aller wichtigen Akteure, anstatt sich nur auf die Transportwirtschaft zu konzentrieren“, fasst Prof. Dr. Tobias Bernecker, Forschungsprofessor für Verkehrslogistik und nachhaltige Mobilität an der Hochschule Heilbronn und Projektkoordinator für das Güterverkehrskonzept Baden-Württemberg, die gewählte Vorgehensweise zusammen. Der in Stuttgart durch Verkehrsminister Winfried Hermann MdL vorgestellte Schlussbericht beleuchtet die Herausforderungen, die es auf diesem Weg zu bewältigen gilt und zeigt eine Vielzahl an Lösungsvorschlägen für das Land Baden-Württemberg auf.
Im Auftrag des baden-württembergischen Verkehrsministeriums forschte das Kompetenzzentrum LOGWERT an der Hochschule Heilbronn seit Sommer 2018 gemeinsam mit den Projektpartnern SSP Consult, Railistics, Fraunhofer IAO, SLN Sinsheim, IVK Röhling und IKEM an einer Gesamtkonzeption und an konkreten Einzelmaßnahmen. „Die Hochschule Heilbronn zeichnet dabei neben der Projektkoordination schwerpunktmäßig für die Themen Digitalisierung, alternative Antriebe, Infrastrukturmaßnahmen auf Straße und Schiene und den Kombinierten Verkehr verantwortlich“, erklärt Bernecker.
Umfangreiches Beteiligungskonzept
Eine besondere Stärke des Güterverkehrskonzepts Baden-Württemberg sind die durchgeführten Beteiligungsformate. In acht Vernetzungsforen wirkten insgesamt mehr als 200 Expertinnen und Experten aus Wirtschaft, Wissenschaft, Verbänden und Kommunen an der Erarbeitung mit. „Die Vernetzung und Einbindung zahlreicher Unternehmen sehe ich als eine hervorragende Basis für das Güterverkehrskonzept Baden-Württemberg“, bilanziert Artin Adjemian (IHK Rhein-Neckar) für die baden-württembergischen Industrie- und Handelskammern den Erfolg dieser Veranstaltungen.
Die Workshops in Ehingen (Donau), Heilbronn und Weil am Rhein dienten dazu, regionale Problemstellungen, Themenschwerpunkte und Lösungsansätze aufzugreifen. Heilbronn diskutierte zum Beispiel schwerpunktmäßig über die Umstellung auf alternative Lkw-Antriebe. In Reutlingen, Ulm und Ludwigsburg standen Zukunftsbilder für die städtische Logistik im Vordergrund. In Mannheim standen die Binnenschifffahrt und die Häfen im Land und in Ravensburg der Bereich Schwertransporte im Fokus.
Gestaltungsfelder für den Güterverkehr
Dreh- und Angelpunkt der erarbeiteten Ergebnisse im Güterverkehrskonzept Baden-Württemberg sind die fünf Gestaltungfelder Infrastruktur, Organisation, Wettbewerb, Innovationen und Vernetzung. Auf dem Gestaltungsfeld Infrastruktur zeigt das Güterverkehrskonzept, wie durch zusätzliche Überhol- und Abstellgleise und durch die Elektrifizierung weiterer Schienenstrecken im Land Engpässe für den Schienengüterverkehr beseitigt werden können. Auch ein weiterer Ausbau der Terminals für den Kombinierten Verkehr wird für erforderlich gehalten. Wichtige Ausbau- und Erhaltungsmaßnahmen des Bundesverkehrswegeplans 2030 mit Landesbezug und Vorhaben an Landesstraßen schaffen gleichzeitig die erforderlichen Kapazitäten für den Güterverkehr auf der Straße. Die Modernisierung der Bundeswasserstraße Neckar bildet eine wesentliche Grundlage für Wachstum bei der Binnenschifffahrt.
Das Gestaltungsfeld Organisation umfasst unter anderem die Einrichtung zusätzlicher Lkw-Stellplätze an Autobahnen und die volle Nutzung der Potenziale von Lastenrädern in den Städten, aber auch einen zu den Aufkommensschwerpunkten im Güterverkehr passenden Ausbau von Tank- und Lademöglichkeiten für Fahrzeuge mit alternativen Antrieben.
Im Gestaltungsfeld Wettbewerb werden Vorschläge gemacht, wie die Arbeitsteilung zwischen den Verkehrsträgern sichergestellt und verbessert werden kann.
Besonders groß ist das Spektrum an empfohlenen Maßnahmen im Feld Innovation.
Es reicht von alternativen Antrieben über eine Perspektive für das autonome Fahren auf Straße und Schiene bis hin zum verpflichtenden Einsatz von Lkw-Fahrerassistenzsystemen zur Erhöhung der Verkehrssicherheit. Die Verstetigung der Vernetzungsforen aus dem Güterverkehrskonzept Baden-Württemberg und die Einrichtung eines Kümmerers für die Belange des Schienengüterverkehrs sind Beispiele aus dem Gestaltungsfeld Vernetzung.
Fortgang des Güterverkehrskonzepts Baden-Württemberg
Mit dem Güterverkehrskonzept Baden-Württemberg ist es dem Projektkonsortium gelungen, eine Vielzahl an aussichtsreichen Maßnahmen zu erarbeiten. „Die umfassende und zielführende Ausarbeitung der Gutachter muss der Startschuss für einen Diskussionsprozess zu konkreten Maßnahmen sein, wie wir den Güterverkehr in unserem Land zukünftig gestalten wollen“, so Verkehrsminister Winfried Hermann. Die Vorstellung des Güterverkehrskonzepts Baden-Württemberg soll daher auch den Auftakt für einen übergreifenden Diskussionsprozess zur Umsetzung der empfohlenen Maßnahmen bilden.
Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit ca. 8.200 Studierenden ist die Hochschule Heilbronn eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt auf den Bereichen Technik, Wirtschaft und Informatik. An vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die Hochschule mehr als 50 Bachelor- und Masterstudiengänge an. Die Hochschule pflegt enge Kooperationen mit Unternehmen aus der Region und ist dadurch in Lehre, Forschung und Praxis sehr stark vernetzt.
Ansprechpartner Güterverkehrskonzept Prof. Dr. Tobias Bernecker,
Kompetenzzentrum LOGWERT der Hochschule Heilbronn,
Bildungscampus 9, 74076 Heilbronn, Telefon: 07131-504,1131,
E-Mail: tobias.bernecker@hs-heilbronn.de, Internet: http://www.logwert.de
Ansprechpartnerin Forschungskommunikation Franziska Pöttgen,
Bildungscampus 14, 74076 Heilbronn, Telefon: 07131-504-229,
E-Mail: franziska.poettgen@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/forschung
Pressekontakt Hochschule Heilbronn Vanessa Offermann,
Bildungscampus 14, 74076 Heilbronn, Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de
Weitere Informationen:
https://vm.baden-wuerttemberg.de/fileadmin/redaktion/m-mvi/intern/Dateien/PDF/20…
Die gesamte Präsentation des Güterverkehrskonzeptes ist hier für Sie hinterlegt.
Quelle: IDW
Blick ins Innere einer Batterie
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Oldenburger Chemiker entwickeln neues Verfahren, um chemische Prozesse während des Betriebs zu beobachten
Was passiert in einer Batterie auf mikroskopischer Ebene während des Ladens und Entladens? Ein neues Verfahren, um diese bislang kaum zugänglichen Vorgänge live zu beobachten, hat ein Wissenschaftlerteam um Prof. Dr. Gunther Wittstock vom Institut für Chemie der Universität Oldenburg kürzlich in der Fachzeitschrift ChemElectroChem vorgestellt. Die neue Methode könne dazu beitragen, schneller geeignete Materialien für neuartige Batterien zu finden, so der Forscher. Ziel sei es, umweltfreundlichere Energiespeicher mit längerer Lebensdauer und höherer Leistungsdichte zu entwickeln. Zu dem Team gehören auch Wissenschaftler des Batterieforschungszentrums MEET (Münster Electrochemical Energy Technology) der Universität Münster.
Batterien wandeln chemische Energie in elektrische Energie um. Dabei wandern geladene Teilchen von einer positiv geladenen Elektrode, der Kathode, zur negativen Anode. In vielen modernen Batterien und wiederaufladbaren Akkus ist das reaktionsfreudige Metall Lithium ein wichtiger Bestandteil der Anode. Auf deren Oberfläche bilden sich während des Betriebs hauchdünne Filme, die sowohl Elektrode als auch Batterieflüssigkeit vor Zersetzung schützen. Bislang war es jedoch kaum möglich, Veränderungen der wenige millionstel Meter (Mikrometer) dicken, komplex aufgebauten Schichten während des Ladens und Entladens direkt zu beobachten.
Das Team entwickelte nun ein neues Messprinzip, um während des Batteriebetriebs örtlich hochauflösende Informationen über die Oberfläche metallischer Lithium-Elektroden zu erhalten. „Mit fortlaufender Zeit können chemische Prozesse auf der Oberfläche der Elektrode einen großen Einfluss auf die Lebensdauer und die Leistungsfähigkeit einer Batterie haben“, so Wittstock. Als Analyseverfahren verwendeten die Forscher die sogenannte elektrochemische Rastermikroskopie (englisch: scanning electrochemical microscopy, kurz: SECM). Dabei wird eine Messsonde schrittweise über die Oberfläche einer Probe bewegt, um chemische Informationen im Abstand von wenigen Mikrometern zu sammeln. Eine Software übersetzt die Messdaten in ein farbiges Bild. „Indem wir diesen Vorgang mehrmals wiederholen, können wir Veränderungen auf der Probenoberfläche wie in einem Daumenkino verfolgen“, berichtet Wittstock.
Bastian Krueger, Mitarbeiter in Wittstocks Arbeitsgruppe Physikalische Chemie, entwickelte in seiner Doktorarbeit eine spezielle Messzelle, in der die Versuchsbedingungen – wie etwa die Stromstärke – im Wesentlichen denen in einer echten Batterie entsprachen. Der Chemiker testete verschiedene, mit 3D-Druckern und CNC-Mikrofräsen hergestellte Zellaufbauten. Luis Balboa, ebenfalls Doktorand in der Arbeitsgruppe, führte Computersimulationen durch, um die Zellgeometrie zu optimieren und realistische Versuchsbedingungen herzustellen. Das Team aus Münster steuerte Referenzproben bei.
Auf diese Weise gelang es den Wissenschaftlern, die Prozesse auf der Lithium-Anode mit bislang unerreichter Genauigkeit zu untersuchen. Die Forscher beobachteten, wie sich dort bei hohen Ladegeschwindigkeiten Lithium aus der Batterieflüssigkeit absetzte. Aus solchen lokal verstärkten Abscheidungen können sich so genannte Dendrite bilden – sich verzweigende Fortsätze aus Lithium auf der Elektrode. Diese Gebilde begrenzen die Lebensdauer von Batterien und können im Extremfall zu ihrer Zerstörung führen.
„Der Durchbruch unserer Studie besteht darin, dass wir erstmals derartige Prozesse bei realistischen Stromdichten direkt in der Messapparatur ausführen und ihre Auswirkungen bildlich verfolgen konnten“, betont Wittstock. Das Verfahren sei auch für andere Typen von Elektroden geeignet. Langfristiges Ziel sei es, mit Hilfe der elektrochemischen Rastermikroskopie zu untersuchen, wie unterschiedliche Vorbehandlungsschritte das Wachstum der Grenzschicht auf den Elektroden beeinflussen.
Die Arbeit ist Teil des Kooperationsprojekts AMaLiS (Alternative Materialien und Komponenten für Lithium-Sauerstoff-Batterien), das noch bis Ende 2020 durch das Bundesforschungsministerium (BMBF) gefördert wird. Ziel ist es, neuartige Batteriekomponenten zu designen und gleichzeitig Verfahren zu entwickeln, um diese Komponenten zu testen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Gunther Wittstock, Tel.: 0441/798-3971, E-Mail: gunther.wittstock@uol.de
Originalpublikation:
Bastian Krueger, Luis Balboa, Jan Frederik Dohmann, Martin Winter, Peter Bieker, Gunther Wittstock: „Solid Electrolyte Interphase Evolution on Lithium Metal Electrodes Followed by Scanning Electrochemical Microscopy Under Realistic Battery Cycling Current Densities“, ChemElectroChem, doi:10.1002/celc.202000441
Weitere Informationen:
https://chemistry-europe.onlinelibrary.wiley.com/doi/full/10.1002/celc.202000441
http://uol.de/pc2/
Quelle: IDW
When is someone old?
Ansa Heyl Presse- und Öffentlichkeitsarbeit
International Institute for Applied Systems Analysis (IIASA)
Populations around the world are living longer lives than was the norm just a few decades ago, presenting governments with significant challenges in terms of caring for their growing elderly populations. According to a new study published in PLOS ONE, understanding how to assess who is elderly is a crucial first step for our understanding of population aging.
The UN’s Profiles of Ageing 2019 provides people who study population aging with a choice of perspectives, namely a conventional potential support ratio (PSR) and a prospective potential support ratio (PPSR). The difference between the two is based on different threshold ages at which people are first seen as „old“. In the PSR the threshold age is 65 years and is fixed independently of time or place, while in the PPSR, the threshold age is the age where remaining life expectancy is 15 years. The first is commonly known as the conventional old age threshold and the second as the prospective old age threshold. The conventional old age threshold is the most commonly used, but it has the disadvantage that it does not change over time and is the same for all countries regardless of their trajectories of aging. This is of course not the case, as today’s 65 year-olds are very different from their counterparts half a century ago, and are also likely to be very different from what they will be like half a century in the future. People also age differently depending on where they live and across population subgroups.
In their study, the authors propose that the old age threshold should be determined using an equivalency criterion – in other words, people at the old age threshold should be roughly similar to one another in terms of relevant characteristics regardless of when and where they lived. Using historical data on five-year death rates (the proportion of people dying between ages x and x+5) at the old age threshold as an indicator of one aspect of health, the researchers assessed the extent to which the two approaches used by the UN are consistent with the equivalency criterion. The results indicate that the old age threshold based on a fixed remaining life expectancy is consistent with the equivalency criterion, while the old age threshold based on a fixed chronological age is not. Specifically, five-year death rates at the old age threshold based on a fixed chronological age strongly decline over time, while the one based on a fixed remaining life expectancy is almost constant.
This implies that if the equivalency criterion were not at least approximately adhered to, people with a particular five-year death rate in one country would be categorized as old, while people in another country with the same five-year death rate would not be. The study is based on previous research by the authors in which they developed measures of population aging adjusted for changes in remaining life expectancy – a so-called dynamic old age threshold – and provides additional arguments around why it would be beneficial to use such measures of aging. They highlight that when this dynamic old age threshold is used to study people in many countries over long periods of time, at that threshold, people have roughly the same health.
„We wanted to provide researchers with a solid argument around why measures of aging based on a fixed remaining life expectancy should be used and how similar groups of older people should be defined. We want people to understand that the use of an old age threshold based on a fixed chronological age does not produce groups of adults whose relevant characteristics are comparable across time and space. The equivalency criterion is effective in making that decision because it defines who is elderly in a consistent way based on characteristics relevant to the study of population aging,“ explains IIASA researcher and study author Warren Sanderson.
„The picture of population aging that emerges when measures consistent with the equivalency criterion are used are markedly different from those that result when the equivalency criterion is not adhered to. We recommend that measures of aging that do not adhere to the equivalency criterion should only be used in special circumstances where it is inconsequential,“ concludes study author Sergei Scherbov, a researcher in the IIASA World Population Program.
Reference
Sanderson W & Scherbov S (2020). Choosing between the UN’s alternative views of population aging. PLOS ONE DOI: 10.1371/journal.pone.0233602
Contacts:
Researcher contact
Warren Sanderson
Research Scholar
IIASA World Population Program
Tel: +43 2236 807 252
sanders@iiasa.ac.at or warren.sanderson@stonybrook.edu
Sergei Scherbov
Research Scholar
IIASA World Population Program
Tel: +43 2236 807 584
scherbov@iiasa.ac.at
Press Officer
Ansa Heyl
IIASA Press Office
Tel: +43 2236 807 574
Mob: +43 676 83 807 574
heyl@iiasa.ac.at
About IIASA:
The International Institute for Applied Systems Analysis (IIASA) is an international scientific institute that conducts research into the critical issues of global environmental, economic, technological, and social change that we face in the twenty-first century. Our findings provide valuable options to policymakers to shape the future of our changing world. IIASA is independent and funded by prestigious research funding agencies in Africa, the Americas, Asia, and Europe. www.iiasa.ac.at
Quelle: IDW
Direktbesteuerung von CO2 ermöglicht mehr freiwilliges Handeln im Klimaschutz
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Wenn man CO2 durch eine Steuer direkt bepreist, gibt das Raum für moralisches Handeln / Experimentell gestützte Studie von Axel Ockenfels, Peter Werner und Ottmar Edenhofer
Emissionen von CO2 können auf zwei Wegen einen Preis bekommen: Direkte Bepreisung durch eine Steuer oder Festlegung der Obergrenze der CO2-Emissionen mit anschließendem Handel von Emissionsberechtigungen. Eine neue Studie auf Basis eines wissenschaftlich kontrollierten Experiments beleuchtet einen bislang kaum erforschten Aspekt: die Anreizwirkung beider Varianten auf Akteure, die jenseits ihrer ökonomischen Interessen moralisch handeln wollen. Die Studie zeigt: Die direkte Bepreisung durch Steuern führt zu einem deutlich geringeren CO2-Ausstoß im Experiment.
Die Studie wurde von den Ökonomen Axel Ockenfels, Peter Werner und Ottmar Edenhofer erstellt und jetzt in der renommierten Fachzeitschrift Nature Sustainability veröffentlicht. Das Papier wurde unter anderem mit Unterstützung des „Center for Social and Economic Behavior“ der Universität zu Köln und im Kontext des DFG Cluster of Excellence ECONtribute erstellt.
An dem Experiment für die Studie haben rund 1000 Studentinnen und Studenten in dem Kölner Laboratorium für Wirtschaftsforschung mitgewirkt. In dem Experiment wird eine vereinfachte Welt von Produzenten und politischen Entscheidern gebaut, um die beiden Varianten der CO2-Bepreisung zu simulieren. Im Kern läuft es so: Zehn Produzenten legen in einem wettbewerblichen Markt fest, wie viel sie produzieren möchten, wobei eine größere Produktionsmenge mehr CO2-Emissionen mit sich bringt. Welche Produzenten zum Zuge kommen und tatsächlich emittieren, hängt von dem Ergebnis des Wettbewerbs sowie von so genannten Entscheidern ab. Diese geben in dem einen Teil des Experiments vor, wieviel Tonnen CO2 in einem Markt insgesamt emittiert werden dürfen (indirekte Preissteuerung durch Mengenbegrenzung), und in dem anderen Teil, wie viel Euro der Ausstoß einer Tonne CO2 kosten soll (direkte Preissteuerung durch Steuer). Am Ende wird den Produzenten der Ertrag abzüglich der Emissionskosten in echtem Geld ausgezahlt. Ein besonderer Anreiz für die Teilnehmer ist, dass jede nicht emittierte Tonne CO2 im Experiment auch in der realen Welt vermieden wird, denn über eine Umweltorganisation wird ein Zertifikat im EU-Emissionshandelssystem gekauft und stillgelegt.
Mit mehreren Abwandlungen dieses Experiments führt die Studie vor, welche Motivationen das Verhalten beeinflussen und welche Anreize wirken. Sobald die Konsequenz „echter CO2-Ausstoß in der realen Welt“ bekannt ist, erlauben die Entscheider deutlich weniger Ausstoß, und die Produzenten engagieren sich weniger für eine solche Erlaubnis. Bei der Variante der direkten Bepreisung von CO2 durch eine Steuer – wenn die Entscheider also einen Euro-Betrag pro Tonne CO2 vorgeben und nicht die Anzahl der erlaubten Tonnen – emittieren die Produzenten im Ergebnis zudem deutlich weniger.
Ein Grund ist, dass moralisches Verhalten bei einer Mengenbegrenzung lediglich den Verschmutzern im Markt Platz für mehr CO2-Emissionen macht. Ockenfels erläutert: „Eine direkte Bepreisung von CO2-Emissionen besitzt im Kampf gegen den Klimawandel viele Vorteile im Vergleich zu indirekten Mechanismen. Unsere Studie ergänzt einen Aspekt, der bisher oft übersehen wurde: Viele Menschen und Institutionen verhalten sich moralisch und möchten uneigennützig zum Klimaschutz beitragen. Bei einer Mengenbegrenzung werden jedoch die Treibhausgase, die ich eingespart habe, von anderen zusätzlich emittiert. So werden viele Anstrengungen zunichtegemacht. Eine direkte Preissteuerung kennt solche bloßen Verschiebungen der Emissionen bei moralischem Verhalten nicht.“
Professor Dr. Ockenfels leitet das Exzellenzzentrum für Soziales und Ökonomisches Verhalten an der Universität zu Köln und ist Mitglied im DFG Exzellenzcluster ECONtribute, Peter Werner ist Associate Professor in Verhaltensökonomik an der Universität Maastricht, und Ottmar Edenhofer ist Direktor des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) sowie des Potsdam-Instituts für Klimafolgenforschung (PIK).
Inhaltlicher Kontakt:
Prof. Dr. Axel Ockenfels
Wirtschafts- und Sozialwissenschaftliche Fakultät
Zentrum für Soziales und Ökonomisches Verhalten
+49 221 470-5761
ockenfels@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de
Zur Publikation:
https://www.nature.com/articles/s41893-020-0554-1
Quelle: IDW
Neues Verfahren ermöglicht Lithiumabbau in Deutschland
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Ob Netzspeicher, Elektromobilität oder tragbare Elektronik – Lithiumionen-Akkus sind aus unserem Leben nicht mehr wegzudenken. Für die Produktion werden jedes Jahr Millionen Tonnen Lithium gefördert – bislang allerdings fernab von Deutschland. Eine Erfindung aus dem Karlsruher Institut für Technologie (KIT) könnte nun aber auch hierzulande einen wirtschaftlichen Abbau ermöglichen. Lithium soll dabei minimalinvasiv in Geothermieanlagen aus den Tiefengewässern des Oberrheingrabens gefördert werden.
ob Netzspeicher, Elektromobilität oder tragbare Elektronik – Lithiumionen-Akkus sind aus unserem Leben nicht mehr wegzudenken. Für die Produktion werden jedes Jahr Millionen Tonnen Lithium gefördert – bislang allerdings fernab von Deutschland. Eine Erfindung aus dem Karlsruher Institut für Technologie (KIT) könnte nun aber auch hierzulande einen wirtschaftlichen Abbau ermöglichen. Lithium soll dabei minimalinvasiv in Geothermieanlagen aus den Tiefengewässern des Oberrheingrabens gefördert werden.
In tiefen Gesteinslagen unter dem Oberrheingraben liegt ein mineralischer Schatz verborgen: Gelöst in salzigen Thermalwasserreservoiren befinden sich beträchtliche Mengen des Elements Lithium. „Nach unseren Kenntnissen können es bis zu 200 Milligramm pro Liter sein“, weiß der Geowissenschaftler Dr. Jens Grimmer vom Institut für Angewandte Geowissenschaften (AGW) des KIT: „Wenn wir dieses Potenzial konsequent nutzen, dann könnten wir in Deutschland einen erheblichen Teil unseres Bedarfs decken.“ Aktuell ist Deutschland ein Nettoimporteur des begehrten Rohstoffs, der vor allem für die Produktion von Batteriezellen für Elektrofahrzeuge benötigt wird und somit für das Klimaschutzprogramm der Bundesregierung von großer Bedeutung ist. Importiert wird aus den typischen Förderländern Chile, Argentinien und Australien, die mehr als 80 Prozent der weltweiten Produktion auf sich vereinen.
Was eine Nutzung der heimischen Reserven bislang verhinderte, war das Fehlen eines geeigneten Verfahrens, um diese Ressource kostengünstig, umweltschonend und nachhaltig zu erschließen. Gemeinsam mit seiner Forscherkollegin Dr. Florencia Saravia von der Forschungsstelle des Deutschen Vereins des Gas- und Wasserfaches (DVGW) am Engler-Bunte-Institut (EBI) des KIT hat Grimmer ein solches Verfahren entwickelt und dieses wurde nun vom KIT zum Patent angemeldet. „Dabei werden in einem ersten Schritt die Lithiumionen aus dem Thermalwasser herausgefiltert und in einem zweiten Schritt weiter konzentriert, bis Lithium als Salz ausgefällt werden kann“, so Grimmer.
Minimale Umweltschäden beim heimischen Lithiumabbau
Gegenüber den traditionellen Methoden der Lithiumproduktion aus den südamerikanischen Salzseen und den australischen Festgesteinen bietet das Grimmer-Saravia-Verfahren einige entscheidende Vorteile: Genutzt wird die bestehende Infrastruktur von Geothermie-Anlagen, durch die pro Jahr bis zu zwei Milliarden Liter Thermalwasser strömen. Im Gegensatz zum klassischen Bergbau fällt deshalb kaum Abraum an und der Flächenverbrauch ist minimal. Weil das Thermalwasser nach Gebrauch wieder in den Untergrund zurückgeleitet wird, werden keine schädlichen Stoffe freigesetzt und auch die geothermische Strom- und Wärmeproduktion wird nicht gestört. Lithium kann im Thermalwasserzyklus der Geothermie-Anlage kontinuierlich innerhalb von Stunden extrahiert werden, wohingegen die Anreicherung in den südamerikanischen Salzseen mehrere Monate dauert und stark wetterabhängig ist. Ein stärkerer Regen kann die dortige Produktion um Wochen oder gar Monate zurückwerfen. Darüber hinaus bietet das Verfahren die Möglichkeit, weitere seltene und werthaltige Elemente wie Rubidium oder Cäsium aus dem Thermalwasser zu extrahieren, die beispielsweise in der Laser- und Vakuumtechnologie benötigt werden.
Da die technisch-energetischen Möglichkeiten einer Geothermie-Anlage genutzt werden, hebt sich dieses Verfahren auch in der CO2-Bilanz sehr positiv von den tradierten Verfahren ab. „Wir exportieren viele Umweltprobleme in Drittländer, um unseren Lebensstandard aufrechtzuerhalten und zu verbessern. Mit diesem Verfahren können wir unserer Verantwortung gerecht werden und wichtige Rohstoffe für moderne Technologien umweltverträglich vor der eigenen Haustür gewinnen“, sagt Saravia. „Darüber hinaus können wir regionale Wertschöpfungsketten aufbauen, Arbeitsplätze schaffen und gleichzeitig geopolitische Abhängigkeiten reduzieren.“
Hunderte Tonnen Lithium pro Jahr aus einer einzigen Anlage
Gemeinsam mit Partnern aus der Industrie sind die beiden Wissenschaftler nun dabei eine Testanlage zur Lithium-Gewinnung zu entwickeln. In diesem ersten Prototypen, der in einer Geothermie-Anlage im Oberrheingraben aufgebaut werden soll, werden zunächst einige Kilogramm Lithiumkarbonat bzw. Lithiumhydroxid gewonnen. Wenn die Versuche erfolgreich sind, ist der Bau einer Großanlage geplant. Möglich wäre dann eine Produktion von mehreren hundert Tonnen Lithiumhydroxid pro Jahr pro Geothermie-Anlage. Nach aktueller Datenlage belaufen sich die Potenziale im Oberrheingraben auf deutscher und französischer Seite auf mehrere tausend Tonnen an förderbarem Lithium pro Jahr.
Details zum KIT-Zentrum Energie: http://www.energie.kit.edu
Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24.400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Neues Verfahren ermöglicht Lithiumabbau in Deutschland
https://idw-online.de/de/attachment80276
Quelle: IDW
Grundwasserschutz auf Spiekeroog – Erstinstallation eines Salzwasser-Überwachungssystems
Greta Clasen Öffentlichkeitsarbeit
Leibniz-Institut für Angewandte Geophysik (LIAG)
LIAG und OOWV kooperieren für nachhaltige Grundwasserbewirtschaftung.
Spiekeroog. Wissenschaftler*innen des Leibniz-Instituts für Angewandte Geophysik (LIAG) haben in Zusammenarbeit mit dem Oldenburgisch-Ostfriesischen Wasserverband (OOWV) erstmalig ein Salzwasser-Überwachungssystem (SAMOS) auf der Insel Spiekeroog installiert. Mit Hilfe der geoelektrischen Messeinrichtung werden Veränderungen der Salz-Süßwassergrenze im Schutzdünenbereich der Insel überwacht. Die Echtzeitauswertungen liefern entscheidende Informationen für eine nachhaltige Wasserbewirtschaftung durch den OOWV.
Da Süßwasser leichter als Salzwasser ist, bilden sich im Untergrund von Inseln sogenannte Süßwasserlinsen, die vom umgebenden Salzwasser begrenzt werden. Diese Süßwasserressourcen nachhaltig zu nutzen – das ist auf den Nordseeinseln wie Spiekeroog eine besondere Herausforderung. Einflüsse des Klimawandels und ein zunehmender Tourismus können mit einem steigenden Wasserbedarf auf der Insel einhergehen. Die dadurch forcierten, steigenden Grundwasserentnahmen verursachen möglicherweise eine nachteilige Verschiebung der Süß-Salzwassergrenze im Untergrund. Die Folge wäre eine zunehmende Versalzung des Grundwassers, was die gesamte Wasserversorgung der Inseln gefährden könnte.
Um die Lage der Süß-Salzwassergrenze im Untergrund von Spiekeroog besser kontrollieren zu können, installierten LIAG-Wissenschaftler*innen gemeinsam mit dem OOWV das Überwachungssystem SAMOS: Dabei wurde eine vertikale Elektrodenstrecke von rund 24 Metern Länge in ein Bohrloch von etwa 50 Metern Tiefe gesetzt und mit einer Messstation an der Oberfläche verknüpft. Täglich wird der elektrische Widerstand gemessen, welcher direkt mit der Mineralisation des Grundwassers zusammenhängt. Mit einem integrierten Solarpanel versorgt sich diese Monitoringanlage selbst mit Energie und kann so langfristig Daten sammeln. Das Projekt go-CAM ermöglicht dabei explizit die digitale, zeitnahe und praxisfreundliche Aufbereitung der Daten. Die Daten sind für den OOWV jederzeit einsehbar und weiter verwertbar.
„Den Überblick über die Salz- und Süßwassergrenze unter Spiekeroog zu behalten, ist für die nachhaltige Wassernutzung entscheidend“, erklärt Dr. Helga Wiederhold, LIAG-Projektleiterin go-CAM. „Wir brauchen fortlaufende Messreihen, um die Langzeitentwicklung zu verstehen. Wird zu viel Wasser abgepumpt, kann Salzwasser aufsteigen. Überschreitet der Chloridgehalt den rechtlich zulässigen Grenzwert, kann das Grundwasser nicht mehr genutzt werden. Mit unserem Salzwasser-Überwachungssystem SAMOS können wir unserem Kooperationspartner OOWV genau aufzeigen, ob sich die Salzwassergrenze verschiebt und im Zweifelsfall früh Warnung geben.“
Dr. Konstantin Scheihing, Projektleiter des go-CAM-Projektes für den OOWV, sieht in der Fertigstellung der SAMOS-Messstelle einen entscheidenden Schritt für eine langfristig nachhaltige Grundwasserbewirtschaftung auf Spiekeroog: „Als öffentlich-rechtlicher Wasserverband haben wir die verantwortungsvolle Aufgabe, die nachhaltige Bewirtschaftung der Grundwasserressourcen in der Region unter Wahrung einer allseits gegebenen Wasserversorgungssicherheit für unsere Kundinnen und Kunden zu gewährleisten. Die Forschungskooperation mit dem LIAG und der Bau des SAMOS-Monitoringsystems ist für uns ein weiterer wichtiger Baustein, um dieser Verantwortung gegenüber unseren Kundinnen und Kunden und der Umwelt bestmöglich nachzukommen.“
Auch in anderen Küstenregionen Norddeutschlands ist die Überwachung der Süß-Salzwassergrenze von hoher Relevanz. Nicht zuletzt wirken sich der klimabedingte Anstieg des Meeresspiegels und weitere Einflüsse des Klimawandels sowie demografische Veränderungen auf die Grundwassererneuerung aus. Innerhalb des Projekts go-CAM wurde das Salzwasser-Überwachungssystem auch an einem Standort zur Trinkwassergewinnung bei Jever installiert.
Zum Video: https://youtu.be/xSdXiIZbyBY
Hintergrundinformationen
Über SAMOS:
Das Salzwasser-Überwachungssystem SAMOS wurde eigens vom LIAG zur Untersuchung und Überwachung des möglichen Eindringens von Salzwasser in Aquifere mit süßen Grundwasserressourcen entwickelt. Erstmals wurde das System 2009 auf Borkum eingesetzt. Mittels einer vertikalen Elektrodenkette, die fest in einem Bohrloch installiert ist, werden Gleichstrom-Widerstandsmessungen durchgeführt.
Weiterführende Informationen:
https://www.leibniz-liag.de/forschung/methoden/elektromagnetische-methoden/geoel…
Über go-CAM:
Kernziel von go-CAM ist die Entwicklung, Implementierung und Anwendung der multikriteriellen Steuerungsoptimierung (CAM) für eine nachhaltige Wassernutzung in unterschiedlichen Küstenregionen weltweit. Mit dieser inter-institutionellen Zusammenarbeit zur Installation und wissenschaftlichen Betreuung der Messstelle entsteht ein weiterer wichtiger Messstandort des Forschungsprojekts go-CAM auf einer Nordfriesischen Insel. Gefördert wird das Verbundprojekt „go-CAM – Implementierung strategischer Entwicklungsziele im Küstenzonenmanagement“ vom Bundesministeriums für Bildung und Forschung (BMBF) im Rahmen des Verbundvorhabens GRoW (Global Ressource Wasser). Initiiert wurde go-CAM von Prof. Dr. H. M. Schöniger vom Leichtweiß-Institut für Wasserbau der TU Braunschweig.
Weiterführende Informationen:
https://bmbf-grow.de/de/verbundprojekte/go-cam
https://bmbf-grow.de/de
https://www.leibniz-liag.de/forschung/projekte/drittmittelprojekte/go-cam.html
Über das LIAG:
Das Leibniz-Institut für Angewandte Geophysik (LIAG) mit Sitz in Hannover ist eine eigenständige, außeruniversitäre Forschungseinrichtung. Mit Methoden der Angewandten Geophysik werden zukunftsgerichtete Fragestellungen von gesellschaftlicher Bedeutung untersucht. Der Schwerpunkt der Forschungsarbeiten liegt in der Erkundung des nutzbaren Untergrundes sowie in der Entwicklung von Mess- und Auswerteverfahren. Das Institut blickt auf über 50 Jahre Erfahrung in der Geophysik-Forschung zurück. LIAG bündelt dabei seine thematische Forschung unter anderem im Forschungsschwerpunkt „Grundwassersysteme“ und hat langjährige Erfahrung in der Küstenversalzung in Deutschland sowie im Rahmen internationaler Projekte. https://leibniz-liag.de/
Über den OOWV:
Der Oldenburgisch-Ostfriesische Wasserverband (OOWV) ist Deutschlands flächenmäßig größter Wasserversorger, versorgt über eine Millionen Kunden mit Trinkwasser und entsorgt das Abwasser von circa 500.000 Kunden. Der OOWV betreibt 15 Wasserwerke und 46 Kläranlagen. Das Versorgungsgebiet liegt im Nordwesten Deutschlands und erstreckt sich von einigen Ostfriesischen Inseln bis zu den Dammer Bergen. https://www.oowv.de/home/
Wissenschaftliche Ansprechpartner:
LIAG
Projektleiterin go-CAM
Dr. Helga Wiederhold
0511 643 3520
helga.wiederhold@leibniz-liag.de
Projektmitarbeiter go-CAM
Dr. Mathias Ronczka
0511 643 3491
mathias.ronczka@leibniz-liag.de
Presse- und Öffentlichkeitsarbeit
Greta Clasen
0511 643 2066
presse@leibniz-liag.de
OOWV
Projektleiter go-CAM
Dr. Konstantin Scheihing
04401 916 462
scheihing@oowv.de
Presse- und Öffentlichkeitsarbeit
Melena Hillje
04401 916 331
hillje@oowv.de
Anhang
Die SAMOS-Elektrodenstrecke zur Salzwasser-Überwachung
https://idw-online.de/de/attachment80277
Quelle: IDW
Beziehungsgeschichten: Neues Großprojekt am Kilimandscharo erforscht Wert der Natur für den Menschen
Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Was erwarten Menschen von der Natur, was kann die Natur leisten und wie wird sie vom Menschen verändert? Diesen Fragen widmet sich ein neues Forschungsprojekt am Kilimandscharo, an dem Natur- und Sozialwissenschaftler*innen von fünfzehn Universitäten und Forschungseinrichtungen aus Deutschland, der Schweiz und Tansania beteiligt sind. Ihre Erkenntnisse sollen dazu beitragen, den einzigartigen Lebensraum in Ostafrika nachhaltiger zu nutzen. Koordiniert wird das Verbundprojekt von der Senckenberg Gesellschaft für Naturforschung. Die Deutsche Forschungsgemeinschaft unterstützt es finanziell mit 7,3 Millionen Euro.
In der Beziehung von Mensch und Natur scheint etwas falsch zu laufen: Der Mensch profitiert zwar von der Natur und ihren Leistungen in vielfältiger Weise, gleichzeitig zerstört er aber diese Lebensgrundlage durch sein Handeln. Wie kann man diese Beziehung verändern und den Umschwung zu einer nachhaltigen Nutzung der Natur gestalten? Antworten auf diese Frage soll das neue Großprojekt „Die Rolle der Natur für das menschliche Wohlergehen im sozial-ökologischen System des Kilimandscharo“ liefern.
In dem sozial-ökologischen Grundlagenforschungsprojekt untersuchen Wissenschaftler*innen ab Herbst 2020 wie Mensch und Natur an dem ostafrikanischen Berg interagieren und sich gegenseitig beeinflussen. Dreh- und Angelpunkt sind die Leistungen, die die dortigen Ökosysteme für die 1,2 Millionen Menschen, die am Kilimandscharo leben erbringen. Die Natur stellt beispielsweise Nahrung, Rohstoffe und Medizin bereit, reguliert das Klima, beeinflusst die Wasserversorgung und schafft spirituelle Orte.
„In unserem Projekt erforschen wir: Welche Leistungen der Natur sind für die Anwohner *innen wichtig und warum? Was kann die Natur leisten und welche biologische Vielfalt steckt dahinter? Welche Institutionen und politischen Regelungen bestimmen, wie Menschen die Natur nutzen? Und gibt es Nutzungskonflikte oder Synergien?“, erklärt die Projektleiterin Prof. Dr. Katrin Böhning-Gaese, Senckenberg Biodiversität und Klima Forschungszentrum und Goethe-Universität Frankfurt.
Die Forschungsgruppe will dazu erstmals alle regulierenden, materiellen und nicht-materiellen Leistungen der Ökosysteme am Kilimandscharo erfassen und erheben, welchen Wert Natur sowohl als Mittel zum Zweck als auch an sich für verschiedene Bevölkerungsgruppen hat. Das Team kann auf Daten von Vorgängerprojekten zurückgreifen, denn die einzigartige Natur am Kilimandscharo wird bereits seit Jahrzehnten erforscht.
Böhning-Gaese und ihr Team aus Biolog*innen, Hydrolog*innen, Ökonom*innen, Politikwissenschaftler*innen und anderen Sozialwissenschaftler*innen setzen im Rahmen des Projektes auf sehr unterschiedliche Methoden und Skalen. „Ein Team wird beispielsweise vom Helikopter aus kartieren, wie das Gebiet genutzt wird. Andere Teams werden einzelne Personen nach deren Einstellung zur Natur befragen“, skizziert Böhning-Gaese die Bandbreite der Ansätze.
Am Ende soll aus der Synthese solcher und anderer Einzelprojekte ein detailliertes Gesamtbild entstehen, das zeigt, welche natürlichen und sozialen Komponenten das Leben am Kilimandscharo bestimmen, wie diese miteinander verbunden sind und – die vielleicht wichtigste Frage – was Veränderungen antreibt. Daraus könnten sich Handlungsempfehlungen ergeben.
„Wir wollen das Beziehungsgeflecht zwischen Menschen und der Natur am Kilimandscharo nicht nur verstehen, sondern Grundlagen für Entscheidungen liefern, die eine nachhaltige Entwicklung vor Ort fördern. Der Kilimandscharo ist mit seinen vielen unterschiedlichen Ökosystemen auf engem Raum und sozial diversen Bevölkerungsgruppen wie ein Mikrokosmos. Wir decken im Projekt eine große Bandbreite an sozialen und ökologischen Gegebenheiten ab. Ich glaube deshalb, dass unsere Ergebnisse auch für andere Teile Afrikas und der Welt relevant sein werden“, so Böhning-Gaese.
Die Federführung des Verbundprojektes liegt bei der Senckenberg Gesellschaft für Naturforschung. Außerdem arbeiten im Projekt Wissenschaftler*innen der Goethe-Universität Frankfurt, der Universität Bayreuth, der Justus-Liebig-Universität Gießen, der Universität Kiel, des Kieler Insituts für Weltwirtschaft, der Universität Kassel, der Universität Marburg, der Universität Bern und weiterer Institutionen mit. Darüber hinaus arbeitet das Team mit tansanischen Partnern zusammen und fördert die Ausbildung von weiteren Fachkräften vor Ort. Die Deutsche Forschungsgemeinschaft (DFG) unterstützt das zunächst auf vier Jahre ausgelegte Projekt mit insgesamt rund 7,3 Millionen Euro. Es handelt sich um die erste sozial-ökologische Forscher*innengruppe der DFG.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Katrin Böhning-Gaese
Senckenberg Biodiversität und Klima Forschungszentrum &
Goethe-Universität Frankfurt
Tel. +49 (0)69- 7542 1890
katrin.boehning-gaese@senckenberg.de
Quelle: IDW
„Es ist entscheidend, mit welcher Dynamik die Schwelle von Corona-Neuinfektionen durchbrochen wird“
Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig
Die Epidemie habe in den vergangenen zwei Wochen eine neue Dynamik entwickelt, sagt Prof. Dr. Markus Scholz vom Institut für Medizinische Informatik, Statistik und Epidemiologie der Medizinischen Fakultät der Universität Leipzig. Neben einzelnen Schulschließungen entwickeln sich immer wieder lokale Hotspots. Welche Gegenmaßnahmen dann einzuleiten sind und wie eine zweite Infektionswelle aussehen könnte, hat Scholz mit seinem Team in einem eigenen epidemiologischen Modell analysiert.
Herr Professor Scholz, einige Landkreise und Städte überschreiten den Grenzwert von 50 Neuinfektionen mit Sars-CoV-2 pro 100.000 Einwohner pro Woche. Sie haben neue Erkenntnisse zur Anwendung dieses Grenzwerts aus Ihren Modellen gewonnen. Welche sind das, auch bezogen auf die lokalen Ausbrüche aktuell?
Wir haben die Regelung, die inzwischen auch Gesetzeskraft hinsichtlich flächendeckender Testungen in einzelnen Kreisen hat, mit Hilfe von Modellen näher analysiert. Dabei zeigte sich, dass es entscheidend ist, mit welcher Dynamik diese 50er-Schwelle durchbrochen wird. Erreicht man sie allmählich, ist es problematisch. Steigt der Wert jedoch sprunghaft über die Grenze, wie jetzt in Gütersloh geschehen, können wir davon ausgehen, dass die Epidemie vor Ort schon eine Weile unentdeckt fortgeschritten ist. Die Situation ist dann deutlich gefährlicher. In Gütersloh wurde die Schwelle mit einem hohen R-Wert überschritten. Zudem zeichnet sich durch die flächendeckenden Testungen ab, dass die Epidemie bereits in die Bevölkerung eingetragen wurde. Ein Lockdown ist dann zumindest in den betroffenen Kreisen wieder zwingend erforderlich. Dieser sollte möglichst schnell und umfassend erfolgen, um eine weitere Verbreitung über die betroffenen Kreise hinaus noch zu vermeiden. Dies bedeutet explizit auch Reiseeinschränkungen in beide Richtungen, also die Ein- und Ausreise in den Hotspot.
Woran erkennen wir eigentlich, dass sich eine zweite Welle anbahnt? Was sagen Ihre Modelle voraus?
Unser neues Bulletin zeigt, dass die Reproduktionszahlen Ende Juni deutlich über 1 lagen, sowohl für Deutschland als auch für Sachsen und andere Bundesländer. Wenn solche Trends über längere Zeit bestehen, kann die Situation außer Kontrolle geraten und eine zweite Welle entstehen, wie aktuell zum Beispiel in Israel und den USA. Inzwischen schätzen wir diese Werte aber wieder unter 1, sodass wir aktuell noch nicht mit einer zweiten Welle rechnen. (Stand 29. Juni: Deutschland R=0.89 (95%-Konfidenzintervall 0.86-0.91), Sachsen R=0.52 (95%-Konfidenzintervall 0.38-0.67))
Es kommt auch in Zukunft darauf an, ob verhindert werden kann, dass lokale Ausbrüche großflächig in die Bevölkerung getragen werden. Die Situation ist diesbezüglich als deutlich fragiler einzuschätzen als noch vor einigen Wochen. So steigen auch in Leipzig aktuell wieder die Zahlen, nachdem hier über fast vier Wochen praktisch keine Fälle mehr auftraten. Dies bestätigt unsere Modellvorhersage, nach der kein wesentlicher Spielraum für weitere Lockerungen mehr besteht.
Zusammen mit Wissenschaftlern der Charité hat Ihr Institut kürzlich den Zuschlag des Bundesministeriums für Bildung und Forschung für das Projekt PROVID zur Erforschung des Schwereverlaufs bei Covid-19 eingeworben. Worum geht es da?
Diese Untersuchung baut auf der PROGRESS-Studie auf, die wir seit 15 Jahren mit betreuen. Hier beobachten wir Patienten, die wegen einer Lungenentzündung hospitalisiert werden, engmaschig und longitudinal. Diese Abläufe übertragen wir im Projekt PROVID nun auf COVID-19-Patienten, die im Krankenhaus behandelt werden müssen. Wir können sofort starten, da wird die bestehende Infrastruktur auf die neue Studie übertragen können. In circa zehn PROGRESS-Zentren begleiten wir diese Patienten und erfassen molekulare Faktoren und Vitalparameter im Zeitverlauf. Daraus wollen wir Faktoren identifizieren, die vorhersagen, wie schwer die Krankheit verläuft. Ziel ist eine Vorhersage des Verlaufs aufgrund von neuen Biomarkern. Wir erhoffen uns zudem weitere Erkenntnisse über die molekularen Mechanismen der Erkrankung: Wie kommt es zum Lungenversagen? Wie stark sind weitere Organe involviert? Unser Institut ist in der Studie das Datenzentrum, wir bereiten die Daten auf, halten die Datenbank vor, schulen die Zentren, verfolgen die Probenflüsse und führen Analysen der klinischen und molekularen Daten durch.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Scholz
Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE)
Telefon: +49 341 97-16100
Quelle: IDW
Steigende Wassertemperaturen bedrohen Vermehrung vieler Fischarten
Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Weil paarungsbereite Fische und ihr Nachwuchs besonders wärmeempfindlich sind, könnten künftig bis zu 60 Prozent aller Arten gezwungen sein, ihre angestammten Laichgebiete zu verlassen
Forschende des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) haben in einer neuen Metastudie wegweisende Erkenntnisse zu den Folgen des Klimawandels für die Fischbestände der Welt gewonnen. Die Risiken für Fische sind demnach viel größer als bisher angenommen, wenn man berücksichtigt, dass bestimmte Lebensstadien besonders empfindlich auf steigende Wassertemperaturen reagieren. Ein kritischer Engpass im Lebenszyklus der Fische ist die geringe Wärmetoleranz während der Fortpflanzung. Das bedeutet, die Wassertemperatur in den Laichgebieten entscheidet maßgeblich über den Fortpflanzungserfolg der Arten und macht Fische auf diese Weise besonders anfällig für den Klimawandel – im Meer ebenso wie in Seen, Teichen und Flüssen. Den Analysen zufolge gefährdet der ungebremste Klimawandel aufgrund steigender Wassertemperaturen den Fortpflanzungserfolg von bis zu 60 Prozent aller Fischarten, berichten die Wissenschaftler in ihrer Studie, die heute im Fachmagazin Science erschienen ist.
Lebewesen atmen, damit ihr Körper Energie erzeugen kann. Das gilt für uns Menschen ebenso wie für Fische. Bekannt ist zudem, dass der Energiebedarf des Menschen und der Tiere von der Temperatur abhängt: Wird es zum Beispiel wärmer, steigt der Energiebedarf exponentiell und mit ihm der Sauerstoffbedarf. Aus dieser Gesetzmäßigkeit leitet sich ab, dass Lebewesen einen Temperaturanstieg in ihrer Umgebung nur dann überstehen, wenn sie in der Lage sind, ihren Körper mit dementsprechend mehr Sauerstoff zu versorgen. Dieser Fähigkeit sind jedoch artspezifische Grenzen gesetzt. Wird eine solche Grenze überschritten, kollabiert das Herz-Kreislaufsystem.
Basierend auf diesem Wissen haben Forscherinnen und Forscher des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in einer neuen Metastudie untersucht, in welchen Lebensphasen Meeres- und Süßwasserfische auf der ganzen Welt besonders wärmeempfindlich sind. Dazu trugen die Biologen wissenschaftliche Daten zur Wärmetoleranz von 694 Fischarten zusammen und analysierten, innerhalb welcher Temperaturbereiche Fische als laichbereites („trächtiges“) Tier, als Embryo im Ei, als Larve nach dem Schlupf sowie als erwachsenes Tier außerhalb der Paarungszeit überleben können.
Während der Paarungszeit am empfindlichsten
„Unserer Ergebnisse zeigen, dass Fische als Embryonen im Ei sowie als laichbereite Erwachsene deutlich wärmeempfindlicher sind als im Entwicklungsstadium der Larve oder als geschlechtsreifer Fisch außerhalb der Paarungszeit“, sagt Erstautor und AWI-Meeresbiologe Dr. Flemming Dahlke. „Im globalen Mittel können zum Beispiel Fische außerhalb der Paarungszeit in bis zu 10 Grad Celsius wärmerem Wasser überleben als laichbereite Fische und Fischeier.“
Der Grund für diese unterschiedliche Wärmetoleranz liegt in der Anatomie der Fische: Fischembryonen beispielsweise besitzen noch keine Kiemen, mit denen sie ihre Sauerstoffversorgung steigern könnten. Paarungsbereite Fische dagegen bilden Ei- und Spermienzellen aus. Diese zusätzliche Körpermasse muss ebenfalls mit Sauerstoff versorgt werden, weshalb das Herz-Kreislaufsystem laichbereiter Tiere schon bei niedrigeren Temperaturen enorm gefordert ist.
Jedes Grad Erwärmung erhöht den Druck auf die Fischbestände
Diese Erkenntnisse gelten über Artengrenzen hinweg und offenbaren, dass Fische vor allem während der Paarungszeit sowie im Embryonalstadium besonders empfindlich auf Wärme reagieren. Aus diesem Grund hat das Forscherteam in einem zweiten Schritt analysiert, in welchem Maße die Wassertemperaturen in den Laichgebieten der untersuchten Arten im Zuge des Klimawandels steigen werden. Dazu nutzten sie neue Klimaszenarien (Shared Socioeconomic Pathways – SSP), die auch dem nächsten Weltklimabericht zugrunde liegen werden.
Die Ergebnisse belegen, dass jedes Grad durchschnittlicher Erwärmung die weltweiten Fischbestände in größere Bedrängnis bringt. „Gelingt es der Menschheit, die Klimaerwärmung bis zum Jahr 2100 auf 1,5 Grad Celsius zu begrenzen, werden bis dahin nur etwa zehn Prozent der von uns untersuchten Fischarten ihre angestammten Laichgebiete aufgrund zu warmen Wassers verlassen müssen“, erläutert AWI-Biologe und Ko-Autor Prof. Hans-Otto Pörtner. Bleiben die Treibhausgasemissionen dagegen auf hohem bis sehr hohem Niveau (SSP5-8.5), wäre mit einer durchschnittlichen Erwärmung von fünf Grad Celsius und mehr zu rechnen, die bis zu 60 Prozent der Fischarten gefährden würde.
Begrenzte Anpassungsoptionen
Betroffene Arten wären dann gezwungen, sich entweder evolutionsbiologisch anzupassen – ein Prozess, der vermutlich viel zu lange dauern würde – oder aber ihre Fortpflanzung in eine andere Jahreszeit oder an einen anderen Ort zu verlagern. „Eine solche Verlagerung mag einigen Arten gelingen“, sagt Flemming Dahlke. „Wenn wir jedoch bedenken, dass Fische ihre Fortpflanzung über lange Zeiträume an spezielle Lebensräume angepasst haben und ihre Zyklen auf bestimmte Nahrungsangebote und Meeresströmungen abgestimmt sind, dann ist davon auszugehen, dass eine erzwungene Verlagerung der Laichgebiete große Probleme mit sich bringen kann.“ Fische in Flüssen und Seen stehen zudem vor dem Problem, dass ihr Lebensraum durch die Größe und geographische Lage der Gewässer begrenzt wird. In größere Tiefe oder kältere Regionen abzuwandern, ist für sie nahezu unmöglich.
Neues Detailwissen für bessere Vorhersagen
„Unsere Detailanalysen über alle Entwicklungsstadien der Fische hinweg helfen uns, besser zu verstehen, wie die Arten unter dem Klimawandel leiden und in welchem Maße der Verlust geeigneter Lebensräume die klimabedingte Umwälzung der Ökosysteme vorantreiben wird“, sagt Hans-Otto Pörtner.
Wo Fische abwandern oder ihre Reproduktionsraten sinken, wird es zu neuen Interaktionen zwischen den Arten kommen und die Produktivität der Ökosysteme zum Teil abnehmen. Entsprechende Prognosen zur Zukunft der weltweiten Fischbestände hatte der Weltklimarat bereits in seinem Sonderbericht zum Ozean und der Kryosphäre im Klimawandel veröffentlicht. „Unsere neuen Detailbetrachtungen werden nun einen Beitrag dazu leisten, diese Prognosen zu verbessern“, sagt Hans-Otto Pörtner.
Die neue Studie wurde im Rahmen der Forschungsprojekte METAFISH (BMBF finanziert) und TERSANE (DFG finanziert) durchgeführt. In beiden Projekten untersuchen Wissenschaftler und Wissenschaftlerinnen, wie sich unterschiedliche Klimawandelszenarien auf Fische und andere Meerestiere auswirken, wie dies während evolutionärer Krisen in der Erdgeschichte zum Tragen kam und welche Vorteile es bringt, die globale Erwärmung auf 1,5 Grad Celsius zu begrenzen.
In die vorliegende Studie flossen empirische Daten zu Temperaturexperimenten mit Fischen aus mehr als 100 Jahren Forschung ein. Wann immer für bestimmte Entwicklungsstadien einer Art Temperaturtoleranzdaten fehlten, verwendeten die Wissenschaftler ein statistisches Verfahren, um diese Datenlücken zu füllen. Dieses Verfahren ermöglicht es, fehlende Temperaturtoleranzbereiche auf Basis des Verwandtschaftsgrades von Arten abzuschätzen. Lagen den Wissenschaftlern zum Beispiel die Toleranzbereiche der Fischembryonen und der geschlechtsreifen Tiere einer Art vor, konnten sie mit Hilfe dieses Verfahrens die fehlenden Werte für das Fischlarven-Stadium ableiten. Auf diese Weise gelang es ihnen, die entwicklungsspezifische Temperaturtoleranz für 694 Arten vollständig abzubilden.
Die Studie wird unter folgendem Titel im Fachmagazin Science veröffentlicht:
Flemming T. Dahlke, Sylke Wohlrab, Martin Butzin & Hans-Otto Pörtner: Thermal bottlenecks in the lifecycle define climate vulnerability of fish, Science, 3. Juli 2020, DOI: 10.1126
Druckbare Fotos finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Meldung: https://www.awi.de/ueber-uns/service/presse.html
Ihre Ansprechpartner am Alfred-Wegener-Institut sind:
• Dr. Flemming Dahlke (E-Mail: flemming.dahlke@gmx.de); der Meeresbiologe steht für Interviews in Englisch und Deutsch zur Verfügung.
• Prof. Dr. Hans-Otto Pörtner (Tel.: +49 (0) 4831 1307 / 2440; E-Mail: hans.poertner@awi.de); auch er steht für Interviews in Englisch und Deutsch zur Verfügung.
Für weitere Rückfragen steht Ihnen in der Pressestelle des Alfred-Wegener-Institutes Ulrike Windhövel (+49 (0)471 4831 2008; E-Mail: medien@awi.de) zur Verfügung.
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Quelle: IDW
Überlebenswichtige Signale: So verarbeiten Pflanzen Informationen
Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Wissenschaftlerinnen und Wissenschaftler des Helmholtz Zentrums München und der Ludwig-Maximilians-Universität (LMU) haben das Signalnetzwerk in Pflanzen kartiert und neue Erkenntnisse darüber gewonnen, wie Pflanzen Informationen über ihre Umwelt verarbeiten. Die Forschenden sehen darin auch Potential für neue Strategien um beispielsweise Nutzpflanzen besser vor zunehmender Dürre schützen zu können.
Pflanzen verarbeiten kontinuierlich Informationen über die Verfügbarkeit von Wasser und Nährstoffen oder über mögliche Krankheitserreger, um Samen und Früchte für die Fortpflanzung zu produzieren, die die Grundlage für die Ernährung des Menschen darstellen. Damit wir Pflanzen nachhaltiger vor zunehmenden Dürreperioden schützen können, ist ein besseres Verständnis über die molekularen Mechanismen hinter deren Informationsverarbeitung entscheidend. Forschende wissen bereits viel über die Signalwege selbst – beispielsweise, dass Pflanzenhormone molekulare Signalwege auslösen, die die Entwicklung der Pflanze steuern aber auch für Stressreaktionen, beispielsweise aufgrund von Dürre oder Schädlingsbefall verantwortlich sind. Wie der Informationsaustausch zwischen diesen Signalwegen genau abläuft, war jedoch nicht bekannt.
Hunderte neue Knotenpunkte für den Informationsaustausch identifiziert
Eine Forschungsgruppe des Instituts für Netzwerkbiologie des Helmholtz Zentrums München hat unter Beteiligung von LMU-Biologen das molekulare Proteinnetzwerk von Pflanzen systematisch kartographiert, indem es mehr als 17 Millionen Proteinpaare experimentell auf wechselseitige Interaktionen prüfte. Dafür setzten die Wissenschaftlerinnen und Wissenschaftler eine moderne robotergestützte Pipeline in Kombination mit Methoden der Bioinformatik ein. Sie analysierten das so kartographierte Netzwerk aus mehr als 2.000 beobachteten Interaktionen zwischen Proteinen mit Hilfe bioinformatischer und mathematischer Ansätze aus Statistik und Graphentheorie, um Signalwege und deren potenzielle Informationsknotenpunkte zu finden. Letztendlich konnte das Team hunderte vorher unbekannter Informationsknotenpunkte in den Pflanzen identifizieren.
Die meisten Proteine erfüllen Aufgaben in mehreren Signalwegen
Durch genetische Experimente konnte die Gruppe zeigen, dass alle getesteten Interaktionen zwischen Proteinen, von denen man bisher annahm, dass sie nur Teil eines einzigen Signalweges sind, tatsächlich die Kommunikation zwischen verschiedenen Signalwegen regeln. „Das ist eines der erstaunlichsten Erkenntnisse aus dieser Studie: Die meisten Proteine fungieren in mehreren Signalwegen. Im Gegensatz zu Studien, die ein oder wenige Proteine untersuchen, zeigen unsere Ergebnisse, zu welch hohem Grad die verschiedenen Signalwege physisch und funktionell miteinander verflochten sind. Wir glauben, dass wir damit eine grundlegende Funktionsweise entdeckt haben, der wir unbedingt weitere Aufmerksamkeit schenken müssen“, sagt Dr. Melina Altmann, Erstautorin der Studie.
Mit Biotechnologie zu neuen Pflanzen
Prof. Pascal Falter-Braun, Direktor des Instituts für Netzwerkbiologie und Lehrstuhlinhaber an der LMU, fügt hinzu: „Diese Erkenntnis könnte zu neuen Strategien für die biotechnologische Entwicklung oder Züchtung von Pflanzen führen, um den Herausforderungen des Klimawandels in der Landwirtschaft zu begegnen. In Zukunft könnten wir beispielsweise versuchen, die Informationsverarbeitung von Nutzpflanzen gezielt so zu verändern, dass die Pflanzen weniger Dünger und Pestizide benötigen oder resistenter gegen Dürreperioden sind.“
Finanzierung und Kooperationen
Diese Ergebnisse sind das Resultat langjähriger Forschungsarbeiten des Instituts für Netzwerkbiologie zum Verständnis molekularer Netzwerke bei Pflanzen und Menschen. Dieses Projekt wurde im Rahmen des DFG geförderten SFB924 „Molekulare Mechanismen zur Regulierung von Ertrag und Ertragsstabilität in Pflanzen“ und eines ERC Consolidator Grants an Prof. Pascal Falter-Braun, durchgeführt. Für diese Studie kooperierte das Institut mit Gruppen der School of Life Sciences der Technischen Universität München (TUM), dem Department of Environmental Sciences des Helmholtz Zentrums München und der University of Warwick in Großbritannien.
Helmholtz Zentrum München
Das Helmholtz Zentrum München verfolgt als Forschungszentrum die Mission, personalisierte medizinische Lösungen zur Prävention und Therapie von umweltbedingten Krankheiten für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.500 Mitarbeitende und ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands mit mehr als 40.000 Mitarbeitenden in 19 Forschungszentren.
Wissenschaftliche Ansprechpartner:
Prof. Pascal Falter-Braun
pascal.falter-braun@helmholtz-muenchen.de
Originalpublikation:
Altmann & Altmann et al., 2020: Extensive signal integration by the phytohormone protein network. Nature, DOI: 10.1038/s41586-020-2460-0
Quelle: IDW
Wenn Sprachassistenten zuhören, obwohl sie gar nicht sollen
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Welche Wörter Sprachassistenten versehentlich anspringen lassen, haben Forscherinnen und Forscher der Ruhr-Universität Bochum (RUB) und des Bochumer Max-Planck-Instituts (MPI) für Cybersicherheit und Schutz der Privatsphäre untersucht. Sie erstellten eine Liste von englischen, deutschen und chinesischen Begriffen, die von verschiedenen Sprachassistenten wiederholt als Aufforderung zum Zuhören fehlinterpretiert wurden. Immer wenn die Systeme anspringen, schneiden sie eine kurze Sequenz des Gesagten mit und übermitteln die Daten an den Hersteller, teilweise ohne dass die Nutzerinnen und Nutzer das bemerken.
Die mitgelieferten Audioschnipsel werden dann von Angestellten der Konzerne transkribiert und überprüft. So können Fetzen von sehr privaten Unterhaltungen bei Firmen landen.
Über die Ergebnisse der Analyse berichteten die Süddeutsche Zeitung und der NDR am 30. Juni 2020. Beispiele aus der Arbeit der Forscherinnen und Forscher sind unter unacceptable-privacy.github.io zu finden.
Für das Projekt kooperierte Lea Schönherr aus der RUB-Arbeitsgruppe Kognitive Signalverarbeitung von Prof. Dr. Dorothea Kolossa am Horst-Görtz-Institut für IT-Sicherheit (HGI) der RUB mit Dr. Maximilian Golla, früher ebenfalls am HGI, jetzt am MPI für Sicherheit und Privatsphäre, sowie Jan Wiele und Thorsten Eisenhofer vom HGI-Lehrstuhl für Systemsicherheit von Prof. Dr. Thorsten Holz.
Alle großen Hersteller im Test
Die IT-Expertinnen und -Experten testeten die Sprachassistenten von Amazon, Apple, Google, Microsoft und Deutscher Telekom sowie drei chinesische Modelle von Xiaomi, Baidu und Tencent. Sie spielten ihnen stundenlang deutsches, englisches und chinesisches Audiomaterial vor, unter anderem einige Staffeln aus den Serien „Game of Thrones“, „Modern Family“ und „Tatort“ sowie Nachrichtensendungen. Auch professionelle Audio-Datensätze, die zum Training von Sprachassistenten verwendet werden, waren dabei.
Alle Sprachassistenten waren mit einer Diode versehen, die registrierte, wann die Aktivitätsanzeige des Sprachassistenten aufleuchtete, das Gerät also sichtbar in den aktiven Modus schaltete und somit ein Trigger auftrat. Außerdem registrierte das Setup, wann ein Sprachassistent Daten nach außen sendete. Immer wenn eines der Geräte in den aktiven Modus schaltete, protokollierten die Forscher, bei welcher Audiosequenz das der Fall war. Manuell werteten sie später aus, welche Begriffe den Sprachassistenten getriggert hatten.
Fehltrigger identifiziert und selbst erzeugt
Aus diesen Daten erstellte das Team eine erste Liste von über 1.000 Sequenzen, die Sprachassistenten fälschlicherweise triggern. Abhängig von der Betonung hört Alexa im Englischen beispielsweise auf die Wörter „unacceptable“ und „election“ oder Google auf „OK, cool“. Im Deutschen lässt sich Amazon beispielsweise durch „Am Sonntag“ und Siri durch den Begriff „Daiquiri“ täuschen.
Um zu verstehen, was diese Begriffe zu Fehltriggern macht, zerlegten die Forscherinnen und Forscher die Wörter in ihre kleinstmöglichen Klangeinheiten und identifizierten die Einheiten, die häufig von den Sprachassistenten verwechselt wurden. Basierend auf diesen Erkenntnissen erzeugten sie neue Triggerwörter und zeigten, dass diese die Sprachassistenten ebenfalls anspringen lassen.
„Die Geräte sind mit Absicht etwas liberal programmiert, weil sie ihre Menschen verstehen können sollen. Sie springen also eher einmal zu viel als zu wenig an“, resümiert Dorothea Kolossa.
Audioschnipsel werden in der Cloud analysiert
Die Wissenschaftler untersuchten genauer, wie die Hersteller Fehltrigger auswerten. Typisch ist ein zweistufiger Prozess. Zunächst analysiert das Gerät lokal, ob in der wahrgenommenen Sprache ein Triggerwort enthalten ist. Vermutet das Gerät, das Aktivierungswort gehört zu haben, fängt es an, dass derzeitige Gespräch für eine weitere Analyse mit mehr Rechenpower in die Cloud des Herstellers hochzuladen. Identifiziert die Cloud-Analyse den Begriff als Fehltrigger, bleibt der Sprachassistent stumm, nur seine Kontrollleuchte leuchtet kurz auf. In diesem Fall können bereits mehrere Sekunden Audiomitschnitt bei den Herstellern landen, wo sie von Menschen transkribiert werden, um solch einen Fehltrigger in der Zukunft zu vermeiden.
„Aus Privacy-Sicht ist das natürlich bedenklich, weil teils sehr private Unterhaltungen bei Fremden landen können“, sagt Thorsten Holz. „Aus Engineering-Sicht ist das Vorgehen hingegen nachvollziehbar, denn die Systeme können nur mithilfe solcher Daten verbessert werden. Die Hersteller müssen einen Spagat zwischen Datenschutz und technischer Optimierung schaffen.“
Wissenschaftliche Ansprechpartner:
Lea Schönherr
Kognitive Signalverarbeitung
Fakultät für Elektrotechnik und Informationstechnik
Ruhr-Universität Bochum
Tel.: +49 234 32 29638
E-Mail: lea.schoenherr@rub.de
Dr. Maximilian Golla
Max-Planck-Institut für Cybersicherheit und Schutz der Privatsphäre
Tel.: +49 234 32 28667
E-Mail: maximilian.golla@csp.mpg.de
Quelle: IDW
Seegraswiesen am Limit
Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Seegraswiesen geraten zunehmend in Bedrängnis durch ungeklärte Abwässer, die ins Meer geleitet werden. In einer aktuellen Studie im Fachjournal Marine Environmental Research benennen der Biogeochemiker Tim Jennerjahn vom Leibniz-Zentrum für Marine Tropenforschung (ZMT) und sein Team erstmals jenen kritischen Punkt, ab dem dieser für die Umwelt so wichtige Lebensraum unrettbar verlorengeht.
Seegraswiesen wachsen in den flachen Küstenmeeren und bedecken weltweit eine Fläche von nahezu 18 Millionen Hektar. Vor einigen Jahren schätzten Wissenschaftler den ökonomischen Wert dieses Lebensraums auf 19.000 US-Dollar pro Jahr und Hektar – mehr als doppelt so viel wie Mangroven, Korallenriffen oder dem tropischen Regenwald zugeschrieben wurde.
Doch wie andere Küstenökosysteme sind auch Seegraswiesen stark bedroht durch die Eutrophierung der Küstengewässer und die fortschreitende Nutzung und Entwicklung der Küstenzonen. Über ein Jahrzehnt erforschten Tim Jennerjahn, Biogeochemiker am ZMT, und sein Team Seegraswiesen vor der Insel Hainan im südchinesischen Meer, die seit den 80er Jahren zunehmend durch Abwässer aus Aquakulturanlagen beeinträchtigt werden.
Die lange Zeitspanne ermöglichte es den Forschern, den langsamen Verfall dieses Ökosystems zu verfolgen und genaue Aussagen zu machen über den Einfluss der stickstoffreichen Abwässer aus den Zuchtanlagen. „Es gelang uns erstmalig einen Grenzwert der Stickstoffbelastung zu ermitteln, ab dem der Lebensraum Seegraswiese sich nicht mehr von diesem Umweltstress erholen kann und stirbt“, so Jennerjahn. „Er liegt bei einer Konzentration von 112 Mikrogramm gelöstem anorganischen Stickstoff pro Liter Wasser, der über einen Zeitraum von mindestens zehn Jahren einwirkt.“
Die Anzahl der Aquakulturanlagen vor allem für Garnelen und Zackenbarsche hat als lukrative Einnahmequelle in den letzten Jahrzehnten in ganz Südostasien explosiv zugenommen. Im Untersuchungsgebiet der Forscher auf Hainan säumen über 40 km² an Zuchtteichen mit sehr hohen Besatzdichten die Küste. Überschüssige Nahrung und die Ausscheidungen der Tiere reichern sich in den Teichen an, wobei viel anorganischer Stickstoff freigesetzt wird. Das stickstoffreiche Wasser der Anlagen wird unbehandelt in das Küstenmeer abgeleitet.
An unterschiedlich stark belasteten Standorten in den Seegraswiesen entlang der Küste trugen die Forscher einen großen Datensatz von über 1.000 Messwerten zusammen. Dazu zählten Daten zu Biomasse und Artenvielfalt der Seegräser, zur Menge an Algenbewuchs auf den Seegräsern und zum Nährstoffgehalt im Wasser.
Da Stickstoff auch durch landwirtschaftliche Düngemittel und Abwässer aus dem Hinterland ins Küstenmeer gelangen kann, führten die Wissenschaftler eine Isotopenanalyse durch und konnten so die Zuchtanlagen als Hauptquelle für den Stickstoffeintrag identifizieren. Die hohen Stickstoffkonzentrationen aus den Teichen kurbeln das Wachstum von Phytoplankton und Epiphyten an – Kleinalgen, die auf den Seegräsern wachsen. Sie beschatten die Seegräser und behindern die lebensnotwendige Photosynthese.
„Wir konnten feststellen, dass unter dieser chronischen Belastung in nur zehn Jahren 87% der Biomasse der Seegraswiesen verschwunden ist und ihr Artenreichtum enorm abgenommen hat,“ erklärt Esther Thomsen, Biologin am ZMT und Erstautorin der Studie.
Man geht davon aus, dass Seegräser im Laufe ihrer Evolution vor 100 Mio. Jahren vom Land zurück ins Meer gewandert sind. Daher zeigen sie noch typische Merkmale von Landpflanzen, ihre nächsten Verwandten sind die Lilien. Im Gegensatz zu Algen besitzen Seegräser ein Wurzelwerk, das ihnen im Meeressediment Halt bietet. Man findet sie in den Flachwasserbereichen der Tropen, Subtropen und gemäßigten Breiten, so etwa auch im Mittelmeer und in Nord- und Ostsee.
Seegraswiesen reichern ihre Umgebung mit Sauerstoff an und binden gleichzeitig große Mengen des Treibhausgases Kohlendioxid, mehr sogar als Regenwälder. Sie dienen einer großen Anzahl von Speisefischen und Schalentieren als Kinderstube und sind eine Futterquelle für große Meerestiere wie Schildkröten und Seekühe. Mit ihren Wurzeln festigen die Seegräser das Sediment am Meeresboden und verhindern so die Küstenerosion.
„Wir möchten mit unserem Projekt einen Beitrag zum Erhalt dieses wertvollen Ökosystems leisten und stehen daher in engem Austausch mit Entscheidungsträgern und der breiten Öffentlichkeit vor Ort. Unter anderem organisieren wir Citizen Science Projekte und Trainings für Aquakulturfarmer, um für die Problematik zu sensibilisieren“, berichtet Tim Jennerjahn. „Mit den hier ermittelten konkreten Werten zur Stickstoffbelastung können wir nun auch Entscheidungshilfen geben.“
Wissenschaftliche Ansprechpartner:
Kontakte
Dr. Tim Jennerjahn
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 / 23800-44
E-Mail: tim.jennerjahn@leibniz-zmt.de
Esther Thomsen
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 / 23800-79
E-Mail: esther.thomsen@leibniz-zmt.de
Originalpublikation:
Thomsen, E., Herbeck, L.S., Jennerjahn, T.C. (2020). The end of resilience: Surpassed nitrogen thresholds in coastal waters led to severe seagrass loss after decades of exposure to aquaculture effluents: Long-term aquaculture effluents exposure causes seagrass loss. Marine Environmental Research 160, 104986.
https://doi.org/10.1016/j.marenvres.2020.104986
Quelle: IDW
Digitale Wasserwirtschaft: Lücken in der Cybersicherheit
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Die Digitalisierung macht sich auch im Wassersektor bemerkbar. Der Begriff „Wasser 4.0″ verweist auf die neuen digitalen Möglichkeiten für eine flexible, ressourceneffiziente und wettbewerbsfähige Wasserwirtschaft – intelligente Mess- und Regelsysteme etwa, die inzwischen die Bedienung per Hand ersetzen können. Prozesse und Bestandteile der Wasserversorgung und Abwasserbeseitigung, wie Aufbereitungsanlagen, Ventile, Schieber oder Pumpen, lassen sich „smart“ steuern. Doch die fortschreitende Digitalisierung in Unternehmen kann deren Anfälligkeit für Cyberangriffe erhöhen.
Wasserexperten des ISOE weisen in der Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis (TATuP) darauf hin, dass sich vor allem bei kleinen Unternehmen Sicherheitslücken auftun.
Das IT-Sicherheitsgesetz weist sie als „Kritische Infrastrukturen“ aus: die Leitungen, Rohre und Kanäle der Wasserversorgung und Abwasserbeseitigung und alle dazugehörigen technischen Vorrichtungen, die zur Bereitstellung von Trinkwasser oder Betriebswasser und zur Ableitung und Behandlung von Abwasser benötigt werden. Sie gelten als besonders schützenswert, weil sie einen wichtigen Beitrag zur Daseinsvorsorge leisten, also der Grundversorgung der Bevölkerung dienen. Im Zuge der Digitalisierung werden diese als kritisch eingestuften Infrastrukturen noch „verletzlicher“, denn sie sind, wie alle smarten Anwendungen, möglichen Cyberangriffen ausgesetzt.
„Wir beobachten, dass die Anfälligkeit der digitalen Systeme sowohl für gezielte Sabotage und Cyberangriffe als auch für menschliches und technisches Versagen in der Fachdebatte zu Wasser 4.0 nicht hinreichend berücksichtigt wird,“ sagt Wasserexperte Martin Zimmermann vom ISOE – Institut für sozial-ökologische Forschung. „Es sind vor allem die vielen kleinen Unternehmen der Siedlungswasserwirtschaft, die die Digitalisierung vor große Probleme stellt, denn sie können die hohen Anforderungen an IT-Sicherheits- und Datenschutzmaßnahmen schlichtweg nicht erfüllen.“ Bei den kleineren Unternehmen setze sich auch deshalb der Trend hin zu smarten, vernetzten und automatisierten Wasserversorgungs- und -entsorgungssystemen mit stärkerer Kundenorientierung nur zögerlich durch.
Cyberkriminalität im Wassersektor – Bedrohungsszenarien für Mensch und Natur
„Die verantwortlichen Behörden haben sich lange fatalerweise auf die großen Anlagen und Einzugsgebiete konzentriert. Da aber gerade in Deutschland die Siedlungswasserwirtschaft sehr stark kommunal organisiert ist, müssen Regularien zum Schutz der Kritischen Infrastrukturen künftig unbedingt auch den Bedarf der kleineren und mittleren Unternehmen berücksichtigen“, ist sich Martin Zimmermann sicher. Denn die Bandbreite für mögliche Sicherheitsausfälle bis hin zu gezielter Cyberkriminalität sei groß.
Zu den sogenannten vulnerablen, also verletzlichen Bestandteilen der Wasserversorgung gehören alle Bereiche der Siedlungswasserwirtschaft, von der Wassergewinnung und -aufbereitung über die Wasserverteilung bis hin zur Abwasserbeseitigung. „In all diesen Bereichen der Siedlungswasserwirtschaft sind Manipulationsversuche grundsätzlich möglich“, sagt Martin Zimmermann. Naheliegend seien Manipulationen an der Rohwassergewinnung aus Grundwasser, Seen oder Talsperren oder auch Angriffe auf Prozesse der Wasseraufbereitung im Wasserwerk. Auch kann der Ausfall von Pumpen zu Versorgungsproblemen bei der Wasserverteilung führen.
Es seien aber auch Szenarien vorstellbar, bei denen sich gezielte Cyberangriffe auf spezifische Branchen oder begrenzte Gebiete richteten. Denkbar seien hier etwa Finanzdistrikte wie das Frankfurter Bankenviertel oder auch Internetknoten und Rechenzentren, deren Kühlungsanlagen auf Wasser angewiesen sind. Als kritisch müsse man auch die Versorgung von Wohn- und Bürotürmen durch private Dienstleister ansehen. Durch die Vergabe von Betriebs- und Wartungsarbeiten an externe Facility-Management-Anbieter sei ein weiteres Einfallstor hinsichtlich der Cybersicherheit gegeben. „Insgesamt betrachtet, sind die Bedrohungslagen für Gesellschaft und Natur vielfältig“, sagt Martin Zimmermann. „Für beide können sich je nach Szenario – vorübergehende Funktionsstörung einzelner Komponenten bis hin zum Totalausfall der Wasserversorgung und Abwasserentsorgung – sehr unterschiedliche Reichweiten und Gefährdungslagen ergeben.
IT-Sicherheitsgesetz jetzt nachbessern
Martin Zimmermann und seine Mitautoren weisen deshalb in ihrem Artikel „Siedlungswasserwirtschaft im Zeitalter der Digitalisierung“ (TATuP 29/1 2020) darauf hin, dass die bevorstehende Novellierung des deutschen IT-Sicherheitsgesetzes einen guten Zeitpunkt bietet, um die Sicherheitsprobleme der kleineren Unternehmen zu berücksichtigen.
Weil die Cybersicherheit „die Achillesverse der Digitalisierung in der Siedlungswasserwirtschaft“ sei, empfehlen die ISOE-Autoren den kleineren Unternehmen zudem, untereinander zu kooperieren. „Wenn nicht jedes Unternehmen der Wasserversorgung und Abwasserbeseitigung ausreichend eigene Kompetenzen zur IT-Sicherheit aufbauen kann, könnten Kooperationen zwischen mehreren kleinen Unternehmen ein gutes Mittel sein, um Synergieeffekte zu erzielen. So könnten sie sich gegenseitig in Fragen der Cybersicherheit unterstützen“, sagt Martin Zimmermann.
Wissenschaftliche Ansprechpartner:
Dr. Martin Zimmermann
Forschungsschwerpunktleiter
Wasserinfrastruktur und Risikoanalysen
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 69 19-44
zimmermann@isoe.de
www.isoe.de
Originalpublikation:
Zimmermann, Martin/Engelbert Schramm/Björn Ebert (2020): Siedlungswasserwirtschaft im Zeitalter der Digitalisierung. TATuP 29 (1), 37-43
Weitere Informationen:
https://www.tatup.de/index.php/tatup/issue/view/166/171
Quelle: IDW
So wirkt die Temperatur auf Sars-Cov-2
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Auch wenn die Ansteckung mit dem neuartigen Coronavirus wohl vor allem über Tröpfchen geschieht, sind Übertragungen über Oberflächen nicht ausgeschlossen, vor allem in Krankenhäusern. Ein schweizerisch-deutsches Forschungsteam hat untersucht, wie lange getrocknete Sars-Cov-2-Partikel auf Oberflächen bei verschiedenen Temperaturen infektiös bleiben. „Überraschenderweise ist es dafür unerheblich, ob es sehr kalt oder sehr heiß ist“, fasst Prof. Dr. Stephanie Pfänder von der Abteilung für Molekulare und Medizinische Virologie der Ruhr-Universität Bochum (RUB) zusammen. Die Studie ist im Journal of Infection vom 30. Mai 2020 veröffentlicht.
Ansteckungsgefahr sinkt in der ersten Stunde stark
Die Infektiosität der Viren reduzierte sich im Verlauf der Eintrocknung auf Metallplättchen innerhalb der ersten Stunde um das 100-fache. In den folgenden vier bis acht Stunden sank die Anzahl infektiöser Partikel zunächst kaum und anschließend langsam weiter ab, allerdings nahezu unabhängig von der Temperatur.
Die Forscherinnen und Forscher fanden noch 180 Stunden, also über eine Woche nach dem Aufbringen der Viren, ansteckende Partikel auf den Metallproben. Bei vier Grad Celsius halbierte sich die Zahl der ansteckenden Viruspartikel nach etwa 13 Stunden, bei Raumtemperatur nach rund neun Stunden, bei 30 Grad Celsius nach etwa 18 Stunden. „Bisher hatte man angenommen, dass die Temperatur dazu beiträgt, dass Sars-Cov-2 sich im Sommer weniger gut überträgt“, sagt Stephanie Pfänder. „Zumindest auf Oberflächen scheint die Stabilität der Viren durch die verschiedenen Temperaturen aber nicht beeinträchtigt zu sein.“ Eine potenziell geringere Ansteckungsrate im Sommer könne jedoch auf anderen Faktoren wie UV-Strahlung und Luftfeuchtigkeit beruhen.
Förderung
Die Arbeiten wurden gefördert vom Bundesministerium für Bildung und Forschung im Projekt Rapid #01KI1723A und im Nationalen Forschungsschwerpunkt RNA and Disease durch den Schweizerischen Nationalfonds zur Förderung der wissenschaftlichen Forschung.
Originalveröffentlichung
Annika Kratzel, Silvio Steiner, Daniel Todt, Philip V’kovski, Yannick Brüggemann, Joerg Steinmann, Eike Steinmann, Volker Thiel, Stephanie Pfaender: Temperature-dependent surface stability of SARS-CoV-2, in: Journal of Infection 2020, DOI: 10.1016/j.jinf.2020.05.074, https://www.journalofinfection.com/article/S0163-4453(20)30352-2/pdf
Pressekontakt
Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de
Originalpublikation:
Annika Kratzel, Silvio Steiner, Daniel Todt, Philip V’kovski, Yannick Brüggemann, Joerg Steinmann, Eike Steinmann, Volker Thiel, Stephanie Pfaender: Temperature-dependent surface stability of SARS-CoV-2, in: Journal of Infection 2020, DOI: 10.1016/j.jinf.2020.05.074, https://www.journalofinfection.com/article/S0163-4453(20)30352-2/pdf
Quelle: IDW
Studie zu Biodiversität in Grünanalgen: Natur ja, aber kein Wildwuchs
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Grünflächen in unseren Städten werden zunehmend als Wiesen belassen, um die Artenvielfalt zu fördern. Doch immer wieder bemängeln die Anwohner, naturnahes Stadtgrün wirke „unordentlich“, begrenze Freizeitaktivitäten oder sie befürchten Zecken beziehungsweise Allergien. Ein Forschungsteam um Prof. Leonie Fischer von der Universität Stuttgart, Dr. Lena Neuenkamp von der Universität Bern und Dr. Valentin Klaus von der ETH Zürich untersuchte jetzt in einer europaweiten Studie, was die Akzeptanz biodiversitäts-freundlicher Pflegemaßnahmen erhöht.
Die weltweit zunehmende Urbanisierung einerseits und das Artensterben auf der anderen Seite erfordern es, die biologische Vielfalt verstärkt auch in Städten zu fördern. Daher werden Parks, Gärten, Spielplätze oder Friedhöfe heute oft so gestaltet, dass sie eine Alternative zu den schwindenden natürlichen Lebensräumen für Wildtiere und -pflanzen bieten. Lokale Ansätze, die die Natur in der Stadt unterstützen, müssen allerdings so geplant und gemanagt werden, dass die Menschen in der Stadt sie verstehen und akzeptieren.
Um herauszufinden, wie die Bevölkerung über die naturnahe Pflege öffentlicher Grünflächen denkt und wie „Natur in der Stadt“ funktionieren kann, befragte die Forschungsgruppe mehr als 2.000 Studienteilnehmer*innen in 19 europäischen Städten. Dabei stellten die Wissenschaftler*innen häufig gemähte Rasenflächen, die meist nur sehr wenigen Tier- und Pflanzenarten Lebensraum bieten, hochwachsenden naturnahen Wiesenflächen gegenüber. Letztere beherbergen zwar eine deutlich höhere Artenvielfalt und ermöglichen daher spannende Naturbeobachtungen, scheiden aber für Freizeitaktivitäten wie zum Beispiel Ballspielen oder Sonnenbaden aus und wirken insbesondere bei zunehmender Trockenheit eher ungepflegt.
„Europaweit befürwortet der Großteil der städtischen Bevölkerung eine Förderung der städtischen Artenvielfalt, und zwar insbesondere dann, wenn dies im Rahmen eines allgemein ‚aufgeräumten‘ und ordentlichen Erscheinungsbildes des öffentlichen Grüns passiert“, fasst Prof. Leonie Fischer vom Institut für Landschaftsplanung und Ökologie der Universität Stuttgart die Ergebnisse der Studie zusammen. „Sobald Grünflächen ungepflegt und trocken aussehen, geht die Zustimmung zurück.“ Insbesondere jüngere Menschen und diejenigen, die Grünflächen für eine Vielzahl unterschiedlicher Aktivitäten nutzen, sprachen sich für eine biodiversitätsfreundliche Pflege der Flächen aus.
Naturnahe und klassische Elemente kombinieren
Die Studie ermutigt Städteplaner*innen in und außerhalb Europas, sich aktiv für die Förderung der städtischen Artenvielfalt einzusetzen. „Um ein gepflegtes Erscheinungsbild zu erreichen, sollten dabei sowohl naturnahe, als auch klassische Elemente des städtischen Grüns kombiniert werden, wie etwa rasenähnliche Mähstreifen an den Rändern von hochwachsenden Wiesen“, erläutert Fischer. Parallel dazu seien Maßnahmen der Umweltbildung und -information entscheidend, um kritische Menschen in der Stadt anzusprechen und über die positiven Auswirkungen naturnaher Grünflächenpflege auf die Biodiversität aufzuklären. „Unter Berücksichtigung dieser Voraussetzungen scheinen die Türen für die Förderung der Biodiversität auf öffentlichen Grünflächen weit offen zu stehen.“ Profitieren können davon die Biodiversität, aber auch Bürgerinnen und Bürger.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Leonie Fischer, Universität Stuttgart, Institut für Landschaftsplanung und Ökologie Tel. +49 (0) 711 685 83380 E-Mail: leonie.fischer@ilpoe.uni-stuttgart.de
Originalpublikation:
Leonie K. Fischer, Lena Neuenkamp et al.: Public attitudes towards biodiversity-friendly greenspace management in Europe, in Conservation Letters, Mai 2020
https://conbio.onlinelibrary.wiley.com/doi/full/10.1111/conl.12718
Quelle: IDW
Innovative Textilien für Gesichtsmasken können SARS-CoV-2 direkt inaktivieren, wie Forscher aus Berlin und Aachen zeigen
Carsten Wette Stabsstelle für Presse und Kommunikation
Freie Universität Berlin
Forscher der Freien Universität Berlin am Institut für Tier- und Umwelthygiene und des Instituts für Textiltechnik (ITA) der RWTH Aachen University haben bei der Erforschung von alternativer persönlicher Schutzausrüstung innovative Textilien für Gesichtsmasken untersucht, die den Erreger Sars-CoV-2 direkt inaktivieren. Die Tests wurden im Rahmen des von der Europäischen Union geförderten EIT-Gesundheitsprojektes ViruShield durchgeführt, das sich zum Ziel gesetzt hat, alternative Materialien für Gesichtsmasken vor dem Hintergrund eines knappen Angebots und global unausgewogener Lieferketten für persönliche Schutzausrüstung zu finden.
Während die Forscher des Institut für Textiltechnik (ITA) der RWTH Aachen University die chemischen und physikalischen Eigenschaften verschiedener Textilien für Gesichtsmasken untersuchten, konnten die Forscher der Freien Universität Berlin nachweisen, dass neuartige, von der Schweizer Firma Livinguard entwickelte Textilien im Vergleich zu bisher üblichen für die Maskenproduktion genutzten Materialien hohe Mengen an SARS-CoV-2-Viruspartikeln innerhalb weniger Stunden um bis zu 99,9 Prozent reduzieren können. „Die Textilien in diesen Masken können so die ausgeatmeten und an der Gesichtsmaske anhaftenden Viren kontinuierlich inaktivieren und den Umgang mit diesen Masken insgesamt sicherer machen“, erläutert Professor Dr. Uwe Rösler vom Institut für Tier- und Umwelthygiene der Freien Universität Berlin. „Darüber hinaus könnten solche Textilien auch dazu beitragen, Hygieneprobleme in anderen allgemeinen und medizinischen Bereichen, auch über COVID-19 hinaus, zu reduzieren.“
Das neuartige Coronavirus SARS-CoV-2 kann durch luftgetragene Tröpfchen und Aerosole übertragen werden. Aus diesem Grund empfehlen Regierungen und Gesundheitsbehörden weltweit sowie die Weltgesundheitsorganisation das Tragen von Gesichtsmasken, um andere Menschen und in geringem Maße auch sich selbst zu schützen. Diese Gesichtsmasken können SARS-CoV-2-haltige Tröpfchen zurückhalten, die beim Ausatmen, Husten und Niesen entstehen.
Beim Umgang mit kontaminierten Gesichtsmasken ist jedoch große Vorsicht geboten, und nach dem Gebrauch müssen die Masken entweder entsorgt werden, oder die Viren können durch Waschen bei höheren Temperaturen oder durch Mikrowellenbehandlung inaktiviert werden.
Das Prinzip der Livinguard-Technologie besteht darin, die Textiloberfläche mit einer starken positiven Ladung zu versehen. Wenn Bakterien und Viren mit der Technologie in Kontakt kommen, wird die negativ geladene mikrobielle Zelle zerstört, was zu einer dauerhaften Vernichtung der Krankheitserreger führt. Im Gegensatz zu alternativen Lösungen auf Metallbasis hat sich die neuartige Technologie als sicher für Haut und Lunge erwiesen. Darüber hinaus ist die Livinguard-Technologie sehr nachhaltig und ermöglicht es den Anwendern, die Maske bis zu 200 Mal wiederzuverwenden, ohne dass die Sicherheit oder Wirksamkeit beeinträchtigt wird.
Weitere Informationen
Über Institut für Tier- und Umwelthygiene der Freien Universität Berlin:
Das Institut für Tier- und Umwelthygiene (kurz ITU) widmet sich hygienischen Fragestellungen in der Tiermedizin und im Verbraucher- und Umweltschutzschutz sowie der Bekämpfung zoonotischer Infektionskrankheiten. Diese Forschungsgebiete werden in in nationalen und internationalen, interdisziplinären Forschungsverbünden untersucht.
Ansprech- und Interviewpartner:
Univ.-Prof. Dr. Uwe Rösler, Institut für Tier- und Umwelthygiene der Freien Universität Berlin; Telefon: +49 (0) 30 8385 1845, E-Mail: uwe.roesler@fu-berlin.de
Über das Institut für Textiltechnik (ITA) der RWTH Aachen University:
Das Institut für Textiltechnik (ITA) der RWTH Aachen University ist als universitäre Forschungs- und Lehreinrichtung der Kern der ITA Group, www.ita.rwth-aachen.de. Die ITA Group versteht sich als ein international agierender Forschungs- und Ausbildungsdienstleister mit ca. 400 Mitarbeitern und Mitarbeiterinnen für faserbasierte Hochleistungswerkstoffe, textile Halbzeuge und deren Fertigungsverfahren.
Ansprech- und Interviewpartner:
Dr. David Schmelzeisen, Institut für Textiltechnik (ITA) der RWTH Aachen University; Telefon: +49 (0)152 294 416 41; E-Mail: David.Schmelzeisen@ita.rwth-aachen.de
Über Livinguard:
Livinguard ist eine umweltfreundliche Hygienetechnologie-Plattform mit Sitz in Zug, Schweiz. Als weltweit erstes Unternehmen, das Textilien und andere Materialien mit selbstdesinfizierenden Eigenschaften ausstattet, lizenziert es seine patentierten Technologien an Unternehmen aus verschiedenen Branchen, um die Gesundheit und das Wohlbefinden der Verbraucher zu verbessern. Livinguard AG ist in der Schweiz, Deutschland, USA, Singapur, Japan, Indien und Südafrika tätig.
www.livinguard.com
Ansprech- und Interviewpartnerin:
Victoria Banaszak, Telefon: +41 41 726 16 76, E-Mail: victoria.banaszak@livinguard.com
Quelle: IDW
Können Viren ins Grund- und Trinkwasser gelangen?
TU Berlin: Viren in Grund- und Trinkwasser
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
An der TU Berlin werden Simulationen durchgeführt für eine Risikoabschätzung des Transports von Viren im Grundwasser
„Keime und Viren können sich auch über Oberflächen- und Grundwasser verbreiten und unter ungünstigen Bedingungen das Rohwasser von Trinkwasser-Förderbrunnen erreichen“, sagt Prof. Dr. Irina Engelhardt, die das Fachgebiet Hydrogeologie an der TU Berlin leitet. „Sie gelangen durch Ausscheidungen von Menschen und Tieren ins Abwasser und damit in die Oberflächengewässer.“ Besonders Flüsse in Ballungsgebieten seien gefährdet.
Um Risiken einschätzen zu können und Trinkwasserversorgern mehr Entscheidungshilfen zu geben, wann ein Risikofall vorliegt, erforscht sie mit ihrem Team das Transportverhalten verschiedener Viren- und Bakterienarten im Grundwasser. Die zentrale Frage ist dabei: Wie lange und unter welchen Bedingungen bleiben Viren im Grundwasser aktiv und in welcher Konzentration könnten sie ins Rohwasser gelangen? Studien haben gezeigt, dass Kläranlagen Viren oft nur unzureichend entfernen können, so dass sie zum Beispiel im Rhein gemessen wurden. Unter günstigen Umweltbedingungen ist das Rückhaltevermögen des Untergrunds jedoch hoch genug und in Kombination mit effektiver Trinkwasseraufbereitung ist es sehr unwahrscheinlich, dass pathogene Mengen an Viren bis in das Trinkwasser gelangen.
Humanpathogene Viren, also Viren, die Menschen infizieren, können verschiedene gefährliche Krankheiten wie Atemwegserkrankungen oder Bindehautentzündungen auslösen. Ein potenzieller Infektionspfad kann die Nutzung von verunreinigtem Grund- oder Flusswasser für Trinkwasserzwecke sein. „Wir wollen unter anderem ein Simulationsmodell entwickeln und damit ein modernes Werkzeug, das es ermöglicht, den Transport von Viren im Untergrund und das Risiko für Trinkwasserfassungen durch Uferfiltration abzuschätzen“, erklärt Irina Engelhardt das Ziel des Projekts „Transport von Viren bei der Uferfiltration“, das von der Deutschen Bundesstiftung Umwelt finanziert und zusammen mit der Universität Wien und Praxispartnern wie den Stadtwerken Düsseldorf und der Firma VisDat Geodatentechnologie GmbH durchgeführt wird.
Auch Viren können über den Menschen zunächst ins Abwasser und damit in das Grundwasser gelangen
Viren und Bakterien aus Ausscheidungen von Menschen und Tieren im Abwasser, gelangen über den Abfluss von Kläranlagen oder die Aufbringung von Gülle auf Felder in die Umwelt. Über Oberflächenabfluss oder Flusswasserinfiltration können sie schließlich ins Grundwasser migrieren. „Der Transport von Viren im Grundwasser ist dann von vielen Faktoren abhängig, unter anderem von Sauerstoffgehalt und Temperatur des Wassers sowie von der Strömungsgeschwindigkeit des Grundwassers“, so Irina Engelhardt. „Für den Rückhalt erwartbar ungünstig wäre beispielsweise ein sommerliches Hochwasserereignis im Fluss in Kombination mit sauerstofffreien Bedingungen im Grundwasserleiter.“ Besonders Flüsse in Ballungsgebieten wie der Rhein im Ruhrgebiet oder die Spree in Berlin seien mit Abwasser belastet, wobei sich die Situation durch ausbleibende Niederschläge und niedrige Pegelstände der Flüsse nochmal verschlechtere.
Durch den langen Weg, den das Wasser vom Fluss zum Brunnen durch den Untergrund zurücklegt, wird eine Kontamination sehr viel unwahrscheinlicher
Aus den Oberflächengewässern wird, wie in Berlin und vielerorts in Deutschland, Trinkwasser durch Uferfiltration gewonnen. Bei dieser Methode werden Brunnen zur Grundwasserentnahme in der Nähe von Flüssen oder Seen platziert, wie am Wasserwerk Jungfernheide. Das geförderte Grundwasser besteht dann zu einem hohen Anteil aus sogenanntem Uferfiltrat. Das ist Wasser, das aus dem Fluss kommend den ufernahen Untergrund passiert hat und dem Brunnen zuströmt. „Durch die Nähe zu den Flüssen ist diese Methode der Trinkwassergewinnung besonders anfällig für Kontaminationen, zum Beispiel durch Pathogene, also krankmachende Keime und Viren“, so Irina Engelhardt. Auch das neue Corona-Virus kommt in den Fäkalien von Menschen vor, sogar nachdem es schon in den Atemwegen nicht mehr nachweisbar ist. Sie könnten also über den Abwasser-Fluss-Grundwasser-Pfad potenziell auch im Rohwasser der Förderbrunnen landen. „Bei den meisten Trinkwassergewinnungsanlagen mittels Uferfiltration, beträgt die Durchflusszeit zwischen Fluss oder See und Förderbrunnen allerdings ein bis zwei Monate“, so die Hydrogeologie-Expertin Irina Engelhardt. „In der Regel sind die Virenkonzentrationen unter natürlichen Bedingungen nach dieser Zeit jedoch schon sehr gering, sodass keine Gefahr einer Trinkwasserverunreinigung besteht.“
Viren werden am Untergrund festgehalten und durch biologische Prozesse zerstört – doch manche „schlafen“ nur
„Teil unseres Projekts ist es, das Transportverhalten dieser Pathogene im Grundwasser, das noch unzureichend bekannt ist, weiter aufzuklären. Wir wissen, dass die Virenanzahl im Grundwasser mit der Zeit abnimmt. Sie werden am Untergrundmaterial zurückgehalten und durch verschiedene bio- und geochemische Prozesse zerstört. Dennoch können sie über mehrere Monate, vielleicht sogar Jahre, am Untergrundmaterial anhaften und weiterhin infektiös, quasi ‚schlafend‘ verweilen.“ Experimente zeigten, dass ohne einen erneuten Eintrag durch Flusswasser, Viren nach einiger Zeit im Grundwasser wieder identifiziert werden könnten. Sie lösten sich also wieder vom Untergrundmaterial ab. Untergrund und Uferfiltrationsstrecke vom Fluss zum Entnahmebrunnen besitzen also ein gewisses Rückhaltepotenzial für Viren und andere Keime, doch dieses, so die Forscherin, zeige Unterschiede für verschiedene Arten von Viren und Keimen. Daher könnten einzelne Indikatoren nur eingeschränkte Hinweise für einen generellen Kontaminationsfall geben. Die relevanten Fragen bei einer Risikobeurteilung für eine Uferfiltrationsanalage seien entsprechend: Wie hoch ist die Virenbelastung im Oberflächengewässer? Wie hoch ist das Rückhaltepotenzial der Uferfiltrationsstrecke, wie stark nimmt also die Konzentration beim Transport im Grundwasser ab? Welche Parameter müssen besonders aufmerksam beobachtet werden und welche Umweltsituation ist besonders kritisch? Vorhersagen und Modelle seien derzeit auf Grund der Komplexität der Prozesse noch mit einer hohen Unsicherheit behaftet.
Laborexperimente mit Uferfiltraten und Entwicklung eines Simulationsmodells
Um den Virentransport unter „quasi in-situ“ Bedingungen auf der natürlichen Feldskala zu untersuchen, wurden im Projekt ein Jahr lang Grundwasserproben zwischen Rhein und dem Wasserwerk Flehe, Düsseldorf, genommen und unter anderem auf Adenoviren untersucht. Ergänzende Laborexperimente untersuchten den Einfluss der Temperatur, der Redox-Bedingungen und der Sättigung auf den Virentransport unter kontrollierten Laborbedingungen. Erste Ergebnisse zeigen, dass Viren im Rhein zwar messbar sind, jedoch nur in geringen Konzentrationen, und dass das Rückhaltevermögen des Untergrunds gegen Viren dafür hoch genug ist. Aktuell wird der Transport von Viren mittels numerischer reaktiver Transportmodelle analysiert. Diese komplexen Modelle werden mit Sensitivitäts- und Unsicherheitsanalysen auf Schlüsselparameter- und -prozesse untersucht und dann mit Hilfe moderner mathematischer Verfahren in einem Surrogat-Modell vereinfacht. Dieses Surrogat-Modell wird dann in eine anwenderfreundliche Toolbox eingebaut, welche Anwendern aus der Praxis, wie Wasserwerkbetreibern, als Entscheidungshilfe dienen soll. Die Toolbox ermöglicht über ein anwenderfreundliches Interface den Transport von Viren, das Rückhaltepotenzial im Grundwasser und das Risiko für das Rohwasser bei der Uferfiltration abzuschätzen, ohne selbst komplexe Modellierungen durchführen zu müssen.
„Da immer noch viele Fragen über den Transport von Viren im Grundwasser offen sind, lassen sich derzeit mögliche Gefährdungen noch schwer im Detail abschätzen“, so Irina Engelhardt schließlich. „Jedoch ist der Ausbreitungspfad über das Grund- und damit in das Rohwasser für den neuartigen Corona-Virus eher von sehr geringer Bedeutung.“ In jedem Fall sei es auch für die Trinkwasserhygiene sinnvoll, die Anzahl der gleichzeitig Infizierten gering zu halten. „Ich empfehle die Strategie: flatten the curve.“
Projektwebsite: http://www.tu-berlin.de/?184777
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Irina Engelhardt
Technische Universität Berlin
Fakultät VI Planen Bauen Umwelt
Fachgebiet Hydrogeologie
Tel.: 030 314-24080
E-Mail: irina.engelhardt@tu-berlin.de
Quelle: IDW
Plastik in der Tiefsee: Nach einem Vierteljahrhundert noch wie neu
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Auch in den abgelegensten Regionen der Ozeane lassen sich mittlerweile Plastikteile nachweisen. Doch wie lange sie dort schon liegen, ist meist nicht feststellbar. Das macht auch Abschätzungen zum möglichen Abbau schwierig. Ein Team unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hat jetzt erstmals Kunststoffteile untersucht, die nachweislich 20 Jahre und länger in der Tiefsee verbracht haben. Wie die Forscherinnen und Forscher heute im Online-Fachjournal Scientific Reports veröffentlichen, konnten sie keine Spuren von Fragmentierung oder gar Abbau feststellen.
Kunststoffe sind haltbar. Das ist ihr großer Vorteil. Doch wenn sie unkontrolliert in die Umwelt gelangen, wird dieser Vorteil zum Nachteil. Ein natürlicher Abbau, wie bei organischen Stoffen, findet nach heutigen Erkenntnissen nicht statt. Wie lange einzelne Produkte wirklich in der Umwelt verbleiben, kann nur geschätzt werden. Es fehlen entsprechende Langzeitversuche.
Besonders schwierig ist dies in der Tiefsee. Sie ist selbst nur wenig erforscht. Plastikteile, die zufällig mit Hilfe von Tiefseerobotern oder Tauchbooten gefunden werden, sind kaum datierbar. Forscherinnen und Forscher des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, des Max-Planck-Instituts für Marine Mikrobiologie in Bremen sowie der Christian-Albrechts-Universität zu Kiel konnten während einer Expedition mit dem deutschen Forschungsschiff SONNE im Jahr 2015 allerdings mehrere Müllteile vom mehr als 4000 Meter tiefen Boden des Ostpazifiks bergen, deren Alter sich mit etwas Detektivarbeit recht genau feststellen ließ. Sie boten erstmals die Gelegenheit für eine Langzeitanalyse von Plastikabbau in der Tiefsee. Die Studie ist heute im internationalen Fachjournal Scientific Reports erschienen.
Eigentlich war das Team 2015 für ein anderes Langzeitexperiment im sogenannten DISCOL-Gebiet 440 Seemeilen (815 km) vor der Küste Perus im Einsatz. Dort hatten deutsche Wissenschaftler 1989 ein Stück Meeresboden umgepflügt, um die Auswirkungen eines potenziellen Abbaus von Manganknollen verstehen zu können. 1992, 1996 und eben 2015 besuchten sie die Stelle erneut, um die Regeneration des Tiefseeökosystems zu untersuchen.
Quasi nebenbei barg der ferngesteuerte Tiefseeroboter ROV KIEL 6000 im Jahr 2015 auch einige Müllteile vom Meeresboden. Darunter war eine Plastiktüte mit einer Cola-Dose, die zu einer Sonderedition anlässlich des Davis-Cups 1988 gehörte. „Die Dose aus Aluminium alleine wäre in der Tiefsee längst korrodiert. Aber sie war so dicht im Inneren der Plastikmülltüte eingewickelt, dass sie sich erhalten hat. Das zeigt auch, dass die Mülltüte das gleiche Alter haben muss“, sagt Dr. Matthias Haeckel vom GEOMAR, damals Projektleiter an Bord und jetzt Co-Autor der Studie.
Bei einem zweiten geborgenen Objekt handelte es sich um eine Quark-Packung eines deutschen Herstellers. Die aufgedruckte Adresse zeigt eine fünfstellige Postleitzahl. Die wurden in Deutschland erst 1990 eingeführt. Der Hersteller wurde aber schon 1999 von einer Konkurrenzfirma aufgekauft, womit der Markenname verschwand.
„Da das DISCOL-Gebiet nicht in der Nähe wichtiger Schifffahrtsrouten liegt, ließen sich die Plastiktüte und die Quarkverpackung den ersten DISCOL-Expeditionen 1989 und 1992 oder 1996 zuordnen“, sagt Dr. Haeckel. Immerhin bot sich so die extrem seltene Gelegenheit, datierbare Kunststoffteile aus der Tiefsee zuhause in Laboren genau zu untersuchen. „Dabei zeigte sich, dass weder die Tüte noch die Quarkpackung Zeichen von Fragmentierung oder sogar Abbau in ihre Bestandteile aufwiesen“, sagt der Biochemiker Dr. Stefan Krause vom GEOMAR, Hauptautor der aktuellen Studie. Er leitete die Analysen an Land.
Für die Wissenschaft war auch interessant, dass sich auf den Kunststoffen eine andere Mikroorganismengemeinschaft angesiedelt hatte als in dem Tiefseeboden drumherum vorherrscht. „Die Mikroben kommen alle im Tiefseeboden vor. Aber offenbar könnten größere Ansammlungen von Kunststoff lokal für eine Verschiebung im Verhältnis der vorherrschenden Arten sorgen“, sagt Dr. Krause.
Insgesamt bietet die Studie erstmals einen wissenschaftlich fundierten Anhaltspunkt über das Schicksal von Plastik auf dem Tiefseeboden. „Das ist auch eine wichtige Grundlage für unser aktuelles Projekt HOTMIC, in dem wir den Weg des Plastikmülls von den Kontinenten bis in die großen ozeanischen Wirbel und weiter auf den Tiefseeboden als finale Senke verfolgen wollen“, sagt Dr. Haeckel.
Gleichzeitig sind die Funde für ihn ein gutes Argument, die Einhaltung von Vorschriften bezüglich von Müll an Bord noch genauer zu beachten. „Zum Glück hat sich die Mentalität seit den 1990er Jahren deutlich gewandelt. Sowohl die Crews der Schiffe als auch die eingeschifften Forschungsteams achten sehr genau darauf, dass kein Müll mehr über Bord geht“, sagt Dr. Haeckel.
Originalpublikation:
Krause, S., M. Molari, E.V. Gorb, S.N. Gorb, E. Kossel, M. Haeckel (2020): Persistence of plastic debris and its colonization by bacterial communities after two decades on the abyssal seafloor. Scientific Reports, www.nature.com/articles/s41598-020-66361-7
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://www.oceanblogs.org/hotmic/ Der HOTMIC Blog
Quelle: IDW
Wasserbakterien haben einen grünen Daumen
Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam der Friedrich-Schiller-Universität Jena entdeckt neue Naturstoffe, mit deren Hilfe Mikroben unter Wasser das Wachstum von konkurrierenden Organismen regulieren
Die schier endlosen Weiten der Ozeane sind lebensfeindliche Wüsten – jedenfalls aus der Perspektive eines im Wasser lebenden Bakteriums. Winzig klein wie es ist, wären seine Chancen äußert gering, in den Wassermassen ausreichend Nahrung zu finden. Doch wie in anderen Wüsten auch, gibt es auch im Meer lebensrettende Oasen: Beispielsweise auf den Oberflächen von Wasserpflanzen und Algen finden Mikroorganismen alles, was sie zum Leben brauchen. Hier können verschiedenste Arten in der Gemeinschaft eines sogenannten Biofilms wachsen, sich austauschen und einander Schutz bieten.
Jenaer Mikrobiologinnen und Mikrobiologen um Prof. Dr. Christian Jogler haben jetzt in einer neu entdeckten Bakterienart Naturstoffe aufgespürt, mit deren Hilfe die im Wasser lebenden Mikroorganismen die Zusammensetzung solcher Biofilme steuern und wie einen Garten nach eigenen Bedürfnissen bestellen. In der aktuellen Ausgabe des Fachmagazins Communications Biology stellt das Team aus Deutschland und den Niederlanden seine Ergebnisse vor (DOI:10.1038/s42003-020-0993-2).
Planctomyceten produzieren bioaktive Naturstoffe
Das Bakterium Stieleria maiorica ist eine von fast 80 neu entdeckten Bakterienarten, die das Team von der Universität Jena in einer groß angelegten Sammlungskampagne aus Süß- und Salzwasserproben aus ganz Europa und den USA kultiviert hat. Stieleria maiorica gehört zu den Planctomyceten und wurde vor der Küste Mallorcas aus dem Mittelmeer gefischt. Für die Forscherinnen und Forscher sind solche Planctomyceten vor allem deshalb interessant, weil sie in ihnen bioaktive Naturstoffe vermuten. Und das zurecht, wie die Jenaer Wissenschaftlerinnen und Wissenschaftler in ihrer nun vorgelegten Arbeit zeigen.
So produziert Stieleria maiorica eine bisher unbekannte Gruppe chemischer Verbindungen, die nach dem Bakterium „Stieleriacine“ benannt wurden. „Dabei handelt es sich um relativ kleine Moleküle, die strukturell einer Gruppe von bekannten Signalmolekülen ähneln, mit denen Mikroorganismen untereinander kommunizieren“, sagt Christian Jogler. „Da lag die Vermutung nahe, dass auch die neu entdeckten Stielriacine im weitesten Sinne als Signalmoleküle wirken“, so der Professor für Mikrobielle Interaktion.
Bakterien setzen nach chemischem Signal Antibiotika frei
Deshalb haben die Forscher untersucht, wie andere Bakterienarten auf die von den Planctomyceten produzierten Stieleriacine reagieren. Und tatsächlich zeigte sich, dass etwa Roseobacter-Arten auf das Stieleriacin-Signal reagieren. Diese Mikroorganismen kommen wie die Planctomyceten auf Wasserpflanzen und Algen vor und konkurrieren dort um Lebensraum und Nahrung mit ihnen. Durch die Stieleriacine werden einige Roseobacter-Arten in ihrem Wachstum gefördert, andere dagegen gehemmt. Und mehr noch: diejenigen Arten, die durch das chemische Signal besser wachsen, produzieren nebenbei ein Antibiotikum, das sie in ihre Umgebung abgeben. Roseobacter, die durch die Stieleriacine im Wachstum gehemmt werden, produzieren dagegen kein Antibiotikum.
„Für die Planctomyceten ist das ein entscheidender Vorteil“, ordnet Prof. Jogler ein. „Sie selbst sind gegen das Antibiotikum resistent. Andere Bakterienarten aber, die mit den Planctomyceten im Biofilm konkurrieren, werden durch das Antibiotikum gehemmt.“ Für die eher langsam wachsenden Planctomyceten bietet sich so die Chance, sich auch gegen Bakterienarten zu behaupten, gegen die sie es sonst schwer hätten. „Man könnte sagen, Planctomyceten nutzen die Roseobacter fürs Grobe, um den Biofilm in seiner Zusammensetzung ihren eigenen Bedürfnissen anzupassen und wie geschickte Gärtner das Wachstum der anderen Arten zu regulieren.“
Signalstoffe modulieren Zusammensetzung von Biofilmen
Für Prof. Jogler und seine Kolleginnen und Kollegen im Exzellenzcluster „Balance of the Microverse“ der Universität Jena sind die Planctomyceten aber nicht nur als geschickte Unterwasser-Landschaftsgärtner interessant. „Die chemischen Signalstoffe, die die Mikroorganismen zur Kommunikation und zum Einfluss auf ihre Umgebung nutzen, könnten auch für die Infektionsforschung von Nutzen sein“, sagt Jogler. Denn: Wenn sich mit Hilfe kleiner Moleküle die Zusammensetzung von Biofilmen modulieren lasse, könnte das beispielsweise genutzt werden, um zu verhindern, dass sich auf Oberflächen von Kathetern oder Implantaten pathogene Mikroorganismen ansiedeln.
Mit der vorliegenden Studie sehen sich die Autoren in ihrer Hypothese bestätigt, dass sich bei der Suche nach neuen Wirkstoffen und insbesondere den so wichtigen neuen Antibiotika ein Blick unter die Wasseroberfläche lohnt. Sie sind überzeugt, dass sich in den Biofilmen auf Wasserpflanzen und Algen noch so mancher Naturstoff mit bioaktiven Eigenschaften finden lässt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Jogler
Institut für Mikrobiologie der Friedrich-Schiller-Universität Jena
Philosophenweg 12, 07743 Jena
Tel.: 03641 / 949300
E-Mail: christian.jogler@uni-jena.de
Originalpublikation:
Kallscheuer N et al. The planctomycete Stieleria maiorica Mal15T employs stieleriacines to alter the species compositions in marine biofilms, Communications Biology (2020), DOI: 10.1038/s42003-020-0993-2
Quelle: IDW
Toilettenpapier-Bevorratung könnte mit Persönlichkeitsmerkmalen in Verbindung stehen
Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
Menschen, die sich durch COVID-19 stärker bedroht fühlen und deren Persönlichkeit durch ein besonders hohes Maß an Emotionalität und Gewissenhaftigkeit geprägt ist, haben sich laut einer Studie von Theo Toppe vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig und Kolleg*innen im März 2020 eher mit Toilettenpapier bevorratet als Menschen, die diese Merkmale nicht haben.
Nach der schnellen Verbreitung von COVID-19 in Europa und Nordamerika im März 2020 begannen viele Menschen damit, Waren wie Toilettenpapier zu horten. Einige Unternehmen berichteten von einem Anstieg der Toilettenpapierverkäufe um bis zu 700 Prozent, obwohl die Regierung dazu aufgefordert hatte, von „Panikkäufen“ abzusehen.
Für die Studie befragten die Forschenden 1.029 Erwachsene aus 35 Ländern, die sie über die sozialen Medien rekrutiert hatten. Zwischen dem 23. und dem 29. März 2020 füllten die Teilnehmenden einen Persönlickeitstest (Brief HEXACO Inventory; BHI) aus, der sechs große Persönlichkeitsbereiche umfasst. Darüber hinaus machten sie Angaben über ihren demografischen Hintergrund, wie stark sie sich durch COVID-19 bedroht fühlten, ihr Quarantäneverhalten und ihren Toilettenpapierverbrauch der letzten Wochen.
Der zuverlässigste Indikator für eine Toilettenpapierbevorratung war, wie stark sich jemand durch die Pandemie bedroht fühlte; Menschen, die sich stärker bedroht fühlten, neigten dazu, mehr Toilettenpapier zu horten. Etwa 20 Prozent dieses Effekts waren auf das Persönlichkeitsmerkmal Emotionalität zurückzuführen: Menschen, die im Allgemeinen besonders besorgt und ängstlich sind, fühlen sich auch durch COVID-19 bedrohter und bevorraten sich eher mit Toilettenpapier. Auch die Persönlichkeitsdomäne der Gewissenhaftigkeit, zu der Merkmale wie Organisation, Fleiß, Perfektionismus und Vorsicht gehören, hatte Einfluss auf das Bevorratungsverhalten.
Andere Beobachtungen waren, dass ältere Menschen mehr Toilettenpapier horten als jüngere Menschen und dass Amerikaner mehr Toilettenpapier horten als Europäer. Die Forschenden weisen darauf hin, dass die untersuchten Variablen nur etwa zwölf Prozent der Unterschiede hinsichtlich der Toilettenpapierbevorratung erklären, was darauf hindeutet, dass einige psychologische Erklärungen und situative Faktoren wahrscheinlich nicht berücksichtigt wurden. „Die subjektive Bedrohung durch COVID-19 scheint ein wichtiger Auslöser für die Bevorratung mit Toilettenpapier zu sein. Von einem umfassenden Verständnis dieses Phänomens sind wir jedoch noch weit entfernt“, so Theo Toppe, Mitautor der Studie.
Wissenschaftliche Ansprechpartner:
Theo Toppe
Abteilung für Vergleichende Kulturpsychologie
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
theo_toppe@eva.mpg.de
Originalpublikation:
Lisa Garbe, Richard Rau, Theo Toppe
Influence of perceived threat of Covid-19 and HEXACO personality traits on toilet paper stockpiling
PLOS ONE, 12 June 2020, https://doi.org/10.1371/journal.pone.0234232
Quelle: IDW
Kraftstoffe der Zukunft: Was werden wir tanken?
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Auch wenn es gelingt, große Teile des Verkehrs auf Elektromobilität umzustellen, werden Flüssigkraftstoffe mit hoher Energiedichte weiterhin eine Rolle spielen. Doch warum ist das so? Und aus welchen Rohstoffen müssen diese Kraftstoffe hergestellt werden, um dem Klimaschutz gerecht zu werden? Antworten geben Experten des Fraunhofer UMSICHT im neuen Positionspapier »Kraftstoffe der Zukunft«.
Der Klimaschutzplan der Bundesregierung gibt für den Verkehrssektor bis 2030 eine Treibhausgaseinsparung von – nach jetzigem Stand – 37 Prozent als Ziel vor [Bund-2016]. Wie jedoch kann dieses anspruchsvolle Ziel erreicht werden? Ein Schlüssel ist die Elektromobilität. Zurzeit bestehen zwar noch große Herausforderungen aufgrund des Ressourcenverbrauchs bei der Herstellung von Batterien und geringer Reichweiten, und es gibt Probleme im Aufbau der Infrastruktur. Batterien bieten jedoch eine weitgehend CO2-freie Energiequelle für den Verkehrssektor – vorausgesetzt, der zum Laden verwendete Strom stammt aus nicht fossilen Quellen. Ein weiterer Vorteil ist: Die direkte Stromnutzung mit elektrischen Antrieben ist im Vergleich zu den meisten anderen Antriebskonzepten mit den niedrigsten Umwandlungsverlusten verbunden. Es stellt sich also die Frage, ob es zukünftig nur noch Verkehrsmittel mit batterie-elektrischem Antrieb und/oder Brennstoffzellen geben wird und ob Verbrennungsmotoren mit den zugehörigen Kraftstoffen dann überhaupt noch benötigt werden.
Alternative Kraftstoffe: Lösungen für die Herstellung
Im neuen Positionspapier »Kraftstoffe der Zukunft« schätzen Experten des Fraunhofer UMSICHT die Bedeutung von Kraftstoffen für den Verkehrssektor aus wissenschaftlicher Perspektive ein. Sie sind sich einig, dass wir auch zukünftig Kraftstoffe mit hoher Energiedichte benötigen. Für große Verkehrsbereiche – hierzu zählen z. B. Flugverkehr, Schifffahrt, Arbeitsmaschinen oder (Langstrecken-)LKW-Verkehr – ist ein batterie-elektrischer Antrieb zum jetzigen Stand schwierig bis unmöglich in der Praxis umzusetzen. Einen Fokus legen die Fraunhofer-Experten daher auf die Betrachtung regenerativer Alternativen zu fossilen Kraftstoffen. Sie zeigen diese Alternativen auf und benennen die jeweiligen Potenziale. Das Positionspapier bietet eine Zusammenfassung der notwendigen Schritte, die für eine ökologisch, ökonomisch und sozial erfolgreiche Verkehrswende erforderlich sind.
Die Reihe
Mit der Reihe »Fraunhofer UMSICHT nimmt Stellung« greifen wir Themen auf, die Gesellschaft, Wissenschaft und Wirtschaft aktuell beschäftigen. Neben unserer Forschungstätigkeit möchten wir so in emotionalen Debatten zur Versachlichung beitragen und aufzeigen, ob und wo wir einen Beitrag zur Lösung gesellschaftlicher Herausforderungen sehen und darüber hinaus leisten können.
Unsere Stellungnahmen erarbeiten wir zusammen mit den Mitarbeitenden des Fraunhofer UMSICHT: Hinter einem Positionspapier steht somit auch immer ein Meinungsbildungsprozess am Institut. Bei kontroversen Themen bilden die Mitarbeitenden oft auch die Vielfalt der Meinungen innerhalb der Gesellschaft ab. Falls wir keine einheitliche Position beziehen können, werden unterschiedliche Meinungen offen dargestellt.
Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2020/zukun…
Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/kompetenzen/bioraffinerie-biokraftstoffe.ht…
Kompetenz Bioraffinerie und Biokraftstoffe
https://www.umsicht.fraunhofer.de/de/kompetenzen/nachhaltigkeit-partizipation.ht…
Kompetenz Nachhaltigkeit und Partizipation
https://www.umsicht.fraunhofer.de/de/strategische-forschungslinien/positionen-di…
Unabhängige Informationen und Faktenwissen »UMSICHT nimmt Stellung«
Anhang
Positionspapier »Kraftstoffe der Zukunft«
https://idw-online.de/de/attachment79962
Quelle: IDW
Neue Lösungen für textile Biogasspeichersysteme
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Biogasanlagen produzieren erneuerbares Methan aus Reststoffen der Landwirtschaft, das meist in Membranspeichern aufbewahrt wird. In Deutschland sind die Speichersysteme allerdings häufig veraltet und stoßen über Lecks klimaschädliches Methan aus. Mit einem verbesserten Design, wirksamen Standards und optimierten Betriebskonzepten könnten sie aber bei der Energiewende nützlich sein, so die Einschätzung von Wissenschaftlerinnen und Wissenschaftlern des Karlsruher Instituts für Technologie (KIT). Sie haben die textilen Speichersysteme in einem vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten Forschungsprojekt experimentell untersucht.
Biogasanlagen produzieren erneuerbares Methan aus Reststoffen der Landwirtschaft, das meist in Membranspeichern aufbewahrt wird. In Deutschland sind die Speichersysteme allerdings häufig veraltet und stoßen über Lecks klimaschädliches Methan aus. Mit einem verbesserten Design, wirksamen Standards und optimierten Betriebskonzepten könnten sie aber bei der Energiewende nützlich sein, so die Einschätzung von Wissenschaftlerinnen und Wissenschaftlern des Karlsruher Instituts für Technologie (KIT). Sie haben die textilen Speichersysteme in einem vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten Forschungsprojekt experimentell untersucht.
Vor allem in den ländlichen Regionen Deutschlands sind sie präsent – kuppelförmige oder flache Membranspeicher, die manchmal gleich zu Dutzenden neben landwirtschaftlichen Betrieben stehen. Unter einer luftgefüllten Textilhülle lagern dort gasförmige Produkte aus Biogasanlagen, hauptsächlich das Energiegas Methan. „Da Biogas bei der Vergärung organischer Stoffe entsteht, ist es CO2-neutral und kann einen wichtigen Beitrag zur Energiewende leisten“, sagt Professorin Rosemarie Wagner vom Institut Entwerfen und Bautechnik (IEB) des KIT. „Es lässt sich speichern und bei Bedarf verstromen, etwa um Schwankungen bei der Produktion von Wind- oder Sonnenstrom auszugleichen. In aufgearbeiteter Form kann es auch direkt in das Erdgasnetz eingespeist werden.“ Dass die Membranspeicher bei vielen Klimaschützern trotzdem einen schlechten Ruf haben, sei allerdings durchaus begründet: „Aktuell sind die Speicher in Deutschland in einem schlechten Zustand. Wegen akuter technischer Mängel müssen in den nächsten Jahren bis zu 80 Prozent aller textilen Hüllen ausgetauscht werden. Etwa fünf Prozent des produzierten Methans entweicht unkontrolliert in die Atmosphäre.“
Um Handlungsoptionen für eine Modernisierung des Bestandes zu prüfen, hat das Forscherteam von Wagner in einem vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten Forschungsprojekt die textilen Speichersysteme für Biogas über zwei Jahre lang experimentell untersucht. Zusammengearbeitet haben sie dabei mit Partnern aus der Industrie, mit den Unternehmen technet, Seybold sowie Wacker Bauwerksaerodynamik.
Membranspeicher reagieren sensibel auf Umweltfaktoren
Bislang fehlten Daten und Methoden zur Berechnung einer dauerhaft, gasdichten Auslegung, Steuerung und Konstruktionsweise der Membranspeicher. „Wissenschaftliche Arbeiten, die sich mit der Interaktion zwischen Umgebungsbedingungen, Luft- und Gasmasse sowie zwischen Massen- und Volumenströmen von Membranspeichern befassen – die gab es schlichtweg nicht“, sagt Kai Heinlein (IEB), der an der Forschung maßgeblich beteiligt war. Für das Projekt wurde deshalb eine begehbare, ohne Biogas betriebene Versuchsanlage zur Datenerhebung errichtet. Sie war mit einer zweilagigen, textilen und mit Innendruck stabilisierten Abdeckung ausgestattet, unter der mit Luftgebläsen unterschiedliche Füllstände simuliert werden konnten. Mit Drucksensoren und Kameras im Speicher ließ sich sein Verhalten dann während unterschiedlicher Jahreszeiten und Wetterverhältnisse beobachten.
Es zeigte sich, dass ein textiler Biogasspeicher äußert sensibel – und je nach Füllstand unterschiedlich – auf Umweltfaktoren wie Wind, Wärme oder Kälte reagiert. Bei ungünstigen Betriebszuständen kann das zu Problemen führen: „In einem prall gefüllten Speicher genügt vielleicht ein heißer Sommertag, um Versagen an den Nähten zu verursachen, weil sich die Gase schnell ausdehnen“, sagt Heinlein. „Trifft dagegen starker Wind auf einen niedrigen Füllstand, kann die Membran durch Flattern und Schlagen beschädigt werden.“ Signifikant werden diese Effekte vor allem durch die großen Gasmengen, die in den Membranspeichern gelagert werden. In Deutschland sind bis zu 10 000 Kubikmeter möglich.
Halbkugeldesign für dreifaches Speichervolumen
Den Abschlussbericht mit den Ergebnissen der Experimente hat das Forscherteam aus dem IEB inzwischen dem Landwirtschaftsministerium übergeben. Mit den Messergebnissen sollen nun in Folgeprojekten datenbasierte Modelle zur Interaktion der verschiedenen Einflussparameter und Zustände entwickelt werden. „Solche Modelle werden dringend benötigt, um den nachhaltigen Betrieb der Speichersysteme dauerhaft zu sichern“, sagt Wagner. Neben den Daten bietet der Bericht auch Hinweise auf Defizite marktüblicher Speichersysteme. So führt die typische Messtechnik zur Ermittlung des Füllstands als zentraler Parameter zu ungenauen Ergebnissen. Bei der Steuerung des Luftdrucks in der Außenhülle wiederum gibt es zu wenig Flexibilität, um auf Außenbedingungen zu reagieren. Meist wird das Tragluftdach nämlich einfach nach festen Rhythmen nachgepumpt. Als Lösung könnte eine Druckluftsteuerung sinnvoll sein.
Eine zentrale Erkenntnis der Forscherinnen und Forscher bei ihrer Pionierarbeit betrifft das Design zukünftiger Speichersysteme: Untersuchungen mit der Halbkugelform haben ergeben, dass sich auch diese geometrisch günstige Bauweise für Biogasspeichersysteme eignet. Gegenüber der gängigen Kugelabschnittsform ließe sich das Speichervolumen so verdreifachen.
Zum Abschlussbericht in der Projektdatenbank der Fachagentur Nachwachsende Rohstoffe e. V. (FNR):
https://www.fnr-server.de/ftp/pdf/berichte/22403315.pdf
Details zum KIT-Zentrum Energie: http://www.energie.kit.edu
Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24.400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Neue Lösungen für textile Biogasspeichersysteme
https://idw-online.de/de/attachment79961
Quelle: IDW
Jung, weiblich und extravertierter? Studie identifiziert typische Nutzer von Facebook, Instagram und WhatsApp
Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Weltweit sind 2,7 Milliarden Menschen auf mindestens einer der zum Facebook-Konzern gehörenden Social-Media-Plattformen Facebook, WhatsApp oder Instagram aktiv. Wie die Nutzung einer oder mehrerer dieser sozialen Medien mit soziodemografischen Merkmalen und den „Big Five“ genannten Persönlichkeitsmerkmalen zusammenhängt, haben Forschende rund um den Ulmer Professor Christian Montag nun untersucht. In ihrer Studie kamen die Wissenschaftlerinnen und Wissenschaftler zu dem Schluss, dass Personen, die Social-Media-Plattformen nutzten, jünger, häufiger weiblich und extravertierter als Nichtnutzer waren.
Facebook, WhatsApp, Instagram zählen zu den bekanntesten sozialen Medien und gehören alle zum US-amerikanischen Facebook-Konzern. In einer Studie haben Forscherinnen und Forscher rund um von der Universität Ulm nun untersucht, wie die Nutzung dieser Plattformen mit soziodemografischen Merkmalen und den „Big Five“-Persönlichkeitsmerkmalen zusammenhängt. Dabei konnten sie feststellen, dass Personen, die mindestens auf einer Social-Media-Plattform aktiv waren, im Allgemeinen jünger, häufiger weiblich und etwas extravertierter als Nichtnutzer waren. Veröffentlicht wurde die Studie in der Fachzeitschrift „Frontiers of Psychology“.
Derzeit nutzen 2,7 Milliarden Menschen weltweit mindestens eine der zum Facebook-Konzern gehörenden Social-Media-Plattformen Facebook, WhatsApp oder Instagram. Frühere Untersuchungen der individuellen Unterschiede zwischen Benutzern und Nichtbenutzern von sozialen Medien haben sich in der Regel nur auf eine Plattform konzentriert. Die neue Studie nimmt nun das Zusammenspiel der Facebook-eigenen Plattformen in den Fokus. „Dies entspricht eher der Lebenswirklichkeit der Userinnen und User. Wir konnten zeigen, dass sie oft mehrere Social-Media-Kanäle nutzen, wenn auch in unterschiedlicher Kombination. Bislang gab es noch keine Studie, die dieses Zusammenspiel berücksichtigt“, so der Erstautor Dr. Davide Marengo von der Universität Turin. Zum Zeitpunkt der Studie war Marengo als Gastwissenschaftler Teil der Arbeitsgruppe von Professor Christian Montag, dem Leiter der Abteilung Molekulare Psychologie der Universität Ulm.
Ausgewertet wurden für die Studie Online-Fragebögen von rund 3000 Teilnehmerinnen und Teilnehmern aus Deutschland, die ein Smartphone besitzen. Im Durchschnitt betrug das Alter der Teilnehmenden 35,53 Jahre alt, ein Großteil der Befragten war zwischen 22 und 49 Jahren alt. In der Stichprobe erwies sich der Messenger-Dienst WhatsApp als die am häufigsten verwendete Plattform mit der größten Reichweite (92 %), dahinter folgen Facebook (57,7%) und Instagram (46,3%).
Die Teilnehmenden sind auch nach der kombinierten Nutzung der verschiedenen Plattformen gefragt worden. Dabei zeigte sich, dass die größte Gruppe der Gesamtstichprobe alle Facebook-eigenen Plattformen (33,2%) gleichzeitig nutzte. Andere häufige Kombinationen waren die ausschließliche Nutzung von WhatsApp (24,1 %), eine Kombination aus WhatsApp und Facebook (22,5 %) sowie die Kombination von WhatsApp und Instagram (12,1 %). Keine der Plattformen nutzten 5,8 % der Teilnehmenden.
Bei der Erhebung der Persönlichkeitsmerkmale wurde im Fragebogen das weltweit anerkannte „Big Five Modell“ verwendet. In den entsprechenden Antworten machten die Befragten beispielsweise Angaben über ihre Offenheit für Erfahrungen, Gewissenhaftigkeit oder Verträglichkeit. Zusätzlich sind soziodemographische Angaben der Nutzer erfasst worden, wie Alter oder Bildungsgrad. Aus den statistischen Analysen ergab sich, dass Personen, die mindestens eine Social-Media-Plattform nutzten, im Allgemeinen jünger und häufiger weiblich waren. Nur kleine Unterschiede fanden sich bei den Persönlichkeitsvariablen. So zeigten sich Social-Media-Nutzer etwas extravertierter im Vergleich zu Nichtnutzern. Zusätzlich ergaben sich auch kleine Unterschiede innerhalb der Nutzergruppen in Bezug auf Gewissenhaftigkeit und Neurotizismus.
Beim Vergleich der soziodemografischen Variablen wie Alter, Geschlecht oder Bildungsgrad konnten die Forschenden feststellen, dass das Alter die stärkste Assoziation mit den Social-Media-Präferenzen zeigte. Nicht-Benutzer und WhatsApp-Benutzer bildeten mit 42 – 43 Jahren die älteste Gruppe. Die Befragten, die sowohl WhatsApp als auch Instagram verwendeten, waren die jüngsten (Durchschnittalter rund 26 Jahre). „Insgesamt stützen unsere Ergebnisse die Annahme, dass Instagram vor allem die jüngere Nutzergeneration anzieht“, erklärt Professor Christian Montag.
Darüber kommt die Studie zu dem Ergebnis, dass Frauen in sozialen Medien stärker vertreten waren – unabhängig davon, welche Kombination von sozialen Plattformen untersucht wurde. Ergänzende Analysen hinsichtlich der „Big-Five“-Persönlichkeitsmerkmale haben gezeigt, dass innerhalb der Social Media Nutzer besonders diejenigen, die alle Facebook-Angebote nutzten oder sich nur für Instagram/WhatsApp entschieden, etwas weniger gewissenhaft waren. „Schließlich stellten wir ebenfalls fest, dass der Neurotizismus, das heißt die emotionale Labilität, bei Personen, die alle Plattformen oder nur WhatsApp und Instagram nutzen, signifikant ausgeprägter war als bei Personen, die keine Plattform oder nur WhatsApp verwenden“, schlussfolgert Dr. Davide Marengo.
Insgesamt unterstreicht die Studie die Rolle von soziodemographischen Variablen, aber auch der Persönlichkeitsmerkmale Neurotizismus und Gewissenhaftigkeit bei der unterschiedlichen Nutzung sozialer Medien. Die Persönlichkeitseigenschaft Extraversion unterscheidet besonders Social-Media-Nutzer und Nicht-Nutzer. „Insoweit stimmen diese Ergebnisse mit früheren Studien über die ,Big Five‘-Persönlichkeitsmerkmale und die Verwendung spezifischer Social-Media-Plattformen überein. Unsere Ergebnisse sind unter anderem für Forscherinnen und Forscher relevant, die in ihren Studien soziale Medien zur Rekrutierung von Probanden untersuchen, da die Stichprobenmerkmale je nach verwendeter Plattform unterschiedlich sein können“, sagt Professor Christian Montag. „Wir sind aber auch davon überzeugt, dass unsere Ergebnisse dabei helfen können, zu verstehen, welche Bevölkerungsgruppen möglicherweise besonders anfällig für die Effekte von Fake-News oder Filterblasen zu sein scheinen, die vor allen Dingen durch Social Media befeuert werden.“
Hinweis auf eine neue Studie: Die Ulmer Forschenden um Professor Christian Montag untersuchen aktuell die Nutzung von WhatsApp und wollen ergründen, ob bestimmte Funktionen wie der „gelesen“-Vermerk Einfluss auf das Wohlbefinden haben. Außerdem wird diskutiert, ob der Aufbau der App dazu anregt, mehr Zeit mit WhatsApp zu verbringen, als eigentlich gewollt. Weitere Informationen und Fragebogen zur anonymisierten Studienteilnahme: www.doppelhaken.info.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Montag, Leiter der Abteilung Molekulare Psychologie, Tel: 0731/50-32759, christian.montag@uni-ulm.de
Originalpublikation:
Marengo D, Sindermann C, Elhai J and Montag C: One Social Media Company to Rule Them All: Associations between Use of Facebook-Owned Social Media Platforms, Sociodemographic Characteristics, and the Big Five Personality Traits. Frontiers of Psychology. 11:936. DOI: 10.3389/fpsyg.2020.00936
Quelle: IDW
Neuer Tagungsband zeigt Forschungsstand zu aktuellen Herausforderungen der Energiewende
Petra Szczepanski Öffentlichkeitsarbeit
ForschungsVerbund Erneuerbare Energien (FVEE)
Der ForschungsVerbund Erneuerbare Energien (FVEE) veröffentlicht seinen neuen Tagungsband „Energy Research for Future – Forschung für die Herausforderungen der Energiewende“. Die hier gesammelten Vorträge der letzten Jahrestagung stellen aktuelle Forschungsergebnisse und Instrumente für die Energiewende vor.
Der Tagungsband steht für alle Interessierten im Internet zur Verfügung und kann dort auch als gedrucktes Heft kostenfrei bestellt werden.
Der Handlungsdruck für den Aufbau eines klimaneutralen Energiesystems steigt weiter. Der ForschungsVerbund Erneuerbare Energien diskutierte auf seiner letzten Jahrestagung, wo die zentralen technologischen und sozio-ökonomischen Herausforderungen liegen und was die Energieforschung beitragen kann, um die Transformationsgeschwindigkeit deutlich zu erhöhen.
Der FVEE hat auf seiner Jahrestagung gezeigt, welche Schritte notwendig sind, um neben der Stromversorgung auch die Sektoren Mobilität sowie Wärme-/Kälteversorgung für Gebäude und Industrie auf nachhaltige Technologien umzustellen.
Download und Online-Bestellung:
https://www.fvee.de/publikationen/themenhefte/
Über den ForschungsVerbund Erneuerbare Energien:
Der ForschungsVerbund Erneuerbare Energien ist eine bundesweite Kooperation von Forschungseinrichtungen. Die Mitglieder erforschen und entwickeln Technologien für erneuerbare Energien, Energieeffizienz, Energiespeicherung und das optimierte technische und sozio-ökonomische Zusammenwirken aller Systemkomponenten. Gemeinsames Ziel ist die Transformation der Energieversorgung zu einem nachhaltigen Energiesystem.
Kontakt für Medien
Leiterin Öffentlichkeitsarbeit: Petra Szczepanski
Anna-Louisa-Karsch-Str. 2, 10178 Berlin
www.fvee.de, fvee@helmholtz-berlin.de
Broschürenversand
Franziska Wunschick
Anna-Louisa-Karsch-Str. 2, 10178 Berlin
Telefon 030 288 7565 70, www.fvee.de, fvee@helmholtz-berlin.de
Originalpublikation:
https://www.fvee.de/fileadmin/publikationen/Themenhefte/th2019/th2019.pdf
Quelle: IDW
Durchfall- und Gelbsuchterreger in Schach halten
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Welttag der Lebensmittelsicherheit: Wie man sich vor Viren schützt
Beim Thema „Viren“ denken die meisten in diesen Tagen an „Corona“. Aber die Übertragung des neuen Coronavirus über Lebensmittel ist unwahrscheinlich und nicht bewiesen. In Lebensmitteln sind andere Viren als Krankheitsursache gefürchtet. Von Bedeutung sind vor allem vier Übeltäter: Noro- und Rotaviren sowie die Erreger von Hepatitis A und E. Aus Anlass des „World Food Safety Day“ (Welttag der Lebensmittelsicherheit) am 7. Juni 2020 weist das Bundesinstitut für Risikobewertung (BfR) darauf hin, wie Verbraucherinnen und Verbraucher sich vor diesen Krankmachern schützen können. „Wer die einfachen Regeln der Küchenhygiene beherzigt, kann das Risiko einer Infektion deutlich verringern“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel.
Hier „Steckbriefe“ der vier häufigen Viren in Lebensmitteln:
Noroviren: Sie lösen beim Menschen Magen-Darm-Erkrankungen aus, die mit Durchfall und Erbrechen einhergehen können. Neben direkten Infektionen von Mensch zu Mensch oder über verunreinigte Oberflächen wird der Erreger auch häufig über rohe Lebensmittel wie Salat, Obst und Meeresfrüchte auf andere Personen übertragen. Auch tiefgekühlte Beeren können vermehrungsfähige Noroviren enthalten, da ihnen Kälte nichts anhaben kann. Gesamtzahl der für 2019 beim Robert Koch-Institut (RKI) erfassten Fälle in Deutschland (einschließlich der Übertragungen durch Lebensmittel): 78.679.
Rotaviren: Auch Rotaviren rufen beim Menschen Magen-Darm-Erkrankungen hervor, die zu Durchfall, Erbrechen und Bauchschmerzen führen. Besonders gefährdet sind kleine Kinder. In seltenen Fällen kann das Virus auch über Lebensmittel auf andere Menschen übertragen werden. Gesamtzahl der für 2019 beim RKI erfassten Fälle: 36.876.
Hepatitis A: Das Virus kann beim Menschen eine akute Leberentzündung (infektiöse Gelbsucht) verursachen. Meist steckt man sich bei Auslandsreisen durch verunreinigte Lebensmittel oder Trinkwasser, in einigen Fällen aber auch durch importierte Lebensmittel an. Gesamtzahl der für 2019 beim RKI erfassten Fälle: 873.
Hepatitis E: Die Erkrankung ähnelt der durch das Hepatitis A-Virus hervorgerufenen Leberentzündung. Die Übertragung des Erregers erfolgt häufig durch nicht ausreichend erhitzte Lebensmittel von Schwein und Wildschwein. Die Tiere können infiziert sein, ohne dass sie Anzeichen einer Erkrankung zeigen. In diesem Fall befindet sich das Virus also typischerweise bereits in und nicht auf dem Lebensmittel. Gesamtzahl der für 2019 beim RKI erfassten Fälle: 3.725.
Die meisten Krankheitserreger in Lebensmitteln sind hitzeempfindlich. Deshalb sollten Speisen mindestens zwei Minuten lang auf 70 Grad oder mehr erwärmt werden. Es empfiehlt sich, auch Tiefkühlbeeren vor dem Verzehr ausreichend zu erhitzen. Roh genossene Lebensmittel wie Salat und Obst sollten gründlich gewaschen werden. Ein Kontakt von rohen und bereits verzehrfertigen Lebensmitteln (etwa zwischen rohem Fleisch und Salat) ist zu vermeiden, weil dabei Erreger auf die fertige Speise übertragen werden können (Kreuzkontamination).
Am BfR wurde Ende 2019 ein neues Nationales Referenzlabor für durch Lebensmittel übertragbare Viren eingerichtet. Es erforscht diese Gruppe von Krankheitserregern sowie ihren (häufig schwierigen) Nachweis auf Lebensmitteln und berät die amtliche Lebensmittelüberwachung der Bundesländer.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: IDW
Gesundheitsverhalten während der Covid-19-Pandemie: Online-Umfrage gibt rasch Einblicke
Silvia Leek Öffentlichkeitsarbeit und Pressestelle
Max-Planck-Institut für demografische Forschung
Verglichen mit anderen europäischen Ländern und den USA übernahmen die Deutschen früh die Maßnahmen zur Kontaktbeschränkung, noch bevor sie offiziell angeordnet wurden. In allen befragten Ländern haben Frauen ihr Verhalten stärker verändert als Männer. Außerdem halten sich Ältere besser an das Social Distancing.
Rostock. „Wir haben herausgefunden, dass Frauen Covid-19 als bedrohlicher wahrnehmen als Männer,“ erklärt Daniela Perrotta. Die Forscherin am Max-Planck-Institut für demografische Forschung (MPIDR) in Rostock stellt zudem fest: „Frauen sind auch eher bereit, ihr Verhalten zu ändern, um sich vor Covid-19 zu schützen.“ Das sei interessant, da mehr Männer als Frauen an der Infektion gestorben sind.
In den meisten Ländern vertrauen die befragten Frauen auch weniger darauf, dass nationale und internationale Institutionen auf die Pandemie angemessen reagieren.
Die Daten erhob ein Forscher*innen-Team um Daniela Perrotta und André Grow über Facebook. Seit März rekrutieren sie über das Soziale Netzwerk Teilnehmende für eine Online-Umfrage. Zum Zeitpunkt der vorliegenden Auswertung nahmen mehr als 65.000 Personen in sieben europäischen Ländern, darunter Deutschland, Italien, Spanien und Frankreich, sowie den USA teil.
„Über Facebook konnten wir schnell viele Teilnehmende für unsere Umfrage gewinnen. Nachdem wir die Daten statistisch korrigiert haben, können wir nun Muster und Trends in den Reaktionen auf die Pandemie untersuchen“, sagt André Grow.
Da Facebook nur bedingt einen Querschnitt der Gesellschaft abbildet, ist die Umfrage erst einmal nicht repräsentativ. Erst durch die Aufbereitung der Daten, bei der die Wissenschaftler*innen die Altersverteilung, das Geschlechterverhältnis und die regionale Bevölkerungsverteilung der jeweiligen Länder berücksichtigen, werden die Daten repräsentativ für die jeweilige Bevölkerung.
Die Forscher*innen stellten vor allem Fragen zum allgemeinen Gesundheitszustand der Teilnehmenden, ihren Verhaltensweisen, ihren sozialen Kontakten und ihrer Einstellung zu Maßnahmen während der Pandemie. Erste Ergebnisse präsentieren die Forscher*innen nun in eine Studie, die als vorläufige Version im Pre-Print online verfügbar ist.
Im Umfragezeitraum haben die Teilnehmenden die Maßnahmen zur Verringerung der Ansteckung unterschiedlich stark umgesetzt. So gaben nur 6 Prozent der Befragten in den Niederlanden an, einen Mund-Nasen-Schutz zu tragen. In Italien waren es dagegen fast 60 Prozent. Das sind im internationalen Vergleich am meisten. In allen Ländern haben dagegen über 85 Prozent der Teilnehmenden angefangen, sich häufiger die Hände zu waschen. Diese Angaben werden nur noch von der Umsetzung der Kontaktbeschränkungen übertroffen. Mit 93 Prozent ist der Wert im Vereinten Königreich am geringsten, in Italien mit 98 Prozent am höchsten.
Im Vergleich zu anderen Ländern, war das Vertrauen von Frauen und Männern in die Behörden und ins Gesundheitssystem in Deutschland von Anfang an hoch und stieg sogar im Laufe der vergangenen Wochen noch weiter an. Gleichzeitig sank in Deutschland die Angst vor der Erkrankung. Am stärksten fühlten sich die Italiener*innen von Covid-19 bedroht, gefolgt von den Brit*innen und Spanier*innen.
Vorläufige Publikation (Preprint ohne Peer Review):
Perrotta, D., Grow, A., Rampazzo, F., Cimentada, J., Del Fava, E., Gil-Clavel, S., Zagheni, E.: Behaviors and attitudes in response to the COVID-19 pandemic: Insights from a cross-national Facebook survey, DOI: https://doi.org/10.1101/2020.05.09.20096388
Über das MPIDR
Das Max-Planck-Institut für demografische Forschung (MPIDR) in Rostock untersucht die Struktur und Dynamik von Populationen. Die Wissenschaftler*innen des Instituts erforschen politikrelevante Themen wie den demografischen Wandel, Altern, Geburtendynamik und die Verteilung der Arbeitszeit über die Lebensspanne, genauso wie den digitalen Wandel und die Nutzbarmachung neuer Datenquellen für die Erforschung von Migrationsströmen. Das MPIDR ist eine der größten demografischen Forschungseinrichtungen in Europa und zählt international zu den Spitzeninstituten in dieser Disziplin. Es gehört der Max-Planck-Gesellschaft an, der weltweit renommierten deutschen Forschungsgemeinschaft.
Kontakt
Silvia Leek – MPIDR Presse- und Öffentlichkeitsarbeit
TELEFON +49 381 2081 – 143
E-MAIL presse@demogr.mpg.de
Wissenschaftliche Ansprechpartner:
Daniela Perrotta MPIDR-Autor des Artikels (spricht Englisch und Italienisch)
E-MAIL perrotta@demogr.mpg.de
André Grow MPIDR-Autor des Artikels (spricht Englisch und Deutsch)
E-MAIL grow@demogr.mpg.de
Originalpublikation:
Perrotta, D., Grow, A., Rampazzo, F., Cimentada, J., Del Fava, E., Gil-Clavel, S., Zagheni, E.: Behaviors and attitudes in response to the COVID-19 pandemic: Insights from a cross-national Facebook survey, DOI: https://doi.org/10.1101/2020.05.09.20096388
Quelle: IDW
Projekt will Wasserstoff-Technologien in der Region Südlicher Oberrhein voranbringen
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
Elektrolyse und Wasserstoff werden in vielen Studien als wichtige Bausteine des zukünftigen Energiesystems anerkannt. Trotz des großen Potenzials zur Emissionssenkung und erfolgreicher Demonstrations- und Erprobungsprojekte ist grüner Wasserstoff in Deutschland jedoch bis auf Nischenfälle immer noch nicht im Energiesystem präsent. Im Projekt »Wasserstofftechnologien am Südlichen Oberrhein« untersuchen 21 Projektpartner unter Koordination des Fraunhofer-Instituts für Solare Energiesysteme das Potenzial in der Region und erarbeiten Lösungswege, um diese Technologien aus der Nische zu holen.
Ziel des Projektes ist es, am Südlichen Oberrhein eine Vielzahl relevanter Akteure aus allen Sektoren – Industrie, Wärme, Verkehr, Stromerzeugung – in Bezug auf die Wasserstoff- und Brennstoffzellentechnologie zu verknüpfen. »Wir wollen damit die Einführung von Wasserstoff ins Energiesystem unterstützen, die derzeit noch aufgrund verschiedener Hemmnisse scheitert«, erklärt Projektleiter Christopher Voglstätter, Teamleiter Power-to-Gas am Fraunhofer ISE.
In intensiver Diskussion mit den Akteuren werden in einem transdisziplinären Ansatz und am Beispiel mehrerer Fallbeispiele und Technologiedemonstrationen wesentliche aktuelle Hemmnisse bei der Implementierung von Wasserstoff- und Brennstoffzellentechnologie identifiziert. Gemeinsam werden Lösungsvorschläge für die Aktivierung des großen und vielfältigen Nutzungs- und Emissionsreduzierungspotenzials von Wasserstoff in Industrie und Mobilität, bei der netzfernen Stromversorgung, im Gasnetz und im kommunalen Umfeld erarbeitet. Zusätzlich werden auch der Transport und Handel von Wasserstoff in Gasnetzen und mittels Trailern sowie die zukünftige Versorgung der Region mit Wasserstoff adressiert. Die Reichweite des Projektes erstreckt sich auf die Landkreise Ortenaukreis, Emmendingen, Breisgau-Hochschwarzwald, Lörrach, Waldshut und den Stadtkreis Freiburg. Ein intensiver Austausch mit den angrenzenden Regionen in Frankreich und der Schweiz bzw. entsprechenden Initiativen ist geplant und zum Teil bereits realisiert.
Interdisziplinäre Zusammenarbeit
Für das Projekt haben sich Vertreter aus allen relevanten Akteursgruppen (Kommunen, Regionalkörperschaften, Energieversorger, Forschungseinrichtungen, Gaslieferanten, Beratungsunternehmen, Mobilitätsdienstleister, Verbände und Industrieunternehmen) zu einem interdisziplinären Konsortium unter Leitung des Fraunhofer ISE zusammengeschlossen, weitere Partner können bei Bedarf integriert werden.
Im ersten Schritt führt das Konsortium unter Federführung der Klimapartner Oberrhein derzeit eine Umfrage zur Bestimmung des Potenzials für den Einsatz von Wasserstoff in der Region durch. Interessierte Unternehmen können sich über den untenstehenden Link beteiligen.
Die Projektpartner ermitteln anschließend in interdisziplinären Expertenkreisen, welche Schritte und Maßnahmen welcher Akteure notwendig sind, um Wasserstoff und die großskalige Elektrolyse für die Erzeugung synthetischer Kraft- und Brennstoffe in das Energiesystem einzuführen. Um eine möglichst hohe Praxisrelevanz zu erreichen, werden für diese Betrachtung Fallbeispiele aus der Potenzialerhebung ausgewählt und für eine potenzielle Umsetzung tiefer gehend analysiert.
Die Ergebnisse sollen dann neben der Kommunikation an Politik, Wissenschaft und Öffentlichkeit auch in die regionale Entwicklung einfließen. Hier sind die Zuarbeit für die Klimaschutzplanungen und -maßnahmen der Region, die Aufstellung einer Wasserstoff-Roadmap für die Region, Handlungsempfehlungen für regionale und überregionale Akteure und eine über das Projekt hinausgehende Vernetzung geplant. Damit sollen unter anderem begleitende oder nachfolgende Projekte zur Einführung von Wasserstoff ins regionale Energiesystem begünstigt werden.
»Die diversifizierte Wirtschaftsstruktur der Region mit vielfältigen Anwendungsmöglichkeiten, die starken Universitäts- und Hochschulstandorte Freiburg, Offenburg und Lörrach sowie die Möglichkeit von grenzübergreifenden Lösungen im Dreiländereck zu Schweiz und Frankreich bilden eine ideale Grundlage, die Region Südlicher Oberrhein zu einer Wasserstoff-Modell-Region für Deutschland zu entwickeln«, so Dr. Fabian Burggraf, Geschäftsführer der Klimapartner Oberrhein.
Als Kooperationspartner sind die Klimapartner Oberrhein, bnNETZE, die Gemeinde Teningen, die Hochschule Offenburg, basi, Energiedienst, fischer eco solutions, LADOG, die Ökostromgruppe Freiburg, die Städte Freiburg, Offenburg und Lahr, Trapico, die Handwerkskammer Freiburg, initiatives durables auf französischer Seite und der Regionalverband Südlicher Oberrhein an Bord. Der Deutsche Wasserstoff- und Brennstoffzellenverband, Stadtmobil CarSharing Südbaden und Sterr-Kölln & Partner sind über Unteraufträge mit in das Projekt eingebunden. Das Öko-Institut ist als externer Experte zur Frage der Erzeugung und Nutzungsstrategien von Wasserstoff eingebunden.
Das Projekt wird vom Ministerium für Umwelt, Klima und Energiewirtschaft des Landes Baden-Württemberg gefördert.
Wissenschaftliche Ansprechpartner:
Christopher Voglstätter | Team Power-to-Gas | Telefon +49 761 4588- 5357| christopher.voglstaetter@ise.fraunhofer.de
Weitere Informationen:
https://forms.office.com/Pages/ResponsePage.aspx?id=tOmXH8McjEWvPNoRSgnRihShtWAD… Link zur Umfrage der Klimapartner Oberrhein
https://www.ise.fraunhofer.de/de/forschungsprojekte/h2-so.html Link zur Webseite des Projekts
Anhang
Communiqué de Presse: Nouveau projet vise à faire progresser les technologies à hydrogène dans la région du Rhin Supérieur du sud
https://idw-online.de/de/attachment80068
Quelle: IDW
MCC: Städtische Umweltzonen senken Ausgaben für Herztabletten und Asthmasprays
Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
In mittlerweile 58 deutschen Städten wird schadstoffintensiven Pkw, Lkw und Bussen in Umweltzonen die Einfahrt verwehrt. Kritiker sprechen seit dem Start dieser Maßnahme im Jahr 2008 von „kalter Enteignung“ von Autofahrern und zweifeln – angesichts von Feinstaub und Stickoxiden auch aus anderen Quellen – die Verhältnismäßigkeit an. Dagegen belegt jetzt eine empirische Studie bessere Luftqualität und einen volkswirtschaftlichen Nutzen. Sie wurde erstellt unter Federführung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change) und in der renommierten Fachzeitschrift Economics Letters veröffentlicht.
Die Studie basiert auf Luftqualitätsmessungen des Umweltbundesamts sowie den anonymisierten Arzneimittelausgaben der größten Krankenkasse AOK für 2,7 Millionen Versicherte. Das Forschungsteam analysierte für den Zeitraum 2008 bis 2013 den Schadstoffausstoß und den Arzneimittelverbrauch nach Einführung von Umweltzonen – sowohl relativ zum Stand vor der Einführung als auch zur Situation in strukturell ähnlichen Städten mit erst später eingeführter Umweltzone. Um die kausale Wirkung sauber herauszufiltern, sind beim Städtevergleich statistische Störeffekte etwa durch Wetterlagen und regionale Wirtschaftsentwicklung herausgerechnet. „Wir konnten zeigen, dass die Einführung von Umweltzonen die Konzentration von Feinstaub der Partikelgröße PM10 im Durchschnitt um 5,9 Prozent gesenkt hat“, berichtet Nicolas Koch, Senior Researcher am MCC und Leitautor der Studie. „Zudem wurden in den Städten mit Umweltzone jährlich 15,8 Millionen Euro Ausgaben für Arzneien gegen Herz- und Atemwegserkrankungen eingespart.“
Jedes der 200.000 älteren Diesel-Fahrzeuge, die nicht einmal die hohen Schadstofflimits für die „rote Plakette“ erfüllten, hätten technisch nachgerüstet werden müssen – wofür in der Regel 600 Euro gereicht hätten. Die dadurch entstandenen Kosten von insgesamt 120 Millionen Euro wären durch die jährlich 15,8 Millionen Euro an Arzneimittel-Einsparungen, Zinseffekt mitgerechnet, binnen eines Jahrzehnts gegenfinanziert.
Und der Nutzen der Umweltzonen ist damit nur zu einem kleinen Teil erfasst. Denn beziffert wurde eben nur, was man belastbar in Euro und Cent bei verschreibungspflichtigen Medikamenten erfassen kann. Arzneimittel machen insgesamt nur 17 Prozent der Kosten des öffentlichen Gesundheitswesens aus. Außer Betracht bleiben weitere Gesundheitsausgaben für die ärztliche Versorgung, die häufig betrachteten bedeutsamen Effekte auf verfrühte Sterblichkeit und auch die nachweislich positiven Effekte besserer Luftqualität auf individuelle Leistungsfähigkeit, Produktivität und Bildungserfolg. Zudem fällt der Blick eben nur auf die Einführungsphase, die besonders schadstoffintensive alte Fahrzeuge betraf.
„Unser Forschungsansatz ermöglicht auch für die Zukunft eine rationale Kosten-Nutzen-Analyse“, sagt MCC-Forscher Koch. „Etwa mit Blick auf die Diskussion um eine weitere Verschärfung durch eine blaue Plakette.“
Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/koch-nicolas.html
Originalpublikation:
Rohlf, A., Holub, F., Koch, N., Ritter, N., 2020, The effect of clean air on pharmaceutical expenditures, Economics Letters
https://doi.org/10.1016/j.econlet.2020.109221
Weitere Informationen:
https://www.mcc-berlin.net/
Anhang
MCC: Städtische Umweltzonen senken Ausgaben für Herztabletten und Asthmasprays
https://idw-online.de/de/attachment79976
Quelle: IDW
Trotz Beschäftigungszuwachs: Die Rentenanwartschaften von Frauen stagnieren vielfach aufgrund niedriger Einkommen
Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Eine Untersuchung der Versicherungsbiografien in der gesetzlichen Rentenversicherung von Frauen unterschiedlicher Geburtsjahrgänge in Ost- und Westdeutschland zeigt: Die eigenständige Altersvorsorge von Frauen hat sich trotz der gestiegenen Erwerbsbeteiligung von Frauen der jüngeren Geburtsjahrgänge in den ersten 20 Jahren der Erwerbsbiografie nicht entscheidend verbessert. Zu dominierend ist der Zuwachs der Beschäftigung von Frauen mit niedrigen Einkommen, das nicht für den Aufbau angemessener Rentenanwartschaften ausreicht.
Aus den erzielten Rentenanwartschaften lässt sich schließen, dass bei rund 70 Prozent der Frauen das Erwerbseinkommen kaum ausreicht, um die gesetzliche Rente durch betriebliche oder private Vorsorge substanziell aufzustocken. Darüber hinaus, führen in Ostdeutschland sinkende Anwartschaften aus Beschäftigung zu einer wachsenden Ungleichheit innerhalb der jüngeren Geburtskohorten.
In der Studie, die von Dr. Laura Romeu Gordo vom Deutschen Zentrum für Altersfragen mit verfasst wurde, werden die Entwicklung der Versicherungsbiografien von Frauen in West- und Ostdeutschland auf Grundlage der Versicherungskontenstichprobe (VSKT) der Deutschen Rentenversicherung ausgewertet. Die Studie verglich die Rentenanwartschaften von Frauen in Ost- und Westdeutschland der Geburtsjahrgänge von 1950 – 1954, von 1960 – 1964 und von 1970 – 1974 jeweils bis zur Vollendung des 41. Lebensjahres, dem Alter, das die 1974 geborenen Frauen am letzten Erfassungsdatum der Versicherungskontenstichprobe Ende 2015 erreicht haben.
Die Analyse der Entgeltpunkte aus Beschäftigungszeiten zeigt:
Für Westdeutschland:
Der Beschäftigungszuwachs bei Frauen in Westdeutschland bei jüngeren Kohorten führte bis zum 41. Lebensjahr zu keinen wesentlich höheren Rentenanwartschaften aus Beschäftigung. Gemessen am heute aktuellen Rentenwert unterscheiden sich die Anwartschaften innerhalb jeweils eines Zehntels der Verteilung zwischen der ältesten und der jüngsten Kohorte um weniger als 30 Euro (weniger als einen Entgeltpunkt). Ein Grund ist die Zunahme an Jobs mit niedrigen Einkommen, die zwar zu steigenden Erwerbsquoten bei den später geborenen Frauen führt, aber nicht zu höheren Rentenanwartschaften. So weisen bspw. das Drittel der Frauen mit den niedrigsten Rentenanwartschaften aus der jüngsten Kohorten deutlich längere Versicherungszeiten auf als die früher geborenen Frauen, erzielen aber keine höheren Rentenanwartschaften aus Beschäftigung. Der Beschäftigungszuwachs verpufft im Hinblick auf die Alterssicherung fast vollständig.
Nur bei den zehn Prozent der jüngeren Frauen mit hohen Anwartschaften aus Beschäftigung (mit überdurchschnittlichen Einkommen von mehr als 1,3 Entgeltpunkten pro Beschäftigungsjahr) deutet sich an, dass sie im Vergleich zu den älteren Kohorten eine bessere „Startposition“ bei der Alterssicherung erreicht haben, die im weiteren Erwerbsverlauf zu höheren Rentenanwartschaften führen kann. Bemerkenswert ist, dass obwohl in den jüngeren Geburtskohorten der Anteil an kinderlosen Frauen in Westdeutschland zunimmt, der Anteil der Beschäftigungszeiten mit höheren Einkommen aber stagniert. Dies könnte durch die längeren Ausbildungszeiten in diesem Sektor bedingt sein.
Für Ostdeutschland:
In den neuen Bundesländern gibt es einen klaren Trend zu zunehmender Ungleichheit bei den Rentenanwartschaften aus Beschäftigung von Frauen bei den jüngeren Geburtsjahrgängen. Dieser resultiert vor allem aus der Verringerung der Anwartschaften aus durchschnittlich entlohnter Beschäftigung. Diese lagen in der älteren Geburtskohorte, deren Versicherungszeiten ausschließlich oder wesentlich aus DDR-Zeiten stammen, höher. Auch nehmen die Beschäftigungsphasen im Altersabschnitt zwischen 20 und 41 Jahren von Kohorte zu Kohorte ab, gleichzeitig wachsen die Beschäftigungsanteile mit niedrigen Einkommen. Nicht nur dass die ostdeutschen Frauen nur geringe Anwartschaften aus Beschäftigung aufbauen konnten – bei den Jüngeren unter ihnen häufen sich zudem Phasen von Arbeitslosigkeit.
Nur die zehn Prozent der ostdeutschen Frauen mit den höchsten Anwartschaften schneiden im Kohortenvergleich besser ab. Insgesamt zeigt sich eine zunehmende Polarisierung bei den Anwartschaften bei den jüngeren Kohorten, wobei es klare Verliererinnen des wirtschaftlichen Transformationsprozesses nach der Wiedervereinigung gibt.
Über die Rentenhöhe bei Eintritt in die Altersrente in der Zukunft lässt sich aus diesen Befunden keine Aussage ableiten, weil die institutionellen, ökonomischen und sozialen Kontexte sich für die Kohorten stark verändert haben. Zu nennen sind hier bspw. ein rapider Beschäftigungszuwachs bei Frauen über 50 Jahre, die Heraufsetzung der Regelaltersgrenze und damit verbunden wahrscheinlich längere Beschäftigungszeiten.
Ansätze, die eigenständige Altersvorsorge von Frauen zu verbessern, sehen die Autor*innen in den Kinderzulagen im Rahmen der Riester-Förderung und dem im Jahr 2018 eingeführten Förderbetrag für arbeitgeberfinanzierte Betriebsrenten für geringverdienende Mitarbeiter/innen.
Originalpublikation:
Wolfgang Keck und Laura Romeu Gordo: Die Entwicklung der Rentenanwartschaften von Frauen
im Kohortenvergleich: die Rolle von Niedrigeinkommen. Sozialer Fortschritt, 69 (2020), Heft 5, S. 325 – 347, https://doi.org/10.3790/sfo.69.5.325
Quelle: IDW
Baustart für Smartes Quartier Durlach: Wärmepumpen und Photovoltaik halbieren CO2-Emissionen in Bestandsgebäuden
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
In Karlsruhe-Durlach haben die Bauarbeiten zur Umsetzung eines innovativen Energieversorgungskonzeptes für fünf Mehrfamilien-Bestandsgebäude mit 175 Wohnungen begonnen. Im Rahmen des Projekts »Smartes Quartier Karlsruhe-Durlach« wird die derzeitige konventionelle Versorgung durch ein Energiesystem ersetzt, bei dem zwei Wärmepumpen, Photovoltaik-Anlagen (PV), Erdgas-Blockheizkraftwerke (BHKW) und ein Energiemanagement mit KI-basierter Fehlererkennung zum Einsatz kommen. Ziele sind die Halbierung des Primärenergieverbrauchs und der damit verbundenen CO₂-Emissionen und die Erprobung eines wirtschaftlichen Betreiberkonzeptes.
Innovative Wärmepumpen und Photovoltaik-Strom
In dem vom BMWi geförderten Projekt bauen die Volkswohnung GmbH und die Stadtwerke Karlsruhe eine dezentrale und solare Energieversorgung für den Gebäudekomplex in Karlsruhe-Durlach auf. Das Vorhaben wird durch das Fraunhofer-Institut für Solare Energiesysteme (ISE) und das Institut für Nachhaltige Technische Systeme INATECH der Albert-Ludwigs-Universität Freiburg in der Konzeptentwicklung unterstützt und im Betrieb wissenschaftlich begleitet. Aktuell werden die fünf Mehrfamilienhäuser (175 Wohnungen, 1963 errichtet und 1995 energetisch teilmodernisiert, beheizte Grundfläche von 11.600 m², Strombedarf/Jahr: ca. 350 MWh, Wärmebedarf/Jahr: 1200 MWh) durch Erdgaskessel und Strom aus dem Netz versorgt.
Das für die energetische Sanierung entwickelte Energiekonzept setzt auf die Kombination bewährter Technologien. So werden auf den Dächern aller Gebäude PV-Anlagen installiert. Drei der Gebäude sind mit einer Nahwärmeleitung verbunden, in die zwei Erdgas-BHKW-Aggregate Wärme einspeisen. Eine wesentliche Voraussetzung für die Umsetzung des Konzepts ist der Quartiersansatz, also die Vernetzung mehrerer Gebäude sowohl durch Austausch von Energie als auch einer übergreifenden Betriebsführung und Regelung.
Zwei Gebäude werden durch dezentrale Wärmepumpenanlagen mit innovativen Wärmequellen versorgt: eine Mehrquellen-Großwärmepumpe (Außenluft, Erdwärmesonden), die im Forschungsvorhaben »LowEx im Bestand-HEAVEN« entwickelt wird, sowie eine Wärmepumpenanlage mit photovoltaisch- thermischen Kollektoren als Wärmequelle. Bislang kommen Wärmepumpen in Bestands-Mehrfamilienhäusern nur selten zum Einsatz. Die Integration in bestehende Mehrfamilienhäuser ist technisch anspruchsvoll, was Temperaturniveau, die Verfügbarkeit von Wärmequellen und die Versorgung mit erneuerbarem Strom angeht.
»Die Kombination von Wärmepumpen mit Photovoltaik und einem Blockheizkraftwerk, zusammen mit Wärmespeichern, hat sowohl energetisch als auch ökonomisch großes Potenzial. Für Wohnungsgesellschaften ist bei optimaler Auslegung ein wirtschaftlicher Betrieb im Rahmen eines Contracting-Modells möglich«, betont Stefan Storz, Geschäftsführer der Volkswohnung GmbH.
CO2-Emissionen minimieren, Wirtschaftlichkeit optimieren
Für die Konzepterstellung des Energiesystems wurde das Quartier mit allen Erzeugern und Verbrauchern vom Fraunhofer ISE simuliert und das Versorgungskonzept so optimiert, dass die CO₂-Emissionen durch den Verbrauch von Erdgas und Netzstrom minimiert und gleichzeitig die für die Mieter erforderliche Wirtschaftlichkeit erzielt wird. Dies wird unter anderem durch ein intelligentes Energiemanagement erreicht, welches die Wärmepumpen und den BHKW-Betrieb so steuert, dass die Wärmepumpen bevorzugt mit selbst erzeugtem PV- oder BHKW-Strom betrieben werden können. Zur Betriebsoptimierung werden neuartige Fehlererkennungsalgorithmen entwickelt und erprobt, die auf Verfahren der künstlichen Intelligenz basieren.
»Die Simulationsergebnisse zeigen, dass die intelligente Integration aller drei Technologien eine CO₂-Einsparung von über 50 Prozent und zugleich eine hohe Wirtschaftlichkeit für den Betreiber erwarten lassen«, so Dr. Manuel Lämmle vom Fraunhofer ISE in Freiburg.
Monitoring sichert optimalen Betrieb und Übertragbarkeit auf Folgeprojekte
Das Institut INATECH der Uni Freiburg und das Fraunhofer ISE installieren im Rahmen des Projekts ein Monitoring-System und werten die erhobenen Messdaten über drei Betriebsjahre hinweg aus. Dies soll zum einen wissenschaftliche Fragestellungen zur energetischen Performance des innovativen Energiekonzepts beantworten. Zur Überprüfung des Energiekonzeptes werden Vorher/Nachher- sowie Soll/Ist-Vergleiche und Energiebilanzen erstellt. Zum anderen soll nach der Monitoring-Phase ein optimiertes Regelungskonzept verfügbar sein, das durch den Betreiber weitergeführt werden kann.
»Die genaue Messung und Dokumentation der Einsparungen, die durch das neue Energiekonzept erzielt werden, soll möglichst viele weitere Unternehmen der Wohnungswirtschaft bei der Entscheidung dafür unterstützen, ebenfalls in ambitionierte, klimafreundliche Versorgungskonzepte zu investieren«, erklärt Dr. Stefan Hess, Forschungsgruppenleiter am INATECH.
In Deutschland beträgt laut BMWi der gebäudebezogene Energieverbrauch rund 35 Prozent des gesamten Endenergiebedarfs. Dabei befinden sich 54 Prozent aller Wohnungen und 41 Prozent der gesamten Wohnfläche in Mehrfamilienhäusern. Diese werden überwiegend mit Erdgas beheizt. Der Gebäudesektor und das Energiekonzept des Smarten Quartiers Karlsruhe-Durlach haben damit ein großes Potential zur Reduktion von CO₂-Emissionen.
Das Demonstrations-Projekt gehört zum thematischen Projekt-Verbund »LowEx-Konzepte für die Wärmeversorgung von sanierten Mehrfamilien-Bestandsgebäuden (LowEx im Bestand)«, das zur Markteinführung und -verbreitung von LowEx-Konzepten und Systemen für Bestandsgebäude beitragen soll. Der Begriff »LowEx« charakterisiert Systeme, die mit möglichst niedrigem Temperaturniveau arbeiten und durch die damit mögliche Nutzung von Umweltenergie in Wärmepumpen eine sehr hohe Effizienz erreichen.
Weitere Informationen:
https://www.ise.fraunhofer.de/de/presse-und-medien/presseinformationen/2020/baus…
https://www.ise.fraunhofer.de/de/forschungsprojekte/sq-durlach.html
https://www.ise.fraunhofer.de/de/geschaeftsfelder/energieeffiziente-gebaeude/geb…
Anhang
Presseinformation [PDF]
https://idw-online.de/de/attachment79983
Quelle: IDW
Bootsanstriche sollen Gewässer nicht mehr unnötig belasten
Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Wissenschaftler der BfG haben untersucht, wie sich die Biozidbelastung deutscher Gewässer reduzieren lässt. Dazu gehört ein Leitfaden, der es den Bootsbesitzern erleichtern soll, die Gewässer zu schonen.
Im Sommer locken das schöne Wetter und die angenehmen Temperaturen viele Bootsbesitzer auf das Wasser. Die Mehrheit fährt dabei auf Flüssen, Seen und Kanälen – 70 % der Sportboote haben ihr Revier im Binnenbereich. Doch je länger die Boote im Wasser sind, desto anfälliger sind ihre Rümpfe für Bewuchs durch Algen oder Muscheln, das sogenannte Biofouling. Mögliche Auswirkungen: Invasive Arten können sich verbreiten, aber auch der Strömungswiderstand der Boote nimmt deutlich zu. Sie werden langsamer und verbrauchen mehr Kraftstoff.
Um das Biofouling zu verhindern, kommen sogenannte Antifouling-Beschichtungen zum Einsatz. Sie enthalten oft Biozide, die unterbinden, dass sich Organismen ansiedeln. Bis zum Verbot im Jahr 2008 verwendeten zahlreiche Hersteller Tributylzinn (TBT). Danach drängten vermehrt Anstriche auf Kupferbasis auf den Markt. Im Vergleich zu TBT hat Kupfer jedoch eine geringere Wirkungsbreite, weshalb den Anstrichen zum Teil Co-Biozide beigemischt werden. Diese sind durch ihre toxische Wirkung auf Kleinstlebewesen allerdings nicht unbedenklich. Besonders kritisch hierbei: Im Wasser lösen sich die Biozide aus den Bootsanstrichen heraus. Einige Gewässer weisen bereits erhöhte Konzentrationen dieser Substanzen auf. In Deutschland gibt es bislang jedoch nur in einigen Regionen Einschränkungen zur Verwendung biozidhaltiger Anstriche.
Und genau hier setzt das Projekt „Minimierung von Umweltrisiken der Antifouling-Schiffsanstriche in Deutschland“ an, das vom Umweltbundesamt (UBA) initiiert und vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) finanzierte wurde. Die BfG hat im Rahmen des Projekts unter anderem ein Werkzeug für die Risikoabschätzung bei der Produktzulassung von Antifouling-Anstrichen entwickelt: Mit Hilfe eines neuen Szenarios kann das UBA bei der Umwelt-Risikobewertung von Antifouling-Produkten jetzt die höchsten zu erwartenden Wirkstoffkonzentrationen für Sportboothäfen in deutschen Binnengewässern abschätzen. Außerdem hat die BfG zusammen mit dem UBA alle im Projekt gewonnenen Erkenntnisse in einem Leitfaden zum besseren Umgang mit Antifouling-Produkten zusammengefasst. Der Leitfaden enthält Informationen zu Antifouling und den Umweltrisiken, die durch Antifouling-Produkte entstehen. Wesentlicher Bestandteil ist dabei ein Maßnahmenkatalog. Hier werden zahlreiche Möglichkeiten vorgestellt, mit denen Bootsbesitzer Umweltrisiken durch biozidhaltige Antifouling-Produkte vermindern können. Darunter fallen zum Beispiel die Auswahl eines geeigneten, wenn möglich biozidfreien Produkts, die Gestaltung und Ausstattung des Arbeitsplatzes während der Bootswartung sowie das professionelle Auftragen und Entfernen der Antifouling-Beschichtung.
Mit dem Projekt schlägt die BfG Lösungsansätze vor, mit denen alle beteiligten Akteure die Umweltrisiken bei der Verwendung biozidhaltiger Antifouling-Produkte so weit wie möglich minimieren können. Gleichzeitig trägt die BfG damit zu einer nachhaltigen Nutzung der deutschen Binnengewässer bei.
Wissenschaftliche Ansprechpartner:
Maria Redeker (redeker@bafg.de)
Dr. Arne Wick (wick@bafg.de)
Originalpublikation:
Minimierung von Umweltrisiken der Antifouling-Schiffsanstriche in Deutschland: Entwicklung von Handlungsoptionen im Rahmen der Produktzulassung (Umweltbundesamt, Texte 35/2020) (Link: https://www.umweltbundesamt.de/publikationen/minimierung-von-umweltrisiken-der-a…)
Quelle: IDW
Die Lebenszufriedenheit steigt nach Renteneintritt je nach Geschlecht und Erwerbsstatus
Sophie Zervos Kommunikation
GESIS – Leibniz-Institut für Sozialwissenschaften
Der Renteneintritt ist ein einschneidender Umbruch im Leben, der sich potenziell sowohl positiv als auch negativ auf die subjektive Bewertung der eigenen Lebensqualität auswirken kann. Mithilfe von Daten aus dem Survey of Health, Ageing and Retirement in Europe (SHARE) untersucht Valentina Ponomarenko (GESIS – Leibniz-Institut für Sozialwissenschaften) in ihrem in der aktuellen Ausgabe des Informationsdienst Soziale Indikatoren (ISI 64) erscheinenden Artikel die kurz- und langfristigen Veränderungen und kommt zu dem Schluss: Die Entwicklung der Lebenszufriedenheit nach der Verrentung hängt maßgeblich von der individuellen Situation ab.
Subjektives Wohlbefinden spielt eine wichtige Rolle für „erfolgreiches Altern“, hält gesund und verlängert die Lebenserwartung, das haben Studien in der Vergangenheit gezeigt. Doch welche Rolle spielt die Rente dafür? Auf der Basis der SHARE-Daten erfasst Valentina Ponomarenko in ihrer empirischen Studie die Entwicklung der subjektiven Lebenszufriedenheit mit dem Renteneintritt über einen längeren Zeitraum, in mehreren europäischen Ländern und für einzelne Bevölkerungsgruppen. Die Ergebnisse basieren auf einer Stichprobe mit 35.210 Befragten aus 18 Ländern, die zwischen 2004 und 2017 mindestens zwei bis maximal fünfmal befragt wurden. Zum Zeitpunkt der ersten Befragung waren die Befragten zwischen 50 und 80 Jahre alt und noch nicht verrentet.
Die Modelle zeigen positive Veränderungen der Lebenszufriedenheit für alle untersuchten Teilpopulationen, jedoch variieren diese zwischen den Geschlechtern und den Umständen der Verrentung. Die geringste Veränderung zeigen Männer und unmittelbar vor Renteneintritt Erwerbstätige, sie erleben keine statistisch signifikante Steigerung der Lebenszufriedenheit. Bei Frauen hingegen steigt die Zufriedenheit mit dem Renteneintritt in geringem Maße – dieser Effekt ist so noch nicht dokumentiert und weicht von den Ergebnissen vorheriger Studien ab. Die größte Steigerung der Lebenszufriedenheit nach dem Übertritt in die Rente erleben jedoch Erwerbslose und (z.B. aufgrund einer Krankheit) Inaktive. Erklären lässt sich dieser Effekt mit der Rollentheorie: Während der Verlust der Rolle als Erwerbstätige(r), Fachkraft oder Ernährer(in) eine Verschlechterung der Lebenszufriedenheit bedeuten kann, kann das Ablegen der mit einem Stigma verbundenen Rolle der Erwerbslosigkeit die Lebenszufriedenheit positiv beeinflussen.
Im europäischen Vergleich zeigt sich: In den meisten untersuchten Ländern wirkt sich der Renteneintritt positiv aus, insbesondere in Polen, Spanien und der Tschechischen Republik. Österreich, Israel, Griechenland und Italien hingegen zeigen einen negativen Effekt der Rente auf die subjektive Lebenszufriedenheit. Um positive oder negative Ausreißer reduziert, ergibt sich ein geringer aber statistisch signifikant positiver Effekt der Rente auf die Zufriedenheit für den gesamten untersuchten europäischen Raum.
Besonders zufrieden sind Neurentnerinnen und -rentner zu Beginn ihrer Rente, wie die Langfristbetrachtung einer reduzierten Stichprobe von 6.000 Befragten zeigt, mit der Zeit flacht der positive Effekt ab. Rentnerinnen und Rentner erleben also offenbar eine „Flitterwochenphase“, in der sie neu gewonnene Freizeit und Freiheiten besonders genießen.
Zur aktuellen Ausgabe (ISI 64):
https://www.gesis.org/fileadmin/upload/forschung/publikationen/zeitschriften/isi…
Ansprechpartner bei GESIS – Leibniz-Institut für Sozialwissenschaften:
Dr. Stefan Weick
Stefan.weick@gesis.org
Dr. Sophie Zervos
Wissenschaftskommunikation
Unter Sachsenhausen 6-8
50667 Köln
Tel.: +49 (0)221 – 47694 136
E-Mail: sophie.zervos@gesis.org
www.gesis.org
www.facebook.com/gesis.org
www.twitter.com/gesis_org
Als eine der weltweit führenden Infrastruktureinrichtungen für die Sozialwissenschaften steht das GESIS – Leibniz-Institut für Sozialwissenschaften Forscherinnen und Forschern auf allen Ebene ihrer Forschungsvorhaben mit seiner Expertise und seinen Dienstleistungen beratend zur Seite, so dass gesellschaftlich relevante Fragen auf der Basis neuester wissenschaftlicher Methoden, qualitativ hochwertiger Daten und Forschungsinformationen beantwortet werden können. GESIS ist Mitglied der Leibniz-Gemeinschaft und unterhält institutionelle und projektbezogene Kooperationen mit vielen Universitäten und Forschungseinrichtungen im In- und Ausland. GESIS ist an wichtigen europäischen Projekten wie u.a. dem European Social Survey (ESS), der European Value Study (EVS), dem europäischen Archivverbund CESSDA, oder dem OECD-Projekt Programme for the International Assessment of Adult Competencies (PIAAC) beteiligt.
Wissenschaftliche Ansprechpartner:
Dr. Stefan Weick
Stefan.weick@gesis.org
Originalpublikation:
Informationsdienst Soziale Indikatoren ISI 64: https://www.gesis.org/fileadmin/upload/forschung/publikationen/zeitschriften/isi…
Quelle: IDW
Kommunen und Covid-19 – Herausforderungen und Strategien in Zeiten einer Pandemie
Dr. Klauspeter Strohm Akademische Angelegenheiten, Weiterbildung
Deutsche Universität für Verwaltungswissenschaften Speyer
Das FUGATUS-Team der Universität Speyer hat den Abschlussbericht zu einer umfangreichen Befragung von Mitarbeiterinnen und Mitarbeitern der deutschen Kommunalverwaltung – einschließlich der Gesundheitsämter – zur aktuellen Lage im Kontext der COVID-19 Pandemie vorgelegt.
Das FUGATUS-Team an der Deutschen Universität für Verwaltungswissenschaften Speyer hat im April 2020 eine Befragung unter Mitarbeitenden deutscher Kommunalverwaltungen zur aktuellen Lage durch die Covid-19-Pandemie durchgeführt. Nach deren Einschätzung haben sich die Kommunen bisher in der Krise als leistungs- und innovationsfähig gezeigt und durch schnelle und gezielte Reaktionen ihre Handlungsfähigkeit bewahrt.
Die Speyerer Umfrage unterstreicht die Flexibilität der deutschen Kommunalverwaltungen. Dennoch zeichnen sich auch zahlreiche Herausforderungen ab, bei denen die Kommunen Unterstützung von anderen Stellen fordern. Hierzu gehören unter anderem finanzielle Hilfen, ein Ausbau der digitalen Infrastruktur, aber auch Verbesserungen in der Kommunikation. Die Situation in den Gesundheitsämtern stellt sich in vielerlei Hinsicht besonders angespannt dar.
Der komplette Bericht zur Umfrage ist abrufbar unter
https://www.uni-speyer.de/fileadmin/Forschung/Veroeffentlichungen/Arbeitshefte/A…
Weitere Informationen:
https://www.uni-speyer.de/fileadmin/Forschung/Veroeffentlichungen/Arbeitshefte/A…
Quelle: IDW
Flexible Strom- und Wasserkunden Das digitale Reallabor im Projekt „FLEXITILITY“ startet
Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Mit einer Befragung von über 1.000 Haushalten ist das digitale Reallabor im BMBF-Forschungsprojekt „FLEXITILITY“ gestartet. Neun Monate lang wird untersucht, wie Haushalte in Belastungssituationen ihren Strom- und Wasserverbrauch gezielt anpassen können. Zum einen sollen zukünftige Kosten für den Ausbau von Infrastruktur gesenkt werden. Zum anderen soll angesichts des Klimawandels und häufigerer Extremwetterereignisse, der Energiewende und demographischer Veränderungen die Resilienz von Versorgungsinfrastrukturen gesteigert werden.
Die Energiewende erfordert Anstrengungen auf allen Seiten, um Stromnachfrage und Angebot permanent in Einklang zu bringen. Auf Seiten der Wasserversorgung erschweren Städtewachstum und Extremwetter zunehmend die Bedienung der steigenden Bedarfsspitzen. Auch in anderen Gebieten der Daseinsvorsorge, wie der Abwasserbeseitigung und der Wärmeversorgung, verursachen der Klimawandel und gesellschaftliche Trends höhere Kosten für die Handhabung von Spitzenlasten. Im Zentrum des Forschungsprojektes „FLEXITILITY“ stehen daher zwei Fragen: Wie können Versorger ihre technische Infrastruktur flexibler gestalten, um Kosten zu sparen und den Ausbaubedarf für Extremereignisse zu mindern? Und wie können private Haushalte durch ein verändertes Konsumverhalten dazu beitragen, besonders hohe, kurzzeitige Leistungsnachfragen zu reduzieren?
Wieviel Flexibilität geht? Das digitale Reallabor liefert erste Antworten
„Das kürzlich gestartete Reallabor soll Antworten für eine verbraucherseitige Flexibilisierung liefern“, so Nadine Walikewitz von co2online gGmbH, verantwortlich für dessen Durchführung. Über 1.000 Anmeldungen aus ganz Deutschland wurden auf der Webplattform des Projekts bereits gezählt. „In den kommenden neun Monaten werden wir mit den teilnehmenden Haushalten drei Befragungen und drei Szenarien für fiktive Extremwettersituationen durchspielen“, so Walikewitz weiter. „Unter anderem werden wir sie dazu auffordern, Verbräuche aus Spitzenlastzeiten zeitlich zu verschieben oder den Verbrauch von Strom oder Wasser in bestimmten Zeiträumen zu reduzieren. Dies kann zum Beispiel die abendliche Dusche sein, die Bewässerung des Gartens oder auch die Nutzung eines elektrischen Wäschetrockners.“
In der aktuellen Befragungsrunde werden die Teilnehmenden zunächst zu ihrer Einstellung und ihren Erfahrungen mit dem Thema Wasser- und Stromsparen befragt. So soll ihre Bereitschaft ermittelt werden, ihr Verbrauchsverhalten während extremer Wetterereignisse anzupassen.
Potenziale einer „intelligenten“ Steuerung
Gesamtprojektkoordinator Dr. Shahrooz Mohajeri vom inter 3 Institut für Ressourcenmanagement verspricht sich wichtige Erkenntnisse für die nächsten Arbeitsschritte im Projekt. „Zum einen wollen die Projektpartner modellieren, in welchem Maße Verbraucher zur Reduktion von Spitzenlasten in der Strom- und Wasserversorgung beitragen können. Zum anderen wollen wir wissen, welche Anreize dazu mit welchen Tarifmodellen oder auch Nudging-Ansätzen wirksam gesetzt werden können.“
Grundlage für die Analysen sind sogenannte „Flexibilitätsoptionen“, technisch-bauliche Maßnahmen, die unter Federführung der BTU Cottbus-Senftenberg und der Energieavantgarde Anhalt e.V. gemeinsam mit Versorgungsunternehmen entwickelt wurden. Neben der Installation technischer Anlagenbauteile oder auch Speicher umfassen diese auch den (teil)automatisierten Betrieb „intelligenter“ strom- und wasserverbrauchender Geräte, wie z.B. fernsteuerbare Waschmaschinen, Spülmaschinen und Wäschetrockner. Die Akzeptanz für die Nutzung entsprechender Geräte oder notwendige Verhaltensänderungen steht deshalb auch im Zentrum des Reallabors.
Das Forschungsprojekt „FLEXITILITY“: praxisnah und regional verankert
Der räumliche Fokus von FLEXITILITY liegt auf der Einbindung von Städten und Infrastrukturbetreibern in der Region Anhalt. Dank ihrer Mitwirkung können im Reallabor Anhalt Flexibilisierungsoptionen und Umsetzungsstrategien frühzeitig erarbeitet und erprobt werden. Hierzu werden u.a. Workshops mit Bürgerinnen und Bürgern sowie Beteiligten aus der Gebäudewirtschaft, Industrie, dem verarbeitenden Gewerbe und Dienstleistungssektor geplant.
Das Forschungsprojekt „FLEXITILITY: Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur“ wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der der Leitinitiative Zukunftsstadt gefördert. Weitere Partner im Forschungsverbund sind das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik (IEE), die Stadt Bitterfeld-Wolfen mit der Stadtentwicklungsgesellschaft mbH (STEG) sowie der Herzberger Wasser- und Abwasserzweckverband (HWAZ), die Dessauer Versorgungs- und Verkehrsgesellschaft mbH (DVV), Stadtwerke Bitterfeld-Wolfen GmbH (SWB) und die Köthen Energie GmbH.
Wissenschaftliche Ansprechpartner:
Nadine Walikewitz, Managerin Research bei co2online gGmbH
Tel. 030 / 21 02 18 618
nadine.walikewitz@co2online.de
Weitere Informationen:
http://www.flexitility.de
Weitere Informationen zum Projekt FLEXITILITY
Anhang
inter3 Pressemitteilung_Reallabor FLEXITILITY
https://idw-online.de/de/attachment79988
Quelle: IDW
Wie finden Männer den Weg in die Krebsberatung?
Barbara Reinke M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Wie es gelingen kann, Männern den Weg in die ambulante Krebsberatung zu ebnen, ist Gegenstand einer Studie der Universitätsmedizin Mainz unter Federführung des Instituts für Medizinische Biometrie, Epidemiologie und Informatik (IMBEI) in Kooperation mit 15 Krebsberatungsstellen (KBS) in Deutschland. Im Rahmen der Studie startet nun ein Pilotprojekt, um zu überprüfen, wie wirksam bestimmte Maßnahmen sind.
Krebskranke Männer sind ebenso häufig psychosozial belastet wie Frauen. Während eines stationären Aufenthaltes im Krankenhaus nehmen sie psycho-onkologische Unterstützungsangebote genauso häufig wahr wie Frauen. In der ambulanten Versorgung gibt es hingegen große Unterschiede zwischen den Geschlechtern: In den Krebsberatungsstellen sind nur 30 Prozent aller Ratsuchenden Männer. Wie es gelingen kann, Männern den Weg in die ambulante Krebsberatung zu ebnen, ist Gegenstand einer Studie der Universitätsmedizin Mainz unter Federführung des Instituts für Medizinische Biometrie, Epidemiologie und Informatik (IMBEI) in Kooperation mit 15 Krebsberatungsstellen (KBS) in Deutschland. Im Rahmen der Studie startet nun ein Pilotprojekt, um zu überprüfen, wie wirksam bestimmte Maßnahmen sind.
Wie werden Versorgungsangebote wirksam? Wenn sie so konzipiert sind, dass sie von der Zielgruppe in Anspruch genommen werden. Dies trifft auch auf die psychologische und sozialrechtliche Beratung von Krebspatienten zu. Männer profitieren von der psycho-onkologischen Versorgung im ambulanten Bereich genauso wie Frauen. Bisherige Studien zeigen auch, dass Männer zwar durchaus Bedarf und Interesse an psychoonkologischer Versorgung haben, jedoch nehmen sie diese seltener wahr.
Die Gründe hierfür sind geschlechtsspezifisch und komplex. „Männer sind oftmals weniger gut informiert – sowohl was die Existenz der Krebsberatungsstellen anbelangt als auch wie hilfreich diese Anlaufstellen für sie sein könnten. Zudem verspüren sie subjektiv in geringerem Umfang den Bedarf an Beratung und haben mitunter Vorbehalte und falsche Vorstellungen von psychosozialen Angeboten. Des Weiteren haben Männer häufig die Erwartung an sich selbst, stark sein zu müssen und keine Hilfe zu benötigen“, erläutert Univ.-Prof. Dr. Susanne Singer, Leiterin der Abteilung Epidemiologie und Versorgungsforschung am Institut für Medizinische Biometrie, Epidemiologie und Informatik (IMBEI) der Universitätsmedizin Mainz.
Basierend auf diesen geschlechtsspezifischen Hürden haben die Wissenschaftler der Studie „Wege ebnen für Männer- Geschlechtsspezifische Zuweisung und Konzepte für die ambulante Krebsberatung (WAG_ES)“ einen Katalog mit konkreten, fördernden und motivierenden Maßnahmen entwickelt. Dieser startet nun als Pilotprojekt in die Umsetzungsphase.
Um das Leistungsangebot der ambulanten Beratungsstellen für Männer attraktiver zu machen, gehen die Experten in ihren Informationen beispielsweise verstärkt auf die spezifischen Bedürfnisse von Männern ein. Dazu zählt auch, die niedergelassenen Ärzte für eine derartige Kommunikation zu befähigen.
Patienten, Angehörige, Entscheidungsträger, Mitarbeiter von Krebsberatungsstellen, Ärzte, Medizinische Fachangestellte und Selbsthilfevertreter hatten in einer vorangegangenen Studienphase die geplanten Maßnahmen überprüft und weiterentwickelt.
Nach Abschluss der Pilotphase ist geplant, den Radius für die Implementierung auf verschiedene Regionen auszuweiten und dabei die Maßnahmen in einer randomisiert-kontrollierten Studie zu evaluieren.
Die Deutsche Krebshilfe fördert die 2019 gestartete und bis 2022 laufende Studie „Wege ebnen für Männer- Geschlechtsspezifische Zuweisung und Konzepte für die ambulante Krebsberatung (WAG_ES)“ mit insgesamt 269.000 Euro.
Kontakt:
Univ.-Prof. Dr. Susanne Singer
Institut für Medizinische Biometrie, Epidemiologie und Informatik (IMBEI)
Universitätsmedizin Mainz
Tel. 06131 17-5835
E-Mail singers@uni-mainz.de
Pressekontakt
Barbara Reinke, Stabsstelle Unternehmenskommunikation, Universitätsmedizin Mainz,
Tel. 06131 / 17 7428, Fax 06131 / 17 3496, E-Mail: pr@unimedizin-mainz.de
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.400 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.800 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Susanne Singer
Institut für Medizinische Biometrie, Epidemiologie und Informatik (IMBEI)
Universitätsmedizin Mainz
Tel. 06131 17-5835
E-Mail singers@uni-mainz.de
Quelle: IDW
Arbeitsrecht: Recht auf Homeoffice – Pflicht oder Segen
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Bundesarbeitsminister Hubertus Heil will Recht auf Homeoffice per Gesetz. Juristin Prof. Dr. Antje G. I. Tölle von der Hochschule für Wirtschaft und Recht Berlin sagt, das passe ohne flankierende Reformen nicht zum Arbeitsmarkt und Arbeitsrecht in Deutschland. Ein Interview.
• Geplantes Gesetz zum Recht auf Homeoffice passt weder in die Realität des deutschen Arbeitsmarktes noch in das Gefüge des Arbeitsrechtes.
• Koalitionsvertrag sieht lediglich Auskunftsanspruch bei Antragsrecht vor, bleibt weit hinter gesetzlich garantiertem Anspruch auf mobiles Arbeiten zurück.
• Rückkehrrecht ins Büro und anlassloses Homeoffice für alle Beschäftigten muss garantiert werden.
Was verbirgt sich hinter dem Recht auf Homeoffice?
Das neudeutsche Homeoffice ist ein Synonym für mobiles Arbeiten. Auch Telearbeit oder andere Begriffe meinen die vollständige oder teilweise Arbeit außerhalb der Betriebs- und Geschäftsräume. Bundesminister Heil hat Ende April angekündigt, bis zum Herbst einen Gesetzesentwurf dazu vorzulegen. Ich halte es für gewagt, Homeoffice von Rechts wegen zu statuieren. Es passt weder in die Realität des deutschen Arbeitsmarktes noch in das Gefüge des Arbeitsrechtes.
Sie sind gegen das Homeoffice? Weshalb?
Nein, im Gegenteil, ich arbeite gern und sehr effizient von zu Hause, nicht nur jetzt in der Pandemiezeit. Aber ich vermisse den unmittelbaren Austausch mit meinen Kolleginnen und Kollegen. Und auch in der Lehre ist die Zusammenarbeit mit den Studierenden eine ganz andere. Kritisch sehe ich das geplante Gesetz, weil nicht jeder Beruf Homeoffice-fähig ist, denken Sie etwa an die Gastronomie, das Handwerk oder den Gesundheitsbereich. Und das führt zu Ungleichheit.
Weil es auch als Vertrauensbeweis und Wertschätzung empfunden wird?
Ich halte das Homeoffice für nur einen Baustein von vielen im Konstrukt wertschätzender moderner „Guter Arbeit“ – wo es denn die Tätigkeit zulässt. Es gibt neben diesen „weichen“ Faktoren auch handfeste, messbare Vorteile. Beim Arbeiten von zu Hause entfällt beispielsweise der Arbeitsweg, dadurch bleibt mehr Freizeit. Und es fördert das Wohnen im ländlichen Raum. Das ist ein wichtiger Beitrag angesichts zunehmend überlasteter urbaner Agglomerationsräumen, also der Konzentration der Bevölkerung in den Städten. Weniger Pendelwege verringern die Klimabelastung merklich.
Diese und andere Argumente werden sinngemäß im geltenden Koalitionsvertrag aufgelistet. Mobiles Arbeit soll gefördert werden. Also stehen die Zeichen auf Grün?
Entgegen der jüngsten Verlautbarung von Bundesminister Heil sieht der Koalitionsvertrag nur einen „Auskunftsanspruch der Arbeitnehmer gegenüber ihrem Arbeitgeber über die Entscheidungsgründe der Ablehnung“ vor. Rechtlich flankiert ein solcher Auskunftsanspruch ein Antragsrecht, mehr nicht. Es bleibt weit hinter einem Recht, also einem gesetzlich garantieren Anspruch auf mobiles Arbeiten zurück.
Wie kann ein Gesetz entgrenzter Arbeitszeit und dem Druck, immer erreichbar sein zu müssen, entgegenwirken? Studien zeigen, dass Arbeitnehmer im Homeoffice mehr Überstunden leisten.
Diese Sorgen mögen teilweise berechtigt sein. Im Vergleich zu Kolleginnen und Kollegen, die vor Ort arbeiten, schlägt das Arbeiten von zu Hause bei Umfragen nicht selten mit Mehrarbeit zu Buche. Doch das Homeoffice sollte deshalb nicht prinzipiell zum Schwarzen Peter werden. Die Bedenken sind nicht neu, stellen sich auch, wenn der Vorgesetzte während des Urlaubs anruft oder spätestens dann, wenn ein Diensthandy überlassen wird.
Wie löst man das Dilemma, wenn mobil nicht implizieren darf: immer agil?
Nun, Smartphones werfen die Frage auf, ob jede eintreffende E-Mail zwangsläufig an Arbeitnehmer appelliert, umgehend ihre Arbeit aufnehmen zu müssen. Ein Blick in die geltenden Vorschriften des Arbeitsschutzes zeigt, dass jeder Arbeitnehmerin und jedem Arbeitnehmer elf Stunden Ruhezeit zustehen. Vorgesetzte können also gar kein Interesse daran haben, jede Nachricht als Arbeitsaufforderung verstanden zu wissen. Vielmehr wird teilweise diskutiert, ob es schier als aufgedrängte Arbeit zu werten ist, wenn auf jede Nachricht reagiert wird. Durch die Arbeitsaufnahme entstehen Überstunden, die gar nicht beabsichtig sind, und die Ruhezeit wird unterbrochen. Außerdem wird damit auch die Arbeitszeit der Führungskraft entgrenzt.
Wie realistisch ist es anzunehmen, dass ein Gesetz das alles regeln kann?
Gesetzliche Regeln können nur Leitplanken schaffen. Es obliegt auf der einen Seite einer verantwortungsvollen nachhaltigen Führungskultur, Regeln zu vereinbaren; sowohl für die Präsenzarbeit im Büro, wie für die mobile Arbeit. Ich bin davon überzeugt, dass es vor Ort Abreden gibt, wie ein Arbeitsauftrag zu verstehen und zu gewichten ist, so dass dies nur auf das mobile Arbeiten übertragen werden muss.
Das Homeoffice ist ein anspruchsvolles Arbeitsfeld auch im Hinblick auf Selbstorganisation und -verantwortung.
Absolut, es darf nicht unterschätzt werden, dass das Homeoffice und andere Flexibilisierungen ein Mehr an eigener Organisation und Verantwortung von Mitarbeiterinnen und Mitarbeitern verlangt. Beim Arbeiten von Zuhause muss man sich ebenso vor Ablenkungen abschirmen wie im Büro. Es drängt sich hier vielleicht schneller ein schlechtes Gewissen auf, als wenn sich das Gespräch mit der Kollegin oder dem Kollegen in der Kaffeeküche mal länger hinzieht.
Vertrauensarbeitszeiten gab es schon, bevor die Corona-Pandemie dem Homeoffice Vorschub leistete.
Ja, und deshalb bin ich der festen Überzeugung, dass dieser Weg gangbar ist. Mitarbeiterinnen und Mitarbeiter haben die Vorteile von Rahmenarbeitszeiten zu schätzen gelernt. Es ist gängige Praxis, dass sich Kolleginnen und Kollegen außerhalb der Kernarbeits- oder Funktionszeit begrüßen, verabschieden oder anderweitig ihren Dienstbeginn und Feierabend kommunizieren, miteinander arbeiten. Diese Tradition lässt sich digitalisieren. Sie setzt auch klare Grenzen und schützt vor entgrenzten Arbeitszeiten.
Flexible und individuelle Vereinbarungen und Lösungen, welchen konkreten Beitrag können Gewerkschaften hier leisten?
Gute Arbeit ist das gemeinsame Werk aller Sozialpartner. Gerade beim Homeoffice können die Gewerkschaften viel ausrichten, indem sie auf Betriebsräte und Personalräte einwirken und insbesondere Vorurteile abbauen. Aus der Praxis vernehme ich immer wieder, dass das Thema „Homeoffice“ für beide Seiten mit vielen Unsicherheiten und teilweise Vorurteilen besetzt ist. Hier möchte ich Gewerkschaften ermuntern, in die Vorreiterrolle zu schlüpfen, indem sie Best-Practice-Beispiele vorstellen. Ich wünsche mir ein Muster für Betriebs- und Dienstvereinbarungen zum Homeoffice, die zum Beispiel zwischen Sozialpartnern abgestimmt auf der Internetseite des Bundesministeriums für Arbeit und Soziales abrufbar ist.
Statt eines Gesetzes?
Solche Betriebs- und Dienstvereinbarungen wären ein niedrigschwelliges Instrumentarium und weit konkreter und wirkungsvoller als ein plakatives „Recht auf Homeoffice“. Sie bieten vor allem die Chance, gesellschaftliche Realitäten konkret abzubilden. Beispiele dafür gibt es bereits, aber auch Nachbesserungsbedarf. Mir bekannte Dienst- oder Betriebsvereinbarungen zum Homeoffice zielen vielfach allein auf soziale Implikaturen ab. Sie bevorzugen oder berücksichtigen zum Teil ausschließlich Mitarbeiterinnen und Mitarbeiter mit Kindern und pflegebedürftigen Angehörigen. Nur diese können auf begründeten Antrag von zu Hause arbeiten.
Wie würden Sie diese Regelung erweitern?
Diese Kriterien halten keine Lösung bereit, wenn Angehörige plötzlich erkranken. So lässt sich nicht die Zeit der Genesung überbrücken oder bis – im schlimmsten Fall – eine Pflegestufe zugesprochen wurde. Darüber hinaus muss die Betreuungssituation von Kindern in heutigen vielfältigen Erziehungsmodellen abgebildet werden und es auch Großeltern ermöglichen, im Homeoffice für die Betreuung ihrer Enkel zu arbeiten. Patchwork-Familien, in denen Lebenspartnerinnen oder -partner die Betreuungsarbeit übernehmen, kommen hier noch nicht vor. Weiterhin sollten sich Schwerbehindertenvertretungen dafür einsetzen, dass das Homeoffice eine wichtige Komponente der Teilhabe oder Wiedereingliederung sein kann. Denkbar wäre ein gestuftes Modell aus anlasslosem Homeoffice für alle Mitarbeitenden. Auch Weiterungen für besondere soziale Situationen gleichen hier aus.
Welche generellen Erwartungen und Vorschläge knüpfen Sie als Juristin an das angekündigte Gesetz?
Zunächst sollte die Diskussion rund um das Homeoffice genutzt werden, um etwa die Arbeitsschutzvorschriften zu modernisieren, damit auch zu Hause der Arbeitsunfall und die Arbeit vor Bildschirmen gesichert ist. Einen Heimarbeitsplatz zu unterhalten bedarf diverser technischer Voraussetzungen, die gerade kleine und mittlere Unternehmen stark beanspruchen können. Deswegen wünsche ich mir eine Blaupause des § 8 Teilzeit- und Befristungsgesetz. Hier kann jeder eine Teilzeitbeschäftigung beantragen, anschließend wird die Möglichkeit erörtert. Arbeitgeberinnen und Arbeitgebern bleibt es jedoch möglich, sie aus betrieblichen Gründen abzulehnen. Darüber hinaus sollte der Gesetzgeber darauf achten, dass ein Rückkehrrecht ins Büro offensteht. Sonst fürchte ich, dass das Recht auf Homeoffice sich in eine Pflicht zum Homeoffice verkehrt.
Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht (HWR) Berlin.
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
http://www.hwr-berlin.de
Weitere Informationen:
https://www.youtube.com/watch?v=rtKE6yDe-KU –
Video-Interview mit Prof. Dr. Antje G. I. Tölle, „Alles was recht ist: Wie steht es um das geplante Recht auf Homeoffice?“
Quelle: IDW
Energiewende braucht Aufwind: Windräder sollen Kommunen und Bürgern finanziell nutzen
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Anrainer-Kommunen sollen an Windrädern bis zu 20.000 Euro im Jahr mitverdienen
► Forscher schlagen vergünstigten Bürgerstromtarif für Haushalte im Umkreis von Windrädern vor
Berlin, 25. Mai 2020 – Der Ausbau der Windenergie in Deutschland hat in den letzten Jahren eine Flaute erlebt. Akzeptanzprobleme bei Anrainer-Kommunen und Einschränkungen von Bürgerenergieprojekten haben zu einem starken Rückgang beim Ausbau von Windenergieanlagen geführt. Um der Windenergie als zentralem Bestandteil der Energiewende in Deutschland neuen Aufwind zu geben, kommen nun neue finanzielle kommunale Beteiligungsinstrumente ins Gespräch. So sollen Anlagenbetreiber über das Erneuerbare-Energien-Gesetz verpflichtet werden, je Kilowattstunde erzeugter Strommenge 0,1 Cent an Standort- und Nachbarkommunen des Windrades zu zahlen. Den Vorschlag, der vom Bundeswirtschaftsministerium in einen Gesetzgebungsprozess aufgenommen wurde, haben das Institut für ökologische Wirtschaftsforschung (IÖW) gemeinsam mit der Rechtsanwaltskanzlei Becker Büttner Held und dem Institut für Klimaschutz, Energie und Mobilität erarbeitet.
„Kommunen und Bürgerinnen und Bürger an den Umsätzen und Gewinnen von Windenergieanlagen vor Ort zu beteiligen, ist ein wichtiger Faktor um Akzeptanz zu stärken – das bestätigt eine Vielzahl aktueller Forschungsarbeiten“, erläutert Studienautor Steven Salecki vom IÖW. „Wir schlagen vor, dass alle Kommunen innerhalb eines definierten Umkreises, der etwa dem 15-fachen der Anlagenhöhe entspricht, finanziell beteiligt werden. Pro Windrad ergeben sich so jährlich circa 10.000 Euro, die sicher an die Kommune fließen.“
Windpark mit fünf Windrädern: Bis zu 100.000 Euro für Anrainerkommune
Neben der kommunalen Beteiligung empfehlen die Energieexperten, dass die Anlagenbetreiber privaten Haushalten im Umkreis des Windrads einen vergünstigten Bürgerstromtarif anbieten. Ist dieser etwa 20 Prozent günstiger als der lokale Grundversorgertarif, kann ein Vierpersonenhaushalt so pro Jahr durchschnittlich 100 bis 200 Euro sparen. Wird vor Ort kein vergünstigter Stromtarif angeboten, so soll die Zahlung an die Kommune auf zwei Euro pro Megawattstunde erhöht werden, also ca. 20.000 Euro pro Windrad und Jahr. Bei einem Windpark von fünf Anlagen erhielte eine Anrainerkommune somit bis zu 100.000 Euro. „Wir gehen davon aus, dass damit ein starker Anreiz geschaffen wird, dass sich Kommunen wieder für die Ansiedelung von Windenergie interessieren, sich aktiv in die Regionalplanung einbringen und die Errichtung von Windanlagen durch lokale Akteure unterstützen“, erläutert IÖW-Energieexperte Bernd Hirschl die Erwartungen an die finanziellen Anreize.
Basis für die Empfehlung der Forscher an das Bundeswirtschaftsministerium war eine umfangreiche Bewertung verschiedener Instrumente, die das Ziel verfolgen, über eine finanzielle Beteiligung von Kommunen die Akzeptanz für den Windenergieausbau an Land zu erhöhen.
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-16
E-Mail: richard.harnisch@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Über 60 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de
Wissenschaftliche Ansprechpartner:
Dr. Steven Salecki
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-0
E-Mail: steven.salecki@ioew.de
Quelle: IDW
Diabetes mellitus: Ein Risikofaktor für frühe Darmkrebserkrankungen
Dr. Friederike Fellenberg Unternehmenskommunikation
Nationales Centrum für Tumorerkrankungen (NCT) Heidelberg
Um herauszufinden, wie hoch das Darmkrebsrisiko für Diabetiker ist, haben Wissenschaftler die Daten von fast 13 Millionen Personen ausgewertet. Die Forscher vom Deutschen Krebsforschungszentrums (DKFZ) und am Nationalen Centrum für Tumorerkrankungen (NCT) Heidelberg konnten zeigen, dass Diabetiker ein vergleichbar hohes Darmkrebsrisiko haben wie Menschen, in deren Familien gehäuft Darmkrebs auftritt. Zudem haben Diabetiker ein höheres Risiko, bereits vor dem 50. Lebensjahr an Darmkrebs zu erkranken.
Um herauszufinden, wie hoch das Darmkrebsrisiko für Diabetiker ist, haben Wissenschaftler die Daten von fast 13 Millionen Personen ausgewertet. Die Forscher vom Deutschen Krebsforschungszentrums (DKFZ) und am Nationalen Centrum für Tumorerkrankungen (NCT) Heidelberg konnten zeigen, dass Diabetiker ein vergleichbar hohes Darmkrebsrisiko haben wie Menschen, in deren Familien gehäuft Darmkrebs auftritt. Zudem haben Diabetiker ein höheres Risiko, bereits vor dem 50. Lebensjahr an Darmkrebs zu erkranken.
Das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Heidelberg (UKHD) und der Deutschen Krebshilfe (DKH).
Darmkrebs ist in Deutschland und weltweit die dritthäufigste Krebsart und die zweithäufigste Krebstodesursache. Mit besonderer Besorgnis beobachten Wissenschaftler, dass insbesondere die Zahl der jungen Darmkrebspatienten weiter zunimmt. Es wird daher immer wichtiger, spezifische Risikofaktoren für Darmkrebs bei jungen Erwachsenen zu identifizieren, sodass Hochrisikopersonen früher von einer Vorsorgeuntersuchung profitieren können. In Deutschland haben Frauen und Männer bislang ab 50 Jahren Anspruch auf Maßnahmen zur Darmkrebsfrüherkennung.
Untersuchungen weisen darauf hin, dass Diabetiker, insbesondere Menschen mit Typ 2 Diabetes, gegenüber der Normalbevölkerung ein höheres Risiko haben, an Darmkrebs zu erkranken. Diabetes und Darmkrebs haben einige Risikofaktoren wie etwa Fettleibigkeit, Bewegungsmangel und Stoffwechselfaktoren gemeinsam. „Bisher galt Diabetes nicht als anerkannter Risikofaktor für frühe Darmkrebserkrankungen und der Zusammenhang zwischen Diabetes und familiärem Darmkrebsrisiko war noch weitgehend unbekannt“, berichtet Mahdi Fallah, Leiter der Gruppe Risikoadaptierte Prävention in der Abteilung Präventive Onkologie des DKFZ und am NCT Heidelberg.
Die Heidelberger Forscher haben daher in Kooperation mit Kollegen der Universität Lund insgesamt 12,6 Millionen Daten von nach 1931 geborenen schwedischen Bürgern inklusiv ihren Eltern ausgewertet. „Ziel war es, das Darmkrebsrisiko insbesondere im Alter unter 50 Jahren bei Diabetikern mit und ohne Darmkrebspatienten in der Familie zu bestimmen“, erklärt Elham Kharazmi, Ko-Leiterin der Studie und Wissenschaftlerin des DKFZ und am NCT Heidelberg.
Während des Studienzeitraums von 1964 bis 2015 hatten insgesamt 559.375 der untersuchten Personen Diabetes und 162.226 eine Darmkrebserkrankung. Die Auswertung dieser weltweit größten Datenbank ihrer Art zeigte, dass bei Diabetikern das Risiko für Darmkrebs in allen Altersgruppen erhöht war. Das Risiko, in jungen Jahren an Darmkrebs zu erkranken, war bei Diabetikern ohne Verwandte mit Darmkrebs sogar ähnlich hoch wie bei familiär vorbelasteten Nicht-Diabetikern. Diabetiker, bei deren Verwandten ersten Grades Darmkrebs diagnostiziert wurde, hatten gegenüber der Allgemeinbevölkerung ein etwa 7-fach erhöhtes Risiko, bereits unter 50 Jahren selber Darmkrebs zu entwickeln.
Die Ärzte und Wissenschaftler empfehlen daher Diabetikern, die Möglichkeiten zur Darmkrebsfrüherkennung in Deutschland wahrzunehmen, spätestens, wenn sie 50 Jahre alt sind. „Unsere Studie konnte zeigen, dass Diabetiker ein erhöhtes Risiko haben, bereits vor dem 50. Lebensjahr an Darmkrebs zu erkranken. Dies ist wichtig zu wissen, um diesen Menschen zukünftig früher ein risikoangepasstes Darmkrebsscreening anzubieten“, sagt Fallah.
Originalpublikation:
U. Ali Khan, M. Fallah, Y. Tian, K. Sundquist, J. Sundquist, H. Brenner, E. Kharazmi: Personal History of Diabetes as Important as Family History of Colorectal Cancer for Risk of Colorectal Cancer: A Nationwide Cohort Study. The American Journal of Gastroenterology 2020; https://doi.org/10.14309/ajg.0000000000000669
Die wichtigsten Erkenntnisse der Studie:
https://www.nct-heidelberg.de/fileadmin/media/nct-heidelberg/news/Meldungen/Bild…
Ansprechpartner für die Presse:
Dr. Friederike Fellenberg
Nationales Centrum für Tumorerkrankungen (NCT) Heidelberg Kommunikation und Veranstaltungen Im Neuenheimer Feld 460
69120 Heidelberg
Tel.: +49 6221 56-5930
Fax: +49 6221 56-5350
E-Mail: friederike.fellenberg@nct-heidelberg.de
www.nct-heidelberg.de
Dr. Sibylle Kohlstädt
Deutsches Krebsforschungszentrum (DKFZ)
Kommunikation und Marketing
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
Tel.: +49 6221 42-2843
Fax: +49 6221 42-2968
E-Mail: s.kohlstaedt@dkfz.de
www.dkfz.de
Doris Rübsam-Brodkorb
Universitätsklinikum Heidelberg und Medizinische Fakultät der Universität Heidelberg
Presse- und Öffentlichkeitsarbeit
Im Neuenheimer Feld 672
69120 Heidelberg
Tel.: +49 6221 56-5052
Fax: +49 6221 56-4544
E-Mail: doris.ruebsam-brodkorb@med.uni-heidelberg.de
www.klinikum.uni-heidelberg.de
Nationales Centrum für Tumorerkrankungen (NCT) Heidelberg Das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Heidelberg (UKHD), der Medizinischen Fakultät der Universität Heidelberg und der Deutschen Krebshilfe. Ziel des NCT ist es, vielversprechende Ansätze aus der Krebsforschung möglichst schnell in die Klinik zu übertragen und damit den Patienten zugutekommen zu lassen. Dies gilt sowohl für die Diagnose als auch die Behandlung, in der Nachsorge oder der Prävention. Die Tumorambulanz ist das Herzstück des NCT. Hier profitieren die Patienten von einem individuellen Therapieplan, den fachübergreifende Expertenrunden, die sogenannten Tumorboards, erstellen. Die Teilnahme an klinischen Studien eröffnet den Zugang zu innovativen Therapien. Das NCT ist somit eine richtungsweisende Plattform zur Übertragung neuer Forschungsergebnisse aus dem Labor in die Klinik. Das NCT kooperiert mit Selbsthilfegruppen und unterstützt diese in ihrer Arbeit. Seit 2015 hat das NCT Heidelberg in Dresden einen Partnerstandort. In Heidelberg wurde 2017 das Hopp-Kindertumorzentrum (KiTZ) gegründet. Die Kinderonkologen am KiTZ arbeiten in gemeinsamen Strukturen mit dem NCT Heidelberg zusammen.
Deutsches Krebsforschungszentrum (DKFZ)
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Universitätsklinikum Heidelberg (UKHD)
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 13.700 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit fast 2.000 Betten werden jährlich rund 80.000 Patienten voll- und teilstationär und mehr als 1.000.000-mal Patienten ambulant behandelt. Gemeinsam mit dem Deutschen Krebsforschungszentrum und der Deutschen Krebshilfe hat das Universitätsklinikum Heidelberg das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg etabliert, das führende onkologische Spitzenzentrum in Deutschland. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.700 angehende Ärztinnen und Ärzte in Heidelberg.
Wissenschaftliche Ansprechpartner:
Herrmann Brenner, Mahdi Fallah
Originalpublikation:
U. Ali Khan, M. Fallah, Y. Tian, K. Sundquist, J. Sundquist, H. Brenner, E. Kharazmi: Personal History of Diabetes as Important as Family History of Colorectal Cancer for Risk of Colorectal Cancer: A Nationwide Cohort Study. The American Journal of Gastroenterology 2020; https://doi.org/10.14309/ajg.0000000000000669
Quelle: IDW
Mit KI in der Landwirtschaft Wasser sparen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Dürre und Wetterschwankungen bedrohen die Landwirtschaft in Deutschland oftmals schon im Frühjahr. Eine wachsende Zahl an Ackerlandwirten bewässert daher künstlich. Doch das Wasser ist begrenzt. Genaue Informationen über den Zustand von Pflanzen und Böden helfen Landwirten dabei, wirkungsvolle Maßnahmen gegen Trockenschäden einzuleiten und gezielter zu bewässern. Das Start-up heliopas.ai aus dem Karlsruher Institut für Technologie (KIT) analysiert Satellitenbilder mit Künstlicher Intelligenz (KI) und bringt präzise Daten über die Lage auf dem Feld auf das Smartphone der Landwirte. Dazu müssen sie lediglich die Smartphone-App „Waterfox“ installieren und ihre Flächen anlegen.
Bereits zu Beginn dieser Vegetationszeit hat es in Deutschland wieder viel zu wenig geregnet: Mit knapp 17 Litern pro Quadratmeter erreichte der April 2020 kaum ein Drittel seines Solls von 58 Litern – so meldet es der Deutsche Wetterdienst (DWD) – nur 1881 und 2007 hat es weniger geregnet. Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung (UFZ) zeigt ausgedehnte Regionen mit extremer und teils sogar außergewöhnlicher Dürre. Aufgrund der Dürrejahre 2018 und 2019 ist der Boden zudem bereits bis in 1,80 Meter Tiefe ausgetrocknet.
„Leider ist das kein regionales Problem“, erklärt der Gründer Ingmar Wolff vom Start-up heliopas.ai. Aufgrund der globalen Klimaerwärmung müsse jetzt weltweit mit einer Zunahme von Extremwetterlagen gerechnet werden: „Trockenschäden in der Landwirtschaft, aber auch feuchtigkeitsbedingte Krankheiten sind jedes Jahr für Milliardenschäden verantwortlich und bedrohen die Nahrungsmittelsicherheit von Millionen Menschen.“ Gemeinsam mit seinem Gründerkollegen Benno Avino will er Landwirten dabei helfen, mit der neuen Situation umzugehen. „Wir nutzen Künstliche Intelligenz, um sehr genau zu verstehen, was eigentlich auf dem Feld passiert, wie es den Pflanzen geht und wo eventuelle Probleme entstehen. Diese Erkenntnisse verwenden wir, um Empfehlungen auf das Smartphone des Landwirts zu bringen, damit er optimal reagieren kann“, so Wolff.
Eine App hilft Landwirten beim Wassersparen
Um den Service von heliopas.ai zu nutzen, müssen Landwirte keinerlei Sensoren oder andere Geräte auf ihren Flächen installieren. Die neue Technologie basiert vielmehr auf der Analyse von tagesaktuellen Satellitenbildern, Niederschlagsmengen und weiteren Daten, in denen eine Künstliche Intelligenz dann relevante Parameter wie die Bodenfeuchte, aber auch einen Krankheitsbefall erkennen kann. Für einen benutzerfreundlichen Zugang zu den Daten sorgt die Smartphone-App „Waterfox“, die ab sofort verfügbar ist. „Dank der einfachen und klaren Empfehlungen bewässert der Landwirt dann nur noch, wo es tatsächlich notwendig ist“, sagt Wolff. „So spart er Wasser bei der Bewässerung und Aufwand bei Planung und Koordination seiner Saisonarbeiter.“
WaterFox ist leicht zu benutzen: Der Nutzer legt Felder auf einer Karte in der App an und ist sofort startklar. Kunden können das Produkt aktuell für einen Monat kostenlos testen, anschließend wird die Nutzung hektargenau abgerechnet – auch für kleine Betriebe ist der Service also attraktiv. Zukünftig wird es neben Empfehlungen zur Bewässerung auch Empfehlungen zur punktgenauen Düngung und einem wohldosierten Pflanzenschutz geben. Landwirte steigern so ihren Ertrag, produzieren gesündere Nahrung und schonen die Umwelt.
Weitere Informationen: https://waterfox.heliopas.ai/
Interaktives Video stellt die Gründer vor
Das Start-up heliopas.ai mit seinen Gründern Ingmar Wolff und Benno Avino stellt sich in der zweiten Folge der interaktiven Videoreihe „Sachen machen mit KI“ vor.
Zum Video: http://www.sek.kit.edu/video/heliopasai/
Während des Abspielens des Videos im interaktiven Videoplayer können Zuschauerinnen und Zuschauer zwischen unterschiedlichen Bild- und Tonspuren wechseln – und das Thema so aus mehreren Perspektiven erkunden. In wenigen Schritten lassen sich die interaktiven Videos per Embed-Code auch in die eigene Berichterstattung integrieren.
Weiterer Kontakt:
Martin Heidelberger, Redakteur/Pressereferent, Tel.: +49 721 608-21169, E-Mail: martin.heidelberger@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Mit KI in der Landwirtschaft Wasser sparen
https://idw-online.de/de/attachment80004
Quelle: IDW
Drei Maßnahmen könnten eine Million Krebsfälle vermeiden
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wiederholte Steuererhöhungen, ein umfassendes Tabakwerbeverbot sowie eine einheitliche neutrale Verpackung für alle Zigarettenmarken: Würden diese drei wirksamkeitserprobten Tabakkontrollmaßnahmen von heute an in Deutschland konsequent umgesetzt, so könnten bis 2050 eine Million Krebsfälle vermieden werden, haben Wissenschaftler im Deutschen Krebsforschungszentrum (DKFZ) nun durch Modellrechnungen ermittelt.
DKFZ-Experten hatten erst kürzlich ermittelt, dass jede 5. Krebsneuerkrankung in Deutschland auf das Konto von Tabakrauch geht. Auch wenn während der letzten Jahrzehnte die Zahl der Raucher messbar zurückgegangen ist, so hängt hierzulande immer noch ein vergleichsweise hoher Anteil der Bevölkerung am Glimmstängel (Männer, 26,4 Prozent, Frauen 18,6 Prozent). „Durch konsequente Tabakkontrollmaßnahmen ließe sich langfristig eine wirklich substanzielle Zahl von Krebsneuerkrankungen vermeiden“, sagt Ute Mons vom Deutschen Krebsforschungszentrum. „Doch trotz der hohen tabakbedingten Krankheitslast bleibt Deutschland nach wie vor das europäische Schlusslicht, was die Umsetzung wirksamkeitserprobter Tabakkontrollmaßnahmen angeht. Insbesondere ein umfassendes Tabakwerbeverbot ist längst überfällig.“
DKFZ-Epidemiologen um Ute Mons und Hermann Brenner haben nun mit Modellrechnungen ermittelt, was eine konsequente Tabakkontrollpolitik für die Gesundheit der Deutschen tatsächlich bringen würde. Wenn von jetzt an zentrale wirksamkeitserprobte Tabakkontrollmaßnahmen auch in Deutschland umgesetzt würden, wieviel Krebsfälle ließen sich innerhalb der kommenden 30 Jahre vermeiden?
Steuererhöhungen um jährlich 10 Prozent über einen Zeitraum von zehn Jahren, ein umfassendes Tabakwerbeverbot sowie eine einheitliche neutrale Verpackung für alle Zigarettenmarken sind Maßnahmen, die sich in internationalen Studien bereits als wirksam erwiesen haben, den Raucheranteil zu senken. In der wissenschaftlichen Literatur liegen für jede dieser Maßnahmen bereits Werte für den zu erwartenden Rückgang der Raucherquoten vor. Mons und Kollegen berechneten die drei Interventionsszenarien zunächst einzeln, da sie das Rauchverhalten unabhängig voneinander beeinflussen und daher kombinierbar sind.
Ohne zusätzliche Tabakkontrollmaßnahmen errechneten die Wissenschaftler auf der Basis des heutigen Rauchverhaltens und des derzeitigen jährlichen Rückgangs der Raucherquote für 2050 einen Raucheranteil von 14,8 Prozent bei den Männern und 10,2 Prozent bei den Frauen. Würden die drei Tabakkontrollmaßnahmen heute eingeführt, so rauchten 2050 voraussichtlich nur noch 9,7 Prozent der Männer und 6,7 Prozent der Frauen.
Daraus errechnet sich bis 2050 ein Rückgang der tabakbedingten Krebsfälle um 14 Prozent bei Männern sowie um rund 12 Prozent bei Frauen. Was dies in konkreten Zahlen bedeutet, erläutert Thomas Gredner, der Erstautor der Studie: „Im Vergleich zu einem „weiter so wie bisher“ in Sachen Tabakkontrolle könnten wir mit der Umsetzung dieser drei Maßnahmen innerhalb der kommenden 30 Jahre über eine Million Krebsfälle in Deutschland vermeiden.“
„In unserer Modellierung geht es nur um die vermiedenen tabakbedingten Krebsfälle“, ergänzt Hermann Brenner. „Doch Tabakkonsum ist nicht nur für Krebs, sondern auch für eine ganze Reihe weiterer Erkrankungen verantwortlich. Daher würden die tatsächlichen Auswirkungen der drei Präventionsmaßnahmen für die Gesundheit der Menschen noch weitaus beeindruckender ausfallen.“
Die Wissenschaftler hatten für ihre Modellierung den aktuellen Raucheranteil in jeder Altersgruppe der deutschen Bevölkerung zugrunde gelegt sowie den in den letzten Jahren beobachteten jährlichen Rückgang der Raucherquote. Außerdem berücksichtigen die Berechnungen die Entwicklung der Lebenserwartung, den zu erwartenden Bevölkerungsrückgang sowie die Neuerkrankungsraten derjenigen Krebsarten, für die ein kausaler Zusammenhang mit dem Tabakrauch als belegt gilt.
Thomas Gredner, Tobias Niedermaier, Hermann Brenner, Ute Mons: Impact of tobacco control policies on smoking-related cancer incidence in Germany 2020 to 2050 – a simulation study
Cancer Epidemiology, Biomarkers & Prevention 2020. DOI: 10.1158/1055-9965.EPI-19-1301
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Kommunikation und Marketing
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de
Originalpublikation:
Thomas Gredner, Tobias Niedermaier, Hermann Brenner, Ute Mons: Impact of tobacco control policies on smoking-related cancer incidence in Germany 2020 to 2050 – a simulation study
Cancer Epidemiology, Biomarkers & Prevention 2020. DOI: 10.1158/1055-9965.EPI-19-1301
Quelle: IDW
Europäer sind persönlich optimistisch, blicken aber pessimistisch auf das eigene Land
Jochen Lange Pressestelle
Bertelsmann Stiftung
Eine Mehrheit der Europäer schaut positiv in die persönliche Zukunft, aber negativ in die Zukunft des eigenen Landes. Dieses Optimismus-Paradox zieht sich durch alle sozialen Gruppen, Altersklassen und Länder. Gleichzeitig hat die starke Tendenz der Europäer, pessimistisch auf die Zukunft des eigenen Landes zu blicken, deutliche politische Auswirkungen – vor allem auf die parteipolitische Präferenz. Das zeigt die neue eupinions Studie „Das Optimismus-Paradox“ der Bertelsmann Stiftung.
Wie optimistisch oder pessimistisch sehen die Menschen in der Europäischen Union ihre persönliche Zukunft und die Zukunft ihres Landes? Wie unterscheidet sich dies zwischen den EU-Mitgliedstaaten? Und in welchen Zusammenhang stehen diese Grundhaltungen mit ihrer parteipolitischen Präferenz? Diese Fragen beantwortet die neue eupinions Studie „Das Optimismus-Paradox“ der Bertelsmann Stiftung. Das zentrale Ergebnis: 58 Prozent der Befragten in den 27 EU-Ländern sehen ihre persönliche Zukunft optimistisch. Gleichzeitig sind sie aber pessimistisch, was die Zukunft ihres Landes betrifft.
Dieses Optimismus-Paradox gilt – wenn auch unterschiedlich stark ausgeprägt – in allen EU-Mitgliedstaaten. Die menschliche Tendenz, in die eigene Kraft mehr zu vertrauen als in die der Gesellschaft, hat politische Auswirkungen, die sich gerade in der Corona-Pandemie deutlich beobachten lassen.
„Die Deutschen fallen durch ihr hohes Vertrauen in die eigene Kraft bei besonderer Verzagtheit hinsichtlich der Zukunft Deutschlands auf“, so Isabell Hoffmann, Europa-Expertin der Bertelsmann Stiftung und Studienleiterin der „eupinions“. 65 Prozent der Deutschen geben an, optimistisch auf die eigene Zukunft zu blicken, aber nur 44 Prozent sind optimistisch, was die Zukunft des eigenen Landes angeht. „Nur in Spanien ist der Widerspruch zwischen persönlicher und gesellschaftlicher Erwartungshaltung ähnlich stark ausgeprägt wie in Deutschland“, erklärt Hoffmann weiter.
Es gibt Länder wie Polen, deren Bevölkerung ähnlich optimistisch in die eigene Zukunft blicken (67 Prozent Optimisten bei 33 Prozent Pessimisten), und auch etwas positiver eingestellt sind bezüglich des eigenen Landes (48 Prozent Optimisten bei 52 Prozent Pessimisten). Es gibt jedoch auch Länder wie Frankreich, deren Bevölkerung düster auf die Zukunft des eigenen Landes blickt (31 Prozent Optimisten bei 69 Prozent Pessimisten) und gleichzeitig ausgesprochen negativ sind, was das eigene Leben betrifft (39 Prozent Optimisten bei 61 Prozent Pessimisten).
Je gebildeter, desto optimistischer
Ein Blick in die unterschiedlichen gesellschaftlichen Gruppen offenbart, dass die 16- bis 35-Jährigen deutlich optimistischer auf ihr eigenes Land schauen als die 46- bis 70-Jährigen. Studierende sind in Bezug auf ihr eigenes Leben und auf ihr Land ebenfalls optimistischer als der Durchschnitt. Generell gilt für alle Altersgruppen: Menschen mit einem hohen Bildungsniveau sind optimistisch bezüglich des eigenen Lebens, aber pessimistisch bezüglich des eigenen Landes.
Frauen schauen mehrheitlich optimistisch auf das eigene Leben, sind gleichzeitig deutlich pessimistischer, was die Zukunft des eigenen Landes betrifft als Männer. Besonders pessimistisch auf ihr eigenes Leben und auf ihr Land blicken Arbeitslose.
Anhänger rechts-populistischer Parteien sind pessimistischer
Bei der Analyse zeigt sich darüber hinaus eine enge Verbindung zwischen dem persönlichen und gesellschaftlichen Pessimismus der Befragten und ihrer parteipolitischen Präferenzen. Die Anhänger rechts-populistischer Parteien zeichnen sich durch ein besonders hohes Level an persönlichem und gesellschaftlichem Pessimismus aus.
Deutschland: Die Anhänger der AfD schauen zu 66 Prozent negativ auf die eigene Zukunft und zu 90 Prozent negativ auf die Zukunft Deutschlands.
Frankreich: 82 Prozent der Anhänger von Le Pens Rassemblement National schauen negativ auf die eigene Zukunft und auf die Zukunft Frankreichs. Die Anhänger des französischen LFI sind in Bezug auf das Land ähnlich pessimistisch (78 Prozent). Sie sind aber persönlich weniger pessimistisch (53 Prozent).
Italien: Die Anhänger der italienischen Lega sind zu 62 Prozent pessimistisch bezüglich der persönlichen Zukunft und zu 81 Prozent pessimistisch bezüglich Italiens Zukunft.
Niederlande: Die Unterstützer des Forums für Demokratie sorgen sich zu 59 Prozent um die eigene Zukunft und zu 75 Prozent um die Zukunft der Niederlande.
Belgien: Das gleiche Bild ergibt sich beim Blick auf die Anhänger des Vlaams Belang: 65 Prozent von ihnen sorgen sich um die persönliche Zukunft, 78 Prozent sorgen sich um die Zukunft Flanderns. Eine interessante Ausnahme ist die wallonische Partei Parti du Travail de Belgique: Sie ist die einzige linke Partei in der Erhebung, die die Pessimisten massiv anzieht. 84 Prozent ihrer Anhänger schauen negativ auf die eigene Zukunft und auf die Zukunft des Belgiens.
Polen: Bemerkenswert ist auch der Blick auf die polnischen Parteien. Dort sammeln sich die gesellschaftlichen Pessimisten bei den liberalen Parteien des Landes: Wiosna und Plattform. Mit über 80 Prozent schätzt die klare Mehrheit der Anhänger der rechts-konservativen Regierungspartei PiS ihre eigene Zukunft und die ihres Landes dagegen positiv ein.
Corona-Krise verstärkt voraussichtlich negativen Trend
Im Zusammenhang mit der Corona-Pandemie sind diese Ergebnisse in zweierlei Hinsicht relevant: Zunächst ist zu erwarten, dass sich die Aussichten auf die Zukunft des eigenen Landes eintrüben werden. Auch wenn die Zufriedenheit mit dem Krisenmanagement der jeweiligen Regierung hoch sein sollte, dürfte sich der gesellschaftliche Pessimismus angesichts der persönlichen und wirtschaftlichen Konsequenzen der Krise verstärken.
Zudem wird es schwieriger werden, die negativen Auswirkungen des Optimismus-Paradoxes politisch zu navigieren. Seit dem Beginn der Krise ist zu beobachten, wie ein übermäßiger Glaube an die eigene Kraft (Mir wird schon nichts passieren) gedämpft und ein schwacher Glaube an die Kraft der Gesellschaft gestärkt wurde (Jeder einzelne kann dazu beitragen, dass wir es gemeinsam schaffen). Was anfänglich im Shutdown gut funktionierte, erweist sich in der Öffnung als fragiles Konstrukt und befeuert sowohl Proteste gegen die Krisenmaßnahmen als auch Unachtsamkeit mit den Verhaltensregeln in der Pandemie. Auch eine Schwächung in den Glauben an die gemeinschaftliche Kraft im Angesicht dieser Gesundheits-Krise ist zu erwarten.
Aufgabe der Regierungen wird es nun sein, die Menschen weiterhin bei den teils einschneidenden Maßnahmen mitzunehmen. Eines ist dabei bereits klar: Länder, die eine transparente und klare Krisenkommunikation umsetzen, überzeugen ihre Bürger von der Notwendigkeit der Maßnahmen am erfolgreichsten. Jetzt wird klar, dass ohne das Mitwirken des Einzelnen, jegliche Anstrengung vergebens ist. Aus diesem Grund kommt auch den politischen Oppositionsparteien in diesen Zeiten eine besondere Verantwortung zu. So wichtig eine offene Debatte über die eingeführten Maßnahmen auch ist, so muss diese doch auf eine Art geführt werden, die der Bewältigung der akuten Gefährdungslage nicht im Weg steht. Einsicht benötigt Legitimität und Legitimität benötigt in der Demokratie einen offenen Diskurs. Diesen jetzt zu führen, liegt in der Verantwortung aller Politiker.
Zusatzinformationen
„eupinions“ ist das europäische Meinungsforschungs-Instrument der Bertelsmann Stiftung, das zusammen mit Dalia Research entwickelt wurde. Damit werden regelmäßig Bürger aller EU-Mitgliedstaaten zu europäischen Themen befragt. Die Befragung für die vorliegende Auswertung fand im Dezember 2019 in der gesamten EU statt und ist mit einer Stichprobengröße von 12.933 repräsentativ für die EU insgesamt sowie wie für die sieben Mitgliedstaaten Belgien, Frankreich, Deutschland, Italien, die Niederlande, Polen und Spanien. Ausführliche Informationen zur Umfrage-Methodik finden Sie in der Publikation.
Unsere Expertin:
Isabell Hoffmann (Autorin der Studie)
Telefon: +49 30 27 57 88 126
E-Mail: isabell.hoffmann@bertelsmann-stiftung.de
Originalpublikation:
https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/das-optimis…
Weitere Informationen:
http://www.Bertelsmann-Stiftung.de
http://www.eupinions.eu
Quelle: IDW
„Schwarzer Stickstoff“: Bayreuther Forscher entdecken neues Hochdruck-Material und lösen ein Rätsel des Periodensystems
Christian Wißler Pressestelle
Universität Bayreuth
Im Periodensystem gilt für Kohlenstoff, Sauerstoff und andere leichte Elemente eine Goldene Regel: Unter hohen Drücken besitzen sie ähnliche Strukturen wie schwerere Elemente in der gleichen Elementgruppe. Nur Stickstoff schien bisher aus der Reihe zu tanzen. Jetzt aber haben Hochdruck-Forscher der Universität Bayreuth diesen Sonderstatus widerlegt. Sie haben aus Stickstoff eine Kristallstruktur erzeugt, die unter Normalbedingungen bei Schwarzem Phosphor und Arsen vorkommt. Die Struktur enthält zweidimensionale atomare Schichten und ist insofern von großem Interesse für die Hightech-Elektronik. In den „Physical Review Letters“ stellen die Wissenschaftler diesen „Schwarzen Stickstoff“ vor.
Im Periodensystem gilt für Kohlenstoff, Sauerstoff und andere leichte Elemente eine Goldene Regel: Unter hohen Drücken besitzen sie ähnliche Strukturen wie schwerere Elemente in der gleichen Elementgruppe. Nur Stickstoff schien bisher aus der Reihe zu tanzen. Jetzt aber haben Hochdruck-Forscher der Universität Bayreuth diesen Sonderstatus widerlegt. Sie haben aus Stickstoff eine Kristallstruktur erzeugt, die unter Normalbedingungen bei Schwarzem Phosphor und Arsen vorkommt. Die Struktur enthält zweidimensionale atomare Schichten und ist insofern von großem Interesse für die Hightech-Elektronik. In den „Physical Review Letters“ stellen die Wissenschaftler ihre Entdeckung vor, die sie „Schwarzen Stickstoff“ genannt haben.
Stickstoff – eine Ausnahme im Periodensystem?
Ordnet man die chemischen Elemente aufsteigend nach der Anzahl ihrer Protonen und achtet dabei auf ihre Eigenschaften, dann fällt auf, dass bestimmte Eigenschaften in größeren Abständen („Perioden“) wiederkehren. Das Periodensystem der Elemente macht diese Wiederholungen sichtbar: Elemente mit ähnlichen Eigenschaften sind jeweils in der gleichen Säule untereinander platziert und bilden so eine Elementgruppe. Am Kopf einer Säule steht dasjenige Element, das im Vergleich mit den anderen Gruppenmitgliedern die wenigsten Protonen und das geringste Gewicht hat. Stickstoff führt die Elementgruppe 15 an, galt aber bisher als „Schwarzes Schaf“ dieser Gruppe. Der Grund: Stickstoff zeigte bei früheren Hochdruck-Experimenten keine Ähnlichkeiten mit Strukturen, welche die schwereren Elemente dieser Gruppe – insbesondere Phosphor, Arsen und Antimon – unter Normalbedingungen aufweisen. Genau solche Ähnlichkeiten konnten bei hohen Drücken in den benachbarten, von Kohlenstoff und Sauerstoff angeführten Elementgruppen beobachtet werden.
„Schwarzer Stickstoff“ – ein Hochdruck-Material mit technologisch attraktiven Eigenschaften
Tatsächlich stellt Stickstoff jedoch keine Ausnahme dar. Dies konnten die Forscher am Bayerischen Geoinstitut (BGI) und am Labor für Kristallographie der Universität Bayreuth jetzt mit Hilfe eines von ihnen kürzlich entwickelten Messverfahrens nachweisen. Unter der Leitung von Dr. Dominique Laniel haben sie eine ungewöhnliche Entdeckung gemacht: Bei sehr hohen Drücken und Temperaturen bilden Stickstoffatome eine Kristallstruktur, die für Schwarzen Phosphor – eine spezielle Modifikation des Phosphors – charakteristisch ist und ebenso bei Arsen und Antimon vorkommt. Diese Struktur setzt sich aus zweidimensionalen Schichten zusammen, in denen Stickstoff-Atome nach einem einheitlichen Zick-Zack-Muster vernetzt sind. Diese 2D-Schichten ähneln hinsichtlich ihrer elektronischen Eigenschaften dem Graphen, das ein starkes Potenzial für Hightech-Anwendungen hat. Daher wird zurzeit untersucht, ob Schwarzer Phosphor künftig als Material für hocheffiziente Transistoren, Halbleiter und andere elektronische Bauteile infrage kommt.
Für die von ihnen entdeckte Stickstoff-Modifikation schlagen die Bayreuther Forscher eine analoge Bezeichnung vor: Schwarzer Stickstoff. Einige technologisch attraktive Eigenschaften, insbesondere deren Richtungsabhängigkeit (Anisotropie), sind hier noch stärker ausgeprägt als beim Schwarzen Phosphor. Allerdings kann der Schwarze Stickstoff nur dank der außergewöhnlichen Druck- und Temperaturverhältnisse existieren, unter denen er im Labor entsteht. Unter Normalbedingungen löst er sich sofort auf. „Wegen dieser Instabilität sind industrielle Anwendungen derzeit ausgeschlossen. Dennoch bleibt Stickstoff ein für die Materialforschung hochinteressantes Element. Unsere Studie zeigt beispielhaft: Hohe Drücke und Temperaturen können Materialstrukturen und -eigenschaften hervorbringen, von denen die Forschung zuvor nicht wusste, ob es sie überhaupt geben kann“, sagt Laniel.
Strukturaufklärung mit Teilchenbeschleunigern
Es bedurfte geradezu extremer Bedingungen, um Schwarzen Stickstoff zu erzeugen: Der Kompressionsdruck war 1,4 Millionen mal höher als der Druck der Erdatmosphäre, die Temperatur überstieg 4.000 Grad Celsius. Um herauszufinden, wie sich die Atome unter diesen Verhältnissen anordnen, haben die Bayreuther Wissenschaftler mit dem Deutschen Elektronen-Synchrotron (DESY) in Hamburg und der Advanced Photon Source (APS) am Argonne National Laboratory in den USA kooperiert. Hier trafen durch Teilchenbeschleunigung erzeugte Röntgenstrahlen auf die Materialproben. „Wir waren überrascht und fasziniert, als die Messdaten uns plötzlich die für Schwarzen Phosphor charakteristische Struktur lieferten. Weitere Experimente und Berechnungen haben diesen Befund mittlerweile bestätigt. Damit steht zweifelsfrei fest: Stickstoff ist kein Ausnahme-Element, sondern folgt ebenso wie Kohlenstoff und Sauerstoff der gleichen Goldenen Regel des Periodensystems“, sagt Laniel, der 2019 als Forschungsstipendiat der Alexander von Humboldt-Stiftung an die Universität Bayreuth gekommen ist.
Internationale Kooperationen:
Als Forschungspartner der Universität Bayreuth haben neben dem Deutschen Elektronen-Synchrotron (DESY) in Hamburg und der Advanced Photon Source (APS) in Illinois/USA auch die Goethe Universität Frankfurt am Main und das internationale Software-Unternehmen BIOVIA an der neuen Studie mitgewirkt.
Forschungsförderung:
Die Forschungsarbeiten an der Universität Bayreuth wurden von der Deutschen Forschungsgemeinschaft (DFG), dem Bundesministerium für Bildung und Forschung (BMBF) und der Alexander von Humboldt-Stiftung gefördert.
Wissenschaftliche Ansprechpartner:
Dr. Dominique Laniel
Labor für Kristallographie
Universität Bayreuth
Dominique.Laniel@uni-bayreuth.de
Prof. Dr. Leonid Dubrovinsky
Bayerisches Geoinstitut (BGI)
Universität Bayreuth
Telefon: +49 (0)92155 -3736 oder -3707
Leonid.Dubrovinsky@uni-bayreuth.de
Prof. Dr. Natalia Dubrovinskaia
Labor für Kristallographie
Universität Bayreuth
Telefon: +49 (0)92155 -3880 oder -3881
Natalia.Dubrovinskaia@uni-bayreuth.de
Originalpublikation:
Dominique Laniel et al.: High-pressure polymeric nitrogen allotrope with the black phosphorus structure. Physical Review Letters (2020), DOI: https://dx.doi.org/10.1103/PhysRevLett.124.216001
Quelle: IDW
Studie: »Grüner« Wasserstoff oder »grüner« Strom für die Gebäudewärme?
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
In Deutschland und Europa wird die energiepolitische Diskussion derzeit stark von Wasserstoff als universellem Energieträger für die Energiewende geprägt. Die unterschiedlichen Sektoren erfordern aber eine differenzierte Betrachtung. Eine Studie des Fraunhofer IEE in Kassel hat den Einsatz von Wasserstoff im zukünftigen Energiesystem mit dem besonderen Fokus auf die Gebäudewärmeversorgung untersucht und in Bezug zur direkten Nutzung von elektrischem Strom in Wärmepumpen gesetzt.
Für eine CO2-neutrale Energieversorgung gibt es zu den erneuerbaren Energiequellen keine Alternative. Erneuerbare Energien, allen voran aus Windenergie- und Photovoltaikanlagen, liefern effizient und günstig elektrischen Strom. Die wetterbedingt fluktuierende Erzeugung aus Wind- und Solarenergie erfordert eine höhere installierte Gesamtleistung gegenüber der bisherigen Kraftwerksleistung für die Stromversorgung. »Es bietet sich an, die anderen Energiesektoren Verkehr, Gebäude, Industrie zunehmend an den elektrischen Sektor anzubinden. Dadurch lässt sich dem fluktuierenden Erzeugungsmuster der erneuerbaren Energiequellen eine Lastdynamik mit zahlreichen flexiblen Lasten und Speichermöglichkeiten entgegenstellen«, erläutert Prof. Dr. Clemens Hoffmann, Leiter des Fraunhofer-Instituts für Energiewirtschaft und Energiesystemtechnik IEE in Kassel.
Doch wie kommt die Energie zu den Verbrauchern? Direkt über die Stromleitungen oder über chemische Energieträger, wie Gase oder flüssige Kraftstoffe? In Deutschland und Europa wird die energiepolitische Diskussion derzeit von Wasserstoff als universellem Energieträger für die Energiewende geprägt. Im Auftrag des Informationszentrums Wärmepumpen und Kältetechnik IZW e.V. in Hannover hat das Fraunhofer IEE nun den Einsatz von Wasserstoff im zukünftigen Energiesystem mit dem besonderen Fokus auf die Gebäudewärmeversorgung untersucht. Im ersten Schritt haben die Forscher die zukünftige Wasserstoffnachfrage in allen Anwendungen und das Angebot von »grünem« also mit regenerativen Energien erzeugtem Wasserstoff analysiert. Anschließend werden ein Ausbau der Wasserstoffinfrastruktur in Deutschland sowie eine teilweise Umnutzung des bestehenden Gasnetzes generell und in Hinblick auf eine dezentrale Gebäudeversorgung bewertet. Dem stellen die Autoren der Studie Potenziale und mögliche Hemmnisse einer von Wärmepumpen dominierten Wärmeversorgung gegenüber, die über das Stromnetz direkt mit regenerativem Strom gespeist wird.
Die Erzeugung von »grünem« Wasserstoff in Deutschland muss durch Importe ergänzt werden
»Wasserstoff kann als chemischer Energieträger in vielen Anwendungsfeldern als Endenergie genutzt werden, wie z.B. als Kraftstoff im Verkehr, oder weiter konvertiert werden in chemische synthetische Energieträger und Chemierohstoffe unter Hinzuziehung von Kohlenstoff aus CO2 oder von Stickstoff, beispielsweise zur Herstellung von Düngemittel. Das wirtschaftlich zu erschließende Erzeugungspotenzial über Elektrolyse mit regenerativen Strom ist in Deutschland aber begrenzt. Daher müssen wir gut transportierbare synthetische Energieträger auch in Regionen mit sehr guten Potenzialen für Solarenergie und Windenergie herstellen und von dort importieren«, erklärt Prof. Hoffmann aus der Systemsicht. Aber auch der Import von Wasserstoff hat laut Studie ein begrenztes wirtschaftliches Potenzial.
Wärmepumpentechnologie bietet Vorteile für die Gebäudewärmeversorgung
»Aufgrund des wirtschaftlich begrenzten Erzeugungspotenzials von Wasserstoff in Deutschland und Europa sollten wir ihn vor allem dort einsetzen, wo es keine wirtschaftlichen Alternativen gibt oder er besondere Vorteile gegenüber anderen Optionen aufweist. Für eine Versorgung der dezentralen Gebäudewärme ist der Einsatz von Wasserstoff nach unseren Erkenntnissen nicht notwendig und auch aus Kosten- und Effizienzgründen nicht sinnvoll. Denn die benötigte erneuerbare Energiemenge zur Bereitstellung von Niedertemperaturwärme mit Wasserstoff ist um 500 bis 600 % höher gegenüber der Wärmepumpe. Selbst in einem dicht besiedelten Land wie Deutschland besteht ein ausreichendes Potenzial von Strom aus Windenergie und Photovoltaik, um die hohen Nachfragepotenziale einer direkten Stromnutzung in den Bereichen Elektromobilität, Industrieprozesswärme und Gebäudewärme zu versorgen«, stellt Hoffmann fest. »Für die Versorgung von Gebäuden bietet die effiziente Wärmepumpentechnologie mittlerweile umfassende Lösungen, um den für einen schnellen Markthochlauf teilweise notwendigen Einsatz in unsanierten Bestandsgebäuden effizient zu ermöglichen.« Dabei kann die elektrische Versorgungssicherheit in einem wetterabhängigen Energiesystem in der kalten Dunkelflaute trotz der erhöhten Stromnachfrage mit moderaten zusätzlichen Gaskraftwerkskapazitäten zu geringen Mehrkosten gewährleistet werden. Auch für das Stromnetz ergeben sich daraus keine besonderen Herausforderungen. Die Ausbaukosten für das Stromnetz werden überwiegend durch die zur Erreichung der Klimaziele notwendige erneuerbare Stromerzeugung und die Elektromobilität bestimmt. Die zusätzlichen Netzkosten für den Einsatz von Wärmepumpen sind gering.
»Grüner« und »blauer« Wasserstoff
Die technische- und wirtschaftliche Reife der Bereitstellung von Gebäudewärme aus elektrischem Strom mit Hilfe der Wärmepumpe, sowie die Bereitstellung von CO2-freiem »grünem« Wasserstoff für industrielle Prozesse und Mobilität ist hoch. Beim CO2-armen »blauen« Wasserstoff ist derzeit unklar, ob die Behandlung der technischen Probleme der Herstellung und des Transportes dazu führen, dass er überhaupt wirtschaftlicher sein kann, als der elektrolytisch hergestellte grüne Wasserstoff. »Insbesondere aber muss die Energieforschung beim »blauen« Wasserstoff frühzeitig darauf hinweisen, dass die Erzeugung hochkonzentrierten Kohlendioxids in Mengengerüsten von Milliarden von Kubikmetern pro Jahr – wenn dieser Wasserstoff einen signifikanten Beitrag zum zukünftigen Energiesystem beitragen soll – Fragen aufwirft, die ähnlich sind wie jene, die an die Kernenergie zu stellen waren: nämlich die Frage nach der Größe eines größten anzunehmenden Unfalls (GAU) und die Wahrscheinlichkeit dafür. Diese Fragen werden derzeit noch nicht aufgeworfen und es kann deshalb der Eindruck entstehen, dass der »blaue« Wasserstoff bereits eine reale Alternative zur Energiesystemtransformation darstellt. Dies ist nicht der Fall und wissenschaftliche Verantwortung muss darauf hinweisen«, stellt Prof. Hoffmann, der früher für die Kernfusion forschte, mahnend fest.
Webinar und Studie zum Download
Am 4. Juni 2020, 14:00 – 15:15 Uhr, stellen die Autoren in einem Webinar die Ergebnisse der Studie vor und beantworten Fragen. Interessenten können sich anmelden unter: https://www.iee.fraunhofer.de/webinar-h2-gebaeudewaerme
Dort steht auch die Studie zum Download bereit.
Wissenschaftliche Ansprechpartner:
Norman Gerhardt, norman.gerhardt@iee.fraunhofer.de, Tel. +49 561 7294-274
Jochen Bard, jochen.bard@iee.fraunhofer.de, Tel. +49 561 7294-346
Weitere Informationen:
https://s.fhg.de/sa8
Quelle: IDW
Der Schwester wie aus dem Gesicht geschnitten
Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Künstliche Intelligenz enthüllt Mechanismus zur Verwandtenselektion bei Primaten
Mehr die Mama oder doch ganz der Papa? Menschlichen Babys ist er gewiss, der neugierige Blick ins Gesicht, verbunden mit der Frage, wem das Kind ähnlicher sieht. Die Antworten fallen dabei je nach Verwandtschaftsgrad, Geschlecht und Zeitpunkt der Schätzung äußerst unterschiedlich aus. Mandrills, Affen die in Äquatorialafrika leben, erkennen verwandte Gesichtszüge möglicherweise besser als Menschen. So konnten Wissenschaftler am Deutschen Primatenzentrum – Leibniz-Institut für Primatenforschung in Göttingen gemeinsam mit Kolleginnen vom Institut des Sciences de l’Evolution de Montpellier (ISEM) mittels künstlicher Intelligenz- Analysen zeigen, dass sich Halbschwestern, die denselben Vater haben, ähnlicher sehen als Halbschwestern, die dieselbe Mutter haben. Die Halbschwestern väterlicherseits pflegen zudem intensivere Beziehungen zueinander als nicht verwandte Tiere. Die Wissenschaftler sehen in dieser Ähnlichkeit der Gesichtszüge erstmals einen Hinweis dafür, dass ähnliche Gesichtszüge das Ergebnis von Selektion zur gegenseitigen Erkennung väterlicherseits Verwandter ist (Sciences Advances).
Bei vielen Tieren weisen miteinander verwandte Artgenossen ähnliche Merkmale auf. Manche sind einander sogar wie aus dem Gesicht geschnitten. Ungeklärt ist bisher jedoch, ob diese Ähnlichkeit lediglich ihre genetische Verwandtschaft widerspiegelt, oder ob sie das Ergebnis von Selektion ist, die das gegenseitige Erkennen von Verwandten erleichtert. Ein Team von Wissenschaftlern um Marie Charpentier vom ISEM in Montpellier, zu denen auch Clémence Poirotte und Peter Kappeler vom Deutschen Primatenzentrum in Göttingen gehören, haben nun erstmals mittels Künstlicher Intelligenz (Deep Learning) an freilebenden Mandrills geprüft, ob die Ähnlichkeit der Gesichtszüge dieser Altweltaffen eine Folge von Selektion ist. Verwendet wurden 16.000 Portraitfotos von Mandrills, die seit 2012 im Rahmen des Mandrillus-Projekts in Gabun aufgenommen wurden. Die Gruppe ist die einzige an den Menschen gewöhnte freilebende Mandrillgruppe. Mit dieser Methode zur Gesichtserkennung wurden zunächst die Individuen identifiziert und sodann quantifiziert, wie ähnlich sich die Gesichter der Affen sind. Die Ergebnisse dieser Analysen wurden abschließend mit den Verwandtschaftsgraden der Tiere in Beziehung gesetzt.
Mandrills leben in Gruppen, die aus mehr als 100 Individuen bestehen und dadurch charakterisiert sind, dass die Weibchen mütterlicherseits verwandt sind. Sie sind einander vertraut und bleiben ihr ganzes Leben lang in derselben Familie. Da sich in Mandrillgruppen hauptsächlich das Alphamännchen fortpflanzt, haben junge Mandrills ähnlichen Alters meist denselben Vater. Als Angehörige unterschiedlicher Familienverbände innerhalb der großen Gruppen sollten sie sich aber kaum kennen. Dennoch interagieren Halbschwestern väterlicherseits, ebenso wie Halbschwestern mütterlicherseits, häufiger miteinander als nicht verwandte Tiere. „Diese Beobachtung deutet darauf hin, dass sich väterlicherseits verwandte Halbschwestern anhand ihrer Gesichtszüge als verwandt erkennen können. Obwohl Halbgeschwister mütterlicherseits wie väterlicherseits denselben Grad genetischer Verwandtschaft haben, ist die optische Übereinstimmung unter väterlicherseits verwandten Weibchen stärker. Wir vermuten, dass sich die Ähnlichkeit der Gesichtszüge zwischen väterlicherseits Verwandten entwickelt hat, um soziale Abgrenzung und gegenseitige Bevorzugung unter Verwandten zu ermöglichen“, so Clémence Poirotte.
Wissenschaftliche Ansprechpartner:
Clémence Poirotte
E-Mail: c.poirotte@gmail.com
Originalpublikation:
M. J. E. Charpentier, M. Harté, C. Poirotte, J. M. de Bellefon, B. Laubi, P. M. Kappeler, J. P. Renoult (2020). Same father, same face: Deep learning reveals selection for signaling kinship in a wild primate. Sci. Adv. 6, eaba3274.
Weitere Informationen:
http://medien.dpz.eu/pinaccess/showpin.do?pinCode=scUP7HZ0A8yP – Druckfähige Bilder
Quelle: IDW
Feste Wehre für Nebenwasserstraßen
Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
In der Vergangenheit wurden die Wehranlagen an den Bundeswasserstraßen zumeist als Anlagen mit beweglichen Wehrverschlüssen gebaut, verbunden mit hohen Kosten für Bau, Betrieb und Unterhaltung. Im Jahr 2015 hat das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) die Bundesanstalt für Wasserbau (BAW) mit Grundsatzuntersuchungen für feste Wehranlagen beauftragt. Im Einzelnen sollten Bemessungsgrundlagen entwickelt und Planungsempfehlungen gegeben werden. Dabei galt es, den Fokus auf die sogenannten Nebenwasserstraßen zu richten.
Die umfangreichen Untersuchungsergebnisse der BAW sind in Heft 105 der wissenschaftlichen Publikationsreihe BAWMitteilungen zusammengestellt.
Einen Schwerpunkt der Untersuchungen bilden die gegenständlichen und numerischen Modelluntersuchungen an sogenannten „gefalteten Wehren“, wie Labyrinth-Wehre und Piano-Key-Wehre. Die gefalteten Wehre zeichnen sich durch eine im Vergleich zu einem geraden Wehr deutlich größere Überfalllänge aus. Die Folge ist eine um ein Vielfaches höhere hydraulische Leistungsfähigkeit. Die Untersuchungsergebnisse liefern vor allem neue wissenschaftliche Erkenntnisse zu Fragen des Rückstaueinflusses, der Durchgän-gigkeit von Feststoffen und der Energieumwandlung. Darüber hinaus geben sie dem planenden Ingenieur eine praktische Vorstellung davon, wie die Umsetzung eines gefalteten Wehres aussehen kann und welche Besonderheiten in der Planungsphase zu berücksichtigen sind.
Am Beispiel einer Fallstudie für die Bundeswasserstraße Ilmenau werden die Umgestal-tungsmöglichkeiten für drei Wehranlagen dargestellt. Hierzu werden die hydraulischen Ergebnisse für Sohlengleiten, Streichwehre und Labyrinth-Wehre einander gegenüber-gestellt. Es zeigt sich, dass feste Wehre eine wirtschaftliche Alternative zu beweglichen Wehren sein können, insbesondere dort, wo die Anforderungen an Mindestwasserstände gesenkt und eine gewisse Variabilität der Wasserstände in Kauf genommen werden können.
Am 2. März 2020 hat das BMVI in Oranienburg eine vielbeachtete Regionalkonferenz zur Zukunft der Nebenwasserstraßen veranstaltet. Dabei wurde das politische Ziel, die Nebenwasserstraßen vorrangig für touristische Zwecke weiterzuentwickeln, bekräftigt. Die BAWMitteilungen Nr. 105 liefern die notwendigen Grundlagen, um in den Fällen, in denen an den Nebenwasserstraßen Wehranlagen erneuert werden müssen, die Option für den Bau einer festen Wehranlage zu prüfen und praktische Hinweise für den Planungsprozess zu geben.
Originalpublikation:
Die BAWMitteilungen Nr. 105 stehen zum kostenlosen Download bereit unter: https://henry.baw.de/handle/20.500.11970/107132
Quelle: IDW
Zucker macht Braunalgen zu guten Kohlenstoffspeichern
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Braunalgen speichern große Mengen an Kohlendioxid und entziehen das Treibhausgas so der Atmosphäre. Der mikrobielle Abbau abgestorbener Braunalgenreste und die damit verbundene Rückgabe dieses gespeicherten Kohlendioxids in die Atmosphäre dauert länger als bei anderen Meerespflanzen. Forschende des Max-Planck-Instituts für Marine Mikrobiologie, des MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen und weiterer Institute haben sich den Abbau-Prozess genau angesehen und sind dabei auf hochspezialisierte Bakterien gestoßen, die über hundert Enzyme nutzen müssen, um die Algen kleinzukriegen.
Man kann sie schön finden oder auch nicht, aber fast jeder kennt sie: die Braunalge Fucus vesiculosus, auch Blasentang genannt. Sie wächst fast überall entlang der deutschen Nord- und Ostseeküste. Andere Braunalgen wie Macrocystis bilden entweder ganze Wälder entlang der Pazifikküste oder so wie Sargassum Algenblüten, deren Aggregate den Atlantik von West nach Ost bedecken. Ein produktives Ökosystem, das manche Ökologinnen und Ökologen als marines Gegenstück zu den Regenwäldern an Land sehen. Durch Braunalgen werden hohe Mengen an Kohlendioxid gespeichert, dadurch sind sie ein wichtiger Teil des globalen Kohlenstoffkreislaufs.
Andreas Sichert vom Max-Planck-Institut für Marine Mikrobiologie widmete sich in seiner Doktorarbeit der Frage, warum Braunalgen ein so guter Kohlenstoffspeicher sind: „Hauptbestandteil der Algenbiomasse sind ihre dicken Zellwände – ein enges Netzwerk aus Eiweißen und langkettigen Zuckern. Wenn die Alge stirbt, wissen wir kaum, was mit dieser Biomasse im Meer eigentlich passiert, zum Beispiel welche Bestandteile schnell oder langsam abgebaut werden.“
Fest und flexibel
Braunalgen sind dabei an den rauen Lebensraum der Atlantikküsten angepasst. Die Gezeiten, Wind und Wellen fordern von den Bewohnern dieser Gegend besondere Fähigkeiten. So haben die Braunalgen eine spezielle Zellwandstruktur entwickelt. Diese ist gleichzeitig fest und flexibel und ermöglicht es der Pflanze, den Wellen und den Gezeitenströmungen erfolgreich standzuhalten. Ein wichtiger Bestandteil der Zellwände ist dabei der langkettige Zucker Fucoidan, der rund ein Viertel des Trockengewichts einer Braunalge ausmacht. Fucoidan kann vermutlich, ähnlich einem Gel, den Wassergehalt der Zellwand regulieren und die Braunalgen so bei Ebbe vor dem Austrocknen schützen.
Welche Rolle dieser Zucker Fucoidan im langwierigen Abbauprozess der Braunalgen spielt, untersuchte Andreas Sichert zusammen mit Wissenschaftlerinnen und Wissenschaftlern der Forschungsgruppe Marine Glykobiologie des Max-Planck-Instituts für Marine Mikrobiologie und des MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen. Außerdem beteiligt waren Forschende des Massachusetts Institute of Technology, der Universität Greifswald und der Universität Wien. „Man wusste bereits, dass Fucoidan langsamer von mikrobiellen Gemeinschaften abgebaut wird als andere Algenzucker und daher als Kohlenstoffsenke wirken könnte“, sagt Andreas Sichert, einer der beiden Erstautoren der Studie, die jetzt im Fachmagazin Nature Microbiology erschienen ist. „In der Regel sind langkettige Zucker eine beliebte Nahrung für Bakterien, aber warum gerade Fucoidan besonders schwer verdaulich ist, war unklar.“
Nur Spezialisten verdauen diesen Zucker
Bislang waren die Stoffwechselwege zum Abbau von Fucoidan nur teilweise bekannt, es gab aber Hinweise auf die Beteiligung einer hohen Anzahl von Enzymen, die entweder innerhalb einer mikrobiellen Gemeinschaft verteilt oder in einzelnen hochspezialisierten Bakterien untergebracht sind. Für die Untersuchung des Abbaus von Fucoidan verfolgten die Forschenden aus Bremen letztere Theorie und analysierten neu isolierte Bakterien der Gattung Lentimonas, die zum Stamm der Verrucomicrobia zählen. Allein die Isolation dieser Lentimonas Bakterien war nervenaufreibend. „Anfangs hatte ich über tausend Isolate, doch am Ende konnte nur eines Fucoidan wirklich abbauen“, erinnert sich Christopher H. Corzett vom Massachusetts Institute of Technology, neben Sichert Erstautor der Studie.
„Wir haben bei diesen Bakterien einen bemerkenswert komplexen Weg für den Abbau von Fucoidan entdeckt, bei dem etwa hundert Enzyme verwendet werden, um den Zucker Fucose freizusetzen – einen Bestandteil von Fucoidan“, sagt Jan-Hendrik Hehemann, Leiter der Forschungsgruppe Marine Glykobiologie. „Hierbei handelt es sich wahrscheinlich um einen der kompliziertesten bisher bekannten biochemischen Abbauwege für einen Naturstoff.“ Fucose wird anschließend über einen isolierten Bereich in den Bakterien abgebaut. Das von einer eiweißhaltigen Hülle umgebene Abteil schützt die Zelle vor dem toxischen Nebenprodukt Lactadehyd. „Die Notwendigkeit einer solch komplexen Zersetzung zeigt, dass Fucoidan für die meisten Meeresbakterien unverdaulich ist, und nur durch hochspezialisierte Bakterien im Ozean effektiv abgebaut werden kann“, sagt Hehemann. „Das kann den langsamen Abbau von Braunalgen in der Umwelt erklären und lässt vermuten, dass Kohlenstoff im Ozean durch Fucoidan relativ lange gebunden wird.“
Potenziell pharmakologisch wirksam
Wissenschaftlerinnen und Wissenschaftler sind auch deshalb an Enzymen für Fucoidan interessiert, weil es ein potenziell pharmakologisch wirksames Molekül ist, welches ähnliche Wirkung wie Heparin in der Blutgerinnung aufzeigt. „Enzyme, die spezifisch Fucoidan fragmentieren und somit helfen, dessen Strukturen aufzuklären, sind von großem wissenschaftlichem Interesse, um die Wirkung von Fucoidan besser zu verstehen und diese marinen Zucker für biotechnologische Anwendungen zu erschließen“, sagt der beteiligte Greifswalder Mikrobiologe Thomas Schweder.
Wissenschaftliche Ansprechpartner:
Dr. Jan-Hendrik Hehemann
MARUM-MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-736
E-Mail: jheheman@mpi-bremen.de
Andreas Sichert
MARUM-MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-736
E-Mail: asichert@mpi-bremen.de
Ansprechpartner der Universität Greifswald:
Prof. Dr. Thomas Schweder
Pharmazeutische Biotechnologie
Institut für Pharmazie
Telefon: +49 3834 420 4212
E-Mail: schweder@uni-greifswald.de
Originalpublikation:
Andreas Sichert#, Christopher H. Corzett#, Matthew S. Schechter, Frank Unfried, Stephanie Markert, Dörte Becher, Antonio Fernandez-Guerra, Manuel Liebeke, Thomas Schweder, Martin F. Polz, Jan-Hendrik Hehemann: Verrucomicrobia use hundreds of enzymes to digest the algal polysaccharide fucoidan. Nature Microbiology, Mai 2020.
# Die beiden Autoren haben gleichberechtigt zum Paper beigetragen
DOI: 10.1038/s41564-020-0720-2
Quelle: IDW
Kein Nutzen von Hydroxychloroquin und Chloroquin
Nathalie Plüss Unternehmenskommunikation
Universitätsspital Zürich
Eine weltweite Beobachtungsstudie mit 96’000 hospitalisierten COVID-19-Patienten hat gezeigt, dass Patienten, die mit Hydroxychloroquin oder Chloroquin behandelt wurden, eine höhere Sterblichkeitsrate und insbesondere ein erhöhtes Risiko für Herzrhythmusstörungen aufwiesen.
Ein Forschungsteam des Brigham and Women’s Hospital der Harvard Medical School in Boston hat in Zusammenarbeit mit der Abteilung für Kardiologie am Herzzentrum des Universitätsspitals Zürich Ergebnisse einer weltweiten Beobachtungsstudie bei Patienten, die wegen COVID-19 hospitalisiert wurden, ausgewertet. Dabei zeigten Patientinnen und Patienten, die mit Hydroxychloroquin oder Chloroquin (mit oder ohne Makrolid-Antibiotikum) behandelt worden waren, insbesondere ein höheres Risiko für lebensbedrohliche Herzrhythmusstörungen. Die Erkenntnisse des Teams sind in der renommierten Fachzeitschrift The Lancet veröffentlicht worden.
«Hydroxychloroquin und Chloroquin zeigen keinen Nutzen bei Patientinnen und Patienten, die mit Covid-19 hospitalisiert wurden», sagt Mandeep R. Mehra, MD, Executive Director des Center for Advanced Heart Disease, Brigham and Women’s Hospital. «Die Daten weisen auf ein erhöhtes Sterberisiko hin. Wir beobachteten auch eine Vervierfachung der Anzahl Herzrhythmusstörungen bei COVID-19-Patienten, die mit Hydroxychloroquin oder Chloroquin behandelt worden waren».
Prof. Frank Ruschitzka, Leiter der Abteilung Kardiologie am Herzzentrum des Universitätsspitals Zürich ergänzt: «Für die Wirksamkeit von Hydroxychloroquin und Chloroquin bei Covid-19 gibt es keine wissenschaftlichen Belege. Im Gegenteil, insbesondere bei Covid-19-Patienten mit Herzerkrankungen beobachteten wir schwere Nebenwirkungen, vor allem lebensgefährliche Herzrhythmusstörungen. Hydroxychloroquin und Chloroquin sollten deshalb bei COVID-19 nicht mehr eingesetzt werden, bevor uns die Ergebnisse von weiteren, aktuell noch laufenden randomisierten klinischen Studien vorliegen».
Das Forschungsteam um Mehra und Ruschitzka führte die Studie unter Verwendung der Surgical Outcomes Collaborative-Datenbank durch, einem internationalen Register, das anonymisierte Daten von 671 Krankenhäusern aus allen Kontinenten umfasst. Die Analyse berücksichtigte Daten von über 96’000 Patienten, die mit COVID-19 hospitalisiert worden waren. Knapp 15’000 dieser Patienten waren mit dem Malariamedikament Chloroquin oder mit Hydroxychloroquin mit oder ohne Antibiotika (Makrolide wie Azithromycin und Clarithromycin) schon früh nach der COVID-19-Diagnose behandelt worden.
Die Forschenden fanden heraus, dass 10’698 Patienten, die die eine oder andere dieser Arzneien erhalten hatten, im Krankenhaus verstarben (11,1 Prozent) und dass 85’334 überlebten und entlassen werden konnten. Das Team verglich diese Sterblichkeitsrate mit derjenigen einer Kontrollgruppe unter Berücksichtigung von Alter, Geschlecht und Risikofaktoren. Die Sterblichkeitsrate in der Kontrollgruppe betrug 9,3 Prozent. Chloroquin oder Hydroxychloroquin allein oder in Kombination mit einem Makrolid waren mit einem erhöhten Risiko für den Tod im Krankenhaus mit COVID-19 verbunden. Bei den Therapiegruppen erfuhren zwischen 4 und 8 Prozent der Patienten eine neue Herzrhythmusstörung, verglichen mit 0,3 Prozent der Patienten der Kontrollgruppe.
Die Autoren weisen darauf hin, dass die Ergebnisse noch laufender randomisierter klinischen Studien abgewartet werden müssen, bevor definitive Schlussfolgerungen bezüglich der Gefährdung durch Chloroquin und Hydroxychloroquin gezogen werden können.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Frank Ruschitzka
Direktor der Klinik für Kardiologie und Leiter der Abteilung Kardiologie des Herzzentrums am Universitätsspital Zürich
E-Mail: frank.ruschitzka@usz.ch
Originalpublikation:
https://www.thelancet.com/journals/lancet/article/PIIS0140-6736%2820%2931180-6/f…
Quelle: IDW
Studie zum Infektionsgeschehen startet an Schulen
Helena Reinhardt Pressestelle / Unternehmenskommunikation
Universitätsklinikum Leipzig AöR
Leipziger Mediziner untersuchen sächsische Schüler und Lehrkräfte auf Sars-Cov-2 Infektionen
Mit der Schulöffnung für alle Altersstufen am 18. Mai in Sachsen sind vielerorts auch Unsicherheiten bei Eltern, Schülern und Lehrkräften verbunden. Um dem Abhilfe zu schaffen und ein möglichst genaues Bild des aktuellen Infektionsstandes mit Sars-CoV-2 und dessen Entwicklung an sächsischen Schulen zu erhalten, starten Leipziger Mediziner ab nächster Woche eine breit angelegte Studie. Das wissenschaftliche Projekt erfolgt in Abstimmung mit den Sächsischen Staatsministerien für Kultus sowie für Wissenschaft, Kultur und Tourismus und soll dazu beitragen, die Auswirkungen der Infektionsschutzmaßnahmen sowie die Folgen der Lockerung zu ermitteln.
Die Studie wird vom Team der LIFE Child Ambulanz der Universität Leipzig unter Leitung von Prof. Wieland Kiess, dem Direktor der Klinik für Kinder- und Jugendmedizin am Universitätsklinikum Leipzig, durchgeführt. Ziel ist die Erfassung und Kontrolle des Infektionsgeschehens bei Schülern und Lehrkräften. Dazu werden an ausgewählten Schulen in den Regionen Dresden, Zwickau und Leipzig in drei Stufen Erhebungen durchgeführt. Untersucht werden freiwillig teilnehmende Lehrkräfte sowie Schülerinnen und Schüler, wobei die teilnehmenden Klassen zufällig bestimmt werden. Getestet wird sowohl ob eine aktuelle Infektion vorliegt, als auch ob durch eine vorangegangene Infektion bereits Antikörper gebildet wurden. Der Test auf eine Infektion erfolgt mittels eines Rachenabstrichs, für einen Antikörpertest wird eine Blutentnahme benötigt.
„Da hier ausschließlich symptomfreie Kinder und Lehrerkräfte getestet werden, erfüllt diese Studie nicht nur eine wichtige Funktion im Rahmen des Infektionsschutzes an sächsischen Schulen, sondern schafft zusätzlich Klarheit in Bezug auf die umstrittene tatsächliche Häufigkeit symptomfreier Infektionen speziell bei Kindern“, sagt Prof. Wieland Kiess, Leiter der Studie. „Wir hoffen auf eine möglichst hohe Beteiligung an den ausgewählten Schulen, da die Aussagekraft der Ergebnisse mit jedem weiteren Probanden steigt“, so Prof. Wieland Kiess.
Die erste Basiserhebung startet kommende Woche. Es folgen Verlaufsuntersuchungen zu Beginn des neuen Schuljahres und erneut im Herbst dieses Jahres.
Quelle: IDW
COVID-19 in Augsburg: Obduktionen zeigen schwere Lungenschädigungen
Michael Hallermayer Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg
Eine Studie des Augsburger Universitätsklinikums, die vor kurzem in der renommierten Fachzeitschrift Journal of the American Medical Association (JAMA) erschienen ist, zeigt, dass das Lungengewebe von verstorbenen COVID-19 Patienten irreversibel geschädigt ist. Ursache der Schädigungen war das Virus, dessen Erbgut noch in den Atemwegen nachgewiesen werden konnte. Lungenschädigungen durch die maschinelle Beatmung konnten als Ursache weitgehend ausgeschlossen werden, da mehr als die Hälfte der Patienten nicht künstlich beatmet wurde. Die massiv beeinträchtigte Sauerstoffaufnahme der Lungen führte schließlich zum Tod der Erkrankten.
Obduktionen zeigen: Massive Lungenschäden als Todesursache
Die Infektion mit dem SARS-CoV-2 Virus verläuft in der Mehrzahl der Fälle als wenig komplikationsträchtige Erkrankung der oberen Atemwege, insbesondere des Rachens. Einige der Patienten entwickeln jedoch eine Lungenentzündung, die in einem geringen Anteil der Fälle so schwer verläuft, dass eine künstliche Beatmung erforderlich wird. Trotz aller intensivmedizinischer Maßnahmen versterben Patienten an dieser Erkrankung.
Ein interdisziplinäres Ärzteteam um die Augsburger Pathologin Dr. Tina Schaller führte seit dem 4. April diesen Jahres 19 Obduktionen an verstorbenen Patienten mit COVID-19 durch. Dank einer sorgfältigen Aufklärung der Angehörigen konnte in Augsburg eine Obduktionsrate von annähernd 90% der Todesfälle erreicht werden, was den Ärzten eine unverfälschte Beurteilung ermöglichte. Die Ergebnisse der ersten zehn Obduktionen wurden mittlerweile in der renommierten Fachzeitschrift Journal of the American Medical Association (JAMA) publiziert. „Bei den Untersuchungen konnten wir das Erbgut des Virus noch im Atemwegssystem der Verstorbenen nachweisen,“ erklärt Dr. Schaller, leitende Oberärztin und Erstautorin der Studie. Im Lungengewebe selbst zeigte sich durchweg eine ungewöhnlich schwere, teils mutmaßlich irreversible Schädigung. Das Ärzteteam sieht diese Veränderung als Todesursache an, da hierdurch die Sauerstoffaufnahme durch die Lungen zur Versorgung der Organe massiv beeinträchtigt ist.
Coronavirus als Verursacher der Lungenschäden
„Die wichtigste Erkenntnis aus der ersten Analyse ist, dass die beschriebenen Lungenschädigungen offensichtlich nicht eine Komplikation der Beatmung darstellen. Vielmehr entstehen sie unabhängig von dieser intensivmedizinischen Maßnahme am ehesten direkt durch die virale Schädigung. Alle Patienten litten an schweren Grunderkrankungen, die jedoch nicht unmittelbar zum Tod führten“, ergänzt Prof. Dr. Bruno Märkl, Direktor des Instituts für Pathologie und Molekulare Diagnostik des Universitätsklinikums Augsburg sowie Inhaber des Lehrstuhls für Allgemeine und Spezielle Pathologie an der Medizinischen Fakultät der Universität Augsburg. In den übrigen Organen konnten keine augenscheinlich schweren Veränderungen nachgewiesen werden. Die durch SARS-CoV-2 hervorgerufenen ausgeprägten Lungenschäden sind vergleichbar mit den Auswirkungen der SARS- und MERS-Erkrankungen.
Die Studie
Sample: Obduktion von 10 Patientinnen und Patienten mit SARS-CoV-2 im Durchschnittsalter von 79 Jahren mit durchschnittlich vier Vorerkrankungen, überwiegend im kardiovaskulären Bereich.
Die Augsburger Universitätsmedizin
…umfasst die Medizinische Fakultät der Universität Augsburg, das Universitätsklinikum Augsburg sowie – als Kooperationspartner – das Bezirkskrankenhaus Augsburg – Klinik für Psychiatrie, Psychotherapie und Psychosomatik der Universität Augsburg. Die Forschungsschwerpunkte der Medizinischen Fakultät liegen in den Bereichen Medizinische Informatik sowie Umwelt und Gesundheit. Rund 100 Professorinnen und Professoren werden im Endausbau in der bio- und humanmedizinischen Forschung und Lehre tätig sein. Seit dem Wintersemester 2019/20 bietet die Medizinische Fakultät einen humanmedizinischen Modellstudiengang an, der vorklinische und klinische Inhalte integriert und besonderen Wert auf eine wissenschaftliche Ausbildung der im Endausbau 1.500 Studierenden legt.
Das Universitätsklinikum Augsburg (UKA), seit 2019 in der Trägerschaft des Freistaates Bayern, bietet unter anderem durch seine Einbindung in universitäre medizinische Forschung und Lehre der Medizinischen Fakultät der Universität Augsburg der Bevölkerung der Stadt und der Region eine optimale medizinische Versorgung. Die tagesklinischen Betten mitgezählt, stehen am UKA 1.740 Betten zur Verfügung. 24 Kliniken, drei Institute und 19 Zentren garantieren in allen medizinischen Fachdisziplinen Diagnose und Therapie auf höchstem Niveau. Jährlich werden über 250.000 ambulante und stationäre Patientinnen und Patienten versorgt. Mit zirka 80.000 Patientinnen und Patienten pro Jahr ist die Notaufnahme des UKA die zweitgrößte der Bundesrepublik. Jährlich erblicken am UKA mehr als 2.450 Kinder das Licht der Welt. Mit 560 Ausbildungsplätzen ist die an das UKA angeschlossene Akademie für Gesundheitsberufe einer der größten Ausbildungsträger der Region.
Wissenschaftliche Ansprechpartner:
Dr. med. Tina Schaller, Leitende Oberärztin am Universitätsklinikum Augsburg
Telefon: 0821 400-2150 (Sekretariat)
E-Mail: tina.schaller@uk-augsburg.de
Originalpublikation:
Schaller T, Hirschbühl K, Burkhardt K, et al. Postmortem Examination of Patients With COVID-19. JAMA. Published online May 21, 2020. doi:10.1001/jama.2020.8907
Weitere Informationen:
https://jamanetwork.com/journals/jama/fullarticle/2766557
Studie im Journal of the American Medical Association (JAMA)
Quelle: IDW
Spülschwamm-Mikrobiom: Was dich nicht umbringt, macht dich härter!
Jutta Neumann Pressestelle
Hochschule Furtwangen
Gerade zu Coronazeiten kommt der Haushalts- und Küchenhygiene eine große Bedeutung zu, wenn viele Menschen mehr zu Hause sind, öfter selber kochen und gleichzeitig andere Infektionskrankheiten bewusst vermeiden wollen. Spülschwämme sind wahre Keimschleudern. Bis zu 54 Milliarden Bakterien sitzen in einem Kubikzentimeter Schwammgewebe. Ist es da eine gute Idee, den Spülschwamm durch Erhitzen in der Mikrowelle zu reinigen? Die kurze Behandlung angefeuchteter Schwämme gilt zwar landläufig als geeignete Methode, doch ist sie auch aus wissenschaftlicher Sicht empfehlenswert?
Es gibt da eine gute und eine schlechte Nachricht: „Bis zu 99,99999% aller Schwamm-Bakterien werden im Mikrowellenherd getötet. Allerdings wachsen die Überlebenden schnell wieder hoch. Ob und wie sich eine regelmäßige Mikrowellenbehandlung auf die Zusammensetzung der Mikrobengemeinschaft in einem Spülschwamm auswirkt, war bislang völlig unbekannt. Das war daher unsere Ausgangsfrage“, erläutert Studienleiter Prof. Dr. Markus Egert, der an der Hochschule Furtwangen Mikrobiologie und Hygiene lehrt. Mikroorganismen sind Meister im Anpassen an extreme Lebensbedingungen. Die Untersuchung fand vor dem wissenschaftlichen Hintergrund statt, dass die typischen Reinigungs- und Desinfektionsmaßnahmen in einem modernen Haushalt längerfristig zur Selektion solcher Mikrobengemeinschaften führen könnten, die für den Menschen eher negative Eigenschaften haben.
Für die Studie wurden 20 neue Spülschwämme an die Teilnehmenden ausgegeben. Zehn zufällig ausgewählte Teilnehmende sollten ihren mit Spüliwasser angefeuchteten Schwamm zwei- bis dreimal die Woche einer einminütigen Mikrowellenbehandlung bei maximaler Wattzahl (800 – 1200 Watt) unterziehen. Nach vier Wochen normaler Benutzung in der Küche wurden die Schwämme eingesammelt und einer Metagenom-Analyse unterzogen. Dabei untersucht man das gesamte genetische Material einer Mikrobengemeinschaft und erhält nicht nur Informationen über die anwesenden Arten von Mikroben, sondern auch über ihre potentiellen Stoffwechseleigenschaften.
„Wir waren total überrascht, was wir neben Bakterien noch so alles an Mikroorganismen in den Schwämmen entdecken konnten: Bakterien-befallende Viren, das Treibhausgas Methan bildende Archaeen, Pilze und einzellige Tiere, wie zum Beispiel Amöben. Bakterien waren aber mit Abstand die häufigsten Organismen“, so der Studienleiter Prof. Egert.
Die regelmäßig in der Mikrowelle behandelten Schwämme zeigten eine deutlich andere Zusammensetzung ihrer bakteriellen Gemeinschaft als die unbehandelten Schwämme. Die Artenanzahl war reduziert, die Vielfalt an potentiellen Stoffwechselleistungen aber tendenziell erhöht. So zeigten behandelte Schwämme höhere Anteile von Genen, die für die Synthese von Kapsel und Zellwandmaterial verantwortlich sind. „Dies kann man als einen Schutzmechanismus gegen den Mikrowellenstress interpretieren. Mit der Zeit können so Mikrobengemeinschaften entstehen, die sich schwerer aus dem Schwamm entfernen lassen. Mehr Gene, die am Schwefelstoffwechsel beteiligt sind, könnten auf eine höhere Tendenz zur Bildung von schlechtem Geruch hindeuten“, meint Egert. „Dies zu beweisen, erfordert aber sicher weitere Studien“. Keine Unterschiede zeigten sich indes bei bakteriellen Genen, die mit der Auslösung von Krankheiten beim Menschen in Verbindung stehen.
Können Spülschwämme nach einer Mikrowellenbehandlung also noch bedenkenlos in der Küche eingesetzt werden? Spülschwämme sind und bleiben aus hygienischer Sicht kein sinnvolles Reinigungswerkzeug für Küchentätigkeiten. Sie wenige Male in der Mikrowelle zu behandeln, schadet nicht. Anstatt sie aber über viele Wochen immer wieder aufzubereiten, sollten sie besser regelmäßig (alle ein bis zwei Wochen) ersetzt und bis zu ihrem „Lebensende“ für solche Arbeiten im Haushalt benutzt werden, an die geringere Hygieneanforderungen gestellt werden, wie beispielsweise für die Gartenarbeit oder den Autoputz.
Die hier vorgestellte Studie wurde von einem Forscherteam der Hochschule Furtwangen und der Universitäten Gießen und Wageningen (Niederlande) durchgeführt. Erschienen ist sie in der Zeitschrift Microorganisms mit dem Titel „Metagenomic analysis of regularly microwave-treated and untreated domestic kitchen sponges“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Egert, ege@hs-furtwangen.de
Originalpublikation:
Microorganisms 2020, 8, 736
doi:10.3390/microorganisms8050736
https://www.mdpi.com/2076-2607/8/5/736
Quelle: IDW
Pilotprojekt erfolgreich: Quartierspeicher wichtiger Baustein der Energiewende in Kommunen
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Test-Speicher in Groß-Umstadt wird nach erfolgreicher Pilotphase in Solarsiedlung durch neues, permanentes Modell ersetzt
► Auch andere Kommunen zeigen Interesse an Quartierspeichern
Berlin, Darmstadt, Groß-Umstadt, 19. Mai 2020 – Dass dezentrale Energiespeicher für die Energiewende in Kommunen ein wichtiger Baustein sein können, zeigt ein Pilotprojekt in Groß-Umstadt. Im Neubaugebiet „Am Umstädter Bruch“ verpflichtet der Bebauungsplan alle Bauherren, eine Photovoltaikanlage zu installieren und den Solarstrom zu speichern. Hierfür wurde ein großer Batteriespeicher, ein „Quartierspeicher“, vor Ort eingerichtet, an den 25 Haushalte der Solarsiedlung angeschlossen sind. Der mehrjährige Testbetrieb des Speichers wurde vom Forschungsprojekt „Esquire“ unter Leitung des Instituts für ökologische Wirtschaftsforschung (IÖW) wissenschaftlich begleitet. Nach erfolgreicher Pilotphase wird nun in Kürze ein permanenter Stromspeicher im Quartier aufgestellt, der bis zu 274 Kilowattstunden speichern kann. Damit können die Haushalte bis zu 70 Prozent ihres Verbrauchs aus selbst erzeugtem Strom decken.
Vor vier Jahren errichtete der kommunale Energieversorger Entega einen Quartierspeicher als Testlabor in Groß-Umstadt. Seit 2017 wird er durch das Projekt „Esquire“ mit Förderung des Bundesministeriums für Bildung und Forschung begleitet und technisch erprobt. Sein Hauptzweck: Er speichert den überschüssigen Sonnenstrom, den die Haushalte nicht sofort selbst verbrauchen, zentral vor Ort. „So müssen die privaten Solaranlagenbetreiber ihren Strom nicht selbst in einer eigenen Batterie in ihrem Haus speichern, sparen Platz und gehen kein technisches Risiko ein“, erklärt Projektleiterin Swantje Gährs vom IÖW. Im Gegensatz zum Heimspeicher passt sich ein Quartierspeicher flexibel an die Verbräuche der Anwohner an und bietet jederzeit und saisonal unabhängig die passende Speicherkapazität.
In Zusammenarbeit mit den Partnern Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und dem Karlsruher Institut für Technologie (KIT) wurde auch untersucht, wie weitere Anwendungen des Speichers neben dieser Nutzung vor Ort aussehen können. So ist es etwa möglich, mit dem überschüssigem Strom Elektrofahrzeuge zu laden. Die Erfahrungen aus Forschung und Praxis flossen in das Geschäftsmodell für einen neuen Batteriespeicher ein, den Entega für das Quartier beschafft hat und der im Juli 2020 installiert werden soll. Bernhard Fenn, Leiter des Bereichs Forschung und Entwicklung bei Entega erläutert: „Der Speicher ist ein neues Produkt, das wir gemeinsam mit verschiedenen Speicherherstellern konfektioniert haben und der in Groß-Umstadt erstmals zum Einsatz kommt. Wir rechnen damit, dass er zehn bis zwölf Jahre in Betrieb sein kann. Der Strom, den die Solarsiedlung nicht selbst vor Ort benötigt, wird zukünftig auf dem Strommarkt angeboten.“
Ein Film zum Quartierspeicherprojekt unter http://www.entega.ag/quartierspeicher zeigt, wie der Speicher funktioniert und wie er für die Verbraucher angeboten wird.
Kommunen zeigen großes Interesse an Quartierspeichern
Die Projektpartner stellten ihre Forschungsergebnisse in einem Workshop interessierten Kommunen und kommunalen Energieversorgern aus ganz Deutschland vor. Bei den über 40 Teilnehmenden zeigte sich großes Interesse an Quartierspeichern als Baustein der Energiewende vor Ort. Besonders ausführlich diskutiert wurden Fragen der Umsetzung und Erweiterung eines Quartierspeichers sowie zu den rechtlichen Rahmenbedingungen. Das Thema Netzentgelte, Steuern, Abgaben und Umlagen wird wegen der unterschiedlichen, einzelfallabhängigen Regeln als größtes Hemmnis bei der Umsetzung von Quartierspeichern wahrgenommen.
Energieexpertin Gährs vom IÖW: „Die aktuellen Regelungen im Energiewirtschaftsgesetz verhindern, dass das ökonomische und ökologische Potenzial von Quartierspeichern ausgeschöpft wird, welches sich ergibt, wenn erhöhter Eigenverbrauch vor Ort mit einer Netzentlastung einhergehen. Der Gesetzgeber sollte hier noch nachbessern.“ Welche Funktionen Quartierspeicher vor Ort bereitstellen können, zeigen ein Infoposter und die Webseite http://www.stromspeicher-in-der-stadt.de.
Über das Projekt
Für die Energiewende wird es immer wichtiger, erneuerbaren Strom dezentral zu speichern. Er kann dadurch flexibel verbraucht werden und entlastet die Stromnetze. Einen wichtigen Baustein bilden Batteriespeicher, die mehrere Haushalte gemeinsam nutzen. Das Projekt „Energiespeicherdienste für smarte Quartiere (Esquire)“ untersucht, wie solche Quartierspeicher eingeführt werden können, die zwei Bedingungen erfüllen: Die Nutzer/innen müssen sie akzeptieren und sie müssen das Stromsystem stabilisieren. Dienstleistungen und Geschäftsmodelle, die dazu beitragen können, entwickelt das Projekt gemeinsam mit Nutzer/innen und kommunalen Akteuren. Das Projekt wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „Smart Service Stadt: Dienstleistungsinnovationen für die Stadt von morgen“. Projektpartner sind das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und das Karlsruher Institut für Technologie (KIT) mit dem Institut für Programmstrukturen und Datenorganisation. Praxispartner sind Evohaus und Entega.
Mehr zum Projekt Esquire: http://www.esquire-projekt.de
Terminhinweis: Am 27. Mai 2020 findet das Webinar „Quartierspeicher für die Energiewende – Praxisbeispiele und Rahmenbedingungen“ mit Beiträgen aus Forschung, Wirtschaft, Praxis und vom Wirtschaftsministerium statt. Die Veranstaltung ist in das Programm der Berliner Energietage eingebettet. Weitere Informationen zu Programm und Anmeldung: https://www.ioew.de/veranstaltung/quartierspeicher-fuer-die-energiewende-praxisb…
Fachliche Ansprechperson:
Dr. Swantje Gährs
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-0
E-Mail: swantje.gaehrs@ioew.de
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-16
E-Mail: richard.harnisch@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Über 60 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de
Quelle: IDW
Coronavirus: Globaler CO2-Ausstoß sinkt um 17 Prozent
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Gemeinsame Pressemitteilung des Mercator Research Institute on Global Commons and Climate Change (MCC) und der Technischen Universität Berlin
Globaler CO2-Ausstoß Anfang April 17 Prozent niedriger als vor Corona
Studie zum Klima-Effekt der Pandemie-Abwehrmaßnahmen mit drei Szenarien für den weiteren Verlauf 2020. „Die staatlichen Anschubhilfen werden den Emissionspfad für Jahrzehnte prägen.“
Mit einer aufwändigen Schnellschätzung hat ein Forscherteam jetzt die Auswirkung der Corona-Abwehrmaßnahmen auf den Ausstoß des wichtigsten Treibhausgases CO2 beziffert. Demnach lagen die weltweiten CO2-Emissionen Anfang April wahrscheinlich ein Sechstel niedriger als vor der Pandemie. Die stärksten absoluten Rückgänge gab es bei Verkehr und Produktion. An der Studie arbeiteten wissenschaftliche Einrichtungen aus sieben Ländern auf drei Kontinenten mit, darunter das Berliner Klimaforschungsinstitut MCC (Mercator Research Institute on Global Commons and Climate Change) und die Technische Universität Berlin. Die Studie wurde jetzt in der renommierten Fachzeitschrift Nature Climate Change veröffentlicht.
Trotz der Bedeutung der CO2-Emissionen gibt es bislang keine Echtzeit-Erfassung, nationale Statistiken hinken zum Teil um Jahre hinterher. Das Forscherteam ging deshalb indirekt vor: auf Basis laufender Erhebungen zu Energie- und Rohstoffverbrauch, Industrieproduktion und Verkehrsaufkommen in 69 Ländern mit 97 Prozent der globalen Emissionen, ergänzt durch Annahmen über die durch die Pandemie-Abwehr ausgelösten Verhaltensänderungen sowie Satellitendaten zur Luftverschmutzung. Die auf den 7. April 2020 bezogene Schnellschätzung kommt auf einen Corona-bedingten Rückgang um 17 Megatonnen CO2 pro Tag (eine Megatonne entspricht eine Million Tonnen) – das ist relativ zum Vor-Corona-Niveau von 100 Megatonnen ein Rückgang um 17 Prozent.
Der größte Anteil der täglichen Reduktion der CO2-Emissionen, schätzungsweise 7,5 Megatonnen, entfällt auf den Verkehr am Boden (das entspricht 36 Prozent Rückgang). 4,3 Megatonnen (19 Prozent Rückgang) entfallen auf die Produktion von Gütern und Dienstleistungen und 3,3 Megatonnen (7 Prozent Rückgang) auf die Stromerzeugung. Auf den Luftverkehr entfallen 1,7 Megatonnen (prozentual ist der Rückgang hier mit 60 Prozent am größten) und auf den öffentlichen Sektor 0,9 Megatonnen (21 Prozent Rückgang). In den Privathaushalten gibt es dagegen einen geringfügigen Anstieg um 0,2 Megatonnen (3 Prozent).
Die Studie liefert auch eine Vorausschätzung für die CO2-Emissionen bis zum Jahresende, und zwar für drei verschiedene Szenarien. Fazit: (1) Wenn die im März verfügten Beschränkungen bis Mitte Juni auf Null heruntergefahren werden, liegt der CO2-Ausstoß im Gesamtjahr 2020 um rund vier Prozent niedriger als in den Vorjahren ohne Corona. (2) Wenn die Beschränkungen bis Ende Mai bleiben und Ende Juli wieder Normalzustand herrscht, beträgt der Rückgang rund fünf Prozent. (3) Wenn zusätzlich zum zweiten Szenario die Behörden noch bis Jahresende einzelne Infektionsketten durchbrechen und Betroffene in Quarantäne schicken müssen, beträgt der Rückgang rund sieben Prozent.
Das Forscherteam betont, dass die Klima-Krise durch die Corona-Pandemie in keiner Weise entschärft wird. „Die seit Jahren von der Wissenschaft entwickelten Szenarien für einen erfolgreichen Kampf gegen die Erderwärmung zielen ja trotz verringerten Energie- und Ressourcenverbrauchs auf besseres, nicht schlechteres menschliches Wohlergehen“, erklärt Prof. Dr. Felix Creutzig, Leiter der MCC-Arbeitsgruppe Landnutzung, Infrastruktur und Transport sowie Leiter des Fachgebiets Sustainability Economics of Human Settlements an der TU Berlin und Mitautor der Studie. „Der jetzige Nachfragerückgang ist dagegen weder beabsichtigt noch zu begrüßen. Unsere Studie taugt nicht für Jubelmeldungen. Gleichwohl liefert sie wichtige quantitative Erkenntnisse dazu, wie extreme Maßnahmen auf CO2-Emissionen wirken.“
Um die globale Erderwärmung auf 1,5 Grad gegenüber dem vorindustriellen Niveau zu begrenzen, müssten die Emissionen nicht einmalig, sondern Jahr für Jahr um sechs Prozent sinken. „Das muss die Politik im Blick behalten, wenn sie nach dem Eindämmen der Pandemie die wirtschaftliche Erholung organisiert“, betont Felix Creutzig. „Die staatlichen Anschubhilfen werden den Pfad der globalen CO2-Emissionen wahrscheinlich für Jahrzehnte prägen. Es ist durchaus möglich, den Klimaschutz dabei mitzudenken. Doch wenn dieser aufgeweicht wird, sind trotz des aktuellen Rückgangs langfristig sogar höhere Emissionspfade als ohne Corona wahrscheinlich.“
Weitere Informationen:
Le Quéré, C., Jackson, R., Jones, M., Smith, A., Abemethy, S., Andrew, R., De-Gol, A., Willis, D., Shan, Y., Canadell, J., Friedlingstein, P., Creutzig, F., Peters, G., 2020, Temporary reduction in daily global CO2 emissions during the COVID-19 forced confinement, Nature Climate Change
https://www.nature.com/articles/s41558-020-0797-x
Fotomaterial zum Download
http://www.tu-berlin.de/?214590
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Felix Creutzig
TU Berlin
Fachgebiet Sustainabiliy Economics of Human Settlements
Tel.: 030 314-73331
E-Mail: creutzig@tu-berlin.de
Quelle: IDW
Studie: Personen in fester Partnerschaft und mit Kindern sind während der Coronakrise zufriedener
Jasmin Schulte Geschäftsbereich Kommunikation – Presse- und Informationsstelle
Hochschule Osnabrück
Untersuchung der Hochschule Osnabrück zeigt, wie sich der Umgang mit der Coronakrise auf die Solidarität und Vorurteile auswirkt und was für unsere Zufriedenheit in der Ausnahmesituation der vergangenen Monate wichtig ist.
Personen, die in einer festen Partnerschaft leben oder mit Kindern, ging es in den zurückliegenden Wochen der Coronakrise mit den strikten Einschränkungen des öffentlichen Lebens besser. Das ist eines der Ergebnisse einer Studie an der Hochschule Osnabrück. „Grundsätzlich hat sich die Wohnsituation, ob also eine oder mehrere Personen in einem Haushalt leben – zum Beispiel in einer WG – nicht signifikant auf die Zufriedenheit ausgewirkt“, erläutert Wirtschaftspsychologin Prof. Dr. Petia Genkova. Der Beziehungsstatus und ob die Befragten Kinder hatten, machte hingegen einen nachweisbaren Unterschied. „Personen, die einen festen Partner hatten, zeigten ein höheres ,well-being‘ als diejenigen ohne Partner“, heißt es in der Studie. „Das gilt übrigens auch für Menschen, die in Fernbeziehungen leben“, ergänzt Genkova. Personen mit Kindern gaben zudem eher an, zufrieden zu sein als diejenigen ohne.
Für die Querschnittsstudie wurden deutschlandweit 310 Personen zwischen dem 23. März und dem 15. April befragt, in einem Zeitraum also, in dem bundesweit strikte Ausgangsbeschränkungen galten. Für die Erhebung wurde eigens ein Fragebogen entwickelt, um die Einstellung zu kultureller Vielfalt in der Krise zu messen. Das übergeordnete Ziel der Untersuchung war es, herauszufinden, wie sich der Umgang mit der Coronakrise sowohl auf die Solidarität untereinander auswirkt, als auch auf Vorurteile gegenüber Gruppen, denen man nicht selber angehört.
„Wir haben die Hypothese aufgestellt, dass die Wahrnehmung eines Konfliktes zwischen verschiedenen gesellschaftlichen Gruppen in der Krise sowie Angst und Unsicherheit die soziale Distanz zu anderen Gruppen und auch Vorurteile verstärken“, berichtet Genkova. Diese Hypothese habe sich bestätigt.
Schon in den großen europäischen Krisen der vergangenen Jahre, der Finanzkrise und der Flüchtlingskrise, sei der Anstieg von Vorurteilen und Diskriminierung thematisiert worden, berichten Genkova und Henrik Schreiber, Mit-Autor der Studie. „In der Coronakrise zeigen sich nun schon nach wenigen Wochen Analogien.“
Genkova und Schreiber verbinden die Studie deshalb mit der Aussage, „dass die öffentliche Betonung von Gruppenkonflikten in der Krise Vorurteile und soziale Distanz potenziell steigern und damit die Demokratie und ihre Werte gefährden können“. Um als demokratische Gesellschaft gestärkt aus der Krise hervorzugehen, sei demonstrierter Zusammenhalt wichtig.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Petia Genkova
E-Mail: p.genkova@hs-osnabrueck.de
Telefon: 0541 969-3772
Quelle: IDW
Weniger Schnee in 78 Prozent der Berggebiete weltweit
Sara Senoner Communication
Eurac Research
Obwohl Klimaveränderungen sehr viel langsamer vonstattengehen als die Ausbreitung einer Epidemie, sind ihre Auswirkungen dennoch verheerend. Dies führen die Karten zur Schneebedeckung in Berggebieten weltweit, die die Physikerin Claudia Notarnicola von Eurac Research (Bozen, Italien) ausgearbeitet hat, eindrucksvoll vor Augen. Die Analyse von hochaufgelösten Satellitenbildern von 2000 bis 2018, Bodenmessungen und Simulationsmodellen ergibt vor allem für das Hochgebirge ein besorgniserregendes Bild. Oberhalb von 4000 Metern ist für Parameter wie die Ausdehnung der Schneedecke und die Dauer der Schneebedeckung ein konstanter Rückgang zu verzeichnen, während die Lufttemperatur ansteigt.
In einer Studie des Forschungszentrums Eurac Research werden die Daten zur globalen Schneebedeckung aus fast 20 Jahren analysiert und erstmals kartiert.
„Nach einem schneearmen Winter hat der Frühling dieses Jahr sehr früh begonnen. Kommt so etwas häufiger vor, dann kumulieren sich die Auswirkungen mit den Jahren und werden deutlich sichtbar“, erklärt Claudia Notarnicola, stellvertretende Leiterin des Instituts für Erdbeobachtung von Eurac Research und verantwortlich für die Studie.
Die Entwicklung in den Berggebieten hat in den vergangenen Jahren für viel Aufmerksamkeit gesorgt: Ab 1.500 bis 2.000 Metern ist die Temperatur nämlich doppelt so stark angestiegen wie im globalen Durchschnitt, und der Anstieg ist umso größer, je höher ein Gebiet liegt. Aus diesem Grund gelten Berggebiete als Frühwarnsystem für den Klimawandel.
Anhand der globalen Kartierung der Schneebedeckung der vergangenen 20 Jahre können Forscher Ähnlichkeiten und Unterschiede zwischen den verschiedenen Regionen erkennen und ein klares Bild von der Situation weltweit gewinnen. „Den Schneekarten können wir beispielsweise entnehmen, dass in 78 Prozent der beobachteten Gebiete weniger Schnee fällt“, erklärt Notarnicola „Zudem ist die Dauer der Schneebedeckung rückgängig, was vor allem auf die frühe Schneeschmelze im Frühjahr zurückzuführen ist und weniger auf den Umstand, dass der erste Schnee später fällt. Wir haben außerdem festgestellt, dass sich oberhalb von 4.000 Metern die meisten untersuchen Parameter verschlechtern: Die Temperaturen steigen, die Ausdehnung der Schneedecke nimmt ab, die Niederschläge werden weniger, der Schnee schmilzt früher.“
Einige Regionen der Welt leiden besonders unter den klimatischen Veränderungen: In Südamerika etwa zeigen 20 Parameter eine negative Entwicklung. In den Alpen ist die Situation gravierend, wobei die Ostalpen jedoch stärker von den klimatischen Veränderungen betroffen sind als die Westalpen.
„Die Karte zeigt auch, dass die Schneebedeckung in manchen Gebieten zugenommen hat, etwa in Russland“, so Notarnicola. „Auf den ersten Blick scheint dies ein gutes Zeichen zu sein, in Wirklichkeit hängt dies jedoch mit den steigenden Temperaturen zusammen. Sie bleiben zwar unter dem Gefrierpunkt, sind jedoch um einige Grad angestiegen: In Kombination mit feuchter Luft, begünstigt dies den Schneeniederschlag.“
Originalpublikation:
https://doi.org/10.1016/j.rse.2020.111781
Quelle: IDW
Trickreiche Erreger
Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz
An der Universität Konstanz wurde ein neuer Mechanismus identifiziert, mit dessen Hilfe sich Krankheitserreger auf der Schleimhaut festsetzen
Spezialisierte Erreger halten sich nicht nur an der Oberfläche der menschlichen Schleimhaut fest. Wie in der Arbeitsgruppe für Zellbiologie der Universität Konstanz nun herausgefunden wurde, nutzen sie auch das Gas Stickstoffmonooxid (NO), um mit ihrem Wirt auf kurze Distanz zu kommunizieren, damit sich die infizierten Zellen noch fester im Schleimhautgewebe verankern. Damit konnte zum ersten Mal ein gasförmiger Botenstoff als Nachrichtenübermittler zwischen Bakterien und dem Menschen identifiziert werden. Die Ergebnisse sind in der Online-Ausgabe des Wissenschaftsjournals „Cell Host Microbe“ (Band 24, Ausgabe 4) nachzulesen.
Jede Infektion beginnt mit einem Wettrennen: Kann sich der Erreger schneller festsetzen und vermehren, als der Wirtsorganismus ihn unter Kontrolle bringt, dann kommt es zur Krankheit. Schafft es der Wirt, dem Erreger genügend Steine in den Weg zu legen, bis sich das Immunsystem effektiv auf den Eindringling eingeschossen hat, kann das Pathogen rechtzeitig gestoppt werden. Für Bakterien und Viren, die unsere Schleimhäute angreifen, beginnt dieser Wettlauf direkt mit ihrer Anheftung an die Schleimhautoberfläche. Passt der Anheftungsfaktor, das Adhäsin, des Erregers zu einem Molekül auf der Wirtszelle, zum Beispiel, einer menschlichen Schleimhautzelle, dann kann sich der Mikroorganismus an diesem Rezeptor festhalten. Findet der Erreger keinen passenden Rezeptor, zum Beispiel weil er in einem Pferd landet anstatt in einem Menschen, kann er sich nicht anheften und wird durch Schleimtransport im Hals-Nasen-Rachenraum, Tränenfluss und Wimpernschlag im Auge oder Urinfluss im Harntrakt entfernt. Schleimhäute haben aber noch einen weiteren Trick, um auch bereits angeheftete Erreger loszuwerden: Das Abschilfern der oberflächlichen Zellen, bei dem die oberste Zellschicht quasi vom Körper abgestoßen wird. Diesen Prozess bezeichnet man auch als Exfoliation.
Mit diesem Abwehrmechanismus kann unser Körper bereits angeheftete oder in die Zellen eingedrungene Erreger doch noch eliminieren. Besonders eindrücklich ist dieses Phänomen auf den Schleimhäuten im Genitalbereich oder in der Harnblase zu beobachten. Wie die Arbeiten von Dr. Petra Münzner aus dem Labor des Konstanzer Zellbiologen Prof. Dr. Christof Hauck bereits zuvor zeigen konnten, sind manche spezialisierten Erreger dazu in der Lage, die Exfoliation zu unterdrücken. Dadurch haben solche Mikroben einen deutlichen Vorteil bei der Besiedlung ihres Wirtes. Jetzt konnten die Forschenden erstmals aufdecken, dass die Unterdrückung der Exfoliation auf einem besonderen Trick der Erreger beruht: Die untersuchten Bakterien produzieren das gasförmige Stickstoffmonoxid (NO), das als Signalmolekül in den Schleimhautzellen ein festgelegtes Programm auslöst, in dessen Folge sich die infizierten Zellen noch fester im Gewebe verankern. Statt der Exfoliation der obersten Zellschicht bleibt die Schleimhaut stabil und ermöglicht den Bakterien einen dauerhaften Verbleib auf der Wirtsoberfläche.
„Die Erkenntnis, dass die Bakterien das Gas Stickstoffmonoxid nutzen, um die Exfoliation zu unterdrücken, war eine Überraschung. Aber da der NO-Signalweg in unseren Zellen gut untersucht ist, konnten wir mit bereits vorhandenen Inhibitoren diesen Kommunikationsweg zwischen Mikrobe und menschlicher Zelle unterbrechen und damit den Bakterien ihren Vorteil wieder rauben“, so Christof Hauck. Tatsächlich zeigte sich im Mausmodell, dass die Gabe solcher Inhibitoren die Exfoliation in Anwesenheit der Bakterien wieder ermöglicht und dadurch die Besiedlung mit diesen Erregern unterbleibt. Im Wettrennen zwischen Mikrobe und Mensch könnte der Mensch dadurch wieder den entscheidenden Vorsprung erhalten, um auf elegante Weise einer Infektionskrankheit vorzubeugen
Faktenübersicht:
• Originalpublikation: Muenzner, P., Hauck, C.R. (2020): Neisseria gonorrhoeae blocks epithelial exfoliation by Nitric-Oxide-mediated metabolic cross talk to promote colonization in mice, Cell Host Microbe. Online publiziert am 13. April 2020. doi: 10.1016/j.chom.2020.03.010.
• Krankheitserreger nutzen Stickstoffmonoxid bei der Besiedlung der Schleimhaut
• Die Bakterien stoppen damit das Abschilfern der oberflächlichen Zellen
• Inhibitoren können diesen Vorgang unterbrechen, das Abstoßen der Zellen erlauben und einer Einnistung der Mikroben vorbeugen
• Individualförderung durch die Deutsche Forschungsgemeinschaft (DFG Ha2856/10-1).
Hinweis:
Fotos können im Folgenden heruntergeladen werden:
Foto: https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2020/Bilder/trickreiche_betr…
Bildunterschrift: Prof. Dr. Christof Hauck
Bild: Universität Konstanz
Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Quelle: IDW
Weltweit unterschätzt: CO2-Emissionen trockengefallener Gewässerbereiche
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Binnengewässer wie Flüsse, Seen oder Talsperren spielen im globalen Kohlenstoffkreislauf eine wichtige Rolle. In Hochrechnungen zum Kohlendioxidausstoß von Land- und Wasserflächen werden zeitweise trockenfallende Bereiche von Gewässern in der Regel nicht einbezogen. Die tatsächlichen Emissionen von Binnengewässern werden dadurch deutlich unterschätzt – das zeigen die aktuellen Ergebnisse eines internationalen Forschungsprojekts unter der Leitung von Wissenschaftler*innen des Helmholtz-Zentrums für Umweltforschung (UFZ) am Standort Magdeburg sowie des Katalanischen Instituts für Wasserforschung (ICRA). Die Studie ist im Fachmagazin Nature Communications erschienen.
„Alles begann 2013 während einer Messkampagne im spanischen Katalonien“, sagt Dr. Matthias Koschorreck, Biologe im Department Seenforschung des UFZ. Gemeinsam mit einem spanischen Team untersuchte er dort die Freisetzung von Treibhausgasen im Einzugsgebiet eines kleinen Flusses. „Es war Sommer und Teile des Flussbettes waren ausgetrocknet. Aus einem spontanen Impuls heraus haben wir auch dort gemessen“, sagt Koschorreck. „Mit überraschendem Ergebnis – diese ausgetrockneten, kiesigen Bereiche des Flussbettes setzten unerwartet hohe Mengen an Kohlendioxid frei.“ Dem ging Koschorreck gemeinsam mit seinem Kollegen Dr. Rafael Marcé vom ICRA im spanischen Girona in weiteren Studien nach. Die Ergebnisse an verschiedenen Messpunkten in Spanien und Deutschland zeigten denselben Befund: Trockengefallene Gewässerbereiche setzten deutlich messbare und zum Teil erhebliche Mengen an Kohlendioxid frei. „Wir fragten uns, ob dies womöglich auch in anderen Gebieten der Erde der Fall sein könnte, und ob Treibhausgasemissionen von Binnengewässern grundsätzlich unterschätzt werden“, sagt Koschorreck. „Denn in Studien, die Emissionen von Treibhausgasen von Land- und Wasserflächen hochrechnen, werden Gewässerbereiche, die von Zeit zu Zeit trockenfallen, bislang überhaupt nicht berücksichtigt.“
Um diesen Fragen nachzugehen, hoben Koschorreck und Marcé zusammen mit einem Kernteam von sechs deutschen und spanischen Wissenschaftler*innen im Jahr 2016 das Forschungsprojekt „dryflux“ aus der Taufe, das sich mit dem Ausstoß von Treibhausgasen aus trockenen Gewässerzonen beschäftigt. Auf einem Workshop am UFZ in Magdeburg entwickelten sie für ihre aktuelle Studie ein Mess- und Probenahmekonzept und aktivierten ihre internationalen Netzwerke. „Jeder Workshopteilnehmer fragte bei rund um den Globus verteilten kooperierenden Forschergruppen an, ob diese sich mit Messkampagnen an Gewässern in ihrer Nähe an unserer Studie beteiligen möchten“, erklärt Koschorreck. „Die Rückmeldungen waren überwältigend. 24 Forscherteams aus aller Welt nahmen teil, so dass wir Daten aus insgesamt 196 Untersuchungsgebieten auf allen Kontinenten mit Ausnahme der Antarktis gewinnen konnten.“ Jedes Forscherteam führte in seiner Region an trockenliegenden Bereichen von mindestens drei Gewässern – Fluss, See, Talsperre oder Teich – jeweils drei sogenannte Kammermessungen durch. Bei dieser Art der Messung wird ein spezieller Messbehälter mit seiner offenen Seite luftdicht auf den Boden gesetzt, so dass der Luftraum im Behälter von der Umgebungsluft getrennt ist. Mit einem Analysegerät wird dann die Veränderung des Kohlendioxidgehalts in der Behälterkammer gemessen. Zudem nahmen die Kooperationspartner am selben Ort auch Proben des trockenen Gewässersediments und bestimmten seinen Gehalt an Wasser, organischer Substanz und Salzen sowie die Temperatur und den pH-Wert.
Die Auswertung des umfangreichen und komplexen Datensatzes führte Philipp Keller, Doktorand am Department Seenforschung des UFZ und Erstautor der Studie durch – und kam zu interessanten Ergebnissen: „Über alle Klimazonen hinweg konnten wir deutliche Kohlendioxidemissionen aus trockenen Bereichen von Gewässern ausmachen“, sagt Keller. „Das Phänomen ist also tatsächlich ein globales.“ Die Forscher fanden weiterhin heraus, dass diese Emissionen häufig sogar höher liegen als die Emissionen durchschnittlicher Wasseroberflächen der gleichen Größe. „Wir konnten zeigen, dass trockenliegende Bereiche von Gewässern tatsächlich einen signifikanten Anteil an der Gesamtkohlendioxidemission von Gewässern haben“, sagt Koschorreck. „Werden sie in globalen Bilanzen von Gewässern berücksichtigt, erhöht sich die Kohlendioxidemission um insgesamt sechs Prozent.“ Doch welche Mechanismen stecken überhaupt hinter der Freisetzung von Kohlendioxid aus trockengefallenen Gewässersedimenten? „Atmungsprozesse von Mikroorganismen“, sagt Philipp Keller. „Je größer das Nahrungsangebot – die organische Substanz im Boden – und je besser die Bedingungen wie Temperatur und Bodenfeuchte, desto aktiver sind sie und umso mehr Kohlendioxid wird freigesetzt.“ Aus den Studienergebnissen konnten die Forscher ableiten, dass die verantwortlichen Einflussfaktoren für die Kohlendioxidfreisetzung auch weltweit grundsätzlich dieselben sind. „Vor allem das Zusammenspiel der lokalen Standortbedingungen wie Temperatur, Durchfeuchtung und organischem Gehalt der Sedimente ist maßgeblich und hat einen größeren Einfluss als die regionalen Klimabedingungen“, erklärt Keller.
Und was bedeuten die Ergebnisse der Studie für die zukünftige Beurteilung der Kohlendioxid-Emissionen von Gewässern? „Unsere Studie zeigt, dass die Kohlendioxidemissionen von Binnengewässern bislang signifikant unterschätzt werden“, sagt Koschorreck. „Wir hoffen, dass wir dazu beitragen konnten, dass trockenliegende Bereiche von Gewässern in künftige Bilanzierungen einbezogen werden. Denn durch den fortschreitenden Klimawandel werden sie höchstwahrscheinlich an Fläche und somit auch an Bedeutung zunehmen.“
Ergänzende Informationen:
Projekt Dryflux: https://www.ufz.de/dryflux/
Weitere wiss. Publikation: Marcé, R., Obrador, B., Gómez-Gener, L., Catalán, N., Koschorreck, M., Arce, M.I., Singer, G., von Schiller, D., (2019): Emissions from dry inland waters are a blind spot in the global carbon cycle Earth-Sci. Rev. 188 , 240 – 248
Wissenschaftliche Ansprechpartner:
Dr. Matthias Koschorreck
UFZ-Department Seenforschung
E-Mail: matthias.koschorreck@ufz.de
Philipp Keller
UFZ-Department Seenforschung
E-Mail: philipp.keller@ufz.de
Originalpublikation:
P. S. Keller et.al. (2020): Global CO2 emissions from dry inland waters share common drivers across ecosystems. Nature Communications https://doi.org/10.1038/s41467-020-15929-y
Quelle: IDW
Studie zu durch ACE-Hemmer ausgelösten Schwellungen – Teilnehmer gesucht
Dr. Inka Väth Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Schätzungen zufolge erleiden 20.000 bis 35.000 Patienten pro Jahr ein Angioödem durch die Einnahme von ACE-Hemmern. Dabei schwellen Haut und Schleimhäute vor allem im Gesicht, Hals und Rachen an. Das Institut für Humangenetik am Universitätsklinikum Bonn untersucht in Kooperation mit dem Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) potenzielle Risikofaktoren für die Entstehung von Angioödemen, die durch Blutdrucksenker ausgelöst wurden. Hierfür werden Betroffene gesucht, die zu einer Speichelprobe und einem Telefoninterview bereit sind.
Angioödeme sind spontan auftretende Flüssigkeitsansammlungen der tieferen Haut- und Schleimhautschichten, die zu sichtbaren Schwellungen führen. Oft ist das Gesicht betroffen. Treten Schwellungen jedoch im Bereich der Zunge, des Rachens oder Kehlkopfes auf, kann ein Angioödem aufgrund der möglichen Erstickungsgefahr lebensbedrohlich sein.
Eine unerwünschte Nebenwirkung von Blutdrucksenkern
Neben erblichen und solchen, die im Rahmen allergischer Reaktionen auftreten, werden Angioödeme als Nebenwirkung bei der Einnahme folgender Bluthochdruck senkender Arzneimittel beobachtet: Angiotensin converting enzyme (ACE)-Hemmer oder Angiotensin-Rezeptor Blocker, sogenannte Sartane. Da es sich hier um nicht-allergische Formen handelt, sind Antiallergika als Gegenmaßnahme in der Regel nicht wirksam. „Von größter Bedeutung ist daher, dass nach dem Auftreten eines Angioödems die Ursache frühzeitig erkannt wird“, sagt Prof. Dr. Bernhardt Sachs, Leiter der Forschungsgruppe Arzneimittelallergien im BfArM.
Zwar entwickeln nur wenige Patienten, die einen ACE-Hemmer oder ein Sartan einnehmen, ein Angioödem. Doch aufgrund der häufigen Einnahme dieser Medikamente gibt es pro Jahr in Deutschland nach Literaturangaben schätzungsweise 20.000 bis 35.000 Fälle von Angioödemen, die durch ACE-Hemmer ausgelöst werden. Bei vielen Betroffenen tritt die Nebenwirkung innerhalb der ersten Wochen nach Beginn der Medikamenteneinnahme auf. Andere Patienten entwickeln ein solches Angioödem erst nach monate- oder jahrelanger Einnahme.
„Warum ein bestimmter Patient nach Einnahme eines ACE-Hemmers oder eines Sartans ein Angioödem entwickelt, ist bisher nicht bekannt. Man geht davon aus, dass dafür zusätzliche persönliche Faktoren, äußere Einflüsse und / oder genetische Faktoren verantwortlich sind“, sagt Prof. Dr. Markus Nöthen, Direktor des Instituts für Humangenetik am Universitätsklinikum Bonn. So wurden als Risikofaktoren ein höheres Alter und Rauchen beschrieben. Außerdem treten laut Studien ACE-Hemmer induzierte Angioödeme zum Beispiel häufiger bei dunkelhäutigen Menschen auf.
Teilnehmer für große genetische Studie gesucht
Die vARIANCE (Angioödem Risiko unter Angiotensin Converting Enzyme Inhibitoren) Studie – ein gemeinsames Forschungsprojekt des Instituts für Humangenetik am Universitätsklinikum Bonn und des BfArM – hat das Ziel, durch die Identifizierung genetischer und nicht-genetischer Risikofaktoren Patientengruppen zu identifizieren, die ein erhöhtes Risiko für das Auftreten von Angioödemen unter der Einnahme von ACE-Hemmern oder Sartanen haben. Darüber hinaus erhoffen sich die Forscher aus den Ergebnissen der Studie auch Hinweise, wie man die Therapie dieser Angioödeme zukünftig verbessern kann. Nicht zuletzt sollen auch grundlegende Erkenntnisse über biologische Faktoren gewonnen werden, die allgemein am Auftreten von Angioödemen beteiligt sind.
Zur Untersuchung der genetischen Ursachen dieser Angioödeme geben Patienten eine Speichelprobe ab. Die individuellen nicht-genetischen Risikofaktoren der Teilnehmer werden mit Hilfe eines Fragebogens erfasst, der von ihnen im Rahmen eines telefonischen Kurz-Interviews beantwortet wird. Alle nötigen Unterlagen und Materialien für die Studienteilnahme, einschließlich eines Kits zur Gewinnung einer Speichelprobe, werden den Interessierten per Post zugesendet, sodass die Teilnahme an der Studie vollständig von zu Hause aus möglich ist. Als Aufwandsentschädigung erhält jeder Patient, der in die Studie aufgenommen wird, eine einmalige Zahlung von 40 Euro.
An der Studie interessierte Patienten, die von einem Angioödem betroffen sind oder waren, das durch einen ACE-Hemmer oder Sartan verursacht wurde, können sich unter der Telefonnummer 0228/6885-441 melden oder eine E-Mail an variance-studie@uni-bonn.de senden. Weitere detaillierte Informationen zur vARIANCE Studie und deren Ablauf gibt es auf der Studien-Website: www.variance-studie.info
Kontakt für die Medien:
Prof. Dr. Markus M. Nöthen
Direktor des Instituts für Humangenetik
Universitätsklinikum Bonn
Telefon: 0228/287-51100
E-Mail: markus.noethen@ukbonn.de
Prof. Dr. Bernhardt Sachs
Projektleiter
Abteilung Forschung
Bundesinstitut für Arzneimittel und Medizinprodukte
Kurt-Georg-Kiesinger-Allee 3
53175 Bonn
Telefon: 0228-207-3156
Bernhardt.sachs@bfarm.de
Quelle: IDW
Energie der Zukunft: Photosynthetischer Wasserstoff aus Bakterien
Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Kieler Forschungsteam untersucht, wie sich Cyanobakterien in Wasserstoff-Fabriken verwandeln lassen
Die Umstellung von der Nutzung fossiler Brennstoffe hin zu einer erneuerbaren Energieversorgung ist eine der wichtigsten weltweiten Herausforderungen des 21. Jahrhunderts. Um das international vereinbarte Ziel der Begrenzung der Erderwärmung auf maximal 1,5 Grad zu erreichen, muss die internationale Staatengemeinschaft gemeinsam den globalen CO2-Ausstoss drastisch reduzieren. Obwohl Deutschland bei dieser Energiewende lange als Vorreiter galt, ist eine weitreichende Umstellung der Energiewirtschaft auf erneuerbare Energien auch hierzulande noch ein Zukunftsszenario. Als vielversprechender, da potenziell klimaneutraler Energieträger könnte Wasserstoff dabei künftig eine bedeutende Rolle spielen. In Brennstoffzellen genutzt liefert er Energie für diverse Anwendungen und bringt als Abfallprodukt nur Wasser hervor. Derzeit wird Wasserstoff vor allem aus der Elektrolyse von Wasser gewonnen – und dieses Verfahren erfordert zunächst den Einsatz von Energie, bislang zumeist aus fossilen Quellen. Eine klimaneutrale Wasserstoffwirtschaft dagegen, also die Nutzung von sogenanntem grünen Wasserstoff, erfordert, dass zur Erzeugung des Rohstoffes ausschließlich regenerative Energie genutzt wird. Eine solche nachhaltige Energiequelle versuchen Forschende zum Beispiel mittels der Photosynthese zu erschließen. Seit jeher versorgt die Photosynthese uns Menschen mit Energie aus Sonnenlicht, entweder in Form von Nahrung oder als fossiler Brennstoff. In beiden Fällen ist die Sonnenenergie zunächst in Kohlenstoffverbindungen wie zum Beispiel Zucker gespeichert. Wenn diese Kohlenstoffverbindungen genutzt werden, entsteht zwangsläufig CO2. Die photosynthetische CO2-Fixierung wird dabei quasi rückgängig gemacht, um die Sonnenenergie aus den Kohlenstoffverbindungen zurückzugewinnen.
An der Christian-Albrechts-Universität zu Kiel (CAU) erforscht die Nachwuchsgruppe ‚Bioenergetik in Photoautotrophen‘ am Botanischen Institut von Dr. Kirstin Gutekunst, assoziiert an Professor Rüdiger Schulz, wie man bei der Energiegewinnung diesen Kohlenstoffzyklus und die damit einhergehenden CO2-Emissionen vermeiden kann. „Dazu kommt insbesondere die Speicherung von Sonnenenergie direkt in Form von Wasserstoff infrage – dabei entsteht kein CO2 und der Wirkungsgrad ist durch die direkte Umwandlung sehr groß“, erklärt Gutekunst ihren Forschungsansatz. Sie untersucht mit ihrem Team dazu ein bestimmtes Cyanobakterium: Über die Photosynthese kann es für wenige Minuten solaren Wasserstoff produzieren, den die Zelle jedoch im Anschluss direkt wieder verbraucht. In einer aktuellen Arbeit beschreiben die Kieler Forschenden, wie sich dieser Mechanismus möglicherweise in Zukunft für biotechnologische Anwendungen nutzen lässt: Sie konnten ein bestimmtes Enzym der lebendigen Cyanobakterien, eine sogenannte Hydrogenase (von ‚hydrogen‘, Englisch: Wasserstoff) so an die Photosynthese koppeln, dass das Bakterium über lange Zeiträume solaren Wasserstoff produziert und nicht wieder verbraucht. Ihre Ergebnisse veröffentlichten die Wissenschaftlerinnen und Wissenschaftler heute in der renommierten Wissenschaftszeitschrift Nature Energy.
Cyanobakterien als Wasserstoff-Fabriken
Ebenso wie sämtliche Grünpflanzen sind auch Cyanobakterien in der Lage, Photosynthese zu betreiben. In der Photosynthese wird Sonnenenergie genutzt, um Wasser zu spalten und die Sonnenenergie chemisch zu speichern – vor allem in Form von Zucker. In diesem Prozess durchlaufen Elektronen sogenannte Photosysteme, in denen sie in einer Kaskade von Reaktionen schließlich den universellen Energieträger Adenosintriphosphat (ATP) und sogenannte Reduktionsäquivalente (NADPH) hervorbringen. ATP und NADPH werden anschließend benötigt, um CO2 zu fixieren und Zucker zu produzieren. Die für die Wasserstoffproduktion benötigten Elektronen sind also normalerweise Teil von Stoffwechselprozessen, die den Cyanobakterien gespeicherte Energie in Form von Zucker zur Verfügung stellen. Das Kieler Forschungsteam hat einen Ansatz entwickelt, um diese Elektronen umzuleiten und den Stoffwechsel der lebendigen Organismen primär zur Herstellung von Wasserstoff anzuregen.
„Das von uns untersuchte Cyanobakterium nutzt ein Enzym, die sogenannte Hydrogenase, um den Wasserstoff aus Protonen und Elektronen zu gewinnen“, sagt Gutekunst, die auch Mitglied im CAU-Forschungsverbund Kiel Plant Center (KPC) ist. „Die Elektronen stammen dabei aus der Photosynthese. Uns ist es gelungen, die Hydrogenase so an das sogenannte Photosystem I zu fusionieren, dass die Elektronen bevorzugt für die Wasserstoffproduktion genutzt werden, während der normale Stoffwechsel in geringerem Umfang weiterläuft“, so Gutekunst weiter. Auf diesem Weg stellt das veränderte Cyanobakterium deutlich mehr solaren Wasserstoff her als in bisherigen Experimenten.
Fähigkeit zur Selbstreparatur
Ähnliche Ansätze zur Wasserstoffproduktion mit Fusionen aus Hydrogenase und Photosystem existierten bereits in vitro, also außerhalb von lebenden Zellen im Reagenzglas oder auf Elektrodenoberflächen in photovoltaischen Zellen. Problematisch ist dabei allerdings, dass diese künstlichen Ansätze in der Regel kurzlebig sind. Die Fusion aus Hydrogenase und Photosystem muss aufwendig immer wieder neu erstellt werden. Der nun vom CAU-Forschungsteam eingeschlagene Weg hat dagegen den großen Vorteil, potenziell unbegrenzt zu funktionieren. „Der Stoffwechsel der lebenden Cyanobakterien repariert und vervielfältigt die Fusion aus Hydrogenase und Photosystem und gibt sie bei der Teilung an neue Zellen weiter, so dass der Prozess im Prinzip dauerhaft ablaufen kann“, betont Projektleiterin Gutekunst. „Mit unserem in vivo Ansatz ist es erstmals gelungen, eine solare Wasserstoffproduktion über eine Fusion aus Hydrogenase und Photosystem in der lebenden Zelle zu realisieren“, so Gutekunst weiter.
Eine Herausforderung besteht im Moment noch darin, dass die Hydrogenase in Anwesenheit von Sauerstoff deaktiviert wird. Die in den lebendigen Zellen weiterhin ablaufende ‚normale‘ Photosynthese, bei der im Zuge der Wasserspaltung auch Sauerstoff entsteht, hemmt also die Wasserstoffproduktion. Um den Sauerstoff zu entfernen beziehungsweise dessen Entstehung zu minimieren, werden die Cyanobakterien für die Wasserstoffproduktion momentan teilweise auf die sogenannte anoxygene Photosynthese umgestellt. Sie basiert jedoch nicht auf Wasserspaltung. Zurzeit stammen die Elektronen für die Wasserstoffproduktion daher teilweise aus der Wasserspaltung und teilweise aus anderen Quellen. Langfristiges Ziel des Kieler Forschungsteams ist es aber, ausschließlich Elektronen aus der Wasserspaltung für die Wasserstoffgewinnung zu nutzen.
Konzepte für die Energie der Zukunft
Der neue in vivo Ansatz bietet insgesamt eine vielversprechende neue Perspektive, um die photosynthetische Wasserspaltung zur Produktion von klimaneutralem, grünen Wasserstoff zu etablieren und so die nachhaltige Energiegewinnung voranzubringen. Die weitere Erforschung der Stoffwechselwege von Cyanobakterien in Gutekunsts Gruppe soll mittelfristig insbesondere den Wirkungsgrad der solaren Wasserstoffproduktion weiter steigern. „Die Arbeiten unserer Kollegin sind ein ausgezeichnetes Beispiel dafür, wie die Grundlagenforschung an Pflanzen und Mikroorganismen zur Lösung gesellschaftlicher Herausforderungen beitragen kann“, betont KPC-Sprecherin Professorin Eva Stukenbrock. „Damit leisten wir in Kiel einen wichtigen Beitrag dazu, eine nachhaltige Wasserstoffwirtschaft als echte Alternative für eine sichere Energieversorgung der Zukunft zu entwickeln“, so Stukenbrock weiter.
Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2020/113-gutekunst-natureenergy-gr…
Bildunterschrift: Gemeinsam mit Dr. Jens Appel, Vanessa Hüren und Dr. Marko Böhm (von links nach rechts) erforscht Dr. Kirstin Gutekunst, wie sich Cyanobakterien zur Produktion solaren Wasserstoffs einsetzen lassen.
© Sarah Hildebrandt
https://www.uni-kiel.de/de/pressemitteilungen/2020/113-gutekunst-natureenergy-au…
Bildunterschrift: Dr. Kirstin Gutekunst leitet die Nachwuchsforschungsgruppe ‚Bioenergetik in Photoautotrophen‘ am Botanischen Institut der CAU.
© Dr. Jens Appel
https://www.uni-kiel.de/de/pressemitteilungen/2020/113-gutekunst-natureenergy-tu…
Bildunterschrift: Anders als bei in vitro Ansätzen ist der Stoffwechsel lebender Cyanobakterien prinzipiell in der Lage, dauerhaft Wasserstoff zu produzieren.
© Dr. Kirstin Gutekunst
https://www.uni-kiel.de/de/pressemitteilungen/2020/113-gutekunst-natureenergy-lo…
Bildunterschrift: Die Nachwuchsforschungsgruppe ‚Bioenergetik in Photoautotrophen‘ an der CAU betreibt Grundlagenforschung für eine künftige klimaneutrale Wasserstoffwirtschaft.
© Jolanda Zürcher
Weitere Informationen:
Bioenergetik in Photoautotrophen, Botanisches Institut, CAU Kiel:
http://www.biotechnologie.uni-kiel.de/de/forschung/nachwuchsgruppe-bioenergetik-…
Forschungszentrum Kiel Plant Center (KPC), CAU Kiel:
http://www.plant-center.uni-kiel.de
Wissenschaftliche Ansprechpartner:
Dr. Kirstin Gutekunst
Nachwuchsforschungsgruppe Bioenergetik in Photoautotrophen
Botanisches Institut, CAU Kiel
Tel.: 0431 880-4237 Mail: kgutekunst@bot.uni-kiel.de
Originalpublikation:
Jens Appel, Vanessa Hueren, Marko Boehm, Kirstin Gutekunst (2020): Cyanobacterial in vivo solar hydrogen production using a photosystem I- hydrogenase (psaD-hoxYH) fusion complex. Nature Energy Published: 4 May 2020
https://www.nature.com/articles/s41560-020-0609-6
Weitere Informationen:
http://www.biotechnologie.uni-kiel.de/de/forschung/nachwuchsgruppe-bioenergetik-…
http://www.plant-center.uni-kiel.de
Quelle: IDW
Wenn Neurodermitis ins Auge geht: Pollen können schwere Bindehautentzündung auslösen
Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Die Pollensaison ist in vollem Gange, und viele Menschen leider wieder unter geröteten und juckenden Augen. Für Neurodermitiker ist besondere Vorsicht geboten: Pollen können bei ihnen zu einer schweren Form der Bindehaut-entzündung beitragen. Was in diesen Fällen zu tun ist, erläutern Experten der Deutschen Ophthalmologischen Gesellschaft (DOG).
Nach Krankenkassen-Daten leiden bis zu fünfzehn Prozent der deutschen Bevölkerung an der entzündlichen Hauterkrankung Neurodermitis. Betroffen sind auch in großem Umfang Kleinkinder. „Wer an Neurodermitis erkrankt ist, ist besonders anfällig für eine nicht-infektiöse Bindehautentzündung, die auch durch Pollen ausgelöst oder verstärkt werden kann“, erläutert Professor Dr. med. Philip Maier von der Klinik für Augenheilkunde des Universitätsklinikums Freiburg.
Ein Drittel der Neurodermitiker betroffen
Dabei kommt es bei 25 bis 40 Prozent der Neurodermitis-Patienten zu einer schweren Form der Bindehautentzündung, einer atopischen Keratokonjunktivitis (AKK). „Sie kann unbehandelt zu Hornhautkomplikationen führen und damit bedrohlich für das Sehvermögen sein“, betont der Ophthalmologe. Experten vermuten, dass das Strukturprotein Filaggrin Ursache dafür sein könnte. „Bei Patienten mit Neurodermitis konnte sowohl in der Haut als auch in der Hornhaut eine fehlerhafte Filaggrin-Produktion nachgewiesen werden“, berichtet der Freiburger Forscher (1). Durch den Juckreiz bedingtes starkes Augenreiben, vor allem bei Kindern, kann einer neuen Studie zufolge Hornhautkomplikationen weiter fördern (2).
Hautrisse und Schuppen sind Alarmsignale
Eine AKK äußert sich zunächst wie eine „normale“ Bindehautentzündung mit juckenden, geröteten und tränenden Augen, geschwollenen Lidern und einem Fremdkörpergefühl im Auge – wobei die Symptome häufig stärker ausfallen als bei einer rein allergischen Konjunktivitis. Doch es gibt wichtige Unterschiede. „Zusätzlich kommt es häufig zu typischen Verdickungen an der Lidkante, zu Hautveränderungen wie Schuppungen oder Falten sowie Hautrissen am unteren Augenlid. Auch zeigt die Bindehautentzündung oft über lange Zeit trotz pflegender Maßnahmen keine Besserungstendenz“, erklärt Maier. Bei schweren Verläufen können an der Hornhaut oberflächliche Defekte bis hin zu Geschwüren entstehen, oder es wachsen Blutgefäße ein, was im Extremfall bis zur Erblindung aufgrund einer vollständigen Trübung der Hornhaut führt.
„Wer unter Neurodermitis leidet und Anzeichen einer Bindehautentzündung bemerkt, sollte daher rasch einen Augenarzt aufsuchen. Dies gilt auch, wenn Neurodermitis in der Familie aufgetreten ist“, rät Maier. Der Augenarzt erkennt durch eine Untersuchung der Lider, Binde- und Hornhaut mit dem Spaltlampen-Mikroskop, ob es sich um eine typische Konjunktivitis handelt, bei der stets beide Augen betroffen sind. „Auf das Tragen von Kontaktlinsen sollte während einer Bindehautentzündung grundsätzlich zunächst verzichtet werden“, fügt der DOG-Experte hinzu.
Regelmäßige augenärztliche Kontrollen
Zur Therapie der AKK gehört die tägliche Lidrandpflege – eine vorsichtige Reinigung der Lidränder mit feuchten Wattepads oder Wattestäbchen, begleitet vom Auflegen einer Wärmemaske, die in der Mikrowelle oder im Backofen erhitzt wird. Gegen Trockenheit und Juckreiz helfen Gele oder Tränenersatzmittel ohne Konservierungsstoffe, die auch Pollen auswaschen. Bei starkem Juckreiz können mehrmals täglich antiallergische Augentropfen geträufelt werden – Antihistaminika oder Mastzellstabilisatoren -, die die Ausschüttung von Histamin verhindern oder dessen Wirkung zumindest unterdrücken und so die Allergiebeschwerden lindern sollen. „In hartnäckigen AKK-Fällen kommen immunmodulatorische Augentropfen zum Einsatz, etwa Ciclosporin A“, erläutert Maier. Mitunter sind chirurgische Eingriffe an den Augenlidern und der Augenoberfläche notwendig (3).
Regelmäßige augenärztliche Kontrollen sind bei einer AKK besonders wichtig, um Spätfolgen zu vermeiden. „Und für die Behandlung der Grunderkrankung, die Neurodermitis, muss ein Allergologe oder Dermatologe hinzugezogen werden“, betont Maier.
Quellen:
1) T. Lapp; P. Maier; T. Jakob;·T. Reinhard: Pathophysiologie der atopischen Blepharokeratokonjunktivitis, Ophthalmologe 2017 · 114:504-513
DOI 10.1007/s00347-017-0483-1
2) Ben-Eli, Hadasa; Erdinest, Nira; Solomon, Abrahama: Pathogenesis and complications of chronic eye rubbing in ocular allergy, Current Opinion in Allergy and Clinical Immunology: October 2019 – Volume 19 – Issue 5 – p 526-534
doi: 10.1097/ACI.0000000000000571
https://journals.lww.com/co-allergy/Citation/2019/10000/Pathogenesis_and_complic…
3) Maier, P.: Augenbeteiligung bei atopischer Dermatitis. Ophthalmologe 2017 · 114:496-497. DOI 10.1007/s00347-017-0496-9
Kontakt für Journalisten:
Deutsche Ophthalmologische Gesellschaft (DOG)
Pressestelle
Kerstin Ullrich
Postfach 30 11 20
70451 Stuttgart
Telefon: 0711 8931-641
Telefax: 0711 8931-167
ullrich@medizinkommunikation.org
www.dog.org
Quelle: IDW
TU Berlin: Salzwasser statt Trinkwasser: Die Gewinnung von Wasserstoff aus Meerwasser hat Zukunftspotenzial
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Salzwasser statt Trinkwasser
Elektrolyse von Meerwasser könnte neuen Schub für Wasserstoff als Energieträger liefern
Wasserstoff als Energieträger könnte ein wesentlicher Eckpfeiler einer neuen, CO2-neutralen Energieversorgung werden. Idealerweise wird die dafür notwendige Elektrolyse von Wasser durch erneuerbare Energiequellen wie Sonne, Wasser, Geothermie oder Wind angetrieben. Der heutige Stand der Technik erfordert für diese Art der Elektrolyse allerdings Wasser in Trinkwasserqualität – ein global immer teureres Gut. Gemeinsam mit internationalen Kolleg*innen hat Prof. Dr. Peter Strasser, Leiter des Fachgebiets Technische Chemie an der TU Berlin, jetzt eine Studie über die Möglichkeiten und technischen Herausforderungen der Elektrolyse von Salzwasser in der renommierten Fachzeitschrift Nature Energy veröffentlicht.
Wasserstoff, gewonnen aus der solarbetriebenen Elektrolyse von Wasser, bietet sich als CO2-neutrale sowie speicher- und transportierbare Energiequelle gerade für aride, wasserarme Gegenden der Welt an. Das für die Elektrolyse benötigte Wasser in Trinkwasserqualität ist allerdings eine weltweit kostbare Ressource. Gerade aride Gegenden, die potenziell über ausreichend Solarenergie verfügen, liegen oft in der Nähe von Ozeanen, leiden aber in der Regel unter einem eklatanten Mangel an Frischwasser. Die Aufreinigung von Salzwasser wiederum ist ein kosten- und CO2-intensiver Prozess, womit das Verfahren unwirtschaftlich und vor allem auch nicht mehr klimaneutral ist.
„Um den Einsatz von Solar- und Wasserstofftechnologie gerade in diesen Regionen zu ermöglichen, versuchen Forscher*innen weltweit eine Elektrolyse-Technologie zu entwickeln, die in der Lage ist, Salzwasser unmittelbar in Wasserstoff und Sauerstoff zu spalten, ohne einen vorherigen Entsalzungsschritt“, weiß Peter Strasser, dessen eigenes Forschungsteam an der TU Berlin sich intensiv mit unterschiedlichen Verfahren und Katalysatoren für die Wasserstoff-Elektrolyse beschäftigt. „Der so gewonnene Wasserstoff könnte anschließend direkt in Form von Flüssigwasserstoff, aber auch nach weiterer lokaler Umwandlung in synthetisches Flüssigmethan oder synthetisches Benzin auf Schiffen oder in Rohrleitungen in die ganze Welt transportiert werden und damit die Umstellung auf eine wasserstoffbasierte Energieinfrastruktur erleichtern“, so der Wissenschaftler.
Peter Strasser und seinen Kolleg*innen der National University of Ireland Galway und der University of Liverpool analysierten sämtliche internationale Veröffentlichungen, die über eine erfolgreiche Elektrolyse von Salzwasser berichten. Damit gelang es ihnen, die wichtigsten Herausforderungen aufzudecken, die bewältigt werden müssen, um diese zukünftige Form der Elektrolyse konkurrenzfähig zu machen. „Nach unserer Analyse müsste sich künftige Forschung zum einen auf die Verwendung von neuartigen Katalysatormaterialien, aber auch geeigneter Membrane konzentrieren. Die üblicherweise in der Elektrolyse verwendeten Membrane sind häufig nicht in der Lage, die Salzverunreinigungen des Wassers zu blockieren“, so der Chemiker. Ein potenziell interessanter Ansatz ist dabei unter anderem die Verwendung von Membranen, die den Membranen in bestimmten Pflanzen wie Mangrovenwurzeln nachempfunden sind. Diese Pflanzenmembrane können Meerwasser filtern. Bei einem Einsatz ähnlicher Membrane in der technischen Elektrolyse könnte die Salzkonzentration auf der Oberfläche der katalytischen Elektroden verringert und Membranverschmutzungen reduziert werden.
„Im Rahmen unserer Studie haben wir gezeigt, dass die Entwicklung neuer selektiver Katalysatoren und spezieller Membrantechnologie wichtige Schritte hin zu einer Hochleistungs-Salzwasser-Elektrolyse sind und zukünftig stärker beforscht werden sollten“, so Peter Strasser. „Die Verwendung von Frischwasser zur Erzeugung von Wasserstoff in großen Mengen wird nach unserer Ansicht auf Dauer keine praktikable Option bleiben, vor allem nicht in den ariden Gebieten, in denen der größte Teil des billigen Solarstroms erzeugt wird“, summiert der Wissenschaftler.
Mehr Informationen:
https://doi.org/10.1038/s41560-020-0550-8
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Peter Strasser
TU Berlin
Fachgebiet Technische Chemie
Tel.: 030 314-29542
E-Mail: pstrasser@tu-berlin.de
Quelle: IDW
Flurschau aus dem Weltall
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Detaillierte Informationen zur Landbedeckung sind wichtig für ein besseres Verständnis unserer Umwelt – etwa zur Abschätzung von Ökosystemleistungen wie Bestäubung oder um Nitrat- und Nährstoffeinträge in Gewässer zu quantifizieren. Diese Informationen werden zunehmend aus zeitlich und räumlich hochaufgelösten Satellitenbildern gewonnen. Häufig versperren jedoch Wolken den Blick aus dem All auf die Erde. Eine dynamische Anwendung von Methoden des maschinellen Lernens kann das lokale Auftreten von Wolken berücksichtigen. Das zeigen Wissenschaftler des UFZ in einer kürzlich veröffentlichten Studie. Ihr Algorithmus erkennt 19 verschiedene Feldfruchtarten mit einer Genauigkeit von 88 Prozent.
„Wenn wir feststellen können, was auf den Feldern einer Region wächst, können wir nicht nur auf den Nährstoffbedarf, sondern auch auf die Nitratbelastung umliegender Gewässer schließen“, erklärt Sebastian Preidl, Wissenschaftler im Department Landschaftsökologie am UFZ. Auch ließen sich mit den Informationen beispielsweise konkrete Maßnahmen zum Schutz von Wildbienenbeständen besser initiieren. „Nur wenn wir die biologische Vielfalt einer Region kennen, können wir sie effektiver schützen“, so Preidl.
Erdbeobachtungssatelliten, wie die des Copernicus Programms der europäischen Weltraumorganisation ESA, liefern zeit- und räumlich hochaufgelöste Daten und machen damit ein kontinuierliches Monitoring der Landoberfläche auf ökologisch relevanter Skala möglich. So werden vom Satelliten Sentinel-2, auf dessen Daten sich Preidls Arbeit stützt, regelmäßig Bilder der Landoberfläche in neun verschiedenen Spektralbereichen aufgenommen. Aus solch einer spektralen Zeitserie können die Forscher schließen, womit der Boden im betreffenden Gebiet bedeckt ist.
Eine zentrale Herausforderung im Umgang mit Zeitreihen optischer Satellitendaten ist die Beeinträchtigung durch Wolken. Trotz zahlreicher Satellitenaufnahmen führt häufige Bewölkung dazu, dass größere Datenlücken in den spektralen Zeitreihen auftreten. Gleichwohl ist eine ausreichende Zahl an Bildpixeln (Beobachtungen) zu möglichst vielen Pflanzenwachstumsphasen notwendig, um die aufgenommenen spektralen Signaturen den entsprechenden Pflanzenarten zuzuordnen.
Diese Lücken schließen üblicherweise künstlich erzeugte Daten, die aus wolkenfreien Bildpixelwerten interpoliert werden. „Wir verzichten darauf und haben uns stattdessen für eine dynamische Anwendung von Modellen des maschinellen Lernens entschieden. Das heißt, wir generieren maßgeschneiderte Algorithmen für jedes Pixel“, sagt Preidl. „Unser Algorithmus sucht sich wolkenfreie Pixel automatisch aus dem gesamten Satellitenbilddatensatz heraus und ist nicht auf großflächig wolkenfreie Szenen angewiesen. Um jedem Bildpixel eine spezielle Feldfrucht zuzuweisen, wird die zeitliche Abfolge von wolkenfreien Beobachtungen auf Pixelebene von einer Vielzahl von Modellen berücksichtigt.“
Damit die UFZ-Klassifikationsmethode lernt, Mais von Weizen oder Hopfen von Wein zu unterscheiden, stehen in der Trainingsphase vor-Ort-Informationen der Bundesländer für ausgewählte landwirtschaftliche Flächen bereit. Für einzelne Standorte ist also bekannt, welche Feldfrucht auf welchem Acker gedeiht. Für die flächendeckende Bestimmung der Landbedeckung, haben die Wissenschaftler Deutschland in sechs Regionen unterteilt. „In der Magdeburger Börde werden andere Feldfrüchte angebaut als im Rheingau“, erklärt Preidl. „Außerdem wächst ein und dieselbe Nutzpflanzenart im Breisgau anders als in der Uckermark. Klima und Höhenlage haben einen großen Einfluss.“ Das Ergebnis: Der Algorithmus der Forscher erkennt 19 verschiedene Feldfruchtarten mit einer Genauigkeit von 88 Prozent. Bei den Hauptfeldfrüchten liegt die Trefferquote sogar über 90 Prozent. Unter Berücksichtigung von rund 7.000 Satellitenbildern, haben sie nun eine Deutschlandkarte der landwirtschaftlichen Nutzflächen zunächst für das Jahr 2016 generiert. Diese enthält neben der eigentlichen Landbedeckung auch eine Aussage über die Klassifikationsgüte, also mit welcher Genauigkeit das System die jeweilige Pflanze für ein bestimmtes Pixel erkannt hat.
Damit ist das Potenzial des UFZ-Ansatzes aber noch längst nicht erschöpft. Statt Weizen und Mais unterscheiden Preidls Algorithmen in einem Projekt mit dem Bundesamt für Naturschutz (BfN) auch Fichte, Buche und andere Baumarten voneinander. Damit untersucht er, inwieweit sich Wälder mithilfe von Satellitendaten naturschutzfachlich bewerten lassen. „Wenn wir wissen, welche Baumarten eines Waldgebietes über die Zeit vorherrschen, lassen sich Auswirkungen von Sturmereignissen, Dürreschäden oder Schädlingsbefall besser feststellen. Ein widerstandsfähiger Wald ist im Sinne der Ziele zur nachhaltigen Entwicklung ökonomisch und ökologisch hochrelevant“, sagt Preidl.
„Unsere Methodik lässt sich aufgrund der Berücksichtigung der jeweiligen zeitlichen Abfolge von wolkenfreien Beobachtungen und Landnutzung auf andere Regionen innerhalb und außerhalb Europas und weitere Jahre übertragen“, gibt Dr. Daniel Doktor, Leiter der Arbeitsgruppe Fernerkundung im Department Landschaftsökologie des UFZ einen Ausblick auf die nächsten Schritte. „Wenn diese Methodik mit anderen Modellen – beispielsweise zur Phänologie oder zur Ökologie – verschnitten wird, lassen sich nicht nur Aussagen bezüglich artenspezifischer Verwundbarkeit gegenüber Extremereignissen wie Dürren treffen, sondern auch zum zukünftigen Verhalten von Ökosystemen als Kohlenstoffquelle oder -senke“, so Doktor.
Wissenschaftliche Ansprechpartner:
Sebastian Preidl
UFZ-Department Landschaftsökologie / Arbeitsgruppe Fernerkundung von Ökosystemen
sebastian.preidl@ufz.de
https://www.ufz.de/index.php?en=43862
Originalpublikation:
Sebastian Preidl, Maximilian Lange, Daniel Doktor, (2020) Introducing APiC for regionalised land cover mapping on the national scale using Sentinel-2A imagery, Remote Sensing of Environment, Volume 240, Article 111673, https://doi.org/10.1016/j.rse.2020.111673
Weitere Informationen:
http://www.ufz.de/land-cover-classification
Quelle: IDW
Wasser reinigen, Strom speichern: INM-Autoren publizieren in High-Impact-Journal der Nature-Reihe
Christine Hartmann Presse- und Öffentlichkeitsarbeit
INM – Leibniz-Institut für Neue Materialien gGmbH
Angesichts der weltweit über zwei Milliarden Menschen, die keinen Zugang zu sauberem Trinkwasser haben, ist die Aufbereitung von salzhaltigem und mit Giftstoffen verunreinigtem Wasser von globaler Bedeutung. Volker Presser, Leiter des Programmbereichs Energie-Materialien am INM – Leibniz-Institut für Neue Materialien in Saarbrücken und Professor an der Universität des Saarlandes, und sein Mitarbeiter Dr. Pattarachai Srimuk haben Methoden zur Trinkwassererzeugung und Rückgewinnung von wertvollen Stoffen entwickelt. Ihnen wurde die Ehre zuteil, ihre Forschung zur energieeffizienten elektrochemischen Wasseraufbereitung in der aktuellen Ausgabe von Nature Reviews Materials zu präsentieren.
Mit einem beeindruckenden Impact Faktor von 74,4 ist Nature Reviews Materials zweitplatziert im Gesamtranking aller wissenschaftlichen Zeitschriften. Wird ein Wissenschaftler eingeladen, seine Forschungsergebnisse dort zu präsentieren, ist dies quasi ein Ritterschlag.
Die elektrochemische Reinigung von Wasser basiert auf dem Prinzip, dass mit Salzen, Schwermetallen oder anderen chemischen Substanzen verunreinigtes Wasser durch einen Aufbau fließt, in dem eine Kathode die positiv geladenen und eine Anode die negativ geladenen Ionen anzieht. Die geladenen Teilchen werden dann im Elektrodenmaterial eingelagert. Im Fall von Salzwasser fängt das Entsalzungssystem auf diese Weise positive Natriumionen und negative Chlorionen ein und macht das Wasser trinkbar. Gleichzeitig wird durch die Einlagerung der Ionen in den Elektroden Energie gespeichert, die bei Bedarf wieder abgegeben werden kann. Die elektrochemische Wasserentsalzung schlägt damit also zwei Fliegen mit einer Klappe: Zum einen wird Wasser gereinigt, möglichst zu Zeiten, in denen im Stromnetz ein Energieüberschuss vorhanden ist. Zum anderen wird Energie gespeichert, die bei erhöhtem Bedarf wieder ins Netz eingespeist werden kann.
Der Artikel gibt einen umfassenden Überblick über die verschiedenen Verfahren der elektrochemischen Wasseraufbereitung, speziell die verwendeten Elektrodenmaterialien, die Art der Ionenabscheidung und die Rückgewinnung von chemischen Elementen. „Die Elektrochemie ist wie ein Schweizer Taschenmesser, nämlich unglaublich vielseitig!“, begeistert sich Volker Presser. „ Sie erlaubt es uns, je nach Material und angelegter Spannung nur ganz bestimmte Ionen zu extrahieren. Diese Schaltbarkeit bietet ein großes Anwendungspotenzial und zeigt, wie wichtig es ist, die Grundlagen elektrochemischer Prozesse zu verstehen.“
Wie weltumspannend und bedeutend die Forschung zur elektrochemischen Wasserentsalzung ist, zeigt die Liste der Autoren, die neben den Saarbrücker Wissenschaftlern an der Publikation beteiligt sind: Xiao Su, ehemals am MIT und nun Professor an der University of Illinois, USA, Jeyong Yoon von der Seoul National University in Südkorea und der israelische Wissenschaftler Doron Aurbach von der Bar-Ilan-Universität komplettieren das Expertenteam.
INM-Nachwuchswissenschaftler Pattarachai Srimuk sieht vielversprechende Zukunftsperspektiven für die elektrochemische Entsalzung: „Das selektive Extrahieren und Aufkonzentrieren von Ionen ist nicht nur für Umwelttechnologien von großer Wichtigkeit. Auch Anwendungen für die Medizintechnik, Materialsynthese und Sensorik werden in der Zukunft auf den von uns erforschten Materialien und Mechanismen aufbauen können.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Volker Presser
E-Mail: Volker.presser@leibniz-inm.de
Bei Anfragen bitte per Mail kontaktieren; Prof. Presser ruft zeitnah zurück.
Originalpublikation:
Srimuk, P., Su, X., Yoon, J. et al. Charge-transfer materials for electrochemical water desalination, ion separation and the recovery of elements. Nat Rev Mater (2020).
DOI: https://doi.org/10.1038/s41578-020-0193-1
Quelle: IDW
Hochleistungsspeicher für Biogas – Neues Konzept zur flexiblen Biogasbereitstellung
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Das Karlsruher Institut für Technologie (KIT) hat gemeinsam mit Partnern eine ökonomisch attraktive und technisch sinnvolle Methode zur Biogasspeicherung entwickelt. Das textile Biogasspeichersystem in Halbkugelform zeichnet sich durch geringe Investitions- und Unterhaltskosten aus. Es bietet zudem eine bis zu dreifach höhere Biogasspeicherkapazität und trägt somit zur flexiblen Biogasbereitstellung bei. Das Verbundvorhaben wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert.
Derzeit ist eine Auslegung von Biogasspeichern mit hohen Kapazitäten nur bedingt möglich. Die auf die nachgiebigen textilen Speicherabdeckungen einwirkenden Lasten, z.B. durch Wettereinflüsse in Kombination mit variierenden Betriebszuständen, sowie deren Weiterleitung und Verteilung auf Gasmembran, Wetterschutzhülle oder Befestigung sind bislang nur unzureichend bekannt. Ziel des Verbundvorhabens war es daher, wissenschaftliche Grundlagen zur Beschreibung der Einwirkungen und den resultierenden Strukturreaktionen zu erforschen, Methoden für die schnelle, sichere und bedarfsgerechte Berechnung, Auslegung und Fertigung neuartiger Biogasspeicher zu erarbeiten sowie neue technische Lösungsansätze für Material, Konstruktion und Betriebssteuerung zu entwickeln.
Gemeinsam mit der H. Seybold GmbH & Co. KG wurde ein Versuchsspeicher errichtet, um relevante Umwelteinflüsse wie Temperatur, Sonneneinstrahlung, Wind und Niederschlag zu vermessen. Dazu wurden verschiedene Systemzustände wie Füllstand, Membrankonfiguration, Temperaturprofile, Innendruck usw. mit einer eigens hierfür entwickelten Messtechnik erfasst. Die Systeme Tragluftdach und Gasspeichermembran, ausgerüstet mit Temperatur-, Druck- und Strömungssensoren sowie Lüftern, konnten dabei getrennt angesteuert und geregelt werden.
Zur Untersuchung der Membraneigenschaften wurden Belastungsversuche durchgeführt. Ungleichmäßige Falteigenschaften der Gasmembran, die v. a. aus dem Eigengewicht der zentral angeordneten, schwereren Polkappe resultieren, konnten durch um 90° verdrehte Radialzuschnitte der halbkugelförmigen Abdeckung, bei der zwei halbe Polenden am Rand des Fermenters aufliegen, verbessert werden. Dies führte zu einem homogenen Faltmuster ohne starke lokale Faltenbildung und damit zu geringeren mechanischen Belastungen der Membrane.
Für die Modellierung der Zusammenhänge zwischen Innendruck, Temperatur und Gasmasse wurden unterschiedliche Szenarien gefahren und umfangreiche Messversuche durchgeführt. Druckänderungen im Gasspeicher durch hohe Temperaturunterschiede, schnelle Gasentnahmen oder Wind führen zu hohen Belastungen der äußeren Membran, die sich durch Stützluftgebläse reduzieren lassen. Zusätzliche Untersuchungen wurden durch die Wacker Bauwerksdynamik GmbH in einem Windkanal vorgenommen. Auf Grundlage der Versuchsergebnisse hat die technet GmbH gründig+partner ein Berechnungstool für die Auslegung und die effiziente Fertigung von Biogasspeichern entwickelt.
Inzwischen konnte die Fa. Seybold bereits einige Gasspeichersysteme mit der untersuchten Halbkugelform, die ein Höchstmaß an Standsicherheit und einen optimalen Betrieb gewährleisten, erfolgreich umsetzen. Daneben wurden auch mehrfach Membrankonstruktionen in Halbkugelform auf Bodenfundamenten als externe Gasspeicher realisiert.
Weitere Informationen zum Projekt finden Sie in der Projektdatenbank der Fachagentur Nachwachsende Rohstoffe e. V. (FNR) unter den Förderkennzeichen 224003315, 22400816, 22400916 und 22401016.
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Jessica Hudde
Tel.: +49 3843 6930-206
Mail: j.hudde@fnr.de
Weitere Informationen:
https://www.fnr.de/projektfoerderung/projektdatenbank-der-fnr/
https://www.fnr.de/index.php?id=11150&fkz=22403315
https://www.fnr.de/index.php?id=11150&fkz=22400816
https://www.fnr.de/index.php?id=11150&fkz=22400916
https://www.fnr.de/index.php?id=11150&fkz=22401016
Quelle: IDW
Springbrunnen bald kein Sprungbrett für Keime mehr?
Jessica Bode Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Brandenburger Firma entwickelt Modul zur Wasserreinhaltung – DBU fördert
Woltersdorf. Über Tröpfcheninfektion werden Viren übertragen. Aber auch bakterielle Keime finden so ihren Weg und können so etwa Atemwegserkrankungen auslösen. So stellte die Firma Gebrüder Schröfel (Woltersdorf, Brandenburg) beispielsweise fest, dass es bei öffentlichen Springbrunnen vor allem im Sommer zu einer enormen Vermehrung von Bakterien, wie etwa Legionellen, kommen könne. Gerade diese Krankheitserreger könnten über den Sprühnebel in die Umgebungsluft verteilt werden und bei Aufnahme durch Einatmen teilweise schwere Erkrankungen wie eine Lungenentzündung hervorrufen. Innerhalb eines von der Deutschen Bundesstiftung Umwelt (DBU) fachlich und finanziell mit rund 93.000 Euro geförderten Projekts will das Unternehmen daher ein Reinigungsmodul entwickeln, das die Qualität des Brunnenwassers deutlich länger erhalten soll.
Wasser wird im Kreislauf geführt – Qualität verschlechtert sich
„Brunnenanlagen prägen das Stadtbild vieler Städte auf der ganzen Welt“, sagt Franz-Peter Heidenreich, DBU-Fachreferent Kreislaufführung und Bautechnik. In deutschen Großstädten wie Berlin, Dresden, Bremen oder Stuttgart würden jeweils über 250 öffentliche Brunnen und Wasserspiele existieren. Zwar würden die Brunnen mit qualitativ hochwertigem Trinkwasser befüllt, und das Baden sei offiziell verboten. Doch das Wasser werde im Kreislauf geführt. Vor allem an heißen Tagen würden Erwachsene und Kinder es gerne zum Abkühlen und Spielen nutzen. Auch Vögel und Wildtiere nutzten das Wasser. Deshalb verschlechtere sich dessen Qualität.
Kleine und mittlere Brunnen verfügen über keine Reinigungsanlagen
„Bei wenigen großen Springbrunnen erfolgt das Entkeimen durch chemische Reinigungsmittel, sogenannte Biozide. Diese belasten jedoch die Umwelt und benötigen zudem eine teure Anlage, um die erforderliche Dosis abzumessen“, so Heidenreich. Bei kleinen und mittleren Brunnen gebe es solche Anlagen aus Kostengründen nicht. Das Wasser werde zwar etwa alle vier bis sechs Wochen ausgetauscht, jedoch könnten sich innerhalb dieser Zeit bakterielle Krankheitskeime stark vermehren und auf Menschen im direkten Umfeld, zum Beispiel auch über den Sprühnebel, übertragen werden. Besonders Kinder, Senioren sowie kranke und immungeschwächte Personen hätten ein erhöhtes Erkrankungs-Risiko.
Reinigungsmodul soll Verkeimung und Algenbildung verringern
Um bei öffentlichen Springbrunnen das Verbreiten von Legionellen in die Umgebungsluft zu verhindern, hat der Verein Deutscher Ingenieure (VDI) eine neue Richtlinie erlassen. „Springbrunnenbetreiber müssen zukünftig gewährleisten, dass die Keimkonzentration im Wasser so gering wie möglich ist. Da Algen ein ideales Rückzugsgebiet für viele Mikroorganismen darstellen, ist auch ein Eindämmen des Algenwachstums ein wichtiger Aspekt, um die Wasserverkeimung erfolgreich zu verringern“, sagt Projektleiter Günter Schröfel, Geschäftsführer des Unternehmens Gebrüder Schröfel. Das von der Firma zu entwickelnde Reinigungsmodul soll die auch aus medizinischen Produkten bekannte desinfizierende Wirkung von Silber und Kupfer nutzen. Damit werde sowohl die Verkeimung als auch die Algenbildung verringert. Ein weiterer Vorteil des neuartigen Moduls sei, dass es Wasser- und Reinigungskosten spare. „Außerdem entwickeln wir innerhalb des Projekts ein preiswertes Verfahren zur Kontrolle der Wasserqualität“, so Schröfel.
Weitere Informationen:
https://www.dbu.de/123artikel38628_2362.html Online-Pressemitteilung
Quelle: IDW
Schaufenster Bioökonomie: Neues Anbausystem zieht Salat aus behandeltem kommunalem Abwasser
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Forschungsteam mit Beteiligung der Uni Hohenheim zieht erfolgreiche Bilanz seiner Pilotanlage in Wolfsburg-Hattorf / System nutzt Wasser und Nährstoffe optimal
Knackiger Salat, bewässert und gedüngt mit aufbereitetem Abwasser – und so Ressourcen wie Wasser, Nährstoffe und Flächen effizient nutzen: Das ist die Idee hinter dem gerade abgeschlossenen Projekt HypoWave. Dass sie funktioniert, hat die Pilotanlage des Forschungsteams auf dem Gelände einer Kläranlage bei Wolfsburg bewiesen. Kernstück der Anlage war ein sogenanntes hydroponisches System, bei dem Pflanzen ohne Erde in einer Nährlösung gezogen werden. Dr. Jörn Germer, Agrarökologe an der Universität Hohenheim in Stuttgart, hat es mit seinem Team für den Einsatz kommunaler Abwässer angepasst. Eine Idee mit Zukunft im Wissenschaftsjahr 2020 Bioökonomie. Das Gesamtprojekt unter Leitung der TU Braunschweig wurde vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,1 Mio. Euro gefördert. An der Universität Hohenheim zählt das Teilprojekt mit einer Fördersumme über 386.448 Euro zu den Schwergewichten der Forschung.
Ein Gewächshaus mit Salatköpfen in Reih und Glied – doch die Pflanzen wachsen nicht etwa auf dem Boden, sondern in den Pflanzöffnungen langer Kunststoffrohre, in denen eine Nährlösung zirkuliert. Und auch diese weist eine Besonderheit auf: Es handelt sich um Bewässerungswasser auf Basis des Abwassers aus der Kläranlage in Wolfsburg-Hattorf, auf deren Gelände das Gewächshaus steht.
Was gewöhnungsbedürftig klingt, ist ökonomisch und ökologisch sinnvoll. „Kommunale Abwässer enthalten viel Stickstoff, Phosphor und alle anderen essentiellen Pflanzennährstoffe, die wir für den Gemüseanbau nutzen können“, erklärt Dr. Jörn Germer von der Universität Hohenheim den Hintergrund. „Mit der hydroponischen Pflanzenproduktion können wir diese Nährstoffe optimal nutzen und zudem die immer knapper werdende Ressource Wasser schonen.“
Einige Nährstoffe müssen zudosiert werden
Die Hohenheimer Forscher um Dr. Germer mit Dr. Christian Brandt, Paul Miehe und sieben Master- und Bachelor-Studierenden – unter der Fachgebietsleitung von PD Dr. Frank Rasche – setzten für ihre hydroponischen Linien Bewässerungswasser ein, das die Projektpartner zuvor auf verschiedene Weise aus Abwasser des Klärwerks aufbereitet hatten.
Im ersten Versuchsjahr 2017 verglichen sie vier Varianten im Durchflussbetrieb: Abwasser aus konventionellem Klärwerk mit und ohne Ozonbehandlung sowie anaerob behandeltes und nitrifiziertes Abwasser mit und ohne Kohlefiltration mit einer künstlichen Nährstofflösung.
„Darin ließen wir jeweils den Salat als Modellpflanzen wachsen“, berichtet Dr. Germer. „Er gedieh vor allem in den anaerob-aerob behandelten Varianten gut, denn dabei gast der wertvolle Stickstoff nicht in die Luft aus. Bei der Nitrifikation wird er durch Bakterien von Ammonium in Nitrat umgewandelt, das die Pflanzen gut aufnehmen können.“
Doch nicht nur die Menge der Nährstoffe ist entscheidend, sondern auch deren Verhältnis zueinander: „Abwasser enthält relativ viel Stickstoff und Phosphor, aber vergleichsweise wenig Kalium und Mikronährstoffe wie Zink und Eisen“, so der Experte. „Damit die Pflanzen möglichst effizient die Nährstoffe, insbesondere Stickstoff und Phosphor, aus dem Wasser aufnehmen können, müssen die gering vorliegenden Nährstoffe zugedüngt werden.“
Hydroponisches System entfernt Nährstoffe aus behandeltem Abwasser
Im Folgejahr tüftelten die Wissenschaftler weiter an diesem Problem. „Es ist nicht einfach, die Palette an Nährstoffen ausgewogen hinzubekommen, denn die Verhältnisse verschieben sich je nach Wachstumsstand und Umweltparameter.“
Während im ersten Jahr noch ein permanenter Durchfluss durch die Rohre erfolgte, experimentierte das Forschungsteam 2018 mit einem Kreislauf-System. Nitrat-Sensoren überwachten dabei kontinuierlich den Stickstoff-Gehalt, der im behandelten Abwasser zum weitaus größten Teil als Nitrat vorliegt. Sank dieser auf weniger als 10 mg/l Nitratstickstoff, wurde das Wasser erneuert. Zum Vergleich: Laut Abwasserverordnung gilt für Gesamtstickstoff ein Grenzwert von 13-18 mg/l für kommunales Abwasser.
„Damit gelang uns nicht nur eine Produktion auf hohem Niveau“, freut sich Dr. Germer, „sondern wir konnten auch das vorbehandelte Abwasser an Nährstoffen stark verarmen zu lassen. Wir erreichen damit Werte, die es erlauben, das Abwasser direkt in natürliche Fließgewässer einzuleiten. Stickstoff und Phosphor konnten wir viel weitreichender aus dem Abwasser entfernen als ein konventionelles Klärwerk – wir haben die Stickstofffrachten zum Teil bis unter die Nachweisgrenze senken können.“
Guten Noten für Geschmack und Hygiene
Letztendlich ist es jedoch das Ziel jeder Nahrungsmittelproduktion, dass die Produkte auf dem Teller landen – und hier drängt sich die Frage nach Qualität und Hygiene beim hydroponischen Anbau mit Abwasser auf. „Das Julius Kühn-Institut (JKI) hat den Salat daher unter anderem auf das Bakterium Escherichia coli untersucht, einem Darmbakterium, das als Indikator für Verunreinigung durch Fäkalien dient.“
Die Projektpartner konnten Entwarnung geben: Sie haben auf dem Salat nicht mehr E. coli als auf üblicher Marktware gefunden. Erbgutanalysen ergaben außerdem, dass es Unterschiede in den Populationen auf dem Salat und im aufbereiteten Abwasser gab. Das Ergebnis: Eine direkte Verunreinigung durch das Abwasser war nicht festzustellen, aus hygienischer Sicht scheint der Salat unbedenklich zu sein. Ein Aspekt, den es noch weiter zu untersuchen gilt, ist die Frage, wie die Übertragung bzw. Entwicklung von Antibiotikaresistenzgenen in den Bakterien unterbunden werden kann.
Das Forschungsteam hat den Salat auch einem direkten Qualitätstest unterzogen: Die Wissenschaftler haben ihn selbst probiert. „Geschmacklich und in der Konsistenz hat der Salat überzeugt“, berichtet Dr. Germer. Über die restlichen Salatköpfe habe sich eine Schafherde in Hattorf gefreut.
Fallstudien zeigen hohes Potenzial des hydroponischen Systems auf
Um das Potenzial des neuen Systems auszuloten, hat das Forschungsteam Fallstudien durchgeführt. Unter Leitung des ISOE – Instituts für sozial-ökologische Forschung in Frankfurt am Main und des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik wurde beispielhaft an drei Regionen gezeigt, wie die Aufbereitung und Wiederverwendung von kommunalem Abwasser gelingen kann. Im Landkreis Gifhorn in Niedersachsen untersuchten sie das Potenzial von Gemüseanbau mit aufbereitetem Abwasser. In der Gemeinde Raeren in Belgien ging es um den hydroponischen Anbau von Schnittblumen, und im Alentejo Portugals um die hydroponische Aufbereitung von Abwasser zur anschließenden Nutzung für die Bewässerung von Oliven, Mandeln und Wein.
Demnach ist das System künftig z.B. auch für kleine Gemeinden interessant, die Probleme damit haben, bei der Aufbereitung des Abwassers die Grenzwerte einzuhalten. Hier liegen ökonomische Vorteile klar auf der Hand, wenn mögliche Strafen auf diese Weise umgangen werden. Auch die Wassereffizienz ist ein großer Pluspunkt in Regionen mit Wasserknappheit wie dem Süden Europas, wo die Versorgungssicherheit in Trockenzeiten von hoher Bedeutung ist.
HINTERGRUND: Projekt Einsatz hydroponischer Systeme zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwertung (HypoWave)
Das Verbundprojekt HypoWave wurde vom Bundesministerium für Bildung und Forschung (BMBF) über den Projektträger Karlsruhe (PTKA) des Karlsruher Institut für Technologie (KIT) unterstützt. HypoWave startete am 1. September 2016 und endete am 31. Dezember 2019.
Im Forschungsverbund unter Leitung von Prof. Dr.-Ing. Thomas Dockhorn vom Institut für Siedlungswasserwirtschaft der TU Braunschweig waren an der Universität Hohenheim PD Dr. Frank Rasche und der Koordinator des Teilprojekts Dr. Jörn Germer für die Themenlinie Landwirtschaft/hydroponisches System verantwortlich. Weitere Kooperationspartner sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik (IGB), das Julius Kühn-Institut (JKI), das Institut für Ökologische und Nachhaltige Chemie der TU Braunschweig, der Abwasserverband Braunschweig, die Wolfsburger Entwässerungsbetriebe (WEB), ACS-Umwelttechnik, aquadrat ingenieure (a2i), aquatectura, aquatune – Dr. Gebhardt & Co., BIOTEC Biologische Naturverpackungen sowie Xylem Services.
HypoWave-Homepage: http://www.hypowave.de/
HINTERGRUND: Schwergewichte der Forschung
33,9 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2019 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.
HINTERGRUND: Wissenschaftsjahr 2020 Bioökonomie
2020 steht das Wissenschaftsjahr im Zeichen der Bioökonomie – und damit einer nachhaltigen, biobasierten Wirtschaftsweise. Es geht darum, natürliche Stoffe und Ressourcen nachhaltig und innovativ zu produzieren und zu nutzen und so fossile und mineralische Rohstoffe zu ersetzen, Produkte umweltverträglicher herzustellen und biologische Ressourcen zu schonen. Das ist in Zeiten des Klimawandels, einer wachsenden Weltbevölkerung und eines drastischen Artenrückgangs mehr denn je notwendig. Das vom Bundesministerium für Bildung und Forschung (BMBF) ausgerichtete Wissenschaftsjahr Bioökonomie rückt das Thema ins Rampenlicht.
Die Bioökonomie ist das Leitthema der Universität Hohenheim in Forschung und Lehre. Sie verbindet die agrarwissenschaftliche, die naturwissenschaftliche sowie die wirtschafts- und sozialwissenschaftliche Fakultät. Im Wissenschaftsjahr Bioökonomie informiert die Universität Hohenheim in zahlreichen Veranstaltungen Fachwelt und Öffentlichkeit zum Thema.
Weitere Informationen
Wissenschaftsjahr 2020 BMBF: https://www.wissenschaftsjahr.de/2020/
#Wissenschaftsjahr2020 #DasistBioökonomie
Wissenschaftsjahr 2020 Hohenheim: https://www.uni-hohenheim.de/wissenschaftsjahr-2020-biooekonomie
Bioökonomie an der Universität Hohenheim: https://biooekonomie.uni-hohenheim.de
Expertenliste Bioökonomie: https://www.uni-hohenheim.de/expertenliste-biooekonomie
Kontakt für Medien
Dr. Jörn Germer, Fachgebiet Wasserstress-Management bei Kulturpflanzen in den Tropen und Subtropen
T +49 711 459 23505, E jgermer@uni-hohenheim.de
Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse
Quelle: IDW
Revolutionäres Händedesinfektionssystem für öffentliche Orte
Charlotte Giese Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
Greifswalder Forscher des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) entwickeln neuartiges Desinfektionsmittel und präsentieren Pilotanlage zur Händedesinfektion.
Im Zuge der Corona Pandemie gewinnt ein neuartiges Desinfektionsverfahren der Firma Nebula Biocides GmbH, einer Ausgründung des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP), zunehmend an Bedeutung. Die erste Pilotanlage wurde gestern im Rahmen eines Testlaufs im Einkaufszentrum Elisen Park in Greifswald präsentiert.
„Seit 2016 erforschen wir einen hochwirksamen Desinfektionswirkstoff, der innerhalb von 30 Sekunden sowohl gegen hartnäckige Bakteriensporen als auch gegen widerstandsfähige Viren wirkt“ erklären Dr. Jörn Winter und Dr. Ansgar Schmidt-Bleker, Forscher am INP und Geschäftsführer der Nebula Biocides GmbH. „Auf Basis dieses Verfahrens arbeiten wir an einer neuartigen Desinfektionsanlage, die Händedesinfektionen an hochfrequentierten Orten wie z.B. an Bahnhöfen, Flughäfen, Schulen oder auch Krankenhäusern erlaubt“ so die beiden Forscher. Das Spendersystem ist speziell für öffentliche Orte konzipiert an denen sich viele Menschen begegnen. „Die Gesundheit und der Schutz unserer Kunden stehen für uns immer an erster Stelle. Gerade in der aktuellen Situation ist die Hygiene natürlich immens wichtig und seit dieser Woche dürfen auch bei uns im Elisen Park Greifswald wieder einige Geschäfte mehr öffnen. Daher freuen wir uns besonders, dass wir unseren Kunden gerade jetzt diese innovative Desinfektionsmethode vorstellen können“, so Karin Rüdiger, Center Managerin des Elisen Park.
Bereits mit der Pilotanlage können sich 18 Personen gleichzeitig die Hände desinfizieren. Die Desinfektionsanlage ist modular aufgebaut und arbeitet bis auf Wasserzufuhr autark. Der Wirkstoff wird direkt im Gerät aus Konzentraten erzeugt. So können mit einer einzigen Konzentrat-Befüllung ca. 1 Million Händedesinfektionen durchgeführt werden. Das Verfahren ist also ideal für alle Standorte mit hohem Publikumsverkehr.
Bisherige Desinfektionsmittel basieren meist auf Alkohol, sind teuer und leicht entzündlich. Außerdem sind Standard-Desinfektionsspender wartungsintensiv und nicht vor Vandalismus geschützt. Das Zwei-Komponenten-Desinfektionssystem „Sporosan“ der Nebula Biocides GmbH ist nicht nur wirksam gegen alle Krankheitserreger, sondern mit ca. 10 Cent pro Liter auch noch äußerst kostengünstig. Dies ist 100-mal preiswerter als der aktuelle Literpreis für alkoholbasierte Händedesinfektionsmittel. Außerdem basiert das neuartige Desinfektionsmittel auf Wasser und ist im Gegensatz zu herkömmlichen Lösungen nicht entflammbar. Die Wirkstoffe zerfallen nach der Händedesinfektion zu Wasser und natürlichen Rückständen, sind somit vollständig biologisch abbaubar. Ein besonderer Clou dieses schnellen Zerfalls: Der Diebstahl des Wirkstoffs, wie in letzter Zeit häufig in Krankenhäusern und anderen öffentlichen Einrichtungen beobachtet, ist dadurch unmöglich.
In jahrelangen Voruntersuchungen des INP sowie der Nebula Biocides GmbH wurde die Wirksamkeit, die grundsätzliche Verträglichkeit sowie die Sicherheit des Verfahrens in akkreditierten Laboren bereits bestätigt – zugelassen ist das Verfahren aber noch nicht. „Bereits Anfang 2019 haben wir eine Anfrage für ein Vorgespräch bei der zuständigen Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) gestellt“ berichtet Dr. Schmidt-Bleker. Die BAuA teilte jedoch mit, dass sie „die Bewertung aufgrund begrenzter Kapazitäten nicht übernehmen kann“.
Aktuell wird in enger Zusammenarbeit mit den zuständigen Landesministerien geprüft, wie das Desinfektionssystem möglichst schnell der Bevölkerung zur Verfügung gestellt werden kann. Dazu müsste das Zulassungsverfahren zügig losgetreten oder eine Sondergenehmigung erteilt werden. Bis es soweit ist, lässt sich die Desinfektionsanlage auch mit herkömmlichen Mitteln betreiben. „Das ist längst nicht so effizient und kostengünstig wie mit unserem Wirkstoff, aber schon mal ein wichtiger Schritt für die Hygiene an öffentlichen Orten“ so Dr. Jörn Winter. Die Gründer hoffen, dass die Desinfektionsanlage möglichst bald in Serie gehen kann und damit der Eindämmung der aktuellen Corona-Pandemie dient.
Die Entwicklung des Spendersystems wurde im Rahmen des Ideenwettbewerbs Gesundheitswirtschaft des Landes Mecklenburg-Vorpommern gefördert. Weitere Unterstützer sind die Firmen BSG Sondermaschinenbau GmbH und Formitas AG, die Hygiene-Institute Dr. Brill + Partner GmbH und Hygiene Nord GmbH sowie die Witeno GmbH.
Wissenschaftliche Ansprechpartner:
Dr. Jörn Winter – Leitung Gruppe Plasmaquellen
Tel.: +49 3834 – 554 3867
winter@inp-greifswald.de
www.leibniz-inp.de
Anhang
Revolutionäres Händedesinfektionssystem für öffentliche Orte
https://idw-online.de/de/attachment79760
Quelle: IDW
Lieferdrohnen statt Postautos? Studie zeigt: Bisher verbrauchen Drohnen noch zu viel Energie
Tom Leonhardt Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Bei der Paketzustellung haben Drohnen oft eine schlechtere Energiebilanz als klassische Lieferwagen. Das zeigt eine neue Studie der Martin-Luther-Universität Halle-Wittenberg. Gerade in dicht besiedelten Gegenden verbrauchen sie vergleichsweise viel Energie und ihre Reichweite wird stark von den Windbedingungen beeinflusst. Im ländlichen Bereich könnten sie dagegen dieselbetriebenen Lieferwagen Konkurrenz machen. Die Studie erschien im Fachjournal „Transportation Research Part D: Transport and Environment“.
Anstatt in Geschäfte zu gehen, bestellen viele Menschen während der Corona-Pandemie vermehrt online. So werden immer mehr Pakete verschickt, was viele Lieferdienste an die Grenzen ihrer Kapazitäten bringt. Ein möglicher Ausweg sind Drohnen, die völlig automatisch Pakete aus einem Lieferdepot zu den Kunden liefern. Was wie Science Fiction klingt, könnte demnächst Realität werden: „Google, DHL und Amazon experimentieren seit einigen Jahren auf diesem Gebiet und haben im Jahr 2019 erste kommerzielle Pilotprojekte in den USA und Australien gestartet“, sagt Dr. Thomas Kirschstein vom Lehrstuhl für Produktion und Logistik der MLU. Er hat ausgerechnet, ob aktuelle Drohnen-Modelle bereits jetzt konkurrenzfähig mit Lieferwagen sind, wenn es um ihren Energieverbrauch geht. „Häufig wurde bei dem hypothetischen Einsatz von Lieferdrohnen nur geschaut, ob sie die Pakete schneller und günstiger liefern können. Aspekte der Nachhaltigkeit spielten dagegen weniger eine Rolle“, so der Wirtschaftswissenschaftler weiter.
In seiner neuen Studie verglich Kirschstein den Energieverbrauch von Drohnen mit dem von dieselbetriebenen Lieferwagen und Elektro-Transportern, die von Paketboten aktuell genutzt werden. Mit Hilfe einer Simulation wollte er herausfinden, welches Fahrzeug unter welchen Umständen die beste Energiebilanz aufweist. Am Beispiel des Großraums Berlin spielte er mehrere Szenarien durch. „Unter anderem wurde untersucht, welchen Einfluss die Paketanzahl je Stopp und die Verkehrssituation auf den Energieverbrauch haben“, fasst der Forscher zusammen. Zudem ergänzte er seine Berechnungen um die Emissionen, die bei der Erzeugung von Elektrizität oder dem Verbrauch von Diesel entstehen.
Über alle Szenarien hinweg zeigte sich zunächst ein Trend: Elektro-Transporter waren deutlich sparsamer als Diesel-Trucks, sie verbrauchten bis zu 50 Prozent weniger Energie. „Für ein städtisches Setting verwundert das nicht: In Städten können die Lieferwagen nur langsam fahren und müssen häufig anhalten und wieder starten. Hier verbrauchen Elektro-Autos deutlich weniger Energie“, so Kirschstein.
Für Drohnen spielen diese Faktoren freilich keine Rolle. Stattdessen haben die Windverhältnisse einen entscheidenden Einfluss auf deren Leistungsfähigkeit: Kommt der Wind etwa von der Seite, muss mehr Energie aufgewendet werden, um den Kurs zu halten. Gegen- oder Rückenwind können sich dagegen sogar leicht positiv auf den Energieverbrauch auswirken. „Relativ viel Energie verbrauchen Drohnen, wenn sie in an einem Ort in der Luft schweben müssen, wenn sie zum Beispiel ein Paket abliefern wollen und vor der Tür des Empfängers warten müssen“, erklärt der Wirtschaftswissenschaftler.
Im Durchschnitt verbrauchten die Drohnen in der Simulation in einer dichtbesiedelten Stadt wie Berlin bis zu zehn Mal so viel Energie wie die Elektro-Lieferwagen. „Paketboten können beispielsweise anhalten und mehrere Pakete zu Fuß ausliefern, wenn in einer Straße mehrere Kunden beliefert werden müssen. Für Drohnen ist das nicht möglich, sie können immer nur ein Paket zustellen. Das erhöht ihren Energieverbrauch zum Teil drastisch“, so Kirschstein. Seine Simulationen zeigen aber auch ein Szenario, in dem die fliegenden Lieferanten energieeffizienter sind als Lieferwagen: In dünner besiedelten, eher ländlich geprägten Gebieten waren sie energiesparender. Allerdings bedeutet ein höherer Energieverbrauch nicht notwendigerweise eine schlechtere Umweltbilanz: „Auch wenn Drohnen mehr Energie benötigen, könnten sie eine Alternative zu Dieselfahrzeugen sein, sofern der Strom, den sie benötigen, aus umweltfreundlichen Verfahren erzeugt wird“, sagt der Forscher.
Originalpublikation:
Über die Studie: Kirschstein, Thomas. Comparison of energy demands of drone-based and ground-based parcel delivery services. Transportation Research Part D: Transport and Environment (2020). Doi: 10.1016/j.trd.2019.102209
Weitere Informationen:
https://doi.org/10.1016/j.trd.2019.102209
Quelle: IDW
RWI/Stiftung Mercator: Studie in „Nature“ – Autobesitzer unterschätzen Gesamtkosten des eigenen Autos massiv
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Autobesitzer in Deutschland unterschätzen die Gesamtkosten ihres eigenen Pkw systematisch um bis zu 50 Prozent. Zu diesem Ergebnis kommt eine gemeinsame Studie von Wissenschaftlern des RWI – Leibniz-Institut für Wirtschaftsforschung, der Universität Mannheim und der Yale University. Die von der Stiftung Mercator geförderte Forschung erscheint heute im Fachjournal „Nature“. Neben dem Wertverlust werden vor allem Fixkosten wie Steuern und Versicherungen sowie Reparaturkosten unterbewertet. Mehr Transparenz zu diesen Kosten könnte die Nachfrage nach E-Autos und öffentlichem Nahverkehr sowie die Anreize zum Radfahren steigern. Dies würde eine nachhaltige Verkehrswende beschleunigen.
Die wichtigsten Ergebnisse:
• Deutsche Autobesitzerinnen und -besitzer unterschätzen die Gesamtkosten ihres privaten Pkw systematisch um bis zu 50 Prozent. Dies führt dazu, dass alternative Angebote wie der öffentliche Personennahverkehr und nicht-fossil betriebene Fahrzeuge weniger attraktiv erscheinen.
• Befragte bewerten die Gesamtkosten des Autobesitzes um durchschnittlich 221 Euro pro Monat zu niedrig, das sind 52 Prozent der eigentlichen Kosten. Diejenigen, die sämtliche Kostenfaktoren berücksichtigten, schätzen diese immer noch um durchschnittlich 161 Euro bzw. 35 Prozent zu niedrig ein.
• Unterschätzt werden vor allem der Wertverlust des Automobils, aber auch Fixkosten wie Steuern und Versicherungen sowie Reparaturkosten. Einzig die Kosten von Diesel oder Benzin werden von den Verbrauchern im Durchschnitt weitgehend korrekt bewertet.
• Eine Hochrechnung der Forscher basierend auf vorhandenen Daten aus der Literatur ergibt, dass eine höhere Transparenz über die wahren Kosten des Autobesitzes im Optimalfall den Pkw-Besitz in Deutschland um bis zu 37 Prozent senken könnte. Auf diese Weise würden 17,6 Millionen Autos von den Straßen verschwinden. CO2-Emissionen von 37 Millionen Tonnen pro Jahr könnten auf diesem Wege eingespart werden – das entspräche 4,3 Prozent der deutschen Gesamtemissionen bzw. 23 Prozent der Emissionen aus dem Transportsektor.
• Gleichzeitig könnte die Nachfrage nach E-Autos um bis zu 73 Prozent steigen. Die Nachfrage nach Bus- und Bahnverkehr könnte sich gleichzeitig um 8 bzw. 12 Prozent erhöhen.
• Die Hochrechnungen basieren auf verschiedenen Annahme-Szenarien, unter anderem zur Auswirkung von Veränderungen der Gesamtkosten des Autofahrens auf den Autobesitz. Für diese liegen bisher sehr wenige empirische Studien vor. Die Autoren können zeigen, dass auch konservativere Annahmen zu einer substanziellen Reduktion an Autos führen würden.
• Es handelt sich hierbei um erste Ergebnisse zu diesem Themenkomplex. Die Studienautoren sehen großen Forschungsbedarf und beschreiben viele Ansatzpunkte zur weiteren Forschung.
„Viele Verbraucher würden eher auf E-Autos oder ÖPNV setzen, wenn sie die wahren Kosten eines konventionellen Pkw stärker berücksichtigen würden“, sagt Mark A. Andor, RWI-Umweltökonom und Studienautor. „Verbraucherschutz-Organisationen könnten gemeinsam mit staatlichen Institutionen dabei helfen, die Autobesitzer besser zu informieren. Damit ließe sich auch ohne große zusätzliche Kosten für den Staat oder die Bürger ein signifikanter Schritt in Richtung einer nachhaltigen Verkehrswende machen.“
„Wir müssen das Verkehrssystem konsequenter als bisher an Klimaschutz und Luftreinhaltung ausrichten“, so Dr. Lars Grotewold, Bereichsleiter Klimawandel der Stiftung Mercator. „Welche Faktoren beeinflussen Mobilitätsentscheidungen und welche Anreize bewirken einen Umstieg auf klimafreundliche Verkehrsmittel? Darauf müssen wir Antworten finden, damit die Verkehrswende gelingt. Die in der Studie gewonnen Daten haben hierzu einen wichtigen Beitrag geleistet.“
Die Untersuchung ist in Zusammenarbeit mit dem Umfrageinstitut forsa entstanden. Genutzt wurde deren repräsentatives Panel deutscher Haushalte. Knapp 5500 Autobesitzer gaben Schätzungen zu ihren monatlichen Kosten der Pkw-Nutzung an. Die Befragungen wurden vom 23. April bis zum 12. Juni 2018 durchgeführt. Die Daten zu Autopreisen und Betriebskosten stammen unter anderem vom Allgemeinen Deutschen Automobil-Club (ADAC). Gefördert wurde die Studie von der Stiftung Mercator.
Ihre Ansprechpartner/in dazu:
Dr. Mark Andor, E-Mail: mark.andor(at)rwi-essen.de
Sabine Weiler (Kommunikation), Tel. (0201) 81 49-213
Dieser Pressemitteilung liegt der Beitrag „Running a car costs much more than people think – stalling the uptake of green travel“ aus der Ausgabe der Zeitschrift „Nature“ vom 23. April zugrunde. Er ist unter https://www.nature.com/articles/d41586-020-01118-w online verfügbar.
Wissenschaftliche Ansprechpartner:
Dr. Mark Andor, E-Mail: mark.andor(at)rwi-essen.de
Originalpublikation:
„Running a car costs much more than people think – stalling the uptake of green travel“, https://www.nature.com/articles/d41586-020-01118-w, doi: 10.1038/d41586-020-01118-w
Quelle: IDW
Brillen-Flora: das Miniversum vor der Nase
Jutta Neumann Pressestelle
Hochschule Furtwangen
Fast jeder zweite Europäer trägt eine Brille. Aufgrund ihrer exponierten Position mitten im Gesicht, der Nähe zu Mund und Nase und häufigem Hautkontakt, insbesondere durch die Hände, sind Brillen nachweislich deutlich mit Mikroorganismen kontaminiert. Die Hochschule Furtwangen hat nun die weltweit erste molekularbiologische Studie zur bakteriellen Besiedlung von getragenen Brillen veröffentlicht.
„Da viele Bakterien sich bislang nicht kultivieren lassen, erlauben molekularbiologische Methoden völlig neue Einblicke in die Besiedlung von Gebrauchsgegenständen wie Brillen“, erläutert Studienleiter Prof. Dr. Markus Egert, der an der Hochschule Furtwangen am Campus Schwenningen Mikrobiologie und Hygiene lehrt. Die Herausforderung bei dieser Studie lag auch in den nur geringen DNA-Mengen, die sich von Brillen isolieren lassen.
In der Studie wurden 30 im Hochschulumfeld getragene Brillen an jeweils drei Stellen analysiert: Gläsern, Ohrbügeln und Nasenpolstern. Insgesamt wurden dabei 5232 verschiedene Arten und 665 Gattungen von Bakterien entdeckt. Die höchste Artenvielfalt zeigten die Brillengläser, die geringste die Nasenpolster. Generell dominierten Haut- und Schleimhautbakterien, die über die Gesichtshaut, die Hände oder Mund und Nase – beim Atmen oder Brilleputzen durch Hauchen – auf die Brille gelangen, wie Cutibakterien, Corynebakterien oder Staphylokokken. Gerade auf den Gläsern fanden sich aber auch typische Umweltkeime, wie Pseudomonaden, die über die Luft dorthin gelangen können. Mehr als 80% der 13 am häufigsten identifizierten Arten sind potentiell pathogen und können gerade bei empfindlichen Menschen Infektionen auslösen, auch im Augenbereich.
Die Studie liefert eine umfassende Grundlage für eine bessere Beurteilung von Brillen als Keimüberträgern, gerade im klinischen Bereich. Folgestudien werden zeigen, inwieweit Brillen eine Rolle als Keimreservoir bei wiederkehrenden Augeninfektionen und der Übertragung Antibiotika-resistenter Bakterien spielen könnten. Weiterhin unterstreicht sie die Notwendigkeit passender Hygienemaßnahmen für Menschen, die beruflich viel mit Brillen fremder Personen zu tun haben, wie Augenärzte oder Optiker.
In einer vorangegangenen Studie der Arbeitsgruppe Egert wurde bereits gezeigt, dass sich die bakterielle Belastung auf Brillen durch eine feuchte Reinigung, etwa mit Brillenreinigungstüchern, um ca. 95% reduzieren lässt. „Eine feuchte Reinigung mit alkoholischen oder tensidhaltigen Brillenreinigungstüchern oder einfach mit Wasser und Spülmittel ist nach aktuellem Wissensstand auch eine sinnvolle Strategie zur Entfernung von Corona- und anderen Viren auf der Brille, nachdem man Kontakt mit hustenden Menschen gehabt hat“, erklärt Professor Egert.
Die neue Studie wurde durch ein Forscherteam der Hochschule Furtwangen, der Universität Tübingen und der Carl Zeiss Vision International GmbH, Aalen, erstellt und im Rahmen des CoHMed – Connected Health in Medical Mountains Projektes der Hochschule Furtwangen vom Bundesministerium für Bildung und Forschung gefördert (Förderkennzeichen 13FH5I02IA). Erschienen ist sie in der Zeitschrift Scientific Reports mit dem Titel „Site-specific molecular analysis of the bacteriota on worn spectacles“.
Wissenschaftliche Ansprechpartner:
Markus Egert, ege@hs-furtwangen.de
Originalpublikation:
Scientific Reports 10, Artikel-Nummer 5577 (2020)
https://www.nature.com/articles/s41598-020-62186-6
https://doi.org/10.1038/s41598-020-62186-6.
Quelle: IDW
Besser gewappnet bei Überflutungen in der Stadt
Jessica Bode Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Dreidimensionale Hochwasser-Risikoanalyse am Stadtmodell Dresden – DBU gibt 235.000 Euro
Berlin/Dresden. Für Mensch und Umwelt bedeuten Hochwasser erhebliche Belastungen. Neben den immensen gesundheitlichen Gefährdungen können große Schäden an Gebäuden oder Industrieanlagen entstehen, Schadstoffe in die Umwelt gelangen und große Teile kommunaler Infrastruktur lahmgelegt werden. Um ein besseres Risikomanagement speziell im besiedelten Raum zu ermöglichen, entwickelten die Firma virtualcitySYSTEMS (VCS, Berlin) und das Institut für Wasserbau und Technische Hydromechanik (IWD) der Technischen Universität Dresden eine Methodik, bei der Entscheidungsträger bei Behörden, Polizei und Feuerwehren schneller und zielgenauer planen und reagieren könnten. „Durch den Klimawandel wird es in Deutschland häufigere und schwerere Überflutungen geben. Je realer die Vorhersage gelingt, desto besser können Städte und Gemeinden die Bevölkerung informieren und Vorsorge treffen“, sagt Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU), die das Projekt fachlich und finanziell mit 235.000 Euro fördere.
Bisheriger Stand der Technik: Zweidimensionale Modelle
Verheerende Hochwasser mit Schäden in Milliardenhöhe seien zum Beispiel infolge des Elbe- und Saalehochwassers im Jahr 2013 oder durch die Elbe-Flut mit Mulde-Hochwasser im Jahr 2002 entstanden. Dennoch gerieten Erkenntnisse oder Erfahrungen, die während solcher Ereignisse gesammelt wurden, wegen der eher längeren hochwasserfreien Perioden wieder in Vergessenheit oder fehlten in Regionen, die bisher nicht betroffen waren. „Nach dem bisherigen Stand der Technik nutzen städtische Umweltämter und Kreisverwaltungen zweidimensionale digitale Überflutungsszenarien für die Voraussage“, erklärt Franz-Peter Heidenreich, DBU-Fachreferent Kreislaufführung und Bautechnik. Die räumlichen Charakteristiken solcher Bauten, dazu zählten auch Deiche, Spundwände und Dämme aus Sandsäcken, könnten bisher nur stark vereinfacht berücksichtigt werden. Zudem könnten tatsächliche Verläufe bei einem aktuellen Hochwasserereignis bislang erst nachträglich in die Datenbank eingefügt werden.
Einfluss von Brücken, Deichen und Sandsäcken besser vorhersehen
Projektleiter Dr. Arne Schilling von VCS: „Mit der neuen Methodik werden erstmals hydronumerische Strömungssimulationen mit komplexen dreidimensionalen Stadtmodellen, die derzeit für Planungszwecke verwendet werden, kombiniert.“ Zum einen sei mit der fotorealistischen dreidimensionalen Darstellung eine Prognose besser erkennbar und damit auch für die Bürger-Information besser geeignet. Um das Risikobewusstsein der Bevölkerung zu schärfen, wurde etwa eine computergestützte Anwendung entwickelt, die zum Beispiel frühere Hochwasserstände an ausgewählten Stellen originalgetreu wiedergeben könne. Zum anderen können die räumlichen Eigenschaften von Bauwerken, inklusive deren Auswirkungen auf das Strömungsverhalten des Wassers, besser berücksichtigt werden. „Wir haben als Modell Dresden verwendet und mit Informationen über die Gewässersohle der Elbe kombiniert. Über die Elbe führen im Stadtgebiet einige Brücken, deren Pfeiler zum Beispiel den Strömungsverlauf des Flusses durch Einengungs- und Aufstaueffekte erheblich beeinflussen können, wenn der Pegel ansteigt. Diese Einflüsse können wir mit hochgenauen dreidimensionalen Simulationen nun besser untersuchen“, so Schilling.
Echtzeit-Informationen ermöglichen unmittelbares Reagieren
Bisher sei es darüber hinaus nicht möglich, Abweichungen, die bei einem aktuellen Hochwasserereignis beobachtet werden, sofort in das System zu übertragen. Durch Einbeziehen von Echtzeitdaten von Pegelmessstellen sind Änderungen der Abflussmengen nun einfacher zu erfassen und Prognosen können angepasst werden. „Es ist ein praxistaugliches Werkzeug entstanden, das für Analysen vor, während und nach einem Flusshochwasser eingesetzt werden kann“, so Schilling. Bauliche Maßnahmen gegen Hochwasser könnten in ihrer Wirkung überprüft und verbessert werden. Ebenso sei es möglich vorherzusehen, welche Gebäude in welchem Ausmaß beschädigt werden würden. Bereits vorliegende Strömungssimulationen könnten mit dem Verfahren nachgebessert werden. Schilling: „Wir haben eine Methodik entwickelt, die die Einsatzplanung schneller, flexibler und zielgenauer macht.“ Das Vorhaben trage zum Erreichen der Ziele der Hochwasserrisiko-Management-Richtlinie der Europäischen Union bei, indem es detailliertere Risikoanalysen für ein verbessertes Hochwasserrisiko-Management ermögliche.
Weitere Informationen:
https://www.dbu.de/OPAC/ab/DBU-Abschlussbericht-AZ-34205_01.pdf Abschlussbericht
https://www.dbu.de/123artikel38622_2362.html Pressemitteilung
Quelle: IDW
Wie viele Menschen wirklich Linkshänder sind
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Eines war schon immer klar: Linkshänder sind seltener als Rechtshänder. Aber wie viele Menschen wirklich die linke Hand bevorzugen, ist erst jetzt geklärt: 10,6 Prozent beträgt die Linkshänder-Quote. Das ergab die weltgrößte Untersuchung zu diesem Thema, in der ein Forschungsteam der Universitäten St. Andrews, Athen, Oxford, Bristol und Bochum Studien zur Händigkeit von insgesamt mehr als zwei Millionen Menschen auswertete. Die Ergebnisse sind in der Zeitschrift Psychological Bulletin vom 2. April 2020 veröffentlicht.
Strenge der Kriterien beeinflusst die Quote
Die Häufigkeit der Linkshändigkeit beschäftigt verschiedenste Forschungsbereiche von der Kognitiven Neurowissenschaft bis hin zu Evolutionsforschung. Hunderte empirische Untersuchungen drehten sich um diese Frage; eine groß angelegte, umfassende Überprüfung der Häufigkeit gab es aber nie.
Für die aktuelle Studie zogen die Forscherinnen und Forscher, zu denen Privatdozent Dr. Sebastian Ocklenburg von der Fakultät für Psychologie der Ruhr-Universität Bochum (RUB) gehörte, fünf Meta-Analysen heran, in die die Daten von insgesamt 2.396.170 Personen eingingen, die in Studien verschiedene manuelle Aufgaben hatten erledigen müssen. „Wie häufig Links- und Rechtshändigkeit jeweils sind, hängt dabei auch davon ab, wie streng die Kriterien dafür sind, die die Autoren anlegen“, erklärt Sebastian Ocklenburg.
Bei Verwendung der strengsten Kriterien sind 9,34 Prozent der Probandinnen und Probanden linkshändig. Bei Verwendung weniger strikter Kriterien sind 18,1 Prozent nicht rechtshändig. „Die beste Gesamtschätzung liegt bei 10,6 Prozent Linkshändigkeit“, so Ocklenburg.
Schreiben ist nicht alles
Normalerweise wird die Händigkeit davon abhängig gemacht, mit welcher Hand jemand schreibt. Bei der aktuellen Studie berücksichtigte das Forschungsteam aber die Tatsache, dass etwa neun Prozent der Menschen verschiedene Hände für verschiedene Aufgaben verwenden. Das sorgte für genauere Ergebnisse. „Der Anteil der Menschen, die verschiedene Hände für unterschiedliche Aufgaben nutzen, ist den Daten zufolge fast genauso groß wie der Anteil linkshändiger Menschen“, unterstreicht Autorin Dr. Silvia Paracchini von der School of Medicine in St. Andrews.
Genaue Einsichten in das Phänomen der Händigkeit tragen dem Forschungsteam zufolge auch zum Verständnis der Evolution bei. Rechtshändigkeit gilt gemeinsam mit den Fähigkeiten, Werkzeuge zu nutzen und sich mittels einer Sprache zu verständigen, sowie mit der funktionellen und anatomischen Spezialisierung des Gehirns als ein spezifisches Merkmal des Menschen: In diesen Dingen unterscheidet sich unsere Evolution von der der Affen.
Originalveröffentlichung
Marietta Papadatou-Pastou, Eleni Ntolka, Judith Schmitz, Maryanne Martin, Marcus R. Munafò, Sebastian Ocklenburg, Silvia Paracchini: Human handedness: A meta-analysis, in: Psychological Bulletin, 2020, DOI: 10.1037/bul0000229
Pressekontakt
Privatdozent Dr. Sebastian Ocklenburg
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 24323
E-Mail: sebastian.ocklenburg@rub.de
Wissenschaftliche Ansprechpartner:
Privatdozent Dr. Sebastian Ocklenburg
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 24323
E-Mail: sebastian.ocklenburg@rub.de
Originalpublikation:
Marietta Papadatou-Pastou, Eleni Ntolka, Judith Schmitz, Maryanne Martin, Marcus R. Munafò, Sebastian Ocklenburg, Silvia Paracchini: Human handedness: A meta-analysis, in: Psychological Bulletin, 2020, DOI: 10.1037/bul0000229
Weitere Informationen:
https://psycnet.apa.org/doiLanding?doi=10.1037%2Fbul0000229
Originalpaper
Quelle: IDW
TU Ilmenau: Pflanzenbestimmung mit Flora Incognita App im März verzehnfacht
Bettina Wegner Referat Medien- und Öffentlichkeitsarbeit
Technische Universität Ilmenau
Das Forscherteam des „Flora Incognita“-Projekts freut sich über den derzeit starken Anstieg der Nutzung ihrer gleichnamigen App für Smartphones, mit der die wildwachsenden Pflanzen Deutschlands per Foto bestimmt und die Beobachtungen digital gesammelt werden können.
Im Projekt „Flora Incognita“ arbeiten Wissenschaftler und Wissenschaftlerinnen der TU Ilmenau und des Max-Planck-Instituts für Biogeochemie Jena fächerübergrei-fend an Methoden zur halbautomatischen Pflanzenbestimmung. Die Nutzung der Flora-Incognita-App ist aktuell enorm: Im März 2020 verzeichnete das Projektteam mit etwa 15.000 Pflanzenbestimmungen am Tag eine Verzehnfachung der Pflan-zenbestimmungen im Vergleich zum gleichen Zeitraum im Vorjahr. „Wir sehen ganz klar, dass die Menschen sich gerade auf das fokussieren, was sie umgibt. Wir erhalten eine Vielzahl von positiven Rückmeldungen, dass in den letzten Wochen das Bewusstsein von regionaler Vielfalt gestärkt werden konnte und die Menschen Freude daran haben, ihre Artenkenntnis auf langen Spaziergängen durch die nä-here Umgebung zu erweitern“ sagt der Ilmenauer Informatiker und Leiter des Flora-Incognita-Projekts, Professor Patrick Mäder.
Viele Anfragen erreichen das Team derzeit auch von Schulen und Universitäten, die die App in ihren Unterricht und ihre e-Learning Angebote einbeziehen möch-ten. Speziell für Lehrer und Lehrerinnen stellt das Team Arbeitsblätter zum Down-load bereit, die die Gestaltung von Unterrichtseinheiten zum Thema Pflanzener-kennung erleichtern.
Die der gewonnenen Vielzahl an Daten ermöglicht es den Forschern nun auch, ihre wissenschaftlichen Auswertungen zu erweitern. So arbeitet das Flora-Incognita-Team auf Grundlage der Daten intensiv daran, die Veränderung im zeitli-chen Auftreten von Arten zu erkennen. „Im Vergleich zum letzten Jahr konnten wir in diesem Jahr beispielsweise eine deutliche Verschiebung der Blühzeit der Win-terlinge, der Eranthis hyemalis, verzeichnen“, so Dr. Jana Wäldchen, Teilprojektlei-terin in Jena. „Mit Hilfe solcher Daten können wir feststellen, wie sich die Entwick-lung von Pflanzen verändert und Trends für die Zukunft vorhersagen.“
Mit der App „Flora Incognita“ können Laien und Experten alle wildwachsenden Pflanzenarten Deutschlands und angrenzender Gebiete bestimmen. Die App wur-de bereits 990.000-mal installiert, die Zahl der Pflanzenbestimmung pro Tag reicht bis zu 60.000.
Wissenschaftliche Ansprechpartner:
Prof. Patrick Mäder
Leiter Fachgebiet Softwaretechnik für
sicherheitskritische Systeme
Tel.: +49 3677 69-4839
E-Mail: patrick.maeder@tu-ilmenau.de
Ergänzung vom 21.04.2020
Die Flora Incognita Apps werden durch die Technische Universität Ilmenau
und das Max-Planck-Institut für Biogeochemie Jena entwickelt. Ihre
Entwicklung wurde gefördert durch das Bundesministerium für Bildung und
Forschung, das Bundesamt für Naturschutz mit Mitteln des
Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit sowie
das Thüringer Ministerium für Umwelt, Energie und Naturschutz und die
Stiftung Naturschutz Thüringen.
Quelle: IDW
Die Widerstandskraft, nicht esssüchtig zu werden
Martina Diehl Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Resilienzforschung gGmbH
Überkonsum von kalorisch sehr dichtem und schmackhaftem Essen war evolutionär von Vorteil, als Nahrung knapp war. Dieses Verhalten hatte die Überlebenschancen erhöht. In der jetzigen Zeit jedoch, durch die Verfügbarkeit von kalorienreicher Nahrung und stress-induziertem Essverhalten, kann diese Strategie Schaden anrichten und Fettleibigkeit, metabolisches Syndrom und Essstörungen verursachen. Interessanterweise entwickeln nicht alle Individuen eine Esssucht; einige zeigen eine Widerstandskraft und sind resilient, andere sind anfällig.
Eine Studie, die kürzlich im Fachjournal „Nature Communications“ publiziert wurde, untersuchte die Schaltkreise und neuronalen Signalwege im Gehirn, welche dieses Verhalten regulieren.
Die Arbeitsgruppe von Prof. Beat Lutz (Institut für Physiologische Chemie, Universitätsmedizin Mainz und Leibniz-Institut für Resilienzforschung in Mainz), Prof. Rafael Maldonado (Universität Barcelona) und Prof. Susanne Gerber (Johannes Gutenberg-Universität Mainz) berichten darüber, wie das Lipidsignalwege durch Endocannabinoide und den Neurotransmitter Dopamin Esssucht regulieren, indem diese die Cannabinoid CB1-Rezeptoren und Dopamin D2-Rezeptoren im präfrontalen Kortex aktivieren.
Die Autoren untersuchten in einem Esssucht-Modell das Verhalten von Mäusen, denen der CB1-Rezeptor in kortikalen erregenden Neuronen fehlte. Dieses Modell, in welchem die Mäuse trainiert werden, sich Schokoladenfutter selbst zu verabreichen, ermöglicht das Messen von drei Kriterien einer Sucht: Motivation, Impulsivität und zwanghaftes Verhalten. Die Mäuse ohne CB1-Rezeptoren waren widerstandsfähig gegenüber jedem Kriterium der Sucht. Diese Mäuse zeigten auch eine erhöhte synaptische Aktivität im Präfrontalkortex und auch im Nucleus Accumbens, ein zentraler Bestandteil des Belohnungssystems im Gehirn. Selektive Verringerung der neuronalen Aktivität der Projektion vom Präfrontalkortex zum Nucleus Accumbens verstärkte die Gefahr, eine Esssucht zu entwickeln. Die Analyse des Transkriptoms im Präfrontalkortex ergab, dass die Expression des Dopamin D2 Rezeptors in esssüchtigen Mäusen gesteigert ist. Die genetische Manipulation, diesen Signalweg zu verstärken, führte ebenfalls dazu, eher Esssucht zu entwickeln; insbesondere das zwanghafte Verhalten wurde erhöht.
Die Studie konnte zeigen, dass der Präfrontalkortex eine zentrale Rolle bei Esssucht spielt und dass die erregende Aktivität von dieser Gehirnregion zum Nucleus Accumbens die Widerstandskraft gegenüber Esssucht verstärkt. Diese Erkenntnisse ermöglichen neue Ansätze zur Therapie von Esssucht, z. B. durch Stimulation des Präfrontalkortex in Patienten.
Wissenschaftliche Ansprechpartner:
Kontakt
Univ.-Prof. Dr. Beat Lutz
Leibniz-Institut für Resilienzforschung (LIR) gGmbH
Tel.: +49 6131 3925912
E-Mail: beat.lutz@lir-mainz.de
Originalpublikation:
Domingo-Rodriguez L1, Ruiz de Azua I1, Dominguez E, Senabre E, Serra I, Kummer S, Navandar M, Baddenhausen S, Hofmann C, Andero R, Gerber S, Navarrete M, Dierssen M, Lutz B2, Martín-García E2, Maldonado R2 (2020) A specific prelimbic-nucleus accumbens pathway controls resilience versus vulnerability to food addiction. Nat Commun 11:782. doi: 10.1038/s41467-020-14458-y (1,2shared first and senior position, respectively)
Quelle: IDW
Entwicklung von tragbaren Messgeräten: Bodenbelastungen sofort erkennen
Birte Vierjahn Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Die Tankstelle ist längst aufgegeben, nun soll sie einem Wohnhaus weichen. Doch wie belastet ist der Boden mit Kohlenwasserstoffen aus Benzin, Diesel und Öl? In einem gemeinsamen Projekt entwickeln Chemiker der Universität Duisburg-Essen (UDE) mit einem Industriepartner Analyseverfahren für handgehaltene Spektrometer, um künftig Antworten ohne Wartezeit zu liefern.
Reicht eine einfache Reinigung oder muss der Boden komplett ausgehoben werden? Waren die bisherigen Säuberungsmaßnahmen erfolgreich? Fragen wie diese möchte der UDE-Chemiker Prof. Heinz W. Siesler künftig an Ort und Stelle klären können, ohne erst Proben zu Laboruntersuchungen versenden zu müssen.
Dazu forscht er ab Juni zusammen mit einem US-amerikanischen Unternehmen an tragbaren Nahinfrarot-Spektrometern. Diese können Rückstände von Benzin, Diesel oder Öl im Boden schon erkennen und unterscheiden, wenn sie nur 0,1% der untersuchten Probe ausmachen. Besonders für petrochemische Firmen und Umweltbehörden könnte die Technologie interessant sein.
Das mit 83.500 € dotierte Projekt ist zunächst auf ein Jahr angesetzt.
Wissenschaftliche Ansprechpartner:
Prof. Heinz W. Siesler, Physikalische Chemie, 0201/18 3-2974, hw.siesler@uni-due.de
Quelle: IDW
Wie gut ist die weltweite Wasserqualität? Verbundprojekt „GlobeWQ“ startet
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Süßwasser in ausreichender Menge und guter Qualität ist für den Menschen und die Natur unentbehrlich. Die Oberflächen- und Grundwasser rund um den Globus sind jedoch einem enormen Druck ausgesetzt – so hat sich nach Schätzungen des Helmholtz-Zentrums für Umweltforschung (UFZ) beispielsweise seit den 1990er Jahren in den meisten Flüssen Lateinamerikas, Afrikas und Asiens die Wasserqualität verschlechtert. Am UFZ startete nun ein internationales Forschungsprojekt, in dem Messdaten zur Wasserqualität verlässlicher erfasst werden sollen.
Rund vier Milliarden Menschen auf der Welt leiden mindestens einen Monat im Jahr unter akuter Wasserknappheit. Doch nicht nur die Wassermenge ist ein Problem. Nahezu überall auf der Welt, dies gilt auch für Deutschland, ist die Wasserqualität verbesserungswürdig. Mit ein Grund, warum die Vereinten Nationen den Erhalt und die Verbesserung der Wasserqualität als eines von 17 Zielen für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) festgeschrieben haben. Das Ziel 6 der SDGs „Sauberes Wasser und sanitäre Einrichtungen“ sieht deshalb vor, die Einleitung von unbehandelten industriellen und häuslichen Abwässern zu reduzieren sowie den Schutz von wasserverbundenen Ökosystemen wie beispielsweise Seen, Flüssen und Feuchtgebieten zu erhöhen. Die wesentliche Basis dafür: verlässliche, global verfügbare Daten über den Zustand der Gewässer und Kenntnisse zu den wichtigsten Faktoren, die diesen Zustand beeinflussen. Genau daran soll das Projekt „Analyse- und Service-Plattform globale Wasserqualität (GlobeWQ)“, das das Bundesministerium für Bildung und Forschung (BMBF) bis September 2022 fördert, ansetzen. „Natürlich gibt es bereits Datenbanken mit Messwerten, doch nicht alle Länder verfügen über regelmäßige Umweltmessprogramme, sodass verfügbare Daten oft lückenhaft, veraltet oder nicht kompatibel sind“, sagt UFZ-Hydrobiologe Prof. Dietrich Borchardt, der das Projekt leitet. Deswegen sei es nicht möglich, allein anhand von Messungen ein ausreichend genaues Bild der globalen Wasserqualität zu erhalten. Kritische Zustände würden folglich oft nicht erkannt und könnten nicht behoben werden.
Außer dem UFZ beteiligen sich an dem Konsortium die Ruhruniversität Bochum, das Umweltprogramm der Vereinten Nationen (UNEP), das International Centre for Water Resources and Global Change (ICWRGC) sowie die Firmen terrestris und EOMAP. Sie wollen nun vor Ort-Messdaten mit Informationen aus Aufnahmen der Sentinel-2 Satelliten und modellbasierten Abschätzungen der Wasserqualität verknüpfen. „Das Produkt von GlobeWQ wird der Prototyp einer Analyse- und Service-Plattform sein, die mit einer global einheitlichen Methodik entscheidungsrelevante Informationen zur Wasserqualität regional verfügbar macht“, skizziert Dietrich Borchardt den Anspruch an das Vorhaben. Bevor dieser Prototyp in der Praxis eingesetzt wird, soll er weltweit an Seen, Flüssen und Grundwasserkörpern in zehn Fallstudien erprobt werden, in Deutschland beispielsweise am Einzugsgebiet der Elbe und am Bodensee. Gelingt der Test, könnte damit die Qualität von Oberflächen- und Grundwasser präziser bewertet und Gefahren für die Wasserqualität schneller ermittelt und behoben werden.
Das Forschungsprojekt GlobeWQ ist Teil des BMBF-Rahmenprogramms „Forschung für nachhaltige Entwicklung (FONA3)“ und assoziiert mit der BMBF-Fördermaßnahme „Globale Ressource Wasser (GRoW)“. Das Projektkonsortium bilden das UFZ, das Umweltprogramm der Vereinten Nationen (UNEP), die Ruhr-Universität Bochum, das International Centre for Water Resources and Global Change (ICWRGC) sowie die Firmen Earth Observation & Environmental Services (EOMAP) und terrestris GmbH & Co. Das Umweltbundesamt (UBA) und die Europäische Umweltagentur (EEA) unterstützen das Projekt beim Anschluss an die Bewirtschaftungspraxis als strategische Partner.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dietrich Borchardt
Leiter UFZ-Department Aquatische Ökosystemanalyse und Management
Projektleiter GlobeWQ
dietrich.borchardt@ufz.de
Dr. Christian Schmidt
UFZ-Department Aquatische Ökosystemanalyse und Management
Projektkoordinator GlobeWQ
christian.schmidt@ufz.de
Weitere Informationen:
http://www.globe-wq.info
Quelle: IDW
BodyMind – TU Dresden bietet Online-Programm zur Körperzufriedenheit erstmals auch für Männer
Kim-Astrid Magister Pressestelle
Technische Universität Dresden
Studien belegen, dass Körperzufriedenheit längst kein reines „Frauenthema“ mehr ist. Daher haben Psychologen an der Professur für Klinische Psychologie und E-Mental-Health der TU Dresden nun erstmals ein Online-Training für Männer entwickelt, welches ihnen zu einem besseren Körpergefühl verhelfen soll.
Aufgrund der Corona-Krise befinden sich aktuell viele Menschen zu Hause. Eine außergewöhnliche Situation, in der für viele zwischen Homeoffice und Kinderbetreuung kaum Zeit für sich selbst bleibt. Bei Menschen mit Figur- und Gewichtssorgen führt diese Ausnahmesituation häufig zu zusätzlicher Belastung. Auch Männer sind immer häufiger davon betroffen. Das Programm BodyMind bietet speziell für diese Zielgruppe ein Online-Training zur Steigerung der Körperzufriedenheit mit vergleichsweise wenig Zeitaufwand.
Masterstudent Arvidh Schaub hat das Programm gemeinsam mit Wissenschaftlern der Professur für Klinische Psychologie und E-Mental-Health entwickelt: „Auf der Suche nach einem Thema für meine Masterarbeit habe ich recherchiert und festgestellt, dass es sehr wenige Angebote gibt, die sich an Männer richten und dass diese ausschließlich Offline in Form von Studien stattgefunden haben. Daraus ist die Idee entstanden, ein Online-Training zu erstellen, welches sich speziell an Männer richtet.“ Die Inhalte basieren auf wissenschaftlich fundierten psychologischen Theorien und Modellen, unter anderem zu den Themen Körperbild, Veränderung von Gedanken und Umgang mit Vermeidungsverhalten.
In acht aufeinanderfolgenden Modulen erhalten die Teilnehmer zahlreiche Informationen, die ihnen helfen sollen, sich kritisch mit dem Thema „Körperideal“ auseinanderzusetzen. Das Training beinhaltet viele praktische Übungen und Denkanstöße, die sich leicht in den Alltag einbauen lassen. Ziel ist es, dass die Teilnehmer den eigenen Körper zufriedener wahrnehmen.
Jedes der Module nimmt zwischen 15 und 30 Minuten in Anspruch. Es wird empfohlen, pro Woche ein Modul zu absolvieren. Mitmachen können Männer von mindestens 18 Jahren, die über ausreichende Deutschkenntnisse verfügen. Die Teilnahme ist freiwillig und kostenlos.
Wissenschaftliche Ansprechpartner:
Dipl.-Psych. Barbara Nacke
Professur für Klinische Psychologie und E-Mental-Health
Email: Barbara.Nacke@tu-dresden.de
Arvidh Schaub
Masterstudent
Email: arvidh.schaub@tu-dresden.de
Weitere Informationen:
https://tu-dresden.de/mn/psychologie/ikpp/e-mental-health/forschung/bodymind
Anmeldung zum Programm und weitere Informationen
Quelle: IDW
Elektrochemische Wasserentsalzung der dritten Generation: Saarbrücker Forscher stellen neuartiges Verfahren vor
Christine Hartmann Presse- und Öffentlichkeitsarbeit
INM – Leibniz-Institut für Neue Materialien gGmbH
Volker Presser, Leiter des Programmbereichs Energie-Materialien am INM – Leibniz-Institut für Neue Materialien in Saarbrücken und Professor für Energie-Materialien an der Universität des Saarlandes, hat mit seiner Forschungsgruppe einen Durchbruch auf dem Gebiet der elektrochemischen Wasserentsalzung erzielt. In der aktuellen Ausgabe des Fachjournals Electrochemistry Communications stellen er und seine Ko-Autoren die neuartige Methode der Zink-Luft-Entsalzung (ZAD) vor, die im Vergleich zu vorhergehenden Verfahren wesentlich größere Mengen an Salz aus dem Wasser entfernt.
Salz ist nicht nur Bestandteil von Meerwasser, es findet sich zum Beispiel auch in Industrieabwässern, die in vielen Fällen in Flüsse eingeleitet werden. Dadurch steigt der Salzgehalt der Flüsse selbst, aber auch Seen und nicht zuletzt das Grundwasser sind betroffen. Um dieses sogenannte Brackwasser von Salzen zu reinigen, haben sich elektrochemische Verfahren bewährt. Diese Verfahren kommen gänzlich ohne Zusatz von Chemikalien aus. Zudem sind sie extrem energieeffizient – ganz anders als das weit verbreitete Verfahren der Umkehrosmose, bei dem Salz und Wasser separiert werden, indem das zu reinigende Wasser unter hohem Energieaufwand durch eine Membran gedrückt wird.
Das elektrochemische Verfahren der ersten Generation, die Wasseraufbereitung mittels Ionenelektrosorption (Capacitive Deionisation, CDI) ist seit 1960 bekannt. Hier kommen Elektroden aus Aktivkohle zum Einsatz und die Salzausbeute liegt bei etwa 20 mg bezogen auf ein Gramm Elektrodenmaterial. Bei dem seit 2012 eingesetzten Verfahren der zweiten Generation (Faradaic Deionisation, FDI) werden sogenannte Ladungstransfermaterialien verwendet, wie man sie auch in Batterien findet. Mit dieser neuen Methode konnte die Menge der abgeschiedenen Salze immerhin schon um das Zehnfache gesteigert werden.
Mit der erreichten Ausbeute gaben sich die Saarbrücker Forscher aber nicht zufrieden: „Um noch höhere Entsalzungskapazitäten zu erreichen, ist es notwendig, elektrochemische Prozesse und Materialien mit einer wesentlich höheren Ladungsspeicherkapazität zu nutzen, da die Salzentfernung direkt mit dieser Eigenschaft korreliert“, erläutert Materialwissenschaftler Presser. Pattarachai Srimuk, Erstautor des Artikels und Postdoc am INM, ergänzt: „Bei der Suche nach einer elektrochemischen Entsalzungstechnologie der dritten Generation ließen wir uns von der Metall-Luft-Batterietechnologie inspirieren und führten die Zink-Luft-Entsalzung ein. Die daraus resultierende Entsalzungsleistung ist mit 1300 mg pro Gramm Elektrodenmaterial allen bisher berichteten CDI- und FDI-Verfahren weit überlegen und eröffnet ganz neue Wege und Möglichkeiten.“
Die Methode zur Zink-Luft-Entsalzung ist dabei nur ein Schritt in Richtung einer neuen Technologiefamilie. Die INM-Innovation lässt sich auch auf andere Metall-Luft-Batteriesysteme erweitern. Volker Presser ist sich sicher: „Nur solche neuen Methoden werden in der Lage sein, Energiewende und nachhaltige Wassernutzung miteinander zu verbinden.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Volker Presser
E-Mail: volker.presser@leibniz-inm.de
Bei Anfragen bitte per Mail kontaktieren; Prof. Presser ruft zeitnah zurück.
Originalpublikation:
P. Srimuk, L. Wang, Ö. Budak, V. Presser, High-performance ion removal via zinc-air desalination, Electrochemistry Communications 115 (2020) 106713
DOI: https://doi.org/10.1016/j.elecom.2020.106713
Quelle: IDW
Neuer Forschungszweig iEcology: Was uns die Online-Welt über die natürliche Welt lehren kann
Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Mit Daten aus der Online-Welt neue Erkenntnisse für die Umweltforschung erhalten – das Konzept zum neuen Forschungsbereich iEcology stammt von einem internationalen Team um Ivan Jarić von der Tschechischen Akademie der Wissenschaften unter Beteiligung von Gregor Kalinkat vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). In der Fachzeitschrift Trends in Ecology & Evolution beschreiben die Forschenden die Möglichkeiten, Herausforderungen und potenziellen zukünftigen Anwendungsfelder von iEcology.
Auch wenn wir oft vermuten, dass uns die Online-Begeisterung von der Natur entfremdet, sind in den riesigen, ständig zunehmenden Datenmengen des Internets viele Erkenntnisse über die belebte Umwelt verborgen. Man muss den Schatz nur heben: „Tatsächlich sind dies keine Informationen, die absichtlich gesammelt wurden, sondern ein willkommenes Nebenprodukt unseres ständigen Bedürfnisses zu googeln, zu twittern, zu bloggen, unser Leben aufzuzeichnen und im Grunde genommen ständig in Verbindung zu bleiben“, erläutert Gregor Kalinkat vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB).
Gregor Kalinkat war unter Leitung von Ivan Jarić vom Biology Centre der Tschechischen Akademie der Wissenschaften und Uri Roll von der Ben-Gurion University of the Negev in Israel an der Studie beteiligt. Er erforscht am IGB die Artenvielfalt in Binnengewässern und sieht viele Anwendungsmöglichkeiten von iEcology: beispielsweise für die Biodiversitätsforschung und den Artenschutz oder die Klimafolgenforschung.
Videos eines Radrennens geben Aufschluss über den Klimawandel:
Die Beispiele aus der aktuellen Übersichtsstudie veranschaulichen diese Einschätzung. So zeigte eine Untersuchung von Videobildern der Radsportveranstaltung „Ronde van Vlaanderen“ aus den letzten 35 Jahren durch den Klimawandel hervorgerufene Veränderungen in der Blatt- und Blütezeit der Bäume, die im Bildhintergrund zu sehen waren. In einer anderen Studie analysierten Forschende Online-Fotos von Madenhacker-Vögeln und den Tieren, auf denen sie sitzen, und erforschten so die Interaktionen zwischen diesen Artengruppen. Das Ergebnis einer weiteren Analyse: Die zeitliche Dynamik, wann Menschen in Wikipedia nach bestimmten Tier- oder Pflanzenarten suchen, bildet oft die wahre saisonale Dynamik dieser Arten ab.
Ivan Jarić, Hauptautor der Studie, ist begeistert von den Möglichkeiten die iEcology bietet: „Wir können so viel darüber lernen, wo welche Arten leben, wann sie auf unterschiedliche Weise aktiv sind und wie sie miteinander und mit ihrer Umwelt interagieren. Wir sehen iEcology nicht als Ersatz für die klassische und sehr wichtige Feldökologie, sondern als Ergänzung.“
Der IGB-Biodiversitätsforscher Gregor Kalinkat sieht das genauso: „iEcology kann auch zur Kreuzvalidierung eingesetzt werden. Das heißt, man nutzt verschiedene neue Methoden, um sie gegenseitig zu testen. Zum Beispiel könnte man das Auftauchen neuer invasiver Arten parallel mit Bildauswertungen und mit DNA-Analysen überwachen.“
Eine Herausforderung von iEcology ist es, die relevanten Datenquellen zu finden. Denn es gilt die Nadeln im Heuhaufen zu suchen. Nur gibt es dafür keine Suchalgorithmen – Spürsinn und Fleißarbeit sind gefragt.
„Ein neues Forschungsgebiet zu erschließen ist eine spannende Herausforderung. In einigen Jahren wird es in der Ökologieforschung ganz normal sein, Daten aus dem Internet für wissenschaftliche Zwecke zu verwenden“, so das Fazit von Ivan Jarić.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/
Wissenschaftliche Ansprechpartner:
Dr. Gregor Kalinkat
Abteilung Ökohydrologie
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: kalinkat(at)igb-berlin.de
Mobil: 0157 87021304
Originalpublikation:
Ivan Jarić, Ricardo A. Correia, Barry W. Brook, Jessie C. Buettel, Franck Courchamp, Enrico Di Minin, Josh A. Firth, Kevin J. Gaston, Paul Jepson, Gregor Kalinkat, Richard Ladle, Andrea Soriano-Redondo, Allan T. Souza, Uri Roll. iEcology: Harnessing Large Online Resources to Generate Ecological Insights. Trends in Ecology & Evolution, 2020.
https://doi.org/10.1016/j.tree.2020.03.003.
Weitere Informationen:
http://www.i-ecology.org/
http://www.igb-berlin.de/news/neuer-forschungszweig-iecology
Quelle: IDW
Nachhaltiges Wassermanagement als Schlüssel zur Anpassung an Klimarisiken
adelphi Claudia Weigel Öffentlichkeitsarbeit
adelphi
Klimakrise bedeutet Wasserkrise – denn an der Verfügbarkeit von Wasser sind die Folgen des Klimawandels am deutlichsten spürbar, beispielsweise durch zu wenig oder verschmutztes Wasser. Auch die globale Ernährungs- und Energiesicherheit ist eng mit der Wasserversorgung verknüpft. Wissenschaftler und Praktiker der BMBF-Fördermaßnahme „Globale Ressource Wasser“ appellieren daher an die Politik zum gestrigen Weltwassertag: Nachhaltiges Wassermanagement muss stärker in den Fokus der Klimaanpassung rücken.
Zwei Drittel der Weltbevölkerung leiden schon heute mindestens einen Monat im Jahr unter schwerer Wasserknappheit – Tendenz steigend. Die natürlichen Vorräte an sauberem Wasser erschöpfen sich schneller als sie erneuert werden. Die Übernutzung der globalen Wasserressourcen führt zu Interessenskonflikten. Bevölkerungswachstum und Klimawandel können die Wasserkrise noch verstärken. Zudem sind in Zeiten des weltweiten Handels lokale und regionale Wasserressourcen und Wassersysteme global vernetzt: Zu den Bedürfnissen der Menschen bei uns kommen die Bedürfnisse der Menschen am anderen Ende der Welt.
Ein Beispiel: Kupfer wird für die Produktion von Solaranlagen genutzt. Der Abbau von Kupfer erfordert große Wassermengen. Wird für eine Solaranlage Kupfer importiert, hat dies einen Einfluss auf die Wasserressourcen im Exportland. So kann die Energieproduktion in einem Land den Wasserstress in einem anderen Land erhöhen und es notwendig machen, auf die lokalen Folgen für Umwelt und Gesellschaft zu achten.
90 Institutionen, 12 Projekte: Die Fördermaßnahme „Globale Ressource Wasser“
Solche global-lokalen Zusammenhänge werden seit 2017 in der Fördermaßnahme GRoW des Bundesministeriums für Bildung und Forschung (BMBF) untersucht. GRoW denkt die Wechselwirkungen zwischen Wasser, Energie, Ernährung und Klima zusammen. So kann GRoW dazu beitragen, die Klimakrise durch die Bewältigung der Wasserkrise einzudämmen. Die Forschungs- und Praxisteams von GRoW liefern dringend benötigtes Fachwissen zur Verfügbarkeit und zum Zustand der weltweiten Wasserressourcen. Zudem entwickeln sie Lösungen für ein klimaresilientes Wasserressourcenmanagement vor Ort. Mehr als 90 Institutionen aus Wissenschaft, Wirtschaft und Praxis sind in 12 Verbundprojekten beteiligt. GRoW ist eine der größten Fördermaßnahmen weltweit zu diesem Thema. Ergebnisse der Fördermaßnahme werden – abhängig von den aktuellen Entwicklungen – Ende Juni auf einer Abschlusskonferenz in Berlin vorgestellt.
Appell zum Weltwassertag an die Politik
GRoW unterstützt die Forderung der Vereinten Nationen zum Weltwassertag 2020 an die Klimapolitik: „Wir können nicht mehr warten. Klimaschutzpolitik muss nachhaltiges Wassermanagement in den Fokus rücken“. Dafür empfiehlt GRoW, das Potenzial digitaler Innovationen für klimaresilientes Wassermanagement besser zu nutzen und in globalen Lieferketten das lokale Wassermanagement zu berücksichtigen. Die Wissenschaft kann entscheidend dazu beitragen: erstens mit Fachwissen für betroffene Akteure und zweitens, indem sie klare Zuständigkeiten aufzeigt, um Wasserressourcen nachhaltig zu managen.
Kernfragen zum Thema Klimawandel in den GRoW-Forschungsprojekten sind:
Wie können Unternehmen in Zeiten des Klimawandels mit dem Risiko „Wassermangel“ umgehen?
Viele von Deutschland importierte Waren stammen aus sehr wasserknappen Regionen der Erde: Baumwolle aus Zentralasien, Getreide aus Nordafrika oder Erze aus Wüstenregionen. Unternehmen messen und managen ihren Wasserverbrauch in erster Linie an Produktionsstandorten. Doch hinter Lieferketten verbergen sich oft relevante Wassernutzungen und durch den Klimawandel auch erhebliche Risiken. Das GRoW-Projekt WELLE entwickelt hierzu eine Methode zur Bestimmung des Wasserfußabdrucks von Unternehmen. Direkte und indirekte Wassernutzungen in den Energie- und Materialvorketten werden berücksichtigt. Industriepartner des Projekts können damit Maßnahmen ergreifen, um Wasserknappheit an lokalen Brennpunkten ihrer Wertschöpfungsketten zu verringern.
Wie viel Wasser wird künftig verfügbar sein?
Mit dieser Frage beschäftigen sich die GRoW-Projekte SaWaM und MedWater – Projekte mit Fokus auf Trockenregionen und die Mittelmeerregion, einem Hotspot für die Auswirkungen des Klimawandels. Mithilfe von Satelliten- und Modelldaten werden verfügbare Wasserressourcen untersucht. Alle global und öffentlichen verfügbaren Beobachtungs- und Vorhersageinformationen werden zusammengetragen und regionalisiert, um die Wasserverfügbarkeit der kommenden Wochen und Monate vorherzusagen und die Wassernutzung zu optimieren. „Besonders relevant ist dies für aride und semi-aride Gebiete, die schon jetzt von Wassermangel geprägt sind – das betrifft immerhin 40 Prozent der Landflächen auf der Erde“, erklärte Professor Harald Kunstmann, stellvertretender Leiter des Instituts für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU) des KIT in Garmisch-Partenkirchen.
Ist Wasserknappheit ein Risiko für die Energiewende?
Wasser ist für die Nutzung fossiler und erneuerbarer Energieträger ein bedeutsamer Faktor. Das GRoW-Projekt WANDEL prüft daher die Auswirkungen von Wasserknappheit auf die Neuausrichtung der Energieversorgung. Dafür vergleicht es verschiedene Energiesysteme mit Blick auf ihren weltweiten Wasserverbrauch. Berücksichtigt werden der direkte Wasserbedarf und die Wasserverschmutzung am Standort des Kraftwerks, zum Beispiel bei thermischen Kohlekraftwerken im Einzugsgebiet Oberweser oder beim Zuckerrohranbau für Biomasse in Brasilien. Auch indirekte Verbräuche fließen in die Analyse ein – wie beispielsweise Kupferimporte für Solarthermie.
Wie kann rechtzeitig vor Dürren und ihren Folgen für die Ernährungssicherheit gewarnt werden?
Dürren wirken sich auf Wasserressourcen, die Produktivität im Pflanzenbau, den Handel mit Nahrungsmitteln und den Bedarf an internationaler Nahrungsmittelhilfe aus. Diesen Zusammenhang untersucht das GRoW-Projekt GlobeDrought und baut ein Informationssystem für Dürreereignisse auf. Mit Partnern wie der Universität der Vereinten Nationen entwickelt das Projekt ein experimentelles Frühwarnsystem, um kritische Dürrezustände sowie den Bedarf an Nothilfe zu erkennen.
Wie nachhaltig wird Wasser in der Landwirtschaft genutzt?
Der weltweit größte Verbraucher der global verfügbaren Wasserressourcen ist mit Abstand die Landwirtschaft. Im internationalen Handel mit Agrargütern wird das für ihre Produktion notwendige Wasser mitgehandelt. Dabei wird bisher nicht berücksichtigt, dass Landwirtschaft und Ökosysteme zum Beispiel gegenüber Klimaschwankungen anfällig sind. „Wir entwickeln präzisere Instrumente als bisher, um die Effizienz der landwirtschaftlichen Wassernutzung weltweit zu beobachten und zu bestimmen“, sagt der Koordinator des GRoW-Projekts ViWA, Wolfram Mauser, Lehrstuhl für Geographie und geographische Fernerkundung, LMU.
Sauberes Wasser für alle – aber wie?
Die Trinkwasserversorgung der Millionenstadt Lima steht durch den Klimawandel extrem unter Druck. Mithilfe von neuen Methoden werden Wassermenge und -qualität in Oberflächengewässern im GRoW-Projekt Trust für Lima erfasst und auch Nutzungskonflikte – beispielsweise zwischen Bevölkerung und kommerzieller Landwirtschaft – berücksichtigt. Damit setzt sich dieses Projekt mit einer dringlichen Problematik auseinander: Wasserkrise durch zunehmende Urbanisierung, gepaart mit den Folgen des Klimawandels.
Über GRoW – Globale Ressource Wasser
Mit der Fördermaßnahme „Globale Ressource Wasser“ (GRoW) leistet das Bundesministerium für Bildung und Forschung (BMBF) einen Beitrag zum Erreichen der Nachhaltigkeitsziele. Mehr als 90 Institutionen aus Wissenschaft, Wirtschaft und Praxis sind in 12 Verbundprojekten beteiligt. Kennzeichnend für die Fördermaßnahme ist die Verknüpfung von lokalem und globalem Handeln: die Verbundprojekte forschen nicht nur an lokalen und regionalen Lösungen, sondern erarbeiten dazu auch verbesserte globale Informationen und Prognosen zu Wasserressourcen und Wasserbedarf.
Einen Überblick zu den in GRoW erforschten globalen Analysen und lokalen Lösungen für nachhaltiges Wasserressourcenmanagement gibt die Konferenz „Wasser als globale Ressource“, die – abhängig von den aktuellen Entwicklungen – am 23.-24. Juni 2020 in Berlin stattfindet. Diese Veranstaltung ist presseöffentlich.
Kontakte zu den einzelnen Forschungsverbünden finden Sie auf der GRoW-Website: https://www.bmbf-grow.de.
Das Vernetzungs- und Transfervorhaben GRoWnet erreichen Sie unter:
Annika Kramer
Projektleiterin GRoWnet
grownet@adelphi.de
Tel: + 49 (30) 89 000 68-0
https://www.bmbf-grow.de/
Über adelphi
adelphi ist eine unabhängige Denkfabrik und führende Beratungseinrichtung für Klima, Umwelt und Entwicklung. Unser Auftrag ist die Stärkung von Global Governance durch Forschung, Beratung und Dialog. Wir bieten Regierungen, internationalen Organisationen, Unternehmen und zivilgesellschaftlichen Akteuren Lösungen für nachhaltige Entwicklung und unterstützen sie dabei, globalen Herausforderungen wirkungsvoll zu begegnen. adelphi leitet das Vernetzungs- und Transfervorhaben GRoWnet, das die GRoW-Forschungsaktivitäten begleitet. Es zielt darauf ab, Synergien zwischen den Verbundprojekten nutzbar zu machen, die Umsetzung der entwickelten Ansätze zu befördern und die Gesamtwirkung der Fördermaßnahme zu verstärken.
Pressekontakt
Claudia Weigel
Managerin Kommunikation und Öffentlichkeitsarbeit
weigel@adelphi.de
+49 30 89000068-920
https://www.adelphi.de/de
Wissenschaftliche Ansprechpartner:
Annika Kramer
Projektleiterin GRoWnet
grownet@adelphi.de
Tel: + 49 (30) 89 000 68-0
www.bmbf-grow.de
Quelle: IDW
Zu viel Salz hemmt die Immunabwehr
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Eine salzreiche Kost ist nicht nur schlecht für den Blutdruck, sondern auch für das Immunsystem. Diesen Schluss legt eine aktuelle Studie unter Federführung des Universitätsklinikums Bonn nahe. In Mäusen, die eine salzreiche Kost erhielten, verliefen demnach bakterielle Infekte erheblich schwerwiegender. Auch menschliche Probanden, die täglich sechs Gramm Salz zusätzlich zu sich nahmen, zeigten erhebliche Immundefizite. Diese Menge entspricht dem Salzgehalt zweier Fast-Food-Mahlzeiten. Die Ergebnisse erscheinen in der Fachzeitschrift „Science Translational Medicine“.
Fünf Gramm pro Tag, nicht mehr: Das ist die Salzmenge, die Erwachsene laut Empfehlungen der Weltgesundheitsorganisation WHO maximal zu sich nehmen sollten. Sie entspricht etwa einem gestrichenen Teelöffel. Tatsächlich überschreiten viele Deutsche diesen Grenzwert aber deutlich: Nach Angaben des Robert-Koch-Instituts kommen Männer im Schnitt auf zehn und Frauen auf gut acht Gramm täglich.
Damit greifen wir erheblich ausgiebiger zum Salzstreuer, als uns gut tun dürfte. Denn Natriumchlorid – so der chemische Name – steigert den Blutdruck und erhöht so das Risiko für Herzinfarkt oder Schlaganfall. Doch nicht nur das: „Wir konnten nun erstmals nachweisen, dass eine übermäßige Salzzufuhr auch einen wichtigen Arm des Immunsystems schwächt“, erklärt Prof. Dr. Christian Kurts vom Institut für Experimentelle Immunologie der Universität Bonn.
Der Befund kommt unerwartet, wiesen doch manche Studien gerade in die entgegengesetzte Richtung. So heilen Infektionen mit bestimmten Hautparasiten in Versuchstieren deutlich schneller aus, wenn diese eine salzreiche Kost zu sich nehmen: Die Makrophagen – Immunzellen, die Parasiten attackieren, fressen und verdauen – sind in Anwesenheit von Salz besonders aktiv. Aus dieser Beobachtung schlossen manche Mediziner auf eine allgemein immunfördernde Wirkung von Natriumchlorid.
Die Haut dient als Salzspeicher
„Unsere Ergebnisse zeigen, dass diese Verallgemeinerung nicht zutrifft“, betont die Erstautorin der Studie Katarzyna Jobin, die inzwischen an die Universität Würzburg gewechselt ist. Dafür gibt es zwei Gründe: Zum einen hält der Körper die Salzkonzentration im Blut und in den verschiedenen Organen weitgehend konstant. Ansonsten würden wichtige biologische Prozesse nicht funktionieren. Die einzige große Ausnahme ist die Haut: Sie fungiert als Salzspeicher des Körpers. Daher wirkt die zusätzliche Zufuhr von Natriumchlorid bei manchen Hauterkrankungen so gut.
An anderen Stellen im Körper kommt das zusätzlich mit der Nahrung aufgenommene Salz aber gar nicht an. Stattdessen wird es von den Nieren herausgefiltert und über den Urin ausgeschieden. Und hier kommt der zweite Mechanismus ins Spiel: Die Nieren verfügen über einen Natriumchlorid-Sensor, der die Salz-Ausscheidefunktion aktiviert. Als unerwünschte Nebenwirkung sorgt dieser Sensor allerdings auch dafür, dass sich im Körper so genannte Glukokortikoide anhäufen. Und die wiederum hemmen die Funktion der Granulozyten, des häufigsten Immunzelltyps im Blut.
Granulozyten zählen wie die Makrophagen zu den Fresszellen. Sie attackieren aber keine Parasiten, sondern vor allem Bakterien. Wenn sie das nicht in ausreichendem Maße tun, verlaufen Infektionen weitaus heftiger. „Das konnten wir in Mäusen mit einer Listerien-Infektion zeigen“, erklärt Dr. Jobin. „Einige von ihnen hatten wir zuvor auf eine salzreiche Kost gesetzt. In Milz und Leber dieser Tiere zählten wir eine 100- bis 1.000fache Menge der krankmachenden Keime.“ Listerien sind Bakterien, die zum Beispiel in verunreinigten Lebensmitteln vorkommen und Fieber, Erbrechen und Blutvergiftungen auslösen können. Auch Harnwegsinfekte heilten bei salzreich ernährten Versuchsmäusen erheblich langsamer ab.
Auf das Immunsystem von Menschen scheint sich Natriumchlorid ebenfalls negativ auszuwirken. „Wir haben Freiwillige untersucht, die täglich sechs Gramm Salz zusätzlich zu sich nahmen“, sagt Prof. Kurts. „Das entspricht etwa der Menge, die in zwei Fastfood-Mahlzeiten enthalten ist – also zwei Burgern und zwei Portionen Pommes frites.“ Nach einer Woche entnahmen die Wissenschaftler ihren Probanden Blut und untersuchten die Granulozyten. Die Immunzellen wurden deutlich schlechter mit Bakterien fertig, nachdem die Versuchspersonen begonnen hatten, sich salzreich zu ernähren.
Bei menschlichen Probanden führte die überreichliche Salzzufuhr zudem auch zu erhöhten Glukokortikoid-Spiegeln. Dass dies das Immunsystem hemmt, ist nicht überraschend: Das bekannteste Glukokortikoid Kortison wird traditionell eingesetzt, um Entzündungen zu unterdrücken. „Erst durch Untersuchungen in einem ganzen Organismus konnten wir die komplexen Regelkreise aufdecken, die von der Salzaufnahme zu dieser Immunschwächung führen“, betont Kurts. „Damit zeigt unsere Arbeit auch die Grenzen reiner Zellkultur-Versuche auf.“
Die Universität Bonn zählt deutschlandweit zu den führenden Hochschulen auf dem Gebiet der Immunologie. So ist an ihr das Exzellenzcluster ImmunoSensation angesiedelt, zu dessen Vorstand Prof. Kurts zählt. Es ist das einzige Exzellenzcluster in Deutschland zu diesem Themenfeld. An der Studie waren zudem Wissenschaftler der Universitätskliniken in Regensburg, Hamburg, Erlangen und Melbourne (Australien) beteiligt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Kurts
Institut für Experimentelle Immunologie
Universitätsklinikum Bonn
Tel. 0228/28711050
E-Mail: ckurts@uni-bonn.de
Originalpublikation:
Katarzyna Jobin, Natascha E. Stumpf, Sebastian Schwab, Melanie Eichler, Patrick Neubert, Manfred Rauh, Marek Adamowski, Olena Babyak, Daniel Hinze, Sugirthan Sivalingam, Christina K. Weisheit, Katharina Hochheiser, Susanne Schmidt, Mirjam Meissner, Natalio Garbi, Zeinab Abdullah, Ulrich Wenzel, Michael Hölzel, Jonathan Jantsch und Christian Kurts: A high-salt diet compromises antibacterial neutrophil responses through hormonal perturbation; Science Translational Medicine; DOI: 10.1126/scitranslmed.aay3850
Quelle: IDW
Kurzarbeitergeld: Tarifvertragliche Aufstockung auf bis zu 97 Prozent des Nettogehaltes
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
WSI: Aktuelle Auswertung
Kurzarbeitergeld: Tarifvertragliche Aufstockung auf bis zu 97 Prozent des Nettogehaltes – Nur wenige Branchen mit Regelung
In der aktuellen Krisensituation ist die Kurzarbeit ein wesentliches Instrument zur Vermeidung von Arbeitsplatzverlusten. Allerdings geht Kurzarbeit für die Beschäftigten oft mit erheblichen Einkommenseinbußen einher. Nach dem Gesetz erhalten sie 60 Prozent (Eltern mit Kindern 67 Prozent) des vorherigen Nettogehaltes für die ausgefallene Arbeitszeit.
In einigen Branchen haben die Tarifvertragsparteien eigene Regelungen getroffen, um das Kurzarbeitergeld aufzustocken. Dies zeigt eine aktuelle Übersicht, die das WSI-Tarifarchiv der Hans-Böckler-Stiftung heute vorlegt. In den Tarifverträgen verpflichten sich die Arbeitgeber, einen Zuschuss zum staatlichen Kurzarbeitergeld zu zahlen, so dass die Beschäftigten zwischen 75 und 97 Prozent des Nettogehalts (bzw. bei der Deutschen Bahn: 80 Prozent des Bruttogehalts) erhalten (siehe auch die Übersicht in der pdf-Version dieser PM; Link unten).
Zu den Branchen mit entsprechenden tarifvertraglichen Aufstockungsregelungen gehören u.a. die holz- und kunststoffverarbeitende Industrie in Sachsen, der Groß- und Außenhandel in Nordrhein-Westfalen, das KFZ-Handwerk in Bayern und die chemische Industrie. Entsprechende Regelungen gibt es außerdem bei der Deutschen Bahn AG und der Deutschen Telekom. In der Metall und Elektroindustrie besteht eine flächendeckende Aufstockungsregelung in Baden-Württemberg, wo das Kurzarbeitergeld je nach Umfang der Kurzarbeit auf 80,5 bis 97 Prozent des Nettogehalts erhöht wird. Beim Volkswagen-Konzern wird das Kurzarbeitergeld in Abhängigkeit der Entgeltstufen auf 78 bis 95 Prozent erhöht, wobei Beschäftigte in den unteren Entgeltgruppen die höchsten Zuschläge erhalten. Schließlich wurde am gestrigen Dienstag noch eine neue tarifvertragliche Regelung für die Beschäftigten der Systemgastronomie getroffen, wonach das Kurzarbeitergeld auf 90 Prozent des Nettoentgeldes aufgestockt wird.
Nach Einschätzung, des Leiters des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten, wird jedoch insgesamt nur eine Minderheit der Tarifbeschäftigten von solchen Aufstockungsregelungen erfasst. „Insbesondere in den klassischen Niedriglohnsektoren gibt es oft keine tarifvertraglichen Zuschüsse zum staatlichen Kurzarbeitergeld“, so Schulten. „Gerade Beschäftigte, mit geringem Einkommen können jedoch bei einem Nettoeinkommensverlust von 40 Prozent nicht lange über die Runden kommen. Für die Zeit der Corona-Krise sollte deshalb eine generelle Aufstockung des Kurzarbeitergeldes vorgenommen werden.“
Vorbild für eine solche nationale Regelung könnte die unlängst in Österreich zwischen Gewerkschaften, Arbeitgebern und Regierung getroffene Vereinbarung sein. Dort wird derzeit gestaffelt nach Einkommenshöhe folgendes Kurzarbeitergeld gezahlt
– 90 Prozent vom Nettogehalt, bei einem monatlichen Bruttoentgelt von bis
zu 1.700 Euro
– 85 Prozent vom Nettogehalt, bei einem Bruttoentgelt zwischen 1.700 Euro
und 2.685 Euro
– 80 Prozent vom Nettogehalt, bei einem Bruttoentgelt von über 2.685 Euro
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211-7778-239
E-Mail: Thorsten-Schulten@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Anhang
Die Pressemitteilung mit Grafik (pdf)
https://idw-online.de/de/attachmentdata79522.pdf
Quelle: IDW
Regelbare Biogasproduktion – Großtechnische ReBi-Pilotanlage erprobt
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Forscher des Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik (IEE) haben in Bad Hersfeld, am Standort der großtechnischen Versuchsbiogasanlage der Landesanstalt Landwirtschaft Hessen (LLH), erfolgreich eine Vorstufe zur Flexibilisierung der Gaserzeugung im Pilotmaßstab errichtet. Im Rahmen des Forschungsprojektes konnte die Möglichkeit der Regelbaren Biogasproduktion (ReBi) gezeigt werden. Parallel hat die Hochschule für angewandte Wissenschaft und Kunst-Fachschule Hildesheim/Holzminden/Göttingen das ReBi-Verfahren für den Einsatz von schwer vergärbarem Stroh gemeinsam mit leicht versauernden Substraten in einer Technikumsanlage untersucht.
Die konsequente Flexibilisierung von Biogasanlagen leistet einen wichtigen Beitrag zur Markt- und Netzintegration der Erneuerbaren Energien. Die bedarfsgerechte Stromerzeugung wird hierzu häufig über die Speicherung des Gases mit zusätzlichen Speicher- und BHKW-Kapazitäten realisiert. Die Flexibilität des Einspeisebetriebes ist somit von der Größe der Gasspeicher und der Reaktionsgeschwindigkeit der zusätzlich installierten BHKWs abhängig.
Mit der neuartigen Anlage zur Regelung der Biogasproduktion wird der zur Verstromung notwendige Biogasspeicherbedarf deutlich reduziert und die Flexibilität erhöht.
Die entwickelte ReBi-Anlage besteht aus einer Hydrolysestufe, einer Separation und einem Festbettfermenter. Der Hydrolysereaktor ermöglicht die Trennung der Prozessphasen „Hydrolyse/Säurebildung“ und „Acetat-/Methanbildung“ und dient der Erzeugung leicht abbaubarer Substrate mit geeigneten Säuremustern. Die anschließende Separation trennt das Hydrolysat in feste und flüssige Phase. Die abgetrennten Feststoffe werden in den Fermenter für die kontinuierliche Biogasproduktion eingebracht. Die flüssige Phase kann zeitlich gezielt in den Festbettreaktor mit erhöhter Bakteriendichte geleitet werden, was eine von der Verweilzeit entkoppelte, hoch flexible Biogasbildung ermöglicht.
Die vielversprechenden Ergebnisse des Vorgängerprojektes mit einer ReBi-Technikumsanlage wurden in den Betrieb einer großtechnischen Versuchsanlage in Bad Hersfeld überführt. Der Festbettreaktor konnte über einen Zeitraum von 3 Monaten angefahren werden und lieferte sehr gute Gasqualitäten mit Methangehalten von über 70 Vol.-%. Allerdings bereitete der Betrieb der Hydrolyse aufgrund hoher Pufferkapazitäten des eingesetzten Inokulums sowie eine sich mit der Zeit ausbildende Schwimmschicht Schwierigkeiten, so dass weitere Untersuchungen zur Ermittlung der Belastungsgrenzen des Festbettreaktors sowie zur Variation der organischen Belastung notwendig sind. Ein wirtschaftlicher Betrieb der ReBi-Anlage ist unter den aktuellen Rahmenbedingungen nur unter äußerst günstigen Standortbedingungen möglich.
Das Forschungsvorhaben wurde vom Bundesministerium für Ernährung und Landwirtshaft (BMEL) durch die Fachagentur Nachwachsende Rohstoffe e.V. (FNR) gefördert.
Weitere Informationen zum Projekt finden Sie in der Projektdatenbank der Fachagentur Nachwachsende Rohstoffe e. V. (FNR) unter den Förderkennzeichen 22400114 und 22401815.
Fachagentur Nachwachsende Rohstoffe e.V.
Jessica Hudde
Tel.: +49 3843 6930-206
Mail: j.hudde@fnr.de
Weitere Informationen:
https://www.fnr.de/projektfoerderung/projektdatenbank-der-fnr/?__mstto=112
https://www.fnr.de/index.php?id=11150&fkz=22400114
https://www.fnr.de/index.php?id=11150&fkz=22401815
Quelle: IDW
Algenbeobachtung per Satellit
Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Giftige Algenblüten können erkannt werden
Mit einem neuen Algorithmus können Forscherinnen und Forscher des AWI jetzt aus Satellitendaten herauslesen, in welchen Meeresgebieten bestimmte Gruppen von Algen vorherrschen. Auch lassen sich giftige Algenblüten erkennen und die Folgen der Erderwärmung für das Meeresplankton bewerten. Damit können sie weltweit auf die Wasserqualität schließen und die Folgen für die Fischerei abschätzen.
Die winzigen Algen in den Ozeanen sind enorm produktiv. Sie bilden die Hälfte des Sauerstoffs, den wir atmen. Wie die Pflanzen an Land erzeugen sie mithilfe der Photosynthese energiereichen Zucker, von dem sie sich ernähren. Sie wachsen, teilen sich und bilden insgesamt gigantische Mengen an Biomasse, die die Basis allen Lebens im Meer ist. Von diesen Algen, dem sogenannten Phytoplankton, ernähren sich Kleinkrebse, Fisch- und Muschellarven, die ihrerseits von größeren Fischen gefressen werden. Mangelt es an Phytoplankton, fehlt allen anderen Meeresorganismen die Lebensgrundlage.
Weltweit gibt es viele verschiedene Gruppen von Phytoplankton, die in den Meeresökosystemen unterschiedliche Rollen spielen. Manche werden von Tieren besonders gern gefressen. Andere binden im Wasser bestimmte chemische Verbindungen oder Nährstoffe, womit sie ihrerseits einen großen Einfluss auf das Leben im Meer haben. Dann wieder gibt es Phytoplankton-Gruppen, die zu enormen Dichten heranwachsen können und auch giftige Substanzen bilden. Sind zu viele dieser Algen im Wasser, können Meerestiere, vor allem Fische, sterben. Das Phytoplankton im Meer spielt auch eine wichtige Rolle als CO2 Senke. Forscherinnen und Forscher interessieren sich daher sehr dafür, wie sich die Bestände der verschiedenen Phytoplankton-Gruppen weltweit entwickeln.
Mehr als Chlorophyll
Bislang aber war es kaum möglich, die Menge der verschiedenen Planktongruppen in den Meeren weltweit im Detail abzuschätzen. Zwar nehmen Wissenschaftlerinnen und Wissenschaftler bereits seit Jahrzehnten von Forschungsschiffen aus Wasserproben, um das Plankton zu bestimmen und zu zählen. Doch damit sind nur Stichproben möglich. Und selbst Satelliten, die seit rund 30 Jahren mit Sensoren die Ozeane abscannen, waren bislang keine perfekte Lösung. Denn bisher konnte man mithilfe der Satellitendaten sehr wohl die Menge des Pflanzenfarbstoffs Chlorophyll im Wasser messen – als ein Maß dafür, wie hoch die Konzentration von Algen im Wasser allgemein ist. Eine Differenzierung nach verschiedenen Algentypen war bislang aber schwierig. Zudem war es unmöglich, die Satellitendaten für eine Vorhersage des Algenwachstums in Meeresregionen zu nutzen.
Jetzt aber ist es einem internationalen Team um Hongyan Xi und Astrid Bracher vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) erstmals gelungen, mehr aus den Satellitendaten herauszuholen: Wie sie jetzt im Fachjournal Remote Sensing of Environment schreiben, haben sie in Zusammenarbeit mit der französischen Firma ACRI-ST und mit Unterstützung durch den europäischen Satellitendaten-Dienst Copernicus Marine Environment Monitoring Service einen neuen Algorithmus entwickelt, der aus den Daten die Information für fünf verschiedene bedeutende Phytoplankton-Gruppen herauslesen kann.
Reflektanz als Messgröße
Die Sensoren der Satelliten nehmen Licht verschiedener Wellenlängen wahr. Normalerweise verwendet man jene Wellenlängen, die die Farbe des Chlorophylls ausmachen. Hongyan Xi und ihre Kollegen aber nutzen die Wellenlängen-Information der Satelliten jetzt noch besser aus. Im Detail geht es um die Analyse der sogenannten Reflektanz, auch Reflexionsgrad genannt. Sie ist ein Maß dafür, wie viel des Sonnenlichtes, das auf die Erde trifft, ins All zurückgeworfen wird. Dieses reflektierte Licht ist das Ergebnis aus verschiedenen optischen Prozessen: Es wird von Wassermolekülen und Partikeln im Meer und in der Atmosphäre gestreut, gebeugt und verändert. „Und auch das Plankton, das ja bestimmte farbige Pigmente enthält, beeinflusst die Reflektanz“, sagt Hongyan Xi. „Je nachdem, welche Algen und welche Pigmente im Wasser vorherrschen, ist die Reflektanz anders.“ Tatsächlich prägt jede der fünf verschiedenen Plankton-Gruppen dem reflektierten Licht quasi seinen eigenen Fingerabdruck auf. Der neu entwickelte Algorithmus ist in der Lage, diesen zu erkennen.
Aufwendiger Vergleich von Schiffs- und Satellitendaten
Diesem Erfolg ist eine enorme Fleißarbeit vorausgegangen. Denn zunächst musste das Team herausfinden, welches Reflektanzmuster für welche Algengruppe typisch ist. Die Forscher mussten dazu Satellitenmessungen mit Planktonproben kombinieren, die zur selben Zeit am selben Ort vom Schiff aus genommen worden waren. Glücklicherweise gibt es heute öffentlich zugängliche Datenbanken, in denen die Ergebnisse vieler Schiffsexpeditionen gespeichert sind. Die Archive verraten, an welchem Ort und zu welcher Zeit Wasserproben genommen wurden und welche Algenarten und -gruppen darin enthalten waren. Hongyan Xi und ihre Kollegen werteten rund 12.000 solcher Algendatensätze aus – und setzten jeden einzelnen in Beziehung zu Satellitenmessungen, die zur selben Zeit vom selben Ort gemacht worden waren. Damit konnten sie nachvollziehen, wie sich die Reflektanz bei bestimmten Algen veränderte.
Wasserqualität und giftige Algenblüten
Mit diesem Wissen war es dann möglich, den Algorithmus zu entwickeln. Dieser ist jetzt in der Lage, aus der Reflektanz-Information aus einem beliebigen Meeresgebiet weltweit auf die dort vorherrschenden Algengruppen zu schließen. Diese Information ist beispielsweise wichtig, um weiträumige Blüten giftiger Algen zu erkennen, sogenannte „Harmful algal blooms“ (HABs). Auch sagt die Anwesenheit bestimmter Algen etwas über die Wasserqualität aus; Informationen, die für die Fischerei von Bedeutung sind. „Außerdem können wir künftig erkennen, ob sich die Verteilung des Phytoplanktons mit dem Klimawandel verändert“, sagt Hongyan Xi. „Das ist wichtig, um die Folgen für die Ökosysteme abzuschätzen.“
Die Studie ist unter folgendem Titel im Fachmagazin Remote Sensing of Environment erschienen:
Hongyan Xi, Svetlana N. Losa, Antoine Mangin, Mariana A. Soppa, Philippe Garnesson, Julien Demaria, Yangyang Liu, Odile Hembise Fantond, Astrid Bracher: Global retrieval of phytoplankton functional types based on empirical orthogonal functions using CMEMS GlobColour merged products and further extension to OLCI data, 2020, DOI: 10.1016/j.rse.2020.111704
Ihre wissenschaftlichen Ansprechpartnerinnen am Alfred-Wegener-Institut sind:
– Hongyan Xi, Tel. 0471 4831 2803 (E-Mail: hongyan.xi@awi.de) steht für Interviews in englischer Sprache zur Verfügung
– Astrid Bracher, Tel. 0471 4831 1128 (E-Mail: astrid.bracher@awi.de) steht für Interviews in deutscher und englischer Sprache zur Verfügung
Ihre Ansprechpartnerin in der Pressestelle des Alfred-Wegener-Instituts ist Ulrike Windhövel, Tel. 0471 4831-2008 (E-Mail: Ulrike.Windhoevel@awi.de).
Druckbare Bilder finden Sie in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Originalpublikation:
https://doi.org/10.1016/j.rse.2020.111704
Quelle: IDW
Sonnenstrom für Fassaden
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Photovoltaikelemente befinden sich meist auf Hausdächern – schließlich ist dort die Sonneneinstrahlung am höchsten. PV-Elemente an Fassaden können die Energieversorgung jedoch sinnvoll ergänzen, wie Forscherinnen und Forscher am Fraunhofer-Center für Silizium-Photovoltaik CSP herausgefunden haben: Sie lassen sich ansehnlich integrieren und liefern 50 Prozent mehr Energie als bislang dort montierte Elemente. Selbst Betonwände sind geeignet.
Photovoltaikelemente gehören aufs Dach – schließlich bekommen sie dort am meisten Sonnenlicht ab. Doch dies ist nur die halbe Wahrheit: Sinnvoll ist es darüber hinaus, PV-Elemente an den Fassaden anzubringen. Zum einen gibt es dort viel ungenutzte Fläche, zum anderen kann der dort gewonnene Strom die Energieversorgung sehr gut ergänzen. Bislang wird diese Möglichkeit jedoch kaum genutzt: Die Sonne strahlt üblicherweise in einem ungünstigen Winkel auf die Fassaden, zudem sind die Elemente meist keine Verschönerung.
Schöne Fassaden mit Pfiff
Dass dies alles andere als ein KO-Kriterium ist, haben Forscherinnen und Forscher des Fraunhofer-Centers für Silizium-Photovoltaik CSP in Halle im Projekt SOLAR.shell gezeigt – gemeinsam mit Architekten der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig): mit einer Solarfassade, die diese Probleme behebt. »Die Photovoltaikelemente, die in diese Fassade integriert sind, liefern bis zu 50 Prozent mehr Sonnenenergie als planar an Gebäudewänden angebrachte Solarmodule«, sagt Sebastian Schindler, Projektleiter am Fraunhofer CSP. »Und: Die Fassade macht auch optisch etwas her.« Die Idee und Entwürfe entwickelten die Architekten der Hochschule. Wie muss welches Photovoltaik-Element gekippt sein, damit es möglichst viel Sonnenstrahlung abbekommt? Wie groß sollten die Module sein, wie viele Solarzellen sollten sie optimalerweise enthalten? Die Ergebnisse wurden in einem 2×3 Meter großen Demonstrator aus Aluminium-Verbundplatten gezeigt, in den insgesamt neun Solarmodule eingelassen sind. Die Fraunhofer-Experten standen mit ihrem Know-how, Rat und Tat zur Seite. Die verwendeten Photovoltaikelemente stammen ebenfalls aus dem Fraunhofer CSP.
Solarmodule an Betonfassaden
Auch für Betonfassaden haben die Forscherinnen und Forscher des Fraunhofer CSP gemeinsam mit der HTWK Leipzig und der TU Dresden entsprechende Möglichkeiten entwickelt, Photovoltaikelemente zu integrieren. Genauer gesagt für Fassaden aus Carbonbeton: Dieser wurde von einem mehr als 150 Partner umfassenden Konsortium im Projekt »C³ – Carbon Concrete Composite« entwickelt. Statt Stahldrähte verleihen dabei Carbonfasern dem Beton die nötige Stabilität. »Am Fraunhofer CSP haben wir untersucht, wie sich Photovoltaikelemente am besten an solchen Carbonbeton-Fassaden anbringen lassen – wie man also den neuartigen Beton optimal mit der Gewinnung von Sonnenstrom kombinieren kann«, erläutert Schindler. Die Forscher haben dabei drei unterschiedliche Konzepte und Verfahren erarbeitet, um die PV-Elemente in die Fassadenteile zu integrieren: Entweder können die Solarmodule direkt mit in die Betonteile eingegossen oder auf die Betonplatten laminiert oder geklebt werden. Auch ist es möglich, die Module mit Druckknöpfen, Schraubverbindungen oder anderen Methoden an den Betonplatten zu befestigen – auf diese Weise lassen sie sich für Wartungen oder Reparaturen leicht abnehmen. »Wir konnten zeigen, dass alle drei Befestigungsmöglichkeiten technisch machbar sind«, fasst Schindler zusammen.
Eine Herausforderung besteht unter anderem darin, die Maßhaltigkeit der PV-Module mit den Fertigungsverfahren der Betonteile zu gewährleisten. Dies geschieht beispielsweise, indem eine Absenkung im Betonteil eingebracht wird, in die die Module perfekt hineinpassen. So bleiben die gewünschte Ausrichtung gegenüber der Sonneneinstrahlung und die Gesamtgestaltung erhalten. »Die Maßhaltigkeit sollte direkt mit im Betonteil implementiert sein«, sagt Schindler. Auch muss sichergestellt werden, dass die PV-Module nicht dort verschraubt werden, wo der Beton besonders dünn ist oder aber Carbonfasern liegen, was die Belastbarkeit des Fassadenteils beeinträchtigen würde. Das Projekt ist mittlerweile erfolgreich abgeschlossen.
SOLARcon: Betonfassaden 2.0
Im Nachfolgeprojekt SOLARcon – ebenfalls gemeinsam mit der HTWK Leipzig und der TU Dresden sowie zwei Unternehmenspartnern, gestartet im November 2019 – etablieren die Fraunhofer-Experten nun marktreife Lösungen für die Integration von PV-Modulen in Fertigbetonteile. Hält die Befestigung der Solarzelle dauerhaft? Um diese Frage zu beantworten, unterwerfen die Fraunhofer-Forscherinnen und -Forscher sowohl die PV-Komponente als auch die Schnittstelle zum Beton entsprechenden Langzeittests. Wie verhält sich die Schnittstelle bei verschiedenen Witterungsbedingungen? Was ergeben beschleunigte Alterungstests? Zusätzlich zu diesem experimentellen Ansatz stehen Simulationen auf der Agenda, genauer gesagt Finite-Elemente-Methoden. Über diese können die Experten beispielsweise berechnen, wie sich Beton und Verbindungsstelle zum PV-Element bei hohen Temperaturen aufheizen oder welche Wind- und Drucklasten auf das Solarmodul wirken.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/maerz/sonnenstrom-f…
Quelle: IDW
Optimierte Leitungsreinigung für Trinkwasserversorger
Christian Sander Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Um ihre Leitungsnetze von Verunreinigungen und Ablagerungen zu befreien, spülen Wasserversorger die Rohre bei Bedarf mit großen Mengen Wasser und hohem Energieaufwand. Im Forschungsprojekt IMProvT (Intelligente Messverfahren zur Prozessoptimierung von Trinkwasserbereitstellung) hat die TH Köln mit ihren Projektpartnern ein Verfahren entwickelt, das eine ressourcenschonende Reinigung der Leitungen und damit einen energieoptimierten Betrieb ermöglicht.
Der Wasserverbrauch pro Kopf ist seit den 1990er Jahren deutlich zurückgegangen. Daher sind heute viele Leitungsnetze überdimensioniert – gerade in Gebieten mit schrumpfender Bevölkerung. Die Folge sind Ablagerungen. „Die gängige Methode zur Reinigung ist es, die Leitungen mit einer großen Wassermenge und mit hohem Druck durchzuspülen. Dabei wird viel Energie verbraucht und das verwendete Waser kann aufgrund der hohen Trübung durch die abgelösten Verschmutzungen anschließend nicht mehr verwendet werden“, erläutert Prof. Dr. Christian Wolf vom :metabolon Institut der TH Köln.
Zusammen mit Trinkwasserversorgern, Herstellern und Forschungsinstitutionen entwarfen die Wissenschaftlerinnen und Wissenschaftler ein Verfahren, das im laufenden Betrieb eingesetzt werden kann und deutlich ressourcenschonender ist. In mehreren Stufen wird die Fließgeschwindigkeit in den Leitungen erhöht und Verschmutzungen lösen sich. Durch rechtzeitiges, langsames und vorausschauendes Spülen wird verhindert, dass die Grenzwerte für die Trübung des Wassers überschritten werden. „In unseren Versuchen konnten wir nachweisen, dass diese Methode bei regelmäßiger Nutzung funktioniert. Das verwendete Wasser ist nicht kritisch verschmutzt und kann im Kreislauf bleiben“, so Wolf.
Sensorpanel mit Plausibilitätsprüfung
Grundlage für eine energieoptimierte Steuerung der Trinkwasseraufbereitungs- und verteilungsanlagen ist eine umfangreiche Datenbasis. Darum wurde im Rahmen von IMProvT ein Multiparameter-Messpanel aufgebaut, das unter anderen den pH-Wert, die Trübung, die Temperatur und den Durchfluss in Trinkwasserversorgungsleitungen erfasst. Installiert an neuralgischen Punkten wie der Wasseraufbereitung oder den Hochbehältern, liefert es Informationen zur Wasserqualität, die bislang nicht online und nicht in hoher Auflösung zur Verfügung standen.
„Unsere Sensoren messen in einem schwierigen Umfeld. Verschmutzungen, das Abdriften der Technik oder Datenübertragungsfehler können fehlerhafte Messwerte erzeugen. Daher haben wir eine Plausibilitätsprüfung basierend auf Methoden der Künstlichen Intelligenz entwickelt“, erläutert Wolf. Meldet einer der Sensoren einen ungewöhnlichen Wert, gleicht die Software diesen mit den Messungen der anderen Sensoren ab und gibt eine Bewertung ab, wie wahrscheinlich es sich um eine reale Veränderung, ein sogenanntes Event, oder um einen Fehler handelt. So wird eine hohe Messdatenqualität sichergestellt, die für eine Erkennung von Events zwingend notwendig ist.
Eventdetektion mit lernenden Algorithmen
Um die Entscheidung zwischen Event und Fehler zuverlässig treffen zu können, entwickelten die Kooperationspartner eine selbstlernende Künstliche Intelligenz. „Damit die Algorithmen Abweichungen vom Normalzustand erkennen können, wird ein statistisches Modell trainiert. Für das Training sind die Daten vieler Störungen und Events erforderlich. Diese kommen aber im realen Trinkwassernetz nur sehr selten vor. Daher haben wir synthetische Daten verwendet“, erläutert Prof. Dr. Thomas Bartz-Beielstein vom Institut für Data Science, Engineering and Analytics der TH Köln.
Mithilfe einer Testanlage im Lehr- und Forschungszentrum :metabolon erzeugten die Forscherinnen und Forscher Störfälle und Sensorprobleme, wie sie auch in den realen Trinkwassernetzen vorkommen. Auf dieser Basis erlernten die Algorithmen, Ausreißer von Events zu unterscheiden. So kann das System jetzt beim Durchspülen der Leitungen aufgrund der gemessenen Trübung automatisch und zuverlässig erkennen, in welchem Maße die Ablagerungen entfernt werden, ob Veränderungen der Wasserqualität auftreten und wie sich diese im Trinkwassernetz fortpflanzen.
Das Forschungsvorhaben IMProvT wurde über drei Jahre vom Bundesministerium für Wirtschaft und Energie gefördert. Projektpartner waren das DVGW-Technologiezentrum Wasser, der Messgerätehersteller Endress + Hauser Conducta, das IWW Zentrum Wasser der Aggerverband, die Thüringer Fernwasserversorgung, die Landesversorgung Stuttgart sowie der Zweckverband Wasserversorgung Kleine Kinzig sowie die TH Köln mit dem Institut für Data Science, Engineering and Analytics und dem :metabolon Institut.
Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften in Deutschland. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind mehr als 26.000 Studierende in rund 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.
Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Christian Sander
0221-8275-3582
pressestelle@th-koeln.de
Quelle: IDW
Überstunden erhöhen das Bluthochdruckrisiko
Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Das Ergebnis einer neuen Studie [1] zeigt: Menschen, die mehr als 49 Stunden pro Woche arbeiten, sind gefährdeter, an Bluthochdruck zu erkranken. Zwar kann die Beobachtungsstudie „formal“ keine Ursache-Wirkung-Beziehung nachweisen, aber sie wurde sorgfältig durchgeführt und das Ergebnis sollte nach Ansicht der Deutschen Hochdruckliga nun prospektiv untersucht werden. Sie empfiehlt Menschen, die viel arbeiten (müssen), besonders darauf zu achten, die bereits bekannten Risikofaktoren für Bluthochdruck zu minimieren – Übergewicht, Bewegungsmangel und ungesunde Ernährung – und in regelmäßigen Abständen ihre Blutdruckwerte überprüfen.
Überstunden treiben das Risiko für Bluthochdruck in die Höhe – so das Ergebnis einer kanadischen Auswertung von mehr als 3.500 Büroangestellten, die über fünf Jahre beobachtet wurden. Gerade das Risiko einer maskierten Hypertonie schien bei jenen, die viele Überstunden anhäuften, erhöht zu sein. Darunter versteht man, wenn beim Patienten normale Blutdruckwerte in der Arztpraxis gemessen werden, erhöhte Werte tagsüber am Arbeitsplatz oder in der Nacht vorliegen. Gerade diese Form des Bluthochdrucks ist besonders gefährlich, da sie häufig übersehen wird.
Stress gilt allgemeinhin als Risikofaktor für hohen Blutdruck und es gab bereits verschiedene Studien, die den Zusammenhang von Überstunden und Bluthochdruck untersuchten – doch die Ergebnisse waren sehr unterschiedlich. Eine Stärke der vorliegenden Untersuchung ist, dass sie nicht nur Einzelmessungen des Blutdrucks bei den Studienteilnehmern durchgeführt hatte, sondern auch Langzeitmessungen. „Die 24-Stunden-Blutdruckmessung ist deutlich aussagekräftiger als eine einzelne Blutdruckmessung beim Arzt, da sie auch eine maskierte Hypertonie erkennt, die sich in den meisten Fällen durch zu hohe Blutdruckwerte in der Nacht äußert“, erklärt Prof. Dr. med. Ulrich Wenzel, Facharzt für Innere Medizin und Nephrologie am UKE Hamburg und Vorstandsvorsitzender der Deutschen Hochdruckliga DHL®. „Die Deutsche Hochdruckliga spricht sich daher dafür aus, möglichst bei allen Patienten eine 24-Stunden-Blutdruckmessung durchzuführen, nur so kann die Diagnose Bluthochdruck sichergestellt oder ausgeschlossen werden, einzelne Praxismessungen können hingegen zu fehlerhaften Einschätzungen führen.“
In der vorliegenden Studie wurde die Rate der Studienteilnehmer mit durchweg erhöhten Blutdruckwerten (≥140/90 mm Hg in den Einzelmessungen und ≥135/85 mm Hg in den Langzeitmessungen) und jenen mit maskierter Hypertonie (<140/90 mm Hg in den Einzelmessungen und ≥135/85 mm Hg in den Langzeitmessungen) erhoben und in Relation zu den geleisteten Überstunden gesetzt. Im Ergebnis zeigte sich, dass Überstunden sowohl mit dem Risiko einer maskierten Hypertonie sowie einer anhaltenden Hypertonie assoziiert sind. Mehr als 49 Arbeitsstunden pro Woche (im Vergleich zu 35 Wochenstunden) erhöhten das Risiko einer maskierten Hypertonie um den Faktor 1,7 und das einer anhaltenden Hypertonie um den Faktor 1,6.
„Das sind interessante Daten“, erklärt Wenzel. „Denn in Studien, die vorher keinen Zusammenhang gezeigt haben, waren keine Langzeitblutdruckmessungen durchgeführt worden. Das legt nahe, dass in diesen Untersuchungen die maskierten Bluthochdruckfälle übersehen worden sind und unterstreicht erneut die Wichtigkeit dieser Untersuchungsform.“
Das eigentliche Studienergebnis möchte Wenzel noch vorsichtig interpretiert wissen. „Es handelt sich hier um Assoziationsdaten, nicht um eine randomisierte Studie. Zwar waren mögliche Einflussgrößen wie soziodemografische und Lifestyle-Merkmale herausgerechnet worden, aber diese Studienform kann keine klare Ursache-Wirkungskette belegen. Wir hoffen, dass nun randomisierte Studien zur Überprüfung folgen werden.“ Wie der Experte ausführte, war zwar nach Lebensalter, BMI, Nikotin- und Alkoholkonsum, Bildungsstand, Art der beruflichen Tätigkeit, körperliche Aktivität in der Freizeit sowie subjektive Arbeitsbelastung bzw. „Stress“ adjustiert worden, aus der Studie geht aber beispielsweise nicht hervor, wie die Ernährungsgewohnheiten der Teilnehmer waren, also ob sich die Gruppe mit den vielen Arbeitsstunden wegen Zeitmangels weniger gesund ernährte, z.B. mehr Fastfood zu sich nahm, das sehr salzhaltig ist. Auch fehlt eine Adjustierung im Hinblick auf die Schlafzeiten, denn auch Schlafmangel geht Beobachtungsstudien zufolge mit einem höheren Bluthochdruckrisiko einher.
Solange der direkte Einfluss von Überstunden auf den Blutdruck nicht nachgewiesen ist, sieht Wenzel größeres Präventionspotenzial darin, die bekannten und wissenschaftlich belegten Risikofaktoren anzugehen. „Fettleibigkeit ist ein gewichtiges Problem in unserer Gesellschaft, das die Blutdruckwerte hochtreibt. Wer sein Körpergewicht auf Normalwerte reduziert und es konstant hält, sich gesund und salzarm ernährt und dreimal pro Woche Sport treibt, hat immens viel für seine Gesundheit getan. Menschen, die über eine längere Zeit Überstunden leisten (müssen), sollten nach Ansicht des Experten diese Präventionsempfehlungen besonders beherzigen. „A und O ist die regelmäßige Kontrolle der Blutdruckwerte, um eine Bluthochdruckerkrankung frühzeitig erkennen und behandeln zu können.“
Für Menschen, die unsicher sind, wie hoch ihr persönliches Risiko für Bluthochdruck ist, bietet die Deutsche Hochdruckliga übrigens einen Online-Risikorechner an. Darin werden auch die Faktoren „Berufsstress“ und „Erschöpfung“ miteinbezogen, siehe https://www.hochdruckliga.de/hypertonie-risikorechner.html .
[1] Trudel X, Brisson C, Gilbert-Ouimet M et al. Long Working Hours and the Prevalence of Masked and Sustained Hypertension. Hypertension. 2020 Feb;75(2):532-538. doi: 10.1161/HYPERTENSIONAHA.119.12926.
Kontakt/Pressestelle
Dr. Bettina Albers
Jakobstraße 38
99423 Weimar
albers@albersconcept.de
Telefon: 03643/ 776423
Originalpublikation:
doi: 10.1161/HYPERTENSIONAHA.119.12926.
Quelle: IDW
Ingwerextrakt hilft nicht zur Prophylaxe von Migräneanfällen
Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Eine doppelblinde Placebo-kontrollierte Studie [1] untersuchte die Wirksamkeit von Ingwerextrakt zur Prophylaxe von Migräneanfällen. Im Vergleich zur Placebotherapie gab es keinen Vorteil – allerdings sank in beiden Studiengruppen die Häufigkeit schwerer Migräneanfälle. Laut DGN-Pressesprecher spricht das für einen Placeboeffekt in beiden Studienarmen. Helfen können Pestwurzextrakt (Petadolex), Mutterkraut sowie eine Kombination von Vitamin B2, Magnesium und Coenzym Q10. Eine nicht-medikamentöse Maßnahme, deren Wirkung wissenschaftlich belegt ist und die auch in den Leitlinien empfohlen wird, ist regelmäßiger Ausdauersport.
Laut Angaben der Deutschen Migräne- und Kopfschmerzgesellschaft e.V. [2] leiden ca. 10-15% der Bevölkerung an Migräne. Im Erwachsenenalter sind Frauen etwa dreimal häufiger betroffen als Männer. Standard der medikamentösen Migräne-Prophylaxe sind Betablocker, Kalziumkanal-Blocker, Antikonvulsiva oder Botulinumtoxin, wenn all diese Therapieoptionen wirkungslos bleiben (oder Kontraindikationen vorliegen), können gemäß neuer Leitlinienergänzung [3] auch moderne Antikörper zum Einsatz kommen. Letztere gehen mit relativ wenig Nebenwirkungen einher, haben aber das Manko, dass fast ein Drittel der Migränepatienten von vornherein gar nicht auf sie ansprechen. Die herkömmlichen Substanzklassen führen zu verschiedenen Nebenwirkungen, die oft die Therapietreue der Patienten beeinträchtigen. Bei etwa 38% der Betroffenen wäre eine Therapie zur Prophylaxe von Migräneanfallen aus medizinischer Sicht angeraten, aber nur etwa 3-13% unterziehen sich einer solchen Therapie, so eine Studie aus dem Vorjahr [4].
„Patienten fürchten Nebenwirkungen. Sanfte, nicht-medikamentöse Maßnahmen als Alternative zur medikamentösen Migräneprophylaxe stehen hoch im Kurs“, erklärt Professor Dr. Hans-Christoph Diener, Pressesprecher der DGN. „Es macht daher Sinn, pflanzliche Präparate für die Migräneprophylaxe zu untersuchen.“
Seit langem bekannt ist bekannt, dass Ingwer einen schmerzstillenden Effekt hat, weshalb eine aktuelle brasilianische Studie [1] in einem doppelblinden Placebo-kontrollierten Design ein Ingwerextrakt testete. 107 Patienten mit episodischer Migräne im Alter zwischen 18 und 60 Jahren, die ansonsten keine prophylaktische Therapie erhielten, wurden eingeschlossen und erhielten über drei Monate entweder das Ingwerextrakt (3x tägl. 200 mg) oder ein Placebo (1:1-Randomisierung). Die Patienten wurden einmal im Monat ärztlich konsultiert und mussten ein Schmerztagebuch führen. Wie sich zeigte, unterschied sich der Anteil der Patienten, die auf die Therapie ansprachen (definiert als eine Halbierung der Migräneanfälle bis zum Studienende), zwischen den Gruppen nicht. Ingwerextrakt war gegenüber Placebo nicht überlegen – insgesamt war in beiden Gruppen aber ein Rückgang der Migränetage mit starken Schmerzen (in der Verumgruppe um 42%, in der Placebogruppe um 39%) und des Schmerzmittelgebrauchs zur Behandlung der Attacken festgestellt worden. „Die vorliegende Studie gibt leider keinen Hinweis darauf, dass Ingwer in der Migräneprophylaxe wirksam ist. Sie zeigte keine Überlegenheit von Ingwer gegenüber Placebo. Zwar kam es in beiden Gruppen zu einem Rückgang der schweren Anfallstage und der Einnahme der Akutmedikation, doch wir von einem Placeboeffekt ausgehen, der in beiden Armen der verblindeten Studie eintrat.“
Wie der Experte ausführt, gibt es bislang nur zwei Naturheilmittel mit nachgewiesener migräneprophylaktischer Wirkung: Pestwurzextrakt (Petadolex) und Mutterkraut. Pestwurzextrakt ist in Deutschland als Nahrungsergänzungsmittel erhältlich. Mutterkraut war in den Studien als CO2-Extrakt untersucht worden und hatte sich als wirksam erwiesen. Doch in dieser Form wird Mutterkraut in Deutschland nicht vertrieben und der Einsatz anderer Formen wurde nicht geprüft und kann daher nicht empfohlen werden.
Erfolgreich im Hinblick auf die Schwere der Migräneattacken (wenn auch nicht auf die Häufigkeit), ist die Kombination von Vitamin B2, Magnesium und Coenzym Q10, das hatte bereits 2015 eine randomisierte Multicenterstudie aus Deutschland gezeigt [5].
Professor Dr. Peter Berlit, Generalsekretär der DGN, fasst abschließend zusammen: „Viele naturheilkundliche Mittel haben bisher enttäuscht und können eine medikamentöse Prophylaxetherapie nicht ersetzen. Es gibt aber eine nichtmedikamentöse Maßnahme, die nachweislich Wirkung hat, keine Nebenwirkungen, auch in den Leitlinien verankert ist, aber von Patienten häufig nicht genügend berücksichtigt wird: Regelmäßiger Ausdauersport kann die Anfallsfrequenz bei Menschen mit Migräne senken. Wir möchten Patienten ermuntern, das Potenzial dieser nachweislich wirksamen Intervention voll auszuschöpfen.“
Literatur
[1] Laís Bhering Martins, Ana Maria dos Santos Rodrigues, Nayara Mussi Monteze et al. Double-blind placebo-controlled randomized clinical trial of ginger (Zingiber officinale Rosc.) in the prophylactic treatment of migraine. Cephalalgia 2019, 2019, https://doi.org/10.1177/0333102419869319
[2] http://www.dmkg.de/patienten/antworten-auf-die-wichtigsten-fragen-rund-um-den-ko…
[3] Diener H.-C., May A. et al., Prophylaxe der Migräne mit monoklonalen Antikörpern gegen CGRP oder den CGRP-Rezeptor, Ergänzung der S1-Leitlinie Therapie der Migräneattacke und Prophylaxe der Migräne, 2019, in: Deutsche Gesellschaft für Neurologie (Hrsg.), Leitlinien für Diagnostik und Therapie in der Neurologie. Online: www.dgn.org/leitlinien
[4] Ha H, Gonzales A. Migraine headache prophylaxis. Am Fam Physician 2019; 99:17-24
[5] Gaul C, Diener HC, Danesch U et al. Improvement of migraine symptoms with a proprietary supplement containing riboflavin, magnesium and Q10: a randomized, placebo-controlled, double-blind, multicenter trial. J Headache Pain. 2015; 16: 516. doi: 10.1186/s10194-015-0516-6.
Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org
Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsidentin: Prof. Dr. med. Christine Klein
Stellvertretender Präsident: Prof. Dr. med. Christian Gerloff
Past-Präsident: Prof. Dr. Gereon R. Fink
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org
Originalpublikation:
doi.org/10.1177/0333102419869319
Quelle: IDW
Forschende ermitteln mit neuer Methode, wie widerstandsfähig einzelne Gewässer gegenüber Trockenheit sind
Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Hitze, Trockenheit und daraus resultierenden Niedrigwasserstände in Bächen, Flüssen und Seen prägten die Sommermonate der Jahre 2003, 2015 und 2018 in Europa. Auch im Sommer 2020 könnte wieder eine Niedrigwasserperiode entstehen. Forschende der Universität Freiburg haben in Kooperation mit den Universitäten Trier und Oslo/Norwegen in der Fachzeitschrift Hydrology and Earth System Sciences eine Methode vorgestellt, mit der besser ermittelt werden kann, wie anfällig Gewässer gegenüber Trockenheit sind.
„Wir sehen, dass verschiedene Gewässer sehr unterschiedlich auf ausbleibende Niederschläge reagieren“, sagt der Autor der Studie Dr. Michael Stölzle von der Professur für Umwelthydrosysteme der Albert-Ludwigs-Universität. Der Kern der neu entwickelten Methode ist ein Filter-Algorithmus, der das Abflusssignal der Gewässer in schnellere und langsamere Komponenten einteilt: Erfolgt der Abfluss aus einem Gebiet schnell, weil zum Beispiel viel Oberflächenabfluss auftritt, kann das Gebiet häufig schlechter Wasser speichern und ist stärker abhängig von kontinuierlichen Niederschlägen und somit weniger widerstandsfähig gegenüber Trockenperioden. Dominieren hingegen langsame, also verzögerte Abflusskomponenten wie zum Beispiel aus Schnee- oder größeren Grundwasserspeichern, so können die Gewässer auch bei anhaltender Trockenheit länger stabile Abflüsse aufweisen. Mit Hilfe des Filters können die Forschenden zusätzlich bestimmen, nach wie vielen Tage eine schnellere Abflusskomponente aufhört, wesentlich zum Gesamtabfluss des Gewässers beizutragen.
„Das Filtern des Abflusssignals ist keine neue Idee“, erklärt Stölzle, „aber es wurde häufig nur in eine schnelle und eine langsamere Abflusskomponente getrennt.“ In der vorgestellten Studie haben die Hydrologinnen und Hydrologen die bisherigen Filter erweitert, um drei oder vier Abflusskomponenten mit unterschiedlichen Verzögerungen zu identifizieren. Dadurch stellten sie fest, dass etwa alpine Gebiete nicht nur durch die Schneeschmelze im Sommer geprägt sind, sondern auch im Winter teils sehr stabile Abflussverhältnisse aufweisen. „Daraus schließen wir, dass es auch im steilen Hochgebirge wichtige Gebietsspeicher im Untergrund geben kann, die für einen kontinuierlichen Abfluss in unterliegende Gebiete sorgen können“, sagt Stölzle.
Datengrundlage der Untersuchung waren Abflussdaten aus Gebieten in Baden-Württemberg und der Schweiz. Da für die neue Methode nur Abflussdaten benötigt werden, ist sie aber prinzipiell weltweit anwendbar und kann auch in der wasserwirtschaftlichen Praxis aufgegriffen werden. Die Forschenden schlagen vor, die Methode auf andere Variablen wie Grundwasserstände anzuwenden oder mit ihr Gletscher- und Schneeschmelzkomponenten zu berechnen.
„In Baden-Württemberg kann die vorgestellte Analysemethode künftig helfen, besser zu verstehen, wie empfindlich ein Einzugsgebiet gegenüber Trockenheit ist“, erklärt Stölzle: „Unsere aktuelle Umfrage bei den Wasserbehörden verschiedener Landkreise hat gezeigt, dass künftig sowohl der Bewässerungsbedarf als auch die Anträge für genehmigte Wassernutzungen im Land zunehmen werden.“
Originalpublikation:
Stölzle, M., Schütz, T., Weiler, M., Stahl, K., Tallaksen, L.M. (2020): Beyond binary baseflow separation: a delayed-flow index for multiple streamflow contributions. In: Hydrology and Earth System Sciences 24, S. 849-867. DOI: 10.5194/hess-24-849-2020
Kontakt:
Dr. Michael Stölzle und Prof. Dr. Kerstin Stahl
Professur für Umwelthydrosysteme
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-67432
E-Mail: michael.stoelzle@hydro.uni-freiburg.de
kerstin.stahl@hydro.uni-freiburg.de
Originalpublikation:
DOI: 10.5194/hess-24-849-2020
Quelle: IDW
Grüne Wasserstoffproduktion in Biogasanlagen
René Maresch M. A. Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF
In dem Forschungsprojekt »HyPerFerment« will das Fraunhofer IFF in Magdeburg mit weiteren Partnern ein neues Verfahren zur mikrobiologischen Wasserstofferzeugung entwickeln. Ziel der Forscher ist es, diesen »grünen« Wasserstoff in industriellem Maßstab in Biogasanlagen zu erzeugen. So soll deren Wirkungsgrad erhöht und die dezentrale Versorgung mit regenerativ erzeugter Energie verbessert werden.
Wasserstoff wird als Energieträger einen wichtigen Platz im Energieversorgungssystem der Zukunft einnehmen. Die Herstellung des begehrten Stoffes kann auf unterschiedlichen Wegen geschehen. Bei der Wasserstoffelektrolyse etwa wird elektrischer Strom verwendet, um Wasser in seine Bestandteile Wasserstoff und Sauerstoff aufzutrennen.
Ein anderer Weg ist die Fermentation. Wie bei einer Biogasanlage wird hier der Wasserstoff mittels Mikroorganismen aus Biomasse gewonnen. Bei der sogenannten Dunkelfermentation produzieren bestimmte anaerobe Bakterien und Pilzstämme unter Einsatz einer speziellen Prozessführung ohne Zwischenschritte Wasserstoff aus organischen Stoffen.
Kombinierte Produktion von Wasserstoff und Biogas
Dieses bislang noch wenig eingesetzte Verfahren soll in einem neuen Forschungsprojekt genauer untersucht und auf seine Anwendbarkeit im industriellen Maßstab getestet werden. Der Wirkungsgrad dieser Methode zur Wasserstoffherstellung ist zwar geringer als der anderer Verfahren. Das Ziel ist es jedoch, den Prozess zukünftig in bereits vorhandene Biogasanlagen zu integrieren und so deren Wirkungsgrad insgesamt zu verbessern. Langfristig soll dadurch der Ausbau dezentraler Infrastrukturen zur nachhaltigen Wasserstoffversorgung unterstützt werden.
Das Projekt mit dem Namen »HyPerFerment« (Mikrobiologische Verfahrensentwicklung zur Wasserstofferzeugung und -bereitstellung) ist zunächst auf zwei Jahre ausgelegt und wird von dem mikrobiologischen Labor MicroPro, dem Anlagenspezialisten Streicher Anlagenbau sowie dem Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg betrieben. In der ersten Phase wollen die drei Projektpartner die geeignetsten Stämme der benötigten Mikroorganismen auswählen und testen. Außerdem soll die anlagentechnische Umsetzung geplant und das Gesamtkonzept physiko-chemisch, technologisch und ökonomisch bilanziert und bewertet werden. In einer angeschlossenen zweiten Projektphase sind dann der Bau einer Pilotanlage und deren Felderprobung vorgesehen.
Das Projekt wird von der Investitionsbank Sachsen-Anhalt und mit Mitteln der Europäischen Union (EFRE) gefördert.
Weitere Informationen zum Forschungsprojekt unter: http://www.hyperferment.de
Die Fraunhofer-Gesellschaft arbeitet mit Nachdruck an Technologien zur Erzeugung, Wandlung und Nutzung von Wasserstoff als nachhaltiger Energieträger der Zukunft. In Sachsen-Anhalt forschen neben dem Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg auch das Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS in Halle und das Fraunhofer-Zentrum für Chemisch-Biotechnologische Prozesse CBP intensiv auf diesem Gebiet.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Torsten Birth
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF
Konvergente Infrastrukturen
Teamleiter Energie- und Ressourceneffiziente Systeme
Sandtorstr. 22, 39106 Magdeburg
Telefon: +49 391 40 90 355
E-Mail: torsten.birth@iff.fraunhofer.de
Weitere Informationen:
Weitere Informationen zum Forschungsprojekt unter: http://www.hyperferment.de
Quelle: IDW
Innovative Lösung für Verwertung organischer Abfälle in Paris
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Zuschlag für ein deutsch-französisches Konsortium: Ab März 2020 werden die fünf Partner Tilia GmbH (Leipzig), GICON – Großmann Ingenieur Consult GmbH (Dresden), France Biogaz Valorisation (Strasbourg), Fraunhofer IGB (Stuttgart) und DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH (Leipzig) im Großraum Paris eine Pilotanlage mit neuen Verfahren zur gemeinsamen Behandlung von organischen Restabfällen und Klärschlämmen errichten und betreiben. Wenn sich das Pilotprojekt bewährt, soll nach diesem Konzept ab 2025 eine industrielle Großanlage unter anderem bis zu 76.000 Tonnen organischer Reststoffe pro Jahr umweltgerecht zu Biogas und Dünger verarbeiten.
Neues Vertragsmodell macht mehr möglich
Gestartet war das Projekt bereits 2017 mit einem neuen Vertragsmodell – die Innovationspartnerschaft. „Diese neue Art eines öffentlichen Auftrags ermöglicht es, Anforderungen und Bedürfnisse zu erfüllen, die der Markt und vorhandene Produkte oder Dienstleistungen bisher nicht abdecken konnten“, sagt Christophe Hug, Geschäftsführer des Leipziger Dienstleisters Tilia. „Im Gegensatz zu üblichen Forschungsprojekten bleibt es aber nicht dabei, innovative Lösungen zu entwickeln – sie werden auch unmittelbar in der industriellen Praxis umgesetzt. Der Auftraggeber hat dann die Möglichkeit, bei mehreren Auftragnehmern mitzuarbeiten und verschiedene Wege zu testen, bevor er sich für eine Lösung entscheidet.“
Für eine erste Labor- und Konzeptphase haben zwei kommunale Pariser Zweckverbände (Syctom und SIAAP) 2018 zunächst 4 Konsortien ausgewählt, technologische Konzepte für eine maximale Verwertungsquote der Abfallfraktionen zu entwickeln. Dies erfolgte zeitlich parallel im Sinne eines Wettbewerbs. Das in Phase 1 von der Leipziger Tilia geführte deutsch-französische Konsortium hatte im Ergebnis der ersten Projektphase ein innovatives Technologiekonzept aus verschiedenen Modulen präsentiert, mit denen eine maximale Umwandlung von organischem Kohlenstoff in den Energieträger Biomethan sowie eine Nährstoffrückgewinnung ermöglicht wird. Dafür wurden fast 8.000 Kilogramm organischer Reststoffe (Hausmüll, Klärschlamm, Pferdemist sowie Fett) analysiert und hunderte Tests durchgeführt.
Um die Machbarkeit und die Leistung des konzipierten Behandlungskonzeptes beweisen zu können, entwarf das Konsortium anschließend eine Pilotanlage, die eine spätere Großanlage im „Kleinen“ darstellt. Grundlage für die Planung und Auslegung der Pilotanlage bildeten dabei die in den Laboren von DBFZ, Fraunhofer IGB und GICON ermittelten Versuchsergebnisse.
GICON®-Geschäftsführer Dr. Hagen Hilse beschreibt die Bedeutung eigener Forschung & Entwicklung: „GICON setzt seit der Firmengründung vor mehr als 25 Jahren auf die Entwicklung innovativer Technologien und hat dabei neben eigenen Forschungstätigkeiten eine enge Kooperation mit Forschungseinrichtungen aufgebaut. Dank unseres aufgebauten Know-hows und der vorhandenen Infrastruktur für Substratversuche konnten wir gemeinsam mit unseren Partnern eine passgenaue Lösung zur Behandlung und Weiterverwertung der Pariser Abfälle entwickeln. Das ist ein Musterbeispiel für anwendungsorientierte Forschung.“
Vom Pilotprojekt zur industriellen Großanlage
Das Konzept hat offenbar überzeugt: Im Januar 2020 haben Syctom und SIAAP zwei Konsortien beauftragt, in Phase 2 der Innovationspartnerschaft eine Pilotanlage zu errichten, darunter das von Tilia geführte Konsortium. Für den Auftrag hatte auch die langjährige Erfahrung der deutschen Konsortiumsmitglieder bei der Methanisierung und Nährstoffrückgewinnung eine entscheidende Rolle gespielt. „Tilia verfügt über ein breites Wissen in der Konzipierung von innovativen technischen Lösungen sowie im Betrieb von Anlagen und gewährleistet die technisch-wirtschaftliche Integration“, so Christophe Hug. „Als deutsch-französisches Unternehmen und dank ihrer Erfahrung bei der Zusammenarbeit mit Partnern aus unterschiedlichen Bereichen konnten wir auch den kooperativen Dialog und das Projektmanagement erfolgreich meistern.“
Im März 2020 wird die Umsetzung des Pilotprojekts beginnen, wofür der Dresdner Ingenieurdienstleister GICON die übergreifende Generalplanung für die gesamte Pilotanlage übernimmt. Zunächst beschäftigt sich das Konsortium mit den detaillierten Planungen für die Pilotanlage, die aus mehr als 8 einzelnen technologischen Komponenten (Modulen) besteht und eine Behandlungskapazität von ca. 400 Tonnen pro Jahr erreichen wird.
Ab 2021 werden die Bauarbeiten in der Nähe von Paris starten. Anschließend werden alle Module zusammen in einer zwölfmonatigen Testphase betrieben. Dabei werden die optimalen Betriebsparameter sowie ein für alle innovativen Module aufeinander abgestimmtes Betriebsregime ermittelt. Aufbauend darauf erfolgt eine Validierung der Umsetzbarkeit und Leistungsfähigkeit des Behandlungskonzeptes für die industrielle Anlage.
Am Ende dieser Erprobungsphase werden die zwei Zweckverbände auf Basis der Versuchsergebnisse und der Leistungsfähigkeit der Pilotanlage entscheiden, ob das Konzept auch im industriellen Maßstab realisiert werden soll. Mit der industriellen Anlage könnten dann pro Jahr enorme Mengen organischer Reststoffe mit einem hohen Wertschöpfungsgrad verarbeitet werden – unter anderem bis zu 76.000 Tonnen aufbereiteter organischer Restabfall und erhebliche Mengen von Klärschlamm und Pferdemist.
Hintergrundinformation
Bei der Aufbereitung von Abfällen und Abwässern, entstehen verschiedene Reststoffe. In Frankreich ist deren Weiterverwertung, Entsorgung oder Rückführung mittlerweile stark reglementiert – teilweise sogar verboten. Lösungen zur stofflichen und energetischen Verwertung sind gefragt. So auch im Großraum Paris, wo die Verbände Syctom und SIAAP für Abfall- und Abwasserbehandlung zuständig sind. Um die strengen Vorgaben umzusetzen, haben sie ein gemeinsames Co-Behandlungs-Projekt aufgesetzt: „Cométha“.
Über die Mitglieder des Konsortiums
Tilia ist ein im 2009 gegründetes deutsch-französisches Unternehmen. Basis war und ist die gemeinsame Vision einer erfolgreichen und nachhaltigen Zukunft der Versorgungsunternehmen. Tilia ist der Partner für Städte, Gemeinden, öffentliche und private Versorgungsunternehmen, Industrieunternehmen und Co-Investoren. Gemeinsam erarbeiten sie neuen Möglichkeiten, Projekte zu entwickeln, Investitionen zu tätigen, Arbeitsabläufe zu verbessern, Strategien zu definieren und den zunehmend komplexeren Herausforderungen in den Feldern Energie, Wasser und Umwelt zu begegnen. Das Tilia-Modell ist flexibel: Es reicht von der Beratung und Unterstützung im Projektmanagement bis hin zur gemeinsamen Umsetzung der Projekte. Bereits heute beschäftigt die Tilia zusammen mit ihren Tochtergesellschaften fast 150 Mitarbeiter und schaut auf über 500 Projekte in mehr als 20 Ländern zurück. Ein Großteil der heutigen Tilia-Aktivitäten findet in Deutschland und Frankreich statt.
France Biogaz Valorisation ist ein elsässisches Unternehmen, das sich auf die Entwicklung und den Bau von industriellen und landwirtschaftlichen Biogasanlagen spezialisiert hat. France Biogaz Valorisation unterstützt seine Kunden entlang der gesamten Wertschöpfungskette ihrer Projekte: Machbarkeit, Entwicklung, Verwaltung, Implementierung, Inbetriebnahme, Wartung und Monitoring der biologischen Prozesse.
Das DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH gehört der Bundesrepublik Deutschland, vertreten durch das Bundesministerium für Ernährung und Landwirtschaft (BMEL). Das Forschungszentrum hat den Auftrag der Bundesregierung, die effiziente Nutzung von Biomasse als regenerativer Energieträger der Zukunft im Rahmen angewandter Forschung theoretisch und praktisch voran zu treiben. Das wissenschaftliche Bemühen zur Etablierung und Integration von Biomasse in die Reihe der bereits bestehenden Energieträger erfolgt unter Berücksichtigung technischer, ökologischer, ökonomischer, sozialer sowie energiewirtschaftlicher Aspekte. Berücksichtigt werden hierbei alle Aspekte innerhalb der Nutzungskette, d.h. von der Produktion über die Bereitstellung bis zur Verteilung der Energie an den Endverbraucher. Über die theoretische und praktische Forschung im Bereich der energetischen Biomasseforschung hinaus, erarbeitet das DBFZ auch wissenschaftlich fundierte Entscheidungshilfen für die Politik. Derzeit arbeiten am DBFZ rund 140 wissenschaftliche Mitarbeiter in den vier Forschungsbereichen.
Das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB entwickelt und optimiert Verfahren, Technologien und Produkte für Gesundheit, Nachhaltige Chemie und Umwelt. Durch die Kombination biologischer und verfahrenstechnischer Kompetenzen gehören Komplettlösungen vom Labor- bis zum Pilotmaßstab zu den Stärken des Instituts. Forschungsschwerpunkte sind u. a. Wasser- und Abwassertechnologien, Membranen, Katalysatoren sowie regenerative Ressourcen, industrielle Biotechnologie und funktionale Materialien. Damit greift das IGB aktiv Herausforderungen einer zukunftsfähigen Gesundheitsversorgung, einer nachhaltigen Bioökonomie und klimaneutralen sowie ressourceneffizienten Kreislaufwirtschaft auf. Das Fraunhofer IGB ist eines von 72 Instituten und Forschungseinrichtungen der Fraunhofer-Gesellschaft, Europas führender Organisation für angewandte Forschung.
Die GICON – Großmann Ingenieur Consult GmbH ist ein unabhängiges Engineering- und Consultingunternehmen mit Sitz in Dresden. Der interdisziplinär erfahrene Mitarbeiterstab ist die Basis für ein umfassendes und dem Stand der Technik entsprechendes Beratungs- und Planungsangebot in den unterschiedlichsten Wirtschaftsbereichen. Hierzu zählen neben Ingenieurdienstleistungen auch gutachterliche Spezialleistungen sowie umfassende Sachverständigentätigkeiten. Die GICON – Großmann Ingenieur Consult GmbH ist in den Geschäftsbereichen Anlagen- und Bauplanung, Umwelt- und Genehmigungsplanung, Ökosysteme, Boden- und Gewässermanagement, Technische Informatik und Forschung/Technologieentwicklungen tätig.
Syctom, die Haushaltsabfallagentur im Großraum Paris, ist mit 10 Industrieanlagen der führende europäische öffentliche Betreiber für die Behandlung und Verwertung von Haushaltsabfällen. Sie verarbeitet und verwertet jährlich fast 2,3 Millionen Tonnen Haushaltsabfälle, die von fast 6 Millionen Einwohnern von 85 Gemeinden, darunter Paris, in fünf Departements der Region Paris erzeugt werden (~ 10 % der Haushaltsabfälle in Frankreich).
Das SIAAP (Syndicat Interdépartemental pour l’Assainissement de l’Agglomération Parisienne), Europas führender Betreiber öffentlicher Anlagen zur Abwasserentsorgung, ist der Verband, der das Abwasser von fast 9 Millionen Menschen in der Region Ile-de-France sowie Regen- und Prozesswasser entsorgt. Mit ihren 1700 Mitarbeitern reinigt die SIAAP 7 Tage die Woche, 24 Stunden am Tag, fast 2,5 Mio. m³ Wasser, welches durch 440 km Kanalleitungen transportiert und durch ihre sechs Kläranlagen behandelt wird.
Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2020/innovati…
Quelle: IDW
Antibiotika: Städter und Kinder nehmen am meisten
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Städter nehmen mehr Antibiotika als Menschen auf dem Land; Kinder und Senioren greifen häufiger zu ihnen als Personen mittleren Alters; mit steigender Bildung sinkt die Antibiotika-Nutzung, allerdings nur in reichen Ländern: Das sind drei der auffälligeren Trends, die Forscher des NRW Forschungskollegs „One Health and urbane Transformation“ an der Universität Bonn in einer aktuellen Studie identifiziert haben. Noch immer werden zu viele Antibiotika verabreicht. Mögliche Folge sind Resistenzen: Gegen manche Bakterien stehen kaum noch wirksame Medikamente zur Verfügung. Die Studie erscheint im International Journal of Hygiene and Environmental Health; sie ist aber bereits online abrufbar.
Die meisten Antibiotika werden von Patienten genommen, deren Erkrankung keinen Klinikaufenthalt erfordert. In Deutschland machen diese Fälle rund 85 Prozent aller Antibiotika-Verschreibungen aus; EU-weit liegt die Quote sogar noch etwas höher. Doch welche Faktoren fördern die Einnahme von Antibiotika im ambulanten Gesundheitssektor? Für diese Frage interessieren sich Wissenschaftler bereits seit einiger Zeit. Denn weitgehend unstrittig ist, dass insgesamt zu viele Antibiotika verabreicht werden. Das fördert die Bildung von Resistenzen und sorgt so dafür, dass diese eigentlich schärfsten Waffen gegen bakterielle Infektionen langsam stumpf werden.
Die aktuelle Studie fasst den momentanen Kenntnisstand zu dieser Problematik zusammen. Die beteiligten Wissenschaftler haben darin insgesamt 73 Publikationen zu den treibenden Faktoren der Antibiotika-Nutzung im ambulanten Sektor ausgewertet. „Dabei interessierten uns nicht nur individuelle Parameter wie Alter oder Bildung, sondern auch geographische Zusammenhänge sowie soziokulturelle Faktoren“, erklärt Dennis Schmiege, der an der Universität Bonn (Zentrum für Entwicklungsforschung) unter Betreuung von Prof. Mariele Evers (Geographisches Institut) und Prof. Thomas Kistemann (Institut für Hygiene und Public Health) promoviert.
600 mögliche Einflussgrößen ausgewertet
Fast 600 Variablen hat er zusammen mit seinem Kollegen Dr. Timo Falkenberg ausgewertet und zu rund 45 Gruppen zusammengefasst. Für jede der Gruppen ist in der Übersichts-Arbeit aufgeführt, ob sie nach aktueller Studienlage als wesentliche Einflussfaktoren zu werten sind. Relativ gut belegt ist demnach, dass Kinder und Senioren häufiger Antibiotika schlucken als Menschen mittleren Alters. Ein höherer Bildungsstand wirkt dagegen eher bremsend. Allerdings kehrt sich dieser Zusammenhang in ärmeren Ländern um – „wahrscheinlich, weil es dort eher die besser ausgebildeten Menschen sind, die entweder Zugang zum Gesundheitssystem haben oder die sich den Besuch beim Arzt oder den Kauf eines Medikaments überhaupt leisten können“, vermutet Schmiege.
Bei den geographischen Parametern sticht unter anderem die Diskrepanz zwischen Stadt und Land ins Auge: Einige der Veröffentlichungen zeigen, dass die Antibiotika-Nutzung in urbanen Gebieten höher ist. „Wir vermuten, dass das etwas mit dem besseren Zugang zu Arztpraxen und Apotheken zu tun hat“, erläutert Schmiege. Tatsächlich scheint die Ärzte-Dichte ebenfalls zu den treibenden Faktoren zählen. Höhere Medikamenten-Preise reduzieren die verkaufte Antibiotika-Menge dagegen.
Noch vergleichsweise wenig untersucht ist, welche soziokulturellen Parameter die Antibiotika-Nutzung fördern. Einen gewissen Einfluss scheint demnach die nationale Kultur zu haben: So nehmen die Bürger „maskuliner“ Gesellschaften, die als eher wettbewerbsorientiert gelten, im Schnitt mehr Antibiotika. Ähnlich sieht es in Gesellschaften aus, die klassischerweise eher darauf bedacht sind, Ungewissheiten zu meiden. „Insgesamt sehen wir in diesem Bereich aber noch deutlichen Forschungsbedarf“, betont Dennis Schmiege.
An anderer Stelle zeigt die Studienlage ebenfalls eine deutliche Schieflage: Länder mit niedrigerem und mittlerem Einkommen sind gegenüber reicheren deutlich unterrepräsentiert – auch das ein Punkt, an dem zukünftige Forschungsprojekte Abhilfe schaffen sollten, meint der Wissenschaftler.
Die Studie wurde im Rahmen des NRW-Forschungskollegs „One Health and urbane Transformation“ durchgeführt, welches ein vom Ministerium für Kultur und Wissenschaft des Landes NRW finanziertes Graduiertenkolleg ist. Dieses wird von der Universität Bonn in Kooperation mit der Hochschule Bonn-Rhein-Sieg (H-BRS) und der United Nations University – Institute for Environment and Human Security (UNU-EHS) in Bonn durchgeführt. Weitere Informationen zum Forschungskolleg stehen auf der Webseite www.zef.de/onehealth.html zur Verfügung.
Wissenschaftliche Ansprechpartner:
Dennis Schmiege
Forschungskolleg „One Health and Urban Transformation“
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel. 0228/736719
E-Mail: d.schmiege@uni-bonn.de
www.zef.de/onehealth.html
Originalpublikation:
Dennis Schmiege, Mariele Evers, Thomas Kistemann und Timo Falkenberg: What drives antibiotic use in the community? A systematic review of determinants in the human outpatient sector; International Journal of Hygiene and Environmental Health; https://doi.org/10.1016/j.ijheh.2020.113497
Quelle: IDW
Mehr als nur Strom: Mit den richtigen Rahmenbedingungen können Biogasanlagen eine Menge für die Gesellschaft leisten
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
THG-Einsparung, Nährstoffmanagement, Gewässer- und Artenschutz – Aktuelle Studie quantifiziert Zusatzleistungen und benennt Potenziale
Biogasanlagen gelten im Vergleich zu Windkraft- oder Photovoltaik-Anlagen als teure erneuerbare Energieerzeuger. Doch den höheren Kosten stehen auch eine Reihe von zusätzlichen Leistungen gegenüber: Die Anlagen können Treibhausgasemissionen aus Gülle und Mist einsparen, überschüssige Nährstoffe in wertvolle, handelbare Dünger umwandeln und organische Abfälle energetisch verwerten. Mit den richtigen Vorgaben zum Energiepflanzenanbau wären die „runden Bottiche“ sogar Teil der Lösung für mehr Biodiversität und Gewässerschutz auf dem Acker.
In der Studie MakroBiogas haben Autoren des Instituts für Zukunftsenergie- und StoffstromSysteme (IZES), des Deutschen Biomasse-Forschungszentrums (DBFZ) und des Helmholtz-Zentrums für Umweltforschung (UFZ) nun die zusätzlichen Biogas-Benefits genauer analysiert und quantifiziert. Es wird deutlich, in welchem Maße vielfältige Leistungen für die Gesellschaft wegzubrechen drohen, sollten die rund 9.000 Biogasanlagen in Deutschland nach dem Auslaufen des Erneuerbare-Energien-Gesetzes (EEG) keine ökonomische Perspektive mehr haben. „Es bedarf neuer Finanzierungskonzepte und Regularien für den Biogassektor, damit dessen positive Potenziale noch besser und auch in Zukunft zum Tragen kommen können“, so das Fazit von Bernhard Wern vom IZES, Mitautor der Studie.
Die vielfältigen Zusatzleistungen von Biogasanlagen jenseits der Strom-, Wärme- und Methanerzeugung werden gesellschaftlich oft wenig wahrgenommen und finanziell nicht honoriert. Die Autoren von MakroBiogas sehen diese tatsächlichen oder potenziellen Leistungen vor allem in den Bereichen Nährstoffmanagement, Erosionsschutz, Fruchtfolgen, Biodiversität, Grünlandschutz, sowie in der Verwertung von Grünschnitt, Gülle und Mist oder der Entsorgung von Bioabfällen. Biogasanlagen verringern auch die klimaschädlichen Methanemissionen aus Rohgülle, die bei einer Vergärung in der Biogasanlage abgefangen und energetisch genutzt werden.
Wenn die auf 20 Jahre festgelegte EEG-Vergütungsdauer demnächst für immer mehr Biogasanlagen ausläuft, droht dementsprechend nicht nur ein Rückschritt bei der erneuerbaren Energieerzeugung – die Autoren prognostizieren bis 2035 einen Wegfall von 30 TWh erneuerbarem Strom, 15 TWh erneuerbarer Wärme aus Kraft-Wärme-Koppelung und 4,8 GW steuerbarer Leistung zum Ausgleich der schwankenden Wind- und Sonnenenergie – sondern eben auch bei den genannten Mehrwerten für die Gesellschaft.
Die Autoren der Studie plädieren dafür, den ökonomisch-regulatorischen Rahmen für Biogasanlagen anzupassen, damit diese ihre zusätzlichen Leistungen noch besser bzw. zum Teil überhaupt erst entfalten können. Ohne Biogasanlagen müssten viele der Dienstleistungen auf andere Weise erbracht und finanziert werden. Dies sollte bei der Diskussion über die Zukunft der Biogasanlagen stärker als bislang berücksichtigt werden.
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) hat die Erstellung der Studie „Analyse der gesamtökonomischen Effekte von Biogasanlagen (MakroBiogas)“ über den Projektträger Fachagentur Nachwachsende Rohstoffe e. V. (FNR) gefördert. Der Abschlussbericht steht auf fnr.de unter den Förderkennzeichen 22403616, 22406517 und 22406717 zur Verfügung.
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Nicole Paul
Tel.: +49 3843 6930-142
Mail: n.paul@fnr.de
Wissenschaftliche Ansprechpartner:
Bernhard Wern
Weitere Informationen:
https://www.fnr.de/projektfoerderung/projektdatenbank-der-fnr/
https://www.fnr.de/index.php?id=11150&fkz=22403616
https://www.fnr.de/index.php?id=11150&fkz=22406517
https://www.fnr.de/index.php?id=11150&fkz=22406717
Quelle: IDW
Nachhaltige Nutzung von CO2 mittels eines modifizierten Bakteriums
Dr. Björn Plötner Büro für Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Molekulare Pflanzenphysiologie
Einem Team von Wissenschaftlern des Max-Planck-Instituts für Molekulare Pflanzenphysiologie in Potsdam-Golm unter Leitung von Dr. Arren Bar-Even ist es gelungen, die Ernährung des Bakteriums E. coli so umzuprogrammieren, dass es Ameisensäure oder Methanol als einzige Nahrungsquelle nutzen kann. Diese einfachen organischen Verbindungen lassen sich sehr effizient durch elektrochemische Verfahren aus Kohlenstoffdioxid (CO2) herstellen, sodass dieses Treibhausgas zukünftig sinnvoll genutzt werden könnte und sein Beitrag am Klimawandel sinkt.
Neue Wege zur bioökonomischen Nutzung von CO2
Obwohl Kohlenstoffdioxid (CO2) nur einen Anteil von 0,04% der Luft darstellt, gehört es zu den Treibhausgasen, die mitverantwortlich sind für die Erderwärmung und den Klimawandel. Eine Möglichkeit zur Bekämpfung des Klimawandels besteht darin, CO2 aus der Atmosphäre zu entfernen z.B. durch Aufnahme in Pflanzen, Algen oder Mikroorganismen, die durch Photosynthese Biomasse produzieren. Ein anderer Weg besteht darin das bei der Verbrennung oder anderen industriellen Produktionsprozessen entstehende CO2 aufzufangen und zu verwerten, es also zu recyceln bevor es in die Luft gelangt. Grundsätzlich besitzt CO2 das Potenzial, fossile Brennstoffe als Ausgangsmaterial für die Produktion von kohlenstoffbasierten Chemikalien, einschließlich Kraftstoffen, abzulösen. Ziel der gerade aktuell von der Bundesregierung verabschiedeten Bioökonomiestrategie ist es, biologische Ressourcen stärker zu nutzen und mit Hilfe biologischen Wissens und Innovationen unseren Bedarf an Rohstoffen, Produkten und Dienstleistungen zu decken. Diese Strategie beinhaltet auch die Möglichkeit Abfallprodukte wie CO2 zu verwerten um eine nachhaltige Kreislaufwirtschaft zu etablieren. Eine Möglichkeit zur Verwertung von CO2 besteht darin, es in einfache Verbindungen zu überführen und diese als Nahrungsquelle für Mikroorganismen zu nutzen. Die Mikroorganismen wandeln die Stoffe wiederum in hochwertige Verbindungen um, die dann fossile Brennstoffe ersetzen könnten.
Einen solchen innovativen Ansatz verfolgten Forscher um Arren Bar-Even vom Max-Planck-Institut für Molekulare Pflanzenphysiologie. Ihre Idee dabei: die Einbringung eines neuen Stoffwechselweges in das Bakterium Escherichia coli (Kolibakterium), damit dieses sich statt wie üblich von Zuckern, ausschließlich von organischen Verbindungen wie Ameisensäure oder Methanol, ernährt. Beide Verbindungen können sehr effizient und kostengünstig aus CO2 hergestellt werden. Da E. coli sehr gut erforscht und einfach zu kultivieren ist, wird es für industrielle Produktionsverfahren, zum Beispiel zur Herstellung von Insulin oder Aminosäuren bereits jetzt schon eingesetzt. Gelingt es, E. coli mittels Ameisensäure oder Methanol zu kultivieren, könnte man einen Stoffkreislauf schaffen, der CO2 – über Ameisensäure und Methanol – in wertvollere Produkte überführt mit Hilfe von modifizierten Mikroorganismen.
Ihre Ergebnisse haben die Forscher aktuell im Fachjournal „nature chemical biology“ veröffentlicht.
Entwicklung eines neuen Stoffwechselweges
Damit E. coli Ameisensäure in Biomasse umwandelt, waren einige wichtige Veränderungen nötig. So musste zunächst ein völlig neuer Syntheseweg für Glycin und Serin entworfen werden, welcher die Herstellung dieser Aminosäuren ausgehend von Ameisensäure sicherstellt. Weiterhin mussten die dafür benötigten Gene in das Bakteriengenom eingefügt werden. Die Wissenschaftler gliederten die benötigten Gene in vier Module. Das erste Modul bestand aus 3 Genen des Bakteriums Methylobacterium extorquens, mit denen die Verstoffwechselung der Ameisensäure startete. Das zweite Modul beinhaltete drei in E. coli natürlich vorkommende Gene, deren Ableserate (Expression) vielfach erhöht wurde. Die Einbringung von den ersten zwei Modulen führte dazu, dass E. coli in der Lage war, Ameisensäure in die Aminosäuren Glycin und Serin umzuwandeln. Das dritte Modul bestand wiederum aus zwei natürlicherweise in E. coli vorkommenden Genen, deren Expression erhöht wurde, damit als Endprodukt des neuen Synthesewegs Pyruvat gebildet wird. Dieser Stoff ist ein wichtiger Ausgangsstoff für viele weitere zentrale Stoffwechselwege, die letztendlich zur Produktion von Biomasse führen. Zu Guter Letzt wurde ein Gen aus dem Bakterium Pseudomonas sp. eingebracht, um die Energie für das Zellwachstum bereitzustellen (Modul 4).
Durch Evolution im Labor zu verbessertem Wachstum
Um die Wachstumsrate zu steigern, kultivierten die Forscher das mit allen Modulen ausgestattete Bakterium in Teströhrchen. Sobald die Zelldichte, nach etwa 3 – 6 Tagen, einen Schwellenwert überschritt, verdünnten Sie die Bakterien und starteten mit einer neuen Bakterienkultur den nächsten Wachstumszyklus. Auf diese Weise selektierten sie im Verlauf von 13 Zyklen Bakterien, deren Wachstum sich nach und nach deutlich gesteigert hatte. Dies konnte auf zwei einzelne Mutationen zurückgeführt werden, die während dieser „adaptiven Labor-Evolution“ im E. coli Genom entstanden waren und die gesteigerte Wachstumsrate bedingten.
In einer ähnlichen Studie des Weizman-Instituts in Israel von November 2019, die in der Fachzeitschrift „CELL“ erschienen ist und an der Arren Bar-Even als Kooperationspartner beteiligt war, wurde ein genetisch verändertes E. coli-Bakterium vorgestellt, dem es möglich war mittels Ameisensäure und CO2 zu wachsen. Im Vergleich mit der in „CELL“ veröffentlichten Studie, ist die Wachstumsrate des aktuell beschriebenen modifizierten E. colis doppelt so hoch. Dieses Bakterium kann sogar mit Hilfe eines weiteren Enzyms, der sogenannten Methanol-Dehydrogenase, Methanol in Ameisensäure umwandeln, welche wiederum wie bereits beschrieben in Biomasse umgesetzt wird.
Somit haben die Forscher in ihrer eindrucksvollen Arbeit bewiesen, dass Bakterien durch genetische Modifikationen umprogrammiert werden können, um neue Nahrungsquellen zu nutzen. Dies stellt die Grundlage dafür dar, zukünftig weitere Organismen mit neuen Stoffwechselwegen auszustatten und diese industriell zu nutzen. Durch die weitere Entwicklung des Methanol- oder Ameisensäure-verzehrenden Bakteriums erhoffen sich die Forscher damit bald auch hochwertige Chemikalien herstellen zu können.
Wissenschaftliche Ansprechpartner:
Dr. Arren Bar-Even
Email: Bar-Even@mpimp-golm.mpg.de
Originalpublikation:
https://doi.org/10.1038/s41589-020-0473-5
Quelle: IDW
Wie Grundwasser die Küstenökosysteme beeinflusst
Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Forscher haben das erste Computermodell entwickelt, mit dem der Grundwasserstrom in die Weltmeere global verfolgt werden kann.
Grundwasser ist das größte Reservoir für Süßwasser, eine der wertvollsten natürlichen Ressourcen der Welt. Es ist lebenswichtig für Nutzpflanzen und als Trinkwasser für den Menschen. Es befindet sich direkt unter unseren Füßen in den Rissen und Poren des Bodens, der Sedimente und des Gesteins.
Unter der Leitung der Universität Göttingen hat eine Gruppe von Forschern, darunter auch der Geologe Nils Moosdorf vom Leibniz-Zentrum für Marine Tropenforschung (ZMT), das erste Computermodell entwickelt, mit dem der Grundwasserstrom in die Weltmeere global verfolgt werden kann. Die Ergebnisse der Studie sind kürzlich in der Fachzeitschrift Nature Communications erschienen.
Die Analyse der Wissenschaftler zeigt, dass weltweit 20 Prozent der teils sehr empfindlichen Küstenökosysteme – wie Salzwiesen, Korallenriffe und Flussmündungen – von Schadstoffen bedroht sind, die durch den Grundwasserstrom vom Land ins Meer transportiert werden. Insbesondere in tropischen Regionen ist dies der Fall.
Die Forschenden bestimmten die Grundwasserströmung in den Küstenregionen weltweit, indem sie ein neu entwickeltes Computermodell mit einer globalen Datenanalyse der Topografie, der Grundwasserauffüllung und der Charakteristik der Gesteinsschichten unter der Oberfläche kombinierten. Sie zeigen, dass der Strom des Grundwassers in die Küstenmeere insgesamt auf globaler Skala im Vergleich zu dem von Flüssen gering ist. Er liegt bei etwa 80 km³ pro Jahr.
Aufgrund der berechneten Mengen stellen die Forscher frühere Behauptungen in Frage, dass der Süßwasserstrom den Kohlenstoff-, Eisen- und Silikathaushalt der Ozeane insgesamt signifikant beeinflusst. Die Auswirkungen des Grundwassers entlang der Küsten können jedoch lokal von großer Bedeutung sein.
Der Wasserstrom ist in verschiedenen Bereichen der Küstenlinie sehr variabel und kann lokal hoch genug sein, um als wichtige Süßwasserquelle zu fungieren, die an vielen Orten auf der Welt unverzichtbar ist. Auch gibt es Beobachtungen beispielsweise vor Tahiti und Mauritius, dass die Vermischung des Meerwassers mit dem frischen Grundwasser die lokale Meeresfauna unterstützt – vermutlich durch den Eintrag von Nährstoffen wie Stickstoff oder Phosphat.
Es gibt jedoch auch negative Auswirkungen der Grundwasserströme auf die Küstenökosysteme. Dazu gehört insbesondere ein Überschuss an Nährstoffen wie Stickstoff sowie Schadstoffe, die in den Erdboden versickern und dann ins Grundwasser gelangen. Für empfindliche Küstenökosysteme wie Korallenriffe ist dies eine Gefahr, etwa 15 % sind weltweit davon betroffen. Dabei stellen sich die Folgen nicht immer unmittelbar ein. Es kann Jahre oder sogar Jahrzehnte dauern, bis das schadstoffhaltige Süßwasser ins Meer abfließt.
„Spannend ist insbesondere, dass submariner Grundwasserabfluss, der in Deutschland kaum Aufmerksamkeit erfährt, in anderen Weltregionen deutlich relevanter ist“, erklärt Nils Moosdorf. „So liegt über die Hälfte des globalen submarinen Grundwasserabflusses aus Küstenbereichen unmittelbar um den Äquator.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Moosdorf
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 – 23800 – 33
E-Mail: nils.moosdorf@leibniz-zmt.de
Originalpublikation:
Luijendijk, E., T. Gleeson, and N. Moosdorf (2020), Fresh groundwater discharge insignificant for the world’s oceans but important for coastal ecosystems, Nat Commun, 11(1), 1260, doi:10.1038/s41467-020-15064-8.
Quelle: IDW
Neue Methode zur Entfernung von Öl aus Gewässern
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Öl stellt für Wasserlebewesen eine erhebliche Gefahr dar. Forscher der Universitäten Bonn und Aachen sowie der Heimbach-GmbH haben eine neue Methode entwickelt, solche Verunreinigungen zu beseitigen: Textilien mit speziellen Oberflächeneigenschaften schöpfen das Öl dabei passiv ab und transportieren es in einen schwimmenden Behälter. Als Vorbild dienten den Wissenschaftlern dabei Oberflächen aus dem Pflanzenreich. Die Studie ist nun in der Zeitschrift „Philosophical Transactions A“ erschienen.
Der Video-Clip ist ebenso kurz wie beeindruckend: Die 18-sekündige Sequenz zeigt eine Pipette, aus der dunkel gefärbtes Öl in ein Glas Wasser tropft. Dann hält ein Forscher ein grünes Blatt an den Fleck. Binnen weniger Augenblicke saugt es das Öl von der Wasseroberfläche, ohne auch nur einen winzigen Rest zurückzulassen.
Der Star des Films, das grüne Blättchen, stammt vom Schwimmfarn Salvinia. Für Wissenschaftler ist er aufgrund der besonderen Fähigkeiten seiner Blätter hochinteressant. Denn die sind extrem wasserscheu: Untergetaucht hüllen sie sich in einen Luftmantel und bleiben so vollkommen trocken. Forscher nennen dieses Verhalten „superhydrophob“, was sich mit „äußerst wasserabweisend“ übersetzen lässt.
Die Salvinia-Oberfläche liebt aber Öl – das ist gewissermaßen eine Kehrseite der Superhydrophobie. „Die Blättchen können daher auf ihrer Oberfläche einen Ölfilm transportieren“, erklärt Prof. Dr. Wilhelm Barthlott, Emeritus der Universität Bonn und ehemaliger Direktor des dortigen botanischen Gartens. „Und diese Eigenschaft konnten wir auch auf technisch herstellbare Oberflächen übertragen, etwa auf Textilien.“
Funktionstextilien als „Saugrüssel“
Derartige superhydrophobe Stoffe lassen sich dann beispielsweise einsetzen, um Ölfilme effizient und ohne Einsatz von Chemie von Wasseroberflächen zu entfernen. Anders als andere Materialien, die zu diesem Zweck bislang genutzt werden, nehmen sie das Öl aber nicht in sich auf. „Stattdessen wandert es, einzig und allein getrieben von seinen Adhäsionskräften, auf der Oberfläche des Textils entlang“, erklärt Barthlott. „Im Labor haben wir derartige Stoff-Bänder beispielsweise über den Rand eines auf dem Wasser treibenden Behälters gehängt. In kurzer Zeit hatten sie das Öl nahezu komplett von der Wasseroberfläche entfernt und in den Behälter transportiert.“ Den Antrieb liefert dabei die Schwerkraft; der Boden des Behälters muss deshalb unterhalb der Wasseroberfläche mit dem Ölfilm liegen. „Das Öl wird dann vollständig abgeschöpft – wie mit einem automatischen Fettlöffel für die Fleischbrühe.“
Damit werden superhydrophobe Textilien auch für die Umwelttechnik interessant. Versprechen sie doch einen neuen Lösungsansatz für das drängende Umwelt-Problem zunehmender Ölverschmutzungen auf Gewässern. Auf dem Wasser schwimmende Ölfilme verhindern einerseits den Gasaustausch durch die Oberfläche. Andererseits sind sie für viele Pflanzen und Tiere bei Kontakt gefährlich. Da sich Ölfilme zudem schnell über große Oberflächen ausbreiten, können sie ganze Ökosysteme gefährden.
Reinigung ohne Chemie
Das neue Verfahren kommt ohne den Einsatz von Chemikalien aus. Von herkömmlichen Bindemitteln wird das Öl zudem einfach aufgesaugt und kann dann später meist nur noch verbrannt werden. Anders bei der Superhydrophobie-Methode: „Das in den schwimmenden Behälter abgeschöpfte Öl ist so sauber, dass es sich wiederverwenden lässt“, erklärt Prof. Barthlott.
Das Verfahren ist nicht für großflächige Ölkatastrophen wie nach einem Tankerunglück gedacht. Aber gerade kleine Verschmutzungen – etwa durch Motoröl von Autos oder Schiffen, Heizöl oder Leckagen – sind ein drängendes Problem. „Besonders in stehenden oder langsam fließenden Gewässern werden auch geringe Mengen zu einer Gefahr für das Ökosystem“, betont der Biologe. Dort sieht er denn auch das Haupteinsatzpotenzial der neuen Methode, die von der Universität Bonn zum Patent angemeldet wurde.
Im Prinzip zeigen viele Oberflächen superhydrophobes Verhalten, wenn auch in unterschiedlichem Ausmaß. Grundvoraussetzung ist zunächst einmal, dass das Material selbst wasserabweisend ist – zum Beispiel aufgrund einer Wachs-Beschichtung. Das allein reicht aber nicht aus: „Superhydrophobie basiert immer auch auf bestimmten Strukturen auf der Oberfläche wie etwa kleinen Haaren oder Warzen – oft in nanotechnologischer Dimension“, sagt der Botaniker der Universität Bonn. Auch ihm ist zu verdanken, dass die Wissenschaft inzwischen sehr viel mehr über diese Zusammenhänge weiß als noch vor einigen Jahrzehnten.
Die Forschungsarbeiten werden von der Deutschen Bundesstiftung Umwelt DBU gefördert. „Das hilft uns nun dabei, in Kooperation mit der RWTH Aachen gezielt öladsorbierende Materialien mit besonders guten Transporteigenschaften zu entwickeln“, sagt Barthlott.
Wissenschaftliche Ansprechpartner:
Prof. em. Dr. Wilhelm Barthlott
Nees-Institut für Biodiversität der Pflanzen
Universität Bonn
Tel. 0228/732271 (Sekretariat)
E-Mail: barthlott@uni-bonn.de
Originalpublikation:
W. Barthlott, M. Moosmann, I. Noll, M. Akdere, J. Wagner, N. Roling, L. Koepchen-Thomä, M.A.K. Azad, K. Klopp, T. Gries & M. Mail (2020): Adsorption and superficial transport of oil on biological and bionic superhydrophobic surfaces: a novel technique for oil-water separation. Philosophical Transactions A., DOI: https://doi.org/10.1098/rsta.2019.0447
Weitere Informationen:
https://www.uni-bonn.de/neues/022-2020 Video
Quelle: IDW
Stress für die Seele ist eine Strapaze fürs Herz
Pierre König Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Herzstiftung informiert über Zusammenhang zwischen Herzkrankheiten und seelischen Belastungen sowie Hilfsangebote für Betroffene
Stress und seelische Belastungen erhöhen den Blutdruck und langfristig auch das Risiko, eine Herzerkrankung zu bekommen. Umgekehrt können Herzerkrankungen die Seele stark belasten. Seit einigen Jahren widmet sich die Psychokardiologie verstärkt diesem Zusammenhang und bietet unterstützende Therapien und Gespräche für Herzpatienten an. „Das Erleben einer schweren organischen Herzkrankheit führt bei Betroffenen fast immer zu Todesängsten, auch wenn sie nicht immer bewusst wahrgenommen werden“, sagt Prof. Dr. med. Christoph Herrmann-Lingen vom Wissenschaftlichen Beirat der Deutschen Herzstiftung und Direktor der Klinik für Psychosomatische Medizin und Psychotherapie der Universitätsmedizin Göttingen in der Titelgeschichte der aktuellen Ausgabe „HERZ heute“. Ausführliche Informationen über den Zusammenhang zwischen Herz und Psyche bietet die Herzstiftungs-Zeitschrift „HERZ heute“ 1/2020, die kostenfrei unter 069 955128400 angefordert werden kann.
Wie Stress Herz und Gefäße belastet
Stress hat unmittelbaren Einfluss auf das vegetative Nervensystem: Herz und Atmung beschleunigen sich, die Muskeln werden stärker durchblutet, wir werden aufmerksamer und reizbarer. Für unsere Vorfahren war das überlebenswichtig, denn bei Gefahr mussten sie kämpfen oder fliehen. Auch heute ermöglicht uns diese Körperreaktion, in Gefahrensituationen schnell zu reagieren und die maximale Körperkraft einzusetzen. Der heutige Stress ist allerdings – anders als früher – nur selten mit Muskelaktivität verbunden und hält häufig länger an – mit gesundheitlichen Folgen: „Eine Aktivierung von Herz und Kreislauf ohne Muskelaktivität lässt den Blutdruck steigen“, sagt Herrmann-Lingen. „Geschieht das über einen längeren Zeitraum, gewöhnt sich der Organismus an die zu hohen Werte. Eine Hochdruckerkrankung entwickelt sich.“ Auch die Blutgefäße verengen sich und verstopfen leichter, weil sich die Blutgerinnung bei Stress verändert. Fehlen die Erholungsphasen, belasten all diese Faktoren das Herz: „Langfristig können sich die Herzkranzgefäße stark verengen, es kann zu Schäden am Herzmuskel, Herzrhythmusstörungen bis hin zum Herzinfarkt oder Herzversagen kommen“, so der Mediziner.
Allerdings sind nicht alle Menschen gleich anfällig für Stress. Genetische Faktoren sowie Erfahrungen in der Kindheit entscheiden mit, wie stressanfällig wir später als Erwachsene sind. Manche Menschen empfinden bereits den Gedanken oder die Erinnerung an eine emotional belastende Situation als Stress. Die Körperreaktionen sind dann die gleichen wie bei „echtem“ Stress, obwohl die unmittelbare Gefahrensituation fehlt.
Teufelskreis aus Angst und Herzbeschwerden
Nicht selten erleben Betroffene bei Angst und Stress funktionelle Herzbeschwerden wie Herzrasen oder Herzstolpern, obwohl das Herz (noch) gesund ist. Eine rein körpermedizinische Behandlung bleibt dann erfolglos. Das verunsichert Betroffene und schränkt sie in ihrem Alltag ein. „Einige Patienten beobachten Puls, Blutdruck sowie Herzbeschwerden besonders genau und meiden positive Aktivitäten wie Sport, aus der – eigentlich unbegründeten – Sorge vor einem Herzinfarkt“, berichtet Prof. Herrmann-Lingen. Auch eine tatsächlich bestehende Herzkrankheit kann die Psyche stark belasten. Dies ist vor allem dann der Fall, wenn die Therapie mit zusätzlichen Belastungen einhergeht, etwa mit Schockabgaben eines implantierten Defibrillators oder häufigen Krankenhausaufenthalten. „In der Folge können sich Ängste und weitere psychische Probleme entwickeln, die wiederum das Herz belasten. Nicht selten kommt es zu einem Teufelskreis aus Herzkrankheit und psychischen Problemen.“
Hilfsangebote der Psychokardiologie
Um diesen Teufelskreis gar nicht erst entstehen zu lassen, arbeiten viele kardiologische Akutkliniken inzwischen eng mit psychosomatischen Diensten zusammen. Sie bieten den Patienten schon während des Krankenhausaufenthaltes unterstützende Gespräche sowie Hilfe bei der weiteren Therapieplanung an. So ist es hilfreich, zusätzlich zur medizinischen Behandlung Informationsveranstaltungen sowie Kurse zur Stressbewältigung zu besuchen. Auch Gespräche mit anderen Betroffenen können nützlich sein. Nicht zuletzt hilft oft ein konsequentes körperliches Trainingsprogramm, wieder Vertrauen in Herz und Körper zu fassen. Weitere Infos zu den Hilfsangeboten und einen Patienten-Erfahrungsbericht bietet der Expertenbeitrag „Hilfe für das Herz – und für die Seele“ von Prof. Herrmann-Lingen in HERZ heute 1/2020.
Rezensionsexemplar für Redaktionen
Ein Rezensionsexemplar der aktuellen Ausgabe von HERZ heute 1/2020 mit dem vollständigen Expertenbeitrag von Prof. Herrmann-Lingen sowie druckfähiges Bildmaterial erhalten Sie unter presse@herzstiftung.de oder per Tel. unter 069 955128114.
Aktuelle Ausgabe HERZ heute: Jetzt Probeexemplar anfordern!
Die Zeitschrift HERZ heute erscheint viermal im Jahr. Sie wendet sich an Herz-Kreislauf-Patienten und deren Angehörige. Mitglieder der Deutschen Herzstiftung erhalten die Zeitschrift der Deutschen Herzstiftung regelmäßig und kostenfrei. Ein kostenfreies Probeexemplar der neuen Ausgabe HERZ heute 1/2020 ist unter Tel. 069 955128400 oder per E-Mail unter bestellung@herzstiftung.de erhältlich.
Infos über bewährte Maßnahmen gegen Stress:
https://www.herzstiftung.de/Stress-Herz.html
Download-Link zu druckfähigem und honorarfreiem Bildmaterial (JPG):
www.herzstiftung.de/presse/bildmaterial/christoph-herrmann-lingen.jpg
Prof. Dr. med. Christoph Herrmann-Lingen
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
Originalpublikation:
Deutsche Herzstiftung (Hg.), HERZ heute, Ausg. 1/2020, Frankfurt a. M. 2020
Weitere Informationen:
https://www.herzstiftung.de/Stress-Herz.html
https://lwww.herzstiftung.de
Anhang
PM_5_DHS_Herz_und_Psyche
Quelle: IDW
Umweltradioaktivität: Bundesanstalt für Gewässerkunde veröffentlicht einzigartigen Datensatz
Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Im Rahmen der Umweltüberwachung der Bundeswasserstraßen ist die Bundesanstalt für Gewässerkunde (BfG) seit mehr als 60 Jahren am Monitoring der Umweltradioaktivität beteiligt. Entstanden ist ein einzigartiger zeitlich und räumlich hoch aufgelöster Datensatz. Teile dieses Datensatzes haben Wissenschaftler der BfG jetzt zusammen mit Wissenschaftlern vom Deutschen Wetterdienst und dem Helmholtz Zentrum in München in der aktuellen Ausgabe der Fachzeitschrift „Hydrological Processes“ veröffentlicht.
Der frei zugängliche Datensatz, der durch diese Zusammenarbeit entstanden ist, bietet durch seine hohe zeitliche und räumliche Auflösung einzigartige Möglichkeiten. Tritium ist ein oft und gern genutzter Indikator, um vielfältige hydrologische und hydrogeologische Fragestellungen zu beantworten. So kann zum Beispiel in Gebieten mit intensiver Wassernutzung oder spärlichem Wasserdargebot abgeschätzt werden, wieviel Niederschlag dem Grundwasser zufließt. Auch bei Fragen zum Verbleib von Stoffen in Gewässern kann Tritium helfen, Transportwege näher zu untersuchen. Gerade in Zeiten des Klimawandels sind diese Erkenntnisse von hoher wissenschaftlicher und gesellschaftlicher Relevanz und damit besonders wertvoll.
Wissenschaftliche Ansprechpartner:
Dr. Axel Schmidt (axel.schmidt@bafg.de)
Dr. Lars Düster (duester@bafg.de)
Originalpublikation:
Schmidt, A, Frank, G, Stichler, W, Duester, L, Steinkopff, T, Stumpp, C. Overview of tritium records from precipitation and surface waters in Germany. Hydrological Processes. 2020; 1- 5. https://doi.org/10.1002/hyp.13691
Quelle: IDW
Kurzes, intensives Training verbessert Gesundheit von Kindern
Ronja Münch Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Viele Kinder leiden unter Bewegungsmangel und haben in der Folge häufig gesundheitliche Probleme wie Übergewicht und Bluthochdruck. Dass sich dem mit simplen Methoden entgegenwirken lässt, zeigte ein Forschungsteam der Martin-Luther-Universität Halle-Wittenberg (MLU) und der Medical School Berlin (MSB). Sie integrierten ein hochintensives Intervalltraining (HIIT) in den regulären Sportunterricht und konnten innerhalb kürzester Zeit gesundheitliche Verbesserungen feststellen.
Beim hochintensiven Intervalltraining (HIIT) wechseln sich kurze Phasen intensiver körperlicher Belastung mit Erholungsphasen ab. „Je höher die Intensität ist, desto größer scheinen die Anpassungseffekte auch bei Kindern zu sein“, sagt Dr. Sascha Ketelhut vom Institut für Sportwissenschaft der MLU. Es komme also weniger darauf an, sich sehr lange zu bewegen, sondern sich in kurzer Zeit möglichst intensiv zu bewegen. „Interessanterweise entspricht genau diese intermittierende Belastungsform dem natürlichen Bewegungsverhalten von Kindern“, so Ketelhut. Kinder gehen nicht unbedingt längere Strecken Joggen. Vielmehr entspricht es ihrem natürlichen Spiel- und Bewegungsverhalten, dass sich intensive Belastungsphasen und kurze Erholungsphasen ständig abwechseln, wie beispielsweise bei Lauf- und Fangspielen.
Die Effekte von HIIT sind bei Erwachsenen gut untersucht, bei Kindern gibt es hierzu allerdings erst wenige wissenschaftliche Erkenntnisse außerhalb des Leistungssports. Ein Forschungsteam um Ketelhut integrierte die Methode daher in den regulären Sportunterricht von Drittklässlern. Die ersten 20 Minuten machten die Kinder statt des üblichen Schulsports bewegungsintensive Spiele wie Staffelläufe mit kurzen Sprints oder kurze Zirkeleinheiten, die immer wieder von kurzen Erholungszeiten unterbrochen wurden. „Wir haben dabei immer versucht, intensive Bewegungsformen auszuwählen, die aber zugleich Spaß machen“, sagt Ketelhut. Die Trainingseinheiten wurden häufig mit Musik und Choreographien verbunden. Die Studie lief lediglich über drei Monate, konnte in dieser Zeit aber bereits eindeutige Effekte erzielen. Sowohl in der Ausdauerleistungsfähigkeit als auch beim Blutdruck zeigten sich signifikante Verbesserungen über den Versuchszeitraum hinweg. Damit könne gesundheitlichen Problemen auch langfristig vorgebeugt werden, so Ketelhut. „Hoher Blutdruck bei Kindern führt häufig zu hohem Blutdruck im Erwachsenenalter.“
Die Ergebnisse sprechen dafür, HIIT in den regulären Sportunterricht zu integrieren, da diese Trainingsmethode effektiv, motivierend und kindgerecht zugleich sei, so Ketelhut. Das Training ist zudem sehr zeitökonomisch und lässt sich gut in das reguläre Schulsportcurriculum integrieren.
Wissenschaftliche Ansprechpartner:
Dr. Sascha Ketelhut
Martin-Luther-Universität Halle-Wittenberg
Institut für Sportwissenschaft
Telefon: +49 345 55-24435
E-Mail: sascha.ketelhut@sport.uni-halle.de
Originalpublikation:
https://doi.org/10.1055/a-1068-9331
Quelle: IDW
Wie sicher vier- und sechsstellige Handy-PINs sind
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Wie Nutzerinnen und Nutzer die PIN für ihr Handy wählen und wie man sie dazu bringen kann, eine sicherere Ziffernkombination zu verwenden, hat ein deutsch-amerikanisches Team von IT-Sicherheitsforschern untersucht. Sie stellten fest, dass sechsstellige PINs in der Praxis kaum mehr Sicherheit bringen als vierstellige. Außerdem zeigten sie, dass die Sperrliste, die der Hersteller Apple verwendet, um besonders häufige PINs zu verhindern, optimiert werden könnte und für Android-Geräte sogar sinnvoller wäre.
Philipp Markert, Daniel Bailey und Prof. Dr. Markus Dürmuth vom Horst-Görtz-Institut für IT-Sicherheit der Ruhr-Universität Bochum (RUB) kooperierten für die Studie mit Dr. Maximilian Golla vom Bochumer Max-Planck-Institut für Cybersicherheit und Schutz der Privatsphäre sowie Prof. Dr. Adam Aviv von der US-amerikanischen George Washington University. Die Ergebnisse, die sie vorab online stellten (https://arxiv.org/abs/2003.04868), präsentieren die Forscher im Mai 2020 auf dem IEEE Symposium on Security and Privacy in San Francisco.
Umfangreiche Nutzerstudie
In der Studie ließen die Wissenschaftler Nutzerinnen und Nutzer auf Apple- und Android-Geräten entweder vier- oder sechsstellige PINs vergeben und analysierten später, wie leicht diese zu erraten waren. Dabei gingen sie von einem Angreifer oder einer Angreiferin aus, die ihr Opfer nicht kennen und denen es egal ist, wessen Handy sie entsperren. Ihre beste Angriffsstrategie wäre es folglich, die wahrscheinlichsten PINs zuerst zu probieren.
Ein Teil der Probanden konnte die PIN in der Studie frei wählen. Andere konnten nur PINs wählen, die nicht auf einer Sperrliste standen. Versuchten sie eine der gesperrten PINs zu nutzen, erhielten sie eine Warnung, dass diese Ziffernkombination leicht zu erraten sei.
Für den Versuch nutzten die IT-Sicherheitsexperten verschiedene Sperrlisten, unter anderem die echte von Apple, die sie erhielten, indem sie einen Computer alle möglichen PIN-Kombinationen an einem I-Phone durchtesten ließen. Außerdem fertigten sie eigene unterschiedlich umfangreiche Sperrlisten an.
Sechsstellige PINs nicht sicherer als vierstellige
Die Auswertung ergab, dass sechsstellige PINs in der Praxis nicht mehr Sicherheit bringen als vierstellige. „Mathematisch gesehen besteht natürlich ein Riesenunterschied“, sagt Philipp Markert. Mit einer vierstelligen PIN lassen sich 10.000 verschiedene Kombinationen bilden, mit einer sechsstelligen eine Million. „Aber die Nutzer haben Vorlieben für bestimmte Kombinationen, manche PINs werden besonders häufig genutzt, beispielsweise 123456 und 654321″, erklärt Philipp Markert. Die Anwenderinnen und Anwender schöpfen das Potenzial der sechsstelligen Codes also nicht aus. „Scheinbar fehlt den Nutzern derzeit noch die Intuition, was eine sechsstellige PIN sicher macht“, vermutet Markus Dürmuth.
Eine vernünftig gewählte vierstellige PIN ist vor allem deswegen ausreichend sicher, weil die Hersteller die Anzahl der Versuche beschränken, wie häufig man eine PIN eingeben darf. Apple sperrt das Gerät nach zehn falschen Eingaben komplett. Auf einem Android-Smartphone kann man nicht beliebig schnell hintereinander verschiedene Codes eingeben. „In elf Stunden schafft man es, 100 Zahlenkombinationen zu testen“, erläutert Philipp Markert.
Sperrlisten können nützlich sein
Auf der Sperrliste von Apple für vierstellige PINs fanden die Forscher 274 Zahlenkombinationen. „Da man auf dem I-Phone aber eh nur zehn Rateversuche beim Eingeben der PIN hat, bringt die Sperrliste keinen Sicherheitsvorteil“, resümiert Maximilian Golla. Hilfreicher wäre die Sperrliste laut den Wissenschaftlern auf Android-Geräten, da Angreifer dort mehr PINs durchprobieren könnten.
Die ideale Sperrliste müsste laut der Studie bei vierstelligen PINs ungefähr 1.000 Einträge umfassen und etwas anders zusammengesetzt sein als die Liste, die Apple derzeit nutzt. Die häufigsten vierstelligen PINs laut Studie sind: 1234, 0000, 2580 (die Ziffern erscheinen auf dem Zahlenblock senkrecht untereinander), 1111 und 5555.
Auf dem I-Phone können Nutzerinnen und Nutzer die Warnung, dass sie eine häufig verwendete PIN eingegeben haben, ignorieren. Das Gerät verhindert also nicht konsequent, dass Einträge von der Sperrliste ausgewählt werden. Auch diesen Aspekt nahmen die IT-Sicherheitsexperten in ihrer Studie unter die Lupe. Ein Teil der Probanden, die eine PIN von der Sperrliste eingegeben hatten, durfte nach der Warnung wählen, ob sie eine neue PIN eingeben wollten oder nicht. Die übrigen mussten eine neue PIN setzen, die nicht auf der Liste stand. Im Durchschnitt waren die PINs beider Gruppen gleich schwer zu erraten.
Sicherer als Entsperrmuster
Ein weiteres Ergebnis der Studie war, dass vier- und sechsstellige PINs zwar unsicherer als Passwörter sind, aber sicherer als Entsperrmuster.
Die beliebtesten PINs
Nutzerinnen und Nutzer überlegen sich PINs, die sie schnell eintippen können oder die sie sich gut merken können – zum Beispiel, weil der Klang der Ziffernfolge eingängig ist, sie einem besonderen Datum entspricht oder ein bestimmtes Muster auf der Tastatur ergibt. Auch Zahlencodes, die nach T9-Texterkennung ein bestimmtes Wort ergeben (etwa 5683 als Ziffernfolge für „love“) kommen vor.
Die zehn beliebtesten vierstelligen PINs sind nach der aktuellen Studie: 1234, 0000, 2580, 1111, 5555, 5683, 0852, 2222, 1212, 1998 (sortiert nach absteigender Beliebtheit). Die beliebtesten sechsstelligen PINs: 123456, 654321, 111111, 000000, 123123, 666666, 121212, 112233, 789456, 159753
Wissenschaftliche Ansprechpartner:
Philipp Markert
Arbeitsgruppe Mobile Security
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
Tel.: +49 234 32 28669
E-Mail: philipp.markert@rub.de
Dr. Maximilian Golla
Max-Planck-Institut für Cybersicherheit und Schutz der Privatsphäre
Tel.: +49 234 32 28667
E-Mail: maximilian.golla@csp.mpg.de
Originalpublikation:
Philipp Markert, Daniel V. Bailey, Maximilian Golla, Markus Dürmuth, Adam J. Aviv: This PIN can be easily guessed, IEEE Symposium on Security and Privacy (SP ’20), San Francisco, USA, 2020
Quelle: IDW
Klima- und umweltschonende Technologie: Ammoniak als nachhaltiger Energieträger
Birte Vierjahn Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Ein bisschen Wasser, etwas Stickstoff aus der Luft, und Strom aus dem Windpark: Ammoniak besteht aus leicht verfügbaren Rohstoffen, und es wird als grüner Energieträger gehandelt. Hocheffizient kann aus Ammoniak wiederum Wasserstoff hergestellt werden, um nutzbare Energie zu erzeugen. Wissenschaftler der Universität Duisburg-Essen (UDE) und des Zentrums für BrennstoffzellenTechnik GmbH (ZBT) entwickeln dafür eine innovative Anlage: den Ammoniak-Cracker.
NH3toH2, in Worten „Ammoniak zu Wasserstoff“ lautet der Name des bis 2022 laufenden Projekts, an dessen Ende ein möglichst effizienter Cracker stehen soll, der direkt mit einer Brennstoffzelle gekoppelt werden kann. Im Labor des ZBT wird er entwickelt, Wissenschaftler des UDE-Lehrstuhls „Energietechnik“ unterstützen dabei. Dafür setzen die Forscher Simulationsmodelle ebenso ein wie Untersuchungen an realen Prototypen. Idealerweise steht am Ende des Projekts eine Anlage, deren Bestandteile wie Reaktor, Brenner, Wärmetauscher und Isolierung optimal aufeinander abgestimmt sind. Mittelpunkt der Technologie ist der Katalysator, für den in den kommenden Jahren der geeignetste Kandidat gefunden werden soll.
Energieversorgung ohne CO2
Ammoniak ist vielversprechend für eine nachhaltige, kohlenstofffreie Energieversorgung: Es kann aus leicht verfügbaren, günstigen Elementen hergestellt werden – künftig mit der Energie aus umweltverträglichen Quellen. Hierfür ließe sich Strom verwenden, der aus natürlichen Ressourcen kommt, sich aber bis heute nur unzureichend speichern lässt, z.B. aus großen Photovoltaikanlagen oder Windparks. Bei Bedarf kann flüssiges Ammoniak mithilfe des Crackers wieder in seine Bestandteile Wasserstoff und Stickstoff zerlegt werden. Das so erzeugte Gas setzt eine Brennstoffzelle in elektrische Energie um, als Abgas bilden sich wiederum nur Wasser, Stickstoff und Sauerstoff.
Solche ammoniakversorgten Brennstoffzellensysteme können beispielsweise klimaschädliche Dieselaggregate in Entwicklungs- und Schwellenländern ersetzen, in denen kein zuverlässiges elektrisches Netz vorhanden ist. Der Vorteil gegenüber einer direkten Nutzung von Wasserstoff: Ammoniak hat eine hohe Energiedichte, ist einfach zu transportieren und unkompliziert zu speichern. NH3 bietet somit gerade bei der Herausforderung Klimawandel ein enormes Potenzial, Treibhausgasemissionen zu verringern.
Das Vorhaben wird aus Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) gefördert.
Wissenschaftliche Ansprechpartner:
Florian Nigbur, Energietechnik, Tel. 0203/37 9-2109, florian.nigbur@uni-due.de
Michael Steffen, ZBT, Tel. 0203/7598-3033, m.steffen@zbt.de
Quelle: IDW
Zucker und Süßungsmittel: Lieber weniger süß als Zucker-Ersatz
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Ernährungsfachgesellschaft mit Sitz an der Uni Hohenheim erklärt: Zucker nur im Übermaß ungesund, Süßungsmittel noch weitgehend unerforscht / SNFS Dialog in Berlin
Übermäßiger Zuckerkonsum ist gesundheitsschädlich. Doch wer Zucker reduzieren möchte, nimmt am besten weniger zuckerhaltige Lebensmittel zu sich. Anzuraten ist auch, die eigene Süßpräferenz, also die Schwelle der Wahrnehmung für Süßes, zu senken. Süßungsmittel als Zuckerersatz stellen nur die zweitbeste Lösung dar – zumal es hier noch viele offene Fragen gibt. Das rät die Ernährungsfachgesellschaft Society of Nutrition and Food Science (SNFS) mit Sitz an der Universität Hohenheim in Stuttgart. Im Rahmen der Veranstaltungsreihe „SNFS Dialog“ diskutierten die Forscher am 6. Februar 2020 gemeinsam mit ausgewiesenen internationalen Experten an der Charité in Berlin über das Thema „Wo Mythen und Fakten weit auseinanderliegen: Zucker, Zuckeralkohole und Süßstoffe“.
Vor allem versteckt in Lebensmitteln kann er ein Problem darstellen: Zucker hat einen schlechten Ruf. Doch die Kalorienbombe gilt andererseits auch als ein geschmackvoller Bestandteil von Lebensmitteln. Einen Ausweg scheinen zunächst Süßungsmittel darzustellen.
„Um Zucker und seine Alternativen ranken sich viele Mythen, die bisweilen von den Fakten weit entfernt sind“, stellt Prof. Dr. Jan Frank fest, der als Ernährungswissenschaftler an der Universität Hohenheim und Vorsitzender der SNFS fungiert. „Auch Süßungsmittel sind gesundheitlich nicht unumstritten. Daher haben wir in unserer Veranstaltungsreihe SNFS Dialog den aktuellen Forschungsstand zu diesem Thema gemeinsam mit ausgewiesenen Experten zusammengefasst.“
Nur ein Zuviel an Zucker ist schädlich
„Als Kernproblem beim Zuckerkonsum stellt sich – neben seiner Karies-fördernden Wirkung – die Kalorienzufuhr heraus“, bestätigt auch Prof. em. Dr. Hannelore Daniel vom Lehrstuhl für Ernährungsphysiologie an der TU München. Die Produktgruppe der gesüßten Getränke sei besonders problematisch, warnt sie. „Denn hiermit erfolgt die Kalorienzufuhr schnell und in großen Mengen, aber nur mit geringem Sättigungssignal.“
Doch sei Zuckerkonsum nicht per se schädlich, so die Wissenschaftlerin weiter. „Die metabolischen Folgen des Konsums von Saccharose, Glucose und Fructose sind nur bei einer insgesamt hyperkalorischen Ernährungsweise zu belegen, wenn man also mehr Kalorien zu sich nimmt als man benötigt.“ Würden dagegen die Zucker isokalorisch bei bedarfsdeckender Kalorienzufuhr ausgetauscht – beispielsweise gegen Fett mit ebenso viel Kalorien – gäbe es keine gesundheitsschädlichen Effekte.
Appell für weniger Zucker…
Der übermäßige Konsum von Zucker sollte grundsätzlich vermieden werden, warnt PD Dr. Anne Christin Meyer-Gerspach vom St. Claraspital / St. Clara Forschung AG in Basel: „Ein hoher Zuckerkonsum erweist sich als direkt gesundheitsschädigend für diverse Organsysteme und ist mitverantwortlich für Karies, Übergewicht, metabolisches Syndrom mit beeinträchtigter Glukosetoleranz bis zum Diabetes mellitus, Blutfettstörungen, Bluthochdruck, Leberverfettung und Herz-Kreislauferkrankungen. Ein Zuviel an Zucker stellt ein Risiko für unsere Gesundheit dar,“ fasst die Expertin zusammen.
Andererseits seien aber auch die Effekte von Zuckerersatzstoffen noch zu wenig erforscht: „Es fehlen zum Teil Humanstudien und insbesondere Langzeitstudien. Entscheidend ist aber, dass nicht alle Zuckeralternativen gleich wirken und hinsichtlich ihres Effekts auf beispielsweise den Stoffwechsel und die Darmgesundheit gesondert beurteilt werden müssen. Jede süß schmeckende Substanz besitzt ein einzigartiges Wirkprofil – es geht nun darum, den metabolen Effekt jeder einzelnen Substanz zu untersuchen. Nicht jede Substanz, die süß schmeckt, stellt sich automatisch als ungesundes Nahrungsmittel heraus. Es gibt sogar Substanzen, die zumindest im Tiermodell bei regelmäßigem Konsum positive Auswirkungen haben.“
...und einen weniger süßen Geschmack der Lebensmittel
Ein weiterer entscheidender Punkt beim Verbraucher bezieht sich auf die Gewöhnung an den süßen Geschmack, was eine große Nachfrage nach süßen Lebensmitteln hervorbringt: „Das Ziel muss sein, nicht nur den Zucker in der Nahrung zu reduzieren, sondern vor allem den Verbrauchern ihre Vorliebe für süßen Geschmack abzugewöhnen“, betont PD Dr. Meyer-Gerspach. „Dann kann man den Zucker mit einer breiten Palette von unterschiedlichen süß schmeckenden Substanzen ersetzen und dabei vermehrt auf natürlich vorkommende, gesündere Zuckerersatze wie Erythritol und Xylitol zurückgreifen.“
Dass dieser Weg nicht einfach ist, hat ein Hohenheimer Forschungsteam bereits vor einigen Jahren festgestellt: Auf ein zu schnelles und zu deutliches Reduzieren des Zuckers reagieren die Geschmacksnerven negativ und signalisieren dem Körper, dass das Produkt nicht schmecke. Die Menschen nehmen daher eine deutliche Reduktion der Geschmacksstoffe nicht an und müssen erst langsam und schrittweise daran gewöhnt werden. https://www.uni-hohenheim.de/pressemitteilung?tx_ttnews[tt_news]=21571
Statt Süßungsmittel im Feingebäck: lieber weniger essen
Will man den Zuckeranteil von Lebensmitteln reduzieren, ohne den Süßgeschmack zu verringern, kann dies mit Süßungsmitteln wie Zuckeralkoholen oder Süßstoffen geschehen. Das hat jedoch Nachteile bei der Herstellung: Denn werden Süßstoffe verwendet, sind die eingesetzten Mengen im Vergleich zu Zucker gering, weshalb die fehlende Menge im Rezept durch andere Zutaten ersetzt werden muss. Bei Zuckeralkoholen besteht dieses Problem nicht: sie werden mengenmäßig wie Zucker verwendet.
Hinzu kommen weitere Faktoren, wie Univ. Lektor Dipl. Ing. Alfred Mar, Präsident der Internationalen Gesellschaft für Getreidewissenschaft und -technologie – Austria (ICC-Austria) und Lehrbeauftragter an der Universität für Bodenkultur, Wien, am Beispiel von sogenannten „Feinen Backwaren“ erläutert. So seien die Süßungsmittel als Substrat für Hefe praktisch ungeeignet, das Gebäck bräunt nicht mehr so gut, aufgeschlagenes Eiweiß ist weniger stabil und die mikrobiologische Haltbarkeit verändert sich.
Zuckeralkohole hätten zudem einen weiteren Nachteil: „Mehrwertige Alkohole senken zwar den Zuckergehalt, nicht jedoch den Kohlenhydratgehalt. Zuckeralkohole liefern, im Vergleich zu Zucker, nur etwa 60 Prozent der Energie.“ Hinzu käme ein lebensmittelrechtliches Problem: „Süßungsmittel sind lebensmittelrechtlich nur eingeschränkt auf ‚Feine Backwaren für besondere Ernährungsbedürfnisse‘ und mit geregelten Höchstmengen zu verwenden“, so der Experte. „Außerdem sind die Nährwerte der Ersatz-Zutaten mit einzukalkulieren. Insgesamt ermöglichen Zuckeralkohole und andere Süßungsmittel somit nur eine moderate Reduktion des Brennwertes von Lebensmitteln.“
HINTERGRUND: Society of Nutrition and Food Science e.V. (SNFS)
Die Society of Nutrition and Food Science e.V. (SNFS) ist ein gemeinnütziger Verein mit Sitz an der Universität Hohenheim, der allen Personen, die ein Interesse an den Ernährungs- und Lebensmittelwissenschaften haben, eine gemeinsame Plattform bietet und die Forschung und Ausbildung in diesem Bereich voranbringen möchte. Die SNFS veröffentlicht wertfreie Stellungnahmen zu aktuellen, kontroversen Forschungsergebnissen aus den Ernährungs- und Lebensmittelwissenschaften. Außerdem veranstaltet sie internationale Kongresse, Dialogveranstaltungen, Workshops, Seminare sowie Symposien und ist Herausgeberin einer wissenschaftlichen Fachzeitschrift, NFS Journal (https://www.journals.elsevier.com/nfs-journal).
Weitere Informationen
SNFS-Homepage: http://www.snfs.org
Kontakt für Medien
Prof. Dr. Jan Frank, Universität Hohenheim, Leiter des Fachgebiets Biofunktionalität der Lebensmittel und Vorsitzender der SNFS
T 0711 459 24410, E info@snfs.org
Zu den Pressemitteilungen der Universität Hohenheim
www.uni-hohenheim.de/presse
Quelle: IDW
Neuer Methanrechner zur Optimierung von Biogasanlagen jetzt online verfügbar
Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik und Bioökonomie e.V. (ATB)
Im Projekt Opti-Methan (Förderung: BMEL/FNR) hat das Leibniz-Institut für Agrartechnik und Bioökonomie einen Online-Rechner entwickelt, der eine genauere Berechnung der Methanbildung in bestehenden Biogasanlagen ermöglicht. Anlagenbetreiber können erstmals anstelle der üblichen Standardwerte auch die Daten der betriebseigenen Gasproduktion nutzen, um das Potential ihrer Anlage zu kalkulieren und noch besser auszuschöpfen.
Üblicherweise werden zur Planung neuer Biogasanlagen oder auch zur Bewertung bestehender Anlagen Standardwerte herangezogen, die zum Beispiel auf Gärtests mit bestimmten Substraten beruhen. Wichtig für die spezifische Abbauleistung sind unter anderem die Raumbelastung, also wie viel organische Trockensubstanz dem Fermenter pro Raum- und Zeiteinheit zugeführt wird, und die hydraulische Verweilzeit, also die Zeitdauer, die ein Substrat für den Abbau im Fermenter verbleibt. Die betriebsspezifischen Parameter blieben bislang unberücksichtigt.
„Unser neues Berechnungs-Tool erlaubt, auch Daten der eigenen Anlagenstruktur und Prozessgestaltung in das Modell zu integrieren“, erläutert Projektleiterin Dr. Christiane Herrmann. „So lassen sich die spezifischen Eigenschaften der jeweiligen Anlage berücksichtigen. Insbesondere die Verweilzeit ist ein entscheidender Faktor, der sich auf die Methanbildung entlang der gesamten Prozesskette auswirkt.“
„Mit Hilfe des Tools können wir die Umsetzung des Substrats besser bewerten, Schwachstellen in der Prozessführung erkennen und Maßnahmen definieren, die zu höherer Methanbildung oder Substratausnutzung in der Biogasanlage führen“, beschreibt Dr. Christiane Herrmann die Vorteile des Tools. Auf Basis der Berechnungsergebnisse kann dann beispielsweise die Beschickung der Biogasanlage optimiert und dadurch die Methanausbeute im Fermenter erhöht werden. „Letztlich erreichen wir dadurch auch, dass der gelagerte Gärrest dann weniger klimaschädliches Methan emittiert“, ergänzt die ATB-Wissenschaftlerin.
Der neue Methanrechner steht online kostenfrei zur Verfügung unter: http://www2.atb-potsdam.de/opti-methan/Rechner.html
An zehn landwirtschaftlichen Biogasanlagen an Standorten in fünf Bundesländern wurde das Berechnungsmodell im Projekt erfolgreich angewendet. Das Online-Tool ist derzeit nutzbar für mesophil betriebene Biogasanlagen mit Rührkesselreaktoren, die Mischungen aus nachwachsenden Rohstoffen und Wirtschaftsdüngern verwerten. Die Ergebnisse der Optimierungsberechnung können als PDF-Datei ausgegeben oder für die Weiternutzung zu einem späteren Zeitpunkt lokal gespeichert werden.
In den kommenden Monaten soll die Auswahl von Substraten noch erweitert werden und noch fehlende Elemente des Tools zur Planung neuer Anlagen (Punkt 2) ergänzt werden.
Das 2019 abgeschlossene Projekt „Optimierung der Methanausbeute in landwirtschaftlichen Biogasanlagen – Opti-Methan“ (FKZ: 22404715) wurde aus Mitteln des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) finanziell gefördert und vom Projektträger Fachagentur Nachwachsende Rohstoffe e.V. (FNR) unterstützt.
Die Forschung des Leibniz-Instituts für Agrartechnik und Bioökonomie e.V. (ATB) an der Schnittstelle von biologischen und technischen Systemen hat das Ziel, Grundlagen für nachhaltige bioökonomische Produktionssysteme zu schaffen. Dazu entwickelt und integriert das ATB neue Technologien und Managementstrategien für eine wissensbasierte, standortspezifische Produktion von Biomasse und deren Nutzung für die Ernährung, als biobasierte Produkte und Energieträger – von der Grundlagenforschung bis zur Anwendung.
Wissenschaftliche Ansprechpartner:
Dr. Christiane Herrmann – Projektleiterin Opti-Methan
E-Mail: cherrmann@atb-potsdam.de; Tel.: +49 331 5699-231
Originalpublikation:
Der Abschlussbericht des Projekts „Optimierung der Methanausbeute in landwirtschaftlichen Biogasanlagen (Opti-Methan)“ steht als PDF auf dem Server der Fachagentur Nachwachsende Rohstoffe bereit: https://www.fnr.de/index.php?id=11150&fkz=22404715
Quelle: IDW
Ansteckung mit dem Coronavirus: Am meisten gefürchtet sind andere Menschen – und Türklinken
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Der „Corona-Monitor“ des Bundesinstituts für Risikobewertung zeigt, wie die Bevölkerung in Deutschland die aktuelle Situation einschätzt
Welche Befürchtungen treiben die Menschen in Deutschland beim Thema neuartiges Coronavirus und Infektionsrisiko besonders um? Als einen wahrscheinlichen Übertragungsweg für den Krankheitserreger sehen sie hauptsächlich die Nähe zu anderen Menschen (81 Prozent) und verunreinigte Türklinken (61 Prozent) an. Dies zeigen erste Ergebnisse des „Corona-Monitors“ des Bundesinstituts für Risikobewertung (BfR). „Künftig wollen wir jede Woche messen, wie die Bevölkerung in Deutschland das Risiko durch das neuartige Coronavirus wahrnimmt“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Wir hoffen, dass uns diese repräsentative Umfrage damit eine Art ‚Fieberkurve‘ liefert, aus der sich ablesen lässt, wie die Menschen das Risiko einschätzen und mit ihm umgehen.“
BfR Corona MONITOR – Stand 24. März 2020
https://www.bfr.bund.de/cm/343/200324-bfr-corona-monitor.pdf
Die Befragten sehen ein vergleichsweise hohes Ansteckungsrisiko bei Bargeld (45 Prozent). Die Wahrscheinlichkeit einer Übertragung des Corona-Virus durch Lebensmittel, Haustiere oder Kleidung wird hingegen meist als niedrig eingeschätzt.
32 Prozent der Befragten ergreifen bislang keine Maßnahmen, um sich oder ihre Familie vor einer Infektion mit dem Corona-Virus zu schützen. Rund zwei Drittel geben dagegen an, sich vor einer Ansteckung schützen zu wollen. Mit Abstand am häufigsten wird hier das Meiden der Öffentlichkeit genannt. Viele setzen zudem auf häufiges und gründliches Händewaschen, Abstand zu anderen Menschen sowie Desinfektionsmittel. Wurden die Interviewpartner vor die Wahl gestellt, sich entweder mit Wasser und Seife oder mit Desinfektionsmittel die Hände reinigen zu können, so entschied sich die überwiegende Mehrheit (84 Prozent) für Wasser und Seife. Trotz der Maßnahmen sind sich jedoch nur 28 Prozent sicher, dass sie sich vor einer Ansteckung schützen können.
Die gesundheitlichen Folgen einer Erkrankung am neuartigen Coronavirus SARS-CoV-2 wurden unterschiedlich eingeschätzt. Während 41 Prozent eher geringe Auswirkungen auf die eigene Gesundheit erwarten, schätzen 37 Prozent diese als durchaus bedeutsam ein. Das Coronavirus wird damit derzeit als bedrohlicher angesehen als eine Grippeerkrankung.
Die angeordneten Maßnahmen zur Eindämmung des Erregers werden insgesamt sehr positiv beurteilt: Mehr als 90 Prozent der Befragten bewerten Maßnahmen wie Schulschließungen, Quarantänemaßnahmen oder das Anfang der Woche angeordnete Kontaktverbot als gerechtfertigt. Das Schließen der meisten Geschäfte oder das Verhängen einer Ausgangssperre wurden von 86 bzw. 74 Prozent der Befragten als angemessen beurteilt.
Die überwiegende Mehrheit der Bevölkerung (72 Prozent) fühlt sich zudem gut über das Geschehen ins Bild gesetzt und informiert sich über Fernsehen, Internet und Printmedien. Von offiziellen Stellen wurde das Robert Koch-Institut am häufigsten als Informationsquelle genannt.
In der sich dynamisch verändernden Situation aktualisiert das BfR kontinuierlich seine FAQs zum Thema Coronavirus.
https://www.bfr.bund.de/de/kann_das_neuartige_coronavirus_ueber_lebensmittel_und…
Über den BfR Corona-Monitor
Der BfR Corona-Monitor ist eine wiederkehrende (mehrwellige) repräsentative Befragung zur Risikowahrnehmung der Bevölkerung in Deutschland gegenüber dem neuartigen Coronavirus. Seit dem 24. März 2020 werden dazu jeden Dienstag rund 500 zufällig ausgewählte Personen per Telefon unter anderem zu ihrer Einschätzung des Ansteckungsrisikos und zu den von ihnen getroffenen Schutzmaßnahmen befragt. Eine Zusammenfassung der Daten wird regelmäßig auf der Homepage des Bundesinstituts für Risikobewertung veröffentlicht. Mehr Informationen zur Methode und Stichprobe finden sich in den Veröffentlichungen zum BfR Corona-Monitor.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: IDW
Experte des Karlsruher Instituts für Technologie zur Corona-Pandemie: Gesellschaftliche und technische Folgen der Krise
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Die Coronakrise hat Deutschland fest im Griff. Das Abstandhalten oder Social Distancing prägt unseren Alltag, privat wie beruflich. Digitale Technologien sind dabei eine große Hilfe, können analoge Kommunikation auf Dauer aber nicht ersetzen, sagt Armin Grunwald, Experte für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT). Gleichzeitig gelte es, uns unsere Abhängigkeit von Technologien und Wirtschaftsprozessen stärker ins Gedächtnis zu rufen: „Wir brauchen Pläne B – und Technologien, die nicht alles auf eine Karte setzen.“ Zudem warnt er davor, das drängende Klimaproblem aus den Augen zu verlieren.
Digitale Kommunikationstechnologien unterstützen uns derzeit dabei, die Folgen der Krise abzufedern. Kann die Technik auch helfen, noch größere ökonomische und gesellschaftliche Verwerfungen zu verhindern?
Armin Grunwald: Die Digitalisierung hilft sehr, in der Krise vieles aufrechtzuerhalten, was analog zurzeit nicht geht: vom Homeoffice mit Videokonferenzen bis zum Schulunterricht oder universitären Lehrbetrieb von zu Hause aus. Allerdings ist Technik nicht alles. Sie macht den Verlust von Gemeinschaft und die soziale Isolierung für eine gewisse Zeit zwar leichter erträglich, bleibt aber doch nur ein Ersatz für echte menschliche Begegnung. Für manche Zwecke wie organisatorische Besprechungen ist sie ein sehr guter, für andere wie Gottesdienste oder Live-Konzerte eher ein fader Ersatz.
Wird sich unser Arbeitsleben auch über die Krise hinaus dauerhaft verändern?
Grunwald: Wir lernen unter dem aktuellen Zwang viel schneller, mit den digitalen Werkzeugen umzugehen. Wir lernen, analoge und digitale Formate in ihren jeweiligen Vor- und Nachteilen viel besser einzuschätzen. Das gilt für digitalen Unterricht genauso wie für berufliche Dinge oder auch private Kommunikation. Ich denke schon, dass wir mit dieser neu erworbenen oder stark vertieften Kompetenz bessere Kombinationen von analog und digital im Arbeitsleben auch auf Dauer behalten werden. Aber: Gerade komplexe inhaltliche Diskussionen funktionieren in der digitalen Ersatzkommunikation eher schlecht. So lebt unter anderem die Wissenschaft vom inhaltlichen Dialog, vom lebendigen Austausch, vom Brainstorming, von neuen Konstellationen, vom Streit um das beste Argument.
Neben dem Social Distancing werden auch technische Lösungen diskutiert, um die Pandemie einzudämmen, beispielsweise die Erhebung von Bewegungsprofilen. Welche unerwünschten Folgen müssen wir bei ihrem Einsatz im Auge behalten?
Grunwald: Totalkontrolle wäre aus Sicht mancher Wissenschaftler und Politiker eine schöne technische Lösung zur Überwachung und Isolierung, zum Beispiel auch von Gefährdern und Gefährdeten. Dann könnten die anderen weitgehend normal weiterleben. Dahinter stehen komplexe Abwägungen, für die es nicht einfach eine Bewertung nach richtig oder falsch gibt. Ich halte solche Überlegungen in Notstandszeiten – auch wenn wir dieses Wort nicht verwenden sollen – für legitim, wenn die Maßnahmen hart zweckgebunden und auf ein Minimum beschränkt werden, sowie ihre Durchführung streng überwacht wird. Das können mögliche Übergangslösungen sein, sobald das Social Distancing gelockert wird, um ein Wiederaufflackern der Virusausbreitung zu verhindern.
Die aktuellen politischen und gesellschaftlichen Kraftanstrengungen sind enorm: Ein Vorbild für die Bewältigung anderer globaler Herausforderungen wie der Klimakrise?
Grunwald: Die Coronakrise verringert die Umweltverschmutzung, die Wirtschaft runterzufahren, nützt dem Klima. Aber das ist nun wirklich keine Lösung! Ich befürchte, dass das gerade wieder erwachte Problembewusstsein zum Klimawandel erstmal weg ist. Auch einflussreiche Zeitungen schreiben schon, dass angesichts des Virus das Klima vielleicht doch nur ein Scheinproblem sei. Das ist gefährlich, denn das Klimaproblem bleibt und wird sich verschärfen.
Welche Schlüsse sollten wir aus der derzeitigen Situation ziehen? Muss Technologieentwicklung künftig verstärkt auf ihre Resilienz in Krisensituationen ausgerichtet sein?
Grunwald: Unbedingt müssen wir uns unsere krasse Abhängigkeit von Technologien und Wirtschaftsprozessen stärker ins Gedächtnis rufen. Ohne Strom und Internet, ohne globale Lieferketten und Mobilität bricht alles zusammen. Wir haben uns zu sehr daran gewöhnt, dass immer alles funktioniert. Ist ja auch bequem. So wurden auch Studien zu möglichen Virusepidemien weitgehend ignoriert. Wir brauchen viel stärker ein Bewusstsein, dass auch alles anders laufen könnte, auch wenn das unbequem ist und die abendliche Gemütlichkeit auf dem Sofa stört. Wir brauchen Pläne B für den Fall der Fälle. Und wir brauchen Technologien, die nicht alles auf eine Karte setzen. Das kann für Dezentralisierung sprechen, zum Beispiel in der Energiewende oder im Digitalbereich.
Die Expertise von Wissenschaftlerinnen und Wissenschaftlern hat derzeit einen hohen Stellenwert in der Bevölkerung und großen Einfluss auf politische Entscheidungen. Stehen wir vor grundsätzlichen Veränderungen bei der wissenschaftlichen Beratung von Politik und Gesellschaft?
Grunwald: An der Schnittstelle zwischen Politik und Gesellschaft laufen seit Jahrzehnten Veränderungen. Wissenschaft ist gefragt, steht aber auch unter Legitimationsdruck. Daran ändert die Krise nichts. Wissenschaft steht vielleicht noch ein wenig stärker in der gesellschaftlichen Verantwortung als zuvor. Aber da gehört sie auch hin, und das nicht nur als Virologie, sondern übergreifend.
Armin Grunwald ist Physiker und Philosoph. Am KIT leitet er das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS). Als Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) in Berlin ist er seit vielen Jahren in der Politikberatung aktiv.
Für weitere Informationen stellt der Presseservice des KIT gern Kontakt zum Experten her.
Bitte wenden Sie sich an Margarete Lehné, Tel. 0721 608-21157, E-Mail an margarete.lehne@kit.edu, oder das Sekretariat, Tel. 0721 608-21105, E-Mail an presse@kit.edu
Quelle: IDW
Wie lang Coronaviren auf Flächen überleben und wie man sie inaktiviert
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Wie lange leben Coronaviren auf Oberflächen wie Türklinken oder Krankenhausnachttischen? Mit welchen Mitteln lassen sie sich wirksam abtöten? Alle Antworten, die die Forschung zu solchen Fragen derzeit kennt, hat ein Forschungsteam aus Greifswald und Bochum zusammengestellt und am 6. Februar 2020 im Journal of Hospital Infection veröffentlicht.
Verbreitung über Tröpfchen, Hände und Oberflächen
Das neuartige Coronavirus 2019-nCoV macht weltweit Schlagzeilen. Da es keine spezifische Therapie dagegen gibt, ist besonders die Vorbeugung gegen Ansteckungen bedeutend, um die Krankheitswelle einzudämmen. Wie alle Tröpfcheninfektionen verbreitet sich das Virus auch über Hände und Oberflächen, die häufig angefasst werden. „Im Krankenhaus können das zum Beispiel Türklinken sein, aber auch Klingeln, Nachttische, Bettgestelle und andere Gegenstände im direkten Umfeld von Patienten, die oft aus Metall oder Kunststoff sind“, erklärt Prof. Dr. Günter Kampf vom Institut für Hygiene und Umweltmedizin der Universitätsmedizin Greifswald.
Gemeinsam mit Prof. Dr. Eike Steinmann, Inhaber des Lehrstuhls für Molekulare und Medizinische Virologie der Ruhr-Universität Bochum (RUB), hatte er für ein geplantes Fachbuch bereits umfassende Erkenntnisse aus 22 Studien über Coronaviren und deren Inaktivierung zusammengestellt. „In der aktuellen Situation schien es uns das Beste, diese gesicherten wissenschaftlichen Fakten vorab zu veröffentlichen, um alle Informationen auf einen Blick zur Verfügung zu stellen“, so Eike Steinmann.
Auf Oberflächen bis zu neun Tage lang infektiös
Die ausgewerteten Arbeiten, die sich unter anderem mit den Erregern Sars-Coronavirus und Mers-Coronavirus befassen, ergaben zum Beispiel, dass sich die Viren bei Raumtemperatur bis zu neun Tage lang auf Oberflächen halten und infektiös bleiben können. Im Schnitt überleben sie zwischen vier und fünf Tagen. „Kälte und hohe Luftfeuchtigkeit steigern ihre Lebensdauer noch“, so Kampf.
Tests mit verschiedensten Desinfektionslösungen zeigten, dass Mittel auf der Basis von Ethanol, Wasserstoffperoxid oder Natriumhypochlorit gegen die Coronaviren gut wirksam sind. Wendet man diese Wirkstoffe in entsprechender Konzentration an, so reduzieren sie die Zahl der infektiösen Coronaviren binnen einer Minute um vier sogenannte log-Stufen, was zum Beispiel bedeutet von einer Million auf nur noch 100 krankmachende Partikel. Wenn Präparate auf anderer Wirkstoffbasis verwendet werden, sollte für das Produkt mindestens eine Wirksamkeit gegenüber behüllten Viren nachgewiesen sein („begrenzt viruzid“). „In der Regel genügt das, um die Gefahr einer Ansteckung deutlich zu reduzieren“, meint Günter Kampf.
Erkenntnisse sollten auf 2019-CoV übertragbar sein
Die Experten nehmen an, dass die Ergebnisse aus den Untersuchungen über andere Coronaviren auf das neuartige Virus übertragbar sind. „Es wurden unterschiedliche Coronaviren untersucht, und die Ergebnisse waren alle ähnlich“, sagt Eike Steinmann.
Originalveröffentlichung
Günter Kampf, Daniel Todt, Stephanie Pfaender, Eike Steinmann: Persistence of coronaviruses on inanimate surfaces and its inactivation with biocidal agents, in: Journal of Hospital infection 2020, DOI: 10.1016/j.jhin.2020.01.022
Pressekontakt
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de
Prof. Dr. Günter Kampf
Institut für Hygiene und Umweltmedizin
Universitätsmedizin Greifswald
E-Mail: guenter.kampf@uni-greifswald.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de
Prof. Dr. Günter Kampf
Institut für Hygiene und Umweltmedizin
Universitätsmedizin Greifswald
E-Mail: guenter.kampf@uni-greifswald.de
Originalpublikation:
Günter Kampf, Daniel Todt, Stephanie Pfaender, Eike Steinmann: Persistence of coronaviruses on inanimate surfaces and its inactivation with biocidal agents, in: Journal of Hospital infection 2020, DOI: 10.1016/j.jhin.2020.01.022
Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S0195670120300463?via%3Dihub – Originalveröffentlichung
Quelle: IDW
Rätsel um Recycling-Truppe im Meer gelöst
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Der Stickstoffkreislauf im küstennahen Meer ist sehr wichtig für den Abbau von überschüssigen Nährstoffen, die aus den Flüssen ins Meer gespült werden. Trotzdem sind viele seiner Aspekte immer noch nicht ausreichend erforscht. Forschenden aus Bremen ist es nun gelungen, ein lange ungelöstes Rätsel in einem Schlüsselprozess des Stickstoffkreislaufs aufzuklären.
Einer fehlt – so lässt sich kurz das Mysterium beschreiben, das die Forschung lange beschäftigte. Konkret geht es dabei um die Nitrifikation, also die Umwandlung der Stickstoffverbindung Ammoniak erst in Nitrit und dann in Nitrat – ein wichtiger Teil des marinen Stickstoffkreislaufs. Im Meer sind diese zwei Prozesse ausgeglichen und der Großteil des verfügbaren Stickstoffs liegt als Nitrat, dem Endprodukt der Nitrifikation, vor. Wer den ersten Schritt dieser zweigeteilten Umwandlung im Meer ausführt, ist schon länger geklärt: Ammoniak oxidierende Archaea, die zu den häufigsten Organismen auf unserem Planeten zählen, verarbeiten das Ammonium zu Nitrit.
Den zweiten Part, die Verwandlung von Nitrit zu Nitrat, übernehmen Nitrit-oxidierende Bakterien, vor allem Nitrospinae. Da es von diesen Bakterien aber zehn Mal weniger gibt als von den Ammoniak-oxidierenden Archaea, vermuteten Wissenschaftlerinnen und Wissenschaftler, dass es noch andere, unbekannte, aber sehr häufige Nitrit-Oxidierer geben muss.
Schneller wachsen, schneller sterben
Forschende des Max-Planck-Instituts für Marine Mikrobiologie konnten dieses Mysterium zusammen mit Kolleginnen und Kollegen der Universität Wien sowie der University of Southern Denmark und des Georgia Institute of Technology jetzt lösen. „Wir zeigen mit unseren Daten, dass wir überraschenderweise vermutlich schon alle Mitspieler kennen“, sagt Katharina Kitzinger, Erstautorin der Veröffentlichung, die Anfang Februar im Fachmagazin Nature Communications erschienen ist.
Bisher wurde hauptsächlich die Anzahl der am Prozess beteiligten Mikroben erhoben. Die Forschenden um Katharina Kitzinger haben dagegen auch die Biomasse der Mikroorganismen sowie die Wachstumsraten und Aktivität einzelner Zellen untersucht. Die Erklärung dafür, weshalb die Ammoniak-oxidierenden Archaea zehn Mal häufiger vorkommen als die Nitrospinae, liegt ihren Daten zufolge nicht wie bisher angenommen in der unterschiedlichen Größe der Mikroorganismen oder des langsameren Wachstums von Nitrospinae.
„Im Gegenteil, unsere Ergebnisse zeigen, dass die Nitrospinae deutlich aktiver sind und sehr viel schneller wachsen als die Ammoniak-oxidierenden Archaea. Nitrospinae sind somit deutlich effizienter als die Archaea“, erläutert Kitzinger. Und fügt an: „An sich würde man daher erwarten, dass die Nitrospinae auch deutlich häufiger sind – dass dem nicht so ist, muss an ihrer sehr hohen Sterberate liegen. Damit lässt sich der ausgeglichene marine Nitrifikationsprozess erklären. Die Existenz weiterer, unbekannter Nitrit-Oxidierer in der Wassersäule des Ozeans, die zahlenmäßig bedeutsam sind, ist somit sehr unwahrscheinlich.“
Stickstoff und Futter für Freunde
Gleichzeitig untersuchten die Forschenden, welche Stickstoffverbindungen die Partner Ammoniak-oxidierende Archaea und Nitrospinae für ihr Zellwachstum nutzen. „Während die Archaea fast ausschließlich Ammonium verwenden, nutzen Nitrospinae vor allem organischen Stickstoff, und zwar Harnstoff und Cyanat“, sagt Kitzinger. „So konkurrieren die beiden Mikroorganismen nicht um dieselbe Stickstoffquelle.“ Vielmehr helfen sie sich gegenseitig: Die Nitrospinae spucken vermutlich nach der Aufnahme des organischen Stickstoffs wieder etwas Ammonium aus und stellen so wiederum die Energiequelle für ihre Freunde, die Archaea, zur Verfügung. Eine symbiotische Win-Win-Situation.
Die Daten stammen aus dem Golf von Mexiko, wo der Prozess der Nitrifikation durch den hohen Nährstoffeintrag aus Flüssen, wie dem Mississippi, sehr wichtig ist. „Die Zusammensetzung der am Prozess beteiligten Mikroorganismen ist aber weltweit sehr ähnlich“, sagt Kitzinger. „Darum ist es sehr wahrscheinlich, dass unsere Erkenntnisse auf andere Meeresregionen übertragen werden können.“
Wissenschaftliche Ansprechpartner:
Dr. Katharina Kitzinger
Abteilung Biogeochemie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-649
E-Mail: kkitzing@mpi-bremen.de
Dr. Hannah K. Marchant
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-630
E-Mail: hmarchan@mpi-bremen.de
Originalpublikation:
Katharina Kitzinger, Hannah K. Marchant, Laura A. Bristow, Craig W. Herbold, Cory C. Padilla, Abiel T. Kidane, Sten Littmann, Holger Daims, Petra Pjevac, Frank J. Stewart, Michael Wagner, Marcel M. M. Kuypers: Single cell analyses reveal contrasting life strategies of the two main nitrifiers in the ocean. Nature Communications, Februar 2020
DOI: 10.1038/s41467-020-14542-3
Quelle: IDW
Nach FSME-Höchststand 2018: Zahl der Erkrankungen gesunken – trotz hoher Zeckenaktivität
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Neu eingewanderte Zecken, die hohe Zeckenaktivitäten vor allem in Baden-Württemberg und aktuelle Statistiken zu den jüngsten FSME-Erkrankungen sind Thema der Pressekonferenz an der Universität Hohenheim in Stuttgart. Um vor allem die neue tropische Zecke Hyalomma untersuchen zu können, hatten die Experten deshalb vor knapp einem Jahr um die Mithilfe der Bevölkerung gebeten und aufgefordert, Zecken einzusenden. Auf der Pressekonferenz am 17. Februar um 11 Uhr im Schloss der Universität Hohenheim präsentieren sie nun die Ergebnisse ihrer Untersuchung, gehen auf den allgemeinen Rückgang von FSME-Erkrankungen im Jahr 2019 ein und geben einen Ausblick auf ihre Forschung im Jahr 2020. Um Anmeldung mit dem beiliegenden Antwortfax oder per E-Mail an presse@uni-hohenheim.de wird gebeten.
Der Frühling rückt näher – und mit ihm auch die Zeckenzeit. Denn mit den ersten warmen Sonnenstrahlen gehen auch diese Krabbeltiere wieder verstärkt auf Nahrungssuche. Dabei können sie auf Mensch oder Tier gefährliche Krankheiten übertragen wie v.a. die sogenannte Frühsommer-Meningoenzephalitis (FSME).
Doch obwohl auch 2019 ein Jahr mit einer hohen Zeckenaktivität war, ist die Zahl der FSME-Erkrankungen in Baden-Württemberg deutlich, in Bayern aber nur in geringem Maß zurückgegangen, so Zeckenexpertin Prof. Dr. Ute Mackenstedt von der Universität Hohenheim. „Nachdem 2018 noch 607 Fälle von FSME-Erkrankungen gemeldet wurden, liegt die Zahl 2019 bei 462, also 145 Fälle weniger. Und die Ergebnisse zeigen, dass vor allem Baden-Württemberg für den Rückgang allgemein in Deutschland verantwortlich ist.“
Nach Aufruf: Untersuchungsergebnisse der Tropenzecke Hyalomma
2018 warnten Experten neben der dramatisch hohen Zeckenaktivität auch vor einer Zunahme, tropischer Zecken in Deutschland, die eigentlich in Afrika, Asien und Südeuropa Zuhause sind: Arten der Zeckengattung Hyalomma.
„Das Besondere an Hyalomma ist ihr Jagdverhalten“, so Zeckenexpertin Prof. Dr. Ute Mackenstedt von der Universität Hohenheim. „Anders als unsere heimischen Zecken wie der gemeine Holzbock klettert sie nicht an Gräsern oder Sträuchern hoch und lässt sich von Wildtieren oder Wanderern abstreifen. Hyalomma jagt ihre Beute aktiv, erkennt Warmblüter auf Distanzen von bis zu 10 Metern und kann sie über mehrere 100 Meter verfolgen.“
Eine weitere Besonderheit, so Prof. Dr. Ute Mackenstedt, seien die Krankheiten, welche Hyalomma überträgt und die sich ebenfalls von unseren heimischen Arten unterscheiden. „In ihrem eigentlichen Verbreitungsgebiet ist Hyalomma dafür bekannt, den Erreger des sogenannten Krim-Kongo Hämorrhagischen Fiebers, des Arabisch Hämorrhagischen Fiebers und einer Form des Zecken-Fleckfiebers (Rickettsien) zu übertragen. Auf diese Erreger haben wir die eingesendeten Zecken untersucht.“
Forschung an Brauner Hundezecke geht weiter
Ebenfalls im Fokus der Zeckenexperten: Die Braune Hundezecke (Rhipicephalus sanguineus). „Die Braune Hundezecke ist wie Hyalomma ebenfalls eine invasive Art, die eigentlich neben dem Mittelmeerraum und Nordafrika in vielen Teilen der Tropen und Subtropen heimisch ist“, so Prof. Dr. Mackenstedt. „Sie liebt ein warmes und trockenes Klima, weshalb sie sich auch in unseren Wohnungen so wohl fühlt. Vor allem, wenn ein Hund in der Nähe ist.“
Auch hier riefen die Wissenschaftler der Universität Hohenheim 2019 zur Mithilfe der Bevölkerung auf. „Insgesamt wurden uns 10 Fälle von Häusern bzw. Wohnungen bekannt, die zum Teil einen massiven Rhipicephalus-Befall aufwiesen.“
Weitere Informationen
Zur Zeckenforschung an der Universität Hohenheim: https://zecken.uni-hohenheim.de/
Anmeldung und Informationen zum 5. Süddeutschen Zeckenkongress: https://www.zeckenkongress.de/programm/
Kontakt für Medien
Prof. Dr. Ute Mackenstedt, Universität Hohenheim, Leiterin des Fachgebiets Parasitologie
T 0711 459-22275, E Mackenstedt@uni-hohenheim.de
Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse
Anhang
Antwortfax
https://idw-online.de/de/attachment79261
Quelle: IDW
Der erste Tiny Forest Deutschlands entsteht in der Uckermark
Annika Bischof M.A. Hochschulkommunikation
Hochschule für nachhaltige Entwicklung Eberswalde
Stefan Scharfe und Lukas Steingässer, beide Studenten an der Hochschule für nachhaltige Entwicklung Eberswalde (HNEE), pflanzen einen Miniwald auf einer Wiese in Brandenburg. Die Idee: Mit diesem schnell wachsenden Mikrohabitat, einen Beitrag zum Klimaschutz leisten, der für andere leicht nachahmbar ist.
„Für uns ist es wichtig, selber ins Machen zu kommen“, sagt Lukas Steingässer, der an der HNEE den Bachelor „International Forest Ecosystem Management “ studiert. Gemeinsam mit 25 Freiwilligen wollen er und sein Kommilitone Stefan Scharfe verschiedene heimische Gehölze auf eine Fläche von 800 Quadratmetern in Zichow (Uckermark, Brandenburg) bringen. In diesem Frühjahr soll es losgehen. „Geplant sind 27 verschiedene Arten mit zirka 3000 Gehölzen anzupflanzen und so in kürzester Zeit ein möglichst strukturreiches, dem Standort angepasstes Waldökosystem zu erschaffen“, sagt Stefan Scharfe, der den Master „Forest System Transformation“ studiert.
Vorbild für den Wald der Vielfalt, wie die beiden das Projekt nennen, ist die Methodik des japanischen Biologen Akira Miyawaki. Seine Idee ist es, vor allem in urbanen Räumen auf Flächen, die mindestens so groß wie ein Tennisplatz sind, kleine Habitate anzulegen, die einen Beitrag zum Erhalt der Artenvielfalt, der Verbesserung der Luftqualität, sowie der Wasserhaltekapazität des Bodens leisten. In der Vergangenheit hat er bereits größere Konzerne wie Toyota dazu beraten und mit ihnen Kompensationsprojekte in Form von Tiny Forests erfolgreich umsetzt. „Innerhalb von drei Jahren entstanden so kleine Wälder im städtischen Raum, diese Systeme tragen sich nun selbst und benötigen kaum Pflege“, erklärt Lukas Steingässer, der zur Akira-Miyawaki-Methode eine Bachelorarbeit schreiben und seine Erfahrungen aus Zichow einfließen lassen wird.
Auch in Europa gibt es in Frankreich und den Niederlanden erste Tiny Forests. „In Amsterdam haben wir uns einen bereits angeschaut, der dort prächtig gedeiht. Beeindruckt hat uns, die dortige Entwicklung. 2019 wurde dem niederländischen Naturbildungsinstitut aufgrund seiner umweltbildenden Maßnahmen mit dem Tiny Forest knapp zwei Millionen Euro zur Verfügung gestellt, um im Laufe dieses Jahres, 15 weitere zu realisieren“, berichtet Lukas Steingässer. Das motiviere die beiden, auch in Deutschland dem Thema mehr Bekanntheit zu verleihen. Denn theoretisch könne jedermann Tiny Forests realisieren, soweit ihm/ ihr eine Fläche zur Verfügung steht. „Denkbar wäre, dass es langfristig Projekte im Bereich der Bildung für nachhaltige Entwicklung (BNE) gibt, bei dem Kinder und Jugendliche Tiny Forests auf ihren Schulhöfen oder ihren Schulorten anpflanzen. Gerade im urbanen Raum besteht ein dringendes Bedürfnis die Menschen für die Natur zu sensibilisieren“, blickt Lukas Steingässer optimistisch in die Zukunft.
Unterstützung für „Wald der Vielfalt“
In Zichow werden schon bald die ersten Arbeiten beginnen. Zunächst wird auf der Fläche humusartige Biomasse eingebracht, um die Wasserhaltekapazität des Bodens zu verbessern. Zur Finanzierung der Pflanzaktion und der anschließenden Hege läuft noch bis zum 18.02.2020 eine Crowdfunding-Aktion https://www.startnext.com/walddervielfalt
Wissenschaftliche Ansprechpartner:
Stefan Scharfe
HNEE-Student im Master
„Forestry System Transformation“
Fachbereich für Wald und Umwelt
Telefon: 0176.96254567
Stefan.Scharfe@hnee.de
Lukas Steingässer
HNEE-Student im Bachelor International Forest Ecosystem Management
Fachbereich für Wald und Umwelt
Telefon: 01522.6220865
Lukas.Steingaesser@hnee.de
Weitere Informationen:
https://www.startnext.com/walddervielfalt zur Crowdfunding-Aktion
https://bit.ly/31HZlJ2 TED-Talk mit Shubhhendu Sharma
https://de.wikipedia.org/wiki/Akira_Miyawaki über Akira Miyawaki
http://www.hnee.de/K2155 Über den Studiengang International Forest Ecosystem Management (B.Sc.)
http://www.hnee.de/K6312 Über den Studiengang Forestry System Transformation (M.Sc.)
Quelle: IDW
Was Statine mit den Muskeln machen
Jana Schlütter Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Wer Statine nimmt, leidet oft unter Nebenwirkungen wie Muskelkrämpfen und -schmerzen. Wie ein Team von MDC und Charité jetzt in „Scientific Reports“ berichtet, beeinflussen die Cholesterinsenker in den Muskelzellen tatsächlich Tausende Gene. Die Zellen können dadurch schlechter wachsen und sich teilen.
Weltweit nehmen rund 20 Millionen Menschen Statine ein. Allein in Deutschland sind es fast fünf Millionen. Die Medikamente werden zur Senkung des Cholesterinspiegels verordnet, um Folgeerkrankungen wie Herzinfarkt oder Schlaganfall vorzubeugen. „Statine sind allerdings mit einer Reihe von Nebenwirkungen verbunden, weshalb viele Patientinnen und Patienten sie nicht zuverlässig einnehmen“, sagt Professorin Simone Spuler, die Leiterin der MDC-Arbeitsgruppe Myologie und der Muscle Research Unit am ECRC (Experimental and Clinical Research Center), einer gemeinsamen Einrichtung des MDC und der Berliner Charité – Universitätsmedizin Berlin.
Zu den häufigsten unerwünschten Begleiterscheinungen der Statine gehören Muskelkrämpfe und -schmerzen. „Angesichts der Nutzen von Statinen für die Gesundheit der westlichen Weltbevölkerung werden diese Nebenwirkungen jedoch oft als vernachlässigbar eingestuft“, sagt Spuler. Sie und ihr Team wollten es genauer wissen und herausfinden, was Statine konkret in den Muskelzellen auslösen. Zu diesem Zweck initiierten sie – allein mit DFG-Geldern und ohne Unterstützung der Pharmaindustrie – eine Studie, die jetzt im Fachblatt „Scientific Reports“ erschienen ist.
Statine störten die Produktion von mehr als 900 Proteinen
Für ihre Untersuchung setzte die Gruppe um die Erstautorin der Studie, Dr. Stefanie Anke Grunwald von der Muscle Research Unit am ECRC, insgesamt 22 Populationen menschlicher Skelettmuskelzellen jeweils zwei verschiedenen Statinen aus: zum einem dem fettlöslichen Wirkstoff Simvastatin, zum anderen dem wasserlöslichen Wirkstoff Rosuvastatin. Anschließend untersuchten die Forscherinnen und Forscher, welche Gene in den Zellen jeweils angeschaltet waren und in Proteine umgesetzt wurden und welche nicht. Zudem analysierten sie den Stoffwechsel der Zellen und beurteilten ihren Zustand anhand morphologischer Kriterien.
„Aufgabe der Statine ist es, ein bestimmtes Enzym bei der Cholesterinbildung zu blockieren, das HMG-CoA“, erklärt Grunwald. Es habe in der Vergangenheit einige Studien gegeben, die die Auswirkungen von Statinen auf den menschlichen Muskel beleuchten wollten. „Viele von ihnen fanden jedoch weder mit Muskelzellen noch mit menschlichen Zellen statt“, sagt Grunwald Die Ausschaltung eines zentralen Enzyms habe komplexe Folgen – die sie und ihre Kolleginnen und Kollegen nun auch mit modernsten Computer-Modelling-Methoden beleuchtet haben.
„Die Ergebnisse waren hochinteressant“, sagt Spuler. „Ganz offensichtlich üben Statine in der allgemein üblichen Wirkstoffmenge dramatische strukturelle, funktionelle und metabolische Effekte auf die Muskeln aus.“ Sie und ihr Team stießen in den untersuchten Zellen beispielsweise auf rund 2.500 Gene, die in Anwesenheit der Medikamente anders reguliert wurden als gewöhnlich. Dadurch war die Produktion von mehr als 900 Proteinen verändert: Sie wurden entweder in zu geringen oder zu großen Mengen hergestellt. Der Einfluss von Simvastatin war diesbezüglich höher als der von Rosuvastatin.
Die Zellen wuchsen nicht wie gewohnt
Beide Statine drosselten in den Muskelzellen nicht nur die Biosynthese von Cholesterin, sondern auch den Fettsäure-Stoffwechsel insgesamt sowie die Produktion von Eicosanoiden. Dabei handelt es sich um eine Gruppe hormonähnlicher Substanzen, die aus mehrfach ungesättigten Fettsäuren hervorgehen. Sie wirken sowohl innerhalb als auch außerhalb von Zellen als Signalmoleküle und sind in zahlreiche biologische Wirkmechanismen eingebunden. Unter anderen sind sie an der Entwicklung differenzierter Muskelzellen aus Muskelvorläuferzellen beteiligt. „Und sie sind auch in die Schmerzentstehung involviert. Das war für uns ein wichtiger Anhaltspunkt, dass wir hier auf der richtigen Spur sind“, sagt Grunwald.
„Mithilfe funktioneller Analysen konnten wir bestätigen, dass die Entwicklung, das Wachstum und die Teilung der Skelettmuskelzellen durch die Statine beeinträchtigt werden“, sagt Spuler. Sie und ihr Team fanden einen Weg, um die negativen Effekte der Medikamente etwas einzudämmen: „Die Gabe von Omega-3- oder Omega-6-Fettsäuren machte die Wirkungen von Simvastatin und Rosuvastatin teilweise rückgängig“, berichtet die Wissenschaftlerin. Eine ergänzende Einnahme derartiger Präparate könne daher eine Möglichkeit sein, um einer Statin-Myopathie vorzubeugen oder sie zu behandeln.
Statine sind keine Life-Style-Pillen
„Dennoch sollten unsere Erkenntnisse meines Erachtens dazu führen, dass die Gabe von Statinen künftig sehr viel kritischer gesehen werden sollte, als es momentan der Fall ist“, sagt Spuler. In vielen westlichen Ländern der Welt hätten sich die Cholesterinsenker fast schon zu einem Life-Style-Präparat entwickelt. „Das ist keinesfalls ein positiver Trend“, sagt Spuler. Ihrer Ansicht nach sollten Ärzt*innen und Patient*innen sollten in jedem individuellen Fall den Nutzen und die möglichen Gefahren der Medikamente gut abwägen.
Das Max-Delbrück-Centrum für Molekulare Medizin (MDC)
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) wurde 1992 in Berlin gegründet. Es ist nach dem deutsch-amerikanischen Physiker Max Delbrück benannt, dem 1969 der Nobelpreis für Physiologie und Medizin verliehen wurde. Aufgabe des MDC ist die Erforschung molekularer Mechanismen, um die Ursachen von Krankheiten zu verstehen und sie besser zu diagnostizieren, verhüten und wirksam bekämpfen zu können. Dabei kooperiert das MDC mit der Charité – Universitätsmedizin Berlin und dem Berlin Institute of Health (BIH ) sowie mit nationalen Partnern, z.B. dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DHZK), und zahlreichen internationalen Forschungseinrichtungen. Am MDC arbeiten mehr als 1.600 Beschäftigte und Gäste aus nahezu 60 Ländern; davon sind fast 1.300 in der Wissenschaft tätig. Es wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Berlin finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren. www.mdc-berlin.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Simone Spuler
Experimental and Clinical Research Center (ECRC)
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) und Charité – Universitätsmedizin Berlin
Leiterin der Arbeitsgruppe „Myologie“
+49 30 450 5405 01 oder +49 30 450 5405 04
simone.spuler@mdc-berlin.de oder simone.spuler@charite.de
Originalpublikation:
Grunwald, Stefanie Anke et al. (2020): „Statin-induced myopathic changes in primary human muscle cells and reversal by a prostaglandin F2 alpha analogue“, Scientific Reports, DOI: 10.1038/s41598-020-58668-2 .
Weitere Informationen:
https://www.mdc-berlin.de/de/spuler – Webseite der AG Spuler
https://www.mdc-berlin.de/de/ecrc – Klinische Forschung am ECRC
Quelle: IDW
Wasser ist ein knappes Gut
Jessica Bode Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert Fachdialog zum nachhaltigen Management der regionalen Wasservorkommen
Osnabrück. In den letzten Wochen hat es viel geregnet, und so manche Talsperre ist wieder voll. Doch gilt das auch für die Grundwasserspeicher? Das Helmholtz Zentrum für Umweltforschung meldet aktuell vor allem für Ostdeutschland immer noch moderate bis extreme Dürre für Bodenschichten mit mehr als 1,80 Metern Tiefe. „Ökosysteme, Trinkwasserversorgung sowie Land- und Forstwirtschaft haben unterschiedliche Ansprüche an das im ländlichen Raum verfügbare Wasser, die in Einklang gebracht werden müssen“, sagt Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU) zum Weltwassertag am 22. März. Gleichzeitig müsse auch der Hochwasserschutz berücksichtigt werden. Die DBU fördere mehrere regionale Projekte in Deutschland, die sich um diese Konfliktfelder drehen und Land- und Wasserwirtschaft, Naturschutz, Behörden und in Teilen auch Bergbau an einen Tisch bringen sollen – auch wenn das im Moment wegen der Corona-Krise nur sinnbildlich gemeint ist.
Dürre und Starkregen sind Auswirkungen des Klimawandels
Der Weltwassertag wurde von den Vereinten Nationen ausgerufen und findet seit 1993 unter einem jährlich wechselnden Motto statt, das dieses Jahr „Wasser und Klimaschutz“ lautet. „Die Auswirkungen des Klimawandels auf die Ressource Wasser machen sich für die Bevölkerung natürlich vor allem dann bemerkbar, wenn sie sozusagen vor der eigenen Haustür passieren“, so Bonde. Die Klimaforschung sei bereits so weit, dass untersucht werden könne, ob beispielsweise eine regionale Trockenperiode oder ein lokaler Starkregen durch den Klimawandel wahrscheinlicher wurde oder nicht. Ist zum Beispiel davon auszugehen, dass zunehmend mit Hochwasser zu rechnen ist, würden sich daraus konkrete Anpassungsstrategien wie der Bau von Deichen ableiten lassen.
Fläche nur begrenzt verfügbar – Nutzungskonflikte
„Fläche ist aber nur begrenzt verfügbar. Insofern müssen die häufig sehr unterschiedlichen Interessen abgewogen werden. Es muss mit den jeweiligen Akteuren vereinbart werden, wie die Fläche im ländlichen Raum genutzt wird – für sauberes Trinkwasser, geschützte Lebensräume wie Moore, land- und forstwirtschaftliche Zwecke oder beispielsweise auch als Überschwemmungsgebiet“, so Bonde. Verschiedene Förderprojekte laufen dazu derzeit mit fachlicher und finanzieller Unterstützung durch die DBU. „Mit Fachdialogen wollen wir den Austausch der Projektträger unterstützen. Auch wenn wir aufgrund der Corona-Krise noch nicht beginnen konnten, planen wir weiterhin bis 2022 pro Jahr zwei mehrtägige Veranstaltungen, um dieses bundesweite Netzwerk aufzubauen“, erklärt Dr. Volker Wachendörfer, DBU-Fachreferent Naturschutz.
Einzugsgebiet Hammbach in Nordrhein-Westfalen
So ist das Einzugsgebiet des Hammbachs im Raum Dorsten-Haltern beispielsweise mit einem der größten Grundwasservorkommen Nordrhein-Westfalens verbunden. Bei Trockenheit werde der hohe Bedarf für Trinkwasserversorgung, Landwirtschaft und Feuchtlebensräume zu einer Herausforderung. In einem Projekt des Unternehmens Lippe Wassertechnik (Essen) hätten sich alle Akteure aus Land- und Wasserwirtschaft sowie Naturschutz auf ein maßgeschneidertes Konzept geeinigt. Darin sei festgelegt worden, wie Wasserkontingente zukünftig optimal verteilt, Feuchtgebiete zum Beispiel durch das Aufstauen von Regenwasser stabilisiert sowie die landwirtschaftliche Bewässerung an trockenere Perioden angepasst werden könne.
Einzugsgebiet Weschnitz in Südhessen
An der im Odenwald entspringenden und bei Biblis in den Rhein mündenden Weschnitz in Südhessen unterstütze die DBU ein Projekt des Gewässerverbandes Bergstraße. Hier gehe es um Bürgerbeteiligung und um gemeinsam mit allen Akteuren zu entwickelnde Lösungen zum Hochwasser- und Gewässerschutz. Mit dem Vorhaben sollen die Maßnahmenplanung und -umsetzung für die Öffentlichkeit verständlicher vermittelt und eine höhere Akzeptanz für europarechtliche Bestimmungen in der Bevölkerung erreicht werden. Ziel ist es, möglichen Konflikten frühzeitig durch geeignete Informations-, Dialog- und Beteiligungsmaßnahmen entgegenzuwirken.
Grundwassergebiet „Hunte Lockergestein links“ in Niedersachsen
In Niedersachsen werde ein Projekt der Universität Osnabrück durchgeführt, für das als Modellregion das Grundwassergebiet „Hunte Lockergestein links“ gewählt wurde. Mit einer Gesamtfläche von rund 1.250 Quadratkilometern durchziehe es die Kreise Cloppenburg, Vechta und Osnabrück. Um für ein nachhaltiges Wassermanagement regional alle Nutzergruppen zu berücksichtigen, habe man starke Kooperationspartner mit ins Boot geholt: den Oldenburgisch-Ostfriesischen Wasserverband (Brake), die Niedersächsischen Landesforsten (Ganderkesee) sowie die Landwirtschaftskammer Niedersachsen (Oldenburg).
Weitere Informationen:
https://www.dbu.de/123artikel38600_2442.html
Online-Pressemitteilung
Quelle: IDW
Der Antarktis-Faktor: Modellvergleich offenbart zukünftiges Meeresspiegelrisiko
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Der Anstieg des Meeresspiegels durch den Verlust von Eismassen der Antarktis könnte schon in naher Zukunft zu einem erheblichen Risiko für den Küstenschutz werden, zeigt eine neue Studie eines Wissenschaftlerteams aus Deutschland, Frankreich, Belgien, Dänemark, der Schweiz, den Niederlanden, Japan, Australien, Neuseeland, Großbritannien und den USA. Allein durch den Beitrag der Antarktis könnte der globale Meeresspiegel in diesem Jahrhundert dreimal so stark ansteigen wie im letzten Jahrhundert, so das Ergebnis ihres umfassenden Vergleichs der aktuellsten Computermodelle aus aller Welt.
„Der ‚Antarktis-Faktor‘ erweist sich als die größte Unbekannte, aber dadurch auch als das größte Risiko für den Meeresspiegel weltweit“, sagt Leitautor Anders Levermann vom Potsdam-Institut für Klimafolgenforschung (PIK) und dem Lamont-Doherty Erdobservatorium der Columbia University in New York. „Während wir in den vergangenen 100 Jahren einen Anstieg des Meeresspiegels um etwa 19 Zentimeter erlebt haben, könnte der Anstieg durch den Eisverlust allein der Antarktis innerhalb dieses Jahrhunderts bis zu 58 Zentimeter betragen. Mit dieser Risikoabschätzung liefert die Studie wichtige Informationen für den Küstenschutz: Der Beitrag der Antarktis zum Meeresspiegel wird mit großer Wahrscheinlichkeit nicht mehr als 58 Zentimeter betragen.“
Bislang sind die thermische Ausdehnung des sich erwärmenden Meerwassers und die schmelzenden Gebirgsgletscher die wichtigsten Faktoren für den Anstieg des Meeresspiegels. Der jetzt in der Zeitschrift Earth System Dynamics der Europäischen Geowissenschaftlichen Union (EGU) veröffentlichten Studie zufolge wird der Anteil der Antarktis jedoch wohl absehbar zum wichtigsten Faktor werden. Alle Faktoren zusammen ergeben dann das Gesamtrisiko des Meeresspiegelanstiegs.
+++ Durch die große Ergebnisspanne ist die Schätzung sehr robust+++
Die Bandbreite der Schätzungen zum zu erwartenden Meeresspiegelanstieg durch den Faktor Antarktis ist recht groß. Geht man davon aus, dass der Ausstoß von Treibhausgasen sich wie bislang fortsetzt, liegt die von den Wissenschaftlern als „sehr wahrscheinlich“ bezeichnete Spanne für dieses Jahrhundert zwischen 6 und 58 Zentimetern Meeresspiegelanstieg. Geht man dagegen von einer schnellen Emissionsreduktion aus, liegt sie zwischen 4 und 37 Zentimetern. Wichtig ist, dass der Unterschied zwischen einem Szenario mit unverändertem Treibhausgasausstoß und einem Szenario mit Emissionsreduktionen auf längeren Zeitskalen, also weiter in der Zukunft, wesentlich größer wird.
Die Forscher berücksichtigten in ihren Berechnungen eine ganze Reihe physikalischer Einflussfaktoren, von der Klimasensitivität auf die Treibhausgasemissionen über den Wärmetransport im südlichen Ozean bis hin zur Meeresströmung unter den Antarktischen Eisschelfen. Insgesamt waren 16 Eisschildmodellierungsgruppen mit 36 Forschenden aus 27 Instituten an dieser vom PIK koordinierten Studie beteiligt. Eine ähnliche Studie sechs Jahre zuvor musste sich noch auf die Ergebnisse von nur fünf Eisschildmodellen stützen. Diese Entwicklung spiegelt den Fortschritt und die zunehmende Bedeutung der Forschung zum antarktischen Eisschild wider.
+++ „Risiken für Küstenmetropolen von New York bis Mumbai, von Hamburg bis Shanghai“ +++
„Je mehr Computersimulationsmodelle wir verwenden, die alle leicht unterschiedliche dynamische Repräsentationen des antarktischen Eisschildes sind, desto größer ist die Bandbreite der Ergebnisse, die wir bekommen – aber desto robuster sind auch die Schätzungen, die wir der Gesellschaft liefern können“, sagt Sophie Nowicki, Ko-Autorin der Studie vom NASA Goddard Space Flight Center und eine Leitautorin des kommenden Berichts des Weltklimarats IPCC, die das übergreifende Eisschildmodell-Vergleichsprojekt ISMIP6 leitete. „Es gibt immer noch große Unsicherheiten, aber wir können unser Verständnis des größten Eisschildes der Erde beständig verbessern. Der Vergleich von Modellergebnisse ist ein wirkungsvolles Instrument, um der Gesellschaft die notwendigen Informationen für rationale Entscheidungen zu liefern.“
Auf langen Zeitskalen – also in Jahrhunderten bis Jahrtausenden – hat der antarktische Eisschild das Potenzial, den Meeresspiegel um mehrere zehn Meter anzuheben. „Was wir mit Sicherheit wissen ist, dass das Verbrennen von Kohle, Öl und Gas die Risiken für die Küstenmetropolen von New York bis nach Mumbai, Hamburg oder Shanghai weiter in die Höhe treibt“, erklärt Levermann.
Wissenschaftliche Ansprechpartner:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de
Originalpublikation:
https://doi.org/10.5194/esd-11-35-2020.
Weitere Informationen:
https://www.earth-syst-dynam.net/11/35/2020/
Quelle: IDW
Die Abschaffung von Bargeld ist eine Illusion
Jana Vennegerts Presse- und Öffentlichkeitsarbeit
CENTRUM INDUSTRIAL IT (CIIT)
Wissenschaftler gehen den nächsten Schritt in Richtung intelligente Banknote
Mit Paypal, Kreditkarte oder sogar mit dem Handy: Heutzutage gibt es viele verschiedene Möglichkeiten in Geschäften zu bezahlen, denn der Trend der Digitalisierung nimmt auch im Alltag zu. Die beliebteste Bezahlmethode bleibt aber immer noch das Bargeld. Es ist zuverlässig, anonym, authentisch und wird dabei weltweit akzeptiert und verbreitet. „Das Bargeld-System“ ist außerdem sehr robust gegenüber dem Ausfall von Infrastruktur zum Beispiel bei Störungen und schützt vor teilweise einfachem Kreditkartenbetrug. Doch auch die Banknote ist nicht zu einhundert Prozent sicher, denn es gibt immer wieder Fälschungen, die im Umlauf sind und nicht direkt erkannt werden.
Das Institut für industrielle Informationstechnik (inIT) forscht mit einem Team von Wissenschaftlern der Arbeitsgruppe „Diskrete Systeme“ unter der Leitung von Institutsleiter Professor Volker Lohweg nun seit zehn Jahren zu dem wichtigen Thema und beschäftigt sich mit der Produktion und Qualitätssicherung von Banknoten, dem Verschleiß sowie der Sicherheit an Bankautomaten. Sie wollen die einfache Banknote zu einer smarten Banknote entwickeln.
Die aktuellsten Forschungsergebnisse aus dem Projekt smartBN (smarte Banknote), dessen Name für „Intelligenter Schutz im Zahlungsverkehr durch smarte Banknoten“ steht, präsentierte Professor Lohweg nun auf der Optical Document Security Conference (ODS) in San Francisco. Die ODS findet alle zwei Jahre statt und ist die weltweit wichtigste und größte Konferenz für das Fachgebiet der Dokumentensicherheit. Wie auch in den vergangenen Jahren, war das inIT aktiv an der Konferenz beteiligt und stellte ein Paper zur Realisierung intelligenter Banknoten vor. Diese sind in der Lage Daten zu speichern ohne die Anonymität der Nutzerinnen und Nutzer zu verletzten, weil sie mit chemischen Speichern ausgerüstet sind, die am Institut für Lebensmitteltechnologie (ILT.NRW) der Technischen Hochschule OWL entwickelt wurden. „Unsere Forschung zusammen mit Unternehmen zeigt weltweit das erste Mal einen ganzheitlichen Ansatz für moderne Banknoten der Zukunft auf, die mit ihrer Umwelt agieren, weil zum Beispiel Bankautomaten ihnen mitteilen, wann sie ausgezahlt wurden. Das funktioniert optisch und chemisch“, erläutert Professor Hans-Jürgen Danneel, Leiter des ILT.NRW. Konsumenten und Automaten könnten die Banknote dann direkt zur Bestätigung der Echtheit nutzen und beispielsweise ablesen, wie alt sie ist.
Auch Lohweg ist sich der Beliebtheit des Bargeldes bewusst. „Die immer wieder geforderte Abschaffung des Bargeldes zugunsten elektronischer Zahlungssysteme erweist sich zunehmend als Illusion. Dennoch ist es unsere Aufgabe, Zahlungsmittel den aktuellen Trends anzupassen ohne die Anonymität aufzugeben. Die Banknote der Zukunft muss deshalb Eigenintelligenz aufweisen, indem sie als Produkt Informationen an verschiedenen Stellen selbst bekannt gibt, sei es am Bankautomaten oder am Verkaufspunkt“, resümiert der anerkannte Experte für Dokumentensicherheit. Laut Lohweg sollen die im Forschungsprojekt smartBN entwickelten Verfahren, Banknoten in Zukunft flexibler einsetzbar machen, als bisher.
Die ODS bot vom 29. bis 31. Januar Experten aus dem Fachgebiet eine wichtige Möglichkeit des Austauschs. Professor Lohweg freut sich über die Wertschätzung der Forschungstätigkeiten, die das inIT mittlerweile auf der internationalen Fachkonferenz genießt
Quelle: IDW
DSM tritt der Deutschen Allianz Meeresforschung bei
Thomas Joppig Kommunikation
Deutsches Schifffahrtsmuseum – Leibniz-Institut für Maritime Geschichte
Das Deutsche Schifffahrtsmuseum / Leibniz-Institut für Maritime Geschichte (DSM) ist jetzt Mitglied der neu gegründeten Deutschen Allianz Meeresforschung (DAM) – einem Zusammenschluss der führenden Meeresforschungseinrichtungen in Deutschland.
Die DAM vermittelt in Politik und Gesellschaft Handlungswissen und -optionen zum Schutz und der nachhaltigen Nutzung von Küsten, Meeren und Ozeanen. Mit ihrem Fokus auf Lösungen und die Zukunft unterstützt die Allianz den notwendigen gesellschaftlichen Wandel hin zu mehr Nachhaltigkeit im Umgang mit Meeren und Ozeanen.
Das DSM ist nun neben Deutschen Meeresmuseum in Stralsund eines von zwei maritimen Museen, die der Allianz angehören. „Die Museen sind Experten darin, Wissen auf anschauliche und verständliche Weise für bestimmte Zielgruppen aufzubereiten“, erklärte der Vorstandsvorsitzende der DAM, Prof. Dr. habil. Michael Bruno Klein. „Sie forschen aber auch selbst und können so einen doppelten Beitrag leisten, auf den wir uns sehr freuen und der für die DAM elementar ist.“
Die Geschäftsführende Direktorin des DSM, Prof. Dr. Sunhild Kleingärtner, sieht in der Zusammenarbeit innerhalb der DAM ebenfalls großes Potential: „Über Meeresnutzung zu reden, bedeutet heute mehr denn je, über Verantwortung zu reden. Mit unserem Forschungsfeld Mensch und Meer und der Möglichkeit, Wissenschaft in Ausstellungen erlebbar zu machen, können wir viele Menschen erreichen, um sie für einen nachhaltigen Umgang mit den Meeren und Ozeanen zu sensibilisieren. Mit diesen Kompetenzen bringen wir uns gern in die DAM ein.“
Pressekontakt:
Deutsches Schifffahrtsmuseum
Leibniz-Institut für Maritime Geschichte
Thomas Joppig
Leitung Kommunikation
T +49 471 482 07 832
joppig@dsm.museum
Das Deutsche Schifffahrtsmuseum / Leibniz-Institut für Maritime Geschichte
Die wechselvolle Beziehung zwischen Mensch und Meer zu erforschen und in Ausstellungen erlebbar zu machen – das hat sich das Deutsche Schifffahrtsmuseum / Leibniz-Institut für Maritime Geschichte (DSM) in Bremerhaven zur Aufgabe gemacht. Es ist eines von acht Leibniz-Forschungsmuseen in Deutschland. Mit seinen mehr als 80 Mitarbeitenden und Auszubildenden und rund 8000 Quadratmetern überdachter Ausstellungsfläche zählt es zu den größten maritimen Museen Europas. Zurzeit befindet sich das DSM im Wandel und verbindet eine Gebäudesanierung sowie den Bau eines Forschungsdepots mit einer umfassenden Neukonzeption aller Ausstellungs- und Forschungsbereiche. Während dieser bis 2021 andauernden Phase bleibt das Haus geöffnet – mit einem vielfältigen Programm, wechselnden Sonderausstellungen und Veranstaltungen. Auch die mehr als 600 Jahre alte Bremer Kogge und die Museumsschiffe im Außenbereich können weiterhin besichtigt werden.
Forschungsprojekte am DSM werden durch namhafte nationale und internationale Förderprogramme unterstützt. Als attraktiver Arbeitsort für junge und berufserfahrene Talente in der maritimen Forschung unterhält das DSM vielfältige Kooperationen mit Universitäten, Hochschulen und außeruniversitären Forschungseinrichtungen. Unterstützung erfährt das Museum nicht zuletzt von den fast 3000 Mitgliedern des „Fördervereins Deutsches Schifffahrtsmuseum e.V.“ Dieser sowie das „Kuratorium zur Förderung des Deutschen Schifffahrtsmuseums e.V.“ hatten einst die Eröffnung des Hauses im Jahr 1975 vorangetrieben und begleiten es nun auf seinem Zukunftskurs.
Weitere Informationen:
https://www.allianz-meeresforschung.de/news/neue-mitglieder-bei-der-dam/
Quelle: IDW
Komplexe biologische Systeme können nicht ohne Chaos existieren
Sissy Gudat Presse- und Kommunikationsstelle
Universität Rostock
Ein deutsch-russisches Wissenschaftlerteam unter Leitung der Universität Rostock hat erstmals Anzeichen von chaotischen Phänomenen in aquatischen Ökosystemen nachgewiesen, bei denen alle Randparameter unter streng kontrollierten Bedingungen stabil gehalten wurden. Bislang war solches Verhalten nur als Folge von Veränderungen äußerer Faktoren diskutiert worden. Den Biologen gelang es, die Ursachen dieses widersprüchlichen Phänomens, das sie als „Chaosparadoxon“ bezeichneten, aufzudecken. Die Ergebnisse würden jüngst in der Zeitschrift Scientific Reports veröffentlicht
Ein gewisser Hang zur Unordnung liegt in der Natur des Lebens. Die chaotische Dynamik einzelner Elemente komplexer Systeme ist ein weit verbreitetes Phänomen und tritt sowohl im Gehirn von Epilepsie-Patienten als auch in sozialen Systemen auf. So ist z.B. bekannt, dass bei der Lösung von gesellschaftlichen Konflikten starke Oszillationen auftreten können. Auslöser ist in solchen Fällen die Trägheit beim Ausgleich der komplexen Wechselwirkungen zwischen Individuen und sozialen Gruppen mit unterschiedlichen und oft widersprüchlichen Meinungen, Ideen und Bedürfnissen. Ähnlich komplexe Beziehungen treten auch in aquatischen Ökosystemen auf die, im Gegensatz zu sozialen Systemen, für gezielte experimentelle Untersuchungen genutzt werden können.
„Um den vermehrt diskutierten Hinweisen auf chaotisches Verhalten zumindest einzelner Ökosysteme in einer Weise nachgehen zu können, haben wir parallel an mehreren Miniaturökosystemen Langzeitbeobachtungen durchgeführt und diese auch mehrfach wiederholt. Dabei wurden deren abiotische Randbedingungen konstant gehalten“, erläutert Professor Schubert von der Universität Rostock. Die Forscher hätten dabei in einem Kraftakt für das ganze Team über zwei Jahre hinweg mehrfach wöchentlich die Artzusammensetzung, Nährstoffkonzentrationen und Leistungsparameter erfasst und sichergestellt, dass keine Störungen auftreten.
Ausgangspunkt der Untersuchungen war eine Organismengemeinschaft, die sich auf der Grundlage von natürlichem Plankton, das in den Küstengewässern der Ostsee gesammelt wurde, in den Miniaturökosystemen entwickelte. Die Gemeinschaft bestand aus Bakterien, Blaualgen, Kleinalgen und Zooplankton. Damit wurde ein Abbild einer Freiwassergesellschaft geschaffen, das Organismen verschiedener Ebenen des Nahrungsnetzes von Primärproduzenten über mehrere Konsumentenebenen bis hin zu Destruenten (Nährstoffendverbrauchern) umfasste.
„In der Natur bilden aquatische Tier- und Pflanzengemeinschaften komplexe Systeme. Die Organismen, die sie bewohnen, sind in der Regel kurzlebig, so dass bei Umweltveränderungen sehr schnell ein Wechsel im Artinventar erfolgt. Die hier untersuchten Planktongemeinschaften bestehen aus zahlreichen kleinen, weniger als zwei Millimeter großen Lebewesen, die in der Wassersäule schweben. Sie haben einen schnellen Generationswechsel, passen sich effektiv an Veränderungen in der Umwelt an und entwickeln sich schnell weiter“, erklärt Irina Telesh, Doktorin der Biowissenschaften und leitende Forscherin am Zoologischen Institut der Russischen Akademie der Wissenschaften. Auch in diesem Fall erfordert die Aufdeckung der internen Mechanismen, die die komplexe Dynamik des Planktons in der Natur steuern, langwierige Forschung. Experimente zu chaotischem Verhalten in Ökosystemen sind daher äußerst selten.
Das Ergebnis der Arbeiten war zunächst eine riesige Datenmenge, für deren Analyse herkömmliche Verfahren zur Detektion chaotischen Verhaltens einer kritischen Analyse unterzogen werden mussten, um falsch-positive Ergebnisse erkennen und aussondern zu können. Es stellte sich heraus, dass in allen vier untersuchten Systemen und auf allen Ebenen des Nahrungsnetzes chaotische Episoden auftraten. Das entdeckte Phänomen wurde als „Chaos-Paradoxon“ bezeichnet, da eigentlich Konstanz der abiotischen Umweltfaktoren auch Konstanz der Wechselwirkungen zwischen den Organismen zur Folge haben sollte, genau diese langandauernde Konstanz aber Auslöser für Veränderung der Dynamik des Systems war.
„Das Überraschendste ist, dass das Chaos gerade unter den stabilsten abiotischen Bedingungen am häufigsten auftrat. Es stellte sich heraus, dass selbst in den ausbalancierten Systemen ohne externe Störungen ein Leben ohne Chaoselemente unmöglich zu sein scheint“, sagt Dr. Sergey Skarlato vom Institut für Zytologie der Russischen Akademie der Wissenschaften. Die Forscher erklären sich das so: unter variablen Bedingungen „löschen“ sich kleine Bilanzungleichgewichte untereinander aus, bei konstanten Bedingungen aber können diese sich akkumulieren und letztlich zu Zusammenbrüchen führen.
Mit diesen Studien konnte gezeigt werden, dass selbst künstlich stabilisierte biologische Systeme komplexen chaotischen Transformationen unterliegen können. Die Unvorhersehbarkeit chaotischen Verhaltens mache es schwierig, die Entwicklung globaler Systeme auf allen Ebenen langfristig korrekt vorherzusagen. Deshalb sei die exakte Kenntnis über die Auslösefaktoren von Transformationen in der Ökologie grundlegende Voraussetzung für eine realitätsnahe Modellierung, ohne die eine belastbare Voraussage für das Verhalten von Ökosystemen unter veränderten Umweltbedingungen nicht möglich ist, lautet das Fazit der Wissenschaftlerinnen und Wissenschaftler.
Die Forschungsarbeiten sind sowohl vom Internationalen Büro des Bundesministeriums für Bildung und Forschung (IB-BMBF) als auch von der Russian Science Foundation unterstützt worden. Die Originalveröffentlichung des Teams von Mitarbeitern der Universität Rostock zusammen mit Kollegen des Zoologischen Institutes der Russischen Akademie der Wissenschaften und des Institutes für Zytologie der Russischen Akademie der Wissenschaften ist unter DOI: 10.1038/s41598-019-56851-8 zu finden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hendrik Schubert
Universität Rostock
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Biowissenschaften
Lehrstuhl Ökologie
Tel.: +49 381 498-6070
E-Mail: hendrik.schubert@uni-rostock.de
Web: http://www.biologie.uni-rostock.de/oekologie/home.html
Originalpublikation:
DOI: 10.1038/s41598-019-56851-8
Quelle: IDW
Studie zeigt: Grippeimpfung ist für Leistungssportler empfehlenswert – auch bei intensivem Training
Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Vor Wettkämpfen zählt im Leistungssport jeder Trainingstag. Viele Sportärzte waren daher beim Thema Grippeimpfung bisher zurückhaltend aus Sorge vor Nebenwirkungen, aber auch weil sie vermuteten, dass diese bei Spitzensportlern nicht so gut wirkt. Dass genau das Gegenteil der Fall ist, konnte jetzt eine Forschergruppe an der Universität des Saarlandes um Sportmediziner Tim Meyer und die Immunologin Martina Sester nachweisen. Die für ihre Studie geimpften Leistungssportler zeigten eindeutige Immunabwehrreaktionen, die gegenüber einer „normalen“ Kontrollgruppe sogar leicht erhöht waren.
Es gab zudem keinen Unterschied, ob die Impfung direkt nach dem Training oder einen Tag später verabreicht wurde. Und die Nebenwirkungen waren so gering ausgeprägt, dass keine einzige Trainingseinheit ausfallen musste. Im Rahmen der Studie erhielten 45 Athletinnen und Athleten am Olympia-Stützpunkt in Saarbrücken sowie 25 Personen einer gleichaltrigen Kontrollgruppe eine Impfung gegen die saisonale Grippe, die durch Influenzaviren ausgelöst wird.
Vor der Impfung sowie eine, zwei und 26 Wochen danach wurde das Blut der Versuchspersonen auf grippespezifische Zellabwehrreaktionen hin untersucht sowie auf Antikörper, die Influenzaviren neutralisieren können. „Zu unserer eigenen Überraschung stellte sich heraus, dass die Spitzensportler bei beiden Faktoren eine stärkere Reaktion zeigten als die Kontrollgruppe. Bisher war die landläufige Meinung, dass langfristiges intensives körperliches Training die Immunreaktion von Sportlern eher dämpfen würde“, erläutert Tim Meyer, Professor für Sport- und Präventivmedizin der Saar-Universität.
Auch die Nebenwirkungen waren nach der Impfung bei allen Probanden mild, so dass die Leistungssportler in ihrem Trainingsprogramm nicht beeinträchtigt waren. „Wir haben zudem einen Teil der Versuchspersonen direkt nach ihrem Training geimpft und die anderen erst einen Tag später. Weder bei der Immunantwort der Athleten noch bei den nur geringfügigen Nebenwirkungen machte dies einen Unterschied“, erklärt Tim Meyer. Das sei für Spitzensportler, die in Wettkampfzeiten meist täglich trainieren, von großer Bedeutung. „Wir leiten aus unseren Ergebnissen die Empfehlung ab, dass sich Leistungssportler gegen die saisonale Grippe impfen lassen sollten. Sie müssen nicht befürchten, in ihren ambitionierten Trainingseinheiten eingeschränkt zu werden und laufen damit weniger Gefahr, durch eine Grippeerkrankung für längere Zeit auszufallen“, sagt Martina Sester, Professorin für Transplantations- und Infektionsimmunologie der Universität des Saarlandes.
Ihre wissenschaftlichen Ergebnisse konnte die interdiszplinäre Forschergruppe sowohl in einer renommierten Fachpublikation für Sportmedizin als auch einer internationalen Zeitschrift für Immunologie veröffentlichen. An der Universität des Saarlandes waren neben den Forscherteams von Tim Meyer und Martina Sester auch die Forschergruppe von Barbara Gärtner, Professorin für Medizinische Mikrobiologie und Hygiene, beteiligt. Die Studie wurde vom Bundesinstitut für Sportwissenschaft finanziell gefördert.
Hinweis für Hörfunk-Journalisten: Sie können Telefoninterviews in Studioqualität mit Wissenschaftlern der Universität des Saarlandes führen, über Rundfunk-Codec (IP-Verbindung mit Direktanwahl oder über ARD-Sternpunkt 106813020001). Interviewwünsche bitte an die Pressestelle (0681/302-3610).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tim Meyer
Institut für Sport- und Präventivmedizin
der Universität des Saarlandes
Tel. 0681/302-70400
Mail: tim.meyer@mx.uni-saarland.de
Prof. Dr. Martina Sester
Professur für Transplantations- und Infektionsimmunologie
der Universität des Saarlandes
Tel. 06841/16-23557
Mail: martina.sester@uks.eu
Originalpublikation:
Elite athletes on regular training show more pronounced induction of vaccine-specific T-cells and antibodies after tetravalent influenza vaccination than controls. In: Brain, Behavior and Immunity, Vol. 83, Januar 2020, S. 135-145
Timing of vaccination after training: immune response and side effects in athletes. In: Medicine & Science in Sports & Exercise, Januar 2020
Weitere Informationen:
http://www.sciencedirect.com/science/article/pii/S0889159119306518?via%3Dihub
https://journals.lww.com/acsm-msse/Abstract/publishahead/Timing_of_Vaccination_a…
Quelle: IDW
Neue Hauptdarsteller im Meeresboden: Eine bislang kaum beachtete Bakteriengruppe im Rampenlicht
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Von den Küsten bis in die Tiefsee ist in den Meeresböden unseres Planeten eine Bakteriengruppe besonders weit verbreitet: Die sogenannten Woeseiales, die sich möglicherweise von den Eiweiß-Überresten abgestorbener Zellen ernähren. Verbreitung, Vielfalt und Lebensweise dieser Bakterien beschreiben nun Forschende des Max-Planck-Instituts für Marine Mikrobiologie in Bremen und des Niederländischen Forschungsinstituts NIOZ im Fachmagazin The ISME Journal.
Marine Sedimente bedecken mehr als zwei Drittel der Oberfläche unseres Planeten. Dennoch sind sie gerade in den tieferen Regionen der Ozeane kaum erforscht. Die dort lebenden Bakterien sind für ihre Ernährung fast ganz auf das angewiesen, was in Form von Überresten von Organismen aus den oberen Wasserschichten in die Tiefsee rieselt. Je nachdem, wie sie dieses Material verarbeiten, verbleibt es für lange Zeit in den Tiefen des Meeres oder wandert als Kohlendioxid wieder zurück zur Oberfläche. Dadurch spielen die Bakterien der Meeresböden eine bedeutende Rolle beispielsweise für den weltweiten Kohlenstoffkreislauf und sind ein spannendes und wichtiges Forschungsobjekt.
Hauptdarsteller im Meeresboden
Das Forschungsteam um Christina Bienhold und Katy Hoffmann vom Bremer Max-Planck-Institut, sowie Pierre Offre, der mittlerweile am NIOZ auf der Insel Texel tätig ist, hat nun eine besonders vorherrschende Mikrobengruppe identifiziert und charakterisiert. „Zwar sind diese Bakterien schon länger in der Literatur bekannt“, berichtet Bienhold. „Aber niemand schenkte ihnen bisher größere Aufmerksamkeit.“ Während das Team die Rolle dieser Gruppe in der Tiefsee untersuchte, beschäftigten sich andere Forschende am Bremer Max-Planck-Institut mit ihrer Bedeutung in Küstensedimenten. „Und erst jetzt wird klar, wie zahlreich und weit verbreitet die Woeseiales sind“, so Bienhold weiter.
Beeindruckende 40 Millionen Zellen leben pro Milliliter Tiefseeboden – gemeinsam mit einer Milliarde anderer Bakterien. In einem Fingerhut voll Meeresschlamm finden sich demnach etwa 120 Millionen Exemplare der nun beschriebenen Bakteriengruppe. „Uns ist bisher keine andere Bakteriengruppe bekannt, die mit einer so hohen Anzahl von Zellen im Meeresboden vorkommt.“ Auf den gesamten Tiefseeboden hochgerechnet würde die weltweite Population der Woeseiales 5 x 1026 Zellen betragen, schätzen die Autoren. „Wenn man bedenkt, dass diese Schätzungen weder die Küstensedimente noch den tiefen Untergrund einschließen, könnte diese Bakteriengruppe zu den am häufigsten vorkommenden Mikroorganismen auf der Erde gehören“, erklärt Bienhold.
Eine Gruppe mit vielfältigen ökologischen Rollen
In ihrer Studie stellen die Autorinnen und Autoren auch das bisherige Wissen über die Diversität und Verbreitung dieser Bakterien dar. Dieses basiert auf DNA-Sequenzdaten, die sich innerhalb der letzten zwei Jahrzehnte in öffentlichen Datenbanken angesammelt haben, beinhaltet aber auch eine Reihe neuer Daten, unter anderem vom arktischen Tiefseeboden an dem vom Alfred-Wegener-Institut betriebenen Langzeitobservatorium HAUSGARTEN. „Unsere Analysen zeigen, dass die Gruppe Woeseiales eine Vielzahl von Organismen mit unterschiedlichen Lebensweisen umfasst“, erklärt Pierre Offre, Leitautor der Studie. „Zum Beispiel leben im gleichen Stück Meeresboden verschiedene Arten von Woeseiales und erfüllen vermutlich verschiedene ökologische Funktionen für den Lebensraum. Unsere Studie ist ein erster Leitfaden zur Ökologie dieser faszinierenden Gruppe.“
Die nun vorliegenden Ergebnisse deuten zudem darauf hin, dass die Woeseiales sogenanntes proteinöses Material als Nahrung nutzen könnten, beispielsweise Reste von Zellwänden und Membranen oder andere Überreste abgestorbener Lebewesen. Proteine sind eine wichtige Quelle von Stickstoff – einem grundlegenden Nährstoff für alle Lebensformen – in marinen Sedimenten. Falls die Woeseiales-Bakterien diese Proteine tatsächlich abbauen können, wäre das ökologisch bedeutsam für die Verfügbarkeit von Stickstoff im Ökosystem Meeresboden. „Ich bin überzeugt davon, dass uns weitere Untersuchungen dieser Bakterien neue Einblicke in die Kohlenstoff- und Stickstoffkreisläufe in marinen Sedimenten ermöglichen werden“, schließt Offre, der auch mit seiner Arbeitsgruppe am NIOZ den ökologischen Erfolg dieser Mikroorganismen weiter erforscht.
Die hier vorgestellten Ergebnisse entstanden im Rahmen des Forschungsprojekt ABYSS unter Leitung von Antje Boetius, Gruppenleiterin am Max-Planck-Institut für Marine Mikrobiologie und Direktorin am Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung, das zwischen 2012 und 2018 von der Europäischen Forschungskommission gefördert wurde.
Weitere Informationen zu ABYSS finden Sie hier: https://erc.europa.eu/projects-figures/stories/life-deep-microbes-abyss
Behind the paper:
Lesen Sie mehr über die Arbeit hinter dieser Publikation im entsprechenden Blogpost von Christina Bienhold und Pierre Offre: https://naturemicrobiologycommunity.nature.com/users/348350-pierre-offre/posts/5…
Wissenschaftliche Ansprechpartner:
Dr. Christina Bienhold
HGF MPG Brückengruppe für Tiefseeökologie und -technologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-869
E-Mail: cbienhol@mpi-bremen.de
Originalpublikation:
Katy Hoffmann, Christina Bienhold, Pier Luigi Buttigieg, Katrin Knittel, Rafael Laso-Pérez, Josephine Z. Rapp, Antje Boetius, Pierre Offre (2020): Diversity and metabolism of Woeseiales bacteria, global members of marine sediment communities. The ISME Journal. Februar 2020.
https://doi.org/10.1038/s41396-020-0588-4
Weitere Informationen:
https://www.mpi-bremen.de/Page4361.html
Quelle: IDW
Deutsche Allianz Meeresforschung stellt sich vor
Eva Söderman Pressearbeit und Politische Kommunikation
Deutsche Allianz Meeresforschung e.V.
Interviewmöglichkeiten mit DAM Vorstand
Im vergangenen Jahr hat die deutsche Meeresforschung gemeinsam mit dem Bund und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein die Deutsche Allianz Meeresforschung (DAM) gegründet.
Damit hat Deutschland eine der weltweit größten marinen Forschungsallianzen ins Leben gerufen, deren Ziel es ist, den nachhaltigen Umgang mit den Küsten, Meeren und Ozeanen durch Forschung, Datenmanagement und Digitalisierung, Infrastrukturen und Transfer zu stärken.
Die Allianz wächst kräftig: Zu den ursprünglich 13 Mitgliedseinrichtungen bei der Gründung sind sechs weitere hinzugekommen, die bei der Mitgliederversammlung am 12. Februar aufgenommen wurden. Dies zeigt: Die deutsche Meeresforschung ergreift mit der DAM die Chance, ihre gesellschaftliche Verantwortung wahrzunehmen und Beiträge zur Beantwortung politisch relevanter wissenschaftlicher Fragen zu leisten.
Weitere Informationen:
http://www.allianz-meeresforschung.de DAM Website
http://www.allianz-meeresforschung.de/news/die-dam-stellt-sich-vor/ Auftaktveranstaltung
http://www.allianz-meeresforschung.de/presse/ Pressekontakt
Quelle: IDW
Statement von Prof. Dr. Dr. h. c. Christoph M. Schmidt zum Corona-Maßnahmenkatalog der Bundesregierung
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
„Einfrieren der sozialen und wirtschaftlichen Aktivitäten muss zwingend von stützenden wirtschaftspolitischen Maßnahmen begleitet werden, die Stimulierung der Nachfrage durch ein Konjunkturprogramm ist derzeit aber nicht sinnvoll“ – in seinem Statement erläutert RWI-Präsident Christoph M. Schmidt, warum er die derzeitige Strategie der Bundesregierung für richtig hält, ein Konjunkturprogramm hingegen aktuell der epidemiologisch sinnvollen Strategie zuwiderlaufen würde.
• „Aus epidemiologischer Sicht ist die Strategie absolut richtig, die Sozialkontakte möglichst so einzuschränken, dass die Anzahl der Neuerkrankungen selbst in der noch ausstehenden Hochphase der Epidemie die Kapazitäten der Krankenhäuser im Hinblick auf Notfallbetten, Beatmungsplätze und Pflegepersonal nicht ausreizt. Würde die Kapazitätsgrenze erreicht, wäre das schwere Problem zu lösen, wie die knappen Plätze für lebenserhaltende Maßnahmen zugeteilt werden.
• Ein weitgehendes „Einfrieren“ der sozialen und wirtschaftlichen Aktivitäten muss aber nicht nur gegen den unabweisbaren Versorgungsbedarf der Bevölkerung und die Aufrechterhaltung der öffentlichen Ordnung abgewogen, sondern zwingend auch von stützenden wirtschaftspolitischen Maßnahmen begleitet werden.
• Dass die Bundesregierung bei ihrem angekündigten Maßnahmenpaket dem Prinzip „Liquidität geht vor Rentabilität“ folgen und dabei keine halben Sachen machen möchte, ist sehr zu begrüßen. Umfassende Liquiditätshilfen und Steuerstundungen sollen Unternehmen davor schützen, rein aus Gründen fehlender Liquidität in die Insolvenz zu gleiten. Erweiterungen beim Kurzarbeitergeld erlauben es ihnen, auch über die Durststrecke der fehlenden Nachfrage und ausbleibender Vorprodukte hinweg an ihren Arbeitnehmern festzuhalten.
• Dieses Vorgehen dürfte die aktuelle Unsicherheit reduzieren und Luft dafür verschaffen, mit den Folgeschäden der Krise mit kühlem Kopf umzugehen.
• Eine Stimulierung der gesamtwirtschaftlichen Nachfrage durch ein Konjunkturprogramm würde hingegen aktuell der epidemiologisch sinnvollen Strategie zuwiderlaufen. Welche Maßnahmen nach dem Abklingen der Pandemie ergriffen werden, sollte dann mit kühlem Kopf erwogen werden, wenn das Ausmaß der wirtschaftlichen Folgen und das Abklingen der Pandemie absehbar sind.
• Grundsätzlich ist die deutsche Volkswirtschaft für die Bewältigung der Corona-Epidemie besser gerüstet als andere Volkswirtschaften. Dazu tragen ein umfassender Versicherungsschutz, die Möglichkeit der Kurzarbeit sowie das System der Lohnfortzahlung im Krankheitsfall ebenso bei wie die Sozialpartnerschaft auf der betrieblichen Ebene. Zunehmend nutzen die Unternehmen zudem die technischen Möglichkeiten zu Home Office-Lösungen.
• Darüber hinaus hat der Abbau der gesamtwirtschaftlichen Schuldenstandsquote dafür gesorgt, dass hinreichende Puffer für ein entschiedenes fiskalisches Krisenmanagement vorhanden sind. Außerdem ist die die Schuldenbremse als zentrale fiskalische Richtschnur für Bund und Länder so intelligent ausgestaltet, dass in Notsituationen die notwendigen fiskalischen Spielräume jenseits der in normalen Zeiten geltenden Verschuldungsgrenzen gegeben sind.“
Prof. Dr. Dr. h. c. Christoph M. Schmidt ist Präsident des RWI – Leibniz-Institut für Wirtschaftsforschung und Professor an der Ruhr-Universität Bochum. Von 2009 bis 2020 war er Mitglied des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung, von März 2013 bis Februar 2020 dessen Vorsitzender.
Ihre Ansprechpartner/in dazu:
Sabine Weiler (Pressestelle), Tel.: (0201) 8149-213
Weitere Informationen:
http://Weitere aktuelle Informationen des RWI zu den Auswirkungen der Corona-Krise sind unter http://www.rwi-essen.de/presse/corona abrufbar.
Quelle: IDW
„Dr. Google“: Online nach Krankheitssymptomen zu suchen, wirkt sich negativ auf Psyche aus
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Steigerung des Unwohlseins bereits nach fünf Minuten individueller Recherche / Veröffentlichung in Zeitschrift für Psychologie
Bereits eine kurze Internetsuche nach den empfundenen Symptomen kann die eigene Sorge, ernsthaft erkrankt zu sein, direkt steigern. Den Effekt von „Doktor Google“ weist eine aktuelle Studie aus der Arbeitsgruppe um Professor Dr. Alexander Gerlach vom Lehrstuhl für Klinische Psychologie und Psychotherapie der Universität zu Köln nach. Die Studie erscheint in Ausgabe 02/2020 der Zeitschrift für Psychologie.
Die Wissenschaftlerinnen und Wissenschaftler ließen vorrangig junge Erwachsene im Alter von durchschnittlich 23 Jahren fünf Minuten lang persönliche Symptome im Internet suchen. Obwohl in dieser Altersgruppe das Risiko für eine Krankheitsangststörung üblicherweise gering ist, gaben die Probanden direkt nach der Suche an, sich nun mehr Sorgen über ihre Gesundheit und die Krankheitssymptome zu machen. Dabei führte das Googeln zu größerer Besorgnis, wenn die Teilnehmerinnen und Teilnehmer bereits zuvor über eine negative Stimmung berichtet hatten. Die nachteiligen Folgen der Internetrecherche zeigten sich nicht nur, wenn Studienteilnehmer auf Internetseiten landeten, die über besonders gravierende Krankheiten informierten. Auch bei Webseiten mit zurückhaltenden, moderaten Auskünften zu Symptomen steigerte sich das Unwohlsein der Probanden.
Im Internet nach Symptomen und Krankheitsbildern suchen ist normal geworden. Ganze 46 Prozent der Deutschen geben an, regelmäßig im Internet Gesundheitsthemen zu recherchieren. Da Langzeitstudien weitgehend fehlen, können zurzeit zwar keine Aussagen über einen Beitrag von Internetrecherchen zur Entwicklung einer Krankheitsangststörung (ehemals „Hypochondrie“) gemacht werden. Dass Recherchen sich negativ auf das psychische Wohlbefinden auswirken, konnte die Studie allerdings nun belegen.
Der Arbeitsgruppe um Professor Gerlach ist die Verzahnung von Wissenschaft und Therapie besonders wichtig. In der 2018 gegründeten Spezialambulanz für Krankheitsangst finden die Erkenntnisse aus aktueller Forschung direkte Anwendung. Unter www.Krankheitsangst.koeln finden Sie Informationen zum Behandlungsangebot und aktuellen Studien.
Inhaltlicher Kontakt:
Professor Dr. Alexander Gerlach
Lehrstuhl für Klinische Psychologie und Psychotherapie
+49 221 470-6290
alexander.gerlach@uni-koeln.de
Presse und Kommunikation:
Jan Voelkel
+49 221 470-2356
j.voelkel@verw.uni-koeln.de
Zur Publikation:
https://www.hf.uni-koeln.de/file/10825
Quelle: IDW
Forschende entdecken eine neue biochemische Verbindung, die Umweltschadstoffe abbauen kann
Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
In Pflanzen, Pilzen, Bakterien und Tieren spielen Enzyme mit Flavin-Cofaktor eine wichtige Rolle: Als Oxygenasen bauen sie Sauerstoff in organische Verbindungen ein. So kann der Mensch beispielsweise Fremdstoffe besser ausscheiden. Bisher waren sich Wissenschaftlerinnen und Wissenschaftler einig, dass solche flavin-abhängigen Oxygenasen Flavin-C4a-peroxid als Oxidationsmittel verwenden. Es entsteht, indem das C4a-Atom des Flavin-Cofaktors mit Luftsauerstoff (O2) reagiert, ehe eines der beiden Sauerstoffatome auf die Verbindung übertragen wird.
Ein Team um Dr. Robin Teufel vom Institut für Biologie II der Universität Freiburg hat herausgefunden, dass O2 auch mit dem N5-Atom des Flavin-Cofaktors zu Flavin-N5-peroxid reagiert. Die Forscherinnen und Forscher haben ihre Ergebnisse in der Fachzeitschrift „Nature Chemical Biology“ veröffentlicht.
Das neu entdeckte Flavin-N5-peroxid hat andere reaktive Eigenschaften als das Flavin-C4a-peroxid. Manche Bakterien brechen damit stabile chemische Verbindungen auf, darunter Umweltschadstoffe wie Dibenzothiophen, ein Bestandteil von Rohöl, oder Hexachlorbenzol, ein Pflanzenschutzmittel. Mittels Röntgenstrukturanalyse sowie mechanistischen Untersuchungen konnten die Wissenschaftler aufklären, wie die Bildung dieses Flavin-N5-peroxids auf enzymatischer Ebene gesteuert wird.
In Zukunft wollen Teufel und sein Team untersuchen, wie weit verbreitet diese neuartige Flavin-Biochemie in der Natur ist. Sie wollen zudem die Rolle, Reaktivität und Funktionsweise des Flavin-N5-peroxids besser verstehen. Mit ihrer Arbeit ermöglichen sie weitere Untersuchungen, um zukünftig die Funktionsweise von Flavinenzymen vorherzusagen oder mittels Biotechnologie zu verändern.
Robin Teufel untersucht mit seiner Arbeitsgruppe am Institut für Biologie II der Universität Freiburg enzymatische Reaktionen des bakteriellen Stoffwechsels.
Originalpublikation:
Matthews, A., Saleem-Batcha, R., Sanders, J.N., Stull, F., Houk, K.N., & Teufel, R. (2020): Aminoperoxide adducts expand the catalytic repertoire of flavin monooxygenases. In: Nature Chemical Biology. DOI:
Kontakt:
Dr. Robin Teufel
Institut für Biologie II
Tel.: 0761/203-97199
E-Mail: robin.teufel@zbsa.uni-freiburg.de
Originalpublikation:
https://www.nature.com/articles/s41589-020-0476-2
Quelle: IDW
Diabetesrisiko „Arbeitsplatz“? Welche Berufsgruppen besonders gefährdet für Diabeteserkrankungen sind
Christina Seddig Pressestelle
Deutsche Diabetes Gesellschaft
Eine aktuelle Studie aus Schweden1 untersuchte erstmals den unmittelbaren Zusammenhang zwischen Berufsbildern und Diabeteserkrankungen. Dabei fanden sie heraus, dass Männer und Frauen aus den Bereichen Berufskraftfahrt, Fabrikarbeit und Reinigungstätigkeit das höchste Risiko für einen Diabetes mellitus Typ 2 haben. Am wenigsten waren Informatiker betroffen. Mithilfe dieser Erkenntnisse können Risikogruppen rechtzeitig identifiziert und gezielte berufsmedizinische Präventionsmaßnahmen eingeleitet werden, um dem Diabetes samt seiner Neben- und Folgeerkrankungen entgegenzuwirken. Dies begrüßt die Deutsche Diabetes Gesellschaft (DDG).
In Deutschland sind derzeit über zwei Millionen Menschen mit Diabetes erwerbstätig. In wenigen Jahren werden bis zu drei Millionen Betroffene in verschiedensten Berufsfeldern beschäftigt sein.2 Die meisten von ihnen haben einen Diabetes Typ 2. „Es ist deshalb betriebs- und volkswirtschaftlich unumgänglich, bei möglichst vielen Menschen mit Diabetes die Arbeitsfähigkeit zu erhalten oder sie wieder in die betrieblichen Abläufe einzugliedern“, betont Dr. med. Wolfgang Wagener von der Deutschen Rentenversicherung Rheinland und Vorsitzender des DDG Ausschusses Soziales. „Die Autoren der Studie zeigen uns konkret, in welchem beruflichen Umfeld wir Risikogruppen suchen müssen.“
Der Kohorten-Studie lagen die Daten von rund 4,5 Millionen Schweden zugrunde, die aus dem nationalen Patientenregister in Schweden stammen. Miteinbezogen wurden alle zwischen 1937 und 1979 geborenen Einwohner Schwedens, die in den Jahren von 2001 bis 2013 berufstätig waren und zwischen 2006 und 2015 eine Diabetesdiagnose erhalten haben. Ziel war es, Berufe mit einem erhöhten Diabetesrisiko zu ermitteln. Das Ergebnis: 4,2 Prozent aller Schweden hatten 2013 einen Diabetes mellitus. Männer waren häufiger als Frauen erkrankt, darunter insbesondere Berufskraftfahrer und Fabrikarbeiter: Über sieben Prozent hatten einen Diabetes Typ 2. Bei Informatikern lagen mit 2,5 Prozent hingegen die wenigsten Erkrankungen vor.
Bei Frauen zeichnete sich ein ähnliches Bild ab: Überdurchschnittlich viele stoffwechselerkrankte Frauen arbeiteten als Fabrikarbeiterinnen, Reinigungskraft und Küchenassistentinnen. Im mittleren und gehobeneren Management tätige Frauen wiesen mit 1,2 Prozent die geringste Erkrankungsrate auf. Weiterhin zeigt die Untersuchung, dass das Diabetesrisiko mit dem Alter erheblich ansteigt: So hat fast jeder sechste über 55-jährige Berufskraftfahrer und jede zehnte Fabrikarbeiterin dieser Altersgruppe einen Diabetes.
„Bekannt war bisher, dass es einen sozioökonomischen Zusammenhang bei Diabeteserkrankungen gibt: Menschen mit einem geringen Bildungsniveau, schlechter Bezahlung und einem einfachen Beruf haben ein um 30 bis 40 Prozent erhöhtes Risiko für einen Typ-2-Diabetes“, erklärt DDG Experte Dr. med. Kurt Rinnert, leitender Betriebsarzt bei der Stadt Köln. Die aktuelle Studie rückt darüber hinaus nun erstmals konkrete Berufsbilder in den Fokus, identifiziert sie als potentiellen Risikofaktor und sensibilisiert Betriebsärzte für unmittelbare Maßnahmen an den jeweiligen Arbeitsplätzen. „Arbeit ist das halbe Leben, wie der Volksmund besagt. Der Arbeitsplatz sollte daher so gestaltet sein, dass die Erkrankungswahrscheinlichkeit dort so gering wie möglich ausfällt“, so der Herausgeber der DDG Berufsempfehlung „Diabetes und Arbeit“.2
Zu den Risikofaktoren für einen Diabetes Typ 2 gehören Übergewicht, Mangel an Bewegung, erhöhte Blutfettwerte und Bluthochdruck. „Berufskraftfahrer sind durch die mit ihrer Arbeit einhergehende mangelnde Bewegung und dem häufig einseitigen, ungesunden Essen offensichtlich besonders gefährdet, an einem Diabetes zu erkranken. Zudem ist bekanntermaßen Schichtarbeit, die in Fabriken gehäuft vorkommt, ebenfalls ein Risikofaktor“, erklärt Rinnert.
Die DDG fordert anlässlich der Studie, mehr Diabetes-Präventions-Programme bei Arbeitgebern zu implementieren. Beispielsweise sollten Berufskraftfahrer geeignete präventive, aber auch therapeutische Maßnahmen wie ausreichend Bewegung und gesunde Ernährung in ihren Tagesablauf einbauen können und Schichtarbeiter weniger wechselnde Schichten erhalten. „Um Betroffenen mehr Lebensqualität aber auch ein langes Berufsleben zu ermöglichen, muss die Arbeitsmedizin die Vermeidung von Neben- und Folgeerkrankungen, die zu frühzeitiger Berentung führen könnten, deutlicher in den Fokus nehmen“, so DDG Präsidentin Professor Dr. med. Monika Kellerer.
Auf der Jahrespressekonferenz der DDG am 11. März 2020 in Berlin berichten Experten über Versorgungsstrukturen in der Diabetesbehandlung und was geschehen muss, um einen Notstand in der Diabetesversorgung in Deutschland zu verhindern. Darüber hinaus diskutieren sie, ob die rund 45 000 Hausarzt-Praxen ausreichend auf eine Diabetes-Epidemie vorbereitet sind und bilanzieren das Disease Management Programm (DMP). Zudem berichtet eine Patientin über ihre „Patient Journey“.
Literatur:
1) Sofia Carlsson et al.: Incidence and prevalence of type 2 diabetes by occupation: results from all Swedish employees, Diabetologia (2020) 63:95-103, https://link.springer.com/content/pdf/10.1007/s00125-019-04997-5.pdf
2) DDG-Berufsempfehlung „Diabetes und Arbeit“
https://www.deutsche-diabetes-gesellschaft.de/ueber-uns/ausschuesse-und-kommissi…
Deutscher Gesundheitsbericht Diabetes 2020
https://www.deutsche-diabetes-gesellschaft.de/fileadmin/Redakteur/Stellungnahmen…
Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit mehr als 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der fast sieben Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.
Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Katrin Bindeballe
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-55, Fax: 030 3116937-20
bindeballe@ddg.info
http://www.deutsche-diabetes-gesellschaft.de
Weitere Informationen:
http://www.deutsche-diabetes-gesellschaft.de
Quelle: IDW
Tarifrunden: 2019 Kräftige Lohndynamik, neue Wahlmodelle bei Arbeitszeit, 2020 differenzierte Lage auf dem Arbeitsmarkt
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
WSI-Tarifarchiv: Detaillierte Bilanz und Ausblick
Tarifrunden: 2019 Kräftige Lohndynamik und neue Wahlmodelle bei der Arbeitszeit – 2020 sehr differenzierte Lage auf dem Arbeitsmarkt
Die Tariflöhne sind 2019 im Durchschnitt um 2,9 Prozent gestiegen – so stark wie selten in den vergangenen beiden Jahrzehnten (siehe auch Abbildung 1 in der pdf-Version dieser PM; Link unten). Lediglich in den Jahren 2014 und 2018 hat es höhere Abschlüsse gegeben. Das zeigt der neue Tarifpolitische Jahresbericht des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung.
„Der seit einigen Jahren zu beobachtende Trend zu einer expansiveren Lohnentwicklung hat sich fortgesetzt“, erklärt Prof. Dr. Thorsten Schulten, der Leiter des WSI-Tarifarchivs. Nachdem die Löhne in den 2000er-Jahren nur geringfügig gestiegen seien, hätten sie in den vergangenen Jahren den Rückstand teilweise aufgeholt. Real legten die Tarifvergütungen 2019 im Schnitt um 1,5 Prozent zu und damit etwas mehr als im Vorjahr, in dem die Verbraucherpreise stärker gestiegen waren. „Die kräftige Lohnentwicklung ist eine wichtige Voraussetzung dafür, dass der starke private Konsum die deutsche Wirtschaft bislang vor einer Rezession bewahrt hat“, sagt Schulten.
Die Tarifrunde 2020, in denen die DGB-Gewerkschaften neue Vergütungstarifverträge für mehr als 10 Millionen Beschäftigte verhandeln, werde von einer „sehr differenzierten Lage auf dem Arbeitsmarkt“ geprägt sein, erwartet Schulten. Im Sozial- und Gesundheitswesen und in verschiedenen Dienstleistungsbranchen, in denen zum Teil relativ niedrige Löhne gezahlt werden, herrscht großer Arbeitskräftemangel. Deshalb werde es in diesen Branchen vor allem um eine finanzielle Aufwertung gehen. Dagegen ist etwa die Metall- und Elektroindustrie mit unsicheren Konjunkturaussichten und, insbesondere in der Automobilherstellung, einem hohen Transformationsdruck konfrontiert. Vor diesem Hintergrund spielt die Beschäftigungssicherung neben einer weiteren Stärkung der Kaufkraft eine erhebliche Rolle. Das WSI-Tarifarchiv dokumentiert die Tarifrunde auch tagesaktuell im Webangebot der Stiftung (siehe Link unten).
– Zuschläge für Metaller und Pflegekräfte –
Ein besonders starkes Lohnplus verzeichnete 2019 die Metall- und Elektroindustrie mit nominal 4,1 Prozent. Ins Gewicht fällt hierbei vor allem das im Tarifabschluss von 2018 vereinbarte „tarifvertragliche Zusatzentgelt“ in Höhe von 27,5 Prozent eines Monatsentgelt, das 2019 erstmals ausbezahlt wird. Hohe Zuwächse gab es 2019 auch in der Eisen- und Stahlindustrie mit 3,9 Prozent, beim öffentlichen Dienst der Länder mit 3,6 Prozent und im Bereich Gartenbau, Land- und Forstwirtschaft mit 3,4 Prozent (siehe auch Abbildung 2 in der pdf). In einigen Branchen wie zum Beispiel dem öffentlichen Dienst oder dem Einzelhandel haben die unteren Lohngruppen überdurchschnittlich hohe Zuschläge erhalten. In anderen Fällen wurden bestimmte Berufsgruppen deutlich aufgewertet, so erhielten etwa Pflegekräfte im öffentlichen Dienst der Länder eine Mindesterhöhung von 120 Euro pro Monat. Noch stärker profitierten Pflegekräfte der Universitätskliniken Freiburg, Heidelberg, Tübingen und Ulm: Je nach Erfahrungsstufe sah ihr gemeinsamer Tarifabschluss eine Lohnerhöhung zwischen 16 und 37 Prozent vor.
– Wahlmodelle für mehr Selbstbestimmung bei der Arbeitszeit –
Wie schon in den Jahren zuvor rückte das Thema Arbeitszeit stärker in den Mittelpunkt, zeigt die WSI-Analyse. Dabei ging es weniger um kollektive Arbeitszeitverkürzungen, sondern in erster Linie um mehr Selbstbestimmung. Besonders beliebt waren individuelle Wahlmöglichkeiten, bei denen die Arbeitnehmer selbst entscheiden können, ob sie mehr Geld oder mehr Freizeit wollen. „Die große Unterstützung und Akzeptanz bei den Beschäftigten hat dazu geführt, dass die Gewerkschaften in immer mehr Tarifbranchen entsprechende Forderungen erhoben haben“, so Schulten. Vorreiter sei die Eisenbahn- und Verkehrsgewerkschaft (EVG) gewesen. Sie hatte bereits im Dezember 2016 bei der Deutschen Bahn AG einen Tarifvertrag vereinbart, nach dem die Beschäftigten zwischen einer Lohnerhöhung, einer Verkürzung der Wochenarbeitszeit oder mehr Jahresurlaub wählen konnten. Im jüngsten Tarifabschluss bei der Deutschen Bahn AG wurde dieses Modell noch einmal erweitert: Ab 2021 können sich die Bahnbeschäftigten zwischen 5,6 Prozent mehr Entgelt, zwei Stunden weniger Arbeit pro Woche oder zwölf zusätzlichen freien Tagen entscheiden. Auch bei der Deutschen Post AG und in der Metall- und Elektroindustrie wurde bereits 2018 die Wahl zwischen Entgelt- und Arbeitszeitkomponenten im Tarifvertrag festgeschrieben.
In der Tarifrunde 2019 wurde in der Eisen- und Stahlindustrie, bei den Banken und Versicherungen und in der chemischen Industrie über individuelle Wahlmöglichkeiten verhandelt. Während in der Eisen- und Stahlindustrie ein entsprechendes Modell vereinbart wurde, waren die Arbeitgeber bei den Banken nicht dazu bereit. Die Gewerkschaft ver.di setzte jedoch in einigen Firmentarifverträgen wie bei der Postbank oder der Sparda-Bank entsprechende Regelungen durch. Im November 2019 wurde schließlich in der chemischen Industrie das bislang umfassendste Tarifpaket geschnürt, wonach die individuellen Wahloptionen zukünftig neben Entgelt- und Arbeitszeitkomponenten auch noch eine Vielzahl anderer tarifvertraglicher Leistungen umfassen können.
– Problem: Arbeitgeber wollen sich seltener binden –
Insgesamt haben die DGB-Gewerkschaften 2019 für 8,4 Millionen Beschäftigte neue Tarifabschlüsse ausgehandelt. Weitere 12,8 Millionen Beschäftigte profitierten im vergangenen Jahr von Tarifverträgen, die in früheren Jahren vereinbart worden waren. Bei den im Jahr 2019 neu abgeschlossenen Verträgen lag die durchschnittliche Laufzeit bei 25,4 Monaten. Ein Problem ist und bleibt die rückläufige Tarifbindung: Weil sich weniger Arbeitgeber an Tarife gebunden fühlen, bleiben vielen Beschäftigten die Vorteile vorenthalten. Nach Daten des IAB-Betriebspanels arbeiteten im Jahr 2018 in Deutschland insgesamt nur noch 54 Prozent aller Beschäftigten in tarifgebundenen Betrieben, davon 46 Prozent in Unternehmen mit Branchentarifverträgen und 8 Prozent in Unternehmen mit Haus- und Firmentarifverträgen. Zwar gibt es unter den Unternehmen ohne Tarifvertrag eine relativ große Anzahl, die erklären, sich freiwillig an bestehenden Tarifverträgen zu orientieren. „Orientierung kann jedoch sehr Unterschiedliches bedeuten und geht in den meisten Fällen mit einer deutlichen Abweichung von Tarifstandards einher“, so Schulten. Die Arbeitsbedingungen in nicht-tarifgebunden Unternehmen seien in der Regel schlechter als in Unternehmen mit Tarifvertrag. Im Durchschnitt verdienen laut einer WSI-Untersuchung Arbeitnehmer in Unternehmen ohne Tarifvertrag gut zehn Prozent weniger als vergleichbare Beschäftigte in tarifgebundenen Betrieben der gleichen Branche und ähnlicher Größe. Zugleich ist ihre Wochenarbeitszeit eine knappe Stunde länger.
– Unsichere Konjunktur wirft Schatten voraus –
Die Tarifrunde 2020 werde durch „unsicherere ökonomische Rahmenbedingungen geprägt sein“, erklärt der WSI-Wissenschaftler. Dies gelte insbesondere für die Metall- und Elektroindustrie, deren Tarifverhandlungen bereits begonnen haben. Schon heute hätten zahlreiche Unternehmen der Branche einen Beschäftigungsabbau angekündigt. Dementsprechend werde die Frage der Arbeitsplatzsicherung in der kommenden Tarifrunde oben auf der Tagesordnung stehen. In anderen Bereichen herrsche dagegen weiterhin großer Arbeitskräftemangel, was den Spielraum für erhebliche Lohnerhöhungen vergrößere. Das gilt nach Analyse des Experten im Sozial- und Gesundheitswesen, aber auch in klassischen Niedriglohnbranchen wie der Landwirtschaft, dem Bäcker- und Friseurhandwerk oder dem Hotel- und Gaststättengewerbe.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
Quelle: Thorsten Schulten und das WSI-Tarifarchiv: Tarifpolitischer Jahresbericht 2019: Anhaltende Lohndynamik und neue tarifliche Wahlmodelle, Düsseldorf, Februar 2020. Download: https://www.boeckler.de/pdf/p_ta_jb_2019.pdf
Die PM mit Grafiken (pdf): https://www.boeckler.de/pdf/pm_ta_2020_02_19.pdf
Aktuelle Informationen zu Forderungen, Verhandlungen und Abschlüssen in der Tarifrunde 2020: https://www.boeckler.de/wsi-tarifarchiv_122759.htm
Quelle: IDW
Forschungsvorhaben analysieren Langfristperspektiven für Bioenergieanlagen nach 2020
Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Die Vergütung für Bestandsanlagen wurde mit der Einführung des Erneuerbare-Energien-Gesetz (EEG) im Jahr 2000 für die Dauer von 20 Jahren festgeschrieben. Daraus folgt, dass eine wachsende Anzahl von Bioenergieanlagen in den kommenden Jahren schrittweise aus der bisherigen Förderung fallen wird. In zwei Forschungsvorhaben wurde in den zurückliegenden zwei Jahren untersucht, welche Anschlussperspektiven für Bestandsanlagen vor diesem Hintergrund bestehen. Auf der Abschlusstagung beider Vorhaben am 19. Februar 2020 konnte ein erstes Fazit gezogen werden.
In den vom Bundesministerium für Ernährung und Landwirtschaft finanzierten Forschungsvorhaben „Bioenergie – Potenziale, Langfristperspektiven und Strategien für Anlagen zur Stromerzeugung nach 2020″ (BE20plus) und „Next Generation Biogasanlagen“ (NxtGenBGA) wurde wissenschaftlich untersucht, welche Anschlussperspektiven für Bioenergieanlagen bestehen, wenn diese nach 20 Jahren aus der bisherigen EEG-Förderung ausscheiden. Ziel war es vor diesem Hintergrund, einen Beitrag zu leisten, wie erhaltenswerte Bioenergieanlagen identifiziert und die Bedingungen für einen wirtschaftlichen Weiterbetrieb im Rahmen einer Gesamtsystembetrachtung verbessert werden können.
Im Fokus stand für die beteiligten Wissenschaftler insbesondere das Bemühen, technische Konzepte, Kosten und Erlöse, Treibhausgasemissionen und andere Umwelt- und Nachhaltigkeitseffekte für heutige und zukünftig mögliche Anlagenkonfigurationen zu untersuchen und diese mit verschiedenen Geschäftsfeldern zu verbinden. So wurden Strategien erstellt, die nach dem Auslaufen der ersten Vergütungsperiode (Post-EEG) erschließbar sind. Mit Hilfe eines Energiemarktmodells wurden zudem Effekte auf der Gesamtsystemebene analysiert und bewertet. Den Ansatz der Forschungsprojekte erläutert Martin Dotzauer vom DBFZ und Projektleiter von „BE20plus“, wie folgt: „In den Forschungsprojekten wurden die Bioenergieanlagen im Stromsektor sowohl aus Betreibersicht als auch im Hinblick auf das Gesamtsystem untersucht. Das ist wichtig, damit die Rahmenbedingungen auch tatsächlich zu den energiepolitischen Ambitionen passen und Betreiber ihre Rolle im zukünftigen Energiesystem richtig einschätzen können.“
Auf dem in Berlin stattgefundenen Abschlussworkshop am 19. Februar kamen beide Vorhaben übereinstimmend zu dem Ergebnis, dass die zukünftigen ökonomischen Rahmenbedingungen, d.h. der Einsatzstoffpreis für Brennstoffe und Substrate, der CO2-Preis und die allgemeine Preisentwicklung einerseits und die marktseitigen Erlösmöglichkeiten für die unterschiedlichen Leistungen von Bioenergieanlagen andererseits, einen entscheidenden Einfluss auf deren Überlebensfähigkeit ausüben. Systemisch werden Bioenergieanlagen im Strom- und Wärmesektor mit zunehmendem Ausbau erneuerbarer volatiler Energieträger wieder wichtiger, da die Anlagen eine bereits verfügbare Flexibilitätsoption darstellen, die bei wachsenden Anteilen von fluktuierendem Wind- und Solarstromanteilen für die Versorgungssicherheit erforderlich sind. Betriebskonzepten, die eine hohe technisch-ökonomische Gesamteffizienz aufweisen, sollte also trotz aktuell noch unzureichender Refinanzierung durch Markterlöse eine Übergangsperspektive für deren zukünftigen Beitrag zur Transformation des Energiesystems in Deutschland eingeräumt werden. Auch wenn diese hinsichtlich ihrer bloßen Gestehungskosten tendenziell kostenaufwändiger sind als die fluktuierenden Erzeugungsarten, so die Wissenschaftler.
„Vor allem flexible Biogasanlagen erfüllen zukünftig zunehmende Funktionen zur Aussteuerung von Unregelmäßigkeiten bei der regenerativen Energieerzeugung. Die bedarfsgerechte Strombereitstellung steht hier ganz vorne. So schneiden z.B. auch saisonale Flexibilitätskonzepte in unseren Untersuchungen recht günstig ab“, resümiert Dr. Ludger Eltrop vom IER der Universität Stuttgart und Projektleiter von „NxtGenBGA“. Martin Dotzauer vom DBFZ ergänzt: „Im Widerspruch zum systemischen Mehrwert der Bioenergie bei hohen Anteilen erneuerbarer Energien ist ein Weiterbetrieb für den Großteil der Anlagen derzeit schwierig. Insbesondere der Teil, der weitergehende Anforderungen an die Umweltwirkung oder Effizienz nicht so einfach erfüllen kann, wird unter den gegenwärtigen Rahmenbedingungen wahrscheinlich nicht erfolgreich in die Post-EEG-Phase eintreten können. Das ist umso kritischer, da die Anlagen nach dem Atom- und Kohleausstieg insbesondere ab Mitte der 2030er Jahre gebraucht werden, wenn die Energiewende auf die Zielgerade einbiegt“. Die Ergebnisse der Abschlussveranstaltung werden bis zum endgültigen Abschluss des Projektes zum 30. Juni 2020 in Handlungsempfehlungen für die Politik übersetzt.
Projektpartner:
IZES – Institut für ZukunftsEnergie- und Stoffströme
Helmholtz-Zentrum für Umweltforschung – UFZ
Universität Stuttgart – Institut für Energiewirtschaft und Rationelle Energieanwendung
Next Kraftwerke GmbH
Universität Hohenheim
Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.
Wissenschaftliche Ansprechpartner:
Martin Dotzauer
Tel.: +49 (0)341 2434-385
E-Mail: martin.dotzauer@dbfz.de
Dr. Ludger Eltrop (IER)
Tel.: +49 711 685-87816
E-Mail: ludger.eltrop@ier.uni-stuttgart.de
Pressekontakt:
Paul Trainer
Tel.: +49 (0)341 2434-437
E-Mail: paul.trainer@dbfz.de
Weitere Informationen:
https://www.dbfz.de/pressemediathek/presse/pressemitteilungen/pressemitteilung-1…
Quelle: IDW
Ein schwaches Herz schadet auch dem Gehirn
Verena Müller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften
Pumpt das Herz zu wenig Blut in den Körper, wird meist auch das Gehirn nicht ausreichend mit Sauerstoff versorgt. Bislang war jedoch unklar, wie sich das auf die Hirnstruktur auswirkt. Forscher des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) haben nun in Zusammenarbeit mit dem Herzzentrum Leipzig herausgefunden, dass darunter auch die graue Hirnsubstanz leidet.
Etwa 1,8 Millionen Menschen leiden in Deutschland an einer Herzschwäche, auch Herzinsuffizienz genannt. Die wirkt sich nicht nur auf die Leistungsfähigkeit der Patienten aus – sie sind schneller erschöpft und klagen über Atemnot bei Belastungen. Auch ihr Gehirn ist davon betroffen. Wissenschaftler des MPI CBS haben nun belegt, auch die Dichte der grauen Substanz sinkt. Besonders groß ist der Schaden nach einem Herzinfarkt.
„Je schwächer das Herz, desto geringer die Dichte der grauen Substanz“, erklärt Matthias Schroeter, Leiter der Forschungsgruppe für Kognitive Neuropsychiatrie am MPI CBS, das zentrale Ergebnis der Studie. Besonders betroffen seien dabei das mittlere Stirnhirn und der sogenannte Precuneus innerhalb der Großhirnrinde sowie der Hippocampus. Diese Regionen verarbeiten vor allem Aufmerksamkeitsprozesse und Gedächtnisinhalte. Und nicht nur das: „Ein Abbau von grauer Substanz in diesen Bereichen kann die Entstehung von Demenz begünstigen“, sagt Schroeter.
Untersucht haben die Wissenschaftler den Zusammenhang zwischen grauer Substanz und Herzfunktion an 80 Patienten des Herzzentrums Leipzig mithilfe der Magnetresonanztomographie (MRT) und zweier Faktoren: Der Menge an Blut, die bei einem Herzschlag ausgestoßen wird, und der Konzentration eines bestimmten Hormons in der Blutbahn. Dabei zeigte sich ein signifikanter Zusammenhang zwischen dem Grad der Herzinsuffizienz und den Veränderungen in der grauen Substanz.
Als graue Substanz bezeichnet man im Gehirn die Gebiete, die vorwiegend aus den Zellkörpern der Nervenzellen bestehen. Die langen Enden der Nervenzellen, die Nervenfasern, bilden hingegen die weiße Substanz. Der bekannteste Teil der grauen Substanz ist die Großhirnrinde, die das Gehirn als äußerer, zwei bis fünf Millimeter dicker Mantel mit seinen zahlreichen Windungen umgibt. Hier werden die eigentlichen höheren geistigen Fähigkeiten des Menschen – von den Sinneseindrücken über Sprache bis zu Kreativität – verarbeitet.
„Bei einer Herzschwäche muss also auch bedacht werden, dass dabei die Hirnstruktur geschädigt wird“, sagt der Mediziner. Frühere Studien hatten gezeigt, was dem Abbau am besten entgegenwirkt: Sport und soziale Aktivitäten. „Natürlich muss man auch die verminderte Herzfunktion selbst behandeln.“ Soll heißen: Die Ursachen wie Rauchen, Diabetes oder Adipositas angehen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Matthias Schroeter
Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig
0341 9724962
schroet@cbs.mpg.de
Originalpublikation:
Karsten Mueller, F. Thiel , F. Beutner, A. Teren, Tommaso Ballarini, Harald E. Möller, Kristin Ihle, Arno Villringer, and Matthias L. Schroeter (2020) Brain change with heart failure: Cardiac biomarker alterations and gray matter decline. Circulation Research
Weitere Informationen:
https://www.cbs.mpg.de/herzschwaeche-graue-substanz?c=7505
Zur Pressemitteilung auf der Seite des MPI CBS
Quelle: IDW
Regenrückhaltebecken bringen Artenvielfalt in den besiedelten Raum
Jessica Bode Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Doktorarbeit einer DBU-Stipendiatin zeigt: Management kann naturnahe Strukturen fördern
Osnabrück/Münster. Die weltweite Zunahme der Siedlungs- und Verkehrsfläche stellt eine der größten Herausforderungen für den Erhalt der biologischen Vielfalt dar. Allein in Deutschland hat sie sich nach Angaben des Statistischen Bundesamts von 1992 bis 2018 von rund 40.000 auf fast 50.000 Quadratkilometer ausgedehnt. Der enorme Flächenverbrauch führt dabei häufig zu einer Zerstörung naturnaher Lebensräume. Die Ergebnisse einer aktuellen Untersuchung belegen nun, dass städtische Regenrückhaltebecken bei naturnaher Gestaltung zum Erhalt der Biodiversität beitragen können. „Heutzutage gehört der Schutz der Artenvielfalt neben dem Klimaschutz zu den größten Herausforderungen. Auf kommunaler Ebene bieten sich gute Chancen beim Management von Regenrückhaltebecken“, sagt Dr. Volker Wachendörfer, Fachreferent Naturschutz bei der Deutschen Bundesstiftung Umwelt (DBU). Im Zuge eines Stipendiums bei der DBU hatte Dr. Lisa Holtmann an der Universität Osnabrück über die Zusammenhänge promoviert.
An Regenrückhaltebecken mehr Pflanzenarten als an Kontrollgewässern
„Da städtische Gewässer aus Gründen des Hochwasserschutzes oder infolge industrieller Nutzung stark verändert wurden, sind auch ihre Ökosysteme in Mitleidenschaft gezogen worden. Mit dem Begradigen, Eindämmen und Betonieren der Bäche, Flüsse und Stillgewässer sowie der zunehmenden Flächenversiegelung steigt zudem die Hochwassergefahr in Siedlungsgebieten an“, so Holtmann. Um dieser Entwicklung entgegenzuwirken, wurden in Mitteleuropa in den letzten Jahrzehnten verstärkt Regenrückhaltebecken angelegt. Im Rahmen der Doktorarbeit wurde die Vielfalt der Pflanzenarten an 35 Regenrückhaltebecken und 35 Kontrollgewässern in und um Münster (Westfalen) vergleichend analysiert. Die Ergebnisse dieser Untersuchung belegen, dass im Wasser lebende, salztolerante und gefährdete Pflanzen an den Regenrückhaltebecken in höheren Artenzahlen vorkamen als an den Kontrollteichen, die teilweise sogar extra zu Artenschutzzwecken angelegt worden waren.
Bei Anlage und Pflege der Becken Biodiversitätsschutz berücksichtigen
Entscheidend für eine höhere Pflanzenvielfalt sind nach Ansicht der Forscher vor allem kommunale Pflegemaßnahmen. „Wir gehen davon aus, dass das regelmäßige Management der Becken gute Bedingungen für gefährdete Pflanzenarten fördert“, erläutert Prof. Dr. Thomas Fartmann, Leiter der Abteilung für Biodiversität und Landschaftsökologie an der Universität Osnabrück. Um optimalen Hochwasserschutz zu erreichen, werden alle paar Jahre die Sträucher und Bäume am Ufer beschnitten und die Teiche entschlammt. Die niedrige Krautschicht wird in der Regel jedes Jahr im Winter geschnitten. Dieses Eingreifen schaffe offenen Boden und lasse Licht an die dort vorhandenen Samen, die dann auskeimen und wachsen können. Bei der Anlage und Pflege von Regenrückhaltebecken sollten Belange des Biodiversitätsschutzes zukünftig verstärkt berücksichtigt werden.
Weitere Informationen:
https://www.dbu.de/123artikel38567_2442.html Pressemitteilung online
Quelle: IDW
Lässt sich Biogas in kleinen Anlagen direkt in Biomethan umsetzen?
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Power-to-Gas als Flexibilisierungskonzept auch für landwirtschaftliche Biogasanlagen
Die Umwandlung von Kohlendioxid in Methan – das sogenannte Power-to-Gas-Verfahren – gilt als wirtschaftlich vergleichsweise attraktive Option zur Speicherung von Strom. Wird dafür das in Biogasanlagen entstehende CO2 genutzt, bieten sich eine Reihe von Vorteilen. Ob das jedoch auch mit kleineren, eher landwirtschaftlichen Anlagen gelingen kann, untersuchen jetzt Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg, der regineering GmbH und der Technische Hochschule Ingolstadt. Gefördert werden sie dabei vom Bundesministerium für Ernährung und Landwirtschaft (BMEL).
Kohlendioxid fällt in Biogasanlagen als Bestandteil des Biogases vergleichsweise konzentriert an. In größeren Biogasanlagen werden deshalb Konzepte getestet und umgesetzt, die das Biogas durch sogenannte Methanisierung mit Hilfe von Strom aus Windkraftanlagen zu Biomethan aufwerten. Dieses Power-to-Gas-Verfahren speichert den erneuerbaren Strom quasi chemisch in Form von Bioerdgas, das über die Gasnetze bestens transportierbar ist.
Für die kleineren landwirtschaftlichen Biogasanlagen gilt die Aufbereitung und Einspeisung in das Gasnetz – sofern vor Ort überhaupt verfügbar – zurzeit jedoch noch als sehr aufwendig. Deshalb erarbeiten die Wissenschaftler aus Bayern ein neuartiges Konzept, bei dem das Biogas zwar methanisiert, dann aber direkt an der Anlage verwertet wird.
Konkret soll das Biogas aus dem Fermenter ausgeschleust und dessen CO2-Anteile im Nebenstrom katalytisch reduziert werden, wenn entsprechender Strom preisgünstig zur Verfügung steht. Anschließend gelangt das Biomethan zurück in die Gasblase. Dort steigt der Methananteil im Biogas und damit dessen Energiegehalt sukzessive an, was sich ideal mit flexibler, bedarfsgerechter Fahrweise der BHKWs kombinieren lässt.
Die Partner wollen zunächst die grundsätzliche Realisierbarkeit des Konzeptes testen, um es im nachfolgenden Schritt an realen Biogasanlagen umzusetzen. Gefördert werden sie dabei vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) über den Projektträger Fachagentur Nachwachsende Rohstoffe e. V. (FNR). Informationen zu den Projekten stehen auf fnr.de unter den Förderkennzeichen 22035318, 2219NR277 und 2219NR279 zur Verfügung.
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Torsten Gabriel
Tel.: +49 3843 6930-117
Mail: t.gabriel@fnr.de
Weitere Informationen:
https://www.fnr.de/projektfoerderung/projektdatenbank-der-fnr/
https://www.fnr.de/index.php?id=11150&fkz=22035318
https://www.fnr.de/index.php?id=11150&fkz=2219NR277
https://www.fnr.de/index.php?id=11150&fkz=2219NR279
https://www.fnr.de/projektfoerderung/ausgewaehlte-projekte/projekte/news/biometh…
Quelle: IDW
Beim Frühstück wird doppelt so viel Energie verbrannt wie beim Abendessen
Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck
Unterschiedliche Kalorienverwertung je nach Tageszeit – Untersuchung der Sektion für Psychoneurobiologie der Universität zu Lübeck
Ein ausgiebiges Frühstück sollte einem üppigen Abendessen vorgezogen werden, um Übergewicht oder Blutzuckerspitzen bei Diabetes mellitus zu vermeiden. Das geht aus einer Studie der Sektion für Psychoneurobiologie der Universität zu Lübeck hervor.
Die Bedeutung der Tageszeit für den nahrungsinduzierten Energieumsatz, d.h. die Verbrennung von verzehrten Kalorien, wird seit Jahren widersprüchlich diskutiert. Außerdem ist unklar, ob eine mögliche tageszeitliche Variation des Energieumsatzes von der Menge aufgenommener Kalorien abhängt. Eine DFG-geförderte Studie der Sektion für Psychoneurobiologie hat nun unter der Leitung von Prof. Kerstin Oltmanns untersucht, ob die nahrungsinduzierte Thermogenese (NIT) bei identischen Mahlzeiten tageszeitlich variiert und ob diese Regulation auch nach kalorienarmen Mahlzeiten im Vergleich zu hochkalorischen erhalten bleibt.
In einer verblindeten, randomisierten Laborstudie erhielten 16 normalgewichtige Männer ein niederkalorisches Frühstück und ein hochkalorisches Abendessen in der einen Bedingung und umgekehrt in der anderen. Die NIT wurde mittels indirekter Kalorimetrie gemessen und Parameter des Glukosestoffwechsels bestimmt. Darüber hinaus wurden Hungergefühle und Appetit auf Süßigkeiten in den beiden Bedingungen miteinander verglichen.
Ernährungswissenschaftlerin und Studienleiterin Juliane Richter, M.Sc., erklärt: „Die Ergebnisse zeigen, dass eine identische Kalorienzufuhr sowohl nach hoch- als auch nach niederkalorischen Mahlzeiten zu einer 2,5-fach höheren NIT am Morgen im Vergleich zum Abend führt. Der Anstieg des Blutzucker- und Insulinspiegels war nach dem Frühstück im Vergleich zum Abendessen deutlich vermindert. Das niederkalorische Frühstück führte zu verstärkten Hungergefühlen, insbesondere auf Süßigkeiten, während des ganzen Tages.“
Aus den Ergebnissen schlussfolgern die Wissenschaftler: Die Kalorienverbrennung nach einer Mahlzeit ist grundsätzlich am Morgen deutlich höher als am Abend. Dieser genetische Tagesrhythmus bleibt auch bei niederkalorischer Ernährung, z.B. während einer Diät um abzunehmen, erhalten. Darüber hinaus kann verstärkter Appetit auf Süßes nach einem niederkalorischen Frühstück zu gehäuftem Snacking im Tagesverlauf verführen. Nach dem Abendessen kommt es auch zu einem höheren Anstieg von Glukose und Insulin im Vergleich zum Frühstück. Daher sollte ein ausgiebiges Frühstück einem üppigen Abendessen vorgezogen werden, um Übergewicht oder Blutzuckerspitzen bei Diabetes mellitus zu vermeiden.
In einer Folgestudie soll nun das Ergebnis der Studie im Hinblick auf die Gewichtsabnahme bei Übergewichtigen untersucht werden. „Unsere Studie zeigt, dass der menschliche Energieumsatz morgens grundsätzlich höher ist als abends. Das ist genetisch bedingt und bei jedem so“, erläutert Prof. Oltmanns. „Übergewichtige lassen häufig das Frühstück weg, weil sie abnehmen möchten, und essen abends eine große Hauptmahlzeit, wenn der Hunger übermächtig wird. Wir möchten nun nachweisen, dass es schon zu einer Gewichtsabnahme kommt, wenn man dieselbe Kalorienmenge hauptsächlich in der ersten Tageshälfte zu sich nimmt.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Kerstin Oltmanns
Universität zu Lübeck
Leitung der Sektion für Psychoneurobiologie
Marie-Curie-Straße
23562 Lübeck
Telefon: +49 451 3101 7531
Fax: +49 451 3101 7540
E-Mail: oltmanns@pnb.uni-luebeck.de
www: http://www.pnb.uni-luebeck.de
Originalpublikation:
Richter J, Herzog N, Janka S, Baumann T, Kistenmacher A, Oltmanns KM: Twice as high diet-induced thermogenesis after breakfast vs dinner on high-calorie as well as low-calorie meals. J Clin Endocrinol Metab, 2020 Mar 1;105(3) [Epub ahead of print]
Weitere Informationen:
http://academic.oup.com/jcem/article/105/3/dgz311/5740411
Quelle: IDW
Warum verzichten wir? Studie zum Fasten.
Stephan Düppe Stabsstelle 2 – Kommunikation und Öffentlichkeitsarbeit
FernUniversität in Hagen
40 Tage ohne Alkohol oder Fleisch, keine Süßigkeiten an Wochentagen, auf das Auto oder auf die private Internetnutzung verzichten: Vor allem in den sieben Wochen vor Ostern entdecken immer mehr Menschen die neue Lust am Verzicht. Ob ab Aschermittwoch oder zwischendurch – Fasten liegt im Trend.
Aber warum verzichten wir eigentlich? Aus religiösen oder gesundheitlichen Gründen? „Das möchte ich herausfinden“, sagt Dr. Patrick Heiser, wissenschaftlicher Mitarbeiter im Lehrgebiet Soziologische Gegenwartsdiagnosen an der FernUniversität in Hagen. Pünktlich zur vorösterlichen Fastenzeit startet der Religionssoziologe eine Online-Befragung zum Fasten und sucht dafür Teilnehmende.
Mit dem Fasten ist eine jahrhundertealte Tradition verbunden. Aktuell steigt der Anteil an Menschen, die bewusst für eine bestimmte Zeit auf Lebensmittel und Konsumgüter verzichten. Auf eine Befragung im Auftrag der Krankenkasse DAK (2019) geht zurück: Knapp zwei Drittel der Bevölkerung in Deutschland haben mindestens einmal im Leben gefastet. Tendenz steigend. Und doch ist das Fasten in der Soziologie bisher kaum untersucht worden. Wer aus welchen Gründen fastet, wie und auf was verzichtet wird: Bislang liegen dazu kaum Daten vor.
Fasten und Religion
Dabei ist das Fasten bis heute Bestandteil aller Weltreligionen. „Ich vermute aber, dass es als religiöse Pflicht an Bedeutung verliert und zunehmend individuell gestaltet wird“, sagt Heiser. „Das führt zu einer Pluralisierung der Fasten-Praktiken.“ Interessant ist für Heiser die Frage, welche Einstellung mit dem Verzicht auf Konsumgüter verbunden ist. „Fasten wird mit Ideologien verknüpft und dadurch mit Bedeutung versehen“, erklärt der Wissenschaftler. „Heute ist der Verzicht, zum Beispiel auf Fleisch oder das Auto, auch Konsumkritik“, sagt er mit Blick auf die politischen Debatten zur Einführung eines Veggie-Days in öffentlichen Kantinen und zum Umstieg auf öffentliche Verkehrsmittel.
Die Fasten-Studie ist ein Baustein bei Heisers Suche nach „religiösen Praktiken, die heute noch auf Resonanz stoßen und mitunter gar an Popularität gewinnen“. Diese erforscht der Wissenschaftler im Zuge seiner Habilitation. Neben dem Fasten ist das Pilgern ein Thema, das in eine ähnliche Richtung geht. „Einerseits gibt es eine Tradition, die für Evidenz bürgt. Andererseits gestalten Menschen diese religiösen Praktiken heute individuell“, sagt Heiser. „Pilgern und Fasten bewegen sich also zwischen individueller Gestaltung und religiöser Tradition. Beides ist wichtig, um die Popularität zu erklären.“
Redaktion: Carolin Annemüller
Wissenschaftliche Ansprechpartner:
Dr. Patrick Heiser
FernUniversität in Hagen
Lehrgebiet Soziologie II – Soziologische Gegenwartsdiagnosen
E-Mail: patrick.heiser@fernuni-hagen.de
Tel.: 02331 987-4745
https://www.fernuni-hagen.de/soziologie/lg2/team/patrick.heiser.shtml
Weitere Informationen:
https://e.feu.de/fasten – Umfrage zum „Fasten in der späten Moderne“. Teilnehmen können alle Interessierten unabhängig von Alter, Geschlecht und Religion. Die Umfrage läuft vom 26.02. bis 30.04.2020. Es handelt sich um eine anonyme Online-Befragung mit rund 30 Fragen.
Quelle: IDW
UV-Licht gegen störenden Unterwasserbewuchs – Innovatives Antifouling-System des IOW jetzt reif für Serienproduktion
Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Der Bewuchs mit lebenden Organismen – sogenanntes Biofouling – ist ein großes Problem für jedes technische Gerät, das über lange Zeiträume unter Wasser einsatzfähig bleiben soll. Verkrustung mit Muscheln und Seepocken sorgt meist für mechanische Probleme, aber auch schon dünne Biofilme aus Algen und Bakterien können empfindliche Oberflächen und Messtechnik schädigen sowie Messungen verfälschen. Nach rund dreijähriger Entwicklungszeit wurde jetzt ein am IOW konzipiertes Antifouling-Gerät für die gewerbliche Produktion lizensiert, das erstmals mittels einer fokussierenden Linsenoptik das UV-Licht energieeffizienter LEDs bündelt und damit bestrahlte Flächen dauerhaft von Bewuchs frei hält.
Entwickelt wurde der neue Antifouling-UV-Strahler für den Dauereinsatz auf den drei autonomen MARNET-Messstationen, die das IOW mitten in der Ostsee zur Überwachung der Meeresumwelt für das Bundesamt für Seeschifffahrt und Hydrographie (BSH) betreibt. Unterwassermessfühler erfassen dort fortlaufend Temperatur, Salz- und Sauerstoffgehalt, Strömung sowie die Phytoplankton-Entwicklung mittels Chlorophyll-a-Fluoreszenzmessung.
„Ein entscheidender Faktor für gleichbleibend hohe Qualität von Unterwassermessungen im Langzeitbetrieb ist die effiziente Bekämpfung von Biofouling“, sagt Robert Mars. Der IOW-Messtechnik-Experte leitet die technische Betreuung der Ostsee-MARNET-Stationen und ist Erfinder des neuen Antifouling-UV-Strahlers. „Organismen, die sich auf Messfühlern oder -flächen ansiedeln, beeinflussen die Sensorik erheblich, beispielsweise indem sie das Anströmen des Wassers behindern, das Messumfeld im Nahbereich der Sonden verändern, ihre Sensitivität abschwächen und vieles mehr. Ohne Antifouling dauert es – je nach Jahreszeit – zum Beispiel nur zwei bis vier Wochen, bis Algenbewuchs die Messung von Chlorophyll-a-Fluoreszenz massiv verfälscht“, erläutert Mars das Problem. Da die Messstationen aber nur fünf- bis sechsmal im Jahr zur Wartung mit dem Schiff angelaufen werden können, war man bislang auf chemisches Antifouling oder wenig effektive mechanische Hilfen angewiesen. „Insbesondere seit die Tributylzinn-Verbindungen (TBT), ein hochtoxisches Antifouling-Mittel, 2008 EU-weit verboten wurden, ist der Bewuchs ein chronisches Problem in der Unterwassermesstechnik“, so der IOW-Ingenieur.
Eine ungiftige Alternative ist der Einsatz von UV-C-Licht mit 200 – 280 Nanometern Wellenlänge. „Dieses wird schon länger zur Desinfektion eingesetzt – auch unter Wasser. Aber erst seit wenigen Jahren gibt es leistungsstarke UV-C-Leuchtdioden (LED), die im Vergleich zu traditionellen UV-Quecksilberdampflampen genau die Eigenschaften aufweisen, die wir für den Einsatz unter Extrembedingungen auf den MARNET-Stationen benötigen“, schildert Robert Mars den Ansatzpunkt für seine Neuentwicklung. „Die UV-C-LEDs sind kompakt und robust, haben eine sehr lange Lebensdauer sowie ein schmales Emissionswellenlängenband genau im erwünschten Bereich, so dass nicht unnötig Leistung in anderen Wellenlängenbereichen verschwendet wird. Insgesamt sind die LEDs unglaublich energieeffizient, was für einen auf Batteriestrom angewiesenen Langzeitbetrieb essenziell ist“, so Mars.
Gemeinsam mit Kollegen des IOW-Messtechnik-Teams und der Feinmechanischen Werkstatt des Instituts entwickelte und erprobte Robert Mars ab Frühjahr 2017 verschiedene Prototypen eines UV-Antifouling-Systems auf LED-Basis. Am Ende der Entwicklung, die in der finalen Umsetzungsphase vom BSH finanziert wurde, stand ein handliches Gerät mit widerstandsfähigem Titangehäuse und einer Kunststoffhalterung aus dem 3-D-Drucker, die schnell produziert und leicht an unterschiedliche Montagebedingungen angepasst werden kann. Vor allem aber bündeln erstmals Quarzglas-Linsen das UV-Licht, um der Unterwasser-Lichtstreuung entgegenzuwirken und die Strahlung effizient genau auf die Zielfläche zu lenken, wo sie gebraucht wird. Dabei können sowohl Punkt- als auch Flächenstrahler realisiert werden.
Der neue Antifouling-UV-Strahler des IOW ist bereits seit Juni 2019 auf allen drei MARNET-Stationen erfolgreich im Einsatz. „Er hat die intensive Erprobung mit Bravour bestanden hat“, freut sich Mars. „Alle Zielflächen konnten durch Bestrahlung aus bis zu 1 Meter Entfernung komplett und nachhaltig bewuchsfrei gehalten werden. Die bestrahlte Sensorik, insbesondere das störungsanfällige Chlorophyll-Fluorometer, liefert dauerhaft sehr gute Daten und das Gehäuse trotzt erfolgreich den rauen Freilandbedingungen mitten in der Ostsee“, zählt der IOW-Ingenieur die Erfolge des Entwicklungsprojektes auf.
Mittlerweile ist der Strahler auch zum Patent angemeldet, wobei der innovative Kern der Erfindung in der erstmalig verwendeten Linsenoptik liegt, die für den durchschlagenden Antifouling-Effekt entscheidend ist. „Unser System ist dadurch 100-mal effizienter als das einzige kommerzielle Produkt, das es für vergleichbare Anwendungen bislang auf dem Markt gibt“, erläutert Robert Mars. Der IOW-Ingenieur geht davon aus, dass gerade in der Meeresforschung der Bedarf für ein derart handliches und flexibel einsetzbares Antifouling-Gerät groß ist. „Man kann sich aber auch viele andere Anwendungsbereiche vorstellen, beispielsweise in der Aquakultur, wo der Dauereinsatz von Unterwassersensorik ebenfalls eine große Rolle spielt“, meint Mars abschließend. Um den Antifouling-UV-Strahler des IOW einem großen Anwenderkreis zugänglich zu machen, ist er seit Februar 2020 für die Serienproduktion durch die Firma Mariscope-Meerestechnik lizensiert und kann ab sofort vorbestellt werden.
Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 95 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de
Wissenschaftliche Ansprechpartner:
Kontakt IOW-MARNET-Technik:
Robert Mars, M.Sc. | Tel.: +49 (0)381 5197 261 | robert.mars@io-warnemuende.de
Kontakt Mariscope-Meerestechnik (http://www.mariscope.de | http://www.mariscope.cl):
Deutschland: Niklas Becker | Tel.: +49 4346 6000 490 | office@mariscope.de
Chile: Christian Haag (Geschäftsführer) | Tel.: +56 65 2310522 | info@mariscope.cl
Quelle: IDW
IGF macht’s möglich: Lemgoer Forschungsteam entwickelt neues Verfahren zur Abwehr von Noroviren auf Obst und Gemüse
Daniela Kinkel Pressestelle
Forschungskreis der Ernährungsindustrie e.V.
Viele Norovirus-Erkrankungen sind auf kontaminierte Lebensmittel, vor allem unverarbeitetes oder tiefgekühltes Obst und Gemüse, zurückzuführen.
Wie können Unternehmen, die Obst und Gemüse produzieren und verarbeiten, gezielt Noroviren auf ihren Produkten inaktivieren?
An einer innovativen Möglichkeit hat ein Forschungsteam von Prof. Dr. Barbara Becker an der Technischen Hochschule Ostwestfalen-Lippe in Lemgo geforscht: Im Rahmen eines Projektes der Industriellen Gemeinschaftsforschung (IGF) untersuchte das Team, ob und inwieweit Noroviren auf kontaminiertem Obst und Gemüse durch kaltvernebeltes Wasserstoffperoxid inaktiviert werden können.
Noroviren trotzen vielen Widerständen: Sie überstehen Tiefkühltemperaturen von bis zu
-150 °C und auch längere Backprozesse bei 200 °C. Auch außerhalb ihres Wirtes können sie länger als eine Woche überdauern. Die weltweit vorkommenden Erreger sind für die Mehrzahl der nicht bakteriell verursachten Magen-Darm-Infekte beim Menschen verantwortlich. Schätzungen zufolge sind zwischen 20 und 40 % aller Norovirus-Erkrankungen auf kontaminierte Lebensmittel, vor allem unverarbeitetes oder tiefgekühltes Obst und Gemüse, zurückzuführen. Im Jahr 2018 wurden dem Robert-Koch-Institut (RKI) 77.583 Norovirus-Erkrankungen übermittelt; 25 davon verliefen tödlich (nur laborbestätigte Erkrankungen; tatsächliche Fallzahlen werden deutlich höher geschätzt; Quelle: Infektionsepidemiologisches Jahrbuch für 2018 des RKI).
Viele Fragen bezüglich der Kontaminationsquellen, der Nachweisverfahren und der Präventionsmaßnahmen sind noch offen; eine vordringliche darunter ist: Wie können Unternehmen, die Obst und Gemüse produzieren und verarbeiten, gezielt Noroviren auf ihren Produkten inaktivieren?
An einer innovativen Möglichkeit zur Dekontamination von Lebensmitteln hat ein Forschungsteam von Prof. Dr. Barbara Becker an der Technischen Hochschule Ostwestfalen-Lippe in Lemgo geforscht: Im Rahmen eines Projektes der Industriellen Gemeinschaftsforschung (IGF), das über den Forschungskreis der Ernährungsindustrie e.V. (FEI) koordiniert wurde, untersuchte das Team, ob und inwieweit Noroviren auf kontaminiertem Obst und Gemüse durch kaltvernebeltes Wasserstoffperoxid (H2O2) inaktiviert werden können. Ein besonderer Vorteil des antimikrobiell wirkenden Mittels, das bereits zur Entkeimung von Oberflächen, zur Desinfektion von Verpackungen und in Waschbädern verwendet wird, ist, dass es schnell in Wasser und Sauerstoff zerfällt. Bei dessen Kaltvernebelung wird eine H2O2-Lösung bei Raumtemperatur mittels Druck über spezielle Düsen in sehr feine Dämpfe (Mikroaerosole) überführt, ohne dass Kondensat entsteht.
„Um herauszufinden, ob wir Noroviren auf Obst und Gemüse zuverlässig mit kaltvernebeltem Wasserstoffperoxid inaktivieren können, haben wir zwei verschiedene Vernebelungsanlagen verwendet, in denen wir Äpfel, Heidelbeeren, Gurken, Erdbeeren und Himbeeren, also Produkte mit unterschiedlichen Oberflächenbeschaffenheiten, behandelt haben, die zuvor mit murinem Norovirus (MNV) als Modellvirus kontaminiert worden waren“, erklärt Prof. Barbara Becker. „Wir konnten zeigen, dass die Kaltvernebelung von Wasserstoffperoxid sehr gut geeignet ist, um Noroviren auf Obst und Gemüse mit glatten Oberflächen zuverlässig zu inaktivieren“, so die Lebensmittelmikrobiologin. Veränderungen der Sensorik und der Nährstoffgehalte durch die Behandlung konnten nicht festgestellt werden, auch wurden keine Rückstände von Wasserstoffperoxid auf den behandelten Produkten nachgewiesen.
Das Team um Prof. Barbara Becker konnte mit seinen Untersuchungen erstmalig die hohe Wirksamkeit der H2O2-Kaltvernebelung nachweisen: Von dem innovativen Verfahren werden somit viele Obst- und Gemüseproduzenten, Händler und verarbeitende Betriebe – auch in der Gastronomie – profitieren können. Bevor sich das Verfahren breitflächig einsetzen lässt, müssen jedoch noch höhere Inaktivierungsraten auch auf Produkten mit rauer Oberfläche erzielt werden. So soll im Rahmen eines Folgeprojektes in Kooperation mit der Universität Leipzig untersucht werden, ob durch eine kombinierte Anwendung ausgewählter chemischer und physikalischer Verfahren Noroviren auf Beerenobst zuverlässig inaktiviert werden können. Ein Projekt, für den ein hoher Bedarf besteht: Allein 2017 wurden in Deutschland über 151.000 Tonnen Erdbeeren, Himbeeren und Heidelbeeren produziert und verarbeitet sowie 137.000 Tonnen aus weltweiter Erzeugung importiert.
Originalpublikation:
https://www.fei-bonn.de/bpp-2020-02-noroviren – IGF-Projekt des FEI: AiF 18802 N „Inaktivierung von humanem und murinem Norovirus (hNV, MNV) auf Obst und Gemüse mittels kaltvernebelten H2O2-Dampf“
Weitere Informationen:
https://www.fei-bonn.de/pm-20200226-best-practice-noroviren – Presseinfo inkl. Foto in Druckqualität und Links
http://www.th-owl.de/lifescience/labore-und-technika/mikrobiologie/ – Forschungsstelle: Technische Hochschule Ostwestfalen-Lippe, Fachbereich Life Science Technologies, Labor Mikrobiologie
https://www.rki.de/DE/Content/Infekt/Jahrbuch/Jahrbuch_2018.html – Infektionsepidemiologisches Jahrbuch für 2018 des RKI
Quelle: IDW
Das Fehlen von Fachkräften mit Berufsausbildung wird zum Innovationshemmnis
Gunter Grittmann Presse und Redaktion
Zentrum für Europäische Wirtschaftsforschung GmbH (ZEW)
Der Fachkräftemangel bremst die Innovationskraft der Unternehmen in Deutschland. Vor allem ein Mangel an beruflich Qualifizierten bewirkt, dass Unternehmen manche Innovationsprojekte nicht mehr durchführen können. Fachkräfte mit einer beruflichen Qualifikation im Produktions- und IT-Bereich sind besonders gefragt. Innovationen scheitern dagegen seltener an einem Mangel an akademisch ausgebildetem Personal. Um die Innovationsfähigkeit der deutschen Wirtschaft zu erhalten, müssen Politik und Unternehmen verstärkt in die berufliche Ausbildung investieren.
Die Studie entstand in Zusammenarbeit des ZEW Mannheim mit Prof. Jens Horbach von der Fachhochschule Augsburg. Sie stützt sich auf Daten des Community Innovation Survey (CIS) für Deutschland aus den Jahren 2017 bis 2019. Es zeigt sich, dass innovative Unternehmen besonders vom Fachkräftemangel betroffen sind: 43,8 Prozent aller innovationsaktiven Unternehmen melden Personalengpässe. In der Gesamtwirtschaft sind es 39,6 Prozent der Unternehmen.
Innovationsaktivitäten verstärken den Fachkräftemangel, da innovative Unternehmen besonders auf qualifiziertes Personal angewiesen sind. Zugleich erschwert ein Mangel an geeigneten Fachkräften weitere Innovationen. Wie die Studie zeigt, führt insbesondere das Fehlen geeigneter Mitarbeiter/-innen mit beruflicher Ausbildung dazu, dass Innovationsprojekte aufgeben werden müssen. Unternehmen mit einem bereits hohen Akademikeranteil haben dagegen seltener Schwierigkeiten, geeignete Mitarbeiter/innen für ihre ausgeschriebenen Stellen zu finden. Auch müssen Unternehmen seltener Innovationsprojekte aufgeben, wenn ihnen akademisch gebildetes Personal fehlt. Das deutet darauf hin, dass der Fachkräftemangel in Bezug auf akademische Berufe weniger stark die Innovationsaktivitäten hemmt.
Die Studie zeigt außerdem, dass Unternehmen mit einer großen Bandbreite an Innovationsaktivitäten Stellen für sehr unterschiedliche Qualifikationsniveaus ausschreiben. Entsprechendes gilt auch für Unternehmen, die schon in der Vergangenheit über einen Mangel an Fachkräften geklagt haben. „Wir erleben derzeit einen technologischen Wandel. Um diesen zu bewältigen, sind unterschiedliche Fähigkeiten notwendig“, sagt Christian Rammer, stellvertretender Leiter des ZEW-Forschungsbereichs Innovationsökonomik und Unternehmensdynamik sowie Mitautor der Studie. „Es reicht nicht aus, nur die Anzahl der Studierenden an Universitäten zu erhöhen. Auch die in der beruflichen Ausbildung vermittelten Fähigkeiten sind entscheidend für die Innovationskraft. Um Innovationen voranzubringen, braucht die deutsche Wirtschaft eine gute Mischung aus beiden Ausbildungsformen, beruflich und akademisch.“
Ein Hindernis für Innovationsprozesse ist insbesondere der Mangel an beruflich ausgebildeten Fachkräften in der Produktion sowie in der Informationstechnologie. „Es braucht eine höhere gesellschaftliche Anerkennung und bessere finanzielle Anreize, damit sich mehr Menschen für eine Berufsausbildung in diesen Bereichen entscheiden“, sagt Rammer. „Die Politik muss Maßnahmen ergreifen, um den negativen Auswirkungen des Fachkräftemangels auf die Innovationsaktivitäten der Unternehmen entgegenzuwirken. Nur so kann sie künftiges Produktivitätswachstum und damit einen höheren Wohlstand sichern.“
Wissenschaftliche Ansprechpartner:
Christian Rammer
Stellvertretender Leiter des ZEW-Forschungsbereichs
„Innovationsökonomik und Unternehmensdynamik “
Tel.: +49 (0)621 1235-184
christian.rammer@zew.de
Originalpublikation:
http://ftp.zew.de/pub/zew-docs/dp/dp20009.pdf
Quelle: IDW
Internationales Forscherteam stellt Maßnahmen zum Schutz der Tiefsee vor
Heiko Lammers Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Die Tiefsee wird immer intensiver als Rohstoffquelle genutzt – und industriell ausgebeutet. Ein internationales Forschungsteam, dem auch Professor Laurenz Thomsen von der Jacobs University in Bremen angehört, hat nun Schlüsselbereiche zum Schutz des fragilen Ökosystems identifiziert. Sie sind in der aktuellen Ausgabe des renommierten Wissenschaftsmagazins „Nature Ecology and Evolution“ beschrieben.
Die verstärkte Nutzung der Tiefsee wirft weltweit Bedenken hinsichtlich möglicher ökologischer Konsequenzen auf. Das Gebiet, das ab einer Wassertiefe von 200 Metern beginnt, ist die Heimat vieler seltener, einzigartiger und unbekannter Arten. Sie sind durch den industriellen Tiefseebergbau, die Hochseefischerei, den Klimawandel sowie durch die Verschmutzung durch Plastik zunehmend und mehrfach bedroht.
Auf Anregung von „Nature Ecology and Evolution“ führte die internationale Arbeitsgruppe unter der Leitung von Prof. Roberto Danovaro von der Polytechnischen Universität Marche Ancona in Italien eine Befragung von mehr als 100 Tiefseespezialisten durch und analysierte sowie diskutierte die Ergebnisse. Als Ziel wollten die Wissenschaftler eine Liste von Messparametern zur Erfassung essentieller ökologischer Variablen aufstellen, die alle wichtigen Aspekte des Tiefseeschutzes abdecken. Dazu gehören die Bestandsaufnahme der in dem jeweiligen Seegebiet vorkommenden größeren Organismen und deren Biomasse, des Nahrungseintrages von Algen und anderen Kleinstorganismen von der Meeresoberfläche sowie deren Aufnahme in die Nahrungskette. Dieser neue Ansatz eines Tiefsee-Monitorings soll maßgeblich mit Hilfe von zuverlässigen Sensoren und autonomen Robotern durchgeführt werden.
„Es gibt einen hohen Bedarf an Empfehlungen zur Unterstützung des Tiefseeschutzes seitens der Vereinten Nationen und der Internationalen Meeresbodenbehörde“, sagt Laurenz Thomsen, Professor für Geowissenschaften an der Jacobs University. „Bei der Befragung ging es nicht um eine Wunschliste zur Überwachung der Tiefsee, sondern um die Festlegung von Parametern, die jetzt schon zuverlässig gemessen werden können“, so Thomsen weiter.
Der Artikel, der auf einer Publikation im Science Journal basiert, erscheint in einer Zeit, in der zunehmend die Vorbereitung des umstrittenen Tiefseebergbaus betrieben wird. Der Bergbau auf dem Boden des Meeres soll helfen, die ständig wachsende Nachfrage nach Rohstoffen insbesondere für die Herstellung batteriebetriebener Elektrofahrzeuge zu befriedigen.
Das OceanLab an der Jacobs University, das Professor Thomsen leitet, verfügt über langjährige Erfahrung in der Überwachung von Tiefsee-Explorationsgebieten und der Entwicklung von Unterwasserrobotern. Die Jacobs University ist mit verschiedenen Arbeitsgruppen an Projekten zu den Auswirkungen des Tiefseebergbaus beteiligt.
Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Facebook | Youtube | Twitter | Instagram | Weibo
Wissenschaftliche Ansprechpartner:
Prof. Dr. Laurenz Thomsen | Professor of Geosciences
l.thomsen@jacobs-university.de | Tel.: +49 421 200-3254
Originalpublikation:
Ecological variables for developing a global deep-ocean monitoring and conservation strategy: https://www.nature.com/articles/s41559-019-1091-z
Quelle: IDW
Networking von Jägern und Sammlern brachte die Menschheit voran
Beat Müller Kommunikation
Universität Zürich
Bereits in der Steinzeit begann die Menschheit damit, eine komplexe Kultur zu entwickeln. Der Auslöser dafür waren Interaktionen zwischen verschiedenen Gruppen von Jägern und Sammlern, wie eine Studie der Universität Zürich bestätigt. Die Forschenden kartierten das soziale Netzwerk von modernen Jägern und Sammlern in den Philippinen und simulierten damit die Erfindung eines Heilmittels.
Vor rund 300‘000 Jahren lebten unsere Vorfahren in kleinen Verbänden als Jäger und Sammler. In dieser Lebensweise liegt vermutlich die Wurzel für den Erfolg der Menschheit. Denn damals fingen die Menschen an, ihr individuelles Wissen untereinander auszutauschen, zu kombinieren und so innovative Lösungen zu finden. Diese Fähigkeit unterscheidet uns von unseren nächsten Verwandten, den Schimpansen.
Einen Einblick in diesen Prozess ermöglichen die wenigen noch heute als Jäger und Sammler lebenden Gesellschaften – wie etwa die Agta auf den Philippinen. Ein internationales Forscherteam hat nun das soziale Netzwerk der Agta analysiert, um besser zu verstehen, wie Kultur in einem solchen Umfeld entsteht. Die Studie wurde von Andrea Migliano und Lucio Vinicius vom Institut für Anthropologie der Universität Zürich sowie Federico Battiston von der Central European University in Budapest geleitet.
Gegenseitige Besuche statt Social Media
Die Forschenden statteten zunächst 53 erwachsene Agta, die in sieben benachbarten Camps in einem Waldgebiet lebten, mit Tracking-Geräten aus. Diese zeichneten einen Monat lang jede Begegnung zwischen den Gruppenmitgliedern auf. Auf die gleiche Weise wurde auch eine an der Küste lebende Gruppe erfasst.
Die Tracker dokumentierten in dieser Zeit tausende von Interaktionen und lieferten ein umfassendes Bild der sozialen Struktur: Erwartungsgemäss hatten die Menschen am meisten Kontakt mit den Bewohnern ihrer eigenen Camps, doch es fanden auch fast täglich Besuche zwischen den verschiedenen Lagern statt. «Man könnte sagen, diese Besuche sind die sozialen Medien der Jäger und Sammler», sagt die Erstautorin Andrea Migliano, Professorin für Anthropologie an der UZH. «Wenn wir eine Lösung für ein Problem brauchen, gehen wir online und holen uns Informationen aus mehreren Quellen. Die Agta nutzen ihr soziales Netzwerk auf genau die gleiche Weise.»
Die Erfindung eines Heilmittels simulieren
Anschliessend erstellten die Forschenden ein Computer-Modell dieses Netzwerks und simulierten damit die komplexe kulturelle Entwicklung eines pflanzlichen Heilmittels. In dem fiktiven Szenario tauschen die Menschen bei jeder Begegnung ihr Wissen über Heilpflanzen aus und kombinieren diese zu besseren Medikamenten. So entsteht nach und nach über mehrere Zwischenstufen ein hochwirksames neues Heilmittel. Die Simulation ergab, dass im Durchschnitt etwa 250 (Waldcamps) bis 500 (Küstencamps) Runden an sozialen Interaktionen für die Entwicklung des Heilmittels nötig sind.
Menschliche Interaktion beschleunigt Innovation
Im nächsten Schritt simulierten die Forschenden das gleiche Szenario mit einem künstlich geschaffenen Netzwerk, bei dem alle Mitglieder gleichzeitig alle Informationen erhalten und so immer auf dem gleichen Stand sind. Überraschenderweise dauerte es unter diesen Bedingungen länger, bis das neue Heilmittel gefunden war – es brauchte etwa 500 bis 700 Runden. Die Erklärung dafür: In einem idealen Netzwerk geht es immer nur einen Schritt nach dem anderen voran. Dagegen können sich in einem sozialen Netzwerk neue Erkenntnisse auch parallel in kleinen Grüppchen entwickeln, was letztendlich für einen schnelleren Fortschritt sorgt.
«Unsere Resultate deuten also darauf hin, dass eine soziale Struktur aus kleinen, miteinander vernetzten Gemeinschaften die kulturelle Entwicklung unserer Vorfahren erleichtert hat, während sie sich innerhalb und ausserhalb von Afrika ausbreiteten», resümiert der Letztautor Lucio Vinicius, Senior Lecturer am Institut für Anthropologie der UZH.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andrea Migliano
Institut für Anthropologie
Universität Zürich
Tel. +41 44 635 54 23
E-Mail: andrea.migliano@uzh.ch
Originalpublikation:
A. B. Migliano, F. Battiston, S. Viguier, A. E. Page, M. Dyble, R. Schlaepfer, D. Smith,
L. Astete, M. Ngales, J. Gomez-Gardenes, V. Latora, L. Vinicius. Hunter-gatherer multilevel sociality accelerates cumulative cultural evolution. Science Advances. 28 February 2020, DOI: 10.1126/sciadv.aax5913
Weitere Informationen:
http://www.media.uzh.ch
Anhang
Video Networking von Jägern und Sammlern brachte die Menschheit voran
https://idw-online.de/de/attachment79381
Quelle: IDW
Ausgewandert
Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
Sibirische Neandertaler stammten von verschiedenen europäischen Populationen ab
In Südsibirien haben mindestens zwei verschiedene Neandertaler-Gruppen gelebt, von denen eine aus Osteuropa kam: Das hat ein internationales Forschungsteam mit Beteiligung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) bewiesen. Ihre Ergebnisse haben die Wissenschaftlerinnen und Wissenschaftler in der US-amerikanischen Fachzeitschrift „Proceedings of the National Academy of Sciences of the United States of America“ (PNAS) veröffentlicht.
Es ist bekannt, dass sich Neandertaler von Europa bis nach Südsibirien ausgebreitet haben, doch wann und woher die sibirischen Neandertaler konkret kamen, war bislang ungeklärt. Ein internationales Forschungsteam mit Beteiligung des Archäologen Thorsten Uthmeier, Professor für Ur- und Frühgeschichte an der FAU, hat nun Werkzeuge aus der Chagyrskaya-Höhle im russischen Teil des Altai-Gebirges untersucht, um der Frage nachzugehen.
Parallelen zu Fundstellen in Zentral- und Osteuropa
Die Fundstelle wird seit 2019 im Rahmen eines DFG-Forschungsprojektes gemeinsam mit dem Institute of Archeology and Ethnography of the Siberian Branch der Russischen Akademie der Wissenschaften in Novosibirsk ausgegraben. Zwei Hauptfundschichten erbrachten neben Steinwerkzeugen und Knochen der Jagdbeute auch zahlreiche Neandertaler-Fossilien. Nachdem das Team zunächst festgestellt hatte, dass die Steinwerkzeuge keiner der zeitgleich im Altai bestehenden Gruppen ähneln, suchten sie in größeren Entfernungen nach Vergleichsfunden.
Geometrisch-morphologische Analysen von 3D-Modellen der gescannten Werkzeuge zeigten, dass die Steinwerkzeuge aus der Chagyrskaya-Höhle sehr „Micoquien“-Artefakten – so die Bezeichnung für die entsprechende Steingeräte-Industrie – aus Zentral- und Osteuropa ähneln. Die Vergleichscans stammen unter anderem von Vergleichsfundstellen aus Bayern, unter denen die FAU-eigene Sesselfelsgrotte mit den meisten Stücken vertreten ist.
Anhand von DNA-Analysen an Neandertalerknochen und Sedimenten aus der Chagyrskaya-Höhle konnten die Forscherinnen und Forscher den Ausbreitungsweg der sibirischen Neandertaler rekonstruieren: Der Weg führte die Gruppen über mehrere Generationen hinweg über Kroatien und den Nordkaukasus in den Altai.
Neandertaler breiteten sich mehrfach nach Sibirien aus
Die DNA-Analysen zeigten zudem, dass sich die Neandertaler der Chagyrskaya-Höhle genetisch von einer zweiten Altai-Gruppe aus der Denisova-Höhle deutlich unterscheiden. Dieser Befund passt gut zu der Beobachtung, dass die Denisova-Neandertaler offenbar keine Werkzeuge des Micoquien gekannt haben. Daher geht das Forschungsteam von einer mehrfachen Ausbreitung von Neandertalern nach Sibirien aus.
Die interdisziplinären Untersuchungen zu den Neandertalern aus der Chagyrskaya-Höhle, bei denen auch bayerische, durch die FAU untersuchte Fundstellen eine wichtige Rolle spielen, zeigen eindeutig, dass eine Ausbreitungswelle von Gruppen dieser Menschenart vor 60.000 Jahren in Mittel- und Osteuropa ihren Ursprung hat. Gleichzeitig gelang den Forscherinnen und Forschern aus Novosibirsk um Prof. Ksenia Kolobova und der FAU der seltene Nachweis dafür, dass Bevölkerungsbewegungen anhand von typischen Elementen der kulturellen Ausstattung belegt werden können.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Uthmeier
Institut für Ur- und Frühgeschichte an der FAU
Tel.: 09131/85-22346
thorsten.uthmeier@fau.de
Originalpublikation:
https://www.pnas.org/content/early/2020/01/21/1918047117
Quelle: IDW
Expedition Anthropozän
Dipl.-Psych. Kim-Astrid Magister Pressestelle
Technische Universität Dresden
Musikwissenschaftlerin der TU Dresden begibt sich auf die Spuren von Alexander Humboldt
Stark wie nie zuvor greift heute der Mensch ins Erdsystem ein – er ist die bestimmende Kraft in einem neuen Erdzeitalter, dem Anthropozän. Über Fächergrenzen hinweg brechen sechs Mitglieder der Jungen Akademie am 22. Februar 2020 zu einer Entdeckungsreise auf. Sie suchen die teils beunruhigenden Spuren des Menschen in seiner Umwelt. Ihre Forschungsreise führt sie, wie vor 200 Jahren Alexander von Humboldt, nach Ecuador und auf den Vulkan Chimborazo. Mit Methoden der Glaziologie, Biologie, Chemie, Klangökologie, Informatik und Medizin werden sie menschliche Einflüsse in verschiedenen Höhenlagen und Vegetationszonen untersuchen. Sie werden sich mit dem fortschreitenden Klimawandel und seinen Auswirkungen für die Menschen, dem Gletscherrückzug, der Artenvielfalt, klangökologischen Veränderungen und möglichen Mikroplastikvorkommen in Schnee und Eis beschäftigen.
Mit dabei ist Jun.-Prof. Dr. Miriam Akkermann vom Institut für Kunst- und Musikwissenschaften der TU Dresden. Während der Expedition wird sie klangökologische Untersuchungen auf den verschiedenen Höhenlagen durchführen. „Ich möchte Ton-Aufnahmen an den verschiedenen Orten machen und dazu habe ich verschiedene Mikrofone, passenden Windschutz und Kabel, sowie zwei Aufnahmegeräte dabei. Mich interessiert, wie es und in den Gletschern klingt? Was hört man in den Wäldern und wieviel ist davon menschengemacht?“, erklärt Miriam Akkermann.
Der Mediziner Martin Bittner (Arctoris) wird Interviews führen, um mehr über den Einfluss des Klimawandels auf Annahmen und Erfahrungen der lokalen Bevölkerung herauszufinden. Als Biologe wird sich Christian Hof (Technische Universität München) Fragen der Biodiversitätsforschung widmen. Die Erstellung und Auswertung von Bildprofilen und Datensammlungen werden bei dem Informatiker Dirk Pflüger (Universität Stuttgart) im Zentrum stehen. Die Klimawissenschaftlerin Ricarda Winkelmann (Potsdam-Institut für Klimafolgenforschung und Universität Potsdam) wird den Rückgang der Gletscher und die Beschaffenheit des Eises untersuchen und gemeinsam mit Chemiker Robert Kretschmer (Friedrich-Schiller-Universität Jena) der Frage nachgehen, ob sich auch auf Gletschern Mikroplastik nachweisen lässt, das nicht über Wasserwege transportiert wurde.
Ecuador als Expeditionsziel bietet Zugang zu mehreren klimatischen Zonen einschließlich Hochgebirge mit Gletscher- und Vulkanzugang, tropischem Regenwald sowie Hochebenen.
Auf der Website https://expedition.diejungeakademie.de/ werden während des Expeditionszeitraums aktuelle Informationen zur Expedition sowie zum Team, den Kooperationspartnerinnen und -partnern und zur Route zu finden sein.
„Eine derartige Expedition haben wir im Rahmen der Jungen Akademie noch nie gemacht – ich bin sehr gespannt auf die gemeinsame Forschung und den Austausch vor Ort. Der fortschreitende Klimawandel und das Vorkommen von Mikroplastik in selbst den entlegensten Regionen der Erde zeigen, dass wir durch unser Handeln stärker als je zuvor in unsere Umwelt eingreifen“, erläutert die Klimawissenschaftlerin Ricarda Winkelmann (Potsdam-Institut für Klimafolgenforschung und Universität Potsdam) stellvertretend für das Expeditionsteam. „Gerade als Junge Akademie haben wir die Möglichkeit, viele verschiedene Disziplinen zusammenzubringen und gemeinsam zu einem so wichtigen Thema wie dem Einfluss des Menschen auf seine Umwelt zu forschen. Ich hoffe, wir können gleichzeitig ein wenig vermitteln und mehr darüber herausfinden, wie interdisziplinäre Forschung heute funktionieren kann.“
Alle Informationen zur Expedition unter https://expedition.diejungeakademie.de/
Information für Journalisten:
TU Dresden
Jana Höhnisch
Tel: 0351 463-36775
E-Mail: jana.hoehnisch@tu-dresden.de
Die Junge Akademie
Anne Rohloff
Tel.: (030) 203 70-563
E-Mail: presse@diejungeakademie.de
www.diejungeakademie.de
Weitere Informationen:
https://expedition.diejungeakademie.de/
Quelle: IDW
KIT im Rathaus: Städte und Wetterextreme
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Von der Bauernweisheit zur Wetter-App: In Zeiten des Klimawandels gewinnen präzise Wettervorhersagen an Bedeutung. Doch wie funktionieren Wettermodelle und Simulationen? Wie können sich urbane Regionen auf Wetterextreme vorbereiten? Auf diese Fragen gehen am Mittwoch, 29. Januar 2020, um 18:30 Uhr Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) ein: Im Karlsruher Rathaus präsentieren sie in populärwissenschaftlichen Vorträgen die spannende Forschung des KIT-Zentrums Klima und Umwelt zum Thema Klimasimulationen und Stadtentwicklung.
„Ist der Januar hell und weiß, wird der Sommer sicher heiß“ – solche Bauernregeln werden heute durch Supercomputer und komplexe Berechnungen ersetzt. Wetterbeobachtungen und -vorhersagen spielen eine enorme Rolle für Land- und Stadtbevölkerung, vor allem auch, weil der globale Klimawandel lokale Wetterextreme wie Hitzewellen, Dürre- oder Starkregen beeinflusst.
Die Klima- und Umweltforschung steht vor großen Herausforderungen: Es geht nicht mehr allein darum, die Ursachen von Umweltproblemen zu erkunden und Wege zu deren Bewältigung aufzuzeigen. Zunehmend muss sich die Gesellschaft an veränderte natürliche sowie vom Menschen geprägte Umweltverhältnisse anpassen.
Das KIT-Zentrum Klima und Umwelt erschließt grundlegendes Wissen über die beteiligten Prozesse und ihre Interaktion auf lokaler, regionaler und globaler Ebene. Rund 700 Wissenschaftlerinnen und Wissenschaftler aus 30 Instituten befassen sich mit den klimatischen, ökologischen und wirtschaftlichen Folgen dieser Veränderungen und ermitteln darauf aufbauend geeignete Strategien der Anpassung.
Bei der Veranstaltung in der Reihe „KIT im Rathaus“ können interessierte Bürgerinnen und Bürger dieses spannende Forschungsfeld kennenlernen und unter dem Titel „Stadt und Klimawandel“ mit Wissenschaftlerinnen und Wissenschaftlern ins Gespräch kommen. Alle Interessierten, insbesondere auch Schülerinnen und Schüler, die sich für Klimathemen engagieren, sind zu der vom ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale koordinierten Veranstaltung eingeladen. Ein anschließender Empfang bietet Gelegenheit zu Gesprächen. Der Eintritt ist frei.
Weiterer Pressekontakt: Anna Moosmüller, ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale, Tel.: +49 721 608-48027, Fax: +49 0721 608-44811, E-Mail: anna.moosmueller@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24 400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Originalpublikation:
https://www.kit.edu/kit/pi_2020_004_kit-im-rathaus-stadte-und-wetterextreme.php
Anhang
KIT im Rathaus: Städte und Wetterextreme
https://idw-online.de/de/attachment79054
Quelle: IDW
Lasergebohrte Filter sorgen für sauberes Wasser: Projekt SimConDrill für Green Award nominiert
Petra Nolis M.A. Marketing & Kommunikation
Fraunhofer-Institut für Lasertechnik ILT
Mikroplastik gelangt tagtäglich in unser Abwasser und in die Umwelt. Aber Kläranlagen sind bislang kaum in der Lage, die winzigen Kunststoffteile im Abwasser ausreichend herauszufiltern. Nun soll Abhilfe geschaffen werden: Das BMBF fördert seit 2019 das Forschungsprojekt SimConDrill, in dem fünf Projektpartner aus Industrie und Forschung gemeinsam einen Wasserfilter für Mikroplastik entwickeln. Seine Kleinstlöcher werden mit dem Laser gebohrt und ermöglichen so die Filtration von bis zu 10 Mikrometer kleinen Partikeln. Diese außergewöhnliche Innovation wurde nun durch die Nominierung des Green Awards honoriert.
Jährlich werden allein in Deutschland laut einer Studie des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT 333.000 Tonnen Mikroplastik freigesetzt. Dabei sind die Folgen für Mensch und Umwelt bei Weitem noch nicht erforscht. Mikroplastik ist ein weitreichendes Problem und unsere Abwasserbehandlung ist nicht in der Lage, diese Partikel effizient herauszufiltern. Dabei ist sauberes Trinkwasser essentiell für die Umwelt und somit für unsere Gesundheit.
Mit dem Projekt SimConDrill treffen die Projektpartner nun den Nerv der Zeit. Ziel ist die Entwicklung eines langlebigen Filters zur Extraktion von Mikroplastik auch aus großen Wassermengen. Mit lasergebohrten Löchern soll das Filtermodul bis zu 10 Mikrometer kleine Partikel effizient aus dem Wasser herausfiltern. Nun hat die Jury des Greentech Festivals das Forschungsprojekt SimConDrill für den Green Award 2020 nominiert. Die Freude darum war bei den Beteiligten umso größer, als die Nominierung ohne Bewerbung des Konsortiums und nur auf Initiative der Jury erfolgte.
Greentech – Innovative grüne Projekte
Auf dem Greentech Festival vom 19. bis zum 21. Juni 2020 in Berlin werden die Green Awards verliehen. Die Jury zeichnet am ersten Festival-Tag grüne Technologien aus, die einen Beitrag dazu leisten, die Welt nachhaltiger und somit zukunftsfähiger zu machen. Hinter der Festivalidee steckt der ehemalige Formel-1-Weltmeister Nico Rosberg. Gemeinsam mit den Ingenieuren Sven Krüger und Marco Voigt rief er das Festival ins Leben. Das SimConDrill-Team ist in der Kategorie »Innovation« nominiert. Diese Auszeichnung wird für die eindrucksvollsten und vielversprechendsten Innovationen im Greentech-Bereich verliehen.
Wie funktioniert es? Clevere Kombination aus Filter und Zyklon
Die Basis der neuen Filtergeneration bildet der Zyklonfilter der Klass-Filter GmbH. Große Wassermengen werden dabei durch den lasergebohrten Filter im Zyklon nach innen gedrückt und die mit dem Wasser transportierten Partikel abgeschieden.
Das Fraunhofer-Institut für Lasertechnik ILT und die LaserJob GmbH arbeiten an der Technologie für das effiziente Laserbohren der Metallfolien, die sich im Inneren des Zyklonfilters befinden. Besonders geeignet sind dafür Lasersysteme mit ultrakurzen Pulsen im Piko- und Femtosekundenbereich mit hoher Laserleistung. Damit ein effizienter Filter entsteht, werden in großer Anzahl Löcher, die kleiner als 10 Mikrometer sein müssen, in die dünnen Folien gebohrt. Eine große Herausforderung!
Zur Erhöhung der Wirtschaftlichkeit untersuchen die Wissenschaftler zudem den Einsatz einer Multistrahlbearbeitung mit mehr als 100 Teilstrahlen. Doch hier ist Vorsicht geboten, denn durch das gleichzeitige Bohren von 100 Löchern kann die Filterfolie schmelzen und sich verziehen. Um alle Prozessparameter möglichst gut aufeinander abzustimmen und geeignete Bearbeitungsstrategien auszuwählen, kombinieren die Forscher eine am Fraunhofer ILT entwickelte Prozesssimulation und die Optimierungssoftware der OptiY GmbH. Außerdem garantiert ein gemeinsam mit der Lunovu GmbH entwickeltes Messsystem schließlich die Qualitätssicherung des Laserbohrprozesses, um zu gewährleisten, dass alle Löcher durchgebohrt sind und der Wasserdurchsatz nicht reduziert wird.
Das Forschungsprojekt läuft bis Juni 2021. Bisher können Löcher mit einem Durchmesser von 10 Mikrometern in 200 Mikrometer dünne Metallfolien gebohrt werden. In einem nächsten Schritt wird das Verfahren auf die Serienproduktion hochskaliert. Die gebohrten Testfolien sind bereits teilweise in den Zyklonfilter integriert, um Funktions- und Strömungstests zu starten.
Nachhaltigkeit auf ganzer Linie
Obwohl das Filtermodul für Klärwerke entwickelt und getestet wird, sind ebenso mobile Anwendungen in Kanalspülwagen oder in Privathaushalten denkbar. Auch die Reinigung von Ballastwasser bietet großes Potential. Ein Rotor sorgt dafür, dass der SimConDrill-Filter nicht verstopft und somit kein Wegwerffilter ist. Das separierte Mikroplastik kann aus dem Zyklonfilter herausgeführt und anschließend recycelt werden.
Green Award
Der Green Award-Nominierungsausschuss hat sechs Nominierte in jeder Kategorie (Youngster, Innovation, Start-up und Impact) bestimmt. Per Online-Abstimmung wird zunächst ein Finalist gewählt, zwei weitere bestimmt die Jury selbst pro Kategorie und ernennt schließlich aus den drei Finalisten den Gewinner. Die Online-Abstimmung ist ab dem 14. Januar 2020 bis zum 14. Februar 2020 möglich. Mehr Informationen zum renommierten Green Award und das Online-Voting finden Sie hier: https://greentechfestival.com/awards/
Das Verbundprojekt SimConDrill wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Es ist Teil der BMBF‐Fördermaßnahme »KMU-innovativ: Ressourceneffizienz und Klimaschutz« im Technologie‐ und Anwendungsbereich »Nachhaltiges Wassermanagement«.
Wissenschaftliche Ansprechpartner:
Andrea Lanfermann M. Sc.
Gruppe Prozesssensorik und Systemtechnik
Telefon +49 241 8906-366
andrea.lanfermann@ilt.fraunhofer.de
Fraunhofer-Institut für Lasertechnik ILT
Steinbachstraße 15
52074 Aachen
Georg Klass Jr.
Telefon +49 8193 939165
info@klass-filter.de
KLASS-Filter GmbH
Bahnhofstraße 32c
82299 Türkenfeld
Weitere Informationen:
https://www.ilt.fraunhofer.de/
http://www.klass-filter.de/
https://www.simcondrill.de/
https://greentechfestival.com/awards
Anhang
Zentraler Bestandteil des SimConDrill-Zyklonfilters: 200 Mikrometer dünne Metallfolien mit lasergebohrten Löchern von 10 Mikrometern Durchmesser.
https://idw-online.de/de/attachment79090
Quelle: IDW
Ist körperliche Fitness gut für den Kopf?
Dr. Marcus Neitzert Stabsstelle Kommunikation
Deutsches Zentrum für Neurodegenerative Erkrankungen e.V. (DZNE)
Fördert körperliche Fitness die Gesundheit des Gehirns? Belege für diese These – wenngleich kein eindeutiger Beweis – kommen von einer neuen Studie. Forschende des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) und der Universitätsmedizin Greifswald analysierten Daten von mehr als 2.000 Erwachsenen. Sie stellten fest: je besser die körperliche Fitness, umso größer das Hirnvolumen. Die Ergebnisse sind im Fachjournal „Mayo Clinic Proceedings“ veröffentlicht.
Angesichts steigender Lebenserwartung entwickelt sich Demenz zu einer der größten Herausforderungen der medizinischen Versorgung. Weil bislang wirksame Therapien fehlen, insbesondere bei der Alzheimer-Erkrankung, rückt die Prävention immer mehr in den Fokus. Hier geht es darum, das Auftreten der Demenz hinauszuzögern oder gar zu verhindern. „Körperliche Inaktivität ist ein Risikofaktor für Demenz. Dagegen scheinen körperliche Fitness und regelmäßiger Sport vorbeugende Wirkung zu haben. Diverse Studien deuten darauf hin. Die Mechanismen dahinter sind jedoch unklar“, sagt Prof. Hans Jörgen Grabe, Forschungsgruppenleiter am DZNE-Standort Rostock/Greifswald und Direktor der Klinik für Psychiatrie und Psychotherapie der Universitätsmedizin Greifswald (UMG).
Daten der SHIP-Studie
Eine neue Untersuchung legt nun nahe, dass körperliche Aktivität in der Tat einen positiven Einfluss auf die Gesundheit des Gehirns und die kognitive Leistungsfähigkeit haben kann. Ein Forscherteam um Prof. Grabe und Privatdozent Dr. Sebastian Baumeister, wissenschaftlicher Mitarbeiter an der UMG, analysierte dazu Daten der sogenannten SHIP-Studie in Hinblick auf die Frage, ob körperliche Fitness in Zusammenhang mit dem Hirnvolumen steht. Die SHIP-Studie (Study of Health in Pomerania) befasst sich mit Faktoren für Gesundheit und Krankheit in der Bevölkerung. Mehrere tausend Menschen aus Mecklenburg-Vorpommern nehmen daran teil.
Für die aktuelle Untersuchung wurden Daten von 2.103 Frauen und Männern im Alter zwischen 21 bis 84 Jahren berücksichtigt. Das mittlere Alter lag bei 52 Jahren. Diese Personen hatten sich im Rahmen der SHIP-Studie einem Belastungstest auf dem Fahrrad-Ergometer unterzogen. In weiteren Untersuchungen waren ihre Gehirne mittels Magnetresonanz-Tomographie (MRT) vermessen wurden.
Messung der Sauerstoff-Aufnahme
Zur Bestimmung der körperlichen Fitness wurde die von den Probanden unter Höchstbelastung ein- und ausgeatmete Luft untersucht und daraus die „maximale Sauerstoff-Aufnahme“ ermittelt. Diese gibt Auskunft über den Trainingszustand des Herz-Kreislauf-Systems. Für die aktuelle Studie flossen diese Messwerte sowie die MRT-Daten in eine statistische Analyse ein. Fazit: „Wir haben einen positiven Zusammenhang zwischen körperlicher Leistungsfähigkeit und Hirnvolumen gefunden: je besser die körperliche Fitness, umso größer das Hirnvolumen“, erläutert Dr. Katharina Wittfeld, DZNE-Wissenschaftlerin und Erstautorin der aktuellen Veröffentlichung. „Der Effekt betraf nicht nur das Gesamtvolumen, sondern auch einzelne Hirnbereiche, die für das Gedächtnis sowie für emotionales und belohnungsbezogenes Verhalten wichtig sind. Mit dem sogenannten Hippocampus ist auch eine Hirnregion dabei, die bei einer Alzheimer-Erkrankung involviert ist. Auch hier sehen wir, dass körperlich fitte Personen tendenziell einen größeren Hippocampus aufweisen, als Personen, die weniger fit sind.“
Belege, jedoch keine Beweise
„Die nun vorliegenden Daten stützen die Hypothese, dass die kardiorespiratorische Fitness zu einer verbesserten Gehirngesundheit und einem verlangsamten altersbedingten Abbau der Hirnmasse beitragen könnte“, sagt Hans Jörgen Grabe. Tatsächlich sei die aktuelle Studie eine der bislang umfangreichsten Untersuchungen über die Beziehung von körperlicher Fitness und Hirnvolumen. Zudem bilde sie einen breiten Querschnitt der erwachsenen Bevölkerung ab.
„Um die kardiorespiratorische Fitness zu verbessern, wird körperliche Aktivität dringend empfohlen und sollte Teil von Präventionsprogrammen sein, um einen gesunden Lebensstil zu führen“, rät Grabe. Die aktuellen Ergebnisse würden allerdings nicht beweisen, dass Sport das Hirnvolumen tatsächlich vergrößere. „Der statistische Zusammenhang zwischen Fitness und Hirnvolumen, den wir festgestellt haben, sagt nichts über die Ursachen“, schränkt der Greifswalder Forscher ein. So habe man weder etwaige sportliche Aktivitäten der Versuchsteilnehmer erfasst, noch untersucht, ob sich durch Training über längere Zeiträume das Hirnvolumen verändere. „Von den Probanden wurde nur der jeweilige Ist-Zustand festgehalten. Außerdem stehen wir vor einem Henne-Ei-Problem. Es ist nicht ausgeschlossen, dass sich die Größe mancher Hirnareale in der Weise auf die Hirnfunktion auswirkt, dass die Betreffenden besonders motiviert sind, Sport zu treiben und deshalb körperlich fitter sind. Dann wäre nicht Sport die Ursache für ein vergrößertes Hirnvolumen, es wäre genau umgekehrt.“
Ursachen für den Volumen-Effekt?
Andere Studien legen gleichwohl nahe, dass regelmäßiges körperliches Training das Hirnvolumen vergrößern kann. „Durch Sport werden erwiesenermaßen körpereigene Substanzen freigesetzt, die dem Verlust von Nervenzellen entgegenwirken können. Außerdem gibt es Hinweise dafür, dass körperliche Aktivität die Neubildung von Nervenzellen anregen kann. Beide Phänomene könnten die Auswirkungen auf das Hirnvolumen, die wir und ähnliche Studien nachgewiesen haben, möglicherweise erklären“, sagt Grabe.
Die aktuelle Studie fand einen Zusammenhang zwischen körperlicher Fitness und Hirnvolumen nicht nur bei jungen Menschen, sondern auch bei älteren Erwachsenen. Diese Beobachtung hält Grabe für besonders bedeutsam: „Dies deutet darauf hin, dass die Förderung körperlicher Fitness vielleicht sogar in späten Lebensjahren dazu beitragen könnte, Hirnmasse zu erhalten und somit auch im Kopf möglichst lange fit zu bleiben.“
Originalpublikation:
Cardiorespiratory Fitness and Gray Matter Volume in the Temporal, Frontal, and Cerebellar Regions in the General Population,
Katharina Wittfeld et al., Mayo Clinic Proceedings (2020),
DOI: 10.1016/j.mayocp.2019.05.030
URL: https://dx.doi.org/10.1016/j.mayocp.2019.05.030
Editorial
Cardiorespiratory Fitness and Brain Volumes
Ronald C. Petersen et al., Mayo Clinic Proceedings (2020),
DOI: 10.1016/j.mayocp.2019.11.011
URL: https://dx.doi.org/10.1016/j.mayocp.2019.11.011
Weitere Informationen:
https://www.dzne.de/aktuelles/pressemitteilungen/presse/ist-koerperliche-fitness… Link zu dieser Meldung
https://www.dzne.de/en/news/press-releases/press/is-physical-fitness-good-for-th… Englischer Abstract
Quelle: IDW
Wer würde einen Menschen opfern, um fünf zu retten? – Weltweite Unterschiede in moralischen Entscheidungen
Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Die Bereitschaft, einen Menschen zu opfern, um mehrere zu retten, unterscheidet sich von Land zu Land. Das zeigt eine wissenschaftliche Studie mit 70.000 Teilnehmer*innen aus 42 Ländern, bei der ein Forscherteam rund um Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, weltweite Gemeinsamkeiten und Unterschiede in moralischen Entscheidungen untersuchte. Die Ergebnisse der Studie sind im Journal PNAS erschienen.
Ist es in Ordnung, einen Menschen zu opfern, um mehrere Menschen zu retten? Diese Frage diskutieren Philosoph*innen, Ethiker*innen und Rechtswissenschaftler*innen seit Jahrzehnten anhand eines bekannten moralischen Gedankenexperiments: dem Trolley-Problem. Eine Straßenbahn – auf Englisch „Trolley“ – fährt ungebremst auf fünf Gleisarbeiter*innen zu. Der Weichensteller könnte die Straßenbahn auf ein Nebengleis umleiten, auf dem nur ein Mensch arbeitet. Soll er den einen Menschen opfern, um fünf Menschen zu retten?
„Im Zuge der Debatte um autonome Fahrzeuge hat das Trolley-Problem ein Revival erfahren. Wie sollen selbstfahrende Fahrzeuge sich verhalten, wenn ein Unfall nicht zu verhindern ist? Soll das Fahrzeug einer Menschengruppe ausweichen und dabei den Insassen des Autos opfern? Universelle Grundätze, an die sich Ingenieur*innen und Programmierer*innen von autonomen Fahrzeugen halten können, gibt es nicht“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung. Die groß angelegte Moral-Machine-Umfrage, die Iyad Rahwan 2017 mit seinem Team am Massachusetts Institute of Technology durchgeführt hat, zeigte darüber hinaus, dass Menschen je nach Kulturkreis autonome Fahrzeuge in solchen Situation unterschiedlich programmieren würden.
Während sich frühere Studien auf Unfälle von autonomen Fahrzeugen konzentrierten, beschäftigte sich Iyad Rahwan mit seinem Team nun mit den klassischen Versionen des Trolley-Problems. Dies ist wichtig, da das Trolley-Problem unter Philosoph*innen und Psycholog*innen viel besser verstanden wird. Dazu hat das Forscherteam die Entscheidungen zu drei Varianten des Trolley-Problems von 70.000 Teilnehmer*innen aus 42 Ländern analysiert.
Im ersten Szenario, dem klassischen Trolley-Problem, konnten die Teilnehmer*innen die Weiche umstellen und den Waggon auf ein Nebengleis lenken. Ein dort arbeitender Mensch stirbt, fünf Menschen auf dem Hauptgleis sind gerettet. Im zweiten Szenario macht das Nebengleis eine Schleife zum Hauptgleis zurück, auf dem fünf Menschen arbeiten. Das Umstellen der Weiche führt zum Tod des auf dem Nebengleis arbeitenden Menschen. Sein Körper verhindert, dass der Waggon auf das Hauptgleis zurückrollt. Im Unterschied zum ersten Szenario wird der Tod des einzelnen Menschen nicht nur in Kauf genommen, sondern ist notwendig, um die anderen fünf zu retten. Im dritten Szenario kann ein großer Mann von einer Fußgängerbrücke auf die Schienen gestoßen werden, wobei sein Körper den Waggon aufhält und fünf andere Menschen rettet. Auch hier wird der Tod des einzelnen Menschen nicht nur in Kauf genommen, sondern ist notwendig um das Leben der anderen zu retten
Im Vergleich betrachtet, würden in allen Ländern mehr Teilnehmer*innen einen Menschen im ersten Szenario opfern als im zweiten und am wenigsten im dritten. Die Bereitschaft den Tod eines Menschen in Kauf zu nehmen, um andere zu retten, ist weltweit größer, als den Tod eines Menschen zu instrumentalisieren, wie im zweiten und dritten Szenario.
Unterschiede zwischen den Ländern gab es jedoch in der generellen Bereitschaft, Menschen zu opfern. Im ersten Szenario würden beispielsweise 82 Prozent der Deutschen billigen, den einzelnen Menschen zu opfern, in den meisten westlichen Ländern sind die Werte ähnlich. Lediglich in einigen ostasiatischen Ländern ist das Ausmaß der Bereitschaft, einen Menschen für das Leben mehrerer zu opfern, auffallend geringer. In China beispielsweise billigen nur 58 Prozent der Teilnehmer*innen die Weiche im ersten Szenario umzustellen. Im dritten Szenario weichen die Antworten zwischen den Ländern stärker voneinander ab. So stimmen 49 Prozent der Teilnehmer*innen in Deutschland zu, den großen Mann von der Fußgängerbrücke zu stoßen, in Vietnam sind es hingegen 66 Prozent, in China nur 32 Prozent.
Im Vergleich mit anderen bereits erforschten Eigenarten in den Ländern fanden die Forscher einen auffälligen Zusammenhang: In Ländern, in denen es schwierig ist, außerhalb von traditionellen sozialen Gebilden, wie Familie oder Beruf, neue Beziehungen zu knüpfen, ist auch die Bereitschaft einen Menschen zu opfern geringer. Die Wissenschaftler vermuten, dass Menschen davor zurückschrecken, kontroverse und unpopuläre Entscheidungen zu treffen, wenn sie Angst haben, ihre aktuellen Beziehungen zu verlieren. „Die Menschen befürchten möglicherweise, dass sie als ‚Monster‘ wahrgenommen werden könnten, wenn sie bereit sind, das Leben eines Menschen für das Allgemeinwohl zu opfern. Es ist noch zu früh, um einen klaren, kausalen Zusammenhang zwischen den kulturspezifischen, moralischen Entscheidungen der Menschen und der Leichtigkeit, mit der sie neue Beziehungen eingehen können, herzustellen. Es gibt jedoch vermehrt Anzeichen dafür, dass die Art und Weise, wie das persönliche Ansehen in einer bestimmten Kultur gepflegt wird, die moralischen Intuitionen der Menschen aus dieser Kultur beeinflussen kann“, sagt Iyad Rahwan.
Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Originalpublikation:
Awad, E., Dsouza, S., Shariff, A., Rahwan, I., and Bonnefon, J.-F. (2020). Universals and variations in moral decisions made in 42 countries by 70,000 participants. PNAS. https://doi.org/10.1073/pnas.1911517117
Weitere Informationen:
https://www.mpib-berlin.mpg.de/944423/pm-2020-january
Quelle: IDW
Neuer Profilschwerpunkt an der UDE: Wasserforschung
Cathrin Becker Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Wasser – sicher und sauber soll es sein und Milliarden von Menschen versorgen. Immer intensiver wird die Ressource genutzt, weshalb ein nachhaltiger und globaler Wasserkreislauf eine der größten gesellschaftlichen Herausforderungen unserer Zeit ist. Dieser nimmt sich die Universität Duisburg-Essen (UDE) an. Schon seit vielen Jahren setzt sie einen Fokus auf „Wasser“, jetzt richtet sie einen Profilschwerpunkt dazu ein.
Dreh- und Angelpunkt ist das Zentrum für Wasser- und Umweltforschung (ZWU). Längst hat es sich über die Region hinaus einen exzellenten Ruf erarbeitet, verfolgt erfolgreich nationale und internationale Projekte, u.a. zum urbanen Wasserkreislauf, zur Wasseraufbereitung und -reinigung (Membran, Algen, Photokatalyse) und zur Biodiversität. Im Doktorandenkolleg FUTURE Water wird verstärkt Starkregen und seine Auswirkungen auf die Umwelt untersucht.
Hierauf baut der neue Profilschwerpunkt nun auf. „Wir forschen aus der gesellschaftlichen Verantwortung heraus und mit dem Ziel, sicheres und sauberes Trinkwasser für eine schnell wachsende Weltbevölkerung, ein nachhaltiges Wassermanagement und den Schutz vor Krankheiten und Hochwasser sicherzustellen“, so Prof. Dr. Torsten Schmidt, Sprecher des Profilschwerpunkts.
Die Wasserexperten aus verschiedenen Fachrichtungen werden nun noch enger zusammenarbeiten als bisher. „90 UDE-Forschende aus 29 Lehrstühlen der Natur- und Ingenieurwissenschaften, der Medizin und der Gesellschaftswissenschaften werden beteiligt sein.“ Ihre Expertise steuern außerdem bei: drei An-Institute der UDE, verschiedene Fachgebiete weiterer Hochschulen, darunter die Universitäten Bochum und Dortmund, regionale Wasserverbände und -versorger sowie Unternehmen.
So viel geballte Kompetenz braucht ein eigenes Forschungszentrum: In Essen wird daher der FutureWaterCampus entstehen, der 2022 eröffnet werden soll.
Wasserforschung ist der fünfte Profilschwerpunkt der UDE. Zu den weiteren gehören Nanowissenschaften, Biomedizinische Wissenschaften, Urbane Systeme und Wandel von Gegenwartsgesellschaften.
Weitere Informationen:
www.uni-due.de/zwu
Wissenschaftliche Ansprechpartner:
Dr. Michael Eisinger, ZWU, Tel. 0201/18 3-3890, Michael.Eisinger@uni-due.de
Quelle: IDW
Verkehrslärm in der Nacht schädigt Herz mehr als am Tag
Barbara Reinke M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Internationale Studie belegt: Gestörte Nachtruhe ist Risikofaktor für Herz-Kreislauf-Erkrankungen
Verkehrslärm macht krank. Insbesondere für die Entwicklung von Herz-Kreislauf-Erkrankungen ist er ein Risikofaktor. Eine neue internationale Übersichtsstudie unter der Federführung des Zentrums für Kardiologie der Universitätsmedizin Mainz zeigt nun auf, dass insbesondere eine gestörte Nachtruhe das Risiko erhöht, dass sich eine Herz-Kreislauf-Erkrankung entwickelt. Wesentliche Einflussfaktoren in diesem Prozess sind die Bildung von freien Radikalen (oxidativer Stress) und Entzündungsreaktionen in Gehirn, Herz und Gefäßen. Die neuen Erkenntnisse sind in der aktuellen Ausgabe der renommierten Fachzeitschrift „Annual Review of Public Health“ veröffentlicht.
Nachtlärm führt zu einer Störung der inneren Uhr, der sogenannten zirkadianen Rhythmik. Doch diese stellt ein wichtiges Regulationssystem unseres Körpers dar, denn sie steuert abhängig von der Tageszeit einen Großteil der funktionellen, metabolischen und biologischen Parameter unseres Organismus. Wie der Körper also beispielsweise die Körpertemperatur, den Blutdruck, die Gedächtnisleistung oder auch den Appetit, den Energiehaushalt oder die zahlreichen Hormone und das Immunsystem regelt, hängt davon ab, ob es Tag oder Nacht ist.
Wissenschaftler des Zentrums für Kardiologie der Universitätsmedizin Mainz, des Krebsinstituts Dänemark sowie des Schweizerischen Tropen- und Public Health-Instituts haben detaillierter untersucht, welche Folgen Nachtlärm auf das Herz-Kreislauf-System sowie Stoffwechselerkrankungen wie Diabetes hat. Zu diesem Zweck analysierten sie eine Vielzahl von aktuellen Forschungsergebnissen inklusive der Mainzer Lärmwirkungsstudien und trugen die Ergebnisse in einem Übersichtsartikel zusammen.
Ein zentrales Ergebnis der Studie ist, dass ein durch Verkehrslärm verursachter zu kurzer oder häufig unterbrochener Schlaf das Risiko erhöht, zukünftig eine Herz-Kreislauf-Erkrankung zu entwickeln. Wie sich zeigte, erhöht insbesondere Nachtlärm den Blutdruck, steigert die Ausschüttung von Stresshormonen und lässt die Gefäße steifer werden – allesamt wichtige Einflussfaktoren auf die Entstehung von Herz-Kreislauf-Erkrankungen. Wenn bei den Patienten bereits eine Herzerkrankung festgestellt wurde, sind insbesondere die durch Nachtfluglärm verursachten Gefäßschäden deutlich ausgeprägter. Ebenfalls medizinisch relevant sind psychische Erkrankungen wie Depression und Angststörungen, die als Folge der negativen Emotionen hinsichtlich des Nachtlärms auftreten können. Gerade wenn die Betroffenen schon Lärmerfahrung haben, zeigen die Gefäße vermehrt größere Schäden auf. Der Körper, und hier insbesondere die Gefäße, gewöhnen sich nicht an den Lärm – so die Schlussfolgerung der Wissenschaftler.
Der Leiter der Studie und Direktor der Kardiologie I am Zentrum für Kardiologie der Universitätsmedizin Mainz, Univ.-Prof. Dr. Thomas Münzel, und sein Teamkollege Univ.-Prof. Dr. Andreas Daiber sind erfreut über den Erfolg des internationalen Forschungsprojekts: „Es war wichtig, die aktuelle Situation zum Thema Lärm und Gesundheit mit internationalen Experten zusammenzufassen und gleichzeitig die neuen europäischen WHO-Leitlinien zum Thema Lärm zu kommentieren. Die Lärmwirkungsforschung hilft uns mehr und mehr zu verstehen, wie Lärm herzkrank macht. Die Ergebnisse klinischer Untersuchungen mit dem Nachweis einer Assoziation zwischen Herz-Kreislauf-Erkrankungen und auch psychischen Erkrankungen wie Depression und Angststörungen werden insbesondere durch die Mainzer vorklinischen Lärmstudien untermauert und teilweise auch erklärt. Wir halten es künftig für wesentlich, dass Lärm als wichtiger Herzkreislaufrisikofaktor anerkannt wird und, dass die WHO-Richtlinien in EU-Lärmgesetze aufgenommen werden, die dafür sorgen, dass die Lärmgrenzen für den Tag und für die Nacht eingehalten werden müssen. Perspektivisch sollten die Politik und die jeweiligen Entscheider vor Ort darauf hinwirken, dass die gesetzlich definierte Nachtzeit von 22.00 bis 06.00 Uhr lärmfrei bleibt.“
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.400 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 8.000 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de.
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Thomas Münzel,
Direktor der Kardiologie I im Zentrum für Kardiologie der Universitätsmedizin Mainz,
Telefon: 06131 17-5737, E-Mail: tmuenzel@uni-mainz.de
Originalpublikation:
Adverse Cardiovascular Effects of Traffic Noise With a Focus on Nighttime Noise and the New WHO Noise Guidelines 2020; Thomas Münzel, Swenja Kroeller-Schön, Matthias Oelze, Tommaso Gori, Frank P Schmidt, Sebastian Steven, Omar Hahad, Martin Röösli, Jean-Marc Wunderli, Andreas Daiber, Mette Sørensen; PMID:31922930
Link: DOI: 10.1146/annurev-publhealth-081519-062400
Quelle: IDW
Hohe Gaskonzentrationen über dem Roten Meer
Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Während einer Schiffsexpedition um die Arabische Halbinsel entdeckten Wissenschaftler unerklärlich hohe Ethan- und Propanwerte in der Luft über dem nördlichen Roten Meer. Die mysteriöse Emissionsquelle war tief unter der Wasseroberfläche verborgen.
Der Nahe Osten beherbergt mehr als die Hälfte der weltweit bekannten Öl- und Gasreserven. Durch die intensive Förderung und Nutzung fossiler Brennstoffe werden in dieser Region auch große Mengen gasförmiger Schadstoffe in die Atmosphäre freigesetzt. Da die chemische Zusammensetzung der Atmosphäre in diesem Gebiet in der Vergangenheit nur wenig untersucht wurde und Angaben bisher nur auf atmosphärischen Modellen beruhten, fand 2017 eine große wissenschaftliche Expedition rund um die Arabische Halbinsel statt. Während dieser Expedition stellten die Forscher des Max-Planck-Instituts für Chemie eine merkwürdige Anomalie fest: Die Mengen an Ethan und Propan in der Luft über dem nördlichen Roten Meer waren extrem hoch. Sie lagen bis zu 40-mal über den Vorhersagen.
Den Modellen zufolge sind Biomassenverbrennung, Kraftstoffproduktion sowie Emissionen aus der Energieerzeugung für die Gas-Konzentrationen verantwortlich. Keine dieser Quellen konnte jedoch die hohen Ethan- und Propanwerte erklären.
Um diese Diskrepanz zu untersuchen, schauten sich Efstratios Bourtsoukidis, Umweltphysiker am Mainzer Max-Planck-Institut, und seine Kollegen die möglichen Quellen für diese Emissionen wie etwa Verkehr, Landwirtschaft, Biomassenverbrennung, Stromerzeugung oder Ölförderung genauer an. „Da es bisher keine Daten aus dieser Region gab, mussten wir zahlreiche Berechnungen durchführen, um die Quelle zu finden. Das Ergebnis hat uns überrascht: Die hohen Konzentrationen von Ethan und Propan stammen vom Grund des nördlichen Roten Meeres „, sagt Bourtsoukidis. Genauer gesagt stammen die Gase aus Lecks unterirdischer Öl- und Gasvorkommen. Zudem strömt Wasser am Grund der Golfe von Suez und Aqaba in das Rote Meer, das Gas aus der Erdöl- und Gasförderung enthält. Eine weitere Quelle sind Gasemissionen aus Solebecken am Meeresboden. Die Kohlenwasserstoffe werden dann durch Strömungen an die Wasseroberfläche transportiert und schließlich in die Atmosphäre freigesetzt. Die Menge der Gase ist so außergewöhnlich hoch, dass sie vergleichbar mit den gesamten anthropogenen Emissionen aus Ländern wie dem Irak, den Vereinigten Arabischen Emiraten und Kuwait ist.
Die Messungen fanden im Sommer statt. Da sich die Zirkulation des Tiefenwassers jahreszeitlich verändert, ist es wahrscheinlich, dass sich die Emissionen im Winter weiter erhöhen. In vorindustriellen Zeiten hätten die hohen Mengen an Ethan und Propan in der Atmosphäre kaum Auswirkungen auf die regionale Luftqualität gehabt. Heutzutage jedoch stößt der Seeverkehr in der Region große Mengen an Stickoxiden aus. Diese Gase verbinden sich mit dem Ethan und dem Propan und bilden troposphärisches Ozon und Peroxyacetylnitrate. Beide Elemente sind sehr schädlich für die menschliche Gesundheit.
Da der Schiffsverkehr durch das Rote Meer und den Suezkanal in den kommenden Jahrzehnten vermutlich weiter stark zunehmen wird, werden auch die Stickoxidemissionen und somit die Emissionen anderer Schadstoffe zunehmen. Daher gehen die Forscher davon aus, dass sich die Luftqualität in der Region deutlich verschlechtern wird.
Die Messungen wurden während der AQABA-Schiffsexpedition (Air Quality and Climate Change in the Arabian Basin) durchgeführt, die in den Gewässern rund um die Arabische Halbinsel stattfand. Das AQABA-Projekt ist die erste umfassende In-situ-Messung von Gasen und Aerosolen im Nahen Osten und wurde zwischen Juni und August 2017 unter der Leitung des Max-Planck-Instituts für Chemie in Mainz durchgeführt. Die Forscher durchquerten per Schiff das Mittelmeer, den Suezkanal, das Rote Meer, den nördlichen Indischen Ozean und den Arabischen Golf, bevor sie auf derselben Route zurückkehrten. Insgesamt legten sie rund 20 000 Kilometer auf See zurück und sammelten einen reichen Datensatz.
Wissenschaftliche Ansprechpartner:
Dr. Efstratios Bourtsoukidis
Max-Planck-Institut für Chemie
E-Mail: e.bourtsoukidis@mpic.de
Originalpublikation:
The Red Sea Deep Water is a potent source of atmospheric ethane and propane
E. Bourtsoukidis, A. Pozzer, T. Sattler, V.N. Matthaios, L. Ernle, A. Edtbauer, H. Fischer, T. Könemann,
S. Osipov, J.-D. Paris, E.Y. Pfannerstill, C. Stönner, I. Tadic, D. Walter, N. Wang, J. Lelieveld &
J. Williams
DOI: https://doi.org/10.1038/s41467-020-14375-0
Quelle: IDW
Typ-1-Diabetes: Neue Erkenntnisse beleben die Debatte um die Aufnahme von Früherkennungstests in die Regelvorsorge
Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Wissenschaftlerinnen und Wissenschaftler des Helmholtz Zentrums München haben in einer großen, bayernweit angelegten Bevölkerungsstudie den weltweit ersten Früherkennungstest für Typ-1-Diabetes eingesetzt und die Auswirkungen untersucht.
Mit dem Screening auf Insel-Autoantikörper ist es erstmalig möglich, bereits präsymptomatische Stadien von Typ-1-Diabetes zu diagnostizieren. An der Studie nahmen insgesamt 90.632 Kinder teil. Die Ergebnisse deuten darauf hin, dass ein Screening das Fortschreiten von präsymptomatischem Typ-1-Diabetes zur gefährlichen diabetischen Ketoazidose verhindern kann. Die Studie liefert somit die Grundlage, neue Richtlinien für künftige Diagnoseverfahren zu formulieren und eine Empfehlung hinsichtlich einer Aufnahme der Screenings in den Leistungskatalog der Regelvorsorge zu diskutieren.
Typ-1-Diabetes ist die häufigste Stoffwechselerkrankung bei Kindern und Jugendlichen mit teilweise lebensbedrohlichen Folgen. „Wir arbeiten an einer Welt ohne Typ-1-Diabetes“, sagt Prof. Anette-Gabriele Ziegler, Direktorin des Instituts für Diabetesforschung am Helmholtz Zentrum München. Die Wissenschaftlerin und Ärztin will der Krankheit bereits im präsymptomatischen Stadium mit immunmodulierenden Wirkstoffen entgegenwirken. „Damit wir Typ-1-Diabetes früh behandeln können, müssen wir die Krankheit so früh wie möglich erkennen. Dazu brauchen wir eine entsprechende Diagnostik in Kindesalter“, erklärt Ziegler.
Zusammenarbeit mit kinderärztlichen Praxen
Gemeinsam mit ihrer Forschungsgruppe rief Ziegler „Fr1da“ ins Leben: In der Studie testete das Team von 2015 bis 2019 bayernweit 90.632 Kinder im Alter von zwei bis fünf Jahren auf das Vorhandensein von Insel-Autoantikörpern. An der Umsetzung der Screening-Studie beteiligten sich 682 Kinderärztinnen und Kinderärzte in Bayern, indem sie den Fr1da-Bluttest als für die Familien freiwillige Zusatzleistung in ihre routinemäßigen Früherkennungsuntersuchungen aufnahmen.
Diagnose über Insel-Autoantikörper
Ein präsymptomatischer Typ-1-Diabetes lässt sich mit dem Nachweis von mindestens zwei Insel-Autoantikörpern im Blut diagnostizieren. Das Vorhandensein dieser Antikörper weist darauf hin, dass das körpereigene Immunsystem die insulinproduzierenden Beta-Zellen der Bauchspeicheldrüse angreift – die Ursache für Typ-1-Diabetes. Diese Antikörper können bereits Jahre bevor erste Erkrankungssymptome auftreten im Blut erkannt werden. Die Kinder, die Antikörper im Blut aufwiesen, stufte die Forschungsgruppe in einem neuartigen Ansatz in drei Stadien ein: Stadium 1 (Normoglykämie), Stadium 2 (Dysglykämie) oder Stadium 3 (klinischer Typ-1-Diabetes). Diese Einstufung ermöglicht eine individuelle Verlaufskontrolle und Behandlung der Kinder.
Diabetische Ketoazidose verhindern
Die Untersuchung von 90.632 Kindern ergab bei 280 Kindern (0,31 Prozent) einen präsymptomatischen Typ-1-Diabetes. Von diesen 280 Kindern entwickelten 24,9 Prozent einen klinischen Typ-1-Diabetes (Stadium 3). Nur bei zwei von ihnen kam es zu einer diabetischen Ketoazidose. Ziegler kommentiert die Ergebnisse: „Ein potenzieller klinischer Nutzen der Früherkennung von präsymptomatischem Typ-1-Diabetes besteht in einer Reduktion der gefährlichen diabetischen Ketoazidose.“ In dieser Studie lag die Prävalenz bei weniger als 5 Prozent. In Deutschland erleiden aktuell noch mehr als 20 Prozent der nicht-getesteten Kinder eine diabetische Ketoazidose, in den USA sind es 40 Prozent. Dies lässt vermuten, dass durch Screenings die Schwere des Krankheitsverlaufs nicht nur in Deutschland, sondern weltweit gemindert werden kann.
Bayerns Gesundheitsministerin Melanie Huml betont: „Die vom bayerischen Gesundheitsministerium geförderte Studie Fr1da ist ein wichtiger Beitrag zur Früherkennung von Diabetes mellitus Typ 1. Die hohe Zahl der getesteten Kinder und der teilnehmenden Kinderärztinnen und Kinderärzte in Bayern ist ein großer Erfolg. Mein Wunsch ist, dass die Ergebnisse dazu beitragen, betroffene Kinder und ihre Eltern bestmöglich zu begleiten und zu unterstützen. Denn eine rechtzeitige Behandlung ermöglicht es, der späteren Entwicklung schwerwiegender Folgeerkrankungen von Diabetes mellitus wie etwa Herz-Kreislauf-Erkrankungen oder der Schädigung der Niere vorzubeugen. Mein Ziel ist es zudem, Eltern stärker für die Zuckerkrankheit bei Kindern zu sensibilisieren. Bayernweit sind rund 4.500 Kinder, Jugendliche und junge Erwachsene unter 20 Jahren von Typ-1-Diabetes betroffen, der bislang nicht heilbar ist. Diese Krankheit muss weiter intensiv erforscht werden. Deshalb habe ich gerne die Schirmherrschaft für die Fr1da-Studie übernommen.“
Neue Richtlinien für eine Regelvorsorge
„In unserer heutigen, sich schnell verändernden Welt, steht das Helmholtz Zentrum München für Spitzenforschung, die innovative Lösungen für eine gesündere Gesellschaft bereitstellt. Diese Studie ist ein perfektes Beispiel dafür, wie mit dieser Strategie viele Jahre harter Arbeit unserer Wissenschaftlerinnen und Wissenschaftler den Patientinnen und Patienten weltweit direkt zugutekommen können“, erklärt Prof. Matthias Tschöp, CEO des Helmholtz Zentrums München.
In einem nächsten Schritt werden die Forscherinnen und Forscher eine Kosten-Nutzen-Analyse des Screenings durchführen. Sie könnte die Aufnahme des Screenings für präsymptomatischen Typ-1-Diabetes in die Regelvorsorge und den Leistungskatalog der Gesetzlichen Krankenkassen weiter unterstützen. „Die frühzeitige Diagnose würde uns den Weg hin zu einer Welt ohne Typ-1-Diabetes deutlich erleichtern“, so Ziegler. Zusammen mit einem internationalen Team arbeitet sie intensiv an der Entwicklung einer effektiven Präventionstherapie, mit der der Ausbruch von Typ-1-Diabetes verhindert werden soll. Die frühzeitige Diagnostik ist eine wichtige Voraussetzung für dieses große Ziel.
Starke Förderung für das Pionierprojekt
Die Fr1da-Studie wird vom Helmholtz Zentrum München, dem Bayerischen Kinderärztlichen Berufsverband (BVKJ e. V.) sowie PaedNetz Bayern e. V. durchgeführt. Sie steht unter der Schirmherrschaft der Bayerischen Gesundheitsministerin Melanie Huml und findet international große Beachtung. Sie wurde von der JDRF, der LifeScience-Stiftung, dem Leona M. and Harry B. Helmsley Charitable Trust, dem Bayerischen Staatsministerium für Gesundheit und Pflege, der Deutschen Diabetes Stiftung, dem BKK Landesverband Bayern, der B. Braun-Stiftung, der Deutschen Diabetes-Hilfe und dem Deutschen Zentrum für Diabetesforschung (DZD) gefördert. Inzwischen wurden die Screenings auf das Land Niedersachsen ausgeweitet (Fr1dolin-Studie) und sind zum Vorbild für zahlreiche weitere Initiativen weltweit geworden.
Die Fr1da-Studienergebnisse kurz im Video erklärt: https://youtu.be/PY87sNAdjgo
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. med. Anette-Gabriele Ziegler
Helmholtz Zentrum München
Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH)
Institut für Diabetesforschung
Heidemannstr. 1
80939 München
Tel: +49 89 3187-2896
E-Mail: anette-g.ziegler@helmholtz-muenchen.de
Originalpublikation:
A. Ziegler et al, 2019: Yield of a public health screening of children for islet autoantibodies in Bavaria, Germany. JAMA, DOI: 10.1001/jama.2019.21565
Quelle: IDW
Mit Wertstoffrecycling die Klimabilanz von Klärwerken verbessern!
Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
Stakeholder-Workshop am 29. Januar 2020 in Berlin mit Ergebnissen aus dem Europäischen Verbundvorhaben SMART-Plant.
Die Europäische Kommission will das Prinzip der „Kreislaufwirtschaft“ auf möglichst viele Wirtschaftsbereiche übertragen. Damit soll der Ressourcenverbrauch und die Nutzung endlicher Rohstoffe minimiert und so der Umwelt- und Klimafußabdruck in Europa verringert werden.
Häusliches und industrielles Abwasser enthält viele Wertstoffe, die bisher nicht genutzt werden und für ein Recycling in Frage kommen. Organische Substanz kann zu Biogas umgewandelt und zur Energiegewinnung genutzt werden, oder sie liefert eine Kohlenstoffquelle für die Produktion von Bioplastik durch spezialisierte Bakterien. Pflanzennährstoffe wie Stickstoff und Phosphor können zurückgewonnen werden, um den Bedarf an Mineraldüngern in der Landwirtschaft zu verringern. Cellulosefasern aus Toilettenpapier können Strukturmaterial in Bio-Kompostmaterial oder Baustoffen ersetzen, oder sie dienen als Bio-Brennstoff.
Die technische Machbarkeit solche Ansätze untersucht und bewertet seit drei Jahren das europäische Projektkonsortium „SMART-Plant“. Beteiligt sind hier 25 Projektpartner aus Europa und Israel.
Der vom Kompetenzzentrum Wasser Berlin in Zusammenarbeit mit dem Projektkoordinator von der Universität Ancona und weiteren Projektpartnern organisierte Workshop soll der Fachöffentlichkeit zeigen, was bisher erreicht wurde. Neben Ergebnissen aus SMART-PLANT werden weitere EU-Vorhaben auf diesem Gebiet in Kurzvorträgen vorgestellt.
Ein Fokus der Veranstaltung liegt auch auf der Frage, wie die Ergebnisse und innovativen Verfahren besser in die Praxis gebracht werden können. Dazu wird am Beispiel der Phosphorrückgewinnung, die zukünftig in Deutschland für viele Kläranlagen verpflichtend vorgeschrieben ist, die praktische Umsetzung des Prinzips der Kreislaufwirtschaft aus verschiedenen Perspektiven (Forschung, Technologieanbieter, Betreiber) präsentiert. Auf der abschließenden Podiumsdiskussion soll diskutiert werden, wie noch bestehende Hemmnisse bei der Umsetzung von Kreislaufkonzepten im Abwassersektor zukünftig abgebaut werden können. Zur Vertiefung des Themas wird eine Besichtigung der Phosphorrückgewinnungsanlage im Klärwerk Waßmannsdorf der Berliner Wasserbetriebe angeboten.
Wissenschaftliche Ansprechpartner:
Dr. Christian Remy
christian.remy@kompetenz-wasser.de
Weitere Informationen:
http://smart-plant.eu/
Quelle: IDW
Duftstoffe verbessern Lernen im Schlaf
Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Duftstoffe können sehr einfach helfen, neu Gelerntes im Schlaf besser zu speichern, wie Forscher*innen des Universitätsklinikums Freiburg zeigen / Experiment mit Schulklassen bestätigt und vereinfacht vielbeachtete Studie / Publikation in Scientific Reports der Nature-Gruppe
Müheloses Lernen im Schlaf ist der Traum eines jeden Menschen. Dass Gerüche den Lernerfolg erhöhen, wenn sie während des Lernens und später erneut während des Schlafs präsentiert werden, wurde erstmals vor einigen Jahren in aufwändigen Studien im Schlaflabor nachgewiesen. Nun haben Forscher*innen des Universitätsklinikums Freiburg, des Freiburger Instituts für Grenzgebiete der Psychologie und Psychohygiene (IGPP) und der Fakultät für Biologie der Albert-Ludwigs-Universität Freiburg gezeigt, dass dieser Effekt sehr einfach erzielt werden kann. Für die Studie lernten Schüler*innen zweier Schulklassen Englisch-Vokabeln – mit und ohne Duftstäbchen während der Lernphase und in der Nacht. Mit Duftreiz erinnerten sich die Schüler*innen deutlich besser an die Vokabeln. Die Studie, die eine Lehramtsstudentin im Rahmen ihrer Abschlussarbeit durchführte, erschien am 27. Januar 2020 im Open-Access-Journal Scientific Reports der Nature-Gruppe.
„Wir konnten zeigen, dass der unterstützende Effekt von Duftstoffen im Alltag sehr zuverlässig funktioniert und gezielt genutzt werden kann“, sagt Studienleiter PD Dr. Jürgen Kornmeier, Leiter der Forschungsgruppe Wahrnehmung und Kognition im Freiburger IGPP und Wissenschaftler an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg.
Rosenduft beim Lernen und Schlafen
Für die Studie machte die Erstautorin und Lehramtsstudentin Franziska Neumann mit 54 Schüler*innen aus zwei 6. Klassen einer Schule am Bodensee mehrere Experimente. Die jungen Proband*innen wurden gebeten, Duftstäbchen mit Rosenduft während des Lernens von Englischvokabeln zu Hause auf den Schreibtisch und nachts auf den Nachttisch neben das Bett zu legen. In einem weiteren Experiment legten sie die Duftstäbchen zusätzlich während eines Vokabeltests in der Schule neben sich auf den Tisch. Am nächsten Tag folgte ein Englischtest. Verglichen wurden die Ergebnisse mit Testergebnissen, bei denen während einer oder mehrerer Phasen keine Duftstäbchen verwendet wurden.
„Die Schülerinnen und Schüler zeigten einen deutlich größeren Lernerfolg, wenn die Duftstäbchen sowohl während der Lern- als auch der Schlafphase zum Einsatz kamen“, sagt Neumann. Außerdem deuten die Ergebnisse an, dass der zusätzliche Einsatz der Duftstäbchen beim Vokabeltest das Erinnern fördert.
Erkenntnisse sind alltagstauglich
„Besonders beeindruckend war, dass der Duft auch wirkt, wenn er die ganze Nacht vorhanden ist“, sagt Kornmeier. „Das macht die Erkenntnisse alltagstauglich.“ Bisherige Studien waren stets davon ausgegangen, dass der Duft nur während einer besonders sensiblen Schlafphase vorhanden sein darf. Da diese Schlafphase aber nur durch eine aufwändige Messung der Hirnaktivität mittels Elektroenzephalogramm (EEG) im Schlaflabor ermittelt werden kann, war die Erkenntnis bisher nicht alltagstauglich. „Unsere Studie zeigt, dass wir uns das Lernen im Schlaf erleichtern können. Und wer hätte gedacht, dass unsere Nase dabei wesentlich helfen kann“, sagt Kornmeier.
Wissenschaftliche Ansprechpartner:
PD Dr. Jürgen Kornmeier
Instituts für Grenzgebiete der Psychologie und Psychohygiene (IGPP)
und
Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg
Telefon: 0761 207-2121
juergen.kornmeier@uni-freiburg.de
Originalpublikation:
Originaltitel der Studie: How odor cues help to optimize learning during sleep in a real life-setting
DOI: 10.1038/s41598-020-57613-7
Weitere Informationen:
http://www.nature.com/articles/s41598-020-57613-7 Link zur Studie
Quelle: IDW
Strafzettel wirken: Bußgelder lassen Temposünder nachhaltig langsamer fahren
Regine Kreitz Pressestelle
Hertie School
Studie belegt ausgeprägten Lerneffekt bei Autofahrern | Höhe des Bußgelds nicht entscheidend
Strafzettel für Geschwindigkeitsüberschreitungen haben eine starke, unmittelbare und sehr anhaltende Wirkung. Wie eine Studie der Hertie School in Berlin und der Karlsuniversität in Prag zeigt, halten sich Temposünder, die mit einem Bußgeld belegt werden, anschließend in vier von fünf Fahrten an die Geschwindigkeitsbegrenzung. Selbst zwei Jahre nach diesem Ereignis fährt ein einmal bestrafter Fahrer mit deutlich geringerer Geschwindigkeit und höherer Wahrscheinlichkeit unterhalb des Tempolimits, als das zuvor der Fall war. Dieser Effekt lässt sich nicht nur an der Stelle beobachten, an der ein Fahrer geblitzt wurde, sondern auch an anderen Orten.
Für die Studie werteten Christian Traxler (Hertie School, Berlin) und Libor Dušek (Karlsuniversität, Prag) die anonymisierten Daten eines „Section Control“-Radarsystems in der Nähe von Prag aus: insgesamt 26 Millionen Fahrten von 1,3 Millionen verschiedener Fahrzeuge. Bei „Section Control“ handelt es sich um stationäre Digitalkamerasysteme, die die Daten jedes vorbeifahrenden Autos auf eine bestimmte Strecke aufzeichnen, und nicht nur punktuell Temposünder erfassen. Die Fülle und die Verknüpfbarkeit dieser Daten machte eine solch detaillierte Studie zur Wirkung von Sanktionen bei Geschwindigkeitsüberschreitungen erstmals möglich.
Christian Traxler: „Die Daten dokumentieren einen klaren Lerneffekt, der nach dem Erhalt eines Strafzettels von den Radarsystemen ausgeht. Die Fahrer lernen, dass diese Geräte die Geschwindigkeit erfassen und bei Verstößen automatisch Bußgeldbescheide folgen, und ändern ihr Verhalten entsprechend. Interessanterweise spielt die Höhe des Bußgelds für die Verhaltensänderung keine Rolle. Fahrer, die 35 Euro zahlen mussten, hielten sich fortan ebenso häufig an das Tempolimit wie Empfänger eines Bußgeldbescheids über 70 Euro.“
Die empirische Untersuchung „Learning from Law Enforcement“ von Libor Dušek und Christian Traxler arbeitet methodisch mit zwei komplementären Ansätzen: Zum einen werden Diskontinuitäten im Strafsystem verwendet. Damit lässt sich unter anderem das spätere Verhalten von zwei Gruppen von Fahrern vergleichen, nämlich jenen, die knapp unter dem Sanktionslimit gefahren sind, und jenen, die knapp darüber waren und entsprechend einen Strafzettel bekommen haben. Darüber hinaus wird das Fahrverhalten von Fahrern über die Zeit – den Zeitraum vor und nach Erhalt des Strafzettels – verglichen. Das Forschungsprojekt wurde von der Deutschen Forschungsgemeinschaft (DFG) gefördert.
Die Hertie School in Berlin bereitet herausragend qualifizierte junge Menschen auf Führungsaufgaben im öffentlichen Bereich, in der Privatwirtschaft und der Zivilgesellschaft vor. Sie bietet Masterstudiengänge, Executive Education und Doktorandenprogramme an. Als universitäre Hochschule mit interdisziplinärer und praxisorientierter Lehre, hochklassiger Forschung und einem weltweiten Netzwerk setzt sich die Hertie School auch in der öffentlichen Debatte für „Good Governance“ und moderne Staatlichkeit ein. Die Hertie School wurde 2003 von der Gemeinnützigen Hertie-Stiftung gegründet und wird seither maßgeblich von ihr getragen. Sie ist staatlich anerkannt und vom Wissenschaftsrat akkreditiert. www.hertie-school.org
Pressekontakt
Regine Kreitz, Director Communications, Phone: 030 / 259 219 113, Email: pressoffice@hertie-school.org
Twitter: https://twitter.com/thehertieschool
Facebook: https://www.facebook.com/hertieschool/
LinkedIn: https://www.linkedin.com/school/55258/
Originalpublikation:
https://www.cesifo.org/en/publikationen/2020/working-paper/learning-law-enforcem…
Quelle: IDW
Wetter als Gesundheitsrisiko: Wie sich der Klimawandel auf unseren Körper auswirkt
Janina Wetzstein Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Im Zuge des Klimawandels nehmen extreme Wetterphänomene überall auf der Welt zu. Auch Deutschland hatte in den vergangenen Jahren auffallend häufig mit Starkregen, Stürmen, Dürre und Hitze zu kämpfen. Neben ökologischen und ökonomischen Folgen bringen solche Extremwetterlagen auch gesundheitliche Auswirkungen mit sich. Eine besondere Belastung geht dabei von Hitzewellen aus. Wie sie sich auf den Körper auswirken und was ältere oder kreislauflabile Patienten an heißen Tagen beachten müssen, ist eines der Themen, die Experten auf der Jahrespressekonferenz der Deutschen Gesellschaft für Innere Medizin e.V. (DGIM) diskutieren werden.
Die Pressekonferenz steht unter dem Motto „Innere Medizin und Klimawandel“ und findet am 13. Februar 2020 in Berlin statt.
Bei hohen Temperaturen oder körperlicher Anstrengung muss der Körper vermehrt Wärme abführen, um nicht zu überhitzen: Die Haut produziert Schweiß, der über Verdunstung für Kühlung sorgt, zusätzlich weiten sich die Blutgefäße in der Haut, um die Wärme noch effektiver nach außen zu leiten. „Durch die Weitstellung der Gefäße sinkt bei den meisten Menschen der Blutdruck“, sagt Professor Dr. med. Jürgen Floege, Vorsitzender der DGIM und Direktor der Klinik für Nieren- und Hochdruckkrankheiten, rheumatologische und immunologische Erkrankungen an der Uniklinik der RWTH Aachen. In einer warmen Umgebung sei außerdem der Blutdruckabfall, der beim Wechsel vom Liegen zum Stehen entstehe, ausgeprägter als bei kühlen Temperaturen. Je nachdem, wie stark der Blutdruck sinkt, können Beschwerden wie Schwindel, Müdigkeit oder Übelkeit auftreten. Gerade bei Senioren häufen sich an heißen Tagen aber auch schwerwiegendere Zwischenfälle wie Schwächeanfälle, Stürze oder Ohnmachten.
Lassen sich Todesfälle durch Hitze nachweisen?
Verschiedene Datenerhebungen zeigen, dass an besonders heißen Tagen mehr Menschen sterben. Hitze allein ist allerdings selten dafür verantwortlich – Betroffene leiden in der Regel an Vorerkrankungen wie einer Herzschwäche oder Bluthochdruck. So ermittelten etwa Wissenschaftler, welchen Effekt besonders heiße und kalte Tage auf die Sterberate und die Zahl Krankenhauseinlieferungen von 1999 bis 2009 in Deutschland hatten. Demnach stieg die Sterbequote an heißen Tagen mit mehr als 30 Grad Celsius um etwa zehn und die Krankenhauseinlieferungen um fünf Prozent. Der Effekt steigerte sich deutlich, wenn es mehrere Hitzetage in Folge gab.
Für wen ist Hitze besonders gefährlich und was können Betroffene vorbeugend tun?
Besonders gefährdet sind Patienten, die ohnehin einen sehr niedrigen Blutdruck haben. Sie sollten es vermeiden, an heißen Tagen zu rasch aufzustehen oder zu lange zu stehen. Außerdem ist es ratsam, sich nach dem Aufstehen noch kurz – etwa an der Stuhllehne – festzuhalten, um dem Körper Zeit für die Blutdruckanpassung zu geben. Doch auch wer eigentlich einen zu hohen Blutdruck hat, diesen aber medikamentös kontrolliert, kann bei hohen Temperaturen Kreislaufprobleme bekommen. „Wer Blutdrucksenker einnimmt, sollte in Hitzeperioden seinen Blutdruck täglich überwachen“, rät Floege. Wenn der obere, systolische Wert immer wieder oder gar dauerhaft unter 120 mmHg sinke, solle Rücksprache mit dem Arzt gehalten werden. Eventuell sei es dann ratsam, die Tablettendosis zu reduzieren oder die Einnahme ganz auszusetzen.
Neben dem Blutdruck kann an Hitzetagen auch der Flüssigkeitshaushalt in Schieflage geraten, denn durch das Schwitzen gehen dem Körper Flüssigkeit und Salze verloren. Besonders Menschen, deren Durstempfinden gestört ist oder die nicht oder nur eingeschränkt selbstständig trinken können, laufen Gefahr, einen ausgeprägten Flüssigkeitsmangel zu erleiden, der zu Kopfschmerzen, Verwirrtheit, Krampfanfällen und Bewusstseinseintrübungen bis hin zur Bewusstlosigkeit führen kann. „Gerade ältere Menschen haben oft nur ein gedämpftes Durstgefühl“, sagt Floege. Vor allem in den Sommermonaten sollten sie daher bewusst „über den Durst trinken“. Bei Pflegebedürftigen, Heimbewohnern und auch bei Neugeborenen sollten Angehörige und Betreuer darauf achten, dass die Flüssigkeitsversorgung auch in Hitzephasen gewährleistet ist. Ein erhöhtes Risiko besteht auch bei Bluthochdruckpatienten, die entwässernde Substanzen zur Blutdrucksenkung einnehmen. Diese so genannten Diuretika verstärken den Wasser- und Salzverlust zusätzlich. Auch hier kann daher – in Absprache mit dem Arzt – eine Dosisanpassung sinnvoll sein.
Wie sich der Klimawandel auf herzkranke Patientinnen und Patienten und Menschen mit Allergien und Lungenerkrankungen auswirkt, wird ebenso Thema der Pressekonferenz am 13. Februar 2020 in Berlin sein, wie die Frage, welchen Einfluss das Klima auf die postoperative Wundheilung hat.
„Klimawandel und Gesundheit“ wird auch Thema beim 126. Internistenkongress von 25. bis 28. April 2020 in Wiesbaden sein. Mehr Infos unter www.dgim2020.de
Quellen:
Martin Karlsson, Nicolas R. Ziebarth: Population health effects and health-related costs of extreme temperatures: Comprehensive evidence from Germany. Journal of Environmental Economics and Management 91, 2018.
Dandan Xu et. al.: Acute effects of temperature exposure on blood pressure: An hourly level panel study. URL: https://www.sciencedirect.com/science/article/pii/S0160412018319366
Anja Stotz et. al.: Effect of a Brief Heat Exposure on Blood Pressure and Physical Performance of Older Women Living in the Community-A Pilot-Study. URL: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4276636/
Jahrespressekonferenz der
Deutschen Gesellschaft für Innere Medizin e.V. (DGIM) in Berlin
Innere Medizin und Klimawandel
Termin: Donnerstag, 13. Februar 2020, 12.00 bis 13.00 Uhr
Ort: Geschäftsräume der DGIM
Anschrift: Oranienburger Straße 22, 10178 Berlin (Mitte)
Themen und Referenten:
Klimawandel, Blutdruck und Flüssigkeitshaushalt: Was muss ich beachten?
Professor Dr. med. Jürgen Floege
Vorsitzender der DGIM 2019/2020 und Direktor der Klinik für Nieren- und Hochdruckkrankheiten, rheumatologische und immunologische Erkrankungen an der Uniklinik der RWTH Aachen
Herzkrank im Klimawandel: Wie schütze ich mich?
Professor Dr. med. Georg Ertl
Generalsekretär der DGIM und Kardiologe aus Würzburg
Lungenkrankheiten, Allergien und Klimaänderungen
Professor Dr. med. Christian Witt
Leiter des Arbeitsbereiches Ambulante Pneumologie, Charité – Universitätsmedizin Berlin
Auswirkungen des Klimawandels auf die postoperative Wundheilung
Dr. med. Seven Johannes Sam Aghdassi
Institut für Hygiene und Umweltmedizin, Charité – Universitätsmedizin Berlin
Moderation: Pressestelle der DGIM, Stuttgart
Kontakt für Journalisten:
DGIM Pressestelle – Janina Wetzstein
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-457
Fax: 0711 8931-167
E-Mail: wetzstein@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev
http://www.dgim2020.de
Twittern Sie mit uns über den Internistenkongress unter #DGIM2020 – wir freuen uns auf Sie! Pressestelle der DGIM
Weitere Informationen:
http://www.dgim.de
http://www.facebook.com/DGIM.Fanpage/
http://www.twitter.com/dgimev
http://www.dgim2020.de
https://www.sciencedirect.com/science/article/pii/S0160412018319366
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4276636/
Quelle: IDW
Wie genau Cyanobakterien CO2 so effizient umwandeln
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Fotosynthetische Organismen nutzen mithilfe von Sonnenlicht Kohlenstoffdioxid aus der Luft zum Aufbau von Biomasse. Cyanobakterien sind dabei besonders effizient, weil sie das Gas zunächst in wasserlösliche Kohlensäure umwandeln und zwischenspeichern. Wie genau sie das machen, konnte ein Forschungsteam der Ruhr-Universität Bochum (RUB) gemeinsam mit internationalen Kollegen erstmals im Detail klären. Das macht es künftig möglich, die Tricks der Bakterien zu nutzen, zum Beispiel für die Produktion nachhaltiger Kraftstoffe. Das Team berichtet in der Zeitschrift Nature Communications vom 24. Januar 2020.
Kohlensäure wird in der Zelle zwischengespeichert
Cyanobakterien nutzen für die Umwandlung von gasförmigem CO2 aus der Luft einen speziellen Membranproteinkomplex – eine Variante des fotosynthetischen Komplex I. Er arbeitet zum einen als Protonenpumpe, ist aber zusätzlich mit einem einzigartigen Modul versehen, das CO2 aus der Atmosphäre konzentriert. Das gasförmige CO2 wird dabei unter Energieverbrauch in wasserlösliche Kohlensäure umgewandelt, die dann in der Zelle gespeichert wird. Die dafür notwendige Energie stammt aus Sonnenlicht und wird durch weitere fotosynthetische Proteine bereitgestellt, mit denen der Komplex verbunden ist.
Durch die Analyse der molekularen Struktur des Komplexes mittels Kryoelektronenmikroskopie in Kombination mit Computersimulationen und weiteren biochemischen Experimenten konnte das Team um Privatdozent Dr. Marc Nowaczyk vom Lehrstuhl Biochemie der Pflanzen den Mechanismus dieser biologischen CO2-Umwandlung erstmals aufklären. „Wir waren überrascht, dass die molekularen Details des Prozesses doch anders sind als zuvor gedacht“, resümiert der Biologe.
Effizientere Fotosynthese für Nutzpflanzen oder nachhaltige Kraftstoffe
Die Aufklärung des Prozesses legt den Grundstein dafür, seine Bausteine künftig zu nutzen. „Auf dieser Basis könnte man versuchen, die fotosynthetische Effizienz anderer Organismen wie Nutzpflanzen weiter zu verbessern, oder man könnte diese in der Natur vorkommenden molekularen Prinzipien für eine effiziente Energieumwandlung auf synthetische Systeme übertragen, zum Beispiel zur Produktion nachhaltiger Solarkraftstoffe“, hofft Nowaczyk, der auch an der Entwicklung solcher Biohybridsysteme zur fotosynthetischen Energieumwandlung forscht. „Mich fasziniert dabei die Modularität der molekularen Bausteine, die wie in einem Baukastensystem neu miteinander kombiniert werden können“, erklärt er.
Kooperationspartner
Die Studie ist eine Zusammenarbeit zwischen Dr. Marc Nowaczyk, Privatdozent an der RUB, Prof. Dr. Ville Kaila von der Stockholm University und Dr. Jan Schuller, Forscher am Max-Planck-Institut für Biochemie und Emmy-Noether Gruppenleiter an der Universität Marburg, sowie weiteren Forscherinnen und Forschern der beteiligten Institute und der Universität Osaka.
Förderung
Die Arbeiten wurden gefördert durch den European Research Council (Grant Nummer 715311), die Deutsche Forschungsgemeinschaft im Rahmen der Forschungsgruppe FOR 2092 (NO 836/3-2), des Schwerpunktprogramms 2002 (NO 836/4-1) und des Projekts NO 836/1-1. Weitere Förderung kam von der Emergence of Life Initiative (TRR235) und der Knut and Alice Wallenberg Foundation.
Originalveröffentlichung
Jan M. Schuller, Patricia Saura, Jacqueline Thiemann, Sandra K. Schuller, Ana P. Gamiz-Hernandez, Genji Kurisu, Marc M. Nowaczyk, Ville R.I. Kaila: Redox-coupled proton pumping drives carbon concentration in the photosynthetic complex I, in: Nature Communications, 2020, DOI: 10.1038/s41467-020-14347-4
Pressekontakt
Privatdozent Dr. Marc Nowaczyk
Lehrstuhl Biochemie der Pflanzen
Fakultät für Biologie und Biotechnologie
Ruhr-Universität Bochum
Tel.: +49 234 32 23657
E-Mail: marc.m.nowaczyk@rub.de
Wissenschaftliche Ansprechpartner:
Privatdozent Dr. Marc Nowaczyk
Lehrstuhl Biochemie der Pflanzen
Fakultät für Biologie und Biotechnologie
Ruhr-Universität Bochum
Tel.: +49 234 32 23657
E-Mail: marc.m.nowaczyk@rub.de
Originalpublikation:
Jan M. Schuller, Patricia Saura, Jacqueline Thiemann, Sandra K. Schuller, Ana P. Gamiz-Hernandez, Genji Kurisu, Marc M. Nowaczyk, Ville R.I. Kaila: Redox-coupled proton pumping drives carbon concentration in the photosynthetic complex I, in: Nature Communications, 2020, DOI: 10.1038/s41467-020-14347-4
Weitere Informationen:
https://www.nature.com/articles/s41467-020-14347-4 – Originalpaper
https://homepage.ruhr-uni-bochum.de/marc.m.nowaczyk/ – Homepage der Arbeitsgruppe
Quelle: IDW
Diabetes-Strategie: Wer braucht Werbung für ungesunde Produkte?
Kerstin Ullrich Presse- und Öffentlichkeitsarbeit
Deutsche Allianz Nichtübertragbare Krankheiten
Zum drohenden Scheitern der Nationalen Diabetes-Strategie kommentiert die Deutsche Allianz Nichtübertragbare Krankheiten DANK:
Eine Diabetes-Strategie ohne den Bereich Ernährung ist keine Strategie – das ist sicherlich jedem Bürger klar, den verantwortlichen Ernährungspolitikern jedoch offenbar nicht. Auch die Dringlichkeit wird ignoriert: Diabetes ist tödlich! Jeder 5. Todesfall in Deutschland lässt sich auf Diabetes zurückführen (1). Zudem verkürzt Diabetes die Lebenszeit bei Menschen im mittleren Alter um 6 bis 12 Jahre, je nachdem ob schon zusätzlich Gefäßerkrankungen bestehen (2). Jedes Jahr erkranken in Deutschland etwa 500.000 Menschen neu an Diabetes – das entspräche in zwei Jahren der Einwohnerzahl von Köln, in sieben Jahren der von ganz Berlin. Wir brauchen daher dringend eine nationale Diabetes-Strategie, die verbindliche Maßnahmen im Bereich Ernährung umfasst. Dazu gehört als wesentliche Maßnahme ein Verbot von an Kinder gerichtete Werbung für ungesunde Produkte. Niemand außer der Industrie braucht Werbespots, die Kinder dazu animieren, mehr Süßigkeiten zu essen. Wir fordern die entsprechenden Politiker auf, endlich ihre Blockadehaltung aufzugeben, das Versprechen des Koalitionsvertrages zu erfüllen und den Weg frei zu machen für einen besseren Schutz der Gesundheit von Kindern.
(1) Jacobs E at al. Diabetes Care 2017; 40: 1703-9
(2) Emerging Risk Factor Collaboration. New Engl. J Med. 2011; 364: 829-41
Die Deutsche Allianz Nichtübertragbare Krankheiten (DANK) ist ein Zusammenschluss von 23 medizinisch-wissenschaftlichen Fachgesellschaften, Verbänden und Forschungseinrichtungen, der sich für Maßnahmen zur Verhinderung von Krankheiten wie Adipositas, Diabetes, Krebs und Herz-Kreislaufkrankheiten einsetzt. http://www.dank-allianz.de
Kontakt:
Deutsche Allianz Nichtübertragbare Krankheiten (DANK)
c/o Deutsche Diabetes Gesellschaft
Barbara Bitzer (Sprecherin)
Albrechtstraße 9, 10117 Berlin
Telefon 030 / 3 11 69 37 0
Telefax 030 / 3 11 69 37 20
E-Mail info@dank-allianz.de
Pressestelle Deutsche Diabetes Gesellschaft (DDG)
Christina Seddig/Michaela Richter
Postfach 30 11 20, 70451 Stuttgart
Tel.: 0711 8931-652, Fax: 0711 8931-167
seddig@medizinkommunikation.org
Weitere Informationen:
http://www.dank-allianz.de
Quelle: IDW
Intelligentes Robotersystems an der TU Bergakademie Freiberg verbessert Trinkwasserkontrolle in Binnengewässern
Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg
Der mit Sensoren ausgestattete Schwimmroboter der TU Freiberg soll dank künstlicher Intelligenz komplett autonom auf dem Wasser fahren und dabei kontinuierlich verschiedenste Umweltparameter messen. So lässt sich die Wasserqualität von Talsperren und Stauseen jederzeit in Echtzeit überprüfen.
Binnengewässer haben in Deutschland und weltweit eine herausragende Bedeutung für die Trinkwasserversorgung, die Ökologie, den Tourismus und die Landwirtschaft. Allein in Sachsen befinden sich 23 Trinkwassertalsperren, 80 sonstige Staubecken sowie unzählige weitere Seen und Teiche. Mikroplastik, erhöhte Gehalte an organischem Kohlenstoff und der Zustrom von Nährstoffen belasten viele Gewässer. Zudem ist die bisherige Kontrolle der Wasserqualität durch punktuelle Probennahme vor Ort und anschließender Analyse im Labor sehr zeit- und kostenintensiv. Ein neues Roboter-Sensor-System der Technischen Universität Bergakademie Freiberg soll die Überprüfung in Trinkwassertalsperren und Staubecken sowie neu gefluteten Tagebaurestseen künftig in Echtzeit ermöglichen. So sind auch kurzfristige ökologische und hydrologische Veränderungen umgehend sichtbar.
Dafür entwickeln Wissenschaftler/innen im neuen ESF-Projekt „RoBiMo“ (Robotergestütztes Binnengewässer-Monitoring) ab sofort spezielle Sensoren, die unter anderem Temperatur, Druck, pH-Wert, Phosphat- oder Quecksilbergehalt, sowie Gas- und Feststoffanteile messen können. Ein Sonar soll die Gewässer vom Grund bis zur Oberfläche scannen. Angebracht werden soll das System am ebenfalls an der TU Freiberg entwickelten autonom fahrenden Schwimmroboter „Elisabeth“. Bei seiner Fahrt misst er dann kontinuierlich alle relevanten Daten und sendet diese an eine Basisstation am Ufer. Von dort können die Freiberger Wissenschaftler/innen sie mit Hilfe künstlicher Intelligenz aufbereiten und in der virtuellen Realität dreidimensional darstellen.
„Die so entstehenden Daten ermöglichen uns beispielsweise Rückschlüsse auf den Binnengewässerzustand, die Grundwasserzuflüsse sowie die CO2-Speicherfunktion von Seen. Mit diesen Erkenntnissen können wir das Wasser als Ressource noch besser verstehen, die hohe Qualität für Mensch und Umwelt gewährleisten und Konzepte für einen nachhaltigeren Umgang mit diesem entwickeln“, erklärt Prof. Yvonne Joseph, Koordinatorin des RoBiMo-Projektes.
Das im Januar offiziell gestartete interdisziplinäre Projekt fügt sich ein in das Zentrum für Wasserforschung Freiberg, das die vielfältigen Aktivitäten im Bereich der Forschung und Lehre an der Bergakademie bündelt. Es wird aus Mitteln des Landes Sachsen und des Europäischen Sozialfonds für drei Jahre (Januar 2020 bis Dezember 2022) gefördert. Beteiligt sind vier Nachwuchswissenschaftler/innen und insgesamt sieben Professuren aus verschiedenen Bereichen der Umwelt-, Geo- und Ingenieurwissenschaft sowie der Mikroelektronik und der Informatik. Auch die Wissenschaftstaucher/innen des Scientific Diving Centers der TU Freiberg sind mit eingebunden. Sie ermitteln bei Tauchgängen sogenannte „Ground-Truth“-Daten, die zur Analyse der Fernerkundungsdaten wie der Messgrößen und der „realen“ Unterwassergeografie notwendig sind.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Yvonne Joseph, Tel.: +49 3731 39 2146, M. Sc. Sebastian Pose, Tel.: +49 3731 39 3252
Weitere Informationen:
https://tu-freiberg.de/esm
Quelle: IDW
Bestäubung funktioniert in Städten besser als auf dem Land
Volker Hahn Medien und Kommunikation
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Blütenpflanzen werden in Städten besser bestäubt als im Umland. Das zeigt ein Experiment mitteldeutscher Forscher. Diese fanden zwar auf dem Land insgesamt eine größere Vielfalt an Fluginsekten – in den Städten sorgten aber mehr Bienen und Hummeln für mehr bestäubte Blüten an den Testpflanzen. Mit Abstand am fleißigsten bestäubten Hummeln, die vermutlich von einer höheren Zahl geeigneter Lebensräume in der Stadt profitieren. Um Bestäubung zu fördern, empfehlen die Forscher, die Bedürfnisse von Bienen bei der Grünflächenplanung besser zu berücksichtigen. Die Ergebnisse wurden in der Zeitschrift Nature Communications veröffentlicht.
Städte dehnen sich weltweit aus. Dass sich die Umwandlung von Naturflächen in Bauland auf das Vorkommen von Insekten auswirkt, haben mehrere Untersuchungen gezeigt. Oft sinken Vielfalt und Anzahl der Insekten, manchmal profitieren aber einzelne Artengruppen. Was die Verstädterung jedoch für die ökologischen Leistungen der Insekten wie etwa die Bestäubung der Pflanzen bedeutet, ist kaum bekannt.
Ein Wissenschaftler-Team unter Leitung des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv), der Martin-Luther-Universität Halle-Wittenberg (MLU) und des Helmholtz-Zentrums für Umweltforschung (UFZ) wollte den Effekt eines urbanen Umfeldes auf Insektenbestäuber und die Bestäubung untersuchen. Dafür verglich es blütenreiche Flächen in Innenstadtlage wie Parks und botanische Gärten mit solchen im direkten Umland neun deutscher Großstädte (Berlin, Braunschweig, Chemnitz, Dresden, Göttingen, Halle, Jena, Leipzig und Potsdam).
An allen Orten dienten Rotklee-Topfpflanzen als Referenzpflanze für Bestäubung. Die Wissenschaftler erfassten die Artenvielfalt mit Insektenfallen. Darüber hinaus zeichneten sie alle Insektenbesuche an ihren Rotkleeblüten 20 Mal am Tag für 15 Minuten auf. Später zählten sie die produzierten Samen und bestimmten damit den Bestäubungserfolg.
Am erfolgreichsten wurden Pflanzen in den Innenstädten bestäubt. Hier wurden die Blüten häufiger besucht als auf dem Land. Zwar fanden die Forscher auf dem Land eine insgesamt höhere Artenvielfalt und Biomasse von Fluginsekten als in der Stadt – insbesondere von Fliegen und Schmetterlingen. Letztere trugen jedoch nur wenig zur Bestäubung des Rotklees bei. Dies taten jedoch umso mehr Bienen, von denen in den Städten mehr Arten vorkamen und die die Blüten auch wesentlich häufiger besuchten als andere Insekten. Drei von vier der erfassten Blütenbesucher waren Hummeln. Die Honigbiene war mit nur 8,7 Prozent der Blütenbesuche zweitwichtigster Bestäuber.
Die große Vielfalt und Anzahl an Wildbienen und Hummeln in den Städten erklären die Forscher mit einer höheren Zahl geeigneter Lebensräume. So finden sie gute Nistmöglichkeiten in freiliegenden Böden, Totholz und Mauerhohlräumen und dauerhaft Nahrung durch die große Vielfalt an Blütenpflanzen in Parks und Gärten. Vermutlich kommen Bienen aber auch mit den gesamten Lebensbedingungen dort besser zurecht als andere Insektengruppen.
„Städte verändern ständig ihr Bild. Sich darin zu orientieren, ist eine Herausforderung, der besonders Bienen mit ihren ausgeprägten Fähigkeiten zur Orientierung und zum Lernen gewachsen sind“, sagt der Leiter der Studie, Prof. Robert Paxton, Wissenschaftler der Martin-Luther-Universität Halle-Wittenberg (MLU) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv). „Fliegen und Schmetterlingen haben es hier offenbar schwerer.“
Grundsätzlich profitierten fast alle untersuchten Insektenarten von vielfältigen Lebensraumstrukturen, die dauerhaft Nahrung, Nistplätze und Orientierung boten. Das sind im Agrarland Blühstreifen, Grünland, Wald und Hecken; in Innenstadtlagen sind es Gärten, Brachen und Parks. In einer weitreichend ausgeräumten Agrarlandschaft fehlen diese häufig. „Ich war wirklich erschüttert, wie durchgehend schlecht die Bestäubungsleistung im Agrarland war“, erzählt Paxton. „Aus anderen Studien ist bekannt, dass gerade Wildbienen und Hummeln besonders anfällig für Pestizide sind. Das könnte auch erklären, weshalb ihre Vielfalt auf dem Land geringer ausfällt bzw. in der Stadt höher ist, wo Insektizide kaum eine Rolle spielen.“
Wie wichtig Bestäubung für die Ökosysteme und uns Menschen ist, zeigen die Zahlen. 90 Prozent aller Blütenpflanzenarten sind Schätzungen zufolge auf die Bestäubung durch Tiere angewiesen. Damit bewahren Bestäuber wesentlich die Pflanzenvielfalt. Doch auch unsere Ernährung hängt von Bestäubung ab. Ihr Wert für die globale Landwirtschaft lag 2015 zwischen 235 bis 557 Mrd. US-Dollar, was in etwa ein Zehntel des Marktwertes aller angebauten Nahrungspflanzen ausmacht.
Doch auch in der Stadt spielen Blütenpflanzen und ihre Bestäuber eine wichtige Rolle. „Was wären unsere städtischen Grünanlagen ohne Blumen?“, sagt Erstautor Dr. Panagiotis Theodorou, Wissenschaftler des Forschungszentrums iDiv, der MLU und des Helmholtz-Zentrums für Umweltforschung (UFZ). „Auch die Zahl städtischer Gemüse- und Obstgärten wächst – aber ohne Bestäuber reifen dort keine Früchte.“
Mittelfristig könnten die Städte jedoch auch dabei helfen, die Bestäubung auf dem Lande zu erhalten. „Wenn das Agrarland weiter degradiert, könnten Städte als Quelle für Bestäuber im landwirtschaftlichen Umland dienen“, sagt Theodorou. Entsprechend raten die Forscher, die Städte für Bestäuber attraktiver zu machen und die Bedürfnisse vor allem der fleißigen Hummeln bei der Grünflächenplanung zu berücksichtigen. Doch natürlich müssten auch auf dem Land mehr blütenreiche Flächen und Nistmöglichkeiten geschaffen und mit den Lebensräumen in den Städten verbunden werden, etwa um die Bestäubung in kommerziellen Obstgärten zu fördern.
Die Studie führte der Erstautor Panagiotis Theodorou im Rahmen seiner Doktorarbeit bei der Graduiertenschule yDiv durch. Sie wurde finanziert vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv), FZT 118 (DFG).
Wissenschaftliche Ansprechpartner:
Dr. Panagiotis Theodorou (spricht Englisch)
Martin-Luther-Universität Halle-Wittenberg (MLU)
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv)
Helmholtz-Zentrum für Umweltforschung (UFZ)
Tel.: +49 (0)345 55 26511
E-Mail: panagiotis.theodorou@zoologie.uni-halle.de
Prof. Dr. Robert Paxton (Englisch, Deutsch)
Leiter der AG Allgemeine Zoologie
Martin-Luther-Universität Halle-Wittenberg (MLU)
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv)
Tel.: +49 (0)345 55 26451
E-Mail: robert.paxton@zoologie.uni-halle.de
Originalpublikation:
Theodorou, P., Radzevičiūte, R., Lentendu, G., Kahnt, B., Husemann, M., Bleidorn, C., Settele, J., Schweiger O., Grosse, I., Wubet, T., Murray, T.E., Paxton, R. J. (2020): Urban areas as hotspots for bees and pollination but not a panacea for all insects. Nature Communications DOI: 10.1038/s41467-020-14496-6
Weitere Informationen:
https://www.idiv.de/de/news/pressemitteilungen/press_release_single_view/469.htm… Hummeln sind in Städten produktiver als im Umland – Medienmitteilung zum Thema vom 22.06.2016
Quelle: IDW
Aktuelles aus der Analytik – analytica conference 2020 in München befasst sich mit aktuellen Entwicklungen der Analytik
Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Vom 31. März bis 3. April 2020 findet zum 27. Mal die analytica, Weltleitmesse für Labortechnik, Analytik und Biotechnologie, auf dem Messegelände München statt. Begleitet wird sie vom 31. März bis 2. April von der analytica conference, bei der Wissenschaftler über aktuelle Themen aus der Analytik berichten. Ein Themenschwerpunkt der Konferenz liegt in diesem Jahr auf Kopplungstechniken und Datenmanagement. Das wissenschaftliche Programm der analytica conference gestaltet das Forum Analytik, bestehend aus der Gesellschaft Deutscher Chemiker (GDCh), der Gesellschaft für Biochemie und Molekularbiologie (GBM) und der Deutschen Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL).
Die analytische Chemie ist eine der vielfältigsten Fachdisziplinen der Chemie und Schnittstelle zu zahlreichen Teilgebieten. Viele Nobelpreise wurden für analytische Entwicklungen vergeben und häufig beruhen Technologiesprünge auf Erkenntnissen durch hochentwickelte Analytik. Auf der analytica conference zeigen Expertinnen und Experten aus aller Welt, was die Disziplin derzeit beschäftigt.
Ein Schwerpunkt der Konferenz liegt auf analytischen Kopplungstechniken und Datenmanagement. Wie lässt sich eine große Menge analytischer Daten effizient bearbeiten? Und welche Rolle spielt Künstliche Intelligenz zum Beispiel bei medizinischen Analysen? Die Referentinnen und Referenten geben einen Überblick über neuartige Methoden, Verfahren und Techniken. Die Vorträge konzentrieren sich auf aktuelle Entwicklungen zu Themen wie Chromatographie und Massenspektrometrie sowie Datenverarbeitung. Mit seiner Expertise zum aktuellen Thema Feinstaub leitet unter anderem Professor Dr. Ralf Zimmermann, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, Sessions zu neuesten Entwicklungen in der hochauflösenden Massenspektrometrie. Weitere Sessions mit Experten wie Professor Dr. Michael Rychlik, Technische Universität München, thematisieren den Einsatz von modernen Methoden in der Lebensmittelanalytik.
Die analytica conference findet im ICM – Internationales Congress Center München, auf dem Messegelände, statt. Der Eintritt ist für Besucher der analytica kostenfrei. Der Gemeinschaftsstand des Forums Analytik befindet sich in Halle B2, Nr. 505.
Das aktuelle Programm zur analytica conference findet sich unter https://www.gdch.de/analyticaconf2020 oder in der Termindatenbank unter https://www.analytica.de/konferenz.
Ansprechpartner für die Presse:
analytica conference
Dr. Karin J. Schmitz
Gesellschaft Deutscher Chemiker
Öffentlichkeitsarbeit
Tel.: +49 69 7917-493
E-Mail: pr@gdch.de
analytica
Frank Fleschner
Messe München
Tel.: +49 89 949-20421
E-Mail: frank.fleschner@messe-muenchen.de
Weitere Informationen:
https://www.gdch.de/presse
Quelle: IDW
Psychosozialen Risiken im Betrieb wirksam begegnen
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Das Arbeitsschutzgesetz verpflichtet Arbeitgeber, die Arbeit so zu gestalten, dass Gefährdungen für die Gesundheit vermieden werden. Das schließt auch Gefährdungen durch die psychische Belastung der Arbeit ein, etwa infolge zu hoher Arbeitsmengen oder überlanger Arbeitszeiten. Mit dem Feldforschungsprojekt „Gefährdungsbeurteilung psychischer Belastung in der betrieblichen Praxis“ untersuchte die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) konkrete Vorgehensweisen in den Betrieben. Erkenntnisse und Schlussfolgerungen des Projektes hat die BAuA jetzt in einem gleichnamigen baua: Bericht kompakt veröffentlicht.
In der Studie wird anschaulich, dass psychosoziale Risiken komplexe Beurteilungs- und Gestaltungsprobleme sind, die sich mit den im betrieblichen Arbeitsschutz vertrauten Verfahrensweisen nicht ohne weiteres lösen lassen.
Nur in einer Minderheit der Betriebe liegen bislang Gefährdungsbeurteilungen psychischer Belastung vor. Kleine Betriebe führen mehrheitlich keine Gefährdungsbeurteilung durch, aber auch viele große Betriebe lassen psychosoziale Risiken in der Gefährdungsbeurteilung häufig außen vor. Die im Projekt vorgenommenen Feldstudien machten gleichwohl auch deutlich, dass zielgerichtete Maßnahmen zur Vermeidung von psychosozialen Risiken nicht nur und ausschließlich im Rahmen von Gefährdungsbeurteilungen unternommen werden, sondern mitunter unabhängig davon auch in anderen Kontexten, in denen Arbeit im Betrieb tagtäglich bewertet und gestaltet wird. Die Studie belegt exemplarisch, dass zielgerichtete Maßnahmen zur Reduzierung psychosozialer Risiken im Betrieb in ganz unterschiedlichen Kontexten nötig und möglich sind, in der Arbeitszeit- und Leistungspolitik ebenso wie in der Personalplanung oder der Qualifizierung, als Aufgabe fürsorglicher Mitarbeiterführung ebenso wie als Bestandteil professioneller Berufsausübung. Im Interesse des Gesundheitsschutzes gilt es, Anstrengungen zur Gefährdungsvermeidung in allen diesen Kontexten systematisch und zielgerichtet zu fördern.
Die Ergebnisse der Studie helfen, Herausforderungen und Schwierigkeiten des Umgangs mit psychosozialen Risiken besser zu verstehen. Sie machen aber auch die vielfältigen Möglichkeiten und Lösungsansätze deutlich, die in der betrieblichen Praxis erschlossen und genutzt werden. Eine umfangreiche Liste der Publikationen von Projektergebnissen rundet den baua: Bericht kompakt ab.
„Gefährdungsbeurteilung psychischer Belastung in der betrieblichen Praxis. Erkenntnisse und Schlussfolgerungen aus einem Feldforschungsprojekt“; Dr. David Beck, Dr. Katja Schuller; baua: Bericht kompakt; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020. 3 Seiten, DOI: 10.21934/baua:berichtkompakt20200115. Den baua: Bericht kompakt gibt es im PDF-Format zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/dok/8826982.
Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de
Quelle: IDW
Mehr im Portemonnaie – Tarifliche Ausbildungsvergütungen legen erneut deutlich zu
Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)
Die tariflichen Ausbildungsvergütungen sind im Jahr 2019 im bundesweiten Durchschnitt um 3,8 % gestiegen. Der Vergütungsanstieg fiel damit ähnlich stark aus wie 2018 (3,7 %). Bundesweit lagen die tariflichen Ausbildungsvergütungen 2019 bei durchschnittlich 939 € brutto im Monat. In Westdeutschland wurde ein durchschnittlicher Betrag von 941 € erreicht, in Ostdeutschland waren es 905 €. Prozentual wurden die tariflichen Ausbildungsvergütungen 2019 im Osten (5,1 %) deutlicher erhöht als im Westen (3,7 %).
Der Abstand im Tarifniveau verringerte sich daher leicht: Im Osten werden jetzt 96 % der westdeutschen Vergütungshöhe erreicht, im Vorjahr waren es 95 %. Dies sind Ergebnisse der Auswertung der tariflichen Ausbildungsvergütungen für das Jahr 2019 durch das Bundesinstitut für Berufsbildung (BIBB).
Das BIBB wertet die tariflichen Ausbildungsvergütungen seit 1976 jährlich zum Stichtag 1. Oktober aus. Für das Jahr 2019 wurden die durchschnittlichen Vergütungen für 168 Berufe in West- und 110 Berufe in Ostdeutschland ermittelt und in der BIBB-Datenbank „Tarifliche Ausbildungsvergütungen“ erfasst. Bei der Berechnung der gesamtdeutschen Durchschnittswerte sowie der Durchschnittswerte für Ost- und Westdeutschland wurden darüber hinaus alle Ausbildungsberufe berücksichtigt.
Zwischen den Ausbildungsberufen bestanden 2019 erhebliche Unterschiede in der Vergütungshöhe. Besonders hoch lagen die tariflichen Ausbildungsvergütungen im Handwerksberuf Zimmerer/Zimmerin mit monatlich 1.240 € im gesamtdeutschen Durchschnitt (Westdeutschland: 1.263 €, Ostdeutschland: 965 €). Hohe tarifliche Vergütungen wurden beispielsweise auch in den Berufen Bankkaufmann/-frau (gesamt: 1.098 €, West: 1.098 €, Ost: 1.089 €), Industriemechaniker/-in (gesamt: 1.074 €, West: 1.079 €, Ost: 1.003 €) und Industriekaufmann/-frau (gesamt: 1.022 €, West: 1.026 €, Ost: 934 €) gezahlt.
Vergleichsweise niedrig waren die tariflichen Vergütungsdurchschnitte 2019 dagegen zum Beispiel in den Berufen Maler/-in und Lackierer/-in (gesamt: 749 €, West: 750 €, Ost: 739 €), Florist/-in (gesamt: 718 €, West: 733 €, Ost: 572 €), Bäcker/-in (einheitlich: 711 €), Friseur/-in (gesamt: 610 €, West: 625 €, Ost: 413 €) sowie Schornsteinfeger/-in (gesamt: 608 €, West: 607 €, Ost: 610 €).
Zwischen den Ausbildungsbereichen gab es 2019 ebenfalls deutliche Unterschiede: Überdurchschnittlich hohe tarifliche Ausbildungsvergütungen wurden im Öffentlichen Dienst (gesamt: 1.052 €, West: 1.052 €, Ost: 1.048 €) sowie in Industrie und Handel (gesamt: 997 €, West: 1.001 €, Ost: 944 €) erreicht. Unter dem Gesamtdurchschnitt lagen dagegen die Vergütungen in der Landwirtschaft (gesamt: 871 €, West: 880 €, Ost: 793 €), im Bereich der freien Berufe (gesamt: 859 €, West: 862 €, Ost: 816 €) sowie im Handwerk (gesamt: 821 €, West: 826 €, Ost: 755 €).
Hinweis:
Für das Jahr 2019 erfolgte eine Revision der Methodik der Berechnung der tariflichen Ausbildungsvergütungen, die weiterhin auf Basis der etwa 500 bedeutendsten Tarifverträgen erfolgt. Neu einbezogen werden zusätzliche Informationen aus der Berufsbildungsstatistik sowie dem Panel des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zur Tarifbindungsquote. Um Vergleiche zur bisherigen Vorgehensweise durchführen zu können, wurden auch für das Jahr 2018 Berechnungen nach der neuen Methodik durchgeführt. Insgesamt sind die Unterschiede gering, in einigen Berufen fallen sie aber deutlicher aus. Die dargestellten Vergütungsanstiege von 2018 nach 2019 beziehen sich auf die Berechnungen beider Jahre nach neuer Vorgehensweise.
Eine ausführliche Darstellung der Ergebnisse sowie die Möglichkeit zum Download von zehn Schaubildern finden Sie im Beitrag „Tarifliche Ausbildungsvergütungen: Ergebnisse für 2019″ im Internetangebot des BIBB unter http://www.bibb.de/ausbildungsverguetung-2019.
Eine tabellarische Gesamtübersicht über die für 2019 ermittelten Vergütungsdurchschnitte in den erfassten Berufen ist abrufbar unter http://www.bibb.de/ausbildungsverguetung.
Erläuterungen zur Revision der Methodik unter http://www.bibb.de/veroeffentlichungen/de/publication/show/10818.
Quelle: IDW
Stromspeicher in der Stadt: Webseite und Erklärvideo zeigen Nutzen für die Energiewende
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
Die Energiewende braucht Stromspeicher – am besten dezentrale. So kann regional erzeugter erneuerbarer Solarstrom flexibel verbraucht werden. Batteriespeicher, die mehrere Haushalte gemeinsam nutzen, können die lokale Energieversorgung unterstützen. Zudem entlasten sie das Stromnetz und damit das gesamte Energiesystem. Allerdings machen Quartierspeicher das System auch komplexer. Diese Zusammenhänge erklärt das Forschungsprojekt Esquire auf der Multimedia-Website http://www.stromspeicher-in-der-stadt.de.
Wie funktioniert ein Stromspeicher im Quartier und in der Stadt? Welche Vorteile bringt er und was ist bei Planung und Betrieb zu beachten? In dem Projekt mit Förderung des Bundesforschungsministeriums untersucht das Institut für ökologische Wirtschaftsforschung (IÖW) gemeinsam mit Partnern diese Fragen in zwei Kommunen, die Quartierspeicher nutzen.
Stromspeicher für ein flexibles Energiesystem
Im Jahr 2030 werden erneuerbare Energien einen Anteil von voraussichtlich 65 Prozent am Stromverbrauch haben. Die daraus erzeugte Strommenge schwankt je nach Wetterlage oder geografischen Verfügbarkeiten, was mit Herausforderungen für die Stromnetze verbunden ist. „Stromspeicher entlasten die Netze, indem sie Erzeugung und Verbrauch von Strom zeitlich entkoppeln. Neben dieser Systemleistung tragen dezentrale Speicher auch dazu bei, dass mehr von der lokal erzeugten Energie direkt vor Ort genutzt werden“, erklärt Projektleiterin Swantje Gährs vom IÖW. „Im Idealfall werden sowohl Dienstleistungen vor Ort angeboten als auch ein systemischer Nutzen erreicht.“
Praxiserfahrungen im Livebetrieb ausgewertet
Das Projekt Esquire entwickelte gemeinsam mit den Bewohnerinnen und Bewohnern sowie im Austausch mit kommunalen Akteuren Dienstleistungen und Geschäftsmodelle für Quartierspeicher, die die Bedürfnisse, Gewohnheiten und Vorbehalte der Menschen in den Quartieren einbeziehen. Ein besonderer Fokus lag dabei auf der Akzeptanz derjenigen, die die Speicherdienstleistungen nutzen, sowie auf der Datensicherheit. Gemeinsam mit der Baugesellschaft Evohaus und dem Energieversorger Entega werden die im Projekt entwickelten Dienstleistungen live in zwei Quartieren in Groß-Umstadt und Mannheim erprobt. Wissenschaftliche Projektpartner sind das Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO) und das Karlsruher Institut für Technologie (KIT) mit dem Institut für Programmstrukturen und Datenorganisation.
Viele Herausforderungen für Quartierspeicher
Die Ergebnisse des Projekts werden nun auf der neuen Webseite erklärt: Interessierte können sich über die Einsatzmöglichkeiten von Quartierspeichern informieren, erfahren wie ihre Daten geschützt werden oder welche Art von Speicher sich besonders für Quartiere eignet. Einen ersten Einstieg ins Thema bietet der Erklärfilm „Solarstrom in der Stadt speichern: Quartierspeicher für die Energiewende“.
„Noch stehen Quartierspeichern Hindernisse im Weg: Die rechtlichen Rahmenbedingungen sind komplex, es müssen viele Akteure eingebunden werden und in jedem Quartier sind die Vorrausetzungen unterschiedlich“, erläutert Energieexpertin Gährs. „In unserem Projekt Esquire wollen wir mit verschiedenen Informationsangeboten Lösungen aufzeigen, die den Zugang zu Quartierspeichern erleichtern.“
Solarstrom in der Stadt speichern: Quartierspeicher für die Energiewende
Zur Multimedia-Webseite: http://www.stromspeicher-in-der-stadt.de
Zum Erklärvideo: http://www.youtube.com/watch?v=nFuHY3XN0no
Über das Projekt:
Für die Energiewende wird es immer wichtiger, erneuerbaren Strom dezentral zu speichern. Er kann dadurch flexibel verbraucht werden und entlastet die Stromnetze. Einen wichtigen Baustein bilden Batteriespeicher, die mehrere Haushalte gemeinsam nutzen. Das Projekt „Energiespeicherdienste für smarte Quartiere (Esquire)“ untersucht, wie solche Quartierspeicher eingeführt werden können, die zwei Bedingungen erfüllen: Die Nutzer/innen müssen sie akzeptieren und sie müssen das Stromsystem stabilisieren. Dienstleistungen und Geschäftsmodelle, die dazu beitragen können, entwickelt das Projekt gemeinsam mit Nutzer/innen und kommunalen Akteuren. Das Projekt wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „Smart Service Stadt: Dienstleistungsinnovationen für die Stadt von morgen“. Projektpartner sind weiter das Fraunhofer Institut für Arbeitswirtschaft und Organisation IAO und das Karlsruher Institut für Technologie (KIT) mit dem Institut für Programmstrukturen und Datenorganisation. Praxispartner sind Evohaus und Entega.
http://www.esquire-projekt.de
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-16
E-Mail: richard.harnisch@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Über 60 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de
Wissenschaftliche Ansprechpartner:
Dr. Swantje Gährs
Institut für ökologische Wirtschaftsforschung (IÖW)
Telefon: +49-30-884 594-0
E-Mail: swantje.gaehrs@ioew.de
Quelle: IDW
Coronavirus: Berner Forscher berechnen die Ausbreitung
Nathalie Matter Corporate Communication
Universität Bern
Epidemiologen der Universität Bern benutzten Computer-Simulationen, um die Ausbreitung des in China neu aufgetretenen Coronavirus zu beschreiben. Sie haben herausgefunden, dass eine mit dem Virus infizierte Person im Schnitt zwei weitere Personen infiziert. Das bedeutet, dass es ohne starke Kontrollmassnahmen zu einer weltweiten Pandemie kommen kann.
Seit Dezember 2019 breitet sich in China ein neues Coronavirus rasant aus. Das Virus verursacht Atemwegserkrankungen und kann in manchen Fällen zu starken Lungenentzündungen und bis zum Tod führen. Bis zum 29. Januar 2020 wurden innerhalb Chinas bisher 5’997 Krankheitsfälle bestätigt, mit weiteren 68 Fällen in anderen Ländern. Der Ursprung der Epidemie lässt sich vermutlich auf einen sogenannten «wet market» zurückführen – einen der traditionellen Märkte in China, die lebendige sowie kurz vor dem Verkauf geschlachtete Tiere anbieten. An einem solchen Ort könnte es zu einer Übertragung des Virus von einem Tier zu Menschen gekommen sein. Forscher des Instituts für Sozial- und Präventivmedizin (ISPM) der Universität Bern haben nun berechnet, wie gut sich das Virus von Mensch zu Mensch ausbreiten kann. Ihre Ergebnisse wurden im Fachjournal Eurosurveillance des Europäischen Zentrums für die Prävention und die Kontrolle von Krankheiten (ECDC) veröffentlicht.
Reproduktionszahl des Virus als Grundlage
Um die Gefahr einer weiteren Ausbreitung des Virus zu verstehen, müssen Forschende herausfinden, wie viele Personen eine infizierte Person im Schnitt ansteckt. Epidemiologinnen und Epidemiologen sprechen von der sogenannten Basis-Reproduktionszahl R0. Ist diese Zahl grösser als eins, kann sich das Virus weiter von Mensch zu Mensch ausbreiten. In diesem Fall ist es nötig, die Reproduktionszahl mittels Kontrollmassnahmen zu senken. Zu diesen Massnahmen gehören etwa die rasche Erkennung von infizierten Personen, deren Isolation, und dem Auffinden der Kontakte einer Person. Nur wenn die Reproduktionszahl unter eins fällt, kann sich das Virus nicht mehr weiter ausbreiten, und wird langsam verschwinden.
Simulationen auf Hochleistungsrechner der Universität Bern
Julien Riou, Postdoktorand am Institut für Sozial- und Präventivmedizin, benutzte den Hochleistungsrechner der Universität Bern, um Millionen von verschiedenen Verläufen der Epidemie in China zu simulieren. Das Virus hatte in jeder dieser Simulationen unterschiedliche Eigenschaften, und diejenigen Verläufe, welche mit den bisherigen epidemiologischen Daten übereinstimmten, wurden herausgefiltert. «Daraus lassen sich Rückschlüsse über die tatsächlichen Eigenschaften des neuen Coronavirus ziehen», sagt Julien Riou.
Zusammen mit dem Forschungsgruppenleiter am ISPM, dem Epidemiologen Christian Althaus, hat er herausgefunden, dass eine mit dem Virus infizierte Person im Schnitt ungefähr zwei weitere Personen infiziert. «Wir können mit grosser Sicherheit sagen, dass die Basis-Reproduktionszahl zu Beginn der Epidemie in China zwischen 1.4 und 3.8 lag», so Althaus. «Solange dieser Wert über 1 liegt, besteht das Risiko einer weltweiten Ausbreitung des Coronavirus, also einer Pandemie.»
Ausbreitung des Virus ähnelt SARS und Influenza
Die Eigenschaften, wie sich das Virus ausbreitet, ähneln dem im Jahr 2003 aufgetretenen SARS-assoziierten Coronavirus, welches mit dem derzeit zirkulierenden Virus genetisch verwandt ist. Auch ähnelt das aktuelle Virus einer pandemischen Influenza. «Falls es sich bestätigt, dass sich das neue Coronavirus wie SARS verhält, muss man mit dem Auftreten von sogenanntem Superspreading rechnen», erklärt Althaus. Das würde bedeuten, dass in seltenen Fällen einzelne Personen eine sehr hohe Anzahl Neuansteckungen verursachen. Auf der anderen Seite würden jedoch die meisten infizierten Personen gar keine weiteren Personen infizieren, womit es leichter wäre, neue Epidemieherde einzudämmen.
Sollte sich aber herausstellen, dass sich das Virus ähnlich einer pandemischen Influenza, wie beispielsweise den Grippepandemien im Jahr 1918 oder 2009, verhält, wäre es viel schwieriger, eine weitere Ausbreitung zu verhindern. In diesem Fall stecken infizierte Personen immer etwa gleich viele Personen an, was zu gleichmässigen Übertragungsketten führt, welche sehr schwierig einzudämmen sind.
Gefahr einer Pandemie besteht weiterhin‚
«Im Moment ist es deshalb zentral zu verhindern, dass sich neue Übertragungsketten in Ländern ausserhalb Chinas bilden können», sagt Althaus. Sobald sich das Virus in einem weiteren Land festsetzen würde, sei es sehr schwierig, eine globale Ausbreitung zu verhindern. «Die strengen Massnahmen, welche in China getroffen wurden, um eine weitere Ausbreitung zu verhindern, haben die Reproduktionszahl höchstwahrscheinlich gedrückt. Ob diese Massnahmen ausreichen, um eine weltweite Pandemie zu verhindern werden die folgenden Wochen zeigen», so Althaus. Die Resultate der Berner Studie bieten nun den nationalen und internationalen Behörden eine wichtige Grundlage, um das Risiko der weiteren Verbreitung des Coronavirus abzuschätzen.
Wissenschaftliche Ansprechpartner:
PD Dr. Christian Althaus
Institut für Sozial- und Präventivmedizin, Universität Bern
christian.althaus@ispm.unibe.ch / Tel: +41 31 631 56 97
Dr. Julien Riou
Institut für Sozial- und Präventivmedizin, Universität Bern
julien.riou@ispm.unibe.ch / Tel: +41 31 631 56 97
Originalpublikation:
Riou Julien, Althaus Christian L.. Pattern of early human-to-human transmission of Wuhan 2019 novel coronavirus (2019-nCoV), December 2019 to January 2020. Euro Surveillance 2020;25(4). https://doi.org/10.2807/1560-7917.ES.2020.25.4.2000058
Weitere Informationen:
https://tinyurl.com/UniBE-Coronavirus-Ausbreitung
Anhang
PDF als Medienmitteilung
https://idw-online.de/de/attachment79162
Quelle: IDW
Effiziente Nutzung von Abwärme
Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
Inbetriebnahme der Forschungsanlage „Mikrodampfturbine“ der TH Nürnberg
Motorische Kraftwerke zur dezentralen Stromerzeugung sind für eine sichere und nachhaltige Stromversorgung von großer Bedeutung. Die dabei simultan zum Strom entstehende Wärme kann jedoch häufig nicht voll genutzt werden. Prof. Dr.-Ing. Frank Opferkuch und seinem Forschungsteam von der TH Nürnberg ist es nun gelungen, ungenutzte Abwärme mit einer Mikrodampfturbine für die Stromerzeugung einzusetzen. Gemeinsam mit der Stadtentwässerung und Umweltanalytik Nürnberg (SUN), die mehrere Blockheizkraftwerke (BHKW) zur Klärgasverstromung betreibt, soll nun eine Versuchsanlage mit dieser Technik in Betrieb genommen werden, die die Restwärme der BHKW für die Stromerzeugung nutzt.
Nürnberg, 30. Januar 2020. Die Umstellung auf erneuerbare Energien dient der Einhaltung der Klimaziele, erfordert aber eine Umgestaltung unseres Energiesystems. Da die Stromerzeugung aus Sonne, Wind und Co. starken Schwankungen unterliegt, werden für eine sichere Stromversorgung auch Einrichtungen benötigt, die einen flexiblen, zeitlichen und räumlichen Ausgleich von Strom ermöglichen. Kleinere, mit Erdgas, Biogas oder auch mit Wasserstoff betriebene Gasmotoren als motorische Kraftwerke können einen wichtigen Beitrag dazu leisten, diesen Bedarf zu decken. Bei der Stromerzeugung in Motoren oder Gasturbinen entsteht allerdings auch viel Wärme. Sie wird häufig zur Gebäudebeheizung oder zur Warmwasserbereitung genutzt. Gerade in den Sommermonaten bleibt die überschüssige Wärme aber oft ungenutzt. Dem Projektteam der TH Nürnberg um Prof. Dr.-Ing. Frank Opferkuch ist es nun gemeinsam mit ihren Kooperationspartnern gelungen, das bisher ungenutzte Potenzial in der Abwärme aus solchen dezentralen Kraftwerken durch einen optimierten Dampfprozess besser zu nutzen.
In dem vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekt „MicroRankine“ erschließt das Team die Umwandlung von Wärme in Strom mit Dampfturbinen nun auch für die Anwendung an dezentrale Gasmotoren mit den dort üblichen kleineren Leistungen. Gemeinsam mit den Kooperationspartnern wurde eine einzigartige Versuchsanlage bei der Stadtentwässerung und Umweltanalytik Nürnberg (SUN) projektiert und aufgebaut, mit der die Wissenschaftlerinnen und Wissenschaftler das Verfahren in der Anwendung ausführlich untersuchen und weiter optimieren wollen. Basis der hier zum Einsatz kommenden Technologie ist der aus der Kraftwerkstechnik bekannte Wasserdampfprozess. Die Technik dazu musste das Projektteam allerdings für die speziellen Erfordernisse bei der dezentralen Stromerzeugung völlig neu konzipieren.
„Die Kooperation mit SUN als Anwender bietet der TH Nürnberg und ihren Kooperationspartnern nun die Möglichkeit, das Konzept unter realen Bedingungen zu erproben und das Verfahren für diese Anwendung weiterzuentwickeln“, erklärt Prof. Dr.-Ing. Frank Opferkuch, der die Forschungsprofessur für dezentrale Energiewandlung und Speicherung am Nuremberg Campus of Technology (NCT) für die TH Nürnberg innehat. Die im Vorfeld durchgeführten Simulationen haben gezeigt, dass ein Gasmotor durch die Kombination mit dem neuen Verfahren bis zu zehn Prozent mehr Strom produzieren kann. Der zum Einsatz kommende Wasserdampf hat zudem im Vergleich zu alternativen Verfahren wichtige Vorteil, u. a. hat er keinen negativen Einfluss auf die Umwelt. So ist Wasserdampf im Gegensatz zu den Arbeitsmitteln, die bei den heute üblichen Verfahren zur Abwärmeverstromung eingesetzt werden, weder giftig noch brennbar. Zudem altert Wasserdampf auch bei hohen Temperaturen nicht, muss daher auch nicht regelmäßig ausgetauscht werden, und trägt bei seiner Freisetzung nicht unmittelbar zur Klimaerwärmung bei.
Dr. Peter Pluschke, Umweltreferent der Stadt Nürnberg: „Im Juli 2019 hat der Nürnberger Stadtrat sehr weitreichende Klimaschutzziele beschlossen. Diese werden wir nur erreichen, wenn wir eine Vielfalt an Maßnahmen umsetzen und jede Möglichkeit zur Steigerung der Energieeffizienz nutzen. Genau dazu kann auch der Betrieb der Mikrodampfturbine beitragen.“
Die Stadtentwässerung und Umweltanalytik Nürnberg (SUN) betreibt eine der größten Kläranlagen in Deutschland. Schon jetzt treibt das entstehende Klärgas vier Gasmotoren an und versorgt so die Betriebsanlage der SUN mit Strom. Dipl.-Ing. Burkard Hagspiel, Werkleiter SUN: „Wir sehen es als unsere Aufgabe, nachhaltige und zukunftsweisende Lösungen für die Energieversorgung unserer Anlagen zu suchen. Mit innovativen, nachhaltigen Technologien wie das MicroRankine können wir die Effizienz der Stromerzeugung mit unseren Gasmotoren steigern und kommen so unserem Ziel einer Kläranlage, die nur mit Eigenstrom betrieben wird, einen weiteren Schritt näher.“
Durch die Inbetriebnahme der Versuchsanlage bietet sich aber auch eine Plattform für vielfältige Forschungsarbeiten, mit dem Ziel, die dezentrale Energieumwandlung mit Dampfprozessen auch für andere Anwendungsgebiete zu erschließen.
Am Projekt beteiligt sind die Spezialisten für Abgaswärmetauscher Aprovis GmbH und die Siemens AG für die Turbinentechnik. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Investitionen in die Versuchstechnik mit 600.000 Euro, die Entwicklung und Projektierung wurde durch Förderung des Bayerische Staatministerium für Wissenschaft und Kunst ermöglicht. Die Europäische Union unterstützt den Wissens- und Technologietransfer mit Mitteln aus dem Europäischen Fond für regionale Entwicklung EFRE.
Kontakt:
Hochschulkommunikation, Tel. 0911/5880-4101, E-Mail: presse@th-nuernberg.de
Quelle: IDW
Weltrekord: Wirkungsgrad von Perowskit-Silizium-Tandemsolarzelle springt auf 29,15 Prozent
Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Im Rennen um immer höhere Wirkungsgrade liegt ein HZB-Entwicklungsteam wieder vorne. Die Gruppen von Steve Albrecht und Bernd Stannowski haben eine Tandemsolarzelle aus den Halbleitern Perowskit und Silizium entwickelt, die 29,15 Prozent des eingestrahlten Lichts in elektrische Energie umwandelt. Dieser Wert ist offiziell durch das CalLab des Fraunhofer-Instituts für Solare Energiesysteme (ISE) zertifiziert. Damit ist die Überwindung der 30% Effizienz-Marke in greifbare Nähe gerückt.
Während Silizium insbesondere die roten Anteile des Sonnenlichts in Strom umwandelt, nutzen Perowskit-Verbindungen vor allem die blauen Anteile des Spektrums. Eine Tandemsolarzelle aus Silizium und Perowskit schafft dadurch deutlich höhere Wirkungsgrade als jede Einzelzelle für sich genommen.
Prof. Dr. Steve Albrecht, der am HZB eine vom BMBF geförderte Nachwuchsgruppe leitet, und Prof. Dr. Bernd Stannowski vom HZB-Institut PVcomB haben zusammen bereits mehrfach für neue Rekordwerte von monolithischen Tandemsolarzellen gesorgt. Ende 2018 stellte das Team eine Tandemsolarzelle aus Silizium mit einem Metall-Halogenid-Perowskit vor, die 25,5 Prozent Wirkungsgrad erreicht. Dann verkündete die Firma Oxford PV einen Wert von 28 Prozent und nun kann das HZB-Team den nächsten Rekord melden.
Der Wert von 29,15 Prozent ist vom CalLab des Fraunhofer-Instituts für Solare Energiesysteme (ISE) zertifiziert und erscheint nun auch in den NREL-Charts. Diese Grafik, die vom National Renewable Energy Lab (NREL), USA, herausgegeben wird, verzeichnet die Entwicklung der Wirkungsgrade für nahezu alle Solarzell-Typen seit 1976. Perowskit-Verbindungen sind erst seit 2013 mit eingezeichnet – Der Wirkungsgrad dieser Materialklasse ist seitdem so stark gestiegen wie für kein anderes Material.
„Wir haben für die Rekordzelle in Zusammenarbeit mit der Gruppe von Prof. Vytautas Getautis (Kaunas University of Technology) eine spezielle neue Kontaktschicht entwickelt und eine weitere Zischenschicht optimiert“, erklären Eike Köhnen und Amran Al-Ashouri, Doktoranden in der Gruppe von Albrecht. Durch die neue Kontaktschicht konnte zudem im HySPRINT-Labor des HZB die Komposition der Perowskitverbindung weiter angepasst werden, so dass diese in der Tandemsolarzelle unter Beleuchtung stabiler ist und noch besser zum Stromgleichgewicht beiträgt. Die Silizium-Unterzelle stammt aus der Gruppe von Stannowski und enthält eine spezielle Siliziumoxid Mischschicht zur optischen Kopplung beider Einzelzellen.
Alle Prozesse, die zum Realisieren dieser Quadratzentimeter-Zelle verwendet wurden, sind im Prinzip auch für große Flächen geeignet. Erste Versuche mithilfe von Vakuumprozessen waren bereits sehr erfolgreich.
Die praktisch-realistische Grenze für den Wirkungsgrad von Tandemzellen aus Silizium und Perowskiten liegt bei ca. 35 Prozent. Als nächstes will das HZB Team die 30 Prozent Effizienz-Barriere überwinden. Erste Ideen dafür liegen bereits vor, erklärt Albrecht.
Hintergrund:
Steve Albrecht leitet die Nachwuchsgruppe Perowskit-Tandemsolarzellen und ist Juniorprofessor an der TU Berlin. Er forscht an dem organisch-anorganischen Material Perowskit, das eine der größten Überraschungen in der Solarzellenforschung ist: In nur sechs Jahren hat sich der Wirkungsgrad von Perowskit-Solarzellen verfünffacht, darüber hinaus können Perowskit-Schichten aus Lösung hergestellt und in Zukunft kostengünstig auf großer Fläche gedruckt werden.
Albrechts Team hat in Zusammenarbeit mit weiteren Gruppen aus dem HZB bereits mehrfach Weltrekorde für Tandemsolarzellen aus Perowskit in Kombination mit anorganischen Halbleitern gemeldet. Im September 2019 stellten sie eine Tandemsolarzelle aus CIGS und Perowskit vor, die einen zertifizierten Wirkungsgrad von 23,26 Prozent erreicht, was für diese Materialkombination noch immer der aktuelle Weltrekord ist. Außerdem haben Sie in 2019 eine Industrie-relevante Perowskit/PERC Solarzelle mit einem großen PV Industriepartner entwickelt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Steve Albrecht, steve.albrecht@helmholtz-berlin.de
Originalpublikation:
https://www.nrel.gov/pv/cell-efficiency.html
Quelle: IDW
TU Berlin: Gefährliche Keime aus dem Schlamm
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Auf der Suche nach Leben in lebensfeindlichen Umgebungen finden Mikrobiolog*innen krankheitserregende Bakterien in Vulkanschlamm auf Trinidad
Als eine Forschungsgruppe rund um den TU-Astrobiologen und Geologen Prof. Dr. Dirk Schulze-Makuch auf der Suche nach lebenden Organismen in besonders lebensfeindlichen Umgebungen einige Schlammvulkane auf der karibischen Insel Trinidad chemisch-mikrobiell untersuchte, erlebte sie eine Überraschung. Die Forscher*innen fanden verschiedene gefährliche krankheitserregende Bakterienstämme, unter anderem solche, die als multiresistente Krankenhauskeime bekannt sind und die sehr wahrscheinlich nicht aus den Tiefen des Schlammvulkans stammen, sondern durch Oberflächen- und Regenwasser dort eingeschleppt werden. Die Forscher*innen fokussierten ihr Untersuchungsziel daraufhin neu und veröffentlichten das Ergebnis in der Elsevier-Fachzeitschrift „Science of the Total Environment“.
Schlammvulkane sind einzigartige geologische Strukturen, die durch tektonischen Druck entstehen. Sie werden aus tief unter der Erdoberfläche vorhandenen Flüssigkeiten gespeist und sind hauptsächlich in Zonen zu finden, in denen die Erdkruste tektonisch sehr aktiv ist. Eine solche Zone befindet sich zum Beispiel rund um die Los Bajos-Verwerfung auf der Insel Trinidad, der größten Insel der Kleinen Antillen in der Karibik. Dort nahm die Forschungsgruppe feste und flüssige Analyseproben von dreien dieser Schlammvulkane, um eine chemische und mikrobiologische Charakterisierung vorzunehmen und herauszufinden, ob die Zusammensetzung des Schlamms nördlich und südlich der Verwerfungslinie variiert. „Unsere Studie bestätigte zunächst Annahmen, wonach zumindest einige der Schlammvulkanflüssigkeiten eine Mischung aus tieferem salzreichem Wasser und Oberflächen- beziehungsweise Niederschlagswasser sind“, erklärt Prof. Dirk Schulze-Makuch vom TU-Zentrum für Astronomie und Astrophysik, der außerdem Adjunct Professor an der Arizona State sowie der Washington State University sowie Präsident der Deutschen Astrobiologischen Gesellschaft e. V. ist, und sich mit seiner Arbeitsgruppe bereits seit mehreren Jahren mit der Bewohnbarkeit potenzieller Lebensräume in lebensfeindlichen Umgebungen beschäftigt, zum Beispiel auf dem Mars.
Bakterien als Überlebenskünstler – und ein risikoreicher Fund
„In unseren mikrobiologischen Analysen konnten wir verschiedene aerobe und anaerobe Besiedelungen analysieren, also Bakterien, die mit und ohne umgebenden Sauerstoff leben können. Einige davon können Sulfat reduzieren, andere Methan produzieren, betreiben also einen derartigen Stoffwechsel, wieder andere binden Kohlendioxid oder Nitrate, aus denen sie Energie gewinnen. Mehrere identifizierte Arten waren halophil, also salzliebend, und stammten wahrscheinlich aus dem tieferen salzreichen Untergrundwasser.“ Doch was die Forscher*innen dann überraschte, war der Fund von verschiedenen hochpathogenen, krankheitserregenden Bakterienarten. „Diese gefundenen Bakterienarten besiedeln typischerweise den Verdauungstrakt von Menschen und Säugetieren, und manche sind sogar die Ursache von Harnwegsinfekten“, so Schulze-Makuch.
Unter den pathogenen Bakterien wurden auch solche aus der Familie der Enterobacteriaceaea gefunden, die insbesondere als pflanzenschädigend bekannt sind. Außerdem wurden Enterobacter cloacae identifiziert, die in den letzten Jahren vor allem in Krankenhäusern, unter anderem in Säuglingsstationen gefunden wurden. Diese wurden besonders als multiresistente Keime bekannt und sind für mehrere Infektions-Epidemien verantwortlich. Ein weiterer gefundener Krankheitserreger ist die Klebsiella variicola. Diese Bakterie wird mit Pflanzenkrankheiten in Zusammenhang gebracht, die auf Bananen- und Zuckerrohr-Plantagen aufgetreten sind. Außerdem wurde sie in Kühen isoliert, die unter Euter-Entzündungen oder Blutvergiftungen litten.
Das kontaminierte Wasser könnte Menschen, Tiere und Pflanzen schädigen
Insgesamt sei es unwahrscheinlich, dass das infizierte Wasser aus den Tiefen stammt, die die Schlammvulkane speisen, so die Forscher. Es sei höchstwahrscheinlich von der Oberfläche eingeschwemmt worden. Da in Trinidad das Wasser in den Schlammvulkanen vor allem aus tief unter der Erdoberfläche liegenden Seewasser-Reservoiren stammt, gemischt mit Wasser aus oberflächennahen Aquiferen, wird vermutet, dass das Oberflächenwasser in mindestens einem Fall aus einem nahen Fluss stammt, der gelegentlich die Region überflutet. Gegenproben von anderen Regionen, wo Schlammvulkane vorkommen, seien negativ gewesen.
„Unsere biochemischen und mikrobiellen Ergebnisse lassen nicht zwingend den Schluss zu, dass es sich um eine anthropogene, also menschengemachte Kontamination handelt. Dies ist aber zumindest für einige Standorte sehr wahrscheinlich“, so Dirk Schulze-Makuch, und die Forschungsgruppe empfiehlt: „Auf jeden Fall stellt die beobachtete pathogene Belastung der Vulkanschlammproben ein gewichtiges Gesundheitsrisiko für Mensch und Tier dar, insbesondere, wenn das kontaminierte Wasser aus den Überflutungen stammt. Dies sollte weiter untersucht werden.“
Die Originalpublikation ist zu finden unter:
Dirk Schulze-Makuch, Shirin Haque, Denise Beckles, Philippe Schmitt-Kopplin, Mourad Harir, Beate Schneider, Christine Stumpp, and Dirk Wagner
A Chemical and Microbial Characterization of Selected Mud Volcanoes in Trinidad Reveals Pathogens Introduced by Surface Water and Rain Water
https://doi.org/10.1016/j.scitotenv.2019.136087
Fotomaterial zum Download
http://www.tu-berlin.de/?211501
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Dirk Schulze-Makuch
Technische Universität Berlin
Zentrum für Astronomie und Astrophysik der TU Berlin
Planetarische Habitabilität and Astrobiologie
Tel.: 030 314-23736
E-Mail: schulze-makuch@tu-berlin.de
Quelle: IDW
Gebäude können zu einer globalen CO2-Senke werden – mit dem Baustoff Holz statt Zement und Stahl
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Eine Materialrevolution, die im Städtebau Zement und Stahl durch Holz ersetzt, kann doppelten Nutzen für die Klimastabilisierung haben. Das zeigt jetzt die Studie eines internationalen Teams von Wissenschaftlern. Erstens kann sie Treibhausgasemissionen aus der Zement- und Stahlproduktion vermeiden. Zweitens kann sie Gebäude in eine Kohlenstoffsenke verwandeln, da im Bauholz das von den Bäumen zuvor aus der Luft aufgenommene und in ihren Stämmen eingelagerte CO2 gespeichert wird. Obwohl die erforderliche Menge an Holz theoretisch verfügbar ist, würde eine solche Ausweitung eine sehr sorgfältige nachhaltige Waldbewirtschaftung erfordern, betonen die Autoren.
„Verstädterung und Bevölkerungswachstum werden eine enorme Nachfrage nach dem Bau neuer Gebäude für Wohnen und Gewerbe schaffen – daher wird die Produktion von Zement und Stahl eine Hauptquelle von Treibhausgasen bleiben, wenn wir nicht handeln“, sagt die Hauptautorin der Studie, Galina Churkina, die sowohl der Yale School of Forestry and Environmental Studies in den USA als auch dem Potsdam-Institut für Klimafolgenforschung in Deutschland (PIK) angehört. „Diese Risiken für das globale Klimasystem können aber in ein wirksames Mittel zur Eindämmung des Klimawandels verwandelt werden, wenn wir den Einsatz von technisch verarbeitetem Holz – engineered wood – im weltweiten Bausektor stark steigern. Unsere Analyse zeigt, dass dieses Potenzial unter zwei Bedingungen realisiert werden kann. Erstens: Die geernteten Wälder werden nachhaltig bewirtschaftet. Zweitens: Das Holz aus dem Abriss von Gebäuden wird weiterverwendet.“
Vier Szenarien der Holznutzung als Beitrag zur Klimastabilisierung
Vier Szenarien wurden von den Wissenschaftlern für die nächsten dreißig Jahre berechnet. Geht man von einem „business as usual“ aus, werden bis 2050 nur 0,5 Prozent der Neubauten mit Holz gebaut. Dieser Anteil könnte auf 10 Prozent oder 50 Prozent steigen, wenn die Massen-Holzproduktion entsprechend zunimmt. Wenn auch Länder mit einer derzeit geringen Industrialisierung den Übergang schaffen, sind sogar 90 Prozent Holz im Bau denkbar, erklären die Wissenschaftler. Dies könnte dazu führen, dass zwischen 10 Millionen Tonnen Kohlenstoff pro Jahr im niedrigsten Szenario und fast 700 Millionen Tonnen im höchsten Szenario gespeichert werden. Darüber hinaus reduziert der Bau von Holzgebäuden die kumulierten Emissionen von Treibhausgasen aus der Stahl- und Zementherstellung auf Dauer um mindestens die Hälfte. Dies mag im Vergleich zu der derzeitigen Menge von etwa 11.000 Millionen Tonnen globaler Kohlenstoff-Emissionen weltweit pro Jahr nicht so sehr viel erscheinen (wegen der besseren Vergleichbarkeit sind diese Angaben hier in Kohlenstoff, nicht in CO2). Doch das Umstellen auf Holz würde einen Unterschied für das Erreichen Klimastabilisierungsziele des Pariser Abkommens machen.
Unter der Annahme, dass weiterhin mit Beton und Stahl gebaut wird und die Bodenfläche pro Person nach dem bisherigen Trend zunimmt, könnten bis 2050 die kumulierten Emissionen aus mineralischen Baustoffen bis zu einem Fünftel des CO2-Emissionsbudgets erreichen – ein Budget, das nicht überschritten werden sollte, wenn wir die Erwärmung auf deutlich unter 2°C halten wollen, wie es die Regierungen im Pariser Abkommen versprochen haben. Wichtig ist, dass alle Länder der Welt CO2-Senken benötigen, um bis Mitte des Jahrhunderts den Ausstoß von Treibhausgasen auf netto Null zu senken. Nur mit diesen können sie die verbleibenden schwer zu vermeidbaren Emissionen ausgleichen, insbesondere etwa die aus der Landwirtschaft.
Gebäude könnten eine solche Senke sein – wenn sie aus Holz gebaut werden. Ein fünfstöckiges Wohngebäude aus Brettschichtholz kann bis zu 180 Kilogramm Kohlenstoff pro Quadratmeter speichern, das ist dreimal mehr als in der oberirdischen Biomasse natürlicher Wälder mit hoher Kohlenstoffdichte. Dennoch würde selbst im 90-Prozent-Holz-Szenario der in Holzstädten über dreißig Jahre hinweg angesammelte Kohlenstoff weniger als ein Zehntel der Gesamtmenge des oberirdisch in Wäldern weltweit gespeicherten Kohlenstoffs betragen.
„Entscheidend ist der Schutz der Wälder vor nicht nachhaltiger Abholzung“
„Wenn der Einsatz von Bauholz stark gesteigert werden soll, ist der Schutz der Wälder vor nicht nachhaltiger Abholzung und einer Vielzahl anderer Bedrohungen entscheidend wichtig“, betont Co-Autor Christopher Reyer vom PIK. „Unsere Vision für eine nachhaltige Bewirtschaftung und Regulierung könnte aber die Situation der Wälder weltweit tatsächlich sogar verbessern, da diesen dann ein höherer Wert zugemessen wird“, betont Reyer.
Die Wissenschaftler fassen mehrere Belegketten zusammen, von der offiziellen Statistik zu Holzernten bis hin zu komplexen Simulationsmodellen, und ermitteln auf dieser Grundlage, dass theoretisch die derzeit ungenutzten Potenziale der weltweiten Holzernte den Bedarf des 10-Prozent-Holz-Szenarios decken würden. Es könnte sogar den Bedarf des 50- und 90-Prozent-Holz-Szenarios decken, wenn die Bodenfläche pro Person in Gebäuden weltweit nicht steigen, sondern auf dem aktuellen Durchschnitt bleiben würde. „Es gibt hier eine ziemliche große Unsicherheit sowie einen starken Bedarf an politischen Maßnahmen zur Aufwertung der Wälder und ihrer Produkte, aber grundsätzlich sieht es vielversprechend aus“, sagt Reyer. „Zusätzlich wären Plantagen erforderlich, um den Bedarf zu decken, einschließlich des Anbaus von schnell wachsendem Bambus durch Kleingrundbesitzer in tropischen und subtropischen Regionen.“
Wenn zudem das Verwenden von Rundhölzern als Brennstoff verringert würde – derzeit wird etwa die Hälfte der Rundhölzer verbrannt, was ebenfalls zu Emissionen führt -, könnte mehr davon für das Bauen mit verarbeiteten Holzwerkstoffen zur Verfügung stellen. Darüber hinaus kann die Wiederverwendung von Holz nach dem Abriss von Gebäuden die Menge an verfügbarem Holz erweitern.
Die Technologie der Bäume – „um uns ein sicheres Zuhause auf der Erde zu bauen“
Holz als Baumaterial weist eine Reihe interessanter Merkmale auf, die in der Analyse beschrieben werden. Zum Beispiel sind große Bauhölzer bei richtiger Verwendung vergleichsweise feuerbeständig – ihr innerer Kern wird beim Verbrennen durch das Verkohlen ihrer äußere Schicht geschützt, so dass es für einen Brand schwer ist, die tragende Konstruktion zu zerstören. Dies steht im Gegensatz zu der weit verbreiteten Annahme der Feuergefährlichkeit von Holzgebäuden. Viele nationale Bauvorschriften erkennen diese Eigenschaften bereits an.
„Bäume bieten uns eine Technologie von beispielloser Perfektion“, sagt Hans Joachim Schellnhuber, Ko-Autor der Studie und emeritierter Direktor des PIK. „Sie entziehen unserer Atmosphäre CO2 und wandeln es in Sauerstoff zum Atmen und in Kohlenstoff im Baumstamm um, den wir nutzen können. Ich kann mir keine sicherere Art der Kohlenstoffspeicherung vorstellen. Die Menschheit hat Holz für viele Jahrhunderte für Bauwerke genutzt, doch jetzt geht es angesichts der Herausforderung der Klimastabilisierung um eine völlig neue Größenordnung. Wenn wir das Holz zu modernen Baumaterialien verarbeiten und die Ernte und das Bauen klug managen, können wir Menschen uns ein sicheres Zuhause auf der Erde bauen.“
Wissenschaftliche Ansprechpartner:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de
Originalpublikation:
Galina Churkina, Alan Organschi, Christopher P. O. Reyer, Andrew Ruff, Kira Vinke, Zhu Liu, Barbara K. Reck, T. E. Graedel, Hans Joachim Schellnhuber (2020): Buildings as a global carbon sink. Nature Sustainability [DOI:10.1038/s41893-019-0462-4]
Quelle: IDW
Mit dem eigenen Dicksein leben und umgehen
Sarah Blaß Kommunikation und Veranstaltungsmanagement
Frankfurt University of Applied Sciences
Studie der Frankfurt UAS untersucht biografische Berichte von Frauen und Männern mit hohem Körpergewicht und zeigt geschlechtsspezifische Unterschiede auf
„Dick zu sein, ist heutzutage mit einem negativen Stigma verbunden“, erklärt Prof. Dr. Lotte Rose, Professorin für Pädagogik der Kinder- und Jugendarbeit an der Frankfurt University of Applied Sciences (Frankfurt UAS). Menschen mit hohem Körpergewicht würden Disziplinlosigkeit, geringe Belastbarkeit und anderweitige persönliche Schwächen unterstellt. Sie würden gemobbt und ausgegrenzt bis dahin, dass ihnen vorgeworfen wird, hohe Gesundheitskosten zu verursachen. Verschiedene Autorinnen und Autoren sprechen deshalb in Anlehnung an die herrschaftskritischen Begriffe des Rassismus oder Sexismus vom Fatismus in unserer Gesellschaft. Dies meint, dass Menschen mit hohem Körpergewicht soziale Anerkennung verweigert und gesellschaftliche Teilhabe erschwert wird. „Während sehr viel über das ‚Problem Übergewicht‘ und erforderliche Präventionsmaßnahmen öffentlich gesprochen wird, gibt es bislang wenig empirisches Wissen dazu, wie es eigentlich Menschen ergeht, die nicht den propagierten Gewichtsnormen entsprechen“, so Rose. Vor diesem Hintergrund wurde von 2017 bis 2019 an der Frankfurt UAS die Studie „Geschlechterordnungen der Diskriminierung dicker Körper“ durchgeführt, in der Biografien von Frauen und Männern mit hohem Körpergewicht untersucht wurden. Zentrale Fragenstellungen lauteten: Wie bewältigen Frauen und Männer mit hohem Körpergewicht ihr Leben mit einem Stigma? Wie sprechen sie über sich selbst und ihr Leben? Wie können sie überhaupt in legitimer Weise von sich erzählen? Welche Narrative sind dabei charakteristisch? Im besonderen Fokus stand die Frage, ob und wie sich Geschlechterunterschiede in Erzählungen hochgewichtiger Menschen über ihr Leben zeigen.
Als empirisches Datenmaterial standen Berichte zur Verfügung, die von Studierenden im Zeitraum 2013-2017 im Rahmen eines Moduls zur Diskriminierung von Menschen mit hohem Körpergewicht im Bachelor-Studiengang Soziale Arbeit an der Frankfurt UAS verfasst wurden. Grundlage der Berichte waren biografische Interviews, die mit Personen durchgeführt wurden, die (ehemals) hohes Körpergewicht hatten. Insgesamt wurden 124 Berichte untersucht, davon 92 zu Frauen und 32 zu Männern. „Zu den Quellen anzumerken ist, dass die Berichte einer zweifachen biografischen Konstruktion unterlagen: der biografischen Konstruktion der Erzählenden im Interview, die dann nachfolgend von den Interviewenden zu einem biografischen Bericht konstruiert wurde. Bei dieser Vertextlichung wurde von den Studierenden selektiert, verdichtet und gewichtet, sodass ein Dokument entstand, das nicht mehr eins-zu-eins die Konstruktion der Interviewten abbildet, sondern das, was den Studierenden bedeutsam erschien. Die Texte ähneln damit dem Genre journalistischer Porträts“, erläutert Rose.
Spannend ist: Nur in einem Viertel der Berichte kommt das Körpergewicht überhaupt zur Sprache. „Dies hat damit zu tun, dass die Gesprächsführung biografisch-narrativ angelegt war und nicht problemfokussiert. So sollten die Studierenden versuchen, Menschen für ein Interview zu gewinnen ohne das Seminarthema als Begründung anzuführen. Auch der Erzählstimulus, der zu Beginn des Interviews gesetzt wurde, war auf die Darstellung der eigenen Lebensgeschichte ‚nach eigenem Gusto‘ gerichtet und nicht auf das hohe Körpergewicht“, so Rose. In einem Nachfrageteil war es den Studierenden zwar möglich, das Gewicht anzusprechen, dies geschah jedoch selten. „Dass in einer Reihe von biografischen Erzählungen das eigene Körpergewicht nicht thematisiert wird, zeigt, dass das Gewicht, das gesellschaftlich permanent relevant gemacht wird, für die Betroffenen selbst nicht immer diese Relevanz hat und die biografischen Rekonstruktionen um ganz andere Themen kreisen können“, wertet Rose aus.
In vielen Berichten thematisieren sowohl interviewte Männer als auch Frauen, dass am eigenen Körper aufwendig gearbeitet wird, wenn auch mit unterschiedlichem Erfolg. Besonders dort, wo erfolgreich abgenommen wird, nimmt dieses Thema viel Raum ein. Der schlanke Körper erscheint als Inbegriff eines psychosozial „leichteren“ und besseren Lebens – was nicht weiter begründet werden muss, weil es an die Problemdebatte zu hohem Körpergewicht andockt. In den entsprechenden Berichten trägt das Abnehmen immer dramatische Züge eines radikalen und umfassenden Transformationsprozesses, der den Betreffenden zudem viel abverlangt. Gewichtsreduktion wird von einer Interviewten als das „wirklich Einschneidendste im Leben“ bezeichnet. In einem anderen Bericht läutet das Dünnerwerden ein „völlig neues Leben“ ein, das Vorteile in unterschiedlichen Lebensbereichen mit sich bringt und so für ein glückliches Leben sorgt. So gut wie immer wird das Abnehmen von den Interviewten als selbstbestimmte Entscheidung erzählt. Dennoch wird das Abnehmen immer als höchst arbeitsintensiv berichtet: Sport- und Fitnessaktivitäten, gesunde Ernährung, Diätprogramme, Formula-Diäten bis hin zu bariatrischer Chirurgie, die wiederum aufwendige Vorarbeiten in der eigenen Lebensführung und ärztliche Prozeduren umfasst. „Entscheidend ist dabei: Es gibt kein absolutes Scheitern. Wenn das erste Diätprogramm erfolglos bleibt, wird das nächste in Angriff genommen“, so Rose. „Diese Bereitschaft spricht gegen die stereotypische Zuschreibung der Faulheit und Willenlosigkeit von Dicken. Hart an sich zu arbeiten und es trotz Misserfolgen immer wieder zu versuchen, demontiert das Stigma, mit dem Menschen mit hohem Körpergewicht leben müssen.“
Während der Prestigegewinn durch den schlanken Körper in Berichten beider Geschlechter eine Rolle spielt, gibt es aber auch eine geschlechterspezifische Besonderheit: Gerade Frauen erzählen, durch die Gewichtsreduktion eine bessere Partnerin und Mutter geworden zu sein. Die Abnahme wird von ihnen als Verpflichtung anderen gegenüber und als Teil ihrer Fürsorge für andere, der sie nachkommen möchten, konstruiert. Ähnliche Erzählungen von Männern, die sich über eine Abnahme als bessere Väter positionieren, sind im Datenmaterial nicht auszumachen. Geschlechterspezifische Narrative sind bei den Erzählungen zur Elternschaft sehr markant: In den Berichten zu Frauen, die Kinder haben, tauchen zahlreiche Problemnarrative auf. Bereits der Kinderwunsch erweist sich als etwas, das sich nur mit viel Arbeit und Leiden erfüllt. Berichtet wird von Abnehmprozeduren, um überhaupt schwanger zu werden. Auch die Schwangerschaften selbst sind leidvoll, weil die Gewichtszunahme zu hoch ist und nach der Entbindung hoch bleibt. In nicht wenigen Fällen ist die Schwangerschaft aber auch erst der Start einer „Karriere der Dickleibigkeit“. Typisch sind zudem die Erzählungen zu den Beschwernissen guter Mutterschaft durch das hohe Gewicht. Berichtet wird von den Schwierigkeiten, die üblichen Fürsorge- und Spieltätigkeiten zu übernehmen oder auch das eigene Kind vor Unfallgefahren zu schützen. Aus Scham wird darauf verzichtet, sich mit den Kindern in der Öffentlichkeit zu zeigen, z.B. im Schwimmbad. Zudem gibt es Befürchtungen, aufgrund des eigenen Dickseins das eigene Kind falsch zu ernähren und zu erziehen, und dass das eigene Kind wegen des Gewichts der Mutter stigmatisiert wird.
Geht man der Frage nach, wie in den Berichten zu Männern und Frauen „gutes Leben“ erzählt wird, werden ebenso geschlechtstypische Narrative erkennbar. Während in den Berichten beider Geschlechter soziale Bindungen vor allem zur Familie eine zentrale Figur sind, an der entlang das „gute Leben“ plausibilisiert wird, zeigen sich doch auch Geschlechterunterschiede beim Familien-Narrativ. Während Männer am häufigsten und intensivsten auf die Herkunftsfamilie Bezug nehmen, nimmt bei den Frauen – falls vorhanden – die selbst gegründete Familie inklusive Partner/-in, Kindern und Enkelkindern fast immer einen höheren Stellenwert ein. Auch Männer erzählen von ihren glücklichen Liebesbeziehungen, jedoch häufig eher kurz und wenig detailreich. Im Kontrast hierzu werden in den Interviews mit Frauen Abschnitte zu einer glücklichen Partnerschaft detailliert ausgeschmückt. Die glückliche Partnerschaft wird von Frauen oft als etwas nicht Selbstverständliches dargestellt. Die Schilderung vergangener unglücklicher Partnerschaften ist ein häufiges Motiv in den Erzählungen und stärkt die Darstellung der aktuellen Beziehung als großes Glück. Allerdings wird dieses Glück häufig als eines präsentiert, das nicht wegen und mit, sondern trotz des eigenen Körpers erreicht wurde. Obwohl in einzelnen Berichten über Frauen durchaus auf die sexuelle Attraktivität eines voluminösen Frauenkörpers eingegangen wird, geschieht dies selten im Kontext des Partnerglücks. Das Erlebnis begehrt zu werden, wird überwiegend konstruiert als eines, das angesichts des eigenen Körpers überraschend oder besonders kostbar ist. Im Gegensatz dazu werden in den Berichten über die Männer außerfamiliale Beziehungen stärker exponiert. Während Frauen sich primär auf Familienbeziehungen und Beziehungen zu einzelnen beziehen, plausibilisieren Männer ihr „gutes Leben“ deutlicher über Gruppenmitgliedschaften. Dies können Vereine, religiöse Gemeinden, die subkulturelle Szene oder politische Gruppierungen sein. Besondere Prominenz hat hier der Fußballverein, der mit Abstand am häufigsten genannt wird. Auch das soziale Prestige spielt eine Rolle: In einigen Interviews wird direkt auf die Notwendigkeit verwiesen, sich kompensatorisch Anerkennung über Leistung zu verdienen, wenn man als dicker Mensch nicht ausgegrenzt werden will. Felder der Leistungserbringung sind vor allem Schule, Ausbildung und Beruf, aber auch das Ehrenamt. Einige der Interviewten, in den vorliegenden Berichten stets Männer, positionieren sich nicht nur als leistungsfähig, sondern auch als „soziale Helden“, die sich für andere einsetzen. Dieses Narrativ wird vor allem entlang der Rolle als Trainer im Sport konstruiert. Die Trainertätigkeit wird zum einen als Ergebnis eines großen persönlichen Erfahrungs- und Kompetenzschatzes, zum anderen als entscheidend für das Leben der von ihnen betreuten Jugendlichen dargestellt.
Gefördert wurde die Studie vom Hessischen Ministerium für Wissenschaft und Kunst. Publikationen zum Forschungsprojekt sind in Arbeit. Dr. Eva Tolasch und Judith Pape waren als wissenschaftliche Mitarbeiterinnen im Projekt tätig. In einer Folgestudie wird im Rahmen eines Promotionsprojektes von Pape am hochschulübergreifenden Promotionszentrum Soziale Arbeit in Hessen die Lebenssituation von Eltern mit hohem Körpergewicht genauer untersucht.
Wissenschaftliche Ansprechpartner:
Kontakt: Frankfurt University of Applied Sciences, Fachbereich 4: Soziale Arbeit und Gesundheit, Prof. Dr. Lotte Rose, Telefon: +49 69 1533-2830, E-Mail: rose@fb4.fra-uas.de
Weitere Informationen:
https://www.frankfurt-university.de/de/hochschule/fachbereich-4-soziale-arbeit-g…
Quelle: IDW
Mehr Menschen stehen Impfungen positiv gegenüber – Neue Studiendaten der BZgA
Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
Immer mehr Menschen in Deutschland haben eine positive Einstellung zum Impfen. Dies zeigen die neuen Daten der bundesweiten Repräsentativbefragung „Einstellungen, Wissen und Verhalten von Erwachsenen und Eltern gegenüber Impfungen“ der Bundeszentrale für gesundheitliche Aufklärung (BZgA). So ist der Anteil der Erwachsenen, die Impfungen befürworten bzw. eher befürworten, von 61 Prozent im Jahr 2012 auf 77 Prozent in 2018 gestiegen. Die überwiegende Mehrheit der befragten Eltern erachtet Impfungen ebenfalls als wichtig. Dies gilt speziell auch für den Impfschutz von Kindern gegen Masern.
Immer mehr Menschen in Deutschland haben eine positive Einstellung zum Impfen. Dies zeigen die neuen Daten der bundesweiten Repräsentativbefragung der Bundeszentrale für gesundheitliche Aufklärung (BZgA) „Einstellungen, Wissen und Verhalten von Erwachsenen und Eltern gegenüber Impfungen“.
Die Studiendaten belegen, dass sich 77 Prozent der Erwachsenen „befürwortend“ oder „eher befürwortend“ für eine Impfung aussprechen, 17 Prozent haben teilweise Vorbehalte und sechs Prozent lehnen eine Impfung ab. Damit ist der Anteil der Erwachsenen, die Impfungen befürworten bzw. eher befürworten, gestiegen. Im Jahr 2012 lag er bei 61 Prozent.
Dr. med. Heidrun Thaiss, Leiterin der BZgA, betont: „Dass immer mehr Menschen in Deutschland Impfungen positiv gegenüberstehen, ist eine erfreuliche Entwicklung. Denn Impfungen sind der bestmögliche Schutz vor ansteckenden Infektionskrankheiten. Unsere Studiendaten belegen aber auch Wissenslücken – so sind die Impfempfehlungen gegen Masern im Erwachsenenalter in der Gruppe der nach 1970 Geborenen nur 28 Prozent der Befragten bekannt. Hier gilt es, diese Personen zukünftig verstärkt und gezielt zu informieren. Wir werden unsere qualitätsgesicherten Informationsangebote dahingehend spezifisch weiterentwickeln.“
Ein Teil der Befragten äußert trotz grundsätzlicher Impfbereitschaft Vorbehalte und Ängste gegenüber Impfungen. Mehr als ein Viertel ließ nach eigenen Angaben in den vergangenen Jahren eine oder mehrere anstehende Impfungen nicht durchführen. 29 Prozent begründen dies mit Angst vor Nebenwirkungen und 21 Prozent zweifeln an dem Schutz der Impfung vor einer Krankheit.
Was die Befragung von Eltern im Rahmen der BZgA-Studie betrifft, erachtet die überwiegende Mehrheit Impfungen als wichtig: 80 Prozent stehen diesen positiv gegenüber. 14 Prozent geben an, dass ihre Einstellung gegenüber Impfungen teils befürwortend, teils ablehnend ist, und fünf Prozent haben eine ablehnende Haltung. Speziell den Impfschutz von Kindern gegen Masern betreffend betrachten 57 Prozent der Eltern ihn als besonders wichtig und 34 Prozent als wichtig. Acht Prozent der Befragten geben an, dass er für sie nicht wichtig sei.
Den BZgA-Studiendaten zufolge kommt nach wie vor der Ärzteschaft die Schlüsselrolle bei der Aufklärung zu gesundheitsrelevanten Themen zu: Das persönliche Gespräch mit einem Arzt oder einer Ärztin ist für nahezu alle befragten Personen (97 Prozent) die bevorzugte Informationsquelle für Impfungen. Eine große Mehrheit der Befragten findet es ebenfalls (sehr) gut, durch ein Gespräch mit einer medizinischen Fachkraft (90 Prozent) oder über Informationsbroschüren und Faltblätter (74 Prozent) informiert zu werden.
Für die bundesweite BZgA-Repräsentativbefragung „Einstellungen, Wissen und Verhalten von Erwachsenen und Eltern gegenüber Impfungen“ wurden im Zeitraum Juli bis September 2018 bundesweit 5.054 Personen im Alter von 16 bis 85 Jahren befragt.
Der Ergebnisbericht der BZgA-Studie steht zum Download unter:
www.bzga.de/forschung/studien/abgeschlossene-studien/studien-ab-1997/impfen-und-hygiene/
Mehr Informationen zum Thema unter: www.impfen-info.de
Quelle: IDW
Von wegen Anglerlatein und Seemannsgarn: Gewässernutzer*innen im Kollektiv so schlau wie wissenschaftliche Expert*innen
Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Wie erfasst man mit vertretbarem Aufwand die komplexen Beziehungen zwischen Wildtieren, Ökosystemen und dem Menschen? Ein Team um Professor Robert Arlinghaus vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und der Humboldt-Universität zu Berlin hat eine Methode erarbeitet, wie man das Erfahrungswissen von Gewässernutzenden so zusammenführen kann, dass das Ergebnis dem besten wissenschaftlichen Verständnis entspricht. Das ist der erste wissenschaftliche Nachweis, dass die kollektive Intelligenz von Naturnutzerinnen und -nutzern auch komplexe Mensch-Umwelt-Beziehungen akkurat erfassen kann.
Die in Nature Sustainability veröffentlichte Studie des internationalen Teams aus Fischereibiologen, Informatikern und Sozialwissenschaftlern zeigt, dass das Kollektiv der Nutzerinnen und Nutzer von Fischbeständen in der Lage ist, die ökologischen Ursache-Wirkungsbeziehungen der Populationsbiologie von Hechten exakt so zu identifizieren, wie es dem besten Forschungswissen entspricht.
In der Studie identifizierten rund 220 Anglerinnen und Angler, Gewässerwarte und Vorstände von Angelvereinen Faktoren, die alleine oder in Wechselbeziehung zueinander die Entwicklung von Hechtbeständen bestimmen; zum Beispiel Nährstoffe, Wasserpflanzen, Nährtiere, Kormorane, Fischer und Angler. Die individuellen Vorstellungen zur Hechtbiologie – die sogenannten mentalen Abbilder der Realität – wurden mathematisch zu einem kollektiven Verständnis der ökologischen Zusammenhänge zusammengefasst. Das Wissen von 17 Fischereibiologen diente als Referenz.
Das Ergebnis verblüfft: Wenn man die ökologischen Vorstellungen der Anglerinnen und Angler zusammenführt, entspricht das Ergebnis nahezu exakt dem besten wissenschaftlichen Kenntnisstand zur Hechtbiologie. „Und das Ergebnis wird besser, je mehr Akteurinnen und Akteure an der kollektiven Lösung beteiligt sind“, erläutert Studienleiter Professor Robert Arlinghaus vom IGB.
Viele sind nicht unbedingt besser, sie müssen auch divers sein:
Klingt nach einer „urdemokratischen“ Lösung. „Ganz so einfach ist es nicht. Wichtig ist, dass die Vorstellungen unterschiedlicher Typen von Gewässernutzenden – Anglerinnen und Angler, Gewässerbewirtschaftende, Vorstandsmitglieder von Angelvereinen – angemessen berücksichtigt werden“, bemerkt Erstautor Payam Aminpour, Doktorand an der amerikanischen Michigan State University. Wenn man hingegen nur das Wissen eines Typs von Akteurinnen und Akteuren nutzt, können sich falsche Vorstellungen und Mythen akkumulieren, die durch den Austausch innerhalb dieser Untergruppe entstehen. „Wenn man nur eine isolierte Akteursgruppe berücksichtigt, verschlechtert sich das kollektive Ergebnis, je mehr Menschen an der Lösung beteiligt werden“, betont Robert Arlinghaus.
Die Weisheit der Vielen greift, wenn ein mehrstufiger Analyseansatz gewählt wird. Zuerst wird das kollektive Wissen innerhalb einer Nutzergruppe ermittelt und dann werden die Ergebnisse gruppenübergreifend zusammengefasst. „Unsere Studie zeigt, dass es sinnvoll ist, das Wissen möglichst unterschiedlicher Typen von Naturnutzenden oder Interessensgruppen zu berücksichtigen. Und wenn dann innerhalb jeder Gruppe möglichst viele Meinungen einfließen, wird das Gesamtergebnis besonders gut“, fasst Robert Arlinghaus zusammen.
Die Forschenden plädieren dafür, bei der Untersuchung und dem anschließenden Management von Natur und Umwelt systematischer als heute auf das Prinzip der kollektiven Intelligenz zurückzugreifen. Das gilt vor allem dann, wenn personelle und finanzielle Ressourcen nicht ausreichen, um ein tiefes wissenschaftliches Verständnis zu erlangen. Beispielsweise ist es schwierig, rückwirkend die Entwicklung der Fischbestände in einem Fischereigebiet abzuschätzen, zu dem wissenschaftliche Begleituntersuchungen fehlen. Ein konkretes Anwendungsbeispiel, an dem Robert Arlinghaus und sein Team aktuell forschen, sind die Hechtbestände in den inneren Küstengewässern, den sogenannten Boddengewässern, rund um Rügen. Auch hier setzt das Team unter anderem auf die Weisheit von Anglerinnen und Anglern, Fischerinnen und Fischern.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/
Wissenschaftliche Ansprechpartner:
Prof. Dr. Robert Arlinghaus
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin und am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Abteilung Biologie und Ökologie der Fische
Müggelseedamm 310
12587 Berlin
Telefon: +49 (0)30 64181 653
E-Mail: arlinghaus@igb-berlin.de
www.ifishman.de
www.boddenhecht-forschung.de
Originalpublikation:
Aminpour, P., Gray, S.A., Jetter, A.J., Introne, J.E., Singer, A., Arlinghaus, R.: Wisdom of stakeholder crowds in complex social-ecological systems. Nat Sustain (2020). Doi: 10.1038/s41893-019-0467-z
Quelle: IDW
Wiederverwenden statt Wegwerfen: Leitfaden für Kommunen und Abfallwirtschaft
Michael Hallermayer Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg
Bis zu 25 Prozent der Altgeräte und 40 Prozent Gebrauchtmöbel könnten wiederverwendet werden. Das Resource Lab der Universität Augsburg hat für das Bayerische Staatsministerium für Umwelt und Verbraucherschutz im Rahmen einer Studie einen Leitfaden entwickelt, der die Wiederverwendung von Produkten anschieben soll. Er soll als Praxishilfe für Gemeinden, Abfallwirtschaftsbetriebe, Landratsämter, Ingenieurbüros, Recyclingunternehmen, Verbände und Wertstoffhöfe dienen.
Die neue Studie im Auftrag des Bayerischen Umweltministeriums zeigt: Tausende Tonnen Müll könnten in Bayern bei entsprechender Aufbereitung wiederverwendet werden. Allein 5400 Tonnen Elektroaltgeräte könnten so noch einmal genutzt werden. Ergebnis der Studie ist ein europaweit einzigartiger Leitfaden. Dieser richtet sich an Gemeinden, Abfallwirtschaftsbetriebe, Landratsämter und Wertstoffhöfe und soll für das Thema sensibilisieren. Bayerns Umweltminister Thorsten Glauber betonte dazu heute in der europäischen Woche der Abfallvermeidung in München: „Wir wollen dem Thema Recycling neuen Schub geben. Ein wichtiger Punkt dabei ist die Wiederverwendung weggeworfener Produkte. Wir wollen einen Weg aufzeigen, das Tablet von gestern zum Tablet von morgen zu machen. Die Verwertung von Abfällen schont unsere wertvollen Ressourcen und spart Energien und Emissionen ein. Die Wiederverwendung leistet damit einen wichtigen Beitrag zum Klimaschutz.“
Im Rahmen der Studie wurden von den Augsburger Forscherinnen und Forschern unter anderem rund 4000 Elektroaltgeräte und über 1100 Gebrauchtmöbel auf Wertstoffhöfen untersucht. Die Entwicklung einer Methode für eine quantitative Bewertung von wiederverwendbaren Abfällen stand im Mittelpunkt der Analysen. Für diese Studie wurden bei 60 bayerischen Wertstoffhöfen Primärdaten vor Ort evaluiert. Auf diese Weise konnte ein theoretisches Potential für die Vorbereitung zur Wiederverwendung bei gebrauchten Elektronik- und Elektrogeräten, Möbeln, Freizeitgeräten und Altkleidern ermittelt werden.
Ergebnis: Bis zu 25 Prozent der Altgeräte und 40 Prozent Gebrauchtmöbel könnten wiederverwendet werden. Beschädigungen treten häufig erst bei der Sammlung auf und könnten deswegen leicht vermieden werden. Die Basis für erfolgreiche Wiederverwendung bildet daher auch die Qualifizierung der Mitarbeiter. Geschultes Personal ist vor allem bei der Sortierung und Sichtung der Güter auf dem Wertstoffhof sehr wichtig. Die Vorbereitung von weggeworfenen Produkten zur Wiederverwendung verfolgt das Ziel, Güter für ihren ursprünglichen Zweck aufzubereiten. Daraus ergeben sich neben den ökologischen Vorteilen auch wirtschaftliche Effekte. Beispielsweise werden lokale Arbeitsplätze geschaffen sowie ein erweitertes Angebot an günstigen Gütern, das etwa über Sozialkaufhäuser weiterverkauft werden kann.
Der Leitfaden soll als Praxishilfe für Gemeinden, Abfallwirtschaftsbetriebe, Landratsämter,
Ingenieurbüros, Recyclingunternehmen, Verbände und Wertstoffhöfe
dienen, um die Umsetzung der zweiten Stufe der fünfstufigen Abfallhierarchie, die
Vorbereitung zur Wiederverwendung, als eine besonders nachhaltige Variante des
Umweltschutzes zu fördern.
Resource Lab untersucht Abfallmanagement
Bereits 2015 hat das Resource Lab der Universität Augsburg gemeinsam mit dem Bayerischen Landesamt für Umwelt und dem Umweltministerium in einem Vorgängerprojekt einen Leitfaden für Kommunen mit vielen Maßnahmen zur Abfallvermeidung erarbeitet und vorgestellt. Das Resource Lab, das sich bereits seit 2012 mit dem Thema Abfallmanagement beschäftigt,
ist eine interdisziplinäre Forschungsgruppe im Institut für Materials Resource Management (MRM) der Universität Augsburg. Sie bündelt die Themengebiete Nachhaltige Produktion & Supply Chain Management, Ressourcenstrategie und Nachhaltigkeitsmanagement.
Wissenschaftliche Ansprechpartner:
Dr. Andrea Thorenz, Leitung Resource Lab
Institut für Materials Resource Management der Universität Augsburg
Tel. 0821 598-3948
andrea.thorenz@mrm.uni-augsburg.de
Weitere Informationen:
https://www.stmuv.bayern.de/themen/abfallwirtschaft/haushalts_gewerbeabfaelle/ab…
Leitfaden für die Vorbereitung zur Wiederverwendung
Quelle: IDW
Waschmaschinen-Flora: Die Stinker sitzen im Bullauge
Jutta Neumann Pressestelle
Hochschule Furtwangen
Fast jeder Haushalt in Deutschland besitzt eine Waschmaschine. Was viele Verbraucher nicht wissen: Waschmaschinen, die Textilien eigentlich sauber machen sollen, können massiv verkeimen. Feuchtigkeit, Wärme und ein großes Angebot an Nährstoffen schaffen ideale Lebensbedingungen für das Wachstum von Keimen. Aktuelle Trends wie das Waschen bei niedrigen Temperaturen, Wassersparprogramme und der Einsatz Bleiche-freier Flüssigwaschmittel begünstigen das Keimwachstum zusätzlich.
„An welchen Stellen einer Maschine kommen welche Bakterien vor? Und welche Faktoren steuern diese Zusammensetzung? Das waren unsere Ausgangsfragen“, erläutert Studienleiter Prof. Dr. Markus Egert, der an der Hochschule Furtwangen am Campus Schwenningen Mikrobiologie und Hygiene lehrt. Mikroorganismen in der Waschmaschine können zwar gerade für Immungeschwächte auch ein gewisses Gesundheitsrisiko darstellen, im häuslichen Alltag sind aber eher andere Phänomene spürbar, wie muffiger Maschinen- und Wäschegeruch.
In der Studie wurden 50 Proben aus 13 Haushaltswaschmaschinen aus dem Großraum Villingen-Schwenningen und Waldshut-Tiengen mit molekularbiologischen Methoden auf die Zusammensetzung ihrer Bakteriengemeinschaft hin untersucht. Beprobt wurden jeweils die Einspülkammer, die Bullaugendichtung, der Pumpensumpfbehälter und Wäschefasern aus einer Testwäsche in der jeweiligen Maschine. Die Nutzer der Maschinen wurden zu ihrem Waschverhalten befragt.
In 13 Maschinen wurden 229 verschiedene Arten von Bakterien identifiziert. Zwischen 30 und 60% der zehn am häufigsten gefundenen Arten pro Probenahmestelle wurden als potentiell krankmachend eingestuft. An jeder Probenahmestelle fand sich eine eigene, typische Gemeinschaft. Generell dominierten Wasserbakterien, auf den Wäschefasern auch typische Hautbakterien. Die höchste Vielfalt von Bakterien zeigte die Einspülkammer.
Das als Ursache von schlechtem Geruch bekannte Bakterium Moraxella osloensis wurde in 9 von 13 Bullaugendichtungen gefunden. Hier zeigte es mit 12,5% auch seine höchste relative Häufigkeit. „Moraxella osloensis ist hart im Nehmen und hält die stark wechselnden Umweltbedingungen in der Bullaugendichtung anscheinend bestens aus. Um Wäsche- und Maschinengeruch vorzubeugen, sollte die Dichtung deshalb regelmäßig gereinigt und die Maschine zum Trocknen offen gelassen werden“, erklärt Egert.
Das Nutzerverhalten zeigte nur in einem Punkt einen signifikanten Zusammenhang mit der Waschmaschinenflora. Eine höhere Anzahl von heißen Waschgängen pro Monat führt wohl zu einer größeren bakteriellen Vielfalt in der Einspülkammer. „Waschen bei 60°C und heißer ist für die Wäschehygiene nach wie vor das Beste. Wärmeabstrahlung an andere Stellen der Maschine kann dort aber vielleicht das Keimwachstum fördern. Hier sind weitere Studien nötig. Die Waschmaschine hält sicherlich noch viele mikrobiologische Überraschungen bereit“, so Egert.
Die Studie wurde durch ein Forscherteam der Hochschule Furtwangen, der Universität Gießen sowie der Henkel AG & Co. KGaA, Düsseldorf, erstellt. Erschienen ist sie in der Zeitschrift Microorganisms mit dem Titel „Influence of Sampling Site and other Environmental Factors on the Bacterial Community Composition of Domestic Washing Machines“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Egert, ege@hs-furtwangen.de
Originalpublikation:
Zeitschrift Microorganisms
„Influence of Sampling Site and other Environmental Factors on the Bacterial Community Composition of Domestic Washing Machines“.
https://www.mdpi.com/2076-2607/8/1/30
Quelle: IDW
Sieben Millionen Euro für energieproduzierende Kläranlage
Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal
Das Clausthaler Verbundprojekt BioBZ – 2018 ausgezeichnet mit dem Deutschen Nachhaltigkeitspreis – wird mit dem Vorhaben „Demo-BioBZ“ fortgesetzt.
Energiewende in der Abwasserreinigung: Durch den Einsatz der bio-elektrochemischen Brennstoffzelle (BioBZ) kann aus dem Abwasser einer Kläranlage – normalerweise der größte kommunale Stromverbraucher – Energie gewonnen werden. Diesen innovativen Ansatz wird ein Forscherteam der TU Clausthal mit mehreren Partnern weiter optimieren und in Goslar in eine Demonstrationskläranlage, die für 250 Einwohner ausgelegt ist, umsetzen. Dafür stellt das Bundesministerium für Bildung und Forschung über den Projektträger Karlsruhe (PTKA) in den kommenden fünf Jahren 5,9 Millionen Euro bereit. Hinzu kommen Mittel aus Industrie und Wissenschaft. Das Kick-off-Meeting für das insgesamt 7 Millionen Euro umfassende Projekt – derzeit eines der größten Forschungsvorhaben der TU Clausthal – findet am 23. Januar statt.
Koordiniert wird das neue Verbundprojekt von Professor Michael Sievers vom CUTEC Clausthaler Umwelttechnik Forschungszentrum. „Eine technische Anlage, wie sie im Projekt Demo-BioBZ zur nachhaltigen Abwasserreinigung mit vollständiger Kohlenstoff- und Stickstoff-Elimination angestrebt wird, existiert bisher weltweit noch nicht“, sagt Professor Sievers. Der Weg zu einem solchen Novum ist in drei Phasen eingeteilt: eine zweijährige (Weiter-)Entwicklungsphase, eine einjährige Planungs- und Bauphase der Kläranlage sowie eine zweijährige Betriebsphase mit Prozessoptimierung. Gemäß der neuen High-Tech-Strategie der Bundesregierung sollen gute Ideen schnell in die Praxis überführt werden, damit Deutschland seine Position als Wirtschafts- und Exportnation sowie Innovationsführer stärkt. Eine Umsetzung der bisher in BioBZ entwickelten Innovationen in die Abwasserpraxis würde dazu einen Beitrag leisten, betont Sievers. Zudem würde die Energiewende auf kommunaler Ebene praktiziert, da Abwasserbehandlungsanlagen mindestens energieneutral oder sogar energieproduzierend betrieben werden könnten.
Welches Prinzip steckt dahinter? Dank der bio-elektrochemischen Brennstoffzelle werden die organischen Schmutzstoffe bei deren Abbau direkt in Strom umgewandelt. Als zusätzlicher Effekt reduziert sich der Aufwand für die Belüftung erheblich, die ebenfalls dem Abbau von Schmutzstoffen dient. Außerdem fällt weniger Schlamm an, der ansonsten kostenintensiv entsorgt werden müsste. Innerhalb der Zellen fungieren Mikroorganismen als Biokatalysatoren, die während des Schadstoffabbaus elektrische Energie erzeugen.
Für eine vollständige Reinigung des Abwassers, die Einhaltung aller gesetzlichen Grenzwerte und eine wirtschaftliche Anwendung bedarf es allerdings weiterer Innovationen des BioBZ-Ausgangsansatzes. So werden beispielsweise das System, die Materialien und Komponenten sowie die Konstruktion weiterentwickelt, die Reinigungsleistung muss ausgebaut werden und ein Automatisierungskonzept bzw. Online-Steuerungsmechanismen gilt es zu entwickeln. „Ziel aller Neuerungen ist eine höhere Leistung bei geringerem Energieverbrauch“, so der Projektkoordinator. Einige niedersächsische Kommunen haben bereits Interesse an der nachhaltigen Abwasserreinigung mit bio-elektrochemischer Brennstoffzelle bekundet.
Neben dem CUTEC-Forschungszentrum der TU Clausthal sind an dem ambitionierten Verbundprojekt sieben Partnereinrichtungen beteiligt: das Institut für Chemische und Elektrochemische Verfahrenstechnik der TU Clausthal mit Professor Ulrich Kunz, das Institut für Ökologische und Nachhaltige Chemie der TU Braunschweig mit Professor Uwe Schröder, das Engler-Bunte-Institut am Karlsruher Institut für Technologie mit Professor Harald Horn, die Eisenhuth GmbH & Co. KG (Osterode am Harz) um Geschäftsführer Dr. Thorsten Hickmann, die Common Link AG (Karlsruhe) mit Wolfgang Schläfer, die Eurawasser Betriebsführungsgesellschaft mbH (Goslar) mit Jörg Hinke sowie die Umwelttechnik und Anlagenbau GmbH Plauen mit Steffen Lässig und Ron Fischer.
Quelle: IDW
Wissenschaftler der TU Freiberg entwickeln Verfahren zur Entfernung von Mikroplastik aus Abwasser
Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg
Gemeinsam mit Partnern aus der Industrie erarbeitet die TU Bergakademie Freiberg in den nächsten zwei Jahren eine innovative Lösung, um Industrieabwasser zu reinigen und umweltschädliches Mikroplastik zu entfernen. Das Verfahren soll später auch im kommunalen Bereich zur Anwendung kommen.
Die Verbreitung von Mikroplastik vor allem im Wasser wird immer größer. Als „Mikroplastik“ werden Plastikpartikel mit einer Größe von wenigen Nanometern bis hin zu einigen Millimetern bezeichnet. In Kläranlagen können diese Kleinstpartikel bisher nur schwer abgebaut oder abgefiltert werden. Der Lösung dieses Problems widmen sich die Professuren für Strömungsmechanik und Strömungsmaschinen sowie für Thermische Verfahrenstechnik, Umwelt- und Naturstoffverfahrenstechnik an der TU Bergakademie Freiberg.
Sie forschen aktuell an einem komplett neuen Verfahren zur Abwasserreinigung. Dafür greifen die Wissenschaftler/innen auf die Wirkung von Wasserstoffperoxid zurück. Dieses wird zum Abwasser gegeben und setzt sich an die Mikroplastikteilchen und zerfällt zu Wasser und Sauerstoff. Der Sauerstoff bildet Gasblasen und steigt zusammen mit den Plastikpartikeln an die Wasseroberfläche. Dort können sie schließlich abgefischt werden.
Ein innovatives Nachweisverfahren soll es zudem ermöglichen, die zuzugebende Menge an Wasserstoffperoxid individuell auf die jeweilige Mikroplastikverunreinigung des Abwassers abzustimmen und so unnötigen Verbrauch zu verringern.
Das Projekt wird im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) gefördert. Unterstützt werden die Wissenschaftler/innen der TU Freiberg außerdem durch die innoscripta GmbH, München.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. habil. Rüdiger Schwarze, Tel.: +49 (0)3731 39 2486
Quelle: IDW
Blaualgen im Wasser und an Land als Quelle für Methan identifiziert
Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Cyanobakterien, umgangssprachlich auch Blaualgen genannt, gehören zu den häufigsten Organismen auf der Erde. Ein Forschungsteam unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der Universität Heidelberg zeigte nun erstmalig, dass Cyanobakterien in Meeren, Binnengewässern und an Land relevante Mengen an Methan produzieren. Die durch den Klimawandel zunehmenden Blaualgenblüten werden die Freisetzung von Methan aus Binnengewässern und Meeren in die Atmosphäre mit hoher Wahrscheinlichkeit verstärken.
Das Forschungsteam untersuchte 17 Cyanobakterienarten, die im Meer, im Süßwasser oder an Land vorkommen. „Cyanobakterien im Oberflächenwasser sind eine bislang unbekannte Quelle für Methan. Wir konnten erstmalig zeigen, dass diese Bakterien das Treibhausgas im Rahmen ihres regulären Zellstoffwechsels erzeugen“, erklärt Dr. Mina Bižić, IGB-Forscherin und Erstautorin der Studie. Thomas Klintzsch von der Universität Heidelberg untersuchte mit isotopenmarkiertem Kohlenstoff, wie bei der Photosynthese Methan in der Zelle entsteht.
Ein früheres wissenschaftliches Paradigma besagt, dass Organismen Methan nur unter sauerstoffarmen Bedingungen bilden können. Bisher konnte unter den Organismen ohne Zellkern nur für die sogenannten Urbakterien (Archaeen) eine Methanbildung nachgewiesen werden. Diese beiden Annahmen werden durch die Ergebnisse der Studie widerlegt.
Das Team verglich in Laborexperimenten die Menge an produziertem Methan von Cyanobakterien mit Werten für Archaeen und Organismen mit Zellkern (Eukaryoten). „Cyanobakterien bilden bei gleicher Biomasse weniger Methan als Archaeen, aber mehr Methan als Pilze oder Pflanzen. Es ist jedoch schwierig, den globalen Anteil an Methan von Cyanobakterien abzuschätzen, denn es fehlen genaue Daten zur Biomasse dieser Organismen in Gewässern und Böden“, so Frank Keppler, Professor am Institut für Geowissenschaften der Universität Heidelberg und Mitautor der Studie.
Mehr Blaualgenblüten bedeuten höhere Methanemissionen:
Vermutlich erzeugen Cyanobakterien schon seit der Erdfrühzeit das Treibhausgas Methan. Die ältesten bekannten Fossilien (Stromatolithen) sind Ablagerungen von Cyanobakterien und wurden in 3,5 Milliarden Jahre alten Gesteinen Westaustraliens nachgewiesen.
Heutzutage sind Cyanobakterien überall auf der Welt verbreitet. Im Meer- oder Süßwasser entwickeln sie sich bei einem hohen Nährstoffgehalt und warmen Temperaturen besonders gut. Durch den Klimawandel werden Massenentwicklungen, die sogenannten Blaualgenblüten, in Zukunft also häufiger und in stärkerem Ausmaß auftreten. „Dies wird gemäß unserer aktuellen Erkenntnisse auch den Ausstoß von Methan aus unseren Gewässern erhöhen, was wiederum den Klimawandel verstärkt“, sagt Professor Hans-Peter Grossart, IGB-Forscher und Leiter der Studie.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
hgrossart@igb-berlin.de
+49(0)3308269991
Dr. Mina Bižić
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
mbizic@igb-berlin.de
+49(0)3308269969
Quelle: IDW
Wie das Gehirn Ereignisse vorhersagt
Marilena Hoff Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für empirische Ästhetik
Beim Sport, beim Musizieren und in anderen Bereichen des täglichen Lebens muss das Gehirn wissen, wann Ereignisse eintreten, um schnell reagieren zu können. Doch wie kann der Mensch solche Ereignisse rechtzeitig vorhersehen? Gemäß einer weit verbreiteten Hypothese schätzt das Gehirn die sogenannte Hazard Rate von Ereignissen ab. Dagegen konnte nun ein Team von Wissenschaftlern am Max-Planck-Institut für empirische Ästhetik zeigen, dass das Gehirn ein einfacheres und stabileres Modell seiner Umwelt verwendet, das auf dem Kehrwert der Ereigniswahrscheinlichkeit basiert.
Wie lernt das Gehirn, wann ein Ereignis wahrscheinlicher eintritt, und wie stellt es Wahrscheinlichkeiten über einen längeren Zeitraum hinweg dar? Der bisher wichtigste Mechanismus war die Berechnung der Hazard Rate: der Wahrscheinlichkeit mit der ein Ereignis kurz bevorsteht – vorausgesetzt, es ist noch nicht geschehen. In ihrem Artikel in der Zeitschrift Nature Communications zeigen Matthias Grabenhorst, Georgios Michalareas und weitere Forscher anhand von Verhaltensexperimenten, dass das Gehirn stattdessen eine viel einfachere Berechnung verwendet: Es schätzt lediglich den Kehrwert der Wahrscheinlichkeit. Dies ist eine fundamentale Erkenntnis, die ein kanonisches Prinzip der Modellierung von Wahrscheinlichkeiten im Gehirn beleuchtet. Die enge Beziehung zwischen der reziproken Wahrscheinlichkeit und dem Shanon-Informationsgehalt (auch Surprisal genannt) deutet darauf hin, dass das Gehirn Wahrscheinlichkeiten tatsächlich als Information abbildet.
„Die Wahrscheinlichkeit selbst ist der grundlegende Parameter, den das Gehirn verwendet“, fasst Matthias Grabenhorst zusammen.
Ein zweites wichtiges Ergebnis dieser Arbeit betrifft die Unsicherheit bei der Schätzung der verstrichenen Zeit. Bisherige Forschungen haben gezeigt, dass die Unsicherheit der Schätzung des Gehirns umso größer ist, je länger die verstrichene Zeit ist. Grabenhorst, Michalareas und Kollegen zeigen auf, dass dieses Prinzip der monoton steigenden Unsicherheit mit der verstrichenen Zeit nicht immer gilt, sondern dass es tatsächlich die Wahrscheinlichkeitsverteilung von Ereignissen über einen Zeitraum ist, die bestimmt, wann die Unsicherheit am geringsten oder am größten ist.
Schließlich zeigen die Autoren der Studie, dass die zuvorgenannten Ergebnisse in drei verschiedenen Sinnesmodalitäten gelten: beim Sehen, Hören und in der Somatosensorik. Diese Gemeinsamkeit deutet entweder auf einen zentralen Mechanismus hin, der von allen drei Modalitäten genutzt wird, oder auf einen kanonischen peripheren Mechanismus, der in multiplen sensorischen Bereichen des Gehirns eingesetzt wird.
Wissenschaftliche Ansprechpartner:
Dr. med. Matthias Grabenhorst
+49 69 8300479-340
matthias.grabenhorst@ae.mpg.de
Originalpublikation:
Grabenhorst, M., Michalareas, G., Maloney, L. T., & Poeppel, D. (2019). The anticipation of events in time. Nature Communications, 10(1). doi:10.1038/s41467-019-13849-0
Quelle: IDW
Nature-Publikation: Aquakultur verknappt Phosphor und gefährdet Nahrungssicherheit
Corina Härning Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg
Augsburg – Die zunehmende Bedeutung von Aquakulturen in der Fischgewinnung trägt zur Verknappung des Rohstoffes Phosphor bei und gefährdet dadurch langfristig die Nahrungssicherheit falls nicht gegengesteuert wird. Dies zeigt eine in Nature Communications veröffentlichte Studie. Zu dem von Dr. Yuanyuan Huang (CSIRO, Melbourne) geleiteten Autorenteam zählt auch Dr. Daniel Goll vom Institut für Geographie der Universität Augsburg.
Phosphor ist ein wesentliches Element für alle Lebensformen auf der Erde. Der rapide Anstieg der menschlichen Nachfrage nach Nahrungsmitteln hat den Phosphoreintrag in Form von Düngemitteln in die Biosphäre seit der vorindustriellen Zeit vervierfacht. Aufgrund der raschen Ausbeutung der endlichen Phosphorquellen und der ineffizienten Verwendung von Phosphor ist die künftige Ernährungssicherheit gefährdet. Infolgedessen hat die Europäische Union im Jahr 2014 Phosphor in die Liste der 20 kritischen Rohstoffe aufgenommen, deren Versorgungssicherheit gefährdet ist und deren wirtschaftliche Bedeutung hoch ist. Die Einführung von Vorschriften für die Verwendung von Phosphordüngemitteln haben zu einer erhöhten Effizienz in der landwirtschaftlichen Produktion geführt, bislang hat der Einsatz von Phosphor in der Fischgewinnung jedoch wenig Beachtung gefunden.
Eine neue Studie zeigt nun, dass in der globalen Fischgewinnung erhebliche Mengen an Phosphor mit einem nur sehr geringen Wirkungsgrad verbraucht werden: Nur etwa ein Viertel des Phosphors, der zur Aufzucht von Fischen verwendet wird, wird mit dem Fisch geerntet, während der im Wasser verbleibende Phosphor potentiellen benachbarten Ökosystemen schadet und z. B. zum Verlust biologischer Vielfalt oder Algenblüten führen kann.
„Der Phosphor, der in Flüsse und Ozeane gelangt, kann als verloren angesehen werden, da es äußerst schwierig ist ihn wiederzugewinnen. Solche Verluste sollten weitmöglichst vermieden werden, um sicherzustellen, dass auch für zukünftige Generationen genügend Phosphor verfügbar ist“, erklärt Daniel Goll.
Nachhaltige Phosphorproduktion notwendig
Fisch, Krustentiere und Weichtiere (im Folgenden als Fisch verallgemeinert) gewinnen als Proteinquelle in der menschlichen Ernährung immer mehr an Bedeutung: Im Jahr 2013 stammten 17 Prozent des gesamten tierischen Proteins, das Menschen verzehrten aus Fischerei und Aquakultur. Während gefischte Fische ihren Phosphorbedarf aus natürlich vorkommenden Nahrungsquellen, z. B. anderen Fischen oder Plankton, decken, ist Aquakultur auf die Zugabe von Phosphor in Form von Fischfutter oder Dünger angewiesen, um für pflanzenfressende Fische das Pflanzenwachstum zu fördern.
Der Anteil der aus Aquakultur stammenden Fische für den menschlichen Verzehr ist von unter fünf Prozent in den 1950er-Jahren auf etwa 50 Prozent in den 2010er-Jahren gestiegen. Der frühere Phosphorfluss in Richtung Land durch die Fischerei hat sich darum in einen Verlust von Phosphor vom Land in Form von Dünge- und Futtermitteln gewandelt.
Durchschnittlich werden nur etwa 20 Prozent des zugesetzten Phosphors in Aquakulturen geerntet, was ein erhebliches Nachhaltigkeitsproblem darstellt. In dieser Studie wurde abgeschätzt, dass sich der Anteil an zugesetztem Phosphor, der in der Aquakultur in Form von Fischen geerntet wird, bis zum Jahr 2050 mehr als verdoppeln muss, um eine nachhaltige Phosphorproduktion zu ermöglichen.
„Phosphor ist ein nicht erneuerbarer, begrenzter und lebenswichtiger Nährstoff für Nutzpflanzen und -tiere. Wir sollten uns überlegen, wie wir Phosphor in der Fischwirtschaft recyceln und wiederverwenden können, um damit mehr Feldfrüchte anzubauen. Gleichzeitig sollten wir den Phosphor, den wir in der Aquakultur ins Wasser geben auf ein Minimum reduzieren „, sagt Dr. Yuanyuan Huang, die Leiterin der Studie.
Wissenschaftliche Ansprechpartner:
Dr. Daniel Goll
Physische Geographie mit Schwerpunkt Klimaforschung
Telefon: +49 821 598 2279
E-Mail: dsgoll123@gmail.com
Quelle: IDW
Klimafaktor Wolken – Feldkampagne „EUREC4A“ gestartet, um Klimarätsel zu entschlüsseln
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Feldstudie unter Kölner Beteiligung in Barbados erforscht die Rolle von Wolken für das Klima / Forschungsflugzeuge und -schiffe, Observatorien und Klimamodelle sollen neue Daten und Erkenntnisse liefern
Am 20. Januar 2020 startet die knapp sechswöchige Feldstudie EUREC4A (Elucidating the role of clouds-circulation coupling in climate), die durch umfangreiche Messungen in Atmosphäre und Ozean die Rolle der Wolken und der vertikalen Luftbewegung, der so genannten Konvektion, für den Klimawandel erforschen will. Die deutsch-französische Initiative mit mehr als 40 Partnern findet östlich und südlich der Karibikinsel Barbados statt. Unter Kölner Beteiligung wird EUREC4A von Professor Dr. Bjorn Stevens vom Max-Planck-Institut für Meteorologie (MPI-M) in Hamburg und Dr. Sandrine Bony vom Laboratoire de Météorologie Dynamique in Paris geleitet. Die Initiative baut auf einer jahrzehntelangen Zusammenarbeit mit Wissenschaftlern und Wissenschaftlerinnen aus Barbados am Caribbean Institute for Meteorology and Hydrology (CIMH) unter der Leitung von Dr. David Farrell auf und erweitert diese.
Wolken sind ein wesentlicher Klimafaktor. Wie die tiefen Wolken in den Regionen der Passatwinde auf die globale Erwärmung reagieren, bestimmt maßgeblich, wie schnell und intensiv zukünftige Entwicklungen verlaufen werden. Frühere Studien untersuchten die Rolle von Wolken und Konvektion im Klimasystem bisher mit Theorien und Klimamodellen. Mit den umfangreichen Messungen während der Feldstudie EUREC4A werden die Wissenschaftlerinnen und Wissenschaftler den Lebenszyklus der konvektiven Wolken in der Region im Detail studieren, um ein möglichst vollständiges Bild davon zu erhalten und bestehende Theorien und Modelle überprüfen zu können.
Analysen der Klimamodell-Vergleichsstudien über die letzten Jahrzehnte zeigten, dass eine durch die Klimaerwärmung bedingte Abnahme der Wolken in der Passatregion zu einer weiter zunehmenden globalen Erwärmung führt, eine sogenannte positive Rückkopplung. Projektleiter Professor Dr. Bjorn Stevens: „Wir werden überprüfen, ob das Verhalten von Modellen korrekt ist, die eine starke Abnahme der Bewölkung mit der Erwärmung zeigen. Falls ja, würde es bedeuten, dass höhere Schätzungen der zu erwartenden Erwärmung durch ansteigendes CO2 plausibler sind. Bei der Frage nach der Reaktion der Wolken auf den Klimawandel gibt es noch viel Unsicherheit.“
In numerischen Modellen reagieren die Passatwolken zum Beispiel unterschiedlich auf Störungen des Klimas. So sagen komplexe Klimamodelle vorher, dass das mit niedrigen Wolken bedeckte Gebiet sehr empfindlich auf die Umgebungsbedingungen reagiert, während einfachere Prozessmodelle das Gegenteil zeigen. Diese Widersprüche zu verstehen und aufzulösen, ist der Ausgangspunkt für die Feldstudie. Projektleiterin Dr. Sandrine Bony fügt hinzu: „Die Abschätzungen der Klimasensitivität sind nach wie vor sehr unsicher, und die meisten dieser Unsicherheiten sind auf die Reaktion der niedrigen Wolken in den Tropen, insbesondere in den Passatwindregionen, zurückzuführen. Die niedrigen Wolken bei Barbados sind repräsentativ für die Wolken, die in den Passatwindregionen in den gesamten Tropen zu finden sind. Daher wird das, was wir aus EUREC4A lernen werden, nicht nur unserem Verständnis der Wolken vor Barbados, sondern auch der tropischen Wolken im Allgemeinen dienen.“
Kern der Kampagne ist der Einsatz von fünf Forschungsflugzeugen, vier hochseetauglichen Forschungsschiffen, fortschrittlicher bodengestützter Fernerkundung am Barbados-Wolkenobservatorium (BCO – Barbados Cloud Observatory) des MPI-M, einer neuen Generation hochentwickelter Satellitenfernerkundungsmethoden und modernster Klimamodelle. „Erst durch diese Kombination aus vielfältigen Messungen und hochauflösenden Simulationen wird es möglich, die entscheidenden Prozesse im Detail zu analysieren und dadurch unser Verständnis zu erweitern“, erklärt Professorin Dr. Susanne Crewell vom Institut für Geophysik und Meteorologie der Universität zu Köln, die Besonderheiten des Kampagnenaufbaus.
Von deutscher Seite sind an der EUREC4A-Kampagne vier Max-Planck-Institute (MPI-M, MPI für Dynamik und Selbstorganisation, MPI für Chemie und MPI für Marine Mikrobiologie) sowie fünf Universitäten (Hamburg, Hohenheim, Köln, Leipzig und München), drei Helmholtz-Einrichtungen (Deutsches Zentrum für Luft und Raumfahrt (DLR), GEOMAR und Helmholtz-Zentrum Geesthacht Zentrum für Material- und Küstenforschung), das Leibniz-Institut TROPOS und der Deutsche Wetterdienst beteiligt.
Gefördert und unterstützt wird die EUREC4A-Kampagne durch das European Research Council (ERC), die Max-Planck-Gesellschaft (MPG), das Centre National de Recherche Scientific (CNRS), die Deutsche Forschungsgemeinschaft (DFG), das Carribean Institute for Meteorology and Hydrology (CIMH), das Natural Environment Research Council (NERC) und das Weltklimaforschungsprogramm (WCRP).
Inhaltlicher Kontakt:
Professorin Dr. Susanne Crewell
Institut für Geophysik und Meteorologie
+49 221 470-5286
susanne.crewell@uni-koeln.de
Presse und Kommunikation:
Jan Voelkel
+49 221 470-2356
j.voelkel@verw.uni-koeln.de
Weitere Informationen:
http://eurec4a.eu/
Quelle: IDW
Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder
Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder
Unter der Enzymersatztherapie überleben mehr Kleinkinder die angeborene Stoffwechselstörung. Ob auch ältere Kinder, Jugendliche und Erwachsene profitieren, ist mangels Daten unklar.
Schwache Evidenz lässt keine konkrete Aussage zum Ausmaß des Zusatznutzens zu / Evidenz zu anderen Patientengruppen fehlt
Die Hypophosphatasie (HPP) ist eine seltene erbliche Stoffwechselerkrankung, die Häufigkeit der schweren Verlaufsformen wird auf 1:100.000 geschätzt: Ein Mangel des Enzyms Phosphatase führt zu einer ungenügenden Mineralisation von Knochen und damit zu schweren Skelettfehlbildungen. Der Krankheitsverlauf variiert stark – je früher der Krankheitsbeginn, desto schwerer sind Symptome und Beschwerden. Betroffene Kleinkinder mit einem Krankheitsbeginn vor dem 6. Lebensmonat sterben oft und sehr früh daran, während bei späterem Eintreten der Krankheit die Symptomatik teilweise schwächer ausgeprägt ist.
Eine Langzeit-Enzymersatztherapie mit Asfotase alfa (Handelsname Strensiq) soll bei Patientinnen und Patienten mit HPP erstmals die Krankheitsursache, d. h. das Fehlen des Enzymes, behandeln. Zuvor war nur eine symptomatische Behandlung möglich. Als Arzneimittel zur Behandlung seltener Krankheiten (Orphan Drug) war der Wirkstoff zunächst vom wissenschaftlichen Nachweis eines Zusatznutzens ausgenommen. Mit Überschreiten von 50 Mio. Euro Jahresumsatz hat Asfotase alfa diesen Sonderstatus verloren und sein Zusatznutzen wurde mit einer frühen Nutzenbewertung von Arzneimitteln gemäß AMNOG durch das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) überprüft. Aus der Dossierbewertung ergibt sich für Kleinkinder mit Krankheitsbeginn vor dem 6. Lebensmonat ein Anhaltspunkt für einen nicht quantifizierbaren Zusatznutzen. Vor- und Nachteile für andere Patientengruppen bleiben mangels Daten unklar.
Der Hersteller berichtet in seinem Dossier von zwei einarmigen Studien zur Asfotase-Behandlung von Kleinkindern, die nur zwei Endpunkte (Gesamtüberleben und Atemfunktion) betrachten. Deren Ergebnisse vergleicht er mit Ergebnissen aus wenigen Krankenakten von Patientinnen und Patienten ohne Asfotase-Behandlung. Die beobachteten Unterschiede beim Gesamtüberleben zwischen den beiden Vergleichsgruppen sind so groß, dass sie sich nicht allein auf die vorhandenen Störfaktoren zurückführen lassen: Mit einer Asfotase-Behandlung überleben voraussichtlich mehr Kleinkinder als ohne eine solche Therapie.
„Kleinkinder mit einem Krankheitsbeginn bis zum 6. Lebensmonat profitieren voraussichtlich von einer Behandlung mit dem Medikament – bessere Behandlungsverläufe als bisher sind möglich. Angesichts der großen Krankheitslast insbesondere bei Kindern und Jugendlichen hätten die Betroffenen aber eine bessere Studienlage und eine sorgfältigere Datenauswertung verdient“, meint Katharina Biester, Bereichsleiterin im Ressort Arzneimittel beim IQWiG.
Vergleich mit historischen Kontrollgruppen
Das Herstellerdossier liefert Daten aus zwei kleinen einarmigen Studien (2008-2016) mit einer Asfotase alfa-Behandlung von insgesamt 80 Kleinkindern mit einem Krankheitsbeginn bis zum 6. Lebensmonat: 11 Kinder waren ≤ 36 Monate alt und 69 ≤ 5 Jahre. Deren Ergebnisse vergleicht der Hersteller mit historischen Daten zu einer symptomatischen Behandlung ohne Afotase alfa auf Basis von Krankenakten von 48 Kleinkindern mit perinataler oder infantiler Hypophosphatasie: Zum Zeitpunkt der Datenerhebung (2012-2013) waren 35 Patientinnen und Patienten mit Krankenakten bereits verstorben und 13 noch am Leben. Geboren waren die Patientinnen und Patienten zwischen 1970 und 2011 und die Diagnosephase erstreckte sich über drei Jahrzehnte.
Neben dem primären Endpunkt Gesamtüberleben und verschiedenen Operationalisierungen zum Erfassen der Atemfunktion wurden in der Studie auf Basis von Krankenakten allerdings keine weiteren Endpunkte untersucht. Die in die Erhebung eingeschlossenen Patientinnen und Patienten erhielten sowohl medikamentöse als auch nicht medikamentöse unterstützende Maßnahmen.
Studiendaten mangelhaft aufbereitet
Die Aufbereitung der Studiendaten im Herstellerdossier ist intransparent und erschwert dadurch das Ableiten eines konkreten Zusatznutzens. So bleibt der Anteil der Patientinnen und Patienten mit perinatalem Krankheitsbeginn unklar. Es finden sich zudem inkonsistente Angaben zu denselben Daten an unterschiedlichen Stellen im Dossier, bisweilen sind diese sogar widersprüchlich. Dass der Hersteller zur zweckmäßigen Vergleichstherapie (Best supportive Care, BSC) ohne Begründung auf eine systematische Recherche verzichtet, ist wissenschaftlich nicht sauber, denn der Studienpool ist dadurch potenziell unvollständig.
Allerdings ist der Effekt beim Gesamtüberleben zumindest so deutlich, dass er nicht allein auf potenzielle Verzerrungen zurückzuführen ist. Deshalb recherchierten die Wissenschaftlerinnen und Wissenschaftler des IQWiG für die Population der Kleinkinder mit perinataler oder infantiler HPP nicht nur nach zusätzlich relevanten Daten zur zweckmäßigen Vergleichstherapie, sondern schätzten auf Basis von Informationen in den Studienunterlagen auch den Anteil der Patientinnen und Patienten mit perinatalem Krankheitsbeginn.
Zusatznutzen nur für eine Patientengruppe
Die Unterschiede zwischen den Vergleichsgruppen lassen sich insgesamt nicht allein auf andere Störgrößen zurückführen: Mit einer Asfotase-Behandlung überleben mehr Kleinkinder mit einem Krankheitsbeginn vor dem 6. Lebensmonat. Wegen der schwachen Evidenz sind die Ergebnisse allerdings potenziell verzerrt, sodass sich daraus für Kleinkinder mit einer perinatalen oder infantilen Hypophosphatasie nicht mehr als ein Anhaltspunkt für einen nicht quantifizierbaren Zusatznutzen von Asfotase alfa gegenüber der zweckmäßigen Vergleichstherapie BSC ergibt.
Da der Hersteller für die weiteren Patientengruppen im zugelassenen Anwendungsgebiet entweder gar keine Daten (für Kleinkinder mit einem Krankheitsbeginn ab dem 6. Lebensmonat) oder keine geeigneten Daten (für Kinder ab 5 Jahre, Jugendliche, Erwachsene mit perinatalem, infantilem oder juvenilem Krankheitsbeginn) vorgelegt hat, ist ein Zusatznutzen für diese Patientinnen und Patienten jeweils nicht belegt.
Bessere Studiendaten für eine bessere Versorgung
Das Fazit der Nutzenbewertung schließt sich an die Einschätzung des Gemeinsamen Bundesausschusses (G-BA) nach der Zulassung im Jahr 2015 an: Seine Forderung nach weitergehender Evidenz, um den Betroffenen eine verlässliche, zweckmäßige und wirtschaftliche Versorgung zu sichern, wurde allerdings nicht erfüllt.
Deswegen lässt sich für einen Großteil der Betroffenen (Altersgruppe ab fünf Jahre) kein Zusatznutzen ableiten. Der rechtlich unterstellte Zusatznutzen für Orphan Drugs geht auch in diesem Fall mit unzureichenden Daten einher. Orphan Drugs sollten deshalb bereits bei Marktzugang einer frühen Nutzenbewertung unterzogen werden – wie alle anderen neuen Wirkstoffe auch.
Die vom Hersteller angeführte kleine randomisierte kontrollierte Studie (RCT) zur Altersgruppe ab 13 Jahre lässt sich mangels Zulassungskonformität für diese Dossierbewertung nicht heranziehen. Sie zeigt aber einmal mehr, dass auch zur Untersuchung von seltenen Erkrankungen RCT durchführbar sind. Mit adäquater Dosierung und mehr Studienteilnehmern, wäre vermutlich ein verlässlicheres Ergebnis für den Zusatznutzen und damit für die Versorgung zu erreichen gewesen – denn allein in Deutschland gibt es unter den gesetzlich Versicherten potenziell ca. 1000 Patientinnen und Patienten mit HPP.
G-BA beschließt über Ausmaß des Zusatznutzens
Die Dossierbewertung ist Teil der frühen Nutzenbewertung gemäß Arzneimittelmarktneuordnungsgesetz (AMNOG), die der G-BA verantwortet. Nach Publikation der Dossierbewertung führt der G-BA ein Stellungnahmeverfahren durch und fasst einen abschließenden Beschluss über das Ausmaß des Zusatznutzens.
Einen Überblick über die Ergebnisse der Nutzenbewertung des IQWiG gibt folgende Kurzfassung. Auf der vom IQWiG herausgegebenen Website gesundheitsinformation.de finden Sie zudem allgemein verständliche Informationen.
Originalpublikation:
https://www.iqwig.de/de/projekte-ergebnisse/projekte/arzneimittelbewertung/2019/…
Weitere Informationen:
https://www.iqwig.de/de/presse/pressemitteilungen/2020/asfotase-alfa-bei-hypopho…
Quelle: IDW
TU Graz-Forschende entschlüsseln Verhalten von Wassermolekülen
Mag., MSc Christoph Pelzl Kommunikation und Marketing
Technische Universität Graz
Mit einer neuen experimentellen Methode geben Forscher der TU Graz in Nature Communications erstmals Einblicke in die Bewegung von Wassermolekülen. Die Ergebnisse könnten helfen, Geräte noch robuster gegenüber rauen Umweltbedingungen zu machen.
Wasser ist eine geheimnisvolle Substanz. Sein Verhalten auf atomarer Ebene zu verstehen, bleibt eine Herausforderung für Experimentalphysikerinnen und -physiker, da die leichten Wasser- und Sauerstoffatome mit herkömmlichen experimentellen Methoden schwer zu beobachten sind. Das trifft vor allem zu, wenn man die mikroskopischen Bewegungen von einzelnen Wassermolekülen beobachten möchte, die innerhalb von Pikosekunden auf einer Oberfläche ablaufen. In ihrer Arbeit „Nanoscopic diffusion of water on a topological insulator“ konnten Forscher der Arbeitsgruppe „Exotic Surfaces“ des Instituts für Experimentalphysik der TU Graz gemeinsam mit Forschenden vom Cavendish Laboratory, der University of Surrey und der Aarhus University nun einen großen Fortschritt erzielen und das Verhalten von Wasser auf einem derzeit besonders interessanten Material erforschen: dem topologischen Isolator Bismuttellurid. Bismuttellurid könnte für den Bau von Quantencomputern eingesetzt werden. Wasserdampf wäre dann ein Umwelteinfluss, dem aus Bismuttellurid gebaute Anwendungen im realen Betrieb ausgesetzt sein könnten.
Kombination aus Experiment und Theorie
Das Forschungsteam kombinierte für seine Untersuchungen theoretische Berechnungen mit einer neuen experimentellen Methode, der Helium-Spin-Echo-Spektroskopie. Dabei werden Heliumatome mit sehr niedriger Energie genutzt, die es erlauben, isolierte Wassermoleküle zu beobachten, ohne dabei deren Bewegung zu beeinflussen. Die Forschungsgruppe fand heraus, dass sich Wassermoleküle auf Bismuttellurid gänzlich anders verhalten, als auf Standardmetallen. Auf herkömmlichen Materialien zeigen Wassermoleküle anziehende Bewegungen und bilden Ansammlungen in Form von Wasserfilmen. Bei topologischen Isolatoren ist genau das Gegenteil der Fall: Die Wassermoleküle stoßen einander ab, und bleiben auf der Oberfläche isoliert.
Bismuttellurid scheint somit relativ unempfindlich gegenüber Wasser zu sein. Dies ist ein großer Vorteil für Anwendungen, die unter herkömmlichen Umweltbedienungen funktionieren müssen. Weitere Experimente an ähnlich aufgebauten Oberflächen sind bereits in Planung und sollen klären ob die Bewegung der Wassermoleküle auf spezielle Eigenschaften der untersuchten Oberfläche zurückzuführen ist.
Dieser Forschungsbereich ist an der TU Graz im Field of Expertise Advanced Materials Science angesiedelt, einem von fünf wissenschaftlichen Stärkefeldern der TU Graz.
Infobox: Die Arbeit wurde auf der Website von Nature Communications unter https://www.nature.com/articles/s41467-019-14064-7 veröffentlicht.
Wissenschaftliche Ansprechpartner:
Dr. Anton TAMTÖGL
TU Graz | Institut für Experimentalphysik
Petersgasse 16, 8010 Graz, Österreich
Tel.: +43 316 873 8143
tamtoegl@tugraz.at
iep.tugraz.at
Originalpublikation:
Tamtögl, A., Sacchi, M., Avidor, N. et al. Nanoscopic diffusion of water on a topological insulator. Nat Commun 11, 278 (2020) doi:10.1038/s41467-019-14064-7
Weitere Informationen:
https://www.tugraz.at/tu-graz/services/news-stories/medienservice/einzelansicht/… (Pressemeldung TU Graz)
https://www.tugraz.at/institute/iep/forschung/surfaces/ (Website der Arbeitsgruppe Exotic Surfaces des Instituts für Experimentalphysik der TU Graz)
https://www.tugraz.at/forschung/fields-of-expertise/advanced-materials-science/u… (Überblick Advanced Materials Science der TU Graz)
Quelle: IDW
Der Partner-Pay-Gap ist weiter vorherrschend – Männer bleiben die Haupt-Brotverdiener in Doppelverdienerhaushalten
Sylvia Nagel Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Ein Team aus vier Wissenschaftlerinnen hat untersucht, wie sich die Einkommensverteilung zwischen den Geschlechtern in Paarhaushalten von 1992 bis 2016 entwickelt und ob sich der sogenannte Partner-Pay-Gap verringert hat. Dabei zeigt sich: Der Beitrag von Frauen zum Haushaltseinkommen bleibt weiterhin hinter dem der Männer zurück und liegt zwischen 35 (Westdeutschland) und 45 (Ostdeutschland) Prozent. Dabei gibt es interessante Unterschiede zwischen den verschiedenen Einkommensgruppen.
In Fragen der Geschlechtergerechtigkeit spielen das Erwerbsverhalten von Frauen und ihre Zugangs- und Arbeitsmarktchancen eine tragende Rolle: mit Konsequenzen für ihre finanzielle Unabhängigkeit und im Hinblick auf ihre Altersvorsorge. Dies gilt auch für Paarhaushalte. Hier herrschte lange Zeit das Modell des männlichen (Allein-)Ernährers vor, in dem Frauen allenfalls einen Zuverdienst zum Haushaltseinkommen erbrachten. Dieses Modell setzt Frauen und ihre Kinder einem Armutsrisiko im Falle einer Trennung aus, und auch unser Rentensystem benachteiligt Hinterbliebene in Partnerschaften, wenn sie weniger eigene Rentenanwartschaften aufbringen als die Hauptverdiener.
Martina Dieckhoff, Vanessa Gash, Antje Mertens und Laura Romeu Gordo haben mit Daten des Sozioökonomischen Panels untersucht, wie sich die Anteile am Haushaltseinkommen zwischen Männern und Frauen im Zeitverlauf entwickelt haben.
Es zeigt sich für den Beobachtungszeitraum sowohl in Ost- als auch in Westdeutschland eine Zunahme an Doppelverdienerhaushalten: In Westdeutschland ist der Anteil von 51 Prozent im Jahr 1992 bis auf rund 79 Prozent in 2016 angewachsen und liegt damit ähnlich hoch wie in Ostdeutschland. Hier gab es von einem höheren Ausgangsniveau von 63 Prozent ausgehend im Jahr 1992 einen Zuwachs auf 78 Prozent. In beiden Teilen ist der Anstieg von 2005 an stärker verlaufen als in den Jahren zuvor. Dies fällt mit der Einführung der Hartz-Reformen, einer stärkeren Deregulierung des Arbeitsmarkts und die damit verbundene Zunahme an Teilzeitbeschäftigung sowie einer Zunahme an Möglichkeiten zur Kinderbetreuung zusammen.
Der Verdienstunterschied in Paarhaushalten scheint demgegenüber ziemlich veränderungsresistent: Ein Zuwachs an Einkommensgleichheit ist kaum zu verzeichnen, obwohl die Partnerschaften in der Mehrheit homogen hinsichtlich ihrer Bildungsabschlüsse und damit ihres Verdienstpotentials sind. In beiden Teilen Deutschlands ist der Anteil am Haushaltseinkommen von Frauen geringer als der von den Männern. In Westdeutschland lässt sich ein geringfügiger Anstieg bei den Frauen um drei Prozentpunkte von rund 32 Prozent auf rund 35 Prozent verzeichnen. In Ostdeutschland ist der Einkommensunterschied in der Partnerschaft geringer, der Anteil der Frauen am Haushaltseinkommen hat aber um ein Prozentpunkt abgenommen (von 44% auf 43%). Dass der Beitrag der Frauen zum Haushaltseinkommen in Ostdeutschland höher ist als in Westdeutschland, lässt sich vermutlich teilweise auf die Einkommen der ostdeutschen Männer zurückführen, die substanziell weniger verdienen als westdeutsche Männer, während die Einkommensunterschiede zwischen Frauen in Ost- und Westdeutschland weniger ausgeprägt sind. Ein weiterer Erklärungsfaktor für die Unterschiede zwischen Ost- und Westdeutschland sind unterschiedliche soziale Normen insbesondere mit Blick auf die Arbeitszeit von Müttern.
Es zeigt sich außerdem, dass die Größe des Partner-Pay-Gaps mit der wirtschaftlichen Stellung der Haushalte variiert: in Paarhaushalten mit Männern im unteren Drittel der Einkommensverteilung haben Frauen einen größeren Anteil am Haushaltseinkommen als mit Partnern im obersten Drittel der Einkommensverteilung. Und auch hier zeigen sich Ost-/ Westunterschiede. Während in Ostdeutschland Frauen mit Partnern aus dem unteren Einkommensdrittel Verdienstgleichheit erreichen, bleiben westdeutsche Frauen mit einem Anteil von um die 40 Prozent am Haushaltseinkommen dahinter zurück. Ostdeutsche Frauen mit Partnern aus dem oberen Einkommensdrittel erreichen zwischen 30 und 40 Prozent des Haushaltseinkommens, während westdeutsche Frauen in diesem Fall mit zwischen 24 und 32 Prozent zum Haushaltseinkommen beitragen. Auch im mittleren Drittel haben die ostdeutschen Frauen einen größeren Beitrag am Haushaltseinkommen (Osten: zwischen 40 und 46 Prozent; Westen: zwischen 29 und 35 Prozent). Der leichte Anstieg des Haushaltsbeitrags von Frauen in Westdeutschland zwischen 1992 und 2016 ist hauptsächlich durch Paare im mittleren und oberen Einkommenssegment getragen. In Ostdeutschland hingegen hat sich der Anteil der Frauen am Haushaltseinkommen im oberen Einkommenssegment um drei Prozentpunkte sogar verringert, während die Frauen aus dem unteren und mittleren Segment einen schwachen Zuwachs zwischen zwei und drei Prozentpunkten erreichten.
Analysen aus Modellrechnungen weisen darauf hin, dass besonderes Teilzeitbeschäftigung der Frauen sowie das Vorhandensein von Kindern (in Westdeutschland stärker als in Ostdeutschland), atypische und befristete Beschäftigung des Partners Einflussfaktoren für den Haushaltsbeitrag der Frauen sind. Und der eigene Bildungsabschluss hat einen größeren Einfluss auf den Haushaltsbeitrag von Frauen mit Partnern aus dem unteren Einkommenssegment als mit Partnern aus dem oberen Einkommenssegment.
Insgesamt zeigt die Studie eine persistierende ökonomische Ungleichheit in doppelverdienenden Paarhaushalten, die robust gegen politischen und institutionellen Wandel zu sein scheint.
Originalpublikation:
Dieckhoff, M., Gash, V., Mertens, A., & Romeu Gordo, L. (2020). Partnered women’s contribution to household labour income: Persistent inequalities among couples and their determinants. Social Science Research, Vol. 85 (https://doi.org/10.1016/j.ssresearch.2019.102348).
Quelle: IDW
Grünere Frühlinge verursachen trockenere Sommer auf der Nordhalbkugel
Michael Hallermayer Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg
Satelliten zeigen, dass Pflanzen in der nördlichen Hemisphäre mit zunehmendem Kohlendioxid (CO2) in der Atmosphäre darauf reagieren, indem sie den Blattaustrieb vorantreiben und die Pflanzenproduktivität im Frühjahr verbessern. Gleichzeitige Messungen von Wetterstationen in der gesamten Region lassen darauf schließen, dass Dürren und Hitzewellen im Sommer häufiger und länger anhalten. Obwohl diese beiden Phänomene zu verschiedenen Jahreszeiten auftreten, zeigen die neuesten Erkenntnisse, dass es Verbindungen zwischen ihnen gibt.
Ein Forscherteam der Peking-Universität in China und der Universität Augsburg hat in Zusammenarbeit mit weiteren Forscherinnen und Forschern aus Deutschland, Großbritannien, Spanien, Belgien, Frankreich, Australien und den USA festgestellt, dass die frühere Begrünung des Frühlings einen großen Wasserverlust durch Verdunstung verursacht. Dieser Verlust erhöht das Risiko von Bodenfeuchtigkeitsdürren und Hitzeextremen in den folgenden Sommermonaten, so die jüngste in der Fachzeitschrift Science Advances veröffentlichte Studie.
Die Forscher entdeckten diesen Zusammenhang zwischen den Jahreszeiten mit statistischen Methoden, indem sie Satellitenbilder von steigendem Frühlingsgrün mit denen von sinkender Sommerbodenfeuchtigkeit verknüpften. Sie stellen außerdem sicher, dass diese Verknüpfung in Klimamodellen repliziert werden kann.
„Wie eine frühere Begrünung die Bodenfeuchtigkeit beeinflusst, ist tatsächlich komplexer als bisher angenommen. Eine frühere Begrünung führt zu schnelleren Wasserverlusten, indem mehr Wasser in die Atmosphäre gepumpt wird. Das „verlorene Wasser“ verschwindet jedoch nicht, ein Teil davon kehrt später als Niederschlag über Land zurück. Wir zeigen, dass dieser Mechanismus die durch Begrünung bedingten Wasserverluste verringert, da sonst die Oberflächentrocknung wesentlich intensiver ausfallen würde. Der Rest des „verlorenen Wassers“ kehrt jedoch nicht lokal als Niederschlag zurück, da die Atmosphäre es zu verschiedenen geografischen Orten transportiert“, sagte Xu Lian von der Universität Peking, der der Hauptautor dieser Studie ist.
Professor Buermann vom Geographischen Institut der Universität Augsburg und Mitautor der Studie sagte: „Diese Forschung befasst sich mit einer der größten Herausforderungen für die Klimaforschung, nämlich der Quantifizierung des Beitrags von Wechselwirkungen zwischen Biosphäre und Atmosphäre zu den gegenwärtig auftretenden extremen Wetterereignissen wie den Dürren in den nördlichen Breiten in 2018. Die in unserer Studie festgestellten inter-saisonalen Prozesse können teilweise für anhaltende Extreme verantwortlich sein und dürften die sommerliche Bodenfeuchtigkeit und die terrestrischen Ökosysteme unter dem fortschreitenden Klimawandel zusätzlich unter Druck setzen. “
„Hydrologische Kompromisse wie die frühzeitige Begrünung im Frühling im Vergleich zur potenziell erhöhten Bräunung oder Dürre im Sommer sind ein weiteres Beispiel für die komplexen und oft unerwarteten Wechselwirkungen des Klimawandels mit Ökosystemen“, fügte Alan Knapp, Professor für Ökologie an der Colorado State University, hinzu der nicht an der Studie beteiligt war, „Diese Analyse bietet neue Erkenntnisse in dieser Hinsicht und schlägt wichtige neue Forschungspfade vor, um zu verstehen, wie sich der Klimawandel auf die Ökosysteme auswirken kann, von denen wir abhängig sind.“
Professor Josep Peñuelas vom Nationalen Forschungsrat von Spanien fügte hinzu: „Diese Untersuchung deutet auf einen oft übersehenen positiven Feedback hin: Steigende Treibhausgaskonzentrationen und die damit verbundene Erwärmung verursachen eine frühere Vegetationsphänologie, die die Sommerbodenfeuchtigkeit verringert, was wiederum die durch die globale Erwärmung verursachten Sommerhitze Extremereignisse weiter verstärkt“.
Der in der Studie identifizierte Zusammenhang von „grüneren Frühlingen verursachen trockenere Sommer“ hält nicht überall an. Eine Ausnahme stellen landwirtschaftliche Gebiete dar, in denen die intensive Bewässerung die durch die Begrünung hervorgerufenen Signale außer Kraft setzt. Eine andere herausragende Ausnahme ist Mittelsibirien, wo das Vegetationswachstum zwar auch früher einsetzt, jedoch die Böden im Sommer feuchter sind, und diese zusätzliche Bodenfeuchtigkeit wird wahrscheinlich durch die Atmosphärische Zirkulation aus Europa übertragen, wo durch Begrünung und erhöhte Verdunstungsraten sich feuchtere Luftmassen bilden.
„Dies ist eine faszinierende `Teleconnection´ in unserem Erdsystem, die durch die Veränderung des Klimas durch den Menschen und den damit verbundenen Auswirkungen auf terrestrische Ökosysteme ausgelöst wird“, sagte Dr. Tim R. McVicar von der Commonwealth Scientific and Industrial Research Organization (CSIRO), Australien.
„Diese Forschung trägt zu den wachsenden Beweisen bei, dass der Klimawandel nicht einfach so ablaufen wird, das alles gleich ist, außer den erhöhten Hintergrundtemperaturen. Stattdessen wird der Klimawandel hochkomplexe Wechselwirkungen innerhalb des Planetensystems auslösen, die lokal zu erheblichen Veränderungen führen können „, fügte Chris Huntingford vom Centre for Ecology and Hydrology, UK, hinzu.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Wolfgang Buermann
Physische Geographie mit Schwerpunkt Klimaforschung
Telefon: +49 821 598 2662
wolfgang.buermann@geo.uni-augsburg.de
Originalpublikation:
Xu Lian, Shilong Piao, Laurent Z. X. Li, Yue Li, Chris Huntingford, Philippe Ciais, Alessandro Cescatti, Ivan A. Janssens, Josep Peñuelas, Wolfgang Buermann, Anping Chen, Xiangyi Li, Ranga B. Myneni, Xuhui Wang, Yilong Wang, Yuting Yang, Zhenzhong Zeng, Yongqiang Zhang, Tim R. McVicar: Summer soil drying exacerbated by earlier spring greening of northern vegetation. Im: Science Advances03 Jan 2020: eaax0255
Weitere Informationen:
https://advances.sciencemag.org/content/6/1/eaax0255 Publikation
Quelle: IDW
Meeresspiegel-Anstieg oder Temperaturerhöhung: Klimaziel neu definiert
Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg
Statt eine Obergrenze für den globalen Temperaturanstieg festzulegen, könnte die Staatengemeinschaft auch eine Obergrenze für den Anstieg des Meeresspiegels vereinbaren. Falls man letzteren für die wesentliche Folge des Klimawandels hält, wäre ein direktes Meeresspiegel-Ziel langfristig wirksamer und kostengünstiger. Dies zeigt eine Studie des Exzellenzclusters für Klimaforschung CLICCS der Universität Hamburg, die im Fachjournal „Science Advances“ erschienen ist.
Bisher orientieren sich Ziele zum Klimaschutz stets an der weltweiten Durchschnittstemperatur. Laut dem Klimaabkommen von Paris soll die mittlere Erwärmung auf zwei Grad oder besser noch 1,5 Grad Celsius begrenzt werden. Ein Forschungsteam der Universität Hamburg und des Max-Planck-Instituts für Meteorologie hat diese Begrenzung nun in Meeresspiegel-Ziele umgewandelt und so neu definiert. Durch die Arbeit soll ein Diskurs angeregt werden, ob und wie Klimaziele angepasst werden sollten, sobald mehr Wissen über die Folgen des Klimawandels vorhanden ist.
Die Temperaturerhöhung trägt dreifach zum Anstieg des Meeresspiegels bei: durch das Abschmelzen von Gebirgsgletschern, von Eisschilden und durch Ausdehnung des Meerwassers durch die zusätzliche Wärme. Weil diese Prozesse langwierig sind, würde der Meeresspiegel auch bei sofortigem Stopp aller Treibhausgas-Emissionen noch Jahrhunderte weiter steigen. Entscheidend für den Anstieg des Meeresspiegels ist, zu welchem Zeitpunkt weltweit wieviel Kohlendioxid (CO2) ausgestoßen wird. Hier sind verschiedene Varianten denkbar, die Emissionspfade genannt werden. Allgemein gilt, je früher die Emissionen auf null sinken, desto eher verlangsamt sich auch der Meeresspiegel-Anstieg.
Für ihre Berechnungen nahmen die Forscher das Zwei-Grad-Ziel als Ausgangspunkt. Hier wird bis zum Jahr 2200 ein Anstieg des Meeresspiegels von weltweit rund 0,89 Metern erwartet. Dieser Wert wird nun als neue Obergrenze für den Meeresspiegel-Anstieg gesetzt. Mithilfe von Rechenmodellen ermittelte das Team, auf welchem Emissionspfad dieses Ziel erreicht werden kann.
Im Vergleich zum Temperaturziel erlaubt der neue Pfad zunächst höhere Emissionen, aber etwa ab dem Jahr 2100 müssten die Emissionen komplett auf null gedrosselt werden. 2200 werden so das Meeresspiegel- und das globale Temperaturziel erreicht. „Der neue Pfad ist deutlich nachhaltiger, da er auch noch nach 2200 den Anstieg des Meeresspiegels stärker abbremst“, sagt Chao Li vom Exzellenzcluster für Klimaforschung und Hauptautor der Studie.
Mithilfe eines ökonomischen Modells konnten die Forscher zeigen, dass ein am Temperatur-Ziel orientiertes Meeresspiegel-Ziel auch kostengünstiger wäre. „Es macht finanziell einen Unterschied, zu welchem Zeitpunkt wie viel CO2 reduziert wird“, sagt Hermann Held, Co-Autor der Studie. „Sich am Meeresspiegel zu orientieren, gäbe der Gesellschaft mehr Zeit für Innovationen und technische Anpassungen. Das ist sinnvoll, wenn der Meeresspiegelanstieg als das drängendste Problem der Erderwärmung betrachtet wird.“
Das Team betont, dass es sich zunächst um grundsätzliche Berechnungen handele. Die Ergebnisse belegten aber, dass lebensnähere Klimaziele zugleich mehr Sicherheit und mehr Spielräume eröffnen können.
Für Rückfragen:
Stephanie Janssen
Universität Hamburg
CEN – Centrum für Erdsystemforschung und Nachhaltigkeit / Öffentlichkeitsarbeit / Outreach
CLICCS – Exzellenzcluster für Klimaforschung
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de
Weitere Informationen:
https://www.cliccs.uni-hamburg.de/de/about-cliccs/news/2020-news/2020-01-09-sea-… CLICCS-Webseite
https://advances.sciencemag.org/content/6/2/eaaw9490 Fachpublikation: Li C, Held H, Hokamp S, Marotzke J (2019): Optimal temperature overshoot profile found by limiting global sea-level rise as a lower-cost climate target; Science Advances
Quelle: IDW
Immer gegen den Uhrzeigersinn
Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Rätsel frühneolithischer Hausausrichtungen endlich gelöst
Menschliches Verhalten wird von vielen Dingen beeinflusst, die uns meist unbewusst bleiben. Dazu gehört ein Phänomen, das unter Wahrnehmungspsychologen unter dem Begriff „Pseudoneglect“ bekannt ist. Damit bezeichnen sie die Beobachtung, dass gesunde Menschen ihr linkes Gesichtsfeld gegenüber dem rechten bevorzugen und deshalb eine Linie regelhaft links der Mitte teilen. Eine am Freitag, 10. Januar, in der Online-Zeitschrift PLOS ONE veröffentlichte Studie zeigt nun erstmals, welchen Effekt diese unscheinbare Abweichung in der prähistorischen Vergangenheit hatte.
Menschliches Verhalten wird von vielen Dingen beeinflusst, die uns meist unbewusst bleiben. Dazu gehört ein Phänomen, das unter Wahrnehmungspsychologen unter dem Begriff „Pseudoneglect“ bekannt ist. Damit bezeichnen sie die Beobachtung, dass gesunde Menschen ihr linkes Gesichtsfeld gegenüber dem rechten bevorzugen und deshalb eine Linie regelhaft links der Mitte teilen.
Eine am Freitag, 10. Januar, in der Online-Zeitschrift PLOS ONE veröffentlichte Studie zeigt nun erstmals, welchen Effekt diese unscheinbare Abweichung in der prähistorischen Vergangenheit hatte. Ein slowakisch-deutsches Forschungsteam hat die Ausrichtung frühneolithischer Häuser in Mittel- und Osteuropa untersucht. Wissenschaftlerinnen und Wissenschaftlern des Sonderforschungsbereiches (SFB) „TransformationsDimensionen“ der Christian-Albrechts-Universität zu Kiel (CAU) und der Slowakischen Akademie der Wissenschaften gelang dabei der Nachweis, dass die Orientierung neu gebauter Häuser um einen kleinen Betrag von derjenigen bereits bestehender Bauwerke abweicht und dass diese Abweichung regelhaft gegen den Uhrzeigersinn erfolgte.
Archäologe Dr. Nils Müller-Scheeßel, der die Studie innerhalb des SFB koordinierte, sagt dazu: „Seit langem geht man in der Forschung davon aus, dass die frühneolithischen Häuser ungefähr eine Generation, dass heißt 30 bis 40 Jahre gestanden haben und in regelmäßigen Abständen neue Häuser neben bereits bestehenden errichtet werden mussten. Durch Altersbestimmungen mithilfe der Radiokarbonmethode können wir nun zeigen, dass die Neuerrichtung mit einer kaum wahrnehmbaren Drehung der Hausachse gegen den Uhrzeigersinn verbunden war. Wir sehen ‚Pseudoneglect‘ als wahrscheinlichste Ursache dafür.“
Möglich wurde diese Erkenntnis durch die Interpretation eines der zur Zeit am schnellsten wachsenden archäologischen Datenbestände, nämlich der Ergebnisse geophysikalischer Magnetikmessungen. Dabei werden Unterschiede im Erdmagnetfeld dazu genutzt, um im Untergrund liegende archäologische Befunde sichtbar zu machen. Frühneolithische Hausgrundrisse gehören zu den am besten identifizierbaren Befundgattungen.
„In den letzten Jahren haben wir in unserem Arbeitsgebiet in der Südwestslowakei mit geophysikalischen Prospektionsmethoden Hunderte von frühneolithischen Häusern entdeckt. Diese Häuser alle auszugraben ist weder möglich noch aus denkmalpflegerischen Gründen überhaupt wünschenswert. Die Möglichkeit, über ‚Pseudoneglect‘ die Häuser ohne Ausgrabung in eine relative Abfolge zu bringen und damit das Siedlungsgeschehen einer ganzen Kleinregion aufzuschlüsseln, hebt unsere Forschung auf ein ganz neues Niveau“, äußert sich Müller-Scheeßel begeistert. „Die absolute Datierung mit naturwissenschaftlichen Methoden muss selbstverständlich in jedem Fall die Grundtendenz bestätigen.“
In der Studie wird ferner auf vergleichbare archäologische Beobachtungen an anderen Orten und Zeiten verwiesen, die zeigen, dass ähnliche Orientierungsveränderungen auch für jüngere prähistorische Perioden zuzutreffen scheinen. Die Bedeutung von „Pseudoneglect“ reicht also weit über die Datierung frühneolithischer Häuser hinaus.
Originalpublikation:
Müller-Scheeßel N, Müller J, Cheben I, Mainusch W, Rassmann K, Rabbel W, et al. (2020) A new approach to the temporal significance of house orientations in European Early Neolithic settlements. PLoS ONE 15(1): e0226082. https://doi.org/10.1371/journal.pone.0226082 (nach Ende der Sperrfrist)
Bilder stehen zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2020/005-luftbild.jpg
Luftbild der Ausgrabungsfläche einer frühneolithischen Siedlung bei Vráble in der Slowakei.
© Nils Müller-Scheeßel
http://www.uni-kiel.de/de/pressemitteilungen/2020/005-magnetmessung.jpg
Vorbereitung für die geophysikalische Untersuchung einer Fläche bei Vráble. Das Messgerät, das über den Boden gezogen wird, zeichnet magnetische Anomalien unter der Oberfläche auf. Dadurch werden archäologische Befunde wie Hausgrundrisse sichtbar.
© Martin Furholt
http://www.uni-kiel.de/de/pressemitteilungen/2020/005-magnetikplan.jpg
Magnetischer Plan einer frühneolithischen Siedlung. Jeweils zwei der dunklen Linien mit einer Länge von 20 bis 30 Metern bilden den Teil eines Hauses ab.
© Nils Müller-Scheeßel
Mehr Informationen im Internet:
http://www.sfb1266.uni-kiel.de
Kontakt:
Dr. Nils Müller-Scheeßel
Institut für Ur- und Frühgeschichte
Christian-Albrechts-Universität zu Kiel
E-Mail: nils.mueller-scheessel@ufg.uni-kiel.de
Telefon: 0431/880-2067
Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Angelika Hoffmann
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: www.uni-kiel.de Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni Instagram: www.instagram.com/kieluni
Wissenschaftliche Ansprechpartner:
Dr. Nils Müller-Scheeßel
Institut für Ur- und Frühgeschichte
Christian-Albrechts-Universität zu Kiel
E-Mail: nils.mueller-scheessel@ufg.uni-kiel.de
Telefon: 0431/880-2067
Originalpublikation:
Müller-Scheeßel N, Müller J, Cheben I, Mainusch W, Rassmann K, Rabbel W, et al. (2020) A new approach to the temporal significance of house orientations in European Early Neolithic settlements. PLoS ONE 15(1): e0226082. https://doi.org/10.1371/journal.pone.0226082
Weitere Informationen:
http://www.uni-kiel.de/de/universitaet/detailansicht/news/005-uhrzeigersinn
Quelle: IDW
Die Wärmewende beginnt im Stadtteil – Konzepte für den urbanen Raum entwickelt
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Forschungsprojekt „Urbane Wärmewende“ entwickelt Wärmeversorgungskonzepte für Quartiere und Wärmenetze
► Im Fokus: Nutzung lokaler erneuerbarer Wärmequellen und Abwärme, Wärmeplanung, Resilienz und Sozialverträglichkeit
► Folgeprojekt konzentriert sich zwei weitere Jahre auf die kommunale Wärmeplanung
Eine der Herkulesaufgaben, um die Klimaziele zu erreichen, ist es, den CO2-Ausstoß der Wärmeversorgung radikal zu senken. Eine Forschergruppe unter Leitung des Instituts für ökologische Wirtschaftsforschung (IÖW) zeigt, wie Städte sich sozialverträglich von Kohle, Öl und Gas abwenden können. Im Projekt „Urbane Wärmewende“ wurden mögliche Beiträge von erneuerbaren Energien und lokalen Wärmequellen in Berliner Stadtquartieren untersucht. „Abwärme aus Betrieben, Wärme aus Abwasser oder Geothermie werden bislang kaum genutzt. Der Schlüssel für solche umweltfreundliche Wärme sind Quartierskonzepte und Wärmenetze“, so Projektleiter Bernd Hirschl vom IÖW. „Eine wichtige Voraussetzung ist ein effizienterer Gebäudebestand. Nur wenn der Wärmebedarf deutlich gesenkt wird, können umweltfreundliche Wärmequellen effizient genutzt werden.“
In dem dreijährigen Projekt erarbeite das Projektteam aus IÖW, Universität Bremen und Technischer Universität Berlin gemeinsam mit der Berliner Senatsverwaltung für Umwelt, Verkehr und Klimaschutz mit Förderung des Bundesforschungsministeriums lokale Wärmekonzepte für drei Berliner Quartiere. Ende des Jahres 2019 diskutierten sie ihre Ergebnisse mit der Wärmebranche in Berlin, die Dokumentation der Tagung ist jetzt online auf http://www.urbane-waermewende.de.
Keimzellen für die Wärmewende erschließen
„Bisherige Quartierskonzepte waren oft zu komplex, hatten zu viele verschiedene Akteure und landeten am Ende oft in der Schublade. Deshalb empfehlen wir einen Keimzellenansatz“, so Elisa Dunkelberg vom IÖW. Dies können etwa öffentliche Gebäude, Neubauvorhaben, gewerbliche Gebäude oder Wohnungsbaugesellschaften und -genossenschaften sein.
Für ein Altbauviertel im Bezirk Charlottenburg-Wilmersdorf zeigen die Forscher, wie ein solches Quartierskonzept aussehen kann: Zunächst muss der Wärmebedarf durch eine energetische Sanierung gesenkt werden. Die Wärme kann über eine Abwasser-Wärmepumpe, die zum Teil mit vor Ort erzeugtem Solarstrom betrieben wird, in Kombination mit Kraft-Wärmekopplung erzeugt werden. „Vor allem bei öffentlichen Gebäuden, die eine – in Berlin gesetzlich verankerte – Vorreiterrolle haben, sollte im Sanierungsfall und bei Neubauten immer geprüft werden, ob sie sich als Keimzelle für ein Quartierskonzept und die Mitversorgung umliegender Gebäude eignen“, betont Dunkelberg.
Klimaneutrale Fernwärme: Abwärme und Erneuerbare nutzen
Fernwärme spielt in urbanen Räumen eine große Rolle. „Um klimaneutral zu werden, ist es wichtig, lokale Wärmequellen aus Abwasser, Flusswasser und Geothermie sowie aus Abwärme mehr in die Fernwärme zu integrieren“, so Hirschl. Dabei muss auch auf die Resilienz des Wärmeerzeugungssystems geachtet werden. Eine gemeinsame Fallstudie mit dem Fernheizwerk Neukölln zeigt, dass es möglich ist, lokale Wärmequellen zu nutzen. Aber es muss technisch erprobt werden und es braucht unterstützende, finanzielle Maßnahmen. Nächste Schritte müssten nun etwa Probebohrungen für tiefe Geothermie sein sowie Pilotanlagen, die Abwasser- oder Flusswasserwärme durch Groß-Wärmepumpen für die Fernwärme bereitstellen. Für die Investition in die teils unerprobten und hochinvestiven Technologien braucht es Strategien zur Förderung und Risikoabsicherung.
Wärmewende erfordert kommunale strategische Wärmeplanung – und Sozialverträglichkeit
„Um die identifizierten Potenziale zu erschließen, hilft eine kommunale Wärmeplanung, wie sie in Vorreiterländern wie Dänemark bereits seit Langem und in anderen Bundesländern und Kommunen seit einiger Zeit vorgeschriebene Praxis ist“, betont Hirschl. Grundlage hierfür ist ein Wärmekataster, das die Wärmequellen wie Abwasser und gewerbliche Abwärme sichtbar macht. Damit können auch Quartiere für gebäudeübergreifende Konzepte identifiziert werden. Mit der Sektorenkopplung kommt es zudem darauf an, dass Kommunen und Städte infrastrukturübergreifend planen. Instrumente wie die Bauleitplanung und städtebauliche Verträge sind auf Klimaneutralität auszurichten.
Geringe Sanierungsraten der letzten Jahre zeigen, dass rein anreizbasierte Maßnahmen nicht ausreichen, um die energetische Modernisierung sicherzustellen. Deshalb empfehlen die Forscherinnen und Forscher, die Vorschriften stärker umzusetzen und einen Stufenplan zu entwickeln, der den Gebäudebestand in Richtung Klimaneutralität führt. Gleichzeitig müssen Zuschüsse erhöht und Konditionen für die Umlage auf die Miete sozialverträglicher werden. Ein Stufenplan unter den Bedingungen eines Mietendeckels muss so ausgestaltet werden, dass die energetische Modernisierung sowohl für Vermieter als auch für Mieterinnen wirtschaftlich zumutbar ist.
Bundesforschungsministerium finanziert Projekt „Urbane Wärmewende“ zwei weitere Jahre
Das Bundesforschungsministerium fördert das Projekt in neuer Partnerkonstellation für zwei weitere Jahre, um Lösungsstrategien für die zentralen Hemmnisse bei der Umsetzung zu erproben und die Forschungsergebnisse in einer kommunalen Wärmeplanung zu verankern. Partner sind neben dem IÖW die Berliner Wasserbetriebe und die Rechtskanzlei Becker Büttner Held.
Infografiken zur Wärmewende in der Stadt:
http://www.urbane-waermewende.de/publikationen/infografiken.html
Über das Projekt:
Das Projekt Urbane Wärmewende untersucht am Beispiel der Stadt Berlin, welche Optionen es für eine umwelt- und klimaschonende Wärmeversorgung geben kann. Im Projekt wird analysiert, wie Wärme-, Gas- und Strominfrastrukturen intelligent miteinander vernetzt werden können und welche Governance- und Beteiligungsformen dafür notwendig sind. Dabei fokussiert das Projekt auf konkrete Gebiete in Berliner Bezirken und entwickelt und analysiert Transformationsszenarien gemeinsam mit Umsetzungsakteuren aus Wirtschaft und Verwaltung.
Das Projekt wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) in der Förderinitiative „Nachhaltige Transformation urbaner Räume“ des Förderschwerpunkts Sozial-ökologische Forschung (SÖF). Projektpartner sind neben dem Institut für ökologische Wirtschaftsforschung (Gesamtprojektleitung) die Berliner Senatsverwaltung für Umwelt, Verkehr und Klimaschutz, die Technische Universität Berlin (Institutionenökonomie, Wärmeplanung) und die Universität Bremen (Resilienz). Informationen und Infografiken zu den inhaltlichen Schwerpunkten des Projektes auf www.urbane-waermewende.de
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung
Telefon: +49-30-884 594-16
E-Mail: richard.harnisch@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Über 60 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de
Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung
Telefon: +49-30-884 594-36
E-Mail: elisa.dunkelberg@ioew.de
Weitere Informationen:
http://www.urbane-waermewende.de
https://www.urbane-waermewende.de/publikationen/infografiken.html
Anhang
Infografik: Wärmewende in der Stadt
https://idw-online.de/de/attachment78970
Quelle: IDW
Nicht Ost-West macht den Unterschied, sondern oben und unten
Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Studie zeigt Einfluss von Einkommen und Bildung auf Gefühl der Wertschätzung in Deutschland
93 Prozent der Menschen in Deutschland fühlen sich in ihrem Alltag wertgeschätzt, Geringschätzung erfahren deutlich weniger – jedoch immer noch jeder Zweite (52 Prozent). Die meisten Menschen erfahren Wertschätzung vor allem in der Familie und im Freundeskreis, wohingegen Erfahrungen der Geringschätzung eher in öffentlichen Bereichen, wie zum Beispiel dem Arbeitsplatz, gemacht werden. Ostdeutsche und Westdeutsche fühlen sich im Alltag gleichermaßen wertgeschätzt, große Unterschiede bestehen aber nach Einkommen, Bildung und Erwerbsstatus.
Das zeigte eine Studie der Otto-von-Guericke-Universität Magdeburg. Die Soziologen Christian Schneickert, Jan Delhey und Leonie Steckermeier haben untersucht, wer sich in Deutschland in welchen Lebensbereichen wert- oder geringgeschätzt fühlt. Anhand eines von ihnen entwickelten Fragemoduls für die Innovationsstichprobe des Sozio-oekonomischen Panels kamen sie zu durchaus überraschenden Ergebnissen, so Prof. Delhey.
So seien die Alltagserfahrungen der Wert- und Geringschätzung in Deutschland durchaus ungleich verteilt. Dabei mache die sogenannte Schichtposition einen großen Unterschied: Je höher das Einkommen und die Bildung einer Person, desto besser fällt auch die Wertschätzungsbilanz aus. „Auch der Erwerbsstatus ist wichtig“, so Delhey weiter, „denn im Gegensatz zu Erwerbstätigen erfahren Arbeitslose weit weniger Wertschätzung und mehr Geringschätzung.“ Keinen Unterschied hingegen mache die regionale Herkunft: Ost- und Westdeutsche fühlen sich im Alltag gleichermaßen wert- und geringgeschätzt. Auch Menschen mit Migrationshintergrund unterschieden sich in ihrer Wertschätzungsbilanz nicht vom Rest der Bevölkerung.
„Wer sich für die ungleiche Verteilung von Wert- und Geringschätzung im alltäglichen gesellschaftlichen Miteinander interessiert, ist zumindest für Deutschland gut beraten, sich stärker der sozio-ökonomischen Ungleichheit zu widmen als der sozio-kulturellen Unterschiedlichkeit“, schlussfolgert Christian Schneickert.
Darüber hinaus haben die Forscher auch untersucht, welche Folgen Geringschätzung und Wertschätzung für die Betroffenen und die Gesellschaft haben. Dabei zeigt sich, dass die positiven und negativen Alltagserfahrungen nicht nur die persönliche Lebenszufriedenheit, sondern auch die Zufriedenheit mit der Demokratie deutlich beeinflussen.
Die Studie entstand im Rahmen des Projekts „Anerkennung, Abwertung und Erfolgsstreben“ am Lehrstuhl Makrosoziologie der Otto-von-Guericke-Universität Magdeburg und wurde von der Deutschen Forschungsgemeinschaft DFG finanziert.
Für die empirischen Analysen wurden Daten einer bevölkerungsrepräsentativen Stichprobe von 3.580 Personen in Deutschland im Jahr 2016 ausgewertet. Die Daten wurden im Rahmen der Innovationsstichprobe als Teil des Sozio-oekonomischen Panels erhoben und ermöglichen erstmals detaillierte Einblicke in die Verbreitung und Bedeutung von alltäglichen Erfahrungen von Wert- und Geringschätzung.
Die Studie, die in der renommierten Kölner Zeitschrift für Soziologie und Sozialpsychologie erschienen ist, kann kostenfrei heruntergeladen werden: http://link.springer.com/article/10.1007/s11577-019-00640-8
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Delhey, Institut für Gesellschaftswissenschaften, Universität Magdeburg, Tel.: +49 391 67-56537, E-Mail: jan.delhey@ovgu.de
Originalpublikation:
Christian Schneickert, Jan Delhey & Leonie C. Steckermeier (2019): Eine Krise der sozialen Anerkennung? Ergebnisse einer Bevölkerungsbefragung zu Erfahrungen der Wert- und Geringschätzung in Deutschland. Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 72, H. 4
Quelle: IDW
Nervenschmerzen frühzeitig verhindern
Unangenehmes Kribbeln in Händen und Füßen, Taubheitsgefühle, Pelzigkeit und Brennen – diese Symptome können auf eine Neuropathie, eine Erkrankung des Nervensystems hindeuten. Dauern die Schmerzen mehrere Monate an, wer-den sie als chronisch bezeichnet. Sie sind dann nur sehr schwer zu behandeln, wobei verfügbare Medikamente oftmals gravierende Nebenwirkungen haben. Forscherinnen und Forscher am Institutsteil Translationale Medizin und Pharma-kologie TMP des Fraunhofer-Institut für Molekularbiologie und Angewandte Oekologie IME haben einen Weg gefunden, um die Entwicklung von neuropathischen Schmerzen frühzeitig zu unterbinden.
Etwa fünf Millionen Menschen in Deutschland leiden an neuropathischen Schmerzen.Sie entstehen durch Schädigungen des peripheren oder zentralen Nervensystems. Die Ursachen sind vielfältig: Oftmals treten die Missempfindungen nach Operationen, beispielsweise bei Bypass-OPs, oder Unfällen auf, etwa wenn das Rückenmark verletzt ist. Auch Phantomschmerzen, unter denen nicht wenige Patienten nach einer Amputation leiden, zählen zu den neuropathischen, mechanisch induzierten Schmerzen. Typisch ist eine Veränderung der Hautsensibilität. Reize wie Kälte, Hitze oder Berührungen werden stärker oder kaum empfunden. Problematisch wird es, wenn der Schmerz sich verselbständigt und chronisch wird. Die Lebensqualität der Betroffenen ist dann erheblich beeinträchtigt. Häufig können sie ihren Beruf nicht mehr ausüben, sie vernachlässigen Freizeitbeschäftigungen und Freundschaften. Die Folgen sind Isolation, Resignation und Depression.
Die Entwicklung von neuropathischen, trauma-induzierten Schmerzen, die nach Operationen oder Unfällen häufig auftreten, muss so früh wie möglich unterbunden werden. Denn sind die neuropathischen Schmerzen erst einmal entstanden, wirken Therapien nur noch eingeschränkt. Hinzu kommt, dass die entspechenden Medikamente starke Nebenwirkungen haben.
Wenn Immunzellen zum Feind werden
Hier setzen Forscherinnen und Forscher des Fraunhofer IME in Frankfurt an. Sie for-schen an alternativen Therapien für die frühzeitige Behandlung von neuropathischen Schmerzen. In Tests konnten sie nachweisen, dass verschiedene Lipide, die als Signalmoleküle bei Verletzungen freigesetzt werden, die Entzündungsreaktionen an den beschädigten Nerven steuern. »Die Nerven schlagen Alarm und setzen Lipide frei, um dem Immunsystem zu signalisieren, dass eine Verletzung vorliegt und die Ursache beseitigt werden muss«, sagt Prof. Dr. Klaus Scholich, Gruppenleiter Biomedizinische Analytik und Imaging am Fraunhofer IME. »Bei neuropathischen Schmerzen werden die angelockten Immunzellen nach einiger Zeit zum Feind. Sie interagieren derart mit den Nerven, dass die betroffenen Areale permanent entzündet sind. Die Nervenschmerzen können nicht mehr abflauen, sie werden chronisch. Indem wir Signalwege unter-brechen, die Immunzellen anlocken, können wir die Schmerzen deutlich verringern.« Möglich ist dies beispielsweise durch den rechtzeitigen Einsatz von Schmerzmitteln wie Ibuprofen und Diclofenac. Frühzeitig verabreicht, können diese Medikamente die Her-stellung des Lipids Prostaglandin E2 stoppen, das eine entscheidende Rolle bei trauma-induzierten Schmerzen spielt, da es sowohl die Nerven sensibilisiert als auch das Immunsystem aktiviert.
Darüber hinaus bindet Prostaglandin E2 den Rezeptor EP3. Neuronen, die diesen Rezeptor aufweisen, setzen das Signalmolekül CCL2 frei. Dieses fördert wiederum die Schmerzentwicklung entscheidend, da es immer neue Immunzellen zu den verletzten Nerven lockt und auch selbst die Schmerzwahrnehmung verstärkt, wie die IME-Forscher in ihren Untersuchungen herausfanden. »Wir konnten die nachgeschalteten Mechanis-men aufklären, die über Entzündungsreaktionen die Entstehung neuropathischer Schmerzen begünstigen«, erläutert Prof. Scholich. »Der Rezeptor EP3 erkennt das Prostaglandin E2. Indem man nun den EP3 ausschaltet und somit die CCL2-Freisetzung hemmt, kann man die Schmerzentstehung deutlich verringern.« Das CCL2 ließe sich mit therapeutischen, spezifischen Antikörpern abfangen. Diese Antikörper könnten bei chronischen Schmerzen zum Einsatz kommen, wenn herkömmliche Arzneimittel wie Ibuprofen nicht mehr wirken. Der Nachteil: Antikörper müssen gespritzt werden. Da dies von den meisten Patienten als unangenehm empfunden wird, forschen Scholich und seine Kolleginnen und Kollegen an alternativen Wirkstoffen, die sich oral verabreichen lassen. Ihre Ergebnisse haben die Forscher in der renommierten Fachzeitschrift »Journal of Biological Chemistry« veröffentlicht.
Die Fraunhofer-Gesellschaft ist die führende Organisation für angewandte Forschung in Europa. Unter ihrem Dach arbeiten 72 Institute und Forschungseinrichtungen an Standorten in ganz Deutschland. Mehr als 26 600 Mitarbeiterinnen und Mitarbeiter erzielen das jährliche Forschungsvolumen von 2,6 Milliarden Euro. Davon fallen 2,2 Milliarden Euro auf den Leistungsbereich Vertragsforschung. Rund 70 Prozent dieses Leistungsbereichs erwirtschaftet die Fraunhofer-Gesellschaft mit Aufträgen aus der Industrie und mit öffentlich finanzierten Forschungsprojekten. Internationale Kooperationen mit exzellenten Forschungspartnern und innovativen Unternehmen weltweit sorgen für einen direkten Zugang zu den wichtigsten gegenwärtigen und zukünftigen Wissenschafts- und Wirtschaftsräumen.
Quelle: Fraunhofer
Dünger aus Klärschlamm
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Ab 2032 müssen große Kläranlagen Phosphate aus dem Klärschlamm, bzw. der Asche zurückgewinnen – das besagt die neue Abfall- und Klärschlammverordnung. Bisherige Technologien dazu sind jedoch chemikalien- und kostenintensiv. Eine neue Technologie bietet nun eine wirtschaftliche und umweltfreundliche Alternative. Fraunhofer-Forscherinnen und Forscher zeichnen für die Aufskalierung des Verfahrens verantwortlich.
Hobbygärtner dürften es kennen: Ohne Düngemittel gedeihen Blumen, Kohlrabi, Tomaten und Co. nur mäßig. Landwirte setzen beim Düngen vor allem auf phosphathaltige Präparate, schließlich ist Phosphor ein elementarer Bestandteil allen Lebens und wird auch von Pflanzen dringend benötigt. Was die Lieferkette von Phosphor angeht, existiert jedoch ein Nadelöhr – 75 Prozent der Phosphatlagerstätten liegen in Marokko und der westlichen Sahara. Wie kritisch das werden kann, zeigte sich in den Jahren 2008 und 2009: Durch Lieferengpässe und Spekulationen an den Rohstoffmärkten stieg der Phosphorpreis um 800 Prozent. Die Europäische Kommission nahm Phosphor daher in die Liste der 20 kritischen Rohstoffe auf. Auch die Bundesregierung reagierte: Ab 2023 müssen Betreiber großer Kläranlagen ein Konzept vorlegen, wie der Phosphor zurückzugewinnen ist. Zwar kann die Klärschlammasche auch direkt auf die Felder ausgebracht werden, allerdings können die Pflanzen den darin enthaltenen Phosphor nicht in nennenswertem Maße verwerten. Dazu kommt: Die Asche enthält auch Schadstoffe wie Schwermetalle, die nicht auf den Acker gelangen sollten. Zwar gibt es bereits erste Ansätze, den Phosphor über nasschemische Verfahren aus der Klärschlammasche zurückzugewinnen. Jedoch sind hierfür große Mengen an Chemikalien nötig.
Phosphor rückgewinnen: Kostengünstig, pflanzenverfügbar und umweltschonend
Einen alternativen Ansatz verfolgt die P-bac Technologie, die Experten der Firma Fritzmeier Umwelttechnik GmbH & Co. KG entwickelt und im Projekt »Phosphorrecycling – vom Rezyklat zum intelligenten langzeitverfügbaren Düngemittel – PRil« gemeinsam mit der Fraunhofer-Einrichtung für Wertstoffkreisläufe und Ressourcenstrategie IWKS in Alzenau,und der ICL Fertilizers Deutschland GmbH vom Labormaßstab in den Technikumsmaßstab übertragen haben. Das Projekt wurde vom Bundesministerium für Ernährung und Landwirtschaft gefördert.
»Wir haben die Aufskalierung des Verfahrens im Bereich der Prozesswasserrezyklierung sowie der Reststoffverwertung, Wirtschaftlichkeitsbetrachtungen und Analytik begleitet«, erläutert Dr. Lars Zeggel, Projektleiter am Fraunhofer IWKS. »Der Phosphor, den wir über das neuartige Verfahren aus der Asche zurückgewinnen, hat eine Pflanzenverfügbarkeit von 50 Prozent, bezogen auf einen wasserlöslichen Phosphatdünger. Zum Vergleich: Das Phosphat in der reinen Klärschlammasche ist nahezu gar nicht pflanzenverfügbar.« Zudem ist das enthaltene Substrat weitgehend schadstofffrei, die relevanten Schadstoffe können um mehr als 90 Prozent reduziert werden. Auch was die Kosten angeht, kann sich das Düngemittel aus recyceltem Klärschlamm sehen lassen, wie eine Wirtschaftlichkeitsbetrachtung des Fraunhofer IWKS ergab: Etwa zwei Euro pro Kilogramm kostet das so hergestellte Phosphat, während der Preis bei der Herstellung über nasschemische Verfahren bei mindestens vier bis sechs Euro pro Kilogramm liegt. Zwar ist der Phosphor aus recycelten Quellen bislang noch teurer als der primäre Phosphor aus Marokko, der bei 70 Cent pro Kilogramm P2O5 liegt. Doch enthält der primäre Phosphor im Gegensatz zum recycelten zunehmend Schadstoffe wie Cadmium und Uran.
Bakterien machen es möglich
Das Verfahren, mit dem der Phosphor aus dem Klärschlamm zurückgewonnen wird, hat die Firma Fritzmeier entwickelt. Der Clou: Statt Chemikalien wie Schwefelsäure zur Klärschlammasche zu geben, überlassen die Experten Bakterien das Feld. Diese nehmen Kohlenstoffdioxid aus der Luft auf – schaffen somit also einen weiteren Vorteil – und stellen unter Zugabe von elementarem Schwefel selbst Schwefelsäure her, mit dem sie den Phosphor aus der Asche lösen. Andere Bakterien nehmen den Phosphor unter geschickt gewählten Lebensbedingungen auf, reichern ihn an und geben ihn unter anderen Lebensbedingungen wieder ab: Es fällt festes Eisenphosphat aus, das von der Laugungslösung abgetrennt werden kann.
Die Forscher des Fraunhofer IWKS widmeten sich unter anderem dem Prozesswasser. »Um ein Liter Klärschlammasche zu rezyklieren, sind etwa zehn Liter Prozesswasser nötig«, sagt Zeggel. Nach der Abtrennung des Phosphats lässt es sich direkt für die erneute Vermehrung der Bakterien verwenden, und muss erst nach einigen Zyklen entsalzt werden. »Wir haben die Membranfiltration soweit anpassen können, dass wir 98 Prozent des eingesetzten Sulfats – also den Schwefel – aus dem Wasser entfernen und letztendlich 75 Prozent des Prozesswassers im Kreis führen können«, fasst Zeggel zusammen. Damit reduziert sich die Menge des zu entsorgenden Prozesswassers erheblich und führt zu hohen Einsparungen an Energie. Das Verfahren ist somit nicht nur sehr umweltschonend, sondern es fällt auch ein großer Kostenfaktor weg. Denn die Energie, die zum Verdampfen des Wassers aufgewendet werden müsste, ist einer der größten Kostentreiber. Mit der Membranfiltration konnte das Forscherteam die Betriebskosten erheblich senken. Das Gesamtverfahren ist bereits im Hundert-Liter-Maßstab einsatzbereit.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/duenger-aus-…
Quelle: IDW
Klimafreundliche Energie aus Abwärme
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Die Deutsche Physikalische Gesellschaft (DPG) verleiht ihren Technologietransferpreis an das Start-up Orcan Energy, den Lehrstuhl für Energiesysteme der Technischen Universität München (TUM) und das Team Patente und Lizenzen der TUM. Sie zeichnet damit die erfolgreiche Erforschung, Patentierung und Produkteinführung einer Technologie aus, mit der Abwärme in Strom umgewandelt werden kann.
Jeden Tag gehen enorme Mengen an Energie in der Industrie und im Verkehr ungenutzt verloren. In der Produktion und an Motoren entsteht Abwärme. Um diese zu verwerten, entwickelte ein Team am Lehrstuhl für Energiesysteme der TUM eine neue Technologie, die zur Stromerzeugung in Fabriken, Blockheizkraftwerken, Schiffen und vielen weiteren Industrieprozessen eingesetzt werden kann.
Das einfach zu installierende Gerät funktioniert wie ein Dampfkraftwerk, nur dass zum Antrieb der Turbinen eine organische Flüssigkeit statt Wasser eingesetzt wird, die schon bei niedrigen Temperaturen verdampft. Dieses Prinzip, Organic Rankine Cycle (ORC) genannt, nutzt das Team für eine Technologie, die kleine Mengen an Abwärme effizient nutzbar macht und ohne großen Aufwand betrieben werden kann.
Mehr als 100 Patente
Das Team Patente und Lizenzen im Hochschulreferat Forschungsförderung und Technologietransfer (ForTe) meldete für die TUM mit Unterstützung der Bayerischen Patentallianz die ersten Erfindungen zum Patent an. 2008 gründeten Richard Aumann, Dr. Andreas Sichert und Dr. Andreas Schuster Orcan Energy und erwarben die Patente. Inzwischen halten sie mehr als 100 Patente und haben aus dem Start-up ein Unternehmen mit rund 60 Mitarbeiterinnen und Mitarbeitern entwickelt. Orcan Energy hat weltweit bereits mehr als 200 Anlagen verkauft, die insgesamt rund 30 Gigawattstunden Strom produziert haben, ohne CO2 zu freizusetzen. Damit gilt das Unternehmen als weltweit führender Anbieter von ORC-Energietechnologie.
Der DPG-Technologietransferpreis wird am 31. März 2020 auf der Jahrestagung der Deutschen Physikalische Gesellschaft in Bonn überreicht. Die TUM hat die Gründer 2016 mit ihrem Presidential Entrepreneurship Award ausgezeichnet.
Mehr Informationen:
Die TUM meldet jedes Jahr rund 70 Erfindungen ihrer Wissenschaftlerinnen und Wissenschaftler zum Patent an. TUM ForTe Patente & Lizenzen berät und unterstützt bei der Sicherung geistigen Eigentums und bei der Verwertung von Patenten. Teams, die neue Technologien auf den Markt bringen wollen, fördern TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, mit Programmen für jede Phase einer Unternehmensgründung. Bis zu 30 Teams gleichzeitig können Büros im TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit dem eigenen Venture Capital Fonds UVC in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace und der Bio.Kitchen eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau und ein Biotechnologielabor. Jedes Jahr werden an der TUM mehr als 70 Technologieunternehmen gegründet.
Weitere Informationen:
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/details/35154/
Gründungsförderung an der TUM
Quelle: IDW
Neue Wirkstoffe gegen multiresistente Keime
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Resistenzen gegen Antibiotika nehmen weltweit ständig zu. Im Projekt Phage4Cure gehen Fraunhofer-Forscherinnen und -Forscher gemeinsam mit Partnern neue Wege: Ziel ist es, multiresistente Keime mit Viren, sogenannten Bakteriophagen, zu bekämpfen. Insbesondere gegen den gefürchteten Krankenhauskeim Pseudomonas aeruginosa, häufigster bakterieller Verursacher von Lungenentzündungen, sollen Phagen als zugelassenes Arzneimittel etabliert werden.
Laut Weltgesundheitsorganisation WHO nehmen Antibiotikaresistenzen weltweit alarmierende Ausmaße an. Sie drohten hundert Jahre medizinischen Fortschritts zunichtezumachen, so WHO-Generalsekretär Tedros Adhanom Ghebreyesus. Eine Lösung dafür zu finden, sei eine der dringendsten Herausforderungen im Gesundheitsbereich. Hier setzt das Projekt Phage4Cure (siehe Kasten) an: Die Projektpartner, darunter das Fraunhofer-Institut für Toxikologie und Experimentelle Medizin ITEM in Braunschweig, wollen Bakterienviren, auch als Bakteriophagen oder Phagen bezeichnet, im Kampf gegen bakterielle Infektionen einsetzen. Phagen sind Viren, die in Bakterien eindringen, sich in ihnen vermehren und die Bakterien zum Platzen bringen. Der Vorteil der Phagen: Sie greifen nur ihr spezielles Wirtsbakterium an, haben keinen Einfluss auf Körperzellen und andere Bakterien. In Deutschland gibt es bislang keine zugelassenen Phagenpräparate, daher wollen die Phage4Cure-Partner Phagen als neues Medikament etablieren. »Die Phagentherapie an sich ist nicht neu, in den Ländern der ehemaligen Sowjetunion wurde sie jahrzehntelang erfolgreich eingesetzt. Doch hierzulande konnte sich diese individualspezifische Behandlung nicht durchsetzen. Dies liegt insbesondere an den fehlenden klinischen Studien. Angesichts der Antibiotikaresistenzen rücken die Phagen jedoch immer mehr in den Fokus der Forschung, zumal die pharmazeutische Industrie keine neuen Antibiotika entwickelt«, sagt Prof. Holger Ziehr, Projektleiter am Fraunhofer ITEM.
Phagen als ergänzende Therapie
Die Projektpartner erarbeiten eine neue Phagentherapie, die die Auswahl erfolgversprechender Phagen, den Herstellungsprozess, die pharmazeutische Herstellung, die präklinischen Studien sowie die klinischen Prüfungen umfasst. Zunächst soll ein inhalierbarer Wirkstoffcocktail aus drei Bakteriophagen gegen das multiresistente Bakterium Pseudomonas aeruginosa entwickelt werden, das weltweit die häufigste bakterielle Ursache von Lungenentzündungen bei Mukoviszidose-Patienten, aber auch von Harnwegsinfekten ist und sogar zur Blutvergiftung führen kann. Der neue Wirkstoff soll europäischen Richtlinien für Arzneimittel genügen. Davon profitieren würden erst einmal Mukoviszidose-Patienten. Aber das ist erst der Anfang: »Unser Ziel ist es, Phagen als zusätzliche Therapie für verschiedene Infektionskrankheiten zu entwickeln – vor allem dort, wo Antibiotika nicht mehr wirken«, so der Forscher.
Für den Herstellungsprozess ist das Fraunhofer ITEM verantwortlich. Hierbei werden Bakterien, in diesem Fall Pseudomonas aeruginosa, in Bioreaktoren herangezogen. »Haben diese eine bestimmte Zelldichte erreicht, geben wir Phagen dazu, die den Vermehrungszyklus solange durchlaufen, bis alle Bakterien zerstört sind und eine klare Brühe mit Phagen übrigbleibt, aus der wir im nächsten Schritt pharmazeutisch aufreinigen«, erklärt der Biochemiker. Der Herstellungsprozess ist plattformartig aufgebaut, das heißt er ist mit nur geringen Veränderungen auch auf andere Phagen übertragbar. Das Fraunhofer ITEM bekommt die Phagen von der DSMZ (siehe Kasten) zur Verfügung gestellt.
Wirksamer Phagen-Cocktail indentifiziert
Die Phagen werden als Cocktail für den Patienten zusammengestellt. Im Projekt wurden zunächst klinische Bakterienisolate von Mukoviszidose-Patienten gesammelt. Die DSMZ ermittelte anschließend Phagen, die in der Lage sind, die Isolate aufzulösen. »Beim Screening konnten drei Phagen mit einem möglichst breiten Wirtsspektrum identifiziert werden, die zusammen 70 Prozent der 150 Isolate zerstören. Von hundert Patienten könnten wir also etwa 70 mit unserem Phagen-Cocktail heilen«, so der Forscher.
Der Phagen-Herstellungsprozess ist mittlerweile am Fraunhofer ITEM etabliert. Im nächsten Schritt wird eine Erweiterung der seit mehr als 20 Jahren bestehenden Herstellungserlaubnis beantragt, um die drei Phagen und aus diesen anschließend den Cocktail als pharmazeutisch einsetzbaren Klinikprüfstoff produzieren zu können. Im Frühjahr soll im Hannoveraner Institutsteil des Fraunhofer ITEM die präklinische Forschung starten. »Mittlerweile sind zwei weitere Phagenprojekte dazugekommen. Im Projekt PhagoFlow forschen wir an Bakteriophagen zur schnellen Behandlung von Wundsepsis. Im Projekt Phage2Go entwickeln wir Phagen für die inhalative MRSA-Therapie«, erläutert Ziehr die weiteren Forschungsvorhaben zur Behandlung bakterieller Infektionen.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/neue-wirksto…
Quelle: IDW
Neues Jahr, mehr Gehalt? Wann sich der kritische Blick auf die Gehaltsabrechnung auszahlt, welche Informationen helfen
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Es ist wohl ein Klassiker unter den guten Vorsätzen für das Neue Jahr: Mit dem Chef oder der Chefin endlich einmal über das eigene Gehalt sprechen. Wer nicht nach einem Tarifvertrag bezahlt wird, ist dabei oft auf sich allein gestellt. Einer der wichtigsten Erfolgsfaktoren für die Gehaltsverhandlung ist eine realistische Einschätzung der angestrebten Gehaltserhöhung.
Insbesondere für Beschäftigte im ersten Drittel ihrer Karriere und für Hochqualifizierte sind hier unter Verweis auf die gestiegene Berufserfahrung durchaus beachtliche Steigerungen möglich. Für alte Hasen und Beschäftigte in einfacheren Tätigkeiten hilft hingegen eher ein Vergleich mit den Gehältern, die bei der Konkurrenz gezahlt werden. Zu diesem Ergebnis kommt eine Auswertung von 195.000 Datensätzen des Portals Lohnspiegel.de, das vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut wird.
„Am Anfang des Berufslebens wächst der eigene Erfahrungsschatz besonders schnell und viele übernehmen im Betrieb neue Verantwortlichkeiten“, sagt Dr. Malte Lübker, Experte für Tarif- und Einkommensanalysen am WSI. „Das macht einen für den Arbeitgeber wertvoller – und mit etwas Verhandlungsgeschick lässt sich das in barer Münze auszahlen.“ So verdienen Beschäftigte mit fünf Jahren Berufserfahrung im Mittel 13 Prozent mehr als Neueinsteiger, mit zehn Jahren liegt der Vorsprung bereits bei 22 Prozent. Als Faustregel gilt dabei: Je höher die eigene Qualifikation, desto größer fallen die Gehaltszuwächse mit gestiegener Erfahrung aus (siehe auch die Grafik in der pdf-Version dieser Pressemitteilung; Link unten). Nach 20 Jahren im Beruf verdienen Hochqualifizierte im Durchschnitt etwa 46 Prozent mehr als Anfänger im gleichen Beruf; bei den Helfer- und Anlerntätigkeiten beträgt das Plus hingegen nur 19 Prozent.
Gerade für Beschäftigte in einfacheren Tätigkeiten ist deshalb der Verweis auf die Gehälter bei anderen Arbeitgebern häufig das beste Argument. Was genau machbar ist, hängt dabei neben dem Beruf und der eigenen Berufserfahrung von einer Reihe weiterer Faktoren ab. So zahlen größere Betriebe meistens besser, und das Gehaltsniveau unterscheidet sich auch regional zum Teil erheblich. Das WSI-Portal Lohnspiegel.de bietet deshalb für über 500 Berufe einen Lohn- und Gehaltscheck an, der diese Faktoren berücksichtigt und so individualisierte Vergleichsberechnungen ermöglicht. Das Angebot ist kostenlos und ohne Registrierung oder Angabe einer Email-Adresse nutzbar. Eine gute Orientierung bieten auch die Tarifvergütungen, die vom WSI-Tarifarchiv für zahlreiche Berufe und Branchen zusammengestellt werden. Eine weitere Informationsquelle ist der Entgeltatlas der Bundesagentur für Arbeit.
„Der kritische Blick auf die eigene Gehaltsabrechnung ist besonders wichtig, wenn der Arbeitgeber keinen Tarifvertrag anwendet“, sagt Gehaltsexperte Lübker. Nach Daten des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) arbeiteten im Jahr 2018 nur noch 54 Prozent der Beschäftigten in einem tarifgebundenen Betrieb, verglichen mit 68 Prozent im Jahr 2000. Tarifverträge sehen neben den von den Gewerkschaften ausgehandelten Lohnerhöhungen häufig auch Erfahrungsstufen vor, mit denen das Gehalt bei längerer Betriebszugehörigkeit in regelmäßigen Abständen automatisch ansteigt. „Wenn der Tarifvertrag fehlt, hat man es da leider häufig deutlich schwerer“, so Lübker. Das ist einer von mehreren Gründen, warum Arbeitnehmer in Unternehmen ohne Tarifvertrag im Schnitt gut zehn Prozent weniger verdienen als vergleichbare Beschäftigte in tarifgebundenen Betrieben der gleichen Branche und ähnlicher Größe.
Wichtig für das Gehaltsgespräch: Einmal ausgehandelt, bleibt die Steigerung in der Regel bestehen und ist zugleich Ausgangsbasis für die nächste Gehaltsverhandlung. Außerdem gilt: Die Löhne wachsen allgemein in Deutschland. Nach Berechnungen des WSI-Tarifarchivs stiegen die Tariflöhne im Jahr 2019 um 3 Prozent, nach einem ähnlichen Wachstum im Vorjahr.
Nur mit einer Gehaltsforderung gewappnet sollte sich freilich niemand in eine Gehaltsverhandlung begeben. Überzeugend wird der eigene Auftritt, wenn man weitere Argumente parat hat: Was ist der eigene Beitrag zum Erfolg des Unternehmens? Wo hat man sich als guter Teamplayer erwiesen, welche Aufgaben sind in der letzten Zeit dazugekommen? „Langfristig bleibt es jedoch der beste Ansatz, sich mit anderen zusammenzutun, um den Arbeitgeber dazu zu bewegen, Tariflöhne zu zahlen“, sagt WSI-Experte Lübker.
– Informationen zur Methode –
Die Daten des Portals Lohnspiegel.de beruhen auf einer kontinuierlichen Online-Umfrage unter Erwerbstätigen in Deutschland. Für die Analyse wurden 194.792 Datensätze berücksichtigt, die seit Anfang 2017 erhoben wurden. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Die Berechnungen zu den Gehaltsunterschieden nach Berufserfahrung beziehen sich auf die Bruttoverdienste ohne Sonderzahlungen und auf Arbeitnehmer im gleichen Beruf und mit ähnlichen Eigenschaften. Der Lohnspiegel ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung.
Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
Die Pressemitteilung mit Grafik (pdf): https://www.boeckler.de/pdf/pm_ta_2020_01_03.pdf
Weitere Informationen:
http://Der Lohn- und Gehaltscheck des WSI-Portals Lohnspiegel.de bietet Vergleichsberechnungen: https://www.lohnspiegel.de/html/gehaltscheck.php
http://Einen Überblick der Tarifvergütungen in zahlreichen Berufen und Branchen findet sich auf den Seiten des WSI-Tarifarchivs: https://www.boeckler.de/wsi-tarifarchiv_4874.htm
http://Der Entgeltatlas der Bundesagentur für Arbeit bietet Angaben zu den mittleren Verdiensten in zahlreichen Berufen: https://entgeltatlas.arbeitsagentur.de
Quelle: IDW
Artemisinin-Resistenz bei Malariaparasiten entschlüsselt
Dr. Eleonara Schönherr Presse- und Öffentlichkeitsarbeit
Bernhard-Nocht-Institut für Tropenmedizin
Die Arbeitsgruppe um Tobias Spielmann am Bernhard-Nocht-Institut für Tropenmedizin (BNITM) hat den Mechanismus identifiziert, der für die Resistenz gegen das zurzeit wichtigste Malariamedikament Artemisinin verantwortlich ist. Dabei spielt das Parasitenprotein Kelch13 eine Schlüsselrolle. Die Ergebnisse, die die Hamburger Gruppe zusammen mit Kooperationspartnern von der Radboud Universität in Nijmegen aus den Niederlanden erzielt haben, wurden heute in der Fachzeitschrift Science veröffentlicht (Birnbaum & Scharf et al. 2020).
Plasmodium falciparum, der Erreger der Malaria tropica, ist mit jährlich über 200 Millionen Neuinfektionen und mit über 400.000 Todesfällen einer der bedeutendsten Infektionserreger des Menschen. Um die Malaria zu behandeln, werden in erster Linie Kombinationspräparate eingesetzt, die den Wirkstoff Artemisinin enthalten. Allerdings ist der Erfolg dieser Behandlung durch Resistenzen des Erregers zunehmend bedroht. Frühere Beobachtungen hatten gezeigt, dass ein Zusammenhang zwischen Veränderungen (Mutationen) im Protein „Kelch13″ des Malariaparasiten und dem Auftreten von Artemisinin-Resistenzen besteht. Es war jedoch bislang unklar, welche Funktion Kelch13 in der Parasitenzelle ausübt und wie Kelch13-Mutationen Resistenz verursachen.
Malariaparasiten vermehren sich in roten Blutzellen und ernähren sich durch Aufnahme und Verdau des roten Blutfarbstoffs Hämoglobin. Mit Hilfe umfangreicher zellbiologischer Untersuchungen und unter Verwendung aufwendig hergestellter, gentechnisch veränderter Parasiten konnte die Arbeitsgruppe um Spielmann jetzt zeigen, dass Kelch13 mit anderen Proteinen zusammenwirkt, die für die Aufnahme des Hämoglobins in die Parasitenzelle verantwortlich sind. „Erst die Identifikation von Kelch13-Partnerproteinen hat uns den entscheidenden Hinweis gegeben, welche Funktion Kelch13 in der Parasitenzelle ausüben könnte“, beschreibt Spielmann die Arbeit seiner Gruppe. „Die gezielte Inaktivierung von Kelch13 bestätigte diese Vermutung und führte in der Tat zu einer verminderten Hämoglobin-Aufnahme.“
Weniger ist mehr: Kelch-Mutanten im Vorteil bei Artemisinineinsatz
Um seine toxische Wirkung entfalten zu können, muss Artemisinin nach Aufnahme in die Parasitenzelle aktiviert werden: Der Malariaparasit nimmt Hämoglobin auf, verdaut die Nahrung und produziert dabei Hämoglobinaubbauprodukte. Diese Abbauprodukte aktivieren in der Malariazelle den Wirkstoff Artemisinin; der Parasit stirbt.
In weiteren Experimenten, zeigten die Hamburger Wissenschaftler*innen und ihre Kollaborationspartner, dass die bekannten Kelch13-Mutationen die Hämoglobinaufnahme in die Parasitenzelle vermindern. Dadurch entstehen weniger Hämoglobinabbauprodukte und Artemisinin wird nicht mehr ausreichend aktiviert, um den Parasiten abtöten zu können.
„Eigentlich handelt es sich bei der Arteminisin-Resistenz um eine sehr feinsinnige Balance zwischen Nahrungsaufnahme und Artemisinin-Aktivierung“, fasst Spielmann die Ergebnisse zusammen. „Zum einen muss der Parasit trotz verringerter Hämoglobinaufnahme noch genügend Nahrung zu sich nehmen, um zu überleben, zum anderen darf er gerade nur so viel Hämoglobin aufnehmen, dass Artemisinin nicht mehr ausreichend aktiviert wird“, erklärt der Gruppenleiter. Die Erkenntnisse könnten helfen, verbesserte Malariamedikamente zu entwickeln, um der zunehmenden Artemisinin-Resistenz zu begegnen.
Über das Bernhard-Nocht-Institut für Tropenmedizin
Das Bernhard-Nocht-Institut für Tropenmedizin (BNITM) ist Deutschlands größte Einrichtung für Forschung, Versorgung und Lehre auf dem Gebiet tropentypischer und neu auftretender Infektionskrankheiten. Aktuelle Forschungsschwerpunkte bilden Malaria, hämorrhagische Fieberviren, Immunologie, Epidemiologie und Klinik tropischer Infektionen sowie die Mechanismen der Übertragung von Viren durch Stechmücken. Für den Umgang mit hochpathogenen Viren und infizierten Insekten verfügt das Institut über Laboratorien der höchsten biologischen Sicherheitsstufe (BSL4) und ein Sicherheits-Insektarium (BSL3). Das BNITM umfasst das nationale Referenzzentrum für den Nachweis aller tropischen Infektionserreger und das WHO-Kooperationszentrum für Arboviren und hämorrhagische Fieberviren. Gemeinsam mit dem ghanaischen Gesundheitsministerium und der Universität von Kumasi betreibt es ein modernes Forschungs- und Ausbildungszentrum im westafrikanischen Regenwald, das auch externen Arbeitsgruppen zur Verfügung steht.
Radboud University – Radboud Institute for Molecular Life Sciences
Radboud Institute for Molecular Life Sciences (RIMLS) – a leading research institute that focuses on the molecular mechanisms of disease – brings together research groups from the Radboud university medical center (Radboudumc) and the Faculty of Science (FNWI) of the Radboud University. Clinical and fundamental scientists who specialize in diverse areas of the life sciences work closely together to understand the underlying molecular causes of disease. By integrating fundamental and clinical research, we obtain multifaceted knowledge of (patho)physiolofical processes.
We aim to improve clinical practice and public health by:
1) generating basic knowledge in the molecular medical science
2) translating our gained knowledge into clinical applications, and into diagnostic, therapeutic and personalized treatment strategies
3) training and exposing researchers of all levels to societal-relevant multidisciplinary research questions.
Wissenschaftliche Ansprechpartner:
Dr. Tobias Spielmann
Gruppenleiter Malariaforschung am BNITM
Tel.: +49 40 42818-486
spielmann@bnitm.de
Prof. Richárd Bártfai
Gruppenleiter an der
Radboud University, Netherlands
phone: +31 24 3610561
r.bartfai@science.ru.nl
Originalpublikation:
A Kelch13-defined endocytosis pathway mediates artemisinin resistance in malaria parasites. Birnbaum & Scharf et al., Science 03 Jan 2020:Vol. 367, 6473: 51-59
https://doi.org/10.1126/science.aax4735
Weitere Informationen:
https://www.bnitm.de/forschung/forschungsgruppen/molekularbiologie-und-immunolog…
Arbeitsgruppe Spielmann (Malaria)
Quelle: IDW
Drehscheibe für Energie
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Die erzeugte Energiemenge regenerativer Energiequellen schwankt. Ein neuartiges Energiemanagementsystem des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM ermöglicht es, Photovoltaikanlagen, Batteriespeichersysteme, Wärmepumpen und Elektroautos intelligent zu koppeln – und einzelne Haushalte oder ganze »Energiequartiere« trotz der Schwankungen weitestgehend mit eigener regenerativer Energie zu versorgen.
Hausboote gehören in den Niederlanden seit eh und je zum Stadtbild. In einer Art »Hausboote 2.0« hat Amsterdam nun eine neue Siedlung geschaffen: Sie besteht aus 30 schwimmenden Häusern. Doch nicht darin liegt die Besonderheit dieses Quartiers, sondern vielmehr in seiner Energieversorgung. Über ein ausgeklügeltes System versorgen sich die Häuser zu einem großen Teil selbst mit regenerativer Energie, lediglich einen einzigen, gemeinsam genutzten schmalen Netzanschluss für wolkenverhangene Tage hat der Netzbetreiber bis zum Quartier legen lassen.
Energiemanagementsystem für Energiegemeinschaften
Möglich macht dies ein Energiemanagementsystem des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM und weiterer Partner, entwickelt im ERA-Net-Smart Grids Plus-Projekt »Grid-Friends«. »Wir haben unser bereits existierendes Energiemanagement für einzelne Häuser zu einem Energiemanagementsystem für ganze Energiegemeinschaften weiterentwickelt«, erläutert Projektleiter Matthias Klein. »Das System steuert Photovoltaik-Anlagen ebenso wie Wärmepumpen, füllt die Batteriespeicher, sorgt für geladene Akkus in den Elektroautos und unterstützt somit auch die Sektorenkopplung.« Keine einfache Angelegenheit: Denn auch an dunklen Tagen muss jederzeit genug Energie für alle zur Verfügung stehen, ohne dass es zu einer Überlastung des gemeinsamen Netzanschlusses kommt.
Das Energiemanagement ist modular aufgebaut – auf Wunsch könnte also jedes Modul einzeln installiert werden – und dient als eine Art »Drehscheibe für Energie«. Sprich: Es analysiert zu jedem Zeitpunkt, wo die Energie hin soll und wohin nicht. Dabei funktionieren die in den einzelnen Häusern installierten 30 Photovoltaikanlagen, 30 Wärmepumpen und 30 Energiespeicher im Amsterdamer Quartier wie ein einziges großes System. Ein Beispiel: Angenommen, die Bewohner des Hauses A sind im Urlaub und brauchen daher momentan nur wenig Strom. Die Bewohner des Hauses B haben jedoch derzeit einen erhöhten Strombedarf, etwa weil sie gerade eine Party feiern. Die Energie der Photovoltaikanlage fließt daher unter anderem aus Haus A in Haus B, so dass möglichst wenig Strom vom Netzbetreiber verwendet werden muss. Ist es draußen bereits dunkel und erzeugt die Anlage keinen Strom, greift das System auf die Energiespeicher zu – auch dies erfolgt häuserübergreifend.
Baustein Energiespeicher
Dabei verleiht das Managementsystem jedem Modul seine ganz eigene Intelligenz, die zahlreiche Vorteile mitbringt. So ermöglicht die smarte Steuerung der Energiespeicher beispielsweise, die Photovoltaikanlagen unter Volllast zu betreiben. Das ist keineswegs selbstverständlich: Per Gesetz dürfen Photovoltaikanlagen nicht ihre maximale Leistung ins Netz einspeisen, sondern müssen bei starkem Sonnenschein abgeregelt werden – ansonsten würde das Netz überlastet. Gerade dann also, wenn die Sonne vom Himmel knallt und die Module viel Strom erzeugen könnten, müssen sie gedrosselt werden. Mit Hilfe des Energiemanagementsystems ist das nicht nötig: Der Anteil des Stroms, den die Netzbetreiber nicht abnehmen, fließt in die Speicher und kann später genutzt werden.
Ein Prognosemodell verbessert die Effizienz der Stromspeicherung. Es prognostiziert anhand der Wettervorhersage, wie viel Energie in den kommenden Stunden aus den Photovoltaikanlagen zu erwarten ist und wie hoch der voraussichtliche Wärmeverbrauch sein wird, und steuert die Speicherung anhand der Ergebnisse. Scheint die Sonne beispielsweise vormittags noch verhalten, laufen die Anlagen nicht unter Volllast. Soll es nachmittags dagegen aufklaren, so dass die Anlagen gedrosselt werden müssten, verschiebt das Energiemanagementsystem die Energiespeicherung stattdessen auf den Nachmittag. Die Speicher werden hier also nicht mit der ersten produzierten Kilowattstunde geladen – wie es üblicherweise der Fall wäre – sondern erst nachmittags. Bis abends sind die Speicher trotzdem voll. Es geht keine Energie verloren.
Baustein Elektromobilität
Auch Elektroautos gilt es mit Energie zu versorgen – und zwar vorzugsweise zu Zeiten, in denen die Photovoltaikanlagen ausreichend Strom produzieren. Dennoch möchte niemand vor einem Auto mit leerem Akku stehen, wenn er dringend Besorgungen machen muss. »Die Bewohner können über eine App mit einem Klick angeben, welchen Mindestladezustand sie derzeit für ihr Auto wünschen«, sagt Klein. Reichen vielleicht 50 Prozent, da man nur kurz zum Supermarkt fahren muss? Hat der Nutzer dies angegeben und sein Auto angeschlossen, lädt das System die Batterie bis auf den gewünschten Wert auf – notfalls auch mit Strom vom Netz. Scheint die Sonne, fährt es über diesen Wert hinaus mit der Aufladung fort. Herrscht jedoch Energieflaute, verschiebt das System die weitere Aufladung auf später. Das hat gleich zwei Vorteile: Zum einen steigt die Eigenversorgung mit Energie, zum anderen tangieren die Aufladungen, die über den nötigen Wert hinausgehen, den Netzbetreiber nicht – das Energienetz wird stark entlastet.
Nicht nur für große Siedlungen interessant
Die Module können auch einzeln verwendet und auf den jeweils gewünschten Anwendungsfall zugeschnitten werden. »Es gibt bereits 60 bis 70 dauerhafte Installationen unseres Systems – vom einzelnen Privathaushalt über Kantinen und ganze Betriebe bis hin zu einer Kläranlage. Während das System in Amsterdam Leistungsspitzen bis zu 250 Kilowatt verschiebt, steuert es in der Industrie bislang 150 Kilowatt an«, erläutert Klein. Vertrieben wird das System seit Anfang 2019 über die Wendeware AG, einem Spin-off des Fraunhofer ITWM.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/drehscheibe-…
Quelle: IDW
IAB-Arbeitsmarktbarometer: Arbeitsmarkt geht stabil ins nächste Jahr
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer hat sich im Dezember auf seinem Vormonatswert behauptet. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) liegt bei 102,0 Punkten und signalisiert damit weiterhin eine gute Arbeitsmarktentwicklung.
Die Einschätzungen der Arbeitsagenturen im Hinblick auf die Entwicklung der Arbeitslosigkeit haben sich noch einmal leicht um 0,1 Punkte auf 99,4 Punkte verbessert. Bereits im Vormonat hatte sich die Arbeitslosigkeitskomponente des IAB-Arbeitsmarktbarometers deutlich erholt. Zwar steht der aktuelle Wert noch für eine tendenziell eher ungünstige Entwicklung, es sind aber in den nächsten Monaten allenfalls leichte Zunahmen der saisonbereinigten Arbeitslosigkeit zu erwarten. „Die Industrie leidet unter der abgeschwächten Exportnachfrage. Angesichts der Arbeitskräfteknappheit bleiben gravierende Konsequenzen bei der Arbeitslosigkeit aber aus“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.
Die Beschäftigungskomponente des IAB-Arbeitsmarktbarometers verliert im Dezember leicht um 0,1 Punkte auf 104,6 Punkte. Damit bleibt der Beschäftigungsausblick trotz der konjunkturellen Schwäche deutlich positiv. „Der Arbeitsmarkt ist ein Stabilitätsanker für die Binnenkonjunktur. Wenn sich die Weltkonjunktur erholt, wird es 2020 in Deutschland wirtschaftlich auch wieder bergauf gehen“, erklärt Weber.
Das IAB-Arbeitsmarktbarometer ist ein Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).
Weitere Informationen:
http://www.iab.de/presse/abzeitreihe
http://www.iab.de/presse/abgrafik
Quelle: IDW